210 72 76MB
German Pages 290 [308] Year 1971
Wahrscheinlichkeitsrechnung und mathematische Statistik
LEXIKON
Wahrscheinlichkeitsrechnung und mathematische Statistik
Herausgegeben von
Prof. Dr. P. H. M Ü L L E R Technische Universität Dresden
LEXIKON
AKADEMIE-VERLAG • B E R L I N 1970
Autorenkollektiv unter Federführung von Prof. Dr. rer. nat. habil. P. H. M Ü L L E R Dr. phil. H e l m u t E b e r s b e r g e r Dr. rer. nat. H e i n z G i l l e r t Dipl.-Math. L o t h a r G r a m m l i c h Dr. rer. nat. habil. Rolf K ü h n e Dr. rer. nat. Gert M a i b a u m Dr. rer. nat. P e t e r N e u m a n n Dr. rer. nat. V o l k e r N o l l a u Dr. rer. nat. F r a n z S c h m i d t Dipl.-Math. R e g i n a S t o r m Dr. rer. nat. habil. W o l f g a n g W i n k l e r
Erschienen im Akademie-Verlag GmbH, 108 Berlin. Leipziger Straße 3—4 Copyright 1970 by Akademie-Verlag GmbH Lizenznummer: 202 . 100/412/70 Gesamtherstellung: VEB Druckerei „Thomas Müntzer", 582 Bad Langensalza Bestellnummer: S771 . ES 19 B 5 15,-
Vorwort
Das Lexikon der Wahrscheinlichkeitstheorie und Mathematischen Statistik soll dazu dienen, das Grundwissen der Wahrscheinlichkeitstheorie und Mathematischen Statistik sowie zugehöriger Anwendungsgebiete anhand alphabetisch geordneter Sachbegriffe darzustellen. Eine exakte Beschreibung dieses Stoffes kann nur mittels mathematischer Formulierungen erfolgen. Dabei werden die etwas schwierigeren und abstrakteren Bergiffe einleitend hinsichtlich ihrer Bedeutung und ihres Inhaltes kurz gekennzeichnet, bevor ihre eigentliche mathematische Definition erfolgt. Benutzer, denen es mehr auf unmittelbare Anwendungen (z. B. Tests, Schätzungen, Regression) ankommt, finden die jeweiligen Verfahren und Formeln gebrauchsfertig bereitgestellt. Insbesondere sind eine Vielzahl praktisch bedeutsamer Testverfahren aufgenommen worden, die ansonsten in der Literatur nur sehr verstreut bzw. in schwer zugänglichen Spezialarbeiten vorliegen. Zur Erleichterung für den Leser sind eine Anzahl mathematischer Grundbegriffe, die für das Verständnis unbedingt erforderlich sind, in eigenen Artikeln erläutert. Somit ist zu hoffen, daß das vorliegende Lexikon einem breiten Benutzerkreis gerecht wird. Das Lexikon ist aus einer Artikelserie hervorgegangen, die mit einem Kreis erfahrener Mitarbeiter für das (ebenfalls im Akademie-Verlag erschienene) Mathematische Wörterbuch zum Sachgebiet Wahrscheinlichkeitstheorie und Mathematische Statistik erarbeitet wurde. Da die Wahrscheinlichkeitstheorie und Mathematische Statistik sowie deren vielfältige Anwendungsgebiete — nicht zuletzt auch im Zusammenhang mit kybernetischen Fragestellungen — eine zweifellos sehr große und überdies zunehmende Bedeutung besitzt, hielt ich es für nützlich, das Begonnene durch Überarbeitung und Erweiterung der Artikel fortzuführen mit dem Ziele, den Studierenden sowie u. a. Naturwissenschaftlern, Ingenieuren, Ökonomen und Medizinern einen bequemen wie aber auch in wissenschaftlicher Hinsicht verläßlichen Ratgeber in die Hand zu geben. Das Lexikon verdankt sein Zustandekommen vor allem einer guten wissenschaftlichen Kollektivarbeit. So mancher Artikel reifte in lebhaften
VI
Diskussionen, die vielfach in einem Seminar unter Einbeziehung von Studierenden durchgeführt wurden. Kritische Hinweise aus dem Benutzerkreis werden gern entgegengenommen. Dresden, den 13. Februar 1970.
P . H . MÜLLEH
Hinweise für den Benutzer
Die Artikel sind alphabetisch geordnet. Bei Artikelbezeichnungen, die aus mehreren Wörtern bestehen, ist der für die Kennzeichnung des Inhalts wesentlichere Begriff vorangestellt; z. B. „Kontingenz, mittlere quadratische", „Versuchsplanung, statistische", „RADON-NIKODYM, Satz von" — jedoch kommen derartige Umstellungen relativ selten vor. Zur Erklärung der Begriffe wird häufiger Gebrauch von dem Verweiszeichen „ >!i gemacht: Es verweist auf denjenigen Artikel, der Aufschluß über den betreffenden Begriff gibt. Beim Verweis auf Verteilungen wurden Verweiszeichen zur Vereinfachung der Formulierungen sowohl bei den Substantiven als auch den zugehörigen Adjektiven angebracht, jedoch findet der Leser die Erklärung hierbei stets bei den Substantiven, z. B. „> normalverteilt" steht f ü r „ y Normalverteilung' '. I n den Artikeln verwendete mathematische Symbole und deren Bedeutung sind — sofern sie nicht zum bekamiten Allgemeingut zu zählen sind — am Anfang des Lexikons zusammengestellt. In runden Klammern ( ) stehende Zahlen verweisen auf das Literaturverzeichnis am Schluß des Lexikons; die Bezeichnung (T ) gibt an, daß es sich um ein Tafelwerk handelt. In eckigen Klammern [ ] stehende Zahlen kennzeichnen spezifische Ergänzungsliteratur, die jeweils am Ende des betreffenden Artikels aufgeführt ist.
Symbolverzeichnis
SS1 er-Algebra der 'BoREL-Mengen des R l SS" (n natürliche Zahl) cr-Algebra der >BoEEL-Mengen des R n S3[-X„ s Limites von lim Limes inferior | Mengenfolgen) >LEBESGUEsche Räume, 0 < p Lp oo L n {.) LjAPUNOVScher Bruch, 'zentraler Grenzwertsatz max Maximum min Minimum mod(.) Modulo. x~k mod(w) bedeutet: x = mn + k; m, k ganze Zahlen, n natürliche Zahl
IX N(jx, a2) 0 o(.)
N o r m a l Verteilung mit 'Erwartungswert ¡1 und ^Streuung a2 leere Menge; unmögliches Ereignis (''Ereignisfelder und Wahrscheinlichkeitsalgebren) (lies „klein o von .") (LANDATjsches Symbol); z. B. bedeutet f(t) = o lg(t)\ (t 0) für F u n k t i o n e n / u n d g, daß lim = 0 t—o 9(ß) c ist; cn = o(n) (n oo) bedeutet, daß lim — = 0 ist.
0(.)
(lies „groß 0 von .") (LANDAUsches Symbol); z. B. bedeutet f(t) = 0 (g(t)) (t^O) für Funktionen / und g, daß lim ^ c
(0 < I | < P(.) PB{.) P(.|.) B1 Bn S2 s2 s sgn(.)
sup var X x r(.)
x, n
00
)
st
i ;
c
n = 0(n)
(n -> oo)
bedeutet,
c daß
lim — ~~~ 1c (REtoNECKER-Symbol) 0 für i 4= k 'Semiinvariante der Ordnung v (v natürliche Zahl) Umfang des Kreises mit dem Durchmesser 1 (n = 3,14159...)
er2 0 0'1 = W {x\x € E} :=
ä f\x
y
-i
5
/(^)J(-B) ( aj)jsi f. 8.
f(x + 0 ) f(x — 0) ent[«]
[x]
C) A x B % = (aik) 91r %'
Streuung Verteilungsfunktion der standardisierten ^ormalverteilung Umkehrfunktion von Menge aller x aus E definierender Doppelpunkt. In „A := B" wird A durch B definiert Implikationszeichen; .4 bedeutet: Aus >4 folgt B. die zu a konjugiert-komplexe Zahl
=%T
Funktion ^Familie Konvergenz fast sicher ^Konvergenzarten für Folgen zufälliger Variabler, a)) Konvergenz in Wahrscheinlichkeit ^Konvergenzarten für Folgen zufälliger Variabler, c)) = lim / (x + e) rechts 1 l-seitiger Grenzwert der Funktion/ = lim / (x — e) links a n der Stelle x Produkt von Mengen ^Matrix transponierte Matrix
[ß, 33] '•meßbarer Raum, z. B. [B1, 331] { X t } , t e T >stochastischer Prozeß {Xt}tsT = X ( t ) , t z T [,Qm, 33m] Meßbarer Raum \_Q, 33, ¡A >Maßraum [Q, 33, P] Wahrscheinlichkeitsraum Q ( [ Q , 33, P]) Grundgesamtheit (Stichprobe) m m ist ein bezüglich m' •absolutstetiges Maß
A Abbildung
»Funktion
Ablehnungsbereich
»Testtheorie, »Signifikanztest
Ableitung eines stochastischen Prozesses: 1. im quadratischen Mittel: »stochastischer Prozeß, im quadratischen Mittel differenzierbar. 2. fast sicher: »stochastischer Prozeß mit Wahrscheinlichkeit 1 differenzierbar. absolute Häufigkeit absolute Momente
»relative Häufigkeit »Momente
absolute Verteilung eines »MARKOvschen Prozesses absolutstetiges Maß: Es sei [Q, 33] ein »meßbarer Baum sowie m und m' zwei »Maße auf [Q, 33], Dann heißt das Maß m absolutstetig bez. m' (Bezeichnung: m m'), wenn für jede Menge N e 33 mit m'{N) = 0 auch m(N) = 0 gilt, mit anderen Worten, wenn jede m'-»Nullmenge auch eine w-NulImenge ist. absorbierender Zustand einer homogenen MARKOvschen Kette scher Prozeß ähnlicher Test
»MABKOV-
»Testtheorie
äquivalente Maße: Zwei Maße m und m' (auf einem »meßbaren Baum [£?, 33]) heißen zueinander äquivalent, wenn sie dieselben »Nullmengen besitzen, d. h., wenn m bez. m' und ebenso m' bez. m »absolutstetig sind. äquivalente stochastische Prozesse: Zwei »stochastische Prozesse { X t } und { Z ( } , t e T, über den »Wahrscheinlichkeitsräumen [Q, 33, P ] bzw. [Q', 33', P ' ] und mit demselben Bildraum ©] heißen äquivalent, wenn
Ä q u i v a l e n z k l a s s e
2
ihre endlichdimensionalen Verteilungen übereinstimmen: p
^ n
e
a
^
=
p '
^ n
{ o / \ x i
t
( c / )
e
A
l
t
y j .
Sind überdies die zugrunde liegenden Wahrscheinlichkeitsräume identisch, so heißen {X t } und {-X('} s t o c h a s t i s c h e M o d i f i k a t i o n e n voneinander, und es gilt P (X, = X',) = 1 für jedes t e T. Äquivalenzklasse meßbarer Funktionen Äquivalenz (meßbarer Funktionen) Äquivalenz (meßbarer Funktionen): Es seien ü , Q' zwei Mengen, 33 bzw. 33' eine (^»Algebra (oder ein ff-»Ring) von Teilmengen aus Q bzw. Q' und n ein Maß auf 33- Sind zwei (33, 33')- >me ßbare Funktionen/: ü -> Q' und g: Q -> ü ' //-»fast überall gleich, d. h., gilt f ( c o ) — g ( o j ) für /x-fast alle co e Q , so nennt man / und g auch ¡ ¿ - ä q u i v a l e n t . Die Menge [/) aller zu einer vorgegebenen (33, 33')-meß'ba.reii Funktion / ^-äquivalenten Funktionen heißt die Ä q u i v a l e n z k l a s s e der zu///-äquivalenten Funktionen. Aggregatindex
»Indexzahl
Algebra (von Mengen): Ein (nichtleeres) System 33 von Teilmengen einer Menge Q heißt eine A l g e b r a , wenn 1. Q und die leere Menge 0 zu 33 gehören, 2. zu je zwei Mengen E, F des Systems 33 deren Vereinigung E u F, Durchschnitt E nF und Differenz E\F zu 33 gehören. Gilt außerdem 3. für jede Folge A oo damit auch f| A
1
00
, A „
2
e
,
von Mengen aus 33 auch ( J A n—1 33), so heißt 33 eine a - A l g e b r a . . . . , A „ ,
. . .
n = l
„
€ 33 (und
Ist ein System S von Teilmengen einer Menge Q gegeben, so existiert unter allen S enthaltenden ff-Algebren auf Q eine kleinste (8 enthaltende) er-Algebra. Sie heißt die v o n S e r z e u g t e o - A l g e b r a und wird mit 3 3 { ¡ S ) bezeichnet. (Analog definiert man die von S erzeugte Algebra.) allgemeine »Regression: = Regression 1. Art allgemeiner Erneuerungsprozeß Alternativhypothese
»Testtheorie
alternierender Erneuerungsprozeß Anfangsmomente
»Erneuerungstheorie
»Momente
»Erneuerungstheorie
3
a-priori-Wahrscheinlichkeit
Anîangsverteilung eines •MARKOvschen Prozesses Anpassungstest: Als Anpassungstest bezeichnet man einen statistischen Test (•Testtheorie) zur Prüfung der •Hypothese, daß die Verteilungsfunktion einer •Zufallsgröße eine ganz bestimmte Verteilungsfunktion ist oder zu einer bestimmten Klasse von Verteilungsfunktionen gehört. Beispiele für Anpassungstests sind der Anpassungstest ( > / 2 -Tcst, II), der •KOLMOGOBOV-Test, d e r 'CBAMER-VON MISES-Test.
Ansteckungsverteilung = •POL YA-Verteilung Anziehungsbcreich einer Yerteilungsfunktion: Es sei (Xk), fe = 1 , 2 , . . . , eine Folge unabhängiger •Zufallsgrößen (•Unabhängigkeit zufälliger Variabler) mit derselben Verteilungsfunktion F . Konvergiert bei geeigneter Wahl der Konstanten an und b„ die Folge der Verteilungsfunktionen der zentrierten und normierten Summen n
2 Xk — a,n
gegen eine •Verteilungsfunktion G, so sagt man, F gehöre zum Anziehungsoder Einzugsbereich der Verteilungsfunktion G. G besitzt genau dann einen Anziehungsbereich, wenn G einem •stabilen Verteilungstyp angehört. Zwei Verteilungsfunktionen, die demselben •Verteilungstyp angehören, haben denselben Anziehungsbereich (Typeneigenschaft des Anziehungsbereichs). Der Begriff des Anziehungsbereichs findet in der Literatur auch bei Grenzverteilungssätzen (•Grenzwertsätze) anderer Funktionen von Zufallsgrößen, wie z. B. Maximum und Minimum, Anwendung (•Extremwertverteilungen). Lit.:
(17)
aperiodischer Zustand einer homogenen MABKovschen Kette •MABKOvscher Prozeß a-posteriori-Wahrscheinlichkeit a-priori-Verteilung
•BAYESsche Formel
•Entscheidungstheorie
a-priori-Wahrscheinlichkeit
•BAYESsche Formel
4
Arcussinus-Gesetz
Arcussinus-Gesetz: (X t ), k = 1, 2, . . . , sei eine Folge von •Zufallsgrößen, n 8n : = 2J Xk, S0 : = 0. Das Arcussinus-Gesetz ist eine Klasse von •Grenzi-i wertsätzen über das Verhalten (n -> oo) der Verteilungsfunktionen der Zufallsgrößen Ln : = min {k\Sk = max (£0, . . . , £„)} (für festes» ist Ln der Index des ersten Maximums der Folge /Sq,^, . . . , Sn), Mn : = max {k\8t — min (S0, . . . , Sn)} , Nn : = Anzahl der 8k, k — 1, . . ., n, die positiv sind. U. a. gilt: Ist (Xk) eine Folge unabhängiger (•Unabhängigkeit zufälliger Variabler), identisch verteilter Zufallsgrößen mit •symmetrischer Verteilung bez. 0, dann gilt K \ 2
(
0 < x < 1, — < a ; l = — Aresin ]fx , / nL„, n—M„' oder Nn—bezeichnet. — wobei Kn eine n der—Größen Lit.:
(11), Band 2; (45) [1] ANDERSEN, E. S., On the fluetuations of sums of random variables, Math. Scand. 1 (1953), 263-285; 2 (1954), 195-223.
arithmetisches Mittel
•Mittelwerte
ASN-Funktion •Sequentialanalyse asymptotisch äquivalente Folgen von Zufallsgrößen •asymptotische Eigenschaften von Folgen von Zufallsgrößen asymptotische Eigenschaften von Folgen von Zufallsgrößen: Im Zusammenhang mit der Theorie der •Grenzwertsätze und der •Gesetze der großen Zahlen sind folgende asymptotische Eigenschaften von Folgen von Zufallsgrößen von Bedeutung: 1. Zwei Folgen (Xn) und (Yn) von •Zufallsgrößen heißen asymptotisch äquivalent, wenn die Folge der Differenzen Xn — Yn in Wahrscheinlichkeit gegen Null konvergiert (•Konvergenzarten für Folgen zufälliger Variabler). Eine Folge von Zufallsgrößen X„ heißt stabil, wenn es eine Folge •einpunktverteilter Zufallsgrößen Yn gibt, so daß (Xn) asymptotisch äquivalent zu (Y n ) ist, d. h., wenn es eine Folge o„ reeller Zahlen gibt, so daß Xn - an -f 0 güt. 2. Eine Doppelfolge (X n f ), r = 1, . . . , kn, n = 1, 2, . . . , von Zufallsgrößen (auch Serienschema genannt) heißt infinitesimal für n -* oo, wenn für jedes e > 0 lim
gilt.
sup
P (|X„r| ^ e) = 0
w—•oo r = l,.;,Jcn
5
Ausreißer
3. Eine Doppelfolge ( X n r ) von Zufallsgrößen heißt asymptotisch konstant, wenn es reelle Zahlen anr gibt, so daß «üe Doppelfolge (Xnr — anr) für n -> oo infinitesimal ist. 4. Eine Doppelfolge (-X"Br) von Zufallsgrößen heißt gleichmäßig klein für n -> oo, wenn für jedes e > 0 lim P gilt.
asymptotisch effektive Folge von •Punktschätzungen asymptotisch erwartungstreue Schätzfunktion •Punktschätzungen asymptotische Wirksamkeit einer Folge von Tests
•Testtheorie
asymptotische Wirksamkeit von •Punktschätzungen asymptotisch konstant Zufallsgrößen
•asymptotische Eigenschaften von Folgen von
asymptotisch N(fin, o„)-verteilt: wird eine Folge von •Zufallsgrößen Xn (» = 1 , 2 , . . . ) genannt, wenn für n -> oo die Folge der Verteilungsfunktionen von " schwach (•Konvergenzarten für Folgen von Wahrscheinlichkeitsverteilungen, c)) gegen die Verteilungsfunktion 5> der •standardisierten •Normal Verteilung konvergiert. atomares Ereignis Attributprüfung
Ereignisfelder und Wahrscheinlichkeitsalgebren
•statistische Qualitätskontrolle
Ausdehnungsmaß Ausfallfreiheit
>
•Diskriminanzanalyse
•Zuverlässigkeitstheorie
Ausfallintensität = Erneuerungsdichte (•Erneuerungstheorie) Ausfallrate
•Zuverlässigkeitstheorie
ausgeartete Verteilung = •Einpunktverteilung Ausreißer
•Ausreißerproblem
6
Ausreißerproblem
Ausreißerproblem: Bei Meßreihen tritt mitunter der Fall ein, daß der Maximalwert wesentlich größer (oder der Minimalwert wesentlich kleiner) als die übrigen beobachteten Werte ist, so daß man im Zusammenhang mit der praktischen Problemstellung vermutet, daß dieser Wert in irgendeiner Weise verfälscht ist, d. h. als ''Realisierung der zugrunde liegenden >Zufallsgröße X fraglich erscheint und somit für die vorliegende Grundgesamtheit (Stichprobe) nicht repräsentativ ist. Man bezeichnet allgemein einen derartigen verdächtigen Wert x* als Ausreißer, wenn ein sog. Ausreißertest (39), [1] (Signifikanztest) die Hypothese ablehnt, daß x* Element einer Stichprobe aus der zu X gehörenden Grundgesamtheit ist. Andererseits sind z .B. in einer Stichprobe aus einer zu einer nichtbeschränkten Zufallsgröße gehörenden Grundgesamtheit beliebig große (oder kleine) Werte (d. h. oberhalb (oder unterhalb) jeder vorgegebenen Schranke) mit positiver Wahrscheinlichkeit zu erwarten. Deshalb sollte das Verwerfen eines verdächtigen Wertes nicht willkürlich, sondern auf Grund eines Ausreißertests erfolgen. Das Ausreißerproblem besteht darin, verfälschte bzw. nicht repräsentative Werte als Ausreißer zu erkennen und ihren Einfluß bei der weiteren Auswertung durch Wahl geeigneter Schätzfunktionen ('Punktschätzungen) bzw. geeigneter Testgrößen (•Testtheorie) möglichst auszuschalten. Lit.:
[1] FERGUSON, TH. S., Rules for rejection of outliers, Rev. Inst. Internat. Statist. 29 (1961), 2 9 - 4 3 . [2] GEBHABDT, F., BAYES-Lösungen des Ausreißerproblems, Dissertation, München 1961.
Ausreißertest
>
Ausreißerproblem
Autokorrelationsfunktion
•Korrelationsfunktion
autoregressives Modell: Das autoregressive Modell r-ter Ordnung, r = = 0, 1, 2, . . . , ist ein stochastisches Modell, das bei der statistischen •Zeitreihenanalyse verwendet wird. Es besteht darin, daß die zu analysierende Zeitreihe xtj, . . . , xts als •Realisierung eines •stochastischen Prozesses Xt, t € B1, an den Stellen t = . . . , tN aufgefaßt wird, der der stochastischen Differenzengleichung r-ter Ordnung r
£ a-k Xt-k
1=0
=
it
genügt. Es ist dabei (f £ ) eine Folge unabhängiger (•Unabhängigkeit zufälliger Variabler) oder allgemeiner unkorrelierter (•Korrelationskoeffizient), •identisch verteilter Zufallsgrößen und (ak) eine Folge reeller Zahlen.
7
Bartlett-Test
B balanzierter Versuchsplan
> Varianzanalyse
3ARTLETT-Test: D e r B a k t l e t t - Test ist ein S i g n i f i k a n z t e s t zum P r ü f e n
der Hypothese über die Gleichheit der Streuungen al von k •normalverteilten unabhängigen (>Unabhängigkeit zufälliger Variabler) >Zufallsgrößen Xlt . . . , Xk anhand k konkreter Stichproben (xn, . . . , Xim) vom Umfang % 2) aus den zu Xt (i = 1, . . . , k; k > 2) gehörenden Grundgesamtheiten. 1. Hypothese H: a\ — • • • = a%. 2. Testgröße T: =
- k) In 82 - ü (% - 1) InÄ?] bzw. beiVer^ L ¡=i J 2 3026 T wendung des dekadischen Logarithmus T = — (N — k) lg S2 — -
!
i=l
( n t - l ) lg
—
'
J
; dabei sind N = ¿nitC = l + r-^—- ( t ¡=i — 1) \i=i n~ 1 Stichprobenstreuung (Empirische Momente) einer
mathematischen Stichprobe vom Umfang nt aus der zu X{ gehörenden k 1 Grundgesamtheit (i = 1, . . . , k) und S2 = ——- £ (nL — 1) S'f. Falls die Hypothese H wahr ist, besitzt die Testgröße T asymptotisch (d. h. für % -> oo,. . . , nk oo) eine Verteilung mit k — 1 Freiheitsgraden. 3. Kritischer Bereich K * : = {i ¡< > / ; _i}; dabei ist Xi-«-,fc-i das yQuantil der Ordnung 1 — 0 (¿ = 1 , 2 , . . . ) ist. Wenn B e g irgendein zufälliges Ereignis mit P{B) > 0 ist, dann gilt für die bedingte Wahrscheinlichkeit des Ereignisses Af unter der Bedingung B P(At\B)
=
(¿=1,2,..
.)
(BAYESscAe
Formel).
3
Für die Anwendungen (besonders in der >Entscheidungstheorie) ist folgende Interpretation wichtig: Die zufälligen Ereignisse At (i — 1,2, . . .) seien gewisse Bedingungen, die mit den bekannten Wahrscheinlichkeiten P(A{) (sog. a-priori-Wahrscheinlichkeit von A{) eintreten können. Ist bei einem •Zufallsexperiment das Ereignis B e © eingetreten, so interessiert man sich nunmehr für die Wahrscheinlichkeiten PB(AJ) ES P(Ai\B), daß nämlich unter der Voraussetzung „B ist eingetreten" die Bedingung A{ erfüllt war. Die BAYEssche Formel gestattet es, bei Kenntnis von P(B\At) (¿ = 1 , 2 , . . . ) diese Wahrscheinlichkeiten PB(AJ) (sog. a-posterioriWahrscheinlichkeit von A{) zu berechnen. BAYES8ehes Risiko
>Entscheidungstheorie
B edienungsorganisation
•Bedienungstheorie
Bedienungstheorie: Die Bedienungstheorie ist ein spezielles Anwendungsgebiet der Wahrscheinlichkeitstheorie und beschäftigt sich mit der mathematischen Beschreibung und Untersuchung von Bedienungssituationen, in denen zufällige Einflüsse eine Rolle spielen. Bedienungssituationen treten in großer Zahl und in vielfältiger Form in vielen gesellschaftlichen Bereichen auf. Beispiele hierfür sind: „Telefonanrufe verlangen Vermittlung in einer Telefonzentrale", „Kunden fordern Bedienung an einem
Bedienungstheorie
9
Schalter", „Reparaturen bedürfen der Erledigung in einer Reparaturwerkstatt". Das Wesen einer Bedienungssituation bestellt allgemein in folgendem: Kunden treten zu zufälligen Zeitpunkten in ein Bedienungssystem ein — sog. Kundenstrom — und fordern Bedienung, die durch Bedienungsgeräte erfolgt. Die Zeitdauer einer Bedienung ist ebenfalls zufällig. Eine mathematische Behandlung von Bedienungsproblemen führt daher zwangsläufig auf die Anwendung wahrscheinliohkeitstheoretischer Methoden, wobei die Theorie der •stochastischen Prozesse eine wichtige Rolle spielt. Die mathematische Beschreibung einer Bedienungssituation erfolgt durch die Angabe der •Wahrscheinlichkeitsverteilung der zufälligen Punktfolge (•Punktprozesse), die die Zeitpunkte eintreffender Kunden bilden, die Angabe der Wahrscheinlichkeitsverteilung der Bedienungszeit und die Vereinbarung einer Bedienungsorganisation. Ein besonders markantes Beispiel für den Kundenstrom ist der homogene •PoissoNsche Prozeß mit der Intensität X. Die zufällige Anzahl Xt der im Zeitintervall [0, t) eintreffenden Kunden genügt dann einer •POISSON-Verteilung mit dem Parameter A t, und es ist P (Xt = k) = , k = 0, 1,. . . .
kl
Unter einer Bedienungsorganisation versteht man eine Festlegung über das Schicksal von Kunden, die zu einer Zeit in das Bedienungssystem eintreten, zu der alle Bedienungsgeräte mit der Bedienung anderer Kunden beschäftigt sind. Solche Kunden können abgewiesen werden — sog. Verlustsystem — oder bilden eine Warteschlange — sog. Wartesystem —, aus der sie u. U. auch weggehen, bevor sie bedient worden sind — sog. Wartesystem mit teilweisem Verlust. Zur vollständigen Beschreibung eines Wartesystems gehört ferner noch eine Vereinbarung über die Reihenfolge der Bedienung der wartenden Kunden, wie z. B. „Bedienung der Reihe nach", „Bedienung der Dringlichkeit nach", „Festlegung des nächsten zu bedienenden Kunden durch ein Zufallsexperiment".
Die Aufgabe der Bedienungstheorie besteht in der Ausarbeitung und Anwendung von Methoden, die es gestatten, aus der Beschreibung der Bedienungssituation die Verteilung von Kenngrößen zur Beurteilung des Zustandes und der Arbeitsgüte des Bedienungssystems zu gewinnen. Es interessieren z . B . die Verteilung der Anzahl der wartenden Kunden im Bedienungssystem (Warteschlangenlänge), die Verteilung der Wartezeit eines einzelnen Kunden und auch die Wahrscheinlichkeit dafür, daß ein eintreffender Kunde abgewiesen wird (Verlustwahrscheinlichkeit). Zur Lösung von Problemen der Bedienungstheorie werden gegenwärtig im wesentlichen die folgenden mathematischen Hilfsmittel, Methoden und eigenständigen Theorien eingesetzt: die LAPLACE-Transformation, •erzeugende Funktionen, die Theorie der •MARKovschen Prozesse und Ketten, 2*
bedingte
10
Entropie
besonders auch die Methode der eingebetteten MARKOVschen Kette (siehe z. B. (19), Kap. 3), die Theorie der •halbmarkovschen Prozesse und die •Erneuerungstheorie. Bei schwierigen Bedienungsproblemen empfiehlt sich eine angenäherte Lösung durch Monte-Carlo-Simulation (•MonteCarlo-Methode) der Bedienungssituation. Die Bedienungstheorie geht auf Arbeiten von A. K. ERLANG (1878 bis 1929) zurück, der als erster Telefonprobleme mit Methoden der Wahrscheinlichkeitstheorie löste (•EßLANGsche Formel). Ein ausführliches Literaturverzeichnis über moderne Methoden der Bedienungstheorie findet man in (49). •Zuverlässigkeitstheorie Lit.: (19), (49) [1] LE GALL, P., Les systèmes avec au sans attente et les processus stoohastiques, Paris 1962.
bedingte Entropie
•Entropie eines Versuches
bedingte Erwartung: X sei eine (reellwertige) •Zufallsgröße über dem •Wahrscheinlichkeitsraum [Û, 33, P ] mit endlichem •Erwartungswert; $80 bezeichne eine beliebige Teil- 6 Ü\C. Dann heißt die (spezielle) bedingte Erwartung -E(£C|330) = : -P(C|390) bedingte Wahrscheinlichkeit von C bezüglich 330 (ihre Definitionsgleichung (*) besitzt hierbei die Form / P(Cj®0) dP = P (C n B), (B e 9%)). Für eine B Familie (Xt)liT von Zufallsgrößen definiert man P(G\Xt, t e T) : = E (Xc\Xt, t e T) als bedingte Wahrscheinlichkeit von C bezüglich, (Xt)tiTSpezialisierung von Ib) liefert die Definition der bedingten Wahrscheinlichkeit P{C\A) von C unter der Bedingung (auch Hypothese) A (A e 35, 0 < P(A) < 1) durch P(C\A) := E{%C\A) = P ( ^ ) ' 1 P(A n C). Lit.:
(2), (40), (53)
bedingter Erwartungswert: Es seien X, Y zwei yZufallsgrößen über dem Wahrscheinlichkeitsraum [¿2, 33, -P], wobei X einen (endlichen) >Erwartungswert besitze, und es sei Fxir=y die bedingte Verteilungsfunktion von X unter der Bedingung Y = y (bedingte Wahrscheinlichkeitsverteilung). Der zu dieser Verteilungsfunktion gehörige Erwartungswert B{X\J=y)-.=
CO
J zdFjr,r-,(*) — CO heißt der bedingte Erwartungswert von X unter der Bedingung (auch Hypothese) Y = y. Ist speziell (X, Y) ein zweidimensionaler diskreter ^zufälliger Vektor, der die Werte (xit yk) mit den Wahrscheinlichkeiten P (X =xuY — yk) = = Pik > 0 (i, ¿ = 1 , 2 , . . . ) annimmt, so gilt E(X\Y = yk) =
E XiPih
Falls (X, J ) ein zweidimensionaler stetiger zufälliger Vektor mit der Wahrscheinlichkeitsdichte /(x,r> ist und für y die Beziehung fx(y) : =
bedingte
Verteilungsfunktion
12
/ /(X, Y)(x, y) dx > 0 gilt, dann ergibt sich
- oo
oo
E{X\Y=y)
I xf(x, Y)(x, y) dx m
Setzt man f(y) := E (X| Y —y) und Z(oj) : = /(F(a>)), so ist dadurch eine meßbare Funktion Z auf Q — also eine Zufallsgröße — definiert, die bedingte Erwartung von X bez. Y heißt und mit E(X\Y) := Z bezeichnet wird. (Allgemeiner bedingte Erwartung.) Analog definiert man z. B. für n Zufallsgrößen Xlt X2, . . . , X„ den bedingten Erwartungswert E (X n jXj = xlt X2 = x2, . . . , Xn_i = xn_i) und die bedingte Erwartung E (-X^l-X^, X2, . . . , von Xn bez. Xlt X2, . . . , I„_i. Lit:
(2), (40), (53)
bedingtes Wahrscheinlichkeitsmaß: Es seien [Q, 93, P] ein >Wahrscheinlichkeitsraum und A ein Ereignis positiver Wahrscheinlichkeit P(A) > 0. Dann heißt das durch PÄ(B)
: = PIA)-1
P(ANB)
(B 6 93)
auf $8 definierte ^Wahrscheinlichkeitsmaß PA bedingtes Wahrscheinlichkeitsmaß (unter der Bedingung A oder auch unter der Hypothese A). Vgl. auch: bedingte Wahrscheinlichkeit eines Ereignisses. bedingte Verteilungsfunktion
bedingte Wahrscheinlichkeitsverteilung
bedingte Wahrscheinlichkeit eines Ereignisses: Es seien [©, P] eine Wahrscheinlichkeitsalgebra ^Ereignisfeider und Wahrscheinlichkeitsalgebren) und E ein (zufälliges) Ereignis positiver Wahrscheinlichkeit. Ist die Bedingung (Hypothese) „E eingetreten" erfüllt (wahr), so bewirkt dies i. a. eine Änderung der >Wahrscheinlichkeit eines Ereignisses E1 € @: aus P(EJ) wird P(E1\E) (lies: Wahrscheinlichkeit von E1 unter der Bedingung (Hypothese) E). An Beispielen überzeugt man sich, daß die Definition P{EX\E) = PE{E-l) = P {EJ, n E) Piß)'1 dem oben beschriebenen Sachverhalt angepaßt ist. (So gilt z . B . P(EX\E) = 0, falls ET und E unvereinbar sind (d. h. ET n E = 0), und P{E1\E) = 1, falls E das Ereignis ET zur Folge hat.) Die bei festem E e Gf, P(E) > 0, hierdurch auf © definierte Funktion P% besitzt alle Eigenschaften einer Wahrscheinlichkeit (d. h., [(£, Pg] ist eine Wahrscheinlichkeitsalgebra) und wird bedingte Wahrscheinlichkeit eines Ereignisses (auch: Wahrscheinlichkeit unter der Bedingung E, Wahrscheinlichkeit unter der Hypothese E) genannt. bedingte Wahrscheinlichkeitsdichte teilung
bedingte
Wahrscheinlichkeitsver-
13
bedingte
Wahrscheinlichkeitsverteilung
bedingte Wahrscheinlichkeitsverteilung: a) E s sei (X, Y) ein zweidimensionaler diskreter •zufälliger Vektor, der die Werte (xt, yk) mit den Wahrscheinlichkeiten P(X
=xt,T=
yk) =pik>0
(i = 1, 2, . . .; k = 1, 2, . . .)
annimmt. Nach Definition der •bedingten Wahrscheinlichkeit eines Ereignisses gilt k Pp tv (X = »iv 7 = „. yk)\ = P - (X p ^= xyuY^ =- y-k) = pi— mit
= £ 'Pik-- Die bei festem k durch i i:
P(X=Xi\7=yt)=
E
i:
^
P k
H 0. Falls lim P (X < x\y x
h-y 0
_/ / und die R a n d verteilungsdichte f y (•gemeinsame Wahrscheinlichkeitsverteilung (von zufälligen Variablen)) stetig sind u n d / r im P u n k t y positiv ist—, so heißt die durch Fx\y= y(x) '• = = lim P (X < x\y < Y y + h) definierte Verteilungsfunktion die (die h-+o bedingte Wahrscheinlichkeitsverteilung von X unter der Bedingung (Hypothese) Y = y definierende) bedingte Verteilungsfunktion und die durch /(x, r)(x, y) f / /(.r, Y){x, y) dx
14
Behrens-Fishcr-Problem
definierte Dichte die bedingte Wahrscheinlichkeitsdichte von X unter der Bedingung (Hypothese) Y = y. Der Begriff der bedingten Wahrscheinlichkeitsverteilung wird mitunter auch für zufällige Variable allgemeineren Typs eingeführt (vgl. (45)). BEHRENS-FISHER-Problem: Als BEHRENS-FISHER-Problem w i r d d i e A u f -
gabe bezeichnet, die Hypothese (>Testtheorie) über die Gleichheit der >Erwartungswerte zweier unabhängiger (Unabhängigkeit zufälliger Variabler) normalverteilter (>Nor malVerteilung) •Zufallsgrößen, deren S t r e u u n g e n unbekannt, aber verschieden sind, anhand zweier unabhängiger konkreter Stichproben zu testen. B . L . WELCH [1] schlägt für diese Aufgabe folgenden Signifikanztest vor: 1. Hypothese H: ¡xx = /" y; X und Y sind unabhängige normalverteilte Zufallsgrößen mit den unbekannten Erwartungswerten f t x bzw. fiy und den unbekannten Streuungen a \ bzw. a \ , wobei a \ =1= oj? ist. 2. Testgröße T := (X - 7 ) ( — \7n
flfc n
; X und Y sind die /
arithmetischen Mittel (Mittelwerte) und »S'x und tS'i- die Stichprobenstreuungen (•empirische Momente) zweier unabhängiger mathematischer Stichproben vom Umfang m bzw. n aus den zu X bzw. Y gehörigen Grundgesamtheiten. Die Verteilung von T bei wahrer Hypothese H: ¡xx = Hy ist nicht exakt bekannt. Die Berechnung kritischer Werte erfolgt näherungsweise nach einer von WELCH angegebenen Vorschrift. 3. Kritischer Bereich K* ji |i| > ^ ; k wird mit Hilfe der konkreten Stichprobe berechnet, [fc] ist die größte ganze Zahl, die nicht größer als k ist; Quantilder cc ^ Ordnung 1 — einer Verteilung mit [&] Freiheitsgraden. ¿i
4. Praktische Durchführung: Aus den konkreten Stichproben (xlt . . . , xm) und {yx, . . . , yn) berechnet man die arithmetischen Mittel x s2und y V —1/2 s2
(
-«-» K(y0, y) := P%> (J{Xlt . . . , Xn) 3 y) definierte Funktion. K(y0, y) gibt die Wahrscheinlichkeit dafür an, daß die Bereichsschätzung J(Xlt . . . , X„) für yg den Parameter y überdeckt. I m Sinne der Aufgabenstellung strebt man solche Bereichsschätzungen an, deren Bereiche möglichst „klein" sind und die dabei das unbekannte y0 mit möglichst großer Wahrscheinlichkeit überdecken. Das gibt Anlaß zu folgender Definition: Die Bereichsschätzung J(XV . . . , X„) heißt eine Konfidenzschätzung für y0 zum Konfidenzniveau e e (0, 1), wenn die Kennfunktion K(y0, y) für
16
Bereichsschätzungen
y = y0 der Bedingung K(y0, y 0 ) S; e genügt. Die Zahl min K(y, y) wird yer als Konfidenzkoeffizient der Konfidenzschätzung J{Xt, . . . , Xn) bezeichnet. I m Fall r C B1 werden als Bilder der Abbildung J sinnvollerweise Intervalle gewählt. J ( X 1 ( . . . , Xn) heißt dann Konfidenzintervall (Vertrauensintervall) für den Parameter y0; die Grenzen dieses Intervalles bezeichnet man als Konfidenzgrenzen (Vertrauensgrenzen). Beispiel: Durch { P y } , y e -T, sei die Familie aller > Normalverteilungen N(ß, o2) mit bekanntem a 2 gekennzeichnet. Dabei ist r = {ß\ — oo < ¡1 < oo}. Es sei bekannt, daß eine Normalverteilung N{fi0, a2) mit bekannter Streuung vorliegt, jedoch soll für den unbekannten Parameter [ia eine Konfidenzschätzung zum Konfidenzniveau e (z. B. e = 0,95) angegeben werden. Für fi 0 wird üblicherweise mit Hilfe 1 n — der >Punktschätzung X = -— V X ( ein Intervall der Form » i=l X —
gebildet. J(XV
X
-^Lr iS fla ^ X +
yn
; JC + x
. . ., X„) = \X — x
L
X
i
n
ist ein Konfidenzintervall für
i
n
fi0 zum Konfidenzniveau e, wenn die Zahl x gemäß der Bedingung *
K(Po>Vo) =
l^o — \ \n
x
Ss Po + K-i=\ = i = I \n / J —X
bestimmt wird, x ist das ^Quantil der Ordnung
e
2
dx^s
1 + e
der standardisierten Nor2 malverteilung. Z. B. für e = 0,95 ergibt sich x = 1,96. (Weitere Beispiele Konfidenzintervalle > Bereichsschätzungen für Erwartungswert und Streuung der Normalverteilung.)
Eine Konfidenzschätzung für y0 zum Konfidenzniveau e heißt unverfälscht, wenn für die zugehörige Kennfunktion K die Beziehung K(y0, y0) ^ K(y0, y) für alle y0, y e T mit y g ilt; J-j^X-L, . . ., Xn) und J2(X1( . . . , Xn) seien zwei Konfidenzschätzungen für y0 zum gleichen Konfidenzniveau e mit den Kennfunktionen K^ bzw. K2. J1 heißt gleichmäßig hesser als J2, wenn Kx(y0, y) K2(y0, y) für alle y0, y € r mit y0 4= y gilt. Jx heißt gleichmäßig beste oder trennscharfe Konfidenzschätzung in bezug auf eine Menge § v o n Konfidenzschätzungen J zum gleichen Konfidenzniveau e, wenn Jl gleichmäßig besser als jedes J ist. Es besteht ein enger Zusammenhang zwischen Konfidenzschätzungen und Tests ( > Testtheorie). Ist J eine Konfidenzschätzung, so kann z. B. ein > Signifikanztest zum Prüfen der Hypothese H:y = y0 durch folgende
Bertrandsches
17
Paradoxon
Vorschrift erhalten werden: Die Hypothese H ist abzulehnen, falls das konkrete Konfidenzintervall J(xx, . . . , xn) den Wert y0 nicht überdeckt. Umgekehrt kann aus einem Test eine Konfidenzschätzung hergeleitet werden. (Genauer s. (53).) Lit.:
(53), (64)
BERNOUiiLi-Schema: Unter einem BERNOULLi-zScAema versteht man eine Serie von endlich vielen unabhängigenWiederholungen ein und desselben »Versuches, wobei man sich bei jeder Wiederholung des Versuches nur dafür interessiert, ob ein Ereignis A (mit P(A) = p ) (»Ereignisfelder und Wahrscheinlichkeitsalgebren) eingetreten ist oder nicht; das Eintreten von A nennt man auch einen Erfolg und p Erfolgswahrscheinlichkeit. Bezeichnet A{ das Eintreten des Ereignisses A beim i-ten Versuch, so gilt also P{At) — p. Die Wahrscheinlichkeit dafür, daß in einem BERNOULLI-Schema bei n Wiederholungen des Versuches das Ereignis A genau ¿-mal — und folglich das komplementäre Ereignis A genau (n — &)-mal — eintritt, ist
pk (1 — p)n~k.
Die Anzahl X der Erfolge ist also eine mit
den Parametern n und p binomialverteilte »Zufallsgröße (»Binomialverteilung). BERNOüLusches
»Gesetz der großen Zahlen
BERNOULi ische Variable = »Indikator eines zufälligen Ereignisses BERNOULLische Verteilung = BERNSTEiNSche Ungleichungen keitstheorie, a)
»Binomialverteilung »Ungleichungen in der Wahrscheinlich-
BERTRANDSches Paradoxon: Dem BERTRANDSCACW Paradoxon (so benannt nach dem französischen Mathematiker JOSEPH BERTRAND, 1822 bis 1900) liegt die folgende Aufgabenstellung zugrunde: Man wähle zufällig in einem Kreis eine Sehne. Wie groß ist die Wahrscheinlichkeit dafür, daß die Sehne länger als die Seite eines dem Kreis einbeschriebenen gleichseitigen Dreiecks ist ? Infolge fehlender Präzisierung des Wortes „zufällig" in dieser Aufgabenstellung gelangte man zu verschiedenen Werten für die gesuchte Wahrscheinlichkeit (vgl. hierzu (16)); man betrachtete nämlich verschiedene Möglichkeiten für die Berechnung der Sehnenlänge aus einer anderen geometrischen Hilfsgröße und setzte diese entsprechend dem Vorgehen bei der »geometrischen Wahrscheinlichkeit als gleichmäßig verteilt (»stetige gleichmäßige Verteilung) voraus. Dies führte irrtümlich zu der Auffassung, daß der Begriff der geometrischen Wahrscheinlichkeit widerspruchsvoll sei.
Bestimmtheitsmaß
IS
Bestimmtheitsmaß
»Korrelationsanalyse
Betaverteilungen: Eine ^stetige Zufallsgröße X heißt betaverteilt 1. Art bzw. 2. Art mit den Parametern (p, q) oder mit 2 p und 2 q Freiheitsgraden (p > 0, q > 0), wenn sie die Wahrscheinlichkeitsdichte lh — n l l - J - !
i
J bzw.
| fx{x)
,— (x - a ) * - 1 (b - .t)«" 1 0
1 B(p,1 q) (1 +xP~ x)v+i
0 besitzt. Dabei ist
für
x > 0 ,
für
x g 0
1
für
a < x < b,
sonst
oo
B(p, q) := f xv- (1 - x)i~ dx = f "V. dx (Beta-Funktion). 0 0 Eine betaverteilte Zufallsgröße X hat für k < g die k-ten Momente 1
E(X
- af = (b= (6 -
bzw.
x
af a)
ß(p, q) p(p + l)---(p
+
k-l)
(p + q) {p + q + i)- ••(?> + q +
k-i)
B (k + p, q - 1c) __ p(p + l)---(p + k-\) B(p, q) (q - k) (? - k + 1) • • • (q - 1) '
EX*
Momente höherer Ordnung (k ^ q) existieren nicht. Insbesondere sind also >Erwartungswert und ^Streuung EX
= a + (b -a)
und D*X=
( 6
P+q
bzw.
-a)2f)g
=
2-1
(q > 1)
bzw.
(p + q)" (P + q + i) (? — i)2 (q — 2)
EX
'
Die Betaverteilung 1. Art ist für p = q = 1 eine stetige gleichmäßige Verteilung über (a, b). Im Fall p, q > 1 besitzt sie den ^Modalwort
Binominalverteilung
19
I s t p = 3 + |/2, q = 3 - / 2 oder p = 3 — |/2, ? = 3 + [''2 (dieser Fall tritt z. B. bei der Netzplantechnik (PERT) auf), so gilt EX
+4M
+ b) , p — 1
Die Betaverteilung 2. Art besitzt im Fall p > 1 den Modahvert . In ? allen anderen Fällen existiert kein Modalwert. Bei der Betaverteilung 1. Art kann man den allgemeinen Fall, also auf Y Q (a, b) verteilte Zufallsgrößen Y, durch die Transformation X = ^ — - - auf den Spezialfall von auf (0, 1) verteilten Zufallsgrößen X zurückführen. Meist genügt es, nur diesen Spezialfall zu betrachten. Dann läßt sich jede betaverteilte Zufallsgröße als Quotient zweier gammaverteilter Zufallsgrößen darstellen (^GammaVerteilung). Weiter gilt: Ist X betaverteilt 2. Art mit den Parametern (p, q), so ist - i beta verteilt 2. Art und
* 1 -j- A
betaverteilt 1. Art mit den Parametern (q, p). bias = systematischer Fehler einer »Punktschätzung bimodale Verteilungsfunktion »Modalwert Binomialpapier: Das Binomialpapier ist ein orthogonales Koordinatenpapier, dessen beide Achsen gemäß der Funktion x ^x, x ¡^ 0, unterteilt sind. I s t in einem »BüBNOULLi-Schema mit n Versuchen genau z-mal das Ereignis A (»Ereignisfelder und Wahrscheinlichkeitsalgebren) eingetreten, so werden die Werte z bzw. n — z auf der Abszisse bzw. Ordinate aufgetragen. Der sich dabei im Binomialpapier ergebende P u n k t dient zur »Punktschätzung und auch zur Konfidenzschätzung (»Bereichsschätzungen) für die Erfolgswahrscheinlichkeit p im BEBNorrm-Schema. Das Binomialpapier findet besonders in der »statistischen Qualitätskontrolle Verwendung bei der Schätzung des Ausschußanteils bei GutSchlecht-Prüfung. Lit.:
[1] WALLIS, W. A. und H. V. ROBERTS, Methoden der Statistik, Freiburg i. Br. 1960 (Übersetzung aus dem Englischen).
Binomialverteilung (BERNOULLische Verteilung): Eine »diskrete Zufallsgröße X heißt binomialverteilt mit den Parametern n und p (n natürliche Zahl, 0 < p < 1), wenn für die Einzelwahrscheinlichkeiten P(X
= lc) =: b(k, n,p) = ^ p f q « -
j !
(k — 0,1, . . . , n\ q = 1 — p)
Biometrie
20
gilt. Eine binomialverteilte Zufallsgröße läßt sich darstellen als Summe von n unabhängigen (•Unabhängigkeit zufälliger Variabler) •identisch verteilten Zufallsgrößen Xt mit der •Zweipunktverteilung P {Xt = 0 ) = q, P (Xi = 1) = p, i — 1, ... ,n (vgl. •BERNOULLI-Schema). Die Binomialverteilung gibt die Wahrscheinlichkeit dafür an, daß bei w-maliger unabhängiger Wiederholung eines •Versuchs mit der Erfolgswahrscheinlichkeit p genau k Erfolge eintreten. Die zugehörige • charakteristische Funktion ist E eitx
= (q + p eu)n ,
•Erwartungswert und •Streuung sind E X = np
und
D2 X =npq
.
Die Werte für •Schiefe bzw. •Exzeß sind (q — p)l^n p q bzw. (1 — 6 p q)l npq. Ist (n + 1) p ganzzahlig , so sind (w - f 1) p — 1 und (n -j- 1) p die •Modalwerte, anderenfalls ist der Modalwert durch [ ( » + 1) p] gegeben. Die Einzelwahrscheinlichkeiten verlaufen bis zu den Modalwerten streng monoton wachsend, danach streng monoton fallend. Nach dem •zentralen Grenzwertsatz (Grenzwertsatz von DE MOIVBELAPLACE) ist ^
n p •asymptotisch (d. h. für n -> oo) N(0, l)-verteilt ynp q (•Normalverteilung). Für hinreichend große n ist also P (rx X ig r 2 )
Für n - » oo, p -> 0 und konvergieren die Einzel Wahrscheinlichkeiten der Binomialverteilung gegen diejenigen der •POISSON-Verteilung mit dem Parameter X (•Grenzwertsatz von POISSON).*) Zwischen der Binomialverteilung und der •BetaVerteilung 1. A r t besteht ein Zusammenhang durch die Beziehung l v Die Binomialverteilung findet mannigfaltige Anwendungen, u. a. beschreibt sie die Verteilung der Ausschußstücke in der •statistischen Qualitätskontrolle. zusammengesetzte Binomialverteilung •zusammengesetzte Verteilung •PolynomialVerteilung, •hypergeometrische Verteilung. *) Bei praktischen Rechnungen wird dieser Satz ausgenutzt, um bei großem n die Einzelwahrscheinlichkeiten der Binomialverteilung näherungsweise zu berechnen. Biometrie
•Versuchsplanung, statistische
Borel-Cantellisches
21
BLACKWELL, Theorem von BoLTZMANN-Statistik
Lemma
^Erneuerungstheorie
^Statistiken von
MAXWELL-BOLTZMANN,
BOSE-EIN-
STEIN, F E K M I - D I B A C
BooGESche o-Algebra: Auf einer Menge 36 seien zwei Verknüpfungen n und u (d. h. Funktionen, die je zwei Elementen x,y z £ in 36 gelegene Elemente x n y und x u y zuordnen) gegeben. 36 heißt eine BooLEseÄe Algebra, wenn für beliebige x,y,ze 36 folgende Beziehungen gelten: 1. x ny — y nx, x(j y = yu x
v
/j^ommu^ayVgege¿ze\ ° '
2. x n (y n z) — (x n y) n z , (Assoziativgesetze) x\j (yu z) = \xu y)u z v ° ' 3. x n (x u y) — x /y e r s c } l m e ] z u n g g rrcsetze), x u (x n y) = x
v
4. xu (yu z) = (x u y) n (a; u z)
e 6
''
(Distributivgesetz) ,
5. es existieren Elemente 0, 1 € 36, mit x n 0 = 0 und x u 1 = 1 , 6. zu jedem x e X existiert ein Element x' e 36, das sog. Komplement von x, mit x n x' = 0 und x u x' = 1. Nach einem Satz von STONE ist jede BooLEsche Algebra 36 einer >Algebra 93 von Teilmengen einer Menge Q isomorph (d. h., es gibt eine eineindeutige Abbildung 90 von 36 auf 33, wobei x n y gleich dem Durchschnitt rp(x) n tp(y) und x u y gleich der Vereinigung rp(x) u -oo / höchstens endlich viele der Ereignisse ein. 00 Gilt P{At) = 00 und sind die Ereignisse At paarweise unabhängig ¿=1
(•Unabhängigkeit zufälliger Ereignisse), so gilt P / lim An\ = 1, d. h., es \»->oo / treten mit Wahrscheinlichkeit 1 unendlich viele der Ereignisse A.¿ ein. Beide Aussagen sind der Inhalt des Lemmas von B O R E L - C A N T E L L I .
Borel-Mengen
22
BoREL-Mengen (des R1 bzw. i?"): Die kleinste er-• Algebra von Teilmengen des R1 ( : = M e n g e aller reellen Zahlen), die alle Intervalle der Form ( — 00, a) (: — {x € ii 1 ! —00 < x < a}) — und somit alle offenen und abgeschlossenen Teilmengen des R1 — enthält, heißt die 0), wenn sie die Wahrscheinlichkeitsdichte
besitzt, d. h., wenn P {X < x) = ^ + — aretan 2
71
Ä
gilt. Sie h a t die •charakteristische Funktion E e i t x _ eita-k\t\ ^ den Median (•Quantil) ¡1, den •Modalwert ¡jl und das erste bzw. dritte Quartil (•Quantile) ¡x — ?. bzw. ¡x + X. F ü r die CAUCHY-Verteilung existiert kein •Erwartungswert, jedoch existieren die absoluten •Momente der Ordnung ra, ra < 1. F ü r y, = 0
Borel-Mengen
22
BoREL-Mengen (des R1 bzw. i?"): Die kleinste er-• Algebra von Teilmengen des R1 ( : = M e n g e aller reellen Zahlen), die alle Intervalle der Form ( — 00, a) (: — {x € ii 1 ! —00 < x < a}) — und somit alle offenen und abgeschlossenen Teilmengen des R1 — enthält, heißt die 0), wenn sie die Wahrscheinlichkeitsdichte
besitzt, d. h., wenn P {X < x) = ^ + — aretan 2
71
Ä
gilt. Sie h a t die •charakteristische Funktion E e i t x _ eita-k\t\ ^ den Median (•Quantil) ¡1, den •Modalwert ¡jl und das erste bzw. dritte Quartil (•Quantile) ¡x — ?. bzw. ¡x + X. F ü r die CAUCHY-Verteilung existiert kein •Erwartungswert, jedoch existieren die absoluten •Momente der Ordnung ra, ra < 1. F ü r y, = 0
charakteristische
23
Funktion
und X = 1 liegt eine ^-Verteilung mit einem Freiheitsgrad vor. Sind X1 und X2 unabhängige (Unabhängigkeit zufälliger Variabler), mit den Parametern (ßlt AX) und (fi2, X2) CAUCHY-verteilte Zufallsgrößen, so ist Xx + X2 CAUCHY-verteilt mit ¡x — fa + ¡j,2 und X = X1 + X2.*) Sind Y und Z unabhängige, N( 0, er2)- und N( 0, l)-verteilte (Normal Verteilung) Zufallsgrößen und ist [x. eine beliebige reelle Zahl, so ist X = ¡JL + YjZ CAUCHY-verteilt mit den Parametern ¡JL und X = a. *) woraus u. a. folgt, daß die Aussage des ^zentralen Grenzwertsatzes für Folgen unabhängiger CAUCHY-verteilter Zufallsgrößen nicht gilt.
CHAPMAN-KoLMOGOKOvsche Gleichung
^lAKKOvscher Prozeß
charakteristischer Exponent eines ^stabilen Yerteilungstyps charakteristische Funktion: Es sei X eine ^Zufallsgröße mit der Verteilungsfunktion Fx. Dann bezeichnen wir die durch Kontingenz). Ist t > y%-\) (5-1); i-o, so wird H (beim gewählten Signifikanzniveau«) abgelehnt, anderenfalls ist nichts gegen H einzuwenden. Der £ 2 -Unabhängigkeitstest kann allgemein zur Prüfung der Unabhängigkeit der Komponenten X und Y eines zweidimensionalen zufälligen Vektors (X, Y) benutzt werden, indem erforderlichenfalls eine geeignete Klasseneinteilung ^Klassenhäufigkeit, > Kontingenztafel) vorgenommen wird. Im Fall r = s = 2 ( > Vierfeldertafel) ergibt sich speziell » OSi ^a " ¿12 hi) 2
t =
hi h i • hi ' ' Bei kleinem n wird hierbei mitunter die sog. Y A T E S S C A C Korrektur [3] angewandt, um eine bessere Annäherung der Verteilung von T an die X 2 -Verteilung mit einem Freiheitsgrad zu erreichen: Anstelle von (*) benutzt man
^12 ¿211 h
=
I V . Der
iT
hi h i • hi %2-Homogenitätstest
X 1 , . . . , X r seien r unabhängige, ''diskrete Zufallsgrößen, die die Werte zv . . . , zs mit den Einzelwahrscheinlichkeiten pij — P (Xt = z}) (i = 1, . . . , r; j = 1, . . . , s) annehmen können I £ p i j = 1 für i = 1, . . . , r). V-i / 1. Hypothese H: p{j — pj für alle i = 1, . . . , r; j = 1, . . . , s, d. h., die X( sind identisch verteilt. 2. Die Testgröße T:=n
£
£
j=l i=1
±
——
M
i.
a
(i = 1, . . . , r;
i
j = 1, . . . , 8) bezeichnet die absolute Häufigkeit von zf in einer Stichprobe ( X i l ; . . . , Xini), wobei die Xik (k — 1, . . . , «,) unabhängige und wie Xt verteilte Zufallsgrößen sind: 8
Hi
=
2J Hij ;=1
r
=
H j
=
2J Hip >=1
r
n
=
E
i=1
n
i)
ist der in I I I verwendeten analog, und der Test wird in I I I durchgeführt. Der ^-Homogenitätstest findet z. B. bei der Behandlung des yA;-Stichprobenproblems Anwendung. Lit.:
[1] PEARSON, K., On the criterion that a given, system of deviations from the probable in the case of a correlated system of variables is such that it can be reasonably supposed to have arisen from random sampling. Philos. M a g . , S e r i e s t, 5 0 ( 1 9 0 0 ) ,
157-172.
28
X2- Unabhängigkeitstest
[2] FISHER, R. A., On the interpretation of chi square from contingency tables and the calculation of P. J . Roy. Stat. Soc. 85 (1922), 87-94. [3] YATES, F., Contingency tables involving small numbers on the X2-test. Supp. J . Roy. Stat. Soc. 1 (1934), 217. X2-Unabhängigkeitstest
»^2-Test, I I I
X 2 -Verteilung (HELMERT-PEARSON-Yerteilung): Eine »stetige Zufallsgröße X heißt %2-verteilt mit n Freiheitsgraden (n natürliche Zahl), wenn sie die Wahrscheinlichkeitsdichte
h ( x )
=
*2
2
e
0
für
£ > 0,
für
x^O
besitzt. Dabei ist i » = (x—1) r(x-1),
r( 1) = 1, r ( j J = fit (Gamma-Funktion).
Die zugehörige »charakteristische Funktion ist n
E eitx = (1 — 2 it) 2 , »Erwartungswert und »Streuung sind EX = n und D2X —2 n. Die X2-Verteilung ist ein Spezialfall der »Gammaverteilung. Sie ergibt sich als Verteilung der Summe der Quadrate von n unabhängigen (»Unabhängigkeit zufälliger Variabler), N(0, l)-verteilten (»Normalverteilung) Zufallsgrößen. Die Summe zweier unabhängiger %2-verteilter Zufallsgrößen mit n bzw. m Freiheitsgraden ist £ 2 -verteilt mit n + m Freiheitsgraden. Ist (Xn) eine Folge von %2-verteilten Zufallsgrößen mit n Freiheitsgraden n - »asymptotisch (d. h. für n (n = 1, 2, . . .), so ist oo) N(0,1)2 n verteilt. V Ist (X 1 } . . . , Xn) eine mathematische »Stichprobe vom Umfang n aus n 82
einer N(u, o2)-verteilten Grundgesamtheit, so ist —— mit Ä2 = —
Z
n — 1 i=i
(.Xt - X)2,
x = - i x
t
n i=i
(»empirische Momente) ^-verteilt mit n — 1 Freiheitsgraden. Die %2-Verteilung spielt in der mathematischen Statistik eine wesentliche Rolle (vgl. z. B . »^2-Test), insbesondere auch bei Prüfverfahren bezüglich der Streuung normalverteilten Zufallsgrößen. Die dabei benötigten »Quantile findet man in vielen Büchern über mathematische Statistik, z. B . in (T 8), (5), (56), (57).
Codierungssätze
29
CocHRAJJ-Test: Der CocKRAN-Test ist ein >Signifikanztest zum Prüfen der Hypothese über die Gleichheit der Streuungen er? von k unabhängigen (•Unabhängigkeit zufälliger Variabler) •normalverteilten >Zufallsgrößen Xt anhand k konkreter ^Stichproben (xn, . . . , Xin) vom gleichen Umfang n (S:2) aus den zu Xt (i = 1, . . . , k) gehörenden Grundgesamtheiten. 1. Hypothese H : a\ = • • • = a\. 2. Testgröße T:=
max [
f*
;
i = 1, . . . ,
U
;
J
dabei bezeichnet Si die Stichprobenstreuung (^empirische Momente) einer mathematischen Stichprobe vom Umfang n aus der zu Xt gehörenden Grundgesamtheit (l = 1, . . . , k). Die für das Testverfahren benötigten •Quantile der Verteilung der Testgröße T (unter der Voraussetzung, daß die Hypothese wahr ist) liegen vertafelt vor. 3. Kritischer Bereich K*: = {t\t > Gi-«-, k,n~i} ; dabei sind ¿,«-1 das Quantil der Ordnung 1 — « der Verteilung von T (unter der Voraussetzung, daß H:cri = • • • = erf wahr ist) und a. das Signifikanzniveau. Diese Quantile findet man z. B. in (56) für verschiedene Werte von normalverteilte •Zufallsgrößen sind mit E(Yikt) = fiik (für alle l) und D2(Yikl) = a2 (für alle i, k, l). c) Trennfunktion (Diskriminanzfunktion, linear) Die Trennfunktion x = b^y^ • • • + bpyp ist eine lineare Funktion der unabhängigen Variablen yv . . . , yv, für die die Meßwerte innerhalb eines Kollektivs und einer Wiederholung (z. B. y1 = y113, y2 = y123, • • • , Vv = 2/i p3) einzusetzen sind. Die Koeffizienten bk (k = 1, . . . , p) sind so zu bestimmen, daß eine — in gewissem Sinne optimale — Trennung der Werte der Trennfunktion xlt = b1y111 + b2 y121 + • • • + bp ylpl (1=1, . . . , rx) (das sind die Werte, die sich durch Einsetzen der Meßwerte des 1. Kollektivs ergeben) und der r2 Werte der Trennfunktion x2l = bx ynl -f-
IHakriminanzanalyse
34
+ b2 Val + • • • + bp y2pi (l = 1, . . . , r2) (das sind die Werte, die sich entsprechend aus dem 2. Kollektiv ergeben) erreicht wird. Zur Schätzung dieser Koeffizienten b{ betrachtet man folgende Stichprobenfunktionen Xu = Yllt + b2 Y12i -f • • • + bp Ylpl (1 = 1 , . . . , ^ ) , X-21 — W Y21 i + b2 Y22i + r
1 > — x1 = — E x11, H i=i T = Z (Xlt 1=1
Y2pi
(l = 1, . . . , r2) ,
r
— 1 ° X2 = — 2J x21, r2 i=i
- Xrf
+ jr (X2l - X2)Z , Z=1
S = X1 — X2. Varianzanalyse, Modell I, 2.2) herangezogen werden. d) Praktische Durchführung Ausgehend von Meßergebnissen an rt bzw. r2 Objekten des 1. bzw. 2. Kollektivs für jeweils alle j> Merkmale ermittelt man die Schätzwerte für die Koeffizienten bk als Lösungen von (*). Dabei setzt man f ü r die Stichprobenfunktionen S2 und T die entsprechenden, sich aus den Meßergebnissen ergebenden Realisierungen ein. Für weitere Objekte, deren Herkunft unbekannt ist, kann dann mit der Trennfunktion — falls diese eine hinreichende Trennung gestattet — über die Zuordnung dieser Objekte entschieden werden. e) Verallgemeinerter Abstand von MAHALANOBIS Setzt man die Lösungen von (*) in S ein, so heißt die entstehende Stichprobenfunktion Z)2 =
verallgemeinerter
Abstand
von
MAHALA-
NOBIS und kann als eine Maßzahl für die „Unterschiedlichkeit" der Kollektive angesehen werden. (Eine interessante geometrische Interpretation
von Z>2 findet sich in V(37).) Da T = Tl r*(r* + 7-2 ~ P ~ D2 unter der Vor' ('i + '.) (ri + r2- 2)
35
Dreieckverteilung
aussetzung ¡xlle = (k = 1, . . . , p) -F-verteilt (».F-Verteilung) mit (p, rt + r2 — p — 1) Freiheitsgraden ist, kann T als Testgröße (»Signifikanztest) zum Prüfen der Hypothese fiik = d. h. auf Übereinstimmung der Kollektive, dienen. 2. Durch eine geeignete Zusammenfassung der an den Objekten gemessenen p Merkmale zu zwei charakteristischen Größen, dem sog. Profilund Ausdehnungsmaß gelangt man zu der sog. verkürzten Diskriminanzanalyse, wodurch sich der durch (*) verursachte Rechenaufwand wesentlich verringert. 3. Für die Trennung von Kollektiven, deren zugehörige Meßwerte sich dem in 1. b) dargestellten mathematischen Modell nicht unterordnen lassen (insbesondere der Bedingung D2(Yikt) = 0 bzw. < 0 ist. (Punkte auf den Koordinatenachsen bleiben unberücksichtigt.) In ganz analoger Weise wiederholt man diesen Vorgang von links, von oben und von unten her und definiert als Testgröße
Dreireihensatz
36
•Erwartungswert und •Streuung sind E X — — ( g l e i c h z e i t i g Median (•Quantil) und •Modalwert) und D2X
—
a)2.
¿A
Eine über (a, b) dreieckverteilte Zufallsgröße läßt sich als Summe von zwei unabhängigen (•Unabhängigkeit zufälliger Variabler), gleichmäßig über , verteilten (•stetige gleichmäßige Verteilung) Zufallsgrößen darstellen. Dreireihensatz DuNCAN-Test
•KoLMoaoitovscher Dreireihensatz •multiple Mittelwertvergleiche
dynamisches System
•Strömung
E echt verbundene Zustände einer homogenen MARKOvschen Kette •MabKovscher Prozeß Eckentest: Der Eckentest (engl.: corner test) ist ein •Signifikanztest und dient zur Aufdeckung von Abhängigkeiten zwischen zwei •Zufallsgrößen X und Y. E r geht auf Olmstead und T u k e y [1] zurück. 1. Hypothese H: X und Y sind unabhängig (•Unabhängigkeit zufälliger Variabler). 2. Testgröße T : Ausgehend von den mathematischen •Stichproben (Xt, . . . , Xn) und (Yv . . . , Yn) und den Stichprobenmedianen (•empirisches Quantil) X und Y betrachtet man die •zufälligen Vektoren (£t, rj(), i = 1, . . . , n, |4:= Xt — X, r\i.~ Yt — Y, als Punkte in einem rechtwinkligen ^-Koordinatensystem. Man verschiebt nun eine Parallele zur jj-Achse von rechts her solange über das Koordinatensystem, wie bei den dabei überstrichenen Punkten (Ii, rji) die Komponenten rji einerlei Vorzeichen haben, und signiert deren Anzahl mit positivem bzw. negativem Vorzeichen, je nachdem, ob die Punkte im 1. oder 3. bzw. im 2. oder 4.Quadranten liegen, d . h . , ob f i • »7i > 0 bzw. < 0 ist. (Punkte auf den Koordinatenachsen bleiben unberücksichtigt.) In ganz analoger Weise wiederholt man diesen Vorgang von links, von oben und von unten her und definiert als Testgröße
einfacher
37
t-Test
T die Summe der vier einzelnen, nach der oben beschriebenen Vorgehensweise erhaltenen (zufälligen) signierten Anzahlen. Die Verteilung von T unter der Hypothese H ist in [1] angegeben und erweist sich für größere n als von n nahezu unabhängig. 3. Kritisches Gebiet K* : = {i | |i| ^ i»,«}. Die Grenzen i a> „ sind in [2] in Form einer grafischen Darstellung angegeben. Bereits für mäßig große n (ra Si 10) und a = 0,05 bzw. n gleich 11 bzw. 14. 4. Praktische Durchführung: Fällt die aus einer konkreten Stichprobe erhaltene ^Realisierung von T in das kritische Gebiet K*, so wird H bei dem zugrunde gelegten Signifikanzniveau « abgelehnt. Der Eckentest ist nichtparametrisch (Gegensatz: > Parametertest) und hängt besonders von den extremalen Stichprobenelementen — insofern also auch von Ausreißern (vAusreißerproblem) — ab. Seine Durchführung ist vor allem grafisch sehr einfach. Hingegen ist seine asymptotische Wirksamkeit (>Testtheorie) sehr niedrig und wird in [1] als ungefähr 25% angegeben. Der Test besitzt dann praktische Bedeutung, wenn es darum geht, mit einfachen Mitteln eine Abhängigkeit zwischen X und Y aufzudecken. Lit.i
[1]
OLMSTEAD, P. S., and J. W. T Ü C K E Y, A corner test for association, Ann. Math. Statist. 18 (1947), 495-513. [2] QUENOUILLE, M . H., Rapid Statistical calculations: a collection of distribution-free and easy methods of estimation and testing, London 1959.
effektive Schätzfunktion
'•Punktschätzungen
Effizienz = Wirksamkeit von
>
Punktschätzungen
eigentlicher •Verteilungstyp eineindeutige ^Funktion einfache Funktion
Integral
einfache Hypothese
>Testtheorie
einfache Klassifikation
>Varianzanalyse
einfache ^Regression einfacher Erneuerungsprozeß einfacher f-Test
>i-Test
•Erneuerungstheorie
Einpunktverteilung
38
Einpunktverteilung (ausgeartete, entartete, uneigentliche Verteilung): Eine ^Zufallsgröße X heißt einpunktverteilt im Punkt x0, wenn P (X = x0) = 1 gilt. Sie hat die Charakteristische Funktion jjj gi'iX __ e i t x,
den y Erwartungswert EX = a;0 und die Streuung D2X — 0. Umgekehrt ist jede Zufallsgröße X mit D2X = 0 einpunktverteilt. Bei dieser Verteilung handelt es sich um den sog. deterministischen Fall, d. h., durch sie wird keine echte Zufallserscheinung beschrieben. Einzclwahrscheinlichkeit
^diskrete Zufallsgröße
Einzugsbereich = > Anziehungsbereich einer Verteilungsfunktion EiSENHARTSche Klassifikation Elementarereignis
''Wahrscheinlichkeitsraum
empirische Anfangsmomente empirischer Exzeß
>Varianzanalyse
Empirische Momente
^empirische Momente
empirische Korrelationsfunktion: Ausgehend von einer > Realisierung x eines reell wertigen ^stationären stochastischen Prozesses Xt, t = . . . , — 1, 0, 1, 2, . . . bzw. t e R1, dessen y Erwartungswert o. B. d. A. gleich Null angenommen werden kann, verwendet man zur Schätzung (konkrete ^unktschätzung) der > Korrelationsfunktion von Xt die durch
bzw. N
o gegebene empirische Lit.: (29) empirische Kovarianz
Korrelationsfunktion. Empirische Kovarianzmatrix
empirische Kovarianzmatrix: Gegeben sei ein fc-dimensionaler Zufälliger Vektor 3c = (X l; . . . , Xt), und es sei . . . , #•>), J « = . . . , *Kovarianzmatrix des zufälligen Vektors 26. empirischer Median
^empirische Quantile
empirische mittlere quadratische Kontingenz dratische empirischer Korrelationskoeffizient empirischer Modalwert
>
y
Kontingenz, mittlere qua-
>Korrelationsanalyse
Mittelwerte
empirische Momente: Gegeben sei eine > Zufallsgröße X, und es sei xv x2, . . . ,xn eine konkrete Stichprobe vom Umfang n aus der Grundgesamtheit iJ1([i21, 931, Px\)- Um auf Grund der Stichprobe Aussagen über die Zufallsgröße X und ihre Verteilungsfunktion F zu gewinnen, betrachtet man neben der Empirischen Verteilungsfunktion die sog. empirischen
Momente.
Als empirische Momente fc-ter Ordnung (bezüglich der reellen Zahl c) bezeichnet man die Größe 1 n -n ¿E= 1 (*, -
4
Lexikon
c)k.
empirischer Mode
40
Speziell für c = 0 ergeben sich die empirischen 1
=
Anfangsmomente
"
L A • TO ¿ = 1
—
Für k = 1 ergibt sich das arithmetische Mittel
(•Mittelwerte)
1 " x = — E Xi n j=i aus der konkreten Stichprobe. Das empirische Moment k-tev Ordnung bezüglich des arithmetischen 1 * _ _ Mittels (c = a;) heißt empirisches zentrales Moment (ik = — 27 — x)k71 i = 1 Das Bildungsgesetz der empirischen Momente entspricht dem der (theoretischen) > Momente, wenn man als Verteilungsfunktion die empirische Verteilungsfunktion zugrunde legt. Geht man anstelle von xlt x2, . . . , xn von den •Stichprobenvariablen X1; X2, . . . , X„ aus, so erhält man die sog. 1 n Stichprobenmomente: das Stichprobenmomentfc-ter Ordnung — 27 (Xt—c)k, ^ n TO i=l die Stichproben-Anfangsmomente — 27 X\, das Stichprobenmittel X — y n 11 % = 1 1 71 — k Im — 27 Xt bzw. die zentralen Stichprobenmomente — 27 ( X { — X) . TO ¿ = 1 TO i=1 Sinne der •Schätztheorie sind die Stichprobenmomente •Punktschätzungen für die entsprechenden (theoretischen) Momente. Zur Schätzung der •Streuung einer Zufallsgröße verwendet man die Stichprobenstreuung (•Streuungsmaße) s2 = —^ h (Xt TO — 1 i = l
X)* .
Sie liefert im Gegensatz zum zentralen Stichprobenmoment zweiter Ordnung eine erwartungstreue Punktschätzung. Die konkrete PunktschätB 1 zung s2 = 27 ( xi — « ) 2 wird als empirische Streuung bezeichnet. Mit TO — 1 i= 1 Hilfe der empirischen Momente werden u. a. der empirische koeffizient v = -4-, die empirische
Variations-
Schiefe y3 = (sog. CiiABLiERsche u yfö Schiefe) und der empirische Exzeß y 4 = ~ — 3 definiert. K Sie sind Schätzwerte für den •Variationskoeffizienten bzw. die •Schiefe bzw. den •Exzeß einer Zufallsgröße mit der Verteilungsfunktion F. Lit.: (56), (57) x
empirischer Mode
•Mittelwerte
empirische
41
Verteilungsfunktion
empirisches Quantil: Es sei (Xj, X2, . . . , Xn) eine •geordnete > Stichprobe vom Umfang n aus einer Grundgesamtheit mit der zugehörigen Verteilungsfunktion F . Unter dem empirischen Quantil der Ordnung p (auch empirisches p-Quantil genannt) versteht man eine Realisierung Q^ der Ranggröße X[np]+x , 0 < p < 1. Die >Zufallsgröße X [ t i i , 1 + i wird als Stichprobenquantil der Ordnung p bezeichnet. Sie ist eine •Punktschätzung und Q^y demgemäß ein Schätzwert für das (theoretische) •Quantil Q(j>) der zugrunde liegenden Verteilungsfunktion F. Besitzt F eine •Wahrscheinlichkeitsdichte / , die in einer Umgebung von Q ^ positiv und stetig ist, dann ist Speziell wird X[(i/2]+i als Stichprobenmedian und Qo,s als empirischer Median bezeichnet. Für ungerades n stimmt Q0 5 mit dem Zentralwert A
'
(•Mittelwerte) überein; Qo,25 bzw. Qo,75 werden als unteres bzw. oberes empirisches Quartil bezeichnet. Lit.:
(6), (13)
empirisches Quartil
•empirisches Quantil
empirische Regressionskoeffizienten
•Regressionsanalyse
empirische Schiefe •empirische Momente empirische Standardabweichung empirische Streuung
•Streuungsmaße
•Streuungsmaße, •empirische Momente
empirischer Variationskoeffizient •empirische Momente empirische Verteilungsfunktion: Es sei (xv x2, . . . , xn) mit xx < x2 ... < x„ eine geordnete konkrete •Stichprobe vom Umfang n aus einer Grundgesamtheit mit der zugehörigen •Verteilungsfunktion F. Die empirische Verteilungsfunktion ist die durch ri / \
:=
0
für x ^
m m
—
«... für xm < X ^
1
für a; > xnn
definierte Verteilungsfunktion. 4*
xi, xm+1,
empirisches
zentrales
Moment
42
Für jedes feste x ist die zufällige Anzahl M„t x der Werte in der Stichprobe, die kleiner als x sind, •binomialverteilt mit den Parametern n und p = F(x), und daher ist Fn(x) : = — MHi x eine Zufallsgröße, deren >Reali•"N
N
sierung gerade Fn(x)
ist. Speziell gilt EFn(x)
= — F(x) (1 — F(x)s).
Somit ist Fn(x)
= F(x)
und D2 Fn(x)
=
eine erwartungstreue konsistente
•Punktschätzung für F{x). Von besonderer Bedeutung ist der Satz von GLIWENKO (häufig als Hauptsatz der Mathematischen Statistik bezeichnet), der besagt, daß Dn \ = sup \Fn{x) — F(x)| für n -> oo mit Wahrscheinlichkeit 1 (•KonverX e
J?1
genzarten der Wahrscheinlichkeitstheorie) gegen Null konvergiert. Darüber hinaus hat KOLMOGOROV gezeigt, daß für eine stetige Verteilungsfunktion F die Verteilungsfunktion von ]jn Dn für n -> oo gegen die Verteilungsfunktion K(x)
I
£
(
0
( - 1)* e~2i'x'
:=|i=^ooV
füra;>0, für x ^ 0
konvergiert. K wird als KOLMOGOROV- Verteilung bezeichnet und z. B. beim •KOLMOGOROV-Test und •KOLMOGOBOV-SMIRNOV-Test verwendet. Lit.-.
(6), (13)
empirisches zentrales Moment
•empirisches Moment
endlichdimensionale Verteilungen eines •stochastischen Prozesses endliche homogene MARKOvsche Kette •MARKOvscher Prozeß endliches •Maß entartete Verteilung =
•Einpunktverteilung
Entropie eines dynamischen Systems: Es sei [ Q , 33, m, T] ein dynamisches System (d. h., es seien [Q, 33, m] ein •Maßraum und T eine ra-treue meßbare Transformation von Q in sich; •Strömung) mit m(Q) = 1. Ferner besitze T — der Einfachheit halber — eine auf ü definierte meßbare Inverse. Dann läßt sich, ausgehend von dem Begriff der yEntropie eines Versuches in der Informationstheorie, eine Isomorphieinvariante (•Strömung : Abschnitt Isomorphie) dieses Systems in folgender Weise konstruieren : Es seien Z = (Qly. . . , Qn) eine meßbare Zerlegung von Q (d. h.
43
Entropie
einer
Zufallgröße
Qu € SB, Qi n Qk = 0 für i ={= k, [j ük = Q) und H{Z) = - £ m(ßk)x k *=1 X log m{Qk) (Festsetzung: 0- log 0 = 0 ) deren Entropie (im Sinne der Informationstheorie). Offenbar ist Z 3 : = ( T ' i Q v . . . , T~i Q n ) wieder eine meßbare Zerlegung von Q mit H(Z}) — H(Z).Z0j bezeichne die Zerlegung von Q, die aus den Durchschnitten der Mengen T~k(Qt) (i = 1, 2, . . . , n; k = 0,1, . . . ,j) besteht. Nach Definition gilt .,•_!) ^ H(Z) + + H{Zl) H + HiZi'1) = j H(Z), und es folgt die Existenz des Grenzwertes H(Z) lim j'1 H(Z0i (rg H(Z)). Als Entropie oder KolmogoRov-SiKAi-Invariante des Systems [ ß , SS, m, T] bezeichnet man dann die Größe H : = sup H{Z) , wobei sich das Supremum über alle endlichen meßbaren Zerlegungen Z von Q erstreckt. Nach Konstruktion ist H eine IsomorphieinVariante. Ihre ergodentheoretische (•Ergodentheorie) Bedeutung liegt insbesondere darin, das bisher im wesentlichen einzige Beispiel einer Isomorphieinvariante zu sein, die nicht gleichzeitig auch Spektralinvariante ^Strömung: Funktionalanalytische Zusammenhänge) ist. So gibt es z. B. gewisse Klassen (i. a. nicht isomorpher) dynamischer Systeme (gewisse sog. „BERNOULLi-Schemata"), die alle denselben Spektraltyp besitzen und genau dann isomorph sind, wenn ihre Entropie übereinstimmt. — Umgekehrt existiert z. B. eine Klasse dynamischer Systeme (gewisse ergodische Systeme mit diskretem Spektrum), deren Entropie stets 0 ist und die genau dann isomorph sind, wenn sie denselben Spektraltyp besitzen. Lit.:
>
Ergodentheorie [6], [7].
Entropie einer Zufallsgröße: Es seien [ ü , 33, -P] ein Wahrscheinlichkeitsraum und X eine auf Q definierte >Zufallsgröße. a) Ist X eine > diskrete Zufallsgröße, die die Werte xx, x2, . . . mit den Wahrscheinlichkeiten plt p2, . . . annehmen kann, so heißt H{X) := - ETn ldPn n
(ld p — Logarithmus von p zur Basis 2, Festsetzung: 0 • ld 0 = 0) Entropie (der Wahrscheinlichkeitsverteilung) der Zufallsgröße X, falls die obige Reihe konvergiert. b) Ist X eine stetige Zufallsgröße mit der Wahrscheinlichkeitsdichte oo f x , so heißt H(X) : = — j fx(x) ld/^(a;) dx Entropie (der Wahrscheinlich— oo
keitsverteilung) der Zufallsgröße X, falls das obige Integral konvergiert. Unter allen stetigen Zufallsgrößen mit dem •Erwartungswert 0 und der •Streuung 1 besitzt eine N(0, 1) - •normalverteilte Zufallsgröße die größte Entropie.
Entropie
eines Versuches
44
M«)) c) Ist X eine beliebige Zufallsgröße, so heißt d = d(X) : = lim —¡-= r» XI n^oc ldw m»> , n = 1,2, . . H(XW) ist die in a) erklärte Entropie der n
diskreten Zufallsgröße X) — falls dieser Limes existiert — Dimension der Wahrscheinlichkeitsverteilung von X. Existiert der mit dieser Zahl d gebildete Limes Ha(X) : = lim [H(X«) - d l d n ] , so heißt Hd(X) d-dift-voo mensionale Entropie (der Wahrscheinlichkeitsverteilung) derZufallsgröße X. Ist X speziell diskret mit den Einzelwahrscheinlichkeiten (pn) bzw. stetig mit der Wahrscheinlichkeitsdichte fx verteilt, so gilt d = 0 und H0(X) = oo = - E Pn ld Pn (vgl. a)) bzw. d = 1 und H^X) = - j fx(x) ld fx(x) dx — oo n (vgl. b)), falls diese Größen existieren (»Entropie eines Versuches). Lit.:
(45) CSISZAE, I., Some remarks on the dimensión and entropy of random variables, Acta. Math. Acad. Sei. Hungar. 12 (1961), 3 9 9 - 4 0 8 .
Entropie eines Versuches: Wir betrachten einen zufälligen »Versuch 21, als dessen Ergebnis genau eines der endlich vielen zufälligen Ereignisse At (t = 1, . . . , n) (»Ereignisfelder und Wahrscheinlichkeitsalgebren) eintritt. Sofern nicht ein Versuchsausgang ein fast sicheres Ereignis ist, wohnt einem solchen Versuch eine gewisse Unbestimmtheit inne. Eine Maßzahl für den Grad dieser Unbestimmtheit des Versuches 21, in die nur die »Wahrscheinlichkeiten P(-4 t ) der möglichen Versuchsausgänge A ( (i = 1, . . . , n) e i n g e h e n , i s t die sog. Entropie
n #(21) = — £ P(A¡) l d
P(At)
»=i (SHANNONscÄe Definition; l d p = Logarithmus von p zur Basis 2, Festsetzung : 0 • ld 0 = 0) des Versuches 21. Ist 2t ein beliebiger Versuch mit n Ausgängen, so gilt 0 1/(21) 0.
(f € LlM) und essai
"¿jV'flO (a.) ^
^
für »i—fast
h ) (co)
n k=0 Wesentliche Hilfsmittel zum Beweis individueller Ergodensätze sind der sog. maximale und der dominierende Ergodensatz (s. [5], [6]). Der zufällige Ergodensatz ( U L A M , V. N E U M A N N ) enthält eine Aussage über Konl n—i vergenz von Ausdrücken der Form— 2J f[T^\co)), wobei [W, E, x] ein •Wahrscheinlichkeitsraum, a = (slt s 2 , . . .) mit st e W (i = 1 , 2 , . . . ) , TW = T,k . . . Th und (Ts)seW eine Familie m-treuer (•Strömung) meßbarer Transformationen auf Q sind. Verallgemeinerungen auf bei. Strömungen (TSt t) s. [5].
Ergodensatz für stationäre stochastische Prozesse t ä t eines stationären stochastischen Prozesses
•metrische Transitivi-
Ergodentheorie (grch. (egyov = Arbeit, oöog — Weg): Ursprung der Ergodentheorie war die Problematik, die aus der für die statistische Mechanik grundlegenden Hypothese der Gleichheit von Zeit- und Raummittel eines mechanischen Systems entstand. (Hinreichend f ü r diese Hypothese ist die (allerdings logisch widersprüchliche) sog. Ergodenhypothese von BOLTZMANN : „Das betrachtete System geht — unabhängig davon, in welchem Zustand es sich im gegebenen Moment befindet — früher oder später in jeden anderen Zustand gleicher Gesamtenergie über." Näheres s. z. B. [1].) I n Erweiterung der ursprünglichen Fragestellung behandelt man heute in der Ergodentheorie allgemein Eigenschaften von •Strömungen, vor allem in Hinblick auf deren asymptotisches Verhalten, z . B . Rekurrenz- und Mischungsprobleme (Näheres •Strömung), Mittelwertprobleme usw. Eine theoretisch weitreichende Behandlung der Mittelwertprobleme erfolgt in den sog. •Ergodensätzen (J. v. N E U M A N N , G. BERKHOFF u. a.). Interessanterweise konnte das ursprüngliche Problem (Gleichheit von Zeit- und Raummittel eines mechanischen Systems) bis in jüngste Zeit nicht gelöst werden und wurde erst in den letzten Jahren (von J . G. S I N A I ab 1959, s. [7]) mit Erfolg in Angriff genommen. Außer
ergodische meßbare
Transformationen
52
der dabei betrachteten, sog. ÜAMiLTONschen Strömung gibt es eine Fülle anderer wichtiger und interessanter Beispiele für Strömungen; insbesondere sei auf Zusammenhänge mit >stochastischen Prozessen (^stationäre stochastische Prozesse, >MABKOVsche Prozesse) hingewiesen.
Die Untersuchungen von Strömungen in der Ergodentheorie gliedern sieh in rein topologische (sog. topologische Dynamik, s. [2]), gemischt maßtheoretisch-topologische (s. z. B. [4], [5]) und rein maß theoretische (Strömung, [3] —[7]). Wesentliche Methoden bei maßtheoretischen (und gemischten) Betrachtungen sind Verwendung ^invarianter Maße sowie Anwendung der Theorie (insbesondere Spektraltheorie) linearer Operatoren ^Strömung: Abschnitt „Funktionalanalytische Zusammenhänge"). Lit.:
(2)
[1] CHINTSCHIN, A. J., Mathematische Grundlagen der statistischen Mechanik, BI-Taschenbücher, Mannheim 1964. [2] GOTTSCHALK, W. H., and G. HEDLUND, Topological dynamics, Providence 1955. [3] HAT,MOS, P. R., Lectures on ergodic theory, Tokio 1953 (russ. Übersetzung Moskau 1960). [4] HOPF, E., Ergodentheorie, Berlin 1937. [5] JACOBS, K., Neuere Methoden und Ergebnisse der Ergodentheorie, BerlinGöttingen-Heidelberg 1960. [6] JACOBS, K., Lecture notes on ergodic theory, Aarhus Universitet 1963. [7] JACOBS, K., Einige neuere Ergebnisse der Ergodentheorie, Jahresbericht DMV 67 (1965), 134-182. ergodische meßbare Transformationen
Strömung
ergodischer >MARKOvscher Prozeß ergodische Verteilung eines
> MARKovschen
Prozesses
ERLANGSche Formel: E i n Bedienungssystem ^Bedienungstheorie) bestehe
aus n Bedienungsgeräten, die unabhängig voneinander arbeiten, wobei jedes jeweils nur einen Kunden bedienen kann; die zufällige Bedienungszeit sei (als >Zufallsgröße) beliebig verteilt mit endlichem >Erwartungswert 1/jM. Die Kunden mögen nach einem homogenen >Poissonschen Prozeß mit der Intensität X eintreffen, d. h., die zufällige Anzahl Xt der im Zeitintervall [0, t) eintreffenden Kunden genügt einer ^OISSON-Verteilung mit dem Parameter Xt, und es ist P(Xt
= k) =
(A 0®
k=0, 1,. . . .
Ist wenigstens ein Gerät frei, so wird ein ankommender Kunde sofort bedient, ansonsten wird er abgewiesen und verläßt das Bedienungssystem (sog. Verlustsystem).
53
Erneuerungstheorie
Sei rj(t) die Anzahl der besetzten Bedienungsgeräte im Zeitpunkt t, dann existiert bei beliebiger (Anfangs-)verteilung f ü r ^(0) stets pk : = l i m P ( j | ( i ) = k), u n d es gilt die EKLANGSCAC Formel
(É = 0, 1, . . . , ») . Diese Formel wurde von E R L A N G f ü r den Fall einer > exponentialverteilten Bedienungszeit abgeleitet; das allgemeine Resultat s t a m m t von S E W A S T JANOW [1], L i t . : [1] CeBacTbHHOB,
B.
A.,
9pronHiecKaH
T e o p e M a HJIH M a p K O B C K H x CHCTeiuaM c 0 T K a 3 a M H ,
npoqeccoB H ee npmio>KeHHH K Tejie$OHHHM
TeopHH BepoHTH. H ee npnivieH. 2 (1957), 106—116. Erneuerungsdichto Erneuerungsfunktion
>Erneuerungstheorie »Erneuerungstheorie
Erneuerungsprozeß (einfacher) Erneuerungstheorem, elementares
»Erneuerungstheorie »Erneuerungstheorie
Erneuerungstheorie: Die Erneuerungstheorie b e f a ß t sieh m i t Untersuchungen über das Ausfallen und Ersetzen bzw. Reparieren von Teilen (Elementen) innerhalb eines arbeitenden Systems. Dabei werden die Lebensdauern der Elemente sowie erforderliche Reparaturzeiten als '•Zufallsgrößen angesehen. Die wahrscheinlichkeitstheoretische Modellbildung f ü r verschiedene praktisch interessierende sowie mehr oder weniger komplizierte Erneuerungsvorgänge f ü h r t entsprechend zu verschiedenen T y p e n von Erneuerungsprozessen. Bei einem sog. einfachen Erneuerungsprozeß betrachtet m a n die Summe Sn = Xt -f X2 + • • • + Xn von identisch verteilten, unabhängigen (Unabhängigkeit zufälliger Variabler) und nichtnegativen Zufallsgrößen Xt, die die Lebensdauer eines bestimmten Teiles bedeuten, das nach Ausfall sofort wieder durch ein gleichartiges ersetzt wird. Sn gibt die Zeit bis zur n-ten Erneuerung an. U m den Beginn eines Prozesses (t = 0) beliebig, d. h. nicht notwendig bei einer Erneuerung, wählen zu können, ist es o f t zweckmäßig, f ü r Xx eine andere Verteilung als die der übrigen X{ (i 2) anzunehmen. E i n solcher Prozeß heißt in der Literatur ein modifizierter oder auch allgemeiner Erneuerungsprozeß. Sind x -> Fix) die Verteilungsfunktion der Zufallsgrößen Xt (i 2) mit dem Erwartungswert ¡x, x ->• %(x) : = 1 — F(x) = P (X{ x) die sog. Überlebensfunktion oder
erschöpfende
54
Zuverlässigkeitsfunktion, so erweist sich f i ' 1 als Wahrscheinlichkeitsdichte über [0, oo). Ein allgemeiner Erneuerungsprozeß heißt im Gleichgewicht oder ein stationärer Erneuerungsprozeß, wenn die Zufallsgröße die Wahrscheinlichkeitsdichte fi'1 %{x) besitzt. I m Hinblick auf den praktisch bedeutsamen Sachverhalt, d a ß die ausfallenden Elemente repariert werden müssen und das System erst danach wieder zu arbeiten beginnt, ergibt sich das folgende Modell: (Xj, X2, . . .) und ( F j , Y2, . . .) seien zwei unabhängige Folgen nichtnegativer Zufallsgrößen. Jede dieser Folge bestehe aus unabhängigen und m i t der evtl. Ausnahme der ersten Komponenten (X 1 bzw Yj) identisch verteilten Zufallsgrößen. Dann repräsentiert die Summenfolge S„ — = (XJL + I j ) + (X2 + Y2) + • • • + (X„ + F„) einen sog. alternierenden Erneuerungsprozeß, wobei S„ die (zufällige) Zeit bis zur erfolgten Instandsetzung nach dem w-ten Ausfall bedeutet. Durch die Zusammenfassung Zi •.= Xi Yi gelangt m a n auf Grund der vorausgesetzten Unabhängigkeit zu einem Erneuerungsprozeß der vorangehend betrachteten A r t in Zt und kann dadurch gewisse Aussagen dieser Erneuerungsprozesse auf den alternierenden Fall übertragen. Wichtige Begriffsbildungen bei Erneuerungsprozessen sind der Erwartungswert f ü r die (zufällige) Anzahl N(t) der im Intervall [0, t) stattfindenden Erneuerungen, die sog. Erneuerungsfunktion H(t) : = E N(t) sowie (im Fall ihrer Existenz)
die Erneuerungsdichte
h{t) : = — .
Zwei
typische Aussagen der Erneuerungstheorie sind z. B. f ü r den Fall eines modifizierten Erneuerungsprozesses mit EXt = ¡j, {i ^ 2) das sog. elementare Erneuerungstheorem
lim
t
= — n
sowie das Theorem
von
—, « > 0 . («->«.) i« Erneuerungsprozesse gehören in die wichtige Klasse der > Punktprozesse, auch spielen >halbmarkovsche Prozesse in der Erneuerungstheorie eine besondere Rolle. F ü r weitere Ausführungen sei auf D. Cox-W. SMITH „Erneuerungstheorie" (russisch, Moskau 1967) hingewiesen. BLACKWELL
(1948): H (t + «) — H(t)
erschöpfende = hinreichende »Punktschätzung erwartungstreue Schätzfunktion
>Punktschätzungen
Erwartungswert: X sei eine reelle »Zufallsgröße mit der Verteilungsfunktion Fx• Dann heißt /1 x dFx(x) =: EX Erwartungswert (manchmal R auch Mittelwert) der Zufallsgröße X. Falls / |a;| dFx(x) < oo gilt, so sagt man, daß der Erwartungswert EX
Ericartungswertvektor
55
existiert. Ist X eine •diskrete Zufallsgröße, die die Werte xt (i = 0 , 1 , 2 , . . . ) mit den Wahrscheinlichkeiten pt = P (X = xt) annimmt, so ist der Erwartungswert von X gegeben durch EX = £ xt p(, falls £ \x(\ pt < oo i i ist. I m Fall einer •stetigen Zufallsgröße mit der Wahrscheinlichkeitsdichte f x berechnet man den Erwartungswert von X nach EX oo
oo
= jxfx(x)dx, — oo
sofern J \x\fz(x) — oo
dx < oo ist.
I n Anlehnung an die Mechanik deutet m a n den Erwartungswert als Schwerpunkt einer Massenverteilung auf der reellen Achse (Gesamtmasse gleich Eins). F ü r den Erwartungswert gelten folgende Beziehungen: 1. E (a X + 6) —a EX + b, wobei a und b K o n s t a n t e n sind. 2. Sind u n d X2 Zufallsgrößen mit den Erwartungswerten EX1 u n d EX2, SO gilt E(Xl + X2) = EXx + EX2. F ü r unkorrelierte (•Korrelationskoeffizient) u n d damit f ü r unabhängige (•Unabhängigkeit zufälliger Variabler) Zufallsgrößen Xt u n d X2 ist E(X1X2) = E X1- E X2. Aus der Gültigkeit dieser Beziehung ist zwar die Unkorreliertheit von Xt und X2, nicht aber ihre Unabhängigkeit zu folgern. Der Begriff des Erwartungswertes läßt sich auch auf •Funktionen von Zufallsgrößen ausdehnen. I s t g(X) eine BoEEL-^meßbare, reellwertige Funktion der Zufallsgröße X im B1, dann ist der Erwartungswert der Zufallsgröße g(X) durch E g(X)
= f g(x) dFx(x) ü> gegeben, falls / |g(a;)| dFx{x) existiert. Die f ü r den Erwartungswert von X angegebenen Beziehungen lassen sich entsprechend auf den Erwartungswert von g(X) übertragen. Ist 3t ein reeller •zufälliger Vektor im B n , so ist E X := (EXlt EX2, . . . ,
EXn)
der Erwartungswertvektor von 36. Ist X(t), t e T ein •stochastischer Prozeß, so bezeichnet m a n die nichtzufällige Funktion E X(t) als E rwartungswertfunkt ion. F ü r jeden Wert t =t0 ist E X(t0) gleich dem Erwartungswert der Zufallsgröße X(t0). Erwartungswertfunktion eines stochastischen Prozesses Erwartungswertvektor 6 Lexikon
•Erwartungswert, >Momente
•Erwartungswert
erzeugende
Funktionen
56
erzeugende Funktionen: Ausgehend von der Verteilungsfunktion Fx einer »Zufallsgröße X können eine Reihe von Hilfsfunktionen, sog. erzeugende Funktionen definiert werden, die bei der Berechnung von »Momenten, der Wahrscheinlichkeitsverteilung einer Summe unabhängiger Zufallsgrößen (»Funktion eines zufälligen Vektors, »Unabhängigkeit zufälliger Variabler) u. a. sehr nützlich sind und ihrerseits Fx eindeutig bestimmen. Es sind dies die folgenden Funktionen: oo 1. Die durch G(t) := E tx = J tx dFx(x) gegebene (wahrscheinlichkeits)— oo erzeugende Funktion. Sie wird meist benutzt für »diskrete Zufallsgrößen X mit P (X =n) —:pn, oo n = 0, 1, 2, . . . ; es ist dann G(t) = £ pn tn (die Reihe ist konver»=o gent für |í| 1). Die erzeugende Funktion der Summe unabhängiger Zufallsgrößen ist gleich dem Produkt der einzelnen erzeugenden FunktioN nen. Ist S¡t : = £ X 4 eine Summe unabhängiger Zufallsgrößen mit den«=i selben erzeugenden Funktionen G und N eine von den X{ unabhängige diskrete Zufallsgröße (sog. zufälliger Index) mit der erzeugenden Funktion K, so ist die erzeugende Funktion von SN gleich der zusammengesetzten Funktion K(G). Interessante Anwendungen in dieser Richtung findet man in [1], (11). oo
2. Für diskrete Zufallsgrößen X dient die durch G (1 + t) = £