Wahrscheinlichkeitstheorie [Reprint 2015 ed.] 9783486790108, 9783486236590

Einführung in die Wahrscheinlichkeitstheorie für mittlere Semester der Mathematik, Physik, des OR und der Wirtschaftswis

204 116 27MB

German Pages 522 [524] Year 1998

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Häufig benutzte Symbole und Abkürzungen
Kapitel 1. Wahrscheinlichkeitsräume
1.1. Diskrete Wahrscheinlichkeitsräume
1.2. Allgemeine Wahrscheinlichkeitsräume
1.3. Existenzproblem: σ-Algebren
1.4. Existenzproblem: Wahrscheinlichkeitsmaße
1.5. Bedingte Wahrscheinlichkeiten
Aufgaben
Kapitel 2. Zufallsvariable
2.1.Meßbare Abbildungen und Zufallsvariable
2.2. Verteilungen und Verteilungsfunktionen
2.3. Einige spezielle σ-Algebren
Aufgaben
Kapitel 3. Unabhängigkei
3.1. Unabhängigkei von Ereignissen und Zufallsvariablen
3.2. Null-Eins-Gesetze
Aufgaben
Kapitel 4. Erwartungswerte
4.1. Definition
4.2. Stetigkeitseigenschaften des Erwartungswertes
4.3. Ungleichungen für Erwartungswerte
4.4. Der Satz von Fubini-Tonelli
4.5. Berechnung von Erwartungswerten
4.6. Lebesgue-Räume
4.7. Das starke Gesetz der großen Zahlen
4.8. Symmetrisch verteilte Zufallsvariable
Aufgaben
Kapitel 5. Schwache Konvergenz und zentraler Grenzwertsatz
5.1. Schwache Konvergenz
5.2. Der zentrale Grenzwertsatz
Aufgaben
Kapitel 6. Bedingte Erwartungswerte
6.1. Definition und Existenz bedingter Erwartungswerte
6.2. Berechnung bedingter Erwartungswerte
6.3. Existenz eines Poisson-Prozesses
Aufgaben
Kapitel 7. Subadditive Grenzwertsätze
7.1. Fast-Subadditivität
7.2.Stationarität
7.3. Subadditive Grenzwertsätze
7.4. Ergodizität
7.5. Anwendungen
7.6. Konvergenz empirischer Verteilungen
Aufgaben
Kapitel 8. Martingale
8.1. Martingale und Submartingale
8.2. Beispiele
8.3. Stoppzeiten und Stoppsätze
8.4. Diskrete stochastische Integrale und lokale Martingale
8.5. Ungleichungen
8.6. Der Martingalkonvergenzsatz
8.7. Folgerungen aus dem Martingalkonvergenzsatz
8.8. Das Gesetz vom iterierten Logarithmus
Aufgaben
Kapitel 9. Weitere Anwendungen der Martingaltheorie
9.1. Der Jackknife-Schätzer einer Varianz
9.2. Stochastische kombinatorische Optimierungsprobleme
9.3. Optimales Stoppen einer Folge von Zufallsvariablen
9.4. Ein Ruinproblem für kollektive Risikomodelle
Aufgaben
Kapitel 10. Martingale und stochastische Finanzmärkte
10.1. Der„faire“ Preis einer europäischen Option
10.2. Durch Grenzübergang zur Black-Scholes-Formel
Aufgaben
Literaturhinweise
Literaturverzeichnis
Symbolverzeichnis
Sachverzeichnis
Recommend Papers

Wahrscheinlichkeitstheorie [Reprint 2015 ed.]
 9783486790108, 9783486236590

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Lehr- und Handbücher der Statistik Herausgegeben von Universitätsprofessor Dr. Rainer Schlittgen Bisher erschienene Werke: Böhning, Allgemeine Epidemiologie Caspary • Wichmann, Lineare Modelle Chatteijee • Price (Übers. Lorenzen), Praxis der Regressionsanalyse, 2. Auflage Degen • Lorscheid, Statistik-Aufgabensammlung, 3. Auflage Härtung, Modellkatalog Varianzanalyse Harvey (Übers. Untiedt), Ökonometrische Analyse von Zeitreihen, 2. Auflage Harvey (Übers. Untiedt), Zeitreihenmodelle, 2. Auflage Heiler • Michels, Deskriptive und Explorative Datenanalyse Miller (Übers. Schlittgen), Grundlagen der Angewandten Statistik Naeve, Stochastik für Informatik Oerthel • Tuschl, Statistische Datenanalyse mit dem Programmpaket SAS Pokropp, Lineare Regression und Varianzanalyse Rasch • Herrendörfer u.a., Verfahrensbibliothek, Band I Rinne, Wirtschafts- und Bevölkerungsstatistik, 2. Auflage Rüger, Induktive Statistik, 3. Auflage Schlittgen, Statistik, 8. Auflage Schlittgen, Statistische Inferenz Schlittgen • Streitberg, Zeitreihenanalyse, 7. Auflage Schürger, Wahrscheinlichkeitstheorie

Fachgebiet Biometrie Herausgegeben von Dr. Rolf Lorenz Bisher erschienen: Bock, Bestimmung des Stichprobenumfangs

Wahrscheinlichkeitstheorie Von Universitätsprofessor

Dr. Klaus Schürger

R. Oldenbourg Verlag München Wien

Die Deutsche Bibliothek - CIP-Einheitsaufnahme Schürger, Klaus: Wahrscheinlichkeitstheorie / von Klaus Schürger. - München ; Wien : Oldenbourg, 1998 (Lehr- und Handbücher der Statistik) ISBN 3-486-23659-8

© 1998 R. Oldenbourg Verlag Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0, Internet: http://www.oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: Hofmann-Druck Augsburg GmbH, Augsburg ISBN 3-486-23659-8

Inhaltsverzeichnis Vorwort

VII

Häufig b e n u t z t e Symbole und Abkürzungen

XI

Kapitel 1. Wahrscheinlichkeitsräume 1.1. Diskrete Wahrscheinlichkeitsräume 1.2. Allgemeine Wahrscheinlichkeitsräume 1.3. Existenzproblem: cr-Algebren 1.4. Existenzproblem: Wahrscheinlichkeitsmaße 1.5. Bedingte Wahrscheinlichkeiten Aufgaben

1 2 12 20 32 40 42

Kapitel 2. Zufalls variable 2.1. Meßbare Abbildungen und Zufallsvariable 2.2. Verteilungen und Verteilungsfunktionen 2.3. Einige spezielle cr-Algebren Aufgaben

45 45 60 67 77

Kapitel 3. Unabhängigkeit 3.1. Unabhängigkeit von Ereignissen und Zufalls variablen 3.2. Null-Eins-Gesetze Aufgaben

81 81 101 105

Kapitel 4. Erwartungswerte 4.1. Definition 4.2. Stetigkeitseigenschaften des Erwartungswertes 4.3. Ungleichungen für Erwaxtungswerte 4.4. Der Satz von Fubini-Tonelli 4.5. Berechnung von Erwartungswerten 4.6. Lebesgue-Räume 4.7. Das starke Gesetz der großen Zahlen 4.8. Symmetrisch verteilte Zufallsvariable Aufgaben

109 109 131 148 163 168 185 196 208 211

Kapitel 5. Schwache Konvergenz und zentraler Grenzwertsatz 5.1. Schwache Konvergenz 5.2. Der zentrale Grenzwertsatz Aufgaben

223 223 239 249

VI

INHALTSVERZEICHNIS

Kapitel 6. B e d i n g t e Erwartungswerte 6.1. Definition und Existenz bedingter Erwaxtungswerte 6.2. Berechnung bedingter Erwartungswerte 6.3. Existenz eines Poisson-Prozesses Aufgaben

253 253 269 279 285

Kapitel 7. Subadditive Grenzwertsätze 7.1. Fast-Subadditivität 7.2. Stationarität 7.3. Subadditive Grenzwertsätze 7.4. Ergodizität 7.5. Anwendungen 7.6. Konvergenz empirischer Verteilungen Aufgaben

289 289 296 300 311 317 323 328

Kapitel 8. Martingale 8.1. Martingale und Submartingale 8.2. Beispiele 8.3. Stoppzeiten und Stoppsätze 8.4. Diskrete stochastische Integrale und lokale Martingale 8.5. Ungleichungen 8.6. Der Martingalkonvergenzsatz 8.7. Folgerungen aus dem Martingalkonvergenzsatz 8.8. Das Gesetz vom iterierten Logarithmus Aufgaben

333 333 345 349 367 377 386 397 414 418

Kapitel 9. Weitere Anwendungen der Martingaltheorie 9.1. Der Jackknife-Schätzer einer Varianz 9.2. Stochastische kombinatorische Optimierungsprobleme 9.3. Optimales Stoppen einer Folge von Zufallsvariablen 9.4. Ein Ruinproblem für kollektive Risikomodellë Aufgaben

425 425 428 436 450 454

Kapitel 10. Martingale und stochastische Finanzmärkte 10.1. Der „faire" Preis einer europäischen Option 10.2. Durch Grenzübergang zur Black-Scholes-Formel Aufgaben

457 457 474 481

Literaturhinweise

485

Literaturverzeichnis

491

Symbolverzeichnis

499

Sachverzeichnis

503

Vorwort Das vorliegende Buch ist als Einführung in die Wahrscheinlichkeitstheorie für Studenten mittlerer Semester gedacht; es entstand aus Vorlesungen, die ich an der Universität Bonn mehrfach für Hörer mit Statistik als Wahlfach gehalten habe. Ich würde mich freuen, wenn es sich sowohl für Mathematiker und Physiker, als auch für Studenten des Operations Research und der Wirtschaftswissenschaften — insbesondere für solche, die an Statistik, Ökonometrie oder stochastischen Finanzmärkten interessiert sind — als nützlich erweisen würde. Vorausgesetzt wird, daß der Leser gewisse Grundkenntnisse aus der Differential- und Integralrechnung mitbringt und Interesse an einer mathematisch exakten Behandlungsweise hat. Zur Erleichterung der Lektüre werden jedoch z.B. einige Resultate über unendliche Reihen, die u.a. bei Anwendungen der Borel-Cantelli-Lemmata nützlich sind, und konvexe Funktionen im Text entwickelt. Aus didaktischen Gründen werden keine charakteristischen Funktionen behandelt, da dies beim Leser Vorkenntnisse über komplexwertige Funktionen erfordern würde. In der vorliegenden Darstellung treten die kombinatorischen gegenüber den maßtheoretischen Aspekten der Wahrscheinlichkeitstheorie stärker in den Hintergrund, obwohl (natürlich!) etwa die Siebformel und eine Reihe von wichtigen diskreten Verteilungen behandelt werden. Die Grundzüge der Maßund Integrationstheorie (deren Kenntnis beim Leser nicht vorausgesetzt wird) werden in ihrer wahrscheinlichkeitstheoretischen Form so weit entwickelt, wie es für die behandelten Fragestellungen erforderlich ist (der hierbei benötigte Fortsetzungssatz von Carathéodory gehört zu den wenigen Resultaten im Buch, die nicht bewiesen werden). So wird etwa gezeigt, wie sich — ausgehend von Erwartungswerten — auf einfache Weise Integrale bez. cr-endlicher Maße und einige ihrer wichtigsten Eigenschaften gewinnen lassen. Die Existenz bedingter Erwartungswerte, die für möglichst allgemeine Integranden betrachtet werden, und der Satz von Radon-Nikodym ergeben sich „geometrisch" aus einem Projektionssatz für L 2 -Räume. An dieser Stelle sei erwähnt, daß auf die Behandlung stochastischer Prozesse mit stetiger Zeit verzichtet wurde; eine Ausnahme bildet der Poisson-Prozeß, dessen Existenz mit Hilfe bedingter Erwartungswerte bewiesen wird. Im Anschluß an die bedingten Erwartungswerte werden (Fast-) Subadditive Grenzwertsätze behandelt. Leser, die ausschließlich an der Existenz entsprechender Grenzwerte interessiert sind, benötigen zum Verständnis der elementar gehaltenen Nachweise lediglich einige Kenntnisse über gewöhnliche Erwartungswerte. Die Darstellung der Grenzwerte geschieht jedoch mit Hilfe

VIII

VORWORT

bedingter Erwartungswerte. Anwendungsbeispiele stammen u.a. aus der Perkolationstheorie (asymptotische Ausbreitungsgeschwindigkeit einer Flüssigkeit in einem zweidimensionalen Medium), Ergodentheorie (Ergodensatz von Birkhoff), Informationstheorie (Satz von Shannon-McMillan-Breiman) und Statistik (Konvergenz empirischer Verteilungen). Die Darstellung der Martingaltheorie und ihrer Anwendungen nimmt rund ein Drittel des Textes ein. Ausführlich behandelt werden Stoppsätze und Martingalkonvergenzsätze. In Verbindung mit ii-Transformierten, die man als diskrete stochastische Integrale auffassen kann, werden lokale Martingale und die damit zusammenhängende Idee der Lokalisierung betrachtet. Dies führt insbesondere zu Konvergenzaussagen für (Sub-)Martingale, die i.a. lediglich auf einer Menge iio mit 0 < P(Oo) < 1 gelten. Daraus ergeben sich dann auf einfache Weise klassische Konvergenzresultate für Partialsummen von unabhängigen Zufalls variablen. In §8.5 werden u.a. Ungleichungen für Martingale hergeleitet, deren Zuwächse gewisse Beschränktheitseigenschaften aufweisen. Die darauf beruhende „Methode der beschränkten Differenzen" läßt sich insbesondere auf stochastische Varianten kombinatorischer Optimierungsprobleme anwenden, von denen einige in Kapitel 9 betrachtet werden. Dort findet man auch weitere Anwendungen der Martingaltheorie (Problem des optimalen Stoppens einer Folge von Zufalls variablen, das Ruinproblem für kollektive Risikomodelle, ... ). In den letzten 20 Jahren stellte sich heraus, daß die Martingaltheorie überraschend interessante (und für die Praxis folgenreiche!) Anwendungen auf dem Gebiet der stochastischen Finanzmärkte besitzt. Im letzten Kapitel wird — im Rahmen einer einfachen Modellierung — ausführlich dargestellt, wie sich die Frage, welchen „fairen" (d.h. marktgerechten) Preis eine europäische Option besitzt, mit Hilfe martingaltheoretischer Begriffe und Resultate behandeln läßt. Zum Verständnis dieser Darstellung sind keinerlei Vorkenntnisse über Finanzmärkte erforderlich. Einige Resultate der klassischen Analysis (Stirling-Formel, Approximationssatz von Weierstrass, ... ) werden auf einfache Weise „stochastisch" bewiesen. Umgekehrt ergibt sich dann mit Hilfe des Approximationssatzes von Weierstrass, daß die Laplace-Transformierte einer nichtnegativen Zufallsvariablen eindeutig deren Verteilung festlegt. Es schien mir reizvoll zu zeigen, daß sich einige wichtige Resultate auf sehr unterschiedliche Weise herleiten lassen. So wird etwa das klassische Gesetz der großen Zahlen, das von Kolmogorov stammt, auf vier(!) Arten bewiesen. Das Buch enthält viele Beispiele, die dazu dienen, eingeführte Begriffe zu motivieren, Sätze zu erläutern und Hinweise auf mögliche Anwendungsgebiete zu geben. Eine Reihe von Beispielen entstammt der Risikotheorie, in der — im Gegensatz zur klassischen Versicherungsmathematik — die stochastische Modellierung der Risiken im Vordergrund steht.

VORWORT

IX

Beweise sind i.a. ausführlich gehalten, damit der Leser die Überlegungen leichter nachvollziehen kann. Ich habe die für Autoren bequeme (aber nicht immer ungefährliche!) Formulierung „Wie man leicht sieht, . . . " möglichst sparsam verwendet und in Zweifelsfällen durch ein detailliertes Argument ersetzt. Das Buch enthält etwa 300 Übungsaufgaben, die teilweise Lösungshinweise enthalten. Der Leser sollte jedoch zunächst versuchen, ohne diese Hinweise auszukommen. In einigen Aufgaben findet man in knapper Form zusätzliches Material, das nirgends im Haupttext verwendet wird. Der Abschnitt „Literaturhinweise" enthält Angaben zu einigen der benutzten Quellen sowie Arbeiten, die sich zum Weiterlesen eignen. Bei der Numerierung von Definitionen, Sätzen, Beispielen, Formeln, . . . werden Verweise auf andere Kapitel in eckigen Klammern angegeben. So bezieht sich etwa Satz 1.8[3] auf Satz 1.8, der im ersten Abschnitt des dritten Kapitels steht. Häufig benutzte Abkürzungen und Symbole werden im Anschluß an das Vorwort erläutert; weitere Symbole (mit Angabe ihres erstmaligen Auftetens) werden im Symbolverzeichnis am Ende des Buches aufgeführt. Anregungen, die ich im Laufe der Jahre erhielt, verdanke ich u.a. N. Christopeit, I.V. Evstignejev, H. Föllmer, H.U. Gerber, C.C. Heyde, J.M. Kabanov, D.O. Kramkov, U. Krengel, H.-J. Prömel, K. Sandmann, M. Schäl, A.N. Schirjajev, P. Schönfeld sowie J.M. Steele. Besonders erwähnen möchte ich Herrn P. Tautu, dessen Gruppe „Mathematische Modelle" im Deutschen Krebsforschungszentrum in Heidelberg ich längere Zeit angehörte. Herrn Tautu (der leider viel zu früh verstarb) verdanke ich nicht nur wissenschaftlich sehr viel; seine beiden — zusammen mit M. Iosifescu — verfaßten Bücher Iosifescu/Tautu (1973) bilden ein Standardwerk über mathematische Biologie. Herrn D. Sondermann danke ich herzlich für seine Unterstützung und seine vielfältigen Anregungen aus dem Gebiet der stochastischen Finanzmärkte. Die studentischen Mitarbeiterinnen und Mitarbeiter, Frau Sonja Hoos, Frau Yingxin Gong, Herr Henning W. Lemster, Herr Ulf BosserhofF sowie Herr Florian Schröder, haben mit viel Ausdauer, Kompetenz und Sinn für Ästhetik das ursprüngliche Manuskript in eine optisch sehr ansprechende Form gebracht. Herrn E. Schlögl gelang es stets, knifHige T^X-Probleme, die beim Schreiben auftraten, zu lösen. Nicht zuletzt gebührt mein Dank Herrn M. Weigert, meinem Ansprechpartner beim Oldenbourg Verlag, sowie Herrn R. Schlittgen für die Bereitwilligkeit, das vorliegende Buch in die Reihe Lehr- und Handbücher der Statistik aufzunehmen. Bonn

Klaus Schürger

Häufig benutzte Symbole und Abkürzungen Die Bezeichnungen A:= B und B =: A bedeuten jeweils, daß A definitionsgemäß gleich B ist. Wir schreiben C D bzw. C D, falls gilt: C impliziert D bzw. C ist äquivalent zu D (d.h. C trifft genau dann zu, wenn D zutrifft). Wichtige Mengen sind: R (Menge der reellen Zahlen), R + := {i 6 E : i > 0}, Z (Menge der ganzen Zahlen aus R), Z + := {t G Z : t > 0}, Q (Menge der rationalen Zahlen aus R), R d := { ( i i , . . . ,td) : U G R, 1 < i < d} (d = 1 , 2 , . . . ) , Zd := { ( * ! , . . . ,td) • U €_Z, 1 < i < d} (d = 1 , 2 , . . . ) , := {(io.ii,-- •) : i« G R, i = 0 , 1 , . . . } , R := R U { - o o , oo} und R + := R+U{oo}. Wir benutzen folgende Abkürzungen für Intervalle ( a < b sind reelle Zahlen): [a,6] : = {i G R : a < t < b}, ]a,b] := {t £ WL : a < t < b} usw. (Natürlich gilt ]o,a[=]o,a] = [a,a[= 0.) Für a G R ist ] - oo,o] : = {i G R. : t < a}, ]a, oo[:= {t G R : t > a}, [—oo,a] := {i G R : i < a } usw. Weiter ist ] — oo, oo[:= R, [0, oo] := R + und [—oo, oo] := R . Sei A eine beliebige Menge. Mit V(A) bezeichnen wir die Potenzmenge von A, d.h. die Familie aller Teilmengen von A (einschließlich 0!), #A und |A| ist jeweils die Anzahl der Elemente in A, wobei = |A| = oo, falls A eine unendliche Menge ist. Für (nichtleere) Mengen A, B bedeutet / : A —> B, daß / eine auf A definierte Abbildung ist derart, daß f ( t ) E B für alle i G A gilt; t i—> f ( t ) bedeutet, daß das Element t durch / in das Element f ( t ) abgebildet wird. Sind a, 6, Oi, a 2 , . . . Elemente aus R, so setzen wir a A b = min(a, b), ai A ü2 A • • • = inf„>i an (Infimum von a i , 0 2 , . . . ) , a V 6 = max(a, b) sowie a\ V a,2 V • • • = s u p n > 1 a n (Supremum von a i , 0 2 , . . . ) . Weiter ist o + := max(a,0) ( positiver Teil von a) und a~ := m a x ( - a , 0) (negativer Teil von a), so daß a = a+ - a~ und |a| = a+ + a~. Sind (a n ), (6„) reelle Zahlenfolgen, so bedeutet an ~ bn, daß an/bn —> 1 (n —> 00). Weiter schreiben wir an = o(bn), falls an/bn —tO(n—> 00) und a n = 0 ( b n ) , falls l i m s u p n ^ ^ |a„|/|6 n | < 00. Ist speziell b n = 1 für alle n, so schreiben wir statt o(6„) bzw. 0 ( b n ) auch o(l) bzw. 0 ( 1 ) . Analoge Bezeichnungen werden für reellwertige Funktionen / , g benutzt, wobei der Grenzübergang angegeben wird. So bedeutet (für io G R ) f ( t ) = 0(g(t)) (t io), daß limsupt^tg | / ( t ) | / | f l ( t ) | < 00 usw. (Die Symbole „o" und „O", die an „Ordnung" erinnern sollen, heißen auch Landau-Symbole.)

XII

HÄUFIG BENUTZTE SYMBOLE UND ABKÜRZUNGEN

Bei Grenzübergängen bedeutet s f t bzw. s J. t, daß s t und s < t bzw. s > t. Falls nichts anderes gesagt wird, bezeichnet „log" den natürlichen Logarithmus. Im Buch werden u.a. folgende Abkürzungen verwendet: EW (Erwartungswert (e)), f.s. (fast sicher), f.ü. (fast überall), MEF (momentenerzeugende Funktion(en)), NZV (numerische Zufallsvariable(n)), RM (Rückwärtsmartingal(e)), RSE (Rückschlußeigenschaft), SZ (Stoppzeit(en)), UIV (unabhängig und identisch verteilt; Beispiel: UIV-Folge von Zufallsvariablen), u.o. (unendlich oft), VF (Verteilungsfunktion(en)), W.-Maß (Wahrscheinlichkeitsmaß), W.-Raum (Wahrscheinlichkeitsraum), ZGS (zentraler Grenzwertsatz), ZV (Zufallsvariable(n)) sowie ZVK (Zufallsvektor(en)). Weitere Abkürzungen werden im Sachverzeichnis am Ende des Buches erläutert. Durch • wird das Ende von Definitionen, Beispielen, Bemerkungen und Beweisen markiert. Am Ende von Resultaten, die ohne Beweis angegeben werden, steht ebenfalls ein • .

KAPITEL 1 Wahrscheinlichkeitsräume Für die Entwicklung der Wahrscheinlichkeitstheorie hat von Anfang an die Betrachtung von Phänomenen, die vom „Zufall" abhängen, eine wichtige Rolle gespielt. Als Beispiele sind hier etwa zu nennen: Glücksspiele, Bevölkerungswachstum, Ausbreitung von Infektionskrankheiten, Genetik, Schadenshäufigkeiten, Radioaktivität, Brownsche Molekularbewegung . . . Man spricht auch von „Zufallsexperimenten", wenn man ausdrücken möchte, daß Experimente, deren Ausgänge zufallsabhängig sind, zumindest gedanklich unter gleichen Bedingungen und ohne gegenseitige Beeinflussung wiederholbar sind. Einem Zufallsexperiment ordnen wir eine (nichtleere) Menge ÍÍ zu, deren Elemente ui die möglichen Ausgänge (oder Realisierungen) des Experiments bezeichnen, fi heißt Grundraum (manchmal auch Stichprobenraum oder Ergebnisraum). Im Prinzip können die Elemente von fl sehr einfach (Beispiel: Ausgang eines einmaligen Münzwurfs), aber auch ziemlich kompliziert sein. (Beispiel: Brownsche Bewegung eines Teilchens in einer Flüssigkeit, bei der eine Realisierung die Bahn ist, die das Teilchen in einem bestimmten Zeitintervall beschreibt.) Man interessiert sich nun in vielen Fällen nicht für den genauen Ausgang u> £ Q eines Zufallsexperiments, sondern lediglich dafür, ob ein gewisses Ereignis eintritt. Ein Ereignis ist hierbei eine Teilmenge von fi, und man sagt, daß ein Ereignis A C ÍÍ eintritt, falls ein u) € A der beobachtete Ausgang ist. (Beispiel: Ein Zufallsexperiment bestehe darin, einen Würfel lOOmal zu werfen. Eine Realisierung wird dann durch die Folge der erzielten Augenzahlen beschrieben. Betrachtet man das Ereignis, mindestens 70mal eine 6 zu werfen, so interessiert man sich nicht dafür, welche der 100 Würfe eine 6 sind.) Der einfachste Fall liegt vor, wenn fi höchstens abzählbar (d.h. endlich oder abzählbar unendlich) ist und jede Teilmenge von fi (einschließlich der leeren Menge !) als ein Ereignis aufgefaßt wird. Die Familie A aller Ereignisse ist somit die Potenzmenge von fi, die wir mit V(ü) bezeichnen. Ein Wahrscheinlichkeitsmaß ist nun eine Abbildung P : V(ü) —> [0,1], die jedem Ereignis A seine Wahrscheinlichkeit P(A) zuordnet. Wird ein entsprechendes Zufallsexperiment sehr oft unter gleichen Bedingungen und ohne gegenseitige Beeinflussung wiederholt, so kann man P(A) auffassen als eine Approximation der relativen Häufigkeit derjenigen Experimente, bei denen A eintritt. Dies suggeriert gewisse Axiome, denen ein Wahrscheinlichkeitsmaß

2

1. WAHRSCHEINLICHKEITSRÄUME

P genügen sollte. Insbesondere sollte P zumindest additiv sein, d.h. es sollte für beliebige Ereignisse A, B gelten: P(AliB)

= P{A) + P(B),

falls A n B = 0.

Außerdem liegt es nahe, P(fi) = 1 zu verlangen, da ja das Ereignis fi bei jedem Experiment eintritt. Man kann nun umgekehrt beweisen: Legt man für Wahrscheinlichkeitsmaße geeignete Axiome zugrunde, so konvergieren die zuvor erwähnten relativen Häufigkeiten in einem gewissen Sinne gegen P{A), falls die Anzahl der Experimente unbegrenzt wächst (dies folgt aus dem starken Gesetz der großen Zahlen von Kolmogorov). Ist fi höchstens abzählbar und P : V(fl) —• [0,1] ein Wahrscheinlichkeitsmaß, so heißt (fi, P) (oder ausführlicher: ( f l , V ( S l ) , P ) ) ein diskreter Wahrscheinlichkeitsraum, den man als ein stochastisches Modell für ein Zufallsphänomen mit höchstens abzählbarem Grundraum auffassen kann. Im vorliegenden Buch wird die Wahrscheinlichkeitstheorie auf axiomatischer Grundlage entwickelt. Fragestellungen der mathematischen Statistik, etwa das Problem, für die Wahrscheinlichkeiten gegebener Ereignisse geeignete „Schätzwerte" zu finden, werden nicht behandelt (eine Ausnahme bildet u.a. die Untersuchung der Konvergenz empirischer Verteilungen in §7.6). 1.1 Diskrete Wahrscheinlichkeitsräume In diesem Abschnitt bezeichnet fi eine nichtleere Menge, die höchstens abzählbar, d.h. endlich oder abzählbar ist. Die Abzählbarkeit von fi bedeutet, daß f1 eine unendliche (!) Menge ist, deren Elemente sich durchnumerieren lassen. 1.1 Beispiel. Die Mengen Z+ := { 0 , 1 , 2 , . . . } (nichtnegative ganze Zahlen) und Z := {0,1, —1,2, —2,...} (ganze Zahlen) sind ersichtlich abzählbar. Die Menge Q der rationalen Zahlen, die entweder zu TL gehören oder sich als gekürzte Brüche der Form m/n (m € Z \ {0}, n G Z + \ {0,1}) schreiben lassen, ist abzählbar. (Warum?) Es läßt sich zeigen, daß die folgenden Mengen überabzählbar (d.h. weder endlich noch abzählbar) sind: IR.+ = [0, oo[ (nichtnegative reelle Zahlen); 1R =]—oo, oo[ (reelle Zahlen); [a, b], — oo < o < b < oo (abgeschlossenes Intervall); ]a, b[, - o o < a < b < oo (offenes Intervall); ]a, b], [a, b[, —oo < a < b < oo (halboffene Intervalle). • Die Menge fi heißt im folgenden Grundraum und läßt sich als Menge der möglichen Ausgänge eines geeigneten Zufallsexperiments interpretieren. Jede Teilmenge von fi (einschließlich der leeren Menge !) heißt ein Ereignis. Die Familie aller Ereignisse heißt die Potenzmenge von fi (Bezeichung: V{ü)). 1.2 Beispiel. Für fi = {^1,^2,013} ist V{fi) = {0,

{i G iij auftritt (1 < i 1

P(Ai

falls

P{An) = 1, n > 1.

und (1.11.14)

n i

2

n - )

=

1,

(k) Es gilt (1.11.15)

|P{A) - P{B)| < P(AAB),

A,BC 7>(il),

so daß insbesondere (1.11.16)

P(AAB)

=0

P(Ä) = P{B),

A,B € V(Ü).

Die Formeln (1.11.7) - (1.11.9), die manchmal auch Einschluß-AusschlußFormeln heißen, sind Spezialfälle einer allgemeineren Siebformel, die auch Formel von Sylvester genannt wird. BEWEIS VON SATZ 1.11. (a) Aufgrund von (WM1) gilt 0 < P(0) < 00. Für Aj = A2 = • • • = 0 ist die linke Seite in (1.9.4) gleich P(0). Aus P(0) > 0 würde mit Hilfe von (1.9.4) P(0) = 00 folgen. Somit gilt (1.11.1). (b) Sind die Ereignisse A\,... ,AN paarweise disjunkt und setzen wir

1.1. DISKRETE WAHRSCHEINLICHKEITSRÄUME

M = 0, i > n + 1, so sind Ai,A2,... (WM3) und (a) ergibt sich also

(

9

paarweise disjunkt. Mit Hilfe von

n

\

/ oo

\

oo

n

1=1

/

\i=l

/

¿=1

¿=1

(c) Für ein beliebiges Ereignis A erhält man wegen (WM2), (b) und (WM1) 1

= P(Q) = P(A

U (ft \

A)) = P(A) + P(Q \A)>

P(A).

(d) Ersichtlich gilt B = (B \ A) U (A n B). Da die Mengen B\A = B\(Af\B) und AC\B disjunkt sind, erhält man wegen (b) P{B) = P(B \ A) + P(A n B) und somit (1.11.4). (e) Wegen (1.7.3) gilt {A U B) \ B = A \ (A n B), woraus sich mit Hilfe von (1.11.5) sofort (1.11.7) ergibt. Aus (1.11.7) sowie (1.7.1) folgt P{A

LlßuC)

= P{(A

U ß ) U C ) =

P(A

U ß ) + P{C)

- P({A

U B) n

C)

= P(A U ß ) + P{C) - P{{A n C ) U ( B f l C)). Erneute Anwendung von (1.11.7) liefert (1.11.8). (1.7.2) und (1.11.6) erhält man = P((AC UBcö

P(A r\BDC)

Cc)c)

Aufgrund von (1.7.4),

= 1 - P(AC U ß c U

Cc),

so d a ß (1.11.9) eine einfache Konsequenz aus (1.11.8), (1.7.4) und (1.11.6) ist. (f) F ü r Ereignisse A C B C Q gilt B = A U (B \ A), wobei die Mengen A u n d B\A disjunkt sind. Mit Hilfe von (b) und (WM1) erhält man also P(B) = P(A) + P{B \ A) > P(A). (g) folgt aus (h) und (1.11.1) für An+1 = An+2 = • • • = 0. (h) Seien Ai,A2,... beliebige Ereignisse. Der Leser überzeugt sich leicht davon, daß die Ereignisse Bi := A\, B? :— A2 \ A\, B3 := A3 \ {A\ U A2),... paarweise disjunkt sind und A\ U A2 U • • • = Bi U B2 U • • • ist. Aufgrund von (WM3) und (f) erhält man also wegen Bn C An (n> 1)

(U * oo

\

/ oo

\

oo

oo

=

p U = ^ »=1 / \»=1 / »=1 t=l (i) Die Aussage (1.11.13) folgt aus (h). Wendet man (1.11.13) auf die Ereignisse A{, . . . an, erhält man (1.11.14) mit Hilfe von (1.7.5). (k) Mit Hilfe von (1.11.4) ergibt sich P{AAB)

= P{A\B)+P{B\A)

= P(A)+P(B)-2P{Ar\B),

A,B e

V{Q),

so d a ß wegen der Monotonie von P P(A) - P(B) < P(A) - P(A n ß ) < P(A) + P(B) - 2 P(A DB)= P(AAB) für A,BeV(il). Analog gilt P(B)-P(A) < P{AAB), so daß sich (1.11.15) und somit auch (1.11.16) ergibt. •

1. WAHRSCHEINLICHKEITSRÄUME

10

Auf den ersten Blick könnte man vermuten, daß es bereits für endliche Grundräume fi mit vergleichsweise wenigen Elementen schwierig ist, W.Maße zu konstruieren, da aufgrund von Satz 1.8 die Zahl der Ereignisse sehr rasch mit # f i wächst. (Zu einem Grundraum mit 20 Elementen gehören mehr als eine Million Ereignisse !) Es zeigt sich jedoch, daß W.-Maße P bereits eindeutig durch die Wahrscheinlichkeiten P{LJ} der Elementarereignisse {LO}, UJ G 0 , festgelegt werden. (Um Klammern zu sparen, schreiben wir P{UJ} statt P ( M ) ! ) 1.12 Satz, (a) Ein W.-Maß P : V(ü) — • [0,1] wird bereits eindeutig festgelegt durch die Wahrscheinlichkeiten (1.12.1)

pu:=P{w},

der Elementarereignisse (1.12.2)

wGfi

{w}, u) G fi. Es gilt nämlich P(A) = £ p

w

A€V((l),

,

U)€A

wobei (1.12.3)

pu>

0

(wefi)

und

= wen

(b) Jedem u G fl sei eine Zahl pw zugeordnet derart, daß (1.12.3) gilt. Dann wird durch (1-12.4)

P(A)~^p

w

,

AeV(Ü)

U>E A

ein W.-Maß P : V(ü) —> [0,1] definiert. Entsprechend der üblichen Konvention werden leere Summen gleich Null gesetzt, so daß (1.12.5)

Louise

BEWEIS VON SATZ 1.12. (a) Werden die Zahlen pu (UJ g fi) durch (1.12.1) definiert, so ergeben sich (1.12.3) und (1.12.2) mit Hilfe der oAdditivität von P, da ja jedes Ereignis A G disjunkte Vereinigung der Elementarereignisse {w} (w G Ä) ist. (b) Aufgrund von (1.12.4) und (1.12.3) folgt zunächst 0 < P{A) < 1 (A e V(ü)) und P{ü) = 1. Die durch (1.12.4) definierte Abbildung P : V(il) —> [0,1] ist [0,1], die sog. Gleichverteilung auf fi, definiert, und (fi,P) heißt dann ein Laplace-Modell. (So spricht man etwa von einem Laplace- Würfel, wenn jede Augenzahl mit der Wahrscheinlichkeit 1/6 fallt.) Aufgrund von (1.12.4) gilt für das betrachtete Laplace-Modell (1.12.6)

P(A) = ( # A ) / ( # í l ) = (#A)/n,

A e V{ü),

und man schreibt statt (1.12.6) manchmal auch

wobei man unter den günstigen Fällen diejenigen möglichen Ausgänge versteht, bei denen A eintritt. Die Berechnung der Wahrscheinlichkeiten in (1.12.6) führt i.a. auf kombinatorische Probleme, die im vorliegenden Buch lediglich eine untergeordnete Rolle spielen. • 1.12.2 Beispiel. Wir betrachten eine Situation, die nur formal etwas mit Wahrscheinlichkeitstheorie zu tun hat. In einer bestimmten Stadt erscheinen die Zeitungen a, b und c. Von den Einwohnern lesen 10% a, 30% b und 50% c. Weiter lesen 8% a und 6, 2% a und c sowie 4% b und c, während 1% a, b und c lesen. Sei Q die Menge der betrachteten Einwohner; A bezeichne die Menge der Leser von a (analog seien die Mengen B und C definiert). P sei die Gleichverteilung auf fi, so daß P(A) auch die relative Häufigkeit und 100P(A) der Prozentanteil der Leser von a heißt usw. AüBuC ist die Menge der Leser, die mindestens eine Zeitung lesen, so daß aufgrund der Siebformel (1.11.8)

P(A U B U C) = P{A) -I- P(B) + P(C) - P{A DB)- P{A n C) - P(B n C) + P(A n BC\C) = 0,1 + 0,3 + 0,5 - 0,08 - 0,02 - 0,04 + 0,01 = 0,77. 77% der Einwohner lesen also mindestens eine Zeitung. Die Menge der Leute, die genau zwei Zeitungen lesen, ist

D : = ( i n ß n c c ) u ( A n ß c n C ) u ( A c n ß n C). Aufgrund der Additivität von P (die drei Durchschnitte sind paarweise disjunkt !) und (1.11.4) folgt P{D) = P(A n B) - P(A n B n C) + P(A n C) - P(A n B n C)

-i- P{B n C) - P{A n ß n C ) = P(Anß) + p(AnC) + P(BnC) = 0,08 + 0,02 + 0 , 0 4 - 3 - 0 , 0 1 = 0,11,

-3P(AnßnC)

12

1. WAHRSCHEINLICHKEITSRÄUME

so daß 11% der Einwohner genau zwei Zeitungen lesen.



1.12.3 Beispiel. Sei ft = {0,1,2,...}. Für eine Konstante A > 0 sei (1.12.8)

P { n } := (A n /n\)e~ x ,

n > 0.

Aufgrund der Reihenentwicklung der Exponentialfunktion gilt P{0}+P{1} + • • • = 1, so daß durch (1.12.4) ein W.-Maß P : V(Q) —> [0,1] definiert wird, das man als Poisson-Verteilung mit Parameter A bezeichnet. Wegen (1.11.6) gilt z.B. P { 3 , 4 , 5 , . . . } = 1 - P{0,1,2} = 1 - e - A ( l + A + A 2 /2). • Weitere Beispiele für Verteilungen findet man im folgenden Kapitel (vgl. Beispiele 2.5.1 - 2.5.6 [2]). 1.2 Allgemeine Wahrscheinlichkeitsräume Es gibt viele Zufallsphänomene, für welche die Menge der möglichen Realisierungen überzählbar ist. 2.1 Beispiel. (Symmetrisches Glücksrad) Ein Zeiger ist drehbar um eine vertikale Achse im Nullpunkt der euklidischen Ebene gelagert. Ein Zufallsexperiment bestehe darin, den Zeiger in Rotation zu versetzen. Aufgrund von Reibungskräften bleibt er nach einer gewissen Zeit stehen, so daß sich der Ausgang des Zufallsexperiments etwa durch den Winkel a beschreiben läßt, den der Zeiger mit der positiven x-Achse bildet. (Weist der Zeiger in Richtung der positiven z-Achse, ist a = 0°; weist er in Richtung der positiven y-Achse, ist a = 90° usw.) Als Grundraum wählen wir Cl = [0,360[ (ein halboffenes Intervall), da sich die Stellung a = 360° mit der Stellung a = 0° identifizieren läßt. „Einfache" Ereignisse sind die halboffenen Intervalle [ot,ß[ C ü (0 < a < ß < 360), wobei das Eintreten von [a,ß[ bedeutet, daß der Zeigerwinkel > a und < ß ist. Die Symmetrie des Glücksrades besagt intuitiv, daß alle Zeigerstellungen „gleichwahrscheinlich" sind. Für alle Intervalle [a, ß[ C fi sollte also gelten: Das Ereignis \a,ß\ (2.1.1)

tritt mit der Wahrscheinlichkeit (ß - a)/360 ein.

Da ein sinnvoll definiertes W.-Maß wieder monoton sein sollte, folgt aus (2.1.1) für jedes a € ft: (2.1.2)

Das Ereignis {a} hat die Wahrscheinlichkeit 0.

(Man beachte, daß in einem diskreten W.-Raum (fi, P) aufgrund von Satz 1.12 nicht für alle u> £ Cl P{w} = 0 gelten kann!) Es liegt zunächst nahe, als Definitionsbereich für das gesuchte W.-Maß, für das (2.1.1) gelten soll, die Potenzmenge P(fl) (Familie aller Teilmengen von fl = [0,360[) zu wählen. Leider läßt sich folgendes negative Resultat beweisen: Es existiert keine a-additive Abbildung P : ^([0,360[) —> [0,1]

1.2. ALLGEMEINE WAHRSCHEINLICHKEITSRÄUME

13

derart, daß (2.1.3)

P([a, ß[) = ( ß - a)/360,

[a, ß[ €

P([0,360[).

(Die er-Additivität von P wird auf naheliegende Weise — analog wie früher — definiert.) Dieses negative Resultat legt nahe, nach cr-additiven Abbildungen P : A —> [0,1] zu suchen, die (2.1.3) erfüllen und für deren Definitionsbereich A C V(fl) gilt: (2.1.4)

[a,ß[&A,

0

Ü\A£A, oo U Ai e A. i= 1

• Aus (2.2.1) - (2.2.3) folgt sofort, daß für jede cr-Algebra A (2.2.4)

Au...

,AneA=*

% & A und

AiU---UAneA

gilt. Ist í) 0 eine beliebige Menge und A C ~P(ÍÍ) eine cr-Algebra, so wird ( f i , A) ein meßbarer Raum genannt. Die Menge fi heißt im folgenden auch Grundraum, während die Mengen aus A als Ereignisse bezeichnet werden. 2.3 Satz. Sei A eine cr-Algebra von Teilmengen von fi. Dann gilt: (2.3.1) (2.3.2) (2.3.3)

A,B e A => B\At Ai,...

A.

, A n € A =>• Ai n •••fl An e A. Ai,A2,...eA=>Air\A2r\---eA.

14

1. WAHRSCHEINLICHKEITSRÄUME

BEWEIS. Für Mengen Au M, •. • € A folgt mit Hilfe von Satz 1.7 Ai n A2 n • • • = (AJ U A\ U • • • ) c € A. Die Aussage (2.3.2) folgt aus (2.3.3) für n+ n+ :=••• = Í2. Schließlich ist (2.3.1) eine einfache Konsequenz aus (2.3.2), da j a B \ A = B n Ac. •

A i := A 2

Bevor wir einige Beispiele für er-Algebren angeben, fähren wir noch einen weiteren wichtigen Begriff ein.

höchstens

2.4 Definition. Sei ÍÍ eine beliebige nichtleere Menge. Unter einer von O versteht man eine höchstens abzählbare Familie (.An) von Mengen An C Q (n G J) derart, daß gilt:

abzählbaren Zerlegung

(2.4.1)

A¿nAj=0,

und (2.4.2) Sei A C V(ü)

[ j A „ = n.

n6J eine u-Algebra.

Eine höchstens abzählbare Zerlegung

(An) (n G J) von il heißt meßbar (genauer: A-meßbar), wenn gilt: (2.4.3)

A„ e A,

n e J.

Potenz-

2.4.1 Beispiel. Sei ÍÍ eine beliebige nichtleere Menge. Dann ist die (Familie Teilmengen von fi — einschließlich 0) die größte er-Algebra von Teilmengen von ü. Die kleinstmögliche u-Algebra ist die tri-

menge V(fl)

aller

viale 1}.

3.5 Definition. Seien (Si, A ) [i > 1) meßbare Räume. Die er-Algebra (3.5.1)

1) bezeichnet. Analog heißt (3.5.2)

a{Ai x A2x

,A„ und wird mit A\ ® • • • ® An

••• :Ai e Ai, i> 1} C P(Si x S2 x • • •)

das Produkt der er-Algebren AI,A2, • • • (Bezeichung: Ai A2 meßbare Raum (S\ x ••• x SN,AI • • • ® AN) bzw. (5i x A2 ® •••) heißt das Produkt der meßbaren Räume (Si,Ai) (1 bzw. (SI,AI) (I > 1). (Achtung: Das Produkt AI ® • • • ® AN verwechseln mit dem kartesischen Produkt AI x • • • x AN !)

® • • •). Der S2 x • • • ,A\ ® < i < n) ist nicht zu •

3.6 Satz. Seien (Si,.Aj) (i > 1) meßbare Räume. Für jedes i > 1 sei Aio C Ai eine Familie von Mengen derart, daß (3.6.1)

a(Ai0) = Ai.

(a) Existiert für jedes i > 1 eine Folge An, Ai2,... derart, daß (3.6.2)

von Mengen aus Aio

AN U AI2 U • • • = SIT

so gilt für n> 2 (3.6.3)

x ••• x An~. Ai £ .4*0, 1 < i < n} = Ai • • • ® An.

1.3. EXISTENZPROBLEM: ct-ALGEBREN

23

(b) Gilt Si G

i>1

a{Ai x A2 x ••• : Ai e Aio, i > 1} = A\ ® A2 ® • • • . (c) Die Voraussetzungen in (a) seien erfüllt. Setzt man für n > 1 Tin •= {Ai x • • • x An x S n + 1 x S„+ 2 x ••• : Ai € Ai0, 1

1) folgt AiUA2U - • • e Fl wegen ( A i U A 2 U - - - ) x 5 2 = ( ¿ 1 x S 2 ) U ( A 2 x 5 2 ) U - • • G T, so daß T\ eine o-Algebra ist. Sei A G Xio- Da A x A2k £ T {k > 1), folgt wegen (3.6.2) AxS2 = (Ax A 2 1 )U(Ax A 22 )U-• • € T, k > 1. Dies impliziert Aio C f i C A . s o daß wegen (3.6.1) T\ = Ai. Folglich gilt (3.6.8) im Fall n = 2 und i = 1. (b) und (c) beweist man analog wie (a), wobei man benutzt, daß eine Menge Ai x A2 x ••• (Ai C S,, i > 1) Durchschnitt der Mengen Si x ••• x Si-1 x AiX £¿+1 x Si+2 x ••• (i > 1) ist. • d Wir führen nun für die Menge II und allgemeiner für Et = E x • • • x Et (d Faktoren) sowie (3.6.9)

ß°° := {x = {x0,xi,...)

: x{ G R, i > 0}

jeweils die cr-Algebra der sog. Borel-Mengen ein. Die sich auf diese Weise ergebenden meßbaren Räume sind für die Wahrscheinlichkeitstheorie von grundlegender Bedeutung.

24

1. WAHRSCHEINLICHKEITSRÄUME

3.7 D e f i n i t i o n . Die er-Algebra (3.7.1)

TZ := Kl := a{]a,b[: - o o < a < b < oo} C V(R)

heißt die Borel-a-Algebra in Et; die Mengen aus TZ heißen Borel-Mengen in K, (oder auch eindimensionale Borel-Mengen). Allgemeiner heißt die a-Algebra (3.7.2)

TZd\=TZ®--®TZ

C V(Rd)

(d > 1)

d

die Borel-a-Algebra in IR, ; die Mengen aus TZd heißen entsprechend BorelMengen in H d (oder auch d-dimensionale Borel-Mengen). Schließlich ist (3.7.3)

ftoo

:= ft ® ft ® • • • C V(R°°)

die Borel-a-Algebra in E°°.



3.8 B e m e r k u n g . Unter Benutzung des Auswahlaxioms der Mengenlehre läßt sich beweisen: TZd ± P ( R d ) ,

(3.8.1)

d> 1

und (3.8.2)

7?oo / P(K°°).

• Das folgende Resultat zeigt u.a., daß die a-Algebra in (3.7.1) unverändert bleibt, wenn man die offenen Intervalle ]a, 6[ ersetzt durch abgeschlossene bzw. halboffene Intervalle. 3.9 S a t z . Es gilt (3.9.1)

TZ

(3.9.2)

11

(3.9.3)

K

(3.9.4)

n

(3.9.5)

TZ

(3.9.6)

TZd

{G : GC R"* ist offen},

d> 1

und (3.9.7)

TZd = o

A C Rd

ist abgeschlossen},

d > 1.

3.10 B e m e r k u n g e n , (a) Es sei daran erinnert, daß eine Menge G C Etd offen heißt, falls zu jedem x 6 G eine Zahl 0 existiert derart, daß (3.10.1)

{VsKl:\\y-x\\• 00). Für eine gewisse Zahl m = m(e) gilt also P(B \ Bm) = P(B) - P(Bm) < e/2. Aufgrund des zuvor bewiesenen Resultats existiert eine abgeschlossene Menge C C Bm derart, daß P(Bm \C) < e/2. Da Bm beschränkt ist, ist C sogar kompakt, und es gilt P(B \ C) = P((B \ Bm) U (Bm \ C)) = P(B \ Bm) + P(Bm

\C) B\A

31

G Ai. oo

(D3)

A1,A2,...eAi,

AiCAzC--t=l

Offenbar ist jede er-Algebra ein Dynkin-System, während i.a. ein DynkinSystem keine a-Algebra ist. Dies zeigt folgendes einfache 3.17.1 Beispiel. Seift = {wi,... ,w 4 } und Ai := {A C ft : # A G {0,2,4}}. Dann ist «4i ein Dynkin-System, das nicht D-stabil und somit keine a-Algebra ist. 3.18 L e m m a . Sei Ai C V(Q) ein Dynkin-System. Dann gilt: (a) (b) A G Ai => Ac G Al (c) A,B e AI, ANB = Q => AUB E AI. (d) Ist Ai n-stabil, so ist Ai eine a-Algebra. BEWEIS. Es ist klar, daß (a), (b) gelten. Zum Nachweis von (c) seien A, B € Ai disjunkt. Dann folgt B C Ac G Ai, so daß sich wegen (D2) Ac \ B = Ac n Bc = (AU B)c € A\, also wegen ( b ) i U ß e i i ergibt. Zum Nachweis von (d) zeigen wir zunächst: Ist Ai D-stabil, so folgt A,B £AI=^

(3.18.1)

AuBtAi.

In der Tat folgt für A, B € Ai, A U B = (Ac D Bc)c e da Ai D-stabil ist und wegen (b) AC,BC G A\ gilt. Für Mengen An G Ai (n > 1) ergibt sich aufgrund von (3.18.1) und (D3) Ai U A2 U • • • = Ai U (Ai U A2) U (Ai U A2 U A3) U • • • G Au so daß Ai eine er-Algebra ist.



Es gilt nun folgender Satz von Dynkin: 3.19 Satz. Sei Ao C V(il) derart, daß (3.19.1)

n-stabil und Ai C V(£i) ein

Dynkin-System

A C Ai.

Dann folgt (3.19.2)

a(Ao) C Ai.

3.20 B e m e r k u n g e n , (a) (3.19.2) ist trivial, wenn Ai sogar eine a-Algebra ist. (b) Eine typische Anwendung von Satz 3.19 sieht so aus: Der Nachweis, daß alle Mengen A C il, die eine gewisse Eigenschaft haben, ein Dynkin-System Ai bilden, ist häufig einfach, da (D1)-(D3) einfach sind. Der Nachweis, daß alle „einfachen" Mengen (die eine D-stabile Familie Ao bilden

32

1. WAHRSCHEINLICHKEITSRÄUME

mögen) die betrachtete Eigenschaft aufweisen, ist häufig wegen der „Einfachheit" der Mengen einfach. Aus (3.19.2) folgt dann, daß alle Mengen aus a(Ao) die betrachtete Eigenschaft aufweisen. • BEWEIS VON SATZ 3.19. Sei ¿(.4o) das kleinste Dynkin-System, das Ao umfaßt. (Die Existenz von 1. Gilt Ax C A2 C • • •, so folgt (4.3.5)

lim FI{A ) = FI{AI U A U • • •).

N 2 n—> oo Gilt AI D A2 D • • • und ß{A{) < oo, so folgt

(4.3.6)

lim y,{A ) = n{Ax n A2 n • • •). TL- >OC n BEWEIS. Beim Nachweis von (c) beachte man, daß sich wegen B = ( 4 n s ) u (B\A) aufgrund der Additivität von p ß(B) = ß(Anß) + KB\A) ergibt. Gilt fi(A fl B) < oo, so folgt hieraus (4.3.3). Beim Nachweis von (4.3.5) betrachte man folgende Fälle: Es gilt f¿(An) < oo für alle n > 1, oder es ist ß{An) — oo für ein gewisses n > 1. Beim Nachweis von (4.3.6) wende man (4.3.5) auf die Folge C C • • • an und benutze (b), (c) sowie (j4i\Ai) U ( ^ 1 ^ 2 ) U • • • = n A2 fl • • •). Die Details seien dem Leser überlassen (man vgl. die entsprechenden Nachweise für W.-Maße). • Ist AQ C 'P(fi) eine Algebra, so heißt eine Abbildung P : AQ —> K4a-additiv auf AQ, falls ß(A\ U A2 U • • •) = ß(A\) + FI(A2) H für paarweise disjunkte Mengen An € Ao (n > 1) mit AiU A2U • • • £ AQ gilt. Mit Hilfe von Satz 4.1 erhält man folgenden Fortsetzungssatz für aendliche Maße: 4.4 Satz. Sei Ao C V(Sl) eine Algebra und v : Ao —> K.+ eine Abbildung, die a-additiv auf Ao ist und für die (4.4.1)

i/(0) = 0

gilt. Es existiere eine höchstens abzählbare Zerlegung (fi(m)) C Ao (m £ J) von fl derart, daß (4.4.2)

i/(íí(m)) < 0 0 ,

m 6 J.

Dann existiert ein a-endliches Maß fi: o(Ao) —> IEt+ derart, daß (4.4.3)

ß(Ä) = v(A),

At

Ao-

BEWEIS. Sei J{+) := {m G J : v(Cl(m)) > 0}. Durch (4.4.4)

um(A) := u(A fl íl(m))/v(íl{m)),

A e Ao,

m € J(+)

wird eine auf Ao cr-additive Abbildung vm : Ao —> [0,1] definiert, für die vm{Vt) = 1 gilt. Zu jedem m 6 J ( + ) existiert wegen Satz 4.1 ein W.-Maß FIM : [0,1], das UM auf A(Ao) fortsetzt. Man prüft leicht nach, daß durch (4.4.5)

n(A):=

^ v(n(m))ßm(A), mej(+)

Aea(Ao)

ein CT-endliches Maß fj, auf a{Ao) definiert wird, das auf Ao mit v übereinstimmt. (Man beachte, daß /x = 0 ist, falls u = 0 ist.) •

1.4. EXISTENZPROBLEM: WAHRSCHEINLICHKEITSMASSE

35

Das (T-endliche Maß ß in Satz 4.4 ist aufgrund des folgenden Resultats eindeutig bestimmt. 4.5 S a t z . Sei 0 ^ Ao C ~P(Cl) D-stabil, und seien ßi,ß2 auf cr(Ao) derart, daß (4.5.1) (a) Existiert derart, daß (4.5.2)

m(A)=H2{A),

a-endliche

Maße

AeAo.

eine höchstens abzählbare Zerlegung (fl(m)) C Ao von il ni(Cl(m))

= /i2(fi(m)) < oo

ßr alle

m,

so folgt ßi = ß2, d.h. (4.5.3)

ß1(B)=ß2(B),

Bea(Ao).

(b) Sind fj,i,ß2 insbesondere W.-Maße, so folgt ßi = ß2BEWEIS, (b) ist eine triviale Folgerung aus (a). Zum Nachweis von (a) sei M(A)~{Bea(Ao):ßi(AnB) = ß2(AnB)}, Da Ao H-stabil ist, ergibt sich wegen (4.5.1) (4.5.4)

Ao C M(A),

AeAo.

AeAo-

Sei nun A e Ao derart, daß ßi{A) = ßi{A) < oo. Dann ist M(A) ein DynkinSystem. In der Tat, wegen (4.5.1) gilt ü G M(A). Sind Bn e M(A) (n > 1) derart, daß C B2 C • • •, so folgt wegen Satz 4.3 (d) ß i U ß 2 U - • • G M(A). Für Bi,B2 € M(A) derart, daß Bx C ß 2 , folgt wegen Satz 4.3 (b), (c) ßi(An(B2\B1)) = ßi{(AnB2)\{Ar\B1)) = ßi(Ar\B2)-ßi(AnB1),i = 1,2, so daß B2 \Bj, 6 M(A). M{A) ist also ein Dynkin-System. Aus (4.5.4) folgt mit Hilfe des Satzes von Dynkin M{Ä) = cr{Ao), so daß für alle m m(il(m)r\B) =/i2(n(m)nß), ßea(A). Aufgrund der cr-Additivität von ßi,ß2 impliziert dies ßi = ß2-



Wir zeigen nun mit Hilfe von Satz 4.1, daß es auf I i ein (eindeutig bestimmtes) cr-endliches Maß A gibt, das jedem Intervall seine Länge zuordnet. Es gilt also (4.5.5) A([a, b]) = AQa, b[) = A(]a, b]) = A([a, b[) = b - a für —00 < a < b < 00. Man nennt A das Lebesgue-Maß auf K. (Bezeichnung: Leb oder Lebi). Zunächst zeigen wir: 4.6 L e m m a . Sei a € R . Auf H(]a,a + 1]) existiert genau ein W.-Maß P derart, daß (4.6.1)

P(]c, d\) = d - c,

]c,d] C ] a , a + 1].

(Hierin ist Tl(]a,a + 1]) die Spur von TZ auf ]a,a + 1]; vgl. (3.12.3).) Das W.-Maß P in Lemma 4.6 heißt das Lebesgue-Maß auf ]a, a + 1]. Für den Beweis von Lemma 4.6, der Satz 4.1 benutzt, benötigen wir

36

1. WAHRSCHEINLICHKEITSRÄUME

4.7 L e m m a . Seien I = ] a , 6] ( - o o < a < b < oo) und Ii = ]a,,6j] (—oo < a.i < bi < oo, i > 1) Intervalle. (a) Bilden I\,... , / n eine Zerlegung von I, so gilt n

(4.7.1)

£(6._ »=i

(b) Sind Ii,...

a

.

)

=

6

_

a

.

,In paarweise disjunkt, so folgt aus Ii U • • • U In C / n

(4.7.2)

£( ¿=i

6

._

0

.)
0 existieren Rechtecke Ri, , •.., die sich nicht überlappen, und für die gilt: G C Ri U R2 U • • •, X2((Ri U R2 U • • •) \ G) < e und somit \2(Ri) + \2{R2) + • • • < A 2 (G)+e. (c) Zu beliebigen Rechtecken R\,R2,... existieren Rechtecke Ri,R2, ..., die sich nicht überlappen und für die gilt: i?i U R2 U • • • = Ri U R2 U • • •. (d) Die Aussage in (b) gilt für beliebige offene Mengen G €1Z2. (e) Die Aussage in (b) gilt für beliebige Mengen G £ JZ2. Hinweis: Man benutze Satz 3.16 und beachte: Jede offene Teilmenge von R 2 ist Vereinigung von höchstens abzählbar vielen offenen Kreisscheiben; eine Vereinigung von offenen Mengen ist offen. Beim Nachweis von (c) beachte man: Ei U R2 U • • • = i?i U {R2 \ Ri) U (Ä3 \ (Ri U R2)) U • • •. 1.14. Gegeben seien vier Urnen Í7(l),... , (7(4), die jeweils genau zwei Kugeln enthalten. U{ 1) enthält zwei rote, (7(4) zwei weiße Kugeln, während U(2), Í7(3) jeweils eine rote und eine weiße Kugel enthalten. Eine der vier Urnen wird rein zufällig ausgewählt. (a) Die ausgewählte Urne enthalte mindestens eine rote Kugel. Mit welcher (bedingten!) Wahrscheinlichkeit sind beide Kugeln in der ausgewählten Urne rot? (b) Aus der ausgewählten Urne wird rein zufällig eine Kugel entnommen, die rot sei. Mit welcher (bedingten!) Wahrscheinlichkeit ist die andere Kugel ebenfalls rot?

KAPITEL 2 Zufallsvariable Wir betrachten einen W.-Raum (Q, A, P) als Modell für ein gewisses Zufallsphänomen, so daß der Grundraum ü die Menge der möglichen Realisierungen des Zufallsphänomens ist. Unter einer (reellwertigen) Zufallsvariablen versteht man dann eine Abbildung X : Q — > R, deren Werte (UI € fi) vom Zufall, d.h. von der Realisierung ÜJ £ fi abhängen. In vielen Fällen ist man interessiert an der Wahrscheinlichkeit dafür, daß X etwa einen Wert < a (a G R ) oder — allgemeiner — einen Wert in einer bestimmten BorelMenge B G TZ annimmt. Damit derartige Wahrscheinlichkeiten definiert sind, muß zusätzlich (*)

{uefl:

< a } = {UJ G Ü : X(W) G ] — oo, a]} £ A,

a £ l

oder — allgemeiner — (**)

{W € n : X(OJ) G ß } EA,

B G TZ

gelten. Es wird später gezeigt, daß die scheinbar stärkere Forderung (**) in Wirklichkeit äquivalent zu (*) ist. Die Eigenschaft (**) ist ein Spezialfall einer allgemeineren Eigenschaft („Meßbarkeit"), die im folgenden Abschnitt eingeführt wird. 2.1 Meßbare Abbildungen und Zufallsvariable Seien 5i ^ 0, 52 ^ 0 beliebige Mengen. Für eine Abbildung g : S\ —> S2 setzen wir (1.0.1)

g-1B

= g-1(B)

= {seS1:g(s)eB}=:{geB},

B C S2.

Die Menge g~1(B) C 5i in (1.0.1) heißt das Urbild der Menge B c S2. Durch (1.0.1) wird eine Abbildung (1.0.2)

g-1 : V(S2) —>

P(5i)

definiert (hierin ist V(Si), V(S2) die Potenzmenge von Si bzw. S2, d.h. die Familie aller Teilmengen von 5 i bzw. S2). 1.1 Definition. Seien ( 5 i , ß i ) , {S2,B2) meßbare Räume. Eine Abbildung g : S\ —> S2 heißt meßbar (genauer: BI/B2-meßbar), falls (1.1.1)

g~1(B)eB1,

BeB2.

46

2. ZUFALLSVARIABLE

Seien (fi,-4) und (S, B) meßbare Räume und sei X : ii —> S A/Bmeßbar. Im Fall S — R und B = 11 heißt X eine (reellwertige) Zufallsvariable (ZV). Ist S = R d und B = Kd, so heißt X ein (R d -wertiger) Zufallsvektor (ZVK). Im Fall S = R°° und B = ftoojieißt X eine R°°-wertige Zufallsvariable. Ist schließlich S = R und B = 11 (vgl. (3.13.12)[1]), so heißt X eine numerische Zufallsvariable (NZV). • 1.2 Bemerkung. Numerische Zufallsvariable treten etwa bei Wartezeit-Problemen auf (vgl. Beispiel 1.4[1]). Ist die NZV X > 0 eine Wartezeit, so bedeutet das Eintreten des Ereignisses {X = oo}, daß das, worauf man wartet, niemals eintritt. • Besonders einfach sind NZV und ZVK, die diskret im Sinne folgender Definition sind. 1.3 Definition. NZV oder ZVK heißen diskret, wenn sie jeweils höchstens abzahlbar viele Werte annehmen. Eine ZV heißt elementar, wenn sie lediglich endlich viele Werte annimmt. • 1.4 Satz. Sei (f), A) ein meßbarer Raum und X : fi —> R eine Abbildung, die höchstens abzählbar viele Werte 01,02,... annimmt. X ist genau dann eine diskrete NZV wenn (1.4.1)

Ai := {X = a 4 } := {w € il: X{u) - a j G A,

In diesem Fall bilden die Mengen Ai,A2,... und X besitzt folgende Darstellung:

i = 1,2,...

eine meßbare Zerlegung von fi,

(1.4.2) i wobei (1.4.3)

H - ^ a i / ^ M ,

wen.

Eine analoge Aussage gilt für Abbildungen X : 0 —> R,d. Man beachte, daß in (1.4.3) für jedes uj £ f l höchstens ein Summand ^ 0 ist, so daß kein Konvergenzproblem auftritt. Es erweist sich als bequem, analog zu (1.0.1) und (1.4.1) folgende Schreibweise zu benutzen. Für Abbildungen Z{ : S —> S» und Mengen ß j C Si (1 < i 1) eine Folge von NZV, so kann man den von oj G fi abhängenden kleinsten Häufungspunkt (Limes inferior) und den größten Häufungspunkt (Limes superior) der Folge ( X n ) betrachten (Bezeichnung: lim infn-nx> X„ bzw. lim s u p ^ ^ Xn), der durch (1.15.2)

f l i m i n f X n ) (u>) := liminf X„(w), \ n->00

/

n-+oo

u G fi

54

2. ZUFALLSVARIABLE

bzw. (1.15.3)

I limsup-Xn ) (U) := limsupX n (a;), \ n-*oo / n—>oo

UJ e fi

definiert wird. Es sei daran erinnert, daß für eine Folge (a„) C l ( n > l ) der kleinste Häufungspunkt gegeben wird durch (1.15.4)

liminf an := lim ( inf a* ) , n—»oo

n->oo \k>n

J

während der größte Häufungspunkt von (o n ) (1.15.5) limsupa n := lim ( s u p a * ) n—•oo \k>n ) ist. Eine Zahl a £ E heißt Häufungspunkt von (a n ), falls es zu jedem 8 > 0 unendlich viele Indizes n mit |a„ — a| < 0 (bzw. K < 0) existieren unendlich viele Indizes n derart, daß an> K (bzw. a„ < K) ist. Man sieht leicht: (1.15.6)

limsupa n = — liminf (—a n ). n—>oo n—Hx>

Gilt lim infn-yoo an = lim sup n _ yoo an (d.h. hat (a„) genau einen Häufungspunkt), so heißt dieser Häufungspunkt Grenzwert von (a n ) (Bezeichnung: limn-^oo o n ) . Man sagt in diesem Fall: Der Grenzwert von (a n ) (der endlich oder unendlich sein kann) existiert, oder auch: (a n ) ist konvergent. Ist b ~ limn_>oo an, so schreiben wir auch (1.15.7)

an —t b

oder ausführlicher (1.15.8)

o n -> b (n

oo).

(Wegen der Rechenregeln in 1R vgl. man (1.4.1)—(1.4.6)[4].) 1.16 Beispiele, (a) Für die durch 02 n -i = - ( 2 n - 1), a^n = 2n (n > 1) gegebene Folge (a„) gilt lim infn-^oo o n - - o o und lim s u p ^ ^ an - oo. (b) Die durch 0, 1, 0, 1/2, 1, 0, 1/3, 2/3, 1, 0, 1/4, 2/4, 3/4, 1 , . . . gegebene Folge besitzt als Häufungspunkte genau die Zahlen aus [0,1]. • 1.17 Satz. Sei (X„) eine Folge von NZV, die auf einem gemeinsamen baren Raum ( f l , .4) definiert sind. Dann gilt: (a) lim inf Xn und lim sup Xn sind NZV. n-> oo n->oo (b) Gilt (1.17.1)

liminf Xn = l i m s u p X n ,

meß-

2.1. MESSBARE ABBILDUNGEN UND ZUFALLSVARIABLE

55

d.h. existiert für jedes u> E fl der Grenzwert der Folge (Xn(u>)), so ist der durch (1.17.2)

( lim Xn) (w) := lim Xn(u), \n—»oo

)

wGi!

n—• oo

definierte Grenzwert limn-K» Xn der Folge (Xn) eine NZV. Gilt (1.17.1) und ist Z := limn_>oo X„, so schreiben wir auch (1.17.3)

Xn

Z

oder ausführlicher (1.17.4)

Xn ->• Z

(n -> oo).

Gilt statt (1.17.1) lediglich (1.17.5)

P (liminfX„

= limsupX„ ) = 1

\ "->0°

n—foo

)

(aufgrund von (a) und Satz 1.20(a) ist die Wahrscheinlichkeit in (1.17.5) wohldefiniert !) und ist Z eine NZV derart, daß (1.17.6)

P(Z \

= liminf X « ) = 1, n—>oo

/

so sagt man auch, daß die Folge (X„) fast sicher (J.s.) gegen Z konvergiert. BEWEIS VON SATZ 1.17. (a) Setzen wir Yn = inf Xk (n > 1), so k>n gilt wegen (1.15.4) (1.17.7)

lim Yn(w) = lim inf Xn((j),

n-+oo

n—»oo

weil,

wobei (1.17.8)

Vi(w) < y a (w) < • • • ,

wen.

Wegen (1.17.7), (1.17.8) und Satz 1.14 gilt OO {lim inf Xn > a j = ( J {Yn > a} € A, "

°°

ogR.

n=1

Folglich ist lim inf Xn eine NZV, also aufgrund von (1.15.6) auch lim sup Xn. n-too n-+oo (b) folgt aus (a), da wegen (1.17.1) lim Xn = lim inf Xn.

n—yoo

n—>oo

• Der nun folgende Approximationssatz für numerische Zufallsvariable wird später u.a. eine wichtige Rolle bei der Konstruktion von Erwartungswerten spielen.

56

2. ZUFALLSVARIABLE

1.18 Satz. Sei (fi, A) ein meßbarer Raum. (a) Eine Abbildung X : fi —> 1R+ ist genau dann eine NZV, wenn es elementare ZV Xi,Ä2, • • • gibt derart, daß (1.18.1)

0 < Xi(w) < X2(w) < ••• ,

w€fi

und (1.18.2)

(n

Xn-tX

oo).

(b) Eine Abbildung X : fi —> R ist genau dann eine NZV, wenn es elementare ZV Xi,X2,... gibt, für die (1.18.2) gilt. BEWEIS, (a) Sind XI,X2,... elementare ZV, für die (1.18.2) gilt, so ist X wegen Satz 1.17 eine NZV. Sei umgekehrt X > 0 eine NZV. Mit Hilfe von X konstruieren wir Ereignisse B n k (1 < fc < 2"n, n > 1) wie folgt: Sei Bnk ••= {k/2n n),

Durch

2" n

falls

k = 2"n.

,

Xn^J^^iBnk), n> 1 *=1 ^ werden wegen Korollar 1.13 elementare ZV definiert derart, daß 0 < XN < X, n > 1. Ist für ein w 6 fi X(Ä) = oo, so ist (1.18.1) für u = w erfüllt, und es gilt X „ ( c j ) X(LÜ), da XN(UJ) = n, n > 1. Ist hingegen X(LÜ) < oo, so gilt X n (w) X{LO), da ersichtlich 0 < X{U) - XN{Ü) < 1/2", falls n > X(UJ). Es bleibt nachzuweisen, daß (1.18.1) für U = Ü> gilt, falls X(ÜI) < oo. Sei n > 1 fixiert. Im Fall X(w) < n existiert ein 0 < k < 2"n — 1 derart, daß k/2n < X(U>) < (k + l)/2 n und X„(TJ) = k/2n. Da entweder 2k/2n+1 < X(U) < (2fc+l)/2 n+1 oder (2fc+l)/2 n+1 < X(U) < (2fc+2)/2n+1, folgt XN+I(Ü) > k/2n. Schließlich sei X{Ü>) > n, so daß XN(Ü>) = n. Gilt X(UJ) > n + 1, so folgt X n + i(w) — n + 1, während sich im Fall n < X(Ü>) < n + 1 X„+i(u>) > n ergibt. Schließlich erhält man (b), indem man (a) auf X+ und X~ anwendet (vgl. Beispiel 1.13.1(a)). • 1.19 Satz, (a) Sind X > 0, Y > 0 NZV, so auch (1.19.1)

aX + bY.,

a,6el+

und (1.19.2)

X Y

{(X-Y)(w):=X(u)-Y'{u),

(b) Sind X > 0, Y > 0 NZV derart, daß (1.19.3)

X(u) A Y(iu) ) = 0, falls |£(u;)| =

Aufgrund der Rechenregeln in IR, (vgl. (1.4.1)- (1.4.6)[4]) gilt insbesondere O-oo = oo-0 = 0 und o-oo = oo-o = oo, a > 0 . Man beachte, daß wegen (1.19.3) die Differenzen Y(w) — (w G ü) nicht von der Form oo - oo sind. BEWEIS VON SATZ 1.19. (a) Wegen des Approximationssatzes existieren elementare ZV 0 < Xi < X X und Yn ->• Y. Für a,b G sind {aAn)Xn + (6An)y„ (n > 1) elementare ZV derart, daß (a A n)Xn + (b A n)Yn —> aX + bY (n 00), so daß aX + bY wegen Satz 1.17 eine NZV ist. Da Xn -Yn (n > 1) elementare ZV sind derart, daß Xn • Yn -> X • Y, so ist wegen Satz 1.17 X • Y eine NZV. (b) Für die Folgen (Xn), (Y„) im Beweis von (a) gilt, daß Yn-Xn (n > 1) elementare ZV sind derart, daß Yn — Xn -¥ Y - X. Aufgrund von Satz 1.17 ist also Y - X eine NZV. (c) Ersichtlich ist Z(u) É 1 , w 6 Í1. Für a G R. gilt {Z 0 {Z < a} D = 00} = = 00} G A. Dies impliziert {Z < a} G A, a G R, so daß Z wegen Satz 1.7(a) eine ZV ist. • 1.20 Satz. baren Raum (a) Die aus A. (b) Die

Seien X, Y, Xi,X2, •.. NZV, die auf einem gemeinsamen meß(íí, A) definiert sind. Mengen { X < F } , { X < Y} sowie {X = Y} sind Ereignisse Menge

{lim X n-voo

n

> := -j a> G Í) : lim Xn(u>) existiert >

existiert

J

ist ein Ereignis aus A. (c) Die (auf naheliegende

l

n->oo

J

lim X {n-ioo

Weise !) definierte Menge n

existiert und ist endlich > J

ist ein Ereignis aus A. BEWEIS, (a) Gilt für ein U G fi rationale Zahl r G K, derart, daß X(w) ). Somit gilt (Q bezeichne

X(LO)

58

2. ZUFALLSVARIABLE

die abzählbare (!) Menge der rationalen Zahlen) {X

< Y} = |J ( { X < r} D {Y > r } ) G A. r€Q

Hieraus folgt { X > F } = fi \ {X < Y} G A, so daß aus Symmetriegründen {X < Y} G A und somit auch {X = F } = {X < 7 } fl {X > Y} G A gilt, ( b ) Die fragliche Menge ist gleich < lim inf Xn = lim sup Xn > , l "->oo J 11 n-i-oo

< oo ^ )

ist. 1.21 Definition. Sei (il, A) ein meßbarer Raum und Ä C A eine c-Algebra. Eine N Z V X : fl —> E, heißt A-meßbar, wenn sie .4/7£-meßbar ist.



In vielen Fällen wird die er-Algebra A C A in Definition 1.21 von N Z V „erzeugt" im Sinne von folgender 1.22 Definition. Sei M . eine endliche oder unendliche Familie von N Z V , die auf einem gemeinsamen meßbaren Raum ( f i , A) definiert sind. Die a- Algebra, die von M.

erzeugt wird, ist die kleinste «7-Algebra A C A (Bezeichnung:

derart, daß jede N Z V aus M

cr(M))

A/TZ-me&bax ist.



1.23 Satz. Sei Xx,Xi,... eine Folge von ZV, die auf einem meßbaren Raum (fl, .4) definiert sind. (a) Für jedes n > 1 gilt (1 91 Ti ^i.zö.ij

• •• ={AeA:

gemeinsamen

A = { ( X i , . . . , X n ) G B} für ein B G 1Zn}.

( b ) Es gilt (1 23 2)

1). Bezeichnen wir die Familie auf der rechten Seite in (1.23.2) mit Ao, so ist Ao wegen Satz 1.6 eine er-Algebra derart, daß (1.23.3)

1). Nach Definition von KOO (vgl. (3.7.3) [1]) folgt C = TZ^, so daß AQ C a { X i , X 2 , . . . }. Wegen (1.23.3) impliziert dies (1.23.2). • 1.24 S a t z . Seien X\, X2, ••• ZV, die auf einem gemeinsamen meßbaren Raum (fl,^4) definiert sind. Eine ZV Y ist genau dann a{Xi,X2,... }meßbar, wenn es eine Borel-meßbare Abbildung : B.°° —> El gibt derart, daß

(1.24.1)

Y = 4>{

XUX2,...).

Eine NZV Y ist genau dann &{Xi,X2, • • •}-meßbar, TZ-meßbare Abbildung : EI00 —> El gibt derart, daß

(1.24.2)

Y =

wenn es eine TZoo/

t(XuX2,...).

Analoge Aussagen gelten für eine endliche Folge X\,...

, Xn.

BEWEIS. Sei Ä ~ a{X1,X2,...}. Ist eine ZV (NZV) 7 von der Form (1.24.1) bzw. (1.24.2), so ist Y wegen Satz 1.23 Ji-meßbar. Sei umgekehrt Y zunächst von der Form Y = IA für ein A E A. Wegen Satz 1.23(b) existiert ein B e TZ00 derart, daß A = {(Xi,X2,...) 6 B}, so daß (1.24.1) für

Y.

Aufgrund des zuvor Bewiesenen existiert zu jedem Yn eine elementare Borelmeßbare Abbildung n : Et00 — • Et derart, daß (1.24.4)

Yn = MXi,X2,...),

n> 1.

Sei C := {x € Et00 : limn_>oo 4>n{x) existiert (endlich oder unendlich)}. Wird 4> : Et00 —> El definiert durch (x) = l i m ^ o o n(x), falls x € C, und (x) = 0, falls x £ R°° \ C, so ist wegen Satz 1.20(b) Borel-meßbar, und es gilt wegen (1.24.4) und (1.24.3) Y = (XÍ,X2,...). Ist Y insbesondere eine ^-meßbare ZV, so gilt (1.24.1) für die Abbildung := I{\\ < 00} : R°° —> El, die wegen Satz 1.19(c) Borel-meßbar ist. Analog beweist man die entsprechenden Aussagen über die a { X 1 , . . . , X n }-Meßbarkeit. • Wir betrachten nun c-Algebren und NZV, die in einem gewissen Sinne extrem sind. 1.25 Definition. Sei (f1,A,P) ein W.-Raum. (a) Eine a-Algebra A C A heißt ausgeartet, falls gilt: (1.25.1)

AeÄ=>P{A)

G {0,1}

60

2. ZUFALLSVARIABLE

(vgl. Definition 3.3[1]). _ (b) Eine NZV X : Cl —• R heißt fast sicher (f.s.) konstant, falls es ein a € R gibt derart, daß (1.25.2)

P{X=a)=

1.

• Statt (1.25.2) schreiben wir auch (1.25.3)

X = a f.s.

1.26 Satz. Sei (Ü,A,P) ein W.-Raum und A C A eine ausgeartete aAlgebra. Dann gilt: (a) Eine A-meßbare NZV ist f.s. konstant. (b) Ist X eine f.s. konstante NZV, so ist a{X} ausgeartet. BEWEIS, (a) Sei X Xmeßbar. Dann gilt für beliebige reelle Zahlen a < b P(X < a) = 0 oder P(X > b) = 0. Gelte für eine gewisse reelle Zahl a P(X < a) = 0 und sei a := sup{c € R : P(X < c) = 0}. Aus a — co folgt X = oo f.s. Im Fall a < oo gilt für die Ereignisse An := {a — 1/n < X < a + 1/n} P(An) = 1 (n > 1), so daß wegen Satz l.ll(i)[l] P(x = a) = P(Ai D A2 n • • •) = 1. Gilt P(X > b) = 0 für ein b 6 R, so betrachte man —X anstelle von X. (b) Analog zu Satz 1.23(a) gilt (1.26.1)

a{X} = {A S A/B-meßbar, so wird durch (2.1.1)

Q(B):=Qx(B):=P(X

ein W.-Maß Q = QX=P

eB)=P(X~1(B)),

Ist

B&B

o X - 1 auf B definiert.

Sind X, Y ZV derart, daß P{X = Y) = 1, so gilt offenbar Qx

• =QY-

2.2. VERTEILUNGEN UND VERTEILUNGSFUNKTIONEN

61

2.2 Definition. Das W.-Maß Q = Qx = P o X~l in Satz 2.1 heißt die Verteilung von X, und man nennt Qx auch das Bild von P vermöge X. Ist in Satz 2.1 speziell S — R und B = Ii, so heißt Qx die Verteilung der ZV X. Ist S = R°° und B = Tl^, so heißt Qx die Verteilung der R°°-wertigen ZV X . Ist schließlich S = R d und B = TZd, so heißt Qx die Verteilung des ZVK X = (X\,... , Xd), und man nennt dann Qx auch die gemeinsame Verteilung der ZV Xi,... , Xd. Die Verteilung des Rfc-wertigen ZVK ( X i ( 1 ) , . . . , Xl(k)) (1 < ¿(1) < • • • < i{k) < d) heißt eine k-dimensionale Randverteilung (oder auch Marginalverteilung) von ( X i , . . . , Xd). • Ist fi insbesondere höchstens abzählbar und A = 'P(fi), so kann man sich anschaulich P als eine Massenverteilung auf Cl vorstellen. Die Verteilung Qx einer ZV X ist dann eine Massenverteilung auf HL, die dadurch entsteht, daß für jedes cj € il die dort befindliche Masse P{w} an die Stelle übertragen wird. I.a. werden verschiedene lj auf den gleichen Wert X(u) abgebildet, so daß in diesem Fall deren Massen an der Stelle X(w) aufsummiert werden. Man sieht leicht, daß die Marginalverteilungen eines ZVK X = ( X i , . . . , Xd) eindeutig durch die gemeinsame Verteilung der ZV X\,... , Xd festgelegt werden. Ist z.B. (in den Bezeichnungen von Definition 2.2) d = 4, k = 2 und ¿(1) = 1, ¿(2) = 2, so folgt

P{(xux2)eB)

= P(x eBx RxR),

Bs n2.

Betrachtet man die Verteilung Q eines R d -wertigen ZVK X = ( X i , . . . , Xd) lediglich für Mengen der Form B =]-oo, fi]x- •• x]-oo, i j , ( f i , . . . ,td) G R d , so gelangt man zur Verteilungsfunktion von X: 2.3 Definition. Sei X = (X\,... , Xd) ein K,d-wertiger ZVK, der auf einem W.-Raum (fi, A, P) definiert ist. Durch ,

.

F(tu... ,td) :=Fx(h,... :=P{Xi ••• eine Zahlenfolge derart, daß tn t. Für die Ereignisse An := {X < tn} (n > 1) gilt dann A\ D A2 D • • • und Ai n A2 n • • • = {X < t}, so daß F(t) = P(X t2 > • • • eine Zahlenfolge derart, daß tn ->• —oo. Für die Ereignisse An := {X < i„} (n > 1) gilt dann A\ D A2 D • • • und Ai (1A2 n • • • = 0, so daß 0 = P(0) = lim P(An) n—Hx>

= lim F ( t n ) . n—»oo

Ähnlich beweist man (VF4).



Eine Funktion F : R — • K, mit den Eigenschaften (VF1)-(VF4) heißt eine Verteilungsfunktion (VF) (aufgrund von (VF1), (VF3) und (VF4) nimmt F lediglich Werte aus [0,1] an). Satz 2.4 besagt somit: Die VF einer ZV ist eine V F im soeben eingeführten Sinne. Wir werden etwas später zeigen, daß umgekehrt jede VF die VF einer geeigneten ZV ist (vgl. Satz 2.6). 2.5 Satz. Sei F die VF einer ZV X. Dann gilt: (2.5.1)

P(st) = 1 - F{t~),

t 6 R,

worin (2.5.5)

F(t~)

den linksseitigen (2.5.6)

:= l i m F ( s ) , «t t

te

R

Grenzwert von F an der Stelle t bezeichnet;

P(X = f) = 0 F ist stetig an der Stelle t.

Insbesondere gilt also P(X = t) = 0 für alle t £ R , falls F stetig ist.

2.2. VERTEILUNGEN UND VERTEILUNGSFUNKTIONEN

63

Die Differenz F(t) — F(t-) in (2.5.3) ist die Sprunghöhe von F an der Stelle t. BEWEIS VON SATZ 2.5. Zum Nachweis von (2.5.3) sei An := {t—l/n < X < t) (n > 1), so daß Ai D A2 D • •• u n d ^ i D ^ n - • • = {X = i}. Dies impliziert wegen (2.5.1) P(X = t)=

lim P(A ) = lim (F(t) - F(t - 1 /»)) = F(t) n—• ext n n—>00

Der Nachweis der restlichen Aussagen sei dem Leser überlassen. Ist X eine ZV mit der Verteilung Q, so schreiben wir auch (2.5.7)

F(t~). •

X ~ Q.

2.5.1 Beispiel. Ist X eine ZV derart, daß X = a f.s. für ein a € R, so gilt ersichtlich Fx = I[a, 1 und p G [0,1], wenn (2.5.9)

P(X = k)= (^pk(l-p)n-k,

* = 0,l,...,n.

Wir schreiben dann (2.5.10)

X ~ BIN(n,p).

Die Ausdrücke (£) in (2.5.9) sind die üblichen Binomialkoeffizienten. In Beispiel 1.14.1[3] wird gezeigt, daß durch (2.5.9) tatsächlich eine Verteilung gegeben wird, die in enger Beziehung zur BER(p)-Verteilung steht. • 2.5.4 Beispiel. Man sagt, eine ZV X sei gleichverteilt auf einer n-elementigen Menge { a ( l ) , . . . ,a(n)} C K., falls (2.5.11)

P(X = a(k)) = 1/n,

1 < k < n.

64

2. ZUFALLSVARIABLE

2.5.5 Beispiel. X hat eine Poisson-Verteilung mit dem Parameter A > 0, falls (2.5.12)

P(X = n) =

« = 0,1,2,...,

n!

und wir schreiben dann (2.5.13)

X ~ PO(A).

Durch (2.5.12) wird in der Tat eine Verteilung definiert, da 00 tn £ "7 = n=0 n "

(2.5.14)

1 e R

-

2.5.6 Beispiel. X hat eine geometrische Verteilung mit dem Parameter p £ ]0,1] (Bezeichnung: GEO(p)), falls (2.5.15)

P(X = n) = (1 - p)np,

n = 0,1,2,...

Durch (2.5.15) wird eine Verteilung definiert, da aufgrund der SummenFormel für eine geometrische Reihe oo n=0

v

Gilt X ~ GEO(p) für ein 0 < p < 1, so hat die Verteilung der ZV Y X + 1 (die manchmal ebenfalls eine geometrische Verteilung genannt wird), ein „fehlendes Gedächtnis", d.h. es gilt (2.5.16)

P(Y = m + n\Y>n)

= P(Y = m),

m,n = 1 , 2 , . . .

Ist z.B. Y die Lebensdauer eines Transistors (gemessen in ganzzahligen Vielfachen einer Grundeinheit), so besagt (2.5.16) intuitiv: Innerhalb der Menge der Transistoren, die unmittelbar nach dem Zeitpunkt n noch funktionieren, hat die Rest-Lebensdauer Y — n dieselbe Verteilung wie die GesamtLebensdauer Y. Zum Nachweis von (2.5.16) beachte man, daß die linke Seite in (2.5.16) für m,n > 1 den Wert P(Y = m + n) _ P(X = m + n - 1) _ p ( l - p ) m + " ~ 1 = P{Y = m) P{Y > n) ~ P(X > n) ~ (1 - p)r hat. 2.5.7 Beispiel. Die Gleichverteilung auf einem Intervall [a, b] (a < b, a,b € R), die wir mit UNI(a, b) bezeichnen, hat eine stetige VF F, die gegeben wird durch (2.5.17)

F{t) = {t - a)/(b - a),

falls t e [a, 6],

so daß F(t) = 0 bzw. 1 ist für t < a bzw. t > b.



2.2. VERTEILUNGEN UND VERTEILUNGSFUNKTIONEN

65

2.5.8 Beispiel. Für die VF F einer Exponentidlverteilung mit dem Parameter A > 0 (Bezeichnung: EXP(A) gilt (2.5.18)

F{t) = l - e x p ( - A i ) ,

falls t > 0,

so daß F(t) = 0, falls t < 0.



2.5.9 Beispiel. Für die VF F einer Normalverteilung mit den Parametern H e E und 0 (Bezeichnung: N(/i, oo gegen 1 konvergiert (dies wird in Beispiel 5.6.1[4] gezeigt). Der Parameter ß spielt die Rolle eines „Mittelwertes", während a 2 ein Maß dafür ist, wie stark N(/x, a 2 ) um fj, „streut" (man vgl. (5.6.5)[4]). • Das folgende Resultat motiviert die Bezeichnung „Verteilungsfunktion" für Funktionen F : R —> [0,1], die die Eigenschaften (VF1)-(VF4) aufweisen: 2.6 Satz. Zu jeder VF F existiert ein W.-Raum (Í2, A, P) und eine ZV X : ü —> E, deren VF F ist. Zum Beweis von Satz 2.6 benötigen wir sog. Quantil-Funktionen. 2.7 Definition. Sei F eine VF. Die durch (2.7.1)

F'1 (t) := inf{s G E : F(s) > t},

t € ]0,1[

gegebene Funktion :]0,1[—> E heißt die zu F gehörige Quantil-Funktion. (Es besteht keine Gefahr, die Quantil-Funktion F~l mit der in (1.0.1) eingeführten Abbildung zu verwechseln !) • Die Terminologie „Quantil-Funktion" rührt daher, daß man in der Statistik F~l{t) als ein t-Quantil (oder auch: 100i%-Punkt) von F bezeichnet. Insbesondere ist F ~ 1 ( l / 2 ) ein Median von F. Man beachte, daß wegen (VF3) und (VF4) (2.7.2)

| F - 1 ( f ) | < oo,

t€]0,l[

gilt, während sich aus (VF1) (2.7.3)

F-1(s) < F-1(f),

0 < s < £< 1

ergibt. 2.8 Satz. Sei F eine VF. (a) Es gilt (2.8.1)

F(s) >t^=>s>

F-1(t),

s £ E, t 6 ]0,1[.

66

2. ZUFALLSVARIABLE

(b) Ist F stetig, so folgt F(F~1(t))

(2.8.2)

= t,

te]0,l[.

(c) Ist £ ~ UNI(0,1) eine ZV derart, daß (2.8.3)

f(w) e ]0,1[,

wen,

_1

so hat die ZV F ( £ ) die VF F. (d) Ist die VF F einer ZV X stetig, so gilt (2.8.4)

F(X) ~UNI(0,1). -1

Man beachte, daß F ( £ ) aufgrund von Beispiel 1.13.1(b) und (2.7.3) eine ZV ist. Ist f ~ UNI(0,1) eine auf (íí, A, P) definierte ZV, so folgt ersichtlich P(£ t,

(2.8.5) (2.8.6)

F(s) < t,

t 6 ]0,1[,

falls s
t)

=

P(X < F _ 1 ( t ) ) = P(X < F_1(i))

Dies impliziert (warum ?) P(F{X)

=

eine ZV. Wegen (2.8.1),

= F(F~1(t))

= t.

]0,1[ definiert durch ((u>) = cu, u> € fi, so folgt £ ~ UNI(0,1). Wegen Satz 2.8(c) hat die VF F. • 2.8.1 Beispiel. Sei X ~ EXP(A), so daß die VF F von X wegen (2.5.18) gegeben wird durch F(t) = 1 - exp(—Ai), t > 0. Man sieht leicht, daß (2.8.7)

F-1(í) = - i l o g ( l - í ) ,

t G ]0,1[

67

2.3. EINIGE SPEZIELLE «r-ALGEBREN

(„log" ist der natürliche Logarithmus). Ist f ~ UNI(0,1) eine ZV derart, daß e ]0,1[, u € Í1, so folgt UNI(0,1) und (1 € ]0,1[, w € fi. Wegen Satz 2.8(c) gilt also (2.8.8)

~t

A

~ EXP(A).

Satz 2.8(c) legt nahe, wie man mit Hilfe eines Computers eine ZV mit einer vorgegebenen VF F simulieren kann. Ein geeigneter Zufallszahlengenerator liefert zunächst eine „zufällige" Zahl 77, die annähernd gleichverteilt auf einer Menge {1 /N, 2/N,... ,(N — 1 )/N} ist (N sei eine große natürliche Zahl). Aufgrund von Satz 2.8(c) hat dann F - 1 ( r j ) annähernd die VF F . Es erhebt sich die Frage, ob es zu einer vorgegebenen Folge von Verteilungen Qn : 7Zn —> [0,1] (n > 1) eine Folge von ZV Xy, X2, • • • gibt, die auf einem gemeinsamen W.-Raum (fi, A, P) definiert sind derart, daß für jedes n > 1 Qn die gemeinsame Verteilung der ZV X\,..'. , X n ist. Ersichtlich ist hierfür notwendig, daß die Verteilungen Qi, Q2, • • • folgende Verträglichkeitsbedingung erfüllen: (2.8.9)

Qn+1(BxR)

= Qn(B),

BeKn(n>l).

Sei Fn die VF des ZVK ( X i , . . . ,Xn), n > 1. Aus Satz 4.5[1] folgt dann, daß (2.8.9) äquivalent ist zu folgender Verträglichkeitsbedingung: (2.8.10)

Um = Fn{tu...

..,*»,*) ,tn), (*!,...

,in)€En(n>l).

Der folgende Existenzsatz von Kolmogorov besagt, daß die Verträglichkeitsbedingung (2.8.10) (und somit auch (2.8.9)) sogar hinreichend für die Existenz der gewünschten Folge von ZV ist: 2.9 Satz. Gegeben seien VF Fn : R n —• [0,1] (n > 1), die die Verträglichkeitsbedingung (2.8.10) erfüllen. Dann existiert ein W.-Raum (fi,-4, P) und ZV Xn : ü —> E (n > 1) derart, daß ßr alle n > 1 (2.9.1)

P(Xi Z + : = { 0 , 1 , . . . } . Eine Abbildung tt : Z + —> TL+ heißt eine endliche Permutation, wenn sie Z + auf sich abbildet, eineindeutig ist (d.h. 7r(m) = 7r(n) => m = n (m,n € Z+)) und 7r(n) = n für alle hinreichend großen n € Z + gilt. Setzen wir Y* = (Y£), tt £ II, wobei (3.0.5)

r * :=y,(„),

n > 0 , Tren,

2.3. EINIGE SPEZIELLE «--ALGEBREN

69

so gilt ersichtlich 1n_1 £oo := lim sup - Y ] Y?, n-¥oo Tl

(3.0.6)

tt e II.

Aufgrund von Satz 1.10(b) und Satz 1.17(a) ist die durch 1 0(xo,xi,...) = l i m s u p - V ^ i i , n f^

(3.0.7)

definierte Abbildung : E°° —> R (3.0.6) gilt (3.0.8)

(xo,®i,...) G E°°

Tl^/^-meßbar, und wegen (3.0.3) und

Z00 = 4>(Yk,Yk+1,...),

k> 0

sowie (3.0.9)

ioo = 0(^(0),

...),

Tren.

Hieraus ergibt sich (3.0.10)

{U eB}

= {(Yk,Yk+1,...)e-1(B)},

k >0, B €1Z

und (3.0.11)

{ZoO£B}

= {(Yn{0),Yn{1),...}£4>-1(B)},

Tren

,BeTl,

wobei ^ ( B ) e Koo, B € Tl. Analoge Resultate erhält man für 1 Tl—1 T)0o := lim inf - JT Yt. oo Tl —' i=0 Schließlich betrachten wir noch die bereits in Satz 1.10(d) eingeführte Verschiebungstransformation (Shift) T : R,00 —• K,°°, die definiert wird durch (3.0.12)

(3.0.13)

T(x0,xu...)

= (x!,x2,...),

(x0,xu...)

eR°°.

Aufgrund von Satz 1.10(d) ist T Borel-meßbar. Die identische Abbildung T° : —> E°° wird gegeben durch (3.0.14)

T°(a;o,a;i,...) = ( x o , x i ) . . . ) )

(®0,®i,• • •) e R°°,

n

und wir definieren die Abbildungen T : K,°° —• R,00 (n > 1) rekursiv durch (3.0.15)

Tn - T o f r " 1 ) ,

n = 1,2,...

Schließlich sei (3.0.16)

T~n := ( T n ) _ 1 ,

n = 0,l,...,

so daß T~n : V(R°°) —• V{R°°), n > 0 (vgl. (1.0.1)). Wegen Satz 1.10(b) ist die durch (3.0.17)

«!,•••) = ®o.

(®o,«!>•••)

70

2. ZUFALLSVARIABLE

definierte Abbildung Y0 : R°° —> R Borel-meßbar. Sei Yn := Y0oTn, n > 1. Wird Zoo durch (3.0.1) definiert, so sind Mengen der Form {£oo € B} (B € TZ) aufgrund von (3.0.10) „T-invariant", d.h. es gilt (3.0.18)

r 1 { { 0 0 e f l } = {{00eB}l

Ben.

Durch (3.0.10), (3.0.4), (3.0.11) und (3.0.18) werden folgende Definitionen motiviert. 3.1 Definition. Sei Y = (Yn) (n > 0) eine Folge von R d -wertigen ZVK. (a) Eine Menge A 6 a{Yo,Yi,...} heißt Y-invariant, falls es ein B^ € TZoo gibt derart, daß (3.1.1)

A = {(Yk,Yk+1,...)eB00},

k> 0.

Mit T(Y) bezeichnen wir die Familie der Y-invarianten Mengen. (b) Die cr-Algebra 00 (3.1.2) T~?{Y)~ f]a{Yk,Yk+1,...} fc=0

heißt die Y-finale a-Algebra. Eine Menge A € ^F{Y) heißt final (genauer: Y-final). m 3.2 Definition. Sei Y = (F n ) (n > 0) eine Folge von R d -wertigen ZVK. Eine Menge A 6 cr{Y0, Yi,... } heißt Y-symmetrisch, falls es ein Bx 6 TZoo gibt derart, daß (3.2.1)

A = {(Y w(0 ),Y w (i),...) e Boo),

neU.

(Gilt Y„ = (Y„i,... , Y n d ) , n > 0, so fassen wir (Yo,Yi,...) auf als Folge (Y 0 i,... , Y0d, Y n , . . . , Yij,...).) Mit Q eine meßbare Transformation, d.h. es gelte (3.3.1)

T - ^ A ) € A,

AeA.

(T ist also ,4/,4-meßbar.) Eine Menge A G A heißt T-invariant, falls (3.3.2)

T~1{A) = A.

Mit I ( T ) bezeichnen wir die Familie der T-invarianten Mengen.



d

3.4 Satz. Sei Y = (Yn) (n > 0) eine Folge von Wi -wertigen ZVK. (a) Die Familien 1(Y), T{Y) undS(Y) sind jeweils Teil-a-Algebren von a{Y0,Yu...}. (b) Ist T : i2 —> fl eine meßbare Transformation, so ist I{T) eine Teil-a-Algebra von A. BEWEIS, (a) Faßt man die durch (3.0.2) bzw. (3.0.5) definierten Folgen Y W , Y * als Abbildungen Y R,°°, Y^ : fi —> auf,

2.3. EINIGE SPEZIELLE ct-ALGEBREN

so gilt A S I(Y) derart, daß (3.4.1)

71

bzw. A € S(Y) genau dann, wenn es ein B^ e TZoo gibt A=

(yW)-1(ß00),

fc>0

bzw. (3.4.2)

A = (Y")-1(B00),

TT e i l .

Aufgrund von Satz 1.6 sind somit I(Y) und S(Y) a-Algebren. Ähnlich beweist man (b). T(Y) ist — als Durchschnitt von a-Algebren — trivialerweise eine cr-Algebra. • Es erhebt sich die Frage, wann eine ZV X(Y)-, S(Y)- bzw. I(T)-meßbar ist. Wir leiten zunächst ein Kriterium für die 0) eine Folge von R d -wertigen ZVK und £ : i) —• R eine ZV. (a) f heißt Y-symmetrisch, falls es eine Borel-meßbare Abbildung / : E°° —> E gibt derart, daß (3.5.1)

t = f(YnW,YnW,...),

Ten.

(b) Sei n > 0. Die ZV f heißt n-symmetrisch (bez. Y), falls es eine Borel-meßbare Abbildung / „ : E°° —> R gibt derart, daß (3.5.2)

e = /B(^(oj.nd),-.-).

worin n „ aus allen 7T G II besteht, für die 7r(m) = m, m>n,

gilt.



Wegen (3.4.2) gilt für alle A 6 A (3.5.3)

A £ S(Y)

IA ist F-symmetrisch.

3.6 Satz. Sei £ : fi —> IR eine ZV. Dann sind folgende Aussagen äquivalent: (a) £ ist S(Y)-meßbar. (b) f ist Y-symmetrisch. (c) £ ist n-symmetrisch bez. Y für jedes n > 0. BEWEIS. Die Gültigkeit der Implikationen (b) =>• (a) und (b) = > (c) ist unmittelbar klar. Zum Nachweis von (a) =4> (b) sei £ 1.

Wegen Satz 1.17(a) ist f := lim s u p ^ ^ / „ 7?-oo/^--meßbar, so daß / := Jl{\J\ < oo} wegen Satz 1.19(c) eine Borel-meßbare ZV ist. Aus (3.6.1),

72

2. ZUFALLSVARIABLE

(3.6.2) folgt f = /(Y^o),K-(i),• • •), 7r € II, so daß £ Y-symmetrisch ist. Ähnlich beweist man die Implikation (c) (b) (man beachte hierzu, daß aus 7r £ II n für ein n > 0 folgt, daß ir € II* für alle k > n gilt). • Eine einfache Folgerung aus Satz 3.6 ist 3.7 Satz. Für eine beliebige Folge Y = (Y„) (n > 0) von Rd-wertigen ZVK gilt (3.7.1)

^(X)

C S(Y) C

cr{Yo,Yi,...}.

BEWEIS. Sei A e T(Y) und n > 0 gegeben. Wegen A e 0) eine Folge von ZV derart, daß {Y0 = 0} U {Y0 = 1} = ft, 0 < P(Y 0 = 0) < 1 und Yn = 0, n > 1. Für das Ereignis A := {Yo H + Yn = 0 u.o.} gilt ersichtlich A = {Y0 = 0} £ T{Y) = {0, i)} sowie A € S{Y). • 3.9 Beispiel. Sei T : fi —> ü eine meßbare Transformation und Y0 eine ZV. Setzen wir (3.9.1)

Yn:=Y0oT",

n> 1

und (3.9.2)

1 n_1 ^limsup-VYi,

so ist £oo aufgrund von (3.0.3) I(T)-meßbar, d.h. es gilt (3.9.3)

T - 1 { e o o 6 ß } = {^oo€ß},

Bell.

(Dies verallgemeinert (3.0.18).)



3.10 Satz, (a) Für eine beliebige Folge Y = (Yn) (n > 0) von ZVK gilt (3.10.1)

i(r)cf(F)ca{r0,ylr..}.

(b) Sei T : ü —> fi eine meßbare Transformation. gilt für die durch (3.9.1) definierte Folge Y = (Yn) (3.10.2)

-wertigen

Ist Y0 eine ZV, so

I ( Y ) C 1(T).

BEWEIS, (a) ergibt sich mit Hilfe von (3.4.1). Zum Nachweis von (b) sei A € I(Y). Aufgrund von (3.4.1) existiert ein Bx e derart, daß A = ( Y ^ ) ) - 1 (£oo), k > 0. Da wegen (3.9.1) (3.10.3)

y W = {Y0oTk)n,

n,k = 0 , 1 , . . . ,

2.3. EINIGE SPEZIELLE fl die identische Abbildung, d.h. gilt (3.11.1)

T(üj)=UJ,

uen,

so folgt X(T) = A. Wird Yn wie in (3.9.1) definiert, so ergibt sich 1(Y) = 0) eine Folge von ZV, so sind wegen (3.0.3) die in (3.0.1) und (3.0.12) definierten NZV ^ I(y)-meßbar.

3.11.2 Beispiel. Ist Y = (Y„) (n > 0) eine Folge von ZV, so sind die NZV n—1

lim sup > Yi n^oo

^

n—1

und

lim inf > Yi n—*oo

^

zwar (S'(y)-meßbar, aber i.a. nicht jr(y)-meßbar.



3.11.3 Beispiel. Sei Y = (Yn) (n > 0) eine Folge von Rd-wertigen ZVK. Die Funktionen /„ : IRnd —¥ R (n > 1) seien Borel-meßbar und symmetrisch, d.h. für jedes n > 1 und jede Permutation a der Zahlen 0,... , n — 1 gilt /O 11 V

/n(®0) • • • ! ®n—l)

''

= /»(*,( 0)," •,*, 0. falls anstelle von (3.3.2)

= 0.

(In (3.12.1) und (3.12.2) ist „A" die symmetrische Differenz.)



Bezeichnet X (Y) bzw. X(T) die Familie der Y- bzw. T-fast-invarianten Mengen, so gilt ersichtlich (3.12.3)

1(Y) C Z(Y)

und (3.12.4)

X(T)cZ(T).

3 . 1 3 Definition. Eine meßbare Transformation T : fi —> fi heißt maßtreu, falls gilt: (3.13.1)

P(T~1(A))=P(A),

AEA. U

3.14 Satz, (a) Die Familien X(Y) und X{T) sind Teil-a-Algebren von A. (b) Sei T maßtreu. Eine Menge A E A gehört genau dann zu X(T), wenn es eine Menge AQ E X(T) gibt derart, daß (3.14.1)

P(AAAo) = 0.

(c) Sei T maßtreu. Existiert zu einer Menge A E A eine Menge A\ E X(T) derart, daß P(AAAi) = 0, so folgt A E X{T). BEWEIS, (a) Wir beweisen die Aussage lediglich für X(T) (der entsprechende Nachweis für X(Y) verläuft völlig analog). Es ist klar, daß fi € X(T). Sei A E X(T). Wegen (3.12.2) folgt d a n ^ P ^ A T - 1 ^ ) ) ^ P(ACA _1 C c (T (A)) ) = PiAAT'^A)) = 0, so daß A € X(T). Gelte An E X(T), n >

2.3. EINIGE SPEZIELLE c-ALGEBREN

75

1. Mit Hilfe der cr-Subadditivität von P und (3.12.2) (für An statt A) ergibt sich

oo

\

oo

n=1

/

n=l

(

so daß Ai U A 2 U • • • € X(T). Folglich ist X(T) eine er-Algebra. (b) Sei A € A und gelte (3.14.1) für ein A0 € 1(T). Aufgrund von Satz 1.7[1], Satz 1.6 und der Maßtreue von T ergibt sich dann P(AAT~1(A))




R

(1


1,

L'3(t) = l/(tL1(t)L2(t)), t > 3

(1.16.13) und

t

(i i6 i4)

- -

L

m

Folglich ergibt sich für N

1

N

T^

r ,

xr

/ X >

U

)

)

^

=

5

>

t

>

l

oo

f

/

N + 1 r

,

dt x r

,

x

=

L3(N +

1)

- L3( 3) ->•

OO

und (für 8 > 0)

N £_ nL!(n)(L 2 (n))i+i "
0 f.s. (n > 1) und (1.16.15)

P ( f „ > t) = exp(-i),

t > 0, n > 1.

Aus (1.16.15) ergibt sich unter Benutzung der in (1.16.8)-(1.16.10) eingeführten Bezeichnungen P ( f « > ¿ i ( n ) + La(n) + L s (n)) = l/(nL!(n)L 2 (n)),

n> 4

und (für S > 0)

P(£n > W n ) + L 2 ( n ) + (1 + S ) L 3 ( n ) ) = l/(nLi(n)(La(»)) 1 + i ),

n > 4,

94

3. UNABHÄNGIGKEIT

so daß aufgrund der beiden Borel-Cantelli-Lemmata sowie (1.16.4) und (1.16.5) (1.16.16)

P(£ n > L\{n) + L2(n) + L3(n) u.o.) = 1

und (1.16.17)

P(£n > L i ( n ) + L2(n) + (1+S)L3(n)

u.o.) = 0,

¿>0.

Aus (1.16.16) folgt wegen (1.16.18)

X 2 ( n ) / i i ( n ) -> 0

(noo)

die Beziehung (1.16.19)

limsup f n /Z/i(n) > 1 f.s. n-voo

Wegen (1.16.17) existiert zu fast allen w G fi eine Zahl no (w) > 1 derart,daß Z n i ^ / h i n ) < 1 + (L 2 (n) + 2L3(n))/L1(n),

n >

n0(u).

Wegen (1.16.18) und (1.16.19) impliziert dies (1.16.20)

limsup £„/(logn) = l n—*oo

Für das Wachstum der Maxima Mn : = (1.16.21)

f.s. V • • • V f „ gilt:

lim M„/(logn) = 1 f.s.

n—foo

Diese Schreibweise bedeutet: P \u> G ii : lim M n (w)/(logn) I

existiert und ist gleich 1 > = 1.

n-too

J

In der Tat existiert wegen (1.16.17) (für 0 eine Menge fi(e) £ A mit folgenden Eigenschaften: Es gilt P((l(e)) = 1, und zu jedem u 6 f2(e) existiert eine Zahl no = no(w,e) > 4 derart, daß für alle w G ft(e) und n > no U " ) / L i ( n ) < 1 + (L 2 (n) + 2L 3 (n))/Ia(n) < 1 + e. Folglich erhält man für UJ 6 fl(e) und n > no Mn(uj)/Li(n)


1), woraus sich wegen (1.17.5) a(Ao) C Vergibt. Für Mengen B„ € K([0,1]) (n > 1) gilt An := {(wi,cj 2 , • • •) GFTOO• UN 6 Bn}

£ Zn C AQ, so daß Bi xB2 x • • • =

Ai n A2 D • • • € A{AO). Dies zeigt, daß A C [0,1] durch (1.17.6)

PO(C x [0,1] x • • •) = XN(C),

falls

C6^([0,lf).

Diese Definition ist sinnvoll, denn für jedes C G 7£„([0, l] n ) und m > 1 gilt dann C x [0,1] x • • • = D x [0,1] x • • • € Zn+m, worin D = C x [0,1] x • • • x [0,1] e ft„+m([0, l] n + r o ) und An+ro(I>) = A n (C). Ersichtlich ist P0 normiert und endlich-additiv, so daß insbesondere (1.17.7)

Ai C A2

PoiA,) < P0(A2),

A1,A2eA0.

Wegen des Fortsetzungssatzes von Caratheodory läßt sich Po zu einem (eindeutig bestimmten!) W.-Maß P auf A fortsetzen, falls gilt: (1.17.8)

Po ist cr-additiv auf Ao-

Zum Nachweis von (1.17.8) reicht es wegen Satz 2.8[1] zu zeigen: Gilt für Mengen An € AQ (n > 1) (1.17.9)

AIDAID---

und

AX n A2 n • • • = 0,

so folgt (1.17.10)

PO(AN) -> 0

(n ->• oo).

Aufgrund von (1.17.7) reicht es, (1.17.10) für irgendeine Teilfolge von (An) zu beweisen. Wegen (1.17.4) dürfen (und werden) wir daher annehmen, daß die Mengen in (1.17.9) von der Form An = An x [0,1] x • • • für ein Än € Tln{[0,1]")

(n > 1)

3.1. UNABHÄNGIGKEIT VON EREIGNISSEN U N D ZUFALLSVARIABLEN

97

sind, so daß wegen (1.17.6) Po(An) = A(A„), n > 1. Wir nehmen indirekt an, daß für eine gewisse Zahl 0 < 8 < 1 (1.17.11)

P 0 (A„) = A n ( I „ ) > S,

n >1

gilt. Wegen Satz 3.16[1] existieren kompakte Mengen C„ C R.n derart, daß (1.17.12)

CncÄn

Xn(Än \ Cn) < 6/2n+1,

und

n > 1.

Für die Mengen Cn := Cn x [0,1] x • • • gilt Cn £ Zn (n> 1), und die Menge Dn := Ci D • • • n Cn ist von der Form Dn = Dn x [0,1] x • • •. Hierin ist Dn C R n kompakt, und (1.17.9) impliziert (1.17.13)

x ? i n D 2 n - - - = 0.

Andererseits erhält man Dn / 0 (n > 1) und folglich (1.17.14)

n> 1,

da aufgrund von (1.17.11), (1.17.9) und (1.17.12)

1. Da (wi(n)) C Di und Di kompakt ist, existieren Indizes 1 < m( 1,1) < m( 1,2) < • • • und eine Zahl 6 D\ derart, daß wi(m(l,/:)) —»• u¡i (k oo). Wendet man eine analoge Überlegung auf die Folge (ui(m(l, fc)),o;2(m(l, k))) € D2 (k > 1) an und fährt entsprechend fort, so sieht man, daß es zu jedem i > 1 Indizes 1 < m(i, 1) < m(i, 2) < • • • sowie eine Zahl 0 < < 1 gibt derart, daß (m(i + 1, k)) eine Teilfolge von (m(i, k)) ist und für k —• oo (ui(m.(i,k)),...

,u)i(m(i, k)))

(Ci,...

,tj¿

gilt. Für die „Diagonalfolge" n(k) := m(k,k) (k > 1) ergibt sich dann u>i(n(k)) -¥ u>i {k ->• oo), i > 1, so daß (Ci,£2, • • •) € Di D D2 fl • • •. Dies widerspricht (1.17.13). (Ein ähnliches Diagonalverfahren wird im Beweis von Satz 1.3[5] verwendet.) Folglich existiert auf A ein (eindeutig bestimmtes) W.-Maß P derart, daß P(A) = P 0 (-4), AeAo- Wegen (1.17.1) und (1.17.6) gilt also für alle n > 1 und (f 1 , . . . , tn) £ ttn P{£i ( i

oo -

P

r =

P

( i - p)

i=1

¿(i -

¿=1

Hieraus folgt wegen (0° := 1) oo

(1.8.6) (1.8.7)

Y 1 ü i ~ l = J / ( l - *)*> i=l E[X] =

0< i < 1

(l-p)/p.

py-1.

4.1. DEFINITION

119

1.8.3 Beispiel. Eine Bildserie besteht aus m verschiedenen Bildern. Eine Firma legt jeder Packung ein Bild bei. Sei Ym die Anzahl der Packungen, die ich kaufen muß, um jedes der m Bilder zu erwerben. (Es werde angenommen, daß eine gekaufte Packung das i-te Bild mit Wahrscheinlichkeit 1/m (1 < i < m) enthält und daß Unabhängigkeit vorliegt.) Zur Berechnung vom E[Ym] sei Xk (1 < k < m) die Anzahl der Packungen, die ich zusätzlich kaufen muß, um ein weiteres Bild der Serie zu erwerben, wenn ich bereits k — 1 verschiedene Bilder habe. Dann gilt Ym = Xi + 1- Xm und somit (1.8.8)

E[Ym] = E[X1] + --- +

E[Xm}.

Da ersichtlich Xk - 1 ~ GEO (1 - (fc - 1 )/m), ergibt sich wegen (1.8.8) und (1.8.7) (1.8.9)

£ [ r m ] = m ( l + i + i + --. + - V \ 2 o m J

m>l,

woraus man durch Vergleich mit einem Riemann-Integral der Funktion f(x) \/x {x > 1) (1.8.10)

mlog(m + l ) < E\Ym] < m(l + logm),

=

m> 2

(„log" ist der natürliche Logarithmus) und somit als Näherungswert für E[Ym] TTL (1.8.11) £ [ Y m ] « y (l + logm + log(m + l ) ) , m > 2 erhält. Folglich ist -Ep^o] ungefähr gleich 221, so daß man im Mittel ungefähr 171 „unnötige" Packungen kauft ! (Der genaue Wert von £[>50] ist 224,9602...) • 1.9 Satz, (a) Für eine ZV X > 0, die nur ganzzahlige Werte annimmt, gilt 00

(1.9.1)

=

> »=1 (b) Für eine beliebige ZV X > 0 ergeben sich die Ungleichungen 00

00

(1.9.2)

^ P ( X > i ) z), ¿=1

00

(1.9.3)

E[X] < 0 0

i=l

>


0. BEWEIS VON SATZ 1.9. Für eine beliebige ZV X > 0 gilt 00

X = ^ XI {i < X < i + 1} , K. derart, daß (1.11.1)

//(0) = 0,

(1.11.2)

ß(A) > 0,

A 1) paarweise disjunkt sind (a-Additivität von • M ). 1.12 Satz. Sei (Ü,A,P) (a) Durch (1.12.1)

ein W.-Raum und X > 0 eine NZV.

n{Ä)

:= J

XdP,

A e A

wird ein Maß auf A definiert. Gilt insbesondere E\X] = 1, so ist p ein W.Maß. (b) Das Maß fj, in (1.12.1) ist absolut-stetig bez. P (Bezeichnung: ß n(A) = 0,

AeA.

1.13 Bemerkungen, (a) Eine NZV X > 0, für die (1.12.1) gilt, nennen wir eine Dichte von p bez. P. (b) Die RSE impliziert, daß eine Dichte fast sicher eindeutig bestimmt ist, d. h. ist neben X auch Y eine Dichte von fi bez. P, so gilt Y = X f.s. (c) Es wird sich später ergeben, daß folgende Umkehrung von Satz 1.12(b) gilt: Ist ß ein W.-Maß auf A derart, daß (i P, so besitzt fj, eine Dichte bez. P (Satz von Radon-Nikodym). • BEWEIS VON SATZ 1.12. (1.11.1), (1.11.2) sowie (1.12.2) folgen aus Satz 1.5(b),(e). Da für paarweise disjunkte Mengen An e A(n > 1) XI(A\\J A2 U • • •) = XI(Ai) + XI{A2) -1 gilt, ergibt sich die a-Additivität von /x aus Satz 1.8(a). • Zur Definition des Erwartungswertes einer NZV, die positive und negative Werte annimmt, benutzen wir, daß sich eine NZV X in der Form (1.13.1)

X =

X+-X~

122

4. ERWARTUNGSWERTE

schreiben läßt, wobei X+ (positiver Teil von X) und X~ (negativer Teil von X) definiert werden durch (1.13.2)

X+ = XV0,

X~ =

(-X)V0.

X+ > 0 und X- > 0 sind NZV, so daß die EW E[X+\,E[X~] definiert sind. Soll also der für X zu definierende Erwartungswert linear sein, so führt (1.13.1) zu folgender 1.14 Definition. Sei X eine NZV derart, daß (1.14.1)

JB[X + ] A E[X~] < oo.

Der Erwartungswert (1.14.2)

(EW) von X wird dann definiert durch E[X] = E[X+]

-

E[X~]

(man beachte, daß wegen (1.14.1) ein Ausdruck der Form oo — oo vermieden wird). Gilt (1.14.1), so sagen wir,daß der EW von X existiert oder definiert ist. Gilt sogar (1.14.3)

E[X+]

< oo und

E[X~] < oo,

so folgt — oo < E[X] < o o . In diesem Fall heißt X integrierbar (wir sagen dann auch: X besitzt einen endlichen EW). • Gilt (1.14.1), so schreiben wir für den EW von X auch (1.14.4)

E[X} = fxdP= J

[ XdP Ju

= f Ja

X(uj)dP{u).

Eine einfache Konsequenz aus Definition 1.14 ist 1.15 Satz. Sei X eine NZV. Dann sind folgende Aussagen äquivalent: (a) X ist integrierbar. (b) X+ und X~ sind integrierbar. (c) |X| ist integrierbar. (d) Es existiert eine integrierbare NZV Y > 0 derart, daß (1.15.1)

\X\ 0, so folgt wegen (1.15.2) X+ < Y f.s., X~ < Y f.s., so daß (1.14.3) aus Satz 1.5(h) resultiert. • Der Beweis der folgenden Konsequenz aus Satz 1.15 sei dem Leser überlassen.

4.1. DEFINITION

123

1.16 Korollar. (a) Sei X eine NZV, deren EW existiert. Dann die EW (1.16.1)

J XdP

existieren

AeA.

:= J X{u))dP{u)~E[XIA],

(b) Ist X integrierbar, so ist für jedes A e A auch XIA integrierbar.



Die für 1 < p < 6o definierten Mengen (1.16.2)

V := Lp(il, A, P) := {X : X ist eine ZV mit E [|X|f] < oo}

heißen Lebesgue-Räume oder kurz Lp-Räume. Der EW E [|X| P ] heißt auch absolutes Moment der Ordnung p von X. Wegen Satz 1.15 enthält also L1 genau die integrierbaren ZV, während die ZV aus L2 auch quadrat-integrierbar heißen. Wir werden später zeigen, daß (1.16.3)

(£[|jqr])1/r < (£[|X|S])1/S,

1 < r < s < oo

gilt (Ljapunov-Ungleichung), woraus sich L* C LT,

(1.16.4)

1 < r < s < oo

ergibt. Die in den Aussagen (1.17.1) und (1.17.2) von Satz 1.17 auftretende Eigenschaft nennen wir im folgenden Rückschlußeigenschaft (RSE) des Erwartungswertes (ein Spezialfall hiervon ist in Satz 1.6(b), (c) enthalten). 1.17 Satz. Seien X,Y NZV, deren EW existiert. (a) Es gilt (1.17.1)

X [ XdP

= f XdP Jn

JA

(d) Es gilt die

= E[X].

Ungleichung

(1.17.8) 1.18 B e m e r k u n g . Sind X,Y

NZV derart, daß

(1.18.1)

X 0, P(Qz) > 0, und setze X = ooJ(fii) — oo/(fi 2 ), Y = ooJ(í)i). • BEWEIS VON SATZ 1.17. (a) Wegen Korollar 1.16(a) sind die EW in (1.17.1) und (1.17.2) definiert. Zum Nachweis von (1.17.1) sei X < Y f.s. D a n n folgt für A € A

('YIa)~

< (XIA)~

(XIA)+

= X+IA

< Y+IA

= (YIA)+

f.s. und

f.s. Aus Satz 1.5(h) ergibt sich also für A € A E[XIA]

=

E

[(JT/a)+] -

< =

E

[(XJA)-]

E[(YIA)+]-E[(YIA)~] E[YIA}.

Gelte umgekehrt für alle A £ A E[XIA] < E[YIa], d. h. E[X+IA] E[X~IA] < E[Y+Ia] - E[Y~Ia}. Dies impliziert E[X+IA] + E[Y~IA] < E[Y+IA] + E[X~IA], A e A. (Es reicht, sich dies im Fall zu überlegen, daß E[Y+Ia] < oo und E[X~IA] < oo gilt !) Wegen Satz 1.5(c) und Satz 1.6(b) ergibt sich X+ + Y~ < Y+ + X~ f.s. und somit (wieso ?) X = X+ - X~ < Y+ - Y~ = Y f.s. Damit ist (1.17.1) bewiesen, während (1.17.2) eine Folgerung aus (1.17.1) ist. (b) und (c) sind unmittelbare Konsequenzen aus (1.17.2) und Satz 1.5(g). (d) Mit Hilfe von Satz 1.5(c) ergibt sich }E[X}\ =

- E[X~)| < E[X+]

+ E[X~}

= E[X+

+ X~] = £[|X|],

d. h. (1.17.8). 1.19 B e m e r k u n g e n , (a) Sind X,Y NZV, so ist X + Y auf der Menge ii := ({X = oo} n {Y = -oo}) U ({X = - o o } n {Y = oo}) nicht definiert. Gilt P ( f i ) = 0, so ersetzen wir im folgenden X +Y stillschweigend durch die NZV Z, die definiert wird durch (1.19.1)

z = xi{ n \ ñ ) + yi{íi

\ ñ).

4.1. DEFINITION

125

Existiert der EW von Z, so wird der EW von X + Y definiert durch E[X + Y] := E[Z] = E[Z+] - E[Z~].

(1.19.2)

(b) Ist eine NZV X integrierbar, so gilt X := XI{\X\ < oo} = X f.s. und (wegen (1.4.6)) X € L1. Die — manchmal bequeme — Formulierung „ X 6 L 1 " bedeutet dann X e L1 (analog für Lp, 1 0 gilt (aX)+ = aX+, (aX)~ = aX~, wobei aufgrund von Satz 1.5(c) E[aX+] = aE[X+], E[aX~] = aE[X~]. Da E[X+] A E[X~] < oo, existiert der EW von aX, und es gilt (1.20.1). Im Fall a < 0 beachte man, daß (aX) + = —aX~, (aX)~ = —aX+. (b) Wegen (a) reicht es, den Fall a = b = 1 zu betrachten. Wir beweisen (1.20.3) zunächst unter der Annahme, daß (1.20.7)

XeL1

und

X+ Y > 0 f.s.

1

gilt (man beachte, daß aus X e L wegen Satz 1.5(i) |X| < oo f.s. folgt). Aus (1.20.7) und Satz 1.5(c) ergibt sich E[X+] + E[Y+]

= =

E[X+ + Y+] = E[X + Y + X~ + Y~] E[X + Y] + E[X-] + E[Y~],

126

4. ERWARTUNGSWERTE

also E[X] + E[Y+] = E[X+Y]+E[Y~], woraus sich wegen (1.20.7) E[Y~] < oo und somit (1.20.3) ergibt. Wird statt (1.20.7) lediglich X G Ll angenommen, so folgt wegen (u + v)+ 0}] = oo oder E[X+I{Y < 0}j = oo. Aus E[X+I{Y > 0}] = oo ergibt sich E[(X + r ) + ] > E[(X + Y)+I{Y > 0}] > E[X+I{Y > 0}] = oo. Aus E[X+I{Y < 0}] = oo folgt aufgrund von (u - v)+ > u+ - v,

(1.20.9)

E[(X + Y)+]

u G S+, v G H+

> E[(X + Y)+I{Y < 0}] = E[(X -Y~)+I{Y < 0}] + > E[X I{Y < 0}] - E[Y~I{Y

< 0}] = oo.

Gilt E[X] = E[Y] = -oo, so betrachte man -X,-Y. (c) ist eine einfache Konsequenz aus (b). (d) Sei X < Y f.s. Die Ungleichung E[X] < E[Y] gilt ersichtlich, falls X G L1 und Y & L1 oder falls X & L1 und Y G L1. Im folgenden sei also X G L1 und Y G L1. Wegen der u-Subadditivität von P ergibt sich aus P(X < Y) > 0 die Existenz von Zahlen a < b derart, daß für A := {X < a < b 0 gilt. Wegen X = YI{X

= F } + XI{A) + XI{{X

< Y} \ A)

f.s.

erhält man mit Hilfe von (b) und (1.17.3) E[X]

= E[YI{X = Y}] + E[XI{A)} + E[XI{{X 0, so ist P(-|A) ein W.-Maß auf A. Ist X eine NZV, deren EW bez. existiert, so schreiben wir Jn (bedingter EW von X — gegeben A).

falls P(A) > 0

4.1. DEFINITION

127

1.21 Satz. Sei X eine NZV, deren EW existiert. (a) Gilt für ein A e A P(A) > 0, so existiert der EW von X bez. P(-|4), und (1.21.1)

E[X\A] =

E[XIa]/P(A).

(b) Gelte zusätzlich X > 0. Ist (A„) C A oder ab zählbare Zerlegung von fi, so folgt (1.21.2)

E[X] =

(n = 1 , 2 , . . . ) eine endliche

Y^E[X\Ai]P(Ai). i

(Ist P{Ai) = 0, so wird E[X\Ai]P(Ai) = 0 gesetzt.) 1.22 Bemerkung. Die Beziehung (1.21.2) ist eine Verallgemeinerung des Satzes von der totalen Wahrscheinlichkeit (Satz 5.1[1]), der sich aus (1.21.2) für X = I(B) (B e A) ergibt. • BEWEIS VON SATZ 1.21. (a) Gilt X = I(B) für ein B e A, so folgt wegen (1.20.10) E[X\A] L 1 1 = P(B\A) K 1

'

=

P(A)

= Ä

M P(A)

=

P{A)

Folglich gilt (1.21.1) für beliebige elementare ZV X. Mit Hilfe des Approximationssatzes und des Satzes von der monotonen Konvergenz ergibt sich (1.21.1) für beliebige NZV X > 0. Existiert E[X], so folgt mit Hilfe von Korollar 1.16(a), daß E[X\A] existiert und (1.21.1) gilt. (b) Da X = XI(Ai) + XI(A2) + •••, impliziert Satz 1.8(a) E[X] = E[XI(A!)] +E[XI{A2)] + •••, woraus sich (1.21.2) mit Hilfe von (1.21.1) ergibt (gilt P{Ai) = 0, so folgt wegen Satz 1.17(c) E[XI{Ai)] = 0). • 1.23 Bemerkung. Der Beweis von Satz 1.21(a) zeigt, daß es reicht, (1.21.1) für Indikatorfunktionen zu beweisen ! In der Tat, beide Seiten in (1.21.1) hängen linear von X ab. Gilt also (1.21.1) für Indikatorfunktionen, so auch für elementare ZV. Wird anschließend die Anwendung des Approximationssatzes mit der Anwendung des Satzes von der monotonen Konvergenz kombiniert, so liefert dies die Gültigkeit von (1.21.1) für beliebige NZV X > 0. Wir nennen dieses Beweisschema im folgenden auch Standardapproximation.



1.23.1 Beispiel. Die Spieler Eduard („Eins") und Norbert („Null") spielen eine Folge von Glücksspielen, wobei sie eine UIV-Folge von ZV , £21 - - beobachten derart, daß £1 ~ BER(p). Es gelte 0 < p < 1 und es sei q := 1 -p. Eduard verbucht die n-te Runde (n > 1) für sich, falls = 1; gilt hingegen £ n = 0, so geht die n-te Runde an Norbert. Gewonnen hat derjenige Spieler, der als erster zwei aufeinanderfolgende Runden für sich verbuchen kann. Ist X die Anzahl der dafür zu spielenden Runden, so gilt also (1.23.1)

X = min{n > 2 : £ n = f n _ i } .

128

4. ERWARTUNGSWERTE

Zur Berechnung von E[X] sei A„ := {£n = 1}, n > 1. Wegen Satz 1.21(b) gilt (1.23.2)

E[X] = pE[X\A{\

+

qE[X\A\}.

Da A1;A2 unabhängig sind, folgt wegen Satz 1.21(a) E[X\A{\

= pElXlAx n A2] + qE[X\Ai D Ac2],

Tritt Ai (IA2 ein, so folgt X = 2; tritt A\ fl A\ ein, so ist dies im Hinblick auf die Berechung des EW von X gleichbedeutend damit, daß die erste Runde an Norbert geht und X durch X + 1 ersetzt wird. Somit ergibt sich E[X\Ai\'= 2p + 9(1 + E[X\A{]), also (1.23.3)

+ qE[X\Ac1}.

E[X\A1] = l+p

Ähnlich folgt (1.23.4)

E[X| J 4i] = l + g + pE[X|A 1 ].

Aus (1.23.3), (1.23.4) ergibt sich 2 4-n2 E[X\A1}

= ^ ~ 1 -pq

und

E[X\A{} =

2 + n2

^ ~ . 1-pq

Einsetzen in (1.23.2) liefert (1.23.5)

E[X] =

1

-pq

2

Wegen pq = 1/4 — (p — 1/2) wird E[X] maximal für p = 1/2, und dann ist E[X] = 3. Eine direkte Berechnung von 2?[X], die nicht (1.23.2) benutzt, ist ziemlich mühsam ! • Wir zeigen nun mit Hilfe von EW, daß zu einer beliebigen Familie von NZV eine NZV existiert, die eine Verallgemeinerung des gewöhnlichen Supremums bildet. Genauer sei J ^ 0 eine Indexmenge und Xa (a € J) eine NZV. Ist J höchstens abzählbar, so ist (1.23.6)

Y

:= supX a

[Y{UJ) \

AEJ

= supXQ(o;),

U

6 ft)

a€J

)

eine NZV. Dies gilt jedoch i. a. nicht mehr, falls J nicht höchstens abzählbar ist (vgl. Beispiel 1.24.1). Die NZV Y in (1.23.6) wird durch die folgenden beiden Eigenschaften chaxakterisiert: (I) Es gilt (1.23.7)

y ( u ) > Xa{u)

für alle w e ü und a e J.

(II) Ist Z eine NZV derart, daß (1.23.8)

Z{UJ) > XA(U)

für alle w 6 i ] u n d a £ j ,

so folgt (1.23.9)

Z{u) > Y(u)

für alle w e i l .

4.1. DEFINITION

129

Bemerkenswert ist nun: Verlangt man, daß die Ungleichungen in (1.23.7)(1.23.9) lediglich fast sicher gelten (wobei die Ausnahmemengen in (1.23.7), (1.23.8) von a abhängen dürfen), so existiert für beliebige Indexmengen J eine NZV Y mit den gewünschten Eigenschaften. Genauer gilt folgendes Resultat, das später in §9.3 benötigt wird: 1.24 Satz. Sei M = {Xa : a £ J } eine beliebige Familie von NZV, die auf einem gemeinsamen W.-Raum ( f i , A, P) definiert sind. (a) Es existiert eine NZV Y (Bezeichung: Y =: ess sup(A^)) mit den folgenden beiden Eigenschaften: (1.24.1)

Y > Xa

f.s., a € J;

Z > Xa

f.s.,

gilt für eine NZV Z (1.24.2)

a(EJ,

so folgt (1.24.3)

Z >Y

f.s..

Y ist durch diese beiden Eigenschaften f.s. eindeutig bestimmt. (b) Es existiert eine Folge ( X a ( n ) ) C M {a(n) € J,n = 1 , 2 , . . . ) derart, daß (1.24.4)

ess sup(AI) = supX a ( n )

f.s.

n>l

(c) Zusätzlich gelte, daß zu je zwei Indizes a,ß £ J ein 7 € J existiert derart, daß (1.24.5)

X 7 > Xa V X0

f.s.

In diesem Fall läßt sich die Folge (X a ( n )) in (b) so wählen, daß sie f.s. wächst, d. h. P(Xa{n+1) > Xa(n), n > 1) = 1 gilt, und dann ist (1.24.6)

ess sup(A'i) = lim

v

n-voo

'

f.s.

Die NZV ess sup(Al) =: ess sup a g J Xa in Satz 1.24 heißt wesentliches Supremum der Familie M. BEWEIS VON SATZ 1.24. Im folgenden sei J unendlich. Wir betrachten zunächst den Spezialfall (1.24.7)

Xa : Ü —• [-1,1],

aeJ.

(a) Sei A(J) die Familie aller abzählbaren Teilmengen von J, und für H G A{J) sei (1.24.8)

YH := sup XA a€H

(gewöhnliches Supremum wie in (1.23.6)!). Setzen wir (1.24.9)

E:=

sup

HeA(j)

E[YH],

130

4. ERWARTUNGSWERTE

so existiert eine Folge

(H(n))

C

A ( J )

(n

> 1) derart, daß

E = supE[yJi(n)]. n>l

Da für

H(0)

:=

U•••

H ( 1 ) U H ( 2 )

(1.24.10)

H(0)



A ( J )

gilt (wieso ?), folgt ersichtlich

S = E[Yh{ o)].

Zeigen wir, daß Y := Yh(o) die in (a) genannten Eigenschaften hat. Gilt für ein 7r e J P { X n > Y H { 0 ) ) > 0, so folgt für K := H{0) 'J {tt} K € A { J ) , Y K > Yh(o) sowie P(Yk > Y f f ( 0 ) ) > 0, so daß wegen (1.24.7) und (1.24.10) E[YK] > E Y i H(o)] = S. Dies widerspricht (1.24.9). Somit ist (1.24.1) erfüllt. Gilt für eine NZV Z (1.24.2), so folgt Z > YH{0) f.s. Schließlich ist klar, daß Y durch die genannten Eigenschaften f.s. eindeutig bestimmt ist. (b) Sei (1.24.11)

H{ 0) = {/3(l),/?(2),...}.

Dann gilt ersichtlich (1.24.4) für a(n) := ß(n), n > 1. (c) Im Hinblick auf (1.24.11) definieren wir Indizes a(n) € J (n > 1) induktiv wie folgt: Sei a ( l ) := /3(1). Sind für ein n > 1 die Indizes q ( 1 ) , . . . ,a(n) bereits definiert, so existiert wegen (1.24.5) ein Index a(n + 1) € J derart, daß X a ( n + 1 ) > V f.s. Dies impliziert für n > 1 X a ( n + 1 ) > Xa(n) f.s. und Xa(n) > Xß(n) f.s., woraus sich wegen (a) Yh(o) < n—>oo lim v

y

< ess sup(A'i)

'

f.s.

und somit (1.24.6) ergibt. Folglich sind (a) - (c) bewiesen, falls zusätzlich (1.24.7) gilt. Sind Xa(a € J) beliebige NZV, so betrachte man die (auf K. stetige !) strikt wachsende Abbildung

t := (2/tt) arctan : R — > [ - 1 , 1 ] , wobei (—oo) auf die ZV

:= —1 und X

a

:=

4>(oo)

(¡>{Xa)

1, und wende das soeben Bewiesene an

:=

: fi —>• [-1,1],

a e J .

• 1.24.1 Beispiel. Sei fi = [0,1], P = Leb und J € V(il) \ Tl ([0,1]). Setzen wir X a = I{a}, a G J , so ist sup X

Q

=

IJ

a€ J

nicht Borel-meßbar. Da Xa = 0 f.s. {a e J), folgt für M := {Xa : a € J} (1.24.12)

ess sup(A^) = 0

f.s.

4.2. STETIGKEITSEIGENSCHAFTEN DES ERWARTUNGSWERTES

131

4.2 Stetigkeitseigenschaften des Erwartungswertes Seien X,X\,X2,.. • integrierbare NZV derart, daß die Folge (Xn) in einem gewissen Sinne gegen X konvergiert. Von großem Interesse sind dann Bedingungen, unter denen (2.0.1)

lim E[Xn] = E[X]

gilt. Die Beziehung (2.0.1) besagt dann, daß der Erwartungswert bez. der betrachteten Art der Konvergenz „stetig" vom Integranden abhängt, oder auch: Erwartungswert- und Limes-Bildung sind miteinander vertauschbar. Wir betrachten zunächst integrierbare NZV X, Xi, X^,..., für die Xn —• X f. s. gilt. Um eine hinreichende Bedingung dafür zu erhalten, daß E[Xn] —> E[X], benötigen wir die Aussage (a) des folgenden Resultats, die auch Lemma von Fatou heißt. 2.1 Satz, (a) Für beliebige NZV Xn > 0 (n > 1) gilt (2.1.1)

E [lim inf X B 1 < l i m i n f M X J . L n—>oo

J

n-foo

(b) Sind X > 0 und Xn > 0 (n > 1) NZV derart, daß (2.1.2)

lim Xn = X

n—»oo

f.s.,

so folgt (2.1.3)

E[X} < lim inf E[Xn] < sup£[X„], "->0° n>l

Gilt zusätzlich (2.1.4)

supi;[X n ] < oo, n>l

so ist X integrierbar. BEWEIS, (a) Wegen Satz 1.17[2] ist Xoo := lim inf X„ eine NZV. Setzen n—>oo wir Yn = inf Xm (n > 1), so gilt 0 < Y1 < Y2 < • • • , Yn < Xn (n > 1) und m>n YN(U>)

—> X^o(OJ), UJ £ Q. Mit Hilfe des Satzes von der monotonen Konvergenz und Satz 1.5(h) ergibt sich also ElXoo] = E [ lim Yn 1 = lim E[Yn] < lim inf E[Xn]. Ln—>oo

J

n-voo

n->oo

(b) Für 0 := {u € tl : Xn(w) ->• X(w)} gilt wegen (2.1.2) P(Ü) = 1 und (XnI(ü))(u}) {XI( n))(w) (n - ) o o ) , u i ii. Aufgrund von Satz 1.5(f) und (2.1.1) folgt also E[X]

=

E[XI{Ü)] =


oo

E[nlim)XnJ(n)] = lim inf E[Xn], n-foo

woraus sich (2.1.3) ergibt. Das folgende Beispiel zeigt, daß die Ungleichung (2.1.1) i.a. strikt ist.



132

4. ERWARTUNGSWERTE

2.1.1 Beispiel. Sei ü = [0,1] und P das Lebesgue-Maß auf 7l([0,1]). Für n > 1 sei -X"2n-1 :=

(4n

- 2)7[o,i/2],

X2n •=

4n/]1/2,1],

so daß E[Xn] = n (n > 1) und lim inf Xn = 0. Folglich gilt n—yoo Mlim inf Xn] = 0, und lim inf E[Xn] = oo. n—>oo

n-yoo

• Der folgende Satz von der dominierten Konvergenz (auch Satz von Lebesgue genannt) ist der Prototyp eines Resultats über die Vertauschbarkeit von Erwartungswert- und Limes-Bildung, falls der zugrundeliegende Konvergenzbegriff die fast sichere Konvergenz ist. 2.2 S a t z . Seien X,X1,X2>... NZV derart, daß (2.2.1)

Xn-±X

f.s.

und (2.2.2)

\Xn\ 1

für eine NZV Y £ L1 gilt. Dann folgt X G L1

(2.2.3) und (2.2.4)

E[X] = lim E[Xn). n—foo (Man vgl. Bemerkung 1.19(b).) BEWEIS VON SATZ 2.2. Aus (2.2.1) und (2.2.2) folgt < Y f.s., so daß X und Xn (n > 1) wegen Satz 1.15 integrierbax sind. Da (2.2.2) richtig bleibt, falls wir Y € L1 durch y / { | F | < oo} e L1 ersetzen, dürfen (und werden) wir im folgenden annehmen, daß (2.2.1) und die Ungleichungen (2.2.2) sowie 0 < Y < oo jeweils für alle u> € ii gelten. Da X+ = lim inf n—v oo folgt mit Hilfe des Fatou-Lemmas (2.2.5)

< luninf

Da Y - X + > 0 (n > 1), folgt wegen des Fatou-Lemmas und Satz 1.20(c) E[Y] - E[X+]

=

E[Y-X+]
oo

woraus sich wegen 0 < E[Y] < oo men mit (2.2.5) impliziert dies E[X~] und somit (2.2.4).

lim sup < E[X+] ergibt. Zusamn—yoo ->• E[X+], Ähnlich folgt E[X~] •

4.2. S T E T I G K E I T S E I G E N S C H A F T E N D E S E R W A R T U N G S W E R T E S

133

Das folgende Beispiel zeigt, daß man in Satz 2.2 die Annahme, daß für ein gewisses Y 6 L1 (2.2.2) gilt, nicht ersatzlos streichen kann. 2.2.1 Beispiel. Sei ÍI = [0,1] und P das Lebesgue-Maß auf 11 ([0,1]). Für 2 := n /]o,i/n] (n > 1) und X = 0 gilt dann XN(UJ) X(LJ), U € ü, so daß E[X] = 0 u¿d E[XN] = n (n > 1). • XN

Eine erste Anwendung des Satzes von der dominierten Konvergenz liefert folgendes Resultat, das Satz 1.17(a) ergänzt. Wir bezeichnen darin mit Cb(R) die Menge aller Funktionen / : IR —> 1R, die stetig und beschränkt sind. 2.3 Satz.

ZV

Für

(2.3.1)

X,

Y

gilt

X

E [ f ( X ) g ( Y ) } =

=

Y

f . s . genau

E [ f ( X ) g ( X ) ] ,

BEWEIS. Es ist klar, daß (2.3.1) Gelte (2.3.1). Sei M

=

{ M Z K

dann,

notwendig

: E [ I m ( X , Y ) ] = E [ I

2

wenn

C b (R).

f , g e

dafür ist, daß

m

X

=

f.s.

Y

( X , X ) ] } .

Mit Hilfe des Satzes von der monotonen Konvergenz erhält man, daß A4 ein Dynkin-System ist. Wir zeigen nun (2.3.2)

[o,6] x

[c,d\

e M ,

a < b ,

c < d ,

a , b , c , d e R .

Anhand einer einfachen Zeichnung überzeugt man sich leicht davon, daß es zu festen Zahlen a < b Funktionen fn G Cb(B.) (n > 1) mit folgenden Eigenschaften gibt: 0 < / „ < 1, fn(t) = 1, falls t G [a, 6], fn(t) = 0, falls t < a-l/n oder t > b + 1/n, sowie f n ( t ) I[a,b](t) (n oo), t € R. Ähnlich existieren zu Zahlen c < d stetige Funktionen g„ 6 Cb(K-) (n > 1) mit analogen Eigenschaften. Wegen (2.3.1) gilt dann E [/„(X)s„(y)] = E [ f n { X ) g n ( X ) ] (n > 1), woraus sich mit Hilfe des Satzes von der dominierten Konvergenz (2.3.2) ergibt. Da die Familie der kartesischen Produkte in (2.3.2) 72-2 erzeugt, folgt mit Hilfe des Satzes von Dynkin M. = 1Í2- Insbesondere erhält man also, daß M

:=

{(x,y) € R

2

: x ¿

y} € M ,

s o d a ß P{X

¿ Y )

=

P{X

¿ X )

=

0.

• Wir zeigen im folgenden, daß im Satz von der dominierten Konvergenz (2.2.4) unter schwächeren Voraussetzungen gilt. Einerseits reicht es statt (2.2.1) anzunehmen, daß die Folge (X„) c L1 in einem schwächeren Sinne gegen X e L1 konvergiert; andererseits läßt sich die Dominanz-Bedingung (2.2.2) abschwächen. Im folgenden setzen wir für eine Funktion / : Et —• R, (2.3.3) 2.4 Definition. (a) Gilt (2.4.1)

SF = {t £ R : / ist an der Stelle t stetig} . X , X

i f

X

2

, . . .

lim P (\Xn n—• oo

seinen ZV mit den VF -

X\

> c) = 0,

F,FI,F

c> 0

2

, ...

134

4. E R W A R T U N G S W E R T E

so sagen wir: Die Folge ( X n ) konvergiert stochastisch gegen X. Bezeichnung: (2.4.2)

Xn -»• X

(stochastisch).

(b) Gilt (2.4.3)

lim Fn{t) = F(t),

t e SF,

n—y oo

so sagen wir: (Xn) konvergiert schwach (oder in Verteilung) gegen X. Bezeichung: (2.4.4)

Xn

X

(schwach)

oder auch (falls X die Verteilung Q hat) (2.4.5)

Xn

Q

(schwach).

F

(schwach).

Statt (2.4.3) schreiben wir auch (2.4.6)

F„

• 2.5 Satz. Für beliebige ZV X,XUX2,... (2.5.1)

Xn^X

f.s.

Xn

Xn -> X

(stochastisch)

gilt X

(stochastisch)

und (2.5.2)

X

n

X

(schwach).

2.5.1 Beispiel. I.a. gilt nicht die Umkehrung von (2.5.1). Dazu sei ii = [0,1], P das Lebesgue-Maß auf Tl ([0,1]), X = 0 sowie Xx = /]0,i/2]> x2 = ^]l/2,l]>

X

3

=

^0,1/3] i X i

= -fjl/3,2/3]) X & = ^ 2 / 3 , l ] i X6

=

/]0,1/4], . . • , Xg

=

J13/4 n , . . . Man sieht leicht, daß Xn -> X (stochastisch) und liminf Xn = 0 ' '

' '

n—>00

sowie lim sup Xn = 1 gilt. n—>00



2.5.2 Beispiel. I.a. gilt nicht die Umkehrung von (2.5.2). Dazu seien fi und P wie im vorigen Beispiel definiert. Die ZV X := ij0,1/2] und Xn := I] 1/2,1] > 1) haben dieselbe Verteilung, so daß Xn —^ X (schwach), während für 0 < c < 1 P (|X n - X\ > c) = 1, n > 1. • Die Implikation (2.5.1) ist eine unmittelbare Folgerung aus (2.4.1) und 2.6 Satz. Für ZV X,Xi,X2,... gilt Xn X f.s. genau dann, wenn (2.6.1)

lim P ( sup \Xm - X\ > c ) = 0, \m>n

J

A := {jJ £ fi : Es gilt nicht

Xn(u)

c > 0.

BEWEIS. Sei und An(c) := | sup \Xm - X\ > c l , I. m > n

J

n > 1, c > 0.

4.2. S T E T I G K E I T S E I G E N S C H A F T E N D E S E R W A R T U N G S W E R T E S

135

Wegen A\{c) D ^ ( c ) D • • • ist (2.6.1) äquivalent zu (2.6.2)

P ^ f | A . ( l / f c ) ^ =0,

fe>l.

Es ist nun einfach zu sehen, daß oo oo f|^n(l/fe). k=l n=l

A={J

(2.6.3)

Gilt nämlich etwa lj G A, SO existiert ein k > 1 derart, daß \Xm{u)) - X ( w ) | > L/k für unendlich viele M > 1 ist. Dies zeigt UJ € Ai(l/h) fl A2(l/k) n • • •. Ähnlich sieht man, daß die Menge auf der rechten Seite in (2.6.3) eine Teilmenge von A ist. Aus (2.6.2) und (2.6.3) folgt wegen der u-Subadditivität von P P(A) = 0, d.h. Xn X f.s. Gilt P(A) = 0, so folgt wegen (2.6.3) ersichtlich (2.6.2). • BEWEIS VON SATZ 2.5. Wie bereits bemerkt, folgt die Implikation (2.5.1) aus (2.4.1) und Satz 2.6. Zum Beweis von (2.5.2) seien F,FUF2,... die VF der ZV X,Xi,X2, Es gelte Xn

(2.6.4)

X

(stochastisch).

Dies impliziert limsupF n (t) 0

und liminf F n ( i ) > F(t — c), t G E , c > 0. n-»oo

(2.6.6)

Zum Nachweis von (2.6.5) beachte man, daß für t G R und c > 0 wegen (2.6.4) Fn(t)

=

P ( X

n

< t ,


c)

< t + c)

+ P ( X

(n

n

< t ,

\X-Xn\ 0) l i m s u p Fn (t) 0) liminf Fn(t) > F(t). n—>oo Damit ist F„ -t F (schwach) gezeigt.



Mit Hilfe des Satzes von der dominierten Konvergenz ergibt sich folgendes Kriterium für schwache Konvergenz:

136

4. ERWARTUNGSWERTE

2.7 Satz. X,X!,X2,... (a) Es gilt

seien ZV.

(2.7.1)

Xn -> X

(schwach)

genau dann, wenn (2.7.2)

E [/i(Xn)] -> E [h(X)\,

(b) Es gelte (2.7.1). Isth:R (2.7.3)

h e Cb(R).

—> R Borel-meßbar und gilt

P(X#Sh)

= 0,

so folgt (2.7.4)

h(Xn)->h(X)

(schwach).

Ist h zusätzlich beschränkt, so gilt (2.7.5) E[h(Xn)]^E[h(X)]. Man kann zeigen, daß für jede Abbildung h : 1R —> IL Sh G 'R. gilt. Im Beweis von Satz 2.7 benutzen wir folgenden Satz von Skorochod, der später bewiesen wird: 2.8 Satz. Seien X,XUX2,... ZV derart, daß Xn^X

(2.8.1)

(schwach).

Dann existiert ein W.-Raum (Q,A,P) und ZV Y,Yi,Y2, . • • auf (fi,A,P) derart, daß Y und X sowie YN und Xn (n > 1) jeweils dieselbe Verteilung haben und (2.8.2)

Yn(u)

Y(u)

(n

oo), w € fi.

2.9 Bemerkung. Manche Konvergenzresultate werden zunächst unter der Annahme bewiesen, daß eine gewisse Folge (X n ) von ZV f.s. gegen eine ZV X konvergiert. Mit Hilfe des Satzes von Skorochod ergibt sich dann, daß das betrachtete Konvergenzresultat u. U. richtig bleibt, falls lediglich X n —• X (schwach) angenommen wird. • BEWEIS VON SATZ 2.7. (a) Gelte (2.7.1) und sei h e C b (R). Für die ZV Y, Yi,y 2 ,... in Satz 2.8 ergibt sich aufgrund des Satzes von der dominierten Konvergenz f h(Yn) dP -» f h(Y)dP = E[h(X)], Jü Jn so daß (2.7.2) gilt. Gelte umgekehrt (2.7.2) und seien t e E und c > 0 fixiert. Es ist leicht zu sehen (Zeichnung !), daß es Funkionen /t)C, gt E[fUc(X)]

> F(t - c),

4.2. STETIGKEITSEIGENSCHAFTEN DES ERWARTUNGSWERTES

137

während sich für h = gt,c (2.9.2)

limsup Fn{t) < Efat.cPO] < F(t + c) n—>oo

ergibt. Für ein t € SF folgt aus (2.9.1) und (2.9.2) für c -K0(c > 0) Fn(t) F(i), so daß (2.7.1) gilt. (b) Aus (2.7.3) folgt P(Y Sh) = 0 und somit h{Yn) h(Y) f.s. Wegen Satz 2.5 impliziert dies h(Yn) ->• h{Y) (schwach), so daß ersichtlich (2.7.4) gilt. Ist h zusätzlich beschränkt, so erhält man mit Hilfe des Satzes von der dominierten Konvergenz E [/i(Y„)] -> E[h(Y)], woraus sich (2.7.5) ergibt. • Zum Beweis von Satz 2.8 benötigen wir folgendes Resultat (QuantilFunktionen wurden in Definition 2.7[2] eingeführt): 2 . 1 0 L e m m a . Seien F,F1,F2,... die V F der ZV X,Xi,X2)... zugehörigen Quantil-Funktionen F _ 1 , FJ _1 , F 2 _ 1 , • • • Aus

(2.10.1)

Xn

X

mit den

(schwach)

folgt

(2.10.2)

lim

F-1(t)=F-1(t)

n-voo

für jede Stetigkeitsstelle

(2.10.3)

t e]0,1[ von F _ 1 .

BEWEIS. Aus (2.10.1)1 ergibt sich liminfFr ^) > F_1(i) n—>00

0x> F _ 1 ( i ) - e, n—>oo so daß (2.10.3) gilt. Zum Nachweis von (2.10.4) sei 0 < t < u < 1. Sei x e SF derart, daß F~l(u) < x < F _ 1 (w) + e. Ähnlich wie zuvor ergibt sich limsupF~ 1 (i) < x < F - 1 ( u ) + e, n—>oo

so daß (2.10.4) gilt. Aus (2.10.3), (2.10.4) folgt die Gültigkeit von (2.10.2), falls F~x an der Stelle t e]0,1[ stetig ist. • BEWEIS VON SATZ 2.8. Sei fi =]0,1[, Ä = ^(]0,1[), P = LebesgueMaß und gelte £(u>) = w, w 6 ß. Dann ist £ gleichverteilt auf fi. Seien F , F i , F 2 , . . . die VF von X,XUX2,... Setzen wir Y(LO) = F" 1 (^(w)) = F - 1 (W), Yn(oj) = F'1 (I(W)) = F " 1 (u),Lje h, so haben die Z VY,YltY2,...

138

4. ERWARTUNGSWERTE

wegen Satz 2.8[2] die VF F,FUF2,... Sei M C 0 die Menge der Stetigkeitsstellen von F - 1 . Wegen der Monotonie von F - 1 ist ii \ M höchstens abzählbar, so daß = 0. Wegen Lemma 2.10 folgt aus (2.8.1) F-^w) und V„ := YnI(M)(n ten.

€ M, d.h. Yn(tü) ->• Y{u),u € M . Die ZV Y := YI{M) > 1) haben somit die in Satz 2.8 genannten Eigenschaf•

2.11 Korollar. Seien X,Xi,X2,... Dann folgt (2.11.1)

ZV derart, daß Xn

X

(schwach).

E [|X|] < liminf E [|X„|], n-+oo

so daß insbesondere gilt: (2.11.2)

supF[|Jf n |] < oo

X £ L1.

n>l

BEWEIS. Für die ZV Y,Yi,Y2,... Lemmas von Fatou F[|X|]

in Satz 2.8 ergibt sich wegen des

=

F [ | y | ] = F [ l i m |F n |]


oo

J

n-voo

• Es zeigt sich (vgl. Satz 2.20), daß sich im Satz von der dominierten Konvergenz die Dominanz-Bedingung (2.2.2) ersetzen läßt durch die schwächere Annahme, daß die ZV X\,X2,... „gleichmäßig integrierbar" im Sinne der folgenden Definition sind. 2.12 Definition. Eine Familie M von ZV, die auf einem gemeinsamen W.Raum (fi, A, P) definiert sind, heißt gleichmäßig integrierbar, falls zu jedem e > 0 eine Zahl a(e) > 0 existiert derart, daß (2.12.1)

E [|X|/{|X| > a(e)}] < e,

X € M.

2.13 Satz. Eine Familie M von ZV ist genau dann gleichmäßig integrierbar, falls (2.13.1)

sup E [|X|] < oo X€M

und es zu jedem e > 0 eine Zahl S(e) > 0 gibt derart, daß für alle A E A gilt: (2.13.2)

P(A) < S(e)

E [\X\IA] < e ßr alle X € M.

BEWEIS. Gelte (2.13.1), (2.13.2) und sei c der Wert des Supremums in (2.13.1). Sei e > 0 gegeben und o(e) := (2c 4- l)/ \X\I {\X\ > o(e)} > a(e)I {|X| > a(e)}

4.2. STETIGKEITSEIGENSCHAFTEN DES ERWARTUNGSWERTES

139

folgt dann P ( | * | > a(e)) < (a(e))" 1 E [\X\] < (a(e))" 1 c < S(e)/2, so daß wegen (2.13.2) für X e M E[|X|/{|X| > a(e)}] < e ist. M ist also gleichmäßig integrierbar. Sei umgekehrt M gleichmäßig integrierbar. Dann folgt wegen (2.12.1) für ein X e M E[\X\) = E [\X\I{\X\

< a(l)}] + E [\X\I {\X\ > o(l)}] < a(l) 4- 1,

so daß (2.13.1) gilt. Zum Nachweis von (2.13.2) sei e > 0 gegeben. Wegen (2.12.1) existiert eine Zahl a(e/2) > 0 derart, daß E[\X\I{\X\ > o(e/2)}] < e/2, X e M . Für Ä(c) := e/(2a(e/2)) folgt dann aus P{A) < 6(e) für alle XeM E[\X\I(A)}

=

E[\X\I(An{\X\>a(e/2)})} +E[\X\I(An{\X\a(e/2)}} + a(e/2)P(A) e/2 + a(e/2)ef (2a(e/2)) .= e,

so daß (2.13.2) gilt.



2.14 Satz. Sei M eine Familie von TN, die auf einem gemeinsamen Raum definiert sind. (a) Gilt für ein 1 < p < oo

W.-

sup E[\X\P] < oo,

(2.14.1)

xeM

so ist M. gleichmäßig integrierbar. (b) Existiert eine ZV Y G L1 derart, daß (2.14.2)

< Y

f . s X e M ,

so ist M. gleichmäßig integrierbar. (c) Sei X G L1. Dann existiert zu jedem e > 0 ein 6 — 6(e) > 0 derart, daß für alle A € A gilt: (2.14.3)

P(A) < S(e)

E [\X\IA] < e.

BEWEIS, (a) Sei e > 0 gegeben. Bezeichnet c das Supremum in (2.14.1), so gilt für a := ((2c + l ) / e ) 1 / ( p _ 1 ) und X € M E[\X\I{\X\

>a}]

=

£[|X|-i"-1)|X|"J{|*|>a}] ^a-i'-^JSlIXH


0 gilt wegen (2.14.2) £ [ | X | J { | * | > a}] < E [|F|/ {|y| > a}]. Da aufgrund des Satzes von der dominierten Konvergenz E [ j y j / {¡y| > a}j 0 (a oo), ist M gleichmäßig integrierbar. (c) folgt aus (b) und Satz 2.13. •

140

4. ERWARTUNGSWERTE

2.15 Bemerkungen, (a) Aus der Gültigkeit von (2.14.1) für p = 1 folgt i.a. nicht die gleichmäßige Integrierbarkeit von M. In der Tat, sei ü = [0,1], A = 7Z([0,1]) und P das Lebesgue-Maß. Für Xn : = n/[0)i/„] (n > 1) gilt dann E[|X„|] = 1 (n > 1), und für o > 0 ergibt sich E[\Xn\I{\Xn\ > a}] = E[X n ] — 1, n > a, so daß (Xn) nicht gleichmäßig integrierbar ist. (b) Ist eine Folge ( X n ) von ZV gleichmäßig integrierbar, so existiert i.a. keine integrierbare ZV Y derart, daß die Dominanz-Bedingung (2.14.2) erfüllt ist. In der Tat, sei fi = [0,1], A = 7£([0,1]), P =Lebesgue-Maß und Xn := an^]o,i/n]i n > 1, wobei a n := n / l o g ( n + l ) , n > 1. Die Folge ( a n ) ist monoton wachsend, so daß sich ergibt (Zeichnung !): supX n = ^afc/ji/^+i),!/*]. k=l Wegen Satz 1.8(a) folgt also E

supX n

,n> 1

= f > p ( ] i / ( f c + i),i/*]) =

£ -

=

00

(vgl. Beispiel 1.10), so daß es kein Y £ L1 gibt, für das (2.14.2) gilt. Andererseits ergibt sich für a > 0 und e > 0 E[\Xn\I{\Xn\

> o}] < E[Xn]

= an/n

< e,

n>

n0(e),

so daß { X n ) wegen Satz 2.14(c) gleichmäßig integrierbar ist.



2.16 Satz. Die ZV Xn € L (n > 1) seien identisch verteilt Xi + 1- Xn (n > 1). Dann ist die Folge (Sn/n) gleichmäßig 1

und Sn := integrierbar.

BEWEIS. Da |Sn| < |Xj| + • • • + |X„|, dürfen (und werden) wir im folgenden Xn > 0 (n > 1) annehmen. Ersichtlich gilt (2.16.1)

E -SnI n

{-S Iv n

n

> a l l = - V -- E [XJ {Sn > a n } ] , IJ n r ' ' i=i

Sei e > 0 gegeben und ¡j,

a > 0.

Zur Abschätzung der Summanden in

(2.16.1) beachte man, daß wegen Satz 2.14(c) ein c > 0 existiert derart, daß (2.16.2)

E [XnI { X n > c}] < e/2,

n > 1.

Weiter benutzen wir die Ungleichung (2.16.3)

anP(Sn

> an) < E[Sn] = ßn,

a>

0,

die sich aus Sn > SnI {Sn > an} > anI{Sn > an}, a > 0, ergibt. Für a > 2c/i/e und 1 < i < n erhält man dann aufgrund von (2.16.3) und (2.16.2) E [XJ {Sn > an}]

=

E [XJ ( { X { < c} fi {Sn > an})] +E[XiI({Xi

> c} n {Sn > an})]


an) + E [XJ


1,

> c}]

4.2. STETIGKEITSEIGENSCHAFTEN DES ERWARTUNGSWERTES

141

so daß wegen (2.16.1) < e,

2.17 Satz. Die ZV X,X\,X2,... (2.17.1)

a > 2c/x/e,

n > 1.

seien integrierbar. Gilt

£[|Xn-X|]0

(n

oo),

so ist die Folge (Xn) gleichmäßig integrierbar. (Man beachte, daß aus (2.17.1) folgt: E[Xn] ->• E[X].) BEWEIS VON SATZ 2.17. Sei e > 0 gegeben. Wegen (2.17.1) existiert eine Zahl no(e) > 1 derart, daß (2.17.2)

E[\Xn-X\]n0(e).

Wegen Satz 2.14(c) existiert eine Zahl S(e) > 0 derart, daß (2.17.3)

P(A) < S(e)

E

< e/2,

AeA.

Aus (2.17.1) folgt ersichtlich K := s u p £ [ | X n | ] < oo, n>l so daß aufgrund der Abschätzung |X n | > al {|X„| > a} (a > 0) (2.17.4)

P (|X n | >a) K/S{e), n > 1.

Für a. > K/6(e) und n > n 0 (e) ergibt sich also aus (2.17.2)-(2.17.4) E[\Xn\I{\Xn\>a}}


o}] + £ [|X|7{|X„| > a}]


a>] < e (1 < n < n 0 (e)) gilt. • Der Bedingung (2.17.1) liegt ein weiterer Konvergenzbegriff zugrunde: 2.18 Definition. Die ZV X, Xi,X2, ••• seien integrierbar. Wir sagen, die Folge ( X n ) konvergiert in L1 (oder im Mittel) gegen X, falls (2.17.1) gilt. Wir schreiben dann" (2.18.1)

Xn^X

in L1

oder auch (2.18.2)

lim X = X «-•00 n

in L1.

• Das nächste Resultat — im folgenden ebenfalls Lemma von Fatou genannt — verallgemeinert Satz 2.1 und führt zu einer Verallgemeinerung des Satzes von der dominierten Konvergenz.

142

4. ERWARTUNGSWERTE

2.19 Satz. Seien XUX2)...

NZV.

(a) Gilt für eine ZV Z e L1 (2.19.1)

Xn>Z

f.s.,n>

1,

so existiert der EW von lim inf Xn, und es folgt n—>oo (2.19.2)

E [liminf Xn] < liminf E[Xn}. L n—*oo J n—»oo 1 (b) Gilt für eine ZV Z € L

(2.19.3)

Xn < Z

f . s n > 1,

so existiert der EW von lim sup Xn, und es folgt n—* oo (2.19.4)

lim sup n—¥oo

< E lim sup Xn n-*oo

(c) Ist die Folge (Xn ) gleichmäßig integrierbar und existiert der EW von lim inf Xn, so folgt (2.19.2). n—y oo (d) Ist die Folge (X+) gleichmäßig integrierbar und existiert der EW von lim sup Xn, so folgt (2.19.4). 71-+00 BEWEIS. Wegen Satz 1.17(a) dürfen (und werden) wir im folgenden annehmen, daß die Ungleichungen (2.19.1) und (2.19.3) jeweils für alle u) € fl gelten. (a) Setzen wir X^ = lim n—>inf oo Xn, so folgt wegen (2.19.1) X^ > Z, so daß der EW von Xoo wegen X^ < Z e L1 existiert. Setzen wir wie im Beweis von Satz 2.1(a) Y„ = m>n inf Xm, n > 1, so folgt wegen (2.19.1) 0 1) und für n —> oo

liminf m—>oo (X m (w) - Z(u>)) = X^UJ) - Z(ui),

u e Q.

Mit Hilfe von Satz 1.20(b) und des Satzes von der monotonen Konvergenz erhält man also £[Xoo]-£[Z]

=

E[Xoo — Z]= e \ lim (Yn — Z)1 Ln—•oo

J

=

lim E [Yn -Z]< lim inf E[Xn] - E[Z], n-too n—¥oo woraus sich wegen E[Z] € 1R, (2.19.2) ergibt. (b) folgt aus (a) — angewandt auf (—X n ). (c) Setzen wir b(m) = s u p E [ X ~ / { X ~ > m}], m > 1, so folgt aufgrund n>l

der gleichmäßigen Integrierbarkeit der Folge (X~) (2.19.5)

b(m)

b(m) < oo (m > 1) und

0.

Wegen s > —s~ (s 6 Et) erhält' man E [.XnI{X~

> m}] > -E [X-I{X~

> m}] > -b(m),

m,n>

1

4.2. STETIGKEITSEIGENSCHAFTEN DES ERWARTUNGSWERTES

143

und XnI{X~

-X~I{X~

-mI{X~

< m},

m,n > 1,

so daß aufgrund von Satz 1.20(b) (2.19.6)

E[Xn] = E [XnI{X~

>m}]+E

[XnI{X~

< m}] ,

m,n>

1.

Anwendung von (a) auf die Folge ( X n I { X ~ < m}) (bei festem m > 1) führt wegen (2.19.6) zur Abschätzung lim inf E\Xn]

>

-b(m) + lim inf E [XnI{X~

< m}]

>

—b(m) + E [lim inf XnI{X~

< m}l .

L 71—VOO

J

Nun gilt XnI{Xn Xn, m,n > 1 (man betrachte die Fälle Xn und X~ > m), so daß wegen Satz 1.17 lim inf E[Xn] > -b(m) + E [lim inf X n l , n—^oo

L n—>oo

J

< m

m > 1.

Mit Hilfe von (2.19.5) ergibt sich hieraus (2.19.2). (d) folgt aus (c) — angewandt auf (—Xn). • Das folgende Resultat verallgemeinert den Satz von der dominierten Konvergenz. 2.20 Satz. Seien X,Xi,X2,... ZV derart, daß (2.20.1)

Xn

X

(schwach).

Ist die Folge (Xn) gleichmäßig integrierbar, so gilt X G L1

(2.20.2) und (2.20.3)

E[X} = lim

n—>oo

E[Xn).

BEWEIS. Aufgrund von Korollar 2.11 und Satz 2.13 ergibt sich (2.20.2). Wir beweisen (2.20.3) zunächst unter der Annahme (2.20.4)

Xn

X

f.s.,

die wegen Satz 2.5 stärker als (2.20.1) ist. Wegen X~ < \Xn\, X+ < |-Xn| in > 1) sind die Folgen (X~) und (X+) gleichmäßig integrierbar, da (X n ) gleichmäßig integrierbar ist. Mit Hilfe von Satz 2.19(c), (d) folgt also aus (2.20.4) lim inf E[Xn] >E[X}> "-•"O

lim sup E[Xn], n—voo

so daß (2.20.3) gilt. Sei nun (2.20.1) anstelle von (2.20.4) erfüllt. Das soeben bewiesene Resultat läßt sich dann auf die im Satz von Skorochod auftretenden ZV Y,Y!,Y2,... anwenden, da aus der gleichmäßigen Integrierbarkeit von ( X n ) diejenige von (Yn) resultiert. Somit gilt E[Yn] —E[Y], woraus sich wegen E[Yn] = E[Xn] (n > 1) und = E[X) (2.20.3) ergibt. •

144

4. ERWARTUNGSWERTE

Das folgende Resultat zeigt, daß in Satz 2.20 unter einer Zusatzannahme die gleichmäßige Integrier barkeit der Folge (X„) auch notwendig für die Gültigkeit von (2.20.3) ist: 2.21 Satz. Seien X,Xi,X2, (2.21.1)

••. integrierbare ZV derart, daß Xn->X

(schwach).

Gilt zusätzlich (2.21.2)

X > 0

und

n > 1,

Xn>0,

so sind die folgenden beiden Aussagen äquivalent: (a) ( X n ) ist gleichmäßig integrierbar. (b) E[Xn] E[X] (n oo). BEWEIS. Die Implikation (a) = > (b) ergibt sich aus Satz 2.20. Gelte (b). Die durch ha(x) := i/[_ aj0 ](x) auf R, definierte Funktion ha (a > 0) ist beschränkt, und Da = {—a,a} ist die Menge ihrer Unstetigkeitsstellen. Ersichtlich existieren beliebig große Zahlen a derart, daß P(X G Da) = 0. Sei e > 0 gegeben. Wegen Satz 2.14(c) existiert ein a = a(e) > 0 derart, daß P(X G Da) = 0 und E[XI{X > o}j < e/2. Mit Hilfe von (2.21.2), (b) und Satz 2.7(b) erhält man folglich für n —> oo E [|X„|/{|Xn| > a}}

=

E [XnI{Xn

> o}] = E[Xn] - E [/»«(*„)]

-»• E[X] - E [ha(X)] = E [XI{X

> a}] < e/2,

so daß ß[|Xn|/{|Xn| > a}] < e, n > no(e). Daraus ergibt sich die gleichmäßige Integrierbarkeit von (X n ) (man vgl. dazu die Bemerkung am Ende des Beweises von Satz 2.17). • Sei (Ü,A) ein meßbarer Raum. Im Hinblick auf die Berechnung von Erwartungswerten wird es sich in §4.5 als zweckmäßig erweisen, Integrale J X dfi geeigneter NZV X : fi —> K, zu konstruieren, die bez. a-endlicher Maße fi: A —> R+ gebildet werden (vgl. Definition 4.2[1]). Im folgenden sei fi : A —> R+ ein cr-endliches Maß. Lt. Definition existieren dann höchstens abzählbar viele Mengen fl(m) G A (m > 1), die eine Zerlegung von 0 bilden und für die jeweils p (fl(m)) < oo ist. Gilt für ein m > 1 ß (f)(m)) > 0, so wird durch

ein W.-Maß /xm auf A definiert. Im Fall p (£l(m)) = 0 sei nm(A) := 0, A G A. Es liegt nahe, das Integral (genauer: p-Integral) einer NZV X > 0 durch (2.21.4)

J

i Xdß:=Y]n(n(m)) „

i

JWrn)

X dpm

zu definieren, wobei im Fall p (fi(m)) = 0 für eine beliebige NZV £

Jjdpm := J £I(A) dpm := 0, A G A

4.2. STETIGKEITSEIGENSCHAFTEN DES ERWARTUNGSWERTES

145

gesetzt wird. Wie früher schreiben wir auch f X dß = f X dfi= f X(cj)dß(u). J Ja Ja Für X = I{A) (A G A) ergibt sich aus (2.21.4) (2.21.5)

f / ( i j d ^ ^ / . ( f i W ) ^ ^ ) = ^ M ^ n i l ( m ) ) = ^(A), m

m

wie es sein sollte. Aufgrund von Definition (2.21.4) wird man vermuten, daß sich viele Eigenschaften von Erwartungswerten auf ß-Integrale übertragen. So gilt z.B. analog zu Satz 1.7 folgender Satz von der monotonen Konvergenz-. 2.22 Satz. Seien X > 0 und 0 < Xi < X2 < • • • NZV derart, daß Xn{w) ->• X(lj) (n —• oo), w £ fl. Dann folgt (2.22.1)

lim [ Xn du = [ X dß. n-^oo J J BEWEIS. Aufgrund der Monotonie des EW ergibt sich wegen (2.21.4)

(2.22.2)

lim sup j Xndß
0 gegeben. Dann existiert eine ganze Zahl M = M(K) > 1 derart, daß ß(il(m)) l 0 beliebig ist, impliziert dies — zusammen mit (2.22.2) — die gewünschte Aussage (2.22.1). Ähnlich erhält man (2.22.1) im Fall J X dß < oo. • Mit Hilfe von von Satz 2.22 und (2.21.5) erhält man leicht 2.23 Korollar. Die Definition des ß-Integrals einer NZV X > 0 in (2.21.4) hängt nicht von der Wahl der Zerlegung (Cl(m)) C A ab. Genauer gilt: Ist (fl(k)) c A eine Zerlegung von fi derart, daß jeweils ß(fl(k)) < oo gilt, und setzen wir analog zu (2.21.3) { A ) : =

f M n m , ß(Q{k))

AeA,

146

falls ß(ß(k)) (2.23.1)

4. ERWARTUNGSWERTE

> 0, und ßk(A) = O, A 6 A, falls ß{&{k)) y>(fi(m)) f n

- O, so gilt

X d ß m = Tifi(n(k)) í

Jn(m)

Xdfík.

V

BEWEIS. Wegen (2.21.5) gilt (2.23.1) für elementare ZV X > 0. Mit Hilfe des Approximationssatzes für NZV und Satz 2.22 ergibt sich dann die Gültigkeit von (2.23.1) für beliebige NZV X > 0. • Aus Korollar 2.23 folgt für W.-Maße ß, daß das durch (2.21.4) definierte /i-Integral einer NZV X > 0 mit dem früher definierten EW von X übereinstimmt. Ist X eine NZV derart, daß J X+ dß < oo oder

J X~ dß < oo,

so setzen wir analog zu früher (2.23.2)

J X dß = j

Xdß = j

X(us)dß{u)

= J X+dß-

J X~ dß

und sagen dann, daß das ß-Integral von X existiert oder definiert ist. Gilt insbesondere (2.23.3)

J X+ dß < oo

so heißt X ß-integrierbar. auch die /¿-Integrale (2.23.4)

J

Xdß-.=

und

J X~ dß < oo,

Existiert das ^-Integral einer NZV X, so existieren j

X{u)dß(u):=

J XI{A)dß,

A E A.

Ist £ = £{ÜS) eine von u e Í1 abhängige Aussage, so sagen wir analog zu früher, daß £ ß-fast überall (/x-f.ü.) zutrifft, falls für die Menge íí := {w G ü : £( Y} = 0. Der Beweis des folgenden Resultats sei dem Leser überlassen (man vgl. dazu die Beweise entsprechender Eigenschaften von Erwartungswerten). 2.24 Satz. Sei ß : A —• R+ ein a-endliches Maß und seien X,Y NZV, deren ß-Integrale existieren. Dann gilt (a) (Positivität) X > 0 fXdß> 0. (b) (Monotonie) Aus X > 0, Y > 0 und X < Y ß-f.ü. folgt f Xdß < jYdß. (c) (Satz von der monotonen Konvergenz) Seien Xn > 0 (n > 1) NZV derart, daß X\ < X?, < • • • ß-f.ü. Gilt X > 0 und Xn -> X ß-f.ü., so folgt (2.24.1)

f x d ß = lim / J n-*oo J

Xndß.

4.2. STETIGKEITSEIGENSCHAFTEN DES ERWARTUNGSWERTES

Insbesondere

147

gilt also für NZV Yn > 0 (n > 1):

(2.24.2)

J

^ f )

= E

Y

I

O, Y > 0 folgt ßr a,b € E + (2.24.3)

J { a X + bY)dß = a J Xdß + b J Y dß.

Sind X, Y fi-integrierbare ZV, so ist die TN aX + bY für beliebige a, 6 e ]R ß-integrierbar, und es gilt (2.24.3) ßr a, b € R. (e) Nimmt die NZV X > 0 höchstens abzählbar viele Werte X\,X2,--an, so gilt (2.24.4)

f x d ß = Yl xmß{X J m

J

=

xm}.

(f) Existiert das fi-Integral f X d/i, so existieren auch die fi-Integrale X dp,

AeA. A G A.

Ist insbesondere X ß-integrierbar, so auch XI(A), (g) (Rückschlußeigenschaft) Es gilt (2.24.5)

X 0 (n > 1) gilt (2.24.7)

J

i lim inf Xn dß < lim inf / Xn dß. n—yoo

n—»oo

(i) (Satz von der dominierten derart, daß (2.24.8)

(2.24.9) so ist X ß-integrierbar, (2.24.10)

Konvergenz)

lim Xn = X n—too

Existiert eine ß-integrierbare

J

Seien X,Xi,X2t...

ß-f.ü.

ZV Y derart, daß

|X„| < Y

ß-f.ü., n > 1,

und es gilt J

¡Xdß=

lim [ n->ooJ

Xndß.

NZV

148

4. ERWARTUNGSWERTE

4.3 Ungleichungen für Erwartungswerte Einige der wichtigsten Ungleichungen für Erwartungswerte basieren auf konvexen Funktionen. Im folgenden sei G =]a, b[c R ein offenes Intervall derart, daß a < b und a, b £ R. Mit G C 1R bezeichnen wir die abgeschlossene Hülle von G, die aus G durch Hinzunahme der endlichen Endpunkte von G entsteht. Somit gilt etwa G = R+, falls G =]0,oo[, G = G, falls G = R und G = [o, 6], falls a, b G R. Im folgenden bedeute G(G), daß G bzw. G zugrundegelegt wird je nachdem, ob eine Funktion : G —• R oder : G —> R betrachtet wird. 3.1 Definition. Eine Funktion (j>: G(G) —• 18, heißt konvex, falls a,üj£fl, ergibt sich mit Hilfe von Satz 1.20 (d) X = E[X] f.s. • Die Ungleichung in Teil (a) bzw. (b) des folgenden Resultats heißt jeweils Jensen- Ungleichung. 3.3 Satz. Sei : G(G) —> R, konvex und X eine integrierbare TN derart, daß (3.3.1)

X(u>) £ G(G),

ueQ.

(a) Die Abbildung {E[X\) < E[(X)].

4.3. UNGLEICHUNGEN FÜR ERWARTUNGSWERTE

149

(b) Ist

0,

so folgt (3.3.4)

4>{E[X]) < E[ EL (3.3.5)

Q(x,y) =

x>y(EG(G).

x

y-x

3.4 Lemma. Eine Funktion : G(G) —> K, ist genau dann konvex, wenn (3.4.1)

Q(x,y) : G(G) —> E konvex und y G G. Aus Satz 3.6 ergibt sich, daß im Punkt (y,(y)) des Graphen von • E konvex. (a) Gilt für ein y E G (3.8.1)

D^(y) < c < D+4>{y),

so existiert im Punkt (y, (y) + c{t-y),

t G G(G).

(b) Es existieren Folgen (c„) C E, (&„) C E (n > 1) derart, daß (3.8.3)

(t) = sup(c n í + bn), n>l

t G G.

4.3. UNGLEICHUNGEN FÜR ERWARTUNGSWERTE

151

(c) Sei 4> strikt konvex und y € G(G). Existiert im Punkt (y, 4>{y)) des Graphen von (f> eine Stützgerade mit der Steigung c (c 6 Et), so folgt (3.8.4)

0(í)>«A(y) + c ( í - y ) ,

íeG(G)\{j/}.

BEWEIS, (a) Aus (3.8.1) ergibt sich wegen (3.5.1) und (3.5.2) {y) - (s)


sup (c n (m)í + 6„(m)),

t G G(G).

n> 1

Hieraus ergibt sich (b). (c) Für die Stützgerade in (3.8.4) existiere ein y < z € G(G) derart, daß (3.8.5) 4>(z)={y)+c{z-y). Mit Hilfe von (3.1.1) ergibt sich hieraus leicht {t) = {y)+c{t — y), t 6 [y, z], woraus ein Widerspruch zur strikten Konvexität von resultiert (warum ?). Ähnlich sieht man, daß (3.8.5) nicht für ein y > z G G(G) gelten kann. • Eine einfache hinreichende Bedingung für (strikte) Konvexität liefert 3.9 Satz. Die Funktion : G(G) —> R sei auf G zweimal differenzierbar derart, daß die Ableitungen 0' und " stetig auf G sind. Im Fall einer Abbildung: 0 : G —> H seien zusätzlich (3.6.4) und (3.6.5) erfüllt. (a) Gilt (3.9.1)

"{t) > 0 ,

t € G,

so ist konvex. (b) Gilt (3.9.2)

4>"{t) > 0 ,

t e G,

so ist strikt konvex. BEWEIS, (a) Aufgrund der Taylor-Formel existiert zu beliebigen Zahlen t,y e G eine Zahl v — v(t, y) zwischen t und y derart, daß (3.9.3)

4>(t) = m

+ (t - VW(V) + \(t ~ J / ) V » ,

so daß wegen (3.9.1) 4>(f) > 0 (m = 1,2) annehmen, so daß dann (Xi + X2)p = XiiXi

(3.13.2)

+ X2y~x

+ X2(Xx + X 2 )P" 1

(es sei 1 < p < oo). Im folgenden sei q > 1 derart, daß 1/p + l/«j = 1 und somit (3.13.3)

9(P-1)=P p

gilt. Für o := wegen (3.13.3)

+ X2) ] ergibt sich aufgrund der Hölder-Ungleichung + X2y-1]

E[Xm{Xx

< (E[X^l)1/^1/®,

m = 1,2,

so daß wegen (3.13.2) (3.13.4)

a < ((E[Xf])1/p

+

{E[Xl])1'p)a}lq.

Im Fall a = 0 ist (3.13.1) trivial, während sich (3.13.1) im Fall 0 < o < oo aus (3.13.4) nach Division durch a 1 / ' ergibt. Insbesondere gilt also (3.13.1) für elementare ZV. Sind Xm > 0 (m = 1,2) beliebige ZV, so ergibt sich (3.13.1) mit Hilfe des Approximationssatzes und des Satzes von der monotonen Konvergenz. • Mit Hilfe der obigen Ungleichungen erhält man leicht 3.14 Korollar. Seien U = Lp{Q,A,P) (1 < p < oo) die in (1.16.2) definierten Lebesgue-Räume. (a) Es gilt (3.14.1)

V C Lr,

1 < r < s < oo.

(b) Für reelle Zahlen p(m) > 1 (1 < m < n) derart, daß

gilt (3.14.3)

Xm e L p ( m ) ,

1< m 2) integrierbare ZV und sei 4> : K-+ —> K.+ strikt wachsend, stetig und konvex. Sind dann c > 0 sowie et > 0 (1 < i < n) reelle Zahlen derart, daß (3.15.1)

£[0(|&|/Ci)] < c,

1

1, ergibt. Aufgrund von Satz 3.23 haben folglich ip dieselbe Verteilung, also auch - logf = X und — logV' = Y. (b) folgt aus Satz 1.5 (k). • 3.26.1 Beispiel. Eine einfache Rechnung zeigt: (3.26.3)

Lx{t) = exp(A(e -t — 1))

(i€E+),

falls X ~ PO(A).

Für unabhängige ZV X ~ PO(A), Y ~ PO(/i) folgt also wegen (3.26.2) Lx+Y(t)

= exp((A + iM)(e~* - 1)),

t 6 E+,

so daß aufgrund von (3.26.3) und Satz 3.26 (a) X + Y ~ PO(A + //).



4.4 Der Satz von Fubini-Tonelli Im folgenden seien (fii, .Ai), (n 2 , meßbare Räume, und A := Ai®Ä2 bezeichne das Produkt der a-Algebren Ai,A2 (vgl. Definition 3.5[1]). Seien m : Ai —> K.+ (i = 1,2) (T-endliche Maße. Das weitere Vorgehen wird durch folgendes Beispiel motiviert.

164

4. ERWARTUNGSWERTE

4 . 1 Beispiel. Sei fii = ft2 = K- und A\ = A2 = Ti\. Wir betrachten beschränkte Intervalle [aj,&j] C fi¿(i = 1,2), so daß [ai, &i] x [a 2 ,6 2 ] C tti x f i 2 ein Rechteck ist. Ist /¿i = p2 das Lebesgue-Maß auf *4j = A2, so definiert man in der Elementar-Geometrie Fläche von [ai, &i] x [02, b2] =/xi([ai,6i]) • fJ,2([a2,b2\) = (h -ai)(&2

~a2).

Zunächst gilt 4.2 L e m m a . Auf Ai ® A2 existiert höchstens ein Maß fj, derart, daß (4.2.1)

n(Ai x A2) = m(Ai)-ß2(A2),

Ai e Ai,

Ein Maß ¡j. auf A\ ® A2, für das (4.2.1) gilt, ist

i = 1,2.

a-endlich.

BEWEIS. Die Familie M0 ~

x A2 : Ai E Ai, i = 1,2}

ist n-stabil, und es gilt (4.2.2)

a(M0)

=

Ai®A2.

Da ßi (T-endlich ist, existiert eine höchstens abzählbare Zerlegung (flj(m)) c Ai von f l j derart, daß pi(Qi(m)) < 00 für alle m (i = 1,2). Ist also f j , ein Maß auf Ai ® A2 derart, daß (4.2.1) gilt, so folgt ß(fli(j) x fi2(fc)) = ßi(^i(j))ß2(^2{k)) < 00 für alle j, k. Da die Mengen fii(j) x 0 2 (fc) £ Mo eine Zerlegung von fii x fi 2 bilden, ergibt sich die Eindeutigkeitsaussage in Lemma 4.2 mit Hilfe von (4.2.2) und Satz 4.5[1]. Die zweite Aussage folgt aus der vorangehenden Überlegung. • 4.3 L e m m a . Sei X : fix x ii 2 —> Et eine Ai ® A2-meßbare NZV. Dann gilt: (a) Für festes w2 € fi 2 ist uii 1—> X(wi,w 2 ) (wi £ fii) Ai-meßbar. (b) Für festes € fii ist w2 1—> X(u>i,w 2 ) (u;2 G fi 2 ) A2-meßbar. (c) Sei X > 0. Für beliebige a-endliche Maße ßi auf Ai(i = 1,2) sind die Abbildungen (4.3.1)

u>i 1—> j X(cJi,w 2 )d/z 2 (w 2 )

(wi e fii)

und (4.3.2)

t o

1 2

— . j x ^ W M

(^2 e fi 2 )

jeweils NZV. BEWEIS, (a) Für festes w2 € ü2 sei M := {A £ Ai ® A2 I{A)(u> 1,102) ist Ai — meßbar}. Dann gilt (4.3.3)

AixA2eM,

AiEAi,

wi '—•

i = 1,2,

da ui 1—• I(A-i x j 4 2 )(wi,o; 2 ) = I(Ai){wi) • /(A 2 )(w 2 ), wobei / ( A i ) Aimeßbar und 7( J 4 2 )(o; 2 ) 6 {0,1} eine Konstante ist. Da M ersichtlich ein

4.4. DER SATZ VON FUBINI-TONELU

165

Dynkin-System ist, folgt aus (4.3.3) mit Hilfe des Satzes von Dynkin A\ A2 C M. Wegen M C A\ ® A2 ergibt sich M = A\ ® A2, so daß uj\ i—> X(lj 1,^2) für elementare ZV X bei festem u>2 € H2 .4i-meßbar ist. Hieraus ergibt sich (a) mit Hilfe des Approximationssatzes für NZV. Ahnlich beweist man (b). (c) Da ß2 c-endlich ist, existieren höchstens abzählbar viele Mengen ü(m) e A2 derart, daß gilt: í í ( l ) C 2) C • • • , fí(l) U íí(2) U • • • = fi2 sowie /í2(íí(ti)) < 00 für alle m. Die Familie N{m) bestehe aus allen Mengen A £ A\® A2 derart, daß die Abbildung LJi I • / I(A)(cJ1,U2)dfi2(.^2) Jii(m)

(wi £ fii)

eine A\-meßbare ZV ist. Ersichtlich gilt für alle m (4.3.4)

Ai x A2€ M{m),

A¿ e Ah

i = 1,2.

Da Af(m) ein Dynkin-System ist, folgt mit Hilfe des Satzes von Dynkin wegen (4.3.4) und (4.2.2) M(m) = Ai®A2 für alle m. Mit Hilfe des Satzes von der monotonen Konvergenz und des Approximationssatzes für NZV folgt hieraus die erste Aussage in (c). Ahnlich ergibt sich die zweite Aussage. • Die Existenz eines Maßes /i auf Ai A2, für das (4.2.1) gilt, ergibt sich so: Sei (4.3.5)

ß{A) := f ( f /(A)(wi,wa)d/ii(wi)J d/n(wa), Jn2 \Jo1 /

A 2 — 12) zu. Mehrfache Anwendung dieses Resultats zeigt: Auf 7Zd{d > 2) existiert genau ein Maß Ad = Leb