Martingale und Prozesse 9783110350685, 9783110350678

This is the third volume of the series "Moderne Stochastik" (Modern Stochastics). As a follow-up to the volume

187 61 2MB

German Pages 206 Year 2018

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Mathematische Grundlagen, weiterführende Literatur
Abhängigkeit der einzelnen Kapitel
Bezeichnungen
Inhalt
1. Fair Play
2. Bedingte Erwartung
3. Martingale
4. Stoppen und Lokalisieren
5. Konvergenz von Martingalen
6 L2-Martingale
7. Gleichgradig integrierbare Martingale
8. Einige klassische Resultate der W-Theorie
9. Elementare Ungleichungen für Martingale
10. Die Burkholder–Davis–Gundy Ungleichungen
11. Zufällige Irrfahrten auf ℤd – erste Schritte
12. Fluktuationen einer einfachen Irrfahrt auf ℤ
13. Rekurrenz und Transienz allgemeiner Irrfahrten
14. Irrfahrten und Analysis
15. Donskers Invarianzprinzip und die Brownsche Bewegung
Anhang
Literatur
Stichwortverzeichnis
Recommend Papers

Martingale und Prozesse
 9783110350685, 9783110350678

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

René L. Schilling Martingale und Prozesse De Gruyter Studium

Weitere empfehlenswerte Titel Das Lehrbuch-Set Moderne Stochastik umfasst die drei Bände Maß und Integral, Wahrscheinlichkeit sowie Martingale und Prozesse und behandelt damit detailliert aber kompakt den gesamten Lernstoff der Wahrscheinlichkeitstheorie nicht nur für Studierende der Mathematik, sondern auch der Natur-, Wirtschafts- und Ingenieurwissenschaften. Moderne Stochastik. Eine Einführung für Bachelor-Studenten Lehrbuch-Set René L. Schilling, 2018 ISBN 978-3-11-053749-9

Maß und Integral René L. Schilling, 2015 ISBN 978-3-11-034814-9, e-ISBN (PDF) 978-3-11-035064-7, e-ISBN (EPUB) 978-3-11-038332-4

Wahrscheinlichkeit René L. Schilling, 2017 ISBN 978-3-11-035065-4, e-ISBN (PDF) 978-3-11-035066-1, e-ISBN (EPUB) 978-3-11-038750-6

Martingale und Prozesse René L. Schilling, 2018 ISBN 978-3-11-035067-8, e-ISBN (PDF) 978-3-11-035068-5, e-ISBN (EPUB) 978-3-11-038751-3

René L. Schilling

Martingale und Prozesse |

Eine Einführung für Bachelor-Studenten

Mathematics Subject Classification 2010 Primary: 60-01. Secondary: 60G42; 60G50; 60G40; 60J45; 60Fxx. Autor Prof. Dr. René L. Schilling Technische Universität Dresden Institut für Mathematische Stochastik D-01062 Dresden Germany [email protected] www.math.tu-dresden.de/sto/schilling Weiterführendes Material www.motapa.de/maps

ISBN 978-3-11-035067-8 e-ISBN (PDF) 978-3-11-035068-5 e-ISBN (EPUB) 978-3-11-038751-3 Library of Congress Control Number: 2018939058 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2018 Walter de Gruyter GmbH, Berlin/Boston Einbandabbildung: »Advantages of the Martingale« – Holzstich eines unbekannten englischen Künstlers des 19. Jhdts. aus dem Privatbesitz des Autors Druck und Bindung: CPI books GmbH, Leck www.degruyter.com

Vorwort Dieses Lehrbuch ist eine Einführung in die Theorie der Martingale und Irrfahrten (random walk) in diskreter Zeit. Es richtet sich an Studierende der Mathematik und Physik ab dem zweiten Studienjahr. Mein Ziel ist es, in kompakter und eingängiger Weise zentrale Techniken und Resultate der Stochastik darzustellen und so eine Grundlage für weiterführende Vorlesungen zu geben. Der Text folgt meinen Vorlesungen an der TU Dresden, er kann als Grundlage oder Begleittext für eine Vorlesung aber auch zum Selbststudium verwendet werden. Voraussetzung für das Verständnis des vorliegenden Bandes sind Grundlagen der Maß& Integrationstheorie und der Wahrscheinlichkeitsrechnung, wie ich sie in den ersten beiden Bänden dieser Reihe entwickelt habe. Relevant sind vor allem Kapitel 1–16 aus Maß und Integral und Kapitel 1–7 & 9 aus Wahrscheinlichkeit. Diese Bände werden im Text als MI und WT zitiert, zahlreiche Querverweise auf die entsprechenden Sätze vereinfachen die Lektüre. In Kapitel 1–7 und 9 werden die Grundlagen der Theorie der diskreten Martingale entwickelt, die dann in Kapitel 8 auf klassische Sätze der Wahrscheinlichkeitstheorie (Null-Eins–Gesetze, Summen von unabhängigen Zufallsvariablen, zentraler Grenzwertsatz) mit Martingalmethoden bewiesen und für Folgen von Martingaldifferenzen erweitert. Zusammen mit WT Kapitel 1–7, 9 kann man so eine Einführung in die Wahrscheinlichkeitstheorie auf der Grundlage von Martingalen geben. Diesem Teil schließt sich das Studium zufälliger Irrfahrten (random walks) an, das exemplarisch in die Gedankenwelt von zeitdiskreten stochastischen Prozessen einführt. Der Schwerpunkt liegt auf der Untersuchung von Rekurrenz und Transienz sowie dem Zusammenhang mit (diskreten) Randwertproblemen. Die Auswahl der Themen und Techniken ist natürlich subjektiv, dennoch will ich dem Leser ein breites Spektrum von klassischen und modernen Methoden vorstellen, das auf eine weitere Spezialisierung optimal vorbereitet. Dabei war mein Leitmotiv die Frage „Was wird später im Studium und in Anwendungen wirklich benötigt“, wobei meine eigenen Forschungsinteressen – die Theorie der stochastischen Prozesse – im Vordergrund stehen. Für das tiefere Verständnis ist es wichtig, dass der Leser sich mit der Materie selbständig auseinandersetzt. Zum einen sind dafür die Übungsaufgaben gedacht (vollständige Lösungen gibt es unter www.motapa.de/maps), andererseits weise ich im laufenden Text mit dem Symbol [] auf (bisweilen nicht ganz so offensichtliche) Lücken hin, die der Leser selbst ausfüllen sollte. Auf 󳶳 wichtige Schreibweisen, 󳶳 Gegenbeispiele, 󳶳 typische Fallen und versteckte Schwierigkeiten

wird durch derart markierte Absätze aufmerksam gemacht.

VI | Vorwort Vom Umfang entsprechen die Kapitel 1–7 & 9, abgerundet um einige Wahlthemen, einer dreistündigen Vorlesung; etwa 4–5 Textseiten können in einer VorlesungsDoppelstunde durchgenommen werden. Die mit dem Symbol ⧫ gekennzeichneten Abschnitte sind als Ergänzung gedacht und können je nach Zeit und Zielsetzung ausgewählt werden. Sie sind auch als Themen für ein Seminar geeignet. Eine Übersicht über die Abhängigkeit der einzelnen Kapitel findet sich auf Seite VII. Dieser Text ist aus Vorlesungen entstanden, und ich danke meinen Studenten, Schülern und Kollegen für ihr Interesse und ihre Mitarbeit. Ich danke ganz besonders Dr. Wojciech Cygan, Dr. Victoria Knopova und Dr. Franziska Kühn für die genaue Durchsicht des Texts und ihre kritischen und hilfreichen Kommentare. Herr Dr. Böttcher hat in bewährter Weise die Grafiken erstellt und das Kapitel zur Kopplung gelesen. Herrn Prof. Jacob danke ich für zahlreiche Diskussionen und die Möglichkeit, seine Privatbibliothek zu nutzen. Die Zusammenarbeit mit dem Verlag de Gruyter, allen voran Frau Schedensack und Herr Lindenhain, war wieder sehr angenehm und hat wesentlich zum Gelingen dieses Buchs beigetragen. Meine Frau machte es möglich, dass ich „ungezügelt“ an den Martingalen arbeiten konnte – danke! Dresden, Februar 2018

René L. Schilling

Mathematische Grundlagen, weiterführende Literatur Für die Lektüre dieses Texts werden Grundlagen der Maß- und Integrationstheorie und der Wahrscheinlichkeitstheorie benötigt, etwa im Umfang der Kapitel 1–16 meines Lehrbuchs Maß und Integral und Kapitel 1–7 und 9 meines Lehrbuchs Wahrscheinlichkeit. Beide Bände sind in gleicher Ausstattung wie dieses Buch beim Verlag de Gruyter erschienen.

Grundlagen Schilling, R.L.: Maß und Integral. De Gruyter, Berlin 2015 (zitiert als MI). Schilling, R.L.: Measures, Integrals and Martingales. Cambridge University Press, Cambridge 2 2017 (zitiert als MIMS). Schilling, R.L.: Wahrscheinlichkeit. De Gruyter, Berlin 2017 (zitiert als WT). Georgii, H.-O.: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. De Gruyter, Berlin 4 2009. Krengel, U.: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Vieweg, Wiesbaden 8 2007.

Vorwort |

VII

Weiterführende Literatur Khoshnevisan, D., Schilling, R.L.: From Lévy-Type Processes to Parabolic SPDEs. Birkhäuser, Cham 2016. Norris, J.: Markov Chains. Cambridge University Press, Cambridge 1997. Schilling, R.L., Partzsch, L.: Brownian Motion. An Introduction to Stochastic Processes. De Gruyter, Berlin 2 2014.

Abhängigkeit der einzelnen Kapitel Grundlagen der W-theorie WT §§ 1–7

| 1

bedingte Erwartung 1

2

↔ WT § 14

& WT § 9 ↔ A.1

Martingale: Grundlagen 3

4

Irrfahrten 11

13

MG: Anwendungen 8

Fluktuationen Martingale: Konvergenz 5

12

7

MG: L2 -Theorie

Potentialtheorie

6

14

BDG-Ungleichungen

MG: elementare Ungleichungen

Invarianzprinzip

10

9

15

Abb. 1: Die Grafik zeigt die Abhängigkeit der Themen dieses Buchs, gestrichelte Pfeile stehen für kleinere oder indirekte Abhängigkeiten; „↔ WT n“ bedeutet, dass das entsprechende Kapitel durch Kapitel n meines Lehrbuchs „Wahrscheinlichkeit“ (WT) ersetzt werden kann. Vorkenntnisse aus der Wahrscheinlichkeitstheorie werden etwa im Umfang der Kapitel WT 1–7 vorausgesetzt, eine knappe Übersicht über die Konvergenzarten der Wahrscheinlichkeitstheorie (vgl. WT Kapitel 9) wird im Anhang A.1 & A.2 gegeben. Die mit der gestrichelten Linie zusammengefassten Kapitel sind eine „Einführung in die Stochastik“ mit Martingalmethoden, die den klassischen Zugang (WT Kapitel 8– 13) ersetzen können.

Bezeichnungen Allgemeines & Konventionen [MI, Satz n.m] [WT, Satz n.m] positiv negativ ℕ, ℕ0 inf 0 a ∨ b, a ∧ b ⌊x⌋ |x| Mengen

# A, |A| ⊂ ⋃



Ac A

f.s.

A = B B r (x) An ↑ A Bn ↓ B lim inf n→∞ A n lim supn→∞ B n A ⊥⊥ F

A,F A ×F

A ⊗F B(E) σ(G ), σ(X) (Fn )n∈ℕ0 F∞

Verweis Maß und Integral Verweis Wahrscheinlichkeit stets im Sinne ⩾ 0 stets im Sinne ⩽ 0 1, 2, 3, . . . , ℕ0 = ℕ ∪ {0} inf 0 = +∞ max{a, b}, min{a, b} max{n ∈ ℤ : n ⩽ x} Euklidische Norm in ℝd Kardinalität der Menge A Teilmenge (inkl. „=“) Vereinigung paarweise disjunkter Mengen Komplement der Menge A Abschluss der Menge A

ℙ(A \ B) + ℙ(B \ A) = 0, 48 offene Kugel um x, Radius r A n ⊂ A n+1 ⊂ . . . & A = ⋃n A n B n ⊃ B n+1 ⊃ . . . & B = ⋂n B n ⋃k∈ℕ ⋂n⩾k A n ⋂k∈ℕ ⋃n⩾k B n A und F sind unabhängig (analog für Mengensysteme) generische σ-Algebren {A × F : A ∈ A , F ∈ F } „Rechtecke“ Produkt-σ-Algebra Borelmengen in E erzeugte σ-Algebra Filtration, 17 σ(Fn , n ∈ ℕ0 ) = σ( ⋃n Fn )

Maße & Verteilungen

ℙ, 𝔼 ℙx , 𝔼x ℙX , ℙ(X ∈ ∙) ℙ(∙ | F ) 𝔼(∙ | F ) δx μ⊗ν N(μ, σ2 )

W-Maß, Erwartungswert –, – wenn X0 = x, 147 Verteilung der ZV X bedingte W-keit, 14 bedingte Erwartung, 7 Dirac-Maß in x Produkt von Maßen Normalverteilung, Mittel μ, Varianz σ2

N(m, Γ)

Normalverteilung in ℝd , Mittel m, Kovarianzmatrix Γ

Zufallsvariable & Funktionen X, Y, Z, ξ X+ , X− {X ∈ B} {X ⩾ a} X ⊥⊥ Y X∼Y X∼μ X = (X n )n∈ℕ0 (X n , Fn )n∈ℕ0

Zufallsvariable (ZV) Positivteil, Negativteil {ω : X(ω) ∈ B} {ω : X(ω) ⩾ a} usw. X, Y sind unabhängig X ist wie Y verteilt X hat Verteilung μ stochastischer Prozess, 109 adaptierter stochastischer Prozess, 17 XT gestoppter Proz. X nT := X n∧T , 31 ⟨X⟩ Kompensator, 25 [X] quadratische Variation, 93 X∗ supn |X n |, 89 C∙X Martingaltransformation, 26 T Stoppzeit {T ⩽ n} ∈ Fn , 31 Tx inf{n : X n = x}, 113f., 128 un Rückkehrwahrscheinlichkeit ℙ(X n = 0), 116 fn ℙ(T0 = n), 116 1, x ∈ A 𝟙A 𝟙A (x) = { 0, x ∉ A C(E) stetige Funktionen auf E C b (E) beschränkte stetige Funktionen L p , L∞ ZV mit 𝔼 [|X|p ] < ∞ p ∞ L (F ), L (F ) betont die F -Messbarkeit Abkürzungen BL CLT f.s. ggi iid

MG SLLN (S)RW W– ZV ∩ /∪ -stabil []

Beppo Levi zentraler Grenzwertsatz fast sicher gleichgradig integrierbar unabhängig und identisch verteilt Martingal(e), 17 starkes Gesetz d. großen Zahlen (einfache) Irrfahrt, 110 Wahrscheinlichkeit(s)– Zufallsvariable(n) Familie enthält endliche Schnitte/Vereinigungen selbst rechnen!

Inhalt Vorwort | V Mathematische Grundlagen, weiterführende Literatur | VI Abhängigkeit der einzelnen Kapitel | VII Bezeichnungen | VIII 1

Fair Play | 1 ⧫Ein unvorteilhaftes „faires“ Spiel | 5

2

Bedingte Erwartung | 7 Bedingte Wahrscheinlichkeiten | 14

3

Martingale | 17 Die Doob–Zerlegung | 23 Der Kompensator | 25 Die Martingaltransformation | 26

4

Stoppen und Lokalisieren | 31 ⧫Lokale Martingale | 36 ⧫Verallgemeinerte Martingale | 40

5

Konvergenz von Martingalen | 43 Rückwärtsmartingale | 46 ⧫Konvergenzmengen von Martingalen und Submartingalen | 48

6

⧫L2 -Martingale | 51

7

Gleichgradig integrierbare Martingale | 57 Gleichgradige Integrierbarkeit und optional stopping | 63 Rückwärtsmartingale und gleichgradige Integrierbarkeit | 65

8 8.1 8.2 8.3 8.4 8.5

⧫Einige klassische Resultate der W-Theorie | 67 Lévys Konvergenzsatz und Kolmogorovs 0-1–Gesetz | 67 Rückwärtsmartingale und Kolmogorovs L1 -SLLN | 68 Das 0-1–Gesetz von Hewitt–Savage | 69 Variationen zu einem Thema von Borel–Cantelli | 71 Lévys Konvergenzsatz für Reihen von unabhängigen ZV | 73

X | Inhalt 8.6 8.7 8.8 8.9

Kolmogorovs Drei-Reihen-Satz | 75 Ein einfacher zentraler Grenzwertsatz | 78 Martingale mit allgemeiner Indexmenge | 81 Der Satz von Radon-Nikodým | 82

9

Elementare Ungleichungen für Martingale | 87 ⧫Die Ungleichung von Azuma–Hoeffding | 91

10 10.1 10.2 10.3 10.4

⧫Die Burkholder–Davis–Gundy Ungleichungen | 93 Die adaptierte quadratische Variation | 97 Die Krickeberg-Zerlegung | 99 Die Ungleichungen von Burkholder | 101 Die Zerlegung und die Ungleichungen von Davis | 105

11

Zufällige Irrfahrten auf ℤd – erste Schritte | 109 Drunkard’s walk und gambler’s ruin | 109 Rekurrenz und Transienz | 116

12

⧫Fluktuationen einer einfachen Irrfahrt auf ℤ | 121

13

Rekurrenz und Transienz allgemeiner Irrfahrten | 131 Der Satz von Chung–Fuchs für integrierbare Irrfahrten | 131 Das Chung–Fuchs Kriterium | 139

14

⧫Irrfahrten und Analysis | 147 Irrfahrten mit beliebigen Startwerten | 147 Elemente der Potentialtheorie für einfache Irrfahrten | 150 Randwertprobleme und einfache Irrfahrten | 154 Kopplung von Irrfahrten | 160

15

⧫Donskers Invarianzprinzip und die Brownsche Bewegung | 169

A A.1 A.2 A.3 A.4 A.5

Anhang | 179 Konvergenz in Wahrscheinlichkeit | 179 Konvergenz in Verteilung | 181 Das Faktorisierungslemma | 182 Der Projektionssatz im Hilbertraum | 183 Zwei nützliche Integralformeln | 187

Literatur | 189 Stichwortverzeichnis | 193

1 Fair Play You have not played as yet? Do not do so; above all avoid a martingale, if you do. Play ought not to be an affair of calculation, but of inspiration. I have calculated infallibly, and what has been the effect? William Makepeace Thackeray The Newcomes, Chapter XXVIII

Die Theorie der Martingale gehört zu den bedeutendsten Entwicklungen der Wahrscheinlichkeitstheorie im 20. Jahrhundert. Ursprünglich wurden Martingale 1937 von Paul Lévy [30] für das Studium von nicht-unabhängigen Zufallsvariablen eingeführt, der Begriff Martingal geht auf Jean Ville [45] zurück, der auch den Zusammenhang von Martingalen mit der (mathematischen) Theorie von Spielen herstellte. Die zentrale Bedeutung von Martingalen für die Wahrscheinlichkeitstheorie hat Joseph Doob erkannt; viele der wichtigsten Sätze und Definitionen der Martingaltheorie gehen auf ihn zurück und finden sich bereits in seinem Buch [19] aus dem Jahr 1953. Oft werden Martingale als Modelle für „faire“ Spiele verwendet. Dabei stellen wir uns einen Spieler vor, der auf die Ausgänge von nacheinander ausgeführten Zufallsexperimenten („Spiele“) wettet; die Auszahlungen können wir durch reelle Zufallsvariable (ZV) ξ1 , ξ2 , ξ3 , . . . darstellen. Wir interessieren uns dafür, wie hoch der Einsatz e1 , e2 , e3 , . . . jeweils sein muss, damit das Spiel „fair“ ist. Wir nehmen zunächst an, dass die Auszahlungen (und damit die Spiele) ξ i unabhängig und identisch verteilt (iid) sind, wobei die Einsätze in jedem Spiel gleich bleiben e = e i . Wenn die ZV ξ i einen endlichen Erwartungswert μ = 𝔼ξ i haben, können wir das starke Gesetz der großen Zahlen [WT, Satz 12.4] anwenden, und erhalten für den Reingewinn des Spielers nach n Spielen X n − ne = (ξ1 + ⋅ ⋅ ⋅ + ξ n − nμ) +n(μ − e). ≈0, für n → ∞

Das zeigt, dass für μ > e das Spiel für den Spieler vorteilhaft, und für μ < e nachteilig ist. Traditionell nennt man das Spiel fair, wenn μ = e gilt. Derartige „faire“ Spiele können einen Spieler so benachteiligen, dass er nahezu mit Wahrscheinlichkeit 1 bis zum nten Spiel einen Nettoverlust von en/ log n erleidet, s.u. Typischerweise ist das der Fall, wenn wir die Fluktuation von X n − ne um den Nullpunkt nicht kontrollieren können, z.B. wenn der Zentrale Grenzwertsatz [WT, Kapitel 13] nicht greift, weil die Varianz σ 2 = 𝕍ξ i unendlich ist.

Trotzdem ist dieser Begriff von fairness recht intuitiv, wie folgendes Beispiel zeigt: Beim Münzwurf mit einer fairen Münze 1 1 p = ℙ(η = 1) = und q = 1 − p = ℙ(η = 0) = 2 2 wettet Spieler A auf das Erscheinen von „1“ und B auf „0“; die Einsätze sind e bzw. e󸀠 , und der Gewinner erhält als Auszahlung e + e󸀠 . Weil die Fälle η = 1 und η = 0 https://doi.org/10.1515/9783110350685-001

2 | 1 Fair Play gleich wahrscheinlich sind, sollte bei einem fairen Spiel e = e󸀠 sein. Wir können auch die Wette auf eine unfaire Münze mit ℙ(η = 1) = p ≠ q = ℙ(η = 0) durch gewichtete Wetteinsätze zu einem fairen Spiel machen: Einsatz auf „1“ : Einsatz auf „0“ = p : q = ℙ(η = 1) : ℙ(η = 0).

Das sieht man so: wenn z.B. p = 1/4 und q = 3/4, dann hat die Wette auf „0“ dreimal höhere Gewinnchancen. Wenn wir die unfaire Münze durch einen Tetraeder mit drei „0“ und einer „1“ ersetzen und uns vorstellen, dass Spieler B für drei Spieler mit Gewinnwahrscheinlichkeit von jeweils p = 1/4 steht, dann muss er auch drei Einsätze leisten. Daher verhalten sich die Einsätze wie Einsatz auf „1“ : Einsatz auf „0“ = 1 : 3 =

1 3 : . 4 4

Allgemein macht man sich schnell klar, dass das Verhältnis der Einsätze stets wie p : q gewählt werden muss. Insbesondere ist die Auszahlung an Spieler A ξ ={

e + e󸀠 ,

0,

wenn η = 1 } = (e + e󸀠 )η wenn η = 0

e:e󸀠 =p:q

=

e η, p

und wir erhalten wiederum e = 𝔼ξ . Für Spieler B gilt eine entsprechende Überlegung. Wiederholen wir die Wette mehrfach, dann ist der Reingewinn von Spieler A nach n Runden Rn =

n e n ∑ (η i − p) = ∑ (ξ i − e). p i=1 i=1

Für ein faires Spiel sollte außerdem gelten, dass kein Spieler durch. . . 󳶳 die Kenntnis des bisherigen Spielverlaufs (z.B. durch Kartenzählen beim „Black Jack“), 󳶳 eine geschickte Strategie (z.B. durch „Spielabbruch im richtigen Moment“),

Vorteile haben kann. Problematisch sind sehr unterschiedliche Vermögensverhältnisse der Spieler, die zum Ausscheiden durch Bankrott führen können, oder Restriktionen durch die Spielbank, etwa Tischlimits beim Roulette, die die Strategie der Spieler einschränken. Diese Betrachtungen werden wir hier zurückstellen. Zumindest für Spiele mit endlich vielen verschiedenen Auszahlungen können wir die Kenntnis der Vergangenheit mit Hilfe der bedingten Wahrscheinlichkeiten modellieren: ℙ(ξ n = x | ξ1 = x1 , . . . , ξ n−1 = x n−1 )

gibt die Wahrscheinlichkeit für die Auszahlung x an, wenn wir die Auszahlungen (und damit die Ausgänge) x1 , . . . , x n−1 der ersten n − 1 Spiele kennen. Wenn die Spiele ξ1 , . . . , ξ n unabhängig sind, dann ist das ℙ(ξ n = x).

1 Fair Play

| 3

Eine Strategie lässt sich durch variable Einsätze modellieren. Wir nehmen an, dass wir beim nten Spiel den Einsatz μ mit e n = e n (R0 , ξ1 , . . . , ξ n−1 ) gewichten können, wobei auch die Auszahlung proportional zu e n ist. Der Einsatz μe n im nten Spiel hängt vom Anfangskapital R0 und den bisherigen Auszahlungen e1 ξ1 , . . . , e n−1 ξ n−1 ab – insbesondere vom Vermögen n−1

R n−1 = R0 + ∑ e i ξ i i=1

vor dem nten Spiel. Wir nehmen an, dass e n = e n (r0 , x1 , . . . , x n−1 ) eine messbare Funktion ist. Nun seien die ZV ξ1 , ξ2 , . . . identisch verteilt mit Mittelwert μ = 𝔼ξ i , aber nicht notwendigerweise unabhängig. Der Reingewinn im nten Spiel ist ∆R n = e n (V0 , ξ1 , . . . , ξ n−1 ) (ξ n − μ)

und wir erhalten für ein festes Anfangskapital R0 = r0 𝔼 [∆R n | ξ1 = x1 , . . . , ξ n−1 = x n−1 ]

= 𝔼 [e n (R0 , ξ1 , . . . , ξ n−1 ) (ξ n − μ) | ξ1 = x1 , . . . , ξ n−1 = x n−1 ] = 𝔼 [e n (r0 , x1 , . . . , x n−1 ) (ξ n − μ) | ξ1 = x1 , . . . , ξ n−1 = x n−1 ] = e n (r0 , x1 , . . . , x n−1 )𝔼 [ξ n − μ | ξ1 = x1 , . . . , ξ n−1 = x n−1 ]

= e n (r0 , x1 , . . . , x n−1 ) (𝔼 [ξ n | ξ1 = x1 , . . . , ξ n−1 = x n−1 ] − μ) .

Diese Überlegung zeigt, dass wir für ein faires Spiel nicht nur 𝔼ξ i = μ = e, sondern 𝔼 [ξ n | ξ1 = x1 , . . . , ξ n−1 = x n−1 ] = μ

(1.1)

fordern sollten. Außerdem sehen wir, dass die Strategie die (ggf. fehlende) Fairness (1.1) nicht beeinflussen kann. Wir können die Bedingung (1.1) auch folgendermaßen ausdrücken 𝔼 [R n | ξ1 = x1 , . . . , ξ n−1 = x n−1 ] 󵄨 = 𝔼 [R n−1 󵄨󵄨󵄨 ξ1 = x1 , . . . , ξ n−1 = x n−1 ]

󵄨󵄨 n−1 󵄨󵄨 = 𝔼 [r0 + ∑ e i (r0 , ξ1 , . . . , ξ i )(ξ i − μ) 󵄨󵄨󵄨 ξ1 = x1 , . . . , ξ n−1 = x n−1 ] 󵄨󵄨 i=1 󵄨 󵄨󵄨 n−1 󵄨󵄨 = 𝔼 [r0 + ∑ e i (r0 , x1 , . . . , x i )(x i − μ) 󵄨󵄨󵄨 ξ1 = x1 , . . . , ξ n−1 = x n−1 ] 󵄨󵄨󵄨 i=1 n−1

= r0 + ∑ e i (r0 , x1 , . . . , x i )(x i − μ). i=1

4 | 1 Fair Play Ein Spiel ist also genau dann fair, wenn das erwartete Vermögen R n eines Spielers zum zukünftigen Zeitpunkt n gerade seinem derzeitigen Vermögen r n−1 entspricht. Weil für n−1 geeignete x i bzw. r i die Beziehung ⋂n−1 i=1 {ξ i = x i } = ⋂i=1 {R i = r i } gilt, können wir (1.1) auch folgendermaßen schreiben: 𝔼 [R n | R1 = r1 , . . . , R n−1 = r n−1 ]

= r n−1 = 𝔼 [R n−1 | R1 = r1 , . . . , R n−1 = r n−1 ] .

(1.2)

Eine Familie von ZV (R n )n∈ℕ0 , die der Beziehung (1.2) genügt, ist ein Martingal. Martingale sind zentrale Objekte der modernen Stochastik, die es uns in vielen Fällen ermöglicht, Unabhängigkeitsannahmen abzuschwächen. In den folgenden Kapiteln werden wir erst den Begriff der bedingten Erwartung genauer untersuchen und darauf die Theorie der Martingale aufbauen.

Das klassische „Thackeraysche“ Martingal Das klassische Martingal ist eine Spielstrategie beim Roulette, bei der ein Spieler so lange auf „Rot“ oder „Schwarz“ setzt, bis er zum ersten Mal gewinnt. Bei jedem Verlust verdoppelt er seinen Einsatz und spielt weiter. Dieses Spielsystem war schon lange vor dem Erscheinen von William Makepeace Thackerays Roman Pendennis bekannt, aber Thackerays Roman brachte das Martingal und seine verheerenden Folgen einem breiten Leserkreis nahe. Aufgrund der folgenden Überlegung gilt das Martingal als sichere Gewinnstrategie: Wenn ein Spieler mit einem Einsatz von 1 Euro beginnt und n Mal hintereinander verliert, ist der bis dahin aufgelaufene Verlust 1 + 2 + 22 + ⋅ ⋅ ⋅ + 2n−1 = 2n − 1 Euro. Im nächsten Spiel beträgt der Einsatz 2n Euro und, wenn der Spieler nun gewinnt, ist die Auszahlung 2 ⋅ 2n Euro. Damit ergibt sich ein Reingewinn von 2 ⋅ 2n − (2n − 1) − 2n = 1 Euro. Weil das Eintreten des ersten Gewinns durch eine geometrische Verteilung beschrieben wird, vgl. [WT, Beispiel 2.4.f), S. 10], ist die Wahrscheinlichkeit des Eintretens eines Gewinns gleich eins: ℙ(n-mal hintereinander verlieren) = (1 − p)n 󳨀󳨀󳨀󳨀→ 0, n→∞

wenn die Gewinnwahrscheinlichkeit p > 0 ist. Das Problem ist, dass die Wartezeit n bis zum ersten Gewinn sehr groß werden kann, und dass der Verlust 2n − 1 bzw. der neue Einsatz 2n das Vermögen des Spielers und das Tischlimit des Casinos übersteigen kann, vgl. hierzu den Abschnitt zu gambler’s ruin: Beispiele 11.7–11.10. Daher kann die Martingalstrategie i.Allg. nicht durchgeführt werden – und die „sichere“ Gewinnstrategie wird zur Illusion.

1 Fair Play

| 5

⧫Ein unvorteilhaftes „faires“ Spiel1 Wir betrachten ein Spiel, dessen Auszahlungsprofil durch die folgende ZV ξ beschrieben wird: ℙ(ξ = 2k ) = p k =

1 , k 2 k(k + 1)

k ∈ ℕ,

und



ℙ(ξ = 0) = p0 = 1 − ∑ p k . k=1

Offensichtlich gilt ∞ 2k 1 = = (1 − 12 ) + ( 12 − 13 ) + ( 31 − 14 ) + ⋅ ⋅ ⋅ = 1, ∑ k k(k + 1) 2 k(k + 1) k=1 k=1 ∞

𝔼ξ = ∑

und das Spiel wird bei einem Einsatz von 1 Euro fair. Wir bezeichnen mit ξ1 , ξ2 , ξ3 , . . . iid Wiederholungen des Spiels. Nach n Runden ist der Gewinn bzw. Verlust ξ1 + ⋅ ⋅ ⋅ + ξ n − n, aber es gilt für alle ϵ > 0 lim ℙ (X n − n < −

n→∞

(1 − ϵ)n )=1 log2 n

(1.3)

(log2 x bezeichnet den Logarithmus zur Basis 2). Mit anderen Worten: Der Spieler erleidet durch wiederholtes Spielen fast sicher einen Verlust. Um (1.3) zu zeigen, verwenden wir folgende Stutzungstechnik: U k := ξ k 𝟙{ξ k ⩽n/ log2 n}

und

V k := ξ k − U k = ξ k 𝟙{ξ k >n/ log2 n} .

Zunächst haben wir limn→∞ ℙ(ξ k = U k ∀k ⩽ n) = 1, weil für das Gegenereignis gilt ℙ(V1 + ⋅ ⋅ ⋅ + V n > 0) ⩽ nℙ(V1 > 0) = nℙ(ξ1 > n/ log2 n) = n



1

k:2k > logn

2n

2k k(k

+ 1)

.

Die auftretende Summe lässt sich folgendermaßen abschätzen ∑

1

2k > logn

woraus

2n

2k k(k

+ 1)



1 [log2 ( logn n )] 2

2



k⩾log2

n log2 n

(log2 n)/n 1 1 , ⩽ 2 k 2 1 − 12 [log2 ( logn n )] 2

lim ℙ(V1 + ⋅ ⋅ ⋅ + V n > 0) = 0

n→∞

folgt. Andererseits gilt wegen der Chebyshev-Markov Ungleichung für jedes ϵ > 0 ℙ (|U1 + ⋅ ⋅ ⋅ + U n − n𝔼U1 | >

ϵn (log2 n)2 𝕍U1 (log2 n)2 𝔼(U12 ) ⩽ . )⩽ log2 n ϵ2 n2 ϵ2 n2

1 Dieses Beispiel geht auf William Feller [23] und [24, Problem 15, S. 262f.] zurück.

(1.4)

6 | 1 Fair Play Weil aber 𝔼(U12 ) =



2k ⩽ logn

2n

22k ⩽ ∑ + 1) 2k ⩽ n

2k k(k

log2 n

2k ⩽1+ ∑ k(k + 1) 2⩽k⩽log

n 2 log2 n

2k k(k + 1)

ist, können wir die Monotonie des Summanden verwenden, und erhalten 𝔼(U12 )

⩽1+

n log2 n

[log2 ( logn n )]

2

.

2

Daher gilt

lim ℙ (|U1 + ⋅ ⋅ ⋅ + U n − n𝔼U1 | >

n→∞

ϵn ) = 0. log2 n

(1.5)

Schließlich rechnet man schnell nach, dass für hinreichend große Werte n ∈ ℕ 𝔼U1 =



k⩽log2 ( logn n ) 2

2k = k 2 k(k + 1)

und somit auch für ϵ > 0

1−

log2

n log2 n



k=1

(

1 1 1 − )≈1− k k+1 log2 n − log2 log2 n + 1

1+ϵ 1 ⩽ 𝔼U1 ⩽ 1 − log2 n log2 n

gilt. Wenn wir die Beziehungen (1.4)–(1.6) kombinieren, folgt (1.3).

Aufgaben 1.

n−1 Zeigen Sie die Gleichheit ⋂n−1 i=1 {ξ i = x i } = ⋂i=1 {R i = r i }, die in (1.2) verwendet wird.

(1.6)

2 Bedingte Erwartung In der Einleitung (Kapitel 1) haben wir gesehen, dass bedingte Erwartungswerte zentral für die Definition von Martingalen sind. Vor allem benötigen wir bedingte Erwartungen von ZV, die nicht notwendig diskret sind. In diesem Kapitel betrachten wir ausschließlich reelle oder komplexwertige ZV auf einem W-Raum (Ω, A , ℙ). Für eine ZV X ∈ L1 (A ) gilt 𝔼(X | A) =

𝔼[X𝟙A ] , ℙ(A)

A ∈ A , ℙ(A) > 0,

(2.1)

d.h. die bedingte Erwartung ist eine Mittelung der ZV X relativ zu einer Menge A ∈ A . Die Division durch ℙ(A) dient der Normierung des Ausdrucks (2.1): wenn X ≡ 1, dann gilt 𝔼(1 | A) = 𝔼(1 ⋅ 𝟙A )/ℙ(A) = 1. Wenn A1 , . . . , A n ∈ A eine Partition von Ω ist, Ω = A1 ∪⋅ A2 ∪⋅ ⋅ ⋅ ⋅ ∪⋅ A n , ℙ(A i ) > 0, dann können wir der ZV X eine einfache ZV mit endlich vielen Werten zuordnen 𝔼[X𝟙A i ] 𝟙A i , ℙ(A i ) i=1

n

n

Y := ∑ 𝔼(X | A i )𝟙A i = ∑ i=1

(2.2)

und diese einfache Funktion hat offensichtlich folgende Eigenschaften a) Y ist F -messbar, wobei F := σ(A1 , . . . , A n ); b) ∫F Y dℙ = ∫F X dℙ für alle F ∈ F (vgl. auch Beispiel 2.3); c) Y(ω) = 𝔼(X | A i ) für alle ω ∈ A i und i = 1, . . . , n. Für allgemeine σ-Algebren können wir a), b) als Definition der bedingten Erwartung verwenden. 2.1 Definition. Es sei X ∈ L1 (A ) und F ⊂ A eine σ-Algebra. Eine ZV Y ∈ L1 (F ), d.h. Y ist F -messbar und 𝔼|Y| < ∞, so dass gilt ∫ X dℙ = ∫ Y dℙ F

F

∀F ∈ F ,

(2.3)

heißt (Version der) bedingte(n) Erwartung von X unter F . Wir schreiben Y = 𝔼(X | F ). Im Gegensatz zur klassischen bedingten Erwartung 𝔼(X | A), die eine reelle Zahl ist, ist 𝔼(X | F ) eine Zufallsvariable.

2.2 Bemerkung. Wenn F = σ(G ) für einen ∩-stabilen Erzeuger G gilt, der eine Folge G i ↑ Ω enthält (z.B. wenn G i = Ω ∈ G gilt), dann können wir (2.3) ersetzen durch ∫ X dℙ = ∫ Y dℙ G

https://doi.org/10.1515/9783110350685-002

G

∀G ∈ G .

(2.4)

8 | 2 Bedingte Erwartung Um das zu zeigen, zerlegen wir die ZV in Positiv- und Negativteil, Y = Y + − Y − und X = X + − X − , und schreiben μ(F) := ∫(X + + Y − ) dℙ, F

ν(F) := ∫(Y + + X − ) dℙ, F

F ∈ F.

Offensichtlich sind μ, ν Maße auf F , und (2.4) zeigt μ|G = ν|G . Weil G den Voraussetzungen des Eindeutigkeitssatzes für Maße [MI, Satz 4.5] genügt, folgt μ|σ(G ) = ν|σ(G ) und somit (2.3).



2.3 Beispiel. Es seien B1 , . . . , B N ∈ A , N ∈ ℕ ∪ {∞}, disjunkte Mengen, die Ω partitionieren, d.h. Ω = ⋃Nn=1 B n . Wir definieren F = σ(B n , 1 ⩽ n ⩽ N). Wenn ℙ(B n ) > 0 für alle 1 ⩽ n ⩽ N gilt, dann ist für jede ZV X ∈ L1 (A ) N

𝔼(X | F ) = ∑ 𝔼(X | B n )𝟙B n , n=1

𝔼(X | B n ) :=

𝔼[X𝟙B n ] . ℙ(B n )

Das sieht man so: Zunächst ist klar, dass die rechte Seite eine F -messbare ZV ist. Weil G = {B n : 1 ⩽ n ⩽ N} ∪ {0, Ω} ein ∩-stabiler Erzeuger von F ist, folgt die Behauptung aus (2.4) wegen N

∫ 𝔼(X | F ) dℙ = ∫ ∑ 𝔼(X | B n )𝟙B n dℙ

Bi

Bi

n=1

N

= ∑ 𝔼(X | B n ) ∫ 𝟙B n ∩ B i dℙ n=1

= 𝔼(X | B i )ℙ(B i ) = 𝔼(X𝟙B i ),

1 ⩽ i ⩽ N.

Entsprechend zeigt man ∫Ω 𝔼(X | F ) dℙ = 𝔼X. Wenn 𝔼(X | B) := 0 für B ∈ A mit ℙ(B) = 0 gesetzt wird, gilt die eben angestellte Rechnung sogar für beliebige abzählbare Partitionierungen von Ω. Wir wollen nun die Existenz und Eindeutigkeit der bedingten Erwartung zeigen. 2.4 Lemma. Die bedingte Erwartung 𝔼(X | F ) einer ZV X ist bis auf Nullmengen eindeutig. Beweis. Es seien Y, Y 󸀠 zwei Versionen von 𝔼(X | F ). Dann ist {Y > Y 󸀠 } ∈ F und (2.3)

∫ (Y 󸀠 − Y) dℙ = 0 󳨐⇒ ℙ(Y > Y 󸀠 ) = 0 󳨐⇒ Y ⩽ Y 󸀠 f.s.

{Y>Y 󸀠 }

0} ∈ F , und beachten 𝔼 |𝔼(X | F )| = ∫ 𝔼(X | F ) dℙ − ∫ 𝔼(X | F ) dℙ F−

F+

(2.3)

= ∫ X dℙ − ∫ X dℙ ⩽ ∫ |X| dℙ + ∫ |X| dℙ ⩽ 𝔼|X|. F+

F−

F+

F−

Indem wir X durch X − Z ersetzen und 𝔼(X − Z | F ) = 𝔼(X | F ) − 𝔼(Z | F ) beachten, folgt (2.5) für X, Z ∈ L2 (A ).

4o Wir approximieren schließlich X ∈ L1 (A ) mit X n := (−n) ∨ X ∧ n ∈ L2 (A ) fast sicher und in L1 . Mit Hilfe von Schritt 3o erhalten wir dom. Konvergenz

𝔼 |𝔼(X m | F ) − 𝔼(X n | F )| ⩽ 𝔼|X m − X n | 󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀→ 0, m,n→∞

L1 (F )-Cauchyfolge.

d.h. (𝔼(X n | F ))n∈ℕ ist eine Daher existiert der L1 -Limes Y = limn→∞ 𝔼(X n | F ). Weil 𝟙F X = limn→∞ 𝟙F X n und 𝟙F Y = limn→∞ 𝟙F 𝔼(X n | F ) in L1 für alle F ∈ F gilt, folgt (2.3)

∀F ∈ F : ∫ Y dℙ = lim ∫ 𝔼(X n | F ) dℙ = lim ∫ X n dℙ = ∫ X dℙ, F

n→∞

F

n→∞

F

F

10 | 2 Bedingte Erwartung also ist Y eine Version von 𝔼(X | F ) für X ∈ L1 (A ). Die Linearität und Stetigkeit (2.5) zeigt man nun genauso wie in 2o und 3o . 2.6 Satz (Eigenschaften der bedingten Erwartung). Es sei (Ω, A , ℙ) ein W-Raum und F ⊂ A eine σ-Algebra. Dann gilt für X, Z ∈ L1 (A ) und a, b ∈ ℝ: a) 𝔼(X | F ) ∈ L1 (F ) und ‖𝔼(X | F )‖L1 ⩽ ‖X‖L1 . (Kontraktion) b) 𝔼(1 | F ) = 1. (Konservativität) c) 𝔼(aX + bZ | F ) = a 𝔼(X | F ) + b 𝔼(Z | F ). (Linearität) d) Wenn X ∈ L2 (A ), dann ist 𝔼(X | F ) das (Minimierer) eindeutig bestimmte Element aus L2 (F ) mit inf

Φ∈L2 (F )

‖X − Φ‖L2 = ‖X − 𝔼(X | F )‖L2 .

e) Ist H ⊂ F eine weitere σ-Algebra, dann gilt (tower property) 𝔼 [𝔼(X | F ) | H ] = 𝔼(X | H ). f) 𝔼(Φ ⋅ X | F ) = Φ ⋅ 𝔼(X | F ) ∀Φ F -messbar und 𝔼|Φ ⋅ X| < ∞. (pull out) g) 𝔼(Φ | F ) = Φ ∀Φ ∈ L1 (F ). (pull out) h) 0 ⩽ X ⩽ 1 󳨐⇒ 0 ⩽ 𝔼(X | F ) ⩽ 1. (Markov-Eigenschaft) j) X ⩽ Z 󳨐⇒ 𝔼(X | F ) ⩽ 𝔼(Z | F ). (Monotonie) k) |𝔼(X | F )| ⩽ 𝔼(|X| | F ). (Dreiecksungleichung) l) 𝔼(X | {0, Ω}) = 𝔼X. m) 𝔼 [𝔼(X | F )] = 𝔼X. (tower property) Die Eigenschaft 2.6.d hat eine sehr anschauliche Interpretation: 𝔼(X | F ) ist der least square predictor für die A -messbare ZV X, wenn nur die „Information“ aus F ⊂ A bekannt ist.

Beweis von Satz 2.6. a) und c) folgen aus Satz 2.5.

b) Weil die konstante ZV X ≡ 1 messbar bezüglich F ist, folgt die Behauptung direkt aus Definition 2.1 und der Eindeutigkeit (Lemma 2.4) der bedingten Erwartung. d) Für X ∈ L2 (A ), Y := 𝔼(X | F ) ∈ L2 (F ) und beliebiges Ψ ∈ L2 (F ) gilt 𝔼 (|X − Ψ|2 ) = 𝔼 (|(X − Y) + (Y − Ψ)|2 )

= 𝔼 (|X − Y|2 ) + 𝔼 (|Ψ − Y|2 ) + 2𝔼((X − Y) (Y − Ψ) ) ⩾ 𝔼 (|X − Y|2 ) .



=0 wegen (2.6)

Das zeigt, dass Y der Minimierer des Funktionals L2 (F ) ∋ Φ 󳨃→ ‖X − Φ‖L2 ist. e) Für H ∈ H ⊂ F gilt

(2.3)

(2.3)

∫ 𝔼(X | F ) dℙ = ∫ X dℙ = ∫ 𝔼(X | H ) dℙ.

H originale ZV

H

H

2 Bedingte Erwartung | 11

Mithin ist die H -messbare ZV 𝔼(X | H ) eine Version der bedingten Erwartung (bezüglich der σ-Algebra H ) der ZV 𝔼(X | F ).

f) & g) Zunächst nehmen wir an, dass Φ = 𝟙G für ein G ∈ F ist. Dann ist für alle F∈F ∫ 𝟙G ⋅ X dℙ = ∫ X dℙ = ∫ 𝔼(X | F ) dℙ = ∫ 𝟙G ⋅ 𝔼(X | F ) dℙ. F

F∩ G

F∩ G

F

Wegen der Linearität des (bedingten) Erwartungswerts folgt daraus für F -messbare einfache Funktionen Φ n ∫ Φ n ⋅ X dℙ = ∫ Φ n ⋅ 𝔼(X | F ) dℙ ∀F ∈ F 󳨐⇒ 𝔼(Φ n ⋅ X | F ) = Φ n ⋅ 𝔼(X | F ). F

F

Mit Hilfe des Sombrero-Lemmas [MI, Korollar 7.12] können wir jede F -messbare ZV Φ durch eine Folge von einfachen, F -messbaren Funktionen Φ n approximieren, die zudem die Ungleichung |Φ n | ⩽ |Φ| erfüllen. Wegen 𝔼|Φ ⋅ X| < ∞ folgt Φ n ⋅ X 󳨀󳨀󳨀󳨀→ Φ ⋅ X n→∞

in L1 und fast sicher.

Weil die bedingte Erwartung stetig in L1 ist, vgl. Satz 2.5, erhalten wir dann 𝔼(Φ ⋅ X | F ) = lim 𝔼(Φ n(k) ⋅ X | F ) = lim Φ n(k) ⋅ 𝔼(X | F ) = Φ ⋅ 𝔼(X | F ). k→∞

k→∞

h) & j) Es sei X ⩾ 0. Wir betrachten die Menge {𝔼(X | F ) < 0} ∈ F . Nach Definition der bedingten Erwartung gilt 0⩽



{𝔼(X|F )c}∩ {Z⩽c} + 𝟙{X⩽c}∩ {Z>c} )] = 0 und beachten Sie die Gleichheit {X > Z} = ⋃q∈ℚ {Z ⩽ q} ∩ {X > q}.

3 Martingale In der Einleitung (1.2) haben wir uns überlegt, dass das Vermögen (X n )n∈ℕ0 eines Spielers bei einem fairen Spiel mit endlich vielen Ausgängen der Beziehung 𝔼 (X n | X0 = x0 , X1 = x1 , X2 = x2 , . . . , X n−1 = x n−1 ) = x n−1 ,

n ∈ ℕ,

(3.1)

genügen sollte. Mit Hilfe der in Kapitel 2 eingeführten (abstrakten) bedingten Erwartung können wir diese Tatsache durch 𝔼 (X n | X0 , X1 , X2 , . . . , X n−1 ) = X n−1 ,

kurz für: 𝔼 (X n | σ(X0 , X1 , X2 , . . . , X n−1 ))

n ∈ ℕ,

(3.2)

ausdrücken. Hierzu beachten wir, dass die σ-Algebra σ(X0 , . . . , X n−1 ) von Mengen der Art ⋂n−1 i=0 {X i = x i } erzeugt wird, vgl. auch Aufg. 2.5. Weil die bedingte Erwartung für beliebige integrierbare ZV definiert ist, bleibt die Beziehung (3.2) auch für nicht-diskrete ZV auf einem W-Raum (Ω, A , ℙ) gültig. Eine Indexmenge I heißt aufsteigend geordnet oder aufsteigend filtrierend, wenn auf I eine (nicht notwendig totale) Ordnungsrelation „⩽“ definiert ist, so dass ∀s, t ∈ I

∃u ∈ I : s ⩽ u & t ⩽ u

(3.3)

gilt. Wir werden meistens Indexmengen I ⊂ ℤ betrachten, doch ist es sinnvoll die folgenden Definitionen etwas allgemeiner zu halten. 3.1 Definition. Eine Filtration ist eine aufsteigende Familie von σ-Algebren (Ft )t∈I , Ft ⊂ A , d.h. ∀s, t ∈ I, s ⩽ t : Fs ⊂ Ft . (3.4)

Wir schreiben F∞ := σ (⋃t∈I Ft ). Eine Familie von ZV (X t )t∈I auf dem W-Raum (Ω, A , ℙ) heißt adaptiert an (Ft )t∈I , wenn jedes X t eine Ft -messbare ZV ist. In diesem Fall schreiben wir (X t , Ft )t∈I . Eine Familie von ZV (X t )t∈I wird oft (stochastischer) Prozess genannt und die Indexmenge wird als „Zeit“ interpretiert. Wenn die Indexmenge klar ist, schreibt man auch kurz X = (X t )t∈I .

3.2 Definition. Es sei (X t )t∈I eine Familie von ZV und (Ft )t∈I eine Filtration. Wenn a) (X t )t∈I an (Ft )t∈I adaptiert ist, b) 𝔼|X t | < ∞ für alle t ∈ I gilt, c) 𝔼(X t | Fs ) = X s für alle s ⩽ t, s, t ∈ I gilt, dann heißt (X t )t∈I Martingal (bezüglich der Filtration (Ft )t∈I ). Gilt statt c) c󸀠 ) 𝔼(X t | Fs ) ⩾ X s für alle s ⩽ t, s, t ∈ I, dann heißt (X t )t∈I Submartingal. c󸀠󸀠 ) 𝔼(X t | Fs ) ⩽ X s für alle s ⩽ t, s, t ∈ I, dann heißt (X t )t∈I Supermartingal. https://doi.org/10.1515/9783110350685-003

18 | 3 Martingale Im Text verwenden wir die Abkürzung „MG“ für „Martingal“. Wir werden von nun an meist Indexmengen I ⊂ ℤ mit der natürlichen Ordnung auf ℤ betrachten. Solche (Sub-/Super-)Martingale nennt man auch diskrete (Sub/Super-)Martingale oder (Sub/Super-)Martingale in diskreter Zeit. 󳶳 Merkhilfe. Ein Submartingal „wächst“, ein Supermartingal „fällt“: tower

(X t )t∈I Sub-MG 󳨐⇒ 𝔼(X t | Fs ) ⩾ X s 󳨐⇒ 𝔼 [𝔼(X t | Fs )] ⩾ 𝔼X s . ∀s⩽t

∀s⩽t

= 𝔼X t

󳶳 Wichtig. Die Eigenschaften c), c󸀠 ), c󸀠󸀠 ), eines (Sub-/Super-)Martingals kann man auch in Integralform schreiben, z.B. gilt 𝔼(X t | Fs ) ⩾ X s ⇐⇒ ∀F ∈ Fs : ∫ X t dℙ ⩾ ∫ X s dℙ. F

󳶳 Die Bedingungen a) & b) fasst man häufig als X i ∈

L1 (F

i ),

F

i ∈ I, zusammen.

󳶳 Wenn die Indexmenge bekannt ist, schreibt man oft nur X = (X t )t∈I , X 2 = (X t2 )t∈I usw.

Ehe wir Beispiele für (Sub-/Super-)Martingale angeben, müssen wir ein technisches Detail klären. 3.3 Lemma. Es seien ξ1 , . . . , ξ n reelle ZV und X k = ξ1 + ⋅ ⋅ ⋅ + ξ k . Dann gilt σ(ξ1 , . . . , ξ n ) = σ(X1 , . . . , X n ).

Beweis. Wenn wir jedes X k als messbare Funktion von ξ1 , . . . , ξ k und jedes ξ k als messbare Funktion von X1 , . . . , X k darstellen können, folgt bereits die Behauptung. Setze X0 = 0. Die kte Partialsumme X k = ξ1 + ⋅ ⋅ ⋅ + ξ k , k = 1, 2, . . . , n, ist offensichtlich σ(ξ1 , . . . , ξ k )- und auch σ(ξ1 , . . . , ξ n )-messbar. Das zeigt σ(X1 , . . . , X n ) ⊂ σ(ξ1 , . . . , ξ n ).

Andererseits gilt ξ k = X k − X k−1 , k = 1, 2, . . . , n, woraus die Messbarkeit von ξ k bezüglich σ(X1 , . . . , X k ) und σ(X1 , . . . , X n ) folgt. Also gilt auch σ(X1 , . . . , X n ) ⊃ σ(ξ1 , . . . , ξ n ).

Die von einer Folge (S n )n∈ℕ erzeugte Filtration σ(S1 , . . . , S n ) wird oft als natürliche oder kanonische Filtration bezeichnet.

Wir können nun Beispiele für (Sub-/Super-)Martingale angeben. 3.4 Beispiel. Es sei (Ω, A , ℙ) ein Wahrscheinlichkeitsraum. a) Es sei (a n )n∈ℕ0 ⊂ ℝ eine monoton wachsende Folge. Dann ist (X n )n∈ℕ0 ≡ (a n )n∈ℕ0 ein Submartingal bezüglich jeder Filtration in (Ω, A , ℙ).

b) (X n , Fn )n∈ℕ0 ist genau dann ein Martingal, wenn 𝔼(X n | Fn−1 ) = X n−1 für alle n ∈ ℕ gilt. „⇒“: Wähle m = n − 1 in Definition 3.2.c.

3 Martingale

| 19

„⇐“: Indem wir die tower property iterativ anwenden, erhalten wir für m < n 𝔼(X n | Fm ) = 𝔼 [𝔼(X n | Fn−1 ) | Fm ] tower

=

Annahme

𝔼 [X n−1 | Fm ] = ⋅ ⋅ ⋅ = X m .

Eine entsprechende Aussage gilt für Sub- und Supermartingale.

c) Random Walk/Summenmartingal. Es sei (ξ i )i∈ℕ ⊂ L1 (A ) eine Folge von integrierbaren iid ZV und Fn = σ(ξ1 , . . . , ξ n ). Dann gilt für die Folge der Partialsummen X n = ξ1 + ⋅ ⋅ ⋅ + ξ n , X0 := 0, F0 := {0, Ω}

Das folgt sofort aus

⇐⇒ 𝔼ξ1 = 0;

{Martingal { { X n ist ein {Submartingal { { {Supermartingal

⇐⇒ 𝔼ξ1 ⩾ 0;

⇐⇒ 𝔼ξ1 ⩽ 0.

𝔼(X n | Fn−1 ) = 𝔼(X n−1 + ξ n | Fn−1 )

= 𝔼(X n−1 | Fn−1 ) + 𝔼(ξ n | Fn−1 ) = X n−1 + 𝔼ξ n . Fn−1 -mb.

⊥⊥ Fn−1

d) Produktmartingal. Es sei (ξ i )i∈ℕ eine Folge von positiven iid ZV mit 𝔼ξ1 = 1 und Fn = σ(ξ1 , . . . , ξ n ). Dann ist X n = ∏ni=1 ξ i , X0 = 1, F0 = {0, Ω} ein Martingal: 𝔼(X n | Fn−1 )

=

pull out

=

𝔼(X n−1 ⋅ ξ n | Fn−1 ) X n−1 𝔼(ξ n | Fn−1 ) ⊥⊥ Fn−1

=

X n−1 𝔼ξ n = X n−1 .

e) Lévysches Martingal. Es sei (Fn )n∈ℕ0 eine Filtration und X ∈ L1 (A ). Dann ist X n := 𝔼(X | Fn ) ein Martingal. Nach Definition ist X n adaptiert und integrierbar: 𝔼|X n | = 𝔼|𝔼(X | Fn )| ⩽ 𝔼(𝔼(|X| | Fn )) = 𝔼|X| < ∞. Wegen der tower property gilt 𝔼(X n+k | Fn ) = 𝔼(X | Fn+k | Fn ) = 𝔼(X | Fn ) = X n . tower

kurz für: 𝔼[𝔼(X | Fn+k ) | Fn ]

f) Pólya-Urne. Aus einer Urne mit anfänglich r ∈ ℕ0 roten und b ∈ ℕ0 blauen Kugeln ziehen wir mit Zurücklegen; außerdem fügen wir nach jeder Ziehung a ∈ ℕ0 weitere Kugeln der jeweils gezogenen Farbe hinzu. Wir bezeichnen mit R n bzw. B n die Zahl der roten und blauen Kugeln in der Urne nach Abschluss der nten Runde. {1, Y n := { 0, {

gezogene Kugel in Runde n ist rot; gezogene Kugel in Runde n ist blau;

X n :=

Rn . Rn + Bn

20 | 3 Martingale Dann ist (X n )n∈ℕ0 ein Martingal bezüglich Fn := σ(Y1 , . . . , Y n ), F0 := {0, Ω}. Insbesondere gilt 𝔼X n = 𝔼X0 = r/(r + b). Zunächst machen wir uns klar, wie die ZV R n , B n berechnet werden: Wir legen aY i rote und a(1 − Y i ) blaue Kugeln nach dem iten Zug in die Urne, also gilt R0 = r,

B0 = b,

R n = r + aY1 + ⋅ ⋅ ⋅ + aY n ,

B n = b + a(1 − Y1 ) + ⋅ ⋅ ⋅ + a(1 − Y n ),

R n + B n = r + b + an.

Die Wahrscheinlichkeit, in der (n + 1)ten Ziehung „rot“ zu erhalten, hängt von allen vorangehenden Ziehungen ab:3 ℙ(Y n+1 = 1 | Y1 , . . . , Y n ) =

Rn Rn = . R n + B n r + b + an

Offensichtlich ist 0 ⩽ X n ⩽ 1, d.h. X n ist integrierbar. Weil sich X n durch Y1 , . . . , Y n ausdrücken lässt (s.o.), ist X n auch Fn -messbar und es gilt 𝔼(X n+1 | Y1 , . . . , Y n ) 󵄨󵄨 R n+1 󵄨󵄨 = 𝔼( 󵄨 Y1 , . . . , Y n ) R n+1 + B n+1 󵄨󵄨󵄨 R n + aY n+1 󵄨󵄨󵄨󵄨 = 𝔼( 󵄨 Y1 , . . . , Y n ) r + b + a(n + 1) 󵄨󵄨󵄨 󵄨󵄨 󵄨󵄨 aY n+1 Rn 󵄨󵄨 󵄨󵄨 = 𝔼( 󵄨󵄨 Y1 , . . . , Y n ) + 𝔼 ( 󵄨 Y1 , . . . , Y n ) r + b + a(n + 1) 󵄨󵄨 r + b + a(n + 1) 󵄨󵄨󵄨 Rn a = + 𝔼 (Y n+1 | Y1 , . . . , Y n ) r + b + a(n + 1) r + b + a(n + 1) Rn a = + 𝔼 (𝟙{Y n+1 =1} | Y1 , . . . , Y n ) r + b + a(n + 1) r + b + a(n + 1) a Rn = + ℙ(Y n+1 = 1 | Y1 , . . . , Y n ) r + b + a(n + 1) r + b + a(n + 1) a Rn Rn + ⋅ = r + b + a(n + 1) r + b + a(n + 1) r + b + an (r + b + an)R n + aR n = (r + b + a(n + 1))(r + b + an) (r + b + a(n + 1))R n Rn = = Xn . = (r + b + a(n + 1))(r + b + an) R n + B n

g) Waldsches Martingal. Es seien (ξ n )n∈ℕ iid ZV, so dass die momentenerzeugende Funktion ϕ(θ) := 𝔼 exp[θξ1 ] für ein θ ≠ 0 existiert. Dann ist X0 := 1

und

X n := ϕ(θ)−n exp [θS n ] ,

n

S n := ∑ ξ i ,

3 Vergleichen Sie folgende Aussage mit Bemerkung 2.10 und Aufg. 2.5

i=1

3 Martingale

| 21

ein Martingal bezüglich Fn := σ(ξ1 , . . . , ξ n ). Das folgt so: Offensichtlich ist X n adaptiert und 𝔼X n = 1. Weiterhin gilt 𝔼(X n+1 | Fn )

=

ϕ(θ)−n−1 𝔼 (exp [θS n+1 ] | Fn )

ϕ(θ)−n−1 𝔼 (exp [θS n ] exp [θξ n+1 ] | Fn )

= pull out

=

ϕ(θ)−n−1 exp [θS n ] 𝔼 (exp [θξ n+1 ] | Fn )

ξ n+1 ⊥⊥ Fn

=

=

iid

=

ϕ(θ)−n−1 exp [θS n ] 𝔼 (exp [θξ n+1 ])

ϕ(θ)−n−1 exp [θS n ] 𝔼 (exp [θξ1 ]) ϕ(θ)−n−1 ϕ(θ) exp [θS n ] = X n .

h) Verzweigungsprozess. Es seien (N n,i )i,n∈ℕ iid ℕ0 -wertige, integrierbare ZV. Die ZV N n,i ist die Nachkommenschaft eines Organismus zur Zeit n, wenn die Gesamtpopulation die Größe i hat. Es sei μ = 𝔼N n,i . Wir stellen nun die Größe der Population als Folge von ZV (X n )n∈ℕ0 dar: X0 := 1

und

{N n,1 + ⋅ ⋅ ⋅ + N n,X n−1 , X n := { 0, {

wenn X n−1 > 0, wenn X n−1 = 0.

Für die natürliche Filtration Fn := σ(X0 , . . . , X n ) erhalten wir 𝔼(X n | Fn−1 )

=

=

pull out

=

N n,i ⊥⊥ Fn−1

=

=

iid

𝔼 (N n,1 + ⋅ ⋅ ⋅ + N n,X n−1 | Fn−1 ) ∞

∑ 𝔼((N n,1 + ⋅ ⋅ ⋅ + N n,X n−1 )𝟙{X n−1 =k} | Fn−1 )

k=1 ∞

=N n,k

∑ 𝟙{X n−1 =k} 𝔼 ((N n,1 + ⋅ ⋅ ⋅ + N n,k ) | Fn−1 )

k=1 ∞

∑ 𝟙{X n−1 =k} 𝔼 (N n,1 + ⋅ ⋅ ⋅ + N n,k )

k=1 ∞

∑ 𝟙{X n−1 =k} kμ = μX n−1 .

k=1

Es folgt, dass (X n /μ n , Fn )n⩾0 ein Martingal ist. i) Likelihood ratios. Sei ℚ ein weiteres W-Maß auf (Ω, A ) und Fn = σ(Y1 , . . . , Y n ) für eine Folge von ZV (Y n )n∈ℕ . Wir nehmen an, dass ℙY1 ,...,Y n (dy1 , . . . , dy n ) = p n (y1 , . . . , y n ) dy1 . . . dy n ,

ℚY1 ,...,Y n (dy1 , . . . , dy n ) = q n (y1 , . . . , y n ) dy1 . . . dy n

22 | 3 Martingale gilt. Der Einfachheit halber sei p n > 0. Wir definieren die likelihood ratio X n :=

q n (Y1 , . . . , Y n ) . p n (Y1 , . . . , Y n )

Dann ist X n unter dem von ℙ induzierten Erwartungswert 𝔼ℙ ein Martingal bezüglich Fn . Um das zu zeigen, wählen wir eine typische Erzeugermenge F = ⋂ni=1 {Y i ∈ B i }, B1 , . . . , B n ∈ B(ℝ), eines ∩-stabilen Erzeugers von Fn . Es gilt ∫ 𝔼ℙ (X n+1 | Fn ) dℙ F

=

Def

=

Def

= = =

Fubini

=

∫ X n+1 dℙ F

q n+1 (Y1 , . . . , Y n+1 ) 𝟙B (Y1 ) ⋅ . . . ⋅ 𝟙B n (Y n ) dℙ p n+1 (Y1 , . . . , Y n+1 ) 1 q n+1 (y1 , . . . , y n+1 ) 𝟙B (y1 ) ⋅ . . . ⋅ 𝟙B n (y n ) × ∫⋅⋅⋅∫ p n+1 (y1 , . . . , y n+1 ) 1 × ℙ(Y1 ∈ dy1 , . . . , Y n+1 ∈ dy n+1 ) ∫

∫⋅⋅⋅∫

q n+1 (y1 , . . . , y n+1 ) 𝟙B (y1 ) ⋅ . . . ⋅ 𝟙B n (y n ) p n+1 (y1 , . . . , y n+1 ) × p n+1 (y1 , . . . , y n+1 ) 1 × dy1 . . . dy n dy n+1

∫ . . . ∫ ∫ q n+1 (y1 , . . . , y n , y n+1 ) dy n+1 dy n . . . dy1

B1

Bn ℝ

. . . = ∫ X n dℙ, F

und es folgt 𝔼ℙ (X n+1 | Fn ) = X n .

Das vorangehende Beispiel hat folgende Interpretation: p n , q n sind konkurrierende W-Dichten und wir müssen auf Grund der Beobachtung Y1 = y1 , . . . , Y n = y n entscheiden, bezüglich welcher Dichte die ZV (Y n )n∈ℕ verteilt sind. Je größer X n ist, desto mehr favorisieren wir q n gegenüber p n . Die Hypothese ist, dass ℙ die wahre Verteilung von Y1 , Y2 , . . . ist, d.h. X n ist ein Martingal unter ℙ, aber i.Allg. nicht unter ℚ.

Wir kommen nun zu einigen grundlegenden Eigenschaften von Martingalen.

3.5 Satz. Alle folgenden Aussagen gelten bezüglich derselben Filtration (Fn )n∈ℕ0 auf dem W-Raum (Ω, A , ℙ). a) Wenn (X n )n∈ℕ0 , (Y n )n∈ℕ0 Martingale sind, dann ist auch (aX n +bY n )n∈ℕ0 , a, b ∈ ℝ, ein Martingal. b) Wenn (X n )n∈ℕ0 , (Y n )n∈ℕ0 Submartingale [Supermartingale] sind, dann ist auch (aX n + bY n )n∈ℕ0 , a, b ⩾ 0, ein Submartingal [Supermartingal]. c) Wenn (X n )n∈ℕ0 , (Y n )n∈ℕ0 Supermartingale sind, dann ist auch (X n ∧ Y n )n∈ℕ0 ein Supermartingal.

3 Martingale

| 23

d) Wenn (X n )n∈ℕ0 ein Submartingal ist, dann ist auch (X +n )n∈ℕ0 ein Submartingal. e) Es sei V : ℝ → ℝ eine konvexe Funktion. Wenn (X n )n∈ℕ0 ein Martingal ist und 𝔼|V(X n )| < ∞, dann ist (V(X n ))n∈ℕ0 ein Submartingal. f) Es sei V : ℝ → ℝ eine konvexe und monoton wachsende Funktion. Wenn (X n )n∈ℕ0 ein Submartingal ist und 𝔼|V(X n )| < ∞, dann ist (V(X n ))n∈ℕ0 ein Submartingal. g) (X n )n∈ℕ0 ist genau dann ein Martingal, wenn (X n )n∈ℕ0 sowohl ein Sub- als auch ein Supermartingal ist. h) (X n )n∈ℕ0 ist genau dann ein Submartingal, wenn (−X n )n∈ℕ0 ein Supermartingal ist.

Beweis. Die Aussagen von a), b), g), h) folgen unmittelbar aus der Definition eines Sub- oder Supermartingals und aus der Linearität der bedingten Erwartung. c) Es gilt X n ∧ Y n = 12 (X n + Y n − |X n − Y n |) und daraus lesen wir sofort ab, dass X n ∧ Y n Fn -messbar und integrierbar ist. Für m ⩽ n gilt { { ⩽ Xm { 𝔼(X n | Fm ) 𝔼(X n ∧ Y n | Fm ) ⩽ { Super-MG { monoton { 𝔼(Y n | Fm ) ⩽ Ym { Super-MG

2.6.j

und somit 𝔼(X n ∧ Y n | Fm ) ⩽ X m ∧ Y m .

d) folgt mit V(x) := x+ = x ∨ 0 aus Teil e).

e) & f) Als konvexe Funktion ist V messbar, also gilt sogar V(X n ) ∈ L1 (Fn ). Wir nehmen zunächst an, dass V monoton wächst und (X n )n∈ℕ0 ein Submartingal ist. Die bedingte Jensensche Ungleichung (Satz 2.7.d) zeigt dann, dass 𝔼(V(X n ) | Fm ) ⩾ V( 𝔼(X n | Fm ) ) ⩾ Xm

V wachsend



V(X m )

gilt. Der Martingal-Fall ist einfacher und benötigt nicht die Monotonie von V.

Die Doob–Zerlegung Wir wollen nun einen wichtigen Zusammenhang zwischen Martingalen und Submartingalen erklären. 3.6 Definition. Eine Folge von reellen ZV (A n )n∈ℕ auf einem W-Raum (Ω, A , ℙ) heißt vorhersagbar (engl. predictable) bezüglich der Filtration (Fn )n∈ℕ0 , wenn jede ZV A n messbar bezüglich Fn−1 ist (n ∈ ℕ). Um die Sprechweise zu vereinfachen, definieren wir (wenn nötig) F−1 := {0, Ω}, d.h. ein vorhersagbarer Prozess (A n )n∈ℕ0 muss mit einer konstanten ZV A0 starten.

24 | 3 Martingale 3.7 Satz (Doob-Zerlegung). Es sei (X n , Fn )n∈ℕ0 ⊂ L1 (ℙ) adaptiert. Dann gilt X n = X0 + M n + A n ,

(M n )n∈ℕ0 ⊂ L (ℙ), M0 = 0 1

(A n )n∈ℕ0 ⊂ L (ℙ), A0 = 0 1

n ∈ ℕ0 ,

(3.5)

ist ein Martingal,

(3.6)

ist vorhersagbar.

(3.7)

Die Darstellung (3.5) ist bis auf Ununterscheidbarkeit eindeutig, d.h. für jede weitere derartige Darstellung X n = X0 + M 󸀠n + A󸀠n gilt ℙ(∀n ∈ ℕ : M n = M 󸀠n , A n = A󸀠n ) = 1.

Zusatz: (X n )n∈ℕ0 ist genau dann ein Submartingal, wenn A n ⩽ A n+1 ⩽ ⋅ ⋅ ⋅ f.s.

Beweis. 1o Wir leiten zunächst notwendige Eigenschaften für die Familien (M n )n∈ℕ0 und (A n )n∈ℕ0 her, die wir dann zum Konstruktionsprinzip machen können. Angenommen, die Bedingungen (3.5)–(3.7) sind erfüllt, dann erhalten wir 𝔼(X i − X i−1 | Fi−1 ) = 𝔼(M i − M i−1 | Fi−1 ) + 𝔼(A i − A i−1 | Fi−1 ) =0, da MG

(3.8)

=A i −A i−1 da vorhersagbar

= A i − A i−1 .

Indem wir über i summieren, folgt

n

A n = ∑ 𝔼(X i − X i−1 | Fi−1 ).

(3.9)

i=1

2o Nun sei (X n , Fn )n∈ℕ0 ein beliebiger adaptierter Prozess, und wir setzen (3.5)–(3.7) nicht voraus. Wir definieren jetzt A n durch (3.9). Offensichtlich gilt dann A n ist Fn−1 -messbar und A n ∈ L1 (Fn−1 )

(beachte: X ∈ L1 (ℙ) 󳨐⇒ 𝔼(X | F ) ∈ L1 (ℙ), vgl. Satz 2.5), d.h. (3.7) ist erfüllt. Um auf die Darstellung (3.5) zu kommen, müssen wir M n := X n − X0 − A n ,

n ∈ ℕ0 ,

(3.10)

setzen. Wir überprüfen (3.6). Klar ist M n ∈ L1 (Fn ) und es gilt (3.10)

𝔼(M n − M n−1 | Fn−1 ) = 𝔼(X n − X n−1 | Fn−1 ) − 𝔼(A n − A n−1 | Fn−1 ) = 0, = 𝔼(X n −X n−1 |Fn−1 ) wg. (3.9)

d.h. (M n )n∈ℕ0 ist ein Martingal.

3o In Schritt 1o haben wir gesehen, dass (3.9) eine notwendige Bedingung ist, daher wird durch (3.10) (M n )n∈ℕ0 eindeutig definiert: es sei X n = X0 + A󸀠n + M 󸀠n eine weitere Zerlegung, für die (M 󸀠n )n∈ℕ0 ein Martingal und (A󸀠n )n∈ℕ0 vorhersagbar ist; dann gilt ∀n ∈ ℕ : ℙ (M n ≠ M 󸀠n ) = ℙ (A n ≠ A󸀠n ) = 0

󳨐⇒ ℙ (∀n ∈ ℕ : M n = M 󸀠n , A n = A󸀠n ) = ℙ [ ⋂ {M n = M 󸀠n } ∩ {A n = A󸀠n }] = 1. n∈ℕ

3 Martingale

| 25

4o Der Zusatz folgt unmittelbar aus (3.8), wonach (X n )n∈ℕ0

Submartingal ⇐⇒ ∀n ∈ ℕ : A n − A n−1 ⩾ 0 f.s.

Die Doob-Zerlegung „in stetiger Zeit,“ d.h. für die Indexmenge T = [0, ∞), heißt Doob–MeyerZerlegung; diese ist zentral für die stochastische Integration. Der Beweis ist, verglichen mit dem Beweis von Satz 3.7, allerdings relativ aufwendig, vgl. [BM, Appendix A.6].

Der Kompensator Wir wollen noch einen besonders wichtigen Fall der Doob–Zerlegung studieren. Es sei X = (X n , Fn )n∈ℕ0 ein Martingal, so dass X n ∈ L2 (ℙ) für alle n ∈ ℕ0 gilt. Wegen 3.5.e ist (X 2n , Fn )n∈ℕ0 ein Submartingal, und die Doob-Zerlegung (Satz 3.7) zeigt, dass X 2n = X02 + M n + A n ,

M Martingal, A vorhersagbar, wachsend.

3.8 Definition. Ein Martingal X = (X n , Fn )n∈ℕ0 mit der Eigenschaft, dass X n ∈ L2 (ℙ) für alle n ∈ ℕ0 gilt, heißt quadrat-integrierbar oder L2 -Martingal. Der eindeutig bestimmte vorhersagbare, wachsende Prozess, der in der Doob-Zerlegung des Submartingals (X 2n )n∈ℕ0 auftritt, heißt Kompensator (engl. angle bracket) des Martingals X. Der Kompensator wird mit ⟨X⟩ = (⟨X⟩n )n∈ℕ0 bezeichnet. Der Kompensator ⟨X⟩ eines quadrat-integrierbaren Martingals X macht X 2 − ⟨X⟩ zu einem Martingal, „kompensiert“ also den Defekt, dass X 2 kein Martingal ist. Manche Autoren nennen den Kompensator auch vorhersagbare quadratische Variation (engl. predictable quadratic Variation).

Wir fassen einige nützliche Eigenschaften des Kompensators zusammen. 3.9 Lemma. Es sei X = (X n , Fn )n∈ℕ0 ein L2 -Martingal. Für den Kompensator ⟨X⟩ von X und alle m < n, m, n ∈ ℕ0 gilt 󵄨 󵄨 󵄨 𝔼 [(X n − X m )2 󵄨󵄨󵄨󵄨 Fm ] = 𝔼 [(X 2n − X 2m ) 󵄨󵄨󵄨󵄨 Fm ] = 𝔼 [⟨X⟩n − ⟨X⟩m 󵄨󵄨󵄨󵄨 Fm ] .

(3.11)

󵄨 󵄨 𝔼 [(X n − X n−1 )2 󵄨󵄨󵄨󵄨 Fn−1 ] = 𝔼 [(X 2n − X 2n−1 ) 󵄨󵄨󵄨󵄨 Fn−1 ] = ⟨X⟩n − ⟨X⟩n−1 .

(3.12)

Insbesondere erhalten wir für m = n − 1 Außerdem gilt

n n 󵄨 󵄨 ⟨X⟩n = ∑ 𝔼 ((X i − X i−1 )2 󵄨󵄨󵄨󵄨 Fi−1 ) = ∑ 𝔼 (X 2i − X 2i−1 󵄨󵄨󵄨󵄨 Fi−1 ) . i=1

i=1

(3.13)

26 | 3 Martingale Beweis. Es genügt, die Gleichheit (3.11) zu zeigen.

󵄨 󵄨 𝔼 [(X n − X m )2 󵄨󵄨󵄨󵄨 Fm ] = 𝔼 [X 2n − 2X n X m + X 2m 󵄨󵄨󵄨󵄨 Fm ]

󵄨 = 𝔼 [X 2n 󵄨󵄨󵄨󵄨 Fm ] − 2X m 𝔼 [X n | Fm ] +X 2m

pull out

=

𝔼 [X 2n

(3.14)

=X m da MG

󵄨 󵄨󵄨 󵄨󵄨 Fm ] − X 2m = 𝔼 [X 2n − X 2m 󵄨󵄨󵄨 Fm ] . 󵄨 󵄨

Da (X 2n − ⟨X⟩n )n∈ℕ0 ein Martingal ist, folgt 󵄨 𝔼 [X 2n − ⟨X⟩n 󵄨󵄨󵄨󵄨 Fm ] = X 2m − ⟨X⟩m , was wir zu

󵄨 𝔼 [X 2n − X 2m 󵄨󵄨󵄨󵄨 Fm ] = 𝔼 [⟨X⟩n | Fm ] − ⟨X⟩m = 𝔼 [⟨X⟩n − ⟨X⟩m | Fm ]

umstellen können. Weil ⟨X⟩ vorhersagbar ist, ist für m = n − 1 die ZV ⟨X⟩n − ⟨X⟩n−1 messbar bezüglich Fn−1 , und wir erhalten (3.12). Die Formel (3.13) ergibt sich durch Summation aus (3.12).

Die Martingaltransformation Wir kommen nun zu einem diskreten Analogon des stochastischen Integrals. Wie vorher verwenden wir die Kurzbezeichnungen M = (M n )n∈ℕ0 , ⟨M⟩ = (⟨M⟩n )n∈ℕ0 usw., und wir betrachten alle Prozesse bezüglich derselben Filtration (Fn )n∈ℕ0 .

3.10 Definition. Es sei (M n , Fn )n∈ℕ0 ein Submartingal und (C n )n∈ℕ ein vorhersagbarer Prozess. Dann heißt der durch C ∙ M0 := 0,

n

C ∙ M n := ∑ C i (M i − M i−1 ), i=1

n ∈ ℕ,

(3.15)

definierte Prozess C ∙ M Martingaltransformation. Die Definition von C ∙ M n erinnert an eine Riemann- oder Riemann-Stieltjes Summe mit dem Integranden C und dem Integrator M.

In der Einleitung, Kapitel 1, sind wir der Martingaltransformation bereits im Zusammenhang mit dem Vermögen eines Spielers begegnet: R n = R0 + e ∙ M n war das Vermögen des Spielers nach dem nten Spiel, wobei die iid ZV (ξ n )n∈ℕ und M n = ξ1 + ⋅ ⋅ ⋅ + ξ n das Auszahlungsprofil des Spiels darstellen und C n = e n (R0 , ξ1 , . . . , ξ n−1 ) der Einsatz im nten Spiel ist. Der folgende Satz besagt insbesondere, dass man den grundsätzlichen Charakter eines Spiels nicht durch den Einsatz einer (vorhersagbaren) Strategie ändern kann.

3 Martingale

| 27

3.11 Satz. Es sei M = (M n , Fn )n∈ℕ0 adaptiert, C = (C n )n∈ℕ vorhersagbar und für alle n ∈ ℕ gelte C n (M n − M n−1 ) ∈ L1 . a) Wenn M ein Martingal ist, dann ist auch C ∙ M = (C ∙ M n )n∈ℕ0 ein Martingal. b) Wenn M ein Submartingal und C n ⩾ 0 ist, dann ist auch C ∙ M = (C ∙ M n )n∈ℕ0 ein Submartingal. Die Voraussetzung C n (M n − M n−1 ) ∈ L1 ist typischerweise erfüllt, wenn |C n | ⩽ K und M n ∈ L1 oder C n , M n ∈ L2 für alle n ∈ ℕ0 gilt.

Beweis von Satz 3.11. Wir zeigen nur die Aussage b), Teil a) folgt analog. Nach Voraussetzung ist C ∙ M n integrierbar und für n ∈ ℕ gilt 󵄨󵄨 n 󵄨󵄨 𝔼(C ∙ M n | Fn−1 ) = 𝔼 ( ∑ C i (M i − M i−1 ) 󵄨󵄨󵄨 Fn−1 ) 󵄨󵄨 i=1 󵄨 =

󵄨 ∑ C i (M i − M i−1 ) +𝔼( C n (M n − M n−1 ) 󵄨󵄨󵄨 Fn−1 )

n−1 i=1

Fn−1 -mb pull out

=

C i ⩾0



Fn−1 -mb, da vorhersagbar

󵄨 ∑ C i (M i − M i−1 ) + C n 𝔼((M n − M n−1 ) 󵄨󵄨󵄨 Fn−1 )

n−1 i=1

n−1

=𝔼(M n |Fn−1 )−M n−1 ⩾0 da Sub-MG

∑ C i (M i − M i−1 ) = C ∙ M n−1 ;

i=1

wenn n = 1 ist, dann bedeutet ∑0i=1 die „leere Summe“, d.h. die Summation entfällt in diesem Fall. Das zeigt, dass C ∙ M ein Submartingal ist.

Wir werden nun die Martingaltransformation als Operator auf der Familie der quadratintegrierbaren Martingale (bezüglich derselben Filtration) betrachten. 3.12 Satz (Eigenschaften der Martingaltransformation). Es seien M = (M n , Fn )n∈ℕ0 ein L2 -Martingal, C = (C n )n∈ℕ ⊂ L∞ vorhersagbar, und ⟨M⟩ = (⟨M⟩n )n∈ℕ0 der Kompensator von M, vgl. Definition 3.8. a) C∙ : M2 → M2 (M2 sind alle L2 -Martingale bzgl. der Filtration (Fn )n∈ℕ0 ); b) M 󳨃→ C ∙ M und C 󳨃→ C ∙ M sind lineare Abbildungen; c) ⟨C ∙ M⟩n = C2 ∙ ⟨M⟩n := ∑ni=1 C2i (⟨M⟩i − ⟨M⟩i−1 ); d) C∙ ist eine L2 -Isometrie, d.h.: 𝔼 [(C ∙ M n )2 ] = 𝔼 [C2 ∙ ⟨M⟩n ]; e) 𝔼 [(C ∙ M n − C ∙ M m )2 | Fm ] = 𝔼 (⟨C ∙ M⟩n − ⟨C ∙ M⟩m | Fm ) für alle m ⩽ n.

Beweis. a) Nach Voraussetzung gilt supn∈ℕ |C n | ⩽ K fast sicher, d.h. C n (M n − M n−1 ) ist in L2 und damit auch in L1 . Insbesondere folgt C ∙ M n ∈ L2 . Aus Satz 3.11.a wissen wir, dass C ∙ M ein Martingal ist.

b) Folgt sofort aus der Definition der Martingaltransformation.

28 | 3 Martingale c) Mit Hilfe von Lemma 3.9 erhalten wir für das Martingal X = C ∙ M ⟨C ∙ M⟩n

(3.13)

=

= pull out

=

(3.12)

=

=

n

∑ 𝔼 ((C ∙ M i − C ∙ M i−1 )2 | Fi−1 )

i=1 n

∑ 𝔼 (C2i (M i − M i−1 )2 | Fi−1 )

i=1 n

∑ C2i 𝔼 ((M i − M i−1 )2 | Fi−1 )

i=1 n

∑ C2i (⟨M⟩i − ⟨M⟩i−1 )

i=1

C2 ∙ ⟨M⟩n .

d) Weil (C ∙ M)2 − ⟨C ∙ M⟩ ein Martingal mit (C ∙ M)20 − ⟨C ∙ M⟩0 = 0 ist, folgt aus c) c)

𝔼[(C ∙ M n )2 ] = 𝔼[⟨C ∙ M⟩n ] = 𝔼[C2 ∙ ⟨M⟩n ], MG

e) entspricht (3.11) für das Martingal X = C ∙ M.

n ∈ ℕ.

Wir beenden dieses Kapitel mit einer Charakterisierung der Martingaltransformation. Für zwei L2 -Martingale M = (M n , Fn )n∈ℕ0 und N = (N n , Fn )n∈ℕ0 ist der Ausdruck ⟨M, N⟩n :=

wohldefiniert und es gilt, dass

1 (⟨M + N⟩n − ⟨M − N⟩n ) 4

M n N n − ⟨M, N⟩n

(3.16)

ein Fn -Martingal ist.

(3.17)

Das folgt [] aus der „Polarisationsformel“ 4ab = (a + − (a − und der Tat2 sache, dass für zwei L -Martingale (bzw. derselben Filtration) M, N auch M ± N ein L2 -Martingal ist. Offensichtlich ist ⟨M, M⟩ = ⟨M⟩. b)2

b)2

3.13 Lemma. Es seien M = (M n , Fn )n∈ℕ0 , N = (N n , Fn )n∈ℕ0 L2 -Martingale und (C n )n∈ℕ ⊂ L∞ ein f.s. beschränkter vorhersagbarer Prozess. Dann gilt n

⟨C ∙ M, N⟩n = C ∙ ⟨M, N⟩n := ∑ C i (⟨M, N⟩i − ⟨M, N⟩i−1 ). i=1

Beweis. Weil M, N L2 -Martingale sind, haben wir für i = 1, . . . , n pull

(3.18)

𝔼(M i−1 N i | Fi−1 ) = M i−1 𝔼(N i | Fi−1 ) = M i−1 N i−1 = ⋅ ⋅ ⋅ = 𝔼(M i N i−1 | Fi−1 ), out

und damit erhalten wir

(3.17)

⟨M, N⟩i − ⟨M, N⟩i−1 = 𝔼 (M i N i − M i−1 N i−1 | Fi−1 )

= 𝔼 (M i N i − M i−1 N i − M i N i−1 + M i−1 N i−1 | Fi−1 ) = 𝔼 ((M i − M i−1 )(N i − N i−1 ) | Fi−1 )

3 Martingale

| 29

(vergleichen Sie diese Rechnung mit der Zeile (3.14) im Beweis von Lemma 3.9). Wenn wir nun M durch C ∙ M ersetzen, ergibt sich ⟨C ∙ M, N⟩i − ⟨C ∙ M, N⟩i−1 = 𝔼 ((C ∙ M i − C ∙ M i−1 )(N i − N i−1 ) | Fi−1 ) = 𝔼 (C i (M i − M i−1 )(N i − N i−1 ) | Fi−1 )

pull

= C i 𝔼 ((M i − M i−1 )(N i − N i−1 ) | Fi−1 )

out

= C i (⟨M, N⟩i − ⟨M, N⟩i−1 )) .

oben

Indem wir über i = 1, . . . , n summieren, erhalten wir (3.18).

Wir kommen nun zur angekündigten Charakterisierung der Martingaltransformation. 3.14 Korollar. Es seien (M n , Fn )n∈ℕ0 ein L2 -Martingal und (C n )n∈ℕ ⊂ L∞ vorhersagbar. Dann ist I = C ∙ M das einzige L2 -Martingal, das folgender Beziehung genügt: ⟨I, N⟩ = C ∙ ⟨M, N⟩

für alle L2 -Martingale (N n , Fn )n∈ℕ0 .

(3.19)

Beweis. Für I = C ∙ M folgt (3.19) aus Lemma 3.13. Umgekehrt gelte (3.19). Weil C ∙ M auch (3.19) erfüllt, gilt

⟨I − C ∙ M, N⟩ = 0 für alle L2 -Martingale (N n , Fn )n∈ℕ0 .

Wenn wir N = I − C ∙ M wählen, folgt

⟨I − C ∙ M⟩ = 0 󳨐⇒ ∀n : 𝔼[(I n − C ∙ M n )2 ] = 𝔼[⟨I − C ∙ M⟩n ] = 0,

also I n = C ∙ M n f.s. für alle n ∈ ℕ0 , somit I = C ∙ M f.s.

Aufgaben 1.

Es sei ϕ(θ) = 𝔼 e θX die momentenerzeugende Funktion einer reellen ZV X. Geben Sie Bedingungen für deren Existenz an und erklären Sie, warum diese Funktion „momentenerzeugend“ genannt wird. Bestimmen Sie die momentenerzeugende Funktion einer normalverteilten ZV.

2.

Es sei X1 ∼ U[0, 1] eine uniform auf [0, 1] verteilte ZV. Wir definieren eine Folge von ZV durch wenn X1 = x1 , . . . , X n−1 = x n−1 , dann ist X n ∼ U[0, x n−1 ].

3. 4.

Zeigen Sie, dass (X n )n∈ℕ ein Supermartingal bezüglich der Filtration σ(X1 , X2 , . . . , X n ) ist.

Es seien (ξ n )n∈ℕ unabhängige ZV mit 𝔼ξ n = 0 und 𝕍ξ n = σ2n . Dann ist M n := X 2n − 𝕍X n , X n := ξ1 + ⋅ ⋅ ⋅ + ξ n , X0 = 0, ein Martingal bezüglich Fn := σ(X0 , ξ1 , . . . , ξ n ).

Es seien ξ n , n ∈ ℕ, iid ZV mit ℙ(ξ n = 1) = p > 0 und ℙ(ξ n = −1) = q. Dann sind für X n := ξ1 + ⋅ ⋅ ⋅ + ξ n , X0 = 0, M n := X n − n(p − q),

q Xn N n := ( ) , p

Martingale bezüglich Fn := σ(ξ1 , . . . , ξ n ).

30 | 3 Martingale 5.

Zeigen Sie, dass für einen adaptierten Prozess (X n , Fn )n∈ℕ ⊂ L1 gilt:

∀n ∈ ℕ : 𝔼(X n | Fn−1 ) = X n−1 ⇐⇒ ∀k, n ∈ ℕ, k < n : 𝔼(X n | Fk ) = X k

Formulieren und beweisen Sie die analoge Aussage für Sub- und Supermartingale. 6. 7.

8.

Es sei (X n , Fn )n∈ℕ0 ein Supermartingal, so dass 𝔼X n ≡ const. Zeigen Sie, dass (X n )n∈ℕ0 ein Martingal ist.

Es seien M ein L2 -Martingal und C, D vorhersagbare und beschränkte Prozesse. Zeigen Sie, dass D ∙ (C ∙ M) = (DC) ∙ M.

Es seien (X n , Fn )n∈ℕ0 und (Y n , Fn )n∈ℕ0 zwei L2 -Martingale. Zeigen Sie: (a) 𝔼(X m Y n | Fm ) = X m Y m fast sicher für alle m ⩽ n; (b) 𝔼(X n Y n ) − 𝔼(X0 Y0 ) = ∑ni=1 𝔼((X i − X i−1 )(Y i − Y i−1 )); (c)

𝕍(X n ) = 𝕍(X0 ) + ∑ni=1 𝕍(X i − X i−1 );

(d) die ZV X0 , X1 − X0 , X2 − X1 , . . . , X i − X i−1 sind paarweise orthogonal;

(e) 9.

X n Y n − ⟨X, Y⟩n ist ein Martingal.

Es sei (Fn )n∈ℕ eine Filtration und F n ∈ Fn eine Folge von Mengen. Bestimmen Sie die DoobZerlegung der Folge X n := ∑ni=1 𝟙F i .

10. Es seien (X n )n∈ℕ iid ZV mit ℙ(X = 1) = p und ℙ(X = −1) = q := 1 − p. Wir definieren S0 = a,

n

S n = a + ∑ X i−1 X i

(a) Zeigen Sie, dass ℙ(S n > S n−1 ) >

i=1 1 2

und

Fn := σ(S0 , . . . , S n ).

gilt, wenn p ≠ q.

(b) Bestimmen Sie die bedingte Erwartung 𝔼(S n | Fn−1 ) sowie 𝔼S n . (c)

Bestimmen Sie die bedingte Erwartung 𝔼(x S n | Fn−1 ) für ein x > 0. Zeigen Sie, dass (x S n /y n )n∈ℕ0 , y := x + 1/x, ein positives Supermartingal ist und bestimmen Sie den Grenzwert dieser Folge für n → ∞.

(d) Zeigen Sie, dass S in der Form S = M + A für ein L2 -Martingal M und einen vorhersagbaren Prozess A geschrieben werden kann und bestimmen Sie den Kompensator von M.

11. Es sei X = (X n , Fn )n∈ℕ0 ein Supermartingal und X n ∼ X0 für alle n ∈ ℕ. (a) Zeigen Sie, dass X ein Martingal ist.

(b) Es sei a ∈ ℝ. Zeigen Sie, dass (X n ∧ a)n∈ℕ und (X n ∨ a)n∈ℕ Martingale sind. (c)

Zeigen Sie mit Hilfe von (b), dass X n (ω) ⩾ a für ℙ-fast alle ω ∈ {X m ⩾ a} und m < n.

(d) Folgern Sie aus (c), dass X n = X0 f.s.

12. Es seien (ξ n )n∈ℕ iid ZV mit ξ1 ∼ pδ1 + (1 − p)δ0 und Fn = σ(ξ1 , . . . , ξ n ). Zeigen Sie, dass ein adaptierter Prozess (M n )n∈ℕ ⊂ L1 genau dann ein Martingal ist, wenn eine Konstante m ∈ ℝ und ein vorhersagbarer Prozess C existieren, so dass M n = m + ∑ni=1 C i (ξ i − p) gilt. 13. Finden Sie einen Prozess (X n )n∈ℕ , der kein Martingal bzgl. der natürlichen Filtration ist, aber 𝔼(X n+1 | X n ) = X n für alle n ⩾ 1 erfüllt.

4 Stoppen und Lokalisieren In diesem Kapitel sei (Fn )n∈ℕ0 eine fest gegebene Filtration im W-Raum (Ω, A , ℙ). Wir wollen nun eine Familie von ZV an einem zufälligen Indexwert auswerten, z.B. wenn man ein Spiel beenden will, sobald der Gesamtgewinn (X n )n∈ℕ0 eine bestimmte Schwelle x erreicht hat: T(ω) = inf{i : X i (ω) ⩾ x},

inf 0 := ∞.

4.1 Definition. Es sei (Fn )n∈ℕ0 eine Filtration. Eine ZV T : Ω → ℕ0 ∪ {∞} heißt Stoppzeit (auch: Optionszeit, Markovzeit), wenn {T ⩽ n} ∈ Fn für alle n ∈ ℕ0 gilt. 4.2 Bemerkung. a) T ist Stoppzeit ⇐⇒ ∀n : {T = n} ∈ Fn . Die Richtung „⇒“ folgt aus {T = n} = {T ⩽ n} \ {T ⩽ n − 1} ∈ Fn . ∈ Fn

∈ Fn−1 ⊂Fn

„⇐“: Umgekehrt gilt {T ⩽ n} = ⋃ni=0 {T = i} ∈ Fn . ∈ Fi ⊂Fn

b) T ≡ k ist Stoppzeit.

0, k ≠ n } ∈ Fn . Ω, k = n c) S, T Stoppzeiten 󳨐⇒ S ∧ T, S ∨ T und S + T sind Stoppzeiten. Es gilt nämlich {S ∧ T ⩽ n} = {S ⩽ n}∪ {T ⩽ n} ∈ Fn . Das Maximum S ∨ T behandelt man analog. Für die Summe gilt Das folgt aus der Tatsache, dass {T = n} = {

n

{S + T = n} = ⋃ {S = i} ∩ {T = n − i} ∈ Fn i=0

∈Fi

∈Fn−i

und die Behauptung folgt wegen Teil a). d) (T i )i∈ℕ Stoppzeiten 󳨐⇒ inf i∈ℕ T i , supi∈ℕ T i sind Stoppzeiten, vgl. Aufg. 4.4.

4.3 Definition. Es sei (X n , Fn )n∈ℕ0 adaptiert und T eine Stoppzeit. Dann setzen wir X T (ω) :=X T(ω) (ω) ∀ω ∈ {T < ∞};

X nT (ω)

(4.1)

:=X n∧T(ω) (ω)

=X T (ω) 𝟙[0,n] (T(ω)) +X n (ω) 𝟙(n,∞) (T(ω)) =𝟙{T⩽n} (ω)

(4.2) (4.3)

=𝟙{T>n} (ω)

Wir verwenden die Schreibweise X T := (X nT )n∈ℕ0 für den gestoppten Prozess.

4.4 Satz (Doob; optional sampling). Es seien (X n , Fn )n∈ℕ0 ein Submartingal und T eine Stoppzeit. Dann ist der gestoppte Prozess (X nT , Fn )n∈ℕ0 wieder ein Submartingal. Insbesondere gilt 𝔼X n∧T ⩾ 𝔼X0 . Beweis 1. kombinieren Sie Aufg. 4.4 und Satz 3.11.b, vgl. auch Aufg. 4.13. https://doi.org/10.1515/9783110350685-004

32 | 4 Stoppen und Lokalisieren Beweis 2. Zunächst zeigen wir X n∧T ∈ L1 . Dazu beachten wir n−1

X n∧T = ∑ X i 𝟙{T=i} + X n 𝟙{T⩾n} i=0

(4.4) c

{T⩾n}={T⩽n−1} ∈Fn−1

woraus sich die Fn -Messbarkeit von X n∧T ablesen lässt, sowie

𝔼|X n∧T | ⩽ 𝔼|X1 | + 𝔼|X2 | + ⋅ ⋅ ⋅ + 𝔼|X n | < ∞.

Nunmehr können wir die Submartingaleigenschaft zeigen: 󵄨 󵄨 𝔼(X nT 󵄨󵄨󵄨 Fn−1 ) = 𝔼(X n∧T 󵄨󵄨󵄨 Fn−1 ) n−1

= 𝔼(

∑ X i 𝟙{T=i}

i=0

Fn−1 -messbar n−1

󵄨 +X n 𝟙{T⩾n} 󵄨󵄨󵄨 Fn−1 )

Fn−1 -mb: {T⩾n}={T⩽n−1}c

= ∑ X i 𝟙{T=i} + 𝟙{T⩾n} 𝔼(X n | Fn−1 ) i=0

⩾ X n−1

(4.4)

⩾ X(n−1)∧T .

Der Zusatz folgt aus 𝔼(X n∧T | F0 ) ⩾ X0∧T = X0 und durch Integration dieser Ungleichung. Aus Satz 4.4 ergibt sich sofort folgender Spezialfall für Martingale. 4.5 Korollar. Es seien (X n , Fn )n∈ℕ0 ein Martingal und T eine Stoppzeit. Dann ist der gestoppte Prozess (X nT , Fn )n∈ℕ0 wieder ein Martingal und es gilt 𝔼X n∧T = 𝔼X0 .

4.6 Beispiel. Es seien (ξ i )i∈ℕ iid ZV mit ξ i ∼ 12 (δ−1 + δ1 ) und X n := ξ1 + ⋅ ⋅ ⋅ + ξ n , X0 = 0. Weiter sei T := inf{n ⩾ 0 : X n = 1} der Zeitpunkt, an dem X n zum ersten Mal die Position 1 erreicht. Dann ist T eine Stoppzeit und es gilt ℙ(T < ∞) = 1. Offensichtlich gilt ℙ(T = 0) = 0. Dass T eine Stoppzeit ist, folgt aus n

n

i=1

i=1

{T ⩽ n} = ⋃{T = i} = ⋃ {X1 ⩽ 0, . . . , X i−1 ⩽ 0, X i = 1} ∈ Fn . ∈Fi ⊂Fn

Für die zweite Behauptung verwenden wir Martingalargumente. Aus Beispiel 3.4.c und 3.4.g wissen wir, dass (X n )n∈ℕ0 und M0 := 1 und

M n :=

exp[θX n ]

(𝔼 exp[θξ1 ])

n

,

n ∈ ℕ,

Martingale bezüglich der natürlichen Filtration von (X n )n∈ℕ0 sind. Wir rechnen direkt nach, dass ϕ(θ) = 𝔼 exp[θξ1 ] = 12 (e θ + e−θ ) = cosh θ gilt. Wegen Korollar 4.5 ist dann auch exp[θX n∧T ] M nT = , n ∈ ℕ, n∧T (𝔼 exp[θξ1 ])

4 Stoppen und Lokalisieren | 33

ein Martingal. Aufgrund der Definition von T gilt 0⩽

exp[θX n∧T ]

⩽ exp[θX n∧T ] ⩽ e θ ,

coshn∧T θ

Auf der Menge {T < ∞} ist X T = 1, mithin lim

n→∞

T] { exp[θX = coshT θ = { n∧T cosh θ 0, {

exp[θX n∧T ]

θ > 0.

wenn T < ∞,

eθ , coshT θ

wenn T = ∞.

Weil Martingale konstante Erwartungswerte haben, erhalten wir mit dominierter Konvergenz 1 = lim 𝔼 n→∞

exp[θX n∧T ] cosh

n∧T

θ

= eθ 𝔼 [

𝟙{T 0 : supn∈ℕ 𝔼(|X n − X n−1 | | Fn−1 ) ⩽ K.

Beweis. Wir zeigen die Aussagen für Submartingale. Aus (dem Beweis von) Satz 4.4 wissen wir, dass X n∧T ∈ L1 und 𝔼X n∧T ⩾ 𝔼X0 gilt. a) In diesem Fall folgt die Behauptung, indem wir n ⩾ N wählen. b) Weil |X n∧T | ⩽ K und limn→∞ X n∧T = X T f.s. gelten, erhalten wir mit dem Satz von der dominierten Konvergenz L1 - limn→∞ X n∧T = X T . Insbesondere ist X T ∈ L1 und EX T = lim 𝔼X n∧T ⩾ 𝔼X0 . n→∞

⩾ 𝔼X0

c) Weil die Zuwächse f.s. durch K beschränkt sind, gilt

󵄨󵄨n∧T 󵄨󵄨 T 󵄨󵄨 󵄨󵄨 |X n∧T − X0 | = 󵄨󵄨󵄨 ∑ (X i − X i−1 )󵄨󵄨󵄨 ⩽ ∑ |X i − X i−1 | ⩽ T ⋅ K ∈ L1 . 󵄨󵄨 󵄨󵄨 󵄨 i=1 󵄨 i=1

34 | 4 Stoppen und Lokalisieren Ähnlich wie im Teil b) erhalten wir nun mit dominierter Konvergenz L1

|X n∧T − X0 | 󳨀󳨀󳨀󳨀→ |X T − X0 | n→∞

und insbesondere X T ∈ L1

und

𝔼X T = lim 𝔼X n∧T ⩾ 𝔼X0 . n→∞

d) Ähnlich wie im vorangehenden Teil sehen wir n∧T

n

i=1

i=1

|X n∧T − X0 | ⩽ ∑ |X i − X i−1 | = ∑ 𝟙{T⩾i} |X i − X i−1 |.

Weil {T ⩾ i} = {T ⩽ i out Argument

− 1}c

∈ Fi−1 , erhalten wir mit der tower property und einem pull n

𝔼|X n∧T − X0 | ⩽ ∑ 𝔼 (𝟙{T⩾i} |X i − X i−1 |) i=1 n

= ∑ 𝔼 (𝟙{T⩾i} 𝔼 (|X i − X i−1 | | Fi−1 )) i=1 n

⩽ ∑ Kℙ(T ⩾ i) ⩽ K𝔼T. i=1

In der letzten Abschätzung verwenden wir die Gleichheit 𝔼T = ∑∞ i=1 ℙ(T ⩾ i). Mit Fatous Lemma folgt dann 𝔼|X T − X0 | = 𝔼 (lim inf |X n∧T − X0 |) ⩽ lim inf 𝔼|X n∧T − X0 | ⩽ K𝔼T, n→∞

n→∞

also X T ∈ L1 . Mit einer ganz ähnlichen Rechnung erhalten wir noch ∞

𝔼|X n∧T − X T | ⩽ K ∑ ℙ(T ⩾ i) 󳨀󳨀󳨀󳨀→ 0, i=n+1

n→∞

woraus dann die Behauptung wie im Beweis von Teil c) folgt. Gestoppte Prozesse sind sehr wichtige Objekte und wir wollen diese weiter untersuchen. Dazu benötigen wir den Begriff der zu einer Stoppzeit T assoziierten σ-Algebra. Wir erinnern noch an unsere Konvention, dass F∞ = σ (⋃∞ n=0 Fn ).

4.8 Definition. Es sei T eine Stoppzeit bezüglich der Filtration (Fn )n∈ℕ0 . Dann ist die zu T assoziierte σ-Algebra definiert als FT = {A ∈ F∞ : A ∩ {T ⩽ n} ∈ Fn ∀n ∈ ℕ0 }.

(4.5)

4.9 Bemerkung. a) FT ist eine σ-Algebra []. Auch wenn die Notation nicht danach aussieht, ist FT ein deterministisches (d.h. nicht von ω abhängendes) Mengensystem.

4 Stoppen und Lokalisieren | 35

b) Für zwei Stoppzeiten S ⩽ T gilt FS ⊂ FT . Denn: Für beliebige F ∈ FS und festes i ∈ ℕ0 ist

F ∩ {T ⩽ i} = F ∩ {S ⩽ T} ∩ {T ⩽ i} = F ∩ {S ⩽ i} ∩ {T ⩽ i} ∈ Fi , ∈ Fi

also F ∈ FT .

c) {S < T}, {S ⩽ T}, {S = T} ∈ FS ∩ FT , vgl. Aufg. 4.9.

∈Fi

d) FS ∩ FT = FS∧T . Denn: Wegen S ∧ T ⩽ S, T folgt aus Teil b) FS∧T ⊂ FS ∩ FT . Umgekehrt gilt für beliebiges F ∈ FS ∩ FT und alle i ∈ ℕ0 F ∩ {S ∧ T ⩽ i} = F ∩ ({S ⩽ i} ∪ {T ⩽ i})

= (F ∩ {S ⩽ i}) ∪ (F ∩ {T ⩽ i}) ∈ Fi , ∈Fi

also F ∈ FS∧T .

∈Fi

e) Es sei (X n )n∈ℕ0 adaptiert. Dann ist X T 𝟙{T N) = 0. Damit gilt aber N

N

i=0

i=0

𝔼|X T | = ∑ 𝔼(|X i |𝟙{T=i} ) ⩽ ∑ 𝔼|X i | < ∞. denn ℙ(T>N)=0

Entsprechend zeigt man 𝔼|X S | < ∞.

a)⇒b): Auf Grund der Doob–Zerlegung für Submartingale (Satz 3.7) wissen wir XT − XS = MT + AT − MS − AS ⩾ MT − MS ,

36 | 4 Stoppen und Lokalisieren wobei wir A T ⩾ A S verwenden. Mithin ist

𝔼(X T − X S ) ⩾ 𝔼(M T − M S ) = 𝔼M T − 𝔼M S = 𝔼M0 − 𝔼M0 = 0. 4.7

b)⇒c): Es sei F ∈ FS ⊂ FT beliebig gewählt. Wir definieren ρ := S𝟙F + T𝟙F c . Weil {ρ ⩽ i} = {ρ ⩽ i} ∩ (F ∪⋅ F c ) = (F ∩ {S ⩽ i}) ∪⋅ (F c ∩ {T ⩽ i}) ∈ Fi ∈ Fi

∈ Fi

für alle i ∈ ℕ0 gilt, ist ρ eine Stoppzeit. Wegen ρ ⩽ T𝟙F + T𝟙F c = T haben wir b

𝔼X ρ = 𝔼(X S 𝟙F + X T 𝟙F c ) ⩽ 𝔼X T ,

und eine einfache Umformung zeigt wegen 𝟙F = 1 − 𝟙F c damit ist c) gezeigt.

𝔼(X S 𝟙F ) ⩽ 𝔼(X T 𝟙F );

c)⇒d): Das ist gerade die Definition der bedingten Erwartung, Definition 2.1. d)⇒a): Betrachte die deterministischen Stoppzeiten S ≡ n − 1 und T ≡ n. Der Zusatz folgt aus der Bemerkung, dass für ein Martingal (X n )n∈ℕ0 sowohl (X n )n∈ℕ0 also auch (−X n )n∈ℕ0 Submartingale sind.

Im Zusammenhang mit gleichgradig integrierbaren Martingalen werden wir in Kapitel 7, Satz 7.11, eine Verschärfung von Satz 4.10 kennenlernen.

⧫Lokale Martingale In Satz 3.12 haben wir die Martingaltransformation C ∙ M eines L2 -Martingals M und eines beschränkten vorhersagbaren Prozesses C betrachtet. Oft können wir die Beschränktheit durch Stoppen erreichen, z.B. ist C Ti bzw. C i 𝟙[0,T] (i) für die Stoppzeit T := inf{n ∈ ℕ0 : |C n+1 | > R} beschränkt []. Weil einerseits n∧T

n

n

i=1

i=1

i=1

(C ∙ M)Tn = ∑ C i (M i − M i−1 ) = ∑ C i (M i − M i−1 )𝟙{i⩽T} = ∑ C i 𝟙[0,T] (i)(M i − M i−1 )

und andererseits

n∧T

n

n

i=1

i=1

i=1

T (C ∙ M)Tn = ∑ C i (M i − M i−1 ) = ∑ C i (M i − M i−1 )𝟙{i⩽T} = ∑ C i (M iT − M i−1 )

gilt [], haben wir

(C ∙ M)T = (C𝟙[0,T] ) ∙ M = C ∙ (M T ).

Weil D i := C i 𝟙[0,T] (i) ein beschränkter vorhersagbarer Prozess ist, ist der gestoppte Prozess (C ∙ M)T ein L2 -Martingal, aber C ∙ M muss selbst kein Martingal mehr sein. Diese Überlegung legt folgende Verallgemeinerung des Martingalbegriffs nahe.

4 Stoppen und Lokalisieren | 37

4.11 Definition. Ein adaptierter Prozess (X n , Fn )n∈ℕ0 heißt lokales Martingal, wenn es eine aufsteigende Folge von Stoppzeiten (T k )k∈ℕ , limk→∞ T k = ∞ f.s. gibt, so dass T X T k 𝟙{T k >0} := (X n k 𝟙{T k >0} , Fn )n∈ℕ0 für jedes k ∈ ℕ ein Martingal ist. Die Folge (T k )k∈ℕ heißt lokalisierende Folge oder Fundamentalfolge. 4.12 Bemerkung. In Definition 4.11 wird der Prozess X T k nur deshalb mit 𝟙{T k >0} multipliziert, um die Integrabilitätsforderungen an X0 abzuschwächen. Es gilt nämlich X0 ∈ L1 , X ist ein lokales MG ⇐⇒ X T k ist für alle k ∈ ℕ ein MG.

(4.6)

„⇐“: Wenn X T k ein Martingal ist, dann ist insbesondere X0 = X0∧T k integrierbar. Weiter gilt für F ∈ Fn ∫ X(n+1)∧T k 𝟙{T k >0} dℙ = ∫ X(n+1)∧T k dℙ − ∫ X(n+1)∧T k 𝟙{T k =0} dℙ F

F

F

= ∫ X n∧T k dℙ − ∫ X0 𝟙{T k =0} dℙ

MG

F

F

= ⋅ ⋅ ⋅ = ∫ X n∧T k 𝟙{T k >0} dℙ F

was beweist, dass X T k 𝟙{T k >0} ein Martingal ist; also ist X ein lokales Martingal. Die Umkehrung „⇒“ folgt mit fast derselben Rechnung. 4.13 Beispiel. a) Jedes Martingal (X n , Fn )n∈ℕ ist auch ein lokales Martingal. Das folgt aus Korollar 4.5 für die lokalisierende Folge T k ≡ k ∈ ℕ.

b) Es gibt lokale Martingale, die keine Martingale sind. Um das zu sehen, betrachten wir iid ZV (ξ i )i∈ℕ mit ℙ(ξ1 = ±1) = 21 und das Martingal X0 := 0, X n := ξ1 + ⋅ ⋅ ⋅ + ξ n bezüglich der natürlichen Filtration Fn := σ(X0 , . . . , X n ). Weiterhin sei (C n )n∈ℕ , C n ⩾ 0, ein vorhersagbarer Prozess, der nicht integrierbar ist, also 𝔼C n = ∞. Dann sind die Zufallszeiten T k := inf {n ∈ ℕ : C1 + ⋅ ⋅ ⋅ + C n+1 > k}

Stoppzeiten [], und es gilt T k ↑ ∞ für k → ∞. Für die Martingaltransformation C ∙ X haben wir n∧T k

n

i=1

i=1

(C ∙ X)n k = ∑ C i ξ i = ∑ C i 𝟙[0,T k ] (i)ξ i = (C𝟙[0,T k ] ) ∙ X n . T

Auf Grund der Definition der Stoppzeit T k ist C i 𝟙[0,T k ] durch k beschränkt, d.h. (C∙X)T k ist ein Martingal, vgl. Satz 3.12. Andererseits gilt C ∙ X n − C ∙ X n−1 = C n ξ n und 𝔼|C n ξ n | = 𝔼C n = ∞, d.h. C ∙ X kann kein Martingal sein, da der Prozess nicht integrierbar ist. Zusammen mit Bemerkung 4.12 folgt, dass C ∙ X ein lokales Martingal ist, das kein Martingal ist.

38 | 4 Stoppen und Lokalisieren Der nächste Satz zeigt, dass das Gegenbeispiel 4.13.b typisch ist. 4.14 Satz. Es sei X = (X n , Fn )n∈ℕ0 ein lokales Martingal mit X0 ∈ L1 . X ist genau dann ein Martingal, wenn ∀n ∈ ℕ0 : 𝔼X +n < ∞

oder ∀n ∈ ℕ0 : 𝔼X −n < ∞.

(4.7)

Beweis. In Beispiel 4.13.a haben wir gesehen, dass jedes Martingal X auch ein lokales Martingal ist. Für Martingale ist die Integrierbarkeitseigenschaft (4.7) trivial. Umgekehrt seien X ein lokales Martingal und (T k )k∈ℕ eine lokalisierende Folge. Weil auch −X ein lokales Martingal ist, können wir o.E. annehmen, dass die Bedingung 𝔼X −n < ∞, n ∈ ℕ0 , erfüllt ist. Wegen X0 ∈ L1 ist X T k ein Martingal, vgl. Bemerkung 4.12, und es gilt n−1

𝔼X +n∧T k = 𝔼X n∧T k + 𝔼X −n∧T k = 𝔼X0 + 𝔼 ( ∑ X −i 𝟙{T k =i} + X −n 𝟙{T k ⩾n} ) MG

n

i=0

⩽ 𝔼X0 + ∑ 𝔼X −i . i=0

Mit Hilfe des Lemmas von Fatou erhalten wir

n

𝔼X +n = 𝔼( lim inf X +n∧T k ) ⩽ lim inf 𝔼(X +n∧T k ) ⩽ 𝔼X0 + ∑ 𝔼X −i , k→∞

k→∞

i=0

woraus sich X n ∈ für alle n ∈ ℕ ergibt. T Die Martingaleigenschaft folgt nun so: Einerseits gilt limk→∞ X n k = X n f.s., andererseits ist die Folge wegen 󵄨󵄨󵄨n−1 󵄨󵄨󵄨 n T 󵄨 󵄨 |X n k | = |X n∧T k | = 󵄨󵄨󵄨 ∑ X i 𝟙{T k =i} + X n 𝟙{T k ⩾n} 󵄨󵄨󵄨 ⩽ ∑ |X i | ∈ L1 󵄨󵄨 󵄨󵄨 󵄨 i=0 󵄨 i=0 L1

gleichmäßig in k durch eine integrierbare Majorante beschränkt. Mit dem Satz von der T dominierten Konvergenz sehen wir, dass der Grenzwert L1 -limk→∞ X n k = X n existiert. Auf Grund der Stetigkeit der bedingten Erwartung, Satz 2.5, folgt T Tk T k 󵄨󵄨󵄨 X n = lim X n k = lim 𝔼 (X n+1 | Fn ) = 𝔼( lim X n+1 󵄨󵄨 Fn ) = 𝔼(X n+1 | Fn ). 󵄨 k→∞ k→∞ k→∞

4.15 Bemerkung. Wir können die Bedingung (4.7) in Satz 4.14 durch die folgende Forderung ersetzen ∃m ∈ ℕ ∀n ⩾ m : 𝔼X +n < ∞ oder ∃m ∈ ℕ

∀n ⩾ m : 𝔼X −n < ∞.

(4.8)

Offensichtlich folgt (4.8) aus (4.7). Umgekehrt gelte z.B. die erste Bedingung von (4.8). Wir wählen eine lokalisierende Folge (T k )k∈ℕ und beachten, dass (X T k )+ ein Submartingal ist (Satz 3.5.f). Weil {T k ⩾ m} = {T k ⩽ m − 1}c ∈ Fm−1 gilt, folgt + 𝔼(X +m−1 𝟙{T k ⩾m} ) = 𝔼(X(m−1)∧T 𝟙{T k ⩾m} ) k

Sub-MG

⩽ =

𝔼(X +m∧T k 𝟙{T k ⩾m} )

𝔼(X +m 𝟙{T k ⩾m} ) ⩽ 𝔼X +m .

4 Stoppen und Lokalisieren | 39

Fatous Lemma zeigt nun 𝔼(X +m−1 ) = 𝔼( lim inf X +m−1 𝟙{T k ⩾m} ) ⩽ lim inf 𝔼(X +m−1 𝟙{T k ⩾m} ) ⩽ 𝔼X +m , k→∞

k→∞

und durch Iteration erhalten wir, dass X1+ , X2+ , . . . , X +m−1 ∈ L1 , d.h. die erste Bedingung aus (4.7) ist erfüllt. Wir stellen nun einige technische Eigenschaften von lokalen Martingalen zusammen. 4.16 Satz. Es seien X, Y lokale Martingale und T eine Stoppzeit. Dann gilt a) X + Y ist ein lokales Martingal. b) Wenn (R k )k∈ℕ und (S k )k∈ℕ lokalisierende Folgen für X sind, dann sind auch die Folgen T k := R k ∧ S k und U k := R k ∨ S k lokalisierend. c) X T und X T 𝟙{T>0} sind lokale Martingale. d) Wenn (T m )m∈ℕ eine Folge von Stoppzeiten mit T m ↑ ∞ f.s. ist, und wenn Z ein adaptierter Prozess ist, so dass Z T m 𝟙{T m >0} für jedes m ein lokales Martingal ist, dann ist Z ein lokales Martingal. Beweis. a) Wir wählen lokalisierende Folgen (R k )k∈ℕ und (S k )k∈ℕ für X bzw. Y und definieren T k := R k ∧ S k . Offensichtlich gilt T k ↑ ∞ f.s. und es gilt k k (X + Y)n k 𝟙{T k >0} = (X n∧S 𝟙{R k >0} )𝟙{S k >0} + (Y n∧R 𝟙{S k >0} )𝟙{R k >0} k k

T

R

S

= (X R k 𝟙{R k >0} )nk 𝟙{S k >0} + (Y S k 𝟙{S k >0} )n k 𝟙{R k >0} . S

R

Nach Voraussetzung ist X R k 𝟙{R k >0} ein Martingal und gemäß Satz 4.4 sind dann auch (X R k 𝟙{R k >0} )S k und, vgl. Bemerkung 4.12, (X R k 𝟙{R k >0} )S k 𝟙{S k >0} Martingale. Den Summanden (Y S k 𝟙{S k >0} )R k 𝟙{R k >0} behandelt man analog, und es folgt, dass X + Y ein lokales Martingal ist.

b) Die Aussage für T k folgt aus Teil a), wenn wir X = Y wählen. Nach Voraussetzung ist |X0 |𝟙{U k >0} ⩽ |X0 |𝟙{R k >0} + |X0 |𝟙{S k >0} ∈ L1 .

Wir betrachten nun M n := X n − X0 und beachten M R k ∨S k = M R k + M S k − M R k ∧S k . Die drei Terme auf der rechten Seite sind Martingale (vgl. Bemerkung 4.12) und daher ist X R k ∨S k 𝟙{R k ∨S k >0} = M R k ∨S k + X0 𝟙{R k ∨S k >0}

ein Martingal. Weil U k = R k ∨ S k ↑ ∞, ist die Folge U k lokalisierend.

c) Weil (X T )T k 𝟙{T k >0} = (X T k 𝟙{T k >0} )T und (X T 𝟙{T>0} )T k 𝟙{T k >0} = (X T k 𝟙{T k >0} )T 𝟙{T>0} gilt, folgt die Behauptung unmittelbar aus Satz 4.4.

d) Nach Voraussetzung ist für jedes m ∈ ℕ der gestoppte Prozess M m := Z T m 𝟙{T m >0} ein lokales Martingal. Wir schreiben (U m,k )k∈ℕ für eine lokalisierende Folge. Weil limk→∞ U m,k = ∞ f.s. gilt, gibt es eine Teilfolge mit ℙ(U m,k(m) < T m ∧ m) < 2−m ,

m ∈ ℕ.

40 | 4 Stoppen und Lokalisieren Damit gilt limm→∞ U m,k(m) = ∞ f.s. und R m := maxi⩽m (U i,k(i) ∧ T i ) ist eine lokalisierende Folge für Z: Weil R m ↑ ∞ f.s. und weil für jedes i ⩽ m nach Konstruktion Z U i,k(i) ∧T i 𝟙{U i,k(i) ∧T i >0} = (Z T i 𝟙{T i >0} )U i,k(i) 𝟙{U i,k(i) >0} ein Martingal ist, folgt mit Hilfe von Teil b), dass Z R m 𝟙{R m >0} ein Martingal ist. Das zeigt, dass Z ein lokales Martingal ist.

4.17 Satz. Jedes positive lokale Martingal X = (X n )n∈ℕ0 mit X0 ∈ L1 ist ein Supermartingal. Beweis. Es sei (T k )k∈ℕ eine lokalisierende Folge. Weil X T k 𝟙{T k >0} ein Martingal ist, wissen wir k X n k 𝟙{T k >0} = 𝔼(X n+1 𝟙{T k >0} | Fn ),

T

T

n ∈ ℕ0 .

Insbesondere gilt auf Grund der Positivität von X

Fatou

𝔼|X n | = 𝔼X n = 𝔼( lim inf X n k 𝟙{T k >0} ) ⩽ lim inf 𝔼(X n k 𝟙{T k >0} ) T

k→∞

T

k→∞

= lim inf 𝔼(X0 𝟙{T k >0} ) ⩽ 𝔼X0 ,

MG

k→∞

d.h. es gilt (X n )n∈ℕ0 ⊂ L1 . Wenn wir nun die bedingte Version von Fatous Lemma (Satz 2.7.b) verwenden, erhalten wir k X n = lim inf X n k 𝟙{T k >0} = lim inf 𝔼(X n+1 𝟙{T k >0} | Fn )

T

k→∞

MG

T

k→∞

󵄨󵄨 Tk ⩾ 𝔼( lim inf X n+1 𝟙{T k >0} 󵄨󵄨󵄨 Fn ) = 𝔼(X n+1 | Fn ). 󵄨 k→∞

Fatou

⧫Verallgemeinerte Martingale Die Konstruktion der bedingten Erwartung in Kapitel 2, insbesondere Satz 2.5, lässt sich auf positive, nicht notwendig integrierbare ZV erweitern, vgl. Aufg. 4.16. Wenn 𝔼(X ± | F ) < ∞ f.s. für eine nicht-integrierbare ZV X gilt, kann man den Ausdruck 𝔼(X | F ) := 𝔼(X + | F ) − 𝔼(X − | F ) in ℝ definieren. Die folgende Definition ist in diesem Sinne zu verstehen. 4.18 Definition. Ein adaptierter Prozess (X n , Fn )n∈ℕ0 heißt verallgemeinertes Martingal, wenn f.s. 𝔼(X ±n+1 | Fn ) < ∞ und 𝔼(X n+1 | Fn ) = X n für alle n ∈ ℕ0 gilt. Der folgende Satz zeigt den Zusammenhang zwischen lokalen Martingalen, verallgemeinerten Martingalen und der Martingaltransformation. 4.19 Satz. Es sei X = (X n , Fn )n∈ℕ0 ein adaptierter Prozess mit X0 = 0. Dann sind die folgenden Aussagen äquivalent. a) X ist ein lokales Martingal.

4 Stoppen und Lokalisieren |

41

b) X ist ein verallgemeinertes Martingal. c) Es gibt einen vorhersagbaren Prozess C = (C n , Fn )n∈ℕ und ein Martingal M = (M n , Fn )n∈ℕ0 , so dass X = C ∙ M. Beweis. a)⇒b): Wir wählen eine lokalisierende Folge (T k )k∈ℕ und beachten, dass 𝔼(|X n+1 |𝟙{T k >n} ) = 𝔼(|X(n+1)∧T k |𝟙{T k >n} ) ⩽ 𝔼(|X(n+1)∧T k |𝟙{T k >0} ) < ∞

gilt. Weil {T k > n} = {T k ⩽ n}c ∈ Fn , erhalten wir 𝔼(|X n+1 |𝟙{T k >n} | Fn )

pull out

=

𝟙{T k >n} 𝔼(|X n+1 | | Fn ) < ∞

f.s.

Wegen {T k > n} ↑ Ω für k → ∞, folgt 𝔼(|X n+1 | | Fn ) < ∞ f.s. und daher ist die (verallgemeinerte) bedingte Erwartung 𝔼(|X n+1 | | Fn ) wohldefiniert. Wir zeigen noch die Martingaleigenschaft. Dazu beachten wir, dass X T k ein Martingal ist (X0 = 0, vgl. Bemerkung 4.12) und {T k > n} ∈ Fn : 𝟙{T k >n} 𝔼(X n+1 | Fn )

pull out

=

=

pull out

=

=

MG

𝔼(𝟙{T k >n} X n+1 | Fn )

k 𝔼(𝟙{T k >n} X n+1 | Fn )

T

k 𝟙{T k >n} 𝔼(X n+1 | Fn )

T

𝟙{T k >n} X n k , T

und für k → ∞ ergibt sich daraus 𝔼(X n+1 | Fn ) = X n f.s., also b).

b)⇒c): Wir definieren C0 := 0 und C n := 𝔼(|X n − X n−1 | | Fn−1 ) sowie M0 := 0 und M n := C# ∙ X n wobei C#i = C−1 i 𝟙(0,∞) (C i ) ist. C ist vorhersagbar, und es gilt 𝔼(|M n − M n−1 | | Fn−1 ) = 𝔼(|C#n (X n − X n−1 )| | Fn−1 ) ⩽ 1 𝔼(M n − M n−1 | Fn−1 ) = 0.

Das zeigt, dass M ein Martingal ist. Außerdem ist C ∙ M n − C ∙ M n−1 = X n − X n−1 , was dann wegen X0 = 0 die Gleichheit X = C ∙ M ergibt.

c)⇒a): Wir definieren die Stoppzeiten T k := inf{n ∈ ℕ0 : |C n+1 | > k} ([]– beachte, dass C vorhersagbar ist) und bemerken, wie zu Beginn des Abschnitts über lokale Martingale, dass (C ∙ M)T k = (C𝟙[0,T k ] ) ∙ (M T k ).

Wegen Satz 4.4 ist M T k ein Martingal und Satz 3.11 zeigt, dass (C𝟙[0,T k ] ) ∙ (M T k ) ein Martingal ist. Weil C ∙ M0 = 0 gilt, folgt die Behauptung aus Bemerkung 4.12.

Aufgaben 1.

Es seien (ξ i )i∈ℕ iid ZV mit ℙ(ξ1 = ±1) = 21 und X n := ξ1 + ⋅ ⋅ ⋅ + ξ n . Zeigen Sie, dass die Zufallszeit T := inf{n ∈ ℕ : X n = supk⩽100 X k } keine Stoppzeit bezüglich der kanonischen Filtration ist.

42 | 4 Stoppen und Lokalisieren 2.

3.

4.

Es sei (X n , Fn )n∈ℕ0 ein adaptierter Prozess und B ∈ B(ℝ). Zeigen Sie, dass die (erste) Trefferzeit τ∘B := inf{n ∈ ℕ0 : X n ∈ B} und die (erste) Eintrittszeit τ B := inf{n ∈ ℕ : X n ∈ B} Stoppzeiten sind. Bemerkung. Wie üblich vereinbaren wir inf 0 := ∞. Es sei (X n , Fn )n∈ℕ0 ein adaptierter Prozess, B ∈ B(ℝ) und N ∈ ℕ. Zeigen Sie, dass die letzte Besuchszeit der Menge B im Zeitraum i = 0, . . . , N, σ B := max{i ∈ [0, N] : X i ∈ B} i.Allg. keine Stoppzeit ist.

Es sei (Fn )n∈ℕ0 eine Filtration und T, T i , i ∈ ℕ, Stoppzeiten. (a) Zeigen Sie, dass {T ⩾ n}, {T < n} ∈ Fn−1 ;

(b) Zeigen Sie, dass C n (ω) := 𝟙[0,T(ω)] (n) messbar bezüglich Fn−1 ist;

(c) 5. 6.

7. 8. 9.

Zeigen Sie, dass inf i∈ℕ T i und supi∈ℕ T i Stoppzeiten sind.

Es sei T eine Stoppzeit. Bestimmen Sie den Grenzwert limc↓0 𝔼(e−cT ).

Berechnen Sie die Verteilung der Stoppzeit T in Beispiel 4.6. Hinweis. Die Rechnung in 4.6 gibt 𝔼 cosh−T ξ = e−ξ ; mit einer geeigneten Substitution können wir die momentenerzeugende Funktion von T und damit die Verteilung von T ableiten. Geben Sie einen direkten Beweis dafür, dass in Beispiel 4.6 ℙ(T < ∞) = 1 gilt. −2n−1 . Hinweis. T ist ungerade und ℙ(T = 2n + 1) ⩽ (2n−1 n−1 )2

Es sei T eine Stoppzeit. Zeigen Sie, dass FT := {A ∈ F∞ : A ∩ {T ⩽ n} ∈ Fn ∀n ∈ ℕ0 } eine σ-Algebra ist. Es seien S, T zwei Stoppzeiten. Zeigen Sie, dass {S < T}, {S ⩽ T}, {S = T} ∈ FS ∩ FT . Hinweis. {S < T} ∩ {S ⩽ k} = ⋃∞ i=0 {S < T} ∩ {S ⩽ k} ∩ {S = i}.



10. Es sei X eine integrierbare ZV und T eine Stoppzeit bezüglich der Filtration (Fn )n∈ℕ0 . Zeigen Sie 𝔼(X | FT ) =



n∈ℕ0 ∪ {∞}

𝟙{T=n} 𝔼(X | Fn ),

m.a.W. ist 𝔼(X | FT ) = 𝔼(X | Fn ) für alle ω ∈ {T = n}.

11. Es sei (X n , Fn )n∈ℕ0 ein Submartingal und T eine f.s. endliche Stoppzeit. Zeigen Sie, dass (X nT , Fn∧T )n∈ℕ0 wieder ein Submartingal ist.

12. Zeigen Sie die Gleichheit 𝔼T = ∑∞ k=1 ℙ(T ⩾ k) für die ZV T : Ω → ℕ0 .

13. Es sei T eine f.s. endliche (Fn )n∈ℕ0 -Stoppzeit und FT die zu T assoziierte σ-Algebra. Wir definieren für eine adaptierte Folge von ZV (X n )n∈ℕ0 die gestoppte Folge X nT (ω) := X n∧T(ω) (ω) und X T (ω) = X T(ω) (ω). (a) Zeigen Sie, dass X T eine FT -messbare ZV ist. (b) Finden Sie eine bezüglich (Fn )n∈ℕ0 vorhersagbare Folge (C n )n∈ℕ so dass X nT − X0 = C ∙ X n . Hinweis. Aufg. 4.4. Bemerkung. Diese Aufgabe beweist Satz 4.4.

14. Formulieren und beweisen Sie eine Version von Satz 4.10 für Martingale.

15. Es sei X ein lokales Martingal, das auch lokal in L2 ist, d.h. für eine lokalisierende Folge (T k )k∈ℕ ist X T k 𝟙{T k >0} ein L2 -Martingal. Zeigen Sie, dass es einen eindeutig bestimmten, vorhersagbaren Prozess ⟨M⟩ gibt, so dass M 2 − ⟨M⟩ ein lokales Martingal ist. Zeigen Sie außerdem, dass für jede Stoppzeit T die Beziehung ⟨M⟩T = ⟨M T ⟩ gilt.

16. Es sei X ∉ L1 (A ), X ⩾ 0 und X n ∈ L1 (A ) mit X n ↑ X f.s. Zeigen Sie, dass für jede σ-Algebra F ⊂ A der Grenzwert limn→∞ 𝔼(X n | F ) in [0, ∞] existiert und nicht von der Wahl der approximierenden Folge abhängt. Bemerkung. Wir können durch 𝔼(X | F ) := supn∈ℕ 𝔼(X ∧ n | F ) die bedingte Erwartung fortsetzen.

5 Konvergenz von Martingalen Ein wichtiger Aspekt der Theorie der Martingale sind einfach anwendbare Konvergenzsätze für Martingale. In diesem Kapitel werden wir uns mit fast sicherer Konvergenz beschäftigen. Wir beginnen mit einer deterministischen Vorüberlegung. Es sei (x n )n∈ℕ0 ⊂ ℝ eine Zahlenfolge. Dann gilt (vgl. Abbildung 5.1) lim x n existiert nicht in [−∞, ∞]

n→∞

⇐⇒ −∞ ⩽ lim inf x n < lim sup x n ⩽ ∞ n→∞

n→∞

⇐⇒ ∃a, b ∈ ℚ : −∞ ⩽ lim inf x n < a < b < lim sup x n ⩽ ∞ n→∞

n→∞

⇐⇒ ∃a, b ∈ ℚ : unendlich viele Folgenglieder liegen unterhalb und oberhalb des Streifens [a, b] × ℕ0

⇐⇒ ∃a, b ∈ ℚ : die Folge (x n )n∈ℕ0 „überquert“ den Streifen

[a, b] × ℕ0 unendlich oft von unten nach oben

Für eine Folge von ZV X n : Ω → ℝ, n ∈ ℕ0 , gilt daher {ω : lim X n (ω) existiert nicht in ℝ} =

=

n→∞



{ω : lim inf X n (ω) < a < b < lim sup X n (ω)}



{ω : U([a, b], ω) = ∞},

a b, 1 ⩽ i ⩽ k i i 󵄨 U([a, b], ω) := sup U N ([a, b], ω) N∈ℕ

(max 0 = 0) die Zahl der aufsteigenden Überquerungen (upcrossings) über den Streifen [a, b] × {0, 1, . . . , N} bzw. [a, b] × ℕ0 . Wenn die Folge (X n (ω))n∈ℕ0 von einem (Sub-/Super-)Martingal erzeugt wird, dann können wir die Zahl der aufsteigenden Überquerungen abschätzen. 5.2 Lemma (Doob; upcrossing estimate). Es sei X = (X n , Fn )n∈ℕ0 ein Submartingal. Dann gilt für alle a < b, N ∈ ℕ (b − a)𝔼U N [a, b] ⩽ 𝔼(X N − a)+ .

Beweis. Wir definieren rekursiv Stoppzeiten [] σ i und τ i durch τ0 := 0 und σ l := inf{i ⩾ τ l−1 : X i < a} ∧ N

und

τ l := inf{i ⩾ σ l : X i > b} ∧ N,

l∈ℕ

(inf 0 := ∞). Die Stoppzeiten σ l und τ l beschreiben den Beginn und das Ende der lten aufsteigenden Überquerung. Wir schreiben u = U N [a, b]; offensichtlich gilt τ0 = 0 < σ1 ⩽ τ1 ⩽ ⋅ ⋅ ⋅ ⩽ N sowie τ u+1 = σ u+2 = τ u+2 = τ N = σ N = N. Der Abbildung 5.2 entnehmen wir die beiden folgenden Ungleichungen ⩾ b−a

⩾ b−a

erste Überquerung

letzte Überquerung

(b − a)U N [a, b] ⩽ (X τ1 − a) + ⋅ ⋅ ⋅ + (X τ u − X σ u ), −(X N − a) ⩽ X N − X σ u+1 −

Indem wir diese Ungleichungen addieren, folgt

[beachte: τ u+1 = N]. u+1

(b − a)U N [a, b] − (X N − a)− ⩽ (X τ1 − a) + ∑ (X τ i − X σ i ) i=2 N

= (X τ1 − a) + ∑ (X τ i − X σ i ).

(5.1)

i=2

Wir bilden nun den Erwartungswert auf beiden Seiten von (5.1), formen um und verwenden die Tatsache, dass X ein Submartingal ist N−1

⩽ 0 (Satz 4.10)

= 𝔼X N

(b − a)𝔼U N [a, b] − 𝔼(X N − a)− ⩽ −a + ∑ (𝔼X τ i − 𝔼X σ i+1 ) + 𝔼X τ N i=1

⩽ 𝔼(X N − a).

Wegen 𝔼(X N − a)+ = 𝔼(X N − a) + 𝔼(X N − a)− folgt die Behauptung.

5 Konvergenz von Martingalen | 45

Abb. 5.2: Die Abbildung zeigt zwei (u = 2) aufsteigende Überquerungen; der letzte „upcrossingVersuch“ endet im Bild mit dem ungünstigsten Fall: X N ist kleiner als X σ u+1 .

Die Doobsche upcrossing Ungleichung ist die Grundlage für alle f.s. Konvergenzaussagen für Martingale. 5.3 Satz (Martingalkonvergenzsatz). Es sei (X n , Fn )n∈ℕ0 ein Submartingal. Wenn supn∈ℕ0 𝔼X +n < ∞, dann existiert der Grenzwert limn→∞ X n ∈ ℝ fast sicher und definiert eine F∞ -messbare ZV X∞ ∈ L1 (F∞ ).

Beweis. Wegen der Vorüberlegung zu Beginn dieses Kapitels genügt es zu zeigen, dass ∀a, b ∈ ℚ, a < b : ℙ(U[a, b] = ∞) = 0.

Daraus folgt nämlich sofort

ℙ(



a,b∈ℚ,a 0,

(5.4)

besitzt, dann gilt für die Konvergenzmenge

f.s.

C = {∃ limn X n ∈ ℝ} = {supn X n < ∞} . Die Eigenschaft (5.4) dient dazu, den Zuwachs zu kontrollieren, der zum Überschreiten der Schranke r führt. Typischerweise ist diese Bedingung erfüllt, wenn das Submartingal f.s. oder im Mittel beschränkte Zuwächse hat, d.h. wenn gilt sup |X n − X n−1 | < ∞ n∈ℕ

oder 𝔼 (sup |X n − X n−1 |) < ∞. n∈ℕ

Beweis von Satz 5.9. Wenn limn→∞ X n (ω) existiert und endlich ist, gilt offensichtlich supn∈ℕ0 X n (ω) < ∞, d.h. die Inklusion „⊂“ ist klar. T(r) Für die Umkehrung betrachten wir das gestoppte Submartingal (X n , Fn )n∈ℕ0 (vgl. Satz 4.4). Auf Grund der Definition von T(r) gilt X n∧T(r) = X n 𝟙{T(r)>n} + X T(r)−1 𝟙{T(r)⩽n} + (X T(r) − X T(r)−1 )𝟙{T(r)⩽n} 󵄨 󵄨 ⩽ r + 󵄨󵄨󵄨X T(r) − X T(r)−1 󵄨󵄨󵄨 𝟙{T(r) a} eine Stoppzeit ist. (c)

5.

T

Zeigen Sie, dass das Martingal (M n a )n∈ℕ0 f.s. und in L2 konvergiert.

(d) Zeigen Sie, dass das Martingal (M n )n∈ℕ0 auf der Menge {ω : ⟨M⟩∞ (ω) < ∞} fast sicher konvergiert.

Es sei (Y n )n∈ℕ eine Folge von iid ZV und Y1 ∼ N(0, σ2 ), d.h. Y1 ist normalverteilt mit Mittelwert 0 und Varianz σ2 > 0. Weiter seien Fn = σ(Y1 , . . . , Y n ) und X n = Y1 + ⋅ ⋅ ⋅ + Y n . 2 2 (a) Zeigen Sie, dass 𝔼 e uY1 = e σ u /2 für alle u ∈ ℝ gilt. (b) Zeigen Sie für festes u ∈ ℝ, dass Z nu := exp (uX n − n σ2 u2 /2), n ∈ ℕ, ein Martingal ist.

(c) 6.

u := lim u Zeigen Sie, dass Z∞ n→∞ Z n f.s. existiert. Bestimmen Sie den Grenzwert. Für welche u Werte von u ∈ ℝ ist (Z n )n∈ℕ∪ {∞} wieder ein Martingal?

Es seien (ξ n )n∈ℕ iid Zufallsvariablen in L1 . Definiere S n := ξ1 + ⋅ ⋅ ⋅ + ξ n und die tail σ-Algebren Gn := σ(S n , S n+1 , S n+2 , . . . ). Zeigen Sie: (a) Gn = σ(S n , ξ n+1 , ξ n+2 , . . . ); (b) 𝔼(ξ1 | Gn ) = 𝔼(ξ1 | S n ); (c)

7.

𝔼(ξ1 𝟙B (S n )) = 𝔼(ξ i 𝟙B (S n )) für alle i = 1, . . . , n und B ∈ B(ℝ);

(d) 𝔼(ξ i | S n ) = 1n S n für alle i = 1, . . . , n. Hinweis. Folgern Sie aus (c), dass 𝔼(ξ i | S n ) = 𝔼(ξ k | S n ) ∀i, k gilt.

Es seien (X n , Fn )n∈ℕ0 ein Submartingal und (T k )k∈ℕ Stoppzeiten mit supn∈ℕ0 𝔼X +n∧T < ∞, k k ∈ ℕ. Dann haben wir f.s.

⋃ {T k = ∞} ⊂ {∃ limn X n ∈ ℝ} .

k∈ℕ

8. 9.

Überlegen Sie sich, dass man in Satz 5.9 und Korollar 5.10 die Menge {supn X n < ∞} durch {supn |X n | < ∞} ersetzen kann.

Es sei (X n , Fn )n∈ℕ0 ein positives Martingal mit f.s. beschränkten Zuwächsen. Zeigen Sie, dass das Submartingal (X 2n )n∈ℕ0 die Eigenschaft (5.4) für die Stoppzeiten T(r) = inf{n ∈ ℕ : X 2n > r} besitzt.

10. Konstruieren Sie ein Martingal (X n , Fn )n∈ℕ0 , so dass f.s. limn→∞ X n = ∞ gilt. Hinweis. Betrachten Sie z.B. X0 = 0, X n = X n−1 − (n − 1) + Y n und Fn = σ(Y1 , . . . , Y n ), wobei die Y n unabhängige ZV mit ℙ(Y n = 0) = 1/n und ℙ(Y n = n) = 1 − 1/n sind.

11. Finden Sie ein Martingal (X n , Fn )n∈ℕ0 , das f.s. konvergiert, aber nicht supn∈ℕ0 𝔼|X n | < ∞ erfüllt. Hinweis. Betrachten Sie z.B. unabhängige ZV X n , n ⩾ 2, mit ℙ(X n = n4 ) = ℙ(X n = −n2 (n2 − 1)) = n−2

und das davon erzeugte Produktmartingal.

und

ℙ(X n = 0) = 1 − 2n−2

6 ⧫L2 -Martingale In Kapitel 5, Satz 5.3, haben wir gesehen, dass ein Submartingal (X n , Fn )n∈ℕ0 einen f.s. Grenzwert X∞ = limn→∞ X n besitzt, wenn es L1 -beschränkt ist, d.h. sup 𝔼|X n | = sup ‖X n ‖L1 < ∞.

n∈ℕ0

n∈ℕ0

(6.1)

Auch wenn unter dieser Bedingung X∞ ∈ L1 gilt, folgt i.Allg. nicht die L1 -Konvergenz Xn → 󳨀 X∞ . Wenn wir aber die Bedingung (6.1) durch die stärkere Beschränktheit in L2 ersetzen, sup 𝔼(|X n |2 ) = sup ‖X n ‖2L2 < ∞, (6.2) n∈ℕ0

n∈ℕ0

ändert sich die Situation grundlegend. Ausschlaggebend sind die folgenden „trivialen“ Beobachtungen 󳶳 L2 ist „besser“ als L1 , weil L2 ein Hilbertraum ist. 󳶳 L2 -Beschränktheit (6.2) impliziert L1 -Beschränktheit (6.1).

6.1 Definition. Ein (Sub-/Super-)Martingal (X n , Fn )n∈ℕ0 heißt L2 -(Sub-/Super-)Martingal oder quadrat-integrierbares (Sub-/Super-)Martingal, wenn 𝔼(|X n |2 ) < ∞ für alle n ∈ ℕ0 gilt. Wenn sogar supn∈ℕ0 𝔼(|X n |2 ) < ∞ gilt, nennen wir das (Sub-/Super-)Martingal 2 L -beschränkt. 6.2 Lemma. Es sei (X n , Fn )n∈ℕ0 ein L2 -Martingal. Dann gilt für die Zuwächse X n − X m ⊥ L2 (Fm ) für alle n ⩾ m

(„⊥“ bezeichnet die Orthogonalität im Hilbertraum L2 , vgl. A.4). Insbesondere haben wir ⟨X k − X i , X n − X m ⟩ = 0

Beweis. Wähle Z ∈ L2 (Fm ). Dann ist

⟨X n − X m , Z⟩ = 𝔼((X n − X m )Z)

für alle i ⩽ k ⩽ m ⩽ n. =

tower pull out

=

𝔼(𝔼[(X n − X m )Z | Fm ]) 𝔼(Z 𝔼[X n − X m | Fm ] ) = 0. =0 da MG

Der Zusatz folgt, weil Z = X k − X i ∈ L2 (Fk ) ⊂ L2 (Fm ) gilt.

Wenn wir das Martingal als Teleskopsumme X n − X0 = ∑ni=1 (X i − X i−1 ) schreiben, erhalten wir aus Lemma 6.2 sofort folgendes Korollar.

https://doi.org/10.1515/9783110350685-006

52 | 6 ⧫L2 -Martingale

6.3 Korollar. Es sei (X n , Fn )n∈ℕ0 ein L2 -Martingal. Dann gilt n

𝔼X 2n = 𝔼X02 + ∑ 𝔼((X i − X i−1 )2 ).

(6.3)

i=1

Wir kommen nun zur Verschärfung des Martingalkonvergenzsatzes (Satz 5.3) für L2 beschränkte Martingale. 6.4 Satz (Konvergenzsatz für L2 -Martingale). Es sei (X n , Fn )n∈ℕ0 ein L2 -Martingal. Dann gilt ∞

(X n )n∈ℕ0 ist L2 -beschränkt ⇐⇒ ∑ 𝔼((X i − X i−1 )2 ) < ∞.

(6.4)

i=1

In diesem Fall existiert eine ZV X∞ ∈ L2 (F∞ ), so dass n→∞

X n 󳨀󳨀󳨀󳨀→ X∞

f.s. und in L2 .

Zusatz: (X n , Fn )n∈ℕ0 ∪ {∞} ist wieder ein Martingal.

Beweis. Die Äquivalenz (6.4) folgt unmittelbar aus Korollar 6.3. Wir nehmen an, dass (X n )n∈ℕ0 L2 -beschränkt ist. Wegen 𝔼|X n | ⩽ √𝔼(|X n |2 ) ist (X n )n∈ℕ0 auch L1 -beschränkt, und Korollar 5.5.c zeigt die Existenz des f.s. Grenzwerts X∞ = limn→∞ X n . Andererseits gilt für m < n 2

n

n

m,n→∞

𝔼[(X n − X m )2 ] = 𝔼 [( ∑ (X i − X i−1 )) ] = 𝔼 [ ∑ (X i − X i−1 ) ] 󳨀󳨀󳨀󳨀󳨀󳨀󳨀→ 0. 6.2 6.3

i=m+1

2

(6.4)

i=m+1

Es folgt, dass (X n )n∈ℕ0 eine L2 -Cauchyfolge ist, und daher existieren eine ZV Z ∈ L2 und eine Teilfolge (n(i))i∈ℕ , so dass Z = L2 - lim X n n→∞

und

Z = lim X n(i) f.s. i→∞

Weil wir die f.s. Grenzwerte identifizieren können, folgt X∞ = Z f.s. und X∞ ∈ L2 (F∞ ). L1

L2

Zusatz: Weil X n 󳨀󳨀→ X∞ aus X n 󳨀󳨀→ X∞ folgt, erhalten wir wegen der L1 -Stetigkeit der bedingten Erwartung (Satz 2.5) 𝔼(X∞ | Fm ) = lim 𝔼(X n | Fm ) = X m , n→∞

m ∈ ℕ0 .

6.5 Bemerkung. Es sei (X n , Fn )n∈ℕ0 ein L2 -beschränktes Martingal. Die Beziehung 𝔼(X∞ | Fn ) = X n , n ∈ ℕ0 , erlaubt es uns, (X n )n∈ℕ0 aus X∞ und der Filtration (Fn )n∈ℕ0 zu rekonstruieren – vgl. auch Beispiel 3.4.e. Wir sagen in diesem Fall, dass die ZV X∞ das Martingal (X n )n∈ℕ0 (nach rechts) abschließt. Offenbar ist dann auch (X n )n∈ℕ0 ∪ {∞} ein L2 -beschränktes Martingal. Selbst wenn X∞ als f.s. Grenzwert existiert, ist es im Allgemeinen ohne weitere Integrierbarkeitsbedingung falsch, dass (X n )n∈ℕ0 ∪ (X∞ ) ein Martingal ist.

6 ⧫L2 -Martingale

| 53

Als Anwendung zeigen wir einen Martingalbeweis für ein klassisches Resultat aus der W-theorie, vgl. [WT, Korollar 11.3 und Satz 11.4]. 6.6 Satz. Es seien (ξ n )n∈ℕ ⊂ L2 unabhängige ZV mit Erwartungswert 𝔼ξ i = 0 und Varianz 𝕍ξ i = σ2i . Dann gilt ∞



∑ 𝕍ξ i < ∞ 󳨐⇒ ∑ ξ i konvergiert f.s.

i=1

(6.5)

i=1

Ist supi∈ℕ |ξ i | ⩽ κ < ∞ f.s., dann gilt auch die Umkehrung: ∞



∑ 𝕍ξ i < ∞ ⇐󳨐 ∑ ξ i konvergiert f.s.

(6.6)

i=1

i=1

Beweis. Wir wissen, dass X n = ξ1 + ⋅ ⋅ ⋅ + ξ n , X0 = 0, Fn = σ(ξ1 , . . . , ξ n ) ein Martingal ist. Weil 𝔼ξ i = 0 ist, haben wir 𝕍ξ i = 𝔼ξ i2 und 𝔼(X k − X k−1 )2 = 𝔼ξ k2 = σ2k (6.3)

(6.7)

n

𝔼X 2n = ∑ σ2i =: A n .

(6.8)

i=1

Die erste Behauptung, (6.5), folgt aus ∞

(6.8)

Satz 6.4

∑ σ2i < ∞ 󳨐⇒ sup 𝔼X 2n < ∞ 󳨐⇒ (X n )n∈ℕ konvergiert f.s. n∈ℕ

i=1

Die Umkehrung (6.6) folgt so: Lemma 3.9 zeigt n

n

i=1

i=1

⟨X⟩n = ∑ 𝔼((X i − X i−1 )2 | Fi−1 ) = ∑ 𝔼(ξ i2 | Fi−1 )

ξ i ⊥⊥ Fi−1

=

n

∑ 𝔼ξ i2 = A n ,

i=1

d.h. M n := X 2n − A n ist ein Martingal. Für c ∈ (0, ∞) definieren wir die Stoppzeiten

T := T c := inf{k : |X k | > c}.

Gemäß Satz 4.4 ist (M nT )n∈ℕ0 ein Martingal. Daher gilt für alle n ∈ ℕ0 0 = 𝔼M0T = 𝔼M nT = 𝔼X 2n∧T − 𝔼A n∧T .

Nun ist

|X nT | = |X n∧T | ⩽ { und wir erhalten

c,

|X T |,

wenn T > n

wenn T ⩽ n

} = c𝟙{T>n} + |X T |𝟙{n⩾T} ,

|X nT | ⩽ c𝟙{T>n} + |X T − X T−1 | 𝟙{T⩽n} + |X T−1 | 𝟙{T⩽n} ⩽ c + κ. = |ξ T |⩽κ

⩽1

⩽c

(6.9)

54 | 6 ⧫L2 -Martingale

Wenn wir (6.9) umstellen, ergibt sich 𝔼A n∧T ⩽ (c + κ)2 für alle n ∈ ℕ. Da nach Voraussetzung ∑∞ i=1 ξ i f.s. konvergiert, gibt es ein c 0 mit ℙ(T := T c0 = ∞) > 0. Weiterhin gilt ℙ(T = ∞)A n = 𝔼(𝟙{T=∞} A n∧T ) ⩽ 𝔼A n∧T ⩽ (c0 + κ)2 .

Wenn wir durch ℙ(T = ∞) dividieren, ergibt sich schließlich ∞

∑ σ2i = sup A n ⩽ n∈ℕ

i=1

(c0 + κ)2 < ∞. ℙ(T = ∞)

6.7 Bemerkung. Wir haben in Satz 6.6 sogar gezeigt, dass für eine Folge von unabhängigen und gleichmäßig beschränkten ZV (ξ i )i∈ℕ gilt ∞



ℙ [Partialsummen von ∑ (ξ i − 𝔼ξ i ) beschränkt] > 0 󳨐⇒ ∑ ξ i konvergiert f.s. i=1

i=1

Wir schließen dieses Kapitels mit einer Verallgemeinerung des L2 -SLLN. Als Vorbereitung benötigen wir das Lemma von Kronecker, vgl. auch [WT, Lemma 12.7]. 6.8 Lemma (Kronecker). Es sei (a i )i∈ℕ0 ⊂ (0, ∞) eine monoton wachsende Folge mit a i ↑ ∞ und (x i )i∈ℕ ⊂ ℝ eine Folge. Für die Partialsummen s n := x1 + x2 + ⋅ ⋅ ⋅ + x n , n ∈ ℕ, gilt ∞



i=1

xi ai

konvergiert

󳨐⇒

lim

n→∞

sn = 0. an

Beweis. Wir bezeichnen mit σ n := ∑ni=1 x i /a i die Partialsummen und mit σ := limn→∞ σ n den Grenzwert der Reihe ∑∞ i=1 x i /a i . Mit dem Abelschen Summationsverfahren erhalten wir 1 n 1 n xi 1 n 1 n−1 ∑ xi = ∑ ai = ∑ a i (σ i − σ i−1 ) = σ n − ∑ (a i+1 − a i )σ i . a n i=1 a n i=1 a i a n i=1 a n i=1 Indem wir auf der rechten Seite unter der Summe σ subtrahieren und wieder addieren, folgt 1 n 1 n−1 1 n−1 ∑ xi = σn − ∑ (a i+1 − a i )σ − ∑ (a i+1 − a i )(σ i − σ) a n i=1 a n i=1 a n i=1 = σn −

1 n−1 a n − a0 σ− ∑ (a i+1 − a i )(σ i − σ). an a n i=1

0 Weil a n ↑ ∞, konvergiert σ n − a na−a σ → σ − σ = 0 und die Behauptung folgt, wenn die n verbleibende Summe gegen Null strebt. Für festes ϵ > 0 wählen wir m = m(ϵ) ∈ ℕ, so

6 ⧫L2 -Martingale

| 55

dass |σ i − σ| ⩽ ϵ für alle i ⩾ m gilt. Auf Grund der Monotonie der Folge a n ergibt sich 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 1 n 1 m−1 1 n−1 󵄨 󵄨󵄨 󵄨󵄨 a ∑ (a i+1 − a i )(σ i − σ)󵄨󵄨󵄨 ⩽ a ∑ |(a i+1 − a i )(σ i − σ)| + a ∑ |(a i+1 − a i )(σ i − σ)| n i=1 n i=m 󵄨󵄨 󵄨󵄨 n i=1 ⩽

=

1 m−1 1 n−1 ∑ |(a i+1 − a i )(σ i − σ)| + ∑ (a i+1 − a i )ϵ a n i=1 a n i=m an − am 1 m−1 ϵ. ∑ |(a i+1 − a i )(σ i − σ)| + a n i=1 an

Die Grenzübergänge n → ∞ und anschließend ϵ → 0 zeigen die Behauptung.

6.9 Satz (SLLN für L2 -Martingale). Es sei (X n , Fn )n∈ℕ ein L2 -Martingal mit Kompensator ⟨X⟩ und ⟨X⟩∞ := supn∈ℕ ⟨X⟩n ∈ [0, ∞]. Dann gilt lim

n→∞

Xn = 0 f.s. auf der Menge {⟨X⟩∞ = ∞} ⟨X⟩n

lim X 2n ∈ ℝ existiert f.s. auf der Menge {⟨X⟩∞ < ∞}.

n→∞

(6.10) (6.11)

1 ∙ X. Beweis. Beweis von (6.10). Wir betrachten die Martingaltransformation Y := 1+⟨X⟩ −1 Weil der vorhersagbare Prozess (1 + ⟨X⟩) beschränkt ist, folgt mit Satz 3.12, dass Y ein L2 -Martingal ist. Für alle n ∈ ℕ gilt zudem

𝔼Y n2

=

3.12.d



𝔼[

n 1 ⟨X⟩i − ⟨X⟩i−1 3.12.c ∙ ⟨X⟩ = 𝔼 ] [ ] ∑ n 2 (1 + ⟨X⟩) (1 + ⟨X⟩i )2 i=1 ⟨X⟩i

n

dx 𝔼 [∑ ∫ ] (1 + x)2 i=1 ⟨X⟩i−1





∫ 0

dx < ∞. (1 + x)2

Daher ist Y ein L2 -beschränktes Martingal, und wir können den L2 -Martingalkonvergenzsatz 6.4 anwenden: n

lim ∑

n→∞

i=1

X i − X i−1 konvergiert f.s. 1 + ⟨X⟩i

Die Behauptung folgt aus Kroneckers Lemma 6.8 mit s n = X n (ω) und a n = ⟨X⟩n (ω), wobei wir beachten, dass a n ↑ ∞ nur auf der Menge {⟨X⟩∞ = ∞} gilt. Beweis von (6.11). Es sei ⟨X⟩ der Kompensator des L2 -Martingals X, vgl. Definition 3.8. Wegen der Vorhersagbarkeit von ⟨X⟩ ist T c := inf{n : ⟨X⟩n+1 > c}, c > 0, eine Stoppzeit. Wenn wir die Doob-Zerlegung von X 2 stoppen und dann integrieren, erhalten wir 𝔼X 2n∧T c = 𝔼X02 + 𝔼M n∧T c + 𝔼⟨X⟩n∧T c ⩽ 𝔼X02 + c

für alle n ∈ ℕ0 ,

weil der gestoppte Prozess M T c ein Martingal ist, vgl. Satz 4.4. Der Martingalkonvergenzsatz 5.3 zeigt, dass limn→∞ X 2n∧T c f.s. existiert und endlich ist; mithin {⟨X⟩∞ ⩽ c} ⊂ {T c = ∞} ⊂ {∃ limn X 2n ∈ ℝ}

und wir erhalten schließlich {⟨X⟩∞ < ∞} = ⋃c>0 {⟨X⟩∞ ⩽ c} ⊂ {∃ limn X 2n ∈ ℝ}.

56 | 6 ⧫L2 -Martingale Das folgende Korollar erklärt, warum Satz 6.9 das starke Gesetz der großen Zahlen (vgl. [WT, Satz 12.8]) verallgemeinert. 6.10 Korollar (L2 -SLLN). Es seien (ξ n )n∈ℕ ⊂ L2 iid ZV mit 𝔼ξ i = 0 und 𝕍ξ i = σ2 > 0. Dann gilt

ξ1 + ξ2 + ⋅ ⋅ ⋅ + ξ n = 0. n Beweis. Der Prozess X n := ξ1 +⋅ ⋅ ⋅+ ξ n ist ein L2 -Martingal und der Beweis von Satz 6.6 zeigt, dass lim

n→∞

n

⟨X⟩n = ∑ 𝔼ξ i2 = nσ2 , i=1

n ∈ ℕ;

daher folgt die Behauptung aus Satz 6.9.

Aufgaben 1.

2.

3. 4.

Es seien (ξ i )i∈ℕ iid ZV mit 𝔼ξ1 = 0 und 𝔼ξ12 = 1. Wir setzen X n := ξ1 + ⋅ ⋅ ⋅ + ξ n und X0 = 0. (a) Zeigen Sie, dass (X n )n∈ℕ0 ein L2 -Martingal (bezüglich welcher Filtration?) ist. (b) Zeigen Sie, dass (X 2n − n)n∈ℕ0 ein Martingal ist. (c) Zeigen Sie, dass (X 2n − A n )n∈ℕ0 , A n := ξ12 + ⋅ ⋅ ⋅ + ξ n2 , A0 := 0 ein Martingal ist. (d) Vergleichen Sie das Ergebnis der letzten Teilaufgabe mit der Doob-Zerlegung eines Submartingals. Ergibt sich hier möglicherweise ein Widerspruch? Bemerkung. Der in Teil (c) definierte Prozess wird oft als [X]n := ∑ni=1 (X i − X i−1 )2 geschrieben. Er heißt square bracket oder quadratische Variation von X. Der Prozess [X] − ⟨X⟩ ist ein Martingal. Es sei (X n )n∈ℕ0 der in Beispiel 3.4.h definierte Verzweigungsprozess. Wir nehmen an, dass die iid ZV N n,i , die die Nachkommenschaft der Population modellieren, Mittelwert μ = 𝔼N n,i und Varianz 0 < σ2 = 𝕍N n,i haben. (a) Zeigen Sie, dass (X n /μ n )n∈ℕ0 ein Martingal (bezüglich der natürlichen Filtration Fn ) ist. (b) Zeigen Sie, dass 𝔼(X 2n+1 | Fn ) = μ2 X 2n + σ2 X n gilt. (c) Folgern Sie aus Teil (b), dass (X n /μ n )n∈ℕ0 genau dann L2 -beschränkt ist, wenn μ > 1. (d) Zeigen Sie im Falle μ > 1, dass limn→∞ X n /μ n = σ2 /(μ(μ − 1)) gilt.

Zeigen Sie, dass man in Korollar 6.10 die Bedingung „iid“ abschwächen kann zur „unabhängig und ∑∞ n=1 𝕍ξ n = ∞.“

Es seien (ξ i )i∈ℕ ⊂ L2 unabhängige ZV. Verwenden Sie Kroneckers Lemma und Satz 6.6 für die unabhängigen ZV ξ i /i, i ∈ ℕ, um folgende Version des L2 -SLLN zu zeigen (vgl. [WT, Satz 12.8]): ∞



i=1

𝕍ξ i 1 n < ∞ 󳨐⇒ lim ∑ (ξ i − 𝔼ξ i ) = 0 f.s. 2 n→∞ n i=1 i

5.

Geben Sie einen neuen Beweis von Satz 6.6 mit Hilfe von Korollar 5.10.

6.

Es sei Y = Y0 + M + A die Doob-Zerlegung des positiven Submartingals Y. Zeigen Sie, analog zu (6.11), dass {A∞ < ∞} ⊂ {∃ limn Y n ∈ ℝ}.

7.

Es seien (ϵ n )n∈ℕ iid ZV mit ℙ(ϵ n = ±1) = nische Reihe ∑∞ n=1 ϵ n /n f.s. konvergiert.

1 2 . Zeigen Sie, dass die „zufällig alternierende“ harmo-

7 Gleichgradig integrierbare Martingale Wir haben in Satz 6.4 gesehen, dass L2 -beschränkte Martingale (X n , Fn )n∈ℕ0 abschließbar sind, d.h. es gibt eine F∞ -messbare ZV X∞ , so dass (X n )n∈ℕ0 ∪ {∞} wiederum ein Martingal ist; insbesondere gilt dann X n = 𝔼(X∞ | Fn ) für alle n ∈ ℕ0 . Die ZV X∞ ist der „rechte Endpunkt“ des Martingals (X n )n∈ℕ0 . In diesem Kapitel wollen wir notwendige und hinreichende Bedingungen für die Abschließbarkeit von (Sub-)Martingalen finden. Ein wesentliches Hilfsmittel ist der Begriff der gleichgradigen Integrierbarkeit und der Konvergenzsatz von Vitali (Satz 7.9), der den Lebesgueschen Satz von der dominierten Konvergenz [MI, Satz 11.3] um notwendige und hinreichende Bedingungen ergänzt. 7.1 Definition. Es sei I eine beliebige Indexmenge. Eine Familie von Zufallsvariablen X λ : Ω → ℝ, λ ∈ I heißt gleichgradig integrierbar (kurz: ggi; engl.: uniformly integrable, equi-integrable), wenn gilt lim sup

R→∞ λ∈I



{|X λ |>R}

|X λ | dℙ = 0.

(7.1)

7.2 Bemerkung. Die gleichgradige Integrierbarkeit verhindert, dass die Familie der Verteilungen ℙ(X λ ∈ ∙) gleichmäßig für alle λ ∈ I (zu viel) Masse nach ±∞ verschiebt. Außerdem impliziert die gleichgradige Integrierbarkeit die L1 -Beschränktheit, vgl. Aufg. 7.1(a). Wir werden in Satz 7.9 sehen, dass die gleichgradige Integrierbarkeit im Wesentlichen eine L1 -Kompaktheitsbedingung ist. Unsere Formulierung der gleichgradigen Integrierbarkeit ist auf endliche Maße zugeschnitten. Allgemeinere Definitionen finden Sie z.B. in [MIMS, Kapitel 22].

7.3 Lemma. Es sei X ∈ L1 (A ) eine integrierbare ZV. a) {X} ist gleichgradig integrierbar. b) {𝔼(X | F ) : F ⊂ A ist σ-Algebra} ist gleichgradig integrierbar.

Beweis. a) Weil X integrierbar ist, haben wir ℙ(|X| = ∞) = 0, und somit gilt limR→∞ 𝟙{|X|>R} = 0 f.s. Es folgt dom. Konv.

∫ |X| dℙ = ∫ 𝟙{|X|>R} ⋅ |X| dℙ 󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀→ 0. ⩽ |X|∈L1

{|X|>R}

R→∞

b) Es sei F ⊂ A eine σ-Algebra und Y := 𝔼(X | F ). Die Dreiecksungleichung für die bedingte Erwartung (Satz 2.6.k) zeigt |Y| = |𝔼(X | F )| ⩽ 𝔼(|X| | F ), https://doi.org/10.1515/9783110350685-007

58 | 7 Gleichgradig integrierbare Martingale so dass für alle R > 0 wegen {|Y| > R} ∈ F gilt ∫ |Y| dℙ ⩽

{|Y|>R}

= (∗)





(2.3)

∫ 𝔼(|X| | F ) dℙ =

{|Y|>R}



|X| dℙ +



|X| dℙ +

{|Y|>R}∩ {|X|>R/2} {|Y|>R}∩ {|X|>R/2}



{|X|>R/2}

1 |X| dℙ + 2

∫ |X| dℙ

{|Y|>R}



|X| dℙ



1 |Y| dℙ 2

{|Y|>R}∩ {|X|⩽R/2} {|Y|>R}∩ {|X|⩽R/2}

∫ |Y| dℙ.

{|Y|>R}

Im vorletzten, mit (∗) gekennzeichneten Schritt verwenden wir, dass |X| ⩽ 12 R < 12 |Y| auf der Menge {|Y| > R} ∩ {|X| ⩽ R/2} gilt. Durch Umstellen erhalten wir ∫ |Y| dℙ ⩽ 2

{|Y|>R}



{|X|>R/2}

dom. Konv.

|X| dℙ 󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀→ 0 R→∞

gleichmäßig für alle Y = 𝔼(X | F ), F ⊂ A .

I.Allg. ist es schwer, die gleichgradige Integrierbarkeit mit Hilfe der Definition 7.1 nachzuweisen. Praktischer sind folgende hinreichende Kriterien. 7.4 Satz. Es sei (X λ )λ∈I eine Familie reeller ZV. a) Wenn für ein p > 1 die Familie (X λ )λ∈I L p -beschränkt ist, d.h. supλ∈I 𝔼(|X λ |p ) < ∞, dann ist (X λ )λ∈I gleichgradig integrierbar. b) Wenn für ein Y ∈ L1 und alle λ ∈ I gilt |X λ | ⩽ Y, dann ist (X λ )λ∈I gleichgradig integrierbar. Beweis. a) Für jedes feste R > 0 haben wir ∫

{|X λ |>R}

|X λ | dℙ ⩽



{|X λ |>R}

|X λ |

|X λ |p−1 dℙ = R1−p R p−1

gleichmäßig für alle λ ∈ I.



{|X λ |>R}

|X λ |p dℙ ⩽ R1−p sup 𝔼(|X λ |p ) λ∈I

b) Wegen |X λ | ⩽ Y folgt {|X λ | > R} ⊂ {Y > R}, und daher gilt ∫

{|X λ |>R}

|X λ | dℙ ⩽

gleichmäßig für alle λ ∈ I.



{|X λ |>R}

→0

R}

R→∞

Satz 7.4.a ist für p = 1 falsch: Aus der L1 -Beschränktheit supλ∈I 𝔼|X λ | < ∞ folgt i.Allg. nicht die gleichgradige Integrierbarkeit.

7 Gleichgradig integrierbare Martingale | 59

7.5 Beispiel. Wir definieren auf dem W-Raum ((0, 1], B(0, 1], dt) die Zufallsvariablen X n (t) := n𝟙(0,1/n] (t), n ∈ ℕ. Dann gilt 󳶳 (X n )n∈ℕ ist nicht ggi (Aufg. 7.2); 󳶳 supn∈ℕ 𝔼|X n | = 1 < ∞; 󳶳 limn→∞ X n = 0 f.s., aber 𝔼X n ↛ 0.

7.6 Bemerkung. Es gilt der folgende Satz (de la Vallée-Poussin). Eine Familie von ZV (X λ )λ∈I ist genau dann gleichgradig integrierbar, wenn es eine konvexe Funktion ϕ : ℝ+ → ℝ+ gibt, so dass lim

t→∞

ϕ(t) =∞ t

und

sup 𝔼ϕ(|X λ |) < ∞. λ∈I

Die Richtung „⇐“ ist einfach zu zeigen, „⇒“ ist deutlich aufwendiger, vgl. [MIMS, Kapitel 22, S. 266]. In Satz 7.4.a verwenden wir die konvexe Funktion ϕ(t) = t p , p > 1.

Für spätere Anwendungen, aber auch um das Gegenbeispiel 7.5 besser verstehen zu können, beweisen wir eine „optimale“ Version des Satzes von der dominierten Konvergenz (Satz 7.9). Wir beginnen mit einigen Vorbereitungen. 7.7 Scholium (Konvergenz in Wahrscheinlichkeit4 ). Es sei (X n )n∈ℕ eine Folge von ZV, die alle auf demselben W-Raum (Ω, A , ℙ) definiert sind. Wir sagen, dass X n gegen eine ZV X in Wahrscheinlichkeit (auch: stochastisch) konvergiert, wenn ∀ϵ > 0 : lim ℙ(|X n − X| > ϵ) = 0. n→∞

Wir verwenden die Notation X n 󳨀 → X. Mit Hilfe der Markov Ungleichung [MI, Korollar 10.5] sieht man schnell, dass ℙKonvergenz sowohl aus der L p -Konvergenz als auch aus der f.s. Konvergenz folgt. Umgekehrt gilt, dass eine ℙ-konvergente Folge eine f.s. konvergente Teilfolge besitzt. ℙ

7.8 Lemma. Es seien X, X i : Ω → ℝ, i ∈ ℕ, ZV mit X i 󳨀 → X. Dann gilt L1

f(X i ) 󳨀󳨀󳨀󳨀→ f(X)

für alle gleichmäßig stetigen f ∈ C b (ℝ).



i→∞

Mit einem etwas komplizierteren Beweis kann man Lemma 7.8 für beliebige f ∈ C b (ℝ) zeigen, vgl. [WT, Satz 9.7]. Beweis von Lemma 7.8. Es sei f ∈ C b (ℝ) gleichmäßig stetig. Für jedes ϵ gibt es daher ein δ > 0, so dass |f(x) − f(y)| ⩽ ϵ für alle |x − y| ⩽ δ.

4 Wenn Sie den Begriff der Konvergenz in Wahrscheinlichkeit nicht kennen, sollten Sie den Anhang A.1 oder [WT, Kapitel 9] lesen.

60 | 7 Gleichgradig integrierbare Martingale Daher gilt 𝔼|f(X i ) − f(X)| =



{|X i −X|⩽δ}

|f(X i ) − f(X)| dℙ + ⩽ϵ



{|X i −X|>δ}

|f(X i ) − f(X)| dℙ

⩽ ϵ + 2‖f‖∞ ℙ(|X i − X| > δ) 󳨀󳨀󳨀󳨀→ ϵ. i→∞

Weil ϵ frei gewählt werden kann, folgt die Behauptung.

7.9 Satz (Vitali). Es sei (X i )i∈ℕ ⊂ L1 eine Folge von reellen ZV, die in Wahrscheinlichkeit gegen eine ZV X konvergiert. Dann sind folgende Aussagen äquivalent. a) (X i )i∈ℕ ist gleichgradig integriebar. L1

b) X i 󳨀󳨀→ X; insbesondere gilt dann X ∈ L1 . i→∞

c) 𝔼|X i | 󳨀󳨀󳨀󳨀→ 𝔼|X| < ∞.

Beweis. a)⇒b): Die Funktion χ n (x) := (−n) ∨ (x ∧ n) ist offensichtlich gleichmäßig stetig und beschränkt (vgl. Abb. 7.1). Weiterhin gilt |x − χ n (x)| ⩽ |x|𝟙{|x|⩾n} , und wir

Abb. 7.1: Die Funktion χ n (x) := (−n) ∨ (x ∧ n).

erhalten für beliebige i, k ∈ ℕ

|X i − X k | ⩽ |X i − χ n (X i )| + |χ n (X i ) − χ n (X k )| + |χ n (X k ) − X k |

⩽ |X i | ⋅ 𝟙{|X i |⩾n} + |χ n (X i ) − χ n (X k )| + |X k | ⋅ 𝟙{|X k |⩾n} .

Indem wir auf beiden Seiten den Erwartungswert bilden, ergibt sich 𝔼|X i − X k | ⩽ 2 sup 𝔼 (|X l | ⋅ 𝟙{|X l |⩾n} ) + 𝔼|χ n (X i ) − χ n (X k )| l∈ℕ

i,k→∞

󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀→ 2 sup 𝔼 (|X l | ⋅ 𝟙{|X l |⩾n} ) + 𝔼|χ n (X) − χ n (X)| . Lemma 7.8

l∈ℕ

→0 für n → ∞ wg. ggi

=0

Weil die Familie (X i )i∈ℕ gleichgradig integrierbar ist, konvergiert der erste Ausdruck auf der rechten Seite für n → ∞ gegen 0, und wir erhalten lim supi,k→∞ 𝔼|X i −X k | = 0. Das zeigt, dass (X i )i∈ℕ eine L1 -Cauchyfolge ist, und auf Grund der Vollständigkeit von L1 existiert der Grenzwert Y = L1 - limi→∞ X i ; insbesondere gilt dann X i → Y

7 Gleichgradig integrierbare Martingale |

61

in Wahrscheinlichkeit. Weil ℙ-Limiten eindeutig sind, ist X = Y f.s. und wir haben X = L1 - limi→∞ X i .

b)⇒c): folgt sofort aus der Dreiecksungleichung im Raum L1 .

c)⇒a): Für S > 0 konstruieren wir eine stetige Funktion ψ S mit der Eigenschaft, dass 𝟙[−S+1,S−1] ⩽ ψ S ⩽ 𝟙[−S,S] , z.B. wie in Abb. 7.2. Weiterhin seien f S (x) := |x|ψ S (x) und ϵ > 0 fest gewählt.

Abb. 7.2: Darstellung der Funktionen ψ S (x) und f S (x) = |x|ψ S (x).

1o Weil f S (x) ⩽ |x| ist, können wir dominierte Konvergenz verwenden und sehen lim ∫ f S (X) dℙ = 𝔼|X| 󳨐⇒ ∃S ϵ > 0

S→∞

∀S ⩾ S ϵ : 0 ⩽ 𝔼|X| − ∫ f S (X) dℙ ⩽ ϵ.

2o Wir wählen nun S = S ϵ . Als stetige Funktion mit kompaktem Träger ist f S gleichmäßig stetig. Gemäß Lemma 7.8 gilt limi→∞ ∫ f S (X i ) dℙ = ∫ f S (X) dℙ, und weil wir nach Voraussetzung limi→∞ 𝔼|X i | = 𝔼|X| haben, folgt ∃N ϵ = N(ϵ, S ϵ ) ∀i ⩾ N ϵ : 𝔼|X i | − ∫ f S (X i ) dℙ ⩽ ϵ + 𝔼|X| − ∫ f S (X) dℙ ⩽ 2ϵ.

3o Für R > S = S ϵ und i ⩾ N ϵ gilt ∫

und somit

{|X i |>R}

|X i | dℙ ⩽ ∫(1 − ψ S (X i ))|X i | dℙ = 𝔼|X i | − ∫ f S (X i ) dℙ ⩽ 2ϵ,

lim sup sup R→∞

i⩾N ϵ



{|X i |>R}

|X i | dℙ ⩽ 2ϵ.

4o Da X1 , X2 , . . . , X N ϵ −1 ∈ L1 (ℙ), sehen wir mit dem Satz von der dominierten Konvergenz, dass lim max

R→∞ iR}

3o

|X i | dℙ = 0 󳨐⇒ lim sup sup

Weil ϵ > 0 beliebig ist, folgt a).

R→∞

i∈ℕ



{|X i |>R}

|X i | dℙ ⩽ 2ϵ.

62 | 7 Gleichgradig integrierbare Martingale Mit Hilfe von Vitalis Konvergenzsatz 7.9 können wir das Hauptresultat dieses Kapitels zeigen. 7.10 Satz (Konvergenz von ggi Martingalen). Es sei (X n , Fn )n∈ℕ0 ein [Sub-]Martingal. Dann sind folgende Aussagen äquivalent: a) (X n )n∈ℕ0 ist gleichgradig integrierbar. b) X∞ = limn→∞ X n existiert f.s. und in L1 für ein X∞ ∈ L1 (F∞ ). c) (X n , Fn )n∈ℕ0 ∪ {∞} ist ein [Sub-]Martingal und es gilt limn→∞ 𝔼X n = 𝔼X∞ . Insbesondere ist X n ⩽ 𝔼(X∞ | Fn ), n ∈ ℕ0 ; für Martingale gilt „=.“

Beweis. a)⇔b): Sowohl die gleichgradige Integrierbarkeit als auch die L1 -Konvergenz implizieren supn∈ℕ0 𝔼|X n | < ∞ [], vgl. Aufg. 7.1(a). Nach dem Martingalkonvergenzsatz 5.3 existiert daher der f.s. Grenzwert X∞ := limn→∞ X n und X∞ ist eine F∞ messbare ZV; weil der f.s. Grenzwert auch ein Grenzwert in Wahrscheinlichkeit ist, folgt die Äquivalenz von a) und b) aus Vitalis Satz 7.9. b)⇒c): Für festes n, alle F ∈ Fn und N > n gilt ∫ X n dℙ

sub-MG

F



∫ X N dℙ 󳨀󳨀󳨀󳨀󳨀→ ∫ X∞ dℙ, N→∞

F

F

wobei wir für Martingale sogar Gleichheit haben. Im letzten Schritt verwenden wir, L1

dass wegen X N 󳨀󳨀→ X∞ insbesondere

|𝔼[X N 𝟙F ] − 𝔼[X∞ 𝟙F ]| ⩽ 𝔼 |X N 𝟙F − X∞ 𝟙F | ⩽ 𝔼|X N − X∞ | 󳨀󳨀󳨀󳨀󳨀→ 0, N→∞

F ∈ Fn ,

ergibt. Der erste Teil der Behauptung c) folgt nun aus den Definitionen 3.2 und 2.1. Für F = Ω erhalten wir außerdem limn→∞ 𝔼X n = 𝔼X∞ .

c)⇒a): Für Martingale folgt die Behauptung unmittelbar aus Lemma 7.3.b. Für Submartingale müssen wir etwas aufwendiger argumentieren.5 Nach Voraussetzung gilt limn→∞ 𝔼X n = 𝔼X∞ , d.h. ∀ϵ > 0

∃m = m(ϵ) ∈ ℕ

∀n ⩾ m : 𝔼X n ⩾ 𝔼X∞ − ϵ.

Nun sei R > 0 fest gewählt. Für alle n ⩾ m = m(ϵ) gilt ∫

{|X n |>R}

|X n | dℙ

= =

Sub-MG



(7.2)



(−X n ) dℙ +



X n dℙ − 𝔼X n +



X∞ dℙ − 𝔼X∞ + ϵ +

{X n R}



X n dℙ

{X n >R}



{X n >R}

X∞ dℙ

5 Vergleichen Sie den folgenden Beweis mit dem Beweis von Lemma 7.3.b.

(7.2)

7 Gleichgradig integrierbare Martingale |

⩽ = ⩽



{|X n |>R}

|X∞ | dℙ + ϵ ∫

{|X n |>R}∩ {|X∞ |>R/2}



{|X∞ |>R/2}

|X∞ | dℙ +

|X∞ | dℙ +

1 2





{|X n |>R}∩ {|X∞ |⩽R/2}

{|X n |>R}

|X n | dℙ + ϵ.

63

|X∞ | dℙ + ϵ

Für die letzte Ungleichung beachten wir, dass auf der Menge {|X n | > R} ∩ {|X∞ | ⩽ R/2} die Abschätzung |X∞ | ⩽ 21 R < 12 |X n | gilt. Durch Umstellen ergibt sich ∫

sup

n⩾m(ϵ)

{|X n |>R}

|X n | dℙ ⩽ 2



{|X∞ |>R/2}

|X∞ | dℙ + 2ϵ.

Mit Hilfe des Satzes von der dominierten Konvergenz können wir ein R = R(ϵ) finden, so dass ∫

{|X∞ |>R/2}

|X∞ | dℙ ⩽ ϵ

∀0 ⩽ i < m(ϵ) :

und

Insgesamt gilt dann

sup n∈ℕ



{|X n |>R}

|X n | dℙ ⩽ 4ϵ



{|X i |>R}

|X i | dℙ ⩽ ϵ.

für alle R ⩾ R ϵ ,

und die Behauptung folgt.

Gleichgradige Integrierbarkeit und optional stopping Mit Hilfe des Begriffs der gleichgradigen Integrierbarkeit können wir im optional stopping theorem von Doob (Satz 4.10) auf die Voraussetzung der Beschränktheit der Stoppzeiten verzichten. 7.11 Satz (optional stopping). Es seien (X n , Fn )n∈ℕ0 ein gleichgradig integrierbares Submartingal und S, T nicht notwendig endliche Stoppzeiten mit ℙ(S ⩽ T ⩽ ∞) = 1. Dann sind X S , X T ∈ L1 und es gilt 𝔼(X T | FS ) ⩾ X S .

(7.3)

Insbesondere gilt für S = 0 die Ungleichung 𝔼X T ⩾ 𝔼X0 . Wenn (X n )n∈ℕ0 ein gleichgradig integrierbares Martingal ist, dann gelten diese Aussagen mit „=“ an Stelle von „⩾“. Beweis. Zunächst bemerken wir, dass (X n )n∈ℕ0 ∪ {∞} und (X +n )n∈ℕ0 Submartingale sind, vgl. Satz 7.10 bzw. Satz 3.5. Nach Satz 4.4 ist dann auch (X +n∧T , Fn )n∈ℕ0 ein Submartingal. Weiterhin gilt 𝔼|X n∧T | = 2𝔼X +n∧T − 𝔼X n∧T

sub-MG



ggi

2𝔼X +n − 𝔼X0 ⩽ 3 sup 𝔼|X n | < ∞. n∈ℕ0

64 | 7 Gleichgradig integrierbare Martingale Weil (X n )n∈ℕ0 gleichgradig integrierbar ist, ist dieses Supremum endlich. Mit Hilfe des Fatouschen Lemmas folgt 𝔼|X T | = 𝔼 (lim inf |X n∧T |) ⩽ lim inf 𝔼 (|X n∧T |) ⩽ 3 sup 𝔼|X n | < ∞. n→∞

n→∞

n∈ℕ0

Also haben wir X T ∈ L1 (ℙ), und ganz analog folgt X S ∈ L1 (ℙ). Die Abschätzungen |X n∧T | = |X n 𝟙{T⩾n} + X T 𝟙{T 0

∃μ = μ ϵ

∀ν ⩽ μ : 𝔼X ν ⩾ 𝔼X μ − ϵ.

Die gleichgradige Integrierbarkeit der Familie (X ν )ν∈−ℕ0 folgt fast wörtlich wie im Beweis von Satz 7.10 „c)⇒a),“ wobei X μ die Rolle von X∞ übernimmt.

Aufgaben 1.

Es seien (X i )i∈I und (Y i )i∈I zwei Familien von Zufallsvariablen und J ⊂ I. Zeigen Sie: (a) (X i )i∈I ggi 󳨐⇒ supi∈I 𝔼(|X i |) < ∞; (b) (X i )i∈I ggi 󳨐⇒ (X i )i∈I\J ggi; (c)

X1 , . . . , X n ∈ L1 󳨐⇒ {X1 , . . . , X n } ggi;

(d) (X i )i∈I , (Y i )i∈I ggi 󳨐⇒ {X i , Y i : i ∈ I} und {X i + Y i : i ∈ I} ggi; (e) (X i )i∈I ggi 󳨐⇒ {tX i + (1 − t)Y i : i ∈ I, t ∈ (0, 1)} ggi; (f)

2. 3.

4.

Der L1 -Abschluss der Menge auf der rechten Seite von (e) ist ggi;

(g) (Y i )i∈I ggi und |X i | ⩽ Y i für alle i ∈ I 󳨐⇒ (X i )i∈I ggi. Warum ist die Familie (X n )n∈ℕ aus Beispiel 7.5 nicht ggi?

Es sei (X i )i∈I eine Familie von Zufallsvariablen und ϕ : [0, ∞) → ℝ eine konvexe, wachsende Funktion mit limx→∞ ϕ(x)/x = ∞. Zeigen Sie, dass aus supi∈I 𝔼(ϕ(|X i |)) < ∞ die gleichgradige Integrierbarkeit von (X i )i∈I folgt. Hinweis. O.B.d.A. ist ϕ(0) = 0; dann gilt ϕ(a)/a ⩽ ϕ(b)/b, a < b. Es seien ξ1 , ξ2 , ξ3 , . . . unabhängige, positive ZV. Weiter sei Fn = σ(ξ1 , . . . , ξ n ) und 𝔼ξ n = 1, n ∈ ℕ. Wir setzen M0 = 1, M n = ξ1 ⋅ . . . ⋅ ξ n . Zeigen Sie: (a) (M n , Fn )n∈ℕ0 ist ein Martingal und M∞ = limn M n existiert f.s. (b) Folgende Aussagen sind äquivalent; (c)

5. 6. 7. 8. 9.

L1

𝔼M∞ = 1 ⇐⇒ M n 󳨀󳨀→ M∞ ⇐⇒ (M n )n∈ℕ0 ist ggi.

Nun seien die ξ i iid ZV mit ℙ(ξ i = 0) = ℙ(ξ i = 2) = 12 . Zeigen Sie, dass es keine ZV M und keine Filtration (Fn )n geben kann, für die 𝔼(M | Fn ) = M n gilt.

Es seien (ξ n )n∈ℕ iid ZV mit ℙ(ξ1 = ±1) = 21 . Zeigen Sie: X n := ξ1 + ⋅ ⋅ ⋅ + ξ n , Fn = σ(ξ1 , . . . , ξ n ) ist ein Martingal, das nicht gleichgradig integrierbar ist.

Formulieren Sie den Satz von der dominierten Konvergenz und erklären Sie, warum dieser im Satz von Vitali enthalten ist. L1

Zeigen Sie: (X n )n∈ℕ0 Super-MG, X n 󳨀󳨀→ Z, dann ist (X n )n∈ℕ0 ∪ {Z} wieder ein Super-MG.

Es sei T eine Stoppzeit und (X n , Fn )n∈ℕ0 eine adaptierte Familie von ZV, die ggi ist. Weiter sei T < ∞ f.s. und es gelte X T ∈ L1 . Zeigen Sie, dass (X n∧T )n∈ℕ0 ggi ist.

Es seien S, T f.s. endliche Stoppzeiten, S ⩽ T und (X n , Fn )n∈ℕ0 ein ggi Sub-MG. Zeigen Sie, dass die Bedingungen (7.5) gelten.

10. Der Beweis von Satz 7.11 kann für Martingale etwas vereinfacht werden. Untersuchen Sie, an welcher Stelle das möglich ist. 11. Es sei (X n , Fn )n∈ℕ0 ein Martingal oder ein positives Submartingal und S die Familie aller Ft Stoppzeiten. Zeigen Sie, dass für jedes n die Familie {X n∧S : S ∈ S } ggi ist.

8 ⧫Einige klassische Resultate der W-Theorie Ein zentrales Thema der Wahrscheinlichkeitstheorie ist das Studium von Summen X n = ξ1 + ⋅ ⋅ ⋅ + ξ n unabhängiger ZV (ξ n )n∈ℕ , vgl. zum Beispiel [WT, Kapitel 10–13]. In diesem Kapitel werden wir einige wichtige Resultate mit Hilfe von Martingaltechniken beweisen. Oft können wir die Unabhängigkeit der ξ n durch die Annahme ersetzen, dass (X n )n∈ℕ0 ein Martingal ist, und erhalten weitgehende Verallgemeinerungen der klassischen Resultate. Für die Lektüre dieses Kapitels wird die Kenntnis der klassischen Resultate nicht vorausgesetzt.

8.1 Lévys Konvergenzsatz und Kolmogorovs 0-1–Gesetz In Satz 7.10 haben wir gesehen, dass alle gleichgradig integrierbaren Martingale von der Form X n = 𝔼(X | Fn ) sind. Der folgende Konvergenzsatz von Lévy macht eine Aussage über die Konvergenz „entlang der Filtration.“ 8.1 Satz (Lévy 1935). Es seien X ∈ L1 (A ) eine integrierbare ZV, (Fn )n∈ℕ0 eine Filtration und F∞ = σ(Fn , n ∈ ℕ0 ). Dann gilt lim 𝔼(X | Fn ) = 𝔼(X | F∞ ) f.s. und in L1 .

(8.1)

n→∞

Beweis. Wir definieren X n := 𝔼(X | Fn ), n ∈ ℕ0 , und X∞ := 𝔼(X | F∞ ). Dann ist (X n , Fn )n∈ℕ0 ein Martingal, das wegen Lemma 7.3.b gleichgradig integrierbar ist und daher nach Satz 7.10 f.s. und in L1 gegen eine ZV Y := limn→∞ X n ∈ L1 (F∞ ) konvergiert. Wir müssen noch X∞ = Y f.s. zeigen. Nach Definition gilt 𝔼(Y | Fn )

=

Satz 7.10

X n = 𝔼(X | Fn ) = 𝔼( 𝔼[X | F∞ ] | Fn ). Def.

tower

= X∞

Daher haben wir ∫ Y dℙ = ∫ X∞ dℙ F

F

für alle F ∈ Fn und n ∈ ℕ0 , d.h. für alle F ∈ ⋃ Fn . n∈ℕ0

Weil ⋃n∈ℕ0 Fn ein ∩-stabiler Erzeuger von F∞ ist, der Ω enthält, folgt mit Bemerkung 2.2 Y

=

Bem. 2.2

𝔼(X∞ | F∞ )

=

F∞ −mb.

X∞

f.s.

Wenn wir Satz 8.1 auf die ZV X = 𝟙F mit F ∈ F∞ anwenden, erhalten wir Lévys 0-1– Gesetz.

8.2 Korollar (Lévy 1935; 0-1–Gesetz). Es sei (Fn )n∈ℕ0 eine Filtration. Für alle Mengen F ∈ F∞ = σ(Fn , n ∈ ℕ0 ) gilt limn→∞ ℙ(F | Fn ) = 𝟙F f.s. https://doi.org/10.1515/9783110350685-008

68 | 8 ⧫Einige klassische Resultate der W-Theorie Auf den ersten Blick erscheint die Aussage von Korollar 8.2 sehr natürlich, weil wegen Fn ↑ F∞ die F∞ -messbare ZV 𝟙F aus den Projektionen ℙ(F | Fn ) = 𝔼(𝟙F | Fn ) rekonstruiert werden kann. Auf den zweiten Blick sagt das Korollar, dass der Grenzwert limn→∞ ℙ(F | Fn ) f.s. nur die Werte „Null“ oder „Eins“ haben kann. Wenn zum Beispiel F ∈ F∞ unabhängig von allen Fn ist, dann haben wir ℙ(F)

=

unabh.

lim ℙ(F | Fn )

n→∞

=ℙ(F)

=

Kor. 8.2

𝟙F ,

und es folgt, dass F entweder eine Nullmenge ist oder volles Maß hat. 8.3 Beispiel. Eine typische Situation, in der F ∈ F∞ und F ⊥⊥ Fn für alle n ∈ ℕ auftritt, ist die von einer Folge von unabhängigen ZV (ξ n )n∈ℕ erzeugte terminale σ-Algebra (engl. tail σ-algebra) G∞ := ⋂ Gn n∈ℕ

wobei Gn := σ(ξ n , ξ n+1 , . . . ).

Wegen der Unabhängigkeit der (ξ n )n∈ℕ gilt Gn+1 ⊥⊥ σ(ξ1 , . . . , ξ n ) = Fn und somit F∞ ⊃ G∞ ⊥⊥ Fn für alle n ∈ ℕ.

Wenn wir Korollar 8.2 und Beispiel 8.3 kombinieren, erhalten wir das klassische Kolmogorovsche 0-1–Gesetz. 8.4 Satz (Kolmogorovsches 0-1–Gesetz). Es seien (ξ n )n∈ℕ unabhängige reelle ZV und F ein Element der terminalen σ-Algebra G∞ . Dann gilt ℙ(F) = 0 oder ℙ(F) = 1.

8.2 Rückwärtsmartingale und Kolmogorovs L1 -SLLN Wir beginnen mit dem Rückwärtskonvergenzsatz von Lévy, der die f.s. und L1 Konvergenz von Rückwärtsmartingalen der Form 𝔼(X | Fν ) für eine absteigende Filtration F0 ⊃ F−1 ⊃ F−2 ⊃ ⋅ ⋅ ⋅ ⊃ F−∞ := ⋂ν∈−ℕ Fν behandelt.

8.5 Satz (Lévy; Rückwärtstheorem). Es sei X ∈ L1 (A ) und (Fν )ν∈−ℕ0 eine Filtration. Dann gilt lim 𝔼(X | Fν ) = 𝔼(X | F−∞ ) f.s. und in L1 .

ν→−∞

Beweis. Wir wenden den Konvergenzsatz für Rückwärtsmartingale (Satz 7.13) auf das (Rückwärts-)Martingal (X ν )ν∈−ℕ0 , X ν := 𝔼(X | Fν ) an, und erhalten für eine F−∞ messbare ZV X−∞ = lim X ν ν→−∞

Außerdem gilt X−∞

=

Satz 7.13

f.s. und in L1 .

𝔼(X0 | F−∞ ) = 𝔼(𝔼[X | F0 ] | F−∞ ) = 𝔼(X | F−∞ ). Def.

tower

8.3 Das 0-1–Gesetz von Hewitt–Savage |

69

Wir können nun einen Martingalbeweis für das Kolmogorovsche L1 -SLLN führen. 8.6 Satz (L1 -SLLN; Kolmogorov 1933). Es seien (ξ n )n∈ℕ ⊂ L1 (A ) unabhängige, identisch verteilte ZV. Dann gilt lim

n→∞

1 (ξ1 + ⋅ ⋅ ⋅ + ξ n ) = 𝔼ξ1 n

f.s.

Beweis. Wir schreiben S n := ξ1 + ⋅ ⋅ ⋅ + ξ n . In Beispiel 5.8 haben wir gesehen, dass Sn n

X−n :=

F−n := σ(S n , ξ n+1 , ξ n+2 , . . . )

und

ein Rückwärtsmartingal ist. Daher existiert der Grenzwert L = lim X−n = lim n→∞

n→∞

in L1 und f.s. Für die ZV L gilt L = lim

n→∞ = 0,

Sn = lim 𝔼(ξ1 | F−n ) n→∞ n

ξ k+1 + ξ k+2 + ⋅ ⋅ ⋅ + ξ n ξ1 + ⋅ ⋅ ⋅ + ξ k + lim n→∞ n n für festes k

d.h. L ist für alle k ∈ ℕ messbar bezüglich Gk+1 := σ(ξ k+1 , ξ k+2 , . . . ), also G∞ = ⋂k∈ℕ Gk -messbar. Weil G∞ die terminale σ-Algebra ist, können wir Kolmogorovs 01–Gesetz anwenden, vgl. Beispiel 8.3, und folgern, dass L f.s. konstant ist. Mithin gilt L = 𝔼L = 𝔼ξ1

f.s.

8.3 Das 0-1–Gesetz von Hewitt–Savage Eine Folge von ZV (X n )n∈ℕ heißt permutierbar, wenn die folgenden ZV 𝕏 := (X1 , . . . , X m , X m+1 , . . . ) und

π𝕏 := (X π(1) , . . . , X π(m) , X m+1 , . . . )

für beliebige endliche Permutationen π : {1, . . . , m} → {1, . . . , m}, m ∈ ℕ, dieselbe Verteilung haben, vgl. auch [WT, p. 110]. Eine Funktion ϕ : ℝℕ → ℝ heißt symmetrisch, wenn ϕ(x1 , . . . , x m , x m+1 , . . . ) = ϕ(x π(1) , . . . , x π(m) , x m+1 , . . . ),

x n ∈ ℝ,

für alle endlichen Permutationen π : {1, . . . , m} → {1, . . . , m}, m ∈ ℕ, gilt. Typische Beispiele für symmetrische Funktionen sind Ausdrücke der Art 1 n ∑ xi n i=1

oder



∑ xi

i=1

oder #{i ∈ ℕ : x i ∈ B}.

70 | 8 ⧫Einige klassische Resultate der W-Theorie

8.7 Satz (Hewitt & Savage). Es sei 𝕏 = (X n )n∈ℕ eine permutierbare Folge von iid ZV. Für jede messbare, beschränkte symmetrische Funktion ϕ : ℝℕ → ℝ ist die ZV ϕ(X1 , X2 , . . . ) f.s. konstant. Zusatz. Für symmetrische Funktionen ϕ = 𝟙Γ , Γ ∈ B(ℝd )⊗ℕ gilt ℙ(𝕏 ∈ Γ) ∈ {0, 1}.

Beweis. Setze 𝕏n := (X1 , . . . , X n ), 𝕏󸀠n := (X n+1 , . . . , X2n ) und Φ := ϕ(X1 , X2 , . . . ). Weiterhin seien Fn := σ(X1 , . . . , X n ) = σ(𝕏n )

und Gn := σ(X n+1 , X n+2 , . . . )

die von der Folge (X n )n∈ℕ induzierte natürliche Filtration (Fn )n∈ℕ bzw. die absteigende Familie (Gn )n∈ℕ0 der tail-σ-Algebren. Offensichtlich ist dann M n := 𝔼(Φ | Fn ) und

R n := 𝔼(Φ | Gn )

ein Martingal bzw. Rückwärtsmartingal, und wir wissen aus Satz 8.1 bzw. 8.5, dass die Grenzwerte M n → 𝔼(Φ | F∞ ) und R n → 𝔼(Φ | G∞ ) f.s. und in L1 existieren. Aufgrund unserer Konstruktion ist Φ eine F∞ -messbare ZV und wegen des Kolmogorovschen 0-1–Gesetzes (Satz 8.4) gilt 𝔼(Φ | G∞ ) = 𝔼Φ. Daher haben wir ∀ϵ > 0

∃N(ϵ) ∈ ℕ

∀n ⩾ N(ϵ) : 𝔼|M n − Φ| + 𝔼|R n − 𝔼Φ| ⩽ ϵ.

(8.2)

Nun seien ϵ > 0 und n ⩾ N(ϵ) fest gewählt. Mit dem Faktorisierungslemma Korollar A.11 können wir M n = 𝔼(Φ | Fn ) als Funktion g : ℝn → ℝ der ZV 𝕏n schreiben, d.h. wir haben 󵄨 󵄨 𝔼 󵄨󵄨󵄨󵄨g(𝕏n ) − ϕ(𝕏n , 𝕏󸀠n , X2n+1 , X2n+2 , . . . )󵄨󵄨󵄨󵄨 ⩽ ϵ. Weil die Folge (X n )n∈ℕ permutierbar ist, gilt insbesondere (𝕏n , 𝕏󸀠n , X2n+1 , X2n+2 , . . . ) ∼ (𝕏󸀠n , 𝕏n , X2n+1 , X2n+2 , . . . ),

und wir erhalten

󵄨 󵄨 𝔼 󵄨󵄨󵄨󵄨g(𝕏󸀠n ) − ϕ(𝕏󸀠n , 𝕏n , X2n+1 , X2n+2 , . . . )󵄨󵄨󵄨󵄨 ⩽ ϵ.

Weil ϕ symmetrisch ist, folgt ϕ(𝕏󸀠n , 𝕏n , X2n+1 , . . . ) = ϕ(𝕏n , 𝕏󸀠n , X2n+1 , . . . ) = Φ, d.h. 󵄨 󵄨 𝔼 󵄨󵄨󵄨󵄨g(𝕏󸀠n ) − Φ󵄨󵄨󵄨󵄨 ⩽ ϵ. (8.3) Die ZV g(𝕏󸀠n ) ist Gn -messbar; daher erhalten wir mit der tower property 󵄨 󵄨 󵄨 󵄨 𝔼 󵄨󵄨󵄨󵄨g(𝕏󸀠n ) − R n 󵄨󵄨󵄨󵄨 = 𝔼 󵄨󵄨󵄨󵄨𝔼(g(𝕏󸀠n ) | Gn ) − 𝔼(Φ | Gn )󵄨󵄨󵄨󵄨 󵄨 󵄨󵄨 ⩽ 𝔼 [𝔼 (󵄨󵄨󵄨󵄨g(𝕏󸀠n ) − Φ󵄨󵄨󵄨󵄨 󵄨󵄨󵄨󵄨 Gn )]

󵄨 󵄨 (8.3) = 𝔼 󵄨󵄨󵄨󵄨g(𝕏󸀠n ) − Φ󵄨󵄨󵄨󵄨 ⩽ ϵ. Indem wir die Abschätzungen (8.2)–(8.4) kombinieren, folgt schließlich 𝔼|Φ − 𝔼Φ| ⩽ 𝔼|Φ − g(𝕏󸀠n )| + 𝔼|g(𝕏󸀠n ) − R n | + 𝔼|R n − 𝔼Φ| ⩽ 3ϵ

(8.4)

für beliebige ϵ > 0, und somit die Behauptung. Der Zusatz folgt aus der Beobachtung, dass aufgrund der schon bewiesenen Aussage ℙ(𝕏 ∈ Γ) = 𝔼𝟙Γ (𝕏) = 𝟙Γ (𝕏) ∈ {0, 1} gilt. f.s.

8.4 Variationen zu einem Thema von Borel–Cantelli | 71

8.4 Variationen zu einem Thema von Borel–Cantelli Es sei (A n )n∈ℕ ⊂ A eine Folge von Ereignissen. Das klassische Borel–Cantelli Lemma besagt in seiner „einfachen“ Richtung, dass ∞



∑ ℙ(A n ) < ∞ 󳨐⇒ ℙ ( ∑ 𝟙A n = ∞) = 0,

n=1

n=1

(8.5)

während die Umkehrung die Unabhängigkeit der Ereignisse (A n )n∈ℕ voraussetzt } ∞ } } 󳨐⇒ ℙ ( ∑ 𝟙A n = ∞) = 1. n=1 } } } n=1 (A n )n∈ℕ unabhängig} ∞

∑ ℙ(A n ) = ∞

(8.6)

Die Richtung (8.5) folgt unmittelbar mit dem Satz von Beppo Levi (für Reihen) oder dem Satz von Tonelli, [MI, Lemma 8.9 bzw. Satz 16.1]. Einen Standardbeweis der Umkehrung findet man in [WT, Satz 10.1]. ∞ Meist wird das Borel–Cantelli Lemma für die Menge lim supn→∞ A n = ⋂∞ k=1 ⋃n=k A n = {A n u.o.} (u.o.=„unendlich oft“) formuliert. Offensichtlich gilt ω ∈ lim supn→∞ A n ⇐⇒ ∑∞ n=1 𝟙A n (ω) = ∞.

Im Folgenden geben wir zwei Verallgemeinerungen von (8.6) an. Grundlage ist die Charakterisierung der Konvergenzmenge eines Martingals, vgl. Korollar 5.10: Für ein Martingal (X n , Fn )n∈ℕ0 , dessen Zuwächse |X n − X n−1 | ⩽ c < ∞ f.s. gleichmäßig beschränkt sind, gilt {∃ limn X n ∈ ℝ} ∪⋅ {−∞ = lim inf n X n < lim supn X n = +∞} = C ∪⋅ D = Ω. f.s.

(8.7)

Wir können nun die erste Verallgemeinerung von (8.6) formulieren. 8.8 Korollar (Lévy; Borel–Cantelli–Lévy Lemma). Es sei (Fn )n∈ℕ , F0 := {0, Ω} eine Filtration und A n ∈ Fn eine Folge von Ereignissen. Es gilt ∞

f.s.



{ ∑ 𝟙A n = ∞} = { ∑ 𝔼 (𝟙A n | Fn−1 ) = ∞} . n=1

n=1

Beweis. Der folgendermaßen definierte Prozess X0 := 0 und

n

X n := ∑ [𝟙A i − 𝔼 (𝟙A i | Fi−1 )] i=1

ist offensichtlich ein Martingal. Die Zuwächse sind wegen

󵄨 󵄨 |X n − X n−1 | = 󵄨󵄨󵄨𝟙A n − 𝔼 (𝟙A n | Fn−1 )󵄨󵄨󵄨 ⩽ 2

gleichmäßig beschränkt. Auf den Mengen C, D aus (8.7) gilt, wenn

72 | 8 ⧫Einige klassische Resultate der W-Theorie

󳶳 󳶳 ω ∈ C– in diesem Fall haben wir ∑∞ i=1 [𝟙A i (ω) − 𝔼 (𝟙A i | Fi−1 ) (ω)] ∈ ℝ, d.h. ∞



∑ 𝟙A i (ω) = ∞ ⇐⇒ ∑ 𝔼 (𝟙A i | Fi−1 ) (ω) = ∞. i=1

i=1

󳶳 󳶳 ω ∈ D– in diesem Fall ist lim inf n→∞ ∑ni=1 [𝟙A i (ω) − 𝔼 (𝟙A i | Fi−1 ) (ω)] = −∞ und lim supn→∞ ∑ni=1 [𝟙A i (ω) − 𝔼 (𝟙A i | Fi−1 ) (ω)] = +∞, was nur möglich ist, wenn ∞

∑ 𝟙A i (ω) = ∞

i=1



∑ 𝔼 (𝟙A i | Fi−1 ) (ω) = ∞.

und

i=1

Weil f.s. C ∪⋅ D = Ω gilt, folgt die Behauptung.

Wir nehmen an, dass die Mengen (A n )n∈ℕ in Korollar 8.8 unabhängig sind und definieren Fn = σ(A1 , . . . , A n ). Dann folgt 𝔼(𝟙A n | Fn−1 ) = ℙ(A n ). Wenn ∑∞ n=1 ℙ(A n ) = ∞ gilt, ist ∞

Ω = { ∑ 𝔼 (𝟙A n | Fn−1 ) = ∞} n=1

=

Kor. 8.8



{ ∑ 𝟙A n = ∞} . n=1

Das ist der Martingalbeweis von 8.9 Korollar (Borel–Cantelli Lemma). Es seien (A n )n∈ℕ ⊂ A unabhängige Ereignisse. ∞ Wenn ∑∞ n=1 ℙ(A n ) = ∞, dann gilt ∑n=1 𝟙A n = ∞ f.s.

Mit dem L2 -SLLN für Martingale (Satz 6.9) können wir eine weitere Verallgemeinerung des Borel–Cantelli Lemmas zeigen.

8.10 Korollar (Dubins & Freedman 1965). Es sei (Fn )n∈ℕ , F0 := {0, Ω} eine Filtration und A n ∈ Fn eine Folge von Ereignissen. Es gilt ∑ni=1 𝟙A i n n→∞ ∑ i=1 𝔼 (𝟙A i | Fi−1 ) lim

=1



{ ∑ 𝔼 (𝟙A i | Fi−1 ) = ∞} .

f.s. auf der Menge

i=1

Beweis. Wir schreiben Σ n := | Fi−1 ), n ∈ ℕ ∪ {∞}. Wie im Beweis von Korollar 8.8 betrachten wir das Martingal X0 := 0 Es gilt X n /Σ n =

und

∑ni=1 𝟙A i /Σ n (3.13)

∑ni=1 𝔼 (𝟙A i

n

n

X n := ∑ [𝟙A i − 𝔼 (𝟙A i | Fi−1 )] . i=1

− 1. Weil (X n )n∈ℕ ein L2 -Martingal ist, haben wir

⟨X⟩n = ∑ 𝔼 [(X i − X i−1 )2 | Fi−1 ] i=1 n

= ∑ 𝔼 [{𝟙A i − 𝔼 (𝟙A i | Fi−1 )} | Fi−1 ] i=1 n

2

= ∑ (𝔼 [𝟙A i | Fi−1 ] − {𝔼 [𝟙A i | Fi−1 ]} ) ⩽ Σ n . i=1

Wir unterscheiden zwei Fälle

2

8.5 Lévys Konvergenzsatz für Reihen von unabhängigen ZV | 73

1o —ω ∈ {⟨X⟩∞ = ∞}. Dann gilt auch Σ∞ (ω) = ∞, und wir wissen aus Satz 6.9 󵄨󵄨 X (ω) 󵄨󵄨 󵄨󵄨 X (ω) 󵄨󵄨 󵄨󵄨 ⟨X⟩ (ω) 󵄨󵄨 󵄨󵄨 X (ω) 󵄨󵄨 Satz 6.9 n 󵄨󵄨 n 󵄨󵄨 󵄨󵄨 n 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 n 󵄨󵄨 󵄨󵄨 󵄨󵄨 = 󵄨󵄨 󵄨󵄨 ⋅ 󵄨󵄨 󵄨󵄨 ⩽ 󵄨󵄨 󵄨󵄨 󳨀󳨀󳨀󳨀󳨀󳨀→ 0. 󵄨󵄨 Σ n (ω) 󵄨󵄨 󵄨󵄨 ⟨X⟩n (ω) 󵄨󵄨 󵄨󵄨 Σ n (ω) 󵄨󵄨 󵄨󵄨 ⟨X⟩n (ω) 󵄨󵄨 n→∞

2o —ω ∈ {⟨X⟩∞ < ∞} ∩ {Σ∞ = ∞}. In diesem Fall existiert limn→∞ |X n (ω)| < ∞, vgl. Satz 6.9, und wir erhalten 󵄨

󵄨

󵄨󵄨 X n (ω) 󵄨󵄨 󵄨󵄨 lim 󵄨󵄨 n→∞ 󵄨󵄨󵄨 ⟨X⟩n (ω) 󵄨󵄨󵄨

=

limn→∞ |X n (ω)| = 0. ⟨X⟩∞ (ω)

Insgesamt haben wir, dass limn→∞ ∑ni=1 𝟙A i /Σ n = 1 auf der Menge {Σ∞ = ∞}.

8.5 Lévys Konvergenzsatz für Reihen von unabhängigen ZV Wir erinnern zunächst an die Definition der Konvergenz in Verteilung. Wie üblich bezeichnen wir mit ϕ X (θ) := 𝔼 e iθX die charakteristische Funktion der ZV X. Eine Folge von reellen ZV (X n )n∈ℕ heißt konvergent in Verteilung gegen eine ZV X, wenn d

limn→∞ 𝔼f(X n ) = 𝔼f(X) für alle f ∈ C b (ℝ) gilt.6 In diesem Fall schreiben wir X n 󳨀 → X. Wir können die Verteilungskonvergenz auch folgendermaßen charakterisieren d

X n 󳨀󳨀󳨀󳨀→ X ⇐⇒ ∀θ ∈ ℝ : lim 𝔼 e iθX n = 𝔼 e iθX , n→∞ n→∞ 󵄨 󵄨 ⇐⇒ ∀ϵ > 0 : lim sup 󵄨󵄨󵄨󵄨𝔼 e iθX n − 𝔼 e iθX 󵄨󵄨󵄨󵄨 = 0, n→∞ |θ|⩽ϵ

⇐⇒ ∀x ∈ ℝ, ℙ(X = x) = 0 : lim ℙ(X n ⩽ x) = ℙ(X ⩽ x), n→∞

(8.8) (8.9) (8.10)

vgl. [WT, Satz 9.14, Satz 9.18] und Anhang A.2. Die Konvergenz in Verteilung ist eine relativ schwache Konvergenzart, die aus allen anderen bisher betrachteten Konvergenzarten – f.s. Konvergenz, Konvergenz in L p und Konvergenz in Wahrscheinlichkeit – folgt, wenn die ZV auf demselben W-Raum definiert sind [WT, Satz 9.7]. Nur unter Zusatzbedingungen, z.B. wenn der Grenzwert f.s. konstant ist, fallen die Begriffe „Konvergenz in Verteilung“ und „Konvergenz in Wahrscheinlichkeit“ zusammen, vgl. [WT, Lemma 9.12]. Daher ist folgender Satz über die Konvergenz einer Reihe von unabhängigen ZV einigermaßen überraschend. 8.11 Satz (Lévy). Es sei (ξ n )n∈ℕ eine Folge von unabhängigen Zufallsvariablen. Die Reihe ∑∞ n=1 ξ n konvergiert genau dann f.s. wenn sie in Wahrscheinlichkeit oder in Verteilung konvergiert.

6 Bei dieser Konvergenzart könnten die ZV X n auf unterschiedlichen W-Räumen (Ω n , An , ℙn ) definiert sein. In der Regel schreibt man aber trotzdem 𝔼f(X n ) an Stelle der korrekten Bezeichnung 𝔼n f(X n ), vgl. [WT, Definition 9.3].

74 | 8 ⧫Einige klassische Resultate der W-Theorie Da wir die Charakterisierung der Verteilungskonvergenz mit Hilfe der charakteristischen Funktionen (8.8) verwenden, benötigen wir eine Vorbereitung, die den Zusammenhang von Folgenkonvergenz auf der Kreislinie und in ℝ erklärt.

8.12 Lemma. Es sei (x n )n∈ℕ ⊂ ℝ eine Folge von reellen Zahlen, so dass der Grenzwert limn→∞ e iθx n für alle θ ∈ (−ϵ, ϵ) existiert. Dann existiert der Grenzwert limn→∞ x n und ist endlich. Beweis. Wir schreiben L(θ) := limn→∞ e iθx n und erhalten mit dem Satz von der dominierten Konvergenz für alle r < ϵ r

r

−r

−r

1 e irx n − e−irx n 2 sin(rx n ) 1 = lim . ∫ L(θ) dθ = lim ∫ e iθx n dθ = lim n→∞ r n→∞ n→∞ r irx n rx n

Weil L(0) = 1 ist, ist für hinreichend kleine r < ϵ das Integral auf der linken Seite nicht Null. Daher sieht man aus dieser Gleichheit, dass die Folge (x n )n∈ℕ beschränkt ist. Wir schreiben x = lim inf n→∞ x n und x󸀠 = lim supn→∞ x n . Indem wir diese Grenzwerte durch Teilfolgen realisieren, erhalten wir mit der oben gemachten Überlegung, dass ∀r < ϵ :

sin(rx) sin(rx󸀠 ) = . rx rx󸀠

Die Funktion t−1 sin t ist gerade und für kleine positive bzw. negative Werte monoton. Daher folgt |x| = |x󸀠 |. Andererseits muss x = x󸀠 gelten, da der Limes limn→∞ e iθx n existiert, mithin folgt x = x󸀠 = limn→∞ x n . Beweis von Satz 8.11. Wir schreiben X n := ξ1 + ⋅ ⋅ ⋅ + ξ n , X = ∑∞ n=1 ξ n . Weil f.s. Konvergenz sowohl die Konvergenz in Verteilung als auch die Konvergenz in Wahrscheinlichd

keit nach sich zieht, reicht es aus zu zeigen, dass X n 󳨀 → X in Verteilung die fast sichere Konvergenz impliziert. Nach Voraussetzung, vgl. (8.9), gilt limn→∞ 𝔼e iθX n = 𝔼 e iθX lokal gleichmäßig. Weil ϕ X (0) = 1 und ϕ X (θ) = 𝔼 e iθX stetig ist, gilt inf |θ| 2c > 0 für ein c ∈ (0, 1/2) und hinreichend kleines ϵ = ϵ(c). Aufgrund der lokal-gleichmäßigen Konvergenz in (8.9) gilt dann auch inf |θ| c > 0 für alle n ⩾ N(c, ϵ). Wir betrachten nun das Waldsche Martingal (e iθX n /ϕ X n (θ), Fn )n⩾N mit der natürlichen Filtration Fn := σ(ξ1 , . . . , ξ n ), vgl. Beispiel 3.4.g. Es gilt ∀|θ| < ϵ

󵄨󵄨 iθX n 󵄨󵄨 󵄨󵄨 iθX n 󵄨󵄨 󵄨󵄨 1 󵄨󵄨 e 󵄨󵄨 󵄨 e 󵄨󵄨 ⩽ 󵄨󵄨 󵄨 󳨐⇒ sup 𝔼 ∀n ⩾ N = N(c, ϵ) : 󵄨󵄨󵄨󵄨 󵄨 󵄨󵄨 ϕ X n (θ) 󵄨󵄨󵄨 < ∞. 󵄨󵄨 ϕ X n (θ) 󵄨󵄨 c n⩾N 󵄨 󵄨

Daher können wir den Martingalkonvergenzsatz 5.3 anwenden und sehen, dass limn→∞ e iθX n /ϕ X n (θ) f.s. existiert. Weil nach Voraussetzung limn→∞ ϕ X n (θ) = ϕ X (θ) gilt, folgt auch, dass limn→∞ e iθX n f.s. existiert. Schließlich erhalten wir mit Hilfe von Lemma 8.12, dass limn→∞ X n f.s. endlich ist.

8.6 Kolmogorovs Drei-Reihen-Satz | 75

8.6 Kolmogorovs Drei-Reihen-Satz Kolmogorovs Drei-Reihen Satz ist ein notwendiges und hinreichendes Kriterium für die f.s. Konvergenz einer Reihe von unabhängigen Summanden. Wir werden eine Martingalversion dieses Kriteriums beweisen, das im Wesentlichen auf dem in Kapitel 5 begonnenen Studium der Konvergenzmengen von Submartingalen basiert. Als Vorbereitung benötigen wir eine Verschärfung von Satz 5.9 und Korollar 5.10. Wir schreiben 𝕍(X | F ) := 𝔼 [(X − 𝔼(X | F ))2 | F ] für die bedingte Varianz einer ZV, vgl. auch Aufg. 2.12. 8.13 Lemma. Es seien (ξ n )n∈ℕ gleichmäßig beschränkte ZV, Fn := σ(ξ1 , . . . , ξ n ) und F0 = {0, Ω}. Dann ist X0 := 0, X n := ∑ni=1 (ξ i − 𝔼(ξ i | Fi−1 )) ein L2 -Martingal, und es gilt n

sowie

⟨X⟩n = ∑ 𝕍(ξ i | Fi−1 ) i=1

{ω : ∃ limn X n (ω) ∈ ℝ} = {ω : ∃ limn X 2n (ω) ∈ ℝ} = {ω : ⟨X⟩∞ (ω) := limn ⟨X⟩n (ω) < ∞} .

(8.11)

(8.12)

Beweis. Nach Voraussetzung gilt supi∈ℕ |ξ i | ⩽ K < ∞ für eine Konstante K. Daher ist |X n | ⩽ 2nK, insbesondere X n ∈ L2 für alle n ∈ ℕ. Weil X n Fn -messbar ist, folgt aus 𝔼 [X n − X n−1 | Fn−1 ] = 𝔼 [ξ n − 𝔼(ξ n | Fn−1 ) | Fn−1 ]

= 𝔼 [ξ n | Fn−1 ] − 𝔼(ξ n | Fn−1 ) = 0,

dass (X n , Fn )n∈ℕ ein L2 -Martingal ist. Mit der Formel (3.13) für den Kompensator ⟨X⟩ erhalten wir sofort (8.11). Die erste Gleichheit in (8.12) folgt unmittelbar aus Korollar 5.10. Um die zweite Gleichheit zu sehen, bemerken wir zunächst, dass das Submartingal X 2 die Bedingung (5.4) aus Satz 5.9 erfüllt. Dazu sei T := T(r) := inf{n ∈ ℕ : X 2n > r}. Auf der Menge {T < ∞} gilt dann 󵄨󵄨 2 󵄨 󵄨󵄨X T − X 2T−1 󵄨󵄨󵄨 = |(X T − X T−1 )(X T + X T−1 )| 󵄨 󵄨 = |(X T − X T−1 )(X T − X T−1 + 2X T−1 )| ⩽ |X T − X T−1 | (|X T − X T−1 | + 2 |X T−1 |) .

Weil die Zuwächse von X durch 2K beschränkt sind und weil |X T−1 | ⩽ √r gilt, folgt 󵄨󵄨󵄨X 2 − X 2 󵄨󵄨󵄨 𝟙 √ 󵄨󵄨 T T−1 󵄨󵄨 {T 0 die folgenden drei Reihen konvergent sind: ∞



∑ ℙ (|ξ n | > K | Fn−1 ) (ω);

∑ 𝔼 (ξ nK | Fn−1 ) (ω);

n=1

n=1



∑ 𝕍 (ξ nK | Fn−1 ) (ω).

n=1

Beweis. Es sei K > 0 fest. Wir bezeichnen mit C = C K die Menge aller ω ∈ Ω, für die die drei Reihen gleichzeitig konvergieren, und wir schreiben X n := ξ1 + ⋅ ⋅ ⋅ + ξ n . Für ω ∈ C gilt nach dem Borel–Cantelli Lemma (Korollar 8.8) mit A n := {|ξ n | > K}, dass ∞ ∑∞ n=1 𝟙{|ξ n |>K} (ω) und somit auch ∑n=1 ξ n (ω)𝟙{|ξ n |>K} (ω) f.s. endlich ist. Daher folgt aus ∞





∑ ξ n (ω) = ∑ ξ nK (ω) + ∑ ξ n (ω)𝟙{|ξ n |>K} (ω),

n=1

n=1

n=1

∞ K dass für fast alle ω ∈ C die Reihen ∑∞ n=1 ξ n (ω) und ∑n=1 ξ n (ω) gleichzeitig konvergieren oder divergieren. Andererseits gilt auf C, dass auch die Reihen ∞

∑ ξ nK (ω) und

n=1



∑ [ξ nK (ω) − 𝔼 (ξ nK | Fn−1 ) (ω)]

n=1

dasselbe Konvergenzverhalten haben. Wenn wir nun Lemma 8.13 auf das Martingal ∑ni=1 [ξ iK − 𝔼(ξ iK | Fi−1 )] anwenden,

K sehen wir, dass die Bedingung ∑∞ n=1 𝕍 (ξ n | Fn−1 ) (ω) < ∞ die Konvergenz der Reihe ∞ ∑n=1 ξ n (ω) garantiert. Für die umgekehrte Richtung bezeichnen wir mit Γ die ω ∈ Ω, für die ∑∞ n=1 ξ n (ω) konvergiert. Weil für ω ∈ Γ und festes K > 0 höchstens endlich viele |ξ n (ω)| > K sein können, gilt ∑∞ n=1 𝟙{|X n |>K} (ω) < ∞, und mit dem Borel–Cantelli–Lévy Lemma (Korollar 8.8) sehen wir Γ ⊂ {∑∞ n=1 ℙ(|ξ n | > K | Fn−1 ) < ∞} f.s.

8.6 Kolmogorovs Drei-Reihen-Satz | 77

Wie im ersten Teil des Beweises folgt aus dem Borel–Cantelli Lemma auch, dass ∞

Γ = {ω ∈ Ω : ∑ ξ nK (ω) konvergiert} f.s.

n=1

gilt. Wir betrachten eine identische Kopie (Ω󸀠 , A 󸀠 , ℙ󸀠 ) des W-Raums (Ω, A , ℙ). Auf dem Produktraum (Ω󸀠󸀠 , A 󸀠󸀠 , ℙ󸀠󸀠 ) := (Ω × Ω󸀠 , A ⊗ A 󸀠 , ℙ ⊗ ℙ󸀠 ) sind dann die Folgen (ξ nK (ω))n∈ℕ und (ξ nK (ω󸀠 ))n∈ℕ unabhängig und sie haben dieselbe Verteilung. Wenn wir mit Γ 󸀠 die Entsprechung von Γ im neuen Raum Ω󸀠 und die Erwartungswerte bzw. Varianzen in den jeweiligen Räumen mit 𝔼, 𝕍, 𝔼󸀠 , 𝕍󸀠 und 𝔼󸀠󸀠 , 𝕍󸀠󸀠 bezeichnen, gilt ∞

Γ × Γ 󸀠 ⊂ {(ω, ω󸀠 ) : ∑ (ξ nK (ω) − ξ nK (ω󸀠 )) konvergiert} . n=1

Für die ZV η Kn (ω,

ω󸀠 )

Lemma 8.13 auf die

󸀠 := ξ nK (ω)− ξ nK (ω󸀠 ) gilt 𝔼󸀠󸀠 (η Kn | Fn−1 ⊗Fn−1 ) ∞ Reihe ∑n=1 η Kn anwenden. Es folgt

= 0, und wir können



󸀠 Γ × Γ 󸀠 ⊂ {(ω, ω󸀠 ) : ∑ 𝕍󸀠󸀠 (η Kn | Fn−1 ⊗ Fn−1 ) < ∞} n=1 ∞

󸀠 = {(ω, ω󸀠 ) : ∑ [𝕍 (ξ nK | Fn−1 ) (ω) + 𝕍󸀠 (ξ nK | Fn−1 ) (ω󸀠 )] < ∞} . n=1

∞ K Daher gilt Γ ⊂ {∑∞ n=1 ℙ(|ξ n | > K | Fn−1 ) < ∞} ∩ {∑n=1 𝕍 (ξ n | Fn−1 ) < ∞}. Andererseits gilt für ω ∈ Γ ∞



∑ [ξ nK (ω) − 𝔼 (ξ nK | Fn−1 ) (ω)] konvergiert ⇐⇒ ∑ 𝔼 (ξ nK | Fn−1 ) (ω) konvergiert,

n=1

n=1

und wegen Lemma 8.13 haben wir ∞



{ ∑ 𝕍 (ξ nK | Fn−1 ) < ∞} = { ∑ [ξ nK − 𝔼 (ξ nK | Fn−1 )] konvergiert} . n=1

n=1

Daraus ergibt sich schließlich, dass für fast alle ω ∈ Γ die drei im Satz genannten Reihen konvergieren. Wir können aus Satz 8.14 den klassischen Drei-Reihen Satz herleiten. Dazu nehmen wir an, dass die ZV (ξ n )n∈ℕ unabhängig sind. Offensichtlich gilt dann ℙ(|ξ n | > K | Fn−1 ) = ℙ(|ξ n | > K), 𝔼(ξ nK | Fn−1 ) = 𝔼ξ nK und 𝕍(ξ nK | Fn−1 ) = 𝕍ξ nK ,

d.h. die Konvergenzmenge für die drei Reihen in Satz 8.14 ist entweder 0 oder Ω.

8.15 Korollar (Drei-Reihen Satz; Kolmogorov). Es seien (ξ n )n∈ℕ unabhängige reelle ZV. Die Reihe ∑∞ n=1 ξ n konvergiert f.s. genau dann, wenn für ein K > 0 die folgenden drei Reihen konvergieren: a)



∑ ℙ(|ξ n | > K);

n=1

b)



∑ 𝔼ξ nK ;

n=1

c)



∑ 𝕍ξ nK .

n=1

78 | 8 ⧫Einige klassische Resultate der W-Theorie

8.7 Ein einfacher zentraler Grenzwertsatz Eine wesentliche Voraussetzung für die Gültigkeit des zentralen Grenzwertsatzes (CLT) ist die Unabhängigkeit der Zufallsvariablen, vgl. [WT, Kapitel 13]. In der zweiten Hälfte des vergangenen Jahrhunderts wurde eine ganze Reihe von CLTs für Folgen und arrays von abhängigen ZV gezeigt. Wir zeigen hier den gemeinsamen Vorfahren dieser Sätze, der auf Lévy 1935 zurückgeht, vgl. auch [30, Théorème 67.1]; unser Beweis folgt Doobs Beweisskizze von 1953 [19, S. 383]. 8.16 Satz (Lévy). Es sei (X n , Fn )n∈ℕ0 ein L2 -Martingal, so dass X0 = 0 und 𝔼 (∆2k | Fk−1 ) = σ2k ,

∆ k := X k − X k−1 , k ∈ ℕ,

(8.13)

deterministisch ist. Setze s2n := ∑ni=1 σ2i . Wenn die folgende „bedingte“ LindebergBedingung erfüllt ist 1 n (8.14) ∀ϵ > 0 : lim 2 ∑ 𝔼 [∆2k 𝟙{|∆ k |>ϵs n } | Fk−1 ] = 0, n→∞ s n k=1

dann konvergiert die Folge s−1 n X n in Verteilung gegen eine standard-normalverteilte ZV.

Für den Beweis von Satz 8.16 benötigen wir die folgenden technischen Hilfsaussagen. 8.17 Lemma. Die „bedingte“ Lindeberg-Bedingung (8.14) impliziert die Feller-Bedingung σk = 0. (8.15) lim max n→∞ 1⩽k⩽n s n

Beweis. Für 1 ⩽ k ⩽ n und ϵ > 0 gilt

σ2k = 𝔼 [∆2k | Fk−1 ] = 𝔼 [∆2k 𝟙{|∆ k |⩽ϵs n } | Fk−1 ] + 𝔼 [∆2k 𝟙{|∆ k |>ϵs n } | Fk−1 ]

und das zeigt dann, dass max

σ2k

1⩽k⩽n s 2 n

⩽ ϵ2 +

⩽ ϵ2 s2n + 𝔼 [∆2k 𝟙{|∆ k |>ϵs n } | Fk−1 ] ,

(8.14) 1 n ϵ→0 ∑ 𝔼 [∆2k 𝟙{|∆ k |>ϵs n } | Fk−1 ] 󳨀󳨀󳨀󳨀→ ϵ2 󳨀󳨀󳨀→ 0. n→∞ s2n k=1

8.18 Lemma. Für das Restglied der Taylorentwicklung e ix = 1 + ix − 12 x2 + R(x) zweiter Ordnung gilt |R(x)| ⩽ x2 ∧

1 3 |x| , 6

x ∈ ℝ.

Beweis. Es gilt, mit der für Riemann-Integrale üblichen Konvention ∫0 = − ∫a , a

󵄨󵄨 x t 󵄨󵄨 |x| |t| 󵄨󵄨 󵄨 󵄨󵄨 󵄨󵄨 ix 󵄨󵄨e − 1 − ix − 21 (ix)2 󵄨󵄨󵄨 = 󵄨󵄨󵄨󵄨∫ ∫(1 − e is ) ds dt󵄨󵄨󵄨󵄨 ⩽ ∫ ∫ |1 − e is | ds dt. 󵄨 󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 0 0 󵄨󵄨 0 0

0

8.7 Ein einfacher zentraler Grenzwertsatz

| 79

󵄨 s 󵄨 Wir können den Integranden mit 2 oder mit |1 − e is | = 󵄨󵄨󵄨󵄨∫0 e iu du󵄨󵄨󵄨󵄨 ⩽ |s| abschätzen, mithin 1 󵄨󵄨 ix 󵄨 󵄨󵄨e − 1 − ix − 12 (ix)2 󵄨󵄨󵄨 ⩽ x2 ∧ |x|3 . 󵄨 󵄨 6

Beweis von Satz 8.16. Wir bezeichnen mit Γ k ∼ N(0, σ2k ), 1 ⩽ k ⩽ n, unabhängige Gauß-ZV, die dieselben ersten und zweiten Momente wie die ∆ k haben, und schreiben G k := Γ1 + ⋅ ⋅ ⋅ + Γ k .7 Wir wollen limn→∞ 𝔼e iξX n /s n = 𝔼e iξG für eine ZV G ∼ N(0, 1) zeigen. 1o Wenn wir die (bedingten) charakteristischen Funktionen der ZV ∆ k und Γ k an der Stelle θ in eine Taylorreihe entwickeln, erhalten wir 𝔼 [e iθ∆ k | Fk−1 ] = 1 + iθ 𝔼(∆ k | Fk−1 ) − =0

𝔼 e iθΓ k = 1 + iθ 𝔼Γ k − =0

1 2 θ 𝔼(∆2k | Fk−1 ) +𝔼 (R(θ∆ k ) | Fk−1 ) , 2 =σ2k

1 2 θ 𝔼Γ k2 +𝔼R(θΓ k ). 2

Mit Hilfe von Lemma 8.18 sehen wir

=σ2k

󵄨󵄨 󵄨 󵄨󵄨𝔼 [e iθ∆ k | Fk−1 ] − 𝔼 e iθΓ k 󵄨󵄨󵄨 ⩽ 𝔼 (|R(θ∆ k )| | Fk−1 ) + 𝔼|R(θΓ k )| 󵄨 󵄨 󵄨󵄨 |θ| |θ| 󵄨 2 2 |∆ k |3 󵄨󵄨󵄨 Fk−1 ) + 𝔼 (|Γ k |2 ∧ |Γ k |3 )] . ⩽ θ [𝔼 (|∆ k | ∧ 6 6 󵄨󵄨

Wenn Z entweder ∆ k oder Γ k bedeutet, dann haben wir |Z|2 ∧

|θ| 3 |θ| 3 |Z| ⩽ |Z|2 𝟙{|Z|>ϵs n } + |Z| 𝟙{|Z|⩽ϵs n } 6 6 |θ|ϵs n |Z|2 𝟙{|Z|⩽ϵs n } ⩽ |Z|2 𝟙{|Z|>ϵs n } + 6 |θ|ϵs n ⩽ |Z|2 𝟙{|Z|>ϵs n } + |Z|2 . 6

Es folgt wegen 𝔼Γ k2 = σ2k = 𝔼(∆2k | Fk−1 )

|θ| ϵ |Γ k |3 ) ⩽ 𝔼 (|Γ k |2 𝟙{|Γ k |>ϵs n } ) + |θ| s n σ2k 6 6 󵄨󵄨 |θ| ϵ 2 3 󵄨󵄨 2 𝔼 (|∆ k | ∧ |∆ k | 󵄨󵄨 Fk−1 ) ⩽ 𝔼 (|∆ k | 𝟙{|∆ k |>ϵs n } | Fk−1 ) + |θ| s n σ2k . 󵄨󵄨 6 6 𝔼 (|Γ k |2 ∧

Damit erhalten wir die Abschätzung 󵄨󵄨 󵄨 󵄨󵄨𝔼 (e iθ∆ k | Fk−1 ) − 𝔼 e iθΓ k 󵄨󵄨󵄨 󵄨 󵄨

⩽ θ2 𝔼 (|∆ k |2 𝟙{|∆ k |>ϵs n } | Fk−1 ) + θ2 𝔼 (|Γ k |2 𝟙{|Γ k |>ϵs n } ) +

ϵ 3 |θ| s n σ2k . 3

7 Die ZV Γ k müssen nicht auf demselben W-Raum wie die ∆ k definiert sein.

(8.16)

80 | 8 ⧫Einige klassische Resultate der W-Theorie

2o Weil die ZV Γ1 , . . . , Γ n unabhängig sind, gilt G n = Γ1 + ⋅ ⋅ ⋅ + Γ n ∼ N(0, σ21 ) ∗ ⋅ ⋅ ⋅ ∗ N(0, σ2n ) = N(0, s2n ) 󳨐⇒ G n /s n ∼ N(0, 1)

also 𝔼 e iξG n /s n = e−ξ /2 . Mit Hilfe der tower property erhalten wir 󵄨 󵄨󵄨 iθX n 󵄨󵄨𝔼 e − 𝔼 e iθG n 󵄨󵄨󵄨󵄨 󵄨 󵄨 󵄨 = 󵄨󵄨󵄨󵄨𝔼 [e iθX n−1 𝔼 (e iθ∆ n | Fn−1 ) − 𝔼 e iθG n−1 𝔼 e iθΓ n ]󵄨󵄨󵄨󵄨 󵄨 󵄨 󵄨 󵄨 ⩽ 󵄨󵄨󵄨󵄨𝔼 [e iθX n−1 {𝔼 (e iθ∆ n | Fn−1 ) − 𝔼 e iθΓ n }]󵄨󵄨󵄨󵄨 + 󵄨󵄨󵄨󵄨𝔼 [{e iθX n−1 − 𝔼 e iθG n−1 } 𝔼 e iθΓ n ]󵄨󵄨󵄨󵄨 󵄨 󵄨 󵄨 󵄨󵄨 󵄨 ⩽ 𝔼 󵄨󵄨󵄨󵄨𝔼 (e iθ∆ n | Fn−1 ) − 𝔼 e iθΓ n 󵄨󵄨󵄨󵄨 + 󵄨󵄨󵄨󵄨𝔼 [e iθX n−1 − 𝔼 e iθG n−1 ]󵄨󵄨󵄨󵄨 󵄨󵄨󵄨󵄨𝔼 e iθΓ n 󵄨󵄨󵄨󵄨 󵄨 󵄨 󵄨 󵄨 ⩽ 𝔼 󵄨󵄨󵄨󵄨𝔼 (e iθ∆ n | Fn−1 ) − 𝔼 e iθΓ n 󵄨󵄨󵄨󵄨 + 󵄨󵄨󵄨󵄨𝔼 e iθX n−1 − 𝔼 e iθG n−1 󵄨󵄨󵄨󵄨 . 2

Indem wir diesen Schritt iterieren, folgt

n 󵄨󵄨 iθX n 󵄨 󵄨 iθG n 󵄨󵄨󵄨 󵄨󵄨𝔼 e − 𝔼 e ⩽ 𝔼 󵄨󵄨󵄨󵄨𝔼 (e iθ∆ k | Fk−1 ) − 𝔼 e iθΓ k 󵄨󵄨󵄨󵄨 . ∑ 󵄨 󵄨 󵄨 k=1

Nun können wir die Abschätzung (8.16) aus dem ersten Schritt des Beweises verwenden und θ = ξ/s n einsetzen: 󵄨󵄨 iξX n /s n 󵄨 󵄨󵄨𝔼 e − 𝔼 e iξG n /s n 󵄨󵄨󵄨󵄨 󵄨 n σ2 ξ2 n ϵ ξ2 n ⩽ 𝔼[ 2 ∑ 𝔼 (|∆ k |2 𝟙{|∆ k |>ϵs n } | Fk−1 ) ] + 2 ∑ 𝔼 (|Γ k |2 𝟙{|Γ k |>ϵs n } ) + ∑ |ξ|3 2k 3 s n k=1 s n k=1 sn k=1 →0 siehe Schritt 3o

→ 0 wg. (8.14) & dom. Konvergenz; Majorante: ξ 2 s−2 n

󳨀󳨀󳨀󳨀→ n→∞

∑nk=1

𝔼(∆ k | Fk−1 ) =

1 ϵ|ξ|3 3

ξ 2 s−2 n

󳨀󳨀󳨀󳨀→ ϵ→0

∑nk=1

0.

σ2k



2

= ϵ|ξ|3 /3

3o Wir müssen noch die Konvergenz des Γ k -Ausdrucks zeigen. Weil die Γ k normalverteilt sind, gilt 𝔼 (|Γ k |2 𝟙{|Γ k |>ϵs n } ) =

∫ |x|2 e−x

|x|>ϵs n

2

/2σ2k

σ2 dx = k σ k √2π √2π ⩽

Indem wir über k = 1, 2, . . . , n summieren und dominierter Konvergenz 1 n 1 ∑ 𝔼 (|Γ k |2 𝟙{|Γ k |>ϵs n } ) ⩽ 2 √2π s n k=1



σ2k

√2π

∑nk=1

|y|>ϵ mink⩽n s n /σ k



|y|>ϵs n /σ k



y2 e−y

|y|>ϵ min s n /σ k

σ2k

y2 e−y

k⩽n

2

/2

dy

y2 e−y

2

/2

dy.

= s2n beachten, folgt mit

2

/2

dom. Konv.

dy 󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀→ 0, n→∞

denn wir wissen wegen der Feller-Bedingung (8.15), dass min1⩽k⩽n s n /σ k → ∞ und somit {|y| > ϵ mink⩽n s n /σ k } → 0 gilt.

8.8 Martingale mit allgemeiner Indexmenge | 81

8.8 Martingale mit allgemeiner Indexmenge Bisweilen benötigen wir Aussagen über die Konvergenz von Martingalen mit allgemeinen (z.B. überabzählbaren und/oder nicht total geordneten) Indexmengen. Es sei I eine aufsteigend geordnete Indexmenge, d.h. I hat eine Ordnung „⩽“, und es gilt ∀s, t ∈ I

∃u ∈ I : s ⩽ u & t ⩽ u.

Derartigen Mengen sind wir bereits in der Definition 3.1 von (Sub-/Super-)Martingalen begegnet. 8.19 Definition. Eine Familie (X t )t∈I ⊂ L1 von integrierbaren ZV X t : Ω → ℝ konvergiert in L1 entlang von I gegen den Grenzwert X, wenn gilt Def.

X = L1 - lim X t ⇐⇒ ∀ϵ > 0

∃s ϵ ∈ I

t∈I

∀t ⩾ s ϵ : ∫ |X − X t | dℙ < ϵ.

Nun können wir den Satz über gleichgradig integrierbare Martingale erweitern. 8.20 Satz. Es sei (X t , Ft )t∈I ein Martingal auf dem W-Raum (Ω, A , ℙ). Dann gilt (X t )t∈I gleichgradig integrierbar 󳨐⇒ ∃X∞ ∈ L1 (F∞ ) : X∞ = L1 - lim X t . t∈I

Der Grenzwert X∞ ist f.s. eindeutig und (X t , Ft )t∈I∪ {∞} ist ein Martingal.

Beweis. 1o – Eindeutigkeit. Wenn X, Z ∈ L1 (F∞ ) zwei ZV sind, die (X t )t∈I abschließen, dann gilt ∫ X dℙ = ∫ X t dℙ = ∫ Z dℙ MG

MG

F

F

F

für alle F ∈ Ft , t ∈ I.

Daher folgt ∫F X dℙ = ∫F Z dℙ für alle F ∈ ⋃t∈I Ft . Weil ⋃t∈I Ft ein ∩-stabiler Erzeuger von F∞ ist [], der auch Ω enthält, folgt X = Z f.s. aus Bemerkung 2.2. 2o – Existenz. Wir zeigen zunächst, dass ∀ϵ > 0

∃s ϵ ∈ I

∀t, u ⩾ s ϵ : ∫ |X t − X u | dℙ < ϵ

(8.17)

gilt. Angenommen (8.17) wäre falsch, dann würde eine Folge (t n )n∈ℕ ⊂ I existieren, so dass ∫ |X t n − X t n+1 | dℙ > ϵ

für alle n ∈ ℕ.

Weil I aufsteigend geordnet ist, können wir o.E. t n als monoton wachsend annehmen. Da (X t )t∈I gleichgradig integrierbar ist, ist (X t n )n∈ℕ ein gleichgradig integrierbares Martingal mit Indexmenge ℕ, das keine L1 -Cauchyfolge ist. Das steht im Widerspruch zu Satz 7.10.

82 | 8 ⧫Einige klassische Resultate der W-Theorie

Wir wählen in (8.17) ϵ = 1/n und bestimmen s1/n . Weil I aufsteigend geordnet ist, können wir o.E. annehmen, dass die Folge s1/n für n ↑ ∞ aufsteigt. Insbesondere gilt (X s1/n )n∈ℕ

ist eine L1 -Cauchyfolge,

und wegen der Vollständigkeit von L1 existiert L1 - limn→∞ X s1/n =: X∞ . Weiter gilt für F ∈ F∞ und t ⩾ s1/n ∫ |X t − X∞ | dℙ ⩽ ∫ |X t − X s1/n | dℙ + ∫ |X s1/n − X∞ | dℙ ⩽ F

L1

F

F

⩽1/n wegen (8.17)

2 , n

⩽1/n

d.h. 𝟙F X t 󳨀󳨀→ 𝟙F X∞ , woraus die Behauptung folgt.

Die Aussage von Satz 8.20 gilt i.Allg. nicht für f.s. Konvergenz, wenn die Indexmenge nicht linear geordnet ist. Ein Gegenbeispiel findet man bei Dieudonné [17].

8.9 Der Satz von Radon-Nikodým Es sei ℙ ein W-Maß auf dem Messraum (Ω, A ). Wenn X : Ω → [0, ∞) messbar ist, dann wissen wir aus der Maß- und Integrationstheorie, dass ℚ(A) := ∫ X(ω) ℙ(dω), A

A∈A,

wieder ein Maß ist. Wir schreiben dafür ℚ = X ⋅ ℙ, [MI, Lemma 9.8, Bemerkung 9.9]. Wenn ∫Ω X dℙ = 1, dann ist ℚ auch ein W-Maß. Andererseits gilt ℙ(N) = 0 󳨐⇒ ℚ(N) = ∫ X dℙ = 0 N

d.h. {ℙ-Nullmengen} ⊂ {ℚ-Nullmengen}.

8.21 Definition. Es seien ℙ, ℚ zwei Maße auf (Ω, A ). Wenn ℙ(N) = 0 󳨐⇒ ℚ(N) = 0

dann heißt ℚ absolutstetig bezüglich ℙ. Wir schreiben in diesem Fall ℚ ≪ ℙ.

Offensichtlich ist jedes Maß ℚ = X ⋅ ℙ mit einer Dichte bzgl. ℙ absolutstetig bezüglich ℙ. Der folgende tiefe Satz besagt, dass die Umkehrung auch gilt.

8.22 Satz (Radon–Nikodým). Es seien μ, ν zwei W-Maße auf (Ω, A ). Dann sind folgendes Aussagen äquivalent:

8.9 Der Satz von Radon-Nikodým | 83

a) ν(A) = ∫A Z(ω) μ(dω) für alle A ∈ A und eine (μ-f.s. eindeutige) positive ZV Z. b) ν ≪ μ. dν geschrieben. Die Dichte Z heißt Radon-Nikodým-Ableitung und wird oft als Z = dμ Beweis. Die Richtung „a)⇒b)“ folgt aus der vorangehenden Diskussion. Die Umkehrung „b)⇒a)“ sieht man so: 1o Wir definieren eine Indexmenge bestehend aus Partitionen von Ω

⋅ n

I = {α = {A1 , . . . , A n } : n ∈ ℕ, A i ∈ A , ⋃ A i = Ω} i=1

und eine Ordnungsrelation, die die „Feinheit“ der Partitionen vergleicht α ⩽ α󸀠 ⇐⇒ ∀A ∈ α : A = A󸀠1 ∪⋅ ⋅ ⋅ ⋅ ∪⋅ A󸀠l für A󸀠i ∈ α󸀠 , l ∈ ℕ.

Für α, α󸀠 ∈ I gilt:

β := {A ∩ A󸀠 : A ∈ α, A󸀠 ∈ α󸀠 } ∈ I 󳨐⇒ α ⩽ β, α󸀠 ⩽ β

insbesondere ist (Fα )α∈I , Fα := σ(A : A ∈ α) eine Filtration []. Die durch X α := ∑

A∈α

ν(A) 𝟙A , α ∈ I, μ(A)

[

0 := 0] 0

definierte Familie von ZV ist ein Martingal bezüglich (Fα )α . In der Tat: Für α ⩽ β ist ∫ X α dμ = A

{ν(A), ν(A) μ(A) = { μ(A) 0, {

μ(A) > 0 } ν≪μ } = ν(A). μ(A) = 0 }

Ganz ähnlich folgt für A ∈ α und A = B1 ∪⋅ ⋅ ⋅ ⋅ ∪⋅ B l , B k ∈ β ⩾ α, l

l

∫ X β dμ = ∑ ∫ X β dμ = ∑ A

k=1 B

k=1

k

l ν≪μ ν(B k ) μ(B k ) = ∑ ν(B k ) = ∑ ν(B k ) = ν(A). μ(B k ) k=1 k, μ(B )>0 k

Insgesamt haben wir also gezeigt, dass

∫ X α dμ = ∫ X β dμ A

A

für alle α ⩽ β, A ∈ α.

Weil σ(α) = Fα gilt, folgt, dass (X α )α ein Martingal ist. 2o Wir können die Aussage von Schritt 1o auch so formulieren: ν(F) = ∫ X α dμ F

für alle F ∈ Fα ,

also gilt

Xα =

d(ν|Fα ) . d(μ|Fα )

84 | 8 ⧫Einige klassische Resultate der W-Theorie

3o Wir zeigen nun, dass der Grenzwert X∞ = L1 - lim X α existiert. α∈I

Dazu reicht der Nachweis, dass die Familie (X α )α∈I gleichgradig integrierbar ist (vgl. Satz 8.20). Für beliebige R > 0 gilt ∫

{|X α |>R}

|X α | dμ =

und wir müssen zeigen, dass ∀ϵ > 0 ∃R ϵ > 0



{X α >R}

X α dμ = ν{X α > R},

∀R > R ϵ : sup ν{X α > R} ⩽ ϵ. α∈I

Angenommen, das wäre falsch, dann ∃ϵ0 > 0

∀n ∈ ℕ

∃α n ∈ I : ν{X α n > 2n } > ϵ0 .

Auf Grund der Maßstetigkeit gilt ν ( ⋂ ⋃ {X α n > 2n }) = lim ν ( ⋃ {X α n > 2n }) ⩾ ϵ0 > 0. k→∞

k∈ℕ n⩾k

n⩾k

Andererseits haben wir μ ( ⋂ ⋃ {X α n > 2n }) ⩽ ∑ μ{X α n > 2n } ⩽ ∑ 2−n ∫ X α n dμ = 2−k+1 ν(Ω) 󳨀󳨀󳨀󳨀→ 0, k∈ℕ n⩾k

n⩾k

k→∞

n⩾k

was wegen ν ≪ μ nicht möglich ist.

4o X∞ ist die gesuchte Radon–Nikodým Dichte. Weil für eine Teilfolge X α n → X∞ f.s. gilt, ist X∞ f.s. positiv. Weiterhin haben wir ν(F) = ∫ X α dμ 󳨀󳨀󳨀→ ∫ X∞ dμ F

α∈I

F

für alle F ∈ ⋃ Fα . α∈I

Daher stimmen die Maße F 󳨃→ ν(F) und F 󳨃→ ∫F X∞ dμ auf einem ∩-stabilen Erzeuger von F∞ überein, d.h. die Maße stimmen auf F∞ überein. Weil auch noch ∀A ∈ A : {A, A c } ∈ I 󳨐⇒ σ(A, A c ) ⊂ F∞ 󳨐⇒ F∞ = A

gilt, haben wir die Behauptung vollständig gezeigt.

8.23 Bemerkung. Der Satz von Radon–Nikodým gilt nicht nur für W-Maße, sondern für beliebige Maße ν und σ-endliche Maße μ. Allerdings ist die Betrachtung von endlichen Maßen der erste und schwierigste Schritt, die Erweiterung auf den allgemeinen Fall ist eine rein technische Angelegenheit, vgl. MI Korollar 19.3, Korollar 19.4.

8.9 Der Satz von Radon-Nikodým | 85

Aufgaben 1.

Eine σ-Algebra heißt trivial, wenn sie nur Mengen des Maßes Null oder Eins enthält. Zeigen Sie: Wenn eine ZV X bezüglich einer trivialen σ-Algebra T messbar ist, dann ist X fast sicher konstant.

2.

Es sei (Ω, A , ℙ) ein W-Raum mit einer Filtration (Fn )n∈ℕ0 und F∞ := σ (⋃n Fn ); weiterhin seien X n ZV, die f.s. gegen eine ZV X konvergieren und es gelte |X n | ⩽ Z für eine positive ZV Z ∈ L1 . Zeigen Sie folgende Aussage, die den Satz von der dominierten Konvergenz und den Martingal-Konvergenzsatz von Lévy kombiniert: lim 𝔼(X n | Fn ) = 𝔼(X | F∞ )

n→∞

f.s. und in L1 .

Anleitung: Prüfen Sie folgende Schritte (a) 𝔼(X | Fn ) → 𝔼(X | F∞ ).

(b) ∆ n := supi⩾n |X i − X| kann durch (ein Vielfaches von) Z beschränkt werden. (c)

3. 4.

Verwende die Dreiecksungleichung und eine Nullergänzung für |𝔼(X n | Fn ) − 𝔼(X | F∞ )|.

Formulieren und zeigen Sie eine „Rückwärtsversion“ der Aufg. 8.2.

Es sei (X n )n∈ℕ0 , X0 = 0, eine zufällige Irrfahrt mit der Schrittfolge ξ n := X n − X n−1 . Zeigen Sie folgende Aussagen: (a) Wenn die ZV ξ n unabhängig, zentriert und f.s. gleichmäßig beschränkt sind, dann gilt entweder ℙ(limn X n ∈ ℝ) = 1 oder ℙ(lim inf n X n = −∞ & lim supn X n = +∞) = 1. (b) Wenn die ZV ξ n iid, Y1 ≠ 0, zentriert und f.s. gleichmäßig beschränkt sind, dann gilt ℙ(lim inf n X n = −∞ & lim supn X n = +∞) = 1 (c)

5.

Wenn die ZV ξ n iid mit ℙ(ξ1 = ±1) = x ∈ ℝ.

(d) Wenn die ZV ξ n iid mit ℙ(ξ1 = ±1) = endliche Stoppzeit.

1 2

1 2

sind, dann gilt ℙ (lim supn→∞ {X n = x}) = 1 für alle sind, dann ist T := inf{n ∈ ℕ : X n > 0} eine f.s.

Es sei (Y i )i∈ℕ0 eine Folge von iid ZV mit ℙ(Y1 = 1) = ℙ(Y1 = −1) = 21 . Wir setzen F0 = {0, Ω} und Fn = σ(Y1 , . . . , Y n ), S0 = 0 und S n = Y1 +⋅ ⋅ ⋅+Y n . Weiter sei x 󳨃→ sgn(x) die Vorzeichenfunktion: sgn(x) = +1 ⇐⇒ x > 0, sgn(x) = −1 ⇐⇒ x < 0 und sgn(0) = 0. Wir definieren den folgenden Prozess: M0 := 0

und

n

M n := ∑ sgn(S i−1 )Y i , i=1

n ∈ ℕ.

(a) Zeigen Sie, dass (S2n )n∈ℕ0 ein Submartingal ist und finden Sie den Kompensator (vgl. Lemma 3.9) (⟨S⟩n )n∈ℕ0 . (b) Zeigen Sie, dass (M n )n∈ℕ0 ein Martingal ist und bestimme den Kompensator (⟨M⟩n )n∈ℕ0 . (c)

6.

Bestimmen Sie die Doob-Zerlegung von (|S n |)n∈ℕ0 . Zeigen Sie, dass M n messbar bezüglich σ(|S1 |, . . . , |S n |) ist.

Es sei (Ω, A , ℙ) ein W-Raum mit einer Filtration (Fn )n∈ℕ0 ; weiterhin sei ν ein endliches Maß auf F∞ . Wir nehmen an, dass ν(F) ⩽ ℙ(F) für alle F ∈ Fn , n ∈ ℕ. Wir schreiben ν|F für die Einschränkung von ν auf die σ-Algebra F ⊂ F∞ . (a) Begründen Sie, weshalb ν(F) = ∫F M n dℙ für F ∈ Fn gilt. (b) Zeigen Sie, dass (M n )n∈ℕ0 ein Martingal ist.

(c)

Zeigen Sie, dass limn→∞ M n = M∞ f.s. mit M∞ ∈ L1 (F∞ ).

86 | 8 ⧫Einige klassische Resultate der W-Theorie (d) Zeigen Sie, dass ν ≪ ℙ auf der σ-Algebra F∞ genau dann gilt, wenn das Martingal d(ν|F∞ ) = M∞ . (M n )n∈ℕ0 abschließbar ist. In diesem Fall ist d(ℙ|F ∞)

(e) Nun sei angenommen, dass die Maße ℙ und ν orthogonal sind, d.h. es gibt ein S ∈ F∞ mit dν 󵄨󵄨󵄨 ℙ(S) = 1 und ν(S) = 0. Zeigen Sie, dass dann dℙ 󵄨󵄨F =: M∞ = 0 f.s. gilt. (f)



Nun sei Ω = ℝℕ = {ω = (ω n )n∈ℕ : ω n ∈ ℝ} ein unendliches Produkt und X n (ω) := ω n ist die Projektion auf die nte Koordinate. Wir setzen Fn := σ(X1 , . . . , X n ) und ℙ = ν⊗ℕ 0,1 ist das unendliche Produkt von eindimensionalen Standard-Normalverteilungen; ℙ lebt auf (Ω, F∞ ). Nun sei mit ν := ν⊗ℕ m n ,1 ein weiteres W-Maß auf (Ω, F∞ ) gegeben wobei (m n )n∈ℕ0 ⊂ ℝ eine beliebige Folge ist. Zeigen Sie: i) Unter ℙ sind die X n ∼ ν0,1 iid, unter ν sind die X n ∼ ν m n ,1 unabhängig. ii)

7.

ℙ|Fn ≪ ν|Fn und ν|Fn ≪ ℙ|Fn für alle n. Finden Sie die Radon–Nikodým Dichten.

Es seien X = (X n )n∈ℕ und Y = (Y n )n∈ℕ Folgen von unabhängigen ZV, die alle auf demselben W-Raum definiert sind. Wir bezeichnen mit ℙZ die Verteilung der ZV Z. Zeigen Sie den folgenden Satz von Kakutani. Wenn ℙY n ≪ ℙX n für alle n ∈ ℕ gilt, dann ist entweder ℙY ≪ ℙX oder ℙY ⊥ℙY . („⊥“ steht für „orthogonal,“ vgl. Aufg. 8.5(f).)

8.

Hinweis. Finden Sie die Radon–Nikodým Dichte dℙ(Y1 ,...,Y n ) /dℙ(X1 ,...,X n ) und betrachten Sie die Konvergenzmenge. Eine Folge von ZV (X n )n∈ℕ heißt permutierbar, wenn die folgenden ZV 𝕏 = (X1 , X2 , X3 , . . . , X m , X m+1 , X m+2 . . . ),

π𝕏 = (X π(1) , X π(2) . . . , X π(m) , X m+1 , X m+2 . . . )

für beliebige endliche Permutationen π : {1, . . . , m} → {1, . . . , m}, m ∈ ℕ, dieselbe Verteilung haben, vgl. auch [WT, p. 110]. Im folgenden seien die ZV (X n )n∈ℕ permutierbar und Fn = σ(X1 , . . . , X n ). (a) Zeigen Sie, dass 𝔼(X i | Fn ) = 1n ∑nk=1 X k , 1 ⩽ i ⩽ n.

(b) Nun sei ϕ : ℝm → ℝ eine symmetrische Borel-messbare Funktion, d.h. ϕ(x1 , . . . , x m ) = ϕ(x π(1) , . . . , x π(m) ) für jede Permutation π, und es gelte 𝔼|ϕ(X1 , . . . , X m )| < ∞. Wir definieren Gn := σ(U m,i , i ⩾ n), n ⩾ m

und

U m,n =

1 (mn )

Zeigen Sie, dass für 1 ⩽ i1 < i2 < ⋅ ⋅ ⋅ < i m ⩽ n + 1 gilt: (c)



1⩽i1 0.

(9.5)

9 Elementare Ungleichungen für Martingale | 89

Dann gilt für p > 1 und

1 p

+

1 q

=1

𝔼(X p ) ⩽ q p 𝔼(Y p ).

(9.6)

Beweis. Wir nehmen zunächst an, dass 𝔼(X p ) < ∞. Weil wir den Erwartungswert mit der Verteilungsfunktion ausdrücken können, vgl. [WT, S. 214f.] oder [MI, Satz 16.7], ist ∞



(9.5) 1 𝔼 (X p ) = ∫ pr p−1 ℙ(X ⩾ r) dr ⩽ ∫ pr p−1 ( ∫ 𝟙{X⩾r} ⋅ Y dℙ) dr. r 0

0

Wenn wir 𝟙{X⩾r} (ω) = 𝟙[0,X(ω)] (r) beachten und den Satz von Tonelli verwenden, sehen wir ∞

𝔼 (X ) ⩽ ∫ ∫ pr p

p−2

0

X

𝟙[0,X] (r) ⋅ Y dr dℙ = ∫ ∫ pr p−2 dr Y dℙ = 0

p ∫ X p−1 Y dℙ. p−1

Mit der Hölderschen Ungleichung für p > 1 und q = p/(p − 1) erhalten wir 𝔼 (X p ) ⩽

p 1/q 1/p 1−1/p 1/p . [𝔼 (Y p )] [𝔼 (X q(p−1) )] = q [𝔼 (Y p )] [𝔼 (X p )] p−1

Durch Division folgt schließlich [𝔼 )X p )]1/p ⩽ q [𝔼 (Y p )]1/p . Ist 𝔼(X p ) = ∞, dann betrachten wir X∧n, n ∈ ℕ, an Stelle von X. Die Abschätzung (9.5) gilt auch für X ∧ n, da {{X ⩾ r}, {X ∧ n ⩾ r} = { 0, {

r ⩽ n,

r > n.

Somit folgt aus der bisherigen Rechnung und mit Beppo Levi 𝔼 (X p ) = sup 𝔼 [(X ∧ n)p ] ⩽ sup q p 𝔼 (Y p ) = q p 𝔼 (Y p ) . BL

n∈ℕ

n∈ℕ

Wenn wir Lemma 9.1 und 9.6 kombinieren, erhalten wir die Doobsche L p -Maximalungleichung und einen Konvergenzsatz für L p -Martingale. 9.7 Satz (L p -Maximalungleichung; Doob). Es sei (X n , Fn )n∈ℕ0 ⊂ L p , p > 1, ein pop sitives Submartingal, das L p -beschränkt ist, d.h. supn∈ℕ0 𝔼(X n ) < ∞. Dann gilt für X ∗ := supn∈ℕ0 |X n | a) X ∗ ∈ L p ; b) X∞ = lim X n existiert in L p und fast sicher; n→∞

c) 𝔼(X ∗ p ) ⩽ q p sup 𝔼(X n ) = q p 𝔼(X∞ ). p

p

n∈ℕ0

󳶳 Weil p > 1 ist, folgt aus der L p -Beschränktheit die gleichgradige Integrierbarkeit, vgl. Satz 7.4.a. Sie sollten daher die Aussage von Satz 9.7 mit Satz 6.4 und Satz 7.10 vergleichen. 󳶳 X ∗ ist die Standardnotation für supn∈ℕ0 |X n |; beachten Sie, dass wir in Satz 9.7 wegen X n ⩾ 0 auch X ∗ = supn∈ℕ0 X n schreiben könnten.

90 | 9 Elementare Ungleichungen für Martingale Beweis von Satz 9.7. Setze X ∗n := supi⩽n |X i |. Gemäß Lemma 9.1 gilt ℙ(X ∗n ⩾ r) ⩽

1 r

und Lemma 9.6 besagt

∫ X n dℙ für alle n ∈ ℕ, r > 0,

{X ∗n ⩾r}

𝔼(X n ) ⩽ q p 𝔼(X n ) ⩽ q p sup 𝔼(X i ). ∗p

p

p

i∈ℕ0

Mit Hilfe des Satzes von Beppo Levi folgern wir nun 𝔼(X ∗ p ) = sup 𝔼(X n ) ⩽ q p sup 𝔼(X n ) < ∞, ∗p

n∈ℕ0

p

n∈ℕ0

d.h. X ∗ ∈ L p bzw. (X ∗ )p ∈ L1 . Da (X n )n∈ℕ0 L p -beschränkt ist, ist (X n )n∈ℕ0 auch L1 -beschränkt, und der Martingalkonvergenzsatz Satz 5.3 besagt, dass X∞ = lim X n n→∞

Weiterhin gilt

f.s. existiert.

|X∞ − X n |p ⩽ (|X∞ | + |X n |)p ⩽ (2X ∗ )p ∈ L1 ,

und wir folgern mit Hilfe des Satzes von der dominierten Konvergenz n→∞

n→∞

|X∞ − X n |p 󳨀󳨀󳨀󳨀→ 0

in L1 ⇐⇒ X n 󳨀󳨀󳨀󳨀→ X∞

in L p .

Insbesondere haben wir limn→∞ 𝔼(X n ) = 𝔼(X∞ ). Da aber (X n )n⩾0 ein Submartingal ist (Satz 3.5.f), gilt p

p

p

𝔼(X n ) ⩽ 𝔼(X n+1 ) ⩽ . . . , p

p

also 𝔼X∞ = limn→∞ 𝔼X n = supn∈ℕ0 𝔼X n . p

p

p

Wir wollen noch einen häufig auftretenden Sonderfall hervorheben. 9.8 Korollar (L p -Maximalungleichung; Doob). Es sei (M n , Fn )n∈ℕ0 ein L p -Martingal, d.h. M n ∈ L p , n ∈ ℕ0 , p > 1. Für die Maximalfunktion M ∗ := supn∈ℕ0 |M n | gilt 𝔼(M ∗ p ) ⩽ (

p p ) sup 𝔼 (|M n |p ) ∈ [0, ∞]. p − 1 n∈ℕ0

(9.7)

Beweis. Weil (|M n |, Fn )n∈ℕ0 ein positives Submartingal in L p ist, können wir den Fall S := supn∈ℕ0 𝔼 (|M n |p ) < ∞ auf Satz 9.7 zurückführen. Wenn S = ∞ ist, dann ist (9.7) trivial.

9 Elementare Ungleichungen für Martingale | 91

⧫Die Ungleichung von Azuma–Hoeffding8 Die Azuma–Hoeffding Ungleichung ist eine „concentration of measure“ Ungleichung für (Super-)Martingale, deren Zuwächse beschränkt sind. Ursprünglich wurde die Ungleichung 1963 von W. Hoeffding für unabhängige ZV gezeigt, und dann von K. Azuma auf Martingale erweitert. 9.9 Satz (Azuma 1967). Es sei (X n , Fn )n∈ℕ0 ein Supermartingal für dessen Zuwächse die Abschätzungen |X n − X n−1 | ⩽ c n für eine Folge (c n )n∈ℕ ⊂ [0, ∞) gelten. Dann gilt mit d2n := c21 + ⋅ ⋅ ⋅ + c2n ℙ(X n − X0 ⩾ t) ⩽ exp [−

t2 ], 2d2n

Wenn (X n )n∈ℕ0 ein Martingal ist, gilt außerdem ℙ(|X n − X0 | ⩾ t) ⩽ 2 exp [−

t2 ], 2d2n

t ⩾ 0, n ∈ ℕ.

t ⩾ 0, n ∈ ℕ.

(9.8)

(9.9)

Beweis. Die Funktion e t (x) := e tx , x ∈ ℝ, t ⩾ 0, ist konvex, und daher liegt ihr Graph im Intervall −c ⩽ x ⩽ c unterhalb der Sehne, die die Punkte (−c, e t (−c)) und (c, e t (c)) verbindet, vgl. Abbildung 9.1.

Abb. 9.1: Der Graph der konvexen Funktion x 󳨃→ e tx liegt im Intervall −c ⩽ x ⩽ c unterhalb der Sehne, die (−c, e−tc ) und (c, e tc ) verbindet.

e tc − e−tc 1 x + (e tc + e−tc ) . 2c 2 Wir setzen in diese Ungleichung x = (X n − X n−1 ) und c = c n ein, bilden die bedingte Erwartung bezüglich Fn−1 und erhalten e tx ⩽

𝔼 (e t(X n −X n−1 ) | Fn−1 ) ⩽ ⩽

e tc n − e−tc n e tc n + e−tc n 𝔼 (X n − X n−1 | Fn−1 ) + 2c n 2

e tc n

⩾0

+ 2

e−tc n

.

⩽0 wg. Super-MG

8 Diesen Beweis verdanke ich meinem Kollegen Martin Keller–Ressel.

92 | 9 Elementare Ungleichungen für Martingale Mit Hilfe der elementaren Ungleichung ∞ ∞ 2 y2k y2k 1 −y ⩽ ∑ k = e y /2 (e + e y ) = ∑ 2 (2k)! 2 k! k=0 k=0

folgt 𝔼 (e t(X n −X n−1 ) | Fn−1 ) ⩽ e t n

2 2 c n /2

𝔼e t(X n −X0 ) = 𝔼 (∏ e t(X i −X i−1 ) ) i=1

. Mit der tower property erhalten wir =

n−1

tower pull-out

⩽ ⩽

𝔼 ( ∏ e t(X i −X i−1 ) 𝔼 [e t(X n −X n−1 ) | Fn−1 ]) i=1

n−1

𝔼 ( ∏ e t(X i −X i−1 ) ) e t i=1

⋅⋅⋅



Mit der Markov Ungleichung sehen wir für t, ξ ⩾ 0

et

2 2 d n /2

.

ℙ (X n − X0 ⩾ t) = ℙ (e ξ(X n −X0 ) ⩾ e tξ ) ⩽ e−tξ 𝔼e ξ(X n −X0 ) ⩽e

−tξ +ξ 2 d2n /2

2 2 c n /2

=e

(9.10) − 12 t2 /d2n + 12 (ξd n −t/d n )2

.

Offensichtlich nimmt die rechte Seite bei ξ = ihr Minimum an, und (9.8) ist gezeigt. Wenn (X n )n∈ℕ0 ein Martingal ist, dann gilt (9.8) für das Supermartingal −X n , d.h. ℙ(X n − X0 ⩽ −t) ⩽ exp [−

t/d2n

t2 ], 2d2n

t ⩾ 0, n ∈ ℕ.

Die Ungleichung (9.9) folgt nun durch Addition dieser Abschätzung und (9.8).

Aufgaben 1. 2.

Für ein positives Supermartingal (X n , Fn )n∈ℕ0 gilt ℙ (supn∈ℕ0 X n ⩾ r) ⩽

1 r 𝔼X 0 .

Es sei (S n )n∈ℕ0 eine einfache Irrfahrt, d.h. S n = U1 + ⋅ ⋅ ⋅ + U n , S0 = 0, mit iid Schritten U i , so dass ℙ(U1 = 1) = p, ℙ(U1 = −1) = q ∈ (0, 1). Sn (a) Zeigen Sie, dass Z n := ( pq ) , n ∈ ℕ0 , ein Martingal ist.

(b) Zeigen Sie mit Hilfe einer geeigneten Maximalungleichung, dass

und dass, sofern q > p,

3.

p k ℙ ( sup S n ⩾ k) ⩽ ( ) q n∈ℕ0 𝔼 ( sup S n ) ⩽ n∈ℕ0

q . q−p

Bemerkung. Wenn q > p, dann gilt in beiden Aussagen sogar Gleichheit und supn S n ist geometrisch verteilt mit Parameter 1 − p/q.

Zeigen Sie, dass wir für ein Martingal in der Ungleichung (9.8) X n − X0 durch supi⩽n (X i − X0 ) ersetzen können.

10 ⧫Die Burkholder–Davis–Gundy Ungleichungen Es sei (X n , Fn )n∈ℕ ein Submartingal. In diesem Kapitel wollen wir die Äquivalenz der L p -Normen der Maximalfunktionen X ∗n := sup |X i | i⩽n

und

X ∗ := sup X ∗n = sup |X i | n∈ℕ

i∈ℕ0

(10.1)

und der in (10.2) definierten quadratischen Variation [X]n bzw. [X]∞ zeigen. Wir erinnern daran, dass ein Martingal X mit X n ∈ L2 als L2 -Martingal bezeichnet wird. 10.1 Definition. Es sei (X n , Fn )n∈ℕ0 ein Submartingal. Die quadratische Variation (engl. square bracket) [X] = ([X]n ) ist definiert als n

[X]n := X02 + ∑ (X i − X i−1 )2 , i=1

[X]0 := X0

und

[X]∞ := sup[X]n . n∈ℕ

(10.2)

Im folgenden Abschnitt diskutieren wir einige grundlegende Eigenschaften der quadratischen Variation. Ziel dieses Kapitels ist es, das folgende Resultat zu zeigen, das auf Burkholder und Gundy (für 1 < p < ∞, [10], [12]), und Davis (für p = 1, [16]) zurückgeht. 10.2 Satz (Burkholder–Davis–Gundy (BDG) Ungleichungen). Es sei (X n , Fn )n∈ℕ ein Martingal und p ∈ [1, ∞). Dann gilt c p 𝔼 ([X]n ) ⩽ 𝔼 (supi⩽n |X i |p ) ⩽ C p 𝔼 ([X]n ) , p/2

p/2

n ∈ ℕ,

(10.3)

für universelle Konstanten 0 < c p ⩽ C p < ∞, die nur von p abhängen. p/2 Zusatz: X ist genau dann L p -beschränkt, wenn 𝔼 ([X]∞ ) < ∞ gilt.

Wir interessieren uns nicht für die genaue Form der Konstanten c p , C p , die optimalen Konstanten sind auch nicht immer bekannt, vgl. Bañuelos & Davis [7, Section 5]. Wir werden den Beweis für die BDG Ungleichungen nach einigen Vorbereitungen in den Abschnitten 10.3 und 10.4 führen. 10.3 Bemerkung. a) Mit dem Satz von Beppo Levi sehen wir, dass aus (10.3) die Ungleichungen p/2 p/2 c p 𝔼 ([X]∞ ) ⩽ 𝔼 ((X ∗ )p ) ⩽ C p 𝔼 ([X]∞ ) (10.4)

folgen. Wenn wir (10.4) auf die bei n ∈ ℕ gestoppten Martingale (X i∧n , Fi )i∈ℕ0 anwenden, gelangen wir wieder zu (10.3).

b) Aus der Doobschen Maximalungleichung (Korollar 9.8) für das gestoppte Martingal (X i∧n , Fi )i∈ℕ0 erhalten wir für p ∈ (1, ∞), dass p 𝔼 (|X n |p ) ⩽ 𝔼 (supi⩽n |X i |p ) ⩽ q p 𝔼 (|X n |p ) , n ∈ ℕ0 , q = , p−1 gilt, d.h. es gilt auch

c󸀠p 𝔼 ([X]n ) ⩽ 𝔼 (|X n |p ) ⩽ C p 𝔼 ([X]n ) , p/2

https://doi.org/10.1515/9783110350685-010

p/2

n ∈ ℕ, p ∈ (1, ∞).

(10.5)

94 | 10 ⧫Die Burkholder–Davis–Gundy Ungleichungen

c) Es sei X ein L2 -Martingal mit X0 = 0. Lemma 10.8 (im folgenden Abschnitt) zeigt, dass X 2 − [X] wieder ein Martingal ist. Daher folgen die BDG Ungleichungen für p = 2 elementar aus der Doobschen Maximalungleichung (siehe Teil b) und der Bemerkung, dass auf Grund der Martingaleigenschaft 𝔼(X 2n ) = 𝔼[X]n ist. Im Fall p = 1 können wir den mittleren Ausdruck in (10.3) nicht durch 𝔼|X n | ersetzen, vgl. das folgende Gegenbeispiel.

10.4 Beispiel. Die erste Ungleichung in (10.5) kann i.Allg. für p = 1 nicht gelten. Wir betrachten eine iid Folge (ξ n )n∈ℕ , ℙ(ξ1 = ±1) = 12 und die einfache symmetrische Irrfahrt X n := ξ1 + ⋅ ⋅ ⋅ + ξ n , X0 := 0. Für die natürliche Filtration Fn = σ(ξ1 , . . . , ξ n ) ist der Zeitpunkt des ersten Erreichens der Position 1, T := inf {n ∈ ℕ : X n = 1}

eine Stoppzeit und X T = (X n∧T , Fn )n∈ℕ ist ein Martingal (Korollar 4.5). Wegen der Definition der Stoppzeit T gilt einerseits 𝔼|X n∧T | = 2𝔼X +n∧T − 𝔼X n∧T = 2𝔼X +n∧T − 𝔼X0 = 2𝔼X +n∧T ⩽ 2, MG

während andererseits stets |X i − X i−1 | = |ξ i | = 1 ist, d.h.

n ∈ ℕ,

𝔼√[X T ]n = 𝔼√ ∑i=1 ξ i2 = 𝔼√n ∧ T 󳨀󳨀󳨀󳨀→ ∞, n∧T

n→∞

weil 𝔼√T = ∞ gilt, vgl. hierzu Beispiel 11.10 im folgenden Kapitel.

Das folgende Beispiel zeigt, dass die BDG Ungleichungen im Allgemeinen nicht im Fall 0 < p < 1 gelten können; dieses Phänomen wird durch große Zuwächse ∆X i = X i −X i−1 verursacht. 10.5 Beispiel (Marcinkiewicz & Zygmund 1938). Es sei η eine ZV, deren Verteilung durch ℙ(η = 1) = 1 − 1/m und ℙ(η = 1 − m) = 1/m für ein festes m ⩾ 2 gegeben ist. Wir geben Folgen unabhängiger ZV (ξ n )n∈ℕ an, so dass für das Martingal X0 := 0, X n := ξ1 + ⋅ ⋅ ⋅ + ξ n die erste bzw. zweite Ungleichung in (10.3) für 0 < p < 1 verletzt ist. a) Wir betrachten eine Folge unabhängiger ZV ξ1 ∼ η, ξ2 ∼ −η und ξ n = 0 für n ⩾ 3. Dann ist für n ⩾ 2 p =m

p 𝔼 (|X n | ) = 𝔼 (|ξ1 + ξ2 | ) = 𝔼 (|ξ1 + ξ2 | 𝟙{ξ1 =−ξ ̸ 2 } ) = 2𝔼( |ξ 1 + ξ 2 | 𝟙{ξ1 =1}∩ {ξ2 =m−1} ) p

p

p

während wir stets ξ12 + ξ22 ⩾ 2 und somit

⩽ 2m p ℙ(ξ2 = m − 1) = 2m p−1 ,

𝔼 ([X]n ) = 𝔼 ((ξ12 + ξ22 ) p/2

p/2

)⩾1

haben. Für hinreichend große Werte von m kann daher die erste Ungleichung in (10.3) nicht gelten.

10 ⧫Die Burkholder–Davis–Gundy Ungleichungen | 95

b) Wir betrachten eine Folge unabhängiger ZV ξ1 ∼ η, . . . , ξ n ∼ η und ξ n+k = 0 für k, n ∈ ℕ. Für m ⩾ 2n haben wir 󵄨󵄨 n 󵄨󵄨 󵄨󵄨 {n, 󵄨󵄨 |X n+k | = 󵄨󵄨󵄨 ∑ ξ i 󵄨󵄨󵄨 ⩾ { 󵄨 󵄨󵄨 󵄨i=1 󵄨󵄨 {|ξ j | − ∑i=j̸ |ξ i | ⩾ n,

Weiterhin gilt für [X]n+k =

∃j ∈ {1, . . . , n} : ξ j = 1 − m.

⩾(m−1)−(n−1)

∑ni=1 ξ i2

ℙ ([X]n+k = n) = (1 −

∀i ∈ {1, . . . , n} : ξ i = 1,

1 n m)

und

ℙ (n < [X]n+k ⩽ nm2 ) = 1 − (1 −

und wir erhalten einerseits 𝔼 (|X n+k |p ) ⩾ n p und andererseits 𝔼 ([X]n+k ) ⩽ n p/2 (1 − p/2

1 n m)

+ n p/2 m p (1 − (1 −

1 n l’Hospital 󳨀󳨀󳨀󳨀→ m ) ) 󳨀󳨀󳨀 m→∞

1 n m)

,

n p/2 .

Für hinreichend große Werte von m und n kann daher die zweite Ungleichung in (10.3) nicht gelten. Die BDG Ungleichungen verallgemeinern (partiell) zwei klassische Ungleichungen. Die erste geht auf Khintchine [26] (Abschätzung nach oben) und Littlewood [31] sowie Paley & Zygmund [35] (Abschätzung nach unten) zurück. 10.6 Satz (Khintchine9 Ungleichungen). Es seien (c n )n∈ℕ eine Folge reeller Zahlen und (ξ n )n∈ℕ iid ZV mit ℙ(ξ1 = ±1) = 21 . Dann gilt für alle 0 < p < ∞ n

γp (∑

i=1

c2i )

p/2

p/2 󵄨󵄨 n 󵄨󵄨p n 󵄨󵄨 󵄨󵄨 2 󵄨 󵄨 ⩽ 𝔼 (󵄨󵄨 ∑ c i ξ i 󵄨󵄨 ) ⩽ Γ p ( ∑ c i ) , 󵄨󵄨 󵄨󵄨 i=1 󵄨i=1 󵄨

n ∈ ℕ,

(10.6)

mit universellen Konstanten 0 < γ p ⩽ Γ p < ∞, die nur von p abhängen. Weil die ZV ξ i iid und zentriert (d.h. 𝔼ξ1 = 0) sind, gilt im Fall p = 2

󵄨2 󵄨 𝔼 (󵄨󵄨󵄨∑ni=1 c i ξ i 󵄨󵄨󵄨 ) = 𝕍 (∑ni=1 c i ξ i ) = ∑ni=1 𝕍(c i ξ i ) = ∑ni=1 c2i .

Daher sollten wir (10.6) als Äquivalenz der L p -Norm (L p -Quasi-Norm10 für 0 < p < 1) und der L2 -Norm von ∑ni=1 c i ξ i lesen.

Wenn wir nur 1 < p < ∞ betrachten, folgt (10.6) aus den BDG Ungleichungen für das Martingal X0 := 0, X n := ξ1 + ⋅ ⋅ ⋅ + ξ n und die Martingaltransformation c ∙ X n := 9 In der Analysis werden die Rademacher-Funktionen, vgl. [WT, p. 61, p. 96], als Prototypen für iid ZV (ξ n )n∈ℕ mit ℙ(ξ1 = ±1) = 12 auf dem W-Raum ([0, 1), B[0, 1), Leb) verwendet. Die Abschätzungen (10.6) heißen daher auch „Rademacher Ungleichungen.“ 10 Eine Quasi-Norm besitzt alle Eigenschaften einer Norm bis auf die Dreiecksungleichung, die nur in der Form ‖a + b‖ ⩽ γ(‖a‖ + ‖b‖) mit einer Konstanten γ > 1 gefordert wird.

96 | 10 ⧫Die Burkholder–Davis–Gundy Ungleichungen

∑ni=1 c i (X i − X i−1 ), wobei wir c = (c n )n∈ℕ als deterministischen Prozess auffassen. Beachte, dass [c ∙ X]n = ∑ni=1 c2i gilt. Weil wir für 0 < p ⩽ 1 die BDG Ungleichungen nicht verwenden können, zeigen wir den klassischen Beweis für die Khintchine Ungleichungen. Beweis von Satz 10.6. Abschätzung nach oben. Wir beginnen mit der zweiten Ungleichung von (10.6). Für das Martingal S0 := 0, S n := ξ1 +⋅ ⋅ ⋅+ ξ n ist die Martingaltransformation X := c ∙ S, c = (c i )i∈ℕ ein Martingal. Wir erhalten aus der Azuma Ungleichung (Satz 9.9) ℙ(|X n | ⩾ t) ⩽ 2e−t

2

/2d2n

d2n = c21 + ⋅ ⋅ ⋅ + c2n ,

,

und daher gilt für alle 0 < p < ∞ mit einer einfachen Rechnung 𝔼 (|X n |p )

= s=t

2

/2d2n

=





p ∫ t p−1 ℙ(|X n | ⩾ t) dt ⩽ 2p ∫ t p−1 e−t 0

0

2

/2d2n

dt



d n p2p/2 ∫ s p/2−1 e−s ds = p2p/2 Γ(p/2) (d2n ) p

p/2

,

0

d.h. wir haben die obere Abschätzung in (10.6) mit Γ p := p2p/2 Γ(p/2) gezeigt. Abschätzung nach unten. Mit Hilfe eines Dualitätsarguments11 können wir diese Ungleichung aus der Abschätzung nach oben ableiten. Wegen 𝔼 (X 2n ) = 𝕍X n

=

unabh.

n

n

i=1

i=1

∑ 𝕍(c i ξ i ) = ∑ c2i

p p können wir die untere Abschätzung auch als γ p ‖X n ‖2 ⩽ ‖X n ‖p ausdrücken. Wegen der Monotonie der L p -Normen (für endliche Maße) ist die Ungleichung für p ⩾ 2 trivial.

Für p ∈ (0, 2) lässt sich 2 = pα + 4β als Konvexkombination der Exponenten p und 4 mit α + β = 1, α, β ∈ (0, 1), schreiben. Wir erhalten 𝔼 (|X n |2 ) = 𝔼 (|X n |pα+4β )

Hölder



α

β

{𝔼 (|X n |p ) } {𝔼 (|X n |4 )} .

Den zweiten Faktor können wir mit Hilfe der eben bewiesenen Ungleichung nach oben abschätzen α



𝔼 (|X n |2 ) ⩽ {𝔼 (|X n |p ) } Γ4 {𝔼 (|X n |2 )} β

.

Indem wir die Terme umstellen, erhalten wir 𝔼 (|X n |2 ) ⩽ Γ4

β/(1−2β)

α 2 1−2β = p 1−2/p Γ4 für

Weil pα + 4β = 2 ist, haben wir

Abschätzung in (10.6) mit γ p =

{𝔼 (|X n |p )}

bzw.

β 1−2β

=

α/(1−2β) 2 p

− 1, woraus dann die untere

0 < p < 2 folgt.

11 Dieser Trick geht auf Littlewood [31, Lemma 3] zurück.

.

10.1 Die adaptierte quadratische Variation | 97

Ohne Beweis geben wir eine erste Erweiterung der Khintchine Ungleichungen an, die Ungleichungen von Marcinkiewicz und Zygmund. 10.7 Satz (Marcinkiewicz & Zygmund 1937/38). Für ein p ∈ [1, ∞) seien (ξ n )n∈ℕ ⊂ L p unabhängige ZV mit 𝔼ξ n = 0. Dann gilt n

β p 𝔼 [( ∑ ξ 2 ) i

p/2

p/2 󵄨󵄨 k 󵄨󵄨p 󵄨󵄨 n 󵄨󵄨p n 󵄨 󵄨 󵄨 󵄨 ] ⩽ 𝔼 [󵄨󵄨󵄨 ∑ ξ i 󵄨󵄨󵄨 ] ⩽ 𝔼 [sup 󵄨󵄨󵄨 ∑ ξ i 󵄨󵄨󵄨 ] ⩽ B p 𝔼 [( ∑ ξ 2 ) ] (10.7) i 󵄨 󵄨 󵄨󵄨 󵄨󵄨 󵄨 󵄨 k⩽n 󵄨󵄨󵄨i=1 󵄨󵄨󵄨 ] ] [ i=1 [ ] [󵄨i=1 󵄨 ]

[ i=1 mit universellen Konstanten 0 < β p ⩽ B p < ∞, die nur von p abhängen.

So wie Satz 10.6 können wir den Fall 1 < p < ∞ aus den BDG Ungleichungen herleiten; im Gegensatz zu den Burkholder Ungleichungen gilt Satz 10.7 auch für p = 1 ohne das Supremum im mittleren Term; der Grund ist die sehr spezielle Struktur der Martingale, da nur Summen zentrierter unabhängiger ZV betrachtet werden. Die Ungleichungen für p > 1 wurden erstmals in [32, Théorème 13] bewiesen, der Fall p = 1 ist in [33, Théorème 5] enthalten.

10.1 Die adaptierte quadratische Variation Es sei (X n )n∈ℕ0 ein Submartingal. Wie oben schreiben wir [X]n := X02 +∑ni=1 (X i −X i−1 )2 . Das folgende Lemma zeigt, warum [X] bisweilen adaptierter Kompensator genannt wird. Wir erinnern daran, dass wir ein Martingal mit X n ∈ L2 als L2 -Martingal bezeichnen. Im Gegensatz zum Kompensator ⟨X⟩ kann die quadratische Variation [X] für beliebige Submartingale definiert werden. 10.8 Lemma. Für jedes L2 -Martingal (X n , Fn )n∈ℕ0 ist (X 2n − [X]n , Fn )n∈ℕ0 ein Martingal. Sie sollten [X] und den in Definition 3.8 eingeführten Kompensator ⟨X⟩ vergleichen: sowohl X 2 − [X] als auch X 2 − ⟨X⟩ sind Martingale, aber ⟨X⟩ ist vorhersagbar, während [X] „nur“ adaptiert ist.

Beweis von Lemma 10.8. Aus X n ∈ L2 folgt sofort, dass X 2n − [X]n integrierbar ist. Für alle n ∈ ℕ0 gilt 𝔼 (X 2n+1 − [X]n+1 − X 2n + [X]n | Fn ) = 𝔼 (X 2n+1 − X 2n − (X n+1 − X n )2 | Fn ) = 𝔼 (2X n X n+1 − 2X 2n | Fn )

pull

= 2X n 𝔼 (X n+1 − X n | Fn ) = 0.

out

=0, X ist MG

Das nächste Lemma zeigt man schnell mit der Cauchy–Schwarz Ungleichung, vgl. Aufg. 10.1.

98 | 10 ⧫Die Burkholder–Davis–Gundy Ungleichungen

10.9 Lemma. Es seien X und Y zwei Submartingale. Es gilt [X ± Y]n

1/2

⩽ [X]n

1/2

+ [Y]n

1/2

⩽ √2 ([X]n + [Y]n )1/2 ,

n ∈ ℕ.

(10.8)

Einen ersten Zusammenhang zwischen der Maximalfunktion X ∗ und der quadratischen Variation [X]∞ gibt das folgende Lemma. 10.10 Lemma. Für jedes Martingal (X n , Fn )n∈ℕ0 ist

𝔼[X]∞ = sup 𝔼(X 2n ) ⩽ 𝔼 ((X ∗ )2 ) ⩽ 4 sup 𝔼(X 2n ),

und für alle t > 0 gilt

n∈ℕ0

ℙ (√[X]∞ ⩾ t) ⩽

n∈ℕ0

1 𝔼 ((X ∗ )2 ) t2

ℙ (X ∗ ⩾ t) ⩽

und

1 𝔼[X]∞ . t2

(10.9)

Beweis. Ohne Einschränkung können wir 𝔼 ((X ∗ )2 ) < ∞ annehmen. Der erste Teil der Behauptung folgt aus Lemma 10.8. Insbesondere sind die Ausdrücke 𝔼 ((X ∗ )2 ), supn∈ℕ0 𝔼(X 2n ) und 𝔼[X]∞ gleichzeitig endlich oder unendlich. Die Markov Ungleichung zeigt nun ℙ (√[X]∞ ⩾ t) ⩽

1 1 1 𝔼[X]∞ = 2 sup 𝔼 (X 2n ) ⩽ 2 𝔼 ((X ∗ )2 ) t2 t n∈ℕ0 t

und aus Korollar 9.4 wissen wir

ℙ (X ∗ ⩾ t) ⩽

1 1 sup 𝔼 (X 2n ) = 2 𝔼[X]∞ . t2 n∈ℕ t

10.11 Lemma (Burkholder 1973). Es sei (X n , Fn )n∈ℕ0 ein positives Submartingal. Für die Stoppzeit T = T(t) = inf{n ∈ ℕ : X n > t}, t > 0, gilt 𝔼[X]T−1 + 𝔼(X 2T−1 ) ⩽ 2t sup 𝔼X n . n∈ℕ0

(10.10)

Beweis. Ohne Einschränkung können wir supn∈ℕ0 𝔼X n < ∞ annehmen, sonst wäre die Ungleichung trivial. Für jedes n ∈ ℕ gilt [X]n−1 + X 2n−1 = 2X n X n−1 − X 2n + [X]n n

n

i=1 n

i=1

= 2X n X n−1 − ∑ (X 2i − X 2i−1 ) + ∑ (X i − X i−1 )2 = 2X n X n−1 − 2 ∑ X i−1 (X i − X i−1 ). i=1

Wir ersetzen nun n durch n ∧ T und erhalten

n∧T

[X]n∧T−1 + X 2n∧T−1 = 2X n∧T X n∧T−1 − 2 ∑ X i−1 (X i − X i−1 ) i=1

n∧T

T ⩽ 2tX n∧T − 2 ∑ X i−1 (X iT − X i−1 ) . i=1

T =2X 󸀠 ∙X n∧T =2X 󸀠 ∙X nT , X 󸀠i :=X i−1

10.2 Die Krickeberg-Zerlegung | 99

Weil X T ein Submartingal ist, vgl. Satz 4.4, ist die Martingaltransformation X 󸀠 ∙ X T T ein Submartingal (Satz 3.11.b), und wir erhalten 𝔼X 󸀠 ∙ X n∧T ⩾ 𝔼X 󸀠 ∙ X0T = 0. Mit dem Fatouschen Lemma folgt schließlich 𝔼[X]T−1 + 𝔼X 2T−1 ⩽ lim inf (𝔼[X]n∧T−1 + 𝔼 (X 2n∧T−1 )) n→∞

⩽ 2t lim inf 𝔼X n∧T ⩽ 2t sup 𝔼X n . n→∞

n∈ℕ0

Wir benötigen noch folgende Verschärfung von Lemma 10.10. 10.12 Satz. Für jedes positive Submartingal (X n , Fn )n∈ℕ0 gilt ℙ ([X]∞ > t2 ) ⩽

3 sup 𝔼X n , t n∈ℕ0

t > 0.

(10.11)

Beweis. Ohne Einschränkung können wir supn∈ℕ0 𝔼X n < ∞ annehmen, sonst ist die Ungleichung trivial. Wir definieren die Stoppzeit T := T (t) = inf{n ∈ ℕ : X n > t}. Weil [X]T−1 = [X]∞ auf der Menge {T = ∞} = {X ∗ ⩽ t} gilt, erhalten wir mit Lemma 10.11 ℙ ([X]∞ > t2 , X ∗ ⩽ t) ⩽ ℙ ([X]T−1 > t2 ) ⩽

10.11 2 1 𝔼[X]T−1 ⩽ sup 𝔼X n . 2 t n∈ℕ0 t

(10.12)

Zusammen mit Korollar 9.4 gilt auch

ℙ ([X]∞ > t2 ) = ℙ ([X]∞ > t2 , X ∗ > t) + ℙ ([X]∞ > t2 , X ∗ ⩽ t) ⩽ ℙ (X ∗ > t) + ℙ ([X]∞ > t2 , X ∗ ⩽ t) ⩽

1 2 sup 𝔼X n + sup 𝔼X n . t n∈ℕ0 t n∈ℕ0

10.13 Korollar. Es sei (X n , Fn )n∈ℕ0 ein Martingal oder ein positives Submartingal. Wenn supn∈ℕ0 𝔼|X n | < ∞ gilt, dann ist [X]∞ < ∞ f.s.

Beweis. Wegen {[X] < ∞} = ⋃t∈ℕ {[X]∞ < t} folgt die Behauptung für positive Submartingale unmittelbar aus Satz 10.12. Wenn X ein Martingal ist, dann sind X ± positive Submartingale, und die Behauptung folgt wegen √[X]∞ = √[X + − X − ]∞ ⩽ √[X + ]∞ + √[X − ]∞ (Lemma 10.9) aus der bereits bewiesenen Aussage für positive Submartingale.

10.2 Die Krickeberg-Zerlegung Wir haben in Satz 3.7 die Doob-Zerlegung eines Submartingals X = X0 + M + A in ein Martingal M mit M0 = 0 und einen wachsenden vorhersagbaren Prozess A mit A0 = 0 kennengelernt. Weil A positiv ist, besagt die Doob-Zerlegung, dass jedes Submartingal durch ein Martingal nach unten beschränkt wird: X0 + M ⩽ X. Wir werden nun die Krickeberg-Zerlegung für ein L1 -beschränktes Submartingal beweisen, aus der insbesondere die Beschänktheit nach oben durch ein positives Martingal folgt.

100 | 10 ⧫Die Burkholder–Davis–Gundy Ungleichungen

10.14 Satz (Krickeberg-Zerlegung; Krickeberg 1956). Es sei (X n , Fn )n∈ℕ0 ein L1 -beschränktes Submartingal, d.h. supn∈ℕ0 𝔼|X n | < ∞. Dann gibt es – bis auf Ununterscheidbarkeit eindeutig bestimmte – Prozesse (X ⊕n )n∈ℕ0 und (X ⊖n )n∈ℕ0 mit folgenden Eigenschaften a) (X ⊕n , Fn )n∈ℕ0 ist ein Martingal, (X ⊖n , Fn )n∈ℕ0 ist ein Supermartingal; b) X n = X ⊕n − X ⊖n und X ⊕n ⩾ X +n , X ⊖n ⩾ X −n für alle n ∈ ℕ0 ; c) supn∈ℕ0 𝔼|X n | = supn∈ℕ0 𝔼X ⊕n + supn∈ℕ0 𝔼X −n = 𝔼X0⊕ + supn∈ℕ0 𝔼X −n . Zusatz 1. Wenn X L p -beschränkt ist, dann gilt

sup 𝔼 ((X ⊕n )p ) + sup 𝔼 ((X ⊖n )p ) ⩽ (2p + 1) sup 𝔼 (|X n |p ) .

n∈ℕ0

n∈ℕ0

n∈ℕ0

X⊖

Zusatz 2. Wenn X ein Martingal ist, dann ist auch ein Martingal. Dann gilt sogar d) supn∈ℕ0 𝔼|X n | = supn∈ℕ0 𝔼X ⊕n + supn∈ℕ0 𝔼X ⊖n = 𝔼X0⊕ + 𝔼X0⊖ .

Beweis. Existenz der Zerlegung: Gemäß Satz 3.5.d ist (X +n )n∈ℕ0 ein Submartingal. Für alle n, k ∈ ℕ0 gilt 𝔼 (X +n+k+1 | Fn ) = 𝔼 (𝔼 [X +n+k+1 | Fn+k ] | Fn ) tower

Sub-MG



Daher existiert der Grenzwert

𝔼 (X +n+k | Fn ) .

X ⊕n := sup 𝔼 (X +n+k | Fn ) = lim 𝔼 (X +n+k | Fn )

sub-MG

k→∞

k∈ℕ0

⩾X +n



(10.13)

X +n ,

und der Satz von Beppo Levi und eine erneute Anwendung der tower property ergeben 𝔼X ⊕n = sup 𝔼 (𝔼 [X +n+k | Fn ]) = BL

tower

k∈ℕ0

sup 𝔼X +n+k ⩽ sup 𝔼|X n | < ∞.

k∈ℕ0

n∈ℕ

(10.14)

Mit einer sehr ähnlichen Rechnung sehen wir 𝔼 (X ⊕n+1 | Fn )

=

bed.BL

sup 𝔼 (𝔼 [X +n+k+1 | Fn+1 ] | Fn ) =

tower

k∈ℕ0

sup 𝔼 (X +n+k | Fn ) = X ⊕n ,

k∈ℕ0

d.h. (X ⊕n , Fn )n∈ℕ0 ist ein positives Martingal. Für den Prozess X ⊖n := X ⊕n − X n gilt X ⊖n = X ⊕n − X +n +X −n ⩾ X −n ⩾ 0, ⩾0

d.h. X ⊖ ist ein positives Supermartingal (bzw. Martingal, wenn X ein Martingal ist). Damit sind a), b) und der erste Teil von Zusatz 2 gezeigt. Die Rechnung (10.14) zeigt insbesondere, dass 𝔼X0⊕ = sup 𝔼X ⊕n = sup 𝔼X +n+k = sup 𝔼X +i MG

n∈ℕ0

k,n∈ℕ0

i∈ℕ0

gilt. Weil die Suprema aufsteigende Limiten sind, und 𝔼|X n | = 𝔼X +n + 𝔼X −n gilt, folgt schließlich Teil c).

10.3 Die Ungleichungen von Burkholder |

101

Wenn X ein Martingal ist, können wir die bisherigen Überlegungen auch auf −X anwenden. Weil (−X)+ = X − gilt, folgt in diesem Fall 𝔼X0⊖ = supn∈ℕ0 𝔼X −n , und wir erhalten aus c) die Beziehung d). Damit ist Zusatz 2 gezeigt. Ganz ähnlich sehen wir mit der bedingten Jensenschen Ungleichung (Satz 2.7.d) 𝔼 ((X ⊕n )p ) ⩽ 𝔼 ( sup 𝔼 ((X +n+k )p | Fn )) =

sup 𝔼 ((X +n+k )p ) ⩽ sup 𝔼 (|X i |p ) .

BL

tower k∈ℕ 0

k∈ℕ0

i∈ℕ0

Die Höldersche Ungleichung ergibt |a + b|p ⩽ 2p−1 (|a|p + |b|p ), und es folgt 𝔼 ((X ⊖n )p ) ⩽ 2p−1 (𝔼 (|X n |p ) + 𝔼 ((X ⊕n )p )) ⩽ 2p sup 𝔼 (|X i |p ) , i∈ℕ0

mithin ist Zusatz 1 gezeigt.

Eindeutigkeit der Zerlegung: Es sei X n = Y n⊕ − Y n⊖ eine weitere Zerlegung, die die Eigenschaften a)–c) besitzt. Weil Y n⊕ ⩾ X +n gilt, haben wir für alle k, n ∈ ℕ0 Teil 1

⊕ Y n⊕ = 𝔼 (Y n+k | Fn ) ⩾ 𝔼 (X +n+k | Fn ) 󳨀󳨀󳨀󳨀→ X ⊕n . MG

k→∞

Das zeigt Y n⊕ ⩾ X ⊕n und wegen X ⊕n − X ⊖n = X n = Y n⊕ − Y n⊖ folgt auch Y n⊖ ⩾ X ⊖n . Nun ist c)

c)

sup 𝔼|X n | = sup 𝔼X ⊕n + sup 𝔼X −n ⩽ sup 𝔼Y n⊕ + sup 𝔼X −n = sup 𝔼|X n |

n∈ℕ0

n∈ℕ0

n∈ℕ0

n∈ℕ0

n∈ℕ0

n∈ℕ0

und daraus folgt supn∈ℕ0 𝔼X ⊕n = supn∈ℕ0 𝔼Y n⊕ . Weil Y n⊕ −X ⊕n ⩾ 0 ein positives Martingal ist, erhalten wir aus der Gleichheit sup 𝔼(Y n⊕ − X ⊕n ) = 𝔼(Y0⊕ − X0⊕ ) = sup 𝔼Y n⊕ − sup 𝔼X ⊕n = 0, MG

dass

Y n⊕

=

n∈ℕ0

X ⊕n

n∈ℕ0

n∈ℕ0

f.s. und somit

ℙ (Y n⊕ = X ⊕n & X ⊖n = Y n⊖ ∀n ∈ ℕ0 ) = 1.

Der Beweis der Eindeutigkeit in Satz 10.14 zeigt insbesondere die Minimalität der Krickeberg-Zerlegung. 10.15 Bemerkung. Es sei (X n , Fn )n∈ℕ0 ein L1 -beschränktes Submartingal und X n = Y n⊕ −Y n⊖ eine Zerlegung in ein positives Martingal (Y n⊕ , Fn )n∈ℕ0 und ein positives Supermartingal (Y n⊖ , Fn )n∈ℕ0 . Wenn X n = X ⊕n − X ⊖n die Krickeberg-Zerlegung aus Satz 10.14 ist, dann gilt X ⊕n ⩽ Y n⊕

und

X ⊖n ⩽ Y n⊖

für alle n ∈ ℕ0 .

10.3 Die Ungleichungen von Burkholder In diesem Abschnitt werden wir Satz 10.2 für 1 < p < ∞ beweisen. Zunächst benötigen wir eine Variante von Satz 10.12. Um die Notation zu vereinfachen, verwenden wir ∆X i := X i − X i−1 , i ∈ ℕ.

102 | 10 ⧫Die Burkholder–Davis–Gundy Ungleichungen

10.16 Lemma. Für jedes positive Submartingal (X n , Fn )n∈ℕ0 , beliebige θ > 0 und β2 := 1 + 2θ2 gilt 3 ℙ ([X]n > β2 t2 ) ⩽ (10.15) ∫ X ∗n dℙ, n ∈ ℕ0 , t > 0. tθ {[X]n >t2 }

Beweis. 1o Wir definieren Y n := X n 𝟙{[X]n >t2 } . Wegen 𝔼 (Y n+1 | Fn ) = 𝔼(X n+1 𝟙{[X]n+1 >t2 } | Fn ) ⩾𝟙{[X]n >t2 }

pull

⩾ 𝟙{[X]n >t2 } 𝔼(X n+1 | Fn )

out

Sub-MG



ist (Y n , Fn )n∈ℕ0 ein positives Submartingal.

𝟙{[X]n >t2 } X n = Y n

2o Es gilt {[X]n > β2 t2 , X ∗n ⩽ tθ} ⊂ {[Y]n > t2 θ2 , Y n∗ ⩽ tθ} . Um diese Inklusion zu zeigen, definieren wir die Stoppzeit T = inf{n ∈ ℕ : [X]n > t2 } und wählen ein beliebiges ω aus der Menge auf der linken Seite. Definitionsgemäß gilt dann 1 ⩽ T(ω) ⩽ n

und

Y n∗ (ω) ⩽ X ∗n (ω) ⩽ tθ

t2 β2 < [X]n (ω) = [X]T−1 (ω) + (∆X T )2 (ω) + ⩽ t2 + t2 θ2 + [Y]n (ω).

und

n



(∆X i )2 (ω)

i=T(ω)+1

Für die letzte Abschätzung beachten wir die Definition von T und Y, sowie die Tatsache dass wegen der Positivität von X |∆X T (ω)| = |X T (ω) − X T−1 (ω)| ⩽ X T (ω) ∨ X T−1 (ω) ⩽ X ∗n (ω) ⩽ tθ

gilt. Wegen t2 β2 = t2 + 2t2 θ2 folgt [Y]n (ω) > t2 θ2 , also ist ω ∈ {[Y]n > t2 θ2 , Y n∗ ⩽ tθ}, und die Inklusion ist gezeigt. 3o Wir betrachten nun die linke Seite von (10.15) und verwenden die Markov Ungleichung (in der Form von Korollar [MI, Korollar 10.5]) ℙ ([X]n > β2 t2 ) = ℙ ([X]n > β2 t2 , X ∗n > tθ) + ℙ ([X]n > β2 t2 , X ∗n ⩽ tθ) ⩽

2

o



1 tθ

1 tθ



X ∗n dℙ + ℙ ([X]n > β2 t2 , X ∗n ⩽ tθ)



X ∗n dℙ + ℙ ([Y]n > t2 θ2 , Y n∗ ⩽ tθ) .

{[X]n >β2 t2 } {[X]n >β2 t2 }

10.3 Die Ungleichungen von Burkholder |

103

Wenn wir die Abschätzung (10.12) aus dem Beweis von Satz 10.12 für das positive Submartingal (Y0 , Y1 , . . . , Y n , Y n , Y n , . . . ) = (Y i∧n )i∈ℕ0 verwenden, folgt ℙ ([X]n > β2 t2 ) ⩽

1 tθ

=

1 tθ

und damit die Behauptung.



X ∗n dℙ +

2 𝔼Y n tθ



X ∗n dℙ +

2 tθ

{[X]n >β2 t2 } {[X]n >β2 t2 }



X n dℙ,

{[X]n >t2 }

10.17 Korollar. Für jedes positive Submartingal (X n , Fn )n∈ℕ0 und alle p ∈ (1, ∞) und 1 1 p + q = 1 gilt 𝔼 ([X]n ) ⩽ (27q√p)p 𝔼 ((X ∗n ) ) , p/2

n ∈ ℕ0 .

p

(10.16)

Beweis. Wir wollen Lemma 9.6 auf die Abschätzung (10.15) aus Lemma 10.16 anwenden. Wenn wir r := βt setzen, wird (10.15) zu ℙ ([X]n

1/2

> r) ⩽

3β θr



1/2

{[X]n >r/β}

X ∗n dℙ

Mit einer einfachen Variation von Lemma 9.6 erhalten wir 𝔼 ([X]n ) ⩽ q p β p(p−1) 𝔼 (( p/2

Wenn wir θ = p−1/2 wählen, erhalten wir β p(p−1) (

3β ∗ p X ) ). θ n

3β p β p⋅p ⋅ 2p 2 p/2 p p/2 = 3 p + ) = { (1 ) } θ θp p

2p

⩽ 27p p p/2 ,

⩽e 0 c p 𝔼 ([X]∞ ) ⩽ 𝔼 (supn∈ℕ0 |X n |p ) . p/2

(10.17)

Beweis. Ohne Einschränkung können wir annehmen, dass die rechte Seite der Ungleichung (10.17) endlich ist, d.h. das Martingal ist L p - und insbesondere L1 -beschränkt. Es sei X = X ⊕ − X ⊖ die Krickeberg-Zerlegung von X, vgl. Satz 10.14. Wegen Lemma 10.9 gilt 1/2 p Hölder

[X]∞ = [X ⊕ − X ⊖ ]∞ ⩽ ([X ⊕ ]∞ + [X ⊖ ]∞ ) p/2

p/2

1/2



2p [X ⊕ ]∞ + 2p [X ⊖ ]∞ . p/2

p/2

104 | 10 ⧫Die Burkholder–Davis–Gundy Ungleichungen Wir können nun Korollar 10.17 auf die positiven Martingale X ⊕ und X ⊖ anwenden und erhalten mit Hilfe von Zusatz 1 in Satz 10.14 𝔼 ([X]∞ ) ⩽ (27q√p)p 2p ( sup 𝔼 ((X ⊕n )p ) + sup 𝔼 ((X ⊖n )p )) p/2

n∈ℕ0

n∈ℕ0

⩽ 2(108q√p) sup 𝔼 (|X n | ) . p

p

n∈ℕ0

Wie im Beweis von Satz 10.6 zeigen wir die andere Abschätzung mit einem Dualitätsargument. 10.19 Lemma. Es seien (X n , Fn )n∈ℕ0 ein Martingal mit X0 = 0 und p ∈ (1, ∞). Dann gilt für eine universelle Konstante C p < ∞ 𝔼 (supn∈ℕ0 |X n |p ) ⩽ C p 𝔼 ([X]∞ ) . p/2

(10.18)

Beweis. Ohne Einschränkung können wir 𝔼 ([X]∞ ) < ∞ annehmen. In diesem Beweis vereinbaren wir, dass X−1 := 0 und somit ∆X0 = X0 gilt. Wegen p/2

n

Cauchy-

i=0

Schwarz

|X n | ⩽ ∑ |X i − X i−1 |



√n + 1[X]1/2 n

folgt, dass das Martingal X L p -beschränkt ist. Daher gilt 𝔼 (|X n |p ) = 𝔼(X n Y n ) für die ZV Y n := sgn(X n )|X n |p−1 ∈ L q , wobei q ∈ (1, ∞) der zu p konjugierte Index ist. Wir interpretieren nun Y n als rechten Endpunkt des Martingals Z kn := 𝔼(Y n | Fn∧k ),

Für 0 ⩽ i < k gilt (vgl. auch Aufg. 10.2) n 𝔼 ((X i − X i−1 )(Z kn − Z k−1 ))

=

tower

pull out

k ∈ ℕ0 .

n 𝔼((X i − X i−1 ) 𝔼 (Z kn − Z k−1 | Fi ) ) = 0; =0 da MG

der Fall für i > k ⩾ 0 wird genauso gezeigt. Mithin haben wir n

n

i=0

k=0

n

𝔼 (|X n |p ) = 𝔼 (X n Z nn ) = 𝔼 ( ∑ ∆X i ∑ ∆Z kn ) = 𝔼 ( ∑ ∆X i ∆Z in ) . i=0

Wir wenden nun die Cauchy–Schwarz Ungleichung auf die Summe und dann die Höldersche Ungleichung auf den Erwartungswert an, und erhalten 1/p

𝔼 (|X n |p ) ⩽ 𝔼 ([X]n [Z n ]n ) ⩽ {𝔼 ([X]n )} 1/2

p/2

1/2

1/q

{𝔼 ([Z n ]n )} q/2

.

Für die quadratische Variation des L q -beschränkten Martingals Z n gilt Lemma 10.18, und es folgt 𝔼 ([Z n ]n ) ⩽ 𝔼 ([Z n ]∞ ) ⩽ C q sup 𝔼 (|Z in |q ) q/2

q/2

i∈ℕ

bed.



Jensen

C q sup 𝔼 (|Y i |q ) . i∈ℕ

Indem wir die letzten beiden Abschätzungen zusammenfassen, folgt die Behauptung, wobei wir noch Satz 9.7 beachten. Der Aussage von Satz 10.2 für 1 < p < ∞ folgt nun unmittelbar aus Lemma 10.18, Lemma 10.19 und Bemerkung 10.3.a. Der Zusatz ist trivial.

10.4 Die Zerlegung und die Ungleichungen von Davis |

105

10.4 Die Zerlegung und die Ungleichungen von Davis Wir wollen schließlich den Fall p = 1 in Satz 10.2 behandeln. Aus Beispiel 10.5 wissen wir, dass die großen Zuwächse eines Martingals problematisch sind. Um dieses Phänomen in Griff zu bekommen, betrachten wir zunächst die Davis-Zerlegung eines Martingals. In diesem Abschnitt verwenden wir die Bezeichnungen J0 := X0 ,

J n := ∆X n := X n − X n−1 ,

für die Zuwächse des Martingals (X n )n∈ℕ0 .

J ∗n := sup |J i | i⩽n

und

J ∗ := sup |J i | i∈ℕ

10.20 Satz (Davis 1970). Für jedes Martingal (X n , Fn )n∈ℕ0 existieren zwei Martingale (U n , Fn )n∈ℕ0 und (V n , Fn )n∈ℕ0 mit folgenden Eigenschaften: a) X = X0 + U + V und U0 = V0 = 0; b) |∆U n | ⩽ 4J ∗n−1 für alle n ∈ ℕ; c)

𝔼√[V]n

𝔼V n∗

} ⩽ 𝔼 (∑ni=1 |∆V i |) ⩽ 4𝔼J ∗n ⩽ 8 (𝔼√[X]∞ ∧ 𝔼X ∗ ) für alle n ∈ ℕ.

d) 𝔼√[U]∞ ⩽ 9𝔼√[X]∞ und 𝔼U ∗ ⩽ 9𝔼X ∗ .

Beweis. a) Wir definieren die Mengen A n := {|J n | > 2J ∗n−1 } und die Martingale [] n

V0 := 0,

V n := ∑ (J i 𝟙A i − 𝔼 (J i 𝟙A i | Fi−1 )) ,

U0 := 0,

U n := X n − V n = ∑ (J i 𝟙A ci − 𝔼 (J i 𝟙A ci | Fi−1 )) ;

i=1

n

i=1

beachte, dass 𝔼(J i | Fi−1 ) = 0 für alle i ∈ ℕ gilt. Es folgt X n − X0 = U n + V n . b) Für die Zuwächse von U haben wir 󵄨 󵄨 |∆U n | = 󵄨󵄨󵄨J n 𝟙A cn − 𝔼 (J n 𝟙A cn | Fn−1 )󵄨󵄨󵄨 ⩽ |J n | 𝟙A cn +𝔼( |J i | 𝟙A cn | Fn−1 ) ⩽ 4J ∗n−1 . ⩽2J ∗n−1

⩽2J ∗n−1

c) Mit Hilfe der tower property sehen wir n

n

n

n

i=1

i=1

i=1

i=1

𝔼 ( ∑ |∆V i |) ⩽ 𝔼 ( ∑ |J i |𝟙A i ) + 𝔼 ( ∑ 𝔼 (|J i |𝟙A i | Fi−1 )) = 2𝔼 ( ∑ |J i |𝟙A i ) . Für ω ∈ A i haben wir außerdem ω∈A i

2J ∗i (ω) ⩾ 2|J i (ω)| ⩾ |J i (ω)| + 2J ∗i−1 (ω) 󳨐⇒ |J i (ω)| ⩽ 2J ∗i (ω) − 2J ∗i−1 (ω).

Indem wir diese Abschätzung in die eben gemachte Rechnung einsetzen, folgt n

n

i=1

i=1

𝔼 ( ∑ |∆V i |) ⩽ 2𝔼 ( ∑ (2J ∗i − 2J ∗i−1 )) = 4𝔼J ∗n .

106 | 10 ⧫Die Burkholder–Davis–Gundy Ungleichungen Die Aussage c) erhalten wir aus den Abschätzungen J ∗n ⩽ 2X ∗n ⩽ 2X ∗

und

1/2

n

J ∗n ⩽ ( ∑ (J i )2 ) i=0

auf der rechten Seite und, auf der linken Seite, n

n

i=1

i=1

√[V]n = √ ∑ (∆V i )2 ⩽ ∑ |∆V i |

und

V n∗

⩽ √[X]n ⩽ √[X]∞

󵄨󵄨 n 󵄨󵄨 k 󵄨󵄨 󵄨󵄨 󵄨 = sup 󵄨󵄨 ∑ ∆V i 󵄨󵄨󵄨 ⩽ ∑ |∆V i |. 󵄨󵄨 󵄨 k⩽n 󵄨󵄨i=1 󵄨 i=1

d) Lemma 10.9 zeigt √[U]∞ ⩽ √[X]∞ + √[V]∞ . Andererseits haben wir die triviale Abschätzung U ∗ = (X − V)∗ ⩽ X ∗ + V ∗ , und daher folgen beide Ungleichungen in d) aus den Abschätzungen von Teil c). Wir kommen nun zum Beweis der Ungleichungen (10.4) mit p = 1.

10.21 Lemma (Davis 1970). Es sei (X n , Fn )n∈ℕ0 ein Martingal. Dann gibt es eine universelle Konstante C1 < ∞, so dass 𝔼X ∗ ⩽ C1 𝔼√[X]∞ .

(10.19)

Beweis. Ohne Einschränkung können wir 𝔼√[X]∞ < ∞ annehmen. Wir zeigen die Aussage erst unter der Annahme X0 = 0. 1o Es sei X = U + V die Davis Zerlegung des Martingals X und J = ∆X, vgl. Satz 10.20. Es gilt 𝔼X ∗ ⩽ 𝔼U ∗ + 𝔼V ∗

10.20.c



𝔼U ∗ + 8𝔼√[X]∞ .

In den folgenden Schritten werden wir 𝔼U ∗ ⩽ c𝔼√[X]∞ zeigen.

2o Wir definieren die Stoppzeiten T = T(t) = inf {n ∈ ℕ : √[U]n ∨ J ∗n > t}. Aus Satz 10.20 wissen wir, dass √[U]T ⩽ √[U]T−1 + |∆U T | ⩽ √[U]T−1 + 4J ∗T−1 ⩽ 5t

(10.20)

gilt; weiterhin haben wir wegen Lemma 10.9

√[U]T ⩽ √[U]∞ ⩽ √[X − V]∞ ⩽ √[X]∞ + √[V]∞ .

3o Offensichtlich gilt für alle t > 0

ℙ(U ∗ > t) = ℙ(T < ∞, U ∗ > t) + ℙ(T = ∞, U ∗ > t) ⩽ ℙ(T < ∞) + ℙ(U T∗ > t).

Weil 𝔼U ∗ = ∫0 ℙ(U ∗ > t) dt gilt, genügt es die Integrale der beiden Summanden durch 𝔼√[X]∞ abzuschätzen. ∞

10.4 Die Zerlegung und die Ungleichungen von Davis |

107

4o Für den ersten Summanden aus 3o gilt auf Grund der Definition von T = T(t) ∞





∫ ℙ(T(t) < ∞) dt ⩽ ∫ ℙ (√[U]∞ > t) dt + ∫ ℙ(J ∗ > t) dt 0

0

0

10.20

= 𝔼√[U]∞ + 𝔼J ∗ ⩽ 9𝔼√[X]∞ + 𝔼√[X]∞ .

5o Für den zweiten Summanden aus 3o gilt wegen der Definition der Stoppzeit T(t) ∞

∫ ℙ(U T∗ > t) dt 0

(10.9)



(10.20)



∫ 𝔼[U]T 0 ∞

dt t2 dt t2



∫ 𝔼 ([U]T ∧ (25t2 ))



dt dt ∫ 𝔼 ([U]∞ 𝟙{[U]∞ ⩽25t2 } ) 2 + ∫ 25t2 ℙ([U]∞ > 25t2 ) 2 t t

= =

0 ∞



0

0

𝔼 ([U]∞





√[U]∞ /5

10𝔼√[U]∞

dt ) + 5𝔼√[U]∞ t2

10.20.d



90𝔼√[X]∞ .

Indem wir die Ergebnisse aus 1o , 4o und 5o zusammenfassen, folgt die Behauptung mit der Konstante C1 = 108 und für alle Martingale mit X0 = 0. Weil für beliebige Martingale [X − X0 ]∞ ⩽ [X]∞ und X02 ⩽ [X]∞ gilt, können wir die bisher bewiesene Ungleichung auf das Martingal X − X0 anwenden, und erhalten 𝔼X ∗ ⩽ 𝔼(X − X0 )∗ + 𝔼|X0 | ⩽ C1 𝔼√[X − X0 ]∞ + 𝔼|X0 | ⩽ C1 𝔼√[X]∞ + 𝔼√[X]∞ .

In Lemma 10.10 und im Beweis von Lemma 10.21 spielen die Ausdrücke √[X]∞ , √[U]∞ , √[V]∞ und X ∗ , U ∗ , V ∗ duale (im Sinne von: austauschbare) Rollen spielen. Daher können wir im Beweis von Lemma 10.21 die Operationen [∙]∞ und (∙)∗ gegeneinander austauschen, und erhalten so die untere Abschätzung in (10.4). Damit ist Satz 10.2 vollständig gezeigt.

Aufgaben 1.

Wir definieren die quadratische Kovariation von zwei adaptierten Prozessen (X n , Fn )n∈ℕ0 und (Y n , Fn )n∈ℕ0 als [X, Y]n := X0 Y0 = ∑ni=1 ∆X i ∆Y i , wobei ∆X i = X i − X i−1 . (a) Zeigen Sie, dass [X, Y] = 41 ([X + Y] − [X − Y]) = 21 ([X + Y] − [X] − [Y]) gilt.

(b) Zeigen Sie, dass [X + Y] ⩽ 2[X] + 2[Y] und √[X + Y] ⩽ √[X] + √[Y] gilt. (c)

Es sei X ein L2 -Martingal. Zeigen Sie, dass [X] − ⟨X⟩ ein Martingal ist.

108 | 10 ⧫Die Burkholder–Davis–Gundy Ungleichungen 2.

3.

Es seien X und Y zwei L2 -Martingale bezüglich derselben Filtration (Fn )n∈ℕ0 . Wir setzen X−1 = Y−1 = 0. Zeigen Sie, dass die Zuwächse ∆X i = X i − X i−1 und ∆Y i = Y i − Y i−1 orthogonal sind, d.h. für alle i, k ∈ ℕ0 gilt 𝔼 (∆X i ∆Y k ) = δ ik 𝔼 (∆X i ∆Y i ) ,

δ ik ist das Kronecker-Symbol.

Vereinfachen Sie den Beweis von Satz 10.6, indem Sie die (etwas schwächere, aber völlig ausreichende) Ungleichung ℙ(|X n | ⩾ t) ⩽ e−t

4.

5.

6.

2 /4d 2 n

.

(Notation wie im Beweis von Satz 10.6) direkt zeigen. Hinweis. Adaptieren Sie den Beweis der Azuma Ungleichung für die iid ZV ξ i und das spezielle Martingal C ∙ X.

Es sei (ξ n )n∈ℕ eine Folge von unabhängigen ZV mit ξ n ⩾ 0 und 𝔼ξ n = a n . Finden Sie eine Bedingung, damit X n := 0, X n := ξ1 + ⋅ ⋅ ⋅ + ξ n ein L1 -beschränktes Submartingal wird, und bestimmen Sie dessen Krickeberg-Zerlegung. Es sei X ein Martingal, dessen Zuwächse durch eine Zahlenfolge (c n )n∈ℕ kontrolliert werden: |∆X n | = |X n − X n−1 | ⩽ c n . Zeigen Sie, dass die BDG Ungleichungen (10.3) für alle p ∈ (0, ∞) gelten. Hinweis. Studieren Sie den Beweis von Satz 10.6. Es sei p ∈ (1, ∞), (X n , Fn )n∈ℕ0 . Zeigen Sie, dass die folgenden Aussagen äquivalent sind: (a) Für alle vorhersagbaren Prozesse (B n )n∈ℕ mit |B n | = 1 gelten die Ungleichungen a p 𝔼 (|B ∙ X n |p ) ⩽ 𝔼 (|X n |p ) ⩽ A p 𝔼 (|B ∙ X n |p )

mit universellen Konstanten.

(b) Die BDG Ungleichungen (10.3) gelten. Anleitung. Die Richtung „(b)⇒(a)“ ist klar. Für die umgekehrte Richtung können Sie z.B. folgendes Randomisierungsargument verwenden. Auf dem Produktraum (Ω × Ω󸀠 , A ⊗ A 󸀠 , ℙ ⊗ ℙ󸀠 ) realisieren wir das Martingal X n (ω) und wählen eine davon unabhängige Folge von iid ZV B n (ω󸀠 ) mit der Verteilung ℙ󸀠 (B n = ±1) = 1/2 (z.B. eine Rademacher-Folge). Dann gilt B ∙ X n (ω, ω󸀠 ) = ∑ni=1 B i (ω󸀠 )∆X i (ω), und wir können die Khintchine Ungleichung verwenden, sowie den Satz von Fubini, um aus (a) die BDG-Ungleichungen zu folgern.

11 Zufällige Irrfahrten auf ℤd – erste Schritte In diesem Kapitel werden wir eine Klasse von einfachen aber trotzdem interessanten stochastischen Prozessen kennenlernen. Zunächst sollten wir aber den Begriff „stochastischer Prozess“ definieren – auch wenn wir diesen bereits in loser Weise für Martingale (X n )n∈ℕ0 und allgemeinere stochastische Folgen verwendet haben.

11.1 Definition. Ein (stochastischer) Prozess ist ein Tupel (Ω, A , ℙ, X i , i ∈ I, E, E ) mit folgenden Einträgen: (Ω, A , ℙ) (E, E ) I Xi : Ω → E

ist ein Wahrscheinlichkeitsraum ist ein Messraum, der Zustandsraum ist eine beliebige Indexmenge ist eine Familie von Zufallsvariablen

Wir verwenden die Kurzschreibweise X = (X i ) = (X i )i∈I . Wenn I geordnet ist, können wir (Ω, A , ℙ) um eine Filtration (Fi )i∈I ergänzen. Wir nennen X adaptiert, wenn X i für jedes i ∈ I eine Fi /E -messbare ZV ist. In diesem Fall schreiben wir X = (X i , Fi ) = (X i , Fi )i∈I . Wenn I geordnet ist, wird I gewöhnlich als Zeit interpretiert, d.h. ein stochastischer Prozess ist eine „zeitliche“ Abfolge von ZV. Wichtig sind folgende Spezialfälle 󳶳 I ist ein Intervall in ℝ – stochastischer Prozess in stetiger Zeit; 󳶳 I ist diskret (z.B. ℕ0 , ℤ) – stochastischer Prozess in diskreter Zeit; 󳶳 E ist diskret (z.B. ℤd ) – diskreter stochastischer Prozess.

Wir werden ausschließlich Indexmengen I ⊂ ℤ und Zustandsräume E = ℝd mit der Borelschen σ-Algebra E = B(E) oder Gitter der Art E = ℤd mit der Potenzmenge E = P(E) betrachten.

Drunkard’s walk und gambler’s ruin Kommen wir nun zur Kapitelüberschrift. In der englischsprachigen Literatur wird die zufällige Irrfahrt als random walk oder drunkard’s walk bezeichnet. Namensgebend ist die Vorstellung, dass wir den Weg eines Betrunkenen aufzeichnen, der auf einer geraden Straße (also in Dimension d = 1) oder auf einem gitterförmigen Netz (z.B. in New York, in Dimension d = 2) zufällig jeweils einen Schritt vorwärts oder rückwärts bzw. an jeder Kreuzung zufällig in eine der vier Himmelsrichtungen geht, also ℙ(Schritt vor) = ℙ(Schritt zurück) =

1 2

für d = 1, und für d = 2

ℙ(nach Norden) = ℙ(nach Süden) = ℙ(nach Westen) = ℙ(nach Osten) = 14 .

Damit erhalten wir zufällige Kurven wie in Abb. 11.1. Wenn wir X0 = 0 als Startpunkt https://doi.org/10.1515/9783110350685-011

110 | 11 Zufällige Irrfahrten auf ℤd – erste Schritte

Abb. 11.1: Zufällige Irrfahrt in Dimension d = 1 und auf den Straßen von New York (d = 2).

festlegen und die Schritte mit (ξ n )n∈ℕ bezeichnen, dann ist X n = ξ1 + ⋅ ⋅ ⋅ + ξ n die Position zur „Zeit“ n. 11.2 Definition. Eine zufällige Irrfahrt (engl. random walk, kurz: RW) ist ein stochastischer Prozess der Form X n = X0 + ξ1 + ⋅ ⋅ ⋅ + ξ n ,

n ∈ ℕ0 ,

wobei X0 , ξ1 , . . . , ξ n unabhängige ZV und die Schritte ξ1 , . . . , ξ n iid ZV sind. Eine Irrfahrt heißt einfach (simple – SRW), wenn X0 ∈ ℤd und ξ1 nur die Werte e ∈ ℤd mit |e| = 1 annimmt, wobei ℙ(ξ1 = e) = p e und ∑|e|=1 p e = 1 gilt. Eine einfache Irrfahrt heißt symmetrisch, wenn p e = 1/(2d) für alle |e| = 1 gilt. 11.3 Bemerkung. Der Definition der zufälligen Irrfahrt entnehmen wir, dass für m < n a) X n − X m = ξ n + ⋅ ⋅ ⋅ + ξ m+1 ⊥⊥ X m = X0 + ξ1 + ⋅ ⋅ ⋅ + ξ m . b) X n − X m = ξ n + ⋅ ⋅ ⋅ + ξ m+1 ∼ X n−m − X0 = ξ1 + ⋅ ⋅ ⋅ + ξ n−m . c) X 󸀠 := (X m+i − X m )i∈ℕ0 ist wieder eine Irrfahrt, X0󸀠 = 0 und X 󸀠 ⊥⊥(X i )0⩽i⩽m , vgl. Abb. 11.2.

Abb. 11.2: Durch die Verschiebung X i󸀠 := X m+i − X m entsteht ein neuer (S)RW, der im neuen Koordinatensystem bei 0 startet, unabhängig von (X0 , X1 , . . . , X m ) ist, sich aber stochastisch wie der ursprüngliche (S)RW (X n )n∈ℕ0 , X0 = 0, verhält.

Wenn die Schritte einer Irrfahrt integrierbar sind, 𝔼|ξ1 | < ∞, dann ist M n = X n − 𝔼X n ein Martingal bezüglich der natürlichen Filtration Fn := σ(X0 , ξ1 , . . . , ξ n ).

11 Zufällige Irrfahrten auf ℤd – erste Schritte | 111

Wenn keine andere Filtration explizit genannt wird, verwenden wir stets die natürliche Filtration Fn = σ(X0 , X1 , . . . , X n ). Wir werden nun die bisher entwickelten Martingaltechniken verwenden, um das Fluktuationsverhalten einer Irrfahrt zu studieren. 11.4 Satz (1. Waldsche Identität). Es sei (X n )n∈ℕ0 , X0 = 0, eine Irrfahrt mit 𝔼|ξ1 | < ∞. Wenn die Schritte f.s. beschränkt sind, d.h. ℙ (supn∈ℕ |ξ n | < ∞) = 1, dann gilt für jede Stoppzeit T mit 𝔼T < ∞ X T ∈ L1

und

𝔼X T = 𝔼T𝔼ξ1 .

(11.1)

Beweis. Es gilt 𝔼X n = ∑ni=1 𝔼ξ i = n𝔼ξ1 . Der Prozess M n := X n − n𝔼ξ1 ist ein Martingal (vgl. Beispiel 3.4.c), das die Voraussetzungen des optional stopping Satzes 4.7.c erfüllt. Daher ist M T ∈ L1 und 𝔼M T = 𝔼M0 , also auch X T ∈ L1 und 𝔼X T = 𝔼T𝔼ξ1 .

Wenn wir an Stelle von Satz 4.7 optional stopping für gleichgradig integrierbare Martingale (Satz 7.12) verwenden, können wir (11.1) für gleichgradig integrierbare Irrfahrten (X n )n∈ℕ0 und Stoppzeiten mit ℙ(T < ∞) = 1 zeigen. Wir wollen noch einen weiteren Fall diskutieren, der auch (11.1) impliziert. 11.5 Satz (2. Waldsche Identität). Es sei (X n )n∈ℕ0 eine Irrfahrt mit X0 = 0 und Schritten ξ n ∈ L2 . Für jede Stoppzeit T mit 𝔼T < ∞ gilt X T ∈ L2

und 𝔼 [(X T − T𝔼ξ1 )2 ] = 𝔼T𝕍ξ1 .

(11.2)

Insbesondere gilt dann auch die 1. Waldsche Identität: 𝔼X T = 𝔼T𝔼ξ1 .

Beweis. Wir wissen, dass M n := X n − n𝔼ξ1 und N n := (X n − n𝔼ξ1 )2 − n𝕍ξ1 Martingale sind, vgl. Beispiel 3.4.c und Aufg. 3.3. Mit Satz 4.4 erhalten wir, dass (N n∧T , Fn )n∈ℕ0 ein Martingal ist, für das 𝔼N n∧T = 0 gilt, und daher folgt 𝔼(M 2n∧T ) = 𝔼(n ∧ T)𝕍ξ1 . Weil M T ein Martingal ist, ist für m ⩽ n 𝔼 [M m∧T M n∧T ]

=

tower

pull out

=

und daher gilt auch

𝔼 [𝔼 (M m∧T M n∧T | Fm )]

𝔼 [M m∧T 𝔼 (M n∧T | Fm )] = 𝔼 [M 2m∧T ] , MG

dom. Konv.

𝔼 [(M n∧T − M m∧T )2 ] = 𝔼 [M 2n∧T − M 2m∧T ] = 𝔼[n ∧ T − m ∧ T]𝕍ξ1 󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀→ 0. m,n→∞

Also ist (M n∧T )n∈ℕ0 eine L2 Cauchy-Folge. Insbesondere gilt supn∈ℕ 𝔼|M nT | < ∞, d.h. wir sehen mit dem Martingalkonvergenzsatz Korollar 5.5.c, dass limn→∞ M n∧T = M T f.s. Wegen der Vollständigkeit von L2 folgt dann L2

M n∧T 󳨀󳨀󳨀󳨀→ M T ∈ L2 n→∞

und

𝔼(M 2T ) = lim 𝔼(M 2n∧T ) = lim 𝔼(n ∧ T)𝕍ξ1 = 𝔼T𝕍ξ1 n→∞

n→∞

112 | 11 Zufällige Irrfahrten auf ℤd – erste Schritte (für den letzten Grenzwert verwenden wir dominierte Konvergenz). Weil Konvergenz in L2 auch Konvergenz in L1 nach sich zieht, gilt außerdem M T ∈ L1

und

𝔼M T = lim 𝔼M n∧T = 0, n→∞

woraus die erste Waldsche Identität folgt. Es sei (X n )n∈ℕ0 , X0 = 0, eine einfache Irrfahrt mit Werten in ℤ. Typische Beispiele für Stoppzeiten sind die Zeiten des ersten Erreichens (engl. (first) passage time) eines Punktes x ∈ ℤ T x = inf{n ∈ ℕ : X n = x}

oder des ersten Austritts (engl. (first) exit time) aus einem Intervall (a, b), a < 0 < b, a, b ∈ ℤ: T(a, b) = inf {n ∈ ℕ : X n ∉ (a, b)} = inf {n ∈ ℕ : X n = a oder X n = b} = T a ∧ T b .

Wie in Beispiel 4.6 sehen wir, dass T x eine Stoppzeit ist, und wegen Bemerkung 4.2.c ist auch T(a, b) = T a ∧ T b eine Stoppzeit.

11.6 Satz. Es seien (X n )n∈ℕ0 , X0 = 0, eine einfache Irrfahrt mit Werten in ℤ und T(a, b) die Austrittszeit aus dem Intervall a < 0 < b, a, b ∈ ℤ. Dann gilt 𝔼T(a, b) < ∞.

Beweis. 1o Wir schreiben p = ℙ(ξ1 = 1). Wenn wir die Irrfahrt bei x ∈ (a, b), x ∈ ℤ, starten, können wir das Intervall (a, b) verlassen, indem wir beispielsweise nacheinander b − x ⩽ b − a Schritte nach rechts gehen. Daher gilt ℙ (x + X b−a ∉ (a, b)) ⩾ p b−x ⩾ p b−a .

2o Weil die Schritte ξ n iid sind, gilt

und daher

X b−a ⊥⊥ (ξ b−a+1 + ⋅ ⋅ ⋅ + ξ2(b−a) ) = X2(b−a) − X b−a ∼ X b−a ,

(11.3)

ℙ (T(a, b) > 2(b − a)) ⩽ ℙ (X b−a ∈ (a, b), X2(b−a) ∈ (a, b)) = 𝔼 [𝟙(a,b) (X b−a ) ⋅ 𝟙(a,b) ((X2(b−a) − X b−a ) + X b−a )]

(11.3)

= ∫ 𝔼 [𝟙(a,b) (x) ⋅ 𝟙(a,b) ((X2(b−a) − X b−a ) + x)] ℙ (X b−a ∈ dx)

A. 11.5 (11.3)

= ∫ 𝟙(a,b) (x) 𝔼 [𝟙(a,b) (X b−a + x)] ℙ (X b−a ∈ dx)

1o

=ℙ(x+X b−a ∈(a,b))

⩽ (1 − p b−a ) ∫ 𝟙(a,b) (x) ℙ (X b−a ∈ dx)

= (1 − p b−a )ℙ (X b−a ∈ (a, b)) ⩽ (1 − p b−a )2 .

11 Zufällige Irrfahrten auf ℤd – erste Schritte | 113

3o Indem wir Schritt 2o iterieren, folgt was dann wegen 𝔼

ℙ (T(a, b) > n(b − a)) ⩽ (1 − p b−a )n ,

n ∈ ℕ,

∞ ∞ 1 − p b−a 1 T(a, b) = ∑ ℙ(T(a, b) > (b − a)n) ⩽ 1 + ∑ (1 − p b−a )n = 1 + = b−a b−a b−a p p n=0 n=1

die Behauptung zeigt.

Wie wir in der Einleitung (Kapitel 1) gesehen haben, können wir eine einfache Irrfahrt auch als Entwicklung des Vermögens eines Spielers interpretieren: ξ i ist die Auszahlung des iten Spiels, X0 ist das Startkapital, und X n das aktuelle Vermögen. In diesem Sinn spricht man vom Ruin des Spielers, wenn X n eine gewisse Schranke („Kreditlimit“) a ⩽ X0 erreicht oder unterschreitet. Entsprechend ist der Gegenspieler (die Bank) bankrott, wenn das Vermögen X n ⩾ b wird. Das erklärt den Namen der folgenden Beispiele. 11.7 Beispiel (Gambler’s Ruin). Es sei (X n )n∈ℕ0 , X0 = 0, eine einfache symmetrische Irrfahrt mit Werten in ℤ, d.h. ℙ(ξ i = ±1) = 12 . Wir interessieren uns dafür, wann X n zum ersten Mal die Position x = 1 erreicht: T1 = inf {n ∈ ℕ : X n = 1} .

Aus Beispiel 4.6 wissen wir, dass T1 eine Stoppzeit mit ℙ(T1 < ∞) = 1 ist, vgl. auch Beispiel 11.10. Obwohl 1 nur einen Schritt von der Startposition entfernt ist, gilt erstaunlicherweise 𝔼T1 = ∞; sonst hätten wir nämlich den Widerspruch (11.1)

1 = 𝔼X T1 = 𝔼T1 𝔼ξ1 = 𝔼T1 ⋅ 0 = 0.

11.8 Beispiel (Gambler’s Ruin – 2). Wie im vorangehenden Beispiel sei (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt mit Werten in ℤ und X0 = 0. Wir interessieren uns dafür, wann X n das Intervall (a, b) mit a < 0 < b, a, b ∈ ℤ verlässt: T(a, b) = inf {n ∈ ℕ : X n ∉ (a, b)} = inf {n ∈ ℕ : X n = a oder X n = b} = T a ∧ T b .

Aus Satz 11.6 wissen wir, dass 𝔼T(a, b) < ∞ gilt, und mit Hilfe der ersten Waldschen Gleichheit erhalten wir aℙ(X T(a,b) = a) + bℙ(X T(a,b) = b) = 𝔼X T(a,b) = 𝔼T(a, b)𝔼ξ1 = 0, ℙ(X T(a,b) = a) + ℙ(X T(a,b) = b) = 1.

Indem wir dieses Gleichungssystem auflösen, sehen wir

−a b und ℙ(X T(a,b) = b) = . b−a b−a Mit der zweiten Waldschen Gleichheit erhalten wir ℙ(X T(a,b) = a) =

𝕍ξ1 𝔼T(a, b) = 𝔼X 2T(a,b) = a2 ℙ(X T(a,b) = a) + b2 ℙ(X T(a,b) = b) = −ab. =1

114 | 11 Zufällige Irrfahrten auf ℤd – erste Schritte

11.9 Beispiel (Gambler’s Ruin – 3). Wir werden nun eine einfache eindimensionale Irrfahrt mit nicht-symmetrischen Schritten ℙ(ξ i = 1) = p, ℙ(ξ i = −1) = q = 1 − p ≠ p untersuchen. In diesem Fall sind M n = X n − 𝔼X n = X n − n(p − q), M0 = 0, und N n := (q/p)X n , N0 = 1, Martingale, vgl. Aufg. 3.4. Die Stoppzeit T(a, b) sei wie im vorangehenden Beispiel definiert. Weil Martingale konstante Erwartungswerte haben, gilt q X T(a,b) q a q b q X0 = ℙ(X T(a,b) = a) ( ) + ℙ(X T(a,b) = b) ( ) , 1 = 𝔼( ) = 𝔼( ) p p p p und indem wir ℙ(X T(a,b) = a) + ℙ(X T(a,b) = b) = 1 verwenden, ergibt sich durch Auflösen ℙ(X T(a,b) = a) =

( pq ) − 1 b

( pq ) − ( pq ) b

a

und ℙ(X T(a,b) = b) =

1 − ( pq )

a

( pq ) − ( pq ) b

a

.

Mit der ersten Waldschen Gleichheit 𝔼X T(a,b) = (p − q)𝔼T(a, b) erhalten wir noch 𝔼T(a, b) =

1 − ( pq ) 1 (b − a)) . (a + b a p−q ( pq ) − ( pq ) a

Indem wir den Grenzübergang b → ∞ ausführen, können wir die Austrittszeit T a aus dem unendlichen Intervall (a, ∞), a < 0, studieren. Eine einfache Rechnung ergibt {( p ) = ( pq ) ℙ(T a < ∞) = lim ℙ(X T(a,b) = a) = { q b→∞ 1 { a

wenn p > q,

|a|

wenn p ⩽ q.

(11.4)

Diese Wahrscheinlichkeit kann folgendermaßen interpretiert werden: ein Spieler (Erfolgswahrscheinlichkeit p) geht mit Wahrscheinlichkeit ℙ(T a < ∞) bankrott (Totalverlust von |a| Euro), wenn er gegen eine unendlich reiche Bank spielt. Kurioserweise kann also in einem für den Spieler vorteilhaften Spiel (p > q) ein Spieler mit minimaler Kreditlinie |a| = 1 mit Wahrscheinlichkeit 1 − pq gegen eine unendlich reiche Bank bestehen. In diesem Fall wird er sogar unendlich reich. Es gilt nämlich ℙ(X n → ∞ | X n ≠ a ∀n) = 1. Wir werden nun die Verteilung von T1 bestimmen. 11.10 Beispiel (Gambler’s Ruin – 4). In Beispiel 4.6 haben wir gezeigt, dass für eine einfache symmetrische Irrfahrt X n = ξ1 + ⋅ ⋅ ⋅ + ξ n und die Stoppzeit T1 die Beziehung 1 = lim 𝔼 [ n→∞

e θX n∧T1

coshn∧T1 θ

] = eθ 𝔼 [

𝟙{T1 0,

(11.5)

11 Zufällige Irrfahrten auf ℤd – erste Schritte | 115

Wenn wir das wiederum in (11.5) einsetzen, sehen wir 𝔼 [cosh−T1 θ] = e−θ ,

θ > 0,

und mit der Substitution e−θ = s−1 (1 − √1 − s2 ) bzw. 2s−1 = e−θ + e θ = 2 cosh θ folgt

1 (11.6) (1 − √1 − s2 ) . s Diese Beziehung erlaubt es uns, die Verteilung von T1 zu bestimmen. Wir bemerken 𝔼 [s T1 ] =

∞ α (1 − x)α = ∑ ( )(−1)n x n , n n=0

und erhalten für α =

|x| < 1,

1 2

{ α⋅(α−1)⋅...⋅(α−n+1) , α n! ( ) := { n 1, {

n > 0, n = 0,

∞ ∞ 1 1 1 1 (1 − √1 − s2 ) = (1 − ∑ ( 2 )(−1)n s2n ) = ∑ ( 2 )(−1)n+1 s2n−1 . n n s s n=1 n=0

i Weil 𝔼 [s T1 ] = ∑∞ i=1 ℙ(T 1 = i)s ist, folgt durch Koeffizientenvergleich 1

ℙ(T1 = 2n − 1) = (−1)n+1 ( 2 ), n

n ∈ ℕ.

Interpretation. Die ZV 12 (T1 + 1) folgt einer negativen Binomialverteilung. Durch einfache algebraische Manipulationen erhalten wir 1 2n − 1 1 1 , (−1)n+1 ( 2 ) = ( ) 2n − 1 n − 1 22n−1 n

n ∈ ℕ.

1 Den Ausdruck 2n−1 (2n−1 n−1 ) auf der rechten Seite gibt die Zahl der Pfade k 󳨃→ X k an, die bei X0 = 0 starten und nach 2n − 1 Schritten zum ersten Mal die 1 erreichen, d.h. es gilt X0 ⩽ 0, . . . , X2n−2 ⩽ 0 und X2n−1 = 1. Diese Anzahl wird in Lemma 12.1, (12.2) mit kombinatorischen Methoden bestimmt, vgl. auch Satz 12.11. Momente von T1 . Wir wollen noch die Momente von T1 untersuchen. Dazu machen wir in (11.6) die Substitution s = e−u , um auf

𝔼e−u(T1 +1) = 1 − √1 − e−2u

zu kommen. Wenn wir das in die bekannte Formel tα =



α du ∫ (1 − e−ut ) 1+α , Γ(1 − α) u 0

0 < α < 1,

(vgl. Abschnitt A.5 im Anhang) einsetzen, erhalten wir mit dem Satz von Tonelli 𝔼 ((T1 + 1)α ) =





α α du du 𝔼 ∫ (1 − e−u(T1 +1) ) 1+α = ∫ (1 − 𝔼e−u(T1 +1) ) 1+α Γ(1 − α) Γ(1 − α) u u 0

=

0 ∞

α du ∫ √1 − e−2u 1+α . Γ(1 − α) u 0

116 | 11 Zufällige Irrfahrten auf ℤd – erste Schritte

Für u → 0 ist √1 − e−2u ≈ √2u, weswegen das letzte Integral für α ⩾ 1/2 divergiert und für α ∈ (0, 1/2) konvergiert. Das zeigt, dass 𝔼 (T1α ) = ∞ für alle α ⩾ 12 gilt.

Rekurrenz und Transienz Für eine zufällige Irrfahrt (X n )n∈ℕ0 mit X0 = 0 kann T0 = inf{n ∈ ℕ : X n = 0} auch als erste Rückkehrzeit zur Startposition interpretiert werden. Wir interessieren uns dafür, mit welcher Wahrscheinlichkeit dieses Ereignis eintritt; T0 = ∞ bedeutet „die Irrfahrt kehrt nie nach X0 = 0 zurück.“ Der folgende Spezialfall motiviert die nachfolgenden tiefergehenden Untersuchungen. 11.11 Satz (Rekurrenz). Es sei (X n )n∈ℕ0 , X0 = 0, eine einfache symmetrische Irrfahrt mit Werten in ℤ. Dann besucht X jede Position x ∈ ℤ mit Wahrscheinlichkeit 1 unendlich oft. Beweis. Offensichtlich ist (X na )n∈ℕ0 , X na := X n + a für jedes a ∈ ℤ wieder eine einfache symmetrische Irrfahrt, die in X0a = a startet. Wir definieren die Stoppzeiten [] T xa = inf{n ∈ ℕ : X na = x} und schreiben a ↷ x, wenn ℙ(T xa < ∞) = 1 gilt. Weil p = q = 21 ist, wissen wir aus (11.4), dass a ↷ x für beliebige x ≠ a gilt. Indem wir die Rollen von a und x vertauschen, folgt ebenso x ↷ a, d.h. wir haben gezeigt a ↷ x ↷ a ↷ x ↷ . . . 󳨐⇒ x ↷ x ↷ x ↷ x ↷ . . .

Für die folgenden Untersuchungen benötigen wir zwei weitere Wahrscheinlichkeiten, für die sich in der Literatur feste Bezeichnungen eingebürgert haben: u n := ℙ(X n = 0)— die Irrfahrt kehrt zur Zeit n nach X0 = 0 zurück,

(11.7)

f n := ℙ(T0 = n)— die Irrfahrt kehrt zur Zeit n erstmalig nach X0 = 0 zurück; (11.8) wir sprechen dann von einer „Exkursion“ von der Null.

Offensichtlich gilt u0 = 1 und f0 = 0.

11.12 Definition. Eine zufällige Irrfahrt (X n )n∈ℕ0 , X0 = 0, mit Werten in ℤd heißt 󳶳 rekurrent, wenn gilt ∑∞ n=1 f n = 1, d.h. ℙ(T 0 < ∞) = 1. ∞ 󳶳 transient, wenn gilt ∑n=1 f n < 1, d.h. ℙ(T0 < ∞) < 1. Transienz kann man so erklären: Die Rückkehrwahrscheinlichkeit ist w = ℙ(T0 < ∞) < 1, d.h. wir können zwar zurückkehren, aber bei der nten Rückkehr ist die W-keit nur w n . Intuitiv hängt das damit zusammen, dass die bei S T0 = 0 „neu gestartete“ Irrfahrt (S T0 +n )n wieder eine Irrfahrt ist, deren Schritte dieselbe Verteilung wie die Schritte von (S n )n∈ℕ haben, und die zudem von (S n )0⩽n⩽T0 unabn hängig ist. Weil die Reihe ∑∞ n=1 w < ∞ konvergiert, folgt aus dem Borel–Cantelli Lemma, dass wir fast sicher nur endlich oft zur Anfangsposition zurückkehren werden. Da dieses Argument für jeden Punkt x ∈ ℤd gilt, folgt |X n | → ∞ für jede transiente Irrfahrt.

11 Zufällige Irrfahrten auf ℤd – erste Schritte | 117

Das folgende einfache Rekurrenzkriterium basiert auf dieser Überlegung. 11.13 Lemma. Eine zufällige Irrfahrt (X n )n∈ℕ0 , X0 = 0, mit Werten in ℤd ist genau dann rekurrent, wenn ∑∞ n=1 u n = ∞. Wir machen uns zunächst klar, was die Bedingung in Lemma 11.13 bedeutet. ∞



n=1

d.h.

∑∞ n=1



∑ u n = ∑ 𝔼𝟙{X n =0} = 𝔼 ∑ 𝟙{X n =0} n=1

n=1

u n zählt die durchschnittliche Zahl der „Besuche“ im Punkt 0.

Beweis von Lemma 11.13. 1o Es gilt: u n = ∑ni=1 f i u n−i , n ⩾ 1. Das folgt aus



u n = ℙ(X n = 0) = ℙ (⋃i=1 {T0 = i} ∩ {X n = 0}) n

n

= ∑ ℙ ({T0 = i} ∩ {X n = 0}) i=1 n

= ∑ ℙ ({X1 ≠ 0, . . . , X i−1 ≠ 0, X i = 0} ∩ {X n = 0}) i=1 n

= ∑ ℙ ({X1 ≠ 0, . . . , X i−1 ≠ 0, X i = 0} ∩ {X n − X i = 0}) i=1 n

= ∑ ℙ (X1 ≠ 0, . . . , X i−1 ≠ 0, X i = 0) ℙ (X n − X i = 0) ∗

i=1 n

n

i=1

i=1

= ∑ ℙ (T0 = i) ℙ (X n−i = 0) = ∑ f i u n−i ; #

an den mit # und ∗ gekennzeichneten Gleichheitszeichen haben wir die Beziehungen X n − X i ∼ X n−i und X1 , . . . , X i ⊥⊥ X n − X i verwendet, die auf Grund der iidVoraussetzung an die Schritte (ξ n )n∈ℕ gelten. 2o Wir betrachten nun für x ∈ (−1, 1) die erzeugenden Funktionen ∞

F(x) := ∑ f n x n n=0

und



|x| < 1.

U(x) := ∑ u n x n , n=0

Wenn wir das Ergebnis von Schritt 1o verwenden, sehen wir ∞



n

∞ ∞

U(x) = ∑ u n x n = 1 + ∑ ∑ f i u n−i x i x n−i = 1 + ∑ ∑ f i x i u n−i x n−i n=0

=1+

n=1 i=1 ∞ ∞ f0 =0 ∑ fi xi ∑ uk xk = i=1 k=0

i=1 n=i

1 + F(x)U(x).

Daher gilt F(x) = 1 −

=limx↑1

∞ 1 1 󳨐⇒ ∑ f n = F(1) = sup F(x) = 1 − lim . U(x) x↑1 U(x) x∈(0,1) n=0

118 | 11 Zufällige Irrfahrten auf ℤd – erste Schritte

Abb. 11.3: Ein Pfad [X0 = 0 → 0] braucht gerade Schrittzahlen in jeder Koordinatenrichtung.

Mithin haben wir F(1−) = 1 ⇐⇒ U(1−) = ∞ und F(1−) < 1 ⇐⇒ U(1−) < ∞, wobei U(1−) = limx↑1 U(x) = supx∈(0,1) U(x). Wir wenden nun Lemma 11.13 auf eine einfache symmetrische Irrfahrt an.

11.14 Satz (Pólya 1921). Es sei (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt mit Werten in ℤd . a) X ist rekurrent, wenn d = 1, 2. b) X ist transient, wenn d ⩾ 3.

Beweis. Wir beginnen mit zwei Vorüberlegungen. (i) Eine Rückkehr zum Start X0 = 0 ist nur mit einer geraden Anzahl von Schritten möglich, da wir in jeder Richtung (Dimension) sowohl hin- als auch zurücklaufen müssen, vgl. Abb. 11.3. Daher reicht es aus, die Konvergenz bzw. Divergenz der Reihe ∑∞ n=1 u 2n zu untersuchen. Indem wir ggf. X n − X0 betrachten, können wir stets X0 = 0 annehmen. (ii) Für große n ≫ 1 können wir die Fakultät sehr gut durch die Stirlingsche Formel n! ≈ √2πn (n/e)n approximieren.

1o Dimension d = 1. Wenn X2n = 0 ist, müssen wir n Schritte vorwärts und n Schritte rückwärts gehen. Da uns die Positionen X i , 1 < i < 2n, nicht interessieren, können wir die n Vorwärts-Schritte beliebig aus den 2n Schritten auswählen, und wir erhalten ℙ(X2n = 0) = (

√2π2n (2n)2n e n e n 1 n 1 2n 1 n 1 n . ( ) = )( ) ( ) ≈ n 2 2 √2πn√2πn e2n n n n n 4 √πn

∞ −1/2 = ∞, also Indem wir die über n ∈ ℕ summieren, folgt ∑∞ n=1 u 2n ≈ ∑n=1 (πn) Rekurrenz.

2o Dimension d = 2. Die Abbildung 11.3 zeigt, dass für X2n = 0

α = #Schritte nach Nord = #Schritte nach Süd β = #Schritte nach West = #Schritte nach Ost

11 Zufällige Irrfahrten auf ℤd – erste Schritte | 119

und n = α + β gelten muss. Wie in 1o ist die genaue Schrittfolge egal, d.h. wir erhalten mit Hilfe des Multinomialkoeffizienten u2n = ∑ ( α+β=n

2

1 2n 1 2n n n 1 2n 1 2n 2n . )( ) = ( )( ) ∑ ( )( ) = [ n ( )] ≈ β n α n 4 4 4 πn α, α, β, β α+β=n

∞ Wieder folgt ∑∞ n=1 u 2n ≈ ∑n=1

=(2n n ) , Aufg. 11.7

1 πn

= ∞, also Rekurrenz.

(

2n 1 2n )( ) 6 α, α, β, β, γ, γ

Dimension d ⩾ 3. Ohne Einschränkung betrachten wir d = 3, den Fall d ⩾ 4 behandelt man analog; alternativ kann man wie in Aufg. 11.11 argumentieren. Für eine Rückkehr zur Null muss in jede Richtung West–Ost, Nord–Süd, oben–unten die Zahl der Schritte jeweils gleich sein, also 2α + 2β + 2γ = 2n. Daher ist

3o

u2n =



α+β+γ=n

=

1 2n n n ( ) ∑ ( )( ) 2n n α, β, γ α, β, γ 6 α+β+γ=n



1 2n n n ( ) max ( ) ∑ ( ) 62n n α+β+γ=n α, β, γ α+β+γ=n α, β, γ

=

=(1+1+1)n =3n , Multinomialformel

3n 2n n ( ) max ( ). 62n n α+β+γ=n α, β, γ

Nun sei n = 3m. Dann gilt [] (

3m 3m )⩽( ) α, β, γ m, m, m

und somit u6m ⩽

Stirling 3m 1 1 33m 6m . ( )( ) ≈ 66m 3m m, m, m 2π√π m√m

∞ Daher gilt ∑∞ m=1 u 6m < ∞. Im Vergleich zu ∑n=1 u 2n fehlen noch die Summanden u6m−2 und u6m−4 . Wir bemerken, dass

{X6m = 0} ⊃ {X6m−2 = 0} ∩ {ξ6m−1 = e} ∩ {ξ6m = −e} für ein e ∈ ℤ3 , |e| = 1, gilt, und dass die drei Ereignisse auf der rechten Seite unabhängig sind. Wenn wir diese Überlegung iterieren, folgt u6m ⩾

1 1 2 1 1 ⋅ ⋅ u6m−2 ⩾ ( ⋅ ) ⋅ u6m−4 . 6 6 6 6

120 | 11 Zufällige Irrfahrten auf ℤd – erste Schritte Mithin haben wir ∞





∑ u2n = ∑ (u6m + u6m−2 + u6m−4 ) ⩽ (1 + 62 + 64 ) ∑ u6m

n=1

m=1

m=1

1333 ∞ 1 ≈ < ∞, ∑ 2π√π m=1 m√m also Transienz.

Aufgaben 1.

Es sei (X n )n∈ℕ0 eine einfache Irrfahrt mit Werten in ℤ. (a) Zeigen Sie, dass {X n − X0 = k} ≠ 0 nur dann gelten kann, wenn entweder n & k gerade oder n & k ungerade sind. Drücken Sie die Zahl der Schritte „nach links“ (l) und „nach rechts“ (r) mit Hilfe von n und k aus. n

2.

3. 4. 5.

6. 7. 8. 9.

1

1

(b) Zeigen Sie, dass ℙ(X n − X0 = k) = ( n+k )p 2 (n+k) q 2 (n−k) gilt. Wie üblich vereinbaren wir 2

(nx) = 0, wenn x ∉ ℕ0 .

Es sei (X n , Fn )n∈ℕ0 eine Irrfahrt. Zeigen Sie, dass die Zufallszeiten T x∘ := inf{n ⩾ 0 : X n = x} und T(a, b) = inf{n > 0 : X n ∉ (a, b)}, a < 0 < b Stoppzeiten sind. Diskutieren Sie den Unterschied zwischen T x∘ und T x := inf{n > 0 : X n = x}. Es sei (X n )n∈ℕ0 , X0 = 0, eine einfache symmetrische Irrfahrt mit Werten in ℤd , d = 1, 2. Zeigen Sie, dass die Irrfahrt jeden Punkt x ∈ ℤd (und nicht nur 0 ∈ ℤd ) unendlich oft besucht. Zeigen Sie, dass für eine positive ZV T : Ω → ℕ0 die Formel 𝔼T = ∑∞ n=0 ℙ(T > n) gilt.

Es seien ξ ⊥⊥ Y unabhängige ZV mit Werten in ℝd . Zeigen Sie, dass für beschränkte f : ℝ2d → ℝ 𝔼f(ξ, ξ + Y) = ∫ 𝔼f(x, x + Y) ℙ(ξ ∈ dx) = ∫ 𝔼f(ξ, ξ + y) ℙ(Y ∈ dy). ℝd

ℝd

Es sei (X n )n∈ℕ0 eine Irrfahrt mit 𝔼|ξ1 | < ∞. Zeigen Sie mit dem SLLN, dass X n −X0 → sgn(p−q)∞ f.s. für p ≠ q. Leiten Sie daraus einen neuen Beweis für ℙ(T x < ∞) = 1 her (p > q, x ∈ ℕ). n n Zeigen Sie die kombinatorische Formel (2n n ) = ∑r+l=n ( r )( l ).

3m 3m Zeigen Sie, dass (a,b,c ) ⩽ (m,m,m ) für alle a + b + c = 3m, a, b, c, m ∈ ℕ0 , gilt.

Adaptieren Sie den Beweis von Satz 11.14 um zu zeigen, dass eine einfache nicht-symmetrische Irrfahrt in Dimension d = 1, 2 transient ist.

10. Es seien (X n )n∈ℕ0 und (Y n )ℕ0 zwei unabhängige einfache symmetrische Irrfahrten auf ℤ und X0 = Y0 = 0. (a) Bestimmen Sie die Verteilung von (X1 , Y1 ). (b) Zeigen Sie, dass in d = 2 ist.

1 R(YX ), R ist eine 45-Grad Drehmatrix, eine einfache symmetrische Irrfahrt √2

11. Es sei X n = (X 1n , . . . , X 4n ), X0 = (0, 0, 0, 0), eine einfache symmetrische Irrfahrt in Dimension 4. Bezeichne mit X̄ n = (X 1n , X 2n , X 3n ) den Prozess der ersten drei Komponenten von X und N(0) := 0

und

N(n) := inf{m > N(n − 1) : X̄ m ≠ X̄ N(n−1) }.

Dann ist Ȳ n = X̄ N(n) eine einfache symmetrische Irrfahrt. Folgern Sie daraus, dass X transient ist.

12. Verwenden Sie die Idee von Aufg. 11.11 um zu zeigen, dass eine beliebige (nicht rotationssymmetrische) einfache Irrfahrt in ℤ2 transient ist.

12 ⧫Fluktuationen einer einfachen Irrfahrt auf ℤ In diesem Kapitel studieren wir das Verhalten der Pfade n 󳨃→ X n (ω) einer einfachen symmetrischen Irrfahrt (X n )n∈ℕ0 in Dimension 1. Wir schreiben [X0 = a → X n = b] für den Pfad (X0 (ω), X1 (ω), . . . , X n (ω)) mit Anfangspunkt X0 (ω) = a und Endpunkt X n (ω) = b, wobei wir „ω“ meistens unterdrücken. Wenn (X n )n∈ℕ0 nicht näher beschrieben wird, handelt es sich um eine einfache symmetrische Irrfahrt mit Werten in ℤ (d.h. ℙ(ξ1 = ±1) = 12 ), die bei X0 = 0 startet. Wir erinnern nochmals an die im vorangehenden Kapitel eingeführten Stoppzeiten (Beispiel 11.7) und Wahrscheinlichkeiten (11.7), (11.8) T x = inf{n ∈ ℕ : X n = x},

u n = ℙ(X n = 0) und

f n = ℙ(T0 = n).

Zunächst berechnen wir die Wahrscheinlichkeit, von X1 = 1 nach X k = x ∈ ℕ zu gelangen, ohne Null (oder negativ) zu werden. 12.1 Lemma (reflection principle; André 1887). Es sei (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt mit Werten in ℤ, die bei X0 = 0 startet, r, l ∈ ℕ0 , l − r > 0 und n = r + l. Dann gilt ℙ(X1 > 0, X2 > 0, . . . , X n−1 > 0, X n = l − r) = 2−n

l−r n ( ). n r

Beweis. Weil es insgesamt 2n Pfade i 󳨃→ X i (ω) der Länge n gibt, die alle gleich wahrscheinlich sind, können wir die Wahrscheinlichkeiten von Pfadmengen durch Zählen der Pfade bestimmen. Weil n = r + l ist, bedeutet X n = l − r, dass wir r Schritte nach rechts und l Schritte nach links machen. Eine einfache Irrfahrt hat nur Schritte der Größe ±1, daher gilt # {X1 > 0, X2 > 0, . . . , X n−1 > 0, X n = l − r}

= # {X1 = 1, X2 > 0, . . . , X n−1 > 0, X n = l − r}

= # {X1 = 1, X n = l − r} − # {X1 = 1, X n = l − r, ∃i ∈ [2, n − 1] : X i = 0} . alle Pfade X1 =1→X n =l−r

alle Pfade X1 =1→X n =l−r, die irgendwann 0 werden

Der Abbildung 12.1 entnehmen wir, dass

# {X1 = 1, X n = l − r, ∃i ∈ [2, n − 1] : X i ⩽ 0} = # {X1 = −1, X n = l − r} .

(12.1)

In der Tat: Es sei τ = T0 die Zeit der ersten Rückkehr zur 0. Dann zeigt die 1 : 1– Korrespondenz 1:1

(X1 , X2 , . . . , X τ , X τ+1 , . . . , X n ) ←󳨀󳨀→ (−X1 , −X2 , . . . , −X τ , X τ+1 , . . . , X n )

https://doi.org/10.1515/9783110350685-012

122 | 12 ⧫Fluktuationen einer einfachen Irrfahrt auf ℤ Abb. 12.1: Reflektionsprinzip von D. André: Jeder Pfad [X0 = 0 → X n = l − r], der mit einer positiven Exkursion [X0 = 0 → X τ = 0] startet, besitzt einen „Schattenpfad,“ der mit einer negativen Exkursion startet; daher gibt es genauso viele Pfade [X1 = 1 → X n = l − r], die Null (oder negativ) werden, wie es Pfade [X1 = −1 → X n = l − r] gibt.

dass es zu jedem Pfad [X1 = 1 → X n = l − r], der mindestens einmal 0 wird, einen Pfad [X1 = −1 → X n = l − r] gibt – und umgekehrt. Weil n = r + l ist, folgt #{X1 > 0,X2 > 0, . . . , X n−1 > 0, X n = l − r}

= # {X1 = 1, X n = l − r} − # {X1 = −1, X n = l − r}

=(

n−1 n−1 l−r n ( ). )−( )= n r r−1 r

(12.2)

Weitere typische Anwendungen des Reflektionsprinzips sind die folgenden Resultate. 12.2 Korollar. ℙ ( max X k ⩾ x) = ℙ (X n ⩾ x) + ℙ (X n > x) für alle x ∈ ℕ. 0⩽k⩽n

Beweis. Wir haben ℙ ( max X k ⩾ x) = ℙ ( max X k ⩾ x, X n ⩾ x) + ℙ ( max X k ⩾ x, X n < x) 0⩽k⩽n

0⩽k⩽n

0⩽k⩽n

= ℙ (X n ⩾ x) + ℙ ( max X k ⩾ x, X n < x) . 0⩽k⩽n

Die Abbildung 12.2 zeigt, dass es nach dem ersten Erreichen des Niveaus x, genauso viele Pfade [X τ = x → X n < x] wie [X τ = x → X n > x] gibt. Wenn max0⩽k⩽n X k ⩾ x, dann ist τ ⩽ n, und wir haben ℙ ( max X k ⩾ x, X n < x) = ℙ ( max X k ⩾ x, X n > x) = ℙ (X n > x) . 0⩽k⩽n

0⩽k⩽n

12.3 Korollar (ballot theorem; Bertrand 1887). Bei einer Wahl hat Kandidat L genau l Stimmen, Kandidat R hat r Stimmen. Es sei r < l. Die Wahrscheinlichkeit, dass während der gesamten Auszählung L mehr Stimmen als R hat ist (l − r)/(l + r).

Beweis. Wir interpretieren den Pfad i 󳨃→ X i , i = 1, 2, . . . , n als Auszählung der Stimmen. Damit L immer einen Vorsprung hat, muss [X1 = 1 → X n = l − r] stets im positiven Bereich verlaufen. Um X n = l − r zu erhalten, müssen wir r Stimmen für R und l Stimmen für L gezählt haben – und dafür gibt es (nr) = (l+r r ) Möglichkeiten. Die

12 ⧫Fluktuationen einer einfachen Irrfahrt auf ℤ

| 123

Abb. 12.2: Nach dem ersten Erreichen des Niveaus x zur Zeit τ gibt es genauso viele Pfade [X τ = x → X n < x] wie es Pfade [X τ = x → X n > x] gibt.

gesuchte Wahrscheinlichkeit können wir mit Hilfe von Lemma 12.1 berechnen: ℙ(X1 > 0, . . . , X n−1 > 0 | X n = l − r) = =

ℙ(X1 > 0, . . . , X n−1 > 0, X n = l − r) ℙ(X n = l − r)

n 2−n l−r n (r)

2−n (nr)

=

l−r . l+r

12.4 Satz (Martingalversion des ballot theorem). Es sei (Y n )n∈ℕ0 , Y0 = 0 eine beliebige Irrfahrt mit ℕ0 -wertigen iid Schritten (η n )n∈ℕ . Es gilt ℙ (Y i < i ∀i = 1, . . . , n | Y n ) = (1 − 1n Y n ) , +

n ∈ ℕ.

Beweis. Für Y n (ω) ⩾ n ist die Aussage trivial, d.h. wir müssen nur den Fall Y n (ω) < n betrachten. In Beispiel 5.8 haben wir gesehen, dass M ν :=

1 Y i , Fν := σ(Y|ν| , . . . , Y n ), i

−ν = i = n, n − 1, . . . , 1,

ein Martingal ist. Für die Stoppzeit

τ := inf {ν ⩾ −n : M ν ⩾ 1} ∧ (−1),

inf 0 = ∞,

und alle ω ∈ {Y n < n} gilt M τ (ω) ∈ {0, 1}. Das sieht man so: 󳶳 Fall 1: ω ∈ ⋂n−1 i=1 {Y i < i} und ω ∈ {Y n < n}. Offensichtlich ist τ(ω) = −1 und weil Y1 nur Werte in ℕ0 hat und Y1 (ω) < 1 ist, folgt M τ (ω) = M−1 (ω) = Y1 (ω) = 0. 1 󳶳 Fall 2: ω ∉ ⋂n−1 i=1 {Y i < i} und ω ∈ {Y n < n}. Es gilt ω ∈ {max1⩽i⩽n i Y i ⩾ 1}. Wäre M τ (ω) > 1, dann hätten wir Y−τ (ω) > −τ(ω), also Y−τ (ω) ⩾ 1 − τ(ω), und wegen der Positivität der Schritte gilt Y1−τ (ω) = Y1−τ (ω) − Y−τ (ω) +Y−τ (ω) ⩾ Y−τ (ω) ⩾ 1 − τ(ω). ⩾0

Das zeigt M τ−1 (ω) ⩾ 1, im Widerspruch zur Minimalität von τ. Andererseits haben wir

{M τ = 1} ∩ {Y n < n} = {max1⩽i⩽n 1i Y i ⩾ 1} ∩ {Y n < n}.

124 | 12 ⧫Fluktuationen einer einfachen Irrfahrt auf ℤ

Weil 𝟙{M τ =1} = M τ = M τ∨(−n) auf {Y n < n} gilt, erhalten wir mit Satz 4.10 (optional sampling) 𝟙{Y n 0} , p2k,2n = ℙ (γ2n = 2k) .

(12.3)

12.5 Lemma. Für eine einfache symmetrische Irrfahrt gilt p2k,2n = u2k u2n−2k , 0 ⩽ k ⩽ n. 1 n−k 1 k ∑ f2i p2(k−i),2(n−i) + ∑ f2i p2k,2(n−i) . 2 i=1 2 i=1 Aus dem Beweis von Lemma 11.13, Schritt 1o , wissen wir, dass

Beweis. 1o Es gilt p2k,2n =

k

u2k = ∑ f2i u2(k−i) . i=1

(12.4)

Den Ausdruck f2i u2(k−i) können wir mit Hilfe von Abb. 12.3 veranschaulichen: Die Zahl der Pfade, die mit einer positiven Exkursion X0 = 0, X1 > 0, . . . , X2i−1 > 0, X2i = 0 starten, ist 1 2i (2 f2i ) ⋅ 22(n−i) p2k−2i,2n−2i , 2

i = 1, 2, . . . , k.

12 ⧫Fluktuationen einer einfachen Irrfahrt auf ℤ

| 125

Abb. 12.3: Damit p2k,2n > 0 ist, muss ein Pfad 0 passieren, z.B. bei 2i. Er kann mit einer positiven (wie hier gezeigt) oder einer negativen Exkursion starten.

Beachte, dass eine positive Exkursion bereits 2i ⩽ 2k Positivzeiten enthält, d.h. 22(n−i) p2k−2i,2n−2i zählt die verbleibenden 2k − 2i Positivzeiten in den restlichen 2n − 2i Schritten. Mit einer negativen Exkursion, also X0 = 0, X1 < 0, . . . , X2i−1 < 0, X2i = 0 beginnen 1 2i (2 f2i ) ⋅ 22(n−i) p2k,2n−2i , i = 1, . . . , n − k, 2 Pfade. Indem wir diese beiden Ergebnisse summieren und dann durch 22n dividieren, erhalten wir die Behauptung. 2o Für alle 0 ⩽ k ⩽ n gilt p2k,2n = u2k u2n−2k . Wir zeigen die Behauptung mit Induktion nach n. Für n = 1 und k = 0, 1 ist die Aussage wegen p0,2 = p2,2 = 21 = u2 klar. Induktionsannahme: p2k,2m = u2k u2m−2k gelte für 0 ⩽ k ⩽ m und 1 ⩽ m ⩽ n − 1. Induktionsschritt: n − 1 󴁄󴀼 n 1o

p2k,2n = =

IA

(12.4)

=

1 n−k 1 k ∑ f2i p2(k−i),2(n−i) + ∑ f2i p2k,2(n−i) 2 i=1 2 i=1

k n−k 1 1 u2n−2k ∑ f2i u2k−2i + u2k ∑ f2i u2n−2i−2k 2 2 i=1 i=1

1 1 u2n−2k u2k + u2k u2n−2k . 2 2

Mit Hilfe von Lemma 12.5 können wir die Verteilung der Positivzeiten bestimmen. 12.6 Satz (Arkussinusgesetz). Es sei (X n )n∈ℕ0 , X0 = 0 eine einfache symmetrische Irrfahrt mit Werten in ℤ. Die Wahrscheinlichkeit, dass im Zeitraum [0, 2n] maximal 2nt Zeiteinheiten positiv sind, ist 2π arcsin √t wenn n → ∞. Genauer: lim ℙ {0
0 und alle ϵ < t < 1 gilt wegen Lemma 12.5 ℙ {ϵ
0) 2 n

= ∑ ℙ(X1 > 0, . . . , X2n−1 > 0, X2n = 2i) i=1

n

= 2−2n ∑ [( i=1

2n − 1 2n − 1 )−( )] . n+i−1 n+i

Die letzte Gleichheit folgt aus der Beziehung (12.2) und der Beobachtung, dass es insgesamt 22n verschiedene Pfade (X0 , . . . , X2n ) gibt. Weil die Summe eine Teleskopsumme ist, folgt ℙ(X1 ≠ 0, . . . , X2n ≠ 0) = 2 ⋅ 2−2n (

2n − 1 2n ) = 2−2n ( ) = ℙ(X2n = 0). n n

128 | 12 ⧫Fluktuationen einer einfachen Irrfahrt auf ℤ

Abb. 12.6: Durch Spiegelung an der Achse l = x sieht man, dass die Zahl der Pfade [X0 = 0 → X n = k, M n ⩾ x ⩾ k] der Zahl von Pfaden [X0 = 0 → X n = 2x − k] entspricht.

Wir schließen dieses Kapitel mit einigen weiteren Anwendungen des Reflektionsprinzips. 12.9 Lemma. Es sei (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt, die bei X0 = 0 startet, und M n := maxi⩽n X i das bisher erreichte Maximum. Für k ⩽ x ∈ ℤ gilt a) ℙ(X n = k, M n ⩾ x) = ℙ(X n = 2x − k); b) ℙ(X n = k, M n = x) = ℙ(X n = 2x − k) − ℙ(X n = 2x + 2 − k).

Beweis. Die Gleichheit a) lässt sich unmittelbar aus der Abbildung 12.6 ablesen: Jeder Pfad [X0 = 0 → X n = k, M n ⩾ x ⩾ k] muss das Niveau x erreichen oder übertreffen. Wenn wir diese Pfade an der Achse l = x spiegeln, sehen wir, dass wir damit einen beliebigen Pfad [X0 = 0 → X n = 2x − k] erhalten – und umgekehrt. Teil b) folgt aus der einfachen Beobachtung, dass {X n = k, M n = x} = {X n = k, M n ⩾ x} \ {X n = k, M n ⩾ x + 1}.

Indem wir die Beziehung in Lemma 12.9.b über alle ganzen Zahlen k ⩽ x summieren – weil |X n | ⩽ n gilt, ist die Summation endlich – und die entstehende Teleskopsumme auswerten, erhalten wir 12.10 Satz. Es sei (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt, die bei X0 = 0 startet, und M n := maxi⩽n X i das bisher erreichte Maximum. Dann gilt {ℙ(X n = x), ℙ(M n = x) = ℙ(X n = x) + ℙ(X n = x + 1) = { ℙ(X n = x + 1), {

n + x gerade,

n + x ungerade.

Mit Hilfe von Lemma 12.9 können wir auch die Verteilung der „first passage times“ T x bestimmen. 12.11 Satz. Es sei (X n )n∈ℕ0 , X0 = 0, eine einfache symmetrische Irrfahrt und T x := inf{i > 0 : X i = x} die erste Besuchszeit der Stelle x ∈ ℕ. Es gilt x n { { ( n+x )2−n , 1 n ℙ(T x = n) = (ℙ(X n−1 = x − 1) − ℙ(X n−1 = x + 1)) = { 2 { 2 0, {

n + x gerade,

sonst.

| 129

12 ⧫Fluktuationen einer einfachen Irrfahrt auf ℤ

Beweis. Wenn n + x gerade ist, gilt offensichtlich

{T x = n} = {X1 < x, . . . , X n−1 < x, X n = x}

= {X1 < x, . . . , X n−2 < x, X n−1 = x − 1, X n = x} = {M n−1 = x − 1, X n−1 = x − 1, X n − X n−1 = 1}.

Im Hinblick auf Lemma 12.9.b erhalten wir ℙ(T x = n)

=

ℙ (M n−1 = x − 1, X n−1 = x − 1, X n − X n−1 = 1)

=

1 (ℙ (X n−1 = x − 1) − ℙ (X n−1 = x + 1)) 2 n−1 x n n−1 2−n (( n+x−2 ) − ( n+x )) = 2−n ( n+x ). n 2 2 2

=

iid 12.9.b

=

ℙ (X n − X n−1 = 1) ⋅ ℙ (M n−1 = x − 1, X n−1 = x − 1)

Zum Abschluss bestimmen wir die Verteilung des kten Besuches der Null, (0)

T0 := 0

und

T0 := min {i > T0 (k)

(k−1)

: X i = 0} .

12.12 Satz. Es sei (X n )n∈ℕ0 , X0 = 0, eine einfache symmetrische Irrfahrt, T0 der Zeitpunkt der kten Rückkehr zur Anfangsposition X0 = 0, und T x der Zeitpunkt des ersten Erreichens der Stelle x. Dann gilt (k) ℙ (T0

(k)

k n−k { ( n )2−n+k , { n − k = n) = ℙ (T k = n − k) = { 2 { 0, {

n gerade, sonst.

Beweis. Wir schreiben R k,n := {T0 = n} und R−k,n = {T0 = n, X1 ⩽ 0, . . . , X n ⩽ 0}. Ein Pfad aus der Menge R k,n besteht aus k Exkursionen von der Null, vgl. Abb. 12.7. Wir nehmen zunächst an, dass alle Exkursionen „nach unten“ gehen, also aus der Menge R−k,n stammen. Zu einem Pfad aus R−k,n konstruieren wir einen neuen Pfad der Länge n − k, indem wir jeweils den ersten Schritt nach Erreichen der Null weglassen: (k)

n

(k)

X n = ∑ ξ i 󴁄󴀼 X 󸀠n−k := i=1

∑ ξi . i=1,...,n (0) (k−1) i=T ̸ 0 +1,...,T0 +1

Der neue Pfad ist [X0󸀠 = 0 → X 󸀠n−k = k]. Die Zeiten T0 , T0 , . . . entsprechen im neuen Pfad den Zeiten T1 , T2 , . . . , T k , an denen das Niveau x = 1, . . . , k zum ersten Mal erreicht wird. Umgekehrt können wir aus jedem Pfad [X0󸀠 = 0 → X 󸀠n−k = k] einen Pfad aus R−k,n gewinnen, indem wir nach jedem ersten Erreichen des Niveaus x = 0, . . . , k − 1 einen Schritt nach unten einfügen. (1)

(2)

130 | 12 ⧫Fluktuationen einer einfachen Irrfahrt auf ℤ

Abb. 12.7: Jeder Pfad der Länge n mit k < n Besuchen der Null kann mit einem Pfad 󸀠 [X0󸀠 = 0 → X n−k = k] der Länge n − k identifi(i)

ziert werden. Die Zeiten T0 entsprechen den Zeiten T i , an denen der neue Pfad das Niveau i erreicht.

Einen beliebigen Pfad aus der Menge R k,n können wir in einen Pfad aus der Menge R−k,n transformieren, indem wir alle nach oben gehenden Exkursionen von der Null „nach unten klappen“; diese Operation ist offenbar reversibel. Bei insgesamt k Exkursionen haben wir 2k Entscheidungsmöglichkeiten (nach oben klappen oder nicht), also ist #R k,n = 2k ⋅ #R−k,n . Insgesamt haben wir daher ℙ (T0 = n) = 2k ℙ (T0 = n, X1 ⩽ 0, . . . , X n ⩽ 0) (k)

= 2k

(k)

#R−k,n 2n

= 2k

#{T k = n − k} = ℙ(T k = n − k). 2n

Aufgaben 1.

2.

Es sei (X n )n∈ℕ0 , X0 = 0, eine einfache symmetrische Irrfahrt auf ℤ, und T0 die erste Rückkehrzeit 1 nach 0. Zeigen Sie, dass ℙ(σ2n = 2k) = f2k = 2k u2(k−1) gilt. Hinweis. Bestimmen Sie mit Hilfe (des Beweises) von Lemma 12.1 die Anzahl der Pfade, die der Bedingung X1 > 0, . . . , X2k−2 > 0, X2k−1 = 1 genügen. Es sei (X n )n∈ℕ0 , X0 = 0, eine einfache symmetrische Irrfahrt auf ℤ. Zeigen Sie ℙ(X1 ⩾ 0, . . . , X2n−1 ⩾ 0) = 2ℙ(X1 > 0, . . . , X2n > 0),

3. 4.

ℙ(X1 ⩾ 0, . . . , X2n ⩾ 0) = ℙ(X2n = 0).

Finden Sie mit Hilfe von Korollar 12.2 einen alternativen Beweis für die Formel für ℙ(M n = x) aus Satz 12.10. (k)

Zeigen Sie, dass die kte Rückkehrzeit T0 zur 0 eine Stoppzeit ist. Ist die letzte Besuchszeit der Null, L0 := max{i ∈ [0, 2n] : X i = 0}, eine Stoppzeit?

13 Rekurrenz und Transienz allgemeiner Irrfahrten In diesem Kapitel betrachten wir zufällige Irrfahrten X n = X0 + ξ1 + ⋅ ⋅ ⋅ + ξ n auf ℝd , deren Schritte (ξ n )n∈ℕ beliebige iid ZV sind. Insbesondere muss sich (X n )n∈ℕ0 nicht mehr auf einem Gitter wie ℤd bewegen. Wir nehmen an, dass X n nichttrivial ist, d.h. ℙ(ξ1 = 0) ≠ 1.

Der Satz von Chung–Fuchs für integrierbare Irrfahrten Beim Studium von Summen unabhängiger ZV haben wir in [WT, Satz 10.20] folgenden Satz gezeigt, den wir erneut mit den Mitteln dieses Buchs beweisen werden. 13.1 ⧫ Satz. Es sei (X n )n∈ℕ0 , X0 = 0, eine nichttriviale Irrfahrt mit Werten in ℝ. Dann gilt eine der folgenden Alternativen: a) limn→∞ X n = +∞ f.s. b) limn→∞ X n = −∞ f.s. c) −∞ = lim inf n→∞ X n < lim supn→∞ X n = +∞ f.s.

Beweis. Die Funktion Φ∗ (ξ1 , ξ2 , . . . ) := lim supn→∞ (ξ1 + ⋅ ⋅ ⋅ + ξ n ) ist im Sinne von Kapitel 8.3 symmetrisch. Das 0-1–Gesetz von Hewitt–Savage (Satz 8.7) zeigt, dass die Funktion Φ∗ ≡ c∗ ∈ [−∞, +∞] f.s. konstant ist. Wir setzen ξ n󸀠 := ξ n+1 ,

X 󸀠n := ξ1󸀠 + ⋅ ⋅ ⋅ + ξ n󸀠 ,

X0󸀠 := 0.

Dann ist (X 󸀠n )n∈ℕ0 wiederum eine Irrfahrt, deren Schrittfolge (ξ n󸀠 )n∈ℕ dieselbe Verteilung wie (ξ n )n∈ℕ hat. Daher gilt c∗ = lim sup X 󸀠n = lim sup(X n − ξ1 ) = lim sup X n − ξ1 = c∗ − ξ1 . f.s.

f.s.

n→∞

n→∞

n→∞

Weil ξ1 nicht konstant Null ist, folgt |c∗ | = ∞. Das gleiche Argument können wir für den limes inferior verwenden, und wir sehen | lim inf n→∞ (ξ1 + ⋅ ⋅ ⋅ + ξ n )| = |c∗ | = ∞. Da lim inf n→∞ X n (ω) = ∞ und lim supn→∞ X n (ω) = −∞ nicht gleichzeitig eintreten können, entsprechen c∗ = c∗ = ±∞ und c∗ < c∗ den Alternativen a)–c). Wenn die Irrfahrt integrierbare Schritte hat, dann treten die Alternativen a)–c) in Satz 13.1 genau in den Fällen 𝔼ξ1 > 0, 𝔼ξ1 < 0 und 𝔼ξ1 = 0 auf. Für Irrfahrten mit f.s. beschränkten Schritten gibt es einen einfachen Martingalbeweis, den allgemeinen Fall behandeln wir in Korollar 13.8.

13.2 ⧫ Satz (Chung–Fuchs ‘light’). Für eine nichttriviale Irrfahrt (X n )n∈ℕ0 , X0 = 0, mit Werten in ℝ und f.s. beschränkten Schritten gilt a) 𝔼ξ1 > 0 ⇐⇒ limn→∞ X n = +∞ f.s. b) 𝔼ξ1 < 0 ⇐⇒ limn→∞ X n = −∞ f.s. c) 𝔼ξ1 = 0 ⇐⇒ −∞ = lim inf n→∞ X n < lim supn→∞ X n = +∞ f.s. https://doi.org/10.1515/9783110350685-013

132 | 13 Rekurrenz und Transienz allgemeiner Irrfahrten Beweis. Nach Voraussetzung gibt es eine Konstante a, so dass ℙ(|ξ1 | ⩽ a) = 1. Insbesondere existiert also 𝔼ξ1 . Weil die linken Seiten der drei Bedingungen a)–c) eine vollständige Fallunterscheidung sind, genügt es, jeweils nur „⇒“ zu zeigen. Mit Hilfe des Kolmogorovschen starken Gesetzes der großen Zahlen – Satz 8.6 oder [WT, Satz 12.4], es reicht hier sogar die L4 -Version [WT, Satz 10.3], – erhalten wir f.s. lim

n→∞

{+∞, Xn = 𝔼ξ1 󳨐⇒ lim X n = { n→∞ n −∞, {

𝔼ξ1 > 0,

𝔼ξ1 < 0,

und es folgt die Richtung „⇒“ in den Alternativen a) bzw. b). Wenn 𝔼ξ1 = 0 gilt, dann ist (X n )n∈ℕ0 ein L2 -Martingal. Weil die Zuwächse (Schritte) ξ n = X n − X n−1 f.s. beschränkt sind, genügt X der Bedingung (5.4), und gemäß Korollar 5.10 gilt die Alternative ℙ (∃ limn X n ∈ ℝ) = 1 oder ℙ (−∞ = lim inf n X n < lim supn X n = +∞) = 1. Wegen Satz 13.1 können wir die erste Möglichkeit ausschließen, d.h. wir haben die Richtung „⇒“ in c) gezeigt. Um die Bedingung „f.s. beschränkte Schritte“ im Satz 13.2 aufgeben zu können, benötigen wir weitere Hilfsmittel. Der folgende Satz verallgemeinert Bemerkung 11.3. 13.3 Satz (Starke Markov-Eigenschaft (SME)). Es seien (X n )∈ℕ0 , X0 = 0, eine Irrfahrt mit Werten in ℝd und Fn = σ(ξ1 , . . . , ξ n ) = σ(X1 , . . . , X n ). Für jede Stoppzeit T und beliebige F ∈ FT gilt ℙ ({X n+T − X T ∈ B} ∩ F ∩ {T < ∞}) = ℙ (X n ∈ B) ℙ(F ∩ {T < ∞})

für alle n ∈ ℕ und B ∈ B(ℝd ), m

m

i=1

i=1

(13.1)

ℙ [⋂ {X n(i)+T − X T ∈ B i } ∩ F ∩ {T < ∞}] = ℙ [⋂ {X n(i) ∈ B i }] ℙ(F ∩ {T < ∞}) (13.2)

für alle n(1) < ⋅ ⋅ ⋅ < n(m) und B1 , . . . , B m ∈ B(ℝd ), und

ℙ({X∙+T − X T ∈ Γ} ∩ F ∩ {T < ∞}) = ℙ (X∙ ∈ Γ) ℙ(F ∩ {T < ∞})

für alle Γ ∈ B(ℝd )⊗ℕ .



Beweis. Im Folgenden verwenden wir, dass F ∩ {T < ∞} = ⋃k∈ℕ0 F ∩ {T = k}. 1o Beweis von (13.1). Für F 󸀠 ∈ FT gilt wegen der Definition von FT F ∩ {T = k} = F ∩ {T ⩽ k} ∩ {T ⩽ k − 1}c ∈ Fk . ∈Fk

∈Fk−1

(13.3)

13 Rekurrenz und Transienz allgemeiner Irrfahrten | 133

Weil die Schritte der Irrfahrt iid sind, gilt X n+k − X k ∼ X n und X n+k − X k ⊥⊥ Fk , d.h. ∞

ℙ({X n+T − X T ∈ B} ∩ F ∩ {T < ∞}) = ∑ ℙ({X n+k − X k ∈ B} ∩ {T = k} ∩ F) k=0 ∞

= ∑ ℙ (X n ∈ B) ℙ({T = k} ∩ F)

iid

k=0

= ℙ (X n ∈ B) ℙ(F ∩ {T < ∞}).

2o Beweis von (13.2). Wie in Schritt 1o haben wir m

ℙ (⋂ {X n(i)+T − X T ∈ B i } ∩ F ∩ {T < ∞}) i=1



m

= ∑ ℙ (⋂ {X n(i)+k − X k ∈ B i }) ℙ({T = k} ∩ F) k=0 ∞

i=1 m

= ∑ ℙ (⋂ {X n(i) ∈ B i }) ℙ({T = k} ∩ F), ?!

k=0

i=1

wobei wir noch die mit „?!“ markierte Gleichheit zeigen müssen. O.E. sei m = 2, wir schreiben n = n(1) < n(2) = n󸀠 und B = B1 , B󸀠 = B2 . Weil die Schritte der Irrfahrt iid sind, gilt ℙ(X n+k − X k ∈ B, X n󸀠 +k − X k ∈ B󸀠 )

= ℙ(X n+k − X k ∈ B, (X n󸀠 +k − X n+k ) + (X n+k − X k ) ∈ B󸀠 )

= ∫ ℙ( X n+k − X k ∈ B, y + (X n+k − X k ) ∈ B󸀠 ) ℙ( (X n󸀠 +k − X n+k ) ∈ dy)

iid

∼X n

∼X n

= ∫ ℙ(X n ∈ B, y + X n ∈ B ) ℙ((X n󸀠 − X n ) ∈ dy) 󸀠

∼X n󸀠 −X n

= ℙ(X n ∈ B, X n󸀠 − X n + X n ∈ B󸀠 ).

iid

3o Für festes F ∈ FT sind

μ(Γ) := ℙ({X∙+T − X T ∈ Γ} ∩ F ∩ {T < ∞})

und

ν(Γ) = ℙ(X∙ ∈ Γ)ℙ(F ∩ {T < ∞})

endliche Maße auf der unendlichen Produkt-σ-Algebra B(ℝd )⊗ℕ . Diese σ-Algebra wird erzeugt von der Familie 󵄨󵄨 󵄨󵄨 G := {⨉ B i 󵄨󵄨󵄨 B i ∈ B(ℝd ), nur endlich viele B i ≠ ℝd } , 󵄨󵄨 i∈ℕ 󵄨

d.h. (13.2) besagt, dass μ und ν auf G übereinstimmen. Da G ∩-stabil ist [] und den Gesamtraum (ℝd )ℕ enthält, sind die Bedingungen des Maßeindeutigkeitssatzes [MI, Satz 4.5] erfüllt, und es folgt μ = ν und somit (13.3).

134 | 13 Rekurrenz und Transienz allgemeiner Irrfahrten Wir benötigen die folgenden Begriffe, mit denen wir die Punkte, die eine Irrfahrt besuchen kann, und die Häufigkeit dieser Besuche beschreiben können. 13.4 Definition. Für eine Irrfahrt (X n )∈ℕ0 , X0 = 0, mit Werten in ℝd heißen a)



B 󳨃→ v(B) = ∑ 𝟙B (X n )

occupation measure;

n=0 ∞

b) B 󳨃→ 𝔼v(B) = ∑ ℙ(X n ∈ B) c)

n=0 d

A = ⋂ {x ∈ ℝ : 𝔼v(B ϵ (x)) > 0} ϵ>0

M = ⋂ {x ∈ ℝd : 𝔼v(B ϵ (x)) = ∞} ϵ>0

mean occupation measure; accessible points; mean recurrence set;

R = ⋂ {x ∈ ℝd : v(B ϵ (x)) = ∞ f.s.} recurrence set. ϵ>0

Weil die Irrfahrt X n keinen diskreten Zustandsraum haben muss, können wir die Resultate aus Kapitel 11 nicht anwenden. 13.5 Satz (Rekurrenz–Transienz Dichotomie; Chung & Fuchs 1951). Es sei (X n )n∈ℕ0 , X0 = 0, eine Irrfahrt mit Werten in ℝd . Dann gilt die folgende Alternative a) Rekurrenz, d.h. ℙ(limn→∞ |X n | = ∞) < 1. In diesem Fall ist R = M = A eine abgeschlossene, nicht-leere Untergruppe von (ℝd , +). b) Transienz, d.h. ℙ(limn→∞ |X n | = ∞) = 1. In diesem Fall ist R = M = 0. Weil ℙ(limn→∞ |X n | = ∞) < 1 und ℙ(limn→∞ |X n | = ∞) = 1 eine vollständige Fallunterscheidung ist, gilt sogar: 󳶳 ℙ(limn→∞ |X n | = ∞) < 1 ⇐⇒ R = M = A ≠ 0 ist eine abgeschlossene Untergruppe von (ℝd , +); 󳶳 ℙ(limn→∞ |X n | = ∞) = 1 ⇐⇒ R = M = 0.

Beweis. Alternative b): Es sei ℙ( limn→∞ |X n | = ∞) = 1. Mit der Dreiecksungleichung erhalten wir für alle r > 0 und k, n ∈ ℕ |X n | < r & |X n+k − X n | ⩾ 2r 󳨐⇒ |X n | < r & |X n+k | ⩾ |X n+k − X n | − |X n | > 2r − r = r.

Für jedes r > 0 gibt es ein m = m(r) ∈ ℕ, so dass ℙ(|X k | ⩾ 2r ∀k ⩾ m) > 0. Nun gilt ℙ(A n )

=

ℙ( {|X n | < r & |X n+k | ⩾ r ∀k ⩾ m} )



ℙ(|X n | < r & |X n+k − X n | ⩾ 2r ∀k ⩾ m)

=

SME 13.3

=:A n

ℙ (|X n | < r) ℙ(|X k | ⩾ 2r ∀k ⩾ m) > 0.

Wir bemerken, dass jedes ω ∈ Ω in höchstens m der Mengen A n ist. Das folgt unmittelbar aus der Definition der Mengen A n : ω ∈ A n 󳨐⇒ ∀k ⩾ m : |X n+k (ω)| ⩾ r 󳨐⇒ ∀k ⩾ m : ω ∉ A n+k .

13 Rekurrenz und Transienz allgemeiner Irrfahrten | 135

Daher erhalten wir

Abb. 13.1: Abstand von X T zu weiteren besuchten Punkten X T +n ∈ B ϵ/2 (y k0 )







m ⩾ ∑ 𝟙A n 󳨐⇒ m ⩾ ∑ ℙ(A n ) ⩾ ∑ ℙ (|X n | < r) ℙ(|X k | ⩾ 2r ∀k ⩾ m), n=1

n=1

n=1

>0

woraus 𝔼v(B r (0)) = ∑∞ n=0 ℙ(|X n | < r) < ∞ folgt. Da r beliebig ist, ist 0 ∉ M. Wir können unser Argument von B r (0) auf B r (x) übertragen und erhalten daher M = 0. Weil stets R ⊂ M ⊂ A gilt, folgt auch R = 0. Alternative a): Es sei ℙ( limn→∞ |X n | = ∞) < 1. In diesem Fall muss (X n )n∈ℕ0 eine Teilfolge enthalten, die mit positiver Wahrscheinlichkeit in einer Kugel B r (0) liegt: ∃r > 0 : ℙ(X n ∈ B r (0) für unendlich viele n ) > 0. „u.o.“ (unendlich oft)

Für festes ϵ > 0 gibt es eine endliche Überdeckung B r (0) = ⋃Nk=1 B ϵ/2 (y k ). Insbesondere sehen wir mit dem 0-1–Gesetz von Hewitt–Savage (Satz 8.7) 8.7

∃k0 : ℙ(X n ∈ B ϵ/2 (y k0 ) u.o.) > 0 󳨐⇒ ℙ(X n ∈ B ϵ/2 (y k0 ) u.o.) = 1.

Die Stoppzeit T = inf {n : X n ∈ B ϵ/2 (y k0 )} ist daher f.s. endlich, und es gilt 1 = ℙ(X n ∈ B ϵ/2 (y k0 ) u.o.)

=

ℙ(X T+n ∈ B ϵ/2 (y k0 ) u.o.)



ℙ(|X T+n − X T | < ϵ u.o.)

Abb. 13.1

=

SME 13.3

Das zeigt 0 ∈ R, also R ≠ 0.

ℙ(|X n | < ϵ u.o.).

Weil R ⊂ M ⊂ A gilt, reicht der Nachweis, dass A ⊂ R und dass R eine abgeschlossene Untergruppe der Gruppe (ℝd , +) ist. 1o R ist abgeschlossen. Wir zeigen, dass Rc eine offene Menge ist. Für jedes ϵ > 0 und alle |y − x| < ϵ/2 gilt B ϵ/2 (y) ⊂ B ϵ (x), also v(B ϵ/2 (y)) ⩽ v(B ϵ (x)). Daher haben wir x ∈ Rc 󳨐⇒ ∃ϵ > 0 : ℙ(ν(B ϵ (x)) < ∞) > 0

󳨐⇒ ∀y ∈ B ϵ/2 (x) : ℙ(ν(B ϵ/2 (y)) < ∞) > 0.

Es folgt B ϵ/2 (x) ⊂ Rc , also ist Rc offen.

136 | 13 Rekurrenz und Transienz allgemeiner Irrfahrten 2o Es gilt x ∈ A & y ∈ R 󳨐⇒ y − x ∈ R. Der Definition der Mengen R und A entnehmen wir, dass y − x ∉ R 󳨐⇒ ∃ϵ0 > 0, N ⩾ 1 : ℙ(|X n − (y − x)| ⩾ 2ϵ0 ∀n ⩾ N) > 0, x ∈ A 󳨐⇒ ∀ϵ > 0

∃k ∈ ℕ : ℙ(|X k − x| < ϵ) > 0.

Für ϵ = ϵ0 > 0 und n > k gilt wegen der Dreiecksungleichung

{|X n − y| ⩾ ϵ} ⊃ {|X n − X k − y + x| ⩾ 2ϵ} ∩ {|X k − x| < ϵ} ,

und daher folgt für beliebige m ∈ ℕ

ℙ(|X n − y| ⩾ ϵ ∀n ⩾ m + k)

⩾ ℙ (|X n − X k − (y − x)| ⩾ 2ϵ, |X k − x| < ϵ ∀n ⩾ m + k)

= ℙ (|X n−k − (y − x)| ⩾ 2ϵ ∀n ⩾ m + k) ℙ (|X k − x| < ϵ) .

SME

13.3

Für y − x ∉ R & x ∈ A und hinreichend großes m ist dieser Ausdruck strikt positiv, und es folgt y ∉ R. Durch Kontraposition erhalten wir aus [y − x ∉ R & x ∈ A 󳨐⇒ y ∉ R] die Implikation [x ∈ A & y ∈ R 󳨐⇒ y − x ∈ R]. 3o R ist eine Gruppe. Es seien r, q ∈ R ⊂ A fest gewählt. Wir zeigen die Gruppenaxiome durch geschickte Wahl von x, y in Schritt 2o : 2o

x = y = r 󳨐⇒ y − x = r − r = 0 ∈ R, 2o

x = r & y = 0 󳨐⇒ y − x = 0 − r = −r ∈ R, 2o

x = −r & y = q 󳨐⇒ y − x = q + r ∈ R.

4o Es gilt R = A. Es sei a ∈ A. Wir wählen x, y in Schritt 2o folgendermaßen: 2o

3o

x = a & y = 0 󳨐⇒ −a ∈ R 󳨐⇒ a ∈ R 󳨐⇒ A ⊂ R 󳨐⇒ A = R.

Die Aussagen von Satz 13.5 sind zwar theoretisch höchst befriedigend, ein praktisch nachprüfbares Kriterium sind sie aber nicht. Wir wollen nun einfachere Tests für Rekurrenz und Transienz herleiten. 13.6 Lemma (scaling). Es sei (X n )n∈ℕ0 , X0 = 0, eine Irrfahrt mit Werten in ℝd . Für alle ϵ > 0 und r ⩾ 1 gilt ∞



∑ ℙ(|X n | < rϵ) ⩽ cr d ∑ ℙ(|X n | < ϵ).

n=0

n=0

(13.4)

Beweis. Eine Überdeckung B rϵ (0) = ⋃Nk=1 B ϵ/2 (y k ) kann man mit größenordnungsmäßig Volumen(B rϵ (0)) (rϵ)d ≈ = (2r)d Volumen(B ϵ/2 (0)) (ϵ/2)d

13 Rekurrenz und Transienz allgemeiner Irrfahrten | 137

Kugeln konstruieren, d.h. wir können N ⩽ cr d mit einer Konstanten c < ∞ annehmen. Wir setzen T k := inf {n ∈ ℕ : X n ∈ B ϵ/2 (y k )} .

Offensichtlich ist ℙ(X n ∈ B ϵ/2 (y k ), n < T k ) = 0, so dass ∞

∑ ℙ(|X n | < rϵ)

n=0

N





∑ ∑ ℙ(X n ∈ B ϵ/2 (y k ))

k=1 n=0

=

∑ ∑ ℙ(X n ∈ B ϵ/2 (y k ), n ⩾ T k )

k=1 n=0

=

∑ ∑ ℙ(X i+T k ∈ B ϵ/2 (y k ), T k < ∞)

N

N





k=1 i=0

Abb. 13.1 N





k=1 i=0

=

∑ ℙ(T k < ∞) ∑ ℙ(|X i | < ϵ).

SME 13.3

∑ ∑ ℙ(|X i+T k − X T k | < ϵ, T k < ∞) N



i=0

k=1

⩽N⩽cr d

13.7 Satz (Rekurrenz für d = 1, 2). Eine Irrfahrt (X n )n∈ℕ0 , X0 = 0, mit Werten in ℝd ist rekurrent, wenn ℙ a) d = 1 und 1n X n 󳨀󳨀󳨀󳨀→ 0, d.h. das WLLN gilt für die Schritte (ξ n )n∈ℕ . b) d = 2 und 󳶳 󳶳 󳶳

n→∞ d 1 X 󳨀󳨀󳨀󳨀→ √n n n→∞

G ∼ N(0, Γ),12 d.h. der CLT gilt für die Schritte (ξ n )n∈ℕ .

Das WLLN gilt, wenn z.B. 𝔼|ξ1 | < ∞ und 𝔼ξ1 = 0 ist, vgl. [WT, Satz 8.7]. Der CLT gilt, wenn z.B. 𝔼|ξ1 |2 < ∞ und 𝔼ξ1 = 0 ist, vgl. [WT, Satz 13.2] und Aufg. 13.7. Wir werden in Satz 13.15 zeigen, dass alle „echt“ (3 + n)-dimensionalen Irrfahrten transient sind.

Beweis (Chung & Ornstein 1962). Es seien ϵ > 0 und r ⩾ 1 fest gewählt. Wir schreiben ⌊s⌋ für den ganzzahligen Anteil von s ⩾ 0. Mit Lemma 13.6 folgt ∞

∑ ℙ(|X n | < ϵ) ⩾ γr

n=0

−d



∞ n+1

∑ ℙ(|X n | < ϵr) = γ ∑ ∫ r−d ℙ(|X⌊s⌋ | < ϵr) ds

n=0

n=0 n ∞

= γ ∫ ℙ(|X⌊tr d ⌋ | < ϵr) dt. 0

12 N(0, Γ) bezeichnet hier die zweidimensionale Normalverteilung mit Mittelwertvektor 0 ∈ ℝ2 und Kovarianzmatrix Γ ∈ ℝ2×2 .

138 | 13 Rekurrenz und Transienz allgemeiner Irrfahrten a) Nach Voraussetzung gilt limr→∞ ℙ(|X⌊tr⌋ | < ϵr) = 1. Mit Hilfe von Fatous Lemma erhalten wir (d = 1) ∞



∑ ℙ(|X n | < ϵ) ⩾ lim inf γ ∫ ℙ(|X⌊tr⌋ | < ϵr) dt r→∞

n=0



0

⩾ γ ∫ lim inf ℙ(|X⌊tr⌋ | < ϵr) dt = ∞. 0

r→∞

=1

Das zeigt, dass 0 ∈ M, also M ≠ 0, und somit folgt aus Satz 13.5 Rekurrenz. b) Für |c| ⩽ 1 und eine zweidimensionale zentrierte Gauß-ZV gilt ℙ(|G| < c)

= y=cx

=

dy=c2 dx



|y|⩽c

1 −1 1 e− 2 ⟨y,Γ y⟩ dy 2π√det Γ

c2 ∫

|x|⩽1

c2 −1 1 e− 2 ⟨x,Γ x⟩ dx √ 2π det Γ

|c|⩽1



γ󸀠 c2 > 0,

mit einer von c unabhängigen Konstanten γ󸀠 > 0. Mit Fatous Lemma erhalten wir ∞



∑ ℙ(|X n | < ϵ) ⩾ lim inf γ ∫ ℙ(|X⌊tr2 ⌋ | < ϵr) dt

n=0

r→∞ ∞

0

⩾ γ ∫ lim inf ℙ ( 0 ∞

r→∞

|X⌊tr2 ⌋ | ϵ < ) dt √t r√t

= γ ∫ ℙ (|G|
0 und θ ∈ ℝd . ϕ Y ≡ ϕ Z ⇐⇒ Y ∼ Z,

Eindeutigkeitssatz

q (a θ) = m

Skalierungssatz

(13.6)

q (θ)q μ~ ∗ ν(θ) = μ ν(θ).

(13.8)

q (θ) ν(dθ) = ∫ q ν(θ) μ(dθ), ∫μ

Satz von Plancherel Faltungssatz

(13.5)

­ a d m(a ∙),

−1

(13.7)

13.9 Satz (Chung–Fuchs Kriterium; Chung & Fuchs 1951). Es sei (X n )n∈ℕ0 , X0 = 0, eine Irrfahrt mit Werten in ℝd und iid Schritten (ξ n )n∈ℕ , ξ1 ∼ μ. Die Irrfahrt ist genau dann transient, wenn 1 dθ < ∞. (13.9) ∃ϵ > 0 : sup ∫ Re q (θ) 1 − r μ r 1.

Wir multiplizieren beide Seiten mit r n , r < 1, und summieren über n ∈ ℕ0 . Auf Grund der gleichmäßigen Konvergenz der Potenzreihe können wir Summation und Integration vertauschen. ∞



q (a−1 θ) ∑ r n μ∗n (dθ) = ∫ a d H(ax) ∑ r n μ q (x)n dx = a d ∫ ∫H n=0

n=0

|r q μ(x)|⩽r 0

󳨐⇒ Rekurrenz,

󳨐⇒ Transienz.

(13.13󸀠 )

Für Irrfahrten mit Werten in Gittern geht das Kriterium auf Spitzer 1964 zurück, vgl. [41, S. 84f.]. Die Verschärfung des Chung–Fuchs-Kriteriums Satz 13.5 für allgemeine Irrfahrten ist sehr schwer zu beweisen. Die „einfache“ Richtung (13.13) folgt mit Hilfe des Fatouschen Lemmas. Die Umkehrung – sie wurde erst von Ornstein (1969) bewiesen, kurz danach hat Stone (1969) den Beweis vereinfacht – ist deutlich schwieriger zu zeigen und benötigt einige technische Tricks.

Beweis von Korollar 13.11. Zu (13.13): Wir verwenden (13.9). Für eine Folge r n ↑ 1 erhalten wir mit Fatous Lemma sup ∫ Re r 0, so dass Zu (13.14): Weil θ 󳨃→ Re μ q (θ) ⩾ 0 für alle θ ∈ B ϵ (0) gilt [] (Aufg. 13.12). Daher haben wir für r < 1 Re μ

∫ Re

B ϵ (0)

1 dθ q (θ) 1 − rμ

Re z−1 ⩽(Re z)−1







1 dθ q (θ) 1 − r Re μ



1 dθ < ∞, q (θ) 1 − Re μ

B ϵ (0) B ϵ (0)

und das Chung–Fuchs Kriterium (Satz 13.9) zeigt die Transienz der Irrfahrt.

13 Rekurrenz und Transienz allgemeiner Irrfahrten |

143

Es sei (ξ n )n∈ℕ die Schrittfolge einer Irrfahrt. Wir konstruieren eine unabhängige Kopie (ξ n󸀠 )n∈ℕ dieser Folge (z.B. mit Hilfe einer Produktkonstruktion) und betrachten die Symmetrisierung ξ̃n := ξ n − ξ n󸀠 ; offensichtlich gilt ξ̃n ∼ −ξ̃n .

13.12 Korollar. Es sei (X n )n∈ℕ0 , X0 = 0 eine Irrfahrt mit Werten in ℝd , (X 󸀠n )n∈ℕ0 eine ̃ n := X n − X 󸀠n die Symmetrisierung. unabhängige, identische Kopie und X ̃ n )n∈ℕ rekurrent. a) Wenn (X n )n∈ℕ0 rekurrent ist, dann ist (X 0 ̃ n )n∈ℕ transient ist, dann ist (X n )n∈ℕ transient. b) Wenn (X 0 0

Beweis. Weil eine Irrfahrt entweder rekurrent oder transient ist, sind die Aussagen a) und b) äquivalent. Wir zeigen daher nur b). Wie bisher bezeichnet μ die Verteilung der Schritte ξ n . 1o Der Prozess S n := X2n ist wiederum eine Irrfahrt mit iid Schritten η n = ξ2n−1 + ξ2n , und wir haben q 2 (θ). 𝔼e i⟨θ,η1 ⟩ = 𝔼 (e i⟨θ,ξ1 ⟩ e i⟨θ,ξ2 ⟩ ) = 𝔼e i⟨θ,ξ1 ⟩ 𝔼e i⟨θ,ξ1 ⟩ = μ iid

2o Die charakteristische Funktion des Schritts ξ̃1 = ξ1 − ξ1󸀠 der symmetrisierten Irrfahrt ist 󸀠 ̃ iid 󵄨 q 󵄨󵄨2 𝔼e i⟨θ, ξ1 ⟩ = 𝔼 (e i⟨θ,ξ1 ⟩ e−i⟨θ,ξ1 ⟩ ) = 𝔼e i⟨θ,ξ1 ⟩ 𝔼e−i⟨θ,ξ1 ⟩ = 𝔼e i⟨θ,ξ1 ⟩ 𝔼e i⟨θ,ξ1 ⟩ = 󵄨󵄨󵄨μ (θ)󵄨󵄨 .

̃ n transient ist, dann ist S n = X2n transient. Das folgt mit dem Chung–Fuchs 3o Wenn X Kriterium (13.9) und der folgenden Abschätzung des dort auftretenden Integranden: Re

1 q 2 (θ) 1 − rμ

Re z−1 ⩽(Re z)−1



Integrand in (13.9) für S n = X2n

1 q 2 (θ) 1 − r Re μ

Re z⩽|z|



1 . q (θ)|2 1 − r|μ

̃n Integrand in (13.9) für X

4o Wenn S n = X2n transient ist, dann ist X n transient. Wenn X2n transient ist, dann gilt nach Satz 13.5 limn→∞ |X2n | = ∞ f.s. Weil ξ1 f.s. endlich ist, folgt limn→∞ |X2n+1 | = ∞ f.s. (vgl. Aufg. 13.13) und daher gilt limn→∞ |X n | = ∞ f.s. (vgl. Aufg. 13.14). Wiederum mit Satz 13.5 folgt, dass (X n )n∈ℕ0 transient ist. Die Behauptung b) erhalten wir aus den Schritten 3o und 4o .

Wir zeigen nun, dass jede echt d-dimensionale Irrfahrt für d ⩾ 3 transient ist. „Echt d-dimensional“ bedeutet, dass die Irrfahrt nicht nur Werte in einem (d − 1)dimensionalen Unterraum annimmt. 13.13 Definition. Eine ZV ξ1 mit Werten in ℝd heißt echt d-dimensional, wenn ∀θ ≠ 0 : ℙ(⟨θ, ξ1 ⟩ ≠ 0) > 0.

Wir benötigen die folgenden elementaren Ungleichungen. 13.14 Lemma. Für alle |t| ⩽ 1 gilt 41 t2 ⩽ 1 − cos t ⩽ 21 t2 .

144 | 13 Rekurrenz und Transienz allgemeiner Irrfahrten

Abb. 13.3: Mit einem Konvexitätsargument sehen wir, dass sin(1)t ⩽ sin t ⩽ t für alle t ∈ [0, 1] gilt.

Beweis. Aufgrund der Symmetrie können wir uns auf 0 ⩽ t ⩽ 1 beschränken. Da sin t auf [0, 1] konkav ist (vgl. Abb. 13.3), wissen wir sin(1) sin t ⩽ ⩽ 1 ⇐⇒ sin 1 ⋅ t ⩽ sin t ⩽ t 󳨐⇒ sin(1) ∫ t dt ⩽ ∫ sin t dt ⩽ ∫ t dt, 1 t

woraus

1 2

sin(1)t2 ⩽ 1 − cos t ⩽ 12 t2 und die behaupteten Ungleichungen folgen.

13.15 Satz (Chung & Fuchs 1951). Es sei d ⩾ 3. Jede Irrfahrt (X n )n∈ℕ0 mit Werten in ℝd und echt d-dimensionalen Schritten (ξ n )n∈ℕ , ξ n ∼ μ, ist transient. Beweis. Wir verwenden das Transienzkriterium (13.14), d.h. wir müssen ∫

für ein ϵ > 0 zeigen.

B ϵ (0)

1 dθ < ∞ q (θ) 1 − Re μ

(13.15)

1o Zunächst schätzen wir den Nenner des Integranden von (13.15) ab: q (θ) 1 − Re μ

∫ 1 dμ=1

=

Lemma 13.14



θ=rσ, |σ|=1



∫ (1 − cos⟨y, θ⟩) μ(dy) 1 4



|⟨y,θ⟩|⩽1

1 2 r 4

|⟨y, θ⟩|2 μ(dy)



|⟨y,σ⟩|⩽1/r

|⟨y, σ⟩|2 μ(dy).

Wir definieren C := inf |σ|=1 inf r⩽r0 ∫|⟨y,σ⟩|⩽1/r |⟨y, σ⟩|2 μ(dy). In Schritt 3o zeigen wir, dass es ein r0 gibt, so dass C > 0. Hier geht die echte d-Dimensionalität der Schritte ein. 2o Wir führen im Integral (13.15) Polarkoordinaten ein und schätzen die Funktionaldeterminante durch r d−1 ab: ∫

B ϵ (0)

ϵ

1 1 dθ ⩽ ∫ ∫ r d−1 dσ dr q (θ) q (rσ) 1 − Re μ 1 − Re μ 0 𝕊d−1 ϵ 1o d−1

⩽ ∫r 0

ϵ

4 2 r dr ∫ dσ = C󸀠 ∫ r d−3 dr < ∞. C 𝕊d−1

0

13 Rekurrenz und Transienz allgemeiner Irrfahrten | 145

3o Angenommen, wir hätten C = 0. Dann finden wir Folgen r n ↓ 0 und σ n ∈ 𝕊d−1 , so dass ∫

|⟨y,σ n ⟩|⩽1/r n

|⟨y, σ n ⟩|2 μ(dy) ⩽

1 . n

Da 𝕊d−1 kompakt ist, können wir o.E. annehmen, dass σ n → σ∗ ∈ 𝕊d−1 , sonst wählen wir eine geeignete Teilfolge. Das Lemma von Fatou zeigt 0 = lim inf n→∞



|⟨y, σ n ⟩|2 μ(dy) ⩾ ∫ lim inf (𝟙{|⟨y,σ n ⟩|⩽1/r n } |⟨y, σ n ⟩|2 ) μ(dy) n→∞

|⟨y,σ n ⟩|⩽1/r n

Das ist ein Widerspruch, also gilt C > 0.

= ∫ |⟨y, σ∗ ⟩|2 μ(dy)

ξ1 ist echt d-

>

dimensional

0.

Aufgaben 1.

Verwenden Sie Lemma 8.13, um einen Beweis von Satz 13.2.c „⇒“ zu erhalten, der nicht auf Satz 13.1 zurückgreift.

2.

Es seien (ξ n )n∈ℕ iid ZV mit Werten in ℝd und ξ1 ∼ μ, und X n := x + ξ1 + ⋅ ⋅ ⋅ + ξ n . Überlegen Sie sich, dass ℙx = δ x ⊗ ⨂∞ n=1 μ als Verteilung der Folge (X n )n∈ℕ0 gewählt werden kann. Hinweis. Wiederholen Sie die Konstruktion unendlicher Produkte von Maßen [MI, Kapitel 17] und die Konstruktion von ZV [WT, S. 57ff.].

3.

Es sei 𝕏 = (ξ n )n∈ℕ eine permutierbare Folge von reellen ZV (vgl. Kapitel 8.3). Eine Menge A heißt permutierbar, wenn sie von der Form A = {𝕏 ∈ B} für ein geeignetes B ⊂ ℝℕ ist. Wir schreiben I := {A ∈ A : A ist permutierbar}. Zeigen Sie, dass I eine σ-Algebra ist. Zeigen Sie, dass die terminale σ-Algebra T = ⋂n∈ℕ σ(ξ n , ξ n+1 , . . . ) in I enthalten ist.

4.

Es sei X n = ξ1 + ⋅ ⋅ ⋅ + ξ n , X0 = 0, eine Irrfahrt und (c n )n∈ℕ0 eine Folge von reellen Zahlen ≠ 0. Zeigen Sie, dass die Mengen A = {ω : X n (ω) ∈ B

für unendlich viele n ∈ ℕ}

und

A󸀠 = {ω : lim sup c−1 n X n (ω) ⩾ 1} n→∞

permutierbar (vgl. Aufg. 13.3) sind. Sind diese Mengen terminal (im Sinne des Kolmogorovschen 0-1–Gesetzes)? 5.

Überlegen Sie sich, dass Lemma 13.6 ein „scaling“ Resultat für das mean occupation measure ist.

6.

Eine ZV G = (G1 , G2 ) in ℝ2 ist normalverteilt mit Mittelwertvektor m = (m1 , m2 )⊤ und (der strikt positiv semidefiniten, symmetrischen) Kovarianzmatrix Γ ∈ ℝ2×2 , wenn sie folgende Dichtefunktion besitzt: f G (x) = (2π)−1 (det Γ)−1/2 exp [− 21 (x − m)⊤ Γ −1 (x − m)] ,

x = (x1 , x2 )⊤ ∈ ℝ2 .

(a) Zeigen Sie, dass f G (x) eine W-dichte ist. Berechnen Sie 𝔼G j und Cov(G j , G k ) für j, k ∈ {1, 2}. (b) Finden Sie die charakteristische Funktion 𝔼e i⟨ξ, G⟩ , ξ = (ξ1 , ξ2 )⊤ .

146 | 13 Rekurrenz und Transienz allgemeiner Irrfahrten 7.

Es sei (X n , Y n ), n ∈ ℕ, eine iid Folge von zentrierten (d.h. 𝔼X1 = 𝔼Y1 = 0) zweidimensionalen ZV, deren (zweite) Momente σ XY = 𝔼(X1 Y1 ), σ2X = 𝔼(X12 ) > 0 und σ2Y = 𝔼(Y12 ) > 0 existieren. Zeigen Sie, dass die Folge dem CLT genügt, d.h. 1 n d ∑ (X k , Y k )⊤ 󳨀󳨀󳨀󳨀→ G = (G1 , G2 )⊤ ∼ N(0, Γ). n→∞ √n k=1

8. 9.

N(0, Γ) steht für eine zweidimensionale nicht-ausgeartete Normalverteilung mit Mittelwertvektor 0 σ2 σ XY ( ) ∈ ℝ2 und Kovarianzmatrix ( X ) ∈ ℝ2×2 . 0 σ YX σ2Y Hinweis. Verwenden Sie den eindimensionalen CLT [WT, Satz 13.2] und den Cramér–Wold Trick [WT, Korollar 9.19], um die Aussage auf die eindimensionalen iid ZV ξX n + ηY n zurückzuführen. Finden (und beweisen) Sie die Formulierung der Beziehungen (13.7) und (13.8) wenn μ(dx) = m(x) dx gilt. Überlegen Sie sich, dass (13.6)–(13.8) auch für m ∈ L1 (dx) gelten. Es sei h(x) = (1 − |x|)+ die eindimensionale „Hut-Funktion.“ Zeigen Sie, dass für deren charakteristische Funktion q h folgende Aussagen gelten: (a) q h(θ) = 2(1 − cos θ)/θ2 , θ ∈ ℝ. (b) q h(θ) ⩾ γ > 0 für alle −1 ⩽ θ ⩽ 1. Es gilt sogar γ = sin 1. (c)

q ~∙)(θ) für a > 0 und θ ∈ ℝ. h(a−1 θ) = a h(a

10. Es sei B r (0) eine (offene) Kugel im ℝd mit Radius r und Mittelpunkt 0 und Q s (0) sei ein (offener) Würfel im ℝd mit Kantenlänge s und Zentrum 0. Bestimmen Sie s < S, so dass Q s (0) ⊂ B r (0) ⊂ Q S (0) gilt („ein- und umbeschriebener Würfel“). 11. Es sei z ≠ 0 eine komplexe Zahl. Zeigen Sie, dass |e z | = eRe z und Re z ⋅ Re z−1 ⩽ 1.

12. Es sei μ ein W-Maß im ℝd . Zeigen Sie, dass q μ(0) = 1 ist, dass θ 󳨃→ q μ(θ) stetig ist und folgern Sie, dass es ein ϵ > 0 gibt, so dass Re q μ(θ) > 0 für |θ| < ϵ.

13. Es sei X n = ξ1 + ⋅ ⋅ ⋅ + ξ n eine Irrfahrt. Zeigen Sie, dass aus limn→∞ |X2n | = ∞ f.s. auch limn→∞ |X2n+1 | = ∞ f.s. folgt. Hinweis. X2n+1 = (X2n+1 − X1 ) + ξ1 und X2n ∼ X2n+1 − ξ1 ⊥⊥ ξ1 . 14. Es sei (a n )n∈ℕ eine Folge in ℝ+ . Zeigen Sie, dass aus limn→∞ a2n = limn→∞ a2n+1 = ∞ bereits folgt, dass limn→∞ a n = ∞.

14 ⧫Irrfahrten und Analysis In diesem Kapitel untersuchen wir den Zusammenhang zwischen (symmetrischen) Irrfahrten auf ℤd , Potentialtheorie und partiellen Differenzengleichungen.

Irrfahrten mit beliebigen Startwerten Wir untersuchen zunächst die Rolle des Startwerts einer allgemeinen Irrfahrt (X n )n∈ℕ0 , X n = X0 + ξ1 + ⋅ ⋅ ⋅ + ξ n , mit iid Schritten (ξ n )n∈ℕ . Wie üblich schreiben wir ℙZ für die Verteilung der ZV Z und B b (ℝd ) bezeichnet die beschränkten Borel-messbaren Funktionen u : ℝd → ℝ. Für u ∈ B b (ℝnd ) gilt 𝔼u(X1 , . . . , X n ) = 𝔼u(X0 + ξ1 , . . . , X0 + ξ1 + ⋅ ⋅ ⋅ + ξ n ) = ∫ u(X0 + ξ1 , . . . , X0 + ξ1 + ⋅ ⋅ ⋅ + ξ n ) dℙ

n

= ∫ u(x0 + y1 , . . . , x0 + y1 + ⋅ ⋅ ⋅ + y n ) ℙX0 ⊗ ⨂ ℙξ i (dx0 , dy1 , . . . , dy n ). ℙx

i=1

Wir definieren := δ x ⊗ ⨂i∈ℕ0 ℙξ i und schreiben 𝔼x für den entsprechenden Erwartungswert. Mit dieser Bezeichnung haben wir für beschränkte messbare Funktionen u : ℝd → ℝ und Φ : (ℝd )ℕ0 → ℝ 𝔼x u(X n ) = 𝔼0 u(X n + x) und

𝔼x Φ(X∙ ) = 𝔼0 Φ(X∙ + x).

(14.1)

Beachte, dass Φ(X∙ ) = Φ(X0 , X1 , X2 , . . . ) eine Funktion bezeichnet, die von der gesamten Irrfahrt (X n )n∈ℕ0 abhängt. Bisher haben wir meistens X0 = 0 angenommen und (implizit) ℙ = ℙ0 , 𝔼 = 𝔼0 verwendet. Wir können die Beziehungen (14.1) verwenden, um das bisher für (X n )n∈ℕ0 , X0 = 0, verwendete W-Maß ℙ durch die Vorschrift ℙx (X i ∈ B i , i = 1, . . . , n) := ℙ(X i + x ∈ B i , i = 1, . . . , n) = ℙ(X i ∈ B i − x, i = 1, . . . , n),

n ∈ ℕ, B1 , . . . , B n ∈ B(ℝd ), auf eine Familie W-Maßen (ℙx )x∈ℝd und Irrfahrten (X n )n∈ℕ0 mit X0 = x, x ∈ ℝd auszudehnen. Diese Überlegung erlaubt es uns, ℙ mit ℙ0 und 𝔼 mit 𝔼0 zu identifizieren. Wir werden im Folgenden die Maße ℙ und 𝔼 ausschließlich für (X n )n∈ℕ0 mit X0 = 0 verwenden. Die Resultate der vorangehenden Kapitel können daher konsistent verwendet werden.

Wenn wir alle ℙx , x ∈ ℝd , gleichzeitig betrachten, ist (X n )n∈ℕ0 eine Familie von Irrfahrten. Offensichtlich gilt σ(X0 , . . . , X n ) = σ(X0 + x, . . . , X n + x), d.h. die natürliche Filtration hängt nicht vom zu Grunde liegenden W-Maß ℙx ab. 14.1 Lemma. Es sei (X n )n∈ℕ0 eine Irrfahrt mit Werten in ℝd , Fn = σ(X0 , X1 , . . . , X n ) die natürliche Filtration und T eine Stoppzeit. https://doi.org/10.1515/9783110350685-014

148 | 14 ⧫Irrfahrten und Analysis

a) Für alle k, n ∈ ℕ, F ∈ Fk , B ∈ B(ℝd ) und x ∈ ℝd gilt

ℙx ({X n+k − X k ∈ B} ∩ F) = ℙx (X n − X0 ∈ B) ℙx (F) = ℙ0 (X n ∈ B) ℙx (F).

(14.2)

Unter ℙx gilt insbesondere X n+k − X k ∼ X n − X0 und X n+k − X k ⊥⊥ Fk . b) Für alle F ∈ FT , Γ ∈ B(ℝd )⊗ℕ0 und x ∈ ℝd gilt

ℙx ({X T+∙ − X T ∈ Γ} ∩ F ∩ {T < ∞}) = ℙx (X∙ − X0 ∈ Γ) ℙx (F ∩ {T < ∞}) = ℙ0 (X∙ ∈ Γ) ℙx (F ∩ {T < ∞}).

(14.3)

Unter ℙx gilt insbesondere X T+∙ − X T ∼ X∙ − X0 und X T+∙ − X T ⊥⊥ FT bezüglich der bedingten Wahrscheinlichkeit ℙx (∙ | {T < ∞}).

Beweis. Es reicht aus, (14.2) für Mengen eines ∩-stabilen Erzeugers der σ-Algebra Fk zu zeigen. Wir wählen F = ⋂ki=1 {X i ∈ B i }, B i ∈ B(ℝd ), und erhalten mit Hilfe von Satz 13.3 k

k

ℙx ({X n+k − X k ∈ B} ∩ ⋂{X i ∈ B i }) = ℙ0 ({X n+k + x − X k − x ∈ B} ∩ ⋂{X i + x ∈ B i }) i=1

i=1

k

= ℙ0 (X n ∈ B) ℙ0 (⋂{X i + x ∈ B i }) i=1

k

= ℙx (X n − x ∈ B) ℙx (⋂{X i ∈ B i }) . i=1

Weil ℙx (X n − X0 ∈ B) = ℙx (X n − x ∈ B) = ℙ0 (X n ∈ B) gilt, folgt die Behauptung. Der Zusatz ist offensichtlich. Wir zeigen erst (14.3) für Mengen der Gestalt Γ = ℝd × ℝd × ⋅ ⋅ ⋅ × ℝd × B ×ℝd × ⋅ ⋅ ⋅, Koordinaten 0→n B ∈ B(ℝd ) und n ∈ ℕ, d.h. ℙx ({X T+n − X T ∈ B} ∩ F ∩ {T < ∞}) = ℙx (X n − X0 ∈ B) ℙx (F ∩ {T < ∞}).

Weil F ∈ FT ist, gilt F ∩ {T = k} ∈ Fk (vgl. Schritt 1o im Beweis von Satz 13.3) und ∞

ℙx ({X T+n − X T ∈ B} ∩ F ∩ {T < ∞}) = ∑ ℙx ({X T+n − X T ∈ B} ∩ F ∩ {T = k}) k=0 ∞

= ∑ ℙx ({X k+n − X k ∈ B} ∩ F ∩ {T = k}) (14.2)

k=0 ∞

= ∑ ℙx ({X n − X0 ∈ B}) ℙx (F ∩ {T = k}) k=0

= ℙx ({X n − X0 ∈ B}) ℙx (F ∩ {T < ∞})

= ℙ0 ({X n ∈ B}) ℙx (F ∩ {T < ∞}) .

14 ⧫Irrfahrten und Analysis |

149

Für beliebige Mengen Γ ∈ B(ℝd )⊗ℕ0 folgt die Behauptung wie im Beweis von Satz 13.3. Der Zusatz X T+∙ − X T ∼ X∙ − X0 folgt unmittelbar aus (14.3). Indem wir (14.3) für F = Ω und dann für beliebige F ∈ FT verwenden, erhalten wir einerseits ℙx ({X T+∙ − X T ∈ Γ} ∩ {T < ∞}) = ℙx (X∙ − X0 ∈ Γ) ℙx ({T < ∞}) 󳨐⇒ ℙx ({X T+∙ − X T ∈ Γ} | {T < ∞}) = ℙx (X∙ − X0 ∈ Γ)

und andererseits

ℙx ({X T+∙ − X T ∈ Γ} ∩ F | {T < ∞}) = ℙx ({X T+∙ − X T ∈ Γ} | {T < ∞}) ℙx (F | {T < ∞}).

Das zeigt die Unabhängigkeit von X T+∙ − X T und FT bezüglich der (klassischen) bedingten Wahrscheinlichkeit ℙx (∙ | {T < ∞}).

Die neuen Bezeichnungen ℙx und 𝔼x erlauben es uns, die Irrfahrt anzuhalten und an einem neuen, zufälligen Zeitpunkt wieder zu starten. 14.2 Satz (Starke Markov-Eigenschaft (SME)). Es sei (X n )n∈ℕ0 eine Irrfahrt mit Werten in ℝd und T eine Stoppzeit bezüglich der Filtration Fn = σ(X0 , . . . , X n ). Dann gilt für alle B(ℝd )⊗ℕ0 /B(ℝ) messbaren beschränkten Φ : (ℝd )ℕ0 → ℝ 𝔼x (𝟙F∩ {T n) ⩽ C ∑ ρ n < ∞. n=0

n=0

Wir können nun eine stochastische Lösung für das diskrete Dirichlet-Problem angeben. 14.12 Satz. Es sei A ⊂ ℤd eine beschränkte Menge und f : ∂A → ℝ. Weiter sei (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt und T = inf{n ∈ ℕ0 : X n ∈ A c }. Das diskrete Dirichlet-Problem ∆u(x) = 0, x ∈ A, (14.10) u(x) = f(x), x ∈ ∂A, hat eine eindeutige Lösung. Diese ist gegeben durch u(x) = 𝔼x f(X T ),

x ∈ A.

(14.11)

Bei der Aufgabe (14.10) handelt es sich um ein Gleichungssystem von #A Gleichungen mit #A Unbekannten, d.h. die eindeutige Lösbarkeit ist nicht sonderlich erstaunlich – überraschend ist eher die Art, wie wir das System lösen und die Lösung darstellen können.

Beweis von Satz 14.12. Weil A beschränkt ist, ist auch #∂A < ∞, und daher sind alle im Satz genannten Funktionen auf A beschränkt. Eindeutigkeit der Lösung: Angenommen u ist eine Lösung des Problems (14.10). Wegen Lemma 14.10 ist M n := u(X n∧T ) ein beschränktes Martingal. Weil A beschränkt ist, haben wir 𝔼x T < ∞ für alle x ∈ A (Lemma 14.11), und wir können den Satz vom optional stopping anwenden (Satz 4.7.c). Wir erhalten u(x) = 𝔼x M0 = 𝔼x M T = 𝔼x u(X T ) 4.7

Def.

(14.10)

=

X T ∈∂A

𝔼x f(X T ),

d.h. jede Lösung ist notwendigerweise von der Gestalt (14.11). Existenz der Lösung. Wir definieren u(x) wie in (14.11). Wir rechnen nun nach, dass u das Problem (14.10) löst:

Fall 1. Für b ∈ ∂A haben wir ℙb (T = 0) = 1, also u(b) = 𝔼b f(X0 ) = f(b). Fall 2. Für a ∈ A gilt ℙa (T ⩾ 1) = 1. Mit dem stop’n’go-Prinzip (Korollar 14.3) erhalten wir Def.

u(a) = 𝔼a f(X T ) = 𝔼a [f(X T )𝟙{T⩾1} ] Def.

und es folgt ∆u(a) = 𝔼a u(X1 ) − u(a) = 0.

stop’n’go

=

𝔼a [𝔼X1 f(X T )] = 𝔼a u(X1 ),

Die Betrachtung einer beschränkten Menge A in Satz 14.12 ist wesentlich.

156 | 14 ⧫Irrfahrten und Analysis

14.13 Bemerkung (und Beispiel). Es sei (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt mit Werten in ℤd , A ⊂ ℤd und T = inf{n ∈ ℕ0 : X n ∈ A c }. a) Es sei A ⊂ ℤd eine beliebige Menge. Für die Funktion v(x) := ℙx (T = ∞) gilt 󳶳 x ∉ A 󳨐⇒ ℙx (T = 0) = 1 󳨐⇒ v(x) = 0. 󳶳 x ∈ A 󳨐⇒ ℙx (T ⩾ 1) = 1. Wie im Beweis von Satz 14.12 können wir das stop’n’go Prinzip (Korollar 14.3) anwenden: v(x) = 𝔼x 𝟙{T=∞} Def.

stop’n’go

=

𝔼x 𝔼X1 𝟙{T=∞} = 𝔼x v(X1 ),

also gilt ∆v(x) = 0. Diese Überlegung zeigt, dass v die Aufgabe ∆v|A = 0 und v|∂A = 0 löst. Wenn A so gewählt ist, dass v ≢ 0 gilt, dann ist die Lösung des Dirichlet-Problems (14.10) nicht mehr eindeutig, vgl. Satz 14.15 und Korollar 14.16.

b) Für unbeschränkte Mengen A ist #A = ∞. Wir haben T ⩽ T z := inf{n : X n = z} für jedes z ∈ A c , sofern A c ≠ 0. Aus Kapitel 11 (vgl. auch Satz 13.5 und 13.7) wissen wir, dass in Dimension d = 1, 2 stets ℙx (T z < ∞) = 1 gilt, also ist auch ℙx (T < ∞) = 1. In Dimension d ⩾ 3 ist ℙx (T = ∞) > 0 möglich, vgl. Definition 11.12 und Satz 11.14, und das Dirichlet-Problem muss nicht mehr eindeutig lösbar sein. c) Es sei d = 1 und A = ℕ; offensichtlich ist ∂A = {0}. Wir betrachten die Funktion {n, w(n) := n𝟙ℕ (n) = { 0, {

Offensichtlich gilt w|∂A = 0 sowie ∆w(n) =

n ∈ ℕ;

n ∈ ℤ \ ℕ.

1 (w(n − 1) + w(n + 1) − 2w(n)) = 0, 2

n ∈ A.

Daher ist die unbeschränkte Funktion w eine Lösung des Dirichlet-Problems. Andererseits ist auch v ≡ 0 eine Lösung dieses Problems, d.h. das Problem ist nicht eindeutig lösbar. Wir bemerken, dass v(x) = ℙx (T = ∞) ≡ 0 gilt. d) Für d = 1, 2 und beliebiges A ⊂ ℤd gilt nach b) ℙx (T = ∞) = 0. Für beschränkte f ist daher u(x) := 𝔼x f(X T ) wohldefiniert und es ist die eindeutige beschränkte Lösung – es kann aber unbeschränkte Lösungen geben, vgl. Teil c). Das zeigt man genauso wie im Satz 14.12; weil wir keine Kontrolle über 𝔼x T haben, müssen wir die „ggi-Version“ von optional stopping (Satz 7.11) verwenden: Das Martingal u(X n∧T ) ist gleichgradig integrierbar, da nach Voraussetzung die Lösung u beschränkt ist. e) Für beliebige A ⊂ ℤd und f ⩾ 0 ist die Funktion w(x) := 𝔼x (f(X T )𝟙{T2k} | F2k ]) = 𝔼x (ℙX2k (X n−2k = z) 𝟙{T>2k} )

SME

14.2

=

∑ ℙy (X n−2k = z) ℙx (X2k = y, T > 2k) .

y∈ℤd

14 Man überlegt sich schnell, dass die Irrfahrt y ∈ ℤd genau dann in n Schritten erreichen kann, wenn y(1) + ⋅ ⋅ ⋅ + y(d) ∈ [−n, n] und n + y(1) + ⋅ ⋅ ⋅ + y(d) ∈ 2ℤ ist.

158 | 14 ⧫Irrfahrten und Analysis

Wenn wir die in (2.1) eingeführte Kurzschreibweise 𝔼x (Z | A) := 𝔼x (Z𝟙A )/ℙx (A) für den klassischen bedingten Erwartungswert verwenden, erhalten wir ℙx (X n = z | T > 2k) = ∑ ℙy (X n−2k = z) ℙx (X2k = y | T > 2k) . y∈ℤd

Für alle n ⩾ 2k folgt dann aus dieser Gleichheit 󵄨 󵄨 ∑ 󵄨󵄨󵄨ℙx (X n = z) − ℙx (X n = z | T > 2k)󵄨󵄨󵄨 z∈ℤd

󵄨󵄨 󵄨󵄨 = ∑ 󵄨󵄨󵄨󵄨ℙx (X n = z) − ∑ ℙy (X n−2k = z) ℙx (X2k = y | T > 2k) 󵄨󵄨󵄨󵄨 󵄨 󵄨 z∈ℤd y∈ℤd 󵄨 󵄨 ⩽ ∑ ∑ 󵄨󵄨󵄨ℙx (X n = z) − ℙy (X n−2k = z)󵄨󵄨󵄨 ℙx (X2k = y | T > 2k) z∈ℤd y∈ℤd

󵄨 󵄨 = ∑ ∑ 󵄨󵄨󵄨ℙx (X n = z) − ℙy (X n−2k = z)󵄨󵄨󵄨 ℙx (X2k = y | T > 2k) . y∈ℤd z∈ℤd

→0 für n → ∞ und x

↶↷y, vgl. Lemma 14.14

=0, für x

↶↷/ y

Mit dominierter Konvergenz sehen wir, dass dieser Ausdruck für n → ∞ gegen 0 konvergiert. 3o Lemma 14.10 zeigt, dass M n := u(X n∧T ) ein Martingal ist. Für alle n ∈ ℕ haben wir u(x) = 𝔼x u(X0∧T ) = 𝔼x u(X n∧T )

= 𝔼x [u(X n )𝟙{T>n} ] + 𝔼x [u(X T )𝟙{T⩽n} ] .

(14.14)

=0 weil X T ∈∂A

Weil u beschränkt ist, folgt |u(x)| ⩽ ‖u‖∞ ℙx (T > n) 󳨀󳨀󳨀󳨀→ ‖u‖∞ ℙx (T = ∞). Insbesonn→∞ dere zeigt das, dass wir für den Beweis der Aussage nur solche Punkte x betrachten müssen, für die ℙx (T = ∞) > 0 gilt. 4o Wir nehmen an, dass y Aus (14.14) erhalten wir

↶↷x, ℙ (T = ∞) > 0 und ℙ (T = ∞) > 0 für x, y ∈ A gilt. x

y

u(x) = 𝔼x [u(X n )𝟙{T>2k} ] − 𝔼x [u(X n )𝟙{n⩾T>2k} ]

= ℙx (T > 2k) 𝔼x [u(X n ) | {T > 2k}] − 𝔼x [u(X n )𝟙{n⩾T>2k} ] . =I(x)

=J(x)

󵄨 u(x) u(y) 󵄨󵄨 󵄨󵄨. Für die Differenz |I(x) − I(y)| gilt Wir interessieren uns für 󵄨󵄨󵄨󵄨 ℙx (T>2k) − ℙy (T>2k) 󵄨 󵄨 󵄨 |I(x) − I(y)| = 󵄨󵄨󵄨𝔼x [u(X n ) | {T > 2k}] − 𝔼y [u(X n ) | {T > 2k}]󵄨󵄨󵄨 󵄨 󵄨 ⩽ ∑ |u(z)| 󵄨󵄨󵄨ℙx (X n = z | T > 2k) − ℙy (X n = z | T > 2k)󵄨󵄨󵄨 z∈ℤd

󵄨 󵄨 ⩽ ‖u‖∞ ∑ 󵄨󵄨󵄨ℙx (X n = z | T > 2k) − ℙx (X n = z)󵄨󵄨󵄨 z∈ℤd

󵄨 󵄨 + ‖u‖∞ ∑ 󵄨󵄨󵄨ℙx (X n = z) − ℙy (X n = z)󵄨󵄨󵄨 z∈ℤd

󵄨 󵄨 + ‖u‖∞ ∑ 󵄨󵄨󵄨ℙy (X n = z) − ℙy (X n = z | T > 2k)󵄨󵄨󵄨 . z∈ℤd

14 ⧫Irrfahrten und Analysis | 159

Lemma 14.14 und Schritt 2o zeigen, dass jede der drei Summen für n → ∞ gegen Null konvergiert. Der Ausdruck |J(x) − J(y)| lässt sich einfach abschätzen: |J(x) − J(y)| ⩽ |J(x)| + |J(y)| ⩽ ‖u‖∞ [ℙx (2k < T < ∞) + ℙy (2k < T < ∞)] .

Insgesamt erhalten wir für alle y

↶↷x mit ℙ (T = ∞) > 0 und ℙ (T = ∞) > 0 x

y

󵄨󵄨 󵄨󵄨 ℙx (2k < T < ∞) ℙy (2k < T < ∞) u(y) u(x) 󵄨󵄨 󵄨󵄨 − y + ). 󵄨󵄨 ⩽ ‖u‖∞ ( 󵄨󵄨 x ℙx (T > 2k) ℙy (T > 2k) 󵄨󵄨 ℙ (T > 2k) ℙ (T > 2k) 󵄨󵄨

Weil die rechte Seite für k → ∞ gegen Null konvergiert, gilt im Grenzwert lim

k→∞

u(x) u(y) = lim . ℙx (T > 2k) k→∞ ℙy (T > 2k)

↶↷

Daher gibt es eine Konstante c = c[x] ∈ ℝ, so dass u(y) = c ℙy (T = ∞) für alle y x; den Fall ℙy (T = ∞) = 0 erledigt man mit Schritt 3o . Die Konstante hängt nur von der Äquivalenzklasse [x] = {y ∈ ℤd : y x} ab.

↶↷

↶↷x für alle e ∈ ℤ

5o Es sei c = c[x] und y ∉ [x]. Dann gilt aber (y + e) Weil u eine harmonische Funktion ist, haben wir u(y) =

d

mit |e| = 1.

1 1 ∑ u(y + e) = ∑ c ℙy+e (T = ∞). 2d |e|=1 2d |e|=1

Andererseits ist, vgl. 1o , ℙy (T = ∞) eine harmonische Funktion, d.h. wir haben auch ℙy (T = ∞) =

1 ∑ ℙy+e (T = ∞) 󳨐⇒ u(y) = c ℙy (T = ∞). 2d |e|=1

Wir können schließlich das diskrete inhomogene Dirichlet-Problem betrachten. 14.17 Satz. Es sei A ⊂ ℤd eine beschränkte Menge und f : ∂A → ℝ, g : A → ℝ. Weiter sei (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt und T = inf{n ∈ ℕ0 : X n ∈ A c }. Das inhomogene Dirichlet-Problem ∆u(x) = −g(x), u(x) = f(x),

x ∈ A,

(14.15)

x ∈ ∂A,

besitzt eine eindeutige Lösung. Diese ist gegeben durch T−1

u(x) = 𝔼x [f(X T ) + 𝟙{T>0} ∑ g(X i )] , i=0

x ∈ A.

(14.16)

Beweis. Aus Lemma 14.11 wissen wir, dass 𝔼x T < ∞. Daher ist (14.16) wohldefiniert, und es gilt |u(x)| ⩽ sup |f(b)| + sup |g(a)| ⋅ 𝔼x T < ∞. b∈∂A

a∈A

160 | 14 ⧫Irrfahrten und Analysis Eindeutigkeit. Angenommen u ist eine Lösung des Problems (14.15). Mit Hilfe von Lemma 14.9 und optional sampling (Satz 4.4) sehen wir, dass M n := u(X n∧T ) − 𝟙{T>0}

(n−1)∧(T−1)



i=0

(14.15)

∆u(X i ) = u(X n∧T ) + 𝟙{T>0}

(n−1)∧(T−1)



i=0

g(X i )

ein Martingal ist. Weil A beschränkt ist, haben wir 𝔼x T < ∞ für alle x ∈ A, und wir können den Satz vom optional stopping anwenden (Satz 4.7.c). Wir erhalten T−1

u(x) = 𝔼x M0 = 𝔼x M T = 𝔼x [f(X T ) + 𝟙{T>0} ∑ g(X i )] , i=0

d.h. jede Lösung ist notwendigerweise von der Gestalt (14.16).

Existenz der Lösung. Wir definieren u(x) wie in (14.16). Wir rechnen nun nach, dass u das Problem (14.15) löst: Fall 1. Für b ∈ ∂A haben wir ℙb (T = 0) = 1, und es gilt u(b) = 𝔼b [f(X0 )] = f(b). Fall 2. Wenn a ∈ A, dann gilt ℙa (T ⩾ 1) = 1, und wir können wie im Beweis von Satz 14.12 die Irrfahrt betrachten, die schon einen ersten Schritt gemacht hat. Mit dem stop’n’go-Prinzip (Korollar 14.3) erhalten wir u(a)

= = stop’n’go

=

=

T−1

𝔼a [f(X T ) + 𝟙{T⩾1} ∑ g(X i )] i=0

T−1

𝔼a [f(X T ) + 𝟙{T⩾2} ∑ g(X i ) + 𝟙{T⩾1} g(a)] i=1

T−1

𝔼a [𝔼X1 (f(X T ) + 𝟙{T⩾1} ∑ g(X i ))] + g(a) i=0

𝔼a [u(X T )] + g(a),

und es folgt −∆u(a) = g(a). Für die vorletzte Gleichheit beachten wir, dass wegen a ∈ A die Austrittszeit größer als 1 ist: ℙa (T ⩾ 1) = 1. Ohne weiteren Beweis erhalten wir aus Lemma 14.11 und Satz 14.17 folgendes Korollar. 14.18 Korollar. Es sei A ⊂ ℤd eine beschränkte Menge und (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt. Die Funktion u(x) = 𝔼x T ist die Lösung der Aufgabe (14.15) mit g ≡ 1 und f ≡ 0.

Kopplung von Irrfahrten Eine Kopplung (engl. coupling) ist das stochastische Analogon zur „Variablenverdopplung“ in der Analysis. Wenn X und Y zwei ZV sind, dann heißt jeder Vektor Z = (Z 󸀠 , Z 󸀠󸀠 )

14 ⧫Irrfahrten und Analysis |

161

Abb. 14.2: Erfolgreiche Kopplung: Zwei Pfade der Irrfahrten (X n )n∈ℕ0 , X0 = x, und (Y n )n∈ℕ0 , Y0 = y, treffen sich zur Kopplungszeit τ < ∞.

mit X ∼ Z 󸀠 und Y ∼ Z 󸀠󸀠 eine Kopplung von X und Y. Weil wir keine Aussage über die Korrelationsstruktur des Vektors (Z 󸀠 , Z 󸀠󸀠 ) machen, haben wir beträchtliche Freiheiten in der Konstruktion der Kopplung. Wir haben bereits in [WT, Lemma 8.2] im Zusammenhang mit der Poisson-Approximation ein Kopplungsargument verwendet. 14.19 Definition. a) Es seien (X n )n∈ℕ0 und (Y n )n∈ℕ0 zwei Irrfahrten mit Werten in ℝd . Eine Kopplung (engl. coupling) ist eine Irrfahrt Z n = (Z 󸀠n , Z 󸀠󸀠 n ), n ∈ ℕ0 , mit Werten in ℝd × ℝd , so dass die Irrfahrten (X n )n∈ℕ0 und (Z 󸀠n )n∈ℕ0 bzw. (Y n )n∈ℕ0 und (Z 󸀠󸀠 n )n∈ℕ0 dieselben Verteilungen haben.

b) Die Kopplungszeit τ ist die Stoppzeit τ = inf{n ∈ ℕ0 : Z 󸀠n = Z 󸀠󸀠 n }. Eine Kopplung heißt erfolgreich (engl. successful), wenn f.s. τ < ∞ gilt. 󳶳 󳶳

Die Irrfahrten (X n )n∈ℕ0 , (Y n )n∈ℕ0 und (Z n )n∈ℕ0 können auf verschiedenen W-Räumen leben, eine Kopplung ist in erster Linie eine Verteilungsaussage. O.B.d.A. nehmen wir an, dass X und Y auf demselben W-Raum (Ω, A , ℙx ), x ∈ ℝd , definiert sind, während die Kopplung Z auf dem Produktraum (Ω × Ω, A ⊗ A , ℙx,y = ℙx × ℙy ) realisiert ist. Oft identifiziert man X und Z 󸀠 bzw. Y und Z 󸀠󸀠 und schreibt (X n , Y n ) für die Kopplung. Beachten Sie die dann auftretende Inkonsistenz in der Notation: Die Kopplung (X n , Y n ) ist auch unter ℙx,y = ℙx × ℙy i.Allg. nicht unabhängig! Daher werden wir diese Schreibweise vermeiden.

14.20 Bemerkung. Es seien (ξ n )n∈ℕ und (η n )n∈ℕ die iid Schritte von zwei Irrfahrten (X n )n∈ℕ0 und (Y n )n∈ℕ0 . Wenn ξ1 ∼ η1 und X0 = x, Y0 = y gilt, dann können wir die Kopplung Z n = (Z 󸀠n , Z 󸀠󸀠 n ) durch den Startpunkt Z 0 = (x, y) und die Kopplung der Schritte (ζ1󸀠 , ζ1󸀠󸀠 ), ζ1󸀠 ∼ ξ1 , ζ1󸀠󸀠 ∼ ξ1 beschreiben. Weil die Kopplung (Z n )n∈ℕ0 selbst eine Irrfahrt ist, zeigt die starke MarkovEigenschaft (Satz 14.2), dass auch (Z τ+k )k∈ℕ0 eine Irrfahrt ist, die an der Stelle Z τ = (X τ , Y τ ) = (X τ , X τ ) startet. Wir können die Irrfahrt (Z n )n∈ℕ0 für die Zeiten n = τ + k so abändern, dass Z 󸀠󸀠 τ+k = 󸀠 Z τ+k , d.h. die Irrfahrten laufen ab der Kopplungszeit parallel. Die starke Markoveigenschaft stellt sicher, dass auch der so modifizierte Prozess eine Kopplung ist. Wenn wir die Kopplung auf dem ursprünglichen W-Raum realisieren, dann sind X und Y zwei Irrfahrten, die zur Zeit τ aufeinandertreffen und dann verschmelzen, vgl. Abb. 14.2.

162 | 14 ⧫Irrfahrten und Analysis

Abb. 14.3: Kopplung durch Reflektion von zwei einfachen symmetrischen Irrfahrten mit Werten in ℤ.

Im Folgenden interessieren uns vor allem für Kopplungen von Irrfahrten, die dieselben Schrittverteilungen aber unterschiedliche Startpunkte haben. 14.21 Beispiel. Es seien (ξ n )n∈ℕ die iid Schritte einer beliebigen Irrfahrt (X n )n∈ℕ0 mit Werten in ℤd und x, y ∈ ℤd zwei Startpunkte. a) Unabhängige Kopplung. Es sei ζ := (ζ 󸀠 , ζ 󸀠󸀠 ) ein Vektor, so dass ζ 󸀠 ⊥⊥ ζ 󸀠󸀠 und ζ 󸀠 ∼ ξ1 , ζ 󸀠󸀠 ∼ ξ1 . Mit ζ n , n ∈ ℕ, bezeichnen wir iid Kopien von ζ . Die Irrfahrt Z n := (x, y) + ζ1 + ⋅ ⋅ ⋅ + ζ n heißt unabhängige Kopplung (engl. independent coupling) von (X n )n∈ℕ0 .

b) Marsch-Kopplung. Es sei ζ := (ζ 󸀠 , ζ 󸀠󸀠 ) ein Vektor, so dass ζ 󸀠󸀠 = ζ 󸀠 und ζ 󸀠 ∼ ξ1 . Mit ζ n , n ∈ ℕ, bezeichnen wir iid Kopien von ζ . Die Irrfahrt Z n := (x, y) + ζ1 + ⋅ ⋅ ⋅ + ζ n heißt Marsch-Kopplung (engl. march(ing) coupling) von (X n )n∈ℕ0 . Offensichtlich besteht Z n aus zwei parallel verlaufenden, gleichartigen Pfaden. Wenn x ≠ y, dann kann die Marsch-Kopplung nicht erfolgreich sein.

c) Kopplung durch Reflektion. Wir nehmen an, dass ξ1 ∼ −ξ1 symmetrisch und d = 1 ist. Es sei ζ := (ζ 󸀠 , ζ 󸀠󸀠 ) ein Vektor, so dass ζ 󸀠󸀠 = −ζ 󸀠 und ζ 󸀠 ∼ ξ1 . Mit ζ n , n ∈ ℕ, bezeichnen wir iid Kopien von ζ . Die Irrfahrt Z n := (x, y)+ζ1 +⋅ ⋅ ⋅+ζ n heißt Reflektionskopplung (engl. reflection coupling) von (X n )n∈ℕ0 . Weil 𝔼0 ξ1 = 0 ist, gilt für die zweidimensionale Irrfahrt (Z n )n∈ℕ auch 𝔼x,y ζ1 = 0, und das Chung-Fuchs Kriterium (Satz 13.7) zeigt, dass Z rekurrent ist. Daher trifft Z mit Wahrscheinlichkeit 1 die Diagonale nach endlich vielen Schritten, d.h. die Kopplung ist erfolgreich: ℙx,y (τ < ∞) = 1, vgl. Abb. 14.3. d) Ornstein-Kopplung. Es sei (ξ n󸀠 )n∈ℕ eine unabhängige Kopie der Schritte (ξ n )n∈ℕ . Dann definieren wir für eine feste Konstante c ζ n󸀠 := ξ n

und

ζ n󸀠󸀠 := ξ n 𝟙{|ξ

󸀠 n −ξ n |>c

} + ξ n 𝟙{|ξ n −ξ n󸀠 |⩽c} 󸀠

und Z n = (x, y) + (ζ1󸀠 , ζ1󸀠󸀠 ) + ⋅ ⋅ ⋅ + (ζ n󸀠 , ζ n󸀠󸀠 ). Der Vollständigkeit halber rechnen wir noch ζ n󸀠󸀠 ∼ ξ n nach: Für i ∈ ℤd gilt ℙx,y (ζ n󸀠󸀠 = i) = ℙx,y (ζ n󸀠󸀠 = i, |ξ n − ξ n󸀠 | > c) + ℙx,y (ζ n󸀠󸀠 = i, |ξ n − ξ n󸀠 | ⩽ c) = ℙx,y (ξ n = i, |ξ n − ξ n󸀠 | > c) + ℙx,y (ξ n󸀠 = i, |ξ n − ξ n󸀠 | ⩽ c)

= ℙx,y (ξ n = i) = ℙx (ξ n = i) .

=ℙx,y (ξ n =i, |ξ n󸀠 −ξ n |⩽c), weil ξ n , ξ n󸀠 symmetr. Rollen spielen

14 ⧫Irrfahrten und Analysis |

163

e) Mineka-Kopplung. Wir nehmen d = 1 an. Es sei p i := ℙx (ξ1 = i), i ∈ ℤ. Die 2 iid Schritte der Irrfahrt (Z n )n∈ℕ0 , Z n = (Z 󸀠n , Z 󸀠󸀠 n ), auf dem Gitter ℤ haben folgende Verteilung: 1 (p i−1 ∧ p i ) 2 1 ℙx,y ((ζ1󸀠 , ζ1󸀠󸀠 ) = (i, i − 1)) = (p i−1 ∧ p i ) 2 1 1 ℙx,y ((ζ1󸀠 , ζ1󸀠󸀠 ) = (i, i)) = p i − (p i−1 ∧ p i ) − (p i ∧ p i+1 ) . 2 2

ℙx,y ((ζ1󸀠 , ζ1󸀠󸀠 ) = (i − 1, i)) =

Offensichtlich gilt ℙx,y (ζ1󸀠 = i) = ℙx,y (ζ1󸀠󸀠 = i) = p i , d.h. wir haben tatsächlich eine Kopplung. Die Kopplung ist so konstruiert, dass die Differenz ζ1󸀠 − ζ1󸀠󸀠 symmetrisch ist und 1 |ζ1󸀠 − ζ1󸀠󸀠 | ⩽ 1 und ℙx,y (ζ1󸀠 − ζ1󸀠󸀠 = 1) = ∑ (p i ∧ p i+1 ) =: r. 2 i∈ℤ

Wenn r > 0 ist, dann ist Z 󸀠n − Z 󸀠󸀠 n eine nichttriviale symmetrische Irrfahrt mit Werten in ℤ, die auf Grund von Satz 13.7 (oder 13.2) rekurrent ist. Daher ist die Kopplungszeit τ fast sicher endlich. Für eine einfache symmetrische Irrfahrt X mit ℙx (ξ1 = 1) = ℙx (ξ1 = −1) = 21 gilt r = 0, d.h. die Mineka-Kopplung wird zur Marsch-Kopplung, die nicht erfolgreich ist. Um eine erfolgreiche Kopplung zu erhalten, muss man wegen der 2-Periodizität der einfachen Irrfahrt15 die Vorschrift für die Mineka-Kopplung folgendermaßen modifizieren: 1 1 ℙx,y ((ζ1󸀠 , ζ1󸀠󸀠 ) = (−1, 1)) = (p−1 ∧ p1 ) = , 2 4 1 1 ℙx,y ((ζ1󸀠 , ζ1󸀠󸀠 ) = (1, −1)) = (p−1 ∧ p1 ) = , 2 4 1 1 1 ℙx,y ((ζ1󸀠 , ζ1󸀠󸀠 ) = (1, 1)) = p1 − (p−1 ∧ p1 ) − (p1 ∧ p3 ) = , 2 2 4 1 1 1 x,y 󸀠 󸀠󸀠 ℙ ((ζ1 , ζ1 ) = (−1, −1)) = p−1 − (p−3 ∧ p−1 ) − (p−1 ∧ p1 ) = , 2 2 4 (beachte, dass p3 = p−3 = 0 gilt). In diesem Fall ist (Z 󸀠n − Z 󸀠󸀠 n )n∈ℕ0 ein sog. symmetrischer einfacher lazy random walk – lazy, weil er mit Wahrscheinlichkeit 12 auf der bisherigen Position bleibt – und die Kopplungszeit ist die erste Trefferzeit der Null (vgl. Aufg. 14.17).

14.22 Lemma (Kopplungsungleichung). Es sei (Z 󸀠n , Z 󸀠󸀠 n ), n ∈ ℕ0 , eine beliebige Kopplung der Irrfahrten (X n + z)n∈ℕ0 , X0 = 0, z ∈ {x, y}, mit Werten in ℤd und τ = τ x,y die Kopplungszeit. Es gilt 󵄨 󵄨 ∑ 󵄨󵄨󵄨ℙx (X n = z) − ℙy (X n = z)󵄨󵄨󵄨 ⩽ 2ℙx,y (τ > n), n ∈ ℕ. z∈ℤd

15 Weil eine Rückkehr zum Startpunkt nur in geraden Schrittzahlen möglich ist, nennt man die einfache Irrfahrt 2-periodisch.

164 | 14 ⧫Irrfahrten und Analysis

Abb. 14.4: Kopplung von zwei einfachen symmetrischen Irrfahrten mit Werten in ℤ und der Pfad des Paares (X n , Y n ) ∈ ℤ2 . Auf dem um 45 Grad gedrehten Gitter, ist die Kopplung selbst eine einfache symmetrische Irrfahrt.

Beweis. 1o Wir schreiben Z n = (Z 󸀠n , Z 󸀠󸀠 n ) für die Kopplung. Mit der (starken) MarkovEigenschaft (Satz 14.2) erhalten wir ℙx,y (Z n ∈ B × ℝd , τ ⩽ n)

= =

14.2

Z 󸀠τ =Z 󸀠󸀠 τ

= =

n

∑ ℙx,y (Z n ∈ B × ℝd , τ = k)

k=0 n

∑ 𝔼x,y (ℙZ k ,Z k (Z n−k ∈ B × ℝd ) 𝟙{τ=k} ) 󸀠

k=0 n

󸀠󸀠

(14.17)

∑ 𝔼x,y (ℙZ k ,Z k (Z n−k ∈ ℝd × B) 𝟙{τ=k} ) 󸀠

󸀠󸀠

k=0

...

=

ℙx,y (Z n ∈ ℝd × B, τ ⩽ n) .

Für die mit Z 󸀠τ = Z 󸀠󸀠 τ gekennzeichnete Gleichheit verwenden wir, dass sich die beiden Koordinaten stochastisch gleich verhalten, da die Irrfahrten an derselben Stelle starten. 2o Für B = {z}, z ∈ ℤd erhalten wir ℙx (X n =z) − ℙy (X n = z)

= ℙx,y (Z n ∈ {z} × ℝd ) − ℙx,y (Z n ∈ ℝd × {z})

= ℙx,y (Z n ∈ {z} × ℝd , τ > n) − ℙx,y (Z n ∈ ℝd × {z}, τ > n) 1o

+ ℙx,y (Z n ∈ {z} × ℝd , τ ⩽ n) − ℙx,y (Z n ∈ ℝd × {z}, τ ⩽ n)

= ℙx,y (Z n ∈ {z} × ℝd , τ > n) − ℙx,y (Z n ∈ ℝd × {z}, τ > n)

= ℙx,y (Z n ∈ {z} × ℝd , τ > n) + ℙx,y (Z n ∈ ℝd × {z}, τ > n)

14 ⧫Irrfahrten und Analysis |

165

Diese Rechnung gilt auch für den Betrag der linken Seite. Wenn wir die Beträge über z ∈ ℤd summieren, folgt die Behauptung. Im Beweis von (14.17) haben wir eine weitere Variante der starken Markov-Eigenschaft bewiesen: Für eine Irrfahrt (Z n )n∈ℕ0 , eine Stoppzeit T und jede beschränkte Funktion u : ℤm → ℝ gilt 󵄨󵄨 𝔼z (u(Z n )𝟙{T ⩽n} ) = 𝔼z [𝔼Z T (u(Z n−t ))󵄨󵄨󵄨 𝟙{T ⩽n} ] = ∫ 𝔼Z T (ω) (u(Z n−T(ω) )) ℙz (dω). 󵄨t=T {T ⩽n}

Beachten Sie, dass die im Ausdruck Z n−T vorkommende Stoppzeit T für den „inneren“ Erwartungswert eine Konstante ist und erst vom „äußeren“ Erwartungswert integriert wird – das wird aus unserem Beweis klar. Übrigens ist ein Ausdruck der Form 𝔼z [𝔼Z T (u(Z n−T )) 𝟙{T ⩽n} ] nicht wohldefiniert, da im inneren Erwartungswert n − T negativ werden kann.

↶↷

Wir können nun Lemma 14.14 für den Fall k = 0 zeigen. Wir erinnern daran, dass y x, x, y ∈ ℤd , die Bedingung „die Summe ∑di=1 (x(i) − y(i) ) ist gerade“ bezeichnet.

14.23 Lemma. Es sei (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt mit Werten in ℤd . Die (1) (d) iid Schritte bezeichnen wir mit ξ n = (ξ n , . . . , ξ n ) ∈ ℤd . Für alle Startpunkte x, y ∈ ℤd mit y x gilt 󵄨 󵄨 lim ∑ 󵄨󵄨󵄨ℙx (X n = z) − ℙy (X n = z)󵄨󵄨󵄨 = 0.

↶↷

n→∞

z∈ℤd

Beweis. Offensichtlich folgt die Behauptung aus der Kopplungsungleichung (Lemma 14.22), wenn wir eine erfolgreiche Kopplung konstruieren können. 1o Für d = 1 können wir Kopplung durch Reflektion (Beispiel 14.21.c) verwenden. Weil x − y ∈ 2ℤ vorausgesetzt wird, ist 21 (x + y) ∈ ℤ, d.h. die Kopplung ist erfolgreich. Eine Alternative ist die modifizierte Mineka-Kopplung (Beispiel 14.21.e). Wir betrachten die Irrfahrt (Z n )n∈ℕ0 auf ℤ2 mit Startpunkt (x, y) ∈ ℤ2 und Schrittverteilung ℙx,y ((ζ1󸀠 , ζ1󸀠󸀠 ) = (±1, ±1)) =

1 . 4

Diese Irrfahrt ist offensichtlich eine Kopplung der einfachen Irrfahrten in ℤ []; andererseits ist sie selbst eine einfache Irrfahrt auf einem „Diagonalgitter“ (wie in Abb. 14.4), also nach Satz 11.14 rekurrent. Daher ist die Kopplung erfolgreich. 2o Nun sei d > 1 und alle Differenzen x(i) − y(i) , i = 1, . . . , d, seien gerade. In diesem Fall können wir die Kopplung in jeder Koordinate realisieren. Es seien (ν(n))n∈ℕ , (β i )i∈ℕ und (β󸀠i )i∈ℕ unabhängige Folgen von iid ZV, wobei ℙ(ν(1) = i) = 1d , i = 1, . . . , d, und ℙ(β1 = ±1) = ℙ(β󸀠1 = ±1) = 12 gelte. Wir definieren zwei Irrfahrten Z 󸀠n := x + ζ1󸀠 + ⋅ ⋅ ⋅ + ζ n󸀠

und

deren Schritte durch ζ n󸀠 := β n e ν(n)

und

󸀠󸀠 󸀠󸀠 Z 󸀠󸀠 n := y + ζ 1 + ⋅ ⋅ ⋅ + ζ n

ζ n󸀠󸀠 := (β n 𝟙{Z 󸀠(ν(n)) =Z 󸀠󸀠(ν(n)) } + β󸀠n 𝟙{Z 󸀠(ν(n)) =Z̸ 󸀠󸀠(ν(n)) } ) e ν(n) n−1

n−1

n−1

n−1

166 | 14 ⧫Irrfahrten und Analysis

gegeben sind (e i ∈ ℤd ist der ite Einheitsvektor). Offensichtlich sind (Z 󸀠n )n∈ℕ0 und (Z 󸀠󸀠 n )n∈ℕ0 einfache symmetrische Irrfahrten, deren Pfade in immer mehr Koordinaten übereinstimmen. Die Bedingung x(i) − y(i) ∈ 2ℤ stellt sicher, dass in jeder Koordinate die Kopplung erfolgreich ist. Daher ist die Kopplungszeit der Irrfahrten (Z 󸀠n )n∈ℕ0 , (Z 󸀠󸀠 n )n∈ℕ0 endlich.

↶↷

3o Wenn y x gilt, aber nicht alle Differenzen x(i) − y(i) gerade sind, müssen 2l Differenzen ungerade sein. Ohne Einschränkung können wir annehmen, dass die ersten 2l Koordinaten ungerade Differenzen aufweisen. Wir geben nun eine Kopplung an, so 󸀠(i) 󸀠󸀠(i) dass Z σ −Z σ ∈ 2ℤ für i = 1, . . . , d, und eine f.s. endliche Stoppzeit σ. Wir beginnen mit den Koordinatenrichtungen 1, 2. Wir definieren rekursiv zwei Irrfahrten Z 󸀠n := x + ζ1󸀠 + ⋅ ⋅ ⋅ + ζ n󸀠

und

󸀠󸀠 󸀠󸀠 Z 󸀠󸀠 n := y + ζ 1 + ⋅ ⋅ ⋅ + ζ n

deren Schritte für n ⩽ σ(2) := inf {n > σ(0) : ν(n) = 1 oder ν(n) = 2}, σ(0) := 0 durch vertauscht

ζ n󸀠

:= β n e ν(n)

und

ζ n󸀠󸀠

:= ( ζ n , ζ n , ζ n , . . . , ζ n ) , 󸀠(2)

󸀠(1)

󸀠(3)

󸀠(d) ⊤

σ(0) < n ⩽ σ(2),

gegeben sind. Die ZV β n , β󸀠n und ν(n) sind wie in Schritt 2o gewählt. Die Stoppzeit σ(2) gibt an, wann sich die Irrfahrt zum ersten Mal in den Koordinaten 1 oder 2 bewegt. Für 󸀠(1) 󸀠(2) n < σ(2) ist also ζ n = ζ n = 0, d.h. die Vertauschung der ersten und zweiten Koordinate in ζ n󸀠󸀠 ist unerheblich. Für n = σ(2) bewirkt die Vertauschung der Koordinaten 󸀠(i) 󸀠󸀠(i) in diesem Schritt, dass Z σ(2) − Z σ(2) ∈ 2ℤ für i = 1, 2. Wir fahren nun mit den Koordinaten i = 3, 4, σ(4) := inf {n > σ(2) : ν(n) = 3 oder ν(n) = 4} und σ(2) < n ⩽ σ(4) fort: vertauscht

ζ n󸀠

:= β n e ν(n) und

ζ n󸀠󸀠

:=

󸀠(1) 󸀠(2) 󸀠(4) 󸀠(3) 󸀠(5) (ζ n , ζ n , ζ n , ζ n , ζ n ,

. . . , ζ n ) , σ(2) < n ⩽ σ(4). 󸀠(d) ⊤

Wir haben Z σ(4) − Z σ(4) ∈ 2ℤ für i = 1, . . . , 4; beachte, dass die Irrfahrten in den Koordinaten i = 1, 2 „parallel“ laufen. Nach endlich vielen Iterationen folgt, dass wir zum Zeitpunkt σ(2l) in der Situation von Schritt 2o sind, und dann wie in diesem Schritt eine erfolgreiche Kopplung der Irrfahrten (Z 󸀠σ(2l)+n )n∈ℕ0 und (Z 󸀠󸀠 σ(2l)+n )n∈ℕ0 konstruieren können. 󸀠(i)

󸀠󸀠(i)

↶↷

14.24 Korollar. Es sei (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt mit Werten in ℤd . Für alle Startpunkte x, y ∈ ℤd mit y x und alle geraden Zahlen 2k ∈ ℕ0 gilt 󵄨 󵄨 lim ∑ 󵄨󵄨󵄨ℙx (X n = z) − ℙy (X n−2k = z)󵄨󵄨󵄨 = 0.

n→∞

z∈ℤd

Beweis. Wegen der starken Markov-Eigenschaft (Satz 14.2) gilt für alle n > 2k ℙx (X n = z) = 𝔼x [ℙX2k (X n−2k = z)] = ∑ ℙx (X2k = t) ℙt (X n−2k = z) . t∈ℤd

14 ⧫Irrfahrten und Analysis |

167

Somit erhalten wir 󵄨 󵄨 ∑ 󵄨󵄨󵄨ℙx (X n = z) − ℙy (X n−2k = z)󵄨󵄨󵄨 z∈ℤd =1 󵄨󵄨 󵄨󵄨 󵄨󵄨 󵄨󵄨 x t x y 󵄨 󵄨 = ∑ 󵄨󵄨 ∑ ℙ (X2k = t) ℙ (X n−2k = z) − ∑ ℙ (X2k = t)ℙ (X n−2k = z)󵄨󵄨󵄨󵄨 󵄨 󵄨󵄨 z∈ℤd 󵄨󵄨t∈ℤd t∈ℤd 󵄨 󵄨 󵄨 ⩽ ∑ ∑ ℙx (X2k = t) 󵄨󵄨󵄨󵄨ℙt (X n−2k = z) − ℙy (X n−2k = z)󵄨󵄨󵄨󵄨 z∈ℤd t∈ℤd

󵄨 󵄨 = ∑ ℙx (X2k = t) ∑ 󵄨󵄨󵄨󵄨ℙt (X n−2k = z) − ℙy (X n−2k = z)󵄨󵄨󵄨󵄨 . t∈ℤd

z∈ℤd

↶↷

↶↷ ↶↷

Die Wahrscheinlichkeit ℙx (X2k = t) ist genau dann nicht Null, wenn t von x aus in 2k Schritten erreicht werden kann, daher folgt t y aus t x y. Weil die innere Summe durch 2 beschränkt werden kann, folgt die Behauptung aus Lemma 14.23 und dem Satz von der dominierten Konvergenz.

Aufgaben 1.

Zeigen Sie, dass die Bedingungen (14.4) und (14.6) äquivalent sind.

2.

Es sei (X n )n∈ℕ0 , X0 = 0, eine beliebige Irrfahrt mit Werten in ℝd und T eine f.s. endliche Stoppzeit. Zeigen Sie, dass für beschränkte f, g : ℤd → ℝ gilt 𝔼f(X T )g(X n+T ) = 𝔼f(X T )𝔼X T g(X n )

3. 4. 5. 6.

7.

8. 9.

und folgern Sie – ohne weitere Rechnung! – daraus, dass diese Beziehung auch für 𝔼x gilt.

Zeigen Sie, dass eine harmonische Funktion u : ℤd → [0, ∞), die an einer Stelle Null wird, überall Null ist. Es seien u n : ℤd → [0, ∞), n ∈ ℕ, harmonische Funktionen, so dass u(x) = limn→∞ u n (x) für alle x ∈ ℤd existiert. Zeigen Sie, dass u harmonisch ist. Zeigen Sie, dass eine harmonische Funktion, die von unten beschränkt ist, konstant ist.

Es sei A ⊂ ℤd beschränkt und zusammenhängend. Zeigen Sie, dass zwei auf A harmonische Funktionen u, v : ℤd → ℝ übereinstimmen, wenn u|∂A = v|∂A gilt. Hinweis. Wenden Sie Satz 14.8 auf u − v und v − u an.

Es sei T = inf{n : X n ∉ A} die Austrittszeit der einfachen symmetrischen Irrfahrt (X n )n∈ℕ0 aus der zusammenhängenden Menge A ⊂ ℤd und f : ∂A → ℝ. Zeigen Sie, dass 𝔼x f(X T ) entweder für alle x ∈ A oder für kein x ∈ A existiert. Formulieren und beweisen Sie Lemma 14.10 für subharmonische Funktionen.

In dieser Aufgabe betrachten wir ausschließlich positive Funktionen. Es sei P der Übergangsn 0 operator der einfachen symmetrischen Irrfahrt (X n )n∈ℕ0 auf ℤd und Gu := ∑∞ n=0 P u (P := I, n P := P ∘ ⋅ ⋅ ⋅ ∘ P; G ist der sog. Potentialoperator). n

(a) Zeigen Sie, dass PG = G − I und G∆ = ∆G = −I gilt.

(b) Zeigen Sie, dass Gu(x) = 𝔼x [∑∞ n=0 u(X n )] und interpretieren Sie diesen Befund.

168 | 14 ⧫Irrfahrten und Analysis (c)

Es sei τ = inf{n : X n ∈ B} die erste Eintrittszeit in die Menge B ⊂ ℤd . Zeigen Sie, dass für u = Gf die sog. Dynkin-Formel gilt: τ−1

u(x) − 𝔼x u(X τ ) = 𝔼x [ ∑ f(X n )] ; i=0

(u(X τ ) := 0 auf der Menge {τ = ∞}).

(d) (Maximumprinzip) Wenn Gu ⩾ Gv auf dem Träger von Gv gilt, dann gilt die Ungleichung bereits überall. Hinweis. Teil (c) und B ist der Träger von Gv. (e) (Balayageprinzip) Es sei τ = inf{n : X n ∈ B} die erste Eintrittszeit in die Menge B und u(x) = 𝔼x Gf(X τ ) für eine Funktion f ⩾ 0. Dann gilt (i)

(iii)

u ist ein Potential, d.h. u = Gψ für ein ψ ⩾ 0; u ⩽ Gf;

(ii)

(iv)

Diese Eigenschaften charakterisieren u eindeutig. (f)

u|B = Gf|B ;

{u ≠ 0} ⊂ B.

(Riesz-Zerlegung) Jede positive superharmonische (eine sog. exzessive) Funktion u ist von der Form u = Gf + h, wobei h ⩾ 0 harmonisch und f ⩾ 0 ist. Diese Zerlegung ist eindeutig. Anleitung. f = u − Pu und h = limn→∞ P n u.

(g) Zeigen Sie, dass die Funktion x 󳨃→ ℙy (τ < ∞) exzessiv ist und finden Sie deren RieszZerlegung.

10. Es sei (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt auf ℤ. Zeigen Sie, dass X 2n − n ein Martingal ist. Gilt das auch noch, wenn X n eine Irrfahrt auf ℤd ist?

11. Es sei (X n )n∈ℕ0 einfache symmetrische Irrfahrt auf ℤ, a < x < b und T = inf{n : X n + x ∉ (a, b)}. Folgern Sie aus den Waldschen Identitäten, dass ℙx (X T = a) =

b−x b−a

und

ℙx (X T = b) =

x−a . b−a

12. Geben Sie das im Beweis von Satz 14.12 erwähnte Gleichungssystem explizit an. 13. Es sei A ⊂ ℤd eine Menge, (X n )n∈ℕ0 eine einfache symmetrische Irrfahrt mit Werten in ℤd , T = inf{n ∈ ℕ0 : X n ∈ A c } und f : ∂A → [0, ∞). Dann ist w(x) := 𝔼x (f(X T )𝟙{T n).

17. (Lazy random walk) Es sei (X n )n∈ℕ0 , X0 = 0, eine Irrfahrt mit Werten in ℤ und der Schrittverteilung ℙ0 (ξ1 = 1) = p, ℙ0 (ξ1 = −1) = q und ℙ0 (ξ1 = 0) = r, p + q + r = 1. Weiterhin sei T1 = inf{n : X n = 1}. Bestimmen Sie ℙ0 (T1 = ∞) und 𝔼0 T1 . Finden Sie die momentenerzeugende Funktion von T1 , wenn ξ1 symmetrisch ist, und zeigen Sie, dass 𝔼0 √ T1 < ∞. Folgern Sie, dass für die Kopplungszeit in Lemma 14.23 ℙx (τ > n) ⩽ c/√n gilt. Hinweis. Gambler’s Ruin, Beispiel 11.7–11.10.

15 ⧫Donskers Invarianzprinzip und die Brownsche Bewegung Der schottische Botaniker Robert Brown beobachtete bei seinen Studien zur Bestäubung von Pflanzen, dass sich in Wasser suspendierte „Pollenkörnchen“ auf eine merkwürdige Weise scheinbar chaotisch bewegten. Meine Untersuchung begann im Juni 1827, und die erste Pflanze, welche ich untersuchte, zeigte sich mir in gewisser Rücksicht merkwürdig wohl geeignet zu dem beabsichtigten Zwecke.

Brown interessierte sich für das Verhalten des Pollens während der Bestäubung der Blüte. Um die Ausrichtung des Pollens unter dem Mikroskop beobachten zu können, suchte er nach Pflanzen mit nicht kugelförmigen, asymmetrischen Pollen. Diese Pflanze war Clarckia pulchella. Die Körner ihres Pollens, welcher von den völlig ausgewachsen, aber noch nicht aufgebrochenen Antheren abgenommen worden, waren mit Partikeln oder 1 Körnchen von ungewöhnlicher Größe gefüllt. Ihre Länge schwankte von fast 4000 bis ungefähr 1 6000 Zoll [das sind etwa 4–6 Mikrometer], und ihre, vielleicht etwas abgeplattete, Gestalt zwischen einer cylindrischen und ovalen, welche zugerundete und gleiche Enden hatte. Als ich die Gestalt dieser, in Wasser getauchten Partikeln untersuchte, bemerkte ich, daß viele von ihnen sichtlich in Bewegung waren. Ihre Bewegung bestand nicht bloß aus einer Ortsveränderung in der Flüssigkeit, wie es sich durch die Veränderungen in ihren gegenseitigen Lagen ergab [...]. Nach häufiger Wiederholung dieser Beobachtungen überzeugte ich mich, dass diese Bewegungen weder von Strömungen in der Flüssigkeit, noch von deren allmähliger Verdampfung herrührten, sondern den Partikelchen selbst angehörten. Robert Brown [9], S. 296

Zu Beginn des 20. Jahrhunderts finden unabhängig voneinander Albert Einstein (1905) und Marian von Smoluchowski (1906) die physikalische Erklärung dieses Phänomens: Die Pollenkörner und die Wassermoleküle üben denselben osmotischen Druck aus, m.a.W. die Bewegung der Pollenkörner wird durch ständige Stöße der viel kleineren (ca. 0,3 Nanometer großen) Wassermoleküle verursacht. Dieser Befund macht die Brownsche Molekularbewegung zu einem Problem der Wahrscheinlichkeitstheorie. Zur mathematischen Beschreibung dieser Bewegung können wir eine einfache symmetrische Irrfahrt verwenden. Wir nehmen an, dass ein Teilchen 󳶳 an der Stelle X0 = 0 startet, 󳶳 sich nur zu den diskreten Zeitpunkten k∆t, k ∈ ℕ, bewegt, 󳶳 Schritte der Länge |∆x| hat, die in jeder Richtung gleich wahrscheinlich sind, und dass ∆x nur von ∆t, nicht aber von der aktuellen Position oder Zeit abhängt. Der Einfachheit halber betrachten wir nur eine Koordinate, also eine eindimensionale einfache symmetrische Irrfahrt (X k )k∈ℕ0 mit iid Schritten ξ k ∆x auf dem Gitter ∆x ⋅ ℤ. Wenn wir ∆t = 1/n für ein n ∈ ℕ wählen, ist das Teilchen zur Zeit t ∈ [0, 1] an https://doi.org/10.1515/9783110350685-015

170 | 15 ⧫Donskers Invarianzprinzip und die Brownsche Bewegung

der Stelle S nt = ∑k=1 ξ k ∆x, und es gilt ⌊nt⌋

𝔼S nt = 0

und

⌊nt⌋

𝕍S nt = ∑ (∆x)2 𝕍ξ k = (∆x)2 ⌊nt⌋ = (∆x)2 ⌊ k=1

t (∆x)2 . ⌋≈t ∆t ∆t

Um eine Bewegung in stetiger Zeit zu erhalten, vollziehen wir den Grenzübergang ∆t → 0. Weil 𝕍S t ein Maß für die mittlere Entfernung des Teilchens vom Ursprung ist, müssen wir ∆x ≈ σ√∆t für eine Konstante σ > 0 voraussetzen, damit der Grenzwert nichttrivial ist. Es gilt also S nt =

t/∆t σ ⌊nt⌋ ∑ ξ k ≈ ∆x ∑ ξ k , √n k=1 k=1

t ∈ [0, 1], n = ⌊1/∆t⌋.

(15.1)

Mit dem zentralen Grenzwertsatz (Satz von DeMoivre–Laplace [WT, Satz 8.8] oder Satz 8.16) können wir den Grenzwert im Sinne der Konvergenz in Verteilung bestimmen. Ohne Beschränkung der Allgemeinheit wählen wir ab sofort σ = 1.

15.1 Lemma. Es sei (X n )n∈ℕ eine Irrfahrt mit Werten in ℝ und symmetrischen iid Schritten (ξ n )n∈ℕ mit Varianz 𝕍ξ1 = σ2 = 1. Dann gilt für die ZV S nt aus (15.1) d

S nt 󳨀󳨀󳨀󳨀→ G t ∼ N(0, t), n→∞

t ∈ [0, 1].

Wir interessieren uns auch für den Grenzwert des Vektors (S nt1 , . . . , S ntk ) zu den Zeitpunkten t0 := 0 ⩽ t1 < t2 < ⋅ ⋅ ⋅ < t k ⩽ 1. Wir betrachten zunächst (S nt1 , S nt2 − S nt1 , . . . , S ntk − S ntk−1 ).

l 1 ξ m , l = 1, . . . , k, sind unabhängige ZV, weil Die Zuwächse S ntl − S ntl−1 = √n ∑m=⌊nt l−1 ⌋+1 die Schritte der Irrfahrt iid sind. Aus der Charakterisierung der Konvergenz in Verteilung (Satz A.7) folgt, dass

⌊nt ⌋

d

(S nt1 , S nt2 − S nt1 , . . . , S ntk − S ntk−1 ) 󳨀󳨀󳨀󳨀→ (G1t1 , G2t2 −t1 , . . . , G ktk −t k−1 ) n→∞

für unabhängige normalverteilte ZV G it i −t i−1 ∼ N(0, t i − t i−1 ). In der Tat haben wir für beliebige θ1 , . . . , θ k ∈ ℝ 𝔼e

i⟨(θ1 ,θ2 ,...,θ k ), (S nt1 ,S nt2 −S nt1 ,...,S nt −S nt k

k

= ∏ 𝔼e l=1

iθ l (S nt −S nt l

l−1

)

k

= ∏ 𝔼e l=1

k−1

)⟩

l 1 iθ l ( √n ∑m=⌊nt ⌊nt ⌋

l−1 ⌋+1

ξ m ) Lemma 15.1 󳨀󳨀󳨀󳨀󳨀󳨀󳨀󳨀→ n→∞

k

∏ e− 2 (t l −t l−1 )θ l . 1

2

l=1

Weil e die charakteristische Funktion einer ZV G lt l −t l−1 ∼ N(0, t l − t l−1 ) ist, folgt die behauptete Konvergenz. Die ZV G lt l −t l−1 , l = 1, . . . , k sind außerdem unabhängig – das sehen wir mit der Charakterisierung der Unabhängigkeit durch charakteristische Funktionen (Satz von Kac [WT, Korollar 7.9]). Diese Beobachtung erlaubt es uns, die Verteilung des ursprünglich betrachteten Vektors zu bestimmen. −(t l −t l−1 )θ2l /2

15 ⧫Donskers Invarianzprinzip und die Brownsche Bewegung | 171

Wir schreiben S nt := (S nt1 , S nt2 , . . . , S ntk )⊤ , δS nt := (S nt1 , S nt2 − S nt1 , . . . , S ntk − S ntk−1 )⊤ , und δG t := (G1t1 , G2t2 −t1 , . . . , G ktk −t k−1 )⊤ . Wenn M eine untere Dreiecksmatrix ist, deren Einträge alle „1“ sind, dann ist S nt = MδS nt . Aus den oben gemachten Überlegungen folgt dann für alle ξ ∈ ℝk 𝔼e i⟨ξ , S t ⟩ = 𝔼e i⟨ξ , MδS t ⟩ = 𝔼e i⟨M n

n

also

d



ξ , δS nt ⟩

󳨀󳨀󳨀󳨀→ 𝔼e i⟨M



n→∞

ξ , δG t ⟩

= 𝔼e i⟨ξ , MδG t ⟩ ,

S nt 󳨀󳨀󳨀󳨀→ (G t1 , . . . , G t k ) := MδG t = (G1t1 , G1t1 + G2t2 −t1 , . . . , G1t1 + ⋅ ⋅ ⋅ + G ktk −t k−1 ) . ⊤



n→∞

Auf Grund der Unabhängigkeit der Summanden gilt G1t1 + ⋅ ⋅ ⋅ + G lt l −t l−1 ∼ N(0, t l ). Wenn wir noch 𝔼G t l = 0

und 𝔼(G t l G t m ) = t l ∧ t m

beachten [], dann haben wir folgendes Lemma gezeigt.

15.2 Lemma (Konvergenz der endlich-dimensionalen Verteilungen). Es sei (X n )n∈ℕ eine Irrfahrt mit Werten in ℝ und symmetrischen iid Schritten (ξ n )n∈ℕ mit Varianz 𝕍ξ1 = 1. Dann gilt für die in (15.1) definierte ZV S nt und alle 0 < t1 < ⋅ ⋅ ⋅ < t k ⩽ 1 d

(S nt1 , . . . , S ntk ) 󳨀󳨀󳨀󳨀→ (G t1 , . . . , G t k ) ∼ N(0, Γ) n→∞

Γ = (t l ∧ t m )l,m=1,...,k .

Weil wir uns für stetige Pfade interessieren, betrachten wir statt der Treppenfunktion S nt die lineare Interpolation der Irrfahrt X k , k = 1, . . . , n, vgl. Abb. 15.1 1 ⌊nt⌋ (nt − ⌊nt⌋) Ŝ nt := ξ⌊nt⌋+1 , ∑ ξk + √n k=1 √n

t ∈ [0, 1].

(15.2)

d Es ist einfach zu sehen, dass Ŝ nt 󳨀󳨀→ G t ∼ N(0, t); weil durch die lineare Interpolation die Unabhängigkeit der Zuwächse verloren geht, müssen wir im multivariaten Fall etwas vorsichtiger als bisher argumentieren.

15.3 Lemma (Konvergenz der endlich-dimensionalen Verteilungen). Es sei (X n )n∈ℕ eine Irrfahrt mit Werten in ℝ und symmetrischen iid Schritten (ξ n )n∈ℕ mit Varianz 𝕍ξ1 = 1. Dann gilt für die in (15.2) definierte ZV Ŝ nt und alle t0 = 0 < t1 < ⋅ ⋅ ⋅ < t k ⩽ t (Ŝ nt1 , . . . , Ŝ ntk ) 󳨀󳨀󳨀󳨀→ (G t1 , . . . , G t k ) ∼ N(0, Γ), d

n→∞

Beweis. Offensichtlich gilt

Γ = (t l ∧ t m )l,m=1,...,k .

(Ŝ nt1 , . . . , Ŝ ntk ) = (S nt1 , . . . , S ntk ) + (c(t1 )ξ⌊nt1 ⌋+1 , . . . , c(t k )ξ⌊nt k ⌋+1 ) ,

c(t i ) = (nt i − ⌊nt i ⌋)/√n. Für alle ϵ > 0 und t ∈ [0, 1] erhalten wir mit der Chebyshevschen Ungleichung ℙ (c(t)|ξ⌊nt⌋+1 | > ϵ) ⩽

c(t)2 c(t)2 1 𝕍ξ⌊nt⌋+1 = 2 ⩽ 2 󳨀󳨀󳨀󳨀→ 0, 2 ϵ ϵ ϵ n n→∞

172 | 15 ⧫Donskers Invarianzprinzip und die Brownsche Bewegung

Abb. 15.1: Ein „typischer“ Pfad einer einfachen symmetrischen Irrfahrt (X n )n∈ℕ , sowie die lineare ̂ n , t ∈ [0, 1] und die Treppenfunktion √nS n = X⌊nt⌋ , t ∈ [0, 1]. Interpolation √n S t t

d.h. c(t)ξ⌊nt⌋+1 konvergiert in Wahrscheinlichkeit gegen 0. Weil dann auch der Vektor (c(t1 )ξ⌊nt1 ⌋+1 , . . . , c(t k )ξ⌊nt k ⌋+1 ) gegen 0 ∈ ℝk konvergiert, folgt die Behauptung aus d

d

dem Satz von Slutsky (Satz A.9), wonach für U n 󳨀󳨀→ U und V n 󳨀 → 0 auch U n +V n 󳨀󳨀→ U gilt. ℙ

15.4 Definition (Wiener 1923). Es sei C = C[0, 1] der Raum der stetigen Funktionen w : [0, 1] → ℝ, den wir mit der Supremumnorm ‖w‖∞ := supt∈[0,1] |w(t)| versehen; mit B(C) bezeichnen wir die Borelsche (d.h. topologische, von den offenen Mengen erzeugte) σ-Algebra. Das Wiener-Maß ist ein W-Maß μ auf (C, B(C)), das folgende Eigenschaften hat (W0) μ ({w ∈ C : w(0) = 0}) = 1;

(W1) ∀t ∈ (0, 1], α ∈ ℝ : μ({w ∈ C : w(t) ⩽ α}) =

α

1

√2πt

−∞

(W2) ∀k ∈ ℕ, t0 = 0 < t1 < ⋅ ⋅ ⋅ < t k ⩽ 1, α1 , . . . , α k ∈ ℝ : k

k

i=1

i=1

μ (⋂ {w ∈ C : w(t i ) − w(t i−1 ) ⩽ α i }) = ∏

1

y2

∫ e− 2t dy;

√2π(t i − t i−1 )

αi

∫ e

−∞

− 2(t

y2 i −t i−1 )

dy.

Die Existenz des Wiener-Maßes ist nicht trivial. Ehe wir die Existenz zeigen, erinnern wir an die Konstruktion einer Zufallsvariable X mit einer vorgegebenen Verteilung ν auf einem beliebigen Meßraum (E, E ), vgl. [WT, Kapitel 6, S. 55]: (Ω, A , ℙ) := (E, E , ν)

und

X := idE .

Wenn wir diese Vorgehensweise auf das Wiener-Maß übertragen, sehen wir, dass die Existenz des Wiener-Maßes und einer Brownschen Bewegung (s.u.) äquivalent sind. 15.5 Definition. Es sei (Ω, A , ℙ) ein W-Raum. Eine eindimensionale Brownsche Bewegung (mit Indexmenge [0, 1]) ist ein stochastischer Prozess B t : Ω → ℝ, t ∈ [0, 1] mit folgenden Eigenschaften:

(B0) ℙ(B0 = 0) = 1;

15 ⧫Donskers Invarianzprinzip und die Brownsche Bewegung | 173

y2 1 e− 2t ; (B1) ∀t ∈ (0, 1], B t ∼ g t (y) dy, g t (y) = √2πt (B2a) ∀0 ⩽ s ⩽ t ⩽ 1 : B t − B s ∼ B t−s ; k (B2b) ∀k ∈ ℕ, t0 = 0 < t1 < ⋅ ⋅ ⋅ < t k ⩽ 1 : (B t i − B t i−1 )i=1 sind unabhängige ZV. (B3) t 󳨃→ B t (ω) ist für alle ω ∈ Ω stetig.

Wenn wir – wie in der oben angegebenen Konstruktion einer ZV mit vorgegebener Verteilung – Ω = C setzen, dann gilt offenbar B t (ω) = w(t) mit ω = w ∈ C. Das zeigt, dass die Eigenschaften (B0), (B1) und (W0), (W1) übereinstimmen. Die Beobachtung k

k

i=1

i=1

μ (⋂ {w ∈ C : w(t i ) − w(t i−1 ) ⩽ α i }) = ∏ (W1)

k

1

√2π(t i − t i−1 )

αi

∫ e

−∞

− 2(t

y2 i −t i−1 )

dy

= ∏ μ({w ∈ C : w(t i − t i−1 ) ⩽ α i }) i=1

zeigt, dass die gemeinsame Verteilungsfunktion der ZV B t i −B t i−1 faktorisiert, und dass die Faktoren die Verteilungsfunktionen der B t i −t i−1 sind; m.a.W., auch (B2a,b) und (W2) entsprechen einander. Weil Ω = C ist, folgt (B3) aus der Definition des Wiener-Maßes. Die Existenz des Wiener-Maßes kann man mit Kolmogorovs Satz über Wahrscheinlichkeiten in unendlich-dimensionalen Räumen16 mit einem projektiven Limes der endlich-dimensionalen Verteilungen zeigen. Hier beschreiten wir einen anderen Weg, der von Donsker [18] aufgezeigt wurde. (i) Wir realisieren die Verteilung von Ŝ nt als W-Maß μ n im Raum (C, B(C)); (ii) Wir zeigen, dass die Familie (μ n )n∈ℕ schwach gegen ein W-Maß μ auf (C, B(C)) konvergiert, d.h. es gilt limn→∞ ∫C f(w) μ n (dw) = ∫C f(w) μ(dw) für alle stetigen und beschränkten Funktionen f : C → ℝ. Das ist die Konvergenz in Verteilung des Prozesses Ŝ ∙n gegen eine Brownsche Bewegung B∙ . (iii) Wir identifizieren mit Hilfe von Lemma 15.3 μ als Wiener-Maß. Dieses Programm heißt – weil es universell, d.h. „invariant“ bezüglich der Schrittverteilung der Irrfahrt ist – Invarianzprinzip von Donsker. Wenn wir (i)–(iii) abgearbeitet haben, folgt insbesondere: 15.6 Satz. Das Wiener-Maß μ existiert und ist eindeutig durch (W0)–(W2) bestimmt.

Bezeichnungen, Messbarkeitsüberlegungen Der Satz von Weierstraß (z.B. [WT, Satz 8.6]) zeigt, dass die Polynome dicht im Raum (C, ‖∙‖∞ ) sind. Daraus kann man leicht ableiten, dass die Polynome mit rationalen 16 [27, Kapitel III.4, S. 24ff.], vgl. [BM, Appendix A1, S. 359ff.] für eine moderne Darstellung.

174 | 15 ⧫Donskers Invarianzprinzip und die Brownsche Bewegung Koeffizienten – wir schreiben dafür Pol – eine abzählbare dichte Teilmenge von C sind, d.h. der Raum (C, ‖∙‖∞ ) ist separabel. In (C, ‖∙‖∞ ) ist 𝔹(v, r) := {w ∈ C : ‖w − v‖∞ < r} die offene Kugel mit Zentrum v und Radius r > 0; π t1 ,...,t k : ℝ[0,1] → ℝk bezeichnet die Koordinatenprojektion w 󳨃→ (w(t1 ), . . . , w(t k )). Das folgende Lemma und sein Beweis erlauben einen ersten Einblick in die Struktur der σ-Algebra B(C). 15.7 Lemma. Es gilt C ∩ B(ℝ[0,1] ) = B(C).

Beweis. Nach Definition gilt B(ℝ[0,1] ) = σ(π t , t ∈ [0, 1]), vgl. [MI, Definition 17.2] oder [WT, Definition 6.4]. Offensichtlich ist π t |C stetig bezüglich der Norm ‖∙‖∞ . Mithin folgt σ(π t |C , t ∈ [0, 1]) ⊂ B(C), also C ∩ B(ℝ[0,1] ) ⊂ B(C). Umgekehrt folgt aus der Beobachtung ‖w‖∞ =

sup

r∈[0,1]∩ ℚ

|w(r)|,

w ∈ C,

dass die Abbildung w 󳨃→ ‖w‖∞ messbar ist bezüglich σ(π t |C , t ∈ [0, 1]), mithin bezüglich C ∩ B(ℝ[0,1] ). Weil C separabel ist, können wir jede offene Menge U ⊂ C folgendermaßen darstellen17 U=



𝔹(p,r)⊂U p∈Pol, r∈ℚ+

𝔹(p, r),

𝔹(p, r) := {w ∈ C : ‖w − p‖∞ < r} .

Weil 𝔹(p, r) ∈ C ∩ B(ℝ[0,1] ) ist, folgt U ∈ C ∩ B(ℝ[0,1] ). Die offenen Mengen erzeugen B(C), daher folgt B(C) ⊂ C ∩ B(ℝ[0,1] ). Lemma 15.7 zeigt insbesondere, dass die Familie

{π−1 t1 ,...,t k (B 1 × ⋅ ⋅ ⋅ × B k ) : k ∈ ℕ, 0 ⩽ t 1 < t 2 < ⋅ ⋅ ⋅ < t k ⩽ 1, B 1 , . . . , B k ∈ B(ℝ)}

ein ∩-stabiler [] Erzeuger von B(C) ist. Daher folgt das nachstehende Korollar aus dem Eindeutigkeitssatz für Maße [MI, Satz 4.5]. 15.8 Korollar. Ein Maß μ auf (C, B(C)) wird eindeutig durch die endlich-dimensionalen Bildmaße μ ∘ π−1 t1 ,...,t k bestimmt.

Wir können uns nun den Punkten (i)–(iii) zuwenden.

Beweis von Punkt (i) 15.9 Lemma. Es sei (X n )n∈ℕ0 eine Irrfahrt mit Werten in ℝ und Schritten (ξ n )n∈ℕ . Die lineare Interpolation (Ŝ nt )t∈[0,1] (15.2) definiert eine messbare Abbildung Ŝ n : Ω → C. 17 Das ist das gleiche Argument wie im endlich-dimensionalen Fall, vgl. [MI, Satz 2.8(*)].

15 ⧫Donskers Invarianzprinzip und die Brownsche Bewegung | 175

Beweis. Der Beweis von Lemma 15.7 zeigt auch, dass B(C) durch die Familien der offenen Kugeln 𝔹(p, δ) := {w ∈ C : ‖w − p‖∞ < δ} bzw. der abgeschlossenen Kugeln 𝔹(p, δ) (jeweils δ > 0 und p ∈ Pol) erzeugt wird. Weil die ZV ω 󳨃→ Ŝ nt (ω) messbar ist, folgt die Behauptung aus {Ŝ n ∈ 𝔹(p, δ)} = {ω ∈ Ω : ‖Ŝ n (ω) − p‖∞ ⩽ δ} =

= Ŝ n



r∈ℚ∩ [0,1]



r∈ℚ∩ [0,1]

{ω ∈ Ω : |Ŝ nr (ω) − p(r)| ⩽ δ}

{ω ∈ Ω : Ŝ nr (ω) ∈ B δ (p(r))} ∈ A . ∈A

Weil eine C-wertige ZV ist, ist die Verteilung μ n := ℙ ∘ (Ŝ n )−1 ein W-Maß auf (C, B(C)). Das beweist den folgenden Satz und löst Aufgabe (i). 15.10 Satz. Es sei (X n )n∈ℕ0 eine Irrfahrt mit Werten in ℝ und Schritten (ξ n )n∈ℕ . Die Verteilung μ n der linearen Interpolation (Ŝ nt )t∈[0,1] ist ein W-Maß auf (C, B(C)). Beweis von Punkt (iii) Wir wenden uns nun Teil (iii) zu und nehmen an, dass μ irgendein Häufungspunkt d

der Folge (μ n )n∈ℕ aus Satz 15.10 ist, d.h. es gilt für eine Teilfolge μ n(i) 󳨀󳨀→ μ. Für beliebige 0 ⩽ t1 < t2 < ⋅ ⋅ ⋅ < t k ⩽ 1, k ∈ ℕ und Intervalle B1 , . . . , B k ∈ B(ℝ) gilt wegen Lemma 15.3 und dem Portmanteau-Theorem [MI, Satz 25.3] (beachte, dass die Intervalle randlose Mengen im Sinne des Portmanteau-Theorems sind) ℙ (Ŝ t1 ∈ B1 , . . . , Ŝ t k ∈ B k ) 󳨀󳨀󳨀󳨀→ ℙ (G t1 ∈ B1 , . . . , G t k ∈ B k ) n(i)

n(i)

i→∞

mit einer ZV (G t1 , . . . , G t k ) ∼ N(0, Γ) und Γ = (t l ∧ t m )l,m=1,...,k . Andererseits ist für die Projektion π t1 ,...,t k : C → ℝk , w 󳨃→ (w(t1 ), . . . , w(t k )) ℙ (Ŝ t1 ∈ B1 , . . . , Ŝ t k ∈ B k ) = μ n(i) ∘ π−1 t1 ,...,t k (B 1 × ⋅ ⋅ ⋅ × B k ) n(i)

n(i)

󳨀󳨀󳨀󳨀→ μ ∘ π−1 t1 ,...,t k (B 1 × ⋅ ⋅ ⋅ × B k ). i→∞

Weil die kartesischen Produkte der Intervalle ein ∩-stabiler Erzeuger der Borel-σAlgebra B(ℝk ) sind, zeigt diese Überlegung, dass μ ∘ π−1 t1 ,...,t k = N(0, Γ) gilt, und dass daher μ die Eigenschaften (W0)–(W2) aus Definition 15.4 besitzt. Wegen Korollar 15.8 ist das Wiener-Maß eindeutig durch die Maße μ ∘ π−1 t1 ,...,t k bestimmt, d.h. es kann höchstens einen Häufungspunkt geben.

Beweis von Punkt (ii) Wir benötigen folgenden tiefen Satz, der zuerst von Prohorov 1956 bewiesen wurde. Einen sehr schön aufgeschriebenen Beweis findet man im Buch von Parthasarathy [36, Kapitel 7.2, S. 288ff.].

176 | 15 ⧫Donskers Invarianzprinzip und die Brownsche Bewegung

15.11 Satz (Prohorov 1956). Eine Familie P von W-Maßen auf (C, B(C)) ist genau dann relativ kompakt bezüglich der schwachen Konvergenz von W-Maßen, wenn P straff (engl.: tight) ist, d.h. ∀ϵ > 0

∃K = K ϵ ⊂ C kompakt ∀ν ∈ P : ν(K) > 1 − ϵ.

Die Struktur relativ kompakter Teilmengen von C wird durch den Satz von Arzelà– Ascoli beschrieben, vgl. Rudin [39, Satz 11.28, S. 294f.]. 15.12 Satz (Arzelà–Ascoli). Eine Familie K ⊂ C, die punktweise beschränkt und gleichgradig stetig ist, d.h. ∀t ∈ [0, 1] : sup |w(t)| < ∞, w∈K

∀ϵ > 0 ∃δ > 0 ∀|s − t| < δ : sup |w(t) − w(s)| < ϵ, w∈K

ist relativ kompakt im Raum (C, ‖∙‖∞ ).

15.13 Lemma. Es sei μ n = ℙ ∘ (Ŝ n )−1 die Verteilung der C-wertigen ZV Ŝ ∙n . Hinreichend für die Straffheit der Familie (μ n )n∈ℕ ist, dass die Bedingungen a) & b) oder a) & c) erfüllt sind: a) ∀η > 0 ∃a > 0 ∀n ∈ ℕ : ℙ (|Ŝ 0n | > a) ⩽ η. b) ∀ϵ, η > 0 ∃h ∈ (0, 1) ∀n ∈ ℕ : ℙ (sup|t−r|⩽h |Ŝ nt − Ŝ nr | ⩾ ϵ) ⩽ η. 1 c) ∀ϵ, η > 0 ∃h ∈ (0, 1) ∀n ∈ ℕ t ∈ [0, 1] : ℙ (supr∈[t,t+h] |Ŝ nt − Ŝ nr | ⩾ ϵ) ⩽ η. h Beweis. Wir überlegen uns erst, dass c) die Bedingung b) impliziert. Für festes ϵ, η > 0 wählen wir h wie in c) angegeben. Wir können annehmen, dass 1/h ∈ ℕ und r ⩽ t. Wenn |t − r| ⩽ h ist, dann gilt entweder r, t ∈ [ih, (i + 1)h] oder r ∈ [ih, (i + 1)h], t ∈ [(i + 1)h, (i + 2)h] für ein i ⩽ 1/h. Mit der Dreiecksungleichung sehen wir, dass 1/h−1

{ sup |Ŝ nt − Ŝ nr | ⩾ 3ϵ} ⊂ ⋃ { |r−t|⩽h

i=0

sup

ih⩽r⩽(i+1)h

|Ŝ nih − Ŝ nr | ⩾ ϵ}

und die Abschätzung ℙ ({ sup |Ŝ nt − Ŝ nr | ⩾ 3ϵ}) ⩽ |r−t|⩽h

1 h

max

0⩽i⩽1/h−1

ℙ ({

sup

ih⩽r⩽(i+1)h

|Ŝ nih − Ŝ nr | ⩾ ϵ}) ⩽ η

zeigt b). Wir zeigen nun, dass a) und b) hinreichend für die Straffheit sind. Wir betrachten die Mengen A0 := {w ∈ C : w(0) ⩽ a}

und

A k := {w ∈ C : sup |w(t) − w(r)| ⩽ |t−r|⩽h k

1 } k

und wählen in b) h k so, dass ℙ(Ŝ ∙n ∈ A k ) ⩾ 1 − η2−k−1 gilt. Der Satz von Arzelà–Ascoli (Satz 15.12) zeigt, dass die Menge K := ⋂∞ k=0 A k relativ kompakt ist, und es gilt μ n (K) = ℙ ({Ŝ ∙n (ω) ∈ C : ω ∈ K n }) ⩾ 1 − η.

15 ⧫Donskers Invarianzprinzip und die Brownsche Bewegung | 177

Das zeigt die Straffheit der Familie (μ n )n∈ℕ .

Wir zeigen schließlich, dass die Bedingungen von Lemma 15.13 für die Maße μ n erfüllt sind, und wenden dann den Satz von Prohorov, Satz 15.11 an. 15.14 Satz (Donsker 1953). Es sei (X n )n∈ℕ0 , X0 = 0, eine symmetrische Irrfahrt mit Werten in ℝ und Schritten (ξ n )n∈ℕ ⊂ L2 (ℙ). Die Familie der Verteilungen μ n der linearen Interpolation (Ŝ nt )t∈[0,1] ist relativ kompakt bezüglich der schwachen Konvergenz von Maßen. Beweis. Wegen X0 = 0 haben wir S0n = 0, und die Bedingung 15.13.a) ist stets erfüllt. Wir zeigen 15.13.c) bzw. 15.13.b). Im gesamten Beweis seien ϵ > 0 und η > 0 fest.

1o Wir nehmen an, dass die Schritte der Irrfahrt gleichmäßig durch κ > 0 beschränkt sind. Je nach Lage des Intervalls [t, t + h], t ⩾ 0 ist fest, unterscheiden wir zwischen zwei Fällen. 󳶳 Fall 1. Für ein i ∈ ℕ gilt i − 1 ⩽ nt ⩽ n(t + h) < i. In diesem Fall haben wir für alle r ∈ [t, t + h] (nr − nt) |Ŝ nr − Ŝ nt | ⩽ |ξ⌊nt⌋+1 | ⩽ κ√nh. √n

󳶳 Fall 2. Es gibt i, k ∈ ℕ, so dass i − 1 ⩽ nt ⩽ i ⩽ k ⩽ n(t + h) < k + 1. In diesem Fall gilt für alle r ∈ [t, t + h] |Ŝ nr − Ŝ nt | ⩽ |Ŝ nr − Ŝ nk/n | + |Ŝ nk/n − Ŝ ni/n | + |Ŝ ni/n − Ŝ nt | Fall 1

⩽ κ√nh +

1 k ∑ |ξ l | + κ√nh √n l=i+1

⩽ 2κ√nh +

k−i−1 κ ⩽ 3κ√nh. √n

In beiden Fällen haben wir 1 𝔼 [ sup |Ŝ nr − Ŝ nt |4 ] ⩽ 81κ4 n2 h3 , h r∈[t,t+h] und wenn wir h = 1/n wählen, erhalten die Abschätzung 15.13.c) aus der MarkovUngleichung 2o Wenn die Schritte ξ n nur endliches zweites Moment haben, ohne uniform beschränkt zu sein, dann betrachten wir für beliebige κ > 0 ξ nκ := ξ n 𝟙[0,κ] (|ξ n |) und

η κn := ξ n − ξ nκ

die zugehörigen symmetrischen Irrfahrten X nκ := X0 +ξ1κ +⋅ ⋅ ⋅+ξ nκ und Y nκ = η1κ +⋅ ⋅ ⋅+η κn , sowie die zu X κ und Y κ gehörigen Prozesse S κ,n := t

1 κ κ,n X , Ŝ t √n ⌊nt⌋

und

U tκ,n :=

1 κ ̂ κ,n . Y , U t √n ⌊nt⌋

178 | 15 ⧫Donskers Invarianzprinzip und die Brownsche Bewegung

̂ κ,n . Es gilt für alle 0 ⩽ t ⩽ r ⩽ 1 Wir betrachten nun den Ausdruck 15.13.b) für U t ̂rκ,n − U ̂ κ,n | ⩽ |U ̂rκ,n | + |U ̂ κ,n | ⩽ 2 sup |U ̂ κ,n | ⩽ |U t t t t∈[0,1]

2 max |Y κ |. √n 1⩽m⩽n m

̂ κ,n die lineare Interpolation der PunkFür die letzte Abschätzung beachten wir, dass U t κ κ 2 te Y m , m = 1, . . . , n ist. Weil (Y m )m∈ℕ ein L -Martingal ist, können wir die Maximalungleichung für Martingale (Korollar 9.4) verwenden, und erhalten 1 κ ̂rκ,n − U ̂ κ,n | ⩾ ϵ) ⩽ ℙ ( max |Y m ℙ ( sup |U | ⩾ ϵ√n) t 1⩽m⩽n 2 |t−r|⩽h ⩽

1 1 𝔼 [(Y nκ )2 ] = 2 𝔼 [(ξ1 − ξ1κ )2 ] . ϵ2 n ϵ

Die letzte Gleichheit folgt weil 𝔼 [(Y nκ )2 ] = 𝕍Y nκ gilt und Y nκ iid Schritte hat. Nach Voraussetzung ist ξ1 ∈ L2 (ℙ), d.h. wir können κ = κ(η, ϵ) so groß wählen, dass ̂rκ,n − U ̂ κ,n | ⩾ ϵ) ⩽ ℙ ( sup |U t |t−r|⩽h

1 𝔼 [(ξ1 − ξ1κ )2 ] ⩽ η. ϵ2

Unsere Überlegungen aus Teil 1o und der Beweis der Richtung c)⇒b) in Lemma 15.13 zeigen für ein h = h(κ, η, ϵ) ∈ (0, 1) und das eben gewählte κ > 0, dass ̂ κ,n ℙ ( sup |Ŝ κ,n r − S t | ⩾ ϵ) ⩽ η. |t−r|⩽h

Wenn wir die beiden letzten Abschätzung mit der Dreiecksungleichung kombinieren, erhalten wir 15.13.b) für Ŝ nt mit 2ϵ.

Satz 15.14 zeigt, dass jede Teilfolge der Folge (μ n )n∈ℕ eine schwach konvergente TeilTeilfolge hat, und wegen (iii) stimmen diese Häufungspunkte überein. Es folgt, dass die Folge (μ n )n∈ℕ schwach konvergiert. Damit ist auch (ii) erledigt.

Wie wir gesehen haben, ist die Existenz des Wiener-Maßes äquivalent zur Existenz einer Brownschen Bewegung. Die Brownsche Bewegung ist einer der wichtigsten stochastischen Prozesse, die mit ihr zusammenhängenden Untersuchungen, Techniken und Konzepte haben die Forschung im Gebiet der stochastischen Prozesse nachhaltig geprägt. Dieses Kapitel ist aber erst der Anfang dieser Geschichte. . . Vielleicht geht es Ihnen ja so, wie Rick Blaine, dem Besitzer von Rick’s Café Americain im Film Casablanca: [...] I think this is the beginning of a beautiful friendship.

Aufgaben 1.

Zeigen Sie, dass die Borelsche σ-Algebra B(C) des Raums (C, ‖∙‖∞ ) sowohl von den offenen Kugeln 𝔹(p, δ) := {w ∈ C : ‖w − p‖∞ < δ}, δ > 0 und p ∈ Pol (die Menge der Polynome mit rationalen Koeffizienten) als auch von den abgeschlossenen Kugeln 𝔹(p, δ) erzeugt wird.

A Anhang A.1 Konvergenz in Wahrscheinlichkeit In diesem Abschnitt definieren wir die Konvergenz in Wahrscheinlichkeit und diskutieren den Zusammenhang mit der fast sicheren Konvergenz und der Konvergenz in L p . Diese beiden Konvergenzarten sollten aus der Maß- und Integrationstheorie bekannt sein, vgl. [MI, Kapitel 14]. A.1 Definition. Es (X n )n∈ℕ0 eine Folge von reellen ZV, die auf demselben W-Raum (Ω, A , ℙ) definiert sind. Die Folge a) konvergiert fast sicher gegen eine ZV X, wenn ℙ(ω : limn→∞ X n (ω) = X(ω)) = 1 f.s.

gilt. Notation X n 󳨀󳨀→ X. b) konvergiert in Wahrscheinlichkeit (oder stochastisch) gegen eine ZV X, wenn

limn→∞ ℙ(|X n − X| > ϵ) = 0 für alle ϵ > 0. Notation: X n 󳨀 → X. c) konvergiert in L p , 1 ⩽ p < ∞, gegen eine ZV X ∈ L p (ℙ), wenn (X n )n∈ℕ ⊂ L p (ℙ) ℙ

Lp

und limn→∞ 𝔼(|X n − X|p ) = 0 gilt. Notation: X n 󳨀󳨀→ X.

Das folgende Lemma ist für die Untersuchung der Eigenschaften der ℙ-Konvergenz hilfreich. A.2 Lemma. Es seien X, X n : Ω → ℝ ZV mit X n 󳨀 → X. Dann gilt L1



f(X i ) 󳨀󳨀󳨀󳨀→ f(X) i→∞

für alle gleichmäßig stetigen f ∈ C b (ℝ).

Beweis. Es sei f ∈ C b (ℝ) gleichmäßig stetig. Für jedes ϵ > 0 gibt es daher ein δ > 0, so dass |f(x) − f(y)| ⩽ ϵ für alle |x − y| ⩽ δ.

Daher gilt

𝔼|f(X i ) − f(X)| =



|X i −X|⩽δ

|f(X i ) − f(X)| dℙ + ⩽ϵ



|X i −X|>δ

|f(X i ) − f(X)| dℙ

⩽ ϵ + 2‖f‖∞ ℙ(|X i − X| > δ) 󳨀󳨀󳨀󳨀→ ϵ. i→∞

Weil ϵ frei gewählt werden kann, folgt die Behauptung. A.3 Korollar. Es seien X n , X : Ω → ℝ ZV. Dann gilt

X n 󳨀󳨀󳨀󳨀→ X ⇐⇒ X n − X 󳨀󳨀󳨀󳨀→ 0 ⇐⇒ 𝔼 ℙ

n→∞

Insbesondere sind ℙ-Limiten eindeutig. https://doi.org/10.1515/9783110350685-016



n→∞

|X n − X| 󳨀󳨀󳨀󳨀→ 0. 1 + |X n − X| n→∞

180 | A Anhang Beweis. Die erste Äquivalenz folgt sofort aus der Definition der ℙ-Konvergenz. Die Richtung „⇒“ folgt aus Lemma A.2 wenn wir die Funktion f(x) := |x|/(1 + |x|) verwenden, die wegen18 󵄨󵄨 |x| |x − y| |y| 󵄨󵄨󵄨󵄨 󵄨󵄨 − ⩽ |x − y|, x, y ∈ ℝ, 󵄨⩽ 󵄨󵄨 󵄨󵄨 1 + |x| 1 + |y| 󵄨󵄨󵄨 1 + |x − y| gleichmäßig stetig ist. Die Umkehrung „⇐“ erhalten wir aus ℙ(|X n − X| > ϵ) ⩽ ℙ(|X n − X| ∧ ϵ ⩾ ϵ) ⩽

1 2 |X n − X| 𝔼(|X n − X| ∧ ϵ) ⩽ 𝔼 , ϵ ϵ 1 + |X n − X|

wobei wir in der letzten Ungleichung ϵ ⩽ 1 angenommen und dann die elementare Abschätzung |x| ∧ ϵ ⩽ |x| ∧ 1 ⩽ 2|x|/(1 + |x|) verwendet haben. Die Eindeutigkeit des ℙ-Limes folgt aus der Beobachtung, dass ℙ(X = 0) = 1 genau dann gilt, wenn 𝔼 [|X|/(1 + |X|)] = 0.

Wir kommen nun zum Zusammenhang zwischen den drei Konvergenzarten aus Definition A.1 A.4 Satz. Es seien X n , X : Ω → ℝ ZV und p ∈ [1, ∞). Dann gilt Lp

a) X n 󳨀󳨀→ X 󳨐⇒ X n 󳨀 → X; f.s.



b) X n 󳨀󳨀→ X 󳨐⇒ X n 󳨀 → X;

c)



f.s.

Xn 󳨀 → X 󳨐⇒ ∃(n(i))i∈ℕ : X n(i) 󳨀󳨀→ X. ℙ

Beweis. Teil a) folgt wegen Korollar A.3 aus 𝔼

|X| 1/p ⩽ 𝔼|X| ⩽ [𝔼(|X|p )] , 1 + |X|

p ⩾ 1.

Wenn X n → X f.s., dann können wir Korollar A.3 und dominierte Konvergenz verwenden, um lim 𝔼

n→∞

zu erhalten. Das zeigt die Aussage b).

|X − X n | =0 1 + |X − X n |

|X−X n | Nun nehmen wir X n 󳨀 → X an. Korollar A.3 zeigt, dass die Folge Y n := 1+|X−X n| 1 im L -Sinn gegen 0 konvergiert. Daher, vgl. [MI, Korollar 14.11], existiert eine Teilfolge n(i), so dass Y n(i) → 0 f.s. Insbesondere folgt auch, dass X n(i) → 0 f.s. ℙ

Die Implikationen aus Satz A.4.a) und b) lassen sich i.Allg. nicht umkehren.

18 Weil die Funktion t 󳨃→ t/(1 + t) monoton wachsend ist, folgt für alle x, y ∈ ℝ

|x| |x − y| + |y| |x − y| |y| |x − y| |y| ⩽ = + ⩽ + 1 + |x| 1 + |x − y| + |y| 1 + |x − y| + |y| 1 + |x − y| + |y| 1 + |x − y| 1 + |y|

und wenn wir die Rollen von x und y tauschen, erhalten wir die im Folgenden verwendete Ungleichung.

A.2 Konvergenz in Verteilung | 181

A.5 Beispiel. Wir betrachten den W-Raum ([0, 1), B[0, 1), dω) und definieren die ZV X n,k (ω) := 𝟙[k/n,(k+1)/n) (ω),

n ∈ ℕ, k = 0, . . . , n − 1, und Y n (ω) := n𝟙[0,1/n] (ω);

Indem wir die X n,k lexikographisch anordnen, erhalten wir zwei Folgen (X n,k )n,k und (Y n )n . Man sieht leicht, dass X n,k in Wahrscheinlichkeit (und in L1 ) gegen 0 konvergiert, aber an keiner Stelle punktweise konvergiert. Die Folge Y n konvergiert in Wahrscheinlichkeit gegen 0, nicht aber in L1 .

A.2 Konvergenz in Verteilung Im Gegensatz zu den im vorangehenden Abschnitt diskutierten Konvergenzarten betrachten wir nun die Konvergenz der Verteilungen einer Folge von ZV. Weil wir nicht über die Konvergenz der ZV selbst sprechen, können diese auf verschiedenen W-Räumen definiert sein. A.6 Definition. Es seien X, X n ZV mit Werten in ℝd , die nicht notwendig auf demselben W-Raum definiert sein müssen. Die Folge X n konvergiert gegen X in Verteilung bzw. die Verteilungen ℙX n konvergieren gegen ℙX schwach, wenn ∀f ∈ C b (ℝd ) :

d

lim 𝔼f(X n ) = 𝔼f(X).

(A.1)

n→∞ w

Notation: X n 󳨀󳨀→ X, X n ⇒ X bzw. ℙX n 󳨀󳨀→ ℙX .

Der Grenzwert einer d-konvergenten Folge ist eindeutig, vgl. [WT, Lemma 9.4, Bemerkung 9.5.a)]. Wenn die ZV X n auf demselben W-Raum definiert sind, dann gilt ℙ/L p /f.s.

d

X n 󳨀󳨀󳨀󳨀󳨀󳨀󳨀→ X 󳨐⇒ X n 󳨀󳨀󳨀󳨀→ X. n→∞

n→∞

Wenn der Grenzwert X ≡ c f.s. konstant ist, dann gilt auch die folgende Umkehrung: d

X n 󳨀󳨀→ c impliziert X n 󳨀 → c, vgl. [WT, Satz 9.7, Lemma 9.12]. Die Konvergenz in Verteilung lässt sich folgendermaßen mit Hilfe der charakteristischen Funktion ϕ Z (θ) := 𝔼 e i⟨θ, Z⟩ , θ ∈ ℝd , ausdrücken. ℙ

d

A.7 Satz. Es sei (X n )n∈ℕ eine Folge von ZV mit Werten in ℝd . Dann ist X n 󳨀󳨀→ X äquivalent zu jeder der folgenden Aussagen a) ∀θ ∈ ℝd : limn→∞ 𝔼 e i⟨θ, X n ⟩ = 𝔼 e i⟨θ, X⟩ . 󵄨 󵄨 b) ∀ϵ > 0 : limn→∞ sup|θ|⩽ϵ 󵄨󵄨󵄨󵄨𝔼 e i⟨θ, X n ⟩ − 𝔼 e i⟨θ, X⟩ 󵄨󵄨󵄨󵄨 = 0. c) ∀t ∈ ℝ, θ ∈ ℝd , ℙ(⟨θ, X⟩ = t) = 0 : limn→∞ ℙ(⟨θ, X n ⟩ ⩽ t) = ℙ(⟨θ, X⟩ ⩽ t).

Für d = 1 findet man einen Beweis in [WT, Satz 9.14, Satz 9.18 und Korollar 9.19]. Mit dem Cramér–Wold Trick [WT, Korollar 9.19] kann man die multivariaten Versionen von a), b) einfach auf den eindimensionalen Fall zurückführen. Die Konvergenz in Verteilung ist eine relativ schwache Konvergenz, selbst die Linearität der Grenzwerte gilt nur unter zusätzlichen Annahmen.

182 | A Anhang A.8 Lemma. Es seien X n , Y n ZV mit Werten in ℝd , die nicht auf demselben W-Raum d

definiert sein müssen. Wenn (X n , Y n )⊤ 󳨀󳨀→ (X, Y)⊤ , dann gilt auch d

X n 󳨀󳨀→ X,

d

Y n 󳨀󳨀→ Y

und

d

X n + Y n 󳨀󳨀→ X + Y.

Beweis. Beachte, dass ⟨( θθ󸀠 ) , ( XY nn )⟩ = ⟨θ, X n ⟩ + ⟨θ󸀠 , Y n ⟩ gilt. Aus Satz A.7 wissen d

wir, dass (X n , Y n )⊤ 󳨀󳨀→ (X, Y)⊤ äquivalent ist zu

lim 𝔼e i⟨θ, X n ⟩+i⟨θ , Y n ⟩ = 𝔼e i⟨θ, X⟩+i⟨θ , Y⟩ . 󸀠

󸀠

n→∞

Wenn wir θ󸀠 = 0 bzw. θ = 0 wählen, folgt die d-Konvergenz von X n → X und Y n → Y. d

Für θ = θ󸀠 sehen wir X n + Y n 󳨀󳨀→ X + Y.

Für Anwendungen ist der folgende Satz von Slutsky wichtig. d

A.9 Satz (Slutsky). Es seien X n , Y n : Ω → ℝd , n ∈ ℕ Folgen von ZV, so dass X n 󳨀󳨀→ X d

und X n − Y n 󳨀󳨀→ 0 gilt. Dann gilt Y n 󳨀󳨀→ X. ℙ

󵄨󵄨 iz 󵄨󵄨 Beweis. Mit Hilfe der Abschätzung |e iz −1| = 󵄨󵄨󵄨∫0 e ζ dζ 󵄨󵄨󵄨 ⩽ sup|y|⩽|z| |e iy |⋅|z| = |z| sehen 󵄨 󵄨 wir, dass die Funktion x 󳨃→ e i⟨ξ, x⟩ , ξ ∈ ℝd Lipschitz-stetig ist: 󵄨󵄨 i⟨ξ, x⟩ 󵄨 󵄨 󵄨 󵄨󵄨e − e i⟨ξ, y⟩ 󵄨󵄨󵄨󵄨 = 󵄨󵄨󵄨󵄨e i⟨ξ, x−y⟩ − 1󵄨󵄨󵄨󵄨 ⩽ |⟨ξ, x − y⟩| ⩽ |ξ| ⋅ |x − y|, ξ, x, y ∈ ℝd . (A.2) 󵄨 Mithin gilt

𝔼 e i⟨ξ, Y n ⟩ = 𝔼 [e i⟨ξ, Y n −X n ⟩ e i⟨ξ, X n ⟩ ] = 𝔼 [(e i⟨ξ, Y n −X n ⟩ − 1) e i⟨ξ, X n ⟩ ] + 𝔼 e i⟨ξ, X n ⟩ .

Aus Satz A.7 wissen wir limn→∞ 𝔼 e i⟨ξ, X n ⟩ = 𝔼 e i⟨ξ, X⟩ , d.h. es genügt zu zeigen, dass der erste Ausdruck auf der rechten Seite für n → ∞ verschwindet. Es gilt 󵄨 󵄨 󵄨 󵄨 󵄨 󵄨 I := 󵄨󵄨󵄨󵄨𝔼 [(e i⟨ξ, Y n −X n ⟩ − 1) e i⟨ξ, X n ⟩ ]󵄨󵄨󵄨󵄨 ⩽ 𝔼 󵄨󵄨󵄨󵄨(e i⟨ξ, Y n −X n ⟩ − 1) e i⟨ξ, X n ⟩ 󵄨󵄨󵄨󵄨 = 𝔼 󵄨󵄨󵄨󵄨e i⟨ξ, Y n −X n ⟩ − 1󵄨󵄨󵄨󵄨 .

Wir teilen nun den Integrationsbereich auf und verwenden die Lipschitz-Stetigkeit 󵄨 󵄨 󵄨 󵄨 I ⩽ 𝔼 [𝟙{|Y n −X n |⩽δ} 󵄨󵄨󵄨󵄨e i⟨ξ, Y n −X n ⟩ − 1󵄨󵄨󵄨󵄨] + 𝔼 [𝟙{|Y n −X n |>δ} 󵄨󵄨󵄨󵄨e i⟨ξ, Y n −X n ⟩ − 1󵄨󵄨󵄨󵄨] (A.2)

⩽ δ |ξ| + 2 𝔼𝟙{|Y n −X n |>δ} = δ |ξ| + 2 ℙ(|Y n − X n | > δ) 󳨀󳨀󳨀󳨀→ δ |ξ| 󳨀󳨀󳨀󳨀→ 0, n→∞

δ→0

wobei im letzten Schritt die Konvergenz X n − Y n 󳨀󳨀→ 0 eingeht. ℙ

A.3 Das Faktorisierungslemma Das folgende aus der Maßtheorie bekannte Faktorisierungslemma [MI, Lemma 7.17] erlaubt es uns, die bedingte Erwartung 𝔼(X | F ) einer ZV X ∈ L1 (A ) als Funktion von Y darzustellen, wenn F = σ(Y). Wie üblich schreiben wir in diesem Fall 𝔼(X | Y) an Stelle von 𝔼(X | σ(Y)).

A.4 Der Projektionssatz im Hilbertraum | 183

A.10 Satz (Faktorisierungslemma). Es sei (Ω, A , ℙ) ein W-Raum, Z : Ω → ℝ eine reelle ZV und Y : Ω → E eine ZV mit Werten in einem Messraum (E, E ). Wenn Z messbar ist bezüglich σ(Y), dann gibt es eine messbare Funktion g : (E, E ) → (ℝ, B(ℝ)), so dass Z = g(Y) f.s. Die Funktion g ist ℙY -f.s. eindeutig.

A.11 Korollar. Es sei (Ω, A , ℙ) ein W-Raum, X : Ω → ℝ eine ZV mit 𝔼|X| < ∞ und Y : Ω → E eine ZV mit Werten in einem Messraum (E, E ). Es gilt 𝔼(X | Y) = g(Y)

für eine ℙY -f.s. eindeutig bestimmte messbare Funktion g : (E, E ) → (ℝ, B(ℝ)). Beweis von Satz A.10. In Anlehnung an die Konstruktion des Integrals konstruieren wir die Funktion g in drei Schritten: erst für ZV mit endlich vielen Werten (einfache ZV), dann für positive ZV und schließlich für beliebige ZV. Wir schreiben E(F ) für die F -messbaren ZV (bzw. Funktionen) mit endlich vielen Werten, sog. „einfache“ ZV (bzw. Funktionen). 1o Angenommen Z = 𝟙A . Weil Z σ(Y)-messbar ist, haben wir A ∈ σ(Y), und wegen σ(Y) = Y −1 (E ) gibt es ein F ∈ E , so dass A = Y −1 (F). Mithin Z = 𝟙A = 𝟙Y −1 (F) = 𝟙F ∘ Y 󳨐⇒ g = 𝟙F .

2o Nun sei Z ∈ E(σ(Y)) eine einfache σ(Y)-messbare ZV. Für eine Standarddarstellung Z(ω) = ∑ni=1 z i 𝟙A i (ω), z i ∈ ℝ, A i ∈ σ(Y), finden wir mit Hilfe von 1o und der Linearität ein geeignetes g ∈ E(E ). 3o Schließlich sei Z : Ω → ℝ eine beliebige σ(Y)-messbare ZV. Das Sombrero-Lemma [MI, Korollar 7.12] zeigt Z = limn→∞ Z n für eine Folge Z n ∈ E(σ(Y)). Aus Schritt 2o wissen wir aber, dass Z n = g n ∘ Y für einfache Funktionen g n ∈ E(E ). Offensichtlich ist g := lim inf n→∞ g n eine E -messbare Funktion mit Werten in ℝ. Weiterhin gilt g ∘ Y = ( lim inf g n ) ∘ Y = lim (g n ∘ Y) = Z. n→∞

n→∞

=Z n

4o Eindeutigkeit. Wenn für f, g : E → ℝ gilt f(Y) = Z = g(Y) f.s., dann haben wir 0 = ℙ(g(Y) ≠ f(Y)) = ℙ (Y ∈ {y : g(y) ≠ f(y)}) ,

also f(y) = g(y) für ℙY -fast alle y ∈ E.

A.4 Der Projektionssatz im Hilbertraum Ein Hilbertraum H ist ein reeller (oder komplexer) Vektorraum, auf dem ein Skalarprodukt (g, h) 󳨃→ ⟨g, h⟩ definiert ist, so dass unter der dadurch induzierten Norm

184 | A Anhang ‖h‖ := √⟨h, h⟩ der Raum H vollständig ist. Ein linearer Teilraum F ⊂ H heißt abgeschlossen, wenn gilt (f n )n∈ℕ ⊂ F,

f n 󳨀󳨀󳨀󳨀→ f 󳨐⇒ f ∈ F. H

n→∞

Mit Hilfe der Polarisationsformeln lässt sich das Skalarprodukt aus der Norm rekonstruieren ⟨g, h⟩ =

1 1 (‖g + h‖2 − ‖g − h‖2 ) = (‖g + h‖2 − ‖g‖2 − ‖h‖2 ) . 4 2

(A.3)

Aus der zweiten Gleichheit von (A.3) ergibt sich unmittelbar die ParallelogrammIdentität: ‖g + h‖2 + ‖g − h‖2 = 2 (‖g‖2 + ‖h‖2 ) .

(A.4)

Wir interessieren uns für den Raum der quadrat-integrierbaren ZV auf einem WRaum (Ω, A , ℙ), L 2 (Ω, A , ℙ) = {X : Ω → ℝ : X ist A -messbare ZV, ∫ X 2 dℙ < ∞} ,

und den Raum der Äquivalenzklassen L2 (Ω, A , ℙ) := L 2 (Ω, A , ℙ)/∼ , wobei wir zwei Elemente X, Y ∈ L 2 äquivalent nennen, X ∼ Y ∈ L 2 , wenn ℙ(X = Y) = 1 gilt. Wie üblich identifizieren wir Äquivalenzklassen mit ihren Repräsentanten, und daher können wir in L2 „wie mit Funktionen“ rechnen, vgl. [MI, Bemerkung 14.6]. A.12 Lemma. Es sei (Ω, A , ℙ) ein W-Raum. a) L2 (A ) = L2 (Ω, A , ℙ) ist ein Hilbertraum mit Skalarprodukt ⟨X, Y⟩L2 := 𝔼(XY) und Norm ‖X‖L2 := √𝔼(X 2 ). b) Wenn F ⊂ A eine σ-Algebra ist, dann ist L2 (F ) ein abgeschlossener, isometrisch eingebetteter Unterraum von L2 (A ).

Beweis. a) Aus der Maß- und Integrationstheorie [MI, Kapitel 14] wissen wir, dass X 󳨃→ ‖X‖L2 := √𝔼(X 2 ) eine Norm auf L2 (A ) ist. Jede Linearkombination aX + bZ aus X, Z ∈ L2 (A ) und a, b ∈ ℝ ist wieder A -messbar, und wegen ‖aX + bZ‖L2

Minkowski



‖aX‖L2 + ‖bZ‖L2 = |a|‖X‖L2 + |b|‖Z‖L2 < ∞

gilt aX + bZ ∈ L2 . Die Cauchy–Schwarz Ungleichung zeigt, dass das Skalarprodukt wohldefiniert ist, |⟨X, Z⟩L2 | ⩽ 𝔼|XZ| ⩽ √𝔼(X 2 )√𝔼(Z 2 ) = ‖X‖L2 ‖Z‖L2 < ∞,

und die Linearität des Erwartungswerts vererbt sich auf (X, Z) 󳨃→ ⟨X, Z⟩:

⟨aX + bZ, W⟩ = 𝔼[(aX + bZ)W] = a𝔼[XW] + b𝔼[ZW] = a⟨X, W⟩ + b⟨Z, W⟩.

A.4 Der Projektionssatz im Hilbertraum | 185

Schließlich gilt ⟨X, X⟩ = 0 ⇐⇒ 𝔼(X 2 ) = 0 ⇐⇒ X = 0 f.s. ⇐⇒ X = 0 im Raum L2 . Die Vollständigkeit von L2 , d.h. L2

L2

n,m→∞

n→∞

X n − X m 󳨀󳨀󳨀󳨀󳨀󳨀󳨀→ 0 ⇐⇒ ∃X ∈ L2 (A ) : X n 󳨀󳨀󳨀󳨀→ X, folgt aus dem Satz von Riesz–Fischer vgl. [MI, Satz 14.10].

b) Jedes Y ∈ L2 (F ) ist F - und daher auch A -messbar. Weiterhin gilt Y2





∫ Y dℙ = ∫ ∫ dt dℙ = ∫ ∫ 𝟙[0,Y 2 ] (t) dt dℙ = ∫ ∫ 𝟙[t,∞) (Y 2 ) dt dℙ 2

0

0

=

Tonelli

0 ∞





∫ ∫ 𝟙[t,∞) (Y 2 ) dℙ dt = ∫ ℙ({Y 2 ⩾ t}) dt = ∫ ℙ|F ({Y 2 ⩾ t}) dt, 0

0

und mit derselben Rechnung folgt dann

∈F

0

‖Y‖2L2 (A ) = ∫ Y 2 dℙ = ∫ Y 2 dℙ|F = ‖Y‖2L2 (F ) ,

d.h. L2 (F ) ist isometrisch eingebettet in den Raum L2 (A ). Da L2 (F ) vollständig ist, ist L2 (F ) ein abgeschlossener Unterraum von L2 (A ).

A.13 Definition. X, Z ∈ L2 (A ) heißen orthogonal, X ⊥ Z, wenn 𝔼(XZ) = ⟨X, Z⟩L2 = 0.

Der folgende Satz gilt – sogar mit demselben Beweis – in jedem Hilbertraum, wir beschränken uns aber auf den Raum L2 (A ). A.14 Satz (Orthogonale Projektion). Es sei (Ω, A , ℙ) ein W-Raum und 0 ≠ F ⊂ L2 (A ) ein abgeschlossener Unterraum. Dann existiert zu jeder ZV X ∈ L2 (A ) genau eine ZV Y ∈ F mit (i)

‖X − Y‖L2 = inf{‖X − Φ‖L2 : Φ ∈ F}

⇐⇒ (ii) ∀Φ ∈ F : X − Y ⊥ Φ

A.15 Definition. Die Abbildung PF : L2 (A ) → F, X 󳨃→ Y mit Y aus Satz A.14, heißt orthogonale Projektion von L2 (A ) auf den Unterraum F.

Beweis von Satz A.14. Wir wählen ein festes X ∈ L2 (A ) und schreiben ‖∙‖ = ‖∙‖L2 . 1o Existenz des Minimierers Y: Wir setzen d := inf Φ∈F ‖X − Φ‖. Auf Grund der Definition des Infimums d gibt es eine Folge (Φ n )n∈ℕ ⊂ F : d = lim ‖X − Φ n ‖. n→∞

186 | A Anhang Da ‖∙‖ stetig und F abgeschlossen ist, ist

Y := L2 - lim Φ n n→∞

ein Kandidat für den Minimierer. Wir zeigen zunächst, dass (Φ n )n∈ℕ eine Cauchyfolge ist. Dazu verwenden wir die Parallelogramm-Identität (A.4) für die Elemente g = X − Φi

und erhalten

und

h = X − Φk

‖2X − Φ i − Φ k ‖2 + ‖Φ i − Φ k ‖2 = 2‖X − Φ i ‖2 + 2‖X − Φ k ‖2 󳨀󳨀󳨀󳨀󳨀󳨀→ 4d2 .

󵄩󵄩 󵄩󵄩2 =4 󵄩 󵄩󵄩X − 12 (Φ i + Φ k ) 󵄩󵄩󵄩 󵄩 󵄩 ⩾

4d2

󳨀󳨀i→∞ 󳨀󳨀→2d2

󳨀󳨀󳨀󳨀→2d2

k,l→∞

k→∞

∈F

wg. inf

Wegen der Definition von d sehen wir, dass die linke Seite größer oder gleich 4d2 ist, während die rechte Seite für i, k → ∞ gegen 4d2 konvergiert. Daher haben wir 4d2 + lim sup ‖Φ i − Φ k ‖2 ⩽ 4d2 . i,k→∞

= 0 d.h. Cauchy

L2 (A

Da ) vollständig ist, existiert Y = L2 - limn→∞ Φ n , wir haben Y ∈ F, weil F abgeschlossen ist, und Y erfüllt (i), weil die Norm ‖∙‖ stetig ist.

2o Eindeutigkeit des Minimierers: Es seien Y, Y 󸀠 ∈ F zwei Elemente, die (i) erfüllen. Wegen der Parallelogramm-Identität gilt 󵄩󵄩 4d ⩽ 4 󵄩󵄩󵄩X − 󵄩 2

1 2

󵄩󵄩2 󵄩󵄩 (Y + Y ) 󵄩󵄩󵄩 ⩽ 4 󵄩󵄩󵄩X − 󵄩 󵄩 ∈F

󸀠

1 2

⩾0

󵄩󵄩2 󵄩 󵄩2 (Y + Y )󵄩󵄩󵄩 + 󵄩󵄩󵄩Y − Y 󸀠 󵄩󵄩󵄩 󵄩 󸀠

(A.4)

= 2(‖X − Y‖2 + ‖X − Y 󸀠 ‖2 ) = 4d2 ,

d.h. überall in der Ungleichungskette gilt „=“, somit ‖Y − Y 󸀠 ‖2 = 0 oder Y = Y 󸀠 in L2 .

3o Äquivalenz (i)⇔(ii): Durch direktes Nachrechnen ergeben sich die untenstehenden Äquivalenzen. In der Richtung „⇒“ beachten wir in der ersten Zeile, dass wegen Y ∈ F auch Y + tΦ ∈ F für alle t ⩾ 0 gilt, die letzte Zeile folgt durch den Grenzübergang t → 0. In der Gegenrichtung „⇐“ beachten wir in der ersten Zeile, dass man jedes Φ ∈ F in der Form Y + ℝ+ ⋅ F schreiben kann. (i) ⇐⇒ ∀Φ ∈ F, t ⩾ 0 : ‖X − (Y + tΦ)‖2 ⩾ ‖X − Y‖2

⇐⇒ ∀Φ ∈ F, t ⩾ 0 : ‖X − Y‖2 + t2 ‖Φ‖2 − 2t⟨X − Y, Φ⟩ ⩾ ‖X − Y‖2 ⇐⇒ ∀Φ ∈ F, t ⩾ 0 : t2 ‖Φ‖2 − 2t⟨X − Y, Φ⟩ ⩾ 0 ⇐⇒ ∀Φ ∈ F, t ⩾ 0 : t‖Φ‖2 − 2⟨X − Y, Φ⟩ ⩾ 0 ⇐⇒ ∀Φ ∈ F : ⟨X − Y, Φ⟩ = 0

d.h. (ii).

A.5 Zwei nützliche Integralformeln | 187

A.5 Zwei nützliche Integralformeln In diesem Abschnitt wollen wir die beiden Integralformeln t tα =

−β



1 = ∫ e−ut u β−1 du, Γ(β)

t > 0, β > 0,

0



α du ∫ (1 − e−ut ) 1+α , Γ(1 − α) u

t > 0, α ∈ (0, 1),

0

(A.5) (A.6)

herleiten. Wir beginnen mit der aus [MI, Beispiel 12.5] bekannten Formel für die Eulersche Gammafunktion ∞

Γ(β) = ∫ x β−1 e−x dx,

β > 0.

0

Wenn wir den Variablenwechsel x = tu und dx/x = du/u vornehmen und die resultierende Gleichheit umstellen, folgt unmittelbar (A.5). Für 0 < α < 1 definieren wir β := 1 − α und integrieren (A.5) über (0, x). Das ergibt dann x

x α = α ∫ t α−1 dt 0

α ∫ ∫ e−ut u−α du dt Γ(1 − α)

=

α ∫ ∫ e−ut dt u−α du Γ(1 − α)

=

α du ∫ (1 − e−ux ) 1+α , Γ(1 − α) u

Tonelli

und es folgt die Gleichheit (A.6).

x ∞

=

(A.5)

0 0 ∞ x 0 0 ∞ 0

Literatur [MI] R. L. Schilling: Maß und Integral. Eine Einführung für Bachelor-Studenten. De Gruyter, Berlin 2014. [WT] R. L. Schilling: Wahrscheinlichkeit. Eine Einführung für Bachelor-Studenten. De Gruyter, Berlin 2017. [BM] R. L. Schilling, L. Partzsch: Brownian Motion. An Introduction to Stochastic Processes. De Gruyter, Berlin 2014 (2. Aufl.). [MIMS] R. L. Schilling: Measures, Integrals and Martingales. Cambridge University Press, Cambridge 2017 (2. Aufl.). [5] D. André: Solution directe du problème résolu par M. Bertrand. Comptes Rendus de l’Academie des Sciences Paris 105 (1887) 436–437. [6] K. Azuma: Weighted sums of certain dependent random variables. Tohoku Mathematical Journal 19 (1967) 357–367. [7] R. Bañuelos, B. Davis: Donald Burkholder’s work in martingales and analysis. In: B. Davis, R. Song (Hg.): Selected Works of Donald L. Burkholder. Springer, New York 2011, S. 1–22. [8] J. Bertrand: Solution d’un problème. Comptes Rendus de l’Academie des Sciences Paris 105 (1887) 369. [9] R. Brown: Mikroskopische Beobachtungen über die im Pollen der Pflanzen enthaltenen Partikeln, und über das allgemeine Vorkommen activer Molecüle in organischen und unorganischen Körpern. Annalen der Physik und Chemie 14 (1828) 294–313. Dt. Übersetzung des englischen Originalartikels, erschienen als Privatdruck von R. Brown 1828, Nachdruck Edinburgh New Philosophical Journal 5 (1828) 358–371 und in anderen Journalen. [10] D. L. Burkholder: Martingale transforms. The Annals of Mathematical Statistics 37 (1966) 1494–1504. Nachdruck in: B. Davis, R. Song (Hg.): Selected Works of Donald L. Burkholder. Springer, New York 2011, S. 97–107. [11] D. L. Burkholder: Distribution function inequalities for martingales. The Annals of Probability 1 (1973) 19–42. Nachdruck in: B. Davis, R. Song (eds.): Selected Works of Donald L. Burkholder. Springer, New York 2011, S. 217–240. [12] D. L. Burkholder, R. F. Gundy: Extrapolation and interpolation of quasi-linear operators on martingales. Acta Mathematica 124 (1970) 249–304. Nachdruck in: B. Davis, R. Song (Hg.): Selected Works of Donald L. Burkholder. Springer, New York 2011, S. 108–163. [13] R. Courant, K. Friedrichs, H. Lewy: Über die partiellen Differenzengleichungen der mathematischen Physik. Mathematische Annalen 100 (1928) 32–74. Nachdruck in: C. S. Morawetz (Hg.): Kurt Otto Friedrichs – Selecta I. Birkhäuser, Boston 1986, S. 49–95. [14] K. L. Chung, W. H. J. Fuchs: On the distribution of values of sums of random variables. Memoirs of the American Mathematical Society 6 (1951) 12 pp. Nachdruck https://doi.org/10.1515/9783110350685-017

190 | Literatur

[15]

[16] [17]

[18] [19] [20] [21]

[22]

[23]

[24] [25] [26] [27] [28] [29]

in: F. AitSahlia, E. Hsu, R. Williams (Hg.): Selected Works of Kai Lai Chung. World Scientific, New Jersey 2008, S. 157–168. K. L. Chung, D. Ornstein: On the recurrence of sums of random variables. Bulletin of the American Mathematical Society 68 (1962) 30–32. Nachdruck in: F. AitSahlia, E. Hsu, R. Williams (Hg.): Selected Works of Kai Lai Chung. World Scientific, New Jersey 2008, S. 327–329. B. Davis: On the integrability of the martingale square function. Israel Journal of Mathematics 8 (1970) 187–190. J. Dieudonné: Sur un théorème de Jessen. Fundamenta Mathematicae 37 (1950) 242–248. Nachdruck in: J. Dieudonné: Choix d’œuvres mathématiques I. Hermann, Paris 1981, S. 369–375. M. Donsker: An invariance principle for certain probability limit theorems. Memoirs of the American Mathematical Society 6 (1951) 12 pp. (paper no. 4). J. L. Doob: Stochastic Processes. Wiley–Interscience, New York (NY) 1953 (seit 1990 mehrere Nachdrucke in der Wiley Classics Library). L. E. Dubins, D. A. Freedman: A sharper form of the Borel–Cantelli lemma and the strong law. The Annals of Mathematical Statistics 36 (1965) 800–807. A. Einstein: Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. Annalen der Physik 17 (1905) 549–560. Nachdruck in [22] sowie in J. Stachel (Hg.): The Collected Papers of Albert Einstein II. Princeton University Press, Princeton (NJ) 1989, S. 224–236. R. Fürth (Hg.), A. Einstein, M. von Smoluchowski: Untersuchungen über die Theorie der Brownschen Bewegung – Abhandlung über die Brownsche Bewegung und verwandte Erscheinungen. Harri Deutsch, Ostwalds Klassiker Bd. 199 (Reprint der Bände 199 and 207), Frankfurt am Main 1997. W. Feller: Note on the law of large numbers and “fair” games. The Annals of Mathematical Statistics 16 (1945) 301–304. Nachdruck in: R. L. Schilling, Z. Vondraček, W. Wojczyński: William Feller – Selected Papers I. Springer, Cham, S. 717–720. W. Feller: An Introduction to Probability Theory and Its Applications. Volume I. John Wiley, New York (NY) 1968 (3. Aufl.). W. Hoeffding: Probability inequalities for sums of bounded random variables. Journal of the American Statistical Association 58.301 (1963), 13–30. A. Khintchine: Über dyadische Brüche. Mathematische Zeitschrift 18 (1923), 109–116. A. Kolmogoroff: Grundbegriffe der Wahrscheinlichkeitsrechnung. Springer, Ergebnisse der Mathematik und Ihrer Grenzgebiete, Band 2, Heft 3, Berlin 1933. K. Krickeberg: Convergence of martingales with a directed index set. Transactions of the American Mathematical Society 83 (1956) 313–337. P. Lévy: Propriétés asymptotiques des sommes de variables aléatoires enchainées. Bulletin des Sciences Mathematiques 59 (1935) 84–96 & 109–128. Nach-

Literatur | 191

[30] [31]

[32]

[33]

[34] [35]

[36] [37]

[38] [39] [40]

[41] [42] [43] [44] [45]

druck in: D. Dugué (Hg.): Œuvres de Paul Lévy, III, Gauthier–Villars, Paris 1976, S. 201–232. P. Lévy: Théorie de l’Addition des Variables Aléatoires. Gauthier–Villars, Paris 1937. J. E. Littlewood: On bounded bilinear forms in an infinite number of variables. The Quarterly Journal of Mathematics 1 (1930) 164–174. Nachdruck in: A. Baker et al. (Hg.): Collected Papers of J. E. Littlewood, II. Oxford University Press, Oxford 1982, S. 720–731. J. Marcinkiewicz, A. Zygmund: Sur les fonctions indépendantes. Fundamenta Mathematicae 29 (1937) 60–90. Nachdruck in: A. Zygmund (Hg.): J. Marcinkiewicz – Collected Papers. PWN Warsaw 1964, S. 233–259. J. Marcinkiewicz, A. Zygmund: Quelques théorèmes sur les fonctions indépendantes. Studia Mathematica 7 (1938) 104–120. Nachdruck in: A. Zygmund (Hg.): J. Marcinkiewicz – Collected Papers. PWN Warsaw 1964, S. 374–388. D. S. Ornstein: Random walks I. Transactions of the American Mathematical Society 138 (1969) 1–43. R. E. A. C. Paley, A. Zygmund: On some series of functions, (1). Proceedings of the Cambridge Philosophical Society 26 (1930) 337–357. Nachdruck in: A. Hulanicki et al. (Hg.): Selected Paprers of Antoni Zygmund, I. Kluwer, Dordrecht 1989, S. 337–357. K. R. Parthasarathy: Introduction to Probability and Measure. Hindustan Book Agency, New Delhi 2005. G. Pólya: Über eine Aufgabe der Wahrscheinlichkeitsrechnung betreffend die Irrfahrt im Straßennetz. Mathematische Annalen 84 (1921) 149–160. Nachdruck in: G. C. Rota (Hg.): George Pólya – Collected Papers IV. The MIT Press, Cambridge (MA) 1984, S. 69–80. Yu. V. Prohorov: Convergence of random processes and limit theorems in probability theory. Theory of Probability and its Applications 1 (1956) 157–214. W. Rudin: Reelle und Komplexe Analysis. Oldenbourg, München 2009 (2. Aufl.). M. von Smoluchowski: Zur kinetischen Theorie der Brownschen Molekularbewegung und der Suspensionen. Annalen der Physik (4. Folge) 21 (1906) 756–780. Nachdruck in [22]. F. Spitzer: Principles of Random Walk. Springer, New York 1976 (2. Aufl.; Erstauflage 1964). C. J. Stone: On the potential operator for one-dimensional recurrent random walks. Transactions of the American Mathematical Society 136 (1969) 413–426. W. M. Thackeray: The History of Pendennis: His Fortunes and Misfortunes, His Friends and His Greatest Enemy. Bradbury and Evans, London 1850. W. M. Thackeray: The Newcomes. Memoirs of a most Respectable Family. Bradbury and Evans, London 1855. J. Ville: Étude critique de la notion de collectif. Gauthier–Villars, Paris 1939.

192 | Literatur [46] N. Wiener: Differential-space. Journal of Mathematics and Physics (1923) 58, 131– 174. Nachdruck in: N. Wiener, P. Masani (Hg.): Collected Works With Commentaries I. The MIT Press, Cambridge (MA) 1976–86, S. 455–498.

Stichwortverzeichnis Alle Zahlenangaben beziehen sich auf Seitennummern, (Pr. m.n) verweist auf die Aufgabe n (im Kapitel m) auf der jeweils angegebenen Seite. Wir verwenden die Abkürzungen „CLT“ – zentraler Grenzwertsatz, „ggi“ – gleichgradig integrierbar, „MG“ – Martingal, „sMG“ – Sub- oder Supermartingal und „SLLN“ starkes Gesetz der großen Zahlen. abgeschlossenes Martingal, 52, 57, 62 absolutstetig, 82 accessible points, 134 adaptiert, 17, 109 Arkussinusgesetz, 125, 126 aufsteigende Überquerung, 44 Austrittszeit, 112 Azuma–Hoeffding Ungleichung, 91 Balayageprinzip, 168 (Pr. 14.9) ballot theorem, 122 – Martingalversion, 123 bedingte Erwartung, 7 – abstrakt vs. klassisch, 8, 15 (Pr. 2.5) – Beppo Levi, 12 – dominierte Konvergenz, 12 – Eigenschaften, 10 – Eindeutigkeit, 8 – Existenz, 9 – Fatous Lemma, 12 – Höldersche Ungleichung, 16 (Pr. 2.18) – Jensensche Ungleichung, 12 – klassisch, 7 – Konvergenzsätze, 12 – Markovsche Ungleichung, 16 (Pr. 2.17) – orthogonale Projektion, 9 – pull out, 10 – stetig in L1 , 9 – symmetrischer Operator, 16 (Pr. 2.8) – testen am Erzeuger, 7–8 – tower property, 10 – Unabhängigkeit, 13 bedingte Varianz, 16 (Pr. 2.12) bedingte Wahrscheinlichkeit, 14 – abstrakt vs. klassisch, 15 – klassisch, 13 Borel–Cantelli Lemma, 72 – Verallg. von Dubins & Freedman, 72 – Verallg. von Lévy, 71 Brownsche Bewegung, 172 Burkholder–Davis–Gundy Ungleichungen, 93 https://doi.org/10.1515/9783110350685-018

Burkholder-Ungleichung, 103, 104 CLT, siehe Zentraler Grenzwertsatz coupling, siehe Kopplung Davis-Ungleichung, 106 Davis-Zerlegung, 105 Dirichlet-Problem (diskret) – homogen, 155, 157 – inhomogen, 159 diskreter Prozess, 109 Doob-Zerlegung, 24 Doobs L p -Maximalungleichung, 89, 90 Dynkin-Formel, 168 (Pr. 14.9) echt d-dimensional, 143 einfache Irrfahrt, 110, siehe auch Irrfahrt – Arkussinusgesetz, 125, 126 – lazy random walk, 120, 168 (Pr. 14.17) – Momente von T1 , 115 – Reflektionsprinzip, 121 – rekurrent für d = 1, 2, 118 – Rekurrenz, 116 – symmetrisch, 110 – transient für d ⩾ 3, 118 – Übergangsoperator, 151 – Verteilung der Rückkehrzeit nach 0, 129 – Verteilung des Maximums, 128 – Verteilung von T1 , 114 – Verteilung von T x , 128 – Verteilung von T(a,b) , 113 Eintrittszeit, 42 (Pr. 4.2), 112 erfolgreiche Kopplung, 161 faires Spiel, 2–4 – kann unvorteilhaft sein, 5 Faktorisierungslemma, 183 Feller-Bedingung, 78 Filtration, 17 gambler’s ruin, 113–116 gestoppter Prozess, 31 ggi, siehe gleichgradig integrierbar

194 | Stichwortverzeichnis gleichgradig integrierbar (ggi), 57 – Kriterium von de la Vallée-Poussin, 59 – Martingal, 62, 63 harmonische Funktion, 151 – beschränkt ⇒ const., 152 Hewitt-Savage 0-1–Gesetz, 70 Invarianzprinzip, 173, 177 Irrfahrt, 110, siehe auch einfache Irrfahrt – assoziierte Martingale, 153 – beliebiger Startwert, 147 – echt d-dimensional, 143 – erfolgreiche Kopplung, 161 – Grenzverhalten (d = 1), 131 – Kopplung, 161 – Kopplungsungleichung, 163 – Kopplungszeit, 161 – Kriterium von Chung–Fuchs, 139 – rekurrent für d = 1, 2, 137 – Rekurrenzkriterium, 117, 141, 142 – Satz von Chung–Fuchs, 131, 138 – starke Markov-Eigenschaft, 132, 149 – stop’n’go Prinzip, 150 – symmetrisch, 141 – Symmetrisierung, 143 – transient wenn echt d ⩾ 3-dim., 144

Khintchine Ungleichungen, 95 Kolmogorovsche Ungleichung, 88 Kolmogorovsches 0-1–Gesetz, 68 Kompensator, 25 – vs. quadratische Variation, 97 Konvergenz – fast sicher (f.s.), 179 – in L p , 179 – in Verteilung (d), 73, 181 – in Wahrscheinlichkeit (ℙ), 59, 179 – Reihe von iid ZV, 53, 73, 77 Konvergenzmenge, 48, 49 (Pr. 5.4), 49, 55, 56 (Pr. 6.6), 71, 75 Konvergenzsatz für MG, 85 (Pr. 8.2) – beliebige Indexmenge, 81 – f.s., 45 – ggi, 62 – L2 , 52 – Lévy backward, 68 – Lévy forward, 67 – Rückwärts-(s)MG, 47, 65

Konvergenzsatz von Vitali, 60 Kopplung, 161, 163 – durch Reflektion, 162 – Marsch-Kopplung, 162 – Mineka-Kopplung, 163 – Ornstein-Kopplung, 162 – unabhängige Kopplung, 162 Kopplungsungleichung, 163 – und totale Variation, 168 (Pr. 14.17) Kopplungszeit, 161 Krickeberg-Zerlegung, 100 Kroneckers Lemma, 54 L2 -beschränkt, 51 L p -beschränkt, 58, 89, 93 L2 -Martingal, 25, 51 Lévysches 0-1–Gesetz, 67 Laplace-Operator (diskret), 151 lazy random walk, 120, 168 (Pr. 14.17) Likelihood ratio, 21 Lindeberg-Bedingung, 78 lokales Martingal, 37 – ⇔ verallgemeinertes Martingal, 40 – Charakterisierung, 38 – Darstellungssatz, 40 – Eigenschaften, 39 – muss kein Martingal sein, 37 – positiv ⇒ Super-MG, 40 lokalisierende Folge, 37 Marcinkiewicz–Zygmund Ungleichungen, 97 Markov-Eigenschaft, 132, 149 Marsch-Kopplung, 162 Martingal, 17, siehe auch Submartingal – abgeschlossen, 52, 57, 62 – Beispiele, 18–22 – beliebige Indexmenge, 81–82 – Charakterisierung, 35 – CLT, 78 – Davis-Zerlegung, 105 – divergiert oszillierend, 49 – Eigenschaften, 22–23 – f.s. Konvergenz, 45–47, 49, 55, 67, 85 (Pr. 8.2) – faires Spiel, 1, 4 – ggi, 62, 63 – Kompensator, 25 – Konvergenzmenge, 49 (Pr. 5.4), 49, 55, 71, 75 – L1 -Konvergenz, 62, 67, 85 (Pr. 8.2) – L2 -Konvergenz, 52

Stichwortverzeichnis | 195

– L2 -Martingal, 25, 51 – L2 -beschränkt, 51 – L p -beschränkt, 89, 93 – Lévysches Martingal, 19, 52 – Likelihood ratio, 21 – lokales Martingal, 37 – optional sampling, 32 – optional stopping, 35, 63 – Pólya-Urne, 19 – Produktmartingal, 19 – quadrat-integrierbar, 25, 51 – quadratische Variation, 56 (Pr. 6.1), 93 – Rückwärtsmartingal, 47 – SLLN (L2 ), 55 – Summenmartingal, 19 – Thackeray, 4 – U-Statistik, 86 (Pr. 8.7) – verallgemeinertes MG, 40 – Verzweigungsprozess, 21 – Waldsches Martingal, 20 Martingaltransformation, 26 – Charakterisierung, 29 – Eigenschaften, 26–27 – Iteration, 30 (Pr. 3.7) Maximalungleichung für (s)MG, 89, 90 Maximumprinzip, 168 (Pr. 14.9) Mineka-Kopplung, 163 natürliche Filtration, 18 Null-Eins–Gesetz – von Hewitt & Savage, 70 – von Kolmogorov, 68 – von Lévy, 67 occupation measure, 134 optional sampling, 31 optional stopping, 35, 63 Ornstein-Kopplung, 162 orthogonal (Maße), 86 (Pr. 8.6), 86 (Pr. 8.7) orthogonal (ZV), 52, 108, 185 orthogonale Projektion, 185 Pólya-Urne, 19 permutierbare ZV, 69 Potentialoperator, 167 (Pr. 14.9) Projektionssatz, 185 Prozess, 31, 109 – diskreter Prozess, 109 – in diskreter Zeit, 109

– in stetiger Zeit, 109 pull out, 10 quadrat-integrierbar, 25, 51 quadratische Variation, 56 (Pr. 6.1), 93, 97 – Kovariation, 107 – vs. Kompensator, 97 Rademacher Ungleichungen, 95 Radon–Nikodým (Satz), 82 Radon–Nikodým Ableitung, 82 random walk, siehe Irrfahrt recurrence set, 134 Reflektionskopplung, 162 Reflektionsprinzip, 121 Rekurrenz, 116, 134 Rekurrenz–Transienz Dichotomie, 86 (Pr. 8.9), 131, 134 Rekurrenzkriterium, 117, 141, 142 Riesz-Zerlegung, 168 (Pr. 14.9) Rückwärts(sub)martingal, 47 – f.s. Konvergenz, 47, 65, 68 – ist ggi, 65–66 – L1 -Konvergenz, 65, 68 Ruinproblem, 113–116 Satz – von Arzelà–Ascoli, 176 – von Borel–Cantelli (Lemma), 72 – von Borel–Cantelli–Lévy (Lemma), 71, 72 – von Chung–Fuchs, 131, 138, 139 – von de la Vallée-Poussin, 59, 66 (Pr. 7.3) – von Donsker, 177 – von Kakutani, 86 (Pr. 8.7) – von Kronecker (Lemma), 54 – von Liouville, 152 – von Pólya, 118 – von Plancherel, 139 – von Prohorov, 176 – von Radon–Nikodým, 82 – von Slutsky, 182 – von Vitali, 60 – Arkussinusgesetz, 125, 126 – ballot theorem, 122 – CLT für Martingale, 78 – Davis-Zerlegung, 105 – Doob Zerlegung, 24 – Drei-Reihen Satz für MG, 76, 77 – Faktorisierungslemma, 183

196 | Stichwortverzeichnis – Faltungssatz, 139 – Krickeberg-Zerlegung, 100 – L p -Maximalungleichung, 90 – Lévys Konvergenzsatz für Reihen, 73 – Maximumprinzip, 152 – MG-Konvergenzsatz (L2 ), 52 – MG-Konvergenzsatz (f.s.), 45–47 – MG-Konvergenzsatz (ggi), 62 – MG-Konvergenzsatz von Lévy, 67, 68 – optional sampling, 31 – optional stopping, 35, 63 – Projektionssatz, 185 – Rückwärtskonvergenzsatz (L1 ), 65 – Rückwärtskonvergenzsatz (f.s.), 47, 65 – Reflektionsprinzip, 121 – SLLN (L1 ), 69 – SLLN (L2 ), 56 (Pr. 6.4), 56 – SLLN (L2 ) für MG, 55 SLLN – für L2 -Martingale, 55 – für iid ZV in L1 , 69 – für iid ZV in L2 , 56 Spitzer-Test, 142 starke Markov-Eigenschaft, 132, 149 stochastischer Prozess, siehe Prozess stop’n’go Prinzip, 150 Stoppzeit, 31 – assoziierte σ-Algebra, 34 – erste Eintrittszeit, 42 (Pr. 4.2) – erste Trefferzeit, 42 (Pr. 4.2) Straffheit, 176 sub-/superharmonische Funktion, 151 Submartingal, 17, siehe auch Martingal – Charakterisierung, 35 – Doob-Zerlegung, 24 – f.s. Konvergenz, 45–47 – Konvergenzmenge, 48, 56 (Pr. 6.6) – Krickeberg-Zerlegung, 100 – L1 -Konvergenz, 62 – Maximalungleichung, 87, 88 – optional sampling, 31 – optional stopping, 35, 63 – quadratische Variation, 93 – Rückwärts-Submartingal, 47

Supermartingal, 17, siehe (Sub)Martingal symmetrische Funktion, 69 symmetrische Irrfahrt, 141 tower property, 10 Transienz, 116, 134, siehe auch Rekurrenz Trefferzeit, 42 (Pr. 4.2) U-Statistik, 86 (Pr. 8.7) Übergangsoperator, 151 Ungleichung – Azuma–Hoeffding, 91 – Burkholder, 103, 104 – Burkholder–Davis–Gundy, 93 – Davis, 106 – Doobsche L p -Maximalungleichung, 89, 90 – Hölder, 16 (Pr. 2.18) – Jensen, 12 – Khintchine, 95 – Kolmogorov, 88 – Marcinkiewicz–Zygmund, 97 – Markov, 16 (Pr. 2.17) – Maximalungleichung für (s)MG, 87, 88 – Rademacher, 95 – upcrossing estimate, 44 – weak-type, 88 upcrossing, 44 verallgemeinertes Martingal, 40 – ⇔ lokales Martingal, 40 – Darstellungssatz, 40 Verzweigungsprozess, 21, 56 (Pr. 6.2) Vitalis Konvergenzsatz, 60 vorhersagbar, 23 Waldsche Identität, 111, 168 (Pr. 14.11) Waldsches Martingal, 20 weak-type inequality, 88 Wiener-Maß, 172 – Existenz, 173 Zentraler Grenzwertsatz (MG), 78 zufällige Irrfahrt, siehe (einfache) Irrfahrt Zustandsraum, 109