138 10 12MB
German Pages 175 [170] Year 2023
Laurent Decreusefond
Ausgewählte Themen des Malliavin-Kalküls Chaos, Divergenz und noch viel mehr
Ausgewählte Themen des Malliavin-Kalküls
Laurent Decreusefond
Ausgewählte Themen des Malliavin-Kalküls Chaos, Divergenz und noch viel mehr
Laurent Decreusefond Telecom Paris Institut Polytechnique de Paris Paris, Frankreich
ISBN 978-3-031-42728-2 ISBN 978-3-031-42729-9 (eBook) https://doi.org/10.1007/978-3-031-42729-9 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Dieses Buch ist eine Übersetzung des Originals in Englisch „Selected Topics in Malliavin Calculus“ von Decreusefond, Laurent, publiziert durch Springer Nature Switzerland AG im Jahr 2022. Die Übersetzung erfolgte mit Hilfe von künstlicher Intelligenz (maschinelle Übersetzung). Eine anschließende Überarbeitung im Satzbetrieb erfolgte vor allem in inhaltlicher Hinsicht, so dass sich das Buch stilistisch anders lesen wird als eine herkömmliche Übersetzung. Springer Nature arbeitet kontinuierlich an der Weiterentwicklung von Werkzeugen für die Produktion von Büchern und an den damit verbundenen Technologien zur Unterstützung der Autoren. Übersetzung der englischen Ausgabe: „Selected Topics in Malliavin Calculus“ von Laurent Decreusefond, © The Editor(s) (if applicable) and The Author(s), under exclusive license to Springer Nature Switzerland AG 2022. Veröffentlicht durch Springer International Publishing. Alle Rechte vorbehalten. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Francesca Bonadei Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer Nature Switzerland AG und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Gewerbestrasse 11, 6330 Cham, Switzerland Das Papier dieses Produkts ist recyclebar.
Für Sandrine, Marc und Benjamin
Vorwort
Es ist manchmal einfacher, etwas zu beschreiben, indem man sagt, was es nicht ist, anstatt was es sein soll. Dieses Buch ist keine Forschungsmonographie über den Malliavin-Kalkül mit den neuesten Ergebnissen und den ausgefeiltesten Beweisen. Es enthält nicht alle bekannten Ergebnisse, selbst für die hier behandelten Grundthemen. Das Ziel war es, die größtmögliche Vielfalt an Beweistechniken zu geben. Zum Beispiel haben wir uns nicht auf den Beweis der Konzentrationsungleichheit für Funktionale der Brown'schen Bewegung fokussiert, da er eng den Linien des analogen Ergebnisses für Poisson-Funktionale folgt. Dieses Buch entstand aus den Graduiertenkursen, die ich in den letzten Jahren an den Universitäten Paris-Sorbonne und Paris-Saclay gegeben habe. Es soll so zugänglich wie möglich sein für Studenten, die Kenntnisse im Itô-Kalkül und einige Grundlagen der Funktionalanalyse haben. Eine wiederkehrende Schwierigkeit, wenn jemand den Malliavin-Kalkül entdeckt, ist auf die verschiedenen und oft impliziten Identifikationen zurückzuführen, die zwischen mehreren funktionalen Räumen gemacht werden. Ich habe versucht, diesen Punkt so weit wie möglich zu entmystifizieren. Die Präsentation ist hoffentlich selbsterklärend, was bedeutet, dass die notwendigen Ergebnisse der Funktionalanalyse, die in allen Forschungsmonographien vorausgesetzt werden, im Kern des Textes wiederholt werden. Die Auswahl der Themen wurde von meiner eigenen Forschung beeinflusst, die sich eine Zeit lang um die fraktionale Brown'sche Bewegung drehte und dann zu Punktprozessen überging, mit einer Neigung zur Stein-Methode. Ich habe nicht auf die historischen Anwendungen des Malliavin-Kalküls bestanden, die sich auf die Existenz der Dichte der Verteilung einiger Zufallsvariablen bezogen, weil es so viele andere interessante Themen gibt, auf die der Malliavin-Kalkül angewendet werden kann: griechische Berechnungen, bedingte Erwartungen, Maßänderung, optimaler Transport, Filtrationserweiterung und neuerdings auch die Stein-Malliavin-Methode. Ich bin A.S. Üstünel sehr dankbar, der mich vor einigen Jahren in den Malliavin-Kalkül eingeführt hat. Seitdem war es eine lange und ereignisreiche Reise.
VII
VIII
Vorwort
Dieses Buch hat von der Hilfe zahlreicher Studenten profitiert, insbesondere von B. Costacèque-Cecchi. Die verbleibenden Fehler sind meine. Paris, Frankreich 2021
Laurent Decreusefond
Inhaltsverzeichnis
1 Wiener Raum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1 Gauß’sche Zufallsvariablen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Wiener-Maß. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.3 Wiener-Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.4 Eine schnelle Auffrischung über Hilbert-Räume. . . . . . . . . . . . . . . . 16 1.5 Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 1.6 Notizen und Kommentare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 2 Gradient und Divergenz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.1 Gradient. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.2 Divergenz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 2.3 Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 2.4 Anmerkungen und Kommentare. . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3 Wiener-Chaos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 3.1 Chaos-Zerlegung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 3.2 Ornstein-Uhlenbeck-Operator. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 3.3 Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 3.4 Anmerkungen und Kommentare. . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 4 Fraktionale Brown'sche Bewegung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 4.1 Definition und Eigenschaften von Stichprobenpfaden. . . . . . . . . . . . 87 4.2 Cameron-Martin-Raum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90 4.3 Wiener-Raum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.4 Gradient und Divergenz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 4.5 Itô-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 4.6 Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114 4.7 Anmerkungen und Kommentare. . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 IX
X
Inhaltsverzeichnis
5 Poisson-Raum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 5.1 Punktprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 5.2 Poisson-Punktprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 5.3 Endlicher Poisson-Punktprozess. . . . . . . . . . . . . . . . . . . . . . . . . . . . 123 5.4 Stochastische Analyse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 5.5 Eine kurze Zusammenfassung des Poisson-Prozesses auf der Linie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 5.6 Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 5.7 Anmerkungen und Kommentare. . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 6 Die Malliavin-Stein-Methode. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 6.1 Prinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 6.2 Satz des Moments vierter Ordnung. . . . . . . . . . . . . . . . . . . . . . . . . . 153 6.3 Poisson-Prozess-Approximation. . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 6.4 Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 6.5 Anmerkungen und Kommentare. . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
Über den Autor
Laurent Decreusefond ist ein ehemaliger Student der Ecole Normale Supérieure de Paris-Saclay. Er erhielt die Agrégation im Jahr 1989, seine Promotion im Jahr 1994 und seine Habilitation im Jahr 2001 in Mathematik. Er ist jetzt ordentlicher Professor für Mathematik am Institut Polytechnique de Paris, einer der renommiertesten französischen Forschungs- und Lehreinrichtungen. Seine Forschungsthemen sind zweigeteilt. Der theoretische Teil widmet sich dem Malliavin-Kalkül und seinen Anwendungen. Er ist der Autor eines viel zitierten Artikels über fraktionale Brown'sche Bewegung, der den Weg für tausende Forschungsartikel ebnete. In jüngster Zeit hat er sich für die funktionale SteinMalliavin-Methode interessiert, die die Konvergenzrate in funktionalen Grenzwertsätzen liefert. Auf einem eher angewandten Teil schlug er neue Paradigmen für die stochastische Modellierung von Telekommunikationssystemen vor, einschließlich stochastischer Geometrie und zufälliger topologischer Algebra. Er hat mehrere Artikel mitverfasst, die einen neuen Ansatz zur Abdeckungsanalyse von Zellularsystemen lieferten. Die Leistung einiger der so definierten Algorithmen kann mit mathematischen Werkzeugen aus dem Malliavin-Kalkül analysiert werden, wie z. B. Konzentrationsungleichheiten.
XI
Kapitel 1
Wiener Raum
Zusammenfassung Die Konstruktion und Charakterisierung von Wahrscheinlich‑ keitsmaßen auf unendlich dimensionalen Räumen ist eine schwierige Aufgabe. Gauß'sche Zufallsvariablen und -vektoren haben mehrere Eigenschaften, die es erlauben, Gauß'sche Maße auf Banach-Räumen zu konstruieren. Dieses Verfahren führt zu dem Begriff des abstrakten Wiener-Raums des Gelfand-Tripletts.
1.1 Gauß’sche Zufallsvariablen Wir beginnen mit grundlegenden Definitionen über Gauß'sche Zufallsvariablen und -vektoren. Definition 1.1 (Gauß’sche Zufallsvariable) Eine reellwertige Zufallsvariable X ist gaußförmig, wenn ihre charakteristische Funktion die Form
2 2 E eitX = eitm e−σ t /2
(1.1)
hat. Es ist allgemein bekannt, dass E[X] = m und Var(X) = σ 2 gilt.
Bemerkung 1.1 Diese Definition bedeutet, dass, wenn wir wissen, dass eine Zufallsvariable gaußförmig ist, es genügt, ihren Mittelwert und ihre Varianz zu berechnen, um ihre Verteilung vollständig zu bestimmen. Ein Gauß'scher Zufallsvektor ist nicht einfach eine Sammlung von Gauß'schen Zufallsvariablen. Es ist zwar richtig, dass alle Koordinaten eines Gauß'schen Vektors gaußförmig sind, aber sie erfüllen eine zusätzliche Bedingung. Im Folgenden wird das euklidische Skalarprodukt auf Rn definiert durch
�x, y� =
n
xj yj .
j=1
© Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 L. Decreusefond, Ausgewählte Themen des Malliavin-Kalküls, https://doi.org/10.1007/978-3-031-42729-9_1
1
1 Wiener Raum
2
Definition 1.2 (Gauß'scher Zufallsvektor) Ein Zufallsvektor X in Rn, d. h., X = (X1, ⋯ ,Xn), ist ein Gauß'scher Zufallsvektor, wenn für jedes t = (t1, ⋯ ,tn) ∈ Rn die reellwertige Zufallsvariable
�t, X� =
n
tj Xj
j=1
gaußförmig ist. In Anbetracht der Bemerkung 1.1 haben wir
wobei
1 E ei�t, X� = ei�t, m� e− 2 �ŴX t, t� ,
(1.2)
ŴX = cov(Xj , Xk ), 1 ≤ j, k ≤ n
die sogenannte Kovarianzmatrix von X ist.
Bemerkung 1.2 In der vorherigen Definition verbirgt sich die Identität
Var �t, X� =
n
cov(Xj , Xk )ti tj
(1.3)
i,j=1
für jedes t = (t1, ⋯ ,tn) ∈ Rn. Da eine Varianz immer nicht negativ ist, bedeutet dies, dass ΓX die Identität
�ŴX t, t� =
n
i,j=1
ŴX (i, j) ti tj ≥ 0
erfüllt, was bedeutet, dass die Eigenwerte von ΓX nicht negativ sind. Das Hauptmerkmal von Gauß'schen Vektoren ist, dass sie stabil durch affine Transformation sind. Satz 1.1 Sei X ein Rn-wertiger Gauß'scher Vektor, B ∈ Rp und A eine lineare Abbildung (d. h. eine Matrix) von Rn in Rp. Der Zufallsvektor Y = AX + B ist ein Rp-wertiger Gauß'scher Vektor, dessen Eigenschaften gegeben sind durch
E[Y ] = AE[X] + B, ŴY = AŴX At ,
wobei At die Transponierte von A ist.
Bemerkung 1.3 Für X, eine eindimensionale zentrierte Gauß'sche Zufallsvariable, gilt E |X|p = cp Var(X)p/2 . (1.4) In Anbetracht des vorangegangenen Satzes gilt E |N (0, σ 2 )|p = σ p/2 E |N (0, 1)|p .
1.2 Wiener-Maß
3
Bemerkung 1.4 Wenn Γ eine nicht negative symmetrische Matrix ist, kann man Γ1∕2 definieren, eine symmetrische nicht negative Matrix, deren Quadrat Γ entspricht. Wenn X = (X1, ⋯ , Xn) ein Vektor von unabhängigen standardisierten Gauß'schen Zufallsvariablen ist, dann folgt aus dem vorherigen Satz, dass Γ1∕2X ein Gauß'scher Vektor mit Kovarianzmatrix Γ ist. Neben dieser Stabilität durch affine Transformation besitzt die Menge der Gauß'schen Vektoren eine weitere bemerkenswerte Stabilitätseigenschaft. Satz 1.2 Sei (Xn, n ≥ 1) eine Folge von Gauß'schen Vektoren, Xn ∼ N (mn , ŴXn ) , die in der Verteilung zu einem Zufallsvektor X konvergiert. Dann ist X ein Gauß'scher Vektor N (m, ŴX ), wobei
m = lim mn und ŴX = lim ŴXn . n→∞
n→∞
Für X ∼ N (0, Idn ), einem standardisierten Gauß'schen Vektor in Rn, gilt Folgendes: n E �X�2Rn = E Xj2 = n. j=1
Das bedeutet, dass die mittlere Norm einer solchen Zufallsvariablen gegen unendlich geht, wenn die Dimension wächst. Daher können wir keine Gauß'sche Verteilung auf einem unendlich dimensionalen Raum wie RN konstruieren, indem wir einfach das anwenden, was wir auf Rn tun. Definition 1.3 (Gauß'sche Prozesse) Für eine Menge T ist eine Familie (X(t), t ∈T) von Zufallsvariablen ein Gauß'scher Prozess, wenn für jedes n ≥ 1, für jedes (t1, ⋯ ,tn) ∈Tn, der Zufallsvektor (X(t1), ⋯ , X(tn)) ein Gauß'scher Vektor ist.
1.2 Wiener-Maß Die Konstruktion von Maßen auf Funktionenräumen ist eine heikle Frage, die für Gauß'sche Maße zufriedenstellend gelöst ist. Erinnern Sie sich, dass eine Brown'sche Bewegung wie folgt definiert ist. Definition 1.4 Die Brown'sche Bewegung B = (B(t), t ≥ 0) ist der (eindeutige) zentrierte Gauß'sche Prozess auf R+ mit unabhängigen Zuwächsen, so dass
E[B(t)B(s)] = t ∧ s.
Ihre Stichprobenpfade sind Hölder-stetig mit einer Ordnung, die deutlich kleiner als 1∕2 ist. Als solche definiert die Verteilung von B ein Maß im Raum der stetigen Funktionen, null zur Zeit 0, sowie ein Maß in den Räumen Hol(α) für jedes
1 Wiener Raum
4
α 1 und jedes k ≥ 1 gibt es cp,kund Cp,k, so dass für jedes F ∈ Dp,k
cp,k �F�p,k ≤ E |(I +L)k/2 F|p ≤ Cp,k �F�p,k .
Siehe Gl. (2.7) für die Definition der Norm auf Dp,k.
3.3 Probleme 3.1 Betrachten Sie das Brown'sche Blatt W, das der zentrierte Gauß'sche Prozess indiziert von [0, 1]2 mit Kovarianzkern (3.33)
E[W (t1 , t2 )W (s1 , s2 )] = s1 ∧ t1 s2 ∧ t2 := R(s, t).
Sei (Xij, 1 ≤ i, j ≤ N) eine Familie von N2 unabhängigen und identisch verteilten Zufallsvariablen mit Mittelwert 0 und Varianz 1. Definieren Sie
SN (s, t) =
[Ns] [Nt] 1 Xij . N i=1 j=1
Siehe Abb. 3.1 für eine Simulation eines Stichprobenpfads von SN.
1. Zeigen Sie, dass SN (s1 , s2 ), SN (t1 , t2 ) zu einem Gauß'schen Zufallsvektor mit Kovarianzmatrix konvergiert: Ŵ=
R(s, s) R(s, t) . R(s, t) R(t, t)
Abb. 3.1 Simulation eines Stichprobenpfads von SN
0.5 0.0 −0.5
0.0
0.2
0.4
s
0.6
0.8
1.0
1.0 0.8 0.6 0.4 t 0.2 0.0
SN (s, t)
1.0
3 Wiener Chaos
84
2. Zeigen Sie, dass für festes t der Prozess s −→ W (s, βt2 ) die gleiche Verteilung hat wie der Prozess s↦βtB(s), wobei B die standardisierte Brown'sche Bewegung ist. 3. Leiten Sie ab, dass für F ∈ L 2 W → R; µ und ω ∈W, wir haben
Pt F(ω) = E F e−t ω + W (., βt2 ) .
3.2 Aus [5] leiten wir einen alternativen Ausdruck für die zweite Ableitung von PtF ab. Nehmen Sie an, dass F zu S gehört und h, k zwei Elemente von H sind. 1. Verwenden Sie die Halbgruppeneigenschaft, um
�∇Pt F(ω), h�H ˆ ˆ e−t/2 = F e−t ω + e−t/2 βt/2 y + βt/2 z dµ(z) δh(y) dµ(y). βt/2 W W
2. Zeigen Sie, dass (2) ∇ Pt F(ω), h ⊗ k H ˆ ˆ e−3t/2 = 2 F e−t ω + e−t/2 βt/2 y + βt/2 z δh(y)δk(z) dµ(y) dµ(z).(3.34) βt/2 W W 3. Zeigen Sie, dass (3.34) für F ∈ L 1 W → R; µ gilt. Nehmen Sie an, dass F ∈ L 1 W → R; µ und dass F in Lip1 (W ) ist: Für jedes ω′∈W
|F(ω + ω′ ) − F(ω)| ≤ �ω′ �W .
4. Verwenden Sie die Cauchy-Schwarz-Ungleichung, um zu zeigen, dass −5t/2 (2) ∇ Pt F(ω + αe(h), h ⊗ h ≤ α e �h�2H �e(h)�W . 2 H βt/2
(3.35)
3.3 Für f : Rn →R zweimal differenzierbar, setzen wir
Ln f (x) = �x, Dn f (x)�Rn − �n f (x) n n = xj ∂j f (x) − ∂jj2 f (x). j=1
j=1
1. Für F(ω) = f δh1 (ω), · · · , δhn (ω) , wobei f ∈ C 2 (Rn , R) LF(ω) = (Ln f ) δh1 (ω), · · · , δhn (ω) .
(3.36)
Literatur
85
3.4 Anmerkungen und Kommentare Chaos ist interessant, weil die Wirkung des Gradienten und der Divergenz auf jedes Chaos leicht zu erkennen ist. Es gibt auch eine bequeme Definition der Ornstein-Uhlenbeck-Halbgruppe als Diagonaloperator. Tatsächlich kann man sagen, dass die Chaos-Zerlegung die Rolle der Reihenentwicklung für gewöhnliche Funktionen spielt, mit den gleichen Vorteilen und Einschränkungen. Es gibt einige andere Wahrscheinlichkeitsmaße, für die die Chaos-Zerlegung bekanntlich gilt. Jenseits des Wiener-Maßes [2, 6] können wir die Verteilung des Poisson-Prozesses möglicherweise mit Markierungen [4], das Rademacher-Maß, das die Verteilung einer Folge von unabhängigen Bernoulli-Zufallsvariablen ist [4], die Verteilung von Lévy-Prozessen [3] und die Verteilung einiger endlicher Markov-Ketten [1] betrachten. In den Neunzigerjahren gab es eine enorme Aktivität auf diesem Gebiet, aber soweit ich weiß, ging es nicht viel weiter als diese Beispiele. Diese Version des Beweises der Multiplikationsformel für iterierte Integrale findet sich in [7].
Literatur 1. P. Biane, Chaotic representation for finite Markov chains. Stoch. Stoch. Rep. 30, 61–68 (1989) 2. D. Nualart, The Malliavin Calculus and Related Topics (Springer–Verlag, Berlin, 1995) 3. D. Nualart, W. Schoutens, Chaotic and predictable representations for Lévy processes. Stoch. Process. Appl. 90(1), 109–122 (2000) 4. N. Privault, Stochastic Analysis in Discrete and Continuous Settings with Normal Martingales. Lecture Notes in Mathematics, vol. 1982. (Springer, Berlin, 2009) 5. H.-H. Shih, On Stein’s method for infinite-dimensional Gaussian approximation in abstract Wiener spaces. J. Funct. Anal. 261(5), 1236–1283 (2011) 6. A.S. Üstünel, An Introduction to Analysis on Wiener Space. Lectures Notes in Mathematics, vol. 1610 (Springer, Berlin, 1995) 7. A.S. Üstünel, A sophisticated proof of the multiplication formula for multiple wiener integrals (2014). arXiv:1411.4877
Kapitel 4
Fraktionale Brown'sche Bewegung
Zusammenfassung In den neunziger Jahren zeigten statistische Beweise, insbesondere in der Finanz- und Telekommunikationsbranche, dass Markov-Prozesse zu weit von den Beobachtungen entfernt waren, um als tragfähige Modelle betrachtet zu werden. Insbesondere gab es starke Verdachtsmomente, dass die Daten eine Langzeitabhängigkeit aufweisen. In diesem Kontext erfuhr die fraktionale Brownsche Bewegung, die Ende der sechziger Jahre von B. Mandelbrot eingeführt und seitdem fast vergessen wurde, ein neues Interesse. Es handelt sich um einen Gaußschen Prozess mit Langzeitabhängigkeit. Folglich kann es kein Semi-Martingal sein, und wir können die Theorie des Itô-Kalküls nicht anwenden. Wie wir früher gesehen haben, verallgemeinert die Malliavin-Divergenz das Itô-Integral und kann für die fBm konstruiert werden, so dass es verlockend ist, es als Ersatz für ein stochastisches Integral zu betrachten. Tatsächlich ist die Situation nicht so einfach und hängt davon ab, was wir als stochastisches Integral bezeichnen.
4.1 Definition und Eigenschaften von Stichprobenpfaden Definition 4.1 Für jedes H in (0, 1) ist die fraktionale Brown'sche Bewegung des Index (Hurst-Parameter) H, { BH ( t); t ∈ [0, 1]} der zentrierte Gauß'sche Prozess, dessen Kovarianzkern durch
RH (s, t) = E[BH (s)BH (t)] = gegeben ist, wobei
VH =
VH 2H s + t 2H − |t − s|2H 2
Ŵ(2 − 2H) cos(πH) . πH(1 − 2H)
Beachten Sie, dass für H = 1∕2 und wir erhalten
R1/2 (t, s) =
1 (t + s − |t − s|), 2
© Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 L. Decreusefond, Ausgewählte Themen im Malliavin-Kalkül, https://doi.org/10.1007/978-3-031-42729-9_4
87
4 Fraktionale Brown'sche Bewegung
88
was nichts anderes ist als die ausgefeilte Art zu schreiben R1/2 (t, s) = min(t, s). Daher ist B1∕2 die gewöhnliche Brown'sche Bewegung. Satz 4.1 Sei H ∈ (0, 1) und die Stichprobenpfade von WH sind Hölderkontinuierlich von jeder Ordnung kleiner als H (und nicht mehr) und gehören zu Wα, p für jedes p ≥ 1 und jedes α ∈ (0, H). Wir bezeichnen mit μH das Maß auf Wα, p, das der Verteilung von BH entspricht. Beweis Schritt 1 Eine einfache Berechnung zeigt, dass für jedes p ≥ 0 gilt
E |BH (t) − BH (s)|p = Cp |t − s|Hp .
Da BH gaußförmig ist, kann sein p-tes Moment als Potenz der Varianz ausgedrückt werden; daher haben wir
|B (t) − B (s)|p H H dt ds = Cα |t − s|−1+p(H−α) dt ds. E 1+αp |t − s| 2 2
[0,1]
[0,1]
Dieses Integral ist endlich, sobald α< H; daher gehört für jedes α< H, jedes p ≥ 1, BH zu Wα,p mit Wahrscheinlichkeit 1. Wählen Sie p beliebig groß und schließen Sie daraus, dass die Stichprobenpfade Hölder-stetig jeder Ordnung kleiner als H sind angesichts der Sobolev-Einbettungen (siehe Satz 1.4). Schritt 2 Als Folge der Ergebnisse in [1] haben wir BH (u) µH lim sup = VH = 1. log log u−1 u→0+ uH
Daher ist es unmöglich, dass BH Stichprobenpfade hat, die Hölder-stetig eine Ordnung größer als H sind. □ Der Unterschied in der Regularität ist deutlich bei Simulationen von Stichprobenpfaden, siehe Abb. 4.1. Lemma 4.1 Der Prozess (a−HBH(at),t ≥ 0) hat die gleiche Verteilung wie BH. Beweis Betrachten Sie den zentrierten Gauß'schen Prozess
Z(t) = a−H BH (at).
Seine Kovarianzkern ist gegeben durch
E[Z(t)Z(s)] = a−2H RH (at, as) = RH (t, s).
Da ein Kovarianzkern die Verteilung eines Gauß'schen Prozesses bestimmt, haben Z und BH das gleiche Gesetz. □ Satz 4.2 Mit Wahrscheinlichkeit 1 haben wir
4.1 Definition und Eigenschaften von Stichprobenpfaden H = 0,2 2,0
0,10
1,5
0,05
1,0
0,00
0,5
−0,05
0,0
−0,10
−0,5
−0,15
−1,0
89 H = 0,8
−0,20
−1,5 0,0
0,2
0,4
0,6
0,8
1,0
0,0
0,2
0,4
0,8
1,0
0,6
0,8
1,0
H = 0,5 0,25 0,00 −0,25 −0,50 −0,75 −1,00 −1,25 0,0
0,2
0,4
0,6
Abb. 4.1 Beispiel für einen Stichprobenpfad für H = 0,2 (oben links), H = 0,5 (unten) und H = 0,8 (oben rechts)
n j − 1 j 2 = 0 BH − BH lim n→∞ n n ∞ j=1
wenn H > 1/2 wenn H < 1/2.
Beweis Lemma 4.1 impliziert, dass
n j − 1 j 1/H BH − BH n n j=1
die gleiche Verteilung hat wie
n 1 BH j − BH j − 1 1/H . n j=1
Der impliziert, dass dies in L1(W →R;μH) und fast sicher zu Ergodensatz H E |BH (1)| konvergiert, daher das Ergebnis. □ Als Konsequenz kann BH keine Semi-Martingale sein, da seine quadratische Variation entweder null oder unendlich ist.
4 Fraktionale Brown'sche Bewegung
90
4.2 Cameron-Martin-Raum Der nächste Schritt besteht darin, den Cameron-Martin-Raum zu beschreiben, der an den fBm des Index H angehängt ist. Die allgemeine Theorie der Gauß'schen Prozesse besagt, dass wir den selbstreproduzierenden Hilbert-Raum betrachten müssen, der durch den Kovarianzkern definiert ist, siehe den Anhang von Kap. 1. Definition 4.2 Sei H0 = span{RH (t, .), t ∈ [0, 1]},
ausgestattet mit dem Skalarprodukt
�RH (t, .), RH (s, .)�H0 = RH (t, s).
(4.1)
Der Cameron-Martin-Raum des fBm des Hurst-Index H, bezeichnet durch HH , ist die Vervollständigung von H0 für das in (4.1) definierte Skalarprodukt. Dies ist keine sehr praktische Definition, aber wir können eine viel bessere Beschreibung von HH dank der nächsten Sätze erhalten. Lemma 4.2 (Darstellung des RKHS) Nehmen wir an, es existiert eine Funktion KH: [0, 1] × [0, 1] →R, so dass ˆ RH (s, t) = KH (s, r) KH (t, r) dr (4.2) [0, 1]
und dass die durch K definierte lineare AbbildungH eine Eins-zu-eins-Abbildung auf L ist2([0, 1] →R;ℓ):
ˆ ∀t ∈ [0, 1],
[0, 1]
KH (t, s)g(s) ds = 0 =⇒ g = 0 ℓ − a.s.
(4.3)
Dann kann der Hilbert-Raum HH identifiziert werden mit KH(L2([0, 1] →R; ℓ)): der Raum der Funktionen der Form
f (t) =
ˆ
[0, 1]
KH (t, s)f˙ (s) ds
für ein f˙ ∈ L 2 [0, 1] → R; ℓ , ausgestattet mit dem Skalarprodukt �KH f , KH g�K
H (L
2
= �f , g� . L 2 [0, 1]→R; ℓ
[0, 1]→R; ℓ
Beachten Sie, dass wir die Notationen verwenden, indem wir KH−1 (f ) als f˙ bezeichnet haben. Wir werden für diesen kleinen Verstoß unten belohnt, da alle Formeln unabhängig vom Wert von H gleich aussehen werden. Beweis Schritt 1 Gleichung (4.3) bedeutet, dass
KH = span {KH (t, .), t ∈ [0, 1]}
4.2 Cameron–Martin Raum
91
dicht in L2([0, 1] →R;ℓ) ist. Schritt 2 Da KH(KH(t,.))(s) =RH(t,s), n n KH αk KH (tk , .) = αk RH (tk , .). k=1
k=1
Einerseits haben wir n n n αk RH (tk , .)2HH = αk αl RH (tk , tl ) k=1
(4.4)
k=1 l=1
und andererseits beobachten wir, dass
n αk KH (tk , .)2 2 L [0, 1]→R; ℓ k=1 ˆ n 2 = αk KH (tk , s) ds [0, 1]
= =
k=1
n n
k=1 l=1 n n
αk αl
(4.5)
KH (tk , s)KH (tl , s) ds
[0, 1]×[0, 1]
αk αl RH (tk , tl )
k=1 l=1
in Anbetracht von (4.2). Schritt 3 Gl. (4.4) und (4.5) bedeuten, dass die Abbildung KH
KH : KH −→ H0 KH (t, .) −→ RH (t, .) eine bijektive Isometrie ist, wenn diese Räume mit der Topologie von L2([0, 1] →R;ℓ) und H0, ausgestattet sind. Durch Dichte ist KH eine bijektive Isometrie von L2([0, 1] →R;ℓ) in HH . Anders ausgedrückt, KH(L2([0, 1] →R;ℓ)) ist isometrisch isomorph, daher identifiziert, zu HH . □ Beispiel (RKHS der Brown'schen Bewegung) Für H = 1∕2 haben wir
t∧s=
ˆ
0
1
1[0,t] (r)1[0,s] (r) dr.
Das bedeutet, dass der RKHS der Brown'schen Bewegung gleich I1,2 ist, da für K1∕2(t,r) =1[0,t](r),
4 Fraktionale Brown'sche Bewegung
92
K1/2 f (t) =
ˆ
1
0
1[0,t] (r) f (r) dr = I 1 f (t).
Wir müssen nun KH für unseren Kernel RH identifizieren. Lemma 4.3 Für H > 1∕2 ist Gl. (4.2) erfüllt mit
r 1/2−H KH (t, r) = Ŵ(H − 1/2)
ˆ
t r
uH−1/2 (u − r)H−3/2 du 1[0,t] (r).
(4.6)
Beweis Gemäß dem Hauptsatz der Analysis, zweimal angewendet, können wir schreiben: ˆ tˆ s VH |r − u|2H−2 du dr. RH (s, t) = (4.7) 4H(2H − 1) 0 0
Nach einer gründlichen Untersuchung der Handbücher der Integrale oder einfacher, mit etwas Glück, dem Finden der Referenz [2], sehen wir, dass ˆ r∧u VH |r − u|2H−2 = (ru)H−1/2 v1/2−H (r − v)H−3/2 (u − v)H−3/2 dv. 4H(2H − 1) 0 (4.8) Setzen Sie (4.8) in (4.7) ein und wenden Sie den Satz von Fubini an, um die Integration in Bezug auf v im äußersten Integral zu setzen. Dies impliziert, dass (4.2) erfüllt ist mit KH gegeben durch (4.6). □ Leider ist dieses Integral nicht definiert für H< 1∕2 aufgrund des Terms (u −r)H−3∕2. Glücklicherweise kann der Ausdruck (4.6) als hypergeometrische Funktion ausgedrückt werden. Diese irgendwie klassischen Funktionen können auf verschiedene Weisen dargestellt werden, so dass sie für einen sehr breiten Bereich von Parametern, einschließlich des für uns interessanten Bereichs, sinnvoll sind. Definition 4.3 Die Gauß’sche hypergeometrische Funktion F(a,b,c,z) (für Details siehe [6]) ist definiert für jedes a,b, jedes z, |z|< 1 und jedes c ≠ 0, −1, … durch
F(a, b, c, z) =
+∞ (a)k (b)k k=0
(c)k k!
zk ,
(4.9)
wobei (a)0 = 1 und (a)k = Γ(a +k)∕ Γ(a) =a(a + 1)…(a +k − 1) das PochhammerSymbol ist. Wenn a oder b eine negative ganze Zahl ist, endet die Reihe nach einer endlichen Anzahl von Termen und F(a,b,c,z) ist ein Polynom in z. Der Konvergenzradius dieser Reihe ist 1, und es existiert ein endlicher Grenzwert, wenn z gegen 1 strebt (z< 1), vorausgesetzt, dass ℜ(c − a − b) > 0 gilt. Für jedes z, so dass | arg(1 − z)| < π, jedes a,b,c, so dass ℜ(c) > ℜ(b) > 0, kann F definiert werden durch
4.2 Cameron–Martin Raum
F(a, b, c, z) =
93
Ŵ(c) Ŵ(b)Ŵ(c − b)
ˆ
1 0
ub−1 (1 − u)c−b−1 (1 − zu)−a du.
(4.10)
Bemerkung 4.1 Die Gamma-Funktion ist nur auf {z, ℜ(z) > 0} durch ein Integral definiert. Durch die berühmte Beziehung Γ(z + 1) = z Γ(z) kann sie analytisch auf C∖(−N) erweitert werden, auch wenn der Integralausdruck nicht mehr gültig ist. Die gleiche, aber komplexere Art von Argumentation kann hier verwendet werden, um F zu erweitern. Satz 4.3 Die hypergeometrische Funktion F kann analytisch auf den Bereich C × C × C\(−N) × {z, | arg(1 − z)| < π} erweitert werden.
Beweis Wir werden nicht auf die Details des Beweises eingehen. Gegeben (a,b,c), betrachten wir Σ als die Menge der Tripel (a′,b′,c′), so dass |a −a′| = 1 oder |b −b′| = 1 oder |c −c′| = 1. Jede hypergeometrische Funktion F(a′,b′,c′,z) mit (a′,b′,c′) in Σ wird als benachbart zu F(a,b,c) bezeichnet. Für zwei hypergeometrische Funktionen F1 und F2, die benachbart zu F(a,b,c,z) sind, gibt es eine Beziehung des Typs:
P0 (z)F(a, b, c, z) + P1 (z)F1 (z) + P2 (z)F2 (z) = 0, f¨urz, | arg(1 − z)| < π, (4.11)
wobei für jedes i,Pi ein Polynom in Bezug auf z ist. Diese Beziehungen erlauben die Definition der analytischen Fortsetzung von F(a,b,c,z) in Bezug auf ihre vier Variablen. □ Wenn wir eine Darstellung ähnlich wie (4.6) für H< 1∕2 haben wollen, müssen wir K in einer Form schreiben, die auf einen größeren Bereich erweitert werden kann. Der einfachste Weg ist, K als ganze Funktion seiner Argumente H,t und r zu schreiben. Hier kommt die hypergeometrische Funktion ins Spiel. Satz 4.4 Für jedes H ∈ (0, 1), kann RHwie in (4.2) faktorisiert werden mit
KH : [0, 1]2 −→ R
t (t − s)H−1/2 (t, s) �−→ . F H − 1/2, 1/2 − H, H + 1/2, 1 − Ŵ(H + 1/2) s (4.12)
Wenn wir Integraloperatoren und ihren Kern identifizieren, bedeutet dies, dass
RH = KH ◦ KH∗ . Beweis Für H > 1∕2 verwandelt eine Variablenänderung in (4.6) den Integralterm in
(t − r)H−1/2 r H−1/2
ˆ
1 0
uH−3/2 (1 − (1 − t/r)u)H−1/2 du.
4 Fraktionale Brown'sche Bewegung
94
Durch die Definition (4.10) der hypergeometrischen Funktionen sehen wir, dass (4.12) für H > 1∕2 wahr ist. Gemäß den Eigenschaften der hypergeometrischen Funktion haben wir
√ 2−2H π r H−1/2 KH (t, r) = Ŵ(H) sin (πH) r 1 (t − r)H−1/2 F(1/2 − H, 1, 2 − 2H, ). + 2Ŵ(H + 1/2) t Wenn H< 1∕2, dann ist die hypergeometrische Funktion der letzteren Gleichung kontinuierlich bezüglich r auf [0, t], weil 2 − 2H − 1 − 1∕2 + H = 1∕2 − H positiv ist. Daher ist für H< 1∕2, KH(t,r)(t −r)1∕2−Hr1∕2−H kontinuierlich bezüglich r auf [0, t]. Für H > 1∕2 ist die hypergeometrische Funktion nicht mehr kontinuierlich in t, aber wir haben [6]
r r F(1/2 − H, 1, 2 − 2H, ) = C1 F(1/2 − H, 1, H + 1/2, 1 − ) t t r 1/2−H r 2H−1 ( ) . +C2 (1 − ) t t Daher ist für H ≥ 1∕2, KH(t,r)rH−1∕2 kontinuierlich bezüglich r auf [0, t]. Fixiere δ ∈ [0, 1∕2) und t ∈ (0, 1], wir haben
|KH (t, r)| ≤ Cr −|H−1/2| (t − r)−(1/2−H)+ 1[0,t] (r),
wobei C gleichmäßig bezüglich H ∈ [1∕2 − δ, 1∕2 + δ] ist. Daher sind die beiden Funktionen, die auf {H ∈C, |H − 1∕2| < 1∕2} definiert sind, durch
H −→ RH (s, t) und H −→
ˆ
1
KH (s, r)KH (t, r) dr 0
gut definiert, analytisch bezüglich H und stimmen auf [1∕2, 1) überein; daher sind sie gleich für jedes H ∈ (0, 1) und jedes s und t in [0, 1]. □ In dem vorherigen Beweis haben wir ein Ergebnis bewiesen, das so nützlich ist, dass es einen eigenen Satz verdient: Satz 4.5 Für jedes H ∈ (0, 1), für jedes t ist die Funktion
[0, t] −→ R
r �−→ KH (t, r)r |H−1/2| (t − r)(1/2−H)+
stetig auf [0, t]. Darüber hinaus existiert eine Konstante cH, so dass für jedes 0 ≤ r ≤ t ≤ 1
|KH (t, r)| ≤ cH r −|H−1/2| (t − r)−(1/2−H)+ .
(4.13)
Diese Kontinuitätsergebnisse werden durch die folgenden Bilder veranschaulicht.
4.2 Cameron–Martin Raum
95
Wir haben einige Fortschritte mit dieser neuen Beschreibung von HH gemacht. Allerdings ist es für ein gegebenes Element von L2([0, 1] →R;ℓ) immer noch schwierig zu bestimmen, ob es zu HH gehört. Da
ˆ
0
1
ˆ
1
0
K(t, r)2 dt dr =
ˆ
1
RH (t, t) dt < ∞,
0
wissen wir bereits, dass die Integralabbildung des Kernels KH Hilbert-Schmidt von L2([0, 1] →R;ℓ) in sich selbst ist. Dank [8, Seite 187] sind wir in der Lage, eine vollständig zufriedenstellende Beschreibung von HH zu geben (Abb. 4.2). Satz 4.6 Betrachten Sie die Integraltransformation des Kernels KH, d. h. KH : L 2 [0, 1] → R; ℓ −→ L 2 [0, 1] → R; ℓ ˆ t f �−→ t �→ KH (t, s)f (s) ds . 0
Die Abbildung KH ist ein Isomorphismus von L2([0, 1] →R;ℓ) auf IH+1∕2,2 (siehe Definition 1.7) , und wir haben die folgenden Darstellungen, die besagen, dass KH in gewisser Weise nahe an der Abbildung IH+1∕2 ist: 1/2−H H−1/2
1/2−H KH f = I02H I0+ + x
KH f =
x
f f¨urH ≤ 1/2,
H−1/2 1/2−H I01+ x H−1/2 I0+ x f
f¨urH ≥ 1/2.
Beachten Sie, dass, wenn H ≥ 1∕2, r → KH(t,r) stetig auf (0, t] ist, wir t in die Indikatorfunktion einbeziehen können. Bemerkung 4.2 Wir wissen bereits, dass der fBm umso regelmäßiger ist, je näher sein Hurst-Index an 1 liegt. Allerdings sehen wir, dass der Kernel KH umso singulärer wird, je näher H an 1 heranrückt. Das bedeutet, dass es wahrscheinlich keine gute Idee ist, Eigenschaften von BH anhand der Eigenschaften von KH zu ermitteln. Andererseits ist KH als Operator umso regelmäßiger, je größer H ist. Dies deutet darauf hin, dass der effiziente Ansatz darin besteht, mit KH als
10
1,04
8
1,02
6
1,00
4
0,98
16 14 12 10 8 6 4 2 0
0,96
2 0,0
0,2
0,4
0,6
0,25 (1
0,8
)
1,0
0,0
0,2
0,4 0,5 (1
Abb. 4.2 KH(1, .) für H = 0,2, H = 0,8, und H = 0,5
0,6
)
0,8
1,0
0,0
0,2
0,4
0,6
0,75 (1
0,8
)
1,0
4 Fraktionale Brown'sche Bewegung
96
Operator zu arbeiten. Wir haben versucht, diese Denkweise in den nächsten Ergebnissen zu veranschaulichen. Um die vorherigen Überlegungen zusammenzufassen, erhalten wir: Satz 4.7 (RKHS des fBm) Der Cameron-Martin-Satz des fraktionalen ˙ h˙ ∈ L 2 [0, 1] → R; ℓ }, d. h., jede h ∈ HH Brown'schen Motions ist HH = {KH h; kann dargestellt werden als
˙ = h(t) = KH h(t)
ˆ
0
1
˙ ds, KH (t, s)h(s)
wobei h˙ zu L2 ([0, 1] →R;ℓ) gehört. Für jede HH -wertige Zufallsvariable u bezeichnen wir im Folgenden durch u˙ die L2([0, 1] →R;ℓ))-wertige Zufallsvariable, so dass
u(w, t) =
ˆ
t
KH (t, s)˙u(w, s) ds.
0
Das Skalarprodukt auf HH wird gegeben durch
. ˙ KH g˙ )HH = (h, ˙ g˙ ) (h, g)HH = (KH h, L 2 [0,1]→R; ℓ
Bemerkung 4.3 Satz 4.6 impliziert, dass als Vektorraum HH gleich IH+1∕2,2 ist, aber die Norm auf jedem dieser Räume ist unterschiedlich, da
˙ HH = �h� ˙ �KH h� L 2 [0,1]→R; ℓ
. ˙ IH+1/2,2 = �(I −H−1/2 ˙ ◦ KH )h� und �KH h� 0+ L 2 [0,1]→R; ℓ
4.3 Wiener-Raum Wir können nun das fraktionale Wiener-Maß konstruieren, wie wir es für die gewöhnliche Brown'sche Bewegung getan haben. Satz 4.8 Sei (h˙ m , m ≥ 0) eine vollständige orthonormale Basis von L2 ([0, 1] →R;ℓ) und hm = KH h˙ m. Betrachten Sie die Sequenz
SnH (t) =
n m=0
Xm hm (t),
4.3 Wiener Raum
97
wo (Xm, m ≥ 0) eine Sequenz von unabhängigen standardisierten Gauß'schen Zufallsvariablen ist. Dann konvergiert (SnH , n ≥ 0), mit Wahrscheinlichkeit 1, in Wα,p für jedes α 1. Beweis Der Beweis verläuft genau wie der Beweis von Satz 1.5. Der Trick besteht darin zu bemerken, dass
(hm (t) − hm (s))2 = �KH (t, .) − KH (s, .), h˙ m �2HH , so dass ∞ m=0
(hm (t) − hm (s))2 = �KH (t, .) − KH (s, .)�2 2 L
Darüber hinaus ˆ
[0,1]2
[0,1]→R; ℓ
= RH (t, t) − RH (s, s) − 2RH (t, s) = VH |t − s|2H .
|t − s|pH−1−αp ds dt < ∞ wenn und nur wenn α < H.
Das bedeutet, durch dominierte Konvergenz, dass
vorausgesetzt, dass α< H. Der Beweis ist abgeschlossen wie in Satz 1.5. □ Im Folgenden kann W entweder als C0 ([0, 1], R) oder als einer der Räume Wγ,p mit
p ≥ 1, 1/p < γ < H
Für jedes H ∈ (0, 1) ist μH das einzigartige Wahrscheinlichkeitsmaß auf W, so dass der kanonische Prozess (BH(s);s ∈ [0, 1]) ein zentrierter Gauß'scher Prozess mit Kovarianzkern RH ist:
E[BH (s)BH (t)] = RH (s, t).
Die kanonische Filtration wird gegeben durch FtH = σ {BH (s), s ≤ t} ∨ NH , und NH ist die Menge der μH-vernachlässigbaren Ereignisse. Das Analogon des Diagramms von Abb. 1.2 liest sich als Diagramm von Abb. 4.3. Wir können, wie zuvor, nach dem Bild von εt durch e∗ suchen. Wir haben, für h ∈ HH , einerseits Andererseits
h(t) = �εt , e(h)�W∗ ,W = �e∗ (εt ), h�HH .
4 Fraktionale Brown'sche Bewegung
98 Abb. 4.3 Einbettungen und Identifikation für das Gelfand-Triplett im fBm
W
2
=(
R; ℓ
0, 1
+1/ 2,2 )
=
W
+1/ 2,2
= �RH (t, .), h�H . ˙ = �KH (t, .), h� ˙ h(t) = KH h(t) H L 2 [0,1]→R; ℓ
Daher
e∗ (εt ) = RH (t, .) und KH−1 (e∗ (εt )) = KH (t, .).
Erinnern Sie sich, dass wir für die gewöhnliche Brown'sche Bewegung haben −1 ∗ e∗ (εt ) = t ∧ . = R1/2 (t, .) und K1/2 (e (εt )) = 1[0,t] (.) = K1/2 (t, .).
Satz 4.9 Für jedes z in W∗ ˆ 1 ei�z,ω�W∗ ,W dµH (ω) = exp − �e∗ (z)�2HH . 2 W
(4.14)
Beweis Durch dominierte Konvergenz haben wir n ˆ i�z,ω�W∗ ,W ˙ Xm z, e(KH hm ) W∗ ,W e dµH (ω) = lim E exp i W
n→∞
m=0
= lim exp − n→∞
∞
n 1
2
m=0
e∗ (z), KH h˙ m
2 1 ∗ e (z), KH h˙ m HH 2 m=0 1 = exp − �e∗ (z)�2HH , 2 = exp −
2
HH
gemäß der Parseval-Identität. □ Das Wiener-Integral wird wie zuvor als Erweiterung der Abbildung gesehen:
δH : W∗ ⊂ I1,2 −→ L 2 (µH ) z �−→ �z, BH �W∗ ,W . Durch die Konstruktion des Wiener-Maßes ist die Zufallsvariable �z, BH �W∗ ,W gaußförmig mit Mittelwert 0 und Varianz RH (z)2HH. Für z =εt haben wir BH (t) = �εt , BH �W∗ ,W = δH RH (t, .) . Gl. (4.14) ist das genaue Analogon von Gl. (1.13); daher kann der CameronMartin-Satz identisch bewiesen werden:
4.3 Wiener Raum
99
Satz 4.10 Für jedes h ∈ HH , für jede beschränkte F : W →R
1 2 E[F(BH + e(h)] = E F(BH ) exp δH (h) − �h�HH . 2
(4.15)
Für die Brown'sche Bewegung ist es oft einfacher, mit Elementen von L2([0, 1] →R;ℓ) zu arbeiten anstatt mit ihrem Bild durch K1∕2, das zu I1,2 gehört. Wenn wir versuchen, diesen Ansatz für die fraktionale Brown'sche Bewegung nachzuahmen, sollten wir schreiben
was mit
BH (t) = δH RH (t, .) = δH KH (KH (t, .)) =
B(t) = B1/2 (t) =
ˆ
0
1
ˆ
KH (t, s) δBH (s),
0
1
1[0,t] (s) dB1/2 (s)
verglichen werden muss, wo das Integral im Itô-Sinn genommen wird. Beachten Sie, dass diese beiden Gleichungen kohärent sind, da K1∕2(t, .) =1[0,t]. Lemma 4.4 Der Prozess B = (δH(KH(1[0,t])),t ∈ [0, 1]) ist eine standardisierte Brown'sche Bewegung. Für u ∈ L2([0, 1] →R;ℓ) gilt
ˆ
1 0
(4.16)
u(s) dB(s) = δH (KH u).
Insbesondere
BH (t) =
ˆ
t
(4.17)
KH (t, s) dB(s).
0
Beweis Es handelt sich um einen Gauß'schen Prozess nach der Definition des Wiener-Integrals. Wir müssen nur überprüfen, ob es den richtigen Kovarianzkern hat: Es genügt zu sehen, dass �KH (1[0,t] )�2HH = t. Aber
�KH (1[0,t] )�2HH = �1[0,t] �2 2 L
= t.
[0,1]→R; ℓ
Das bedeutet, dass (4.16) für u =1[0,t] gilt; also für alle stückweise konstanten Funktionen u und durch die Dichte, für alle u ∈L2([0, 1] →R;ℓ). □ Bemerkung 4.4 Gl. (4.17) ist bekannt als die Karhunen-Loeve-Darstellung. Wir hätten auch mit einem Prozess beginnen können, der durch die rechte Seite von (4.17) definiert ist, und ihn fraktionale Brown'sche Bewegung nennen können. Tatsächlich ist (4.17) ein stärkeres Ergebnis: Es besagt, dass man ausgehend von
4 Fraktionale Brown'sche Bewegung
100
einem fBm auf demselben Wahrscheinlichkeitsraum eine Brown'sche Bewegung konstruieren kann, so dass die Darstellung (4.17) gilt. Der folgende Satz ist eine einfache Folge der Eigenschaften der Abbildungen KH. −1 Satz 4.11 Der Operator KH = KH ◦ K1/2 ist stetig und umkehrbar von Iα,pin Wα+H−1∕2,p, für jedes α > 0. −1 ˙ = KH ◦ K1/2 (B), also können wir erwarten, Formell haben wir BH = KH (B) dass:
Satz 4.12 (B ist eine Funktion von BH) Für jedes H haben wir (4.18) Beweis Lassen Sie (h˙ m , m ≥ 0) eine vollständige orthonormale Basis von L2([0, 1] →R;ℓ) sein. Die Serie, die B definiert,
B=
∞ m=0
Xm I 1 (h˙ m ),
konvergiert mit μ1∕2-Wahrscheinlichkeit 1, in jedem Wα,p, vorausgesetzt, dass 0 < α − 1∕p< 1∕2. Durch Kontinuität von KH , konvergiert
auf demselben Satz von voller Maß in Iα+H−1∕2,p. Beachten Sie, dass, wenn α − 1∕p durch (0, 1∕2) läuft, α +H − 1∕2 − 1∕p entlang (0, H) variiert. Daher erhalten wir die gewünschte Regularität der Stichprobenpfade von BH. Der gleiche Beweis gilt für die zweite Identität. □
4.4 Gradient und Divergenz Der Gradient ist definiert wie für die übliche Brown'sche Bewegung. Die einzige Änderung ist der Cameron-Martin-Raum. Definition 4.4 Eine Funktion F wird als zylindrisch bezeichnet, wenn es eine ganze Zahl n, f ∈ Schwartz(Rn ), den Schwartz-Raum auf Rn, (h1, ⋯ ,hn), n Elemente von HH gibt, so dass F(ω) = f δH h1 (ω), · · · , δH hn (ω) .
4.4 Gradient und Divergenz
101
Die Menge solcher Funktionale wird durch SHH bezeichnet. Definition 4.5 Sei F ∈ SHH, h ∈ HH mit F(ω) =f(δHh1(ω), ⋯ ,δHhn(ω)). Setzen Sie
∇F =
n
�∇F, h�HH =
n
j=1
∂j f δH h1 , · · · , δH hn hj ,
so dass
j=1
∂j f δH h1 , · · · , δH hn hj , h HH .
Beispiel (Ableitung von f(BH(t))) Das bedeutet, dass ∇f BH (t) = f ′ BH (t) RH (t, .)
und wenn wir ∇˙ = KH−1 ∇ bezeichnen (was für H = 1∕2 entspricht, die Zeitableitung des Gradienten zu nehmen), erhalten wir
∇˙ s f BH (t) = f ′ BH (t) KH (t, s).
Wir können jetzt Satz 4.12 verbessern. Satz 4.13 Sei
BH (t) = δH RH (t, .) und B(t) = δH KH (1[0,t] ) .
Für jedes H haben wir
µH B = KH−1 (BH ) = 1.
(4.19)
Integrieren Sie nach Teilen Bei der Konfrontation mit stochastischen Integralen oder Divergenzen ist es immer eine gute Idee, so viele Integrationen nach Teilen durchzuführen wie nötig, um gewöhnliche Integrale bezüglich des Lebesgue-Maßes zu erhalten. Dann können wir sie mit den üblichen Werkzeugen (dominierte Konvergenz, Fubini etc.) modifizieren und die Integration nach Teilen wiederholen. Dies ist das allgemeine Schema des folgenden Beweises und mehrerer anderer wie der Itô-Formel. Beweis Schritt 1 Die Stichprobenpfade von B sind bekanntermaßen kontinuierlich, und die von BH gehören zu WH−ε,p für jedes p ≥ 1 und ε ausreichend klein. Daher gehört nach Satz 4.11 KH−1 (BH ) fast sicher zu I1∕2−ε,p für jedes p ≥ 1. Wählen Sie p > 2, so dass I1/2−ε,p ⊂ C0 ([0, 1], R), um zu folgern, dass KH−1 (BH )μH-a.s. kontinuierliche Stichprobenpfade hat.
4 Fraktionale Brown'sche Bewegung
102
Schritt 2 Um eine solche Identität zu beweisen, ist es notwendig und ausreichend zu überprüfen, dass
ˆ E ψ
1
0
ˆ B(t)g(t) dt = E ψ
1
KH−1 (BH )(t) g(t) dt 0
(4.20)
für jedes g ∈L2([0, 1] →R;ℓ) und jedes ψ ∈ SH gilt. Tatsächlich ist L 2 [0, 1] → R; ℓ ⊗ SH eine dichte Teilmenge von L2([0, 1] →R;ℓ) ⊗L2(W →R;μH) ≃L2([0, 1] ⊗W →R;ℓ ⊗μH), und (4.20) impliziert, dass B = KH−1 (BH )ℓ ⊗μH- fast sicher gilt. Das bedeutet, dass es ein A ⊂ [0, 1] × W gibt, so dass ˆ 1A (s, ω) ds dµH (ω) = 0 [0,1]×W
und
B(ω, s) = KH−1 (BH )(ω, s)f¨ur(s, ω) ∈ / A.
Daher ist für jedes s ∈ [0, 1] der Abschnitt von A bei festem s, d. h., As = {ω, (s,ω) ∈A}, eine μH-vernachlässigbare Menge. Betrachten Sie nun AQ = At . t∈[0,1]∩Q
Es handelt sich um eine μH-vernachlässigbare Menge und für ω ∈ AcQ, für t ∈ [0, 1] ∩Q gilt B(ω, s) = KH−1 (BH )(ω, s). Daher gilt diese Identität durch Kontinuität noch für jedes t ∈ [0, 1] und jedes ω ∈ AcQ. Das bedeutet, dass Gleichung (4.19) gilt. Schritt 3 Wir beweisen nun (4.20) ˆ 1 ˆ −1 E ψ KH (BH )(t) g(t) dt =
1
E[ψ BH (t)](KH−1 )∗ (g)(t) dt
0
0
1
ˆ
E[ψ δH (RH (t, .))](KH−1 )∗ (g)(t) dt 0 ˆ 1 ˆ 1 =E (KH−1 )∗ (g)(t) ∇˙ s ψ KH (t, s) ds dt
=
0
ˆ
=E
0
1
∇˙ s ψ
0
ˆ =E
0
1
ˆ
1
KH (t, s)(KH−1 )∗ (g)(t) dt
0
∇˙ s ψ KH∗ (KH−1 )∗ (g)(s) ds .
Durch die Definition von KH gilt ∗ ∗ KH∗ ◦ (KH−1 )∗ = KH∗ ◦ (KH−1 )∗ ◦ K1/2 = K1/2 .
Daher haben wir
ds
4.4 Gradient und Divergenz
ˆ E ψ
103
1
KH−1 (BH )(t) g(t) dt
0
1
ˆ =E
∗ g(s) ds ∇˙ s ψ K1/2
0 1
ˆ
=E
∇˙ s ψ
0 1
ˆ
=E
0
ˆ
=E
ˆ
1
ˆ
1
0
0
0
0
∗ g(s) ds ∇˙ s ψ K1/2 1
ˆ
=E
∇˙ s ψ
0 1
ˆ
=E
0
ˆ
=E
1
ˆ
1
0
=E
1
0
1
g(t)
ˆ
0
1
ˆ
0
1
∇˙ s ψ 1[0,t] (s) ds dt .
δH KH (1[0,t] ) g(t) dt
g(t) 0
g(t) dt ds
1
0
ˆ
∇˙ s ψ g(t) 1[0,t] (s) dtds
0
Andererseits B(t) =δH(KH(1[0,t])); daher ˆ 1 ˆ E ψ B(t)g(t) dt = E ψ
1
s
∇˙ s ψ g(t) 1[s,1] (t) dt ds
0
1
0
ˆ =E
ˆ
ˆ
∇˙ s ψ 1[0,t] (s) ds dt .
1
0
0
1
ˆ
g(t)
Andererseits B(t) =δH(KH(1[0,t])); daher ˆ 1 ˆ −1 E ψ KH (BH )(t) g(t) dt = E
s
∇˙ s ψ g(t) 1[0,t] (s) dtds
1
ˆ =E
g(t) dt ds
∇˙ s ψ g(t) 1[s,1] (t) dt ds
0
1
1
ˆ
˙ ∇s ψ 1[0,t] (s) ds dt .
Dann folgt (4.20). □ Wir können sogar noch weitergehen und zeigen, dass B und BH die gleiche Filtration erzeugen. Definition 4.6 Erinnern Sie sich daran, dass (π˙ t , t ∈ [0, 1]) die durch
π˙ t : L 2 [0, 1] → R; ℓ −→ L 2 [0, 1] → R; ℓ f �−→ f 1[0,t) definierten Projektionen sind. Lassen Sie V eine abschließbare Abbildung von Dom V ⊂ L 2 [0, 1] → R; ℓ in L2([0, 1] →R;ℓ) sein. Dann ist Vπ˙ -kausal, wenn
4 Fraktionale Brown'sche Bewegung
104
Dom V π˙ -stabil ist, d. h., π˙ t Dom V ⊂ Dom V für jedes t ∈ [0, 1], und wenn für jedes t ∈ [0, 1]: Betrachten Sie auch
πtH
π˙ t V π˙ t = π˙ t V .
definiert durch
πtH : HH −→ HH h �−→ KH πt KH−1 (h) = KH h˙ 1[0,t] .
Bemerkung 4.5 Ein Integraloperator, d. h.
Vf (t) =
ˆ
1
V (t, s)f (s) ds, 0
ist π˙ -kausal, wenn und nur wenn V (t,s) = 0 für s > t. Für V1,V2, zwei kausale Operatoren, ist ihre Komposition V1V2 immer noch kausal:
πt V1 V2 πt = (πt V1 πt )V2 πt = πt V1 (πt V2 πt ) = πt V1 (πt V2 ) = (πt V1 πt )V2 = πt V1 V2 . Korollar 4.1 Die von B erzeugten FiltrationenH und B stimmen überein. Beweis Aus der Darstellung
BH (t) =
ˆ
t
KH (t, s) dB(s)
0
leiten wir ab, dass
σ {BH (s), s ≤ t} ⊂ σ {B(s), s ≤ t}.
Wir haben = K1/2 KH−1. Aus Satz 4.6 KH−1 erscheint als die Zusammensetzung von Bruchderivaten und Multiplikationsoperatoren: KH−1
f → xα f .
Zeitableitungen jeder Ordnung (wie in Definition 4.11) sind eindeutig kausale Operatoren. Es ist offensichtlich, dass auch Multiplikationsoperatoren kausal sind. Daher erscheint KH−1 als die Zusammensetzung von kausalen Operatoren und ist somit kausal. In Anbetracht von (4.19) bedeutet dies, dass ˆ t V (t, s)BH (s) ds B(t) = 0
für einige untere dreieckige Kernel V . Daher gilt
σ {BH (s), s ≤ t} ⊃ σ {B(s), s ≤ t}
und die Gleichheit der Filtrationen ist bewiesen. □ Wir können nun die Früchte unserer nicht so üblichen Darstellung des Malliavin-Kalküls für die Brown'sche Bewegung ernten, in der wir die Chaos-
4.4 Gradient und Divergenz
105
Zerlegung vorsichtig umgangen haben. Satz 4.10 beinhaltet die Formel für die Integration nach Teilen, ausstehend von (2.5): Für jedes F und G in SH , für jedes h ∈ HH , E G�∇F, h�HH = −E F�∇G, h�HH + E[FG δH h]. (4.21) Definition 4.5 ist formal gleich mit Definition 2.2, so dass die Definitionen der Sobolev-Räume identisch sind. Definition 4.7 Der Raum DH p,1 ist der Abschluss von SH für die Norm
1/p p 1/p . �F�p,1,H = E |F|p + E �∇F�HH
Die iterierten Gradienten sind ebenso definiert und ebenso die Sobolev-Räume höherer Ordnung, DH p,k. Wir haben eindeutig noch
∇(FG) = F∇G + G∇F ∇φ(F) = φ ′ (F)∇F
H für F ∈ DH ist Lipschitz-stetig. Solange wir die zeitliche p,1 , G ∈ Dq,1 und φ Skala nicht verwenden, gibt es keinen Unterschied zwischen den für die übliche Brown'sche Bewegung festgestellten Identitäten und denen, die sich auf die fraktionale Brown'sche Bewegung beziehen.
Satz 4.14 Für jedes F in L2(W →R;μH) gilt
Ŵ(πtH )F = E F | FtH ,
insbesondere
E BH (t) | FrH =
ˆ
t
KH (t, s)1[0,r] (s) δB(s), und E exp(δH u − 1/2�u�2HH ) | FtH = exp(δH πtH u − 1/2�πtH u�2HH ) 0
für jedes u ∈ HH .
Beweis Sei {hn,n ≥ 0} eine abzählbare Familie von Elementen vonHH und sei Vn =σ{δHhk, 1 ≤ k ≤n}. Bezeichnen Sie durch pn die orthogonale Projektion auf span{h1 , . . . , hn }. Für jede beschränkte f, für jede u ∈ HH , nach dem CameronMartin-Satz, haben wir E �u1 f (δH h1 , . . . , δH hn ) = E f (δH h1 (w + u), . . . , δH hn (w + u)) = E f (δH h1 + (h1 , u)HH , . . . , δH hn + (hn , u)HH ) = E f (δH h1 (w + pn u), . . . , δH hn (w + pn u)) pu = E �1n f (δH h1 , . . . , δH hn ) ,
4 Fraktionale Brown'sche Bewegung
106
daher
p u E u1 | Vn = 1n .
(4.22)
Wählen Sie hn in der Form wobei {en,n ≥ 0} eine orthonormale Basis von ,n ≥ 0} ist eine orthonormale Basis vonπtH (HH ). Nach dem vorHH ist, d. h., {h n H herigen Satz, n Vn = Ft , ist klar, dass pn punktweise gegen πtH konvergiert; daher können wir aus (4.22) und dem Martingale-Konvergenz-Satz schließen, dass
πtH (en )
πHu E �u1 | FtH = �1 t = �ut .
Darüber hinaus, für u ∈ HH ,
πHu
Ŵ(πtH )(�u1 ) = �1 t ; daher, durch die Dichte von Linearkombinationen von Wick-Exponentialen, gilt für jedes F ∈L2(μH)
Ŵ(πtH )F = E F | FtH
und der Beweis ist abgeschlossen. □
Definition 4.8 Um der Notation willen setzen wir für u˙ so, dass KH u˙ zu Domp δH gehört für ein p > 1,
ˆ
1 0
u˙ (s)δB(s) = δH (KH u˙ ) und
ˆ
0
t
u˙ (s)δB(s) = δH (πtH KH u˙ ).
(4.23)
Beachten Sie, dass für jedes ψ ∈ DH p/(p−1),1
ˆ E ψ
1 0
ˆ u˙ (s)δB(s) = E
0
1
˙ ∇s ψ u˙ (s) ds .
Das nächste Ergebnis ist die Clark-Formel. Sie liest sich formal wie (3.15), aber wir sollten darauf achten, dass das ∇˙ nicht das gleiche Objekt darstellt. Hier ist es definiert als ∇˙ = KH−1 ∇. Korollar 4.2 Für jedes F ∈ L2(W →R;μH)
F = E[F] +
ˆ
0
1
E ∇˙ s F | Fs δB(s).
Beweis Mit den auf der Hand liegenden Notationen impliziert Satz 4.14, dass h 1 H 2 H E �1 | Ft = exp δH (πt h) − �πt h�HH 2 ˆ t ˆ t ˙ δB(s) − 1 h(s) h˙ 2 (s) ds . = exp 2 0 0
4.5 Itô Formel
107
Das bedeutet, dass wir die übliche Beziehung haben:
�ht = 1 +
ˆ
t 0
˙ δB(s) = E �h1 + �s h(s)
ˆ
0
1
E ∇˙ s �h1 | Fs δB(s).
Durch die Dichte der Doléans-Exponentialen erhalten wir das Ergebnis. □ Wenn wir alles verschleiern wollten, könnten wir schreiben
F = E[F] + δH KH E (KH−1 ∇). F | F. .
4.5 Itô-Formel
Definition 4.9 Betrachten Sie den Operator K, definiert durch K = I0−1 + ◦ KH . Für H > 1∕2 ist es eine stetige Abbildung von Lp([0, 1] →R;ℓ) in IH−1∕2,p, für jedes p ≥ 1. Sei Kt∗ sein Adjungierter in Lp([0, t] →R;ℓ), d. h., für jedes f ∈Lp([0, 1] →R;ℓ), jedes ausreichend reguläre g ˆ t ˆ t f (s) Kt∗ g(s) ds. Kf (s) g(s) ds = 0
0
Die Abbildung Kt∗ ist stetig von (IH−1∕2,p)∗ in Lq([0, t] →R;ℓ), wobei q =p∕(p − 1). Beweisschema Bevor wir in die Details des Beweises der Itô-Formel einsteigen, erklären wir, wie er funktioniert. Die Grundidee besteht darin, lim ε−1 f BH (t + ε) − f BH (t) ε→0
zu berechnen und den Hauptsatz der Differential- und Integralrechnung zu verwenden. Da die Stichprobenpfade von BH nirgendwo differenzierbar sind, können wir nicht erwarten, die klassische Kettenregel-Formel zu verwenden. Die Idee besteht darin, mit einer schwachen Formulierung zu arbeiten, d. h., für eine ausreichend reiche Klasse von netten Funktionen ψ betrachten Sie lim ε−1 E f BH (t + ε) − f BH (t) ψ , ε→0
nutzen Sie intensiv die partielle Integration, bis wir nur noch klassische Integrale in Bezug auf das Lebesgue-Maß haben, dann nehmen Sie den
4 Fraktionale Brown'sche Bewegung
108
Grenzwert und heben die partielle Integration auf, um eine gültige Formel der Art E f (BH (t))ψ = E (something which depends on f ′ and f ′′ ) × ψ
zu erhalten. Der Preis für die Verwendung eines solchen schwachen Ansatzes ist, dass die Identität
f (BH (t))ψ = something which depends on f ′ and f ′′ × ψ
(4.24)
fast sicher auf einer Menge gilt, die von t abhängt; daher müssen wir auf die Stetigkeit aller Terme der rechten Seite achten, um eine Wahrscheinlichkeit 1 zu konstruieren, auf der (4.24) für jedes t gilt. Dies ist die Rolle von Satz 4.16. Um technische Details zu vereinfachen, ist es sinnvoll, f zu symmetrisieren; daher die Einführung der nicht so natürlichen Funktion g in (4.28). Bemerkung 4.6 Ein ähnlicher Beweis kann sogar für H< 1∕2 durchgeführt werden, aber zu dem Preis von viel höheren technischen Schwierigkeiten. Zunächst ist K kein Integraloperator mehr, sondern eher eine fraktionale Ableitung, so dass die Konvergenz der verschiedenen Terme strengere Hypothesen über f erfordert und schwerer zu zeigen ist. Darüber hinaus müssen wir die Taylor-Expansion bis zu n so weit treiben, dass 2Hn > 1 für den Restterm verschwindet. Das bedeutet, dass wir Terme haben, die Inkremente von BH bis zur Potenz [1∕2H] − 1 beinhalten, die durch die gleiche Anzahl von Integrationen durch Teile behandelt werden, um Integrale in Bezug auf das Lebesgue-Maß zu erhalten (wie wir eine Polynomfunktion so oft differenzieren würden, wie es notwendig ist, um eine konstante Funktion zu erhalten). Satz 4.15 Nehmen wir an, H > 1∕2. Für f ∈ Cb2 ˆ t ˆ t f (BH (t)) = f (0) + Kt∗ f ′ ◦ BH (s) δB(s) + H VH f ′′ BH (s) s2H−1 ds. 0
0
Beweis Wir beginnen mit dem Symmetrisierungstrick.
Symmetrisierung Wir führen die Funktion g ein als a+b a+b + x) − f ( − x). g(x) = f ( 2 2 Diese Funktion ist gerade und erfüllt
g(2j+1) (0) = 2f (2j+1) (
b−a a+b ) und g( ) = f (b) − f (a). 2 2
(4.25)
4.5 Itô Formel
109
Wenden Sie die Taylor-Formel auf g zwischen den Punkten 0 und (b −a)∕2 an und erhalten Sie
f (b) − f (a) = (b − a) + 2
n
a+b 2−2j (b − a)2j+1 f (2j+1) ( ) (2j + 1)! 2
ˆ
2n+1 g(2(n+1)) (a + (1 − )b) d.
j=0
2(n+1)
0
1
Für jedes ψ ∈ E der Form ψ = exp(δH h − 21 �h�2HH ) mit h ∈ Cb1 ⊂ HH . Beachten Sie, dass ψ erfüllt ∇ψ = ψ h ∈ L 2 W → HH ; µH . Da Cb1 dicht in HH ist, sind diese Funktionalen dicht in L2(W →R;μH). Wir haben dann
(4.26) Der Begriff A1 ist am einfachsten zu handhaben. Wenn H > 1∕2, verschwindet ε−1A1. Tatsächlich erinnern wir uns daran, dass BH(t +ε) −BH(t) eine zentrierte Gauß'sche Zufallsvariable mit einer Varianz proportional zu ε2H ist; daher
da 2H − 1 > 0. Integration durch Teile Für A0 haben wir
′ BH (t) + BH (t + ε) ψ A0 = E BH (t + ε) − BH (t) f 2 ˆ 1 BH (t) + BH (t + ε) ψ =E KH (t + ε, s) − KH (t, s) δB(s) f ′ 2 0 ˆ 1 ′ BH (t) + BH (t + ε) ˙ ψ ds . =E KH (t + ε, s) − KH (t, s) ∇s f 2 0
4 Fraktionale Brown'sche Bewegung
110
Da ∇˙ ein wahrer Ableitungsoperator ist, gilt
′ BH (t) + BH (t + ε) ′ BH (t) + BH (t + ε) ˙ ψ =f ∇s f ∇˙ s ψ 2 2 ′′ BH (t) + BH (t + ε) +f KH (t + ε, s) + KH (t, s) . 2
Jetzt haben wir nur noch Standardintegrale, so dass wir auf klassische Weise vorgehen können:
Durch die sehr Definition von ∇˙ ,
Darüber hinaus gehört ∇ψ zu L2(W;IH+1∕2,2): ˙ E |∇ψ(t + ε) − ∇ψ(t)|2 ≤ c �K∇ψ� L 2 (W ;IH−1/2,2 ) |ε|.
Daher
Dank der Symmetrisierung haben wir nur einfache Berechnungen für B2 durchzuführen:
BH (t) + BH (t + ε) RH (t + ε, t + ε) − RH (t, t) B2 = E ψ f ′′ 2
4.5 Itô Formel
111
und dass
Der Satz von der dominierten Konvergenz liefert dann
Wir haben bisher bewiesen, dass
d E ψ f BH (t) dt ˙ = E f ′ (BH (t)) K∇ψ(t) + H VH E ψ f ′′ BH (t) t 2H−1 .
(4.27)
Es ist offensichtlich, dass die rechte Seite von (4.27) als Funktion von t auf jedem Intervall [0, T] stetig ist. Daher können wir die vorherige Beziehung integrieren und wir erhalten
ˆ t ˙ E ψ f BH (t) − E ψ f BH (0) = E f ′ BH (s) K∇ψ(s) ds 0 ˆ t 2H−1 ′′ f BH (s) s ds . +H VH E ψ 0
Bemerken Sie jetzt, dass
E ˆ =E
ˆ 1
0
t
ˆ ˙ f BH (s) K∇ψ(s) ds = E
1
′
0
∗
K1 f ′ ◦ BH 1[0,t]
Beachten Sie, dass K1∗ (f ′ 1[0,t] )(s) =
d ds
0
ˆ ∇˙ s ψ ds = E ψ
ˆ
˙ f BH (s) 1[0,t] (s) K∇ψ(s) ds ′
1
0
K1∗ f ′ ◦ BH 1[0,t] (s) δB(s) .
1
s
K(r, s)f ′ (r)1[0,t] (r) dr = 0 wenn s > t.
Das bedeutet, dass
πtH Kt∗ (f ′ 1[0,t] ) = Kt∗ (f ′ 1[0,t] )
und durch die Definition (4.23)
4 Fraktionale Brown'sche Bewegung
112
ˆ
0
1
Kt∗
f ◦ BH 1[0,t] (s) δB(s) =
ˆ
t 0
Kt∗ f ◦ BH (s) δB(s).
Folglich haben wir ˆ t ∗ Kt (f ◦ BH )(s)δB(s) E ψ f BH (t) − E ψ f BH (0) = E ψ 0 ˆ t 2H−1 ′′ f BH (s) s ds . +H VH E ψ 0
Da die Funktionalen ψ, die wir betrachtet haben, eine dichte Teilmenge in L2(W →R;μH) bilden, haben wir ˆ t Kt∗ (f ◦ BH )(s)δB(s) f BH (t) − f BH (0) = 0 ˆ t (4.28) f ′′ BH (s) s2H−1 ds, dt ⊗ µH -a.s. +H VH 0
Nehmen Sie für einen Moment an, dass ˆ t Kt∗ (f ′ ◦ BH )(s)δB(s) t −→ 0
fast sicher stetige Stichprobenpfade hat. Es ist klar, dass die anderen Terme von (4.28) ebenfalls kontinuierliche Trajektorien haben. Lassen Sie A die vernachlässigbare Menge von W × [0, 1] sein, wo (4.28) nicht gilt. Nach dem Satz von Fubini ist für jedes t ∈ [0, 1] die Menge
At = {ω ∈ W , (ω, t) ∈} ∈ A}
vernachlässigbar und so auch AQ = ∪t ∈ [0,1]∩QAt. Für jedes t ∈Q ∩ [0, 1] gilt Gl. (4.28) auf AcQ, d. h. gilt μH- fast sicher. Durch Kontinuität gilt dies auch für jedes t ∈ [0, 1]. □ p Satz 4.16 Für jedes H ∈ [1∕2, 1). Lassen Sie u zu DH p,1 (L ) mit Hp > 1 gehören. Der Prozess
U(t) =
ˆ
0
t
Kt∗ u(s)δB(s), t ∈ [0, 1]
lässt eine Modifikation mit (H − 1∕p)-Hölder-kontinuierlichen Pfaden zu, und wir haben die maximale Ungleichheit: � p 1/p �ˆ 1 � � � � ∗ ∗ � Kt u(s) − Kr u(s) δB(s)�� � 0 E sup ≤ c�K1∗ �H,2 �u�DHp,1 . r =t∈[0,1]2 |t − r|pH
4.5 Itô Formel
113
Beweis Für g ∈ C ∞ und ψ eine zylindrische reellwertige Funktionale gilt �ˆ 1 ˆ t � Kt∗ u(s)δB(s) g(t) dt ψ = E E K1∗ (u1[0,t] )(r)g(t)∇˙ r ψ dt dr 0
0
�ˆ =E
0
Daher
ˆ
0
1
ˆ
1
[0,1]2
� � � K1∗ (uI11− g)(r)∇˙ r ψ dr = E δ(K1∗ (u.I11− g)ψ .
t
Kt∗ u(s) δB(s)
0
g(t) dt =
ˆ
1 0
K1∗ (u.I11− g)(s) δB(s) µH − a.s.
(4.29)
Da H > 1∕2, ist klar, dass K kontinuierlich von L2([0, 1] →R;ℓ) in IH−1∕2,2 ist und ∗ 2 somit, dass K1∗ kontinuierlich von IH−1/2,2 in L ([0, 1] →R;ℓ) ist. Da IH−1∕2,2 (1−H)−1 kontinuierlich in L ist, folgt daraus, dass [0, 1] → R; ℓ eingebettet −1 L 1/H [0, 1] → R; ℓ = (L (1−H) [0, 1] → R; ℓ )∗ kontinuierlich in I1∕2−H,2 p eingebettet ist. Da u zu DH p,1 (L ) gehört, impliziert die verallgemeinerte HölderUngleichung, dass
�uI11− g�L1/H ≤ �u�Lp �I11− g�L(H−1/p)−1 . + Daraus folgt, dass U zu L p W → I1,(1−H+1/p) −1 ; µH gehört mit �U�Lp W→I +
; µH 1,(1−H+1/p)−1
≤ c�K∗ �H,2 �u� H . Dp,1 1
Der Beweis wird abgeschlossen, indem bemerkt wird, dass 1 − 1∕(1 − H + + 1∕p)−1 =H − 1∕p, so dass I1,(1−H+1/p) −1 eingebettet ist in Hol(H − 1/p). □ Deterministische fraktionale Analysis Wir betrachten nun einige grundlegende Aspekte der deterministischen fraktionalen Analysis – die Hauptreferenz für dieses Thema ist [8]. Definition 4.10 Sei f ∈L1([a,b] →R;ℓ), die Integrale ˆ x 1 α f (t)(x − t)α−1 dt , x ≥ a, (Ia+ f )(x) = Ŵ(α) a ˆ b 1 f (t)(x − t)α−1 dt , x ≤ b, (Ibα− f )(x) = Ŵ(α) x wobei α > 0 jeweils rechte und linke fraktionale Integrale der Ordnung α sind. Für jedes α ≥ 0, jedes f ∈Lp([0, 1] →R;ℓ) und g ∈Lq([0, 1], wobei p−1 +q−1 ≤α, haben wir ˆ t ˆ t (Itα− f )(s)g(s) ds. f (s)(I0α+ g)(s) ds = (4.30) 0
0
4 Fraktionale Brown'sche Bewegung
114
Darüber hinaus bilden die Familie der fraktionalen Integrale eine Halbgruppe von Transformationen: Für jedes α,β > 0 β
α+β
I0α+ ◦ I0+ = I0+ .
(4.31)
Definition 4.11 Für f gegeben im Intervall [a,b] werden die Ausdrücke [α]+1 d 1−{α} α Ia+ f (x), (Da+ f )(x) = dx d [α]+1 1−{α} Ib− f (x) (Dbα− f )(x) = − dx jeweils als die rechten und linken fraktionalen Ableitungen bezeichnet (sofern sie existieren), wobei [α] den ganzzahligen Teil von α bezeichnet und {α} = α − [α]. Satz 4.17 Wir haben die folgenden Einbettungen und Kontinuitätsergebnisse: γ 1. Wenn 0 1∕2 zur Vereinfachung durchgeführt, kann aber (zum Preis einer erhöhten Komplexität) auf jedes H ∈ (0, 1∕2) angepasst werden (siehe [4]). Am Ende ist die Itô-Formel für fBm nicht so ergiebig wie ihr Gegenstück für die gewöhnliche Brown'sche Bewegung, da sie nicht als Stabilitätsergebnis gelesen werden kann: Die Operatoren, die in der rechten Seite der Itô-Formel auftauchen, sind nicht lokal, sondern eher von der Art von integro-differentialen Abbildungen. Es gibt eine andere Darstellung des Cameron-Martin-Raums der fBm in [7]; die Ähnlichkeit und der Unterschied zwischen den beiden Ansätzen werden in [3, Kapitel 10] erklärt. Die letzte Schwierigkeit, die mit der fBm auftritt, ist, dass die Divergenz nicht als stochastisches Integral im üblichen Sinne betrachtet werden kann, da sie nicht mit irgendeiner Grenze von Riemann-ähnlichen oder Stratonovich-ähnlichen Summen übereinstimmt. All diese Konstruktionen führen zu einem Spurterm, dessen Existenz selbst starke Hypothesen über das Integrand erfordert.
Literatur 1. M.A. Arcones, On the law of the iterated logarithm for Gaussian processes. J. Theor. Probab. 8(4), 877–903 (1995)
4 Fraktionale Brown'sche Bewegung
117
2. R.J. Barton, H. Vincent Poor, Signal detection in fractional Gaussian noise. IEEE Trans. Inf. Theory 34(5), 943–959 (1988) 3. L. Decreusefond, Stochastic integration with respect to fractional Brownian motion, in Theory and Applications of Long-Range Dependence (Birkhäuser, Boston, 2003), pp. 203–226 4. L. Decreusefond, Stochastic calculus with respect to Volterra processes. Ann. l’Institut Henri Poincaré (B) Probab. Stat. 41, 123–149 (2005) 5. L. Decreusefond, A.S. Üstünel, Stochastic analysis of the fractional Brownian motion. Potential Anal. 10(2), 177–214 (1999) 6. A.F. Nikiforov, V.B. Uvarov, Special Functions of Mathematical Physics (Birkhäuser, Boston, 1988) 7. D. Nualart, The Malliavin Calculus and Related Topics (Springer, Berlin, 1995) 8. S.G. Samko, A.A. Kilbas, O.I. Marichev, Fractional Integrals and Derivatives (Gordon and Breach Science, Philadelphia, 1993)
Kapitel 5
Poisson-Raum
Zusammenfassung Der Poisson-Prozess auf der Halbgeraden teilt viele Eigenschaften mit der Brown'schen Bewegung, da er ebenfalls stationäre und unabhängige Zuwächse hat. Daher war es der zweite Prozess, für den eine Malliavin-Struktur konstruiert wurde. Es stellt sich heraus, dass die zugrunde liegende Zeitskala nicht notwendig ist, um diese Theorie zu entwickeln. Daher betrachten wir Poisson-Punktprozesse in (fast) jedem topologischen Raum.
5.1 Punktprozesse Lassen Sie uns definieren, was eine Konfiguration ist, das grundlegende Element unserer Zufallsexperimente, die die Rolle der Trajektorien der Brown'schen Bewegung spielen. Definition 5.1 Sei E ein metrisierbarer, separabler und vollständiger Raum, d. h. ein polnischer Raum (tatsächlich könnten wir allgemeiner sein, aber das ist hier nicht nützlich). Eine Konfiguration ist eine lokal endliche Menge (d. h., es gibt eine endliche Anzahl von Punkten in jeder beschränkten Menge) von Punkten einer Menge E. Wir bezeichnen NE die Menge der Konfigurationen von E. Ein generisches Element von NE ist dann eine Sequenz φ = ( xn, n ≥ 1) von Elementen von E. Menge oder Maß? Es ist oft bequem, Konfigurationen als atomare Maße zu sehen: Wir können die Menge φ = ( xn, n = 1, ⋯ , M) (wo M ∈ N ∪{+ ∞}) als das Maß
φ=
M
εxn
n=1
betrachten, wo εa die Dirac-Masse am Punkt a ist. Wir verwenden die Notation und behalten den gleichen Buchstaben φ für beide Beschreibungen.
© Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 L. Decreusefond, Ausgewählte Themen des Malliavin-Kalküls, https://doi.org/10.1007/978-3-031-42729-9_5
119
5 Poisson-Raum
120
Um im Gedächtnis zu behalten, dass es keine bevorzugte Reihenfolge in der Aufzählung der Elemente von φ gibt, schreiben wir lieber
x∈φ
εx anstatt
M
εxn .
n=1
Wenn wir die Anzahl der Punkte von φ zählen wollen, die in eine Teilmenge A fallen, können wir alternativ schreiben ˆ φ(A) = Kardinalit¨at{x ∈ φ, x ∈ A} = dφ(x). A
Für A ⊂E bezeichnen wir mit φA die Einschränkung von φ auf A: φA = {x ∈ φ, x ∈ A} = 1A (x) εx . x∈φ
Um NE zu einem topologischen Raum zu machen, versehen wir es mit der Topologie, die durch die Halbnormen ˆ f (x) pf (φ) := f dφ = E x∈φ
für f ∈ CK (E → R), die Menge der stetigen Funktionen mit kompaktem Träger von E nach R, induziert wird. Das bedeutet, dass
Dann ist NE wiederum ein metrisierbarer, separabler und vollständiger Raum. Bemerkung 5.1 Die lokal endliche Hypothese impliziert, dass eine Konfiguration eine endliche oder abzählbare Menge von Punkten von E ist. Allerdings ist eine Menge wie {1∕n, n ≥ 1} keine Konfiguration in E = [0, 1], da 0 ein Häufungspunkt ist. Bemerkung 5.2 Die vage Konvergenz von φn gegen φ bedeutet, dass jedes Atom von φ das Limit einer Sequenz von Atomen von φn ist. Da jedoch die Testfunktionen, die die Halbnormen definieren, kompakte Träger haben, gibt es keine Einheitlichkeit in dieser Konvergenz. Z. B. konvergiert die Sequenz (εn, n ≥ 1) vage gegen das Nullmaß. Definition 5.2 Ein Punktprozess N ist eine NE-wertige Zufallsvariable. Gemäß der allgemeinen Theorie der Punktprozesse wird die Rolle der charakteristischen Funktion durch die Laplace-Transformation ΦN gespielt. Definition 5.3 Für N, einen Punktprozess auf einem polnischen Raum E, wird seine Laplace-Transformation durch
5.1 Punktprozesse
121
�N
ˆ : f ∈ CK (E → R) �−→ E exp − f dN E
definiert. Satz 5.1 Seien N und N′ zwei Punktprozesse auf E. Dann haben sie die gleiche Verteilung genau dann, wenn N = N ′ gilt.
Beispiel (Bernoulli-Punktprozess) Der Bernoulli-Punktprozess ist ein Prozess, der auf einer endlichen Menge E = {x1, ⋯ , xm} basiert. Wir führen X1, ⋯, Xm, einige unabhängige Zufallsvariablen der Bernoulli-Verteilung, mit Parameter p ein. Der Bernoulli-Punktprozess wird dann durch
N=
n
Xi εxi
i=1
definiert. Beispiel (Binomialprozess) Die Anzahl der Punkte ist auf m festgelegt, und ein Wahrscheinlichkeitsmaß σ˜ auf E ist gegeben. Die m Atome werden unabhängig zufällig gemäß σ˜ gezogen. Es ist offensichtlich, dass
P N(A) = k =
m−k m σ˜ (A)k 1 − σ˜ (A) k
und für A1, ⋯ , An, eine Partition von E und (k1, ⋯ , kn), so dass
P N(A1 ) = k1 , · · · , N(An ) = kn =
n
i=1 ki
= m,
m! σ˜ (A1 )k1 . . . σ˜ (An )kn . k1 ! . . . kn !
(5.1)
Satz 5.2 Die Laplace-Transformation des Binomialprozesses ist gegeben durch
ˆ ˆ E exp − f dN = exp −m f (x)dσ˜ (x) . E
E
Beweis Bezeichnen wir durch (X1, ⋯ , Xn) die Positionen der Punkte von N. Durch Unabhängigkeit haben wir m ˆ f (Xi ) E exp − f dN = E exp − E
i=1
= Daher das Ergebnis.
m i=1
ˆ exp − f (x)dσ˜ (x) . E
□
5 Poisson-Raum
122
5.2 Poisson-Punktprozess Der Punktprozess, der mathematisch am umfangreichsten ist, ist der räumliche Poisson-Prozess, der den Poisson-Prozess auf der reellen Linie verallgemeinert (siehe Abschn. 5.5 für eine sehr schnelle Auffrischung des Poisson-Prozesses auf R+). Er wird definiert als ein binomialer Punktprozess mit einer zufälligen Anzahl von Punkten M, unabhängig von den Standorten. Die Verteilung der Anzahl der Punkte wird als Poisson-Verteilung gewählt, damit der Prozess gute Eigenschaften hat. Das bedeutet, dass wir den Wahrscheinlichkeitsraum
= N × EN
mit dem Maß
∞
−a a
e
m=0
n
n!
εn
⊗ σ˜ ⊗N
(5.2)
betrachten. Der Prozess N wird als die Abbildung
N : � = N × E N −→ NE m ω = (m, x1 , x2 , · · · ) �−→ εxk k=1
definiert, wobei die Konvention gilt, dass dass
0
k=1
. . . = ∅. Es ist dann offensichtlich,
ˆ ˆ ∞ E exp − f dN = exp −m f (x)dσ (x) P(M = m) E
E
m=0
ˆ = exp − 1 − e−f (x) adσ˜ (x) . E
Dies führt zu folgender Definition.
Definition 5.4 Sei σ ein endliches Maß auf einem polnischen Raum E. Der Poisson-Prozess mit Intensität σ, bezeichnet durch N, wird durch seine LaplaceTransformation definiert: für jede Funktion f ∈ CK (E → R),
ˆ −f (x) �N (f ) = exp − 1−e dσ (x) .
(5.3)
E
Wir bezeichnen mit πσ das Poisson-Maß der Intensität σ, das ist das Gesetz des Poisson-Prozesses der Intensität σ. Bemerkung 5.3 Um das Poisson-Maß der Intensität σ zu konstruieren, setzen wir a = σ(E) und σ˜ = a−1 σ in (5.2).
5.3 Endlicher Poisson-Punktprozess
123
5.3 Endlicher Poisson-Punktprozess Die allgemeine Definition eines Poisson-Punktprozesses erfordert nicht, dass seine Intensität ein endliches Maß ist. Um der Einfachheit willen nehmen wir hier an, dass
σ (E) < ∞.
Wir nehmen auch an, dass σ diffus ist, d. h., σ({x}) = 0 für jedes x ∈ E. Wie bei Laplace-Transformationen üblich, erhalten wir durch Ableitung einen Begriff für Momente. Die Feinheit liegt in den diagonalen Termen: Für ein Integral bezüglich des Lebesgue-Maßes fällt die Diagonale nicht ins Gewicht: 2 ˆ f (s)f (t) dsdt, f (s)f (t) dsdt = f (s)ds = R
R×R\�
R×R
wobei Δ = {(x, y) ∈ R2, x = y}. Wenn wir Integrale bezüglich atomarer Maße haben, müssen wir auf die Diagonalterme achten:
2
f (x)
x∈φ
= =
f (x)f (y)
x∈φ,y∈φ
x∈φ,y∈φ,x�=y
f (x)f (y) +
f (x)2 .
x∈φ
Wir führen daher die Notation ein: (2) φ= = {(x, y) ∈ φ × φ, x = y}.
Satz 5.3 (Campbell-Formel) Sei f ∈ L1(E → R; σ),
ˆ
E
E
f dN =
ˆ
f dσ ,
(5.4)
E
und wenn f ∈ L2 (E × E → R; σ ⊗ σ), dann
� f (x, y)dσ (x)dσ (y). f (x, y) = E x,y∈N�=(2)
E×E
Beweis Nach der Definition von N haben wir für jedes θ
ˆ ˆ −θ f (x) E exp − θ f dN = exp − 1−e dσ (x) . E
E
(5.5)
5 Poisson-Raum
124
Einerseits haben wir
ˆ ˆ ˆ d E exp − θ f dN = −E f dN exp − θ f dN dθ E E E und andererseits haben wir
ˆ d exp − (1 − e−θf (x) )dσ (x) dθ E ˆ ˆ = − f (x)e−θf (x) dσ (x) exp − (1 − e−θ f (x) )dσ (x) . E
E
Setzen Sie θ = 0 ein, um (5.4) zu erhalten. Ähnlich haben wir
ˆ ˆ ˆ 2 d2 f dN exp − θ f dN E exp − θ f dN = E dθ 2 E E E und
ˆ d2 −θf (x) exp − (1 − e )dσ (x) dθ 2 E ˆ ˆ = ( f (s)e−θf (x) dσ (x))2 + f (x)2 dσ (x) E E ˆ × exp − (1 − e−θf (x) )dσ (x) . E
Für θ = 0 erhalten wir
ˆ
E
f dN E
2
=
ˆ
f (s)e
−θf (x)
dσ (x)
E
2
+
ˆ
f (x)2 dσ (x).
E
Durch die Definition des stochastischen Integrals bezüglich N: 2 ˆ f dN = f (x)f (y) = f (x)f (y) + f (x)2 . E
x∈N,y∈N
x,y∈N�=(2)
Aus dem ersten Teil des Beweises wissen wir, dass
E
x∈N
f (x)
2
=
ˆ
E
f (x)2 dσ (x).
x∈N
5.3 Endlicher Poisson-Punktprozess
125
Daher
E
�
x,y∈N �=
f (x)f (y) =
ˆ
f (x)f (y)dσ (x)dσ (y). E2
Dann folgt (5.5) durch Polarisation und Dichte von einfachen Tensorprodukten in L2(E × E → R; σ ⊗ σ) □ Eine alternative Definition des Poisson-Prozesses lautet wie folgt: Satz 5.4 Ein Punktprozess N ist ein Poisson-Prozess mit Intensität σ, wenn und nur wenn: (i) Für jede Menge K ⊂ E folgt N(K) einer Poisson-Verteilung mit Parameter σ(K). (ii) Für K1 und K2, zwei disjunkte Teilmengen von (E, B (E)), sind die Zufallsvariablen N(K1) und N(K2) unabhängig. Beweis Schritt 1 Betrachten Sie f = θ1 1K1 + θ2 1K2. Wenn K1 ∩ K2 = ∅, dann gilt
e−f (x) = e−θ1 1K1 (x) + e−θ2 1K2 (x) + 1(K1 ∪K2 )c (x).
(5.6)
Dann, gemäß (5.3), gilt E e−θ1 N(K1 ) e−θ2 N(K2 ) = exp −(σ (E) − e−θ1 σ (K1 ) − e−θ2 σ (K2 ) − σ ((K1 ∪ K2 )c )) exp σ (Ki ) − e−θi σ (Ki ) . = i=1,2
Wir erkennen das Produkt der Laplace-Transformationen von zwei unabhängigen Poisson-Zufallsvariablen mit den jeweiligen Parametern σ(K1) und σ(K2).
Schritt 2 In der umgekehrten Richtung nehmen wir an, dass die Eigenschaften 5.4.i) und 5.4.ii) zutreffen. Betrachten Sie f als eine Stufenfunktion:
f (x) =
n
θi 1Ki ,
i=1
wobei (Ki, 1 ≤ i ≤ n) die messbaren Mengen von E sind, zwei mal zwei disjunkt sind. Durch Unabhängigkeit erhalten wir
ˆ n E exp − f dN E exp − θi N(Ki ) . = E
j=1
Da N(Ki) eine Poisson-Zufallsvariable des Parameters σ(Ki) ist, erhalten wir
ˆ n E exp − f dN exp σ (Ki ) − e−θi σ (Ki ) . = E
j=1
5 Poisson-Raum
126
Mit dem Trick von (5.6) sehen wir, dass
ˆ ˆ E exp − f dN = exp − 1 − e−f dσ E
(5.7)
E
für nicht negative endliche Funktionen gilt. Durch monotone Konvergenz gilt (5.7) auch für nicht negative messbare Funktionen; daher ist N ein Poisson-Prozess. □
5.3.1 Operationen an Konfigurationen Es gibt einige Transformationen, die an Konfigurationen vorgenommen werden können. Die Superposition von φ1 und φ2 ist die Vereinigung der beiden Mengen unter Berücksichtigung der Punktmultiplizität oder klarer ausgedrückt die Summe der beiden Maße. Für p, eine Abbildung von E auf [0, 1], ist die p-Ausdünnung von φ = {x1, ⋯ , xn} das Zufallsmaß
p ◦ φ :=
n i=1
1{Ui ≤p(xi )} εxi ,
wobei (Ui, i ≥ 1) eine Familie von unabhängigen gleichverteilten Zufallsvariablen über [0, 1] ist. Wenn E ein Kegel ist, d. h., wenn wir jedes x ∈ E mit einem nicht negativen Skalar a multiplizieren können, dann ist die Dilatation von φ die Konfiguration, deren Atome {ax, x ∈ E} sind. Es ist klar aus (5.3), dass der folgende Satz gilt. Satz 5.5 Seien N1 und N2 zwei unabhängige Poisson-Prozesse mit den jeweiligen Intensitäten σ1 und σ2, ihre Superposition N ist ein Poisson-Prozess mit Intensität σ1 + σ2. Satz 5.6 Ein p-ausgedünnter Poisson-Prozess mit Intensität σ ist ein PoissonProzess mit Intensität σp definiert durch ˆ σp (A) = p(x)dσ (x). A
Beweis Wir müssen beweisen, dass ˆ ´ − E f d(p◦N) −f E e = exp − 1−e pdσ . E
(5.8)
5.3 Endlicher Poisson-Punktprozess
127
Für Y, eine 0∕1-Bernoulli-Zufallsvariable mit Erfolgswahrscheinlichkeit p, sei
LY (t) = E esY = es p + (1 − p) := l(s, p).
Wir bezeichnen durch (Yx, x ∈ E) eine Familie der Bernoulli-Zufallsvariablen, die entscheidet, ob wir das Atom an der Stelle x behalten. Um der Notation willen bezeichnen wir vorübergehend σn =πσ(N(E) = n).
� � � � � ´ E e− E f d(p◦N) = E e− x∈N Yx f (x) =1+
∞ � � � � E e− x∈N Yx f (x) | N(E) = n σn n=1
n ∞ � �
1 σ (E)
ˆ
1 σ (E) n=1 j=1 ∞ n � � =1+ exp
ˆ
=1+ =1+
n=1 j=1
∞ � n �
n=1
j=1
E
� � E e−Yxj f (xj ) dσ (xj ) σn l(−f (xj ), p(xj )) dσ (xj ) σn
E
1 log σ (E)
ˆ
E
�
�
l f (−xj ), p(xj ) dσ (xj ) σn
� �ˆ �� = E exp log l(−f (x), p(x))dN(x) � ˆE � = exp − 1 − l(f (x), p(x))dσ (x) � ˆE � � � −f (x) = exp − 1−e p(x)dσ (x) , E
was (5.8) entspricht.
□
Beispiel (M/M/∞-Warteschlange) Die M/M/∞-Warteschlange ist die Warteschlange mit Poisson-Ankünften, unabhängigen und identisch verteilten Servicezeiten aus der Exponentialverteilung und einer unendlichen Anzahl von Servern (ohne Puffer). Es handelt sich zunächst um ein theoretisches Objekt, das besonders einfach zu analysieren ist und auch ein Modell, mit dem wir andere Situationen vergleichen können. Der entscheidende Prozess ist X, der die Anzahl der besetzten Server zählt. Er kann durch das Framework von Markov-Ketten in kontinuierlicher Zeit untersucht werden, aber mit einigen Schwierigkeiten, da die Koeffizienten des infinitesimalen Generators nicht begrenzt sind, so dass die zugehörige Halbgruppe nicht kontinuierlich von l∞(N) in sich selbst ist. Seien (tn, n ≥ 1) die Ankunftszeiten und (zn, n ≥ 1) die Servicezeiten. Das bedeutet, dass der n-te Kunde um tn ankommt und das System zur Zeit tn + zn ver-
5 Poisson-Raum
128
lässt. Es ist hilfreich, dieses Phänomen durch das folgende Bild darzustellen, siehe Abb. 5.1. Diese Darstellung bedeutet, dass ein Kunde, der um s < t ankommt, noch im System um t ist, wenn und nur wenn seine Servicezeit größer ist als t − s. Dies entspricht Punkten im oberen Trapez Tt = (s, z) ∈ R+ × R+ , 0 ≤ s ≤ t, z ≥ t − s .
Betrachten Sie, dass die Ankünfte nach einem Poisson-Prozess auf der Halbgeraden mit der Intensität σ = ρℓ erfolgen, wobei ρ > 0, und dass die Servicezeiten einer Exponentialverteilung mit Parameter 1 folgen. Die Anzahl der Punkte im Rechteck [0, t] × R+ ist die Anzahl der Ankünfte vor t. Ein Kunde, der vor t angekommen ist, hat seinen repräsentativen Punkt im oberen Trapez mit Wahrscheinlichkeit P(Servicezeit > t − Ankunftszeit) = exp − (t − Ankunftszeit) . Daher ist die Anzahl der Punkte in Tt das pt-Ausdünnen des Ankunftsprozesses, wobei pt (s) = exp − (t − s) . Nach 5.6 bedeutet dies, dass X(t) einer Poisson-Verteilung mit Parameter folgt: ˆ t exp − (t − s) ρds = ρ(1 − e−t ). (5.9) 0
Definition 5.5 Für X, eine ganzzahlige Zufallsvariable und p ∈ [0, 1], ist das p-Ausdünnen von X die Zufallsvariable, und wir bezeichnen sie auch als p ∘ X
Abb. 5.1 Die grafische Darstellung des Integrationsbereichs
Dienstzeit
( )=2
4
1
Zeit 1
2
4 2
+
2
4
+
4
5.3 Endlicher Poisson-Punktprozess
129
(da es keine Verwechslungsgefahr mit dem Ausdünnen einer Konfiguration gibt), definiert durch
wobei (Bj, j ≥ 1) eine Familie von unabhängigen (und unabhängig von X) Bernoulli-Zufallsvariablen mit Erfolgsparameter p ist. Nach Konvention ist 0 . . . . = 0 j=1 Eine kurze Berechnung zeigt, dass:
Lemma 5.1 Wenn X eine Poisson-Zufallsvariable mit Parameter λ ist, dann ist p ∘ X verteilt als eine Poisson-Verteilung mit Parameter λp. Beweis Berechnen Sie die erzeugende Funktion von p ∘ X: ∞ k � � p◦X � � E sBj mathbfP(X = k) E s = j=1
k=0
= e−
∞ � k=0
�
ps + 1 − p
�k k k!
= exp (− + (ps + 1 − p)) = exp (p(s − 1)) □
und das Ergebnis folgt. Durch seine eigene Konstruktion sehen wir, dass
und wenn X(0) nicht null ist, folgen wir der gleichen Argumentation, haben wir (5.10) Wenn X(0) als Poisson-Verteilung des Parameters ρ verteilt ist, dann ist X(t) als Summe von zwei unabhängigen Poisson-Zufallsvariablen der jeweiligen Parameter ρe−t und ρ(1 − e−t) verteilt; daher hat X(t) die Verteilung von X(0). Wir stellen fest, dass die Poisson-Verteilung des Parameters ρ das invariante und stationäre Maß von X ist.
5 Poisson-Raum
130
5.4 Stochastische Analyse 5.4.1 Diskreter Gradient und Divergenz Satz 5.7 (Cameron-Martin-Satz) Seien N und N′ zwei Poison-Punktprozesse, mit den jeweiligen Intensitäten σ und σ′. Wir nehmen an, dass σ′ ≪ σ, und wir bezeichnen p = dσ′∕dσ. Darüber hinaus, wenn p zu L1 (E → R; σ) gehört, haben wir dann für jede beschränkte Funktion F
ˆ ˆ E F(N ′ ) = E F(N) exp ln p dN + (1 − p)dσ . E
E
Beweis Schritt 1´ Wir überprüfen diese Identität für die Exponentialfunktionen F der Form exp(− E f dN). Gemäß der Definition [5.1] gilt ˆ ˆ ˆ E exp − f dN exp ln p dN + 1 − p dσ E E ˆE ˆ = E exp − f − ln p dN exp( (1 − p)dσ ) E ˆ E ˆ 1 − exp − f + ln p dσ + = exp − 1 − p dσ E ˆE = exp − 1 − e−f pdσ E = E F(N ′ ) . Schritt 2 Als Ergebnis haben die Maße für NE, π σ N ′ und R dπσN mit
R = exp
ˆ
E
ln p dN +
ˆ
E
(1 − p)dσ
die gleiche Laplace-Transformation. Daher sind sie angesichts des Satzes 5.1 gleich, und das Ergebnis folgt für jede beschränkte Funktion F. □
5.4 Stochastische Analyse
131
Neue Notationen Im Folgenden gilt für eine Konfiguration φ φ, wenn x ∈ φ, φ⊕x = φ ∪ {x}, wenn x � ∈ φ. Ebenso
φ⊖x =
φ\{x}, wenn x ∈ φ, φ, wenn x �∈ φ.
Eine der wesentlichen Formeln für den Poisson-Prozess ist die folgende. Satz 5.8 (Campbell-Mecke-Formel) Sei N ein Poisson-Prozess mit Intensität σ. Für jedes zufällige Feld F : NE × E → R gilt, dass
ˆ
E
E
|F(N, x)|dσ (x) < ∞,
dann
ˆ
E
E
ˆ F N ⊕ x, x dσ (x) = E F N, x dN(x) .
(5.11)
E
Beweis Schritt 1 Gemäß der ersten Definition des Poisson-Prozesses gilt für f mit kompakter Unterstützung und K ein kompaktes E, für jedes t > 0,
ˆ ˆ f + θ1K dN = exp − 1 − e−f (x)−θ1K (x) dσ (x) . E exp − E
E
Gemäß dem Satz der Ableitung unter dem Summenzeichen haben wir einerseits
ˆ ´ ˆ d − E f dN E exp − f + θ1K dN θ =0 = −E e 1K dN dθ E E
und andererseits
ˆ d −f (x)−θ1K (x) exp − 1 − e dσ (x) θ=0 dθ E ˆ ´ − E f dN+f (x) = −E e 1K (x) dσ (x) . E
(5.12)
5 Poisson-Raum
132
Da ∫Ef dN + f(x) = ∫E f d(N ⊕ x), gilt (5.11) für Funktionen der Form 1K ⊗ e−
´
E
f dN
.
Schritt 2 Das Maß
C : B (NE × E) −→ R+ ˆ Ŵ × K �−→ E 1Ŵ (N) 1K (x)dN(x) E
ist das sogenannte Campbell-Maß. Wenn wir die Abbildung
T : NE × E −→ NE × E (φ, x) �−→ (φ ⊕ x, x)
betrachten, ist Gl. (5.11) gleichbedeutend mit der Aussage
T∗ (π σ ⊗ σ ) = C.
Darüber hinaus bedeutet (5.12), dass ˆ ˆ ´ ´ − E f dφ e 1K (x) dC(φ, x) = e− E f dφ 1K (x) dT∗ (π σ ⊗ σ )(φ, x). E
E
Da ein Maß auf NE durch seine Laplace-Transformation charakterisiert ist, ist Gl. (5.12) dann ausreichend, um zu implizieren, dass (5.11) für jede Funktion F gilt, für die die beiden Terme sinnvoll sind. □ Definition 5.6 (Diskreter Gradient) Sei N ein Poisson-Prozess mit Intensität σ. Sei F : NE −→ R eine messbare Funktion, so dass E F(N)2 < ∞. Wir definieren Dom D als die Menge der quadratisch integrierbaren Zufallsvariablen, so dass ˆ 2 E |F(N ⊕ x) − F(N)| dσ (x) < ∞. E
Für F ∈ Dom D setzen wir
Dx F(N) = F(N ⊕ x) − F(N).
Beispiel (Berechnung von DxF) Z. B. für f, das deterministisch zu L2(E → R; σ) gehört, gehört F =∫E f dN zu Dom D und DxF =f(x), weil F(N ⊕ x) = f (y) = f (y) + f (x). y∈N∪{x}
Ähnlich, wenn F = maxy ∈ N f(y), dann 0 Dx F(N) = f (x) − F
y∈N
wenn f (x) ≤ F(N), wenn f (x) > F(N).
Definition 5.7 (Poisson-Divergenz) Wir bezeichnen mit Dom2 δ die Menge der Vektorfelder, so dass
5.4 Stochastische Analyse
ˆ
E
E
133
U N ⊖ x, x
dN(x) − dσ (x)
2
< ∞.
Dann, für solche Vektorfelder U, ˆ ˆ δU(N) = U(N ⊖ x, x)dN(x) − U(N, x)dσ (x). E
E
Eine Folge der Campbell-Mecke-Formel ist die Formel für die Integration nach Teilen. Satz 5.9 (Integration von Teilen für den Poisson-Prozess) Für F ∈ Dom D und jedes U ∈ Dom2 δ gilt ˆ E Dx F(N) U(N, x)dσ (x) = E[F(N) δU(N)]. E
Beweis Durch die Definition von D ˆ E Dx F(N) U(N, x) dσ (x) E ˆ =E F(N ⊕ x)U((N⊖x) ⊕ x, x) dσ (x) ˆ E −E F(N)U(N, x)dσ (x) . E
Die Campbell-Mecke-Formel besagt, dass ˆ E F(N ⊕ x)U (N ⊖ x) ⊕ x, x dσ (x) E ˆ =E F(N)U(N ⊖ x, x) dN(x) .
(5.13)
E
Da wir angenommen haben, dass σ diffus ist, gilt für jedes x ∈ E, πσ(N({x}) ≥ 1) = 0; daher gilt
U(N, x) = U N ⊖ x, x , π σ ⊗ σ -a.s.
Das Ergebnis folgt aus der Kombination von (5.13) und (5.14). □ Darüber hinaus haben wir das Analogon zu (2.34). Korollar 5.1 Für jedes U ∈ Dom2 δ ˆ E δU 2 =E U(N, x)2 dσ (x) E ˆ ˆ +E Dx U(N, y)Dy U(N, x)dσ (x)dσ (y) . E
E
(5.14)
5 Poisson-Raum
134
Beweis Wir verwenden die Formel für die Integration nach Teilen, um zu schreiben
ˆ 2 E δU = E Dx δU U(N, x) dσ (x) . E
Aus der Definition von D und δ ergibt sich
Dx δU =
ˆ
U(N ⊖ y ⊕ x, y) d(N ⊕ x)(y) − dσ (y) E ˆ − U(N ⊖ y, y) dN(y) − dσ (y) . E
Erinnern Sie sich an die Definition des stochastischen Integrals als Summe:
ˆ
E
U(N⊖y ⊕ x, y)d(N ⊕ x)(y) = = =
y∈N∪{x}
y∈N
ˆ
E
U(N⊖y ⊕ x, y)
U(N ⊕ x⊖y, y) + U(N, x)
U(N ⊕ x⊖y, y)dN(y) + U(N, x).
Daher erhalten wir
Dx δU =
ˆ
E
(U(N ⊕ x⊖y, y) − U(N⊖y, y)) (dN(y) − dσ (y)) + U(N, x)
= δ(Dx U) + U(N, x). Daher
δ(Dx U) + U(N, x) U(N, x) dσ (x) ˆE ˆ =E U(N, x)2 dσ (x) + E[δ(Dx U) U(N, x)]dσ (x).
E δU 2 = E
ˆ E
E
Wir können in der rechten Erwartung nach Teilen integrieren und dabei darauf achten, die Variablen nicht zu vermischen:
E[δ(Dx U) U(N, x)] = E Dies ergibt
ˆ
E
Dx U(N, u) Dy U(N, x)dσ (y) .
5.4 Stochastische Analyse
E δU 2 = E
ˆ
E
daher das Ergebnis. □
135
ˆ U(N, x)2 dσ (x) + E Dx U(N, u) Dy U(N, x)dσ (y) , E
5.4.2 Funktionalrechnung Der Glauber-Punktprozess, bezeichnet durch G, ist ein Markov-Prozess mit Werten in NE, dessen stationäres und Invarianzmaß πσ ist. Sein Generator ist L = −δD. Seine Halbgruppe erfüllt eine Mehler-ähnliche Beschreibung. Es ist der Schlüsselstein der Dirichlet-Struktur, die mit πσ assoziiert ist. Definition 5.8 Der Markov-Prozess G wird wie folgt konstruiert: • G (0) = φ ∈ NE. • Jedes Atom von φ hat eine Lebensdauer, unabhängig von der der anderen Atome, exponentiell verteilt mit Parameter 1. • Atome werden zu Momenten geboren, die einem Poisson-Prozess auf der Halbgeraden folgen, mit Intensität σ(E). Bei seinem Auftreten wird jedes Atom unabhängig von allen anderen nach σ∕σ(E) lokalisiert. Es wird ihm auch auf unabhängige Weise eine Lebensdauer zugewiesen, die exponentiell verteilt ist mit Parameter 1. Zu jedem Zeitpunkt ist G (t) eine Konfiguration von E, siehe Abb. 5.2. Wir beobachten zunächst, dass die Gesamtzahl der Atome von G (t) genau der gleichen Dynamik folgt wie die Anzahl der belegten Server in einer M/M/∞-Warteschlange mit den Parametern σ(E) und 1.
)
0)
Zeit 1
Abb. 5.2 Realisierung einer Trajektorie von G
2
3
4
5 Poisson-Raum
136
Satz 5.10 (Glauber-Prozess) Für jedes t > 0 hat der Prozess G (t) die Verteilung von
e−t ◦ G (0) ⊕ (1 − e−t ) ◦ N ′ ,
(5.15)
wobei N′ eine unabhängige Kopie von N ist. Angenommen, dass G (0) ein Punkt-Poisson-Prozess mit Intensität σ ist. Dann hat G (t) die Verteilung von N für jedes t. Beweis Wir können die Atome von G in zwei Mengen trennen: G o ist die Menge der Teilchen, die am Ursprung vorhanden waren und noch am Leben sind und G † ist die Menge der frischen Teilchen, die nach der Zeit 0 geboren wurden und noch am Leben sind. Konstruktionsbedingt sind diese beiden Mengen unabhängig. Darüber hinaus entsprechen die Teilchen von G o, die bei t am Leben sind, einer −t e -Ausdünnung der ursprünglichen Konfiguration; somit (5.16) Für zwei disjunkte Teile A und B von E erscheinen nach Konstruktion die Atome von G †, die zu A (bzw. B) gehören, als eine 1A-Ausdünnung (bzw. 1B-Ausdünnung) des Poisson-Prozesses, der die Geburtsdaten darstellt. Dann besagt Satz 5.6, dass das Geburtsdatum G † ∩ A ein Poisson-Punktprozess von Intensität σ(A) ist, unabhängig von G † ∩ B. Nach den Berechnungen für die M/M/∞-Warteschlange sehen wir, dass
Daher, gemäß Satz 5.4, gilt (5.17) Dann folgt (5.15) aus (5.16) und (5.17). Wenn G (0) wie N verteilt ist, dann besagt Satz 5.6, dass e−t ◦ G (0) ein PoissonProzess von Intensität e−tσ ist. Daher impliziert der Superpositionssatz 5.5, dass G die Verteilung von N hat. □ Da alle Verweilzeiten exponentiell verteilt sind, ist G ein Markov-Prozess mit Werten in NE. Weit entfernt von der Idee, die allgemeine Theorie der MarkovProzesse im Raum der Maße zu entwickeln, können wir seinen infinitesimalen Generator und seine Halbgruppe studieren. Gl. (5.17) bedeutet, dass wir die Poisson-Mehler-Formel haben. Satz 5.11 Für jedes t ≥ 0, für F ∈ L 1 NE → R; π σ : Pt (φ) := E F G (t) | G (0) = φ = E F e−t ◦ φ ⊕ (1 − e−t ) ◦ N ′ , (5.18)
5.4 Stochastische Analyse
137
wobei die Erwartung in Bezug auf das Gesetz von N′ genommen wird. Satz 5.12 Der infinitesimale Generator von G, bezeichnet durch L, ist gegeben durch
ˆ
−LF(φ) =
ˆE
+
F(φ ⊕ x) − F(φ) dσ (x)
F(φ ⊖ x) − F(φ) dφ(x)
(5.19)
für F begrenzt von NE in R. Beweis Zur Zeit t kann es entweder einen Tod oder eine Geburt geben. Bei einer Todeszeit wählen wir das Atom, das wir töten wollen, gleichmäßig unter den vorhandenen aus, so dass jedes Atom eine Wahrscheinlichkeit von φ(E)−1 hat, getötet zu werden. Da alle Atome eine Lebensdauer haben, die einer Einheitsexponentialverteilung folgt, beträgt die Todesrate φ(E). Daher findet der Übergang von φ zu φ ⊖ x mit Raten von 1 für jedes x ∈φ statt. Die Geburtenrate beträgt σ(E), und die Position des neuen Atoms wird gemäß dem Maß σ∕σ(E) verteilt, so dass der Übergang von φ zu φ ⊕ x mit einer Rate dσ(x) für jedes x ∈ E erfolgt. Aus dieser Überlegung leiten wir (5.19) ab. □ P ist ergodisch. Darüber hinaus ist L Satz 5.13 (Ergodizität) Die Halbgruppe invertierbar von L02 in L02 = L 2 NE → R; π σ ∩ {F, E[F] = 0} und wir haben ˆ ∞ −1 L F= Pt Fdt. (5.20) 0
Für jedes x ∈ E und jedes t > 0 gilt Wenn zusätzlich F so ist, dass
sup φ∈NE
Dx Pt F = e−t Pt Dx F. ˆ
E
(5.21)
|Dx F(φ)|2 dσ (x) < ∞,
dann haben wir mit Wahrscheinlichkeit 1, dass
ˆ ˆ |Dx F(φ)|2 dσ (x). Dx L−1 F(φ) 2 dσ (x) ≤ sup E
φ∈NE
E
Beweis Schritt 1 Durch dominierte Konvergenz folgern wir aus (5.18), dass
(5.22)
5 Poisson-Raum
138
d. h., P ist ergodisch. Schritt 2 Die Eigenschaft (5.20) ist eine bekannte Beziehung zwischen der Halbgruppe und dem infinitesimalen Generator. Formal, ohne sich um die Konvergenz der Integrale zu sorgen, haben wir ˆ ∞ ˆ ∞ L Pt F dt = LPt Fdt 0 0 ˆ ∞ d =− Pt Fdt dt 0 = F − E[F] = F gemäß der Ergodizität von P und da F zentriert ist. Schritt 3 Ausgehend von der Formel (5.18) gilt Dx P F(t) = E F e−t ◦ (φ ⊕ x) ⊕ (1 − e−t ) ◦ N ′ −E F e−t ◦ φ ⊕ (1 − e−t ) ◦ N ′ .
Da die Ausdünnungsoperation distributiv auf die Überlagerung von Punktprozessen ist, erhalten wir
Dx P F(t) = E F e−t ◦ φ ⊕ e−t ◦ x ⊕ (1 − e−t ) ◦ N ′ −E F e−t ◦ φ ⊕ (1 − e−t ) ◦ N ′ .
Zum Zeitpunkt t gilt entweder e−t ∘ x = x oder e−t ∘ x = ∅; das erstere Ereignis tritt mit der Wahrscheinlichkeit e−t auf und das Letztere mit der komplementären Wahrscheinlichkeit; daher gilt E F e−t ◦ φ ⊕ e−t ◦ x ⊕ (1 − e−t ) ◦ N ′ = e−t E F e−t ◦ φ ⊕ x ⊕ (1 − e−t ) ◦ N ′ + (1 − e−t ) E F e−t ◦ φ ⊕ (1 − e−t ) ◦ N ′ .
Daraus folgt, dass
Dx P F(t) = e−t E F e−t ◦ φ ⊕ x ⊕ (1 − e−t ) ◦ N ′ − e−t E F e−t ◦ φ ⊕ (1 − e−t ) ◦ N ′ = e−t P Dx F(t).
Schritt 4 Als Konsequenz aus dem vorherigen Teil dieses Beweises gilt
ˆ ˆ ˆ 2 −1 Dx L F(N) dσ (x) = E
E
0
∞
−t
e Pt Dx F(N)dt
2
dσ (x).
5.4 Stochastische Analyse
139
Gemäß der Jensen-Formel erhalten wir
ˆ ˆ ˆ 2 −1 Dx L F(N) dσ (x) ≤ E
0
E
Die Darstellung (5.18) |Pt G|2 ≤ Pt G2 ; somit gilt
und
die
∞
e−t Pt Dx F(N)2 dt dσ (x).
Jensen-Ungleichung
implizieren,
dass
ˆ −1 Dx L F(N) 2 dσ (x) E ˆ ˆ ∞ e−t E (Dx F)2 e−t ◦ N ⊕ (1 − e−t ) ◦ N ′ | N dt dσ (x) ≤ ˆE ∞ 0 ˆ = e−t E (Dx F)2 e−t ◦ N ⊕ (1 − e−t ) ◦ N ′ | N dσ (x)dt E ˆ ˆ0 ∞ −t = e sup (Dx F)2 (φ)dσ (x) dt φ∈NE
0
= sup
φ∈NE
ˆ
E
(Dx F)2 (φ) dσ (x).
E
Der Beweis ist somit abgeschlossen. □ Satz 5.14 (Kovarianzidentität) Seien F und G zwei Funktionen, die zu Dom D gehören. Die folgende Identität ist erfüllt:
ˆ
E
E
Dx F(N) Dx G(N)dσ (x) = E[F(N) LG(N)].
Insbesondere, wenn G zentriert ist:
E[F(N)G(N)] = E
ˆ
E
Dx F(N) Dx L−1 G (N) dσ (x) .
(5.23)
Beweis Seien F und G Teil von Dom D. Wir werden die wichtigste Formel zeigen: Nach Definition
δDF(N) = =
(5.24)
L = δD.
ˆ
ˆE
E
Dx F(N ⊖ x) dN(x) −
ˆ
Dx F(N) dσ (x) ˆ (5.25) F(N) − F(N ⊖ x) dN(x) − F(N ⊕ x) − F(N) dσ (x). E
Es bleibt zu vergleichen (5.25) und (5.19). □
E
5 Poisson-Raum
140
Konzentrationsungleichung: Beweisschema Der Beweis der Konzentrationsungleichung folgt einem klassischen Schema, das auch auf Wiener-Funktionale angewendet werden kann. Unter der Annahme, dass X eine zentrierte Zufallsvariable und r > 0 ist, besteht der bekannte Trick darin, die Markov-Ungleichung auf subtile Weise zu verwenden: P(X > r) = P(eθ X > eθ r ) ≤ e−θ r E eθX . (5.26)
Das Ziel ist dann, eine irgendwie explizite Grenze für E eθX zu finden und die rechte Seite von (5.26) in Bezug auf θ zu optimieren. Die Berechnung der Obergrenze von E eθ X beruht auf dem HerbstPrinzip. Berechnen Sie d θX E e = E X eθX dθ und tun Sie alles, was nötig ist, um es durch etwas in der Formel zu binden: E X eθ X ≤ (Funktion von θ) × E eθX .
Dies bedeutet, die logarithmische Ableitung von E eθX zu binden. Es bleibt, diese letzte Ungleichung zu integrieren, um die gewünschte Grenze zu erhalten. Die Schwierigkeit hierbei ist, dass eθX auf beiden Seiten der Ungleichung erscheint. Das bedeutet, dass wir nur L1 − L∞ Ungleichungen verwenden können, daher die strengen Bedingungen an die Sup-Normen, die auftreten werden. Satz 5.15 (Konzentrationsungleichung) Sei N ein Poisson-Prozess mit Intensität σ auf E. Sei F : NE → R, so dass Dx F(N) ≤ β, (σ ⊗ π σ ) − fast u¨ berall und sup
φ∈NE
ˆ
E
|Dx F(φ)|2 dσ (x) ≤ α 2 , π σ − fast u¨ berall.
Für jedes r > 0 haben wir die folgende Ungleichung: rβ r ln(1 + 2 ) . π σ F(N) − E[F(N)] > r ≤ exp − 2β α Beweis Schritt 1 Als vorläufige Berechnung bemerken wir, dass
Dx eθ F(N) = eθ F(N⊕x) − eθ F(N) = eθ Dx F(N) − 1 eθF(N) .
(5.27)
Schritt 2 Sei F eine beschränkte Funktion mit null Erwartungswert. Gemäß Satz 5.14 und (5.27) können wir die folgenden Identitäten schreiben:
5.4 Stochastische Analyse
141
ˆ Dx L−1 F(N) Dx eθF(N) dσ (x) E F(N) eθ F(N) = E ˆ =E Dx L−1 F(N) eθ Dx F(N) − 1 eθF(N) dσ (x) . E
Schritt 3 Wir möchten von der Tatsache profitieren, dass die Funktion Ψ : (x↦(ex − 1)∕x) auf R stetig ansteigt; daher setzen wir ihre Anwesenheit voraus:
E F(N)eθF(N)
ˆ −1 θF(N) =θE Dx L F(N) Dx F(N) � θ Dx F(N) e dσ (x) . E
Da DxF ≤β, erhalten wir
E F(N)eθF(N)
ˆ ≤ θ �(θβ) Eσ eθ F(N) Dx L−1 F(N) Dx F(N) dσ (x) . E
Mit der Cauchy-Schwarz-Ungleichung erhält man ˆ Dx L−1 F(N) Dx F(N) dσ (x) E ˆ ˆ 2 1/2 2 −1 ≤ Dx L F(N) dσ (x) × Dx F(N) dσ (x)1/2 = A1 × A2 . E
E
Gemäß der Hypothese ist A2 ≤ α und Gl. (5.22) besagt, dass dies auch für A1 gilt. Dies impliziert, dass
Daher
eθβ − 1 d . log E eθ F(N) ≤ α 2 dθ β
E eθ F(N) ≤ exp
α2 β
ˆ
0
θ βu
(e
− 1)du .
Für x > 0, für jedes θ > 0 gilt π σ F(N) > x = π σ eθ F(N) > eθx ≤ e−θx E eθ F(N) 2ˆ θ α βu −θx ≤ e exp (e − 1) du . β 0
(5.28)
5 Poisson-Raum
142
Dieses Ergebnis gilt für jedes θ, daher können wir in Bezug auf θ optimieren. Bei festem x suchen wir den Wert von θ, der die Ableitung der rechten Seite in Bezug auf θ aufhebt. Wenn wir diesen Wert in (5.28) einsetzen, können wir das Ergebnis erhalten. □
5.5 Eine kurze Zusammenfassung des Poisson-Prozesses auf der Linie Der Poisson-Prozess auf der reellen Linie ist ein spezieller Fall des oben definierten Poisson-Punktprozesses. Er lässt sich bequemer definieren auf Basis einer Sequenz von unabhängigen exponentiellen Zufallsvariablen. Definition 5.9 Betrachten Sie (ξn, n ≥ 1) eine Sequenz von unabhängigen Zufallsvariablen, die dieselbe exponentielle Verteilung mit Parameter λ teilen. Betrachten Sie
Tn =
n
ξi .
i=1
Ein Punktprozess N auf E = R+ mit Intensität λ ist der Punktprozess, dessen Atome (Tn, n ≥ 1) sind. Um mit den üblichen Notationen von zeitindizierten Prozessen kompatibel zu sein, setzen wir
N(t) = N([0, t]) =
∞ i=1
1{Ti ≤t} .
5.6 Probleme 5.1 (Chaos-Zerlegung für Poisson-Funktionale) Für f ∈ L2(E → R; σ) sei ˆ ˆ �f (N) = exp − f dN + (1 − e−f ) dσ . E
E
Wir wissen bereits aus dem Satz 5.7, dass E f = 1. Für eine Konfiguration φ führen wir ihr faktorielles Momentmaß der Ordnung k ≥ 1 ein: φ (k) (A) =
ˆ
k−2 1A (x1 , · · · , xk ) d(µ ⊖ ⊕k−1 j=1 xj )(xk ) d(µ ⊖ ⊕j=1 xj )(xk−1 )
. . . d(µ ⊖ x1 )(x2 ) dµ(x1 ).
5.6 Probleme
143
Wir setzen N(0)(f) = 1. 1. Zeigen Sie, dass
Dx �f (N) = �f (N) e−f (x) − 1
und dass
n −f (x ) E Dx(n) � (N) = e j −1 . f 1 ...xn j=1
2. Zeigen Sie, dass
δ (2) (f ⊗(2) ) = N (2) (f ⊗ f ) − 2N(f )σ (f ) + σ (f )2
und allgemeiner, dass
δ (n) (f ⊗(n) ) =
ˆ n−j n n (−1)n−j N (j) (f ⊗(j) ) f dσ . j E j=0
3. Setzen Sie δ(0)(f⊗(0)) = 1. Zeigen Sie, dass N(E) n=0
ˆ 1 (n) −f ⊗(n) −f δ (e − 1) = exp − (e − 1) dσ n! E ∞ 1 (j) −f N ((e − 1)⊗(j) ). j! j=0
4. Wenn X1, ⋯ , XN(E) die Atome von N sind, zeigen Sie, dass ∞ 1 (j) −f N (e − 1)⊗(j) = (e−f (Xi ) − 1) j! j=0 J⊂{1,2,··· ,N(E)} i∈J
=
N(E) j=1
e−f (Xj ) = e−
´
E
f dN
.
Wenn wir also die Konvergenz der Summen in L 2 N2 → R; π σ zeigen, haben wir bewiesen, dass �f (N) = 1 +
∞ n=1
δ (n) (E D(n) �f (N) ).
5 Poisson-Raum
144
Unter dass der von den Λfs aufgespannte Vektorraum dicht in der Annahme, L 2 N2 → R; π σ liegt, erhalten wir die Chaos-Zerlegung für Funktionale des Poisson-Prozesses:
F = E[F] +
∞ 1 (n) (n) δ E D F(N) . n! n=1
(5.30)
5.7 Anmerkungen und Kommentare Der interessierte Leser findet weitere Details zur Topologie von Konfigurationsräumen in [1]. Die Konstruktion des Poisson-Punktprozesses in allgemeineren Räumen als polnischen Räumen findet sich in [2]. Weitere Informationen zum Malliavin-Kalkül für den Poisson-Prozess finden Sie in [2, 3]. Die Konstruktion des Glauber-Prozesses folgt [4], aber die hier gegebene Darstellung betont die Invarianzeigenschaft des Poisson-Prozesses: N ist ein Poisson-Punktprozess, wenn und nur wenn
wobei N′ und N″ unabhängige Kopien des Punktprozesses N sind. Die Konzentrationsungleichung wurde bereits in [5] veröffentlicht. Für einen alternativen Beweis siehe [6]. Wie bei der Brown'schen Bewegung kann (5.30) der Ausgangspunkt für die Definition der Operatoren D und δ sein, siehe [3].
Literatur 1. O. Kallenberg, Random Measures, Theory and Applications. Probability Theory and Stochastic Modelling, vol. 77 (Springer, Cham, 2017) 2. G. Last, M. Penrose, Lectures on the Poisson Process. Institute of Mathematical Statistics Textbooks, vol. 7 (Cambridge University Press, Cambridge, 2018) 3. N. Privault, Stochastic Analysis in Discrete and Continuous Settings with Normal Martingales. Lecture Notes in Mathematics, vol. 1982 (Springer, Berlin, 2009) 4. L. Decreusefond, M. Schulte, C. Thäle, Functional Poisson approximation in Kantorovich– Rubinstein distance with applications to U-statistics and stochastic geometry. Ann. Probab. 44(3), 2147–2197 (2016) 5. L. Decreusefond, P. Moyal, Stochastic Modeling and Analysis of Telecom Networks (ISTE Ltd/ Wiley, London/Hoboken, 2012) 6. L. Wu, A new modified logarithmic Sobolev inequality for Poisson point processes and several applications. Probab. Theory Related Fields 118(3), 427–438 (2000)
Kapitel 6
Die Malliavin-Stein-Methode
Zusammenfassung Die Stein-Methode, die in den 1970er Jahren von Charles Stein eingeführt wurde, ist ein Verfahren zur Schätzung der Konvergenzrate in CLT-ähnlichen Sätzen. Sie erhielt zu Beginn des Jahrtausends neuen Schwung durch die Erkenntnisse, die der Malliavin-Kalkül lieferte.
6.1 Prinzip Unter den mehr als siebzig bekannten Abständen zwischen Wahrscheinlichkeitsmaßen sind die klassischsten die Prokhorov-Lévy- und Fortet-Mourier- (oder BoundedLipschitz)-Abstände. Definition 6.1 Für μ und ν, zwei Wahrscheinlichkeitsmaße auf einem metrischen Raum (E, d) mit Borel’scher σ-Algebra A, wird der Prokhorov-Lévy-Abstand wie folgt definiert:
wobei Aϵ = { x, d( x, A) ≤ }. Der Fortet-Mourier-Abstand wird definiert als
dist fm (µ, ν) = sup
f ∈BL
ˆ
E
f dµ −
ˆ
E
f dν ,
wobei BL die Menge der beschränkten Lipschitz-Funktionen ist:
BL = {f : E → R, f ist beschr¨ankt durch 1 und |f (x) − f (y)| ≤ d(x, y), ∀x, y ∈ E}.
© Der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG 2023 L. Decreusefond, Ausgewählte Themen des Malliavin-Kalküls, https://doi.org/10.1007/978-3-031-42729-9_6
145
6 Die Malliavin-Stein-Methode
146
Satz 6.1 Wenn distpl (µ, ν) ≤ 1 oder distfm (µ, ν) ≤ 2/3, dann
2 distpl (µ, ν)2 ≤ dist fm (µ, ν). 3 Wenn (E, d) separabel ist, dann gilt
distfm (µ, ν) ≤ 2 dist pl (µ, ν).
Wenn (E, d) separabel ist, definieren die beiden Metriken die gleiche Topologie auf der Menge der Wahrscheinlichkeitsmaße auf E. Darüber hinaus sind die folgenden drei Eigenschaften äquivalent: 1. ∫Ef dμn →∫E f dμ für alle beschränkten und stetigen Funktionen von E nach R. 2. distfm (µn , µ) → 0. 3. distpl (µn , µ) → 0.
Eine weitere Klasse von Abständen zwischen Wahrscheinlichkeitsmaßen wird durch das optimale Transportproblem gegeben: ˆ Oc (µ, ν) = inf c(x, y)dγ (x, y), γ ∈�µ,ν
E×E
wobei c : E ×E → R+ ∪{+∞} eine unterhalb halbstetige Kosten-Funktion ist und Σμ,ν ist die Menge der Wahrscheinlichkeitsmaße, deren erste Randverteilung μ und zweite Randverteilung ν ist. Wenn c ein Abstand auf E ist, definiert Oc den sogenannten Kantorovich-Rubinstein- oder Wasserstein-1-Abstand zwischen Wahrscheinlichkeitsmaßen auf E. Es gibt eine alternative Charakterisierung, die der Fortet-Mourier-Distanz sehr ähnlich ist. Satz 6.2 Für c sei ein Abstand auf dem metrischen Raum (E, d)
Oc (µ, ν) =
sup f ∈Lip1 (E,c)
ˆ
E
f dµ −
ˆ
E
f dν ,
(6.1)
wobei Lip1 (E, c) die Menge der Lipschitz-Funktionen ist
Lip1 (E, c) = f : E → R, |f (x) − f (y)| ≤ c(x, y), ∀x, y ∈ E .
Wir bezeichnen Oc durch distkr.
Bemerkung 6.1 Bemerkenswert ist, dass wir in der rechten Seite von (6.1) keinen absoluten Wert setzen müssen, da (−f ) ∈ Lip1 (E, c), sobald f Lipschitz-stetig ist. Wir haben auch:
6.1 Prinzip
147
Satz 6.3 Die folgenden beiden Eigenschaften sind äquivalent: 1. distkr (µn , µ) → 0. 2. ∫E f dμn →∫Ef dμ für alle beschränkten und stetigen Funktionen von E nach R und für einige (und dann für alle ) x0 ∈ E
Diese beiden Beispiele führen zu mehreren Abständen der gleichen Form
distF (µ, ν) = sup f ∈F
ˆ
E
f dµ −
ˆ
E
f dν ,
wobei F ein Raum von Testfunktionen ist. Z. B., wenn F die Menge der Indikatorfunktionen von Intervallen ist, erhalten wir den Kolmogorov-Abstand. Die Stein-Methode eignet sich besonders gut zur Schätzung solcher Größen. Aus technischen Gründen ist es oft notwendig, Mengen von Testfunktionen zu betrachten, die kleiner sind als Lip1 (E, c), auch wenn wir die schöne Äquivalenz mit Konvergenz in Verteilung verlieren. Die abstrakte Beschreibung der Stein-Methode besteht darin, eine Homotopie zwischen den beiden Maßen μ und ν zu konstruieren und dann den Abstand zwischen μ und ν zu kontrollieren, indem man den Gradienten der Homotopie kontrolliert (Abb. 6.1). Genauer gesagt, besteht die grundlegende Einstellung aus einer Zielverteilung μ, mit der wir eine Verteilung ν vergleichen werden. Das Wahrscheinlichkeitsmaß μ lebt auf einem metrischen Raum (E, A) und ν wird oft als Bildmaß eines Maßes ν0 auf (F, B ) durch eine Abbildung T : F → E definiert (Abb. 6.2).
=
=
=
=
Abb. 6.1 Konstruieren Sie eine Transformation der Maße, die μ unverändert lässt und schließlich ν in μ umwandelt (links). Dann kehren Sie die Zeit um und kontrollieren Sie den Gradienten der Transformation (rechts)
(
0)
(
) Entfernung zu bewerten
(
Abb. 6.2 Das globale Schema der Stein-Methode
0
= )
6 Die Malliavin-Stein-Methode
148
Z. B., wenn wir die Konvergenzrate im Gesetz der seltenen Ereignisse bewerten wollen, nehmen wir E = N, F = {0, ⋯ , n}, ist ν0 die Binomialverteilung der Parameter (n, p∕n) und T die Einbettung von F in E. Für den üblichen zentralen Grenzwertsatz ist E = R und μ ist die standardisierte Gauß-Verteilung, F = Rn und ν0 = ρ⊗n, wobei ρ die gemeinsame Verteilung der Xi’s ist, die als zentriert und mit Einheitsvarianz angenommen wird. Wir nehmen T (x1 , · · · , xn ) = n−1/2 ni=1 xi. Im Vergleich dazu besteht die Skorokhod-Einbettungsmethode darin, S1 und S2 zu finden, so dass S1F in E abbildet und S2 : F → E, so dass das Bildmaß von μ durch S2ν0 ist. Wir vergleichen dann den Abstand zwischen den Realisierungen S1(ω) und S2(ω) in E. Die einzige Schwierigkeit dieser Methode besteht darin, die Kopplung zwischen μ und ν0 zu entwickeln, d. h. die geeignete Abbildung S2 zu finden, siehe Abb. 6.3. Die Malliavin-Stein-Methode setzt voraus, dass es eine Dirichlet-Struktur auf (E, A, ν0 ) und auf (F, B , µ) gibt. Definition 6.2 Eine Dirichlet-Struktur auf (E, A, ν0 ) ist ein Satz von vier Elementen X0, L0, (Pt0 , t ≥ 0), E 0, wobei X0 ein starker Feller-Prozess mit Werten in E ist, dessen Generator L0 ist und dessen Halbgruppe P0 ist: für f : E → R ausreichend regulär Pt0 f (x) = E f (X(t)) | X(0) = x d 0 P f (x) = L 0 Pt0 f (x) dt t = Pt0 L 0 f (x). Darüber hinaus ist ν0 die stationäre und invariante Verteilung von X0 und die Dirichlet-Form ist definiert durch
E 0 (f , g) =
d dt
ˆ
E
Pt f (x)g(x)dν0 (x)t=0 .
Bemerkung 6.2 Wir werden uns nicht in die Theorie der Dirichlet-Formen vertiefen, aber es muss darauf hingewiesen werden, dass man aus einem der Elemente des Viererblocks auf zumindest abstrakte Weise die drei anderen Elemente konstruieren kann. Bemerkung 6.3 Tatsächlich benötigen wir nicht wirklich E 0, sondern eher den Carré-Du-Champ-Operator, definiert durch
Ŵ 0 (f , g) =
1 0 L (fg) − fL 0 g − gL 0 f , 2
Abb. 6.3 Das globale Schema der SkorokhodEinbettungsmethode
(6.2)
(
(
)
(
)
1
dist.
(
0)
2
6.1 Prinzip
149
der so ist, dass E 0 (f , g) =
ˆ
Ŵ 0 (f (x), g(x)) dν0 (x).
E
In diesem Kontext ist die wichtigste Formel wieder eine Abwandlung der Formel für die Integration durch Teile: Satz 6.4 Für f und g in Dom2 L 0(d. h., so dass f ∈ L2(E →R; ν0), L0f ist gut definiert und gehört zu L2(E →R; ν0)),
E Ŵ 0 (f , g) = −E f L 0 g .
(6.3)
Beweis Wir stellen fest, dass Pt0 1 = 1; daher haben wir L01 = 0. Darüber hinaus gilt, da L0 selbstadjungiert ist,
E L0 f = 0
für jedes f ∈ Dom L 0. Daher liefert (6.2)
1 E Ŵ 0 (f , g) = − E f L 0 g + E g L 0 f 2 1 = − E f L0 g + E f L0 g 2
durch die Selbstadjungiertheit von L0.
□
Beispiel (Gauß’sches Maß auf R) Wenn wir nach einem Markov-Prozess mit Werten in E = R suchen, dessen stationäre Verteilung das standardisierte Gauß’sche Maß auf R ist, das durch ν bezeichnet wird, können wir an den OrnsteinUhlenbeck-Prozess denken: Er kann als Lösung der stochastischen Differentialgleichung ˆ t √ X(s, x)ds + 2 B(t) X(t, x) = x − (6.4) 0
definiert werden, wobei B eine standardisierte Brown’sche Bewegung ist. Wir können auch schreiben √ ˆ t −(t−s) e dB(s), X(t, x) = e−t x + 2 0
so dass
X(t, x) ∼ N (e−t x, βt2 ) ∼ e−t x + βt N (0, 1), √ wobei βt = 1 − e−2t . Das bedeutet, dass ˆ Pt f (x) := E f (X(t, x)) = f (e−t x + βt y)dν(y). R
6 Die Malliavin-Stein-Methode
150
Für f ∈ L1(R → R; ν) besagt der Satz von der dominierten Konvergenz, dass (6.5) und die Invarianz durch Rotation der Gauß’schen Verteilung impliziert (wie in Lemma 3.3), dass
X(0, x) ∼ N (0, 1) =⇒ X(t, x) ∼ N (0, 1),
d. h., das Gauß’sche Maß ist das stationäre und invariante Maß des MarkovProzesses X. Dies kann geschrieben werden als ˆ ˆ Pt f (x)dν(x) = f (y)dν(y). (6.6) R
R
Die Itô-Formel besagt, dass
f (X(t, x)) = f (x) +
ˆ
t
0
f ′ (X(s, x))dB(s) +
ˆ
t
(Lf )(X(s, x))ds,
0
wobei für g ∈ C 2,
Lg(x) = −xg′ (x) + g′′ (x).
Daher gilt
Pt f (x) = f (x) +
t
ˆ
Ps (Lf )(x)ds.
0
Da L und Pt kommutieren, haben wir auch
Pt f (x) = f (x) +
ˆ
t
Ps Lf (x)ds.
(6.7)
0
Der Operator L0 hat zwei grundlegende Eigenschaften. Durch Differentiation nach t in (6.6) haben wir
ˆ
d Lf (x)dν(x) = dt R
ˆ
R
Pt f (x)dν(x)t=0 = 0.
Darüber hinaus zeigt eine einfache Berechnung auch, dass L ein selbstadjungierter Operator ist: ˆ ˆ g(x) Lf (x)dν(x) = f (x) Lg(x)dν(x). R
R
Beispiel (Gauß’sches Maß auf Rn) Wenn ν das standardisierte Gauß’sche Maß auf E = Rn ist, werden alle in Dimension 1 gegebenen Definitionen geradlinig übersetzt:
Pt f (x) =
ˆ
Rn
f (e−t x + βt y)dν0 (y)
Lf (x) = −�x, Df (x)�Rn + �f (x),
6.1 Prinzip
151
wobei D der Gradientenoperator in Rn ist. Der Ornstein-Uhlenbeck-Prozess ist der Rn-wertige Prozess, dessen Komponenten unabhängige eindimensionale O-UProzesse sind. Schließlich haben wir R E (f , f ) =
ˆ
Rn
�Df (x), Dg(x)�Rn dν0 (x)
Ŵ(f , g)(x) = �Df (x), Dg(x)�Rn .
Beispiel (Wiener-Maß auf W) Wenn E = W, einer unserer Wiener-Räume, und ν das Wiener-Maß ist, ist die Situation viel komplizierter. Es ist einfach, die Halbgruppe durch die Mehler-Formel (3.28) zu definieren. Der Markov-Prozess wurde in (3.33) von Problem 3.1 identifiziert. Wenn wir die Definition von L in n formal verallgemeinern wollen, führt dies dazu, 〈ω, ∇f(ω)〉 zu betrachten, wo ω zu W gehört und ∇f(ω) zu H gehört: zwei Räume, die nicht in Dualität stehen. Noch schlimmer ist, dass die Definition des Laplace-Operators, der die Spur des Gradienten zweiter Ordnung ist, nur dann sinnvoll ist, wenn ∇(2)F als Element von H ⊗ H betrachtet wird, da die Vorstellung von Spur für eine Abbildung in einem Banach-Raum nicht existiert. Der nächste Satz ist alles andere als trivial und kann in [1] gefunden werden: Satz 6.5 Wenn F ∈ Lip1 (W, � �W ), dann gilt für jedes t > 0
d Pt f (ω) = �ω, ∇Pt f (ω)�W,W∗ − trace(∇ (2) Pt f (ω)). dt Eine bemerkenswert effiziente Methode zur Konstruktion einer DirichletStruktur besteht darin, einen Malliavin-Gradienten D zur Verfügung zu haben und L0 = −D∗ D zu setzen, wobei D∗ das Adjungierte des Gradienten ist. Beispiel (Gauß’sche Maße) Auf R zeigt eine Standardintegration durch Teile, dass ˆ ˆ ′ f (x)g(x)dν(x) = f (x)δg(x)dν(x), R
R
wobei δg gegeben ist durch
δg(x) = xg(x) − g′ (x).
Daher ergibt sich, dass L = −δ∇. Der gleiche Ansatz funktioniert auf Rn. Auf W wissen wir, dass L = δ∇ (beachten Sie die unkritische Änderung der Konvention für das Vorzeichen vor δ∇) durch seine Operation auf dem Chaos, siehe Satz 3.10. Wir wissen auch aus Satz 3.12, dass die Mehler-Formel immer noch mit dieser Definition von L gilt, und somit ist Satz 6.5 immer noch in dieser Darstellung gültig. Wir sind nicht auf Gauß’sche Maße beschränkt. Die anderen schönen Strukturen sind die, die mit der Poisson-Verteilung zusammenhängen.
6 Die Malliavin-Stein-Methode
152
Beispiel (Poisson-Verteilung auf N mit Parameter ρ) Der Raum E ist N, und der Gradient ist definiert durch
Df (n) = f (n + 1) − f (n).
Der Ornstein-Uhlenbeck-Prozess ist der Prozess, der in der M/M/∞-Warteschlange definiert ist, siehe, dessen Generator Lf (n) = ρ f (n + 1) − f (n) + n f (n − 1) − f (n) .
Beispiel (Poisson-Prozess) Z. B., wenn E der Raum der Konfigurationen auf der kompakten Menge K ist und ν0 die Verteilung des Poisson-Prozesses mit Intensitätsmaß σ ist, dann ist der Prozess X0 nichts anderes als der Glauber-Prozess G und L0 ist L, siehe Abschn. 5.4.2. Die Kovarianzidentität des Satzes 5.14 ist tatsächlich die Integration durch Teile des Satzes 6.4. Die Dirichlet-Struktur kann auch auf dem Zielraum nützlich sein, da sie das Maß μ als das invariante Maß eines Markov-Prozesses X† mit Generator L† und Halbgruppe P† charakterisiert. Beachten Sie, dass für die beiden Hauptbeispiele der Generator die Summe von zwei antagonistischen Teilen ist, was die Existenz des stationären Maßes erklärt. Mit dieser Zerlegung ist die Identität E[LF] = 0 äquivalent zur Formel für die Integration durch Teile im Sinne des MalliavinKalküls. Beispiel (Poisson-Prozess) Der Glauber-Prozess enthält einen Teil, in dem ein Atom irgendwo gemäß σ hinzugefügt wird, und einen anderen Teil, der eines der Atome entfernt, so dass die Anzahl der Atome nicht divergiert. Beispiel (Wiener-Maß auf Rn) Der Diffusionsteil (d. h. der Laplace-Operator in L des Brown’schen Bewegungsteils in der Differentialgleichung, die X definiert) drückt den Prozess überall weit weg von 0; in der Zwischenzeit bringt die Rückzugskraft (der Term in xf′(x))X zurück zum Ursprung. Die Hauptformel für uns ist die nachfolgend beschriebene: ˆ ˆ ∞ f (y)dµ(y) − f (x) = − L † Pt† f (x)dt. (6.8) R
0
In anderen Darstellungen der Stein-Methode wird die Funktion ˆ ∞ † f : x �−→ Pt† f (x)dt 0
als die Lösung der Stein-Gleichung bezeichnet. Daher haben wir
sup f ∈F
ˆ
R
f (y)dµ(y) −
ˆ
R
f dν = sup f†
ˆ
R
L † f † (x)dν(x).
(6.9)
6.2 Viertes Ordnung Moment Theorem
153
6.2 Satz des Moments vierter Ordnung Der Satz des Moments vierter Ordnung besagt, dass eine Sequenz von Elementen eines gegebenen Wiener-Chaos in der Verteilung zum standardisierten Gauß’schen Gesetz konvergieren kann, vorausgesetzt, dass die Sequenzen der vierten Momente zu 3 konvergieren, was das vierte Moment von N (0, 1) ist. Die Zielverteilung ist die übliche N (0, 1), so dass
L † f (x) = xf ′ (x) − f ′ (x).
Der Anfangsraum ist W ausgestattet mit Wiener-Maß, und L0 wird durch seinen Ausdruck auf dem Chaos definiert. Da
Ŵ 0 (V , V ) = �∇V , ∇V �H ,
haben wir die folgende Identität:
Ŵ 0 (ψ(V ), ϕ(V )) = ψ ′ (V )ϕ ′ (V )Ŵ 0 (V , V ).
(6.10)
Kettenregel und Poisson-Punktprozess Diese letzte Formel gilt nicht mehr für den Poisson-Punktprozess, da der Gradient die Kettenregel nicht erfüllt. Lemma 6.1 Für f ∈ Lip1 (R, | |) sei
ˆ
f † (x) =
∞
Pt f (x)dt.
0
Dann ist f† zweimal differenzierbar und
2 . π Beweis Da f Lipschitz-stetig ist, ist es fast überall differenzierbar mit einer Ableitung, die im Wesentlichen durch 1 begrenzt ist. Nach dem LebesgueDominanzsatz erhalten wir, dass Ptf einmal differenzierbar ist mit ˆ (Pt f )′ (x) = e−t f ′ (e−t x + βt y)dµ(y), † ′′ (f )
∞
≤
R
wobei μ das standardisierte Gauß’sche Maß auf R ist. Wenn wir den Beweis von Satz 3.14 nachahmen, ergibt sich, dass (Ptf)′ einmal differenzierbar ist mit der Ableitung gegeben durch
(Pt f )′′ (x) =
e−2t βt
ˆ
R
f ′ (e−t x + βt y)ydµ(y).
6 Die Malliavin-Stein-Methode
154
Da ∥f′∥∞≤ 1, haben wir
† ′′ (f )
∞
∞
e−2t dt βt 0 2 . =1× π
≤
ˆ
ˆ
R
|y|dµ(y)
□
Satz 6.6 Sei V ∈ L2(E → R; ν0), so dass E[V ] = 0 und E V 2 = 1. Dann gilt distkr (V , N (0, 1)) ≤
Beweis Wir müssen schätzen sup E L † f † (V ) = f † : f ∈Lip1 (R,| |)
2 0 0 −1 E Ŵ (L ) (V ), V + 1 . π sup
f † :f ∈Lip1 (R,| |)
E V (f † )′ (V ) − (f † )′′ (V ) .
Der Trick: LL −1 = Id In Anbetracht dieser Identität und von (6.10) und (6.3) erhalten wir † † E V (f )′ (V ) = E L 0 (L 0 )−1 V (f )′ (V ) † . = −E Ŵ 0 ((L 0 )−1 V , (f )′ (V )) = −E (f † )′′ (V ) Ŵ 0 ((L 0 )−1 V , V ) Das Ergebnis folgt aus Lemma 6.1.
□
Wenn V zum p-ten Chaos gehört, (L0)−1V = p−1V , so erhalten wir
1 distkr (V , N (0, 1)) ≤ p
2 0 E Ŵ (V , V ) + p . π
(6.11)
Wir schätzen dann die rechte Seite von (6.11) ab, indem wir die Varianz von Γ0(V, V ) berechnen. Dies erfordert zwei technische Ergebnisse. p
Satz 6.7 Sei V ∈ ⊕k=0 Ck. Dann, für jedes η ≥ p, E V (L 0 − η Id)2 V ≤ −η E V (L 0 − η Id)V ≤ ηc E V (L 0 − η Id)2 V ,
(6.12)
6.2 Viertes Ordnung Moment Theorem
155
wobei
c=
1 ∧ 1. η−p
p
Beweis Schritt 1 Da V zu ⊕k=0 Ck gehört, können wir
V=
p k=0
Jks (˙vk ) und L 0 V =
p
k Jks (˙vk )
(6.13)
k=0
schreiben. Es folgt, dass E V (L 0 − η Id)2 V = E VL 0 (L 0 − η Id)V − ηE V (L 0 − η Id)V p s =E V k(k − η) Jk (˙vk ) − ηE V (L 0 − η Id)V . k=0
Durch Orthogonalität des Chaos ergibt sich p p s E V k(k − η) Jk (˙vk ) = k(k − η)E Jks (˙vk )2 ≤ 0 k=0
k=0
in Anbetracht der Annahme über η. Die erste Ungleichung folgt. Schritt 2 Nach denselben Gedankengängen p −E V (L 0 − η Id)V = (η − k)E Jks (˙vk )2 k=0 p
≤c
Der Beweis ist somit abgeschlossen. □
k=0
(η − k)2 E Jks (˙vk )2
= cE V (L 0 − η Id)2 V .
Bemerkung 6.4 Beachten Sie, dass der Beweis erfordert, dass V zu einer endlichen Summe von Chaos gehört, um ein endliches η zu wählen. Lemma 6.2 Sei V ∈ Cp und Q ein Polynom zweiten Grades. Dann
Q′ (V )3 V E Q(V )(L 0 + apId)Q(V ) = pE aQ2 (V ) − . 2Q′′ (V )
Beweis Wenden Sie (6.3) und (6.10) an, um zu erhalten E Q(V ) L 0 Q(V ) = −E[Ŵ(Q(V ))] = −E Q′ (V )2 Ŵ(V ) .
(6.14)
6 Die Malliavin-Stein-Methode
156
Da Q(3) = 0, haben wir
Q′ (X)3 3Q′′ (X)
′
=
3Q′ (X)2 Q′′ (X)2 = Q′ (X)2 , 3Q′′ (X)2
so dass wir angesichts von (6.10) erhalten:
′ Q (V )3 , V E Q(V ) L 0 Q(V ) = −E Ŵ 3Q′′ (V ) ′ Q (V )3 0 L V = −E 3Q′′ (V ) ′ Q (V )3 V , = −pE 3Q′′ (V ) dank erneut (6.3).
□
Satz 6.8 Für V ∈ Cp haben wir
p2 4 E V − 6E V 2 + 3 . E (Ŵ(V ) + p)2 ≤ 6
Beweis Schritt 1 Nach der Definition von Γ, für V ∈ Cp, haben wir
Ŵ(V ) + p =
1 1 0 2 L (V ) − VL 0 V + p = L 0 (V 2 ) − pV 2 + p 2 2
und
1 1 0 (L − 2p Id)(V 2 − 1) = L 0 (V 2 ) − pV 2 + p. 2 2 Schritt 2 Daraus folgt, dass
2 1 0 2 . E (Ŵ(V ) + p) = E (L − 2p Id)H2 (V , 1) 4
Da L0 ein selbstadjungierter Operator ist, ergibt dies
1 E (Ŵ(V ) + p)2 = E H2 (V , 1) (L 0 − 2p Id)2 H2 (V , 1) . 4
Schritt 3 Die Formel für das Produkt von iterierten Integralen (3.24) impliziert, 2p dass V 2 ∈ ⊕k=0 Ck; daher sind wir in der Lage, den Satz 6.7 mit η =p anzuwenden:
p E (Ŵ(V ) + p)2 ≤ E H2 (V ) (L 0 − 2p Id)H2 (V ) . 4
6.3 Poisson-Prozess-Approximation
157
Gemäß Lemma 6.2 mit a = 2 erhalten wir
E (Ŵ(V ) + p)
2
V H′2 (V )3 p2 E 2H2 (V ) − ≤ 4 3H′′2 (V ) 4 4 p2 2 2 E 2(V − 1) − V = 4 3 2 p2 4 E V − 6E V + 3 . = 6
Der Beweis ist somit abgeschlossen.
□
Korollar 6.1 Für V ∈ Cp gilt 1/2 1 4 E V − 6E V 2 + 3 . dist kr V , N (0, 1) ≤ √ 3π
Beweis Kombinieren Sie (6.11), die Cauchy-Schwarz-Ungleichung und Satz 6.8. □
6.3 Poisson-Prozess-Approximation Die Konvergenz zum Gauß’schen Maß ist nicht die ganze Geschichte. Wir können auch die Distanz zwischen Punktprozessen untersuchen. Die grundlegende Formel ist, wie üblich, die Formel für die Integration durch Teile (siehe Satz 5.9). Dies gibt die Dirichlet-Struktur auf der Zielstruktur. Wenn der anfängliche Wahrscheinlichkeitsraum auch ein Konfigurationsraum ist, ist die sogenannte GNZ-Formel (für Georgii-Nguyen-Zessin) tatsächlich eine Formel für die Integration durch Teile. f
Definition 6.3 Die Menge der endlichen Konfigurationen wird durch NE bezeichnet. Sie kann als disjunkte Vereinigung der N(n) E zerlegt werden, wobei
N(n) E = {φ ∈ NE , φ(E) = n}. Intuitiv ist eine Konfiguration mit n Punkten ein Element von En, aber da es keine bevorzugte Reihenfolge in der Aufzählung der Elemente einer Konfiguration gibt, müssen wir alle n-Tupel von En identifizieren, die sich nur durch die Reihenfolge ihrer Elemente unterscheiden. Mathematisch gesprochen bedeutet dies, den Quotientenraum Esn = E n /Sn zu betrachten, wobei Sn die Gruppe der Permutationen über {1, ⋯ , n} ist: Zwei Elemente x = (x1, ⋯ , xn) und y = (y1, ⋯ , yn) stehen in Beziehung, wenn es ein σ ∈ Sn gibt, so dass: y1 , · · · , yn = xσ (1) , · · · , xσ (n) .
6 Die Malliavin-Stein-Methode
158
Die Menge Esn ist die Menge aller Äquivalenzklassen für diese Beziehung. n Wir haben also eine Bijektion cn zwischen N(n) E und Es . Eine Funktion F (n) definiert auf NE kann auf eine Funktion übertragen werden, die auf Esn definiert ist, aber es ist bequemer, sie als Funktion auf En zu sehen, mit der zusätzlichen Bedingung, symmetrisch zu sein. n Definition 6.4 Für φ = {x1 , · · · , xn } ∈ N(n) E sei x = (x1, ⋯ , xn) ∈E und pn (x) (n) n die Äquivalenzklasse von x in Es . Lassen Sie F messbar sein von NE zu R, und definieren Sie F˜ : E n → R durch ˜ 1 , · · · , xn ) = F c−1 . F(x p (x , · · · , x ) n 1 n n
Schon per Definition ist F˜ symmetrisch. Um der Einfachheit willen verwenden wir wieder eine Notation und schreiben F anstelle von F˜ .
Definition 6.5 Für σ, ein Referenzmaß auf E, gibt N Janossy-Dichten (jn, n ≥ 0) f zu, wenn wir für jedes F ∈ L ∞ NE → R; P schreiben können:
E[F(N)] = F(∅)P(N = ∅)1 ´ + ∞ n=1 n! E k F(x1 , · · · , xn ) jn (x1 , · · · , xn ) dσ (x1 ) . . . dσ (xn ).
Die Janossy-Dichte jn wird intuitiv als die Wahrscheinlichkeit definiert, genau n Atome zu haben und dass diese Atome in der Nähe von (x1, ⋯ , xn) liegen. Schon durch die Konstruktion des Poisson-Punktprozesses sind die JanossyDichten eines Poisson-Punktprozesses einfach zu berechnen. Korollar 6.2 Sei N ein Poisson-Punktprozess der Intensität σ. Für jeden begrenzten f F : NE → R gilt (6.15) Das bedeutet, dass N Janossy-Dichten zulässt:
jn (x1 , · · · , xn ) = e−σ (E) .
Beweis Da σ(E) endlich ist, können wir schreiben
E[F(N)] =
∞ n=0
E[F(N) | N(E) = n] P(N(E) = n).
Nach der Konstruktion des Poisson-Punktprozesses, gegeben N(E) = n, ist die Verteilung der Atome (X1, ⋯ , Xn) von N (σ(E)−1σ)⊗n. Das bedeutet, dass für n > 0 ˆ 1 F(x1 , · · · , xn ) dσ (x1 ) . . . dσ (xn ). E[F(N) | N(E) = n] = σ (E)n E n
6.3 Poisson-Prozess-Approximation
159
Für n = 0 ist es eine Tautologie zu sagen, dass F(N) = F(∅). Daher
E[F(N)] = F(∅)e−σ (E) + e−σ (E) ∞ n=1
σ (E)n 1 n! σ (E)n
´
En
F(x1 , · · · , xn ) dσ (x1 ) . . . dσ (xn ). □
Der Beweis ist somit abgeschlossen.
Beispiel (Janossy-Dichten des Poisson-Prozesses) Ein Poisson-Punktprozess N der Intensität σ ist ein endlicher Punktprozess, wenn und nur wenn σ(E)