procesy stochastyczne (2014/15)annatal/materialy/ps_wyklad_2014.pdf · procesy stochastyczne...

87
Procesy stochastyczne (2014/15) Anna Talarczyk-Noble [email protected] 2015.01.24 Notatki do wykladu

Upload: others

Post on 09-Mar-2021

8 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Procesy stochastyczne (2014/15)

Anna Talarczyk-Noble

[email protected]

2015.01.24

Notatki do wykładu

Page 2: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

2

Page 3: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Spis treści

I Mocne i słabe rozwiązania stochastycznych równań różniczkowych, jed-

noznaczność 5

1 Definicje i przykłady 7

1.1 Mocne i słabe rozwiązania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2 Przykład Tanaki . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.3 Twierdzenie Girsanowa a słabe rozwiązania . . . . . . . . . . . . . . . . . . . . 91.4 Przykład Girsanowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Twierdzenie Yamady-Watanabe o jednoznaczności 13

2.1 Regularny rozkład warunkowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2 Dowód Twierdzenia Yamady-Watanabe . . . . . . . . . . . . . . . . . . . . . . 16

3 Słabe rozwiązania a problem martyngałowy 21

3.1 Definicja problemu martyngałowego . . . . . . . . . . . . . . . . . . . . . . . . . 213.2 Słabe rozwiązania a problem martyngałowy . . . . . . . . . . . . . . . . . . . . 233.3 Twierdzenie Stroocka-Varadhana o istnieniu słabych rozwiązań . . . . . . . . . 24

II Procesy Markowa 29

4 Proces Poissona 31

4.1 Proces Poissona – definicja i konstrukcja . . . . . . . . . . . . . . . . . . . . . . 314.2 Uogólniony proces Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344.3 Złożony proces Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

5 Procesy Markowa - definicja i proste własności 35

5.1 Definicja procesu Markowa i warunki równoważne . . . . . . . . . . . . . . . . . 355.2 Funkcja przejścia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385.3 Przykłady procesów Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405.4 Rozkłady skończenie wymiarowe procesu Markowa . . . . . . . . . . . . . . . . 41

6 Jednorodne rodziny Markowa 43

6.1 Definicja jednorodnej rodziny Markowa . . . . . . . . . . . . . . . . . . . . . . . 436.2 Operator przesunięcia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3

Page 4: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

4 SPIS TREŚCI

7 Mocna własność Markowa 49

7.1 Mocna własność Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 497.2 Półgrupy operatorów związane z procesami Markowa . . . . . . . . . . . . . . . 507.3 Półgrupy fellerowskie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517.4 Mocna własność Markowa a operator przesunięcia . . . . . . . . . . . . . . . . . 537.5 Prawo 0–1 Blumenthala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 547.6 Zasada odbicia dla procesu Wienera . . . . . . . . . . . . . . . . . . . . . . . . 54

8 Regularność trajektorii procesów Markowa 55

9 Półgrupy i ich generatory 57

10 Łańcuchy Markowa z czasem ciągłym 67

11 Procesy dyfuzji 73

11.1 Definicja procesu dyfuzji . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7311.2 Interpretacja współczynników dryfu i dyfuzji . . . . . . . . . . . . . . . . . . . . 7311.3 Procesy dyfuzji a rozwiązania równań stochastycznych . . . . . . . . . . . . . . 75

12 Wzór Feynmana-Kaca 77

13 Procesy dyfuzji i zagadnienie Dirichleta 83

Page 5: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Część I

Mocne i słabe rozwiązania

stochastycznych równań

różniczkowych, jednoznaczność

5

Page 6: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu
Page 7: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 1

Definicje i przykłady

1.1 Mocne i słabe rozwiązania

Będziemy rozważać stochastyczne równania różniczkowe postaci

dXt =b(t,Xt)dt+ σ(t,Xt)dWt, (1.1)

X0 =x,

gdzie W jest procesem Wienera o wartościach w Rm, b : R+×Rd → Rd i σ : R+×Rd 7→ M(d×m)są funkcjami borelowskimi, przy czym M(d × m) oznacza zbiór macierzy o współczynnikachrzeczywistych o d wierszach i m kolumnach, x ∈ Rd.

Dla uproszczenia będziemy zwykle będziemy rozważać przypadek jednowymiarowy d = m =1, jednak definicje poniżej formułuje się tak samo w przypadku ogólnym.

Oznaczenia. Niech Y = (Yt)t≥0 będzie procesem stochastycznym zdefiniowanym na pewnejprzestrzeni probabilistycznej (Ω,F , P ). Zwykle zakładamy, że σ-ciało F jest zupełne, to znaczyzawiera wszystkie podzbiory zbiorów miary zero z F . Przez (FY

t )t≥0 oznaczamy filtrację

generowaną przez proces Y , tj. FYt = σ(Ys : s ≤ t). Przez FY

t oznaczamy najmniejsze σ-ciałozawierające FY

t i wszystkie zdarzenia o prawdopodobieństwie zero.

Definicja 1.1. Niech W będzie procesem Wienera w Rm zdefiniowanym na pewnej przestrzeniprobabilistycznej (Ω,F , P ). Mówimy, że równanie (1.1) ma mocne rozwiązanie na (Ω,F , P )względem procesu Wienera W jeżeli istnieje ciągły proces X = (Xt)t≥0 o wartościach w Rd,

zdefiniowany na (Ω,F , P ), adaptowany do (FWt )t≥0 spełniający

Xt = x+

∫ t

0b(s,Xs)ds+

∫ t

0σ(s,Xs)dWs, t ≥ 0. (1.2)

Jeżeli warunek początkowy równania jest losowy X0 = ξ, gdzie ξ jest zmienną losową okre-śloną na (Ω,F , P ) niezależną od W , wtedy proces X nazywa się mocnym rozwiązaniem jeżelispełnia

Xt = ξ +

∫ t

0b(s,Xs)ds+

∫ t

0σ(s,Xs)dWs, t ≥ 0.

oraz X jest adaptowany do filtracji (Gt)t≥0, gdzie Gt = σ(FWt , ξ).

7

Page 8: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

8 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY

Uwaga 1.2. Na wykładzie z Wstępu do Analizy Stochastycznej widzieliśmy, że jeśli funkcjex 7→ b(t, x) i x 7→ σ(t, x) spełniają warunek Lipschitza ze stałą niezależną od t i b(t, 0), σ(t, 0)są ograniczone, to na dowolnej przestrzeni probabilistycznej (Ω,F , P ), na której istnieje procesWienera W , równanie (1.1) ma mocne rozwiązanie.

Definicja 1.3. Mówimy, że równanie (1.1) ma słabe rozwiązanie jeśli istnieje przestrzeńprobabilistyczna (Ω,F , P ) z filtracją (Ft)t≥0 oraz na (Ω,F , P ) istnieje proces Wienera Wwzględem (Ft)t≥0 i istnieje ciągły proces X adaptowany do (Ft)t≥0 spełniający (1.2).

(Ω,F , P ), (Ft)t≥0, (W,X) nazywa się słabym rozwiązaniem równania (1.1).

Czasem, dla skrótu, będziemy tylko pisać, że (W,X) jest słabym rozwiązaniem.

Uwaga: Zasadnicza różnica w definicji słabego i mocnego rozwiązania polega na tym, że wprzypadku słabego rozwiązania proces X może nie być adaptowane do filtracji generowanejprzez proces Wienera. Ft może być na ogół większe niż FW

t .Jeśli If (Ω,F , P ), (Ft)t≥0, (W,X) jest słabym rozwiązaniem (1.1) i X jest adaptowane do

FWt to X jest mocnym rozwiązaniem (1.1) względem (Ω,F , P ) i W .

Definicja 1.4. Mówimy, że rozwiązanie równania (1.1) jest jednoznaczne w sensie trajek-

torii, jeżeli dla każdej pary słabych rozwiązań (Ω,F , P ), (Ft)t≥0, (W,X)i (Ω,F , P ), (F ′

t )t≥0, (W,X ′) na tej samej przestrzeni probabilistycznej i z tym samym pro-cesem Wienera W procesy X i X ′ są nieodróżnialne, tj. P (Xt = X ′

t ∀t ≥ 0) = 1.

Definicja 1.5. Mówimy, że rozwiązanie równania (1.1) jest jednoznaczne w sensie roz-

kładu, jeżeli dla każdej pary słabych rozwiązań (Ω,F , P ), (Ft)t≥0, (W,X)i (Ω′,F ′, P ′), (F ′

t )t≥0, (W′,X ′), procesy X i X ′ mają te same rozkłady.

Przykład 1.6. Jeżeli istnieje C takie, że

‖σ(t, x)− σ(t, y)‖ + ‖b(t, x)− b(t, y)‖ ≤ C ‖x− y‖

oraz‖σ(t, 0)‖ + ‖b(t, 0)‖ ≤ C

dla dowolnych x, y ∈ Rd, t ∈ R+, to dla równanie (1.1) ma mocne rozwiązanie, na dowolnejprzestrzeni probabilistycznej z procesem Wienera. Ponadto rozwiązanie (1.1) jest jednoznacznew sensie trajektorii.

W pozostałych przykładach będziemy rozważać tylko przypadek jednowymiarowy m = d =1.

1.2 Przykład Tanaki

Przykład 1.7. Wprowadźmy oznaczenie

σ(x) =

1 dla x ≥ 0

−1 dla x < 0.

Rozważmy równaniedXt = σ(Xt)dWt, X0 = 0. (1.3)

Page 9: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

1.3. TWIERDZENIE GIRSANOWA A SŁABE ROZWIĄZANIA 9

Pokażemy, że to równanie ma słabe rozwiązanie, ale nie ma żadnego mocnego rozwiązania.Jednakże najpierw zajmiemy się problemem jednoznaczności.

Przypuśćmy, że istniej słabe rozwiązanie (W,X). Wtedy Xt =∫ t0 σ(Xs)dWs. X jest więc

ciągłym martyngałem o wariacji kwadratowej 〈X〉t =∫ t0 σ

2(Xs)ds = t. Z twierdzenia Lévy’egoo charakteryzacji procesu Wienera wynika, że X jest procesem Wienera, zatem zachodzi jedno-znaczność w sensie rozkładu dla równania (1.3).

Zauważmy, że jeżeli (W,X) jest słabym rozwiązaniem (1.3), to

−Xt = −∫ t

0σ(Xs)dWs

nieodróżnialne=

∫ t

0σ(−Xs)dWs,

gdyż E∫ t0 110(Xs)ds = 0. Zatem (W,−X) również jest słabym rozwiązaniem. Nie ma jedno-

znaczności w sensie trajektorii.

Teraz skonstruujemy słabe rozwiązanie. Niech X będzie standardowym procesem Wienerana przestrzeni probabilistycznej (Ω,F , P ) i niech Ft = FX

t . Oznaczmy

Wt =

∫ t

0σ(Xs)dXs

W jest ciągłym martyngałem względem filtracji (Ft)t≥0 oraz 〈W 〉t = t, zatem W jest procesemWienera względem FX . Ponadto

∫ t

0σ(Xs)dWs =

∫ t

0σ(Xs)σ(Xs)dXs =

∫ t

0dXs = Xt.

Zatem (W,X) jest słabym rozwiązaniem.To nie jest mocne rozwiązanie. Na ćwiczeniach pokażemy, że

∫ t0 σ(Xs)dXs jest adaptowane

do (F|X|t )t. Ta filtracja jest ściśle mniejsza niż (FX

t )t≥0. Np. jeśli A = ω ∈ Ω : Xt ∈ (1, 2)to A ∈ FX

t ale A /∈ F|X|t .

Podobnie, żadne inne słabe rozwiązanie nie może być mocnym rozwiązaniem. Dla mocnegorozwiązania musiałoby być FX

s ⊂ FWs dla wszystkich s, ale wiemy także, że

∫ t0 σ(Xs)dXs =

∫ t0 σ

2(Xs)dWs = Wt, X jest procesem Wienera, więc jak poprzenio∫ t0 σ(Xs)dXs jest adapto-

wane do (F|X|t )t≥0. Zatem W jest adaptowane do (F

|X|t )t≥0. W konsekwencji

FXs ⊂ FW

s ⊂ F|X|t ,

co prowadzi do sprzeczności, gdyż F|X|t jest ściśle mniejsze od FX

s .

1.3 Zastosowanie twierdzenia Girsanowa do konstrukcji słabych

rozwiązań

Rozważmy stochastyczne równanie różniczkowe

dXt = b(t,Xt)dt+ dWt, X0 = x, (1.4)

Page 10: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

10 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY

gdzie b jest funkcją borelowską i ograniczoną. Możemy założyć, że x = 0. Rzeczywiście, dladowolnego x równanie

Xt = x+

∫ t

0b(s,Xs)ds +Wt

jest równoważne

Xt − x =

∫ t

0b(s, x+Xs − x) + dWt.

Jeśli oznaczymy Xt = Xt − x, to powyższy rachunek pokazuje, że (W,X) jest słabym rozwią-zaniem (1.4) wtedy i tylko wtedy, gdy (W, X) jest słabym rozwiązaniem podobnego równaniaz b(t, y) = b(t, x+ y) i zerowym warunkiem początkowym.

Od tej pory będziemy zakładać, że x = 0. Niech V będzie procesem Wienera określonymna pewnej przestrzeni probabilistycznej (Ω,F , P ). Ponieważ założyliśmy, że b jest ograniczone,to dla każdego T ≥ 0 zachodzi

E exp12

∫ t

0b2(s, Vs)ds < ∞. (1.5)

Z kryterium Nowikowa wynika więc, że jeśli

Zt = exp

∫ t

0b(s, Vs)dVs −

1

2

∫ t

0b2(s, Vs)ds

,

to EZT = 1 dla każdego T > 0 (zatem (Zt)t∈[0,T ] jest martyngałem). To pozwala zdefiniowaćnową miarę probabilistyczną QT na (Ω,F ) kładąc dQT = ZTdP . Z twierdzenia Girsanowawynika, że proces

Wt = Vt −∫ t

0b(s, Vs)ds, t ∈ [0, T ]

jest standardowym procesem Wienera na (Ω,F , QT ). Innymi słowy

(Ω,F , QT ), (FVt )t∈[0,T ], (Wt, Vt)t∈[0,T ]

jest słabym rozwiązaniem (1.4) z x = 0 na przedziale [0, T ].Aby skonstruować rozwiązanie dla t ≥ 0 definiujemy miarę probabilistyczną Q na FV

∞ tak,że Q

∣∣FV

T

= QT |FVT

dla wszystkich T . Z jest martyngałem, więc z twierdzenia Girsanowa

wiadomo, że Q jest dobrze określone i jest to miara probabilistyczna. Ponadto,

Wt = Vt −∫ t

0b(s, Vs)ds, t ≥ 0

jest standardowym procesem Wienera na (Ω, (FV∞), Q). Stąd

(Ω,F , Q), (FVt )t≥0, (W,V )

jest słabym rozwiązaniem równania (1.4) z x = 0.Pokazaliśmy

Twierdzenie 1.8. Jeżeli b : R+×R 7→ R jest funkcją borelowską i ograniczoną, to stochastycznerównanie różniczkowe (1.4) ma słabe rozwiązanie.

Założenie ograniczoności b można osłabić. Wystarczy założyć np., że jeżeli V jest procesemWienera, to

E exp12

∫ t

0b2(s, x+ Vs)ds < ∞.

Page 11: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

1.4. PRZYKŁAD GIRSANOWA 11

1.4 Przykład Girsanowa

Rozważmy równaniedXt = |Xt|α dWt, X0 = 0, (1.6)

gdzie α > 0 jest ustalone. Oczywiście proces X ≡ 0 jest zawsze mocnym rozwiązaniem. Możnapokazać, że gdy α ≥ 1

2 , to zachodzi jednoznaczność w sensie rozkładów.

Załóżmy teraz, że 0 < α < 12 . Pokażemy, że w tym przypadku równanie (1.6) ma słabe

rozwiązanie, które nie jest tożsamościowo równe 0, zatem nie zachodzi jednoznaczność w sensierozkładu.

Niech V będzie standardowym procesem Wienera na pewnej przestrzeni probabilistycznej(Ω,F , P ). Połóżmy

Mt =

∫ t

0|Vs|−α dVs.

M jest dobrze zdefiniowane i jest to martyngał całkowalny z kwadratem, gdyż∫ t

0E |Vs|−2α ds =

∫ t

0

R

1

|x|2α1√2πs

e−x2

2s dxds =

∫ t

0s−α

R

1

|y|2αe−

y2

2 dyds < ∞.

Na końcu użyliśmy założenia α < 12 .

Pokażemy, że można tak zmienić czas, aby z M “zrobić” proces Wienera.Zauważmy, że

〈M〉t =∫ t

0|Vs|−2α ds.

〈M〉 jest procesem ciągłym i ściśle rosnącym. Ponadto łatwo pokazać (używając np. prawaiterowanego logarytmu), że 〈M〉∞ = ∞. Oznaczmy przez τ funkcję odwrotną do 〈M〉, tj.

τt = infr ≥ 0 :

∫ r

0|Vs|−2α ds = t, t ≥ 0.

Dla każdego t ≥ 0, τt jest momentem zatrzymania względem (FVt )t≥0.

Zdefiniujmy takżeWt = Mτt Xt = Vτt , t ≥ 0.

Wtedy zachodzą następujące fakty.

Stwierdzenie 1.9. W jest standardowym procesem Wienera.

Stwierdzenie 1.10. (W,X) jest słabym rozwiązaniem (1.6).

Stwierdzenia 1.9 jest prawie natychmiastowe. Potrzebujemy tylko pokazać, że W jest cią-głym martyngałem (ciągłość jest jasna, gdyż M i τ są ciągłe, własność martyngałowości wynikałatwo z twierdzenia Dooba o zatrzymywaniu) oraz 〈Mτ·〉t = 〈M〉τt = t. Z twierdzenia Lévy’egoo charakteryzacji procesu Wienera wynika, że W jest standardowym procesem Wienera. Szcze-góły na ćwiczeniach.

Stwierdzenie 1.10 wynika z ciągu równości∫ t

0|Xs|α dWs =

∫ t

0|Vτs |α dMτs

(∗)=

∫ τt

0|Vr|α dMr =

∫ τt

0|Vs|α |Vs|−α dVs = Vτt = Xt.

Zauważmy jednak, że (∗) wymaga formalnego uzasadnienia. Można to zrobić odpowiednioaproksymując przez procesy elementarne. Dowód można znaleźć w książce [MK].

Page 12: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

12 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY

Page 13: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 2

Twierdzenie Yamady-Watanabe o

jednoznaczności

W tym rozdziale, podobnie jak w poprzednim będziemy rozważać równanie (1.1), z tym żedopuszczamy także losowe warunki początkowe.

dXt =b(t,Xt)dt+ σ(t,Xt)dWt, (2.1)

X0 ∼µ,

gdzie µ jest pewną miarą probabilistyczną na Rd, a ∼ oznacza równość rozkładów. W tymprzypadku słabe rozwiązanie to (Ω,F , P ), (Ft)t≥0,W,X, gdzie X jest adaptowane do (Ft),W jest procesem Wienera względem (Ft), zachodzi Xt = X0 +

∫ t0 b(s,Xs)ds +

∫ t0 σ(s,Xs)dWs

oraz X0 ma rozkład µ.

Wykażemy następujące twierdzenie.

Twierdzenie 2.1. (Yamada-Watanabe)

(a) Jednoznaczność w sensie trajektorii rozwiązania równania (2.1) implikuje jednoznacznośćw sensie rozkładu

(b) Załóżmy, że równanie (2.1) ma słabe rozwiązanie, jednoznaczne w sensie trajektorii. Wów-czas każde słabe rozwiązanie jest mocne (na odpowiedniej przestrzeni probabilistycznej).

W dowodzie wykorzystamy tzw. regularny rozkład warunkowy. Kwestię jego istnienia omó-wimy w następnym podrozdziale.

2.1 Regularny rozkład warunkowy

Niech (Ω,F , P ) będzie przestrzenią probabilistyczną, a G σ-ciałem, G ⊂ F .

Definicja 2.2. (Regularny rozkład warukowy)Niech X będzie zmienną losową określoną na (Ω,F , P ) o wartościach w przestrzeni mierzalnej(E,B). Funkcję PX|G : Ω × B 7→ [0, 1] nazywamy regularnym rozkładem warunkowym

X pod warunkiem σ-ciała G jeżeli spełnia:(i) dla każdego ω ∈ Ω PX|G (ω, ·) jest rozkładem probabilistycznym na (E,B),(ii) dla każdego B ∈ B ω 7→ PX|G (ω,B) jest G mierzalne oraz PX|G (·, B) = P (X ∈ B|G ) p.n.

13

Page 14: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

14 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI

Zachodzi następujące stwierdzenie:

Stwierdzenie 2.3. Jeżeli X jest zmienną losową o wartościach w (E,B) i istnieje regularnyrozkład warunkowy, to dla dowolnej funkcji ϕ : E 7→ R mierzalnej względem σ-ciał B i B(R)oraz takiej, że E |ϕ(X)| < ∞ zachodzi

E(ϕ(X)|G ) =

Eϕ(x)PX|G (·, dx) p.n.

Dowód. Jeżeli ϕ = 11B , B ∈ B, to korzystając z warunku (ii) Definicji 2.2 mamy

E(11B(X)|G ) = P (X ∈ B|G ) = PX|G (·, B) =

Ω11B(x)PX|G (·, dx) p.n.

Dalej dowód przebiega standardowo: sprawdzamy warunek dla ϕ prostych, ϕ =∑n

i=1 ai11Bi,

następnie dla ϕ ≥ 0 i w końcu dla dowolnych ϕ, ϕ = ϕ+ − ϕ−.Jeżeli przestrzeń (E, ρ) jest przestrzenią polską wyposażoną w σ-ciało zbiorów borelowskich

B, to regularny rozkład warunkowy zawsze istnieje:

Twierdzenie 2.4. Niech X będzie zmienną losową o wartościach w przestrzeni polskiej (E,B),określoną na (Ω,F , P ) i niech G będzie σ-ciałem zawartym w F . Wtedy istnieje regularnyrozkład warunkowy X pod warunkiem G .

Dowód. Każda przestrzeń polska jest izomorficzna z borelowskim podzbiorem R, dlategowystarczy udowodnić twierdzenie w przypadku, gdy (E,B) = (R,B(R)).

Załóżmy zatem, że (E,B) = (R,B(R)). Dla q ∈ Q kładziemy

F (q, ω) := P (X ≤ q|G )(ω)

gdzie P (X ≤ q|G ) jest jakąś wersją prawdopodobieństwa warunkowego (które, jak wiemy jestzdefiniowane tylko z dokładnością do równości p.n.).

Zauważmy, że 0 ≤ P (X ≤ q|G ) ≤ 1 p.n. Jeśli q1 ≤ q2, q1, q2 ∈ Q, to X ≤ q1 ⊂ X ≤ q2,a więc P (X ≤ q1|G ) ≤ P (X ≤ q2|G ) p.n. Ponadto limn→∞ P (X ≤ n|G ) = 1 p.n. orazlimn→−∞ P (X ≤ n) = 0, więc Odrzucając z Ω przeliczalną sumę zbiorów o prawdopodobień-stwie 0 widzimy, że istnieje Ω, P (Ω) = 1 takie, że

F (q1, ω) ≤ F (q2, ω) ∀q1 ≤ q2, q1, q2 ∈ Q, ∀ω ∈ Ω

lim−n→−∞

F (−n, ω) = 0, limn→∞

F (n, ω) = 1 ∀ω ∈ Ω.

Ustalmy dowolne t ∈ R i ω ∈ Ω. Weźmy dowolny ciąg liczb wymiernych qn ց t. Wtedy ciągF (qn, ω) jest nierosnący i ograniczony, ma więc granicę, którą oznaczamy przez F (t, ω). Z mo-notoniczności F (·, ω) na Q jest jasne, że ta granica nie zależy od wyboru ciągu przybliżającegot.

Zauważmy, że dla każdego ω ∈ Ω tak zdefiniowana funkcja t 7→ F (t, ω) jest niemalejąca iprawostronnie ciągła. Ponadto, limt→−∞ F (t, ω) = 0, limt→∞ F (t, ω) = 1. Zatem F (·, ω) jestdystrybuantą pewnej miary probabilistycznej µω na (R,B(R)).

Niech

PX|G (ω,B) =

µω(B) jeśli ω ∈ Ω

δ0(B) ω /∈ Ω

Page 15: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

2.1. REGULARNY ROZKŁAD WARUNKOWY 15

(zamiast delty Diraca w zerze moglibyśmy wziąć dowolną ustaloną miarę probabilistyczną.)Tak zdefiniowane PX|G jest regularnym rozkładem warunkowym X pod warunkiem G . Wa-

runek (i) Definicji 2.2 zachodzi w sposób oczywisty. Warunek (ii) też, bo jeżeli qn ց t, qn ∈ Q,to dla ω ∈ Ω F (qn, ω) → F (t, ω) =

∫ t−∞ µω(dx) = PX|G (ω, (−∞, t]). (tj. F (qn, ·) −−→

p.n.

PX|G (·, (−∞, t])).Z drugiej strony F (qn, ·) = P (X ≤ qn|G ) −−→

p.n.P (X ≤ t|G ). Zatem dla każdego t ∈ R

PX|G (·, (−∞, t]) = P (X ≤ t|G ) p.n.

Zbiory postaci (−∞, t] tworzą π-układ, zaś zbiory B ∈ B(R) spełniające równość

PX|G (·, B) = P (B|G ) p.n.

tworzą λ-układ, zatem z lematu o π i λ-układach otrzymujemy, że warunek (ii) Definicji 2.2 jestspełniony.

Stwierdzenie 2.5. Przy założeniach Twierdzenia 2.4 regularny rozkład warunkowy X pod wa-runkiem G jest jednoznaczny w następującym sensie: Jeżeli K,K ′ : Ω × B 7→ [0, 1] spełniająwarunki (i) i (ii) Defnicji 2.2, to istnieje zbiór N ∈ G , taki że P (N) = 0 oraz dla wszystkichω ∈ Ω\N oraz B ∈ B(R) zachodzi K(ω,B) = K ′(ω,B).

Dowód. Niech N = ω : ∃q ∈ Q takie, że K(ω, (−∞, q]) 6= K ′(ω, (−∞, q]). Z lematu o π i λukładach wynika, że dla ω ∈ Ω\N miary probabilistyczne K(ω, ·) i K ′(ω, ·) są równe. Trzebatylko pokazać, że N ∈ G i N ma prawdopodobieństwo równe 0.

Dla każdego q ∈ Q z warunku (ii) wynika, że ω 7→ K(ω, (−∞, q]) jest G -mierzalne i to samozachodzi dla K ′, zatem ω : K(ω, (−∞, q]) 6= K ′(ω, (−∞, q]) ∈ G . Ponadto, również z (ii)mamy

K(ω,B) = P (X ∈ B|G )(ω) = K ′(ω,B),dla P − prawie wszystkich ω.

To oznacza, żeP (ω : K(ω, (−∞, q]) 6= K ′(ω, (−∞, q])) = 0.

Zbiór N jest przeliczalną sumą zbiorów tej postaci, więc teza zachodzi.

Jeżeli dodatkowo wiadomo, że σ-ciało G jest generowane przez pewną inną zmienną losowąY , to można mówić o regularnym rozkładzie warunkowym X pod warunkiem Y w sensie takim,jak w następnym Twierdzeniu.

Twierdzenie 2.6. Jeżeli spełnione są założenia Twierdzenia 2.4 i dodatkowo G = σ(Y ) dlapewnej zmiennej losowej Y : Ω 7→ S, gdzie (S,S) jest pewną przestrzenią mierzalną, to istniejeQ : S × B 7→ [0, 1] takie, że(i) dla każdego y ∈ S Q(y, ·) jest rozkładem probabilistycznym na (E,B),(ii) dla każdego B ∈ B funkcja y 7→ Q(y,B) jest S mierzalna oraz Q(Y,B) = P (X ∈ B|Y )p.n.

Ponadto, Q jest wyznaczone jednoznacznie z dokładnością do zbioru µY -miary zero, gdzieµY oznacza rozkład zmiennej losowej Y . Dokładniej, jeżeli Q i Q′ mają własności (i) oraz (ii)to istnieje zbiór N ∈ S taki, że P (Y ∈ N) = 0 taki, że dla wszystkich y ∈ S\N i wszystkichB ∈ B zachodzi Q(y,B) = Q′(y,B).

Page 16: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

16 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI

Q jw. nazywa się regularnym rozkładem warunkowym X pod warunkiem Y , albo też jądremprzejścia z Y do X.

Twierdzenie 2.6 dowodzi się niemal identycznie jak Twierdzenie 2.4, zauważając, że ponieważP (X ≤ q|Y ) jest Y mierzalne, to istnieje funkcja mierzalna fq : S 7→ R taka, że P (X ≤ q|Y ) =fq(Y ) p.n. i pracując dalej z funkcjami (y, q) 7→ fq(y).

Alternatywnie, można przejść najpierw do przestrzeni kanonicznej i wykorzystać poprzednietwierdzenie.

2.2 Dowód Twierdzenia Yamady-Watanabe

Przypuśćmy, że mamy dwa słabe rozwiązania równania (2.1): (Ω(1),F (1), P (1)), (F(1)t )t≥0, (W

(1),X(1))oraz (Ω(2),F (2), P (2)), (F

(2)t )t≥0, (W

(2),X(2)). Główny pomysł polega na przeniesieniu tychsłabych rozwiązań na wspólną przestrzeń probabilistyczną, gdyż wtedy będziemy mogli skorzy-stać z jednoznaczności w sensie trajektorii.

Słabe rozwiązanie (W (i),X(i)), i = 1, 2 wygodnie będzie reprezentować równoważnie w

postaci trójki (X(i)0 ,W (i), Y (i)), gdzie Y i = X(i) −X

(i)0 .

Wprowadźmy oznaczenia: Cd = C([0,∞),Rd) – przestrzeń funkcji ciągłych określonych naR+, o wartościach w Rd. Niech B(Cd) oznacza σ-ciało podzbiorów Cd generowane przez cylin-dry. Zauważmy, że B(Cd) jest jednocześnie σ-ciałem zbiorów borelowskich, gdy Cd rozważyć ztopologią zbieżności niemal jednostajnej, Cd jest wtedy przestrzenią polską.

Niech µ będzie rozkładem początkowym, µ ∼ X(1)0 ∼ X

(2)0 . Niech ponadto P⋆ oznacza

miarę Wienera na B(Cm), tzn. rozkład m-wymiarowego procesu Wienera na przestrzeni funkcjiciągłych Cm.

Przyjmijmy

Ω :=Rd × Cm × Cd × Cd

F :=B(Rd)⊗ B(Cm)⊗ B(Cd)⊗ B(Cd)

Elementy Ω będziemy zwykle oznaczać (x,w, y1, y2). Niech Q(i) (Q(i)(x,w, dyi)) będzie regu-

larnym rozkładem warunkowym Y (i) pod warunkiem (X(i)0 ,W (i)). Jako prawdopodobieństwo

na (Ω,F ) kładziemy

P (dxdwdy1dy2) = Q(1)(x,w, dy1)Q(2)(x,w, dy2)P⋆(dw)µ(dx).

Rozważmy proces kanoniczny Zt(x,w, y1, y2) = (x,w(t), y1(t), y2(t)).Zauważmy, że bezpośrednio z konstrukcji otrzymujemy, iż (x,w, y1) na przestrzeni (Ω,F , P )

ma ten sam rozkład co (X(1)0 ,W (1), Y (1)) oraz (x,w, y2) ma ten sam rozkład co (X

(2)0 ,W (2), Y (2)).

Oznaczmy dodatkowo przez (Ft)t≥0 filtrację generowaną przez proces kanoniczny Z, uzu-pełnioną o zbiory miary P -zero tj.

Ft = σ(x,w(s), y1(s), y2(s) : s ≤ t) = B(Rd)⊗ Bwt ⊗ B

y1t ⊗ B

y2t , (2.2)

gdzie Bwt ⊂ B(Cm), B

yit ⊂ B(Cd), Bw

t = σw(s) : s ≤ t, Byit = σyi(s) : s ≤ t. Druga

równość w (2.2) wynika z faktu, że odpowiednie przestrzenie są ośrodkowe.Zachodzą następujące fakty:

Page 17: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

2.2. DOWÓD TWIERDZENIA YAMADY-WATANABE 17

Lemat 2.7. Jeżeli A ∈ By1t , to (x, ω) 7→ Q(1)(x, ω,A) jest mierzalne względem B(Rd)⊗ Bw

t .

Dowód. Dla uproszczenia oznaczeń niech Q := Q(1). Dla każdego ustalonego t > 0 istniejeregularny rozkład warunkowy y1 pod warunkiem (x, (w(s))s∈[0,t]). Oznaczmy go przez Qt.

Z definicji regularnego rozkładu warunkowego wynika, że (x,w) 7→ Qt(x,w,A) jestB(Rd)⊗ Bw

t mierzalne. Należy więc tylko wykazać, że dla A ∈ By1t zachodzi

Qt(·, A) = Q(·, A) µ⊗ P⋆ − p.n. (2.3)

(Uwaga. Wykażemy równość prawie na pewno, dlatego musimy uzupełnić σ-ciało.)Niech C ∈ B(Rd)⊗Bw

t . Wtedy, bezpośrednio z definicji regularnego rozkładu warunkowegomamy

P (C ×A× Cd) =

CQt(x,w,A)µ(dx)P⋆(dw). (2.4)

Z drugiej strony, z definicji prawdopodobieństwa P dla każdego C ∈ B(Rd)⊗ Bw∞

P (C ×A× Cd) =

CQ(x,w,A)µ(dx)P⋆(dw). (2.5)

Zatem ∫

CQt(x,w,A)µ(dx)P⋆(dw) =

CQ(x,w,A)µ(dx)P⋆(dw) (2.6)

dla C ∈ B(Rd)⊗Bwt . Trzeba jeszcze pokazać, że to samo zachodzi dla dowolnego C ∈ B(R)⊗

Bw∞. Ponieważ zbiory C spełniające (2.6) tworzą λ-układ, wystarczy pokazać, że (2.6) zachodzi

dla π-układu złożonego ze zbiorów postaci

C = B × (Γ1 ∩ Γ2) ,

gdzie Γ1 ∈ Bwt , Γ2 ∈ Bw

>t := σ ((w(t+ u)− w(t))u≥0) ⊂ Bw∞. Dla takich C mamy

CQt(x,w,A)µ(dx)P⋆(dw) =

Qt(x,w,A)11B(x)11Γ1(w)︸ ︷︷ ︸

B(Rd)⊗Bwt −mierzalne

11Γ2(w)µ(dx)P⋆(dw).

P⋆ jest miarą Wienera, więc korzystając z niezależności Bwt i Γ2 przy P⋆

=

Qt(x,w,A)11B11Γ1(w)µ(dx)P⋆(dw) P⋆(Γ2)

używając (2.6) dla zbioru C ′ = B × Γ1

=

Q(x,w,A)11B11Γ1(w)µ(dx)P⋆(dw) P⋆(Γ2)

= P (B × Γ1 ×A× Cd)P (Γ2)

= P (1)(X0 ∈ B,W (1) ∈ Γ1,X(1)· −X

(1)0 ∈ A)P (1)(W (1) ∈ Γ2)

Page 18: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

18 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI

(W,X) jest słabym rozwiązaniem, więc w szczególności (W (1)t+s −W

(1)t )s≥0 jest procesem nieza-

leżnym od (Ws,Xs)s≤t, gdyż (W,X) jest adaptowane do filtracji (F (1)) i (W (1)t+s−W

(1)t )s≥0 nie

zależy od F(1)t , bo W (1) jest procesem Wienera względem tej filtracji

= P (1)(X0 ∈ B,W (1) ∈ Γ1,X(1)· −X

(1)0 ∈ A,W (1) ∈ Γ2)

= P (1)((X(1)0 ,W (1), Y (1)) ∈ C ×A)

= P (C ×A× Cd)

=

CQ(x,w,A)µ(dx)P⋆(dw).

Zatem równość (2.6) zachodzi dla wszystkich C ∈ B(Rd)⊗ Bw∞. Stąd wynika (2.3).

Lemat 2.8. (Ω,F , P ), (Ft), (w, x + y1) oraz (Ω,F , P ), (Ft), (w, x + y2) są słabymi roz-wiązaniami równania (2.1).

Dowód. Jest jasne, że w jest procesem Wienera na (Ω,F , P ). Należy pokazać, że w jestprocesem Wienera względem filtracji (Ft), tzn. dla r > t w(r)− w(t) jest niezależne od Ft.

Niech A1 ∈ By1t , A2 ∈ B

y2t , B ∈ B(Rd)⊗ Bw

t . Wtedy dla r > t i dowolnego x ∈ Rd mamy

Eei〈x,w(r)−w(t)〉11A1(y1)11A2(y2)11B(x,w)

=

Ωei〈x,w(r)−w(t)〉︸ ︷︷ ︸

nzal. od B(Rd)⊗Bwt

Q(1)(x,w,A1)Q(2)(x,w,A2)11B(x,w)

︸ ︷︷ ︸

B(Rd)⊗Bwt mierzalne (Lemat 2.7)

µ(dx)P⋆(dw)

= e−x2(r−t)2

2 P (B ×A1 ×A2) = Eei〈x,w(r)−w(t)〉P (B ×A1 ×A2).

Stąd wynika, że w(r)− w(t) jest niezależne od Ft.Sprawdzenie, że (w, x+ y1) spełnia równanie jest nietrudne, gdyż

(

x,w, y1,

∫ ·

0b(y1(s))ds +

∫ ·

0σ(y1(s))dw(s)

)

ma ten sam rozkład co (X(1)0 ,W (1), Y (1), Y (1)),

bo X(1)0 + Y (1) spełnia równanie. Wszystkie procesy są ciągłe, zatem y1 jest nieodróżnialne od

∫ ·0 b(y1(s))ds +

∫ ·0 σ(y1(s))dw(s).

Tak samo sprawdza się, że (w, x+ y2) także jest słabym rozwiązaniem.Ciąg dalszy dowodu Twierdzenia 2.1: (a) Jeżeli (W (1),X(1)) i (W (2),X(2)) są sła-

bymi rozwiązaniami, to zgodnie z opisaną wyżej konstrukcją na przestrzeni (Ω,F ,P) z filtracją(Ft)t≥0 (x,w, y1) oraz (x,w, y2) są słabymi rozwiązaniami. Z jednoznaczności w sensie trajek-torii otrzymujemy

P ((x,w, y1, y2) ∈ Ω) : y1 ≡ y2) = 1. (2.7)

Oznacza to w szczególności, że (x,w, y1) ma ten sam rozkład co (x,w, y2), tj. X(1) ∼ x +y1 ∼ x + y2 ∼ X(2), gdzie ∼ oznacza równość rozkładów. Kończy to dowód pierwszej częścitwierdzenia – jednoznaczności w sensie rozkładu.

Page 19: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

2.2. DOWÓD TWIERDZENIA YAMADY-WATANABE 19

(b) Jak poprzednio, przypuśćmy, że (W (1),X(1)) i (W (2),X(2)) są dowolnymi słabymi roz-wiązaniami (mogą również być te same). Z (2.7) mamy

1 =P ((x,w, y1, y2) ∈ Ω) : y1 ≡ y2)

=

Rd×Cm

(y1,y2):y1≡y2Q(1)(x,w, dy1)Q

(2)(x,w, dy2)µ(dx)P⋆(dy)

Zawsze ∫

(y1,y2):y1≡y2Q(1)(x,w, dy1)Q

(2)(x,w, dy2) ≤ 1

i µ⊗ P⋆ jest miarą probabilistyczną, więc aby (2.7) zachodziło musimy mieć∫

(y1,y2):y1≡y2Q(1)(x,w, dy1)Q

(2)(x,w, dy2) = 1 dla µ⊗ P⋆ p.w. (x,w). (2.8)

Lewa strona równania (2.8) jest równa∫

Cd

Q(1)(x,w, y)Q(2)(x,w, dy)

Q(1)(x,w, y) ≤ 1, a Q(2)(x,w, dy) jest miarą probabilistyczną, więc równość (2.8) zachodziwtedy i tylko wtedy, gdy Q(1)(x,w, y) = 1 dla y należących do nośnika miary Q(2)(x,w, ·).Zatem dla µ ⊗ P⋆-p.w. (x,w) zarówno Q(1)(x,w, ·) jak i Q(2)(x,w, ·) są miarami punktowymiskupionymi w tym samym punkcie. Oznaczmy go przez h(x,w). Mamy

Q(1)(x,w, ·) = Q(2)(x,w, ·) = δh(x,w).

Funkcja h jest mierzalna, bo Q(i) były mierzalne względem (x,w).Wykazaliśmy zatem, że y1 = y2 = h(x,w). Z Lematu 2.7 wynika również, że (x,w) 7→

h(x,w) jest też mierzalne w sensie B(Rd)⊗ Bwt dla każdego t.

Zatem, dla każdego słabego rozwiązania (X0,W,X −X0) mamy X = X0 + h(X0,W ), więcjest to mocne rozwiązanie.

Page 20: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

20 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI

Page 21: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 3

Słabe rozwiązania a problem

martyngałowy

3.1 Definicja problemu martyngałowego

Jak poprzednio rozważamy równanie

dXt = b(t,Xt)dt+ σ(t,Xt)dWt, X0 = x. (3.1)

Dla uproszczenia zapisu ograniczymy się do przypadku jednowymiarowego, ale wszystko jestprawdziwe także w wielu wymiarach. Oznaczmy

a(t, x) = σ2(t, x).

(W większym wymiarze powinniśmy brać a = σσT ). Zakładamy, że b i σ są borelowskie iograniczone. Ponadto, niech

Ltf(x) = b(t, x)f ′(x) +1

2a(t, x)f ′′(x), f ∈ C2

Zauważmy, że jeżeli Ω, F , P, (Ft), (W,X) jest słabym rozwiązaniem równania (3.1) i f ∈C20 (tj. funkcja ciągła o nośniku zwartym), to ze wzoru Itô otrzymujemy

f(Xt) =f(X0) +

∫ t

0f ′(Xs)b(s,Xs)ds+

∫ t

0f ′(Xs)σ(s,Xs)dWs +

1

2

∫ t

0σ2(s,Xs)ds

=f(x) +

∫ t

0Lsf(Xs)ds +

∫ t

0σ(Xs)f

′(Xs)dWs

Zatem dla każdego f ∈ C20 proces

f(Xt)− f(x)−∫ t

0Lsf(Xs)ds

jest martyngałem. Proces X jest ciągły, więc można go traktować jako zmienną losową owartościach w przestrzeni funkcji ciągłych C = C([0,∞)). Zauważmy, że gdy C rozważamyz topologią zbieżności niemal jednostajnej, to odpowiednie σ-ciało zbiorów borelowskich jest

21

Page 22: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

22 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY

tożsame z σ-ciałem generowanym przez cylindry. Oznaczmy to σ-ciało przez B. PrzestrzeńC z metryką d(x, y) =

∑∞n=1

12n

(sup2n−1≤t<2n |x(t)− y(t)| ∧ 1

)jest przestrzenią polską i jej

topologia jest równoważna topologii zbieżności niemal jednostajnej.Przez Z oznaczmy proces kanoniczny zdefiniowany na (C ,B), tzn.

Zt(ω) = ω(t).

Niech µX oznacza rozkład X na przestrzeni (C ,B). Wtedy proces kanoniczny Z na przestrzeniprobabilistycznej (C ,B, µX) ma taki sam rozkład jak proces X określony na (Ω, F , P ).

Stąd wynika, że dla każdej funkcji f ∈ C20 proces

f(Zt)− f(x)−∫ t

0Lsf(Zs)ds (3.2)

określony na przestrzeni probabilistycznej (C ,B, µX) jest martyngałem. Ponadto, jest to mar-tyngał względem filtracji Bt := σ((ω(s) : s ≤ t). Niech F : R+ × C 7→ C będzie zdefiniowanajako

F (t, ω) = f(ω(t))− f(x)−∫ t

0Lsf(ω(s))ds

ω 7→ F (t, ω) jest oczywiście Bt mierzalne, więc proces (F (t, ·))t≥0 jest adaptowany do filtracji(Bt)t≥0. Wystarczy jeszcze tylko sprawdzić, że dla dowolnych s < t i dowolnego zbioru A ∈ Bs

zachodziEµX

F (t, Z)11A = EµXF (s, Z)11A.

Obie strony tego równania zależą tylko od rozkładu Z, który jest taki sam jak rozkład X, zatemżądana równość zachodzi, bo (F (t,X))t≥0 jest martyngałem.

Powyższe rozumowanie jest motywacją do wprowadzenia następującej definicji:

Definicja 3.1. (Problem martyngałowy) Mówimy, że problem martyngałowy (x, a, b) marozwiązanie jeżeli istnieje miara probabilistyczna P na przestrzeni kanonicznej C taka, że dladowolnej funkcji f ∈ C2

0 proces zdefiniowany w (3.2) jest martyngałem względem filtracji (Bt)oraz P (Z0 = x) = 1. Tę miarę probabilistyczną P nazywamy rozwiązaniem problemu martyn-gałowego (x, a, b).

Uwaga 3.2. (a) Już pokazaliśmy, że jeżeli (W,X) jest słabym rozwiązaniem (3.1), to rozkładX jest rozwiązaniem problemu martyngałowego (x, a, b).

(b) Jeżeli P jest rozwiązaniem problemu martyngałowego, to dla każdej funkcji f : R 7→R klasy C2 proces (3.2) jest martyngałem lokalnym. Dowód jest standardowy, przezstopowanie.

Stwierdzenie 3.3. Jeżeli P jest rozwiązaniem problemu martyngałowego (x, a, b), to

Mt = Zt − x−∫ t

0b(s, Zs)ds

jest ciągłym martyngałem lokalnym względem filtracji (Bt)t≥0, startującym z zera, o wariacjikwadratowej

〈M〉t =∫ t

0a(s, Zs)ds. (3.3)

Dowód na ćwiczeniach. Wskazówka: zastosować Uwagę 3.2 (b) dla f(x) = x i f(x) = x2.

Page 23: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

3.2. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY 23

3.2 Słabe rozwiązania a problem martyngałowy

Twierdzenie 3.4. Równanie (3.1) ma słabe rozwiązanie wtedy i tylko wtedy, gdy problem mar-tyngałowy (x, a, b) ma rozwiązanie. Dokładniej,

P : P = µX , gdzie X spełnia (3.1) = P : P jest rozw. probl. martyngałowego (x, a, b) .

Dowód. Już pokazaliśmy, że jeżeli (W,X) jest słabym rozwiązaniem, to rozkład X jest rozwią-zaniem problemu martyngałowego. Pozostaje pokazać, że jeżeli P jest rozwiązaniem problemumartyngałowego, to istnieje rozwiązanie równania (3.1), które ma rozkład P .

Niech P będzie rozwiązaniem problemu martyngałowego (x, a, b) i niech M będzie martyn-gałem lokalnym ze Stwierdzenia 3.3.

Rozważmy najpierw prostszy przypadek gdy σ(t, y) 6= 0 dla wszystkich t, y. Zdefiniujmy

Wt =

∫ t

0

1

σ(s, Zs)dMs.

W jest dobrze zdefiniowane, bo proces podcałkowy jest prognozowalny oraz

〈W 〉t =∫ t

0

1

σ2(s, Zs)a(s, Zs)ds = t.

Zatem W jest procesem Wienera względem (Bt)t≥0. Ponadto zachodzi

∫ t

0σ(s, Zs)dWs =

∫ t

0dMs = Mt = Zt − x−

∫ t

0b(s, Zs)ds.

To oznacza, że (C ,B, P ), (Bt)t≥0, (W,Z) jest słabym rozwiązaniem równania (3.1).Rozważmy teraz ogólny przypadek, bez założenia, że σ 6= 0. Aby skonstruować słabe roz-

wiązanie musimy rozszerzyć przestrzeń probabilistyczną. Niech (Ω′,F ′, P ′) będzie dowolnąprzestrzenią probabilistyczną, na której określony jest proces Wienera V . Kładziemy

Ω = C × Ω′, F = B ⊗ F′ P = P ⊗ P ′, Ft = Bt ⊗ F

′t

orazM(ω, ω′) = M(ω), V (ω, ω′) = V (ω′) Zt(ω, ω

′) = ω(t).

Zauważmy, że tak zdefiniowane procesy M i V są niezależne oraz adaptowane do filtracji (Ft)t≥0.Ponadto, M jest martyngałem lokalnym względem filtracji (Ft)t≥0, a V jest procesem Wienerawzględem tej filtracji.

Niech

Wt =

∫ t

0

1

σ(s, Zs)11σ(s,Zs)6=0dMs +

∫ t

011σ(s,Zs)=0dVs.

Całki są dobrze zdefiniowane oraz

〈W 〉t =∫ t

0

1

σ2(s, Zs)11σ(s,Zs)6=0a(s, Zs)d

M⟩

s+

∫ t

011σ(s,Zs)=0d

V⟩

s

+ 2

∫ t

0

1

σ(s, Zs)11σ(s,Zs)6=011σ(s,Zs)=0d

M, V⟩

s

Page 24: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

24 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY

Zauważmy, że ostatnia całka znika, a z pozostałych dwóch otrzymujemy

〈W 〉t =∫ t

0

(

11σ(s,Zs)6=0 + 11σ(s,Zs)=0

)

= t.

Zatem, z twierdzenia Lévy’ego wynika, że W jest procesem Wienera względem (Ft)t≥0.Sprawdzimy, że (W , Z) jest słabym rozwiązaniem równania (3.1). W tym celu obliczamy

∫ t

0σ(s, Zs)dWs =

∫ t

0σ(s, Zs)

1

σ(s, Zs)11σ(s,Zs)6=0dMs +

∫ t

0σ(s, Zs)11σ(s,Zs)=0dVs

=Mt −∫ t

011σ(s,Zs)=0dMs.

Zachodzi⟨∫ ·

011σ(s,Zs)=0dMs

t

=

∫ t

011σ(s,Zs)=0d

M⟩

s=

∫ t

011σ(s,Zs)=0a(s, Zs)ds = 0.

Zatem proces∫ t0 11σ(s,Zs)=0dMs jest nieodróżnialny od procesu stale równego 0 i otrzymujemy

∫ t

0σ(s, Zs)dWs = Mt = Zt − x−

∫ t

0b(s, Zs)ds,

a więc (W , Z) jest słabym rozwiązaniem równania (3.1).

3.3 Twierdzenie Stroocka-Varadhana o istnieniu słabych rozwią-

zań

Celem tego podrozdziału jest wykazanie następującego twierdzenia.

Twierdzenie 3.5. Załóżmy, że b i σ są ograniczone, borelowskie, b i a = σ2 są ciągłe ze względuna zmienną przestrzenną x. Wtedy istnieje słabe rozwiązanie równania (3.1).

Uwaga 3.6. (a) W twierdzeniu nie zakładamy, że σ(t, x) jest ciągłe ze względu na x. Wy-starczy tylko, że a jest ciągłe.

(b) Twierdzenie Stroocka-Varadhana wraz z twierdzeniem Yamady-Watanabe z poprzedniegorozdziału sugerują możliwość przyjęcia następującej strategii dowodzenia istnienia moc-nych rozwiązań: Korzystając z Twierdzenia Stroocka-Varadhana wykazujemy istnieniesłabego rozwiązania, a następnie, pokazujemy jednoznaczność w sensie trajektorii. Twier-dzenie Yamady-Watanabe mówi, że wtedy każde słabe rozwiązanie jest mocne.

Dowód. Korzystając z Twierdzenia 3.4 wystarczy wykazać, że problem martyngałowy (x, a, b)ma rozwiązanie.

Niech a(n) i b(n) będą funkcjami takimi, że b(n) i σ(n) =√a(n) są lipschitzowskie ze względu

na drugą współrzędną, ograniczone oraz dla każdego t ≥ 0 a(n)(t, ·) → a(t, ·), b(n)(t, ·) →b(t, ·) niemal jednostajnie (jednostajnie na zbiorach ograniczonych) i wszystkie te funkcje są

Page 25: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

3.3. TWIERDZENIE STROOCKA-VARADHANA O ISTNIENIU SŁABYCH ROZWIĄZAŃ25

wspólnie ograniczone. Takie funkcje można łatwo skonstruować splatając b i√a z funkcjami

gładkimi fn, fn → δ0, np. fn(x) = nf(nx), gdzie f ≥ 0 gładka o nośniku zwartym,∫f =

1. Wiemy, że równanie z lipschitzowskimi współczynnikami ma słabe rozwiązanie (ma nawetmocne rozwiązanie). Z Twierdzenia 3.4 wynika, że problem martyngałowy (x, a(n), b(n)) marozwiązanie. Oznaczmy to rozwiązanie przez P (n). P (n) jest jednoznaczne, bo równanie zlipschitzowskimi współczynnikami ma rozwiązanie jednoznaczne w sensie trajektorii, a więc i wsensie rozkładów.

Główny schemat dowodu polega na

1. wykazaniu, że zbiór miar probabilistycznych P (n)n∈N jest ciasny;

2. skorzystaniu z twierdzenia Prochorowa, aby pokazać, że z ciągu P (n) można wybrać pod-ciąg P (nk) zbieżny do pewnego rozkładu probabilistycznego Q na C ;

3. sprawdzeniu, że otrzymana miara graniczna Q jest rozwiązaniem problemu martyngało-wego (x, a, b).

Krok 1. Ciasność P (n): Potrzebne będą następujące lematy pomocnicze. Dowód lematów3.7 i 3.8 – ćwiczenia:

Lemat 3.7. Załóżmy, że M jest ciągłym martyngałem, takim że istnieje stała K > 0 niezależnaod t, s, że |〈M〉t − 〈M〉s| ≤ K |t− s|. Wówczas dla dowolnych δ > 0, α > 0, u ≥ 0 zachodzi

P

(

supu≤t≤u+δ

|Mt −Mu| > α

)

≤ 2e−α2

2Kδ .

Wskazówki do dowodu: skorzystać z faktu, że eλ(Mt−Mu)−λ2

2(〈M〉t−〈Mu〉) jest martyngałem –

kryt. Nowikowa; napisać nierówność maksymalną dla tego martyngału i zminimalizować po λ.Por. dowód prawa iterowanego logarytmu).

Dla δ > 0 i T > 0 oraz funkcji ω ∈ C niech

mT (ω, δ) = sup0≤s,t≤T,|s−t|≤δ

|ω(t)− ω(s)|

oznacza moduł ciągłości na przedziale [0, T ].

Lemat 3.8. Przy założeniach Lematu 3.7 dla dowolnego T > 0 i α > 0 zachodzi

P (mT (M, δ) > α) ≤ 2(⌊[Tδ⌋+ 1)e−

α2

16Kδ

Lemat 3.9. Niech P (n), n = 1, 2, . . . będzie ciągiem miar probabilistycznych na (C ,B). Za-łóżmy, że

limλ→∞

supn

P (n) (ω : |ω(0)| > λ) = 0, (3.4)

orazlimδց0

supn

P (n) (ω : mT (ω, δ) > ε) = 0 ∀T > 0, ε > 0. (3.5)

Wtedy ciąg (P (n))n jest ciasny w C .

Page 26: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

26 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY

Dowód. Dla ustalonego T ∈ N i η > 0 korzystając z (3.4) dobierzmy λ > 0, takie że

supn

P (n) (ω : |ω(0)| > λ) ≤ η

2T+1.

Ponadto, niech δk,T,η > 0, k = 1, 2, . . . będą takie, że

supn

P (n)

(

ω : mT (ω, δk,T,η) >1

k)

≤ η

2T+k+1.

Definiujemy zbiory domknięte

AT =

ω : |ω(0)| ≤ λ,mT (ω, δk,T,η) ≤1

k, k = 1, 2, . . .

, A =

∞⋂

T=1

AT .

Wówczas P (n)(AT ) ≥ 1−∑∞k=0

η2T+k+1 = η

2Toraz

P (n)(A) ≥ 1−∞∑

T=1

η

2T= 1− η. (3.6)

Z twierdzenia Arzelà-Ascoli wynika, że funkcje z AT obcięte do funkcji na C([0, T ]) tworzązbiór zwarty, bo jest to zbiór domknięty, składający się z funkcji jednakowo ciągłych na [0, T ] istartujących ze zbioru zwartego.

W szczególności z każdego ciągu funkcji ωj ∈ A, j = 1, 2, . . . można wybrać podciąg zbieżnyjednostajnie na [0, 1], z tego ciągu można wybrać podciąg zbieżny jednostajnie na [0, 2], itd.Używając metody przekątniowej dostajemy, że z każdego ciągu funkcji ωj ∈ A można wybraćpodciąg zbieżny niemal jednostajnie. A jest domknięty więc funkcja graniczna jest w A. ZatemA jest zbiorem zwartym w C . Stąd i z (3.6) otrzymujemy ciasność (P (n))n.

Krok 2.

Lemat 3.10. Niech P będzie zbiorem miar probabilistycznych na przestrzeni kanonicznej (C ,B).Jak zwykle Z oznacza proces kanoniczny. Załóżmy, że

(i) Istnieje B ⊂ R zwarty, taki, że dla każdego P ∈ P zachodzi P (Z0 ∈ B) = 1.

(ii) Dla każdego P ∈ P istnieje ciągły i adaptowany do (Bt) proces V o wahaniu skończonym,taki że V (0) = 0 oraz M = Z−V jest martyngałem przy prawdopodobieństwie P (na ogółV i M zależą od P ).

(iii) Istnieje stała K niezależna od P taka, że P -p.n. ∀P ∈ P

∀t, s |〈M〉t − 〈Ms〉| ≤ K |t− s| , |Vt − Vs| ≤ K |t− s| .

Wówczas P jest warunkowo zwarty.

Dowód. Z założenia o V mamymT (V, δ) ≤ Kδ.

Page 27: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

3.3. TWIERDZENIE STROOCKA-VARADHANA O ISTNIENIU SŁABYCH ROZWIĄZAŃ27

Ponadto, mT (Z, δ) ≤ mT (M, δ) + mT (V, δ). Niech P (n) ∈ P, n = 1, 2, . . .. Ustalmy dowolneT > 0 i α > 0, wówczas dla δ < α

2K mamy

P (n)(mT (Z, δ) > α) ≤ P (n)(mT (M, δ) > α−Kδ) ≤ P (n)(mT (M, δ) >α

2).

Z Lematu 3.8 wynika, że spełnione są założenia Lematu 3.9, zatem rodzina (P (n))n jest ciasna.Przestrzeń C jest przestrzenią polską. Z twierdzenia Prochorowa wynika, że ciąg P (n) mapodciąg słabo zbieżny do pewnej miary probabilistycznej Q.

Krok 3. Wykażemy, że zbiór miar probabilistycznych P = P (n) : n ∈ N, gdzie P (n) jestrozwiązaniem problemu martyngałowego (x, a(n), b(n)) jest ciasny.

Niech

V(n)t =

∫ t

0b(n)(s, Zs)ds, M

(n)t = Zt −

∫ t

0b(n)(s, Zs)ds = Zt − V

(n)t .

Przy prawdopodobieństwie P (n) proces M (n) jest ciągłym martyngałem lokalnym o nawiasieskośnym

⟨M (n)

t=∫ t0 a

(n)(s, Zs)ds, bo P (n) jest rozwiązaniem odpowiedniego problemu mar-

tyngałowego. Z założenia o a, b i ciągu przybliżeń a(n) i b(n) funkcje te są wspólnie ograniczone.Wynika stąd, że istnieje stała K > 0 niezależna od n taka, że

EP (n)

∣∣∣

M (n)⟩

t−⟨

M (n)⟩

s

∣∣∣ = EP (n)

∣∣∣∣

∫ t

sa(n)(u,Zu)du

∣∣∣∣≤ K |t− s| , ∀s, t > 0.

W szczególności otrzymujemy także, że M (n) jest martyngałem przy P (n), nie tylko martynga-łem lokalnym. Podobnie,

EP (n)

∣∣∣V

(n)t − V n

s

∣∣∣ ≤ K |t− s| .

Zatem rodzina P spełnia założenia Lematu 3.10, istnieje więc podciąg nk, taki, że P (nk) ⇒ Q.Pokażemy, że Q jest rozwiązaniem problemu martyngałowego (x, a, b), tzn. dla każdej funkcjif : R 7→ R klasy C2 o nośniku zwartym proces

f(Zt)−∫ t

0Luf(Zu)du

na przestrzeni probabilistycznej (C ,B, Q) jest martyngałem względem filtracji (Bt)t≥0.Proces ten jest oczywiście adaptowany do (Bt), wystarczy zatem sprawdzić, że dla dowol-

nych 0 ≤ s < t i A ∈ Bs zachodzi

EQ

(

f(Zt)−∫ t

0Luf(Zu)du

)

11A = EQ

(

f(Zs)−∫ t

0Luf(Zs)du

)

11A.

Aby to pokazać wystarczy sprawdzić, że dla każdej funkcji ciągłej i ograniczonej F : C 7→ R,która jest Bs mierzalna zachodzi

EQ

(

f(Zt)−∫ t

0Luf(Zu)du

)

F (Zt) = EQ

(

f(Zs)−∫ s

0Luf(Zu)du

)

F (Zs). (3.7)

Page 28: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

28 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY

Wiemy, że

EP (n)

(

f(Zt)−∫ t

0L(n)u f(Zu)du

)

F (Z) = EP (n)

(

f(Zs)−∫ s

0L(n)u f(Zs)du

)

F (Z), (3.8)

gdzie L(n)u f(x) = b(n)(u, x)f ′(x) + 1

2a(n)(u, x)f ′′(x), bo P (n) jest rozwiązaniem odpowiedniego

problemu martyngałowego. Ponadto, L(n)u f zbiega jednostajnie do Luf , gdyż a(n) i b(n) zbiegają

niemal jednostajnie do a i b odpowiednio oraz f ma zwarty nośnik. Zauważmy także, że dla

każdego t ≥ 0 funkcja ω 7→ F (ω)(

f(ω(t))−∫ t0 Luf(ω(u))du

)

jest ciągłą i ograniczoną funkcją

z C w R, więc skoro P (nk) ⇒ Q, to

limk→∞

EP (nk)

(

f(Zt)−∫ t

0Luf(Zu)du

)

F (Z) = EQ

(

f(Zt)−∫ t

0Luf(Zu)du

)

F (Z). (3.9)

Zauważmy, że

EP (n)

∫ t

0

∣∣∣Luf(Zu)− L(n)

u (Zu)∣∣∣ du ≤

∫ t

0supx∈R

∣∣∣Luf(x)− L(n)

u (x)∣∣∣ du

Funkcje pod całką po prawej stronie zbiegają do 0 dla prawie wszystkich u i są wspólnie ogra-niczone przez pewną stałą, co wynika z naszych założeń o a(n), b(n), a i b (zbieżność jednostajnadla każdego u i ograniczoność). Zatem całe wyrażenie zbiega do 0 przy n → ∞.

Używamy równania (3.8) dla podciągu nk. Standardowy argument polegający na dodaniu iodjęciu EP (nk)

∫ t0 Luf(Zu)du po lewej stronie równania (3.8) i odpowiedniej całki EP (nk)

∫ s0 . . . du

po prawej stronie, obserwacji powyżej oraz (3.9) prowadzi do (3.7).

Page 29: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Część II

Procesy Markowa

29

Page 30: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu
Page 31: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 4

Proces Poissona

4.1 Proces Poissona – definicja i konstrukcja

Definicja 4.1. Proces (Nt)t≥0 nazywa się procesem Poissona z parametrem λ, (λ > 0), jeżeli

1. N0 = 0;

2. N ma przyrosty niezależne, tj. dla dowolnych 0 ≤ t1 ≤ . . . ≤ tn zmienne losowe Nt1 , Nt2−Nt1 , . . . , Ntn −Ntn−1 są niezależne;

3. Dla dowolnych 0 ≤ s < t zmienna losowa Nt −Ns ma rozkład Poissona z parametrem λt,

tj. P (Nt −Ns = k) = (λ(t−s))k

k! e−λ(t−s);

4. N ma prawostronnie ciągłe trajektorie.

Parametr λ nazywa się parametrem intensywności skoków procesu Poissona.

Z uwagi na przybliżenie rozkładu dwumianowego rozkładem Poissona, proces Poissona jestdobrym modelem np. dla procesu liczby wezwań centrali telefonicznej, albo liczby szkód zgło-szonych przez klientów towarzystwa ubezpieczeniowego, gdy rozważa się takie rodzaje szkód, októrych można założyć, że występują niezależnie u każdego z klientów.

Twierdzenie 4.2. Niech ρ1, ρ2, . . . będą niezależnymi zmiennymi losowymi o tym samym roz-kładzie wykładniczym z parametrem λ, tj. o gęstości g(x) = λe−λx11(0,∞)(x). Ponadto oznaczmyτ0 = 0, τk = ρ1 + ρ2 + . . .+ ρk dla k = 1, 2, . . .. Wówczas proces

Nt = supk : τk ≤ t, t ∈ R (4.1)

jest procesem Poissona z parametrem λ.

Uwaga: Na ćwiczeniach zobaczymy, że każdy proces spełniający warunki 1-4 w Definicji 4.1 mataką postać.

Dowód. Z mocnego prawa wielkich liczb wynika, że τnn → Eρ1 =

1λ p.n., gdy n → ∞, więc τn →

∞. Zatem proces N ma p.n. wartości skończone, całkowite nieujemne. Ponadto P (ρj > 0, j =1, 2, . . .) = 1. Stąd w szczególności N0 = 0 p.n. Te zbiory miary zero odrzucamy (tj. wykażemy,że proces N jest nieodróżnialny od procesu Poissona, ale procesy nieodróżnialne utożsamiamy).Jest jasne, że proces N zdefiniowany przez (4.1) ma prawostronnie ciągłe trajektorie.

31

Page 32: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

32 ROZDZIAŁ 4. PROCES POISSONA

Pozostaje wykazać własności 2. i 3. z Definicji 4.1. Najpierw znajdziemy rozkład Nt. Wia-

domo, że τk ma rozkład Γ(k, λ), a więc P (τk ≤ t) = 1− e−λt∑k−1

j=0(λt)j

j! . Stąd

P (Nt = k) = P (τk ≤ t < τk+1) = P (τk ≤ t)− P (τk+1 ≤ t) =(λt)k

k!e−λt.

Zatem Nt ma rozkład Poissona z parametrem λt.

Można to było również policzyć bezpośrednio:

P (Nt = k) =P (ρ1 + . . .+ ρk ≤ t, ρ1 + . . .+ ρk+1 > t)

=

0<x1<x1+x2<...<x1+...+xk≤t<x1+...+xk+1

λkλe−λ∑k+1

i=1 xidx1 . . . dxk+1.

Następnie używamy podstawienia yj =∑j

i=1 xi, j = 1, 2, . . . , k+1 i jak poprzenio, otrzymujemy

P (Nt = k) =

0<y1<y2<...<yk≤t<yk+1

λkλe−λyk+1dykdy1 . . . dyk

=

0<y1<y2<...<yk≤tdy1 . . . dykλ

ke−λt

=tk

k!λke−λt

Pozostaje wykazać, że N ma niezależne przyrosty oraz dla dowolnych s, t > 0 zmienna losowaNt+s −Nt ma taki sam rozkład jak Ns.

Ustalmy dowolne t > 0 i oznaczmy ρ(t)1 = τNt+1 − t, ρ

(t)k = ρNt+k, k = 2, 3, . . . -jeśli

τk oznaczają momenty zajścia pewnych zdarzeń, to ρ(t)1 jest czasem oczekiwania na pierwsze

zdarzenie po chwili t, ρ(t)2 odstęp pomiędzy pierwszym a drugim zdarzeniem po chwili t itd.

Wykażemy, że dla dowolnego n ∈ N k ∈ Z+, r1, . . . , rn > 0 zachodzi

P (Nt = k, ρ(t)1 > r1, ρ

(t)2 > r2, . . . , ρ

(t)n > rn) = P (Nt = k)e−λr1 . . . e−λrn (4.2)

Rozpisując lewą stronę (4.2), korzystając z definicji ρ(t)k , a następnie faktu, że ρk+2, . . . , ρk+n sąi.i.d. o rozkładzie wykładniczym i są niezależne od ρ1, . . . , ρk+1 mamy

P (Nt = k,ρ(t)1 > r1, ρ

(t)2 > r2, . . . , ρ

(t)n > rn)

=P (τk ≤ t < τk + ρk+1, τk + ρk+1 − t > r1, ρk+2 > r2, . . . , ρk+n > rn)

=P (τk ≤ t < τk + ρk+1, τk + ρk+1 − t > r1)e−λr2 . . . e−λrn (4.3)

Zajmijmy się teraz pierwszym czynnikiem w (4.3). Oznaczmy przez f gęstość rozkładu τk.

Page 33: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

4.1. PROCES POISSONA – DEFINICJA I KONSTRUKCJA 33

Wtedy

P (τk ≤ t < τk + ρk+1, τk + ρk+1 − t > r1) =

x≤t<x+y,x+y−t>r1f(x)λe−λydxdy

=

x≤t

t−x+r1<yλe−λydyf(x)dx

=

∫ t

0e−λ(t−x+r1)f(x)dx

=e−λr1

∫ t

0e−λ(t−x)f(x)dx

=e−λr1

∫ t

0P (ρk+1 > t− x)f(x)dx

=e−λr1P (τk ≤ t < τk + ρk+1)

=e−λr1P (Nt = k).

Wstawiając otrzymany wyżej wynik do (4.3) otrzymujemy (4.2).

Z (4.2) i lematu o π i λ–układach wynika, że Nt jest niezależne od (ρ(t)1 , ρ

(t)2 , . . .) oraz

ρ(t)1 , ρ

(t)2 , . . . są i.i.d. o rozkładzie wykładniczym z parametrem λ.

Stąd łatwo wywnioskować przy pomocy indukcji, że dla każdego n ∈ N i dowolnych 0 =s0 < s1 < s2, . . . , sn, m1, . . . mn ∈ 0, 1, 2, . . . zachodzi

P (Nsj −Nsj−1 = mj, j = 1, . . . , n) =

n∏

j=1

P (Nsj−sj−1 = mj). (4.4)

Rzeczywiście, jeżeli n = 1, to równość (4.4) jest oczywista. Przypuśćmy, że mamy (4.4) dla n.Wykażemy, że (4.4) zachodzi też dla n+ 1.

P (Ns1 = m1, Ns2 −Ns1 = m2, . . . , Nsn+1 −Nsn = mn+1)

= P (Ns1 = m1, Ns2 −Ns1 = m2, (Ns3 −Ns1)− (Ns2 −Ns1) = m3, . . . ,

(Nsn+1 −Ns1)− (Nsn −Ns1) = mn+1).

Zauważmy, że proces (Nt+s1 −Ns1)t≥0 zależy tylko od ρ(s1)j , j = 1, 2, . . . i to w ten sam sposób

w jaki proces (Nt)t≥0 zależy od ρj, j = 1, 2, . . .. Stąd i z niezależności Ns1 od ρ(s1)j , j = 1, 2, . . .

otrzymujemy

P (Ns1 = m1, Ns2 −Ns1 = m2, Ns3 −Ns2 = m3 . . . , Nsn+1 −Nsn = mn+1)

= P (Ns1 = m1)P (Ns2−s1 = m2, Ns3−s1 −Ns2−s1 = m3 . . . , Nsn+1−s1 −Nsn−s1 = mn+1).

Korzystamy teraz z założenia indukcyjnego i otrzymujemy

P (Ns1 = m1, Ns2 −Ns1 = m2, Ns3 −Ns2 = m3 . . . , Nsn+1 −Nsn = mn+1)

= P (Ns1 = m1)P (Ns2−s1 = m2)P (Ns3−s2 = m3)P (Nsn+1−sn = mn+1).

Kończy to dowód tożsamości (4.4) i dowód całego twierdzenia, gdyż (4.4) oznacza zarówno to,że przyrosty są niezależne, jak i to, że Nt −Ns ma taki sam rozkład jak Nt−s dla t > s.

Page 34: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

34 ROZDZIAŁ 4. PROCES POISSONA

4.2 Uogólniony proces Poissona

Jeżeli N jest procesem Poissona z parametrem λ, to dla każdego t ≥ 0 mamy P (Nt+h −Nt =1) = λh + o(h) oraz P (Nt+h − Nt ≥ 2) = o(h) przy czym λ nie zależy od t. Proces jestjednorodny w czasie. W wielu zastosowaniach założenie jednorodności jest zbyt ograniczające,dlatego rozważa się tzw. uogólniony proces Poissona postaci:

Xt = Nf(t),

gdzie N jest procesem Poissona z parametrem 1, a f ≥ 0 jest niemalejącą funkcją ciągłąf(0) = 0.

Jeśli f jest klasy C1, to f ′(t) jest chwilową intensywnością skoków w chwili t.

4.3 Złożony proces Poissona

Definicja 4.3. Złożonym procesem Poissona nazywamy proces X postaci

Xt =Nt∑

k=1

ξk,

gdzie N jest procesem Poissona z parametrem λ, a ξ1, ξ2, . . . są niezależnymi zmiennymi loso-wymi o rozkładzie µ, niezależnymi też od procesu N .

Łatwo sprawdzić (ćwiczenie), że złożony proces Poissona ma przyrosty niezależne i stacjo-narne oraz dla s < t przyrost Xt −Xs ma rozkład

∞∑

k=0

λ(t− s)k

k!e−λ(t−s)µ∗k.

Jeżeli ξ mają wartości rzeczywiste, to rozkład ten ma funkcję charakterystyczną

Eeiu(Xt−Xs) = e−λ(t−s)∫R(1−eiux)µ(dx).

Page 35: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 5

Procesy Markowa - definicja i proste

własności

W tym rozdziale będziemy rozważać procesy stochastyczne określone na pewnej przestrzeniprobabilistycznej (Ω,F , P ), przyjmujące wartości w przestrzeni polskiej (E, ρ). Przestrzeń Ezawsze rozważamy z σ-ciałem zbiorów borelowskich oznaczanym przez B. Później ograniczymysię do przypadku (E,B) = (Rd,B(Rd)). T ⊂ R jest zbiorem indeksów procesu X = (Xt)t∈T .Oznaczmy też

FXt = σ(Xs : s ≤ t, s ∈ T ), F

X≥t = σ(Xs : s ≥ t, s ∈ T )

5.1 Definicja procesu Markowa i warunki równoważne

Definicja 5.1. Mówimy, że proces (Xt)t∈T o wartościach w E jest procesem Markowa jeżelidla dowolnych t ∈ T , A ∈ FX

≥t i B ∈ FXt zachodzi

P (A ∩B|Xt) = P (A|Xt)P (B|Xt). (5.1)

Nieformalnie mówiąc warunek (5.1) oznacza, że pod warunkiem, że znamy stan procesu wchwili obecnej t, “przyszłość” jest niezależna od “przeszłości”.

Uwaga 5.2. Warunek (5.1) jest symetryczny ze względu na rolę przyszłości i przeszłości. Dla-tego, jeżeli X jest procesem Markowa, to proces otrzymany z X przez odwrócenie czasu równieżjest procesem Markowa.

Definicję procesu Markowa można przeformułować na kilka sposobów:

Twierdzenie 5.3. Następujące warunki są równoważne:

(1) X jest procesem Markowa;

(2) ∀t ∈ T , ∀ ξ FX≥t mierzalnej, ∀ η FX

t mierzalnej i takich, że ξ, η, ξη ∈ L1(Ω,F , P )zachodzi

E(ξη|Xt) = E(ξ|Xt)E(η|Xt);

35

Page 36: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

36 ROZDZIAŁ 5. PROCESY MARKOWA - DEFINICJA I PROSTE WŁASNOŚCI

(3) ∀t ∈ T , ∀ξ FX≥t mierzalnej, ξ ∈ L1(Ω,F , P ) zachodzi

E(ξ|FXt ) = E(ξ|Xt);

(4) ∀t ∈ T , ∀A ∈ FX≥t, zachodzi

P (A|FXt ) = P (A|Xt);

(5) ∀t ∈ T , ∀h > 0 takiego, że t+ h ∈ T , ∀Γ ∈ B zachodzi

P (Xt+h ∈ Γ|FXt ) = P (Xt+h ∈ Γ|Xt);

(6) ∀t ∈ T , ∀h > 0, t+ h ∈ T , ∀f : E 7→ R borelowskiej i takiej, że f(Xt+h) ∈ L1(Ω,F , P )zachodzi

E(f(Xt+h)|FXt ) = E(f(Xt+h)|Xt);

(7) ∀t ∈ T , ∀h > 0, t+ h ∈ T , ∀Γ ∈ B, ∀ s1 < s2 < . . . < sn = t, sj ∈ T zachodzi

P (Xt+h ∈ Γ|Xs1 , . . . ,Xsn) = P (Xt+h ∈ Γ|Xt);

Uwaga. Odpowiedniki warunków (3)-(7) można sformułować także dla “przyszłości”.Przypomnienie: wszystkie równości, w których występuje warunkowa wartość oczekiwana sąrównościami p.n., gdyż warunkowa wartość oczekiwana jest zdefiniowana z dokładnością dorówności p.n.

Dowód. “(1) ⇒ (2)” standardowo: najpierw sprawdzamy (2) dla ξ = 11A η = 11B , gdzieA ∈ FX

≥t, B ∈ FXt , następnie dla funkcji prostych, później dla nieujemnych, korzystając z

twierdzenia o zbieżności monotonicznej. W końcu dla dowolnych ξ = ξ+ − ξ−, η = η+ − η−.Implikacja “(2) ⇒ (1)” jest oczywista, gdy w (2) przyjmiemy ξ = 11A η = 11B , A ∈ FX

≥t,B ∈ FX

t .Tak samo pokazuje się równoważność “(5) ⇔ (6)”.“(2) ⇒ (3)”: Z definicji warunkowej wartości oczekiwanej, E(ξ|Xt) jest FX

t mierzalna. Abywykazać, że E(ξ|FX

t ) = E(ξ|Xt) trzeba więc tylko sprawdzić, że dla każdego B ∈ FXt zachodzi

BE(ξ|Xt)dP =

BξdP.

Mamy

BE(ξ|Xt)dP = E(11BE(ξ|Xt)) = EE

(11BE(ξ|Xt)

∣∣Xt

)

E(ξ|Xt) jest Xt mierzalne= E [E(ξ|Xt)E(11B |Xt)]

(2)= EE(ξ11B |Xt) = E(ξ11B) =

BξdP.

“(3) ⇒ (4)” otrzymujemy natychmiast przyjmując ξ = 11A.“(4) ⇒ (1)”: Z (4) wiemy, że P (A|FX

t ) = P (A|Xt). Zmienna losowa P (A|Xt)P (B|Xt) jestσ(Xt) mierzalna. Wiemy też, że σ(Xt) = Xt ∈ Γ : Γ ∈ B, wystarczy więc sprawdzić, żedla każdego Γ ∈ B zachodzi

E(11Xt∈ΓP (A|Xt)P (B|Xt)

)= E

(11Xt∈Γ11A11B

).

Page 37: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

5.1. DEFINICJA PROCESU MARKOWA I WARUNKI RÓWNOWAŻNE 37

Mamy

E

11Xt∈ΓE(11A|Xt)︸ ︷︷ ︸

Xt mierzalne

E(11B |Xt)

=EE

(11Xt∈ΓE(11A|Xt)11B |Xt

)

EE(·|Xt)=E(·)= E

(11Xt∈ΓE(11A|Xt)11B

)

(4)=E

11Xt∈Γ11B︸ ︷︷ ︸

FXt mierzalne

E(11A|FXt )

=EE(11Xt∈Γ11B11A|FX

t

)

=E(11Xt∈Γ11B11A).

Wykazaliśmy równoważność pierwszych czterech warunków.“(4) ⇒ (5)” jest oczywiste, kładziemy A = Xt+h ∈ Γ ∈ FX

≥t.“(5) ⇒ (6)” już zauważyliśmy, że pokazuje się tak samo jak “(1) ⇒ (2)”.“(6) ⇒ (4)”: Pokażemy najpierw, że dla dowolnych n ∈ N, t = t1 < t2 < . . . < tn, tj ∈ T

i dowolnych funkcji mierzalnych i ograniczonych f1, . . . , fn : E 7→ R zachodzi

E(f(Xt1) . . . f(Xtn)|FX

t

)= E (f(Xt1) . . . f(Xtn)|Xt) . (5.2)

Dowód przez indukcję. (5.2) jest oczywiście prawdziwe dla n = 1. Jeśli n = 2, to

E(f(Xt1)f(Xt2)|FX

t

)= f(Xt1)E

(f(Xt2)|FX

t

) (6)= f(Xt1)E (f(Xt2)|Xt) = E (f(Xt1)f(Xt2)|Xt) .

Przypuśćmy, że (5.2) zachodzi dla n, wykażemy, że zachodzi też dla n+ 1.

E(f(Xt1) . . . f(Xtn)f(Xtn+1)|FX

t

)=E(E(f(Xt1) . . . f(Xtn)︸ ︷︷ ︸

FXtn

mierzalne

f(Xtn+1)|FXtn

)|FX

t

)

=E(f(Xt1) . . . f(Xtn)E

(f(Xtn+1)|FX

tn

)|FX

t

)

(6)=E(f(Xt1) . . . f(Xtn)E

(f(Xtn+1)|Xtn

)

︸ ︷︷ ︸

=g(Xtn)

|FXt

)

zal. ind.= E

(f(Xt1) . . . f(Xtn)E

(f(Xtn+1)|Xtn

)|Xt

)

(6)=E(f(Xt1) . . . f(Xtn)︸ ︷︷ ︸

FXtn

mierzalne

E(f(Xtn+1)|FX

tn

)|Xt

)

=E(E(f(Xt1) . . . f(Xtn)f(Xtn+1)|FX

tn

)|Xt

)

=E(f(Xt1) . . . f(Xtn)f(Xtn+1)|Xt

).

Wykazaliśmy (5.2) dla n+ 1.“(5) ⇒ (7)” jest jasne.

Page 38: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

38 ROZDZIAŁ 5. PROCESY MARKOWA - DEFINICJA I PROSTE WŁASNOŚCI

“(7) ⇒ (5)” wynika z lematu o π i λ układach, gdyż klasa zbiorów postaci Xt1 ∈ Γ1, . . . ,Xtn ∈Γn, n ∈ N, 0 ≤ t1 < t2 < . . . tn ≤ t, Γ1, . . . ,Γn ∈ B jest π-układem generującym FX

t , a klasatych zbiorów A, dla których zachodzi

E(E(11Xt+h∈Γ|Xt)11A

)= E11Xt+h∈Γ11A

jest λ-układem.

Uwaga. Jeżeli T = Z+, to X jest procesem Markowa wtedy i tylko wtedy gdy

P (Xn+1 ∈ Γ|FXn ) = P (Xn+1 ∈ Γ|Xn). (5.3)

⇔ E(f(Xn+1)|FXn ) = P (f(Xn+1)|Xn) dla f mierzalnej i ograniczonej. Przez indukcję pokazu-

jemy, że jeżeli zachodzi (5.3) to spełniony jest warunek (6).

Definicja 5.4. Niech X = (Xt)t∈T będzie procesem określonym na (Ω,F , P ) i niech (Ft)t∈Tbędzie pewną ustaloną filtracją. Mówimy, że X jest procesem Markowa względem filtracji(Ft)t∈T jeżeli X jest adaptowany do (Ft)t∈T oraz dla dowolnych t ∈ T , h > 0, t+ h ∈ T orazΓ ∈ B zachodzi

P (Xt+h ∈ Γ|Ft) = P (Xt+h ∈ Γ|Xt).

Uwaga 5.5. (a) Warunek z Definicji 5.4 można przeformułować równoważnie: dla dowolnycht ∈ T , h > 0, t+ h ∈ T oraz f : E 7→ R borelowskiej i ograniczonej zachodzi

E(f(Xt+h)|Ft) = E(f(Xt+h|Xt).

(b) Jeżeli X jest procesem Markowa względem pewnej filtracji (Ft)t∈T , to jest też procesemMarkowa względem swojej filtracji naturalnej (FX

t ), tj. procesem Markowa w sensie Definicji5.1, bo wtedy

E(f(Xt+h)|FXt ) = E

(E(f(Xt+h)|Ft)

∣∣F

Xt

)= E

(E(f(Xt+h)|Xt)

∣∣F

Xt

)= E(f(Xt+h)|Xt).

5.2 Funkcja przejścia

Niech X będzie procesem Markowa względem pewnej filtracji (Ft)t∈T . Z założenia, że prze-strzeń stanów E jest przestrzenią polską i Twierdzenia 2.6 wynika, że dla dowolnych s ≤ t,s, t ∈ T , istnieje regularny rozkład warunkowy Xt pod warunkiem Xs, tzn. istnieje taka funkcja(s, x, t,Γ) 7→ P (s, x, t,Γ), x ∈ E, s ≤ t, s, t ∈ T , Γ ∈ B, że

(i) ∀s ≤ t, s, t ∈ T , ∀ x ∈ E P (s, x, t, ·) jest miarą probabilistyczną na (E,B),

(ii) ∀s ≤ t, s, t ∈ T , ∀ Γ ∈ B funkcja x 7→ P (s, ·, t,Γ) jest B mierzalna,

(iii) ∀ s ∈ T , ∀ x ∈ E, P (s, x, s, ·) = δx

Ponadto(v) ∀ s ≤ t, s, t ∈ T , ∀ Γ ∈ B P (Xt ∈ Γ|Fs) = P (Xt ∈ Γ|Xs) = P (s,Xs, t,Γ) p.n.

Przy ustalonych s, t,Γ funkcja P (s, ·, t,Γ) jest wyznaczona jednoznacznie z dokładnością dorówności µXs-p.w., gdzie µs oznacza rozkład zmiennej losowej Xs.

Page 39: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

5.2. FUNKCJA PRZEJŚCIA 39

Z powyższych warunków wynika również, że dla dowolnej funkcji f : E 7→ R borelowskiej itakiej, że E |f(Xt)| < ∞ zachodzi

E(f(Xt)|Fs) =

Ef(y)P (s,Xs, t, dy) p.n. (5.4)

Dowód standardowy – najpierw dla funkcji prostych, następnie przejście graniczne, por. dowódStwierdzenia 2.3.

Niech s < u < t, s, u, t ∈ T . Wówczas

P (s,Xs, t,Γ) = P (Xt ∈ Γ|Xs) = P (Xt ∈ Γ|Fs) = E(P (Xt ∈ Γ|Fu)|Fs)

= E(P (u,Xu, t,Γ)|Fs) =

EP (u, y, t,Γ)P (s,Xs, u, dy) p.n.

Zatem, dla µXs p.w. x zachodzi

P (s, x, t,Γ) =

EP (u, y, t,Γ)P (s, x, u, dy). (5.5)

Jest to tzw. Równanie Chapmana-Kołmogorowa.

Wykazaliśmy, że istnieje funkcja (s, x, t,Γ) 7→ P (s, x, t,Γ) spełniająca warunki (i)-(iii), (v)i jest ona jednoznacznie określona z dokładnością do równości µXs p.w. oraz równanie (5.5)jest spełnione dla µXs p.w. x. W dalszej części wykładu będziemy zakładać, że funkcja P jestokreślona dla wszystkich x i równanie (5.5) zachodzi wszędzie. Funkcję P nazywa się wtedyfunkcją przejścia.

Definicja 5.6. (Funkcja przejścia) Niech (s, x, t,Γ) 7→ P (s, x, t,Γ) będzie funkcją określonąna (s, x, t,Γ) ∈ T × E × T × B : s ≤ t. Mówimy, że P jest funkcją przejścia jeżeli zachodząnastępujące warunki

(i) ∀s ≤ t, s, t ∈ T , ∀ x ∈ E P (s, x, t, ·) jest miarą probabilistyczną na (E,B),

(ii) ∀s ≤ t, s, t ∈ T , ∀ Γ ∈ B funkcja x 7→ P (s, ·, t,Γ) jest B mierzalna,

(iii) ∀ s ∈ T , ∀ x ∈ E P (s, x, s, ·) = δx,

(iv) ∀x ∈ E, ∀ s ≤ t, s, t ∈ T , ∀ Γ ∈ B zachodzi równanie Chapmana-Kołmogorowa (5.5).

Definicja 5.7. Proces X = (Xt)t∈T o wartościach w przestrzeni E, jest procesem Markowa zfunkcją przejścia P , jeżeli P spełnia warunki Definicji 5.6 i dodatkowo zachodzi(v) P (Xt ∈ Γ|FX

s ) = P (Xt ∈ Γ|Xs) = P (s,Xs, t,Γ) p.n. ∀s ≤ t, s, t ∈ T , Γ ∈ B.

Uwaga 5.8. Gdy X jest procesem Markowa względem filtracji większej niż (FXt )t∈T , to funkcja

przejścia pozostaje ta sama.

Definicja 5.9. Niech (Xt)t≥0 będzie procesem Markowa z funkcją przejścia P . Mówimy, żeproces X jest jednorodny (w czasie), jeżeli

P (s, x, t,Γ) = P (s+ h, x, t+ h,Γ)

dla wszystkich x ∈ E, s ≤ t, h > 0, s, t, s+ h, t+ h ∈ T , Γ ∈ B.

Page 40: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

40 ROZDZIAŁ 5. PROCESY MARKOWA - DEFINICJA I PROSTE WŁASNOŚCI

Funkcja przejścia zależy wtedy od trzech argumentów, będziemy ją wtedy pisać jako

P (t, x,Γ) := P (0, x, t,Γ) = P (h, x, t + h,Γ).

Uwaga terminologiczna: Proces Markowa z czasem dyskretnym nazywa się łańcuchem

Markowa. Jeżeli czas jest ciągły, np. T = R+, ale przestrzeń stanów E jest dyskretna, toodpowiednie procesy Markowa często nazywa się łańcuchami Markowa z czasem ciągłym.

5.3 Przykłady procesów Markowa

Przykład 5.10. Niech X0, ξ1, ξ2, . . . będą niezależnymi zmiennymi losowymi, X0 ma wartościw przestrzeni polskiej E, a ξ1, ξ2, . . . przyjmują wartości w pewnej przestrzeni E1. Ponadto,niech hn : E × E1 7→ E, n = 1, 2, . . . będą funkcjami mierzalnymi wzgl. odpowiednich σ-ciał.Definiujemy proces z czasem dyskretnym następująco:

Xn+1 = hn+1(Xn, ξn+1), n = 0, 1, 2, . . .

Proces X = (Xn)∞n=0 jest adaptowany do filtracji (Fn), gdzie F0 = σ(X0), Fn = σ(X0, ξ1, . . . , ξn),

n ∈ N. Ponadto, dla każdego Γ ∈ B zachodzi

P(Xn+1 ∈ Γ|Fn) = P (hn+1(Xn, ξn+1) ∈ Γ|Fn) = P(hn+1(x, ξn+1) ∈ Γ)

∣∣∣∣x=Xn

= P(Xn+1 ∈ Γ|Xn).

Zatem (Xn)∞n=0 jest łańcuchem Markowa (względem filtracji (Fn)

∞n=0) z funkcją przejścia w

jednym kroku postaci

P (n, x, n + 1,Γ) = P(hn+1(x, ξn+1) ∈ Γ).

Jeżeli ξ1, ξ2, . . . są i.i.d. oraz hn = h, nie zależy od n, to łańcuch Markowa (Xn) jest jednorodnyw czasie.

Przykład 5.11. Niech (Xt)t ∈ R+ będzie procesem o przyrostach niezależnych. Wówczas dladowolnych s ≤ t Zmienna losowa Xt −Xs jest niezależna od FX

s i mamy

P(Xt ∈ Γ|FXs ) = P((Xt−Xs)+Xs ∈ Γ|FX

s ) = P(Xt−Xs+x ∈ Γ)

∣∣∣∣x=Xs

= P(Xt ∈ Γ|Xs) p.n.

X jest procesem Markowa z funkcją przejścia

P (s, x, t,Γ) = P(x+Xt −Xs ∈ Γ).

Jeżeli dodatkowo X ma stacjonarne przyrosty, to X jest jednorodnym procesem Markowa.

W szczególności, proces Wienera W jest jednorodnym procesem Markowa z funkcją przejścia

P (t, x,Γ) =

Γ

1√2πt

e−(y−x)2

2t dy.

Page 41: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

5.4. ROZKŁADY SKOŃCZENIE WYMIAROWE PROCESU MARKOWA 41

Przykład 5.12. Proces Ornsteina-Uhlenbecka. Niech X będzie procesem spełniającym rów-nanie stochastyczne

dXt = −αXtdt+ dWt

Na ćwiczeniach wykazaliśmy, że proces X jest procesem Markowa i rozkład warunkowy Xt

pod warunkiem Xs = x jest rozkładem normalnym o średniej e−α(t−s)x i wariancji 1−e−2α(t−s)

2α .Proces ten jest jednorodny w czasie i ma funkcję przejścia

P (t, x,Γ) =

Γ

1√

2π 1−e−2αt

exp

(y − e−αtx)2

21−e−2αt

dy.

Później zobaczymy ogólniejszy fakt – przy założeniu istnienia i jednoznaczności rozwiązańodpowiedniego problemu martyngałowego, rozwiązania równań stochastycznych postaci

dXt = b(t,Xt)dt+ σ(t,Xt)dWt

są procesami Markowa.

W dwóch poprzednich przykładach funkcja przejścia miała postać

P (s, x, t,Γ) =

Γp(s, x, t, y)dy.

W takim przypadku p nazywa się gęstością przejścia.

5.4 Rozkłady skończenie wymiarowe procesu Markowa

Niech (Xt)t∈T będzie procesem Markowa względem (Ft) z funkcją przejścia P . Niech s ≤ t1 <t2 < . . . tn, s, t1, . . . , tn ∈ T . Korzystając ze wzoru (5.4) dla dowolnych funkcji borelowskich iograniczonych fj : E 7→ R, j = 1, . . . , n otrzymujemy

E (f1(Xt1) . . . fn(Xtn)|Fs) =E(E(f1(Xt1) . . . fn(Xtn)|Ftn−1

) ∣∣Fs

)

=E(f1(Xt1) . . . f(Xtn−1)E

(fn(Xtn)|Ftn−1

) ∣∣Fs

)

=E

f1(Xt1) . . . f(Xtn−1)

Efn(yn)P (tn−1,Xtn−1 , tn, dyn)

︸ ︷︷ ︸

=g(Xtn−1 )

∣∣∣∣∣Fs

przez indukcję

=

En

f1(y1) . . . fn−1(yn−1)fn(yn)P (tn−1, yn−1, tn, dyn)P (tn−2, yn−2, tn−1, dyn−1) . . . P (s,Xs, t1, dy1)

(5.6)W szczególności, kładąc fk = 11Γk

, Γk ∈ B, i oznaczając przez µXs rozkład zmiennej losowejXs otrzymujemy

Page 42: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

42 ROZDZIAŁ 5. PROCESY MARKOWA - DEFINICJA I PROSTE WŁASNOŚCI

Stwierdzenie 5.13. Założenia j.w. Wówczas dla dowolnych Γ1, . . . ,Γn ∈ B zachodzi

P (Xt1 ∈ Γ1, . . . ,Xtn ∈ Γn) =

E

Γ1

. . .

Γn−1

Γn

P (tn−1, yn−1, tn, dyn)

P (tn−2, yn−2, tn−1, dyn−1) . . . P (s, x, t1, dy1)µXs(dx). (5.7)

Gdy T = R+ lub T = Z+, zwykle powyższe stwierdzenie stosuje się dla s = 0. Wzór (5.7)opisuje rozkłady skończenie wymiarowe procesu Markowa. Otrzymujemy

Wniosek 5.14. Funkcja przejścia i rozkład początkowy jednoznacznie wyznaczają rozkłady skoń-czenie wymiarowe procesu Markowa.

Korzystając z twierdzenia Kołmogorowa o zgodnych rodzinach rozkładów (o istnieniu pro-cesu) łatwo jest wykazać:

Twierdzenie 5.15. Jeżeli P jest funkcją przejścia (patrz Definicja 5.6), a µ jest rozkładem pro-babilistycznym na E, to istnieje proces Markowa z funkcją przejścia P i rozkładzie początkowymµ.

W dowodzie definiuje się rodzinę rozkładów przy pomocy prawej strony (5.7) z s = 0i µs = µ. Warunki zgodności sprawdza się korzystając z równania Chapmana-Kołmogorowa. Ztwierdzenia Kołmogorowa wynika istnienie procesu o rozkładach skończenie wymiarowych po-staci (5.7). Jest jasne, że ten proces jest procesem Markowa z funkcją przejścia P . Korzystającz postaci rozkładów skończenie wymiarowych łatwo widać, że P(Xt ∈ Γ|Xs) = P (s,Xs, t,Γ) dlas < t i Γ ∈ B oraz, że spełniony warunek (7) z Twierdzenia 5.3.

Page 43: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 6

Jednorodne rodziny Markowa

6.1 Definicja jednorodnej rodziny Markowa

Od tej pory będziemy się zajmować wyłącznie procesami Markowa jednorodnymi w czasie. Dlauproszczenia zapisu założymy, że T = R+ lub Z+, ale wszystko się przenosi także na przedziaływ tych zbiorach. Rozważamy procesy Markowa przyjmujące wartości w przestrzeni polskiej(E,B).

Funkcja przejścia jest wtedy funkcją trzech zmiennych i przeformułowując odpowiednio De-finicję 5.6 mamy

Definicja 6.1. Niech (t, x,Γ) 7→ P (t, x,Γ) będzie funkcją określoną na T × E × B. Mówimy,że P jest jednorodną funkcją przejścia jeżeli zachodzą następujące warunki

(i) ∀ ∈ T , x ∈ E P (t, x, ·) jest miarą probabilistyczną na (E,B),

(ii) ∀t ∈ T , Γ ∈ B funkcja x 7→ P (s, ·, t,Γ) jest B mierzalna,

(iii) P (t, x, ·) = δx s ∈ T , x ∈ E,

(iv) ∀x ∈ E, s, t ∈ T , Γ ∈ B zachodzi równanie Chapmana-Kołmogorowa

P (t+ s, x,Γ) =

EP (s, y,Γ)P (t, x, dy) (6.1)

Przypomnijmy, że proces X = (Xt)t∈T określony na (Ω,F ,P) jest jednorodnym procesemMarkowa względem filtracji (Ft)t∈T z funkcją przejścia P , jeśli X jest adaptowany do (Ft)t∈Toraz

P(Xt ∈ Γ|Fs) = P (t− s,Xs,Γ) p.n. ∀ x ∈ E, ∀ s ≤ t, s, t ∈ T.

Definicja 6.2. Niech (Ω,F ) będzie przestrzenią mierzalną z filtracją (Ft)t∈T . Przypuśćmy,że dla każdego t ∈ T Xt : Ω 7→ E jest funkcją mierzalną (tj. zmienną losową) i dla każdegox ∈ E Px jest prawdopodobieństwem na (Ω,F ). Niech P : T ×E×B 7→ R+ będzie jednorodnąfunkcją przejścia.

Rodzinę ((Xt)t∈T , (Ft), (Px)x∈E) nazywamy jednorodną rodziną Markowa z funkcjąprzejścia P jeżeli

43

Page 44: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

44 ROZDZIAŁ 6. JEDNORODNE RODZINY MARKOWA

(i) dla każdego x ∈ E proces (Xt)t≥0 jest jednorodnym procesem Markowa względem (Ft)na przestrzeni probabilistycznej (Ω,F ,Px) z tą samą funkcją przejścia P ;

(ii) ∀x ∈ E Px(X0 = x) = 1.

Uwaga. Jeżeli P spełnia warunki (i)-(ii) Definicji 6.2 oraz X = (Xt)t∈R+ jest procesem stocha-stycznym określonym na (Ω,F ), adaptowanym do filtracji (Ft)t∈T , (Px)x∈E jest rodziną miarprobabilistycznych na (Ω,F ) takich, że dla każdego x ∈ E, s ≤ t, s, t ∈ T oraz Γ ∈ B

Px(Xt ∈ Γ|Fs) = P (t− s,Xs,Γ) p.n,

to P spełnia równanie Chapmana-Kołmogorowa (wynika z (5.5) i faktu, że Px(X0 = x))

Z Twierdzenia 5.15 wynika

Twierdzenie 6.3. Jeżeli przestrzeń E jest przestrzenią polską, to dla dowolnej jednorodnejfunkcji przejścia istnieje jednorodna rodzina Markowa z tą funkcją przejścia.

Za (Ω,B) przyjmuje się przestrzeń kanoniczną, tj. Ω = ET (wszystkie funkcje z T w E)z B – σ-ciałem generowanym przez cylindry. Jeśli T = R+ i rozważane procesy są ciągłe,to wystarczy ograniczyć się do funkcji ciągłych Ω = C([0,∞), E). Xt(ω) := ω(t) (proceskanoniczny), (Ft)t∈T – filtracja generowana przez (Xt)t∈T . Z twierdzenia Kołmogorowa (por.Tw 5.15) wynika istnienie miary probabilistycznej Px spełniającej wymagane warunki.

Przykład 6.4. Jednorodna rodzina Wienera.Niech Ω = C([0,∞)), F = σ-ciało generowane przez cylindry, Xt(ω) = ω(t), Ft = FX

t , P0 –miara Wienera (rozkład standardowego procesu Wienera, start z zera). Px = P0(A− x), gdzieA − x := ω : ω(t) = ω(t) − x, ω ∈ A. Wówczas ((Xt)t≥0, (Ft)t∈T , (Px)x∈E) jest jednorodnąrodziną Markowa z funkcją przejścia

P (t, x,Γ) =

Γ

1√2πt

e−(y−x)2

2t dy.

Z określenia Px jest jasne, że przy prawdopodobieństwie Px proces X ma ten sam rozkład coproces x+Wt, gdzie W jest standardowym procesem Wienera startującym z zera. Korzystającz niezależności przyrostów sprawdzamy własność Markowa i wyliczamy funkcję przejścia jak wPrzykładzie 5.11. Zauważmy, że rozkład przyrostu procesu (x + Wt)t≥0 nie zależy od x, więcfunkcja przejścia pozostaje taka sama.

W dalszej części wykładu będzie nam potrzebny następujący lemat:

Lemat 6.5. Niech ((Xt)t∈T , (Ft)t∈T , (Px)x∈E) będzie jednorodną rodziną Markowa. Wówczasdla każdego A ∈ FX

∞ := σ(Xt, t ∈ T ) funkcja

x 7→ Px(A)

jest mierzalna.

Page 45: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

6.2. OPERATOR PRZESUNIĘCIA 45

Dowód. Jeżeli A ma postać A = Xt1 ∈ Γ1, . . . ,Xtn ∈ Γn, gdzie t1 < t2 < . . . tn, Γ1, . . . ,Γn ∈B, to ze Stwierdzenia 5.13 mamy

Px(A) =

Γ1

. . .

Γn−1

Γn

P (tn − tn−1, yn−1, dyn)P (tn−1 − tn−2, yn−2, tn−1, dyn−1)

. . . P (t1, x, , dy1).

Mierzalność x 7→ Px(A) wynika więc z mierzalności funkcji y 7→ P (t, y,Γ) dla Γ ∈ B.Klasa zbiorów A powyższej postaci jest π-układem generującym FX

∞ , a klasa L = A :x 7→ Px(A) jest mierzalne jest λ-układem: Ω ∈ L, jeśli A ⊂ B, A,B ∈ L, to Px(B\A) =Px(B) − Px(B) jest mierzalne, jeżeli A1 ⊂ A2 ⊂ . . ., An ∈ L, to Px(

nAn) = limn→∞ Px(An)i punktowa granica funkcji mierzalnych jest mierzalna, więc

nAn ∈ L. Z twierdzenia o π iλ-układach wynika teza.

Ze wzoru (5.6) otrzymujemy, że dla każdego x ∈ E, n ∈ N i dowolnych s, t1, . . . , tn ∈ T orazΓ1, . . . ,Γn ∈ B zachodzi

Px(Xt1+s ∈ Γ1, . . . ,Xtn+s ∈ Γn|Fs) =Px(Xt1+s ∈ Γ1, . . . ,Xtn+s ∈ Γn|Xs)

=PXs(Xt1 ∈ Γ1, . . . ,Xtn ∈ Γn)

Ostatnie wyrażenie rozumiane jest następująco: wyliczamy najpierw Py(Xt1 ∈ Γ1, . . . ,Xtn ∈Γn) dla dowolnego y ∈ E, a następnie wstawiamy Xs zamiast y.

Przejście od jednorodnej rodziny Markowa do procesu Markowa

Niech (Xt)t∈T , (Ft)t∈T , (Px)x∈E) będzie jednorodną rodziną Markowa z funkcją przejścia P .Ponadto, niech µ będzie miarą probabilistyczną na (E,B). Połóżmy

Q(A) =

EPx(A)µ(dx) dla A ∈ F∞.

Wówczas Q jest miarą probabilistyczną na FX∞ , a proces X określony na (Ω,FX

∞ , Q) jestprocesem Markowa o tej samej funkcji przejścia P i rozkładzie początkowym µ.

6.2 Operator przesunięcia

Niech X = (Xt)t∈T będzie procesem stochastycznym określonym na (Ω,F ). Przypuśćmy po-nadto, że przestrzeń Ω jest taka, że ∀ ω ∈ Ω, t ∈ T , istnieje dokładnie jedno ω′ ∈ Ω takie,że Xt+·(ω) = X·(ω

′). W szczególności, jeśli Ω jest przestrzenią kanoniczną dla procesu X, np.Ω = ET , lub Ω = C(T,E) to tak jest. ω′ jw. będziemy oznaczać przez θtω. Mamy wtedy

Xt+·(ω) = X·(θtω) (6.2)

Tak zdefiniowane θt nazywa się operatorem przesunięcia (albo: translacji, ang. “shift”).Zobaczymy później, że założenie jednoznaczności ω′ takiego, że Xt+·(ω) = X·(ω

′) można opu-ścić.

Dla A ∈ Ω przez θ−1t A oznaczamy przeciwobraz zbioru A przy odwzorowaniu θt

θ−1t A = ω : θtω ∈ A

Page 46: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

46 ROZDZIAŁ 6. JEDNORODNE RODZINY MARKOWA

Przykład 6.6. 1) Niech

A = Xs1 ∈ Γ1, . . . ,Xsn ∈ Γn, n ∈ N, sj ∈ T, Γj ∈ B, j = 1, 2, . . . , n. (6.3)

Wtedy

θ−1t A = ω : Xs1(θtω) ∈ Γ1, . . . ,Xsn(θtω) ∈ Γn = ω : Xs1+t(ω) ∈ Γ1, . . . ,Xsn+t(ω) ∈ Γn.

(6.4)2) Jeśli A = ω : lims→∞Xs(ω) istnieje, to

θ−1t A = ω : lim

s→∞Xs(θtω) istnieje = ω : lim

s→∞Xs+t(ω) istnieje = A.

Stwierdzenie 6.7.θ−1t A : A ∈ F

X∞

= F

X≥t = σ(Xs : s ≥ t).

Dowód. OznaczmyG = A ⊂ F : θ−1

t A ∈ FX≥t.

FX≥t jest σ-ciałem, więc z własności przeciwobrazu wynika, że również G jest σ-ciałem. Z (6.2)

wynika, że zbiory postaci Xs1 ∈ Γ1, . . . ,Xsn ∈ Γn, gdzie sj ∈ T , Γj ∈ B, j = 1, 2, . . . , n należądo G i generują one FX

∞ , więc FX∞ ⊂ G . Mamy zatem zawieranie:

θ−1t A : A ∈ FX

⊂ FX

≥t.

W drugą stronę: rodzinaθ−1t A : A ∈ FX

⊂ FX

≥t jest σ-ciałem (jako przeciwobraz σ-ciałą) izawiera zbiory postaci Xt+s1 ∈ Γ1, . . . ,Xt+sn ∈ Γn generujące FX

≥t, więc zawiera FX≥t.

Stwierdzenie 6.8. Niech (Xt)t∈T , (Px)x∈E będzie jednorodną rodziną Markowa względem fil-tracji (Ft)t∈T . Wtedy dla każdego A ∈ FX

∞ , t ∈ T i x ∈ E zachodzi

Px(θ−1t A|Ft) = PXt(A). (6.5)

Dowód. Jeżeli A ma postać taką, jak w (6.3), to z (6.4) i własności Markowa oraz (5.6)

Px(θ−1t A|FX

t ) = Px(Xt+s1 ∈ Γ1, . . . ,Xt+sn ∈ Γn|FXt )

= Px(Xt+s1 ∈ Γ1, . . . ,Xt+sn ∈ Γn|Xt) = PXt(Xs1 ∈ Γ1, . . . ,Xsn ∈ Γn) = PXt(A).

Zatem (6.5) zachodzi dla A postaci (6.3). Teza wynika z lematu o π i λ-układach.

Oznaczenie. Niech ξ : Ω 7→ E1 będzie dowolną zmienną losową o wartościach w pewnejprzestrzeni E1. Definiujemy

θtξ(ω) = ξ(θtω).

Przykład 6.9. 1) θtXs(ω) = Xs(θtω) = Xs+t(ω).2) θt(f(Xs(ω))) = f(Xs(θtω)) = f(Xs+t(ω)).3) Niech A ∈ F , wówczas θt11A(ω) = 11A(θtω) = 11θ−1

t A(ω).

4) Niech Γ ∈ B i τ = infs ≥ 0 : Xs ∈ Γ, wtedy

θtτ(ω) = infs ≥ 0 : Xs(θtω) ∈ Γ = infs ≥ 0 : Xs+t(ω) ∈ Γ = infs ≥ t : Xs(ω) ∈ Γ − t.

Stwierdzenie 6.10. Jeżeli ξ jest zmienną losową FX∞ mierzalną, to θtξ jest FX

≥t mierzalne.

Page 47: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

6.2. OPERATOR PRZESUNIĘCIA 47

Dowód. Z założenia o mierzalności ξ, dla każdego zbioru B z odpowiedniego σ-ciała w prze-strzeni wartości ξ zachodzi

A := ω : ξ(ω) ∈ B ∈ FX∞ .

Ze Stwierdzenia 6.7 wynika, że θ−1t A ∈ FX

≥t. Z drugiej strony

θ−1t A = ω : θtω ∈ A = ω : ξ(θtω) ∈ B = ω : θtξ(ω) ∈ B.

Zatem dla każdego B z σ-ciała na przestrzeni stanów ω : θtξ(ω) ∈ B ∈ FX≥t, co oznacza, że

θtξ jest FX≥t mierzalna.

Twierdzenie 6.11. Niech (Xt)t∈T , (Px)x∈E będzie jednorodną rodziną Markowa względem (Ft)t∈T .Ponadto, niech ξ będzie zmienną losową (o wartościach rzeczywistych) FX

∞ mierzalną i ograni-czoną. Wówczas dla każdego t ∈ T oraz x ∈ E zachodzi

Ex(θtξ|Ft) = EXtξ.

Dowód. Wynika ze Stwierdzenia 6.8 i standardowego argumentu przez przybliżanie ξ zmien-nymi losowymi prostymi.

Uwaga 6.12. Do tej pory zakładaliśmy, że dla każdego ω ∈ Ω i t istnieje dokładnie jednoω′ ∈ Ω takie, że X·(ω

′) = Xt+·(ω), to ω′ oznaczaliśmy przez θtω. Okazuje się, że operatorprzesunięcia można także zdefiniować, gdy ω′ j.w. istnieje, ale nie ma jednoznaczności. Wtedykładziemy

[θtω] = ω′ ∈ Ω : Xt+·(ω) = X·(ω′).

Łatwo sprawdzić, rozważając najpierw zbiory postaci (6.3), że jeżeli A ∈ FX∞ , to albo [θtω] ⊂ A

albo [θtω] ∩ A = ∅. Podobnie, jeśli ξ jest zmienną losową FX∞ mierzalną i ω′, ω′′ ∈ [θtω],

to ξ(ω′) = ξ(ω′′). Zatem dla A ∈ FX∞ i ξ – zmiennej losowej FX

∞ mierzalnej poprawniezdefiniowane są

θ−1t A = ω : [θtω] ⊂ A

orazθtξ(ω) = ξ(ω′), ω′ ∈ [θtω].

Zachodzi także odpowiednik Stwierdzenia 6.8 i Twierdzenia 6.11.

Page 48: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

48 ROZDZIAŁ 6. JEDNORODNE RODZINY MARKOWA

Page 49: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 7

Mocna własność Markowa

7.1 Mocna własność Markowa

Jak poprzednio, zakładamy, że T = Z+,R+ lub przedział w którymś z tych zbiorów. Zajmujemysię jednorodnymi procesami Markowa o wartościach w przestrzeni polskiej (E,B).

Przypomnienie: Niech (Ft)t∈T będzie ustaloną filtracją. Proces (Xt)t∈T jest progresywniemierzalny, jeżeli dla każdego t ∈ T funkcja (s, ω) 7→ Xs(ω), jako funkcja z [0, t] × ω 7→ E jestmierzalna względem σ-ciała B([0, t]) ⊗ Ft.

Jeżeli czas jest dyskretny, to X jest progresywnie mierzalny wtedy i tylko wtedy, gdy jestadaptowany. W przypadku czasu ciągłego – każdy proces prawo- lub lewostronnie ciągły (owartościach w przestrzeni metrycznej) jest progresywnie mierzalny.

Jeżeli proces X jest progresywnie mierzalny i τ jest momentem zatrzymania, to Xτ jest Fτ

mierzalne na τ < ∞.Definicja 7.1. (a) Jednorodny proces Markowa (Xt)t∈T względem (Ft)t∈T z funkcją przejściaP nazywa się mocnym procesem Markowa jeżeli

(i) jest progresywnie mierzalny,

(ii) dla każdego momentu zatrzymania τ i dla każdej zmiennej losowej η : τ < ∞ 7→T ∪ +∞ Fτ mierzalnej oraz Γ ∈ B zachodzi

P(Xτ+η ∈ Γ|Fτ ) = P (η,Xτ ,Γ) p.n. na zbiorze τ < ∞ ∩ η < ∞. (7.1)

(b) Jednorodna rodzina Markowa (Xt)t∈T , (Px)x∈E nazywa się mocno Markowa jeżeli(Xt)t∈T jest mocnym procesem Markowa przy każdym Px.

Uwaga 7.2. (a) Warunek (7.1) dla τ i η nielosowych i skończonych, to po prostu własnośćMarkowa.(b) Warunek (7.1) można przeformułować równoważnie:Dla każdego momentu zatrzymania τ i dowolnej zmiennej losowej η : τ < ∞ 7→ T ∪ +∞Fτ mierzalnej oraz f : E 7→ R mierzalnej i ograniczonej zachodzi

E(Xτ+η ∈ Γ|Fτ ) =

Ef(y)P (η,Xτ , dy) p.n. na zbiorze τ < ∞ ∩ η < ∞. (7.2)

(c) Można wykazać, że jeżeli proces Makowa jest progresywnie mierzalny, to dla każdego Γ ∈ B

funkcja (t, x) 7→ P (t, x,Γ) jest mierzalna jako funkcja z T × E z σ-ciałem B(T )× B.

49

Page 50: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

50 ROZDZIAŁ 7. MOCNA WŁASNOŚĆ MARKOWA

Stwierdzenie 7.3. Jeżeli (Xt)t∈T jest jednorodnym procesem Markowa i τ i η przyjmują conajwyżej przeliczalną liczbę wartości, to (7.1) zachodzi.

Dowód. Niech S będzie zbiorem wartości skończonych τ i η. P (η,Xτ ,Γ) (określone na τ <∞ ∩ η < ∞) jest oczywiście Fτ mierzalne. Niech A ∈ Fτ . Wówczas

A∩τ<∞∩η<∞P (η,Xτ ,Γ)dP =

t∈S

u∈S

A ∩ η = u︸ ︷︷ ︸

∈Fτ

∩τ = t

︸ ︷︷ ︸∈Ft

P (u,Xt,Γ)dP

wł. Markowa=

t∈S

u∈S

A∩η=u∩τ=t11Xu+t∈ΓdP

=P(A ∩ η < ∞ ∩ τ < ∞ ∩ Xτ+η ∈ Γ).

Wniosek 7.4. Każdy łańcuch Markowa z czasem dyskretnym jest mocnym procesem Markowa.

Ostrzeżenie. Gdy czas jest ciągły, istnieją jednorodne procesy (rodziny) Markowa, które niesą mocno Markowa. Przykład na ćwiczeniach.

Podamy proste kryterium wystarczające na to aby proces Markowa był mocno Markowa wprzypadku, gdy czas jest ciągły (T = R+). Potrzebne nam będzie pojęcie półgrupy przejścia.

7.2 Półgrupy operatorów związane z procesami Markowa

Niech (E,B) będzie przestrzenią polską z σ-ciałem zbiorów borelowskich. T = Z+ lub T = R+.Niech P (·, ·, ·) będzie funkcją przejścia jednorodnej rodziny Markowa (Xt)t∈T , (Px)x∈E. PrzezBb(E) będziemy oznaczać zbiór funkcji mierzalnych i ograniczonych z E w R, a przez Cb(E)zbiór funkcji ciągłych i ograniczonych z E w R.

Definicja 7.5. Półgrupą przejścia związaną z jednorodną rodziną Markowa (albo: z funkcjąprzejścia) nazywamy rodzinę operatorów (Tt)t∈T z Bb(E) w siebie zdefiniowanych wzorem

Ttf(x) =∫

Ef(y)P (t, x, dy) = Exf(Xt). (7.3)

Uwaga 7.6. Półgrupa przejścia jednoznacznie wyznacza funkcję przejścia, gdyż Tt11Γ(x) =P (t, x,Γ).

Stwierdzenie 7.7. Półgrupa przejścia (Tt)t∈T ma następujące własności:

(1) Tt jest operatorem liniowym;

(2) ‖Ttf‖∞ ≤ ‖f‖∞ (Tt jest kontrakcją);

(3) Tt jest operatorem nieujemnym, tj. dla dowolnej funkcji f ∈ Bb(E), f ≥ 0 zachodziTtf ≥ 0;

Page 51: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

7.3. PÓŁGRUPY FELLEROWSKIE 51

(4) Tt11 = 11 (Tt zachowuje jedynkę, inaczej: Tt jest konserwatywna);

(5) T0 = Id;

(6) (Tt)t∈T jest półgrupą, tzn. dla s, t ≥ 0 zachodzi Ts+t = TtTs = TsTt.

Dowód. Własności te są oczywiste. Zauważmy tylko, że ostatnia wynika z równania Chapmana-Kołmogorowa (6.1):

Ts+tf(x) =

Ef(y)P (t+ s, x, dy) =

E

Ef(y)P (s, z, dy)P (t, x, dz) = Tt(Tsf(x)).

Definicja 7.8. Rodzinę operatorów spełniających warunki (1), (5) i (6) nazywa się półgrupąoperatorów.

7.3 Półgrupy fellerowskie

Definicja 7.9. Mówimy, że półgrupa przejścia jest fellerowska jeśli dla każdego Tt(Cb(E)) ⊂Cb(E).

Twierdzenie 7.10. Jeżeli (Xt)t∈R+ , (Px)x∈E, (FXt )t∈R+ jest jednorodną rodziną Markowa taką,

że proces (Xt)t∈R+ jest prawostronnie ciągły oraz półgrupa Tt związana z tą jednorodną rodzinąMarkowa jest fellerowska, to rodzina (Xt)t∈R+ , (Px)x∈E, (F

Xt+)t∈R+ jest mocno Markowa.

Uwaga 7.11. W tezie twierdzenia zwiększyliśmy filtrację. Otrzymując silniejszy wynik. Oczy-wiście, jeśli (Xt)t∈R+ jest mocno Markowa względem (FX

t+)t ∈ R, to tym bardziej względem(FX

t )t∈R+ .

Wniosek 7.12. Jeżeli przestrzeń stanów E jest co najwyżej przeliczalna z topologią dyskretną,to każda półgrupa przejścia jest fellerowska i każdy proces Markowa w takiej przestrzeni stanówjest mocno Markowa.

Wniosek wynika natychmiast z Twierdzenia 7.10, gdyż w dyskretnej przestrzeni stanówBb(E) = Cb(E).

Wniosek 7.13. Proces Poissona i proces Wienera są mocno Markowa.

Dla procesu Poissona – wynika z poprzedniego wniosku, dla procesu Wienera należy spraw-dzić fellerowskość - ćwiczenie.

Dowód Twierdzenia 7.10. Z założenia o prawostronnej ciągłości procesu wynika progre-sywna mierzalność. Dla uproszczenia notacji będziemy opuszczać indeks X przy FX

t i FXt+.

Krok 1. Zauważmy, iż wystarczy wykazać, że dla każdego τ – momentu zatrzymania względem(Ft+) i dla każdej η : τ < ∞ 7→ R+ ∪ ∞ Fτ+ mierzalnej, zbioru A postaci A = A1 ∩ τ <∞ ∩ η < ∞, A1 ∈ Fτ+ oraz dowolnej funkcji f ∈ Cb(E) zachodzi

Af(Xτ+η)dPx =

ATηf(Xτ )dPx. (7.4)

Rzeczywiście, z (7.4) otrzymamy (7.1) dla zbiorów Γ domkniętych: jeżeli Γ jest domknięty,to istnieje ciąg funkcji ciągłych fn taki, że fn(x) ց 11Γ, więc z twierdzenia o monotonicznej

Page 52: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

52 ROZDZIAŁ 7. MOCNA WŁASNOŚĆ MARKOWA

zbieżności z (7.4) otrzymamy (7.1) dla takich Γ. Dalej wystarczy zastosować lemat o π i λ-układach aby otrzymać (7.1) dla wszystkich Γ ∈ B(E).

Krok 2. Przypomnijmy, że ze Stwierdzenia 7.3 wiemy, że (7.4) zachodzi dla τ i η wzgl. (Ft)przyjmujących co najwyżej przeliczalną liczbę wartości, A ∈ Fτ .

Niech τ będzie dowolnym momentem zatrzymania względem (Ft)t∈R+ i niech η będzie Fτ+

mierzalne, η przyjmuje co najwyżej przeliczalną liczbę wartości, A ∈ Fτ+ . Definiujemy ciągprzybliżeń τ :

τn(ω) =

k2n

k−12n ≤ τ(ω) < k

2n

∞ τ(ω) = ∞,

k, n ∈ N. Wtedy τn ց τ i dla każdego n τn jest momentem zatrzymania względem (Ft), gdyż

τ < t =⋃

m

τ ≤ t− 1

m

︸ ︷︷ ︸

∈F(t−tm)+⊂Ft

∈ Ft oraz τn =k

2n = τ <

k

2n\τ <

k − 1

2n ∈ Ft.

Ponadto, Fτ+ ⊂ Fτn . Rzeczywiście, jeżeli B ∈ Fτ+ , to

B ∩ τ < t =⋃

m

(B ∩ τ ≤ t− 1

m)

︸ ︷︷ ︸

∈F(t− 1

m )+⊂Ft

∈ Ft.

Zatem

B ∩ τn =k

2n = (B ∩ τ <

k

2n)\(B ∩ τ <

k − 1

2n) ∈ F k

2n.

Wynika stąd, że B ∈ Fτn . Wykazaliśmy, że Fτ+ ⊂ Fτn .Zatem, przy takim przybliżeniu τ , τn jest momentem zatrzymania względem Ft, η jest Fτn

mierzalne oraz A ∈ Fτn . (7.4) zachodzi dla τn, η, A:∫

Af(Xτn+η)dPx =

ATηf(Xτn)dPx. (7.5)

Przypomnijmy, że τn ց τ . Z prawostronnej ciągłości procesu Xτn+η → Xτ+η p.n., więc,korzystając ciągłości funkcji f , mamy

Af(Xτn+η)dPx →

Af(Xτ+η)dPx.

Z drugiej strony, znów z prawostronnej ciągłości X Xτn → Xτ p.n., funkcja Tη(ω)f jest ciągła(założenie fellerowskości!), więc Tηf(Xτn) → Tη(Xτ ) p.n. Wszystko jest ograniczone, zatem

ATηf(Xτn)dPx →

ATηf(Xτ )dPx.

Przechodząc z n → ∞ w (7.5) otrzymujemy (7.4) w przypadku, gdy η przyjmuje co najwyżejprzeliczalną liczbę wartości, a τ jest dowolne (jak w twierdzeniu).

Krok 3. Przypuśćmy, że τ i η są dowolne, spełniające założenia twierdzenia. Przybliżmy ηciągiem

ηn(ω) =

k2n

k−12n ≤ η(ω) < k

2n

∞ η(ω) = ∞,

Page 53: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

7.4. MOCNA WŁASNOŚĆ MARKOWA A OPERATOR PRZESUNIĘCIA 53

Wtedy ηn jest Fτ+ mierzalne, bo ηn jest mierzalną funkcją η i η było Fτ+ mierzalne. Ponadtoηn ց η.

Z Kroku 2. otrzymujemy∫

Af(Xτ+ηn)dPx =

ATηnf(Xτ )dPx. (7.6)

Prawostronna ciągłość X i ciągłość f pociąga zbieżność∫

Af(Xτ+ηn)dPx →

Af(Xτ+η)dPx.

Z drugiej strony, zauważmy, że jeśli tn → t, to znów wykorzystując prawostronną ciągłość X

Ttn(x) = Exf(Xtn) → Exf(Xt) = Ttf(x).

ZatemTηnf(Xτ ) → Tηf(Xτ ) p.n.

Ponadto wyrażenie to jest zmajoryzowane przez ‖f‖∞. Ostatecznie, przechodząc z n → ∞ in(7.6) otrzymujemy (7.4).

7.4 Mocna własność Markowa a operator przesunięcia

Niech (Xt)t∈T , (Px)x∈E, (Ft)t∈T będzie jednorodną rodziną mocno Markowa. Zakładamy po-nadto, że Ω jest jak w Rozdziale 6.2 (zdefiniowany jest operator przesunięcia θt, t ∈ T ).

Niech τ : Ω 7→ T ∪ +∞ będzie mierzalne względem FX∞ i niech Ωτ := τ < ∞. Definiu-

jemy operator przesunięcia o τ dla ω ∈ Fτ , jako element θτ (ω) ∈ Ω kładąc θτ (ω) := θτ(ω)(ω),gdzie θt – zdefiniowany wcześniej operator przesunięcia o t. Innymi słowy, θτ spełnia

Xτ(ω)+t(ω) = Xt(θτω) ∀t ∈ T.

Dla A ∈ FX∞ oznaczamy

θ−1τ (A) = ω ∈ Ωτ : θτ ∈ A.

Jeżeli ξ jest zmienną losową FX∞ mierzalna, kładziemy

θτξ(ω) = ξ(θτω), dla ω ∈ Ωτ .

(Zdefiniowane tylko na Ωτ ).Uwaga. Podobnie jak na końcu Rozdziału 6.2, nawet jeśli nie ma jednoznaczności operatora

przesunięcia, to θ−1τ A i θτξ są dobrze zdefiniowane dla A ∈ FX

∞ i ξ FX∞ mierzalnej.

Przykład 7.14. 1) Jeżeli A = Xt ∈ Γ, to θ−1τ = τ < ∞,Xτ+t ∈ Γ.

2) Jeżeli B = ∀t ≥ 0 Xt ≥ 0, to θ−1τ = τ < ∞,∀t ≥ τ Xt ≥ 0.

3) Jeżeli τ = inft ≥ 0 : Xt ∈ Γ, to θττ = inft ≥ 0 : Xt+τ ∈ Γ = 0.4) Jeżeli τ j.w., σ = inft ≥ 0 : Xt ∈ Γ2, to θτσ = inft ≥ 0 : Xt+τ ∈ Γ2 = inft ≥ τ : Xt ∈Γ2 − τ .

Tak samo jak Stwierdzenia 6.7 i Twierdzenia 6.11, zamiast z własności Markowa korzystającz mocnej własności Markowa (7.1) dowodzi się

Page 54: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

54 ROZDZIAŁ 7. MOCNA WŁASNOŚĆ MARKOWA

Twierdzenie 7.15. Niech ((Xt)t∈T , (Px)x∈E , (Ft)t∈T ) będzie mocno Markowa i niech τ będziemomentem zatrzymania mierzalny względem (FX

∞), wtedy1) Dla każdego A ∈ FX

∞ i każdego x ∈ E zachodzi

Px(θ−1τ A|Fτ ) = PXτ (A) Px − p.n. na Ωτ .

2) Dla dowolnej zmiennej losowej ξ, mierzalnej względem FX∞ i ograniczonej zachodzi

Ex(θτξ|Fτ ) = EXτ (ξ) Px − p.n. na Ωτ .

W następnych podrozdziałach zobaczymy przykłady zastosowań mocnej własności Markowa.

7.5 Prawo 0–1 Blumenthala

Twierdzenie 7.16. Załóżmy, że (Xt)t∈R+ , (Px)x∈E jest jednorodną rodziną Markowa, X jestprawostronnie ciągłe i rodzina jest fellerowska. Wtedy

∀x ∈ E ∀A ∈ FX0+ Px(A) = 0 lub Px(A) = 1.

Dowód. Z Twierdzenia 7.10 wynika, że rodzina jest mocno Markowa względem filtracji (FXt+)t∈R+ .

Dla A ∈ FX0+ zachodzi

Px(A) =Px(A ∩ θ−10 A) = ExEx(11A11θ−1

0 A|FX0+)

=Ex(11AEx(11θ−10 A)|FX

0+) = Ex(11APX0(A)) = EX(11APx(A))

=(Px(A))2.

Zatem Px(A) = 0 lub Px(A) = 1.

7.6 Zasada odbicia dla procesu Wienera

Page 55: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 8

Regularność trajektorii procesów

Markowa

Niech E będzie przestrzenią polską z metryką ρ i niech P będzie funkcją przejścia. Oznaczmy

Uε(x) = y ∈ E : ρ(x, y) ≤ εoraz

αε(t) = supx∈E

sups≤t

P (s, x, U cε (x)).

Twierdzenie 8.1. (Dynkin-Kinney) Jeżeli

∀ε > 0 limt→0

1

tαε(t) = 0, (8.1)

to istnieje jednorodna rodzina Markowa z funkcją przejścia P o ciągłych trajektoriach.

Do dowodu potrzebne są następujące, nietrudne lematy:

Lemat 8.2. Jednorodna rodzina Markowa z funkcją przejścia spełniającą warunek

∀ε > 0 limt→0

αε(t) = 0,

jest jednostajnie stochastycznie ciągła.

Dowód – ćwiczenie. ( Korzystając z własności Markowa wykazuje się, że

Px(ρ(Xt,Xs) > ε) ≤ αε(|t− s|)).Lemat 8.3. Dla dowolnych t1 < t2 < . . . tn zachodzi

Px( maxt1,...,tn

ρ(Xtj ,Xt1) > ε) ≤ 2αε/2(tn − t1).

Dalej dowód istnienia modyfikacji ciągłej przebiega podobnie jak dowód twierdzenia Koł-mogorowa o istnieniu modyfikacji ciągłej procesu.

Twierdzenie 8.4. (Kinney) Jeżeli

∀ε > 0 limt→0

αε(t) = 0, (8.2)

to istnieje jednorodna rodzina Markowa z funkcją przejścia P o trajektoriach càdlàg, tj. prawo-stronnie ciągłych posiadających skończone lewostronne granice.

55

Page 56: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

56 ROZDZIAŁ 8. REGULARNOŚĆ TRAJEKTORII PROCESÓW MARKOWA

Page 57: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 9

Półgrupy operatorów związane z

procesami Markowa i generatory

infinitezymalne

Jak zwykle zakładamy, że przestrzeń stanów E jest polska, T = R+. B(E) oznacza przestrzeńfunkcji f : E 7→ R mierzalnych i ograniczonych, wyposażoną w normę supremum

‖f‖ := ‖f‖∞ = supx∈E

|f(x)| .

Przestrzeń (B(E), ‖·‖) jest przestrzenią Banacha.Niech P będzie funkcją przejścia jednorodnej rodziny Markowa (Xt)t∈R+ , (Px)x∈E . Przy-

pomnijmy, że półgrupa przejścia związana z P , to rodzina operatorów (Tt)t∈R+ zdefiniowanaprzez

Ttf(x) :=∫

Ef(y)P (t, x, dy) = Exf(Xt), f ∈ B(E).

Ma ona własności

(1) Tt jest operatorem liniowym;

(2) ‖Ttf‖ ≤ ‖f‖ (Tt jest kontrakcją);

(3) Tt jest operatorem nieujemnym, tj. dla dowolnej funkcji f ∈ Bb(E), f ≥ 0 zachodziTtf ≥ 0;

(4) Tt11 = 11 (Tt zachowuje jedynkę, inaczej: Tt jest konserwatywna);

(5) T0 = Id;

(6) (Tt)t∈T jest półgrupą, tzn. dla s, t ≥ 0 zachodzi Ts+t = TtTs = TsTt.

(Stwierdzenie 7.7).Zauważmy, że własności (1) i (2) implikują, że

‖Ttf − Ttg‖ ≤ ‖f − g‖ , f, g ∈ B(E).

57

Page 58: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

58 ROZDZIAŁ 9. PÓŁGRUPY I ICH GENERATORY

Wiele elementów omawianej niżej teorii można rozważać w sytuacji ogólniejszej: gdy (B, ‖·‖)jest dowolną przestrzenią Banacha, a (Tt)t≥0 półgrupą operatorów liniowych z B w siebie, tj.rodziną operatorów spełniającą warunki (1), (5) i (6).

Definicja 9.1. Załóżmy, że (B, ‖·‖) jest przestrzenią Banacha i (Tt)t≥0 jest półgrupą operatorówna przestrzeni B. Definiujemy

DA :=f ∈ B : limt→0+

Ttf − f

tw sensie normy wB,

Af := limt→0+

Ttf − f

t, dla f ∈ DA.

A nazywamy generatorem infinitezymalnym półgrupy (Tt)t≥0, a DA jego dziedziną.

Uwaga 9.2. (a) Zbieżność w powyższej definicji jest rozumiana w sensie normy w B, tj. ∃g ∈ B

takie, że limt→0+

∥∥∥Ttf−f

t − g∥∥∥ = 0.

Gdy (Tt)t≥0 jest półgrupą związaną z jednorodną rodziną Markowa (Xt)t≥0, (Px)x∈E , tof ∈ DA wtedy i tylko wtedy, gdy

Exf(Xt)− f(x)

t

zbiega przy t → 0+ jednostajnie względem x.(b) A jest operatorem liniowym, na ogół nieograniczonym i na ogół DA B.

Przykład 9.3. Jeżeli A : B 7→ B jest operatorem liniowym i ograniczonym, to

Tt := etA = Id+tA+t2A2

2+

t3A3

3!+ . . . ,

wtedy (Tt)t≥0 jest półgrupą i dla każdego f ∈ B zachodzi

limt→0+

∥∥∥∥

Ttf − f

t−Af

∥∥∥∥= 0.

W tym przypadku dziedziną jest całe B, (DA = B) i A jest generatorem infinitezymalnym Tt.

Przykład 9.4. Deterministyczny dryf w prawo.Rozważmy półgrupę związaną z funkcją przejścia procesu Markowa w E = R postaci

P (t, x,Γ) = 11Γ(x+ t),

tj. B = Bb(R) i dla f ∈ Bb(R) mamy Ttf(x) = f(x+t). Opisuje ona proces, w którym startującz x poruszamy się ruchem jednostajnym w prawo ze stałą prędkością równą 1.

Wtedy

DA = f ∈ Bb(R) :Ttf(x)− f(x)

tzbiega jednostajnie wzgl. x przy t → 0+.

W szczególności f ∈ DA musi mieć prawostronną pochodną w każdym punkcie i Af = d+fdx .

Jednak, wymaganie zbieżności jednostajnej względem x daje dodatkowe ograniczenia na f . Ze

Page 59: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

59

zbieżności jednostajnej wynika, że jeśli f ∈ DA, to istnieje C, takie że dla dostatecznie małycht

supx∈E

∣∣∣∣

f(x+ t)− f(x)

t

∣∣∣∣≤ C,

zatem f jest jednostajnie ciągła, f jest też ograniczona. Stąd, dla każdego t > 0 funkcja

f(·+ t)− f(·)t

jest jednostajnie ciągła i ograniczona. Jednostajna granica funkcji jednostajnie ciągłych i ogra-niczonych jest również jednostajnie ciągła i ograniczona. Zatem, jeśli f ∈ DA to d+f

dx istnieje ijest funkcją jednostajnie ciągłą i ograniczoną oraz

f(x) = f(0) +

∫ x

0

d+f

dy(y)dy, (9.1)

gdyż ze względu na jednostajną zbieżność i ograniczoność można wejść z granicą pod całkę:

∫ x

0

d+f

dy(y)dy =

∫ x

0limt→0+

f(y + t)− f(y)

tdy

= limt→0+

1

t

∫ x

0(f(y + t)− f(y))dy

= limt→0+

1

t

(∫ x+t

tf(y)dy −

∫ x

0f(y)dy

)

= limt→0+

1

t

∫ x+t

xf(y)dy − lim

t→0+

1

t

∫ t

0f(y)dy

=f(x)− f(0).

(9.1) i ciągłość pochodnej prawostronnej implikują, że f jest różniczkowalna.Wykazaliśmy zatem: jeżeli f ∈ DA, to f jest jednostajnie ciągła i ograniczona, f jest róż-

niczkowalna i jej pochodna jest jednostajnie ciągła i ograniczona. Klasę takich funkcji będziemyoznaczać przez C1

u.DA = C1

u, Af = f ′.

Przykład 9.5. (Ćwiczenie)Rozważmy rodzinę procesów deterministycznych

dXxt

dt= b(Xx

t ), Xx0 = x, (9.2)

gdzie b : Rd 7→ R jest funkcją klasy C1 o pochodnych cząstkowych ograniczonych. Wtedy dlakażdego x ∈ Rd równanie (9.2) ma dokładnie jedno rozwiązanie, a procesy (Xx

t ) są procesamiMarkowa z funkcją przejścia

P (t, x,Γ) = 11Γ(Xxt ).

Wtedy C1c (R

d) ⊂ DA i Af(x) =∑d

j=1 bj(x)∂f∂xj

(x) ( C1c (R

d)= funkcje klasy C1 o nośniku

zwartym).

Page 60: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

60 ROZDZIAŁ 9. PÓŁGRUPY I ICH GENERATORY

Przykład 9.6. (Ćwiczenie)Jeżeli (Wt), (Px)x∈Rd jest jednorodną rodziną Wienera w Rd, to C2

u(Rd) ⊂ DA oraz dla f ∈ DA

zachodzi

Af(x) =1

2∆f(x) =

1

2

d∑

j=1

∂2

∂x2jf(x).

Można pokazać, że gdy d = 1, to DA = C2u(R), a jeżeli d > 1, to C2

u(Rd) DA.

Niech (Tt)t≥0 będzie półgrupą na przestrzeni Banacha (B, ‖·‖). Oznaczmy

B0 = f ∈ B : limt→0+

Ttf − f = 0.

Oczywiście DA ⊂ B0.

Stwierdzenie 9.7. Niech (Tt)t≥0 będzie półgrupą kontrakcji na przestrzeni Banacha (B, ‖·‖).Wówczas

(i) B0 jest liniową domkniętą podprzestrzenią B.

(ii) Tt(B0) ⊂ B0 i dla każdego f ∈ B0 funkcja t 7→ Ttf jest jednostajnie ciągła na R+.

(iii) A(DA) ⊂ B0.

Dowód. (i): Liniowość B0 jest oczywista. Wykażemy, że B0 jest domknięte w B. Niechfn ∈ B0, fn → f . Wtedy

‖Ttf − f‖ ≤‖Ttf − Ttfn‖+ ‖Ttfn − fn‖+ ‖fn − f‖≤‖Tt‖ ‖fn − f‖+ ‖Ttfn − fn‖+ ‖fn − f‖≤2 ‖fn − f‖+ ‖Ttfn − fn‖ . (9.3)

Dla dowolnego ustalonego ε > 0 dobieramy najpierw n tak duże, by ‖fn − f‖ < ε (fn → f), anastępnie t0 takie, że dla t ≤ t0 zachodzi ‖Ttfn − fn‖ < ε. Tzn. ∀ε > 0 ∃t0 > 0, takie że dla0 ≤ t ≤ t0 ‖Ttf − f‖ < 2ε, czyli limt→0+ ‖Ttf − f‖ = 0. Zatem f ∈ B0.

(ii) Dla dowolnych t ≥ s ≥ 0 i f ∈ B0 zachodzi

‖Ttf − Tsf‖ = ‖Ts(Tt−sf − f)‖kontrakcja

≤ ‖Tt−sf − f‖ −−−−→t−s→0

0.

Stąd wynika jednostajna ciągłość funkcji t 7→ Ttf dla f ∈ B0. Ponadto, z poprzedniego, jeżelif ∈ B0, to dla każdego t ∈ R+

limh→0+

‖ThTtf − Ttf‖ = 0,

więc Ttf ∈ B0. Zatem Tt(B0) ⊂ B0.

(iii) Jest jasne, że DA ⊂ B0. Niech f ∈ DA. Z (i) i (ii) Ttf−ft ∈ B0 (bo Ttf ∈ B0 i B0 jest

liniowe), B0 jest domknięte, więc Af = limt→0+Ttf−f

t ∈ B0.

Page 61: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

61

Uwaga 9.8. (a) Założenie, że (Tt)t≥0 jest półgrupą kontrakcji można osłabić zakładając tylko,że półgrupa jest taka, że istnieje t0 > 0 takie, że

supt≤t0

‖Tt‖ < ∞.

W (9.3) mamy wtedy oszacowanie z 2 zastąpioną przez inną stałą, teza (i) się zachowuje. W (ii)otrzymujemy, że dla f ∈ B0 funkcja t 7→ Ttf jest ciągła w normie, ale niekoniecznie jednostajnieciągła. (iii) się zachowuje.

(b) Własność (ii) (albo słabiej, Tt(B0) ⊂ B0 i t 7→ Ttf jest ciągła w normie dla f ∈ B0)oznacza, że (Tt)t≥0 jest tzw. c0-półgrupą (silnie ciągłą półgrupą) na B0.

Twierdzenie 9.9. (Równanie Kołmogorowa) Niech (Tt)t≥0 będzie półgrupą kontrakcji orazf ∈ DA. Wtedy dla każdego t ≥ 0 Ttf ∈ DA, funkcja t 7→ Ttf jest różniczkowalna (w sensienormy), pochodna jest ciągła oraz

d

dtTtf = ATtf = TtAf. (9.4)

Równoważnie:

Ttf − f =

∫ t

0TsAfds =

∫ t

0ATsfds. (9.5)

Pierwsze równanie w (9.4) nazywa się równaniem Kołmogorowa wstecz, a drugie w przód.Dowód. Niech f ∈ DA. Dla t ≥ 0 i h > 0 mamy

∥∥∥∥

Tt+hf − Ttfh

− TtAf∥∥∥∥=

∥∥∥∥Tt(Thf − f

h−Af

)∥∥∥∥≤∥∥∥∥

Thf − f

h−Af

∥∥∥∥−−−−→h→0+

0

Stąd Ttf ∈ DA, ATtf = TtAf oraz istnieje pochodna prawostronna d+

dt Ttf = TtAf .Niech teraz t > 0, wykażemy, że T·f jest różniczkowalna w t. Wystarczy zbadać pochodną

lewostronną. Dla 0 < h < t mamy

∥∥∥∥

Tt−hf − Ttf−h

− TtAf∥∥∥∥=

∥∥∥∥Tt−h

(f − Thf

−h− ThAf

)∥∥∥∥

≤∥∥∥∥

Thf − f

h−Af

∥∥∥∥+ ‖ThAf −Af‖ −−−−→

h→0+0 (9.6)

W pierwszym składniku w (9.6) skorzystaliśmy z faktu, że f ∈ DA, a w drugim, że Af ∈ B0

dla f ∈ DA. Zatem, pochodna lewostronna istnieje i jest równa prawostronnej. Zachodziteż równanie (9.4). Pochodna jest jednostajnie ciągła, gdyż d

dtTtf = TtAf , Af ∈ B0, więct 7→ Tt(Af) jest jednostajnie ciągłe (Stwierdzenie 9.7).

Wniosek 9.10. Jeżeli f ∈ DA, to funkcja u(t, x) = Ttf(x) spełnia równanie paraboliczne

du

dt= Au, u(0, ·) = f.

Page 62: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

62 ROZDZIAŁ 9. PÓŁGRUPY I ICH GENERATORY

Wniosek 9.11. Niech W, (Px)x∈Rd będzie jednorodną rodziną Wienera Jeżeli f ∈ C2u to

u(t, x) = Exf(Wt) = E0f(x+Wt) =

Rd

1

(2πt)d/2f(y)e

(y−x)2

2t dy

spełnia równanie ciepła

∂u

∂t=

1

2∆u, u(0, x) = f(x) x ∈ Rd.

Wniosek 9.12. Niech (Xt)t∈R+ , (Px)x∈E będzie jednorodną rodziną Markowa względem filtracji(Ft)t∈R+ . Ponadto załóżmy, że proces X jest progresywnie mierzalny. Dla każdego f ∈ DA

zdefiniujmy

Mft = f(Xt)−

∫ t

0Af(Xs)ds.

Wówczas (Mft ,Ft)t∈R+ jest martyngałem względem każdej miary Px.

Dowód. Mft jest Ft-mierzalne (wynika z progresywnej mierzalności). Mf

t jest całkowalne, bof i Af są ograniczone.

Niech h ≥ 0, przypomnijmy też, że θt oznacza operator przesunięcia. Zachodzi

Ex(Mft+h|Ft) =Ex

(

f(Xt+h)−∫ t+h

0Af(Xs)ds

∣∣∣Ft

)

progres. mierz.= Ex

(

θtf(Xh)∣∣∣Ft

)

−∫ t

0Af(Xs)ds− Ex

(∫ t+h

tAf(Xs)ds

∣∣∣Ft

)

=Ex

(

θtf(Xh)∣∣∣Ft

)

−∫ t

0Af(Xs)ds− Ex

(

θt

∫ h

0Af(Xs)ds

∣∣∣Ft

)

wl. Markowa= EXtf(Xh)−

∫ t

0Af(Xs)ds− EXt

∫ h

0Af(Xs)ds

EXtf(Xh) = Thf(Xt) oraz Thf − f =∫ h0 TsAfds (z równania Kołmogorowa)

=f(Xt) +

∫ h

0TsAf(Xt)ds −

∫ t

0Af(Xs)ds −

∫ h

0EXtAf(Xs)︸ ︷︷ ︸

=TsAf(Xt)

ds

=f(Xt)−∫ t

0Af(Xs)ds.

Stwierdzenie 9.13. Jeżeli (A,DA) jest generatorem infinitezymalnym półgrupy związanej zjednorodną rodziną Markowa, to(i) 11 ∈ DA i A11 = 0,(ii) A spełnia zasadę maksimum: dla każdego f ∈ DA jeżeli x jest takie, że f(x) = supy∈E f(y),to Af(x) ≤ 0.

Page 63: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

63

Dowód. (ii)Ttf(x)− f(x)

t=Exf(Xt)− f(x)

t=Ex(f(Xt)− f(x))

t≤ 0,

więc granica przy t → 0, Af(x) ≤ 0.

Niech (Tt)t∈R+ będzie półgrupą kontrakcji. Dla dowolnego λ > 0 i f ∈ B0 definiujemy

Rλf =

∫ ∞

0e−λtTtfdt.

Rλf jest dobrze określone, bo ‖Ttf‖ ≤ ‖f‖, ponadto funkcja t 7→ Ttf jest ciągła. Dla każdegoλ Rλ jest operatorem liniowym. Rλ nazywa się rezolwentą.

Rezolwenta ma następujące własności:

Stwierdzenie 9.14. (i) ‖Rλ‖ ≤ 1λ ,

(ii) RλTtf = TtRλf ,

(iii)

Rλ1Rλ2f =Rλ2 −Rλ1

λ1 − λ2,

(iv) Rλ(B0) = DA i Rλ = (λI −A)−1, tj.

∀f ∈ B0 Rλf ∈ DA oraz (λI −A)Rλf = f (9.7)

∀f ∈ DA Rλ(λf −Af) = f. (9.8)

Dowód. (i) Niech f ∈ B0, wtedy

‖Rλf‖ ≤∫ ∞

0e−λt ‖f‖ dt = 1

λ‖f‖ .

(ii)

TtRλf = Tt∫ ∞

0e−λsTsfds =

∫ ∞

0e−λsTtTsfds =

∫ ∞

0e−λsTsTtfds = RλTtf.

Mogliśmy wejść z Tt pod całkę, bo Tt jest operatorem liniowym i ograniczonym, a całka jest wmocnym sensie (całka Bochnera).

(iii)

Rλ1Rλ2f =

∫ ∞

0

∫ ∞

0e−λ1t−λ2sTt+sfdsdt

=

∫ ∞

0

∫ ∞

te−λ1t−λ2(s−t)Tsfdsdt

=

∫ ∞

0

∫ s

0e−λ1t+λ2tdte−λ2sTsfds

=1

λ2 − λ1

∫ ∞

0(e−λ1s − e−λ2s)Tsfds

=Rλ1 −Rλ2

λ2 − λ1.

Page 64: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

64 ROZDZIAŁ 9. PÓŁGRUPY I ICH GENERATORY

(iv) (9.7): Niech f ∈ B0. Z (ii)

TtRλ −Rλf

t=1

t

(∫ ∞

0e−λsTs+tfds−

∫ ∞

0Tsfds

)

=1

t

(

eλt∫ ∞

te−λsTsfds−

∫ ∞

0e−λsTsfds

)

=1

t(eλt − 1)

∫ ∞

tTsfds−

1

t

∫ t

0Tsfds

−−−→t→0+

λRλf − f w normie.

W ostatnim składniku użyliśmy faktu, że dla f ∈ B0 funkcja s 7→ Tsf jest ciągła w normie.

Dowód (9.8):Niech f ∈ DA. Wtedy

RλAf =

∫ ∞

0e−λtTtAfdt =

∫ ∞

0e−λt d

dtTtfdt

=[

e−λtTtf]∞

0+

∫ ∞

0λe−λtTtfdt = −f + λRλf.

Otrzymaliśmy: Rλ(λI −A)f = f .

Stwierdzenie 9.15. B0 = DA, gdzie DA oznacza domknięcie DA w B0.

Dowód. Z poprzedniego Stwierdzenia wiemy, że DA = Rλ(B0) dla każdego λ > 0. Wystarczyzatem wykazać, że dla każdego f ∈ B0 λRλf → f gdy λ → ∞, bo to oznacza, że mamy ciągaproksymujący f elementami z DA.

Dla dowolnego h > 0 mamy

‖λRλf − f‖ =

∥∥∥∥λ

∫ ∞

0e−λtTtfdt− f

∥∥∥∥=

∥∥∥∥λ

∫ ∞

0(e−λtTtf − f)dt

∥∥∥∥

≤λ

∫ h

0e−λt ‖Ttf − f‖ dt+ 2λ ‖f‖

∫ ∞

he−λtdt

≤ supt≤h

‖Ttf − f‖+ 2 ‖f‖ e−λh. (9.9)

Zatem limλ→0 ‖λRλf − f‖ = 0 (Dla ustalonego ε > 0 wystarczy najpierw dobrać h dostateczniemałe, żeby pierwszy składnik w (9.9) był < ε/2 – ciągłość t 7→ Ttf , a następnie λ dostatecznieduże, aby drugi składnik < ε/2).

Stwierdzenie 9.16. A jest operatorem domkniętym.

Przypomnienie: A jest operatorem domkniętym jeżeli ma wykres domknięty, tzn. zachodziimplikacja: jeżeli fn ∈ B0, fn → f oraz Afn → g, to f ∈ DA oraz Af = g.

Dowód – ćwiczenie.

Stwierdzenie 9.17. Generator infinitezymalny (DA, A) wyznacza jednoznacznie półgrupę Ttna B0.

Page 65: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

65

Wniosek 9.18. Generator infinitezymalny jednorodnej rodziny Markowa wyznacza jednoznacz-nie funkcję przejścia o ile tylko B0 jest dostatecznie bogata. Np. dla procesów o wartościach wRd wystarczy aby B0 zawierało funkcje jednostajnie ciągłe.

Dowód Stwierdzenia 9.17. A wyznacza λI − A dla każdego λ, wyznacza więc rezolwentęRλ = (λI −A)−1. Wykażemy, że rezolwenta jednoznacznie wyznacza Ttf dla każdego f ∈ B0.

Wiadomo, że jeżeli funkcje h1, h2 : R+ 7→ R są ciągłe i ograniczone i takie, że jeżeli∫∞0 e−λth1(t)dt =

∫∞0 e−λth2(t)dt dla każdego λ > 0, to h1 ≡ h2. Stąd łatwo wynika, że

jeśli F i G : R+ 7→ B0 są ciągłe i ograniczone (w normie) i zachodzi∫ ∞

0e−λth1(t)dt =

∫ ∞

0e−λth2(t)dt dla każdego λ > 0 (9.10)

to F ≡ G, gdyż dla każdego ϕ ∈ B∗0 z (9.10) wynika, że

∫∞0 e−λtϕ(F (t))dt =

∫∞0 e−λtϕ(G(t))dt,

stąd ϕ(F ) ≡ ϕ(G) dla dowolnego ciągłego funkcjonału liniowego ϕ, więc F ≡ G.

Wykazaliśmy, że jeżeli (DA, A) jest generatorem infinitezymalnym ciągłej półgrupy kontr-akcji na B0, to DA = B0, istnieje operator odwrotny do λI −A, Rλ = (λI −A)−1 i ‖Rλ‖ ≤ 1

λ .Okazuje się, że są to warunki konieczne i dostateczne na to aby (DA, A) było generatoremciągłej półgrupy kontrakcji na B0:

Twierdzenie 9.19. (Hille-Yosida) Niech B0 będzie przestrzenią Banacha, A operatorem li-niowym z dziedziną DA. A jest generatorem infinitezymalnym ciągłej półgrupy kontrakcji wtedyi tylko wtedy gdy

(1) DA = B0,

(2) ∀λ > 0 istnieje (λI −A)−1 =: Rλ na B0,

(3) ‖Rλ‖ ≤ 1λ , ∀λ > 0.

Ponadto, jeśli B0 ⊂ B(E), to dodatkowo zachodzi:

(i) Tt jest dodatnia wtedy i tylko wtedy, gdy (λI −A)−1 jest dodatnie.

(ii) Tt11 = 11 ∀t wtedy i tylko wtedy, gdy 11 ∈ DA oraz A11 = 0.

Dowód opuszczamy. Również bez dowodu podamy dwa kolejne stwierdzenia.

Stwierdzenie 9.20. Jeżeli (Xt)t∈R+ , (Px)x∈E jest jednorodną rodziną Markowa w przestrzenipolskiej (E, ρ), taką że X jest jednostajnie stochastycznie ciągły, tj.

∀ε > 0 limt→0

supx∈E

P (t, x,Bc(x, ε)) = 0, gdzie B(x, ε) = y : ρ(x, y) ≤ ε,

to Cu ⊂ B0.

Stwierdzenie 9.21. Niech (Xt)t∈R+ , (Px)x∈E będzie jednorodną rodziną Markowa w przestrzenimetrycznej zwartej E. Jeżeli B0 ⊃ Cu(E) (⇔ DA jest gęste w Cu(E)), to proces X jestjednostajnie stochastycznie ciągły.

Page 66: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

66 ROZDZIAŁ 9. PÓŁGRUPY I ICH GENERATORY

Page 67: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 10

Łańcuchy Markowa z czasem ciągłym

Niech E będzie przestrzenią co najwyżej przeliczalną z topologią dyskretną. Niech (Xt)t∈R+ , (Px)x∈Ebędzie jednorodną rodziną Markowa z funkcją przejścia P . Będziemy używać oznaczenia pi,j(t) =P (t, i, j). Zakładamy, że proces X ma trajektorie prawostronnie ciągłe. Oznaczmy też

τi = inft ≥ 0 : Xt 6= i.

Uwaga: z prawostronnej ciągłości oraz faktu, że topologia E jest dyskretna wynika, żePi(τi > 0) = 1 (nie możemy od razu wyskoczyć z i).

Ponieważ E jest dyskretna, to (Xt), (Px) jest fellerowska, a więc ma mocną własność Mar-kowa (nawet względem filtracji FX

t+).

Twierdzenie 10.1. (i) Dla każdego i ∈ E istnieje λi ∈ [0,∞) takie, że

Pi(τi > t) = e−λit.

(ii) Jeżeli λi > 0, to przy Px τi jest niezależne od Xτi

Oznacza to, że jeśli proces jest w stanie i to pozostaje tam przez czas wykładniczy z para-metrem λi jeśli λi > 0 albo na zawsze pozostaje w stanie i – jeśli λi = 0.Dowód. (i) τi jest momentem zatrzymania względem FX

t . Pokażemy, że dla dowolnych s, t > 0zachodzi

Pi(τi > s+ t) = Pi(τi > t)Pi(τi > s). (10.1)

Zauważmy, że

θtτi(ω) = τi(θtω) = infu ≥ 0 : Xu+t(ω) 6= i = infu ≥ t : Xs(ω) 6= i − t (10.2)

Mamy

Pi(τi > t+ s) =Pi(τi > t, infu ≥ t : Xu 6= i > s+ t)

=Pi(τi > t, θtτi > s)

=Ei

(11τi>tPi(θtτi > s|FX

t ))

=Ei (11τi>tPXt(τi > s))

=Ei (11τi>tPi(τi > s))

=Pi(τi > t)Pi(τi > s)

67

Page 68: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

68 ROZDZIAŁ 10. ŁAŃCUCHY MARKOWA Z CZASEM CIĄGŁYM

Otrzymaliśmy własność braku pamięci (10.1). Zatem albo Pi(τi > t) = 0 dla wszystkich t > 0(ten przypadek wykluczamy ze względu na prawostronną ciągłość procesu – nie może od razuwyskoczyć), albo istnieje λi ∈ [0,∞), takie że Pi(τi > t) = e−λit.

(ii) Pokażemy

Pi(τi > t,Xτi ∈ Γ) = Pi(τi > t)Pi(Xτi ∈ Γ), t ∈ R+,Γ ∈ B(E). (10.3)

Skorzystamy znów z (10.2). Zauważmy, że na zbiorze τi > t zachodzi θtτi = τi − t. Zatem, naτi > t mamy

θtXτi(ω) = Xτi(θtω)(θt(ω)) = Xτi(ω)−t(θtω) = Xτi(ω)−t+t(ω) = Xτi(t).

To jest intuicyjnie jasne – jeśli w chwili t τi jeszcze nie zaszło, to patrząc na łańcuch, jako procesrozpoczynający się w chwili t, nadal czekamy na moment wyjścia z i i przeskok następuje w tosamo miejsce.

Stąd

Pi(τi > t,Xτi ∈ Γ) =Pi(τi > t, θtXτi ∈ Γ) = Ei11τi>tPi(θtXτi ∈ Γ|FXt )

=Ei11τi>tPXt(Xτ ∈ Γ) = Ei11τi>tPi(Xτ ∈ Γ).

Otrzymujemy (10.3).Niech λi będą jak w poprzednim twierdzeniu, ponadto, niech qi,j = Pi(Xτi = j). Połóżmy

aij =

−λi i = j

λiqij i = j

Załóżmy dodatkowo, żeλ := sup

i∈Eλi < ∞ (10.4)

i zdefiniujmyAf(i) =

j∈E

aijf(j), f ∈ B(E). (10.5)

Twierdzenie 10.2. Załóżmy, że zachodzi (10.4), wówczas A zdefiniowane przez (10.5) jest ge-neratorem infinitezymalnym półgrupy związanej z odpowiednią rodziną Markowa. Jego dziedzinąjest całe B(E).

Dowód. Zauważmy, że z założenia (10.4) wynika, że A jest dobrze określone na B(E) i jestoperatorem liniowym i ograniczonym.

Niech σ = inft ≥ 0 : Xt 6= X0 będzie momentem pierwszego skoku łańcucha Markowa Xi niech σ2 = inft ≥ σ : Xt 6= Xσ oznacza moment drugiego skoku. Zauważmy, że

θσσ(ω) = inft ≥ 0 : Xt(θσω) 6= X0(θσω) = inft ≥ 0 : Xt+σ(ω)(ω) 6= Xσ(ω)(ω)= inft ≥ σ(ω) : Xt(ω) 6= Xσ(ω)(ω) − σ(ω) = σ2(ω)− σ(ω).

PonadtoPj(σ ≤ t) = 1− e−λjt ≤ λjt ≤ λt

Page 69: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

69

oraz

Pi(σ2 ≤ t) ≤ Pi(σ ≤ t, σ2 − σ︸ ︷︷ ︸

=θσσ

≤ t) = EiPi(σ ≤ t, θσσ|FXσ ) = Ei(11σ≤t PXτ (σ ≤ t)

︸ ︷︷ ︸

≤λt

) ≤ λ2t2.

Niech f ∈ B(E), wtedy

Ttf(i) =Eif(Xt) = Pi(σ > t)f(i) + Ei11σ≤t,σ2>tf(Xσ) + Ei11σ2≤tf(Xt)

=e−λitf(i) + Ei11σ≤tf(Xσ)− Ei11σ2≤tf(Xσ) + Ei11σ2≤tf(Xt)

=(1− λit)f(i) + (1− e−λit)∑

j 6=i

qi,jf(j) +R1(i)

=(1− λit)f(i) + λit∑

j 6=i

qi,jf(j) +R(i, t)

gdzie supi |R(i, t)| ≤ 4λ2t2 ‖f‖. Stąd

supi

∣∣∣∣

Ttf(i)− f(i)− tAf(i)

t

∣∣∣∣

=supi

∣∣∣∣

−λitf(i) + λit∑

j 6=i qi,jf(j)− taiif(i)− t∑

i 6=j aijf(j) +R(i, t)

t

∣∣∣∣

=supi

|R(i, t)|t

≤ 4λ2t −−−→t→0+

0.

Uwaga. Jeżeli P jest funkcją przejścia łańcucha Markowa z czasem ciągłym, tolimt→0+

P (t,i,i)−1t = −λi, limt→0+

P (t,i,j)t = λiqij. Można to wykazać nawet bez założenia

(10.4).

Rozkład niezmienniczy

Definicja 10.3. Mówimy, że miara probabilistyczna µ na E jest rozkładem niezmienniczymprocesu Markowa z funkcją przejścia P jeżeli

EP (t, x,Γ)µ(dx) = µ(Γ), Γ ∈ B(E), (10.6)

tzn, jeżeli proces Markowa X startuje z rozkładu µ (X0 ∼ µ), to Xt ∼ µ dla każdego t ≥ 0.

Jeżeli E jest przeliczalna, to warunek pisze się w postaci∑

i

µiP (t, i, j) = µj

gdzie µi = µ(i).Przypuśćmy, że zachodzi warunek (10.4). Z równania Kołmogorowa d

dtTtf = ATtf dlaf = 11j otrzymujemy

d

dtP (t, i, j) =

k

aikP (t, k, j). (10.7)

Page 70: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

70 ROZDZIAŁ 10. ŁAŃCUCHY MARKOWA Z CZASEM CIĄGŁYM

Niech µ będzie rozkładem prawdopodobieństwa na E. Mnożąc obie strony równania (10.7)przez µi i sumując po i dostajemy

i

µid

dtP (t, i, j) =

i

µi

k

aikP (t, k, j).

Jeżeli zachodzi (10.4), to po lewej można wyjść z pochodną przed sumę, a po prawej zamienićkolejność sumowania:

d

dt

(∑

i

µiP (t, i, j))

=∑

k

i

µiaikP (t, k, j). (10.8)

Jeżeli µ jest takie, że∑

i µiaij = 0 dla każdego j, to

d

dt

(∑

i

µiP (t, i, j))

= 0,

a więc µ jest rozkładem niezmienniczym.Z drugiej strony, jeśli µ jest rozkładem niezmienniczym, to lewa strona (10.8) jest równa

zero dla wszystkich t, a więc też dla t = 0, tj.

0 =∑

i

µiaij

Wykazaliśmy:

Twierdzenie 10.4. Jeżeli zachodzi (10.4), to µ jest rozkładem niezmienniczym wtedy i tylkowtedy, gdy

i

µiaij = 0 ∀j ∈ E. (10.9)

Korzystając z postaci generatora infinitezymalnego (10.9) można przepisać jako

µjλj =∑

i 6=j

µiλiqij j ∈ E

intensywność wyjścia z j = intensywność wejścia do j.

Warunek (10.4) da się nieco osłabić.

Twierdzenie 10.5. Załóżmy, że (Xt)t∈R+ , (Pi)i∈E jest prawostronnie ciągłą jednorodną ro-dziną Markowa o wartościach w co najwyżej przeliczalnej, dyskretnej przestrzeni E. Ponadtozałóżmy, że rodzina jest nieprzywiedlna, tj. P (t, i, j) > 0 ∀t > 0, i, j ∈ E i istnieje rozkładniezmienniczy µ. Wówczas

limt→∞

P (t, i, j) = µj =1

λjEjσj,

gdzie σj jest momentem pierwszego powrotu do j, σj = inft ≥ σ : Xt = j, jak poprzednio, σjest momentem wyjścia ze stanu początkowego.

Page 71: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

71

Bez założenia istnienia miary niezmienniczej można wykazać

Twierdzenie 10.6. Dla dowolnych stanów stanów i, j ∈ E, gdzie j nie jest stanem pochłania-jącym, zachodzi

limt→∞

P (t, i, j) = Pi(σj < ∞)

λjEjσj.

Jeżeli limt→∞ P (t, i, j) > 0, to średni czas powrotu do j jest skończony.Dowody Twierdzeń 10.5 i 10.6 można znaleźć np. w [K] (Thm. 12.15 i 12.26).

Page 72: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

72 ROZDZIAŁ 10. ŁAŃCUCHY MARKOWA Z CZASEM CIĄGŁYM

Page 73: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 11

Procesy dyfuzji

Ważną klasę procesów Markowa stanowią procesy dyfuzji. Są one związane z rozwiązaniamirównań stochastycznych.

11.1 Definicja procesu dyfuzji

Załóżmy, że dane są ciągłe funkcje Rd ∋ x 7→ b(x) = (bi(x))di=1 ∈ Rd oraz Rd ∋ x 7→ a(x) =

(aij(x))di,j=1 ∈ – macierze d× d symetryczne nieujemnie określone.

Definiujemy operator różniczkowy

Lf(x) =1

2

d∑

i,j=1

aij(x)∂2f

∂xi∂xj(x) +

d∑

i=1

bi(x)∂f

∂xi(x). (11.1)

Przez C20 (R

d) oznaczamy klasę funkcji Rd 7→ R klasy C2 o nośniku zwartym. Jak zwykle(A,DA) jest generatorem infinitezymalnym odpowiedniej jednorodnej rodziny Markowa.

Definicja 11.1. Jednorodną rodzinę Markowa (Xt)t∈R+ , (Px)x∈Rd nazywamy procesem dyfuzjiz operatorem tworzącym L jeżeli X jest procesem ciągłym, a ponadto C2

0 (Rd) ⊂ DA oraz dla

każdego f ∈ C20 (R

d) zachodzi Af = Lf .

Uwaga 11.2. (a) Można się zastanawiać jakie operatory różniczkowe L mogą być operatoramitworzącymi procesów dyfuzji. Zauważmy, że skoro A11 = 0, L nie może mieć wyrazu wolnego.A spełnia zasadę maksimum, więc macierz a(x) musi być nieujemnie określona. Z tego samegopowodu L nie może mieć pochodnych stopnia wyższego niż 2.(b) L jest operatorem lokalnym.(c) b nazywa się współczynnikiem dryfu, a a – współczynnikiem dyfuzji.(d) W niektórych książkach w definicji procesu dyfuzji nie zakłada się ciągłości a i b, a tylkolokalną ograniczoność.

11.2 Interpretacja współczynników dryfu i dyfuzji

Będziemy używać następujących oznaczeń:

Uδ(x) = y : |y − x| ≤ δ, U cδ (x) = y : |y − x| > δ, δ > 0, x ∈ Rd.

73

Page 74: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

74 ROZDZIAŁ 11. PROCESY DYFUZJI

Stwierdzenie 11.3. Niech a, b jw, i niech niech (Xt)t∈R+ , (Px)x∈Rd będzie jednorodną rodzinąMarkowa na Rd, ponadto załóżmy że dla każdego δ > 0, przy t → 0 jednostajnie względemx ∈ Rd zachodzą warunki:

P (t, x, U cδ (x)) =o(t), (11.2)

Uδ(x)(yi − xi)P (t, x, dy) =bi(x)t+ o(t), i = 1, . . . , d (11.3)

Uδ(x)(yi − xi)(yj − xj)P (t, x, dy) =aij(x)t+ o(t), i, j = 1, . . . d. (11.4)

Ponadto, niech∑d

i=1 aii(x) będzie ograniczone. Wówczas DA ⊂ C2u(R

d) oraz Af = Lf dlaf ∈ C2

u(Rd).

Uwagi. Warunek (11.2) pociąga istnienie modyfikacji procesu X o ciągłych trajektoriach.(11.3) może być zapisane jako

Ex(Xt − x)11Uδ(x) = b(x)t+ o(t),

lewa strona jest uciętą średnią, ale z warunku (11.2) wynika, że dla małych czasów X jest zbardzo dużym prawdopodobieństwem w Uδ(x). Tj. dla małych czasów średnia wartość prze-sunięcia w czasie t jest proporcjonalna do t, ze współczynnikiem proporcjonalności b(x). Stądb nazywa się współczynnikiem dryfu. Podobnie warunek (11.3) opisuje zachowanie kowariancjiprzesunięcia dla małych czasów – współczynnik dyfuzji a mierzy rozproszenie.

Dowód. Niech f ∈ C2u(R

d), ε > 0. Wtedy istnieje δ > 0 takie, że dla |x− y| < δ zachodzi

|f(x)− f(y)|+d∑

i=1

∣∣∣f ′

xi(x)− f ′

xj(y)∣∣∣ +

d∑

i,j=1

∣∣∣f ′′

xixj(x)− f ′′

xixj(y)∣∣∣ < ε

(Dla skrótu używamy oznaczeń f ′xi

= ∂f∂xi

, f ′′xixj

= ∂2f∂xi∂xj

)

Ustalmy h takie, że dla t ≤ h wszystkie o(t) w (11.2)-(11.4) są co do modułu ≤ εt. Wtedy

1

t(Ttf(x)− f(x))− Lf(x)

=1

t

Uδ(x)(f(y)− f(x))P (t, x, dy) − Lf(x)

︸ ︷︷ ︸

=:I

+1

t

Ucδ(x)

(f(y)− f(x))P (t, x, dy)

︸ ︷︷ ︸

=:II

Z (11.2) dla t ≤ h mamy

|II| ≤ 2

t‖f‖P (t, x, Uδ(x)) ≤

2

t‖f‖ εt ≤ 2 ‖f‖ ε.

Aby oszacować I korzystamy z rozwinięcia Taylora

f(y)− f(x) =d∑

i=1

f ′xi(x)(yi − xi) +

1

2

d∑

i,j=1

f ′′xixj

(x)(yi − xi)(yj − xj) +R(x, y) |y − x|2

Page 75: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

11.3. PROCESY DYFUZJI A ROZWIĄZANIA RÓWNAŃ STOCHASTYCZNYCH 75

gdzie |R(x, y)| ≤ Cε, gdy |y − x| < δ.Zatem, korzystając z (11.3) i (11.4) otrzymujemy

|I| ≤2ε+ ε1

t

Uδ(x)|y − x|2 P (t, x, dy) = 2ε+ Cε

d∑

i=1

(aii(x) + o(t))

=(2 + C)ε+ Cεd∑

i=1

aii(x),

Stąd i z ograniczoności∑

i aii(x) oraz oszacowania |II| i dowolności ε dostajemy tezę.

Stwierdzenie 11.4. Niech a, b jak wyżej, ale nie zakładamy ograniczoności śladu a, (Xt)t∈R+ ,(Px)x∈Rd będzie jednorodną rodziną Markowa taką, że warunki (11.2)-(11.4) zachodzą niemaljednostajnie (jednostajnie na każdym zbiorze zwartym), a ponadto dla każdego K ⊂ Rd zwartegoistnieje zbiór zwarty K ′ ⊂ Rd, taki że K ⊂ K ′ i limt→0 supx∈K ′c

1tP (t, x,K) = 0. Wówczas

C20 (R

d) ⊂ DA i Af = Lf dla f ∈ C20 (R

d).

Dowód. Niech f ∈ C20 (R

d), K = supp f . Do K dobieramy zbiór zwarty K ′ jak w założeniu.Wtedy

∥∥∥∥

1

t(Ttf − f)− Lf

∥∥∥∥≤ sup

x∈K ′

∣∣∣∣

1

t(Ttf(x)− f(x))− Lf(x)

∣∣∣∣+ sup

x∈K ′c

∣∣∣∣

1

tTtf(x)

∣∣∣∣.

Jak w dowodzie poprzedniego stwierdzenia, pierwszy składnik po prawej dąży do zera gdyt → 0 (a jest ciągłe, więc ślad a jest ograniczony na K ′). Drugi składnik szacuje się przez‖f‖ 1

tP (t, x,K), więc również dąży do zera.

11.3 Procesy dyfuzji a rozwiązania równań stochastycznych

Przypomnijmy, że jeżeli (W,X) jest słabym rozwiązaniem równania stochastycznego

dXt = b(Xt)dt+ σ(Xt)dWt, X0 = x (11.5)

to rozkład X jest rozwiązaniem problemu martyngałowego (x, a, b), gdzie a = σσT i na odwrót– rozwiązaniom problemu martyngałowego odpowiadają rozkładom rozwiązań równań stocha-stycznych (Twierdzenie 3.4).

Niech (Xt)t∈R+ , (Px)x∈Rd będzie procesem dyfuzji. Wówczas z Wniosku (9.12) wynika, żedla każdej funkcji f ∈ C2

0 (Rd) i przy każdym Px proces

Mft = f(Xt)−

∫ t

0Lf(Xs)ds

jest martyngałem startującym z f(x). Zatem rozkład X przy Px na przestrzeni kanonicznejC([0,∞),Rd) jest rozwiązaniem problemu martyngałowego (x, a, b).

Na ćwiczeniach widzieliśmy, że rozwiązania równań stochastycznych postaci (11.5) są pro-cesami Markowa. Zachodzi też twierdzenie ogólniejsze:

Page 76: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

76 ROZDZIAŁ 11. PROCESY DYFUZJI

Twierdzenie 11.5. Załóżmy, że a i b są lokalnie ograniczonymi funkcjami mierzalnymi takimi,że dla każdego x ∈ Rd istnieje dokładnie jedno rozwiązanie Px problemu martyngałowego (x, a, b)oraz, że dla każdego A ∈ B(Rd) odwzorowanie x 7→ Px(Xt ∈ Γ) jest mierzalne, gdzie X jestprocesem kanonicznym. Wówczas (Xt)t≥0, (Px)x∈Rd jest jednorodną rodziną mocno Markowa zfunkcją przejścia P (t, x,Γ) = Px(Xt ∈ Γ). Ponadto, jeżeli a i b są ciągłe i ograniczone, topółgrupa Ttf(x) := Exf(Xt) jest fellerowska.

Dowód można znaleźć np. w [RY], Thm. IX.1.9 oraz [K] Thm. 21.11.

Gdy już wiemy, że rodzina (Xt)t∈R+ , (Px)x∈Rd z Twierdzenia 11.5 jest jednorodną rodzinąMarkowa, sprawdzenie, że jest ona procesem dyfuzji (gdy a i b ciągłe) z operatorem tworzącymL jest bardzo łatwe: Z założenia wiemy, że dla każdego f ∈ C2

0 (Rd) proces f(Xt) =

∫ t0 Lf(Xs)ds

jest martyngałem przy każdym Px, startującym z f(x), zatem

Ttf − f = Exf(Xt)− f(x) = Ex

∫ t

0Lf(Xs)ds =

∫ t

0TsLf(x)ds. (11.6)

Lf ∈ C0, bo f ma nośnik zwarty i a, b są ograniczone na nośniku f . Z (11.6) wynika zatem, żef ∈ B0. Wykazaliśmy, że C2

0 ⊂ B0, ale B0 jest podprzestrzenią domkniętą, więc C0 ⊂ B0. Wszczególności, jeśli f ∈ C2

0 , to Lf ∈ B0. Dalej, używając znów (11.6) otrzymujemy

∥∥∥∥

Ttf(x)− f(x)

t− Lf(x)

∥∥∥∥=

1

t

∥∥∥∥

∫ t

0(TsLf − Lf)ds

∥∥∥∥≤ sup

s≤t‖TsLf − Lf‖ −−→

t→00. (11.7)

Ostatnia zbieżność wynika z faktu, że Lf ∈ B0. (11.7) pokazuje, że C20 ⊂ DA oraz Af = Lf

dla f ∈ C20 .

Page 77: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 12

Wzór Feynmana-Kaca

W tym rozdziale rozważamy procesy o wartościach w przestrzeni polskiej E z metryką ρ. Za-kładamy, że (Xt)t≥0, (Px)x∈E jest jednorodną rodziną Markowa z półgrupą przejścia (Tt) danąwzorem Ttf(x) = Exf(Xt) o generatorze infinitezymalnym (A,DA).

Zaczniemy od lematu pomocniczego, prawdziwego dla dowolnych półgrup kontrakcji

Lemat 12.1. Niech Tt będzie półgrupą kontrakcji na B(E) i niech f ∈ DA. Wówczas funkcjau(t, x) = Ttf(x) jest rozwiązaniem równania

∂u

∂t(t, x) =Au(t, x)

u(0, x) =f(x).

Ponadto, u(t, x) = Ttf(x) jest jedynym rozwiązaniem ograniczonym i takim, że ∂u∂t jest ciągłą

funkcją z R+ w B(E).

Dowód. Z równania Kołmogorowa wstecz (Twierdzenie 9.9) wiemy, że u(t, x) = Ttf(x) spełniarównanie i ∂u

∂t jest ciągła w normie supremum. Należy pokazać jednoznaczność.

Ze względu na liniowość A wystarczy wykazać, że jeżeli u jest ograniczone, ∂u∂t : R+ 7→ B(E)

ciągłe i u spełnia ∂u∂t = Au, u(0, x) = 0, to u ≡ 0. Z warunku ciągłości w B(E) funkcji ∂u

∂t itwierdzenia Lagrange’a wynika, że u : R+ 7→ B(E) jest ciągła (w silnym sensie - w normie sup)oraz ∂u

∂t istnieje w sensie normy.Ustalmy dowolne λ > 0 i oznaczmy v(t, x) = e−λtu(t, x). Z założenia, że u jest rozwiązaniem,

mamy u(t, ·) ∈ DA, więc również v(t, ·) ∈ DA ∀t ≥ 0. Ponadto

∂v

∂t= −λe−λtu(t, x) + e−λtAu(t, x) = −(λI −A)v(t, x).

Stąd

v(t, x) = −Rλ

(∂v

∂t(t, ·)

)

.

Całkując po [0, t] i korzystając z faktu, że Rλ jest operatorem ograniczonym, więc można gowynieść przed całkę otrzymujemy

∫ t

0v(s, x)ds = −

∫ t

0Rλ

(∂v

∂s(s, ·)

)

ds = −Rλ

∫ t

0

(∂v

∂s(s, ·)

)

ds = −Rλv(t, ·). (12.1)

77

Page 78: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

78 ROZDZIAŁ 12. WZÓR FEYNMANA-KACA

u jest ograniczone i λ > 0, więc limt→∞ ‖v(t, ·)‖ = 0. Zatem, z (12.1) i ograniczoności Rλ

wynika, że∫∞0 v(s, x)ds = 0, tj.

∫∞0 e−λsu(s, x) = 0. λ > 0 było dowolne, u ciągła ograniczona,

więc musi być u ≡ 0.

Twierdzenie 12.2. (Wzór Feynmana-Kaca) Niech (Xt)t∈R+ , (Px)x∈E będzie jednorodnąrodziną Markowa prawostronnie ciągłą i jednostajnie stochastycznie ciągłą, tj.

limt→0

αε(t) = 0 ∀ε > 0, (12.2)

gdzie αε(t) = sups≤t supx∈E P (s, x, U cε (x)). Niech c : R 7→ C będzie funkcją jednostajnie ciągłą

i ograniczoną. Wówczas dla każdego f ∈ DA funkcja

u(t, x) = Exe∫ t

0c(Xs)dsf(Xt)

jest jedynym rozwiązaniem równania

∂u

∂x(t, x) =Au(t, x) + c(x)u(t, x) (12.3)

u(0, x) =f(x)

w klasie funkcji u takich, że supx∈E |u(t, x)| ≤ Ceβt, gdzie C, β są pewnymi stałymi dodatnimi,oraz u i ∂u

∂t są ciągłe jako funkcje z R+ w B(E).

Uwaga 12.3. (a) Warunek (12.2) już implikuje, że proces X ma modyfikację prawostronnieciągłą.(b) Jeżeli c = 0, to Twierdzenie 12.2 zawiera Lemat 12.1.(c) c i f mogą przyjmować wartości zespolone. W szczególności twierdzenie może służyć np.do znajdowania rozkładu

∫ t0 g(Xs)ds, gdy położyć f ≡ 1 i c = izg(x). u(t, x) jest wtedy

funkcją charakterystyczną u(t, x) = Exeiz

∫ t0 g(Xs)ds. Można również znajdować łączny rozkład

(∫ t0 g(Xs)ds,Xt).

Dowód. Dla f ∈ B(E) definiujemy

Ttf(x) = Ex

(

e∫ t

0c(Xs)dsf(Xt)

)

.

Tt jest operatorem liniowym i ograniczonym (c ograniczone ). Na ogół nie jest to kontrakcja,ale zachodzi ∥

∥∥Ttf

∥∥∥ ≤ eβt ‖f‖ ,

gdzie β = supxℜc(x). Oczywiście T0f = f . Ponadto, Tt jest półgrupą:

Tt+sf(x) =Exe∫ t0 c(Xu)duEx

(

e∫ t+st

c(Xu)duf(Xt+s)|FXt

)

=Exe∫ t0c(Xu)duEx

(

θte∫ s0c(Xu)duf(Xs)|FX

t

)

=Exe∫ t

0c(Xu)du EXt

(

e∫ s

0c(Xu)duf(Xs)

)

︸ ︷︷ ︸

=Tsf(Xs)

=TtTsf(x).

Page 79: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

79

Mimo iż (Tt) nie jest półgrupą kontrakcji, można zdefiniować generator infinitezymalny tejpółgrupy (A,DA) (por. Uwaga 9.8) i zachodzi równanie Kołmogorowa.

Wykażemy, że DA = DA oraz Af = Af + cf . Najpierw pokażemy, że B0 = B0. Zauważmy,że Ttf − f = Ttf − Ttf + Ttf − f oraz

∥∥∥Ttf − Ttf

∥∥∥ = sup

x

∣∣∣Ex

(

e∫ t

0c(Xs)ds − 1

)

f(Xt)∣∣∣ ≤ ‖f‖ e‖c‖t ‖c‖ t −−→

t→00. (12.4)

Skorzystaliśmy tu z oszacowania |ey − 1| ≤ e|y| |y| dla y =∫ t0 c(Xs)ds, |y| ≤ ‖c‖ t. Z (12.4)

otrzymujemy

limt→0

∥∥∥Ttf − f

∥∥∥ = ⇔ lim

t→0

∥∥∥Ttf − f

∥∥∥ = 0,

zatem rzeczywiście B0 = B0.

Aby udowodnić, że DA = DA i Af = Af+cf (a w konsekwencji, że u(t, x) = Ttf(x) spełniarównanie (12.3)) wystarczy pokazać, że dla każdego f ∈ B0 zachodzi

1

t

(

Ttf(x)− Ttf(x))

−−→t→0

c(x)f(x) jednostajnie wzgl. x ∈ E.

Mamy∣∣∣∣∣

Ttf(x)− Ttf(x)t

− c(x)f(x)

∣∣∣∣∣=

∣∣∣∣∣Ex

e∫ t

0c(Xs)ds − 1

tf(Xt)− c(x)f(x)

∣∣∣∣∣

używając e∫ t0 c(Xs)ds − 1 =

∫ t0 c(Xs) + R(t), gdzie R(t) = eϑ

∫ t0 c(Xs)ds (

∫ t0 c(Xs)ds)2

2 dla pewnego

ϑ ∈ (0, 1), |R(t)| ≤ e‖c‖t (‖c‖t)2

2

≤∣∣∣∣Ex

(1

t

∫ t

0c(Xs)dsf(Xt)− c(x)f(Xt)

∣∣∣∣

)

︸ ︷︷ ︸

=:I(x)

+ |c(x)Ex(f(Xt)− f(x))|︸ ︷︷ ︸

=:II(x)

+ e‖c‖t‖c‖2 t2

‖f‖︸ ︷︷ ︸

−−→t→0

0

.

Korzystając z założenia, że f ∈ B0 mamy

supx

II(x) ≤ ‖c‖ ‖Ttf − f‖ −−→t→0

0.

Aby oszacować I użyjemy jednostajnej ciągłości c i jednostajnej stochastycznej ciągłości X.Ustalmy dowolne ε > 0 i niech δ > 0 będzie takie, że |c(x)− x(y)| ≤ ε dla wszystkich ρ(x, y) ≤ δ.Wówczas

supx

I(x) ≤Ex1

t

∫ t

0|c(Xs)− c(x)| ds11supu≤t ρ(Xu,x)≤δ ‖f‖

+ Ex1

t

∫ t

0|c(Xs)− c(x)| ds11supu≤t ρ(Xu,x)>δ ‖f‖

≤ε ‖f‖+ 2 ‖c‖ ‖f‖P (supu≤t

ρ(Xu, x) > δ). (12.5)

Page 80: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

80 ROZDZIAŁ 12. WZÓR FEYNMANA-KACA

Zachodzi Lemat (ćwiczenie): Jeżeli (Xt), (Px) jednorodna rodzina Markowa prawostronnie cią-gła i jednostajnie stochastycznie ciągła (tj. dla każdego ε > 0 limt→0 αε(t) = 0), to

Px

(

supu≤t

ρ(Xu, x) > δ

)

≤ 2αδ/2(t).

Z powyższego lematu i (12.5) otrzymujemy

supx

I(x) ≤ ε ‖f‖+ 2 ‖c‖ ‖f‖ 2αδ/2(t) −−→t→0

0,

co kończy dowód (12.4).

Jednoznaczność. Jeżeli ℜc ≤ 0, to Tt jest półgrupą kontrakcji, a więc z Lematu 12.1u(t, x) = Ttf(x), f ∈ DA = DA jest jedynym ograniczonym rozwiązaniem równania (12.3) wklasie funkcji u takich, że u ograniczone i ∂u

∂t ciągłe z R+ w B(E). Należy pozbyć się warunkusupxℜc(x) ≤ 0 i rozszerzyć klasę funkcji do funkcji o wzroście co najwyżej wykładniczym.

Niech u będzie rozwiązaniem równania (12.3). Dla dowolnego β > 0 oznaczmy uβ(t, x) =e−βtu(t, x). Wówczas

∂uβ∂t

(t, x) = Auβ(t, x) + (c(x) − β)uβ(t, x) uβ(0, x) = f(x). (12.6)

Dla dostatecznie dużych β zachodzi supxℜ(c(x)− β) ≤ 0 (c ograniczone) oraz supt ‖uβ(t, ·)‖ <∞. u spełnia (12.3) wtedy i tylko wtedy, gdy uβ spełnia (12.6). Zatem jednoznaczność rozwią-zania (12.6) w klasie funkcji ograniczonych pociąga jednoznaczność rozwiązania (12.3) w klasiefunkcji o wzroście co najwyżej wykładniczym.

W przypadku procesów dyfuzji i f ∈ C20 równanie (12.3) jest równaniem różniczkowym

cząstkowym. Twierdzenie można zapisać w następującej formie:

Twierdzenie 12.4. Niech (Xt)t≥0, (Px)x∈Rd będzie procesem dyfuzji z operatorem tworzącymL, niech c : Rd 7→ C będzie funkcją jednostajnie ciągłą i ograniczoną i f ∈ C2

0 (Rd). Wtedy

funkcja

u(t, x) = Exe∫ t

0c(Xs)f(Xt) (12.7)

spełnia równanie

∂u

∂t(t, x) = Lu(t, x) + c(x)u(t, x), u(0, x) = f(x). (12.8)

Na odwrót, jeśli u klasy C1,2 spełnia równanie (12.8) i jest takie, że dla każdego t ∈ [0, t)supx∈Rd sups≤t |u(s, x)| < ∞, to u ma postać (12.7).

W tym przypadku aby pokazać, że każde rozwiązanie ma postać (12.7) pokazuje się łatwo

kładąc h(s, x) = u(t − s, x), pisząc wzór Ito dla e∫ t0 c(Xs)dsh(t,Xt) i obkładając otrzymane

wyrażenie wartością oczekiwaną (w razie potrzeby, należy wykonać procedurę lokalizacji).

Wracamy do przypadku dowolnych rodzin Markowa (niekoniecznie procesów dyfuzji). Roz-ważymy uogólnienie równania (12.3). W tym celu przyda się następujący lemat:

Page 81: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

81

Lemat 12.5. Niech (Tt) będzie półgrupą kontrakcji w B(E), g ∈ B0. Wówczas v(t, x) =∫ t0 Tsg(x)ds jest jedynym o wzroście co najwyżej liniowym rozwiązaniem równania

∂v

∂t= Av(t, x) + g(x), v(0, x) = 0,

takim, że v i ∂v∂t : R+ 7→ B(E) są ciągłe.

Dowód – ćwiczenie.Łącząc powyższy lemat z Twierdzeniem 12.2 nietrudno pokazać

Twierdzenie 12.6. Jeżeli (Xt)t∈R+ , (Px)x∈E jest jednorodną rodziną Markowa prawostronnieciągłą i ∀ε > 0 limt→0 αε(t) = 0, c jest funkcją ograniczoną i jednostajnie ciągłą, g ∈ B0 orazf ∈ DA, to

w(t, x) = Ex

(

e∫ t

0c(Xs)dsf(Xt) +

∫ t

0e∫ s

0c(Xr)drg(Xs)ds

)

jest rozwiązaniem równania

∂w

∂t= Aw(t, x) + c(x)w(t, x) + g(x), v(0, x) = f.

Rozwiązanie to jest jedyne w klasie funkcji w spełniających: supx |w(t, x)| ≤ eβt, w, ∂w∂t : R+ 7→B(E) ciągłe.

Page 82: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

82 ROZDZIAŁ 12. WZÓR FEYNMANA-KACA

Page 83: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Rozdział 13

Procesy dyfuzji i zagadnienie Dirichleta

Niech (Xt)t≥0, (Px)x∈Rd będzie procesem dyfuzji z operatorem tworzącym

Lf(x) =d∑

i=1

bi(x)∂f

∂xi(x) +

d∑

i,j=1

ai,j(x)∂2f

∂xi∂xj(x)

(a, b ciągłe).

Stwierdzenie 13.1. Dla każdego f ∈ C20(R

d) i τ – momentu zatrzymania takiego, że Exτ < ∞zachodzi

Ex

(

f(Xτ )−∫ τ

0Lf(Xs)

)

ds = f(x).

Dowód. Jeżeli f ∈ C20 to f(Xt) −

∫ t0 Lf(Xs)ds jest martyngałem, więc z twierdzenia Dooba

mamy

Ex

(

f(Xt∧τ )−∫ t∧τ

0Lf(Xs)ds

)

= f(x).

Przechodzimy z t → ∞. W drugim wyrażeniu po lewej stronie równości stosujemy majoryzację

∣∣∣∣

∫ t∧τ

0Lf(Xs)ds

∣∣∣∣≤∫ τ

0|Lf(Xs)| ds ≤ ‖Lf‖∞ τ.

Z założenia Exτ < ∞. Zatem, z twierdzenia o zmajoryzowanej zbieżności otrzymujemy tezę.

Niech D ⊂ Rd będzie zbiorem otwartym i niech

τD = inft ≥ 0 : Xt /∈ D.

Dc jest domknięty i X jest procesem ciągłym, więc τD jest martyngałem. Zajmiemy się terazodpowiedzią na pytanie kiedy ExτD < ∞.

Twierdzenie 13.2. Załóżmy, że istnieje zbiór otwarty D′ taki, że D ⊂ D′ i funkcja f klasyC2 na D′ oraz liczba c > 0 takie, że f ≥ 0 na D, oraz Lf ≤ −c na D, to dla każdego x ∈ Dzachodzi

ExτD < ∞.

83

Page 84: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

84 ROZDZIAŁ 13. PROCESY DYFUZJI I ZAGADNIENIE DIRICHLETA

Dowód. Będziemy pisać τ zamiast τD.Krok 1. Przypuśćmy najpierw, że D jest ograniczone. Funkcję f można rozszerzyć do

funkcji f ∈ C20 tak, że f(x) = f(x) dla x ∈ D. Wówczas, dla x ∈ D, Af(x) = Lf(x) = Lf(x)

(L jest operatorem lokalnym). Zachodzi

f(x) = Ex f(Xt∧τ︸ ︷︷ ︸

∈D

)

︸ ︷︷ ︸

≥0

−Ex

∫ t∧τ

0Lf(Xs)︸ ︷︷ ︸

≤−c

ds ≥ c Ext ∧ τ.

Z twierdzenia o zbieżności monotonicznej, przechodząc z t → ∞ otrzymujemy Exτ ≤ f(x)c ,

zatem teza zachodzi.Krok 2. Jeżeli D jest dowolny, niekoniecznie ograniczony, kładziemy DN = D ∩ x : |x| <

N. Jeżeli x ∈ D, to dla dostatecznie dużych N x ∈ DN i z oszacowania w pierwszej częścimamy

ExτDN≤ f(x)

c.

Jeżeli N → ∞, to τDNր τD, więc z twierdzenia o monotonicznej zbieżności ExτD ≤ f(x)

c <∞.

Stwierdzenie 13.3. Załóżmy, że istnieje R > 0 takie, że dla każdego x ∈ D |x1| < R (Dzawiera się w pasie). Ponadto, załóżmy, że dla pewnych α,B > 0 zachodzi a11(x) ≥ α > 0 oraz|b1(x)| ≤ B ∀x ∈ D. Wówczas dla każdego x ∈ D

ExτD < ∞.

Wniosek 13.4. Jeżeli D jest zbiorem ograniczonym i istnieje j takie, że aj,j(x) > 0 na D, todla każdego x ∈ D zachodzi ExτD < ∞.

Dowód Stwierdzenia 13.3. Niech r > 0. Oznaczmy f(x) = cosh(rR) − cosh(rx1), gdziecoshu = eu+e−u

2 . Oczywiście f(x) ≥ 0 dla x takich, że |x1| ≤ R. Pokażemy, że można takdobrać r, że Lf ≤ −c dla pewnego c > 0.

Lf(x) = −1

2a11(x)r

2 cosh(rx1)− b1(x)r sinh(rx1)

(sinhu = eu−e−u

2 ). Korzystając z założeń o a i b mamy

−Lf(x) ≥ 1

2αr2 cosh(rx1)−Br |sinh(rx1)| = r(

α

2r−B) cosh(rx1)+Br(cosh(rx1)−|sinh(rx1)|)

Zawsze coshx ≥ |sinhx| oraz cosh ≥ 1, więc wystarczy wziąć r takie, że α2 r > B aby zachodziło

Lf(x) ≤ −c < 0.

Zagadnienie brzegowe Dirichleta

Niech D będzie zbiorem otwartym, g : D 7→ R ciągła, ϕ : ∂D 7→ R ciągła. Szukamy vtakiego, że

Lv(x) = g(x) x ∈ D

v ciągłe na D

v(x) = ϕ(x) x ∈ ∂D

(13.1)

Page 85: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

85

Twierdzenie 13.5. Załóżmy, że D ⊂ Rd jest zbiorem otwartym i ograniczonym oraz ExτD <∞. Ponadto załóżmy, że funkcje g : D 7→ R oraz ϕ : ∂D 7→ R są ciągłe. Niech v będzierozwiązaniem zagadnienia (13.1), które przedłuża się w klasie C2 na pewien zbiór otwarty D′ ⊃D. Wówczas dla każdego x ∈ D zachodzi

v(x) = Ex

(

ϕ(XτD ) +

∫ τD

0g(Xs)ds

)

. (13.2)

Dowód. Gdy x ∈ ∂D wzór (13.2) zachodzi w sposób oczywisty.Z założenia wynika, że v można przedłużyć do funkcji z C2

0 (Rd). To przedłużenie również

będziemy oznaczać przez v. Ze Stwierdzenia 13.1 mamy

v(x) = Ex

(

v(XτD )−∫ τD

0Lv(Xs)ds

)

dla x ∈ D.

X jest procesem ciągłym, więc XτD ∈ ∂D. Ponadto Xs ∈ D dla s < τD. v spełnia (13.1),zatem v(XτD ) = ϕ(XτD ) oraz dla s < τD Lv(Xs) = g(Xs). Zatem (13.2) zachodzi.

Uwaga 13.6. Gdy przyjąć g = 0 w poprzednim twierdzeniu, o τD wystarczy tylko założyć,że τD < ∞ p.n. przy każdym Px – nie musimy zakładać skończoności wartości oczekiwanej.Wtedy jeśli v jest rozwiązaniem (13.1) z g = 0, to

v(x) = Exv(Xt∧τD ) −−−→t→∞Exv(XτD ) = ϕ(XτD ).

Page 86: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

86 ROZDZIAŁ 13. PROCESY DYFUZJI I ZAGADNIENIE DIRICHLETA

Page 87: Procesy stochastyczne (2014/15)annatal/materialy/PS_wyklad_2014.pdf · Procesy stochastyczne (2014/15) Anna Talarczyk-Noble annatal@mimuw.edu.pl 2015.01.24 Notatki do wykładu

Bibliografia

[EK] S. Ethier, T. Kurtz, Markov processes. Characterization and convergence. Wiley Series inProbability and Mathematical Statistics: Probability and Mathematical Statistics. JohnWiley & Sons, Inc., New York, 1986.

[K] O.Kallenberg, Foundations of modern probability. 2nd ed., Springer 2002.

[KS] I. Karatzas, S.E. Shreve, Brownian motion and stochastic calculus. 2nd edition. GraduateTexts in Mathematics, 113. Springer-Verlag, New York, 1991.

[IW] N. Ikeda, S. Watanabe, Stochastic differential equations and diffusion processes. North-Holland, 1981.

[MK] H.P. McKean, Stochastic integrals. Academic Press, New York and London, 1969.

[RY] D. Revuz, M. Yor, Continuous martingales and Brownian motion. 3rd edition. Grundleh-ren der Mathematischen Wissenschaften, 293. Springer-Verlag, Berlin, 1999.

[W] A.D. Wentzell, Wykłady z teorii procesów stochastycznych, Warszawa 1980.

87