procesy stochastyczne (2014/15)annatal/materialy/ps_wyklad_2014.pdf · procesy stochastyczne...
TRANSCRIPT
Procesy stochastyczne (2014/15)
Anna Talarczyk-Noble
2015.01.24
Notatki do wykładu
2
Spis treści
I Mocne i słabe rozwiązania stochastycznych równań różniczkowych, jed-
noznaczność 5
1 Definicje i przykłady 7
1.1 Mocne i słabe rozwiązania . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2 Przykład Tanaki . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.3 Twierdzenie Girsanowa a słabe rozwiązania . . . . . . . . . . . . . . . . . . . . 91.4 Przykład Girsanowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Twierdzenie Yamady-Watanabe o jednoznaczności 13
2.1 Regularny rozkład warunkowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2 Dowód Twierdzenia Yamady-Watanabe . . . . . . . . . . . . . . . . . . . . . . 16
3 Słabe rozwiązania a problem martyngałowy 21
3.1 Definicja problemu martyngałowego . . . . . . . . . . . . . . . . . . . . . . . . . 213.2 Słabe rozwiązania a problem martyngałowy . . . . . . . . . . . . . . . . . . . . 233.3 Twierdzenie Stroocka-Varadhana o istnieniu słabych rozwiązań . . . . . . . . . 24
II Procesy Markowa 29
4 Proces Poissona 31
4.1 Proces Poissona – definicja i konstrukcja . . . . . . . . . . . . . . . . . . . . . . 314.2 Uogólniony proces Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344.3 Złożony proces Poissona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5 Procesy Markowa - definicja i proste własności 35
5.1 Definicja procesu Markowa i warunki równoważne . . . . . . . . . . . . . . . . . 355.2 Funkcja przejścia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385.3 Przykłady procesów Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405.4 Rozkłady skończenie wymiarowe procesu Markowa . . . . . . . . . . . . . . . . 41
6 Jednorodne rodziny Markowa 43
6.1 Definicja jednorodnej rodziny Markowa . . . . . . . . . . . . . . . . . . . . . . . 436.2 Operator przesunięcia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3
4 SPIS TREŚCI
7 Mocna własność Markowa 49
7.1 Mocna własność Markowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 497.2 Półgrupy operatorów związane z procesami Markowa . . . . . . . . . . . . . . . 507.3 Półgrupy fellerowskie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 517.4 Mocna własność Markowa a operator przesunięcia . . . . . . . . . . . . . . . . . 537.5 Prawo 0–1 Blumenthala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 547.6 Zasada odbicia dla procesu Wienera . . . . . . . . . . . . . . . . . . . . . . . . 54
8 Regularność trajektorii procesów Markowa 55
9 Półgrupy i ich generatory 57
10 Łańcuchy Markowa z czasem ciągłym 67
11 Procesy dyfuzji 73
11.1 Definicja procesu dyfuzji . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7311.2 Interpretacja współczynników dryfu i dyfuzji . . . . . . . . . . . . . . . . . . . . 7311.3 Procesy dyfuzji a rozwiązania równań stochastycznych . . . . . . . . . . . . . . 75
12 Wzór Feynmana-Kaca 77
13 Procesy dyfuzji i zagadnienie Dirichleta 83
Część I
Mocne i słabe rozwiązania
stochastycznych równań
różniczkowych, jednoznaczność
5
Rozdział 1
Definicje i przykłady
1.1 Mocne i słabe rozwiązania
Będziemy rozważać stochastyczne równania różniczkowe postaci
dXt =b(t,Xt)dt+ σ(t,Xt)dWt, (1.1)
X0 =x,
gdzie W jest procesem Wienera o wartościach w Rm, b : R+×Rd → Rd i σ : R+×Rd 7→ M(d×m)są funkcjami borelowskimi, przy czym M(d × m) oznacza zbiór macierzy o współczynnikachrzeczywistych o d wierszach i m kolumnach, x ∈ Rd.
Dla uproszczenia będziemy zwykle będziemy rozważać przypadek jednowymiarowy d = m =1, jednak definicje poniżej formułuje się tak samo w przypadku ogólnym.
Oznaczenia. Niech Y = (Yt)t≥0 będzie procesem stochastycznym zdefiniowanym na pewnejprzestrzeni probabilistycznej (Ω,F , P ). Zwykle zakładamy, że σ-ciało F jest zupełne, to znaczyzawiera wszystkie podzbiory zbiorów miary zero z F . Przez (FY
t )t≥0 oznaczamy filtrację
generowaną przez proces Y , tj. FYt = σ(Ys : s ≤ t). Przez FY
t oznaczamy najmniejsze σ-ciałozawierające FY
t i wszystkie zdarzenia o prawdopodobieństwie zero.
Definicja 1.1. Niech W będzie procesem Wienera w Rm zdefiniowanym na pewnej przestrzeniprobabilistycznej (Ω,F , P ). Mówimy, że równanie (1.1) ma mocne rozwiązanie na (Ω,F , P )względem procesu Wienera W jeżeli istnieje ciągły proces X = (Xt)t≥0 o wartościach w Rd,
zdefiniowany na (Ω,F , P ), adaptowany do (FWt )t≥0 spełniający
Xt = x+
∫ t
0b(s,Xs)ds+
∫ t
0σ(s,Xs)dWs, t ≥ 0. (1.2)
Jeżeli warunek początkowy równania jest losowy X0 = ξ, gdzie ξ jest zmienną losową okre-śloną na (Ω,F , P ) niezależną od W , wtedy proces X nazywa się mocnym rozwiązaniem jeżelispełnia
Xt = ξ +
∫ t
0b(s,Xs)ds+
∫ t
0σ(s,Xs)dWs, t ≥ 0.
oraz X jest adaptowany do filtracji (Gt)t≥0, gdzie Gt = σ(FWt , ξ).
7
8 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY
Uwaga 1.2. Na wykładzie z Wstępu do Analizy Stochastycznej widzieliśmy, że jeśli funkcjex 7→ b(t, x) i x 7→ σ(t, x) spełniają warunek Lipschitza ze stałą niezależną od t i b(t, 0), σ(t, 0)są ograniczone, to na dowolnej przestrzeni probabilistycznej (Ω,F , P ), na której istnieje procesWienera W , równanie (1.1) ma mocne rozwiązanie.
Definicja 1.3. Mówimy, że równanie (1.1) ma słabe rozwiązanie jeśli istnieje przestrzeńprobabilistyczna (Ω,F , P ) z filtracją (Ft)t≥0 oraz na (Ω,F , P ) istnieje proces Wienera Wwzględem (Ft)t≥0 i istnieje ciągły proces X adaptowany do (Ft)t≥0 spełniający (1.2).
(Ω,F , P ), (Ft)t≥0, (W,X) nazywa się słabym rozwiązaniem równania (1.1).
Czasem, dla skrótu, będziemy tylko pisać, że (W,X) jest słabym rozwiązaniem.
Uwaga: Zasadnicza różnica w definicji słabego i mocnego rozwiązania polega na tym, że wprzypadku słabego rozwiązania proces X może nie być adaptowane do filtracji generowanejprzez proces Wienera. Ft może być na ogół większe niż FW
t .Jeśli If (Ω,F , P ), (Ft)t≥0, (W,X) jest słabym rozwiązaniem (1.1) i X jest adaptowane do
FWt to X jest mocnym rozwiązaniem (1.1) względem (Ω,F , P ) i W .
Definicja 1.4. Mówimy, że rozwiązanie równania (1.1) jest jednoznaczne w sensie trajek-
torii, jeżeli dla każdej pary słabych rozwiązań (Ω,F , P ), (Ft)t≥0, (W,X)i (Ω,F , P ), (F ′
t )t≥0, (W,X ′) na tej samej przestrzeni probabilistycznej i z tym samym pro-cesem Wienera W procesy X i X ′ są nieodróżnialne, tj. P (Xt = X ′
t ∀t ≥ 0) = 1.
Definicja 1.5. Mówimy, że rozwiązanie równania (1.1) jest jednoznaczne w sensie roz-
kładu, jeżeli dla każdej pary słabych rozwiązań (Ω,F , P ), (Ft)t≥0, (W,X)i (Ω′,F ′, P ′), (F ′
t )t≥0, (W′,X ′), procesy X i X ′ mają te same rozkłady.
Przykład 1.6. Jeżeli istnieje C takie, że
‖σ(t, x)− σ(t, y)‖ + ‖b(t, x)− b(t, y)‖ ≤ C ‖x− y‖
oraz‖σ(t, 0)‖ + ‖b(t, 0)‖ ≤ C
dla dowolnych x, y ∈ Rd, t ∈ R+, to dla równanie (1.1) ma mocne rozwiązanie, na dowolnejprzestrzeni probabilistycznej z procesem Wienera. Ponadto rozwiązanie (1.1) jest jednoznacznew sensie trajektorii.
W pozostałych przykładach będziemy rozważać tylko przypadek jednowymiarowy m = d =1.
1.2 Przykład Tanaki
Przykład 1.7. Wprowadźmy oznaczenie
σ(x) =
1 dla x ≥ 0
−1 dla x < 0.
Rozważmy równaniedXt = σ(Xt)dWt, X0 = 0. (1.3)
1.3. TWIERDZENIE GIRSANOWA A SŁABE ROZWIĄZANIA 9
Pokażemy, że to równanie ma słabe rozwiązanie, ale nie ma żadnego mocnego rozwiązania.Jednakże najpierw zajmiemy się problemem jednoznaczności.
Przypuśćmy, że istniej słabe rozwiązanie (W,X). Wtedy Xt =∫ t0 σ(Xs)dWs. X jest więc
ciągłym martyngałem o wariacji kwadratowej 〈X〉t =∫ t0 σ
2(Xs)ds = t. Z twierdzenia Lévy’egoo charakteryzacji procesu Wienera wynika, że X jest procesem Wienera, zatem zachodzi jedno-znaczność w sensie rozkładu dla równania (1.3).
Zauważmy, że jeżeli (W,X) jest słabym rozwiązaniem (1.3), to
−Xt = −∫ t
0σ(Xs)dWs
nieodróżnialne=
∫ t
0σ(−Xs)dWs,
gdyż E∫ t0 110(Xs)ds = 0. Zatem (W,−X) również jest słabym rozwiązaniem. Nie ma jedno-
znaczności w sensie trajektorii.
Teraz skonstruujemy słabe rozwiązanie. Niech X będzie standardowym procesem Wienerana przestrzeni probabilistycznej (Ω,F , P ) i niech Ft = FX
t . Oznaczmy
Wt =
∫ t
0σ(Xs)dXs
W jest ciągłym martyngałem względem filtracji (Ft)t≥0 oraz 〈W 〉t = t, zatem W jest procesemWienera względem FX . Ponadto
∫ t
0σ(Xs)dWs =
∫ t
0σ(Xs)σ(Xs)dXs =
∫ t
0dXs = Xt.
Zatem (W,X) jest słabym rozwiązaniem.To nie jest mocne rozwiązanie. Na ćwiczeniach pokażemy, że
∫ t0 σ(Xs)dXs jest adaptowane
do (F|X|t )t. Ta filtracja jest ściśle mniejsza niż (FX
t )t≥0. Np. jeśli A = ω ∈ Ω : Xt ∈ (1, 2)to A ∈ FX
t ale A /∈ F|X|t .
Podobnie, żadne inne słabe rozwiązanie nie może być mocnym rozwiązaniem. Dla mocnegorozwiązania musiałoby być FX
s ⊂ FWs dla wszystkich s, ale wiemy także, że
∫ t0 σ(Xs)dXs =
∫ t0 σ
2(Xs)dWs = Wt, X jest procesem Wienera, więc jak poprzenio∫ t0 σ(Xs)dXs jest adapto-
wane do (F|X|t )t≥0. Zatem W jest adaptowane do (F
|X|t )t≥0. W konsekwencji
FXs ⊂ FW
s ⊂ F|X|t ,
co prowadzi do sprzeczności, gdyż F|X|t jest ściśle mniejsze od FX
s .
1.3 Zastosowanie twierdzenia Girsanowa do konstrukcji słabych
rozwiązań
Rozważmy stochastyczne równanie różniczkowe
dXt = b(t,Xt)dt+ dWt, X0 = x, (1.4)
10 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY
gdzie b jest funkcją borelowską i ograniczoną. Możemy założyć, że x = 0. Rzeczywiście, dladowolnego x równanie
Xt = x+
∫ t
0b(s,Xs)ds +Wt
jest równoważne
Xt − x =
∫ t
0b(s, x+Xs − x) + dWt.
Jeśli oznaczymy Xt = Xt − x, to powyższy rachunek pokazuje, że (W,X) jest słabym rozwią-zaniem (1.4) wtedy i tylko wtedy, gdy (W, X) jest słabym rozwiązaniem podobnego równaniaz b(t, y) = b(t, x+ y) i zerowym warunkiem początkowym.
Od tej pory będziemy zakładać, że x = 0. Niech V będzie procesem Wienera określonymna pewnej przestrzeni probabilistycznej (Ω,F , P ). Ponieważ założyliśmy, że b jest ograniczone,to dla każdego T ≥ 0 zachodzi
E exp12
∫ t
0b2(s, Vs)ds < ∞. (1.5)
Z kryterium Nowikowa wynika więc, że jeśli
Zt = exp
∫ t
0b(s, Vs)dVs −
1
2
∫ t
0b2(s, Vs)ds
,
to EZT = 1 dla każdego T > 0 (zatem (Zt)t∈[0,T ] jest martyngałem). To pozwala zdefiniowaćnową miarę probabilistyczną QT na (Ω,F ) kładąc dQT = ZTdP . Z twierdzenia Girsanowawynika, że proces
Wt = Vt −∫ t
0b(s, Vs)ds, t ∈ [0, T ]
jest standardowym procesem Wienera na (Ω,F , QT ). Innymi słowy
(Ω,F , QT ), (FVt )t∈[0,T ], (Wt, Vt)t∈[0,T ]
jest słabym rozwiązaniem (1.4) z x = 0 na przedziale [0, T ].Aby skonstruować rozwiązanie dla t ≥ 0 definiujemy miarę probabilistyczną Q na FV
∞ tak,że Q
∣∣FV
T
= QT |FVT
dla wszystkich T . Z jest martyngałem, więc z twierdzenia Girsanowa
wiadomo, że Q jest dobrze określone i jest to miara probabilistyczna. Ponadto,
Wt = Vt −∫ t
0b(s, Vs)ds, t ≥ 0
jest standardowym procesem Wienera na (Ω, (FV∞), Q). Stąd
(Ω,F , Q), (FVt )t≥0, (W,V )
jest słabym rozwiązaniem równania (1.4) z x = 0.Pokazaliśmy
Twierdzenie 1.8. Jeżeli b : R+×R 7→ R jest funkcją borelowską i ograniczoną, to stochastycznerównanie różniczkowe (1.4) ma słabe rozwiązanie.
Założenie ograniczoności b można osłabić. Wystarczy założyć np., że jeżeli V jest procesemWienera, to
E exp12
∫ t
0b2(s, x+ Vs)ds < ∞.
1.4. PRZYKŁAD GIRSANOWA 11
1.4 Przykład Girsanowa
Rozważmy równaniedXt = |Xt|α dWt, X0 = 0, (1.6)
gdzie α > 0 jest ustalone. Oczywiście proces X ≡ 0 jest zawsze mocnym rozwiązaniem. Możnapokazać, że gdy α ≥ 1
2 , to zachodzi jednoznaczność w sensie rozkładów.
Załóżmy teraz, że 0 < α < 12 . Pokażemy, że w tym przypadku równanie (1.6) ma słabe
rozwiązanie, które nie jest tożsamościowo równe 0, zatem nie zachodzi jednoznaczność w sensierozkładu.
Niech V będzie standardowym procesem Wienera na pewnej przestrzeni probabilistycznej(Ω,F , P ). Połóżmy
Mt =
∫ t
0|Vs|−α dVs.
M jest dobrze zdefiniowane i jest to martyngał całkowalny z kwadratem, gdyż∫ t
0E |Vs|−2α ds =
∫ t
0
∫
R
1
|x|2α1√2πs
e−x2
2s dxds =
∫ t
0s−α
∫
R
1
|y|2αe−
y2
2 dyds < ∞.
Na końcu użyliśmy założenia α < 12 .
Pokażemy, że można tak zmienić czas, aby z M “zrobić” proces Wienera.Zauważmy, że
〈M〉t =∫ t
0|Vs|−2α ds.
〈M〉 jest procesem ciągłym i ściśle rosnącym. Ponadto łatwo pokazać (używając np. prawaiterowanego logarytmu), że 〈M〉∞ = ∞. Oznaczmy przez τ funkcję odwrotną do 〈M〉, tj.
τt = infr ≥ 0 :
∫ r
0|Vs|−2α ds = t, t ≥ 0.
Dla każdego t ≥ 0, τt jest momentem zatrzymania względem (FVt )t≥0.
Zdefiniujmy takżeWt = Mτt Xt = Vτt , t ≥ 0.
Wtedy zachodzą następujące fakty.
Stwierdzenie 1.9. W jest standardowym procesem Wienera.
Stwierdzenie 1.10. (W,X) jest słabym rozwiązaniem (1.6).
Stwierdzenia 1.9 jest prawie natychmiastowe. Potrzebujemy tylko pokazać, że W jest cią-głym martyngałem (ciągłość jest jasna, gdyż M i τ są ciągłe, własność martyngałowości wynikałatwo z twierdzenia Dooba o zatrzymywaniu) oraz 〈Mτ·〉t = 〈M〉τt = t. Z twierdzenia Lévy’egoo charakteryzacji procesu Wienera wynika, że W jest standardowym procesem Wienera. Szcze-góły na ćwiczeniach.
Stwierdzenie 1.10 wynika z ciągu równości∫ t
0|Xs|α dWs =
∫ t
0|Vτs |α dMτs
(∗)=
∫ τt
0|Vr|α dMr =
∫ τt
0|Vs|α |Vs|−α dVs = Vτt = Xt.
Zauważmy jednak, że (∗) wymaga formalnego uzasadnienia. Można to zrobić odpowiednioaproksymując przez procesy elementarne. Dowód można znaleźć w książce [MK].
12 ROZDZIAŁ 1. DEFINICJE I PRZYKŁADY
Rozdział 2
Twierdzenie Yamady-Watanabe o
jednoznaczności
W tym rozdziale, podobnie jak w poprzednim będziemy rozważać równanie (1.1), z tym żedopuszczamy także losowe warunki początkowe.
dXt =b(t,Xt)dt+ σ(t,Xt)dWt, (2.1)
X0 ∼µ,
gdzie µ jest pewną miarą probabilistyczną na Rd, a ∼ oznacza równość rozkładów. W tymprzypadku słabe rozwiązanie to (Ω,F , P ), (Ft)t≥0,W,X, gdzie X jest adaptowane do (Ft),W jest procesem Wienera względem (Ft), zachodzi Xt = X0 +
∫ t0 b(s,Xs)ds +
∫ t0 σ(s,Xs)dWs
oraz X0 ma rozkład µ.
Wykażemy następujące twierdzenie.
Twierdzenie 2.1. (Yamada-Watanabe)
(a) Jednoznaczność w sensie trajektorii rozwiązania równania (2.1) implikuje jednoznacznośćw sensie rozkładu
(b) Załóżmy, że równanie (2.1) ma słabe rozwiązanie, jednoznaczne w sensie trajektorii. Wów-czas każde słabe rozwiązanie jest mocne (na odpowiedniej przestrzeni probabilistycznej).
W dowodzie wykorzystamy tzw. regularny rozkład warunkowy. Kwestię jego istnienia omó-wimy w następnym podrozdziale.
2.1 Regularny rozkład warunkowy
Niech (Ω,F , P ) będzie przestrzenią probabilistyczną, a G σ-ciałem, G ⊂ F .
Definicja 2.2. (Regularny rozkład warukowy)Niech X będzie zmienną losową określoną na (Ω,F , P ) o wartościach w przestrzeni mierzalnej(E,B). Funkcję PX|G : Ω × B 7→ [0, 1] nazywamy regularnym rozkładem warunkowym
X pod warunkiem σ-ciała G jeżeli spełnia:(i) dla każdego ω ∈ Ω PX|G (ω, ·) jest rozkładem probabilistycznym na (E,B),(ii) dla każdego B ∈ B ω 7→ PX|G (ω,B) jest G mierzalne oraz PX|G (·, B) = P (X ∈ B|G ) p.n.
13
14 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI
Zachodzi następujące stwierdzenie:
Stwierdzenie 2.3. Jeżeli X jest zmienną losową o wartościach w (E,B) i istnieje regularnyrozkład warunkowy, to dla dowolnej funkcji ϕ : E 7→ R mierzalnej względem σ-ciał B i B(R)oraz takiej, że E |ϕ(X)| < ∞ zachodzi
E(ϕ(X)|G ) =
∫
Eϕ(x)PX|G (·, dx) p.n.
Dowód. Jeżeli ϕ = 11B , B ∈ B, to korzystając z warunku (ii) Definicji 2.2 mamy
E(11B(X)|G ) = P (X ∈ B|G ) = PX|G (·, B) =
∫
Ω11B(x)PX|G (·, dx) p.n.
Dalej dowód przebiega standardowo: sprawdzamy warunek dla ϕ prostych, ϕ =∑n
i=1 ai11Bi,
następnie dla ϕ ≥ 0 i w końcu dla dowolnych ϕ, ϕ = ϕ+ − ϕ−.Jeżeli przestrzeń (E, ρ) jest przestrzenią polską wyposażoną w σ-ciało zbiorów borelowskich
B, to regularny rozkład warunkowy zawsze istnieje:
Twierdzenie 2.4. Niech X będzie zmienną losową o wartościach w przestrzeni polskiej (E,B),określoną na (Ω,F , P ) i niech G będzie σ-ciałem zawartym w F . Wtedy istnieje regularnyrozkład warunkowy X pod warunkiem G .
Dowód. Każda przestrzeń polska jest izomorficzna z borelowskim podzbiorem R, dlategowystarczy udowodnić twierdzenie w przypadku, gdy (E,B) = (R,B(R)).
Załóżmy zatem, że (E,B) = (R,B(R)). Dla q ∈ Q kładziemy
F (q, ω) := P (X ≤ q|G )(ω)
gdzie P (X ≤ q|G ) jest jakąś wersją prawdopodobieństwa warunkowego (które, jak wiemy jestzdefiniowane tylko z dokładnością do równości p.n.).
Zauważmy, że 0 ≤ P (X ≤ q|G ) ≤ 1 p.n. Jeśli q1 ≤ q2, q1, q2 ∈ Q, to X ≤ q1 ⊂ X ≤ q2,a więc P (X ≤ q1|G ) ≤ P (X ≤ q2|G ) p.n. Ponadto limn→∞ P (X ≤ n|G ) = 1 p.n. orazlimn→−∞ P (X ≤ n) = 0, więc Odrzucając z Ω przeliczalną sumę zbiorów o prawdopodobień-stwie 0 widzimy, że istnieje Ω, P (Ω) = 1 takie, że
F (q1, ω) ≤ F (q2, ω) ∀q1 ≤ q2, q1, q2 ∈ Q, ∀ω ∈ Ω
lim−n→−∞
F (−n, ω) = 0, limn→∞
F (n, ω) = 1 ∀ω ∈ Ω.
Ustalmy dowolne t ∈ R i ω ∈ Ω. Weźmy dowolny ciąg liczb wymiernych qn ց t. Wtedy ciągF (qn, ω) jest nierosnący i ograniczony, ma więc granicę, którą oznaczamy przez F (t, ω). Z mo-notoniczności F (·, ω) na Q jest jasne, że ta granica nie zależy od wyboru ciągu przybliżającegot.
Zauważmy, że dla każdego ω ∈ Ω tak zdefiniowana funkcja t 7→ F (t, ω) jest niemalejąca iprawostronnie ciągła. Ponadto, limt→−∞ F (t, ω) = 0, limt→∞ F (t, ω) = 1. Zatem F (·, ω) jestdystrybuantą pewnej miary probabilistycznej µω na (R,B(R)).
Niech
PX|G (ω,B) =
µω(B) jeśli ω ∈ Ω
δ0(B) ω /∈ Ω
2.1. REGULARNY ROZKŁAD WARUNKOWY 15
(zamiast delty Diraca w zerze moglibyśmy wziąć dowolną ustaloną miarę probabilistyczną.)Tak zdefiniowane PX|G jest regularnym rozkładem warunkowym X pod warunkiem G . Wa-
runek (i) Definicji 2.2 zachodzi w sposób oczywisty. Warunek (ii) też, bo jeżeli qn ց t, qn ∈ Q,to dla ω ∈ Ω F (qn, ω) → F (t, ω) =
∫ t−∞ µω(dx) = PX|G (ω, (−∞, t]). (tj. F (qn, ·) −−→
p.n.
PX|G (·, (−∞, t])).Z drugiej strony F (qn, ·) = P (X ≤ qn|G ) −−→
p.n.P (X ≤ t|G ). Zatem dla każdego t ∈ R
PX|G (·, (−∞, t]) = P (X ≤ t|G ) p.n.
Zbiory postaci (−∞, t] tworzą π-układ, zaś zbiory B ∈ B(R) spełniające równość
PX|G (·, B) = P (B|G ) p.n.
tworzą λ-układ, zatem z lematu o π i λ-układach otrzymujemy, że warunek (ii) Definicji 2.2 jestspełniony.
Stwierdzenie 2.5. Przy założeniach Twierdzenia 2.4 regularny rozkład warunkowy X pod wa-runkiem G jest jednoznaczny w następującym sensie: Jeżeli K,K ′ : Ω × B 7→ [0, 1] spełniająwarunki (i) i (ii) Defnicji 2.2, to istnieje zbiór N ∈ G , taki że P (N) = 0 oraz dla wszystkichω ∈ Ω\N oraz B ∈ B(R) zachodzi K(ω,B) = K ′(ω,B).
Dowód. Niech N = ω : ∃q ∈ Q takie, że K(ω, (−∞, q]) 6= K ′(ω, (−∞, q]). Z lematu o π i λukładach wynika, że dla ω ∈ Ω\N miary probabilistyczne K(ω, ·) i K ′(ω, ·) są równe. Trzebatylko pokazać, że N ∈ G i N ma prawdopodobieństwo równe 0.
Dla każdego q ∈ Q z warunku (ii) wynika, że ω 7→ K(ω, (−∞, q]) jest G -mierzalne i to samozachodzi dla K ′, zatem ω : K(ω, (−∞, q]) 6= K ′(ω, (−∞, q]) ∈ G . Ponadto, również z (ii)mamy
K(ω,B) = P (X ∈ B|G )(ω) = K ′(ω,B),dla P − prawie wszystkich ω.
To oznacza, żeP (ω : K(ω, (−∞, q]) 6= K ′(ω, (−∞, q])) = 0.
Zbiór N jest przeliczalną sumą zbiorów tej postaci, więc teza zachodzi.
Jeżeli dodatkowo wiadomo, że σ-ciało G jest generowane przez pewną inną zmienną losowąY , to można mówić o regularnym rozkładzie warunkowym X pod warunkiem Y w sensie takim,jak w następnym Twierdzeniu.
Twierdzenie 2.6. Jeżeli spełnione są założenia Twierdzenia 2.4 i dodatkowo G = σ(Y ) dlapewnej zmiennej losowej Y : Ω 7→ S, gdzie (S,S) jest pewną przestrzenią mierzalną, to istniejeQ : S × B 7→ [0, 1] takie, że(i) dla każdego y ∈ S Q(y, ·) jest rozkładem probabilistycznym na (E,B),(ii) dla każdego B ∈ B funkcja y 7→ Q(y,B) jest S mierzalna oraz Q(Y,B) = P (X ∈ B|Y )p.n.
Ponadto, Q jest wyznaczone jednoznacznie z dokładnością do zbioru µY -miary zero, gdzieµY oznacza rozkład zmiennej losowej Y . Dokładniej, jeżeli Q i Q′ mają własności (i) oraz (ii)to istnieje zbiór N ∈ S taki, że P (Y ∈ N) = 0 taki, że dla wszystkich y ∈ S\N i wszystkichB ∈ B zachodzi Q(y,B) = Q′(y,B).
16 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI
Q jw. nazywa się regularnym rozkładem warunkowym X pod warunkiem Y , albo też jądremprzejścia z Y do X.
Twierdzenie 2.6 dowodzi się niemal identycznie jak Twierdzenie 2.4, zauważając, że ponieważP (X ≤ q|Y ) jest Y mierzalne, to istnieje funkcja mierzalna fq : S 7→ R taka, że P (X ≤ q|Y ) =fq(Y ) p.n. i pracując dalej z funkcjami (y, q) 7→ fq(y).
Alternatywnie, można przejść najpierw do przestrzeni kanonicznej i wykorzystać poprzednietwierdzenie.
2.2 Dowód Twierdzenia Yamady-Watanabe
Przypuśćmy, że mamy dwa słabe rozwiązania równania (2.1): (Ω(1),F (1), P (1)), (F(1)t )t≥0, (W
(1),X(1))oraz (Ω(2),F (2), P (2)), (F
(2)t )t≥0, (W
(2),X(2)). Główny pomysł polega na przeniesieniu tychsłabych rozwiązań na wspólną przestrzeń probabilistyczną, gdyż wtedy będziemy mogli skorzy-stać z jednoznaczności w sensie trajektorii.
Słabe rozwiązanie (W (i),X(i)), i = 1, 2 wygodnie będzie reprezentować równoważnie w
postaci trójki (X(i)0 ,W (i), Y (i)), gdzie Y i = X(i) −X
(i)0 .
Wprowadźmy oznaczenia: Cd = C([0,∞),Rd) – przestrzeń funkcji ciągłych określonych naR+, o wartościach w Rd. Niech B(Cd) oznacza σ-ciało podzbiorów Cd generowane przez cylin-dry. Zauważmy, że B(Cd) jest jednocześnie σ-ciałem zbiorów borelowskich, gdy Cd rozważyć ztopologią zbieżności niemal jednostajnej, Cd jest wtedy przestrzenią polską.
Niech µ będzie rozkładem początkowym, µ ∼ X(1)0 ∼ X
(2)0 . Niech ponadto P⋆ oznacza
miarę Wienera na B(Cm), tzn. rozkład m-wymiarowego procesu Wienera na przestrzeni funkcjiciągłych Cm.
Przyjmijmy
Ω :=Rd × Cm × Cd × Cd
F :=B(Rd)⊗ B(Cm)⊗ B(Cd)⊗ B(Cd)
Elementy Ω będziemy zwykle oznaczać (x,w, y1, y2). Niech Q(i) (Q(i)(x,w, dyi)) będzie regu-
larnym rozkładem warunkowym Y (i) pod warunkiem (X(i)0 ,W (i)). Jako prawdopodobieństwo
na (Ω,F ) kładziemy
P (dxdwdy1dy2) = Q(1)(x,w, dy1)Q(2)(x,w, dy2)P⋆(dw)µ(dx).
Rozważmy proces kanoniczny Zt(x,w, y1, y2) = (x,w(t), y1(t), y2(t)).Zauważmy, że bezpośrednio z konstrukcji otrzymujemy, iż (x,w, y1) na przestrzeni (Ω,F , P )
ma ten sam rozkład co (X(1)0 ,W (1), Y (1)) oraz (x,w, y2) ma ten sam rozkład co (X
(2)0 ,W (2), Y (2)).
Oznaczmy dodatkowo przez (Ft)t≥0 filtrację generowaną przez proces kanoniczny Z, uzu-pełnioną o zbiory miary P -zero tj.
Ft = σ(x,w(s), y1(s), y2(s) : s ≤ t) = B(Rd)⊗ Bwt ⊗ B
y1t ⊗ B
y2t , (2.2)
gdzie Bwt ⊂ B(Cm), B
yit ⊂ B(Cd), Bw
t = σw(s) : s ≤ t, Byit = σyi(s) : s ≤ t. Druga
równość w (2.2) wynika z faktu, że odpowiednie przestrzenie są ośrodkowe.Zachodzą następujące fakty:
2.2. DOWÓD TWIERDZENIA YAMADY-WATANABE 17
Lemat 2.7. Jeżeli A ∈ By1t , to (x, ω) 7→ Q(1)(x, ω,A) jest mierzalne względem B(Rd)⊗ Bw
t .
Dowód. Dla uproszczenia oznaczeń niech Q := Q(1). Dla każdego ustalonego t > 0 istniejeregularny rozkład warunkowy y1 pod warunkiem (x, (w(s))s∈[0,t]). Oznaczmy go przez Qt.
Z definicji regularnego rozkładu warunkowego wynika, że (x,w) 7→ Qt(x,w,A) jestB(Rd)⊗ Bw
t mierzalne. Należy więc tylko wykazać, że dla A ∈ By1t zachodzi
Qt(·, A) = Q(·, A) µ⊗ P⋆ − p.n. (2.3)
(Uwaga. Wykażemy równość prawie na pewno, dlatego musimy uzupełnić σ-ciało.)Niech C ∈ B(Rd)⊗Bw
t . Wtedy, bezpośrednio z definicji regularnego rozkładu warunkowegomamy
P (C ×A× Cd) =
∫
CQt(x,w,A)µ(dx)P⋆(dw). (2.4)
Z drugiej strony, z definicji prawdopodobieństwa P dla każdego C ∈ B(Rd)⊗ Bw∞
P (C ×A× Cd) =
∫
CQ(x,w,A)µ(dx)P⋆(dw). (2.5)
Zatem ∫
CQt(x,w,A)µ(dx)P⋆(dw) =
∫
CQ(x,w,A)µ(dx)P⋆(dw) (2.6)
dla C ∈ B(Rd)⊗Bwt . Trzeba jeszcze pokazać, że to samo zachodzi dla dowolnego C ∈ B(R)⊗
Bw∞. Ponieważ zbiory C spełniające (2.6) tworzą λ-układ, wystarczy pokazać, że (2.6) zachodzi
dla π-układu złożonego ze zbiorów postaci
C = B × (Γ1 ∩ Γ2) ,
gdzie Γ1 ∈ Bwt , Γ2 ∈ Bw
>t := σ ((w(t+ u)− w(t))u≥0) ⊂ Bw∞. Dla takich C mamy
∫
CQt(x,w,A)µ(dx)P⋆(dw) =
∫
Qt(x,w,A)11B(x)11Γ1(w)︸ ︷︷ ︸
B(Rd)⊗Bwt −mierzalne
11Γ2(w)µ(dx)P⋆(dw).
P⋆ jest miarą Wienera, więc korzystając z niezależności Bwt i Γ2 przy P⋆
=
∫
Qt(x,w,A)11B11Γ1(w)µ(dx)P⋆(dw) P⋆(Γ2)
używając (2.6) dla zbioru C ′ = B × Γ1
=
∫
Q(x,w,A)11B11Γ1(w)µ(dx)P⋆(dw) P⋆(Γ2)
= P (B × Γ1 ×A× Cd)P (Γ2)
= P (1)(X0 ∈ B,W (1) ∈ Γ1,X(1)· −X
(1)0 ∈ A)P (1)(W (1) ∈ Γ2)
18 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI
(W,X) jest słabym rozwiązaniem, więc w szczególności (W (1)t+s −W
(1)t )s≥0 jest procesem nieza-
leżnym od (Ws,Xs)s≤t, gdyż (W,X) jest adaptowane do filtracji (F (1)) i (W (1)t+s−W
(1)t )s≥0 nie
zależy od F(1)t , bo W (1) jest procesem Wienera względem tej filtracji
= P (1)(X0 ∈ B,W (1) ∈ Γ1,X(1)· −X
(1)0 ∈ A,W (1) ∈ Γ2)
= P (1)((X(1)0 ,W (1), Y (1)) ∈ C ×A)
= P (C ×A× Cd)
=
∫
CQ(x,w,A)µ(dx)P⋆(dw).
Zatem równość (2.6) zachodzi dla wszystkich C ∈ B(Rd)⊗ Bw∞. Stąd wynika (2.3).
Lemat 2.8. (Ω,F , P ), (Ft), (w, x + y1) oraz (Ω,F , P ), (Ft), (w, x + y2) są słabymi roz-wiązaniami równania (2.1).
Dowód. Jest jasne, że w jest procesem Wienera na (Ω,F , P ). Należy pokazać, że w jestprocesem Wienera względem filtracji (Ft), tzn. dla r > t w(r)− w(t) jest niezależne od Ft.
Niech A1 ∈ By1t , A2 ∈ B
y2t , B ∈ B(Rd)⊗ Bw
t . Wtedy dla r > t i dowolnego x ∈ Rd mamy
Eei〈x,w(r)−w(t)〉11A1(y1)11A2(y2)11B(x,w)
=
∫
Ωei〈x,w(r)−w(t)〉︸ ︷︷ ︸
nzal. od B(Rd)⊗Bwt
Q(1)(x,w,A1)Q(2)(x,w,A2)11B(x,w)
︸ ︷︷ ︸
B(Rd)⊗Bwt mierzalne (Lemat 2.7)
µ(dx)P⋆(dw)
= e−x2(r−t)2
2 P (B ×A1 ×A2) = Eei〈x,w(r)−w(t)〉P (B ×A1 ×A2).
Stąd wynika, że w(r)− w(t) jest niezależne od Ft.Sprawdzenie, że (w, x+ y1) spełnia równanie jest nietrudne, gdyż
(
x,w, y1,
∫ ·
0b(y1(s))ds +
∫ ·
0σ(y1(s))dw(s)
)
ma ten sam rozkład co (X(1)0 ,W (1), Y (1), Y (1)),
bo X(1)0 + Y (1) spełnia równanie. Wszystkie procesy są ciągłe, zatem y1 jest nieodróżnialne od
∫ ·0 b(y1(s))ds +
∫ ·0 σ(y1(s))dw(s).
Tak samo sprawdza się, że (w, x+ y2) także jest słabym rozwiązaniem.Ciąg dalszy dowodu Twierdzenia 2.1: (a) Jeżeli (W (1),X(1)) i (W (2),X(2)) są sła-
bymi rozwiązaniami, to zgodnie z opisaną wyżej konstrukcją na przestrzeni (Ω,F ,P) z filtracją(Ft)t≥0 (x,w, y1) oraz (x,w, y2) są słabymi rozwiązaniami. Z jednoznaczności w sensie trajek-torii otrzymujemy
P ((x,w, y1, y2) ∈ Ω) : y1 ≡ y2) = 1. (2.7)
Oznacza to w szczególności, że (x,w, y1) ma ten sam rozkład co (x,w, y2), tj. X(1) ∼ x +y1 ∼ x + y2 ∼ X(2), gdzie ∼ oznacza równość rozkładów. Kończy to dowód pierwszej częścitwierdzenia – jednoznaczności w sensie rozkładu.
2.2. DOWÓD TWIERDZENIA YAMADY-WATANABE 19
(b) Jak poprzednio, przypuśćmy, że (W (1),X(1)) i (W (2),X(2)) są dowolnymi słabymi roz-wiązaniami (mogą również być te same). Z (2.7) mamy
1 =P ((x,w, y1, y2) ∈ Ω) : y1 ≡ y2)
=
∫
Rd×Cm
∫
(y1,y2):y1≡y2Q(1)(x,w, dy1)Q
(2)(x,w, dy2)µ(dx)P⋆(dy)
Zawsze ∫
(y1,y2):y1≡y2Q(1)(x,w, dy1)Q
(2)(x,w, dy2) ≤ 1
i µ⊗ P⋆ jest miarą probabilistyczną, więc aby (2.7) zachodziło musimy mieć∫
(y1,y2):y1≡y2Q(1)(x,w, dy1)Q
(2)(x,w, dy2) = 1 dla µ⊗ P⋆ p.w. (x,w). (2.8)
Lewa strona równania (2.8) jest równa∫
Cd
Q(1)(x,w, y)Q(2)(x,w, dy)
Q(1)(x,w, y) ≤ 1, a Q(2)(x,w, dy) jest miarą probabilistyczną, więc równość (2.8) zachodziwtedy i tylko wtedy, gdy Q(1)(x,w, y) = 1 dla y należących do nośnika miary Q(2)(x,w, ·).Zatem dla µ ⊗ P⋆-p.w. (x,w) zarówno Q(1)(x,w, ·) jak i Q(2)(x,w, ·) są miarami punktowymiskupionymi w tym samym punkcie. Oznaczmy go przez h(x,w). Mamy
Q(1)(x,w, ·) = Q(2)(x,w, ·) = δh(x,w).
Funkcja h jest mierzalna, bo Q(i) były mierzalne względem (x,w).Wykazaliśmy zatem, że y1 = y2 = h(x,w). Z Lematu 2.7 wynika również, że (x,w) 7→
h(x,w) jest też mierzalne w sensie B(Rd)⊗ Bwt dla każdego t.
Zatem, dla każdego słabego rozwiązania (X0,W,X −X0) mamy X = X0 + h(X0,W ), więcjest to mocne rozwiązanie.
20 ROZDZIAŁ 2. TWIERDZENIE YAMADY-WATANABE O JEDNOZNACZNOŚCI
Rozdział 3
Słabe rozwiązania a problem
martyngałowy
3.1 Definicja problemu martyngałowego
Jak poprzednio rozważamy równanie
dXt = b(t,Xt)dt+ σ(t,Xt)dWt, X0 = x. (3.1)
Dla uproszczenia zapisu ograniczymy się do przypadku jednowymiarowego, ale wszystko jestprawdziwe także w wielu wymiarach. Oznaczmy
a(t, x) = σ2(t, x).
(W większym wymiarze powinniśmy brać a = σσT ). Zakładamy, że b i σ są borelowskie iograniczone. Ponadto, niech
Ltf(x) = b(t, x)f ′(x) +1
2a(t, x)f ′′(x), f ∈ C2
Zauważmy, że jeżeli Ω, F , P, (Ft), (W,X) jest słabym rozwiązaniem równania (3.1) i f ∈C20 (tj. funkcja ciągła o nośniku zwartym), to ze wzoru Itô otrzymujemy
f(Xt) =f(X0) +
∫ t
0f ′(Xs)b(s,Xs)ds+
∫ t
0f ′(Xs)σ(s,Xs)dWs +
1
2
∫ t
0σ2(s,Xs)ds
=f(x) +
∫ t
0Lsf(Xs)ds +
∫ t
0σ(Xs)f
′(Xs)dWs
Zatem dla każdego f ∈ C20 proces
f(Xt)− f(x)−∫ t
0Lsf(Xs)ds
jest martyngałem. Proces X jest ciągły, więc można go traktować jako zmienną losową owartościach w przestrzeni funkcji ciągłych C = C([0,∞)). Zauważmy, że gdy C rozważamyz topologią zbieżności niemal jednostajnej, to odpowiednie σ-ciało zbiorów borelowskich jest
21
22 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY
tożsame z σ-ciałem generowanym przez cylindry. Oznaczmy to σ-ciało przez B. PrzestrzeńC z metryką d(x, y) =
∑∞n=1
12n
(sup2n−1≤t<2n |x(t)− y(t)| ∧ 1
)jest przestrzenią polską i jej
topologia jest równoważna topologii zbieżności niemal jednostajnej.Przez Z oznaczmy proces kanoniczny zdefiniowany na (C ,B), tzn.
Zt(ω) = ω(t).
Niech µX oznacza rozkład X na przestrzeni (C ,B). Wtedy proces kanoniczny Z na przestrzeniprobabilistycznej (C ,B, µX) ma taki sam rozkład jak proces X określony na (Ω, F , P ).
Stąd wynika, że dla każdej funkcji f ∈ C20 proces
f(Zt)− f(x)−∫ t
0Lsf(Zs)ds (3.2)
określony na przestrzeni probabilistycznej (C ,B, µX) jest martyngałem. Ponadto, jest to mar-tyngał względem filtracji Bt := σ((ω(s) : s ≤ t). Niech F : R+ × C 7→ C będzie zdefiniowanajako
F (t, ω) = f(ω(t))− f(x)−∫ t
0Lsf(ω(s))ds
ω 7→ F (t, ω) jest oczywiście Bt mierzalne, więc proces (F (t, ·))t≥0 jest adaptowany do filtracji(Bt)t≥0. Wystarczy jeszcze tylko sprawdzić, że dla dowolnych s < t i dowolnego zbioru A ∈ Bs
zachodziEµX
F (t, Z)11A = EµXF (s, Z)11A.
Obie strony tego równania zależą tylko od rozkładu Z, który jest taki sam jak rozkład X, zatemżądana równość zachodzi, bo (F (t,X))t≥0 jest martyngałem.
Powyższe rozumowanie jest motywacją do wprowadzenia następującej definicji:
Definicja 3.1. (Problem martyngałowy) Mówimy, że problem martyngałowy (x, a, b) marozwiązanie jeżeli istnieje miara probabilistyczna P na przestrzeni kanonicznej C taka, że dladowolnej funkcji f ∈ C2
0 proces zdefiniowany w (3.2) jest martyngałem względem filtracji (Bt)oraz P (Z0 = x) = 1. Tę miarę probabilistyczną P nazywamy rozwiązaniem problemu martyn-gałowego (x, a, b).
Uwaga 3.2. (a) Już pokazaliśmy, że jeżeli (W,X) jest słabym rozwiązaniem (3.1), to rozkładX jest rozwiązaniem problemu martyngałowego (x, a, b).
(b) Jeżeli P jest rozwiązaniem problemu martyngałowego, to dla każdej funkcji f : R 7→R klasy C2 proces (3.2) jest martyngałem lokalnym. Dowód jest standardowy, przezstopowanie.
Stwierdzenie 3.3. Jeżeli P jest rozwiązaniem problemu martyngałowego (x, a, b), to
Mt = Zt − x−∫ t
0b(s, Zs)ds
jest ciągłym martyngałem lokalnym względem filtracji (Bt)t≥0, startującym z zera, o wariacjikwadratowej
〈M〉t =∫ t
0a(s, Zs)ds. (3.3)
Dowód na ćwiczeniach. Wskazówka: zastosować Uwagę 3.2 (b) dla f(x) = x i f(x) = x2.
3.2. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY 23
3.2 Słabe rozwiązania a problem martyngałowy
Twierdzenie 3.4. Równanie (3.1) ma słabe rozwiązanie wtedy i tylko wtedy, gdy problem mar-tyngałowy (x, a, b) ma rozwiązanie. Dokładniej,
P : P = µX , gdzie X spełnia (3.1) = P : P jest rozw. probl. martyngałowego (x, a, b) .
Dowód. Już pokazaliśmy, że jeżeli (W,X) jest słabym rozwiązaniem, to rozkład X jest rozwią-zaniem problemu martyngałowego. Pozostaje pokazać, że jeżeli P jest rozwiązaniem problemumartyngałowego, to istnieje rozwiązanie równania (3.1), które ma rozkład P .
Niech P będzie rozwiązaniem problemu martyngałowego (x, a, b) i niech M będzie martyn-gałem lokalnym ze Stwierdzenia 3.3.
Rozważmy najpierw prostszy przypadek gdy σ(t, y) 6= 0 dla wszystkich t, y. Zdefiniujmy
Wt =
∫ t
0
1
σ(s, Zs)dMs.
W jest dobrze zdefiniowane, bo proces podcałkowy jest prognozowalny oraz
〈W 〉t =∫ t
0
1
σ2(s, Zs)a(s, Zs)ds = t.
Zatem W jest procesem Wienera względem (Bt)t≥0. Ponadto zachodzi
∫ t
0σ(s, Zs)dWs =
∫ t
0dMs = Mt = Zt − x−
∫ t
0b(s, Zs)ds.
To oznacza, że (C ,B, P ), (Bt)t≥0, (W,Z) jest słabym rozwiązaniem równania (3.1).Rozważmy teraz ogólny przypadek, bez założenia, że σ 6= 0. Aby skonstruować słabe roz-
wiązanie musimy rozszerzyć przestrzeń probabilistyczną. Niech (Ω′,F ′, P ′) będzie dowolnąprzestrzenią probabilistyczną, na której określony jest proces Wienera V . Kładziemy
Ω = C × Ω′, F = B ⊗ F′ P = P ⊗ P ′, Ft = Bt ⊗ F
′t
orazM(ω, ω′) = M(ω), V (ω, ω′) = V (ω′) Zt(ω, ω
′) = ω(t).
Zauważmy, że tak zdefiniowane procesy M i V są niezależne oraz adaptowane do filtracji (Ft)t≥0.Ponadto, M jest martyngałem lokalnym względem filtracji (Ft)t≥0, a V jest procesem Wienerawzględem tej filtracji.
Niech
Wt =
∫ t
0
1
σ(s, Zs)11σ(s,Zs)6=0dMs +
∫ t
011σ(s,Zs)=0dVs.
Całki są dobrze zdefiniowane oraz
〈W 〉t =∫ t
0
1
σ2(s, Zs)11σ(s,Zs)6=0a(s, Zs)d
⟨
M⟩
s+
∫ t
011σ(s,Zs)=0d
⟨
V⟩
s
+ 2
∫ t
0
1
σ(s, Zs)11σ(s,Zs)6=011σ(s,Zs)=0d
⟨
M, V⟩
s
24 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY
Zauważmy, że ostatnia całka znika, a z pozostałych dwóch otrzymujemy
〈W 〉t =∫ t
0
(
11σ(s,Zs)6=0 + 11σ(s,Zs)=0
)
= t.
Zatem, z twierdzenia Lévy’ego wynika, że W jest procesem Wienera względem (Ft)t≥0.Sprawdzimy, że (W , Z) jest słabym rozwiązaniem równania (3.1). W tym celu obliczamy
∫ t
0σ(s, Zs)dWs =
∫ t
0σ(s, Zs)
1
σ(s, Zs)11σ(s,Zs)6=0dMs +
∫ t
0σ(s, Zs)11σ(s,Zs)=0dVs
=Mt −∫ t
011σ(s,Zs)=0dMs.
Zachodzi⟨∫ ·
011σ(s,Zs)=0dMs
⟩
t
=
∫ t
011σ(s,Zs)=0d
⟨
M⟩
s=
∫ t
011σ(s,Zs)=0a(s, Zs)ds = 0.
Zatem proces∫ t0 11σ(s,Zs)=0dMs jest nieodróżnialny od procesu stale równego 0 i otrzymujemy
∫ t
0σ(s, Zs)dWs = Mt = Zt − x−
∫ t
0b(s, Zs)ds,
a więc (W , Z) jest słabym rozwiązaniem równania (3.1).
3.3 Twierdzenie Stroocka-Varadhana o istnieniu słabych rozwią-
zań
Celem tego podrozdziału jest wykazanie następującego twierdzenia.
Twierdzenie 3.5. Załóżmy, że b i σ są ograniczone, borelowskie, b i a = σ2 są ciągłe ze względuna zmienną przestrzenną x. Wtedy istnieje słabe rozwiązanie równania (3.1).
Uwaga 3.6. (a) W twierdzeniu nie zakładamy, że σ(t, x) jest ciągłe ze względu na x. Wy-starczy tylko, że a jest ciągłe.
(b) Twierdzenie Stroocka-Varadhana wraz z twierdzeniem Yamady-Watanabe z poprzedniegorozdziału sugerują możliwość przyjęcia następującej strategii dowodzenia istnienia moc-nych rozwiązań: Korzystając z Twierdzenia Stroocka-Varadhana wykazujemy istnieniesłabego rozwiązania, a następnie, pokazujemy jednoznaczność w sensie trajektorii. Twier-dzenie Yamady-Watanabe mówi, że wtedy każde słabe rozwiązanie jest mocne.
Dowód. Korzystając z Twierdzenia 3.4 wystarczy wykazać, że problem martyngałowy (x, a, b)ma rozwiązanie.
Niech a(n) i b(n) będą funkcjami takimi, że b(n) i σ(n) =√a(n) są lipschitzowskie ze względu
na drugą współrzędną, ograniczone oraz dla każdego t ≥ 0 a(n)(t, ·) → a(t, ·), b(n)(t, ·) →b(t, ·) niemal jednostajnie (jednostajnie na zbiorach ograniczonych) i wszystkie te funkcje są
3.3. TWIERDZENIE STROOCKA-VARADHANA O ISTNIENIU SŁABYCH ROZWIĄZAŃ25
wspólnie ograniczone. Takie funkcje można łatwo skonstruować splatając b i√a z funkcjami
gładkimi fn, fn → δ0, np. fn(x) = nf(nx), gdzie f ≥ 0 gładka o nośniku zwartym,∫f =
1. Wiemy, że równanie z lipschitzowskimi współczynnikami ma słabe rozwiązanie (ma nawetmocne rozwiązanie). Z Twierdzenia 3.4 wynika, że problem martyngałowy (x, a(n), b(n)) marozwiązanie. Oznaczmy to rozwiązanie przez P (n). P (n) jest jednoznaczne, bo równanie zlipschitzowskimi współczynnikami ma rozwiązanie jednoznaczne w sensie trajektorii, a więc i wsensie rozkładów.
Główny schemat dowodu polega na
1. wykazaniu, że zbiór miar probabilistycznych P (n)n∈N jest ciasny;
2. skorzystaniu z twierdzenia Prochorowa, aby pokazać, że z ciągu P (n) można wybrać pod-ciąg P (nk) zbieżny do pewnego rozkładu probabilistycznego Q na C ;
3. sprawdzeniu, że otrzymana miara graniczna Q jest rozwiązaniem problemu martyngało-wego (x, a, b).
Krok 1. Ciasność P (n): Potrzebne będą następujące lematy pomocnicze. Dowód lematów3.7 i 3.8 – ćwiczenia:
Lemat 3.7. Załóżmy, że M jest ciągłym martyngałem, takim że istnieje stała K > 0 niezależnaod t, s, że |〈M〉t − 〈M〉s| ≤ K |t− s|. Wówczas dla dowolnych δ > 0, α > 0, u ≥ 0 zachodzi
P
(
supu≤t≤u+δ
|Mt −Mu| > α
)
≤ 2e−α2
2Kδ .
Wskazówki do dowodu: skorzystać z faktu, że eλ(Mt−Mu)−λ2
2(〈M〉t−〈Mu〉) jest martyngałem –
kryt. Nowikowa; napisać nierówność maksymalną dla tego martyngału i zminimalizować po λ.Por. dowód prawa iterowanego logarytmu).
Dla δ > 0 i T > 0 oraz funkcji ω ∈ C niech
mT (ω, δ) = sup0≤s,t≤T,|s−t|≤δ
|ω(t)− ω(s)|
oznacza moduł ciągłości na przedziale [0, T ].
Lemat 3.8. Przy założeniach Lematu 3.7 dla dowolnego T > 0 i α > 0 zachodzi
P (mT (M, δ) > α) ≤ 2(⌊[Tδ⌋+ 1)e−
α2
16Kδ
Lemat 3.9. Niech P (n), n = 1, 2, . . . będzie ciągiem miar probabilistycznych na (C ,B). Za-łóżmy, że
limλ→∞
supn
P (n) (ω : |ω(0)| > λ) = 0, (3.4)
orazlimδց0
supn
P (n) (ω : mT (ω, δ) > ε) = 0 ∀T > 0, ε > 0. (3.5)
Wtedy ciąg (P (n))n jest ciasny w C .
26 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY
Dowód. Dla ustalonego T ∈ N i η > 0 korzystając z (3.4) dobierzmy λ > 0, takie że
supn
P (n) (ω : |ω(0)| > λ) ≤ η
2T+1.
Ponadto, niech δk,T,η > 0, k = 1, 2, . . . będą takie, że
supn
P (n)
(
ω : mT (ω, δk,T,η) >1
k)
≤ η
2T+k+1.
Definiujemy zbiory domknięte
AT =
ω : |ω(0)| ≤ λ,mT (ω, δk,T,η) ≤1
k, k = 1, 2, . . .
, A =
∞⋂
T=1
AT .
Wówczas P (n)(AT ) ≥ 1−∑∞k=0
η2T+k+1 = η
2Toraz
P (n)(A) ≥ 1−∞∑
T=1
η
2T= 1− η. (3.6)
Z twierdzenia Arzelà-Ascoli wynika, że funkcje z AT obcięte do funkcji na C([0, T ]) tworzązbiór zwarty, bo jest to zbiór domknięty, składający się z funkcji jednakowo ciągłych na [0, T ] istartujących ze zbioru zwartego.
W szczególności z każdego ciągu funkcji ωj ∈ A, j = 1, 2, . . . można wybrać podciąg zbieżnyjednostajnie na [0, 1], z tego ciągu można wybrać podciąg zbieżny jednostajnie na [0, 2], itd.Używając metody przekątniowej dostajemy, że z każdego ciągu funkcji ωj ∈ A można wybraćpodciąg zbieżny niemal jednostajnie. A jest domknięty więc funkcja graniczna jest w A. ZatemA jest zbiorem zwartym w C . Stąd i z (3.6) otrzymujemy ciasność (P (n))n.
Krok 2.
Lemat 3.10. Niech P będzie zbiorem miar probabilistycznych na przestrzeni kanonicznej (C ,B).Jak zwykle Z oznacza proces kanoniczny. Załóżmy, że
(i) Istnieje B ⊂ R zwarty, taki, że dla każdego P ∈ P zachodzi P (Z0 ∈ B) = 1.
(ii) Dla każdego P ∈ P istnieje ciągły i adaptowany do (Bt) proces V o wahaniu skończonym,taki że V (0) = 0 oraz M = Z−V jest martyngałem przy prawdopodobieństwie P (na ogółV i M zależą od P ).
(iii) Istnieje stała K niezależna od P taka, że P -p.n. ∀P ∈ P
∀t, s |〈M〉t − 〈Ms〉| ≤ K |t− s| , |Vt − Vs| ≤ K |t− s| .
Wówczas P jest warunkowo zwarty.
Dowód. Z założenia o V mamymT (V, δ) ≤ Kδ.
3.3. TWIERDZENIE STROOCKA-VARADHANA O ISTNIENIU SŁABYCH ROZWIĄZAŃ27
Ponadto, mT (Z, δ) ≤ mT (M, δ) + mT (V, δ). Niech P (n) ∈ P, n = 1, 2, . . .. Ustalmy dowolneT > 0 i α > 0, wówczas dla δ < α
2K mamy
P (n)(mT (Z, δ) > α) ≤ P (n)(mT (M, δ) > α−Kδ) ≤ P (n)(mT (M, δ) >α
2).
Z Lematu 3.8 wynika, że spełnione są założenia Lematu 3.9, zatem rodzina (P (n))n jest ciasna.Przestrzeń C jest przestrzenią polską. Z twierdzenia Prochorowa wynika, że ciąg P (n) mapodciąg słabo zbieżny do pewnej miary probabilistycznej Q.
Krok 3. Wykażemy, że zbiór miar probabilistycznych P = P (n) : n ∈ N, gdzie P (n) jestrozwiązaniem problemu martyngałowego (x, a(n), b(n)) jest ciasny.
Niech
V(n)t =
∫ t
0b(n)(s, Zs)ds, M
(n)t = Zt −
∫ t
0b(n)(s, Zs)ds = Zt − V
(n)t .
Przy prawdopodobieństwie P (n) proces M (n) jest ciągłym martyngałem lokalnym o nawiasieskośnym
⟨M (n)
⟩
t=∫ t0 a
(n)(s, Zs)ds, bo P (n) jest rozwiązaniem odpowiedniego problemu mar-
tyngałowego. Z założenia o a, b i ciągu przybliżeń a(n) i b(n) funkcje te są wspólnie ograniczone.Wynika stąd, że istnieje stała K > 0 niezależna od n taka, że
EP (n)
∣∣∣
⟨
M (n)⟩
t−⟨
M (n)⟩
s
∣∣∣ = EP (n)
∣∣∣∣
∫ t
sa(n)(u,Zu)du
∣∣∣∣≤ K |t− s| , ∀s, t > 0.
W szczególności otrzymujemy także, że M (n) jest martyngałem przy P (n), nie tylko martynga-łem lokalnym. Podobnie,
EP (n)
∣∣∣V
(n)t − V n
s
∣∣∣ ≤ K |t− s| .
Zatem rodzina P spełnia założenia Lematu 3.10, istnieje więc podciąg nk, taki, że P (nk) ⇒ Q.Pokażemy, że Q jest rozwiązaniem problemu martyngałowego (x, a, b), tzn. dla każdej funkcjif : R 7→ R klasy C2 o nośniku zwartym proces
f(Zt)−∫ t
0Luf(Zu)du
na przestrzeni probabilistycznej (C ,B, Q) jest martyngałem względem filtracji (Bt)t≥0.Proces ten jest oczywiście adaptowany do (Bt), wystarczy zatem sprawdzić, że dla dowol-
nych 0 ≤ s < t i A ∈ Bs zachodzi
EQ
(
f(Zt)−∫ t
0Luf(Zu)du
)
11A = EQ
(
f(Zs)−∫ t
0Luf(Zs)du
)
11A.
Aby to pokazać wystarczy sprawdzić, że dla każdej funkcji ciągłej i ograniczonej F : C 7→ R,która jest Bs mierzalna zachodzi
EQ
(
f(Zt)−∫ t
0Luf(Zu)du
)
F (Zt) = EQ
(
f(Zs)−∫ s
0Luf(Zu)du
)
F (Zs). (3.7)
28 ROZDZIAŁ 3. SŁABE ROZWIĄZANIA A PROBLEM MARTYNGAŁOWY
Wiemy, że
EP (n)
(
f(Zt)−∫ t
0L(n)u f(Zu)du
)
F (Z) = EP (n)
(
f(Zs)−∫ s
0L(n)u f(Zs)du
)
F (Z), (3.8)
gdzie L(n)u f(x) = b(n)(u, x)f ′(x) + 1
2a(n)(u, x)f ′′(x), bo P (n) jest rozwiązaniem odpowiedniego
problemu martyngałowego. Ponadto, L(n)u f zbiega jednostajnie do Luf , gdyż a(n) i b(n) zbiegają
niemal jednostajnie do a i b odpowiednio oraz f ma zwarty nośnik. Zauważmy także, że dla
każdego t ≥ 0 funkcja ω 7→ F (ω)(
f(ω(t))−∫ t0 Luf(ω(u))du
)
jest ciągłą i ograniczoną funkcją
z C w R, więc skoro P (nk) ⇒ Q, to
limk→∞
EP (nk)
(
f(Zt)−∫ t
0Luf(Zu)du
)
F (Z) = EQ
(
f(Zt)−∫ t
0Luf(Zu)du
)
F (Z). (3.9)
Zauważmy, że
EP (n)
∫ t
0
∣∣∣Luf(Zu)− L(n)
u (Zu)∣∣∣ du ≤
∫ t
0supx∈R
∣∣∣Luf(x)− L(n)
u (x)∣∣∣ du
Funkcje pod całką po prawej stronie zbiegają do 0 dla prawie wszystkich u i są wspólnie ogra-niczone przez pewną stałą, co wynika z naszych założeń o a(n), b(n), a i b (zbieżność jednostajnadla każdego u i ograniczoność). Zatem całe wyrażenie zbiega do 0 przy n → ∞.
Używamy równania (3.8) dla podciągu nk. Standardowy argument polegający na dodaniu iodjęciu EP (nk)
∫ t0 Luf(Zu)du po lewej stronie równania (3.8) i odpowiedniej całki EP (nk)
∫ s0 . . . du
po prawej stronie, obserwacji powyżej oraz (3.9) prowadzi do (3.7).
Część II
Procesy Markowa
29
Rozdział 4
Proces Poissona
4.1 Proces Poissona – definicja i konstrukcja
Definicja 4.1. Proces (Nt)t≥0 nazywa się procesem Poissona z parametrem λ, (λ > 0), jeżeli
1. N0 = 0;
2. N ma przyrosty niezależne, tj. dla dowolnych 0 ≤ t1 ≤ . . . ≤ tn zmienne losowe Nt1 , Nt2−Nt1 , . . . , Ntn −Ntn−1 są niezależne;
3. Dla dowolnych 0 ≤ s < t zmienna losowa Nt −Ns ma rozkład Poissona z parametrem λt,
tj. P (Nt −Ns = k) = (λ(t−s))k
k! e−λ(t−s);
4. N ma prawostronnie ciągłe trajektorie.
Parametr λ nazywa się parametrem intensywności skoków procesu Poissona.
Z uwagi na przybliżenie rozkładu dwumianowego rozkładem Poissona, proces Poissona jestdobrym modelem np. dla procesu liczby wezwań centrali telefonicznej, albo liczby szkód zgło-szonych przez klientów towarzystwa ubezpieczeniowego, gdy rozważa się takie rodzaje szkód, októrych można założyć, że występują niezależnie u każdego z klientów.
Twierdzenie 4.2. Niech ρ1, ρ2, . . . będą niezależnymi zmiennymi losowymi o tym samym roz-kładzie wykładniczym z parametrem λ, tj. o gęstości g(x) = λe−λx11(0,∞)(x). Ponadto oznaczmyτ0 = 0, τk = ρ1 + ρ2 + . . .+ ρk dla k = 1, 2, . . .. Wówczas proces
Nt = supk : τk ≤ t, t ∈ R (4.1)
jest procesem Poissona z parametrem λ.
Uwaga: Na ćwiczeniach zobaczymy, że każdy proces spełniający warunki 1-4 w Definicji 4.1 mataką postać.
Dowód. Z mocnego prawa wielkich liczb wynika, że τnn → Eρ1 =
1λ p.n., gdy n → ∞, więc τn →
∞. Zatem proces N ma p.n. wartości skończone, całkowite nieujemne. Ponadto P (ρj > 0, j =1, 2, . . .) = 1. Stąd w szczególności N0 = 0 p.n. Te zbiory miary zero odrzucamy (tj. wykażemy,że proces N jest nieodróżnialny od procesu Poissona, ale procesy nieodróżnialne utożsamiamy).Jest jasne, że proces N zdefiniowany przez (4.1) ma prawostronnie ciągłe trajektorie.
31
32 ROZDZIAŁ 4. PROCES POISSONA
Pozostaje wykazać własności 2. i 3. z Definicji 4.1. Najpierw znajdziemy rozkład Nt. Wia-
domo, że τk ma rozkład Γ(k, λ), a więc P (τk ≤ t) = 1− e−λt∑k−1
j=0(λt)j
j! . Stąd
P (Nt = k) = P (τk ≤ t < τk+1) = P (τk ≤ t)− P (τk+1 ≤ t) =(λt)k
k!e−λt.
Zatem Nt ma rozkład Poissona z parametrem λt.
Można to było również policzyć bezpośrednio:
P (Nt = k) =P (ρ1 + . . .+ ρk ≤ t, ρ1 + . . .+ ρk+1 > t)
=
∫
0<x1<x1+x2<...<x1+...+xk≤t<x1+...+xk+1
λkλe−λ∑k+1
i=1 xidx1 . . . dxk+1.
Następnie używamy podstawienia yj =∑j
i=1 xi, j = 1, 2, . . . , k+1 i jak poprzenio, otrzymujemy
P (Nt = k) =
∫
0<y1<y2<...<yk≤t<yk+1
λkλe−λyk+1dykdy1 . . . dyk
=
∫
0<y1<y2<...<yk≤tdy1 . . . dykλ
ke−λt
=tk
k!λke−λt
Pozostaje wykazać, że N ma niezależne przyrosty oraz dla dowolnych s, t > 0 zmienna losowaNt+s −Nt ma taki sam rozkład jak Ns.
Ustalmy dowolne t > 0 i oznaczmy ρ(t)1 = τNt+1 − t, ρ
(t)k = ρNt+k, k = 2, 3, . . . -jeśli
τk oznaczają momenty zajścia pewnych zdarzeń, to ρ(t)1 jest czasem oczekiwania na pierwsze
zdarzenie po chwili t, ρ(t)2 odstęp pomiędzy pierwszym a drugim zdarzeniem po chwili t itd.
Wykażemy, że dla dowolnego n ∈ N k ∈ Z+, r1, . . . , rn > 0 zachodzi
P (Nt = k, ρ(t)1 > r1, ρ
(t)2 > r2, . . . , ρ
(t)n > rn) = P (Nt = k)e−λr1 . . . e−λrn (4.2)
Rozpisując lewą stronę (4.2), korzystając z definicji ρ(t)k , a następnie faktu, że ρk+2, . . . , ρk+n sąi.i.d. o rozkładzie wykładniczym i są niezależne od ρ1, . . . , ρk+1 mamy
P (Nt = k,ρ(t)1 > r1, ρ
(t)2 > r2, . . . , ρ
(t)n > rn)
=P (τk ≤ t < τk + ρk+1, τk + ρk+1 − t > r1, ρk+2 > r2, . . . , ρk+n > rn)
=P (τk ≤ t < τk + ρk+1, τk + ρk+1 − t > r1)e−λr2 . . . e−λrn (4.3)
Zajmijmy się teraz pierwszym czynnikiem w (4.3). Oznaczmy przez f gęstość rozkładu τk.
4.1. PROCES POISSONA – DEFINICJA I KONSTRUKCJA 33
Wtedy
P (τk ≤ t < τk + ρk+1, τk + ρk+1 − t > r1) =
∫
x≤t<x+y,x+y−t>r1f(x)λe−λydxdy
=
∫
x≤t
∫
t−x+r1<yλe−λydyf(x)dx
=
∫ t
0e−λ(t−x+r1)f(x)dx
=e−λr1
∫ t
0e−λ(t−x)f(x)dx
=e−λr1
∫ t
0P (ρk+1 > t− x)f(x)dx
=e−λr1P (τk ≤ t < τk + ρk+1)
=e−λr1P (Nt = k).
Wstawiając otrzymany wyżej wynik do (4.3) otrzymujemy (4.2).
Z (4.2) i lematu o π i λ–układach wynika, że Nt jest niezależne od (ρ(t)1 , ρ
(t)2 , . . .) oraz
ρ(t)1 , ρ
(t)2 , . . . są i.i.d. o rozkładzie wykładniczym z parametrem λ.
Stąd łatwo wywnioskować przy pomocy indukcji, że dla każdego n ∈ N i dowolnych 0 =s0 < s1 < s2, . . . , sn, m1, . . . mn ∈ 0, 1, 2, . . . zachodzi
P (Nsj −Nsj−1 = mj, j = 1, . . . , n) =
n∏
j=1
P (Nsj−sj−1 = mj). (4.4)
Rzeczywiście, jeżeli n = 1, to równość (4.4) jest oczywista. Przypuśćmy, że mamy (4.4) dla n.Wykażemy, że (4.4) zachodzi też dla n+ 1.
P (Ns1 = m1, Ns2 −Ns1 = m2, . . . , Nsn+1 −Nsn = mn+1)
= P (Ns1 = m1, Ns2 −Ns1 = m2, (Ns3 −Ns1)− (Ns2 −Ns1) = m3, . . . ,
(Nsn+1 −Ns1)− (Nsn −Ns1) = mn+1).
Zauważmy, że proces (Nt+s1 −Ns1)t≥0 zależy tylko od ρ(s1)j , j = 1, 2, . . . i to w ten sam sposób
w jaki proces (Nt)t≥0 zależy od ρj, j = 1, 2, . . .. Stąd i z niezależności Ns1 od ρ(s1)j , j = 1, 2, . . .
otrzymujemy
P (Ns1 = m1, Ns2 −Ns1 = m2, Ns3 −Ns2 = m3 . . . , Nsn+1 −Nsn = mn+1)
= P (Ns1 = m1)P (Ns2−s1 = m2, Ns3−s1 −Ns2−s1 = m3 . . . , Nsn+1−s1 −Nsn−s1 = mn+1).
Korzystamy teraz z założenia indukcyjnego i otrzymujemy
P (Ns1 = m1, Ns2 −Ns1 = m2, Ns3 −Ns2 = m3 . . . , Nsn+1 −Nsn = mn+1)
= P (Ns1 = m1)P (Ns2−s1 = m2)P (Ns3−s2 = m3)P (Nsn+1−sn = mn+1).
Kończy to dowód tożsamości (4.4) i dowód całego twierdzenia, gdyż (4.4) oznacza zarówno to,że przyrosty są niezależne, jak i to, że Nt −Ns ma taki sam rozkład jak Nt−s dla t > s.
34 ROZDZIAŁ 4. PROCES POISSONA
4.2 Uogólniony proces Poissona
Jeżeli N jest procesem Poissona z parametrem λ, to dla każdego t ≥ 0 mamy P (Nt+h −Nt =1) = λh + o(h) oraz P (Nt+h − Nt ≥ 2) = o(h) przy czym λ nie zależy od t. Proces jestjednorodny w czasie. W wielu zastosowaniach założenie jednorodności jest zbyt ograniczające,dlatego rozważa się tzw. uogólniony proces Poissona postaci:
Xt = Nf(t),
gdzie N jest procesem Poissona z parametrem 1, a f ≥ 0 jest niemalejącą funkcją ciągłąf(0) = 0.
Jeśli f jest klasy C1, to f ′(t) jest chwilową intensywnością skoków w chwili t.
4.3 Złożony proces Poissona
Definicja 4.3. Złożonym procesem Poissona nazywamy proces X postaci
Xt =Nt∑
k=1
ξk,
gdzie N jest procesem Poissona z parametrem λ, a ξ1, ξ2, . . . są niezależnymi zmiennymi loso-wymi o rozkładzie µ, niezależnymi też od procesu N .
Łatwo sprawdzić (ćwiczenie), że złożony proces Poissona ma przyrosty niezależne i stacjo-narne oraz dla s < t przyrost Xt −Xs ma rozkład
∞∑
k=0
λ(t− s)k
k!e−λ(t−s)µ∗k.
Jeżeli ξ mają wartości rzeczywiste, to rozkład ten ma funkcję charakterystyczną
Eeiu(Xt−Xs) = e−λ(t−s)∫R(1−eiux)µ(dx).
Rozdział 5
Procesy Markowa - definicja i proste
własności
W tym rozdziale będziemy rozważać procesy stochastyczne określone na pewnej przestrzeniprobabilistycznej (Ω,F , P ), przyjmujące wartości w przestrzeni polskiej (E, ρ). Przestrzeń Ezawsze rozważamy z σ-ciałem zbiorów borelowskich oznaczanym przez B. Później ograniczymysię do przypadku (E,B) = (Rd,B(Rd)). T ⊂ R jest zbiorem indeksów procesu X = (Xt)t∈T .Oznaczmy też
FXt = σ(Xs : s ≤ t, s ∈ T ), F
X≥t = σ(Xs : s ≥ t, s ∈ T )
5.1 Definicja procesu Markowa i warunki równoważne
Definicja 5.1. Mówimy, że proces (Xt)t∈T o wartościach w E jest procesem Markowa jeżelidla dowolnych t ∈ T , A ∈ FX
≥t i B ∈ FXt zachodzi
P (A ∩B|Xt) = P (A|Xt)P (B|Xt). (5.1)
Nieformalnie mówiąc warunek (5.1) oznacza, że pod warunkiem, że znamy stan procesu wchwili obecnej t, “przyszłość” jest niezależna od “przeszłości”.
Uwaga 5.2. Warunek (5.1) jest symetryczny ze względu na rolę przyszłości i przeszłości. Dla-tego, jeżeli X jest procesem Markowa, to proces otrzymany z X przez odwrócenie czasu równieżjest procesem Markowa.
Definicję procesu Markowa można przeformułować na kilka sposobów:
Twierdzenie 5.3. Następujące warunki są równoważne:
(1) X jest procesem Markowa;
(2) ∀t ∈ T , ∀ ξ FX≥t mierzalnej, ∀ η FX
t mierzalnej i takich, że ξ, η, ξη ∈ L1(Ω,F , P )zachodzi
E(ξη|Xt) = E(ξ|Xt)E(η|Xt);
35
36 ROZDZIAŁ 5. PROCESY MARKOWA - DEFINICJA I PROSTE WŁASNOŚCI
(3) ∀t ∈ T , ∀ξ FX≥t mierzalnej, ξ ∈ L1(Ω,F , P ) zachodzi
E(ξ|FXt ) = E(ξ|Xt);
(4) ∀t ∈ T , ∀A ∈ FX≥t, zachodzi
P (A|FXt ) = P (A|Xt);
(5) ∀t ∈ T , ∀h > 0 takiego, że t+ h ∈ T , ∀Γ ∈ B zachodzi
P (Xt+h ∈ Γ|FXt ) = P (Xt+h ∈ Γ|Xt);
(6) ∀t ∈ T , ∀h > 0, t+ h ∈ T , ∀f : E 7→ R borelowskiej i takiej, że f(Xt+h) ∈ L1(Ω,F , P )zachodzi
E(f(Xt+h)|FXt ) = E(f(Xt+h)|Xt);
(7) ∀t ∈ T , ∀h > 0, t+ h ∈ T , ∀Γ ∈ B, ∀ s1 < s2 < . . . < sn = t, sj ∈ T zachodzi
P (Xt+h ∈ Γ|Xs1 , . . . ,Xsn) = P (Xt+h ∈ Γ|Xt);
Uwaga. Odpowiedniki warunków (3)-(7) można sformułować także dla “przyszłości”.Przypomnienie: wszystkie równości, w których występuje warunkowa wartość oczekiwana sąrównościami p.n., gdyż warunkowa wartość oczekiwana jest zdefiniowana z dokładnością dorówności p.n.
Dowód. “(1) ⇒ (2)” standardowo: najpierw sprawdzamy (2) dla ξ = 11A η = 11B , gdzieA ∈ FX
≥t, B ∈ FXt , następnie dla funkcji prostych, później dla nieujemnych, korzystając z
twierdzenia o zbieżności monotonicznej. W końcu dla dowolnych ξ = ξ+ − ξ−, η = η+ − η−.Implikacja “(2) ⇒ (1)” jest oczywista, gdy w (2) przyjmiemy ξ = 11A η = 11B , A ∈ FX
≥t,B ∈ FX
t .Tak samo pokazuje się równoważność “(5) ⇔ (6)”.“(2) ⇒ (3)”: Z definicji warunkowej wartości oczekiwanej, E(ξ|Xt) jest FX
t mierzalna. Abywykazać, że E(ξ|FX
t ) = E(ξ|Xt) trzeba więc tylko sprawdzić, że dla każdego B ∈ FXt zachodzi
∫
BE(ξ|Xt)dP =
∫
BξdP.
Mamy
∫
BE(ξ|Xt)dP = E(11BE(ξ|Xt)) = EE
(11BE(ξ|Xt)
∣∣Xt
)
E(ξ|Xt) jest Xt mierzalne= E [E(ξ|Xt)E(11B |Xt)]
(2)= EE(ξ11B |Xt) = E(ξ11B) =
∫
BξdP.
“(3) ⇒ (4)” otrzymujemy natychmiast przyjmując ξ = 11A.“(4) ⇒ (1)”: Z (4) wiemy, że P (A|FX
t ) = P (A|Xt). Zmienna losowa P (A|Xt)P (B|Xt) jestσ(Xt) mierzalna. Wiemy też, że σ(Xt) = Xt ∈ Γ : Γ ∈ B, wystarczy więc sprawdzić, żedla każdego Γ ∈ B zachodzi
E(11Xt∈ΓP (A|Xt)P (B|Xt)
)= E
(11Xt∈Γ11A11B
).
5.1. DEFINICJA PROCESU MARKOWA I WARUNKI RÓWNOWAŻNE 37
Mamy
E
11Xt∈ΓE(11A|Xt)︸ ︷︷ ︸
Xt mierzalne
E(11B |Xt)
=EE
(11Xt∈ΓE(11A|Xt)11B |Xt
)
EE(·|Xt)=E(·)= E
(11Xt∈ΓE(11A|Xt)11B
)
(4)=E
11Xt∈Γ11B︸ ︷︷ ︸
FXt mierzalne
E(11A|FXt )
=EE(11Xt∈Γ11B11A|FX
t
)
=E(11Xt∈Γ11B11A).
Wykazaliśmy równoważność pierwszych czterech warunków.“(4) ⇒ (5)” jest oczywiste, kładziemy A = Xt+h ∈ Γ ∈ FX
≥t.“(5) ⇒ (6)” już zauważyliśmy, że pokazuje się tak samo jak “(1) ⇒ (2)”.“(6) ⇒ (4)”: Pokażemy najpierw, że dla dowolnych n ∈ N, t = t1 < t2 < . . . < tn, tj ∈ T
i dowolnych funkcji mierzalnych i ograniczonych f1, . . . , fn : E 7→ R zachodzi
E(f(Xt1) . . . f(Xtn)|FX
t
)= E (f(Xt1) . . . f(Xtn)|Xt) . (5.2)
Dowód przez indukcję. (5.2) jest oczywiście prawdziwe dla n = 1. Jeśli n = 2, to
E(f(Xt1)f(Xt2)|FX
t
)= f(Xt1)E
(f(Xt2)|FX
t
) (6)= f(Xt1)E (f(Xt2)|Xt) = E (f(Xt1)f(Xt2)|Xt) .
Przypuśćmy, że (5.2) zachodzi dla n, wykażemy, że zachodzi też dla n+ 1.
E(f(Xt1) . . . f(Xtn)f(Xtn+1)|FX
t
)=E(E(f(Xt1) . . . f(Xtn)︸ ︷︷ ︸
FXtn
mierzalne
f(Xtn+1)|FXtn
)|FX
t
)
=E(f(Xt1) . . . f(Xtn)E
(f(Xtn+1)|FX
tn
)|FX
t
)
(6)=E(f(Xt1) . . . f(Xtn)E
(f(Xtn+1)|Xtn
)
︸ ︷︷ ︸
=g(Xtn)
|FXt
)
zal. ind.= E
(f(Xt1) . . . f(Xtn)E
(f(Xtn+1)|Xtn
)|Xt
)
(6)=E(f(Xt1) . . . f(Xtn)︸ ︷︷ ︸
FXtn
mierzalne
E(f(Xtn+1)|FX
tn
)|Xt
)
=E(E(f(Xt1) . . . f(Xtn)f(Xtn+1)|FX
tn
)|Xt
)
=E(f(Xt1) . . . f(Xtn)f(Xtn+1)|Xt
).
Wykazaliśmy (5.2) dla n+ 1.“(5) ⇒ (7)” jest jasne.
38 ROZDZIAŁ 5. PROCESY MARKOWA - DEFINICJA I PROSTE WŁASNOŚCI
“(7) ⇒ (5)” wynika z lematu o π i λ układach, gdyż klasa zbiorów postaci Xt1 ∈ Γ1, . . . ,Xtn ∈Γn, n ∈ N, 0 ≤ t1 < t2 < . . . tn ≤ t, Γ1, . . . ,Γn ∈ B jest π-układem generującym FX
t , a klasatych zbiorów A, dla których zachodzi
E(E(11Xt+h∈Γ|Xt)11A
)= E11Xt+h∈Γ11A
jest λ-układem.
Uwaga. Jeżeli T = Z+, to X jest procesem Markowa wtedy i tylko wtedy gdy
P (Xn+1 ∈ Γ|FXn ) = P (Xn+1 ∈ Γ|Xn). (5.3)
⇔ E(f(Xn+1)|FXn ) = P (f(Xn+1)|Xn) dla f mierzalnej i ograniczonej. Przez indukcję pokazu-
jemy, że jeżeli zachodzi (5.3) to spełniony jest warunek (6).
Definicja 5.4. Niech X = (Xt)t∈T będzie procesem określonym na (Ω,F , P ) i niech (Ft)t∈Tbędzie pewną ustaloną filtracją. Mówimy, że X jest procesem Markowa względem filtracji(Ft)t∈T jeżeli X jest adaptowany do (Ft)t∈T oraz dla dowolnych t ∈ T , h > 0, t+ h ∈ T orazΓ ∈ B zachodzi
P (Xt+h ∈ Γ|Ft) = P (Xt+h ∈ Γ|Xt).
Uwaga 5.5. (a) Warunek z Definicji 5.4 można przeformułować równoważnie: dla dowolnycht ∈ T , h > 0, t+ h ∈ T oraz f : E 7→ R borelowskiej i ograniczonej zachodzi
E(f(Xt+h)|Ft) = E(f(Xt+h|Xt).
(b) Jeżeli X jest procesem Markowa względem pewnej filtracji (Ft)t∈T , to jest też procesemMarkowa względem swojej filtracji naturalnej (FX
t ), tj. procesem Markowa w sensie Definicji5.1, bo wtedy
E(f(Xt+h)|FXt ) = E
(E(f(Xt+h)|Ft)
∣∣F
Xt
)= E
(E(f(Xt+h)|Xt)
∣∣F
Xt
)= E(f(Xt+h)|Xt).
5.2 Funkcja przejścia
Niech X będzie procesem Markowa względem pewnej filtracji (Ft)t∈T . Z założenia, że prze-strzeń stanów E jest przestrzenią polską i Twierdzenia 2.6 wynika, że dla dowolnych s ≤ t,s, t ∈ T , istnieje regularny rozkład warunkowy Xt pod warunkiem Xs, tzn. istnieje taka funkcja(s, x, t,Γ) 7→ P (s, x, t,Γ), x ∈ E, s ≤ t, s, t ∈ T , Γ ∈ B, że
(i) ∀s ≤ t, s, t ∈ T , ∀ x ∈ E P (s, x, t, ·) jest miarą probabilistyczną na (E,B),
(ii) ∀s ≤ t, s, t ∈ T , ∀ Γ ∈ B funkcja x 7→ P (s, ·, t,Γ) jest B mierzalna,
(iii) ∀ s ∈ T , ∀ x ∈ E, P (s, x, s, ·) = δx
Ponadto(v) ∀ s ≤ t, s, t ∈ T , ∀ Γ ∈ B P (Xt ∈ Γ|Fs) = P (Xt ∈ Γ|Xs) = P (s,Xs, t,Γ) p.n.
Przy ustalonych s, t,Γ funkcja P (s, ·, t,Γ) jest wyznaczona jednoznacznie z dokładnością dorówności µXs-p.w., gdzie µs oznacza rozkład zmiennej losowej Xs.
5.2. FUNKCJA PRZEJŚCIA 39
Z powyższych warunków wynika również, że dla dowolnej funkcji f : E 7→ R borelowskiej itakiej, że E |f(Xt)| < ∞ zachodzi
E(f(Xt)|Fs) =
∫
Ef(y)P (s,Xs, t, dy) p.n. (5.4)
Dowód standardowy – najpierw dla funkcji prostych, następnie przejście graniczne, por. dowódStwierdzenia 2.3.
Niech s < u < t, s, u, t ∈ T . Wówczas
P (s,Xs, t,Γ) = P (Xt ∈ Γ|Xs) = P (Xt ∈ Γ|Fs) = E(P (Xt ∈ Γ|Fu)|Fs)
= E(P (u,Xu, t,Γ)|Fs) =
∫
EP (u, y, t,Γ)P (s,Xs, u, dy) p.n.
Zatem, dla µXs p.w. x zachodzi
P (s, x, t,Γ) =
∫
EP (u, y, t,Γ)P (s, x, u, dy). (5.5)
Jest to tzw. Równanie Chapmana-Kołmogorowa.
Wykazaliśmy, że istnieje funkcja (s, x, t,Γ) 7→ P (s, x, t,Γ) spełniająca warunki (i)-(iii), (v)i jest ona jednoznacznie określona z dokładnością do równości µXs p.w. oraz równanie (5.5)jest spełnione dla µXs p.w. x. W dalszej części wykładu będziemy zakładać, że funkcja P jestokreślona dla wszystkich x i równanie (5.5) zachodzi wszędzie. Funkcję P nazywa się wtedyfunkcją przejścia.
Definicja 5.6. (Funkcja przejścia) Niech (s, x, t,Γ) 7→ P (s, x, t,Γ) będzie funkcją określonąna (s, x, t,Γ) ∈ T × E × T × B : s ≤ t. Mówimy, że P jest funkcją przejścia jeżeli zachodząnastępujące warunki
(i) ∀s ≤ t, s, t ∈ T , ∀ x ∈ E P (s, x, t, ·) jest miarą probabilistyczną na (E,B),
(ii) ∀s ≤ t, s, t ∈ T , ∀ Γ ∈ B funkcja x 7→ P (s, ·, t,Γ) jest B mierzalna,
(iii) ∀ s ∈ T , ∀ x ∈ E P (s, x, s, ·) = δx,
(iv) ∀x ∈ E, ∀ s ≤ t, s, t ∈ T , ∀ Γ ∈ B zachodzi równanie Chapmana-Kołmogorowa (5.5).
Definicja 5.7. Proces X = (Xt)t∈T o wartościach w przestrzeni E, jest procesem Markowa zfunkcją przejścia P , jeżeli P spełnia warunki Definicji 5.6 i dodatkowo zachodzi(v) P (Xt ∈ Γ|FX
s ) = P (Xt ∈ Γ|Xs) = P (s,Xs, t,Γ) p.n. ∀s ≤ t, s, t ∈ T , Γ ∈ B.
Uwaga 5.8. Gdy X jest procesem Markowa względem filtracji większej niż (FXt )t∈T , to funkcja
przejścia pozostaje ta sama.
Definicja 5.9. Niech (Xt)t≥0 będzie procesem Markowa z funkcją przejścia P . Mówimy, żeproces X jest jednorodny (w czasie), jeżeli
P (s, x, t,Γ) = P (s+ h, x, t+ h,Γ)
dla wszystkich x ∈ E, s ≤ t, h > 0, s, t, s+ h, t+ h ∈ T , Γ ∈ B.
40 ROZDZIAŁ 5. PROCESY MARKOWA - DEFINICJA I PROSTE WŁASNOŚCI
Funkcja przejścia zależy wtedy od trzech argumentów, będziemy ją wtedy pisać jako
P (t, x,Γ) := P (0, x, t,Γ) = P (h, x, t + h,Γ).
Uwaga terminologiczna: Proces Markowa z czasem dyskretnym nazywa się łańcuchem
Markowa. Jeżeli czas jest ciągły, np. T = R+, ale przestrzeń stanów E jest dyskretna, toodpowiednie procesy Markowa często nazywa się łańcuchami Markowa z czasem ciągłym.
5.3 Przykłady procesów Markowa
Przykład 5.10. Niech X0, ξ1, ξ2, . . . będą niezależnymi zmiennymi losowymi, X0 ma wartościw przestrzeni polskiej E, a ξ1, ξ2, . . . przyjmują wartości w pewnej przestrzeni E1. Ponadto,niech hn : E × E1 7→ E, n = 1, 2, . . . będą funkcjami mierzalnymi wzgl. odpowiednich σ-ciał.Definiujemy proces z czasem dyskretnym następująco:
Xn+1 = hn+1(Xn, ξn+1), n = 0, 1, 2, . . .
Proces X = (Xn)∞n=0 jest adaptowany do filtracji (Fn), gdzie F0 = σ(X0), Fn = σ(X0, ξ1, . . . , ξn),
n ∈ N. Ponadto, dla każdego Γ ∈ B zachodzi
P(Xn+1 ∈ Γ|Fn) = P (hn+1(Xn, ξn+1) ∈ Γ|Fn) = P(hn+1(x, ξn+1) ∈ Γ)
∣∣∣∣x=Xn
= P(Xn+1 ∈ Γ|Xn).
Zatem (Xn)∞n=0 jest łańcuchem Markowa (względem filtracji (Fn)
∞n=0) z funkcją przejścia w
jednym kroku postaci
P (n, x, n + 1,Γ) = P(hn+1(x, ξn+1) ∈ Γ).
Jeżeli ξ1, ξ2, . . . są i.i.d. oraz hn = h, nie zależy od n, to łańcuch Markowa (Xn) jest jednorodnyw czasie.
Przykład 5.11. Niech (Xt)t ∈ R+ będzie procesem o przyrostach niezależnych. Wówczas dladowolnych s ≤ t Zmienna losowa Xt −Xs jest niezależna od FX
s i mamy
P(Xt ∈ Γ|FXs ) = P((Xt−Xs)+Xs ∈ Γ|FX
s ) = P(Xt−Xs+x ∈ Γ)
∣∣∣∣x=Xs
= P(Xt ∈ Γ|Xs) p.n.
X jest procesem Markowa z funkcją przejścia
P (s, x, t,Γ) = P(x+Xt −Xs ∈ Γ).
Jeżeli dodatkowo X ma stacjonarne przyrosty, to X jest jednorodnym procesem Markowa.
W szczególności, proces Wienera W jest jednorodnym procesem Markowa z funkcją przejścia
P (t, x,Γ) =
∫
Γ
1√2πt
e−(y−x)2
2t dy.
5.4. ROZKŁADY SKOŃCZENIE WYMIAROWE PROCESU MARKOWA 41
Przykład 5.12. Proces Ornsteina-Uhlenbecka. Niech X będzie procesem spełniającym rów-nanie stochastyczne
dXt = −αXtdt+ dWt
Na ćwiczeniach wykazaliśmy, że proces X jest procesem Markowa i rozkład warunkowy Xt
pod warunkiem Xs = x jest rozkładem normalnym o średniej e−α(t−s)x i wariancji 1−e−2α(t−s)
2α .Proces ten jest jednorodny w czasie i ma funkcję przejścia
P (t, x,Γ) =
∫
Γ
1√
2π 1−e−2αt
2α
exp
(y − e−αtx)2
21−e−2αt
2α
dy.
Później zobaczymy ogólniejszy fakt – przy założeniu istnienia i jednoznaczności rozwiązańodpowiedniego problemu martyngałowego, rozwiązania równań stochastycznych postaci
dXt = b(t,Xt)dt+ σ(t,Xt)dWt
są procesami Markowa.
W dwóch poprzednich przykładach funkcja przejścia miała postać
P (s, x, t,Γ) =
∫
Γp(s, x, t, y)dy.
W takim przypadku p nazywa się gęstością przejścia.
5.4 Rozkłady skończenie wymiarowe procesu Markowa
Niech (Xt)t∈T będzie procesem Markowa względem (Ft) z funkcją przejścia P . Niech s ≤ t1 <t2 < . . . tn, s, t1, . . . , tn ∈ T . Korzystając ze wzoru (5.4) dla dowolnych funkcji borelowskich iograniczonych fj : E 7→ R, j = 1, . . . , n otrzymujemy
E (f1(Xt1) . . . fn(Xtn)|Fs) =E(E(f1(Xt1) . . . fn(Xtn)|Ftn−1
) ∣∣Fs
)
=E(f1(Xt1) . . . f(Xtn−1)E
(fn(Xtn)|Ftn−1
) ∣∣Fs
)
=E
f1(Xt1) . . . f(Xtn−1)
∫
Efn(yn)P (tn−1,Xtn−1 , tn, dyn)
︸ ︷︷ ︸
=g(Xtn−1 )
∣∣∣∣∣Fs
przez indukcję
=
∫
En
f1(y1) . . . fn−1(yn−1)fn(yn)P (tn−1, yn−1, tn, dyn)P (tn−2, yn−2, tn−1, dyn−1) . . . P (s,Xs, t1, dy1)
(5.6)W szczególności, kładąc fk = 11Γk
, Γk ∈ B, i oznaczając przez µXs rozkład zmiennej losowejXs otrzymujemy
42 ROZDZIAŁ 5. PROCESY MARKOWA - DEFINICJA I PROSTE WŁASNOŚCI
Stwierdzenie 5.13. Założenia j.w. Wówczas dla dowolnych Γ1, . . . ,Γn ∈ B zachodzi
P (Xt1 ∈ Γ1, . . . ,Xtn ∈ Γn) =
∫
E
∫
Γ1
. . .
∫
Γn−1
∫
Γn
P (tn−1, yn−1, tn, dyn)
P (tn−2, yn−2, tn−1, dyn−1) . . . P (s, x, t1, dy1)µXs(dx). (5.7)
Gdy T = R+ lub T = Z+, zwykle powyższe stwierdzenie stosuje się dla s = 0. Wzór (5.7)opisuje rozkłady skończenie wymiarowe procesu Markowa. Otrzymujemy
Wniosek 5.14. Funkcja przejścia i rozkład początkowy jednoznacznie wyznaczają rozkłady skoń-czenie wymiarowe procesu Markowa.
Korzystając z twierdzenia Kołmogorowa o zgodnych rodzinach rozkładów (o istnieniu pro-cesu) łatwo jest wykazać:
Twierdzenie 5.15. Jeżeli P jest funkcją przejścia (patrz Definicja 5.6), a µ jest rozkładem pro-babilistycznym na E, to istnieje proces Markowa z funkcją przejścia P i rozkładzie początkowymµ.
W dowodzie definiuje się rodzinę rozkładów przy pomocy prawej strony (5.7) z s = 0i µs = µ. Warunki zgodności sprawdza się korzystając z równania Chapmana-Kołmogorowa. Ztwierdzenia Kołmogorowa wynika istnienie procesu o rozkładach skończenie wymiarowych po-staci (5.7). Jest jasne, że ten proces jest procesem Markowa z funkcją przejścia P . Korzystającz postaci rozkładów skończenie wymiarowych łatwo widać, że P(Xt ∈ Γ|Xs) = P (s,Xs, t,Γ) dlas < t i Γ ∈ B oraz, że spełniony warunek (7) z Twierdzenia 5.3.
Rozdział 6
Jednorodne rodziny Markowa
6.1 Definicja jednorodnej rodziny Markowa
Od tej pory będziemy się zajmować wyłącznie procesami Markowa jednorodnymi w czasie. Dlauproszczenia zapisu założymy, że T = R+ lub Z+, ale wszystko się przenosi także na przedziaływ tych zbiorach. Rozważamy procesy Markowa przyjmujące wartości w przestrzeni polskiej(E,B).
Funkcja przejścia jest wtedy funkcją trzech zmiennych i przeformułowując odpowiednio De-finicję 5.6 mamy
Definicja 6.1. Niech (t, x,Γ) 7→ P (t, x,Γ) będzie funkcją określoną na T × E × B. Mówimy,że P jest jednorodną funkcją przejścia jeżeli zachodzą następujące warunki
(i) ∀ ∈ T , x ∈ E P (t, x, ·) jest miarą probabilistyczną na (E,B),
(ii) ∀t ∈ T , Γ ∈ B funkcja x 7→ P (s, ·, t,Γ) jest B mierzalna,
(iii) P (t, x, ·) = δx s ∈ T , x ∈ E,
(iv) ∀x ∈ E, s, t ∈ T , Γ ∈ B zachodzi równanie Chapmana-Kołmogorowa
P (t+ s, x,Γ) =
∫
EP (s, y,Γ)P (t, x, dy) (6.1)
Przypomnijmy, że proces X = (Xt)t∈T określony na (Ω,F ,P) jest jednorodnym procesemMarkowa względem filtracji (Ft)t∈T z funkcją przejścia P , jeśli X jest adaptowany do (Ft)t∈Toraz
P(Xt ∈ Γ|Fs) = P (t− s,Xs,Γ) p.n. ∀ x ∈ E, ∀ s ≤ t, s, t ∈ T.
Definicja 6.2. Niech (Ω,F ) będzie przestrzenią mierzalną z filtracją (Ft)t∈T . Przypuśćmy,że dla każdego t ∈ T Xt : Ω 7→ E jest funkcją mierzalną (tj. zmienną losową) i dla każdegox ∈ E Px jest prawdopodobieństwem na (Ω,F ). Niech P : T ×E×B 7→ R+ będzie jednorodnąfunkcją przejścia.
Rodzinę ((Xt)t∈T , (Ft), (Px)x∈E) nazywamy jednorodną rodziną Markowa z funkcjąprzejścia P jeżeli
43
44 ROZDZIAŁ 6. JEDNORODNE RODZINY MARKOWA
(i) dla każdego x ∈ E proces (Xt)t≥0 jest jednorodnym procesem Markowa względem (Ft)na przestrzeni probabilistycznej (Ω,F ,Px) z tą samą funkcją przejścia P ;
(ii) ∀x ∈ E Px(X0 = x) = 1.
Uwaga. Jeżeli P spełnia warunki (i)-(ii) Definicji 6.2 oraz X = (Xt)t∈R+ jest procesem stocha-stycznym określonym na (Ω,F ), adaptowanym do filtracji (Ft)t∈T , (Px)x∈E jest rodziną miarprobabilistycznych na (Ω,F ) takich, że dla każdego x ∈ E, s ≤ t, s, t ∈ T oraz Γ ∈ B
Px(Xt ∈ Γ|Fs) = P (t− s,Xs,Γ) p.n,
to P spełnia równanie Chapmana-Kołmogorowa (wynika z (5.5) i faktu, że Px(X0 = x))
Z Twierdzenia 5.15 wynika
Twierdzenie 6.3. Jeżeli przestrzeń E jest przestrzenią polską, to dla dowolnej jednorodnejfunkcji przejścia istnieje jednorodna rodzina Markowa z tą funkcją przejścia.
Za (Ω,B) przyjmuje się przestrzeń kanoniczną, tj. Ω = ET (wszystkie funkcje z T w E)z B – σ-ciałem generowanym przez cylindry. Jeśli T = R+ i rozważane procesy są ciągłe,to wystarczy ograniczyć się do funkcji ciągłych Ω = C([0,∞), E). Xt(ω) := ω(t) (proceskanoniczny), (Ft)t∈T – filtracja generowana przez (Xt)t∈T . Z twierdzenia Kołmogorowa (por.Tw 5.15) wynika istnienie miary probabilistycznej Px spełniającej wymagane warunki.
Przykład 6.4. Jednorodna rodzina Wienera.Niech Ω = C([0,∞)), F = σ-ciało generowane przez cylindry, Xt(ω) = ω(t), Ft = FX
t , P0 –miara Wienera (rozkład standardowego procesu Wienera, start z zera). Px = P0(A− x), gdzieA − x := ω : ω(t) = ω(t) − x, ω ∈ A. Wówczas ((Xt)t≥0, (Ft)t∈T , (Px)x∈E) jest jednorodnąrodziną Markowa z funkcją przejścia
P (t, x,Γ) =
∫
Γ
1√2πt
e−(y−x)2
2t dy.
Z określenia Px jest jasne, że przy prawdopodobieństwie Px proces X ma ten sam rozkład coproces x+Wt, gdzie W jest standardowym procesem Wienera startującym z zera. Korzystającz niezależności przyrostów sprawdzamy własność Markowa i wyliczamy funkcję przejścia jak wPrzykładzie 5.11. Zauważmy, że rozkład przyrostu procesu (x + Wt)t≥0 nie zależy od x, więcfunkcja przejścia pozostaje taka sama.
W dalszej części wykładu będzie nam potrzebny następujący lemat:
Lemat 6.5. Niech ((Xt)t∈T , (Ft)t∈T , (Px)x∈E) będzie jednorodną rodziną Markowa. Wówczasdla każdego A ∈ FX
∞ := σ(Xt, t ∈ T ) funkcja
x 7→ Px(A)
jest mierzalna.
6.2. OPERATOR PRZESUNIĘCIA 45
Dowód. Jeżeli A ma postać A = Xt1 ∈ Γ1, . . . ,Xtn ∈ Γn, gdzie t1 < t2 < . . . tn, Γ1, . . . ,Γn ∈B, to ze Stwierdzenia 5.13 mamy
Px(A) =
∫
Γ1
. . .
∫
Γn−1
∫
Γn
P (tn − tn−1, yn−1, dyn)P (tn−1 − tn−2, yn−2, tn−1, dyn−1)
. . . P (t1, x, , dy1).
Mierzalność x 7→ Px(A) wynika więc z mierzalności funkcji y 7→ P (t, y,Γ) dla Γ ∈ B.Klasa zbiorów A powyższej postaci jest π-układem generującym FX
∞ , a klasa L = A :x 7→ Px(A) jest mierzalne jest λ-układem: Ω ∈ L, jeśli A ⊂ B, A,B ∈ L, to Px(B\A) =Px(B) − Px(B) jest mierzalne, jeżeli A1 ⊂ A2 ⊂ . . ., An ∈ L, to Px(
⋃
nAn) = limn→∞ Px(An)i punktowa granica funkcji mierzalnych jest mierzalna, więc
⋃
nAn ∈ L. Z twierdzenia o π iλ-układach wynika teza.
Ze wzoru (5.6) otrzymujemy, że dla każdego x ∈ E, n ∈ N i dowolnych s, t1, . . . , tn ∈ T orazΓ1, . . . ,Γn ∈ B zachodzi
Px(Xt1+s ∈ Γ1, . . . ,Xtn+s ∈ Γn|Fs) =Px(Xt1+s ∈ Γ1, . . . ,Xtn+s ∈ Γn|Xs)
=PXs(Xt1 ∈ Γ1, . . . ,Xtn ∈ Γn)
Ostatnie wyrażenie rozumiane jest następująco: wyliczamy najpierw Py(Xt1 ∈ Γ1, . . . ,Xtn ∈Γn) dla dowolnego y ∈ E, a następnie wstawiamy Xs zamiast y.
Przejście od jednorodnej rodziny Markowa do procesu Markowa
Niech (Xt)t∈T , (Ft)t∈T , (Px)x∈E) będzie jednorodną rodziną Markowa z funkcją przejścia P .Ponadto, niech µ będzie miarą probabilistyczną na (E,B). Połóżmy
Q(A) =
∫
EPx(A)µ(dx) dla A ∈ F∞.
Wówczas Q jest miarą probabilistyczną na FX∞ , a proces X określony na (Ω,FX
∞ , Q) jestprocesem Markowa o tej samej funkcji przejścia P i rozkładzie początkowym µ.
6.2 Operator przesunięcia
Niech X = (Xt)t∈T będzie procesem stochastycznym określonym na (Ω,F ). Przypuśćmy po-nadto, że przestrzeń Ω jest taka, że ∀ ω ∈ Ω, t ∈ T , istnieje dokładnie jedno ω′ ∈ Ω takie,że Xt+·(ω) = X·(ω
′). W szczególności, jeśli Ω jest przestrzenią kanoniczną dla procesu X, np.Ω = ET , lub Ω = C(T,E) to tak jest. ω′ jw. będziemy oznaczać przez θtω. Mamy wtedy
Xt+·(ω) = X·(θtω) (6.2)
Tak zdefiniowane θt nazywa się operatorem przesunięcia (albo: translacji, ang. “shift”).Zobaczymy później, że założenie jednoznaczności ω′ takiego, że Xt+·(ω) = X·(ω
′) można opu-ścić.
Dla A ∈ Ω przez θ−1t A oznaczamy przeciwobraz zbioru A przy odwzorowaniu θt
θ−1t A = ω : θtω ∈ A
46 ROZDZIAŁ 6. JEDNORODNE RODZINY MARKOWA
Przykład 6.6. 1) Niech
A = Xs1 ∈ Γ1, . . . ,Xsn ∈ Γn, n ∈ N, sj ∈ T, Γj ∈ B, j = 1, 2, . . . , n. (6.3)
Wtedy
θ−1t A = ω : Xs1(θtω) ∈ Γ1, . . . ,Xsn(θtω) ∈ Γn = ω : Xs1+t(ω) ∈ Γ1, . . . ,Xsn+t(ω) ∈ Γn.
(6.4)2) Jeśli A = ω : lims→∞Xs(ω) istnieje, to
θ−1t A = ω : lim
s→∞Xs(θtω) istnieje = ω : lim
s→∞Xs+t(ω) istnieje = A.
Stwierdzenie 6.7.θ−1t A : A ∈ F
X∞
= F
X≥t = σ(Xs : s ≥ t).
Dowód. OznaczmyG = A ⊂ F : θ−1
t A ∈ FX≥t.
FX≥t jest σ-ciałem, więc z własności przeciwobrazu wynika, że również G jest σ-ciałem. Z (6.2)
wynika, że zbiory postaci Xs1 ∈ Γ1, . . . ,Xsn ∈ Γn, gdzie sj ∈ T , Γj ∈ B, j = 1, 2, . . . , n należądo G i generują one FX
∞ , więc FX∞ ⊂ G . Mamy zatem zawieranie:
θ−1t A : A ∈ FX
∞
⊂ FX
≥t.
W drugą stronę: rodzinaθ−1t A : A ∈ FX
∞
⊂ FX
≥t jest σ-ciałem (jako przeciwobraz σ-ciałą) izawiera zbiory postaci Xt+s1 ∈ Γ1, . . . ,Xt+sn ∈ Γn generujące FX
≥t, więc zawiera FX≥t.
Stwierdzenie 6.8. Niech (Xt)t∈T , (Px)x∈E będzie jednorodną rodziną Markowa względem fil-tracji (Ft)t∈T . Wtedy dla każdego A ∈ FX
∞ , t ∈ T i x ∈ E zachodzi
Px(θ−1t A|Ft) = PXt(A). (6.5)
Dowód. Jeżeli A ma postać taką, jak w (6.3), to z (6.4) i własności Markowa oraz (5.6)
Px(θ−1t A|FX
t ) = Px(Xt+s1 ∈ Γ1, . . . ,Xt+sn ∈ Γn|FXt )
= Px(Xt+s1 ∈ Γ1, . . . ,Xt+sn ∈ Γn|Xt) = PXt(Xs1 ∈ Γ1, . . . ,Xsn ∈ Γn) = PXt(A).
Zatem (6.5) zachodzi dla A postaci (6.3). Teza wynika z lematu o π i λ-układach.
Oznaczenie. Niech ξ : Ω 7→ E1 będzie dowolną zmienną losową o wartościach w pewnejprzestrzeni E1. Definiujemy
θtξ(ω) = ξ(θtω).
Przykład 6.9. 1) θtXs(ω) = Xs(θtω) = Xs+t(ω).2) θt(f(Xs(ω))) = f(Xs(θtω)) = f(Xs+t(ω)).3) Niech A ∈ F , wówczas θt11A(ω) = 11A(θtω) = 11θ−1
t A(ω).
4) Niech Γ ∈ B i τ = infs ≥ 0 : Xs ∈ Γ, wtedy
θtτ(ω) = infs ≥ 0 : Xs(θtω) ∈ Γ = infs ≥ 0 : Xs+t(ω) ∈ Γ = infs ≥ t : Xs(ω) ∈ Γ − t.
Stwierdzenie 6.10. Jeżeli ξ jest zmienną losową FX∞ mierzalną, to θtξ jest FX
≥t mierzalne.
6.2. OPERATOR PRZESUNIĘCIA 47
Dowód. Z założenia o mierzalności ξ, dla każdego zbioru B z odpowiedniego σ-ciała w prze-strzeni wartości ξ zachodzi
A := ω : ξ(ω) ∈ B ∈ FX∞ .
Ze Stwierdzenia 6.7 wynika, że θ−1t A ∈ FX
≥t. Z drugiej strony
θ−1t A = ω : θtω ∈ A = ω : ξ(θtω) ∈ B = ω : θtξ(ω) ∈ B.
Zatem dla każdego B z σ-ciała na przestrzeni stanów ω : θtξ(ω) ∈ B ∈ FX≥t, co oznacza, że
θtξ jest FX≥t mierzalna.
Twierdzenie 6.11. Niech (Xt)t∈T , (Px)x∈E będzie jednorodną rodziną Markowa względem (Ft)t∈T .Ponadto, niech ξ będzie zmienną losową (o wartościach rzeczywistych) FX
∞ mierzalną i ograni-czoną. Wówczas dla każdego t ∈ T oraz x ∈ E zachodzi
Ex(θtξ|Ft) = EXtξ.
Dowód. Wynika ze Stwierdzenia 6.8 i standardowego argumentu przez przybliżanie ξ zmien-nymi losowymi prostymi.
Uwaga 6.12. Do tej pory zakładaliśmy, że dla każdego ω ∈ Ω i t istnieje dokładnie jednoω′ ∈ Ω takie, że X·(ω
′) = Xt+·(ω), to ω′ oznaczaliśmy przez θtω. Okazuje się, że operatorprzesunięcia można także zdefiniować, gdy ω′ j.w. istnieje, ale nie ma jednoznaczności. Wtedykładziemy
[θtω] = ω′ ∈ Ω : Xt+·(ω) = X·(ω′).
Łatwo sprawdzić, rozważając najpierw zbiory postaci (6.3), że jeżeli A ∈ FX∞ , to albo [θtω] ⊂ A
albo [θtω] ∩ A = ∅. Podobnie, jeśli ξ jest zmienną losową FX∞ mierzalną i ω′, ω′′ ∈ [θtω],
to ξ(ω′) = ξ(ω′′). Zatem dla A ∈ FX∞ i ξ – zmiennej losowej FX
∞ mierzalnej poprawniezdefiniowane są
θ−1t A = ω : [θtω] ⊂ A
orazθtξ(ω) = ξ(ω′), ω′ ∈ [θtω].
Zachodzi także odpowiednik Stwierdzenia 6.8 i Twierdzenia 6.11.
48 ROZDZIAŁ 6. JEDNORODNE RODZINY MARKOWA
Rozdział 7
Mocna własność Markowa
7.1 Mocna własność Markowa
Jak poprzednio, zakładamy, że T = Z+,R+ lub przedział w którymś z tych zbiorów. Zajmujemysię jednorodnymi procesami Markowa o wartościach w przestrzeni polskiej (E,B).
Przypomnienie: Niech (Ft)t∈T będzie ustaloną filtracją. Proces (Xt)t∈T jest progresywniemierzalny, jeżeli dla każdego t ∈ T funkcja (s, ω) 7→ Xs(ω), jako funkcja z [0, t] × ω 7→ E jestmierzalna względem σ-ciała B([0, t]) ⊗ Ft.
Jeżeli czas jest dyskretny, to X jest progresywnie mierzalny wtedy i tylko wtedy, gdy jestadaptowany. W przypadku czasu ciągłego – każdy proces prawo- lub lewostronnie ciągły (owartościach w przestrzeni metrycznej) jest progresywnie mierzalny.
Jeżeli proces X jest progresywnie mierzalny i τ jest momentem zatrzymania, to Xτ jest Fτ
mierzalne na τ < ∞.Definicja 7.1. (a) Jednorodny proces Markowa (Xt)t∈T względem (Ft)t∈T z funkcją przejściaP nazywa się mocnym procesem Markowa jeżeli
(i) jest progresywnie mierzalny,
(ii) dla każdego momentu zatrzymania τ i dla każdej zmiennej losowej η : τ < ∞ 7→T ∪ +∞ Fτ mierzalnej oraz Γ ∈ B zachodzi
P(Xτ+η ∈ Γ|Fτ ) = P (η,Xτ ,Γ) p.n. na zbiorze τ < ∞ ∩ η < ∞. (7.1)
(b) Jednorodna rodzina Markowa (Xt)t∈T , (Px)x∈E nazywa się mocno Markowa jeżeli(Xt)t∈T jest mocnym procesem Markowa przy każdym Px.
Uwaga 7.2. (a) Warunek (7.1) dla τ i η nielosowych i skończonych, to po prostu własnośćMarkowa.(b) Warunek (7.1) można przeformułować równoważnie:Dla każdego momentu zatrzymania τ i dowolnej zmiennej losowej η : τ < ∞ 7→ T ∪ +∞Fτ mierzalnej oraz f : E 7→ R mierzalnej i ograniczonej zachodzi
E(Xτ+η ∈ Γ|Fτ ) =
∫
Ef(y)P (η,Xτ , dy) p.n. na zbiorze τ < ∞ ∩ η < ∞. (7.2)
(c) Można wykazać, że jeżeli proces Makowa jest progresywnie mierzalny, to dla każdego Γ ∈ B
funkcja (t, x) 7→ P (t, x,Γ) jest mierzalna jako funkcja z T × E z σ-ciałem B(T )× B.
49
50 ROZDZIAŁ 7. MOCNA WŁASNOŚĆ MARKOWA
Stwierdzenie 7.3. Jeżeli (Xt)t∈T jest jednorodnym procesem Markowa i τ i η przyjmują conajwyżej przeliczalną liczbę wartości, to (7.1) zachodzi.
Dowód. Niech S będzie zbiorem wartości skończonych τ i η. P (η,Xτ ,Γ) (określone na τ <∞ ∩ η < ∞) jest oczywiście Fτ mierzalne. Niech A ∈ Fτ . Wówczas
∫
A∩τ<∞∩η<∞P (η,Xτ ,Γ)dP =
∑
t∈S
∑
u∈S
∫
A ∩ η = u︸ ︷︷ ︸
∈Fτ
∩τ = t
︸ ︷︷ ︸∈Ft
P (u,Xt,Γ)dP
wł. Markowa=
∑
t∈S
∑
u∈S
∫
A∩η=u∩τ=t11Xu+t∈ΓdP
=P(A ∩ η < ∞ ∩ τ < ∞ ∩ Xτ+η ∈ Γ).
Wniosek 7.4. Każdy łańcuch Markowa z czasem dyskretnym jest mocnym procesem Markowa.
Ostrzeżenie. Gdy czas jest ciągły, istnieją jednorodne procesy (rodziny) Markowa, które niesą mocno Markowa. Przykład na ćwiczeniach.
Podamy proste kryterium wystarczające na to aby proces Markowa był mocno Markowa wprzypadku, gdy czas jest ciągły (T = R+). Potrzebne nam będzie pojęcie półgrupy przejścia.
7.2 Półgrupy operatorów związane z procesami Markowa
Niech (E,B) będzie przestrzenią polską z σ-ciałem zbiorów borelowskich. T = Z+ lub T = R+.Niech P (·, ·, ·) będzie funkcją przejścia jednorodnej rodziny Markowa (Xt)t∈T , (Px)x∈E. PrzezBb(E) będziemy oznaczać zbiór funkcji mierzalnych i ograniczonych z E w R, a przez Cb(E)zbiór funkcji ciągłych i ograniczonych z E w R.
Definicja 7.5. Półgrupą przejścia związaną z jednorodną rodziną Markowa (albo: z funkcjąprzejścia) nazywamy rodzinę operatorów (Tt)t∈T z Bb(E) w siebie zdefiniowanych wzorem
Ttf(x) =∫
Ef(y)P (t, x, dy) = Exf(Xt). (7.3)
Uwaga 7.6. Półgrupa przejścia jednoznacznie wyznacza funkcję przejścia, gdyż Tt11Γ(x) =P (t, x,Γ).
Stwierdzenie 7.7. Półgrupa przejścia (Tt)t∈T ma następujące własności:
(1) Tt jest operatorem liniowym;
(2) ‖Ttf‖∞ ≤ ‖f‖∞ (Tt jest kontrakcją);
(3) Tt jest operatorem nieujemnym, tj. dla dowolnej funkcji f ∈ Bb(E), f ≥ 0 zachodziTtf ≥ 0;
7.3. PÓŁGRUPY FELLEROWSKIE 51
(4) Tt11 = 11 (Tt zachowuje jedynkę, inaczej: Tt jest konserwatywna);
(5) T0 = Id;
(6) (Tt)t∈T jest półgrupą, tzn. dla s, t ≥ 0 zachodzi Ts+t = TtTs = TsTt.
Dowód. Własności te są oczywiste. Zauważmy tylko, że ostatnia wynika z równania Chapmana-Kołmogorowa (6.1):
Ts+tf(x) =
∫
Ef(y)P (t+ s, x, dy) =
∫
E
∫
Ef(y)P (s, z, dy)P (t, x, dz) = Tt(Tsf(x)).
Definicja 7.8. Rodzinę operatorów spełniających warunki (1), (5) i (6) nazywa się półgrupąoperatorów.
7.3 Półgrupy fellerowskie
Definicja 7.9. Mówimy, że półgrupa przejścia jest fellerowska jeśli dla każdego Tt(Cb(E)) ⊂Cb(E).
Twierdzenie 7.10. Jeżeli (Xt)t∈R+ , (Px)x∈E, (FXt )t∈R+ jest jednorodną rodziną Markowa taką,
że proces (Xt)t∈R+ jest prawostronnie ciągły oraz półgrupa Tt związana z tą jednorodną rodzinąMarkowa jest fellerowska, to rodzina (Xt)t∈R+ , (Px)x∈E, (F
Xt+)t∈R+ jest mocno Markowa.
Uwaga 7.11. W tezie twierdzenia zwiększyliśmy filtrację. Otrzymując silniejszy wynik. Oczy-wiście, jeśli (Xt)t∈R+ jest mocno Markowa względem (FX
t+)t ∈ R, to tym bardziej względem(FX
t )t∈R+ .
Wniosek 7.12. Jeżeli przestrzeń stanów E jest co najwyżej przeliczalna z topologią dyskretną,to każda półgrupa przejścia jest fellerowska i każdy proces Markowa w takiej przestrzeni stanówjest mocno Markowa.
Wniosek wynika natychmiast z Twierdzenia 7.10, gdyż w dyskretnej przestrzeni stanówBb(E) = Cb(E).
Wniosek 7.13. Proces Poissona i proces Wienera są mocno Markowa.
Dla procesu Poissona – wynika z poprzedniego wniosku, dla procesu Wienera należy spraw-dzić fellerowskość - ćwiczenie.
Dowód Twierdzenia 7.10. Z założenia o prawostronnej ciągłości procesu wynika progre-sywna mierzalność. Dla uproszczenia notacji będziemy opuszczać indeks X przy FX
t i FXt+.
Krok 1. Zauważmy, iż wystarczy wykazać, że dla każdego τ – momentu zatrzymania względem(Ft+) i dla każdej η : τ < ∞ 7→ R+ ∪ ∞ Fτ+ mierzalnej, zbioru A postaci A = A1 ∩ τ <∞ ∩ η < ∞, A1 ∈ Fτ+ oraz dowolnej funkcji f ∈ Cb(E) zachodzi
∫
Af(Xτ+η)dPx =
∫
ATηf(Xτ )dPx. (7.4)
Rzeczywiście, z (7.4) otrzymamy (7.1) dla zbiorów Γ domkniętych: jeżeli Γ jest domknięty,to istnieje ciąg funkcji ciągłych fn taki, że fn(x) ց 11Γ, więc z twierdzenia o monotonicznej
52 ROZDZIAŁ 7. MOCNA WŁASNOŚĆ MARKOWA
zbieżności z (7.4) otrzymamy (7.1) dla takich Γ. Dalej wystarczy zastosować lemat o π i λ-układach aby otrzymać (7.1) dla wszystkich Γ ∈ B(E).
Krok 2. Przypomnijmy, że ze Stwierdzenia 7.3 wiemy, że (7.4) zachodzi dla τ i η wzgl. (Ft)przyjmujących co najwyżej przeliczalną liczbę wartości, A ∈ Fτ .
Niech τ będzie dowolnym momentem zatrzymania względem (Ft)t∈R+ i niech η będzie Fτ+
mierzalne, η przyjmuje co najwyżej przeliczalną liczbę wartości, A ∈ Fτ+ . Definiujemy ciągprzybliżeń τ :
τn(ω) =
k2n
k−12n ≤ τ(ω) < k
2n
∞ τ(ω) = ∞,
k, n ∈ N. Wtedy τn ց τ i dla każdego n τn jest momentem zatrzymania względem (Ft), gdyż
τ < t =⋃
m
τ ≤ t− 1
m
︸ ︷︷ ︸
∈F(t−tm)+⊂Ft
∈ Ft oraz τn =k
2n = τ <
k
2n\τ <
k − 1
2n ∈ Ft.
Ponadto, Fτ+ ⊂ Fτn . Rzeczywiście, jeżeli B ∈ Fτ+ , to
B ∩ τ < t =⋃
m
(B ∩ τ ≤ t− 1
m)
︸ ︷︷ ︸
∈F(t− 1
m )+⊂Ft
∈ Ft.
Zatem
B ∩ τn =k
2n = (B ∩ τ <
k
2n)\(B ∩ τ <
k − 1
2n) ∈ F k
2n.
Wynika stąd, że B ∈ Fτn . Wykazaliśmy, że Fτ+ ⊂ Fτn .Zatem, przy takim przybliżeniu τ , τn jest momentem zatrzymania względem Ft, η jest Fτn
mierzalne oraz A ∈ Fτn . (7.4) zachodzi dla τn, η, A:∫
Af(Xτn+η)dPx =
∫
ATηf(Xτn)dPx. (7.5)
Przypomnijmy, że τn ց τ . Z prawostronnej ciągłości procesu Xτn+η → Xτ+η p.n., więc,korzystając ciągłości funkcji f , mamy
∫
Af(Xτn+η)dPx →
∫
Af(Xτ+η)dPx.
Z drugiej strony, znów z prawostronnej ciągłości X Xτn → Xτ p.n., funkcja Tη(ω)f jest ciągła(założenie fellerowskości!), więc Tηf(Xτn) → Tη(Xτ ) p.n. Wszystko jest ograniczone, zatem
∫
ATηf(Xτn)dPx →
∫
ATηf(Xτ )dPx.
Przechodząc z n → ∞ w (7.5) otrzymujemy (7.4) w przypadku, gdy η przyjmuje co najwyżejprzeliczalną liczbę wartości, a τ jest dowolne (jak w twierdzeniu).
Krok 3. Przypuśćmy, że τ i η są dowolne, spełniające założenia twierdzenia. Przybliżmy ηciągiem
ηn(ω) =
k2n
k−12n ≤ η(ω) < k
2n
∞ η(ω) = ∞,
7.4. MOCNA WŁASNOŚĆ MARKOWA A OPERATOR PRZESUNIĘCIA 53
Wtedy ηn jest Fτ+ mierzalne, bo ηn jest mierzalną funkcją η i η było Fτ+ mierzalne. Ponadtoηn ց η.
Z Kroku 2. otrzymujemy∫
Af(Xτ+ηn)dPx =
∫
ATηnf(Xτ )dPx. (7.6)
Prawostronna ciągłość X i ciągłość f pociąga zbieżność∫
Af(Xτ+ηn)dPx →
∫
Af(Xτ+η)dPx.
Z drugiej strony, zauważmy, że jeśli tn → t, to znów wykorzystując prawostronną ciągłość X
Ttn(x) = Exf(Xtn) → Exf(Xt) = Ttf(x).
ZatemTηnf(Xτ ) → Tηf(Xτ ) p.n.
Ponadto wyrażenie to jest zmajoryzowane przez ‖f‖∞. Ostatecznie, przechodząc z n → ∞ in(7.6) otrzymujemy (7.4).
7.4 Mocna własność Markowa a operator przesunięcia
Niech (Xt)t∈T , (Px)x∈E, (Ft)t∈T będzie jednorodną rodziną mocno Markowa. Zakładamy po-nadto, że Ω jest jak w Rozdziale 6.2 (zdefiniowany jest operator przesunięcia θt, t ∈ T ).
Niech τ : Ω 7→ T ∪ +∞ będzie mierzalne względem FX∞ i niech Ωτ := τ < ∞. Definiu-
jemy operator przesunięcia o τ dla ω ∈ Fτ , jako element θτ (ω) ∈ Ω kładąc θτ (ω) := θτ(ω)(ω),gdzie θt – zdefiniowany wcześniej operator przesunięcia o t. Innymi słowy, θτ spełnia
Xτ(ω)+t(ω) = Xt(θτω) ∀t ∈ T.
Dla A ∈ FX∞ oznaczamy
θ−1τ (A) = ω ∈ Ωτ : θτ ∈ A.
Jeżeli ξ jest zmienną losową FX∞ mierzalna, kładziemy
θτξ(ω) = ξ(θτω), dla ω ∈ Ωτ .
(Zdefiniowane tylko na Ωτ ).Uwaga. Podobnie jak na końcu Rozdziału 6.2, nawet jeśli nie ma jednoznaczności operatora
przesunięcia, to θ−1τ A i θτξ są dobrze zdefiniowane dla A ∈ FX
∞ i ξ FX∞ mierzalnej.
Przykład 7.14. 1) Jeżeli A = Xt ∈ Γ, to θ−1τ = τ < ∞,Xτ+t ∈ Γ.
2) Jeżeli B = ∀t ≥ 0 Xt ≥ 0, to θ−1τ = τ < ∞,∀t ≥ τ Xt ≥ 0.
3) Jeżeli τ = inft ≥ 0 : Xt ∈ Γ, to θττ = inft ≥ 0 : Xt+τ ∈ Γ = 0.4) Jeżeli τ j.w., σ = inft ≥ 0 : Xt ∈ Γ2, to θτσ = inft ≥ 0 : Xt+τ ∈ Γ2 = inft ≥ τ : Xt ∈Γ2 − τ .
Tak samo jak Stwierdzenia 6.7 i Twierdzenia 6.11, zamiast z własności Markowa korzystającz mocnej własności Markowa (7.1) dowodzi się
54 ROZDZIAŁ 7. MOCNA WŁASNOŚĆ MARKOWA
Twierdzenie 7.15. Niech ((Xt)t∈T , (Px)x∈E , (Ft)t∈T ) będzie mocno Markowa i niech τ będziemomentem zatrzymania mierzalny względem (FX
∞), wtedy1) Dla każdego A ∈ FX
∞ i każdego x ∈ E zachodzi
Px(θ−1τ A|Fτ ) = PXτ (A) Px − p.n. na Ωτ .
2) Dla dowolnej zmiennej losowej ξ, mierzalnej względem FX∞ i ograniczonej zachodzi
Ex(θτξ|Fτ ) = EXτ (ξ) Px − p.n. na Ωτ .
W następnych podrozdziałach zobaczymy przykłady zastosowań mocnej własności Markowa.
7.5 Prawo 0–1 Blumenthala
Twierdzenie 7.16. Załóżmy, że (Xt)t∈R+ , (Px)x∈E jest jednorodną rodziną Markowa, X jestprawostronnie ciągłe i rodzina jest fellerowska. Wtedy
∀x ∈ E ∀A ∈ FX0+ Px(A) = 0 lub Px(A) = 1.
Dowód. Z Twierdzenia 7.10 wynika, że rodzina jest mocno Markowa względem filtracji (FXt+)t∈R+ .
Dla A ∈ FX0+ zachodzi
Px(A) =Px(A ∩ θ−10 A) = ExEx(11A11θ−1
0 A|FX0+)
=Ex(11AEx(11θ−10 A)|FX
0+) = Ex(11APX0(A)) = EX(11APx(A))
=(Px(A))2.
Zatem Px(A) = 0 lub Px(A) = 1.
7.6 Zasada odbicia dla procesu Wienera
Rozdział 8
Regularność trajektorii procesów
Markowa
Niech E będzie przestrzenią polską z metryką ρ i niech P będzie funkcją przejścia. Oznaczmy
Uε(x) = y ∈ E : ρ(x, y) ≤ εoraz
αε(t) = supx∈E
sups≤t
P (s, x, U cε (x)).
Twierdzenie 8.1. (Dynkin-Kinney) Jeżeli
∀ε > 0 limt→0
1
tαε(t) = 0, (8.1)
to istnieje jednorodna rodzina Markowa z funkcją przejścia P o ciągłych trajektoriach.
Do dowodu potrzebne są następujące, nietrudne lematy:
Lemat 8.2. Jednorodna rodzina Markowa z funkcją przejścia spełniającą warunek
∀ε > 0 limt→0
αε(t) = 0,
jest jednostajnie stochastycznie ciągła.
Dowód – ćwiczenie. ( Korzystając z własności Markowa wykazuje się, że
Px(ρ(Xt,Xs) > ε) ≤ αε(|t− s|)).Lemat 8.3. Dla dowolnych t1 < t2 < . . . tn zachodzi
Px( maxt1,...,tn
ρ(Xtj ,Xt1) > ε) ≤ 2αε/2(tn − t1).
Dalej dowód istnienia modyfikacji ciągłej przebiega podobnie jak dowód twierdzenia Koł-mogorowa o istnieniu modyfikacji ciągłej procesu.
Twierdzenie 8.4. (Kinney) Jeżeli
∀ε > 0 limt→0
αε(t) = 0, (8.2)
to istnieje jednorodna rodzina Markowa z funkcją przejścia P o trajektoriach càdlàg, tj. prawo-stronnie ciągłych posiadających skończone lewostronne granice.
55
56 ROZDZIAŁ 8. REGULARNOŚĆ TRAJEKTORII PROCESÓW MARKOWA
Rozdział 9
Półgrupy operatorów związane z
procesami Markowa i generatory
infinitezymalne
Jak zwykle zakładamy, że przestrzeń stanów E jest polska, T = R+. B(E) oznacza przestrzeńfunkcji f : E 7→ R mierzalnych i ograniczonych, wyposażoną w normę supremum
‖f‖ := ‖f‖∞ = supx∈E
|f(x)| .
Przestrzeń (B(E), ‖·‖) jest przestrzenią Banacha.Niech P będzie funkcją przejścia jednorodnej rodziny Markowa (Xt)t∈R+ , (Px)x∈E . Przy-
pomnijmy, że półgrupa przejścia związana z P , to rodzina operatorów (Tt)t∈R+ zdefiniowanaprzez
Ttf(x) :=∫
Ef(y)P (t, x, dy) = Exf(Xt), f ∈ B(E).
Ma ona własności
(1) Tt jest operatorem liniowym;
(2) ‖Ttf‖ ≤ ‖f‖ (Tt jest kontrakcją);
(3) Tt jest operatorem nieujemnym, tj. dla dowolnej funkcji f ∈ Bb(E), f ≥ 0 zachodziTtf ≥ 0;
(4) Tt11 = 11 (Tt zachowuje jedynkę, inaczej: Tt jest konserwatywna);
(5) T0 = Id;
(6) (Tt)t∈T jest półgrupą, tzn. dla s, t ≥ 0 zachodzi Ts+t = TtTs = TsTt.
(Stwierdzenie 7.7).Zauważmy, że własności (1) i (2) implikują, że
‖Ttf − Ttg‖ ≤ ‖f − g‖ , f, g ∈ B(E).
57
58 ROZDZIAŁ 9. PÓŁGRUPY I ICH GENERATORY
Wiele elementów omawianej niżej teorii można rozważać w sytuacji ogólniejszej: gdy (B, ‖·‖)jest dowolną przestrzenią Banacha, a (Tt)t≥0 półgrupą operatorów liniowych z B w siebie, tj.rodziną operatorów spełniającą warunki (1), (5) i (6).
Definicja 9.1. Załóżmy, że (B, ‖·‖) jest przestrzenią Banacha i (Tt)t≥0 jest półgrupą operatorówna przestrzeni B. Definiujemy
DA :=f ∈ B : limt→0+
Ttf − f
tw sensie normy wB,
Af := limt→0+
Ttf − f
t, dla f ∈ DA.
A nazywamy generatorem infinitezymalnym półgrupy (Tt)t≥0, a DA jego dziedziną.
Uwaga 9.2. (a) Zbieżność w powyższej definicji jest rozumiana w sensie normy w B, tj. ∃g ∈ B
takie, że limt→0+
∥∥∥Ttf−f
t − g∥∥∥ = 0.
Gdy (Tt)t≥0 jest półgrupą związaną z jednorodną rodziną Markowa (Xt)t≥0, (Px)x∈E , tof ∈ DA wtedy i tylko wtedy, gdy
Exf(Xt)− f(x)
t
zbiega przy t → 0+ jednostajnie względem x.(b) A jest operatorem liniowym, na ogół nieograniczonym i na ogół DA B.
Przykład 9.3. Jeżeli A : B 7→ B jest operatorem liniowym i ograniczonym, to
Tt := etA = Id+tA+t2A2
2+
t3A3
3!+ . . . ,
wtedy (Tt)t≥0 jest półgrupą i dla każdego f ∈ B zachodzi
limt→0+
∥∥∥∥
Ttf − f
t−Af
∥∥∥∥= 0.
W tym przypadku dziedziną jest całe B, (DA = B) i A jest generatorem infinitezymalnym Tt.
Przykład 9.4. Deterministyczny dryf w prawo.Rozważmy półgrupę związaną z funkcją przejścia procesu Markowa w E = R postaci
P (t, x,Γ) = 11Γ(x+ t),
tj. B = Bb(R) i dla f ∈ Bb(R) mamy Ttf(x) = f(x+t). Opisuje ona proces, w którym startującz x poruszamy się ruchem jednostajnym w prawo ze stałą prędkością równą 1.
Wtedy
DA = f ∈ Bb(R) :Ttf(x)− f(x)
tzbiega jednostajnie wzgl. x przy t → 0+.
W szczególności f ∈ DA musi mieć prawostronną pochodną w każdym punkcie i Af = d+fdx .
Jednak, wymaganie zbieżności jednostajnej względem x daje dodatkowe ograniczenia na f . Ze
59
zbieżności jednostajnej wynika, że jeśli f ∈ DA, to istnieje C, takie że dla dostatecznie małycht
supx∈E
∣∣∣∣
f(x+ t)− f(x)
t
∣∣∣∣≤ C,
zatem f jest jednostajnie ciągła, f jest też ograniczona. Stąd, dla każdego t > 0 funkcja
f(·+ t)− f(·)t
jest jednostajnie ciągła i ograniczona. Jednostajna granica funkcji jednostajnie ciągłych i ogra-niczonych jest również jednostajnie ciągła i ograniczona. Zatem, jeśli f ∈ DA to d+f
dx istnieje ijest funkcją jednostajnie ciągłą i ograniczoną oraz
f(x) = f(0) +
∫ x
0
d+f
dy(y)dy, (9.1)
gdyż ze względu na jednostajną zbieżność i ograniczoność można wejść z granicą pod całkę:
∫ x
0
d+f
dy(y)dy =
∫ x
0limt→0+
f(y + t)− f(y)
tdy
= limt→0+
1
t
∫ x
0(f(y + t)− f(y))dy
= limt→0+
1
t
(∫ x+t
tf(y)dy −
∫ x
0f(y)dy
)
= limt→0+
1
t
∫ x+t
xf(y)dy − lim
t→0+
1
t
∫ t
0f(y)dy
=f(x)− f(0).
(9.1) i ciągłość pochodnej prawostronnej implikują, że f jest różniczkowalna.Wykazaliśmy zatem: jeżeli f ∈ DA, to f jest jednostajnie ciągła i ograniczona, f jest róż-
niczkowalna i jej pochodna jest jednostajnie ciągła i ograniczona. Klasę takich funkcji będziemyoznaczać przez C1
u.DA = C1
u, Af = f ′.
Przykład 9.5. (Ćwiczenie)Rozważmy rodzinę procesów deterministycznych
dXxt
dt= b(Xx
t ), Xx0 = x, (9.2)
gdzie b : Rd 7→ R jest funkcją klasy C1 o pochodnych cząstkowych ograniczonych. Wtedy dlakażdego x ∈ Rd równanie (9.2) ma dokładnie jedno rozwiązanie, a procesy (Xx
t ) są procesamiMarkowa z funkcją przejścia
P (t, x,Γ) = 11Γ(Xxt ).
Wtedy C1c (R
d) ⊂ DA i Af(x) =∑d
j=1 bj(x)∂f∂xj
(x) ( C1c (R
d)= funkcje klasy C1 o nośniku
zwartym).
60 ROZDZIAŁ 9. PÓŁGRUPY I ICH GENERATORY
Przykład 9.6. (Ćwiczenie)Jeżeli (Wt), (Px)x∈Rd jest jednorodną rodziną Wienera w Rd, to C2
u(Rd) ⊂ DA oraz dla f ∈ DA
zachodzi
Af(x) =1
2∆f(x) =
1
2
d∑
j=1
∂2
∂x2jf(x).
Można pokazać, że gdy d = 1, to DA = C2u(R), a jeżeli d > 1, to C2
u(Rd) DA.
Niech (Tt)t≥0 będzie półgrupą na przestrzeni Banacha (B, ‖·‖). Oznaczmy
B0 = f ∈ B : limt→0+
Ttf − f = 0.
Oczywiście DA ⊂ B0.
Stwierdzenie 9.7. Niech (Tt)t≥0 będzie półgrupą kontrakcji na przestrzeni Banacha (B, ‖·‖).Wówczas
(i) B0 jest liniową domkniętą podprzestrzenią B.
(ii) Tt(B0) ⊂ B0 i dla każdego f ∈ B0 funkcja t 7→ Ttf jest jednostajnie ciągła na R+.
(iii) A(DA) ⊂ B0.
Dowód. (i): Liniowość B0 jest oczywista. Wykażemy, że B0 jest domknięte w B. Niechfn ∈ B0, fn → f . Wtedy
‖Ttf − f‖ ≤‖Ttf − Ttfn‖+ ‖Ttfn − fn‖+ ‖fn − f‖≤‖Tt‖ ‖fn − f‖+ ‖Ttfn − fn‖+ ‖fn − f‖≤2 ‖fn − f‖+ ‖Ttfn − fn‖ . (9.3)
Dla dowolnego ustalonego ε > 0 dobieramy najpierw n tak duże, by ‖fn − f‖ < ε (fn → f), anastępnie t0 takie, że dla t ≤ t0 zachodzi ‖Ttfn − fn‖ < ε. Tzn. ∀ε > 0 ∃t0 > 0, takie że dla0 ≤ t ≤ t0 ‖Ttf − f‖ < 2ε, czyli limt→0+ ‖Ttf − f‖ = 0. Zatem f ∈ B0.
(ii) Dla dowolnych t ≥ s ≥ 0 i f ∈ B0 zachodzi
‖Ttf − Tsf‖ = ‖Ts(Tt−sf − f)‖kontrakcja
≤ ‖Tt−sf − f‖ −−−−→t−s→0
0.
Stąd wynika jednostajna ciągłość funkcji t 7→ Ttf dla f ∈ B0. Ponadto, z poprzedniego, jeżelif ∈ B0, to dla każdego t ∈ R+
limh→0+
‖ThTtf − Ttf‖ = 0,
więc Ttf ∈ B0. Zatem Tt(B0) ⊂ B0.
(iii) Jest jasne, że DA ⊂ B0. Niech f ∈ DA. Z (i) i (ii) Ttf−ft ∈ B0 (bo Ttf ∈ B0 i B0 jest
liniowe), B0 jest domknięte, więc Af = limt→0+Ttf−f
t ∈ B0.
61
Uwaga 9.8. (a) Założenie, że (Tt)t≥0 jest półgrupą kontrakcji można osłabić zakładając tylko,że półgrupa jest taka, że istnieje t0 > 0 takie, że
supt≤t0
‖Tt‖ < ∞.
W (9.3) mamy wtedy oszacowanie z 2 zastąpioną przez inną stałą, teza (i) się zachowuje. W (ii)otrzymujemy, że dla f ∈ B0 funkcja t 7→ Ttf jest ciągła w normie, ale niekoniecznie jednostajnieciągła. (iii) się zachowuje.
(b) Własność (ii) (albo słabiej, Tt(B0) ⊂ B0 i t 7→ Ttf jest ciągła w normie dla f ∈ B0)oznacza, że (Tt)t≥0 jest tzw. c0-półgrupą (silnie ciągłą półgrupą) na B0.
Twierdzenie 9.9. (Równanie Kołmogorowa) Niech (Tt)t≥0 będzie półgrupą kontrakcji orazf ∈ DA. Wtedy dla każdego t ≥ 0 Ttf ∈ DA, funkcja t 7→ Ttf jest różniczkowalna (w sensienormy), pochodna jest ciągła oraz
d
dtTtf = ATtf = TtAf. (9.4)
Równoważnie:
Ttf − f =
∫ t
0TsAfds =
∫ t
0ATsfds. (9.5)
Pierwsze równanie w (9.4) nazywa się równaniem Kołmogorowa wstecz, a drugie w przód.Dowód. Niech f ∈ DA. Dla t ≥ 0 i h > 0 mamy
∥∥∥∥
Tt+hf − Ttfh
− TtAf∥∥∥∥=
∥∥∥∥Tt(Thf − f
h−Af
)∥∥∥∥≤∥∥∥∥
Thf − f
h−Af
∥∥∥∥−−−−→h→0+
0
Stąd Ttf ∈ DA, ATtf = TtAf oraz istnieje pochodna prawostronna d+
dt Ttf = TtAf .Niech teraz t > 0, wykażemy, że T·f jest różniczkowalna w t. Wystarczy zbadać pochodną
lewostronną. Dla 0 < h < t mamy
∥∥∥∥
Tt−hf − Ttf−h
− TtAf∥∥∥∥=
∥∥∥∥Tt−h
(f − Thf
−h− ThAf
)∥∥∥∥
≤∥∥∥∥
Thf − f
h−Af
∥∥∥∥+ ‖ThAf −Af‖ −−−−→
h→0+0 (9.6)
W pierwszym składniku w (9.6) skorzystaliśmy z faktu, że f ∈ DA, a w drugim, że Af ∈ B0
dla f ∈ DA. Zatem, pochodna lewostronna istnieje i jest równa prawostronnej. Zachodziteż równanie (9.4). Pochodna jest jednostajnie ciągła, gdyż d
dtTtf = TtAf , Af ∈ B0, więct 7→ Tt(Af) jest jednostajnie ciągłe (Stwierdzenie 9.7).
Wniosek 9.10. Jeżeli f ∈ DA, to funkcja u(t, x) = Ttf(x) spełnia równanie paraboliczne
du
dt= Au, u(0, ·) = f.
62 ROZDZIAŁ 9. PÓŁGRUPY I ICH GENERATORY
Wniosek 9.11. Niech W, (Px)x∈Rd będzie jednorodną rodziną Wienera Jeżeli f ∈ C2u to
u(t, x) = Exf(Wt) = E0f(x+Wt) =
∫
Rd
1
(2πt)d/2f(y)e
(y−x)2
2t dy
spełnia równanie ciepła
∂u
∂t=
1
2∆u, u(0, x) = f(x) x ∈ Rd.
Wniosek 9.12. Niech (Xt)t∈R+ , (Px)x∈E będzie jednorodną rodziną Markowa względem filtracji(Ft)t∈R+ . Ponadto załóżmy, że proces X jest progresywnie mierzalny. Dla każdego f ∈ DA
zdefiniujmy
Mft = f(Xt)−
∫ t
0Af(Xs)ds.
Wówczas (Mft ,Ft)t∈R+ jest martyngałem względem każdej miary Px.
Dowód. Mft jest Ft-mierzalne (wynika z progresywnej mierzalności). Mf
t jest całkowalne, bof i Af są ograniczone.
Niech h ≥ 0, przypomnijmy też, że θt oznacza operator przesunięcia. Zachodzi
Ex(Mft+h|Ft) =Ex
(
f(Xt+h)−∫ t+h
0Af(Xs)ds
∣∣∣Ft
)
progres. mierz.= Ex
(
θtf(Xh)∣∣∣Ft
)
−∫ t
0Af(Xs)ds− Ex
(∫ t+h
tAf(Xs)ds
∣∣∣Ft
)
=Ex
(
θtf(Xh)∣∣∣Ft
)
−∫ t
0Af(Xs)ds− Ex
(
θt
∫ h
0Af(Xs)ds
∣∣∣Ft
)
wl. Markowa= EXtf(Xh)−
∫ t
0Af(Xs)ds− EXt
∫ h
0Af(Xs)ds
EXtf(Xh) = Thf(Xt) oraz Thf − f =∫ h0 TsAfds (z równania Kołmogorowa)
=f(Xt) +
∫ h
0TsAf(Xt)ds −
∫ t
0Af(Xs)ds −
∫ h
0EXtAf(Xs)︸ ︷︷ ︸
=TsAf(Xt)
ds
=f(Xt)−∫ t
0Af(Xs)ds.
Stwierdzenie 9.13. Jeżeli (A,DA) jest generatorem infinitezymalnym półgrupy związanej zjednorodną rodziną Markowa, to(i) 11 ∈ DA i A11 = 0,(ii) A spełnia zasadę maksimum: dla każdego f ∈ DA jeżeli x jest takie, że f(x) = supy∈E f(y),to Af(x) ≤ 0.
63
Dowód. (ii)Ttf(x)− f(x)
t=Exf(Xt)− f(x)
t=Ex(f(Xt)− f(x))
t≤ 0,
więc granica przy t → 0, Af(x) ≤ 0.
Niech (Tt)t∈R+ będzie półgrupą kontrakcji. Dla dowolnego λ > 0 i f ∈ B0 definiujemy
Rλf =
∫ ∞
0e−λtTtfdt.
Rλf jest dobrze określone, bo ‖Ttf‖ ≤ ‖f‖, ponadto funkcja t 7→ Ttf jest ciągła. Dla każdegoλ Rλ jest operatorem liniowym. Rλ nazywa się rezolwentą.
Rezolwenta ma następujące własności:
Stwierdzenie 9.14. (i) ‖Rλ‖ ≤ 1λ ,
(ii) RλTtf = TtRλf ,
(iii)
Rλ1Rλ2f =Rλ2 −Rλ1
λ1 − λ2,
(iv) Rλ(B0) = DA i Rλ = (λI −A)−1, tj.
∀f ∈ B0 Rλf ∈ DA oraz (λI −A)Rλf = f (9.7)
∀f ∈ DA Rλ(λf −Af) = f. (9.8)
Dowód. (i) Niech f ∈ B0, wtedy
‖Rλf‖ ≤∫ ∞
0e−λt ‖f‖ dt = 1
λ‖f‖ .
(ii)
TtRλf = Tt∫ ∞
0e−λsTsfds =
∫ ∞
0e−λsTtTsfds =
∫ ∞
0e−λsTsTtfds = RλTtf.
Mogliśmy wejść z Tt pod całkę, bo Tt jest operatorem liniowym i ograniczonym, a całka jest wmocnym sensie (całka Bochnera).
(iii)
Rλ1Rλ2f =
∫ ∞
0
∫ ∞
0e−λ1t−λ2sTt+sfdsdt
=
∫ ∞
0
∫ ∞
te−λ1t−λ2(s−t)Tsfdsdt
=
∫ ∞
0
∫ s
0e−λ1t+λ2tdte−λ2sTsfds
=1
λ2 − λ1
∫ ∞
0(e−λ1s − e−λ2s)Tsfds
=Rλ1 −Rλ2
λ2 − λ1.
64 ROZDZIAŁ 9. PÓŁGRUPY I ICH GENERATORY
(iv) (9.7): Niech f ∈ B0. Z (ii)
TtRλ −Rλf
t=1
t
(∫ ∞
0e−λsTs+tfds−
∫ ∞
0Tsfds
)
=1
t
(
eλt∫ ∞
te−λsTsfds−
∫ ∞
0e−λsTsfds
)
=1
t(eλt − 1)
∫ ∞
tTsfds−
1
t
∫ t
0Tsfds
−−−→t→0+
λRλf − f w normie.
W ostatnim składniku użyliśmy faktu, że dla f ∈ B0 funkcja s 7→ Tsf jest ciągła w normie.
Dowód (9.8):Niech f ∈ DA. Wtedy
RλAf =
∫ ∞
0e−λtTtAfdt =
∫ ∞
0e−λt d
dtTtfdt
=[
e−λtTtf]∞
0+
∫ ∞
0λe−λtTtfdt = −f + λRλf.
Otrzymaliśmy: Rλ(λI −A)f = f .
Stwierdzenie 9.15. B0 = DA, gdzie DA oznacza domknięcie DA w B0.
Dowód. Z poprzedniego Stwierdzenia wiemy, że DA = Rλ(B0) dla każdego λ > 0. Wystarczyzatem wykazać, że dla każdego f ∈ B0 λRλf → f gdy λ → ∞, bo to oznacza, że mamy ciągaproksymujący f elementami z DA.
Dla dowolnego h > 0 mamy
‖λRλf − f‖ =
∥∥∥∥λ
∫ ∞
0e−λtTtfdt− f
∥∥∥∥=
∥∥∥∥λ
∫ ∞
0(e−λtTtf − f)dt
∥∥∥∥
≤λ
∫ h
0e−λt ‖Ttf − f‖ dt+ 2λ ‖f‖
∫ ∞
he−λtdt
≤ supt≤h
‖Ttf − f‖+ 2 ‖f‖ e−λh. (9.9)
Zatem limλ→0 ‖λRλf − f‖ = 0 (Dla ustalonego ε > 0 wystarczy najpierw dobrać h dostateczniemałe, żeby pierwszy składnik w (9.9) był < ε/2 – ciągłość t 7→ Ttf , a następnie λ dostatecznieduże, aby drugi składnik < ε/2).
Stwierdzenie 9.16. A jest operatorem domkniętym.
Przypomnienie: A jest operatorem domkniętym jeżeli ma wykres domknięty, tzn. zachodziimplikacja: jeżeli fn ∈ B0, fn → f oraz Afn → g, to f ∈ DA oraz Af = g.
Dowód – ćwiczenie.
Stwierdzenie 9.17. Generator infinitezymalny (DA, A) wyznacza jednoznacznie półgrupę Ttna B0.
65
Wniosek 9.18. Generator infinitezymalny jednorodnej rodziny Markowa wyznacza jednoznacz-nie funkcję przejścia o ile tylko B0 jest dostatecznie bogata. Np. dla procesów o wartościach wRd wystarczy aby B0 zawierało funkcje jednostajnie ciągłe.
Dowód Stwierdzenia 9.17. A wyznacza λI − A dla każdego λ, wyznacza więc rezolwentęRλ = (λI −A)−1. Wykażemy, że rezolwenta jednoznacznie wyznacza Ttf dla każdego f ∈ B0.
Wiadomo, że jeżeli funkcje h1, h2 : R+ 7→ R są ciągłe i ograniczone i takie, że jeżeli∫∞0 e−λth1(t)dt =
∫∞0 e−λth2(t)dt dla każdego λ > 0, to h1 ≡ h2. Stąd łatwo wynika, że
jeśli F i G : R+ 7→ B0 są ciągłe i ograniczone (w normie) i zachodzi∫ ∞
0e−λth1(t)dt =
∫ ∞
0e−λth2(t)dt dla każdego λ > 0 (9.10)
to F ≡ G, gdyż dla każdego ϕ ∈ B∗0 z (9.10) wynika, że
∫∞0 e−λtϕ(F (t))dt =
∫∞0 e−λtϕ(G(t))dt,
stąd ϕ(F ) ≡ ϕ(G) dla dowolnego ciągłego funkcjonału liniowego ϕ, więc F ≡ G.
Wykazaliśmy, że jeżeli (DA, A) jest generatorem infinitezymalnym ciągłej półgrupy kontr-akcji na B0, to DA = B0, istnieje operator odwrotny do λI −A, Rλ = (λI −A)−1 i ‖Rλ‖ ≤ 1
λ .Okazuje się, że są to warunki konieczne i dostateczne na to aby (DA, A) było generatoremciągłej półgrupy kontrakcji na B0:
Twierdzenie 9.19. (Hille-Yosida) Niech B0 będzie przestrzenią Banacha, A operatorem li-niowym z dziedziną DA. A jest generatorem infinitezymalnym ciągłej półgrupy kontrakcji wtedyi tylko wtedy gdy
(1) DA = B0,
(2) ∀λ > 0 istnieje (λI −A)−1 =: Rλ na B0,
(3) ‖Rλ‖ ≤ 1λ , ∀λ > 0.
Ponadto, jeśli B0 ⊂ B(E), to dodatkowo zachodzi:
(i) Tt jest dodatnia wtedy i tylko wtedy, gdy (λI −A)−1 jest dodatnie.
(ii) Tt11 = 11 ∀t wtedy i tylko wtedy, gdy 11 ∈ DA oraz A11 = 0.
Dowód opuszczamy. Również bez dowodu podamy dwa kolejne stwierdzenia.
Stwierdzenie 9.20. Jeżeli (Xt)t∈R+ , (Px)x∈E jest jednorodną rodziną Markowa w przestrzenipolskiej (E, ρ), taką że X jest jednostajnie stochastycznie ciągły, tj.
∀ε > 0 limt→0
supx∈E
P (t, x,Bc(x, ε)) = 0, gdzie B(x, ε) = y : ρ(x, y) ≤ ε,
to Cu ⊂ B0.
Stwierdzenie 9.21. Niech (Xt)t∈R+ , (Px)x∈E będzie jednorodną rodziną Markowa w przestrzenimetrycznej zwartej E. Jeżeli B0 ⊃ Cu(E) (⇔ DA jest gęste w Cu(E)), to proces X jestjednostajnie stochastycznie ciągły.
66 ROZDZIAŁ 9. PÓŁGRUPY I ICH GENERATORY
Rozdział 10
Łańcuchy Markowa z czasem ciągłym
Niech E będzie przestrzenią co najwyżej przeliczalną z topologią dyskretną. Niech (Xt)t∈R+ , (Px)x∈Ebędzie jednorodną rodziną Markowa z funkcją przejścia P . Będziemy używać oznaczenia pi,j(t) =P (t, i, j). Zakładamy, że proces X ma trajektorie prawostronnie ciągłe. Oznaczmy też
τi = inft ≥ 0 : Xt 6= i.
Uwaga: z prawostronnej ciągłości oraz faktu, że topologia E jest dyskretna wynika, żePi(τi > 0) = 1 (nie możemy od razu wyskoczyć z i).
Ponieważ E jest dyskretna, to (Xt), (Px) jest fellerowska, a więc ma mocną własność Mar-kowa (nawet względem filtracji FX
t+).
Twierdzenie 10.1. (i) Dla każdego i ∈ E istnieje λi ∈ [0,∞) takie, że
Pi(τi > t) = e−λit.
(ii) Jeżeli λi > 0, to przy Px τi jest niezależne od Xτi
Oznacza to, że jeśli proces jest w stanie i to pozostaje tam przez czas wykładniczy z para-metrem λi jeśli λi > 0 albo na zawsze pozostaje w stanie i – jeśli λi = 0.Dowód. (i) τi jest momentem zatrzymania względem FX
t . Pokażemy, że dla dowolnych s, t > 0zachodzi
Pi(τi > s+ t) = Pi(τi > t)Pi(τi > s). (10.1)
Zauważmy, że
θtτi(ω) = τi(θtω) = infu ≥ 0 : Xu+t(ω) 6= i = infu ≥ t : Xs(ω) 6= i − t (10.2)
Mamy
Pi(τi > t+ s) =Pi(τi > t, infu ≥ t : Xu 6= i > s+ t)
=Pi(τi > t, θtτi > s)
=Ei
(11τi>tPi(θtτi > s|FX
t ))
=Ei (11τi>tPXt(τi > s))
=Ei (11τi>tPi(τi > s))
=Pi(τi > t)Pi(τi > s)
67
68 ROZDZIAŁ 10. ŁAŃCUCHY MARKOWA Z CZASEM CIĄGŁYM
Otrzymaliśmy własność braku pamięci (10.1). Zatem albo Pi(τi > t) = 0 dla wszystkich t > 0(ten przypadek wykluczamy ze względu na prawostronną ciągłość procesu – nie może od razuwyskoczyć), albo istnieje λi ∈ [0,∞), takie że Pi(τi > t) = e−λit.
(ii) Pokażemy
Pi(τi > t,Xτi ∈ Γ) = Pi(τi > t)Pi(Xτi ∈ Γ), t ∈ R+,Γ ∈ B(E). (10.3)
Skorzystamy znów z (10.2). Zauważmy, że na zbiorze τi > t zachodzi θtτi = τi − t. Zatem, naτi > t mamy
θtXτi(ω) = Xτi(θtω)(θt(ω)) = Xτi(ω)−t(θtω) = Xτi(ω)−t+t(ω) = Xτi(t).
To jest intuicyjnie jasne – jeśli w chwili t τi jeszcze nie zaszło, to patrząc na łańcuch, jako procesrozpoczynający się w chwili t, nadal czekamy na moment wyjścia z i i przeskok następuje w tosamo miejsce.
Stąd
Pi(τi > t,Xτi ∈ Γ) =Pi(τi > t, θtXτi ∈ Γ) = Ei11τi>tPi(θtXτi ∈ Γ|FXt )
=Ei11τi>tPXt(Xτ ∈ Γ) = Ei11τi>tPi(Xτ ∈ Γ).
Otrzymujemy (10.3).Niech λi będą jak w poprzednim twierdzeniu, ponadto, niech qi,j = Pi(Xτi = j). Połóżmy
aij =
−λi i = j
λiqij i = j
Załóżmy dodatkowo, żeλ := sup
i∈Eλi < ∞ (10.4)
i zdefiniujmyAf(i) =
∑
j∈E
aijf(j), f ∈ B(E). (10.5)
Twierdzenie 10.2. Załóżmy, że zachodzi (10.4), wówczas A zdefiniowane przez (10.5) jest ge-neratorem infinitezymalnym półgrupy związanej z odpowiednią rodziną Markowa. Jego dziedzinąjest całe B(E).
Dowód. Zauważmy, że z założenia (10.4) wynika, że A jest dobrze określone na B(E) i jestoperatorem liniowym i ograniczonym.
Niech σ = inft ≥ 0 : Xt 6= X0 będzie momentem pierwszego skoku łańcucha Markowa Xi niech σ2 = inft ≥ σ : Xt 6= Xσ oznacza moment drugiego skoku. Zauważmy, że
θσσ(ω) = inft ≥ 0 : Xt(θσω) 6= X0(θσω) = inft ≥ 0 : Xt+σ(ω)(ω) 6= Xσ(ω)(ω)= inft ≥ σ(ω) : Xt(ω) 6= Xσ(ω)(ω) − σ(ω) = σ2(ω)− σ(ω).
PonadtoPj(σ ≤ t) = 1− e−λjt ≤ λjt ≤ λt
69
oraz
Pi(σ2 ≤ t) ≤ Pi(σ ≤ t, σ2 − σ︸ ︷︷ ︸
=θσσ
≤ t) = EiPi(σ ≤ t, θσσ|FXσ ) = Ei(11σ≤t PXτ (σ ≤ t)
︸ ︷︷ ︸
≤λt
) ≤ λ2t2.
Niech f ∈ B(E), wtedy
Ttf(i) =Eif(Xt) = Pi(σ > t)f(i) + Ei11σ≤t,σ2>tf(Xσ) + Ei11σ2≤tf(Xt)
=e−λitf(i) + Ei11σ≤tf(Xσ)− Ei11σ2≤tf(Xσ) + Ei11σ2≤tf(Xt)
=(1− λit)f(i) + (1− e−λit)∑
j 6=i
qi,jf(j) +R1(i)
=(1− λit)f(i) + λit∑
j 6=i
qi,jf(j) +R(i, t)
gdzie supi |R(i, t)| ≤ 4λ2t2 ‖f‖. Stąd
supi
∣∣∣∣
Ttf(i)− f(i)− tAf(i)
t
∣∣∣∣
=supi
∣∣∣∣
−λitf(i) + λit∑
j 6=i qi,jf(j)− taiif(i)− t∑
i 6=j aijf(j) +R(i, t)
t
∣∣∣∣
=supi
|R(i, t)|t
≤ 4λ2t −−−→t→0+
0.
Uwaga. Jeżeli P jest funkcją przejścia łańcucha Markowa z czasem ciągłym, tolimt→0+
P (t,i,i)−1t = −λi, limt→0+
P (t,i,j)t = λiqij. Można to wykazać nawet bez założenia
(10.4).
Rozkład niezmienniczy
Definicja 10.3. Mówimy, że miara probabilistyczna µ na E jest rozkładem niezmienniczymprocesu Markowa z funkcją przejścia P jeżeli
∫
EP (t, x,Γ)µ(dx) = µ(Γ), Γ ∈ B(E), (10.6)
tzn, jeżeli proces Markowa X startuje z rozkładu µ (X0 ∼ µ), to Xt ∼ µ dla każdego t ≥ 0.
Jeżeli E jest przeliczalna, to warunek pisze się w postaci∑
i
µiP (t, i, j) = µj
gdzie µi = µ(i).Przypuśćmy, że zachodzi warunek (10.4). Z równania Kołmogorowa d
dtTtf = ATtf dlaf = 11j otrzymujemy
d
dtP (t, i, j) =
∑
k
aikP (t, k, j). (10.7)
70 ROZDZIAŁ 10. ŁAŃCUCHY MARKOWA Z CZASEM CIĄGŁYM
Niech µ będzie rozkładem prawdopodobieństwa na E. Mnożąc obie strony równania (10.7)przez µi i sumując po i dostajemy
∑
i
µid
dtP (t, i, j) =
∑
i
µi
∑
k
aikP (t, k, j).
Jeżeli zachodzi (10.4), to po lewej można wyjść z pochodną przed sumę, a po prawej zamienićkolejność sumowania:
d
dt
(∑
i
µiP (t, i, j))
=∑
k
∑
i
µiaikP (t, k, j). (10.8)
Jeżeli µ jest takie, że∑
i µiaij = 0 dla każdego j, to
d
dt
(∑
i
µiP (t, i, j))
= 0,
a więc µ jest rozkładem niezmienniczym.Z drugiej strony, jeśli µ jest rozkładem niezmienniczym, to lewa strona (10.8) jest równa
zero dla wszystkich t, a więc też dla t = 0, tj.
0 =∑
i
µiaij
Wykazaliśmy:
Twierdzenie 10.4. Jeżeli zachodzi (10.4), to µ jest rozkładem niezmienniczym wtedy i tylkowtedy, gdy
∑
i
µiaij = 0 ∀j ∈ E. (10.9)
Korzystając z postaci generatora infinitezymalnego (10.9) można przepisać jako
µjλj =∑
i 6=j
µiλiqij j ∈ E
intensywność wyjścia z j = intensywność wejścia do j.
Warunek (10.4) da się nieco osłabić.
Twierdzenie 10.5. Załóżmy, że (Xt)t∈R+ , (Pi)i∈E jest prawostronnie ciągłą jednorodną ro-dziną Markowa o wartościach w co najwyżej przeliczalnej, dyskretnej przestrzeni E. Ponadtozałóżmy, że rodzina jest nieprzywiedlna, tj. P (t, i, j) > 0 ∀t > 0, i, j ∈ E i istnieje rozkładniezmienniczy µ. Wówczas
limt→∞
P (t, i, j) = µj =1
λjEjσj,
gdzie σj jest momentem pierwszego powrotu do j, σj = inft ≥ σ : Xt = j, jak poprzednio, σjest momentem wyjścia ze stanu początkowego.
71
Bez założenia istnienia miary niezmienniczej można wykazać
Twierdzenie 10.6. Dla dowolnych stanów stanów i, j ∈ E, gdzie j nie jest stanem pochłania-jącym, zachodzi
limt→∞
P (t, i, j) = Pi(σj < ∞)
λjEjσj.
Jeżeli limt→∞ P (t, i, j) > 0, to średni czas powrotu do j jest skończony.Dowody Twierdzeń 10.5 i 10.6 można znaleźć np. w [K] (Thm. 12.15 i 12.26).
72 ROZDZIAŁ 10. ŁAŃCUCHY MARKOWA Z CZASEM CIĄGŁYM
Rozdział 11
Procesy dyfuzji
Ważną klasę procesów Markowa stanowią procesy dyfuzji. Są one związane z rozwiązaniamirównań stochastycznych.
11.1 Definicja procesu dyfuzji
Załóżmy, że dane są ciągłe funkcje Rd ∋ x 7→ b(x) = (bi(x))di=1 ∈ Rd oraz Rd ∋ x 7→ a(x) =
(aij(x))di,j=1 ∈ – macierze d× d symetryczne nieujemnie określone.
Definiujemy operator różniczkowy
Lf(x) =1
2
d∑
i,j=1
aij(x)∂2f
∂xi∂xj(x) +
d∑
i=1
bi(x)∂f
∂xi(x). (11.1)
Przez C20 (R
d) oznaczamy klasę funkcji Rd 7→ R klasy C2 o nośniku zwartym. Jak zwykle(A,DA) jest generatorem infinitezymalnym odpowiedniej jednorodnej rodziny Markowa.
Definicja 11.1. Jednorodną rodzinę Markowa (Xt)t∈R+ , (Px)x∈Rd nazywamy procesem dyfuzjiz operatorem tworzącym L jeżeli X jest procesem ciągłym, a ponadto C2
0 (Rd) ⊂ DA oraz dla
każdego f ∈ C20 (R
d) zachodzi Af = Lf .
Uwaga 11.2. (a) Można się zastanawiać jakie operatory różniczkowe L mogą być operatoramitworzącymi procesów dyfuzji. Zauważmy, że skoro A11 = 0, L nie może mieć wyrazu wolnego.A spełnia zasadę maksimum, więc macierz a(x) musi być nieujemnie określona. Z tego samegopowodu L nie może mieć pochodnych stopnia wyższego niż 2.(b) L jest operatorem lokalnym.(c) b nazywa się współczynnikiem dryfu, a a – współczynnikiem dyfuzji.(d) W niektórych książkach w definicji procesu dyfuzji nie zakłada się ciągłości a i b, a tylkolokalną ograniczoność.
11.2 Interpretacja współczynników dryfu i dyfuzji
Będziemy używać następujących oznaczeń:
Uδ(x) = y : |y − x| ≤ δ, U cδ (x) = y : |y − x| > δ, δ > 0, x ∈ Rd.
73
74 ROZDZIAŁ 11. PROCESY DYFUZJI
Stwierdzenie 11.3. Niech a, b jw, i niech niech (Xt)t∈R+ , (Px)x∈Rd będzie jednorodną rodzinąMarkowa na Rd, ponadto załóżmy że dla każdego δ > 0, przy t → 0 jednostajnie względemx ∈ Rd zachodzą warunki:
P (t, x, U cδ (x)) =o(t), (11.2)
∫
Uδ(x)(yi − xi)P (t, x, dy) =bi(x)t+ o(t), i = 1, . . . , d (11.3)
∫
Uδ(x)(yi − xi)(yj − xj)P (t, x, dy) =aij(x)t+ o(t), i, j = 1, . . . d. (11.4)
Ponadto, niech∑d
i=1 aii(x) będzie ograniczone. Wówczas DA ⊂ C2u(R
d) oraz Af = Lf dlaf ∈ C2
u(Rd).
Uwagi. Warunek (11.2) pociąga istnienie modyfikacji procesu X o ciągłych trajektoriach.(11.3) może być zapisane jako
Ex(Xt − x)11Uδ(x) = b(x)t+ o(t),
lewa strona jest uciętą średnią, ale z warunku (11.2) wynika, że dla małych czasów X jest zbardzo dużym prawdopodobieństwem w Uδ(x). Tj. dla małych czasów średnia wartość prze-sunięcia w czasie t jest proporcjonalna do t, ze współczynnikiem proporcjonalności b(x). Stądb nazywa się współczynnikiem dryfu. Podobnie warunek (11.3) opisuje zachowanie kowariancjiprzesunięcia dla małych czasów – współczynnik dyfuzji a mierzy rozproszenie.
Dowód. Niech f ∈ C2u(R
d), ε > 0. Wtedy istnieje δ > 0 takie, że dla |x− y| < δ zachodzi
|f(x)− f(y)|+d∑
i=1
∣∣∣f ′
xi(x)− f ′
xj(y)∣∣∣ +
d∑
i,j=1
∣∣∣f ′′
xixj(x)− f ′′
xixj(y)∣∣∣ < ε
(Dla skrótu używamy oznaczeń f ′xi
= ∂f∂xi
, f ′′xixj
= ∂2f∂xi∂xj
)
Ustalmy h takie, że dla t ≤ h wszystkie o(t) w (11.2)-(11.4) są co do modułu ≤ εt. Wtedy
1
t(Ttf(x)− f(x))− Lf(x)
=1
t
∫
Uδ(x)(f(y)− f(x))P (t, x, dy) − Lf(x)
︸ ︷︷ ︸
=:I
+1
t
∫
Ucδ(x)
(f(y)− f(x))P (t, x, dy)
︸ ︷︷ ︸
=:II
Z (11.2) dla t ≤ h mamy
|II| ≤ 2
t‖f‖P (t, x, Uδ(x)) ≤
2
t‖f‖ εt ≤ 2 ‖f‖ ε.
Aby oszacować I korzystamy z rozwinięcia Taylora
f(y)− f(x) =d∑
i=1
f ′xi(x)(yi − xi) +
1
2
d∑
i,j=1
f ′′xixj
(x)(yi − xi)(yj − xj) +R(x, y) |y − x|2
11.3. PROCESY DYFUZJI A ROZWIĄZANIA RÓWNAŃ STOCHASTYCZNYCH 75
gdzie |R(x, y)| ≤ Cε, gdy |y − x| < δ.Zatem, korzystając z (11.3) i (11.4) otrzymujemy
|I| ≤2ε+ ε1
t
∫
Uδ(x)|y − x|2 P (t, x, dy) = 2ε+ Cε
d∑
i=1
(aii(x) + o(t))
=(2 + C)ε+ Cεd∑
i=1
aii(x),
Stąd i z ograniczoności∑
i aii(x) oraz oszacowania |II| i dowolności ε dostajemy tezę.
Stwierdzenie 11.4. Niech a, b jak wyżej, ale nie zakładamy ograniczoności śladu a, (Xt)t∈R+ ,(Px)x∈Rd będzie jednorodną rodziną Markowa taką, że warunki (11.2)-(11.4) zachodzą niemaljednostajnie (jednostajnie na każdym zbiorze zwartym), a ponadto dla każdego K ⊂ Rd zwartegoistnieje zbiór zwarty K ′ ⊂ Rd, taki że K ⊂ K ′ i limt→0 supx∈K ′c
1tP (t, x,K) = 0. Wówczas
C20 (R
d) ⊂ DA i Af = Lf dla f ∈ C20 (R
d).
Dowód. Niech f ∈ C20 (R
d), K = supp f . Do K dobieramy zbiór zwarty K ′ jak w założeniu.Wtedy
∥∥∥∥
1
t(Ttf − f)− Lf
∥∥∥∥≤ sup
x∈K ′
∣∣∣∣
1
t(Ttf(x)− f(x))− Lf(x)
∣∣∣∣+ sup
x∈K ′c
∣∣∣∣
1
tTtf(x)
∣∣∣∣.
Jak w dowodzie poprzedniego stwierdzenia, pierwszy składnik po prawej dąży do zera gdyt → 0 (a jest ciągłe, więc ślad a jest ograniczony na K ′). Drugi składnik szacuje się przez‖f‖ 1
tP (t, x,K), więc również dąży do zera.
11.3 Procesy dyfuzji a rozwiązania równań stochastycznych
Przypomnijmy, że jeżeli (W,X) jest słabym rozwiązaniem równania stochastycznego
dXt = b(Xt)dt+ σ(Xt)dWt, X0 = x (11.5)
to rozkład X jest rozwiązaniem problemu martyngałowego (x, a, b), gdzie a = σσT i na odwrót– rozwiązaniom problemu martyngałowego odpowiadają rozkładom rozwiązań równań stocha-stycznych (Twierdzenie 3.4).
Niech (Xt)t∈R+ , (Px)x∈Rd będzie procesem dyfuzji. Wówczas z Wniosku (9.12) wynika, żedla każdej funkcji f ∈ C2
0 (Rd) i przy każdym Px proces
Mft = f(Xt)−
∫ t
0Lf(Xs)ds
jest martyngałem startującym z f(x). Zatem rozkład X przy Px na przestrzeni kanonicznejC([0,∞),Rd) jest rozwiązaniem problemu martyngałowego (x, a, b).
Na ćwiczeniach widzieliśmy, że rozwiązania równań stochastycznych postaci (11.5) są pro-cesami Markowa. Zachodzi też twierdzenie ogólniejsze:
76 ROZDZIAŁ 11. PROCESY DYFUZJI
Twierdzenie 11.5. Załóżmy, że a i b są lokalnie ograniczonymi funkcjami mierzalnymi takimi,że dla każdego x ∈ Rd istnieje dokładnie jedno rozwiązanie Px problemu martyngałowego (x, a, b)oraz, że dla każdego A ∈ B(Rd) odwzorowanie x 7→ Px(Xt ∈ Γ) jest mierzalne, gdzie X jestprocesem kanonicznym. Wówczas (Xt)t≥0, (Px)x∈Rd jest jednorodną rodziną mocno Markowa zfunkcją przejścia P (t, x,Γ) = Px(Xt ∈ Γ). Ponadto, jeżeli a i b są ciągłe i ograniczone, topółgrupa Ttf(x) := Exf(Xt) jest fellerowska.
Dowód można znaleźć np. w [RY], Thm. IX.1.9 oraz [K] Thm. 21.11.
Gdy już wiemy, że rodzina (Xt)t∈R+ , (Px)x∈Rd z Twierdzenia 11.5 jest jednorodną rodzinąMarkowa, sprawdzenie, że jest ona procesem dyfuzji (gdy a i b ciągłe) z operatorem tworzącymL jest bardzo łatwe: Z założenia wiemy, że dla każdego f ∈ C2
0 (Rd) proces f(Xt) =
∫ t0 Lf(Xs)ds
jest martyngałem przy każdym Px, startującym z f(x), zatem
Ttf − f = Exf(Xt)− f(x) = Ex
∫ t
0Lf(Xs)ds =
∫ t
0TsLf(x)ds. (11.6)
Lf ∈ C0, bo f ma nośnik zwarty i a, b są ograniczone na nośniku f . Z (11.6) wynika zatem, żef ∈ B0. Wykazaliśmy, że C2
0 ⊂ B0, ale B0 jest podprzestrzenią domkniętą, więc C0 ⊂ B0. Wszczególności, jeśli f ∈ C2
0 , to Lf ∈ B0. Dalej, używając znów (11.6) otrzymujemy
∥∥∥∥
Ttf(x)− f(x)
t− Lf(x)
∥∥∥∥=
1
t
∥∥∥∥
∫ t
0(TsLf − Lf)ds
∥∥∥∥≤ sup
s≤t‖TsLf − Lf‖ −−→
t→00. (11.7)
Ostatnia zbieżność wynika z faktu, że Lf ∈ B0. (11.7) pokazuje, że C20 ⊂ DA oraz Af = Lf
dla f ∈ C20 .
Rozdział 12
Wzór Feynmana-Kaca
W tym rozdziale rozważamy procesy o wartościach w przestrzeni polskiej E z metryką ρ. Za-kładamy, że (Xt)t≥0, (Px)x∈E jest jednorodną rodziną Markowa z półgrupą przejścia (Tt) danąwzorem Ttf(x) = Exf(Xt) o generatorze infinitezymalnym (A,DA).
Zaczniemy od lematu pomocniczego, prawdziwego dla dowolnych półgrup kontrakcji
Lemat 12.1. Niech Tt będzie półgrupą kontrakcji na B(E) i niech f ∈ DA. Wówczas funkcjau(t, x) = Ttf(x) jest rozwiązaniem równania
∂u
∂t(t, x) =Au(t, x)
u(0, x) =f(x).
Ponadto, u(t, x) = Ttf(x) jest jedynym rozwiązaniem ograniczonym i takim, że ∂u∂t jest ciągłą
funkcją z R+ w B(E).
Dowód. Z równania Kołmogorowa wstecz (Twierdzenie 9.9) wiemy, że u(t, x) = Ttf(x) spełniarównanie i ∂u
∂t jest ciągła w normie supremum. Należy pokazać jednoznaczność.
Ze względu na liniowość A wystarczy wykazać, że jeżeli u jest ograniczone, ∂u∂t : R+ 7→ B(E)
ciągłe i u spełnia ∂u∂t = Au, u(0, x) = 0, to u ≡ 0. Z warunku ciągłości w B(E) funkcji ∂u
∂t itwierdzenia Lagrange’a wynika, że u : R+ 7→ B(E) jest ciągła (w silnym sensie - w normie sup)oraz ∂u
∂t istnieje w sensie normy.Ustalmy dowolne λ > 0 i oznaczmy v(t, x) = e−λtu(t, x). Z założenia, że u jest rozwiązaniem,
mamy u(t, ·) ∈ DA, więc również v(t, ·) ∈ DA ∀t ≥ 0. Ponadto
∂v
∂t= −λe−λtu(t, x) + e−λtAu(t, x) = −(λI −A)v(t, x).
Stąd
v(t, x) = −Rλ
(∂v
∂t(t, ·)
)
.
Całkując po [0, t] i korzystając z faktu, że Rλ jest operatorem ograniczonym, więc można gowynieść przed całkę otrzymujemy
∫ t
0v(s, x)ds = −
∫ t
0Rλ
(∂v
∂s(s, ·)
)
ds = −Rλ
∫ t
0
(∂v
∂s(s, ·)
)
ds = −Rλv(t, ·). (12.1)
77
78 ROZDZIAŁ 12. WZÓR FEYNMANA-KACA
u jest ograniczone i λ > 0, więc limt→∞ ‖v(t, ·)‖ = 0. Zatem, z (12.1) i ograniczoności Rλ
wynika, że∫∞0 v(s, x)ds = 0, tj.
∫∞0 e−λsu(s, x) = 0. λ > 0 było dowolne, u ciągła ograniczona,
więc musi być u ≡ 0.
Twierdzenie 12.2. (Wzór Feynmana-Kaca) Niech (Xt)t∈R+ , (Px)x∈E będzie jednorodnąrodziną Markowa prawostronnie ciągłą i jednostajnie stochastycznie ciągłą, tj.
limt→0
αε(t) = 0 ∀ε > 0, (12.2)
gdzie αε(t) = sups≤t supx∈E P (s, x, U cε (x)). Niech c : R 7→ C będzie funkcją jednostajnie ciągłą
i ograniczoną. Wówczas dla każdego f ∈ DA funkcja
u(t, x) = Exe∫ t
0c(Xs)dsf(Xt)
jest jedynym rozwiązaniem równania
∂u
∂x(t, x) =Au(t, x) + c(x)u(t, x) (12.3)
u(0, x) =f(x)
w klasie funkcji u takich, że supx∈E |u(t, x)| ≤ Ceβt, gdzie C, β są pewnymi stałymi dodatnimi,oraz u i ∂u
∂t są ciągłe jako funkcje z R+ w B(E).
Uwaga 12.3. (a) Warunek (12.2) już implikuje, że proces X ma modyfikację prawostronnieciągłą.(b) Jeżeli c = 0, to Twierdzenie 12.2 zawiera Lemat 12.1.(c) c i f mogą przyjmować wartości zespolone. W szczególności twierdzenie może służyć np.do znajdowania rozkładu
∫ t0 g(Xs)ds, gdy położyć f ≡ 1 i c = izg(x). u(t, x) jest wtedy
funkcją charakterystyczną u(t, x) = Exeiz
∫ t0 g(Xs)ds. Można również znajdować łączny rozkład
(∫ t0 g(Xs)ds,Xt).
Dowód. Dla f ∈ B(E) definiujemy
Ttf(x) = Ex
(
e∫ t
0c(Xs)dsf(Xt)
)
.
Tt jest operatorem liniowym i ograniczonym (c ograniczone ). Na ogół nie jest to kontrakcja,ale zachodzi ∥
∥∥Ttf
∥∥∥ ≤ eβt ‖f‖ ,
gdzie β = supxℜc(x). Oczywiście T0f = f . Ponadto, Tt jest półgrupą:
Tt+sf(x) =Exe∫ t0 c(Xu)duEx
(
e∫ t+st
c(Xu)duf(Xt+s)|FXt
)
=Exe∫ t0c(Xu)duEx
(
θte∫ s0c(Xu)duf(Xs)|FX
t
)
=Exe∫ t
0c(Xu)du EXt
(
e∫ s
0c(Xu)duf(Xs)
)
︸ ︷︷ ︸
=Tsf(Xs)
=TtTsf(x).
79
Mimo iż (Tt) nie jest półgrupą kontrakcji, można zdefiniować generator infinitezymalny tejpółgrupy (A,DA) (por. Uwaga 9.8) i zachodzi równanie Kołmogorowa.
Wykażemy, że DA = DA oraz Af = Af + cf . Najpierw pokażemy, że B0 = B0. Zauważmy,że Ttf − f = Ttf − Ttf + Ttf − f oraz
∥∥∥Ttf − Ttf
∥∥∥ = sup
x
∣∣∣Ex
(
e∫ t
0c(Xs)ds − 1
)
f(Xt)∣∣∣ ≤ ‖f‖ e‖c‖t ‖c‖ t −−→
t→00. (12.4)
Skorzystaliśmy tu z oszacowania |ey − 1| ≤ e|y| |y| dla y =∫ t0 c(Xs)ds, |y| ≤ ‖c‖ t. Z (12.4)
otrzymujemy
limt→0
∥∥∥Ttf − f
∥∥∥ = ⇔ lim
t→0
∥∥∥Ttf − f
∥∥∥ = 0,
zatem rzeczywiście B0 = B0.
Aby udowodnić, że DA = DA i Af = Af+cf (a w konsekwencji, że u(t, x) = Ttf(x) spełniarównanie (12.3)) wystarczy pokazać, że dla każdego f ∈ B0 zachodzi
1
t
(
Ttf(x)− Ttf(x))
−−→t→0
c(x)f(x) jednostajnie wzgl. x ∈ E.
Mamy∣∣∣∣∣
Ttf(x)− Ttf(x)t
− c(x)f(x)
∣∣∣∣∣=
∣∣∣∣∣Ex
e∫ t
0c(Xs)ds − 1
tf(Xt)− c(x)f(x)
∣∣∣∣∣
używając e∫ t0 c(Xs)ds − 1 =
∫ t0 c(Xs) + R(t), gdzie R(t) = eϑ
∫ t0 c(Xs)ds (
∫ t0 c(Xs)ds)2
2 dla pewnego
ϑ ∈ (0, 1), |R(t)| ≤ e‖c‖t (‖c‖t)2
2
≤∣∣∣∣Ex
(1
t
∫ t
0c(Xs)dsf(Xt)− c(x)f(Xt)
∣∣∣∣
)
︸ ︷︷ ︸
=:I(x)
+ |c(x)Ex(f(Xt)− f(x))|︸ ︷︷ ︸
=:II(x)
+ e‖c‖t‖c‖2 t2
‖f‖︸ ︷︷ ︸
−−→t→0
0
.
Korzystając z założenia, że f ∈ B0 mamy
supx
II(x) ≤ ‖c‖ ‖Ttf − f‖ −−→t→0
0.
Aby oszacować I użyjemy jednostajnej ciągłości c i jednostajnej stochastycznej ciągłości X.Ustalmy dowolne ε > 0 i niech δ > 0 będzie takie, że |c(x)− x(y)| ≤ ε dla wszystkich ρ(x, y) ≤ δ.Wówczas
supx
I(x) ≤Ex1
t
∫ t
0|c(Xs)− c(x)| ds11supu≤t ρ(Xu,x)≤δ ‖f‖
+ Ex1
t
∫ t
0|c(Xs)− c(x)| ds11supu≤t ρ(Xu,x)>δ ‖f‖
≤ε ‖f‖+ 2 ‖c‖ ‖f‖P (supu≤t
ρ(Xu, x) > δ). (12.5)
80 ROZDZIAŁ 12. WZÓR FEYNMANA-KACA
Zachodzi Lemat (ćwiczenie): Jeżeli (Xt), (Px) jednorodna rodzina Markowa prawostronnie cią-gła i jednostajnie stochastycznie ciągła (tj. dla każdego ε > 0 limt→0 αε(t) = 0), to
Px
(
supu≤t
ρ(Xu, x) > δ
)
≤ 2αδ/2(t).
Z powyższego lematu i (12.5) otrzymujemy
supx
I(x) ≤ ε ‖f‖+ 2 ‖c‖ ‖f‖ 2αδ/2(t) −−→t→0
0,
co kończy dowód (12.4).
Jednoznaczność. Jeżeli ℜc ≤ 0, to Tt jest półgrupą kontrakcji, a więc z Lematu 12.1u(t, x) = Ttf(x), f ∈ DA = DA jest jedynym ograniczonym rozwiązaniem równania (12.3) wklasie funkcji u takich, że u ograniczone i ∂u
∂t ciągłe z R+ w B(E). Należy pozbyć się warunkusupxℜc(x) ≤ 0 i rozszerzyć klasę funkcji do funkcji o wzroście co najwyżej wykładniczym.
Niech u będzie rozwiązaniem równania (12.3). Dla dowolnego β > 0 oznaczmy uβ(t, x) =e−βtu(t, x). Wówczas
∂uβ∂t
(t, x) = Auβ(t, x) + (c(x) − β)uβ(t, x) uβ(0, x) = f(x). (12.6)
Dla dostatecznie dużych β zachodzi supxℜ(c(x)− β) ≤ 0 (c ograniczone) oraz supt ‖uβ(t, ·)‖ <∞. u spełnia (12.3) wtedy i tylko wtedy, gdy uβ spełnia (12.6). Zatem jednoznaczność rozwią-zania (12.6) w klasie funkcji ograniczonych pociąga jednoznaczność rozwiązania (12.3) w klasiefunkcji o wzroście co najwyżej wykładniczym.
W przypadku procesów dyfuzji i f ∈ C20 równanie (12.3) jest równaniem różniczkowym
cząstkowym. Twierdzenie można zapisać w następującej formie:
Twierdzenie 12.4. Niech (Xt)t≥0, (Px)x∈Rd będzie procesem dyfuzji z operatorem tworzącymL, niech c : Rd 7→ C będzie funkcją jednostajnie ciągłą i ograniczoną i f ∈ C2
0 (Rd). Wtedy
funkcja
u(t, x) = Exe∫ t
0c(Xs)f(Xt) (12.7)
spełnia równanie
∂u
∂t(t, x) = Lu(t, x) + c(x)u(t, x), u(0, x) = f(x). (12.8)
Na odwrót, jeśli u klasy C1,2 spełnia równanie (12.8) i jest takie, że dla każdego t ∈ [0, t)supx∈Rd sups≤t |u(s, x)| < ∞, to u ma postać (12.7).
W tym przypadku aby pokazać, że każde rozwiązanie ma postać (12.7) pokazuje się łatwo
kładąc h(s, x) = u(t − s, x), pisząc wzór Ito dla e∫ t0 c(Xs)dsh(t,Xt) i obkładając otrzymane
wyrażenie wartością oczekiwaną (w razie potrzeby, należy wykonać procedurę lokalizacji).
Wracamy do przypadku dowolnych rodzin Markowa (niekoniecznie procesów dyfuzji). Roz-ważymy uogólnienie równania (12.3). W tym celu przyda się następujący lemat:
81
Lemat 12.5. Niech (Tt) będzie półgrupą kontrakcji w B(E), g ∈ B0. Wówczas v(t, x) =∫ t0 Tsg(x)ds jest jedynym o wzroście co najwyżej liniowym rozwiązaniem równania
∂v
∂t= Av(t, x) + g(x), v(0, x) = 0,
takim, że v i ∂v∂t : R+ 7→ B(E) są ciągłe.
Dowód – ćwiczenie.Łącząc powyższy lemat z Twierdzeniem 12.2 nietrudno pokazać
Twierdzenie 12.6. Jeżeli (Xt)t∈R+ , (Px)x∈E jest jednorodną rodziną Markowa prawostronnieciągłą i ∀ε > 0 limt→0 αε(t) = 0, c jest funkcją ograniczoną i jednostajnie ciągłą, g ∈ B0 orazf ∈ DA, to
w(t, x) = Ex
(
e∫ t
0c(Xs)dsf(Xt) +
∫ t
0e∫ s
0c(Xr)drg(Xs)ds
)
jest rozwiązaniem równania
∂w
∂t= Aw(t, x) + c(x)w(t, x) + g(x), v(0, x) = f.
Rozwiązanie to jest jedyne w klasie funkcji w spełniających: supx |w(t, x)| ≤ eβt, w, ∂w∂t : R+ 7→B(E) ciągłe.
82 ROZDZIAŁ 12. WZÓR FEYNMANA-KACA
Rozdział 13
Procesy dyfuzji i zagadnienie Dirichleta
Niech (Xt)t≥0, (Px)x∈Rd będzie procesem dyfuzji z operatorem tworzącym
Lf(x) =d∑
i=1
bi(x)∂f
∂xi(x) +
d∑
i,j=1
ai,j(x)∂2f
∂xi∂xj(x)
(a, b ciągłe).
Stwierdzenie 13.1. Dla każdego f ∈ C20(R
d) i τ – momentu zatrzymania takiego, że Exτ < ∞zachodzi
Ex
(
f(Xτ )−∫ τ
0Lf(Xs)
)
ds = f(x).
Dowód. Jeżeli f ∈ C20 to f(Xt) −
∫ t0 Lf(Xs)ds jest martyngałem, więc z twierdzenia Dooba
mamy
Ex
(
f(Xt∧τ )−∫ t∧τ
0Lf(Xs)ds
)
= f(x).
Przechodzimy z t → ∞. W drugim wyrażeniu po lewej stronie równości stosujemy majoryzację
∣∣∣∣
∫ t∧τ
0Lf(Xs)ds
∣∣∣∣≤∫ τ
0|Lf(Xs)| ds ≤ ‖Lf‖∞ τ.
Z założenia Exτ < ∞. Zatem, z twierdzenia o zmajoryzowanej zbieżności otrzymujemy tezę.
Niech D ⊂ Rd będzie zbiorem otwartym i niech
τD = inft ≥ 0 : Xt /∈ D.
Dc jest domknięty i X jest procesem ciągłym, więc τD jest martyngałem. Zajmiemy się terazodpowiedzią na pytanie kiedy ExτD < ∞.
Twierdzenie 13.2. Załóżmy, że istnieje zbiór otwarty D′ taki, że D ⊂ D′ i funkcja f klasyC2 na D′ oraz liczba c > 0 takie, że f ≥ 0 na D, oraz Lf ≤ −c na D, to dla każdego x ∈ Dzachodzi
ExτD < ∞.
83
84 ROZDZIAŁ 13. PROCESY DYFUZJI I ZAGADNIENIE DIRICHLETA
Dowód. Będziemy pisać τ zamiast τD.Krok 1. Przypuśćmy najpierw, że D jest ograniczone. Funkcję f można rozszerzyć do
funkcji f ∈ C20 tak, że f(x) = f(x) dla x ∈ D. Wówczas, dla x ∈ D, Af(x) = Lf(x) = Lf(x)
(L jest operatorem lokalnym). Zachodzi
f(x) = Ex f(Xt∧τ︸ ︷︷ ︸
∈D
)
︸ ︷︷ ︸
≥0
−Ex
∫ t∧τ
0Lf(Xs)︸ ︷︷ ︸
≤−c
ds ≥ c Ext ∧ τ.
Z twierdzenia o zbieżności monotonicznej, przechodząc z t → ∞ otrzymujemy Exτ ≤ f(x)c ,
zatem teza zachodzi.Krok 2. Jeżeli D jest dowolny, niekoniecznie ograniczony, kładziemy DN = D ∩ x : |x| <
N. Jeżeli x ∈ D, to dla dostatecznie dużych N x ∈ DN i z oszacowania w pierwszej częścimamy
ExτDN≤ f(x)
c.
Jeżeli N → ∞, to τDNր τD, więc z twierdzenia o monotonicznej zbieżności ExτD ≤ f(x)
c <∞.
Stwierdzenie 13.3. Załóżmy, że istnieje R > 0 takie, że dla każdego x ∈ D |x1| < R (Dzawiera się w pasie). Ponadto, załóżmy, że dla pewnych α,B > 0 zachodzi a11(x) ≥ α > 0 oraz|b1(x)| ≤ B ∀x ∈ D. Wówczas dla każdego x ∈ D
ExτD < ∞.
Wniosek 13.4. Jeżeli D jest zbiorem ograniczonym i istnieje j takie, że aj,j(x) > 0 na D, todla każdego x ∈ D zachodzi ExτD < ∞.
Dowód Stwierdzenia 13.3. Niech r > 0. Oznaczmy f(x) = cosh(rR) − cosh(rx1), gdziecoshu = eu+e−u
2 . Oczywiście f(x) ≥ 0 dla x takich, że |x1| ≤ R. Pokażemy, że można takdobrać r, że Lf ≤ −c dla pewnego c > 0.
Lf(x) = −1
2a11(x)r
2 cosh(rx1)− b1(x)r sinh(rx1)
(sinhu = eu−e−u
2 ). Korzystając z założeń o a i b mamy
−Lf(x) ≥ 1
2αr2 cosh(rx1)−Br |sinh(rx1)| = r(
α
2r−B) cosh(rx1)+Br(cosh(rx1)−|sinh(rx1)|)
Zawsze coshx ≥ |sinhx| oraz cosh ≥ 1, więc wystarczy wziąć r takie, że α2 r > B aby zachodziło
Lf(x) ≤ −c < 0.
Zagadnienie brzegowe Dirichleta
Niech D będzie zbiorem otwartym, g : D 7→ R ciągła, ϕ : ∂D 7→ R ciągła. Szukamy vtakiego, że
Lv(x) = g(x) x ∈ D
v ciągłe na D
v(x) = ϕ(x) x ∈ ∂D
(13.1)
85
Twierdzenie 13.5. Załóżmy, że D ⊂ Rd jest zbiorem otwartym i ograniczonym oraz ExτD <∞. Ponadto załóżmy, że funkcje g : D 7→ R oraz ϕ : ∂D 7→ R są ciągłe. Niech v będzierozwiązaniem zagadnienia (13.1), które przedłuża się w klasie C2 na pewien zbiór otwarty D′ ⊃D. Wówczas dla każdego x ∈ D zachodzi
v(x) = Ex
(
ϕ(XτD ) +
∫ τD
0g(Xs)ds
)
. (13.2)
Dowód. Gdy x ∈ ∂D wzór (13.2) zachodzi w sposób oczywisty.Z założenia wynika, że v można przedłużyć do funkcji z C2
0 (Rd). To przedłużenie również
będziemy oznaczać przez v. Ze Stwierdzenia 13.1 mamy
v(x) = Ex
(
v(XτD )−∫ τD
0Lv(Xs)ds
)
dla x ∈ D.
X jest procesem ciągłym, więc XτD ∈ ∂D. Ponadto Xs ∈ D dla s < τD. v spełnia (13.1),zatem v(XτD ) = ϕ(XτD ) oraz dla s < τD Lv(Xs) = g(Xs). Zatem (13.2) zachodzi.
Uwaga 13.6. Gdy przyjąć g = 0 w poprzednim twierdzeniu, o τD wystarczy tylko założyć,że τD < ∞ p.n. przy każdym Px – nie musimy zakładać skończoności wartości oczekiwanej.Wtedy jeśli v jest rozwiązaniem (13.1) z g = 0, to
v(x) = Exv(Xt∧τD ) −−−→t→∞Exv(XτD ) = ϕ(XτD ).
86 ROZDZIAŁ 13. PROCESY DYFUZJI I ZAGADNIENIE DIRICHLETA
Bibliografia
[EK] S. Ethier, T. Kurtz, Markov processes. Characterization and convergence. Wiley Series inProbability and Mathematical Statistics: Probability and Mathematical Statistics. JohnWiley & Sons, Inc., New York, 1986.
[K] O.Kallenberg, Foundations of modern probability. 2nd ed., Springer 2002.
[KS] I. Karatzas, S.E. Shreve, Brownian motion and stochastic calculus. 2nd edition. GraduateTexts in Mathematics, 113. Springer-Verlag, New York, 1991.
[IW] N. Ikeda, S. Watanabe, Stochastic differential equations and diffusion processes. North-Holland, 1981.
[MK] H.P. McKean, Stochastic integrals. Academic Press, New York and London, 1969.
[RY] D. Revuz, M. Yor, Continuous martingales and Brownian motion. 3rd edition. Grundleh-ren der Mathematischen Wissenschaften, 293. Springer-Verlag, Berlin, 1999.
[W] A.D. Wentzell, Wykłady z teorii procesów stochastycznych, Warszawa 1980.
87