universit´e pierre et marie curie master de sciences et

217
1 Universit´ e Pierre et Marie Curie Master de sciences et technologies Math´ ematiques et applications. Deuxi` eme ann´ ee Sp´ ecialit´ e Probabilit´ es et applications. Fili` ere Probabilit´ es et Finances Ann´ ee 2004/2005 Introduction aux processus de diffusion Pierre Priouret Mode d’emploi Ce polycopi´ e est destin´ e aux ´ etudiants de la fili` ere “Probabilit´ es et Finances” du Master de sciences et technologies de l’Universit´ e Pierre et Marie Curie Sp´ ecialit´ e Probabilit´ es et applications. En principe il s’adresse donc ` a des ´ etudiants ayant suivi un cours d’int´ egration et un premier cours de probabilit´ es. Cependant le chapitre 1 pr´ esente tous les r´ esultats d’int´ egration utilis´ es par la suite et ´ etablit la plupart d’entre eux. Il n’est pas ` a lire ligne ` a ligne mais plutˆ ot ` a utiliser comme r´ ef´ erence. Quant au chapitre 2 qui introduit les principales notions de probabilit´ es, il ne suppose aucune connaissance pr´ ealable de cette th´ eorie et peut ´ eventuellement ˆ etre abord´ e par un ´ etudiant n’ayant jamais suivi de cours de probabilit´ es. Le chapitre 3 expose les fondements de la th´ eorie des processus al´ eatoires, l’accent ´ etant mis sur le mouve- ment brownien. L’esp´ erance conditionnelle et les martingales sont pr´ esent´ ees dans le chapitre 4; le lecteur press´ e peut se contenter de la lecture des sections 4.1 ` a 4.4 et 4.7. Le chapitre 5 est consacr´ e au sujet principal de ce cours, ` a savoir la construction de l’int´ egrale stochastique par rapport au mouvement brownien et le calcul stochas- tique. Cette construction est ensuite ´ etendue aux martingales continues. Le chapitre 6 applique ces r´ esultats ` a la r´ esolution des ´ equations diff´ erentielles stochastiques. Le chapitre 7 traite des processus de Markov et, plus particuli` erement, des processus de diffusion. Enfin le chapitre 8 a pour objet l’´ etude de la convergence en loi des processus. Ce polycopi´ e est divis´ e en chapitres, sections et sous-sections. Ainsi 3.2.4 renvoie au chapitre 3, section 2, sous-section 4 et 5.4 renvoie chapitre 5, section 4. A l’int´ erieur d’une mˆ eme section, les ´ enonc´ es sont num´ erot´ es en continu. Ainsi “d’apr` es le th. 5.4.6” renvoie au chapitre 5, section 4, ´ enonc´ e 6. Quant aux ´ egalit´ es, elles sont num´ erot´ ees entre parenth` eses et en continu au sein d’un mˆ eme chapitre. Ainsi “vu (3.5)” r´ ef` ere ` a la cinqui` eme ´ egalit´ e num´ erot´ ee du chapitre 3. Le signe indique la fin d’une preuve. Ce polycopi´ e se termine par un index des notations, un index des termes et une courte bibliographie. Les sections 5.9, 5.10 et le chapitre 8 ne sont pas au programme de l’examen.

Upload: others

Post on 25-Oct-2021

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Universit´e Pierre et Marie Curie Master de sciences et

1

Universite Pierre et Marie CurieMaster de sciences et technologies

Mathematiques et applications. Deuxieme anneeSpecialite Probabilites et applications. Filiere Probabilites et Finances

Annee 2004/2005

Introduction aux processus de diffusionPierre Priouret

Mode d’emploi

Ce polycopie est destine aux etudiants de la filiere “Probabilites et Finances” duMaster de sciences et technologies de l’Universite Pierre et Marie Curie SpecialiteProbabilites et applications. En principe il s’adresse donc a des etudiants ayant suiviun cours d’integration et un premier cours de probabilites. Cependant le chapitre1 presente tous les resultats d’integration utilises par la suite et etablit la plupartd’entre eux. Il n’est pas a lire ligne a ligne mais plutot a utiliser comme reference.Quant au chapitre 2 qui introduit les principales notions de probabilites, il ne supposeaucune connaissance prealable de cette theorie et peut eventuellement etre aborde parun etudiant n’ayant jamais suivi de cours de probabilites. Le chapitre 3 expose lesfondements de la theorie des processus aleatoires, l’accent etant mis sur le mouve-ment brownien. L’esperance conditionnelle et les martingales sont presentees dans lechapitre 4; le lecteur presse peut se contenter de la lecture des sections 4.1 a 4.4 et4.7. Le chapitre 5 est consacre au sujet principal de ce cours, a savoir la constructionde l’integrale stochastique par rapport au mouvement brownien et le calcul stochas-tique. Cette construction est ensuite etendue aux martingales continues. Le chapitre6 applique ces resultats a la resolution des equations differentielles stochastiques. Lechapitre 7 traite des processus de Markov et, plus particulierement, des processusde diffusion. Enfin le chapitre 8 a pour objet l’etude de la convergence en loi desprocessus.

Ce polycopie est divise en chapitres, sections et sous-sections. Ainsi 3.2.4 renvoieau chapitre 3, section 2, sous-section 4 et 5.4 renvoie chapitre 5, section 4. A l’interieurd’une meme section, les enonces sont numerotes en continu. Ainsi “d’apres le th. 5.4.6”renvoie au chapitre 5, section 4, enonce 6. Quant aux egalites, elles sont numeroteesentre parentheses et en continu au sein d’un meme chapitre. Ainsi “vu (3.5)” refere ala cinquieme egalite numerotee du chapitre 3. Le signe indique la fin d’une preuve.Ce polycopie se termine par un index des notations, un index des termes et une courtebibliographie.

Les sections 5.9, 5.10 et le chapitre 8 ne sont pas au programme del’examen.

Page 2: Universit´e Pierre et Marie Curie Master de sciences et

2

Page 3: Universit´e Pierre et Marie Curie Master de sciences et

Table des matires

1 Mesures 51.1 Tribus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2 Mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.3 Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.4 Espaces de Banach. Espaces Lp . . . . . . . . . . . . . . . . . . . . . . 151.5 Espaces de Hilbert. Espaces L2 . . . . . . . . . . . . . . . . . . . . . . 201.6 Mesures images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231.7 Mesures produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241.8 Transformation de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . 251.9 Mesures de Radon sur Rd . . . . . . . . . . . . . . . . . . . . . . . . . 281.10 Mesures signees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301.11 Fonctions a variation finie . . . . . . . . . . . . . . . . . . . . . . . . . 33

2 Notions de probabilites 372.1 Espace de probabilite . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.2 Independance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.3 Variables aleatoires reelles . . . . . . . . . . . . . . . . . . . . . . . . . 432.4 Variables aleatoires vectorielles . . . . . . . . . . . . . . . . . . . . . . 452.5 Fonctions caracteristiques . . . . . . . . . . . . . . . . . . . . . . . . . 482.6 Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 522.7 Convergence des suites de variables aleatoires . . . . . . . . . . . . . . 542.8 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582.9 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 642.10 Uniforme integrabilite . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

3 Processus aleatoires 733.1 Processus aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 733.2 Processus gaussiens. Mouvement brownien . . . . . . . . . . . . . . . . 763.3 Construction de Paul Levy . . . . . . . . . . . . . . . . . . . . . . . . 793.4 Filtrations. Processus adaptes . . . . . . . . . . . . . . . . . . . . . . . 813.5 Temps d’arret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

Page 4: Universit´e Pierre et Marie Curie Master de sciences et

4 TABLE DES MATIRES

4 Esperances conditionnelles. Martingales 874.1 Esperances conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . 874.2 Calculs d’esperances conditionnelles . . . . . . . . . . . . . . . . . . . 914.3 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 944.4 Martingales a temps discret . . . . . . . . . . . . . . . . . . . . . . . . 974.5 Martingales a temps continu . . . . . . . . . . . . . . . . . . . . . . . . 1034.6 Martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1084.7 Resume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

5 Calcul stochastique 1175.1 Processus a variation finie . . . . . . . . . . . . . . . . . . . . . . . . . 1175.2 Integrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . 1195.3 Le cas vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1245.4 Formule d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1255.5 Martingales exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . 1295.6 Theoreme de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . 1325.7 Espaces gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1345.8 Martingales du mouvement brownien . . . . . . . . . . . . . . . . . . . 1365.9 Integrale stochastique par rapport a une martingale continue . . . . . 1375.10 Le cas des martingales vectorielles. . . . . . . . . . . . . . . . . . . . . 144

6 Equations differentielles stochastiques 1516.1 Solutions d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1516.2 Proprietes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1576.3 Unicite en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1606.4 Generalisations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1626.5 Solutions fortes et faibles . . . . . . . . . . . . . . . . . . . . . . . . . 1656.6 E.D.S. lineaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

7 Processus de diffusion 1717.1 Processus de diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 1717.2 La propriete forte de Markov . . . . . . . . . . . . . . . . . . . . . . . 1767.3 E.D.P. et E.D.S. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

8 Convergence en loi de processus 1858.1 Convergence faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1858.2 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1938.3 Le principe d’invariance . . . . . . . . . . . . . . . . . . . . . . . . . . 1998.4 Probleme des martingales. . . . . . . . . . . . . . . . . . . . . . . . . . 201

A Index des notations 211

B Index des termes 215

Page 5: Universit´e Pierre et Marie Curie Master de sciences et

Chapitre 1

Mesures

Dans ce premier chapitre, on presente de facon succincte mais relativement completeles principaux resultats de la theorie de la mesure et de l’integration.

1.1. Tribus

1.1.1. Soient E un ensemble et B ⊂ P(E). On dit que B est une algebre (resp. unetribu) si E ∈ B, si B est stable par passage au complementaire et si B est stable parreunion et intersection finies (resp. denombrables). Un couple (E,B), B etant unetribu sur E, s’appelle un espace mesurable. S’il est souvent possible de decrire leselements d’une algebre, il n’en est pas de meme pour ceux d’une tribu. On remarqueque P(E) est une tribu et que l’intersection d’une famille quelconque de tribus est unetribu. Donc, etant donne C ⊂ P(E), on peut considerer la plus petite tribu contenantC, c’est l’intersection de toutes les tribus contenant C. Cette tribu se note σ(C) ets’appelle la tribu engendree par C.

1.1.2. Supposons E = Rd et soit O la classe des ouverts de E. La tribu σ(O) s’appellela tribu borelienne de Rd et se note B(Rd). Il est facile de voir qu’elle est aussi en-gendree par les fermes, par les boules, par les paves et meme par les paves a co-ordonnees rationnelles (cette derniere famille ayant l’avantage d’etre denombrable).Si d = 1, on considerera, outre B(R), B(R+) = A ∈ B(R), A ⊂ R+, B(R) =σ(B(R), +∞, −∞) et B(R+) = σ(B(R+), +∞). On etend les operations usuellesa R+ en posant (+∞)× 0 = 0× (+∞) = 0.

1.1.3. Soient (E1,B1) et (E2,B2) deux espaces mesurables. Une application f de E1

dans E2 est dite mesurable si, pour tout A ∈ B2, f−1(A) ∈ B1. Il est facile de voirque pour cela, il suffit que f−1(A) ∈ B1 pour tout A ∈ C avec σ(C) = B2. Ceciimplique que, si f est continue de Rd dans Rm, f est borelienne i.e. mesurable pourles tribus boreliennes. De plus, cette notion est transitive i.e. la composee de deuxapplications mesurables est mesurable. Quand l’espace d’arrivee est R, R, R+, Rd, C,il est toujours suppose muni de sa tribu borelienne.

Page 6: Universit´e Pierre et Marie Curie Master de sciences et

6 Mesures

1.1.4. Soit (E,B) un espace mesurable. Pour qu’une application numerique soitmesurable, il suffit que, pour tout a ∈ R, f > a := x, f(x) > a ∈ B. Onpeut aussi considerer f < a, f ≤ a, f ≥ a. Ceci implique que, si f , g, fn sontdes fonctions numeriques mesurables, il en est de meme de −f , sup(f, g), inf(f, g),f+ = sup(f, 0), f− = sup(−f, 0), sup fn, inf fn, lim sup fn, lim inf fn, lim fn si elleexiste.

Rappelons que, notant fn ↑ f (resp.fn ↓ f) si, pour tout x ∈ E, fn(x) croıt (resp.decroıt) vers f(x),

lim sup fn(x) = limn↓ supk≥n

fk(x), lim inf fn(x) = limn↑ infk≥n

fk(x), (1.1)

ces quantites etant a valeurs R et que f = lim fn ssi lim sup fn = lim inf fn = f .Soient f, g des fonctions numeriques mesurables. Alors φ : x 7→ (f(x), g(x)) est

mesurable de (E,B) dans R2 puisque φ−1(A×B) = f−1(A)∩ g−1(B). Ceci impliqueque, si H est une application borelienne de R2 dans R, H(f, g) est mesurable. On endeduit que f + g, fg, f

g , si elle existe, sont mesurables.

1.1.5. Pour A ⊂ B, on appelle fonction indicatrice de A et on note 1A la fonctionvalant 1 sur A et 0 sur Ac (on note Ac le complementaire de A). On a

1Ac = 1− 1A, 1∩An =∏

1An = inf 1An , 1∪An = sup 1An .

Une application f de E muni de la tribu B dans R est dite etagee si elle s’ecritf =

∑pk=1 ak1Ak

, Ak ∈ B. On notera:[B] l’ensemble des fonctions reelles mesurables,bB l’ensemble des fonctions reelles mesurables bornees,B+ l’ensemble des fonctions mesurables a valeurs R+,eB+ l’ensemble des fonctions etagees positives.

Le resultat suivant est a la base de la construction de l’integrale.

Proposition 1.1.1. Toute f ∈ B+ est limite d’une suite croissante de fonctions deeB+.

Preuve: Il suffit de considerer

fn(x) =n2n−1∑k=0

k

2n1 k

2n≤f(x)< k+12n + n1f(x)≥n. (1.2)

1.1.6. Quelques resultats de mesurabilite. L’outil de base est le theoreme suivant,souvent appele theoreme de la classe monotone.

Theoreme 1.1.2. Soient C ⊂M ⊂ P(E). On suppose que C est stable par intersec-tion finie, que E ∈M, que A,B ∈M et A ⊂ B impliquent B \A ∈M et que M eststable par limite croissante. Alors σ(C) ⊂M.

Page 7: Universit´e Pierre et Marie Curie Master de sciences et

7

Preuve: On dira que D ⊂ P(E) est une δ-classe si A,B ∈ D et B ⊂ A impliquentqueA \ B ∈ D et si D est stable par limite croissante. Il est clair qu’une δ-classecontenant E et stable par intersection finie est une tribu. Soit S la plus petite δ-classe contenant E et C. Pour montrer la proposition, il suffit de montrer que S eststable par intersection finie.

Pour A ⊂ E, on pose DA = B ∈ S, A ∩ B ∈ S. On verifie immediatementque DA est une δ-classe. Si A ∈ C, E ∈ DA et donc DA = S i.e. si A ∈ C, B ∈ S,alors A ∩B ∈ S. Ceci implique que, si A ∈ S, DA est une δ-classe contenant E d’ouDA = S et S est stable par intersection finie.

Theoreme 1.1.3. Soient H un espace vectoriel de fonctions numeriques borneesdefinies sur E et C un ensemble de parties de E stable par intersection finie. Onsuppose que H verifie

1 ∈ H, fn ∈ H et 0 ≤ fn ↑ f bornee ⇒ f ∈ H (1.3)

et que, pour tout A ∈ C, 1A ∈ H. Alors H contient toutes les fonctions σ(C)-mesurables bornees.

Preuve: Soit M = A, 1A ∈ H. On a C ⊂ M et, vu les hypotheses sur H, onpeut appliquer le th. 1.1.2. Donc σ(C) ⊂ M. Ceci implique que, si f est etagee surσ(C), f ∈ H. C’est encore vrai (prop. 1.1.1) par passage a la limite croissante si fest positive bornee σ(C)-mesurable puis, par difference, pour toute f bornee σ(C)-mesurable.

1.1.7. Ces resultats et les corollaires ci-dessous seront d’un usage constant en proba-bilites. Soit X une application de Ω dans un espace mesurable (E, E). On note σ(X)et on appelle tribu engendree par X la plus petite tribu sur Ω rendant X mesurable.On a donc σ(X) = X−1(A), A ∈ E.

Plus generalement si (Xi, i ∈ I) est une famille d’applications de Ω dans desespaces mesurables (Ei, Ei), on note σ(Xi, i ∈ I) et on appelle tribu engendree parles Xi la plus petite tribu sur Ω rendant toutes les Xi mesurables. Soit

C = A ⊂ Ω, A =n⋂k=1

X−1ik

(Γk), Γk ∈ Eik , i1, . . . , in ∈ I.

C est stable par intersection finie et l’on a σ(C) = σ(Xi, i ∈ I). Noter que:

Lemme 1.1.4. Une application Φ : (A,A) → (Ω, σ(Xi, i ∈ I)) est mesurable ssi,pour tout i ∈ I, Xi Φ est mesurable de (A,A) dans (Ei,Bi).

Preuve: Pour montrer que Φ est mesurable, il suffit (1.1.3) de verifier que Φ−1(C) ∈A pour tout C de la forme Xi ∈ Γi, Γi ∈ Bi. Mais, dans ce cas, Φ−1(C) =a, Φ Xi(a) ∈ Γi ∈ Bi.

Le th. 1.1.3 implique alors:

Page 8: Universit´e Pierre et Marie Curie Master de sciences et

8 Mesures

Corollaire 1.1.5. Soient H un espace vectoriel de fonctions numeriques borneesdefinies sur Ω et (Xi, i ∈ I) une famille d’applications de Ω dans des espaces mesurables(Ei, Ei). On suppose que H verifie (1.3) et que, pour tous i1, . . . , in ∈ I et tousΓk ∈ Eik ,

n∏k=1

1ΓkXik ∈ H.

Alors H contient toutes les fonctions σ(Xi, i ∈ I)-mesurables bornees.

On suppose que, pour tout i ∈ I, (Ei, Ei) = (E, E). On note F = EN. Pour x =(xn, n ∈ N) ∈ F , on definit ξn : F → N par ξn(x) = xn et on pose F = σ(ξn, n ∈ N).

Corollaire 1.1.6. Soient, pour tout i ∈ I, Xi : Ω → (E, E) et Y : Ω → R (resp.Ω → R+). Alors Y est σ(Xi, i ∈ I)-mesurable ssi il existe i1, . . . , in, . . . ∈ I eth : F → R (resp. h : F → R+) F-mesurable telle que Y = h(Xi1 , . . . , Xin , . . .).

Preuve: Vu le lem.1.1.4, si h ∈ bF , h(Xi1 , . . . , Xin , . . .) ∈ bσ(Xi, i ∈ I). Dans l’autresens, soit

H = Z : Ω → R; Z = h(Xi1 , . . . , Xin , . . .), ik ∈ I, h ∈ bF.

On verifie (assez) facilement que H est un espace vectoriel de fonctions numeriquesbornees verifiant (1.3) et contenant

∏nk=1 1Γk

(Xik). Appliquant le cor.1.1.5, H ⊃bσ(Xi, i ∈ I). On conclut facilement.

Corollaire 1.1.7. Soit H un espace vectoriel de fonctions numeriques bornees definiessur Rd. On suppose que H verifie (1.3) et contient toutes les fonctions continues asupport compact. Alors H ⊃ bB(Rd).

Preuve: En effet, pour tout U ouvert borne, on a 1U = lim ↑ fn avec fn continue asupport compact. Donc 1U ∈ H et on applique le th. 1.1.3.

Enfin combinant les cor. 1.1.5 et 1.1.7, on obtient, notant Ck(Rd) l’espace desfonctions continues a support compact sur Rd,

Corollaire 1.1.8. Soient H un espace vectoriel de fonctions numeriques borneesdefinies sur Ω et (Xi, i ∈ I) une famille d’applications de Ω dans Rd. On supposeque H verifie (1.3) et que, pour tous i1, . . . , in ∈ I et toutes fj ∈ Ck(Rd),

n∏j=1

fj Xij ∈ H.

Alors H contient toutes les fonctions σ(Xi, i ∈ I)-mesurables bornees.

Page 9: Universit´e Pierre et Marie Curie Master de sciences et

9

1.2. Mesures

1.2.1. Soient I un ensemble denombrable et (ai, i ∈ I) une famille d’elements deR+. On veut definir

∑i∈I ai. Soit φ une enumeration de I i.e. une bijection de N

sur I. On pose Sφn =∑n

k=0 aφ(k). Evidemment Sφn croıt avec n et Sφ = lim ↑ Sφnexiste dans R+. Si ψ est une autre enumeration de I, on a , pour n fixe et m assezgrand, aφ(0), . . . , aφ(n) ⊂ aψ(0), . . . , aψ(m), d’ou Sφn ≤ Sψm et Sφ ≤ Sψ. Permutantφ et ψ, on a Sψ ≤ Sφ et Sφ = Sψ. On pose donc

∑i∈I ai := lim ↑ Sφn , quantite qui

ne depend pas de l’enumeration φ. Evidemment si, pour tout i ∈ I, 0 ≤ ai ≤ bi,∑i∈I ai ≤

∑i∈I bi. On a aussi (sommation par paquets):

Theoreme 1.2.1. Soient (ai, i ∈ I) une famille d’elements de R+ et (Aj , j ∈ J)une partition de I. On a ∑

i∈Iai =

∑j∈J

(∑i∈Aj

ai).

Considerons maintenant une famille (ai, i ∈ I) d’elements de C. On dit que cettefamille est absolument sommable si

∑i∈I |ai| < +∞. Dans ce cas, ecrivant ai =

[<(ai)]+ − [<(ai)]−+i[=(ai)]+−i[=(ai)]−, on voit facilement que∑

i∈I ai := limSφnexiste et est independante de φ et que le th. 1.2.1 reste valable.

1.2.2. Soit (E,B) un espace mesurable.

Definition 1.2.2. On appelle mesure sur (E,B) toute application µ de B dans R+

telle que(i) µ(∅) = 0,(ii) pour tous An ∈ B deux a deux disjoints, µ(∪nAn) =

∑n µ(An).

Le triplet (E,B, µ) s’appelle un espace mesure.

Proprietes: (i) si A,B ∈ B et A ⊂ B, µ(A) ≤ µ(B),

(ii) si An ∈ B, µ(∪nAn) ≤∑

n µ(An),

(iii) si An ∈ B et si An ↑ A (i.e. 1An ↑ 1A), µ(An) ↑ µ(A),

(iv) si An ∈ B, si An ↓ A (i.e. 1An ↓ 1A) et si, pour un n0, µ(An0) < +∞, µ(An) ↓µ(A).

Si E = ∪nEn avec En ∈ B et µ(En) < +∞, la mesure µ est dite σ-finie. Siµ(E) < +∞, la mesure µ est dite bornee. Si µ(E) = 1, la mesure µ est appelee uneprobabilite.

Soit a ∈ E. On appelle mesure de Dirac de a et on note δa la mesure δa(A) = 1A(a).

Remarque 1: La propriete (ii) de la def. 1.2.2 s’appelle σ-additivite. Si dans la def.1.2.2, on suppose que B est seulement une algebre, la definition a encore un sens enrajoutant dans (ii) la condition ∪nAn ∈ B. On a ainsi la notion de mesure sur unealgebre.

Page 10: Universit´e Pierre et Marie Curie Master de sciences et

10 Mesures

Proposition 1.2.3. Soient µ et ν deux mesures sur (E,B) et C ⊂ B une classed’ensembles stable par intersection finie. On suppose que, pour tout A ∈ C, µ(A) =ν(A) < +∞ et que E = lim ↑ En avec En ∈ C. Alors µ(A) = ν(A) pour toutA ∈ σ(C).

Preuve: Supposons d’abord µ(E) = ν(E) < +∞. Soit M = A ∈ B, µ(A) = ν(A).On verifie immediatement que les hypotheses du th. 1.1.2 sont verifiees. On a doncσ(C) ⊂ M. Le cas general se traite en appliquant ce resultat aux mesures µn(A) =µ(A ∩ En) et νn(A) = ν(A ∩ En).

Remarque 2: On voit donc que, si µ et ν sont deux probabilites, l’enonce de la prop.1.2.3 se simplifie: si µ et ν coıncident sur C stable par intersection finie et engendrantB, elles sont egales sur B.

1.2.3. Soit (E,B, µ) un espace mesure. Un sous- ensemble A de E est dit negligeable(ou µ-negligeable s’il y a ambiguıte) si A ⊂ B avec B ∈ B et µ(B) = 0. Une pro-priete est vraie presque partout (en abrege p.p.) si elle est vraie en dehors d’unensemble negligeable. Par exemple f = g p.p. signifie que x ∈ E, f(x) 6= g(x) estnegligeable. Si µ est une probabilite, on dit presque surement (en abrege p.s.) pourpresque partout. On note N la classe des ensembles negligeables. Il faut noter que siAn ∈ N , on a ∪nAn ∈ N . Si N ⊂ B, l’espace mesure (E,B, µ) est dit complet. Si cen’est pas le cas, on peut le “completer” de la facon suivante. On definit B = σ(B,N ).Alors A ∈ B ssi A = B ∪ N avec B ∈ B et N ∈ N . On peut prolonger µ a B enposant µ(A) = µ(B) (il est facile de voir que ceci ne depend pas de l’ecriture deA). L’espace (E,B, µ) est alors complet et s’appelle le complete de (E,B, µ). En-fin on verifie aisement que f : E → R est B−mesurable ssi il existe g, h : E → RB−mesurables telles que g ≤ f ≤ h et g = h p.p.

1.2.4. Construction. Dans la suite, la plupart du temps, on partira d’un espacemesurable ou d’un espace de probabilite sans se soucier de sa construction. Il estneanmoins indispensable de s’assurer de l’existence de tels objets. On va s’interesseraux mesures sur B(R) finies sur les intervalles bornes. On verra une seconde methodede construction en 1.9. Observons d’abord que C = ]a, b], −∞ < a < b < +∞ estune classe stable par intersection finie et que σ(C) = B(R). Il resulte alors de la prop.1.2.3 qu’une mesure µ sur B(R) finie sur les intervalles bornes est determinee par lesvaleurs µ(]a, b]). Ensuite, etant donnee une telle mesure, si on pose

F (0) = 0; F (x) = µ(]0, x]), x > 0; F (x) = −µ(]x, 0]), x < 0,

F (x) est une fonction continue a droite et croissante et l’on a µ(]a, b]) = F (b)−F (a).On est donc ramene au probleme suivant: soit F une application de R dans R continuea droite et croissante, existe-t-il une mesure µ sur B(R) telle que µ(]a, b]) = F (b) −F (a)? Il est facile de decrire l’algebre A engendree par C. On a

A = A = ∪nk=1]ak, bk], −∞ ≤ a1 < b1 < a2 < . . . < bn−1 < an < bn ≤ +∞

en convenant que, si bn = +∞, ]an, bn] =]an,+∞[. On definit µ sur A par µ(A) =∑nk=1 F (bk) − F (ak) ou F (+∞) = limx→+∞ F (x), F (−∞) = limx→−∞ F (x). Il est

Page 11: Universit´e Pierre et Marie Curie Master de sciences et

11

facile de montrer que µ est additive sur A, un peu plus delicat de montrer que µ estσ-additive sur A mais cela se fait. On a donc construit une mesure µ sur A telle queµ(]a, b]) = F (b)− F (a). Pour passer a B(R), on utilise le theoreme de Caratheodory:

Theoreme 1.2.4. Soit µ une mesure sur une algebre A, alors µ se prolonge en unemesure sur σ(A). De plus, si µ est σ-finie, ce prolongement est unique.

Tout ceci donne, puisque dans notre cas σ(A) = B(R), le:

Theoreme 1.2.5. Soit F une application de R dans R continue a droite et croissante.Il existe une et une seule mesure µ sur B(R) telle que, pour tous a < b, µ(]a, b]) =F (b)− F (a).

Si on choisit F (x) = x, on obtient l’existence et l’unicite d’une mesure λ sur B(R)verifiant, pour tout intervalle I, λ(I) = |I|. C’est la mesure de Lebesgue sur R. SiN est la classe des ensembles λ-negligeables, B(R) = σ(B,N ) s’appelle la tribu desensembles Lebesgue-mesurables (elle est beaucoup plus “grosse” que B(R)) et λ seprolonge sans peine a B(R) comme en 1.2.3.

Pour plus de details sur les resultats de cette sous-section, le lecteur peut consulter[2] et [30].

1.3. Integration

Soit (E,B, µ) un espace mesure.

1.3.1. Integration des fonctions positives. On va construire l’integrale de f par rap-port a µ. Si f ∈ eB+, c’est tres facile, f s’ecrit f =

∑pk=1 ak1Ak

, Ak ∈ B et l’onpose ∫

f dµ :=p∑

k=1

akµ(Ak).

Des considerations elementaires montrent que ceci ne depend pas de l’ecriture de fet que, pour f, g ∈ eB+ et a, b ∈ R+,

∫(af + bg) dµ = a

∫f dµ + b

∫g dµ et que, si

f ≤ g,∫f dµ ≤

∫g dµ. On a aussi le resultat plus technique suivant qui est la cle de

la construction:

Lemme 1.3.1. Si fn, gn ∈ eB+ sont croissantes et si lim ↑ fn = lim ↑ gn, on alim ↑

∫fn dµ = lim ↑

∫gn dµ.

Preuve: Il suffit de montrer que, si lim ↑ fn ≥ g =∑p

k=1 αk1Ak∈ eB+, lim ↑∫

fn dµ ≥∫g dµ. Soient c ∈]0, 1[ et En = fn ≥ cg. On a En ∈ B, En ↑ E et

fn ≥ cg1En d’ou∫fn dµ ≥ c

∫g1En dµ = c

∑pk=1 αkµ(Ak ∩ En). On obtient, pour

n → +∞, lim ↑∫fn dµ ≥ c

∑pk=1 αkµ(Ak) = c

∫g dµ et le resultat cherche puisque

c < 1 est arbitraire.

Soit f ∈ B+. Il existe (prop. 1.1.1) une suite fn ∈ eB+ telle que fn ↑ f , on a alors∫fn dµ ↑ et on pose

∫f dµ = lim ↑

∫fn dµ. Le point important est que, d’apres le

Page 12: Universit´e Pierre et Marie Curie Master de sciences et

12 Mesures

lem. 1.3.1, cette limite ne depend pas de la suite fn choisie. On a en particulier, vu(1.2), pour f ∈ B+,∫

f dµ = lim ↑n2n−1∑k=0

k

2nµ(x, k

2n≤ f(x) <

k + 12n

) + nµ(x, f(x) ≥ n).

Par passage a la limite, on obtient immediatement que, pour f, g ∈ B+ et a, b ∈ R+,∫(af + bg) dµ = a

∫f dµ + b

∫g dµ et que, si f ≤ g,

∫f dµ ≤

∫g dµ. Enfin on dira

que f ∈ B+ est integrable si∫f dµ < +∞.

1.3.2. Integration des fonctions reelles ou complexes. On pose

L1 = L1(E,B, µ) = f ∈ [B],∫|f | dµ < +∞. (1.4)

Si f ∈ L1, f+ et f− sont integrables et on pose∫f dµ =

∫f+ dµ−

∫f− dµ.

Il est facile de voir (vu que |f + g| ≤ |f |+ |g|) que L1 est un espace vectoriel et quef →

∫f dµ est une forme lineaire positive sur L1. De plus, pour f ∈ L1, |

∫f dµ| ≤∫

|f | dµ.Si f est B-mesurable a valeurs C, on pose (|f | designant le module),

L1C = L1

C(E,B, µ) = f B-mesurable complexe,∫|f | dµ < +∞. (1.5)

On definit alors, pour f ∈ L1C,

∫f dµ =

∫<(f) dµ + i

∫=(f) dµ. L1

C est un espacevectoriel sur C et f →

∫f dµ une forme lineaire sur L1

C. On a aussi

Proposition 1.3.2. Pour toute f ∈ L1C, |

∫f dµ| ≤

∫|f | dµ.

Preuve: On a∫f dµ = reiθ et

|∫f dµ| = r = <(e−iθ

∫f dµ) =

∫<(e−iθf) dµ ≤

∫|f | dµ.

1.3.3. Proprietes.

(i) Si f ∈ B+ et si∫f dµ < +∞, f < +∞ p.p.

(ii) Si f ∈ B+ et si∫f dµ = 0, f = 0 p.p.

(iii) Si f, g ∈ L1 et si f ≤ g p.p.,∫f dµ ≤

∫g dµ.

(iv) Si f ∈ L1C et si A ∈ B, f1A ∈ L1

C. On pose alors∫Af dµ :=

∫f1A dµ, A ∈ B, f ∈ L1

C ∪ B+.

Page 13: Universit´e Pierre et Marie Curie Master de sciences et

13

(v) Si f ∈ L1 et si, pour tout A ∈ B,∫A f dµ ≥ 0 alors f ≥ 0 p.p.

(vi) Si f, g ∈ L1 et si, pour tout A ∈ B,∫A f dµ ≤

∫A g dµ, alors f ≤ g p.p.

Il nous reste a enoncer les resultats concernant les passages a la limite. Le premierd’ou decoulent facilement les autres s’appelle theoreme de convergence monotone outheoreme de Beppo-Levi.

Theoreme 1.3.3. Soit fn ∈ B+ une suite croissante, alors

lim ↑∫fn dµ =

∫lim ↑ fn dµ.

Preuve: Soit, pour tout k, fn,k ∈ eB+ telles que fk = lim ↑n fn,k. On pose gn =maxk≤n fn,k. On a gn ∈ eB+, gn ↑ et, pour k ≤ n,

fn,k ≤ gn ≤ fn,

∫fn,k dµ ≤

∫gn dµ ≤

∫fn dµ.

On pose f = lim ↑ fn. On a, pour n→ +∞, puisque fn,k, gnB+,

fk ≤ lim ↑ gn ≤ f,

∫fk dµ ≤ lim ↑

∫gn dµ =

∫lim ↑ gn dµ ≤ lim ↑

∫fn dµ,

et, pour k → +∞,

f ≤ lim ↑ gn ≤ f, lim ↑∫fk dµ ≤

∫lim ↑ gn dµ ≤ lim ↑

∫fn dµ.

On en deduit f = lim ↑ gn et∫f dµ = lim ↑

∫fn dµ.

Corollaire 1.3.4. Soit gn ∈ B+, alors∑n

∫gn dµ =

∫ ∑n

gn dµ.

Proposition 1.3.5. (Lemme de Fatou) Soit fn ∈ B+, alors∫lim inf fn dµ ≤ lim inf

∫fn dµ.

Preuve: On a lim inf fn = limn ↑ infk≥n fk d’ou∫lim inf fn dµ = lim

n↑

∫infk≥n

fk dµ ≤ limn↑ infk≥n

∫fk dµ = lim inf

∫fn dµ.

On en deduit facilement le celebre theoreme de Lebesgue,

Theoreme 1.3.6. Soit fn ∈ L1C telles que fn → f p.p. avec |fn| ≤ g ∈ L1, alors

lim∫fn dµ =

∫f dµ.

Page 14: Universit´e Pierre et Marie Curie Master de sciences et

14 Mesures

Preuve: Il suffit de considerer la cas reel. Appliquant la prop. 1.3.5 aux fonctionspositives g + fn et g − fn, on a∫

lim inf fn dµ ≤ lim inf∫fn dµ ≤ lim sup

∫fn dµ ≤

∫lim sup fn dµ

et le resultat cherche.

Ce theoreme a une version “continu” tres utile.

Corollaire 1.3.7. Soit (ft, t ∈ U) une famille d’elements de L1C, U ouvert de Rd.

On suppose que limt→t0 ft = f p.p. et que, pour tout t ∈ U , |ft| ≤ g ∈ L1, alorslimt→t0

∫ft dµ =

∫f dµ.

Preuve: Il suffit de remarquer que limt→t0

∫ft dµ =

∫f dµ ssi, pour toute suite tn

tendant vers t0, limtn→t0

∫ftn dµ =

∫f dµ et d’appliquer le th. 1.3.6.

Donnons un exemple d’utilisation de ce corollaire.

Proposition 1.3.8. Soient (E,B, µ) un espace mesure, I un intervalle ouvert et(f(t, x), t ∈ I) une famille d’elements de L1

C(µ). On pose, pour tout t ∈ I, φ(t) =∫f(t, x) dµ(x). On suppose que, pour tout x ∈ A, t 7→ f(t, x) est derivable sur I, que,

pour tous x ∈ A et t ∈ I, |∂f∂t (t, x)| ≤ g(x), que g ∈ L1(µ) et que µ(Ac) = 0. Alors φest derivable sur I et φ′(t) =

∫ ∂f∂t (t, x) dµ(x).

Preuve: On a

1h

(φ(t+ h)− φ(t)) =∫A

1h

(f(t+ h, x)− f(t, x)) dµ(x).

D’apres la formule des accroissements finis, on a, pour x ∈ A,

|1h

(f(t+ h, x)− f(t, x))| = |∂f∂t

(θ, x)| ≤ g(x)

si h est assez petit et

1h

(f(t+ h, x)− f(t, x)) →h→0∂f

∂t(t, x).

On peut appliquer le cor. 1.3.7 et∫A

1h

(f(t+ h, x)− f(t, x)) dµ(x) →h→0

∫A

∂f

∂t(t, x) dµ(x) =

∫∂f

∂t(t, x) dµ(x).

1.3.4. Lien avec l’integrale usuelle. Soit f une fonction reelle continue sur [a, b] etposons, pour a ≤ x ≤ b, F (x) =

∫ xa f(t) dt (integrale au sens usuelle) et G(x) =∫

1[a,a+x[f dλ, λ mesure de Lebesgue sur R. On sait que F (a) = 0, F est continue sur[a, b] et que, sur ]a, b[, F est derivable avec F ′ = f . Il est facile de verifier que G a lesmemes proprietes. Ceci implique que F = G sur [a, b] et, en particulier, que∫ b

af(t) dt =

∫1[a,b[f dλ.

Page 15: Universit´e Pierre et Marie Curie Master de sciences et

15

Par additivite, cette formule est encore vraie si f est continue par morceaux sur [a, b].Considerons maintenant une application f de R dans R continue par morceaux

telle que∫ +∞−∞ f(t) dt soit absolument convergente. Lorsque a ↓ −∞ et b ↑ +∞, d’une

part, par definition,∫ ba |f(t)| dt →

∫ +∞−∞ |f(t)| dt < +∞ et

∫ ba f(t) dt →

∫ +∞−∞ f(t) dt;

d’autre part,∫

1[a,b[|f | dλ →∫|f | dλ (convergence monotone) ce qui implique que

f ∈ L1(λ) puis∫

1[a,b[f dλ →∫f dλ (theoreme de Lebesgue puisque |1[a,b[f | ≤ |f | ∈

L1(λ). Donc ∫ +∞

−∞f(t) dt =

∫f dλ.

Par contre, si∫ +∞−∞ f(t) dt est convergente mais pas absolument convergente (par

exemple f(x) = sinxx ), f /∈ L1(λ).

1.3.5. Soient E un ensemble denombrable et (µ(x), x ∈ E) une famille d’elementsde R+. On pose, pour A ⊂ E, µ(A) =

∑x∈A µ(x). Le th. 1.2.1 implique que µ est

une mesure sur (E,P(E)). On a alors L1 = f,∑

x∈E |f(x)|µ(x) < +∞ et, pourf ∈ L1,

∫f dµ =

∑x∈E f(x)µ(x). En particulier si on prend pour µ la mesure de

comptage i.e. µ(x) = 1 pour tout x ∈ E, on a L1 = f,∑

x∈E |f(x)| < +∞ et∫f dµ =

∑x∈E f(x). Il est interessant d’enoncer dans ce cadre les theoremes de

convergence de la sous-section precedente. On a

(i) Si 0 ≤ fn ↑ f ,∑

x fn(x) ↑∑

x f(x).

(ii) Si 0 ≤ fn,∑

x lim infn fn(x) ≤ lim infn∑

x fn(x).

(iii) Si fn → f et si |fn| ≤ g avec∑

x g(x) < +∞,∑

x fn(x) →n∑

x f(x).

1.4. Espaces de Banach. Espaces Lp

1.4.1. Espace de Banach. Soit X un espace vectoriel sur K = R ou C. On appellesemi norme une application N de X dans R+ telle que:(i) N(x+ y) ≤ N(x) +N(y),(ii) N(λx) = |λ|N(x), λ ∈ K.

Si, de plus, N verifie:(iii) N(x) = 0 ⇔ x = 0,on dit que N est une norme. Le couple (X,N) s’appelle alors un espace norme. Onnote ||x|| = N(x). De (i), on deduit

∀x, y, z ∈ X, ||x− y|| ≤ ||x− z||+ ||z − y||.

Donc d(x, y) = ||x − y|| est une distance sur X et (X, d) un espace metrique. D’oules notions de suites et de continuite. On verifie facilement que la topologie ainsidefinie est compatible avec la structure d’espace vectoriel i.e. que (x, y) 7→ x + y et(λ, x) 7→ λx sont continues. De meme x 7→ ||x|| est continue.

L’espace norme (X,N) est appele un espace de Banach s’il est complet i.e. si toutesuite de Cauchy est convergente.

Page 16: Universit´e Pierre et Marie Curie Master de sciences et

16 Mesures

1.4.2. On considere deux espaces normes X et Y et soit u une application lineairede X dans Y . On pose

||u|| = sup (||u(x)||||x||

, x ∈ X,x 6= 0). (1.6)

Si ||u|| < +∞, u est appele un operateur lineaire borne. Remarquons que

||u|| = sup (||u(x)||, x ∈ X, ||x|| ≤ 1 ) = inf ( a, ||u(x)|| ≤ a||x|| ).

De plus il est immediat que u 7→ ||u|| est une norme sur l’espace des operateurslineaires bornes de X dans Y .

Proposition 1.4.1. Soit u une application lineaire de X dans Y . Il y a equivalenceentre:(i) u est bornee,(ii) u est continue,(iii) u est continue en un point de X.

Preuve: Vu que

||u(x2)− u(x1)|| = ||u(x2 − x1)|| ≤ ||u||||x2 − x1||,

(i) entraine (ii) qui implique (iii). Supposons u continue au point x0. Alors, pour toutε > 0, il existe δ > 0 tel que ||x − x0|| < δ implique ||u(x) − u(x0)|| < ε. Donc, si||x|| < δ, ||u(x0 + x)− u(x0)|| < ε i.e. ||u(x)|| < ε. Donc ||u|| < ε/δ et on a (i).

Proposition 1.4.2. Si Y est un espace de Banach, l’espace vectoriel des operateurslineaires bornes de X dans Y , muni de la norme (1.6), est un espace de Banach.

Preuve: Il faut montrer qu’il est complet. Soit (un) une suite telle que ||un −um|| →n,m 0. Alors, pour tout x ∈ X, ||un(x) − um(x)|| ≤ ||un − um|| ||x||| →n,m 0.Donc, puisque Y est complet, un(x) converge vers un point de Y note u(x). On verifiefacilement que u est lineaire bornee et que ||un − u|| →n 0.

Un cas particulier important est celui ou Y = K. On obtient l’espace, note X ′,des formes lineaires continues sur X. Muni de la norme ||u|| = sup ( |u(x)|, ||x|| ≤ 1 ),c’est un espace de Banach appele le dual (topologique) de X.

1.4.3. L’espace C0(Rd). On note C0 = C0(Rd) l’espace des applications continuesde Rd dans R tendant vers 0 a l’infini. On munit C0 de la norme de la convergenceuniforme ||f || = supx |f(x)|. Une partieH de C0 est totale dans C0 si l’espace vectorielengendre par H, note e.v. [H], est dense dans (C0, || ||). Rappelons le theoreme deStone-Weierstrass relatif a C0. Une sous-algebre A de C0 est un sous-espace vectorieltel que f, g ∈ A implique fg ∈ A. Alors:

Theoreme 1.4.3. Soit A une sous-algebre de C0 verifiant:(i) pour tous x, y ∈ Rd, x 6= y, il existe f ∈ A telle que f(x) 6= f(y),(ii) pour tout x ∈ Rd, il existe f ∈ A telle que f(x) 6= 0,alors A = C0.

Page 17: Universit´e Pierre et Marie Curie Master de sciences et

17

Notant C∞k l’espace des fonctions indefiniment derivables a support compact surRd, on a:

Corollaire 1.4.4. C∞k est dense dans C0.

Preuve: Soit, pour t ∈ R, φ(t) = 1]0,+∞[(t) exp(− 1t2

). On verifie facilement queφ ∈ C∞(R). On pose, pour ρ > 0, a ∈ Rd et x ∈ Rd, fρ,a(x) = φ(ρ2 − |x − a|2). Ona fρ,a ∈ C∞k , fρ,a(a) > 0, fρ,a(x) = 0 si |x − a| > ρ. On peut alors appliquer le th.1.4.3

On pose, pour x ∈ Rd,

gσ(x) = (2πσ2)−d/2 exp(−|x|2

2σ2), σ > 0, |x|2 = x2

1 + . . .+ x2d. (1.7)

Corollaire 1.4.5. La famille (gσ(x− a), σ > 0, a ∈ Rd) est totale dans C0(Rd).

Preuve: Soit V =e.v. [H]. Vu que

gσ(x− a) gρ(x− b) = C gτ (x− c) avec τ2 =ρ2σ2

ρ2 + σ2, c =

ρ2a+ σ2b

ρ2 + σ2,

V est une algebre. On verifie immediatement (i) et (ii) du th. 1.4.3 d’ou V = C0.

Corollaire 1.4.6. Il existe un ensemble denombrable dense dans C0(Rd).

Preuve: Il suffit de considerer les combinaisons lineaires rationnelles des fonctionsgσ(x− a), σ ∈ Q+, a ∈ Qd.

Le resultat suivant sera tres utile:

Proposition 1.4.7. Soient µ, ν deux mesures bornees sur B(Rd). Si, pour tout f ∈ Htotal dans C0,

∫f dµ =

∫f dν, alors µ = ν.

Preuve: Soit V = e.v.[H]. On a, pour toute f ∈ V ,∫f dµ =

∫f dν. Soient f ∈

C0 et fn ∈ V tendant vers f dans (C0, || ||). Vu que |∫fn dµ −

∫f dµ| ≤ ||fn −

f ||µ(Rd),∫fn dµ→n

∫f dµ. De meme

∫fn dν →n

∫f dν d’ou

∫f dµ =

∫f dν pour

toute f ∈ C0. Soient A ∈ B(Rd), A borne, f ∈ C+0 valant 1 sur A et Hf = g ∈

bB(Rd),∫gf dµ =

∫gf dν. Vu le cor. 1.1.7, Hf = bB(Rd) d’ou µ(A) =

∫1Af dµ =∫

1Af dν = ν(A) et µ = ν.

1.4.4. Soit (E,B, µ) un espace mesure. Pour f ∈ B+, on pose

Np(f) = [∫fp dµ]

1p , 1 ≤ p < +∞, N∞(f) = inf(M ≥ 0, P (f > M) = 0). (1.8)

On a alors, convenant que, pour f, g ∈ B+, f(x)g(x) = 0 des que f(x) = 0 oug(x) = 0,

Proposition 1.4.8. Pour 1 ≤ p ≤ +∞, 1p + 1

q = 1, f, g ∈ B+,

(i) N1(fg) ≤ Np(f)Nq(g), (ii) Np(f + g) ≤ Np(f) +Np(g). (1.9)

Page 18: Universit´e Pierre et Marie Curie Master de sciences et

18 Mesures

Preuve: Ces formules sont faciles a verifier si p = 1 ou p = +∞. On suppose donc1 < p < +∞.

Lemme 1.4.9. Si 1 < p < +∞, 1p + 1

q = 1, a, b ≥ 0, on a ab ≤ ap

p + bq

q .

Preuve: La fonction f(x) = xp

p + 1q − x atteint son minimum sur R+ en x = 1 d’ou

f(ab1

1−p ) ≥ f(1) = 0 et l’inegalite cherchee.

Soient A = Np(f) et B = Nq(g). Si AB = 0 ou si A + B = +∞, (1.9)(i) estevidente. On suppose donc 0 < A < +∞ et 0 < B < +∞. On applique le lem. 1.4.9a a = A−1f et b = B−1g et on integre en µ ce qui donne

1AB

∫fg dµ ≤ 1

p

1Ap

∫fp dµ+

1q

1Bq

∫gq dµ = 1 i.e.

∫fg dµ ≤ AB.

De meme (1.9)(ii) est evidente si f + g = 0 p.p. ou si Np(f) +Np(g) = +∞. Onpeut donc supposer, vu que (f + g)p ≤ 2p−1(fp + gp), 0 < Np(f + g) < +∞. On a,utilisant (1.9)(i),∫

(f + g)p dµ ≤∫

(f + g)p−1f dµ+∫

(f + g)p−1g dµ

≤ [∫fp dµ]1/p[

∫(f + g)q(p−1) dµ]1/q + [

∫gp dµ]1/p[

∫(f + g)q(p−1) dµ]1/q

≤ [Np(f) +Np(g)][∫

(f + g)p dµ]1/q

et on divise par [∫

(f + g)p dµ]1/q.

1.4.5. On note L0 l’ensemble des applications B-mesurables de E dans R finies p.p.On dit que f ∼ g si f = g p.p. Alors ∼ est une relation d’equivalence sur L0. On noteL0 = L0/ ∼. En fait L0 est l’espace des classes de fonctions B-mesurables definies aun p.p. pres. Puisque f = g p.p. implique

∫|f | dµ =

∫|g| dµ et

∫f dµ =

∫g dµ si

f et g sont dans L1, on peut definir sans ambiguıte, pour f ∈ L0,∫|f | dµ puis, si∫

|f | dµ < +∞,∫f dµ. Par abus de langage, dans toute la suite nous noterons de la

meme facon une fonction et sa classe d’equivalence. On pose alors pour 1 ≤ p ≤ +∞,

Lp = f ∈ L0, Np(|f |) < +∞, Lp = f ∈ L0, Np(|f |) < +∞, (1.10)

et, pour f ∈ Lp,

||f ||p = [∫|f |p dµ]1/p, 1 ≤ p < +∞, ||f ||∞ = inf(M, µ(|f | > M) = 0). (1.11)

On ecrira Lp(E,B, µ) et Lp(E,B, µ) si on veut preciser l’espace mesure que l’onconsidere. La prop. 1.4.8 devient:

Page 19: Universit´e Pierre et Marie Curie Master de sciences et

19

Theoreme 1.4.10. (i) Soient 1 ≤ p ≤ +∞ et f, g ∈ Lp. Alors f + g ∈ Lp et

||f + g||p ≤ ||f ||p + ||g||p . (Inegalite de Minkowski). (1.12)

(ii) Soient 1 ≤ p ≤ +∞, 1p + 1

q = 1, f ∈ Lp, g ∈ Lq. Alors fg ∈ L1 et

||fg||1 ≤ ||f ||p ||g||q . (Inegalite de Holder). (1.13)

1.4.6. Le th. 1.4.10 implique que Lp est un espace vectoriel et que || . ||p est une normesur Lp. On a alors,

Theoreme 1.4.11. Pour 1 ≤ p ≤ +∞, (Lp, || . ||p) est un espace de Banach.

Preuve: Il s’agit de montrer que toute suite de Cauchy est convergente. Com-mencons par le cas p = +∞. Supposons que ||fn − fm||∞ → 0. Soient Am,n =x, |fn(x)−fm(x)| > ||fn−fm|| et A = ∪Am,n. On a µ(A) = 0. Soit gn = fn1A. Ona supx∈E |gn(x) − gm(x)| → 0. Il existe donc une fonction g mesurable bornee telleque supx∈E |gn(x)− g(x)| → 0 et, puisque fn = gn p.p. ||fn − g||∞ → 0.

Passons au cas 1 ≤ p < +∞.

Lemme 1.4.12. Soient 1 ≤ p < +∞ et fn une suite de fonctions de Lp telle que∑n ||fn||p < +∞. Alors il existe f ∈ Lp telle que

∑nk=0 fk converge vers f p.p. et

dans Lp.

Preuve: Notons d’abord que, si hn ∈ B+, on a, vu la prop. 1.4.8,

Np(∑n

hn) = limn↑ Np(

n∑k=1

hk) ≤ limn↑

n∑k=1

Np(hk) =∑n

Np(hn). (1.14)

Soit g =∑

n |fn|. Vu (1.14), Np(g) < +∞. Donc g ∈ Lp, g < +∞ p.p. et∑

n fnconverge p.p. vers f avec |f | ≤ g d’ou f ∈ Lp. De plus |f − fn| = |

∑k>n fk| ≤∑

k>n |fk| et d’apres (1.14) ||f − fn||p ≤∑

k>n ||fk||p →n 0.

Soit fn ∈ Lp telles que ||fn − fm|| → 0. On peut construire une suite (nk, k ≥ 1)telle que ||fnk

− fnk+1|| ≤ 2−k. Posant fn0 = 0, on a, vu le lem. 1.4.12, fnk

=∑nkj=1(fnj − fnj−1) →k f dans Lp. Il en est de meme de fn puisque la suite est de

Cauchy.

1.4.7. Donnons une premiere propriete des espaces Lp.

Proposition 1.4.13. Pour 1 ≤ p < +∞, E0 = f, f =∑n

k=1 ak1Ak, Ak ∈

B, µ(Ak) < +∞ est dense dans Lp(E,B, µ).

Preuve: Il suffit de considerer f ≥ 0. Alors il existe (prop. 1.1.1) une suite fn ∈ eB+

telle que fn ↑ f . Vu que fpn ≤ fp ∈ L1, fn ∈ E0. On a, puisque f < +∞ p.p.,|f −fn|p → 0 p.p. et |f −fn|p ≤ fp ∈ L1 donc (th. de Lebesgue)

∫|f −fn|p dµ→ 0.

1.4.8. On fixe p ∈ [1,+∞]. On note q l’exposant conjugue de p defini par 1p + 1

q = 1.Si f ∈ Lp et g ∈ Lq, l’inegalite de Holder (1.13) affirme que

Page 20: Universit´e Pierre et Marie Curie Master de sciences et

20 Mesures

|∫fg dµ| ≤ ||f ||p ||g||q.

Ceci montre que, g fixe, f 7→ Φ(f) =∫fg dµ est une forme lineaire sur Lp et que

||Φ|| ≤ ||g||q, ||Φ|| etant definie par (1.6). Le theoreme suivant affirme que, sauf pourp = +∞, les formes lineaires sur Lp sont toutes de cette forme.

Theoreme 1.4.14. Soient 1 ≤ p < +∞ et Φ une forme lineaire continue surLp(E,B, µ), µ σ-finie. Alors il existe g ∈ Lq unique tel que Φ(f) =

∫fg dµ. De

plus ||Φ|| = ||g||q.

On admet ce theoreme qui dit que, pour 1 ≤ p < +∞, Lq est le dual de Lp. Parcontre L1 n’est pas le dual de L∞. Dans la section suivante, nous montrerons que L2

est le dual de L2.

1.4.9. Nous avons considere les fonctions reelles sur E mais on peut aussi s’interesseraux fonctions complexes. Il n’y a rien a changer a ce qui precede (on remplace la valeurabsolue par le module) et on obtient ainsi l’espace de Banach complexe LpC(E,B, µ).

1.5. Espaces de Hilbert. Espaces L2

1.5.1. Espace de Hilbert.

Definition 1.5.1. Soit H un espace vectoriel sur R. H est appele un espace prehilbertiens’il existe une application x, y 7→ (x, y) de H ×H dans R verifiant:(i) (x, y) = (y, x),(ii) (x+ y, z) = (x, z) + (y, z),(iii) (λx, y) = λ(x, y), λ ∈ R,(iv) (x, x) ≥ 0,(v) (x, x) = 0 ssi x = 0.

On pose ||x|| =√

(x, x). De (i)-(iv), on deduit l’inegalite de Schwarz,

∀x, y ∈ H, |(x, y)| ≤ ||x|| ||y||. (1.15)

En effet, pour tout λ ∈ R, 0 ≤ (x + λy, x + λy) = λ2(y, y) + 2λ(x, y) + (x, x) d’ou∆′ = (x, y)2 − (x, x) (y, y) ≤ 0.

De (1.15) on deduit facilement l’inegalite ||x+y|| ≤ ||x||+ ||y||. Donc x 7→ ||x|| estune norme sur H et H est alors un espace norme. Notons que l’application x 7→ (x, y)est continue.

Definition 1.5.2. On appelle espace de Hilbert un espace prehilbertien complet.

1.5.2. Dans cette sous section H designe un espace de Hilbert.

Page 21: Universit´e Pierre et Marie Curie Master de sciences et

21

Si (x, y) = 0, on dit que x est orthogonal a y et on ecrit x ⊥ y. Cette relation estevidemment symetrique. On pose, pour x ∈ H et M ⊂ H,

x⊥ = y ∈ H, y ⊥ x, M⊥ = y ∈ H, ∀x ∈M y ⊥ x.

On voit de suite que x⊥ est un sous espace vectoriel de H qui est ferme puisquex⊥ = y, (x, y) = 0 et que y 7→ (x, y) est continue. Il en est de meme de M⊥

puisqueM⊥ = ∩x∈M x⊥.

Remarquons que M ∩M⊥ = 0 puisque (x, x) = 0 implique x = 0.

On etablit maintenant quelques resultats fondamentaux sur les espaces de Hilbert.On verifie d’abord facilement que:

||x+ y

2||2 + ||x− y

2||2 =

12||x||2 +

12||y||2, x, y ∈ H. (1.16)

Rappelons qu’un sous ensemble F de H est convexe si x, y ∈ F implique que, quelque soit 0 < t < 1, tx+ (1− t)y ∈ F .

Proposition 1.5.3. Soit F un sous-ensemble convexe ferme de H. Alors il existex0 ∈ F , unique, tel que ||x0|| = inf(||x||, x ∈ F ).

Preuve: Soient δ = inf(||x||, x ∈ F ) et x, y ∈ F . D’apres (1.16) et puisque x+y2 ∈ F ,

||x− y

2||2 =

12||x||2 +

12||y||2 − ||x+ y

2||2 ≤ 1

2||x||2 +

12||y||2 − δ2. (1.17)

Ceci implique d’abord que, si x, y ∈ F et ||x|| = ||y|| = δ, alors x = y d’ou l’unicite.Soient yn ∈ F tels que ||yn|| → δ. D’apres (1.17),

||ym − yn||2 ≤ 2||ym||2 + 2||yn||2 − 4δ2 →m,n 0.

Donc yn est une suite de Cauchy. Soit y = limn yn. Puisque F est ferme, y ∈ F et(continuite de la norme) ||y|| = limn ||yn|| = δ.

Theoreme 1.5.4. Soit M un sous espace ferme de H. Il existe des applications P deH dans M et Q de H dans M⊥, uniques, telles que, pour tout x ∈ H, x = Px+Qx.Ces applications sont lineaires et verifient:(i) Pour tout x ∈M , Px = x, Qx = 0; pour tout x ∈M⊥, Px = 0, Qx = x,(ii) ||x− Px|| = inf(||x− y||, y ∈M),(iii) ||x||2 = ||Px||2 + ||Qx||2.

On appelle Px (resp. Qx) la projection orthogonale de x sur M (resp. M⊥).

Preuve: (a) Existence. Soient x ∈ H et F = x + M = x + y, y ∈ M. F est unconvexe ferme. Soient Qx l’unique element de F tel que ||Qx|| = inf(||z||, z ∈ F )(prop. 1.5.3) et Px = x−Qx. Comme Qx ∈ x+M , Px ∈M . Posons z = Qx. On a,pour tout y ∈M tel que ||y|| = 1 et tout λ ∈ R, vu que z − λy ∈ F ,

||z||2 ≤ ||z − λy||2 = (z − λy, z − λy) = ||z||2 − 2λ(y, z) + λ2.

Page 22: Universit´e Pierre et Marie Curie Master de sciences et

22 Mesures

On en tire 2λ(y, z) ≤ λ2 et, choisissant λ = (y, z), (y, z) = 0 d’ou z = Qx ∈M⊥.

(b) Unicite. Supposons x = x0 + x1, x0 ∈ M , x1 ∈ M⊥. On a x0 − Px = Qx − x1.Mais x0 − Px ∈M et Qx− x1 ∈M⊥ et, vu que M ∩M⊥ = 0, x0 = Px, x1 = Qx.

(c) Linearite. Si on ecrit x = Px + Qx, y = Py + Qy, λx + µy = P (λx + µy) +Q(λx+ µy), on a

P (λx+ µy)− λPx− µPy = λQx+ µQy −Q(λx+ µy) = 0

puisque le premier terme est dans M , le second dans M⊥.

(d) Enfin (i) resulte de l’unicite, (ii) est vrai par construction et (iii) provient de ceque (Px,Qx) = 0.

Corollaire 1.5.5. Soit M un sous espace ferme de H. Si M 6= H, M⊥ 6= 0.

Preuve: Soit x ∈ H, x /∈M . On a x = Px+Qx avec Qx ∈M⊥ 6= 0 puisque x /∈M .

Theoreme 1.5.6. Soit φ une forme lineaire continue sur H. Il existe y ∈ H, unique,tel que, pour tout x ∈ H, φ(x) = (x, y).

Preuve: On peut supposer φ 6= 0 (sinon y = 0 convient). Soit M = Ker(φ). C’est unsous espace ferme (puisque φ est continue) et different de H (car φ 6= 0) donc (cor.1.5.5) il existe z ∈M⊥, z 6= 0. Puisque z /∈M , φ(z) 6= 0. Soient y = φ(z)

(z,z)z et x ∈ H.

Puisque φ s’annule en x − φ(x)φ(z)z, ce vecteur appartient a M i.e. est orthogonal a z.

On a donc (x, z) = φ(x)φ(z) (z, z) et (x, y) = φ(x).

1.5.3. Soit H un espace vectoriel sur C. Remplacant (i) et (iii) de la def. 1.5.1 par

(i)′ (x, y) = (y, x), (iii)′ (λx, y) = λ(x, y), λ ∈ C,

on a la notion d’espace prehilbertien puis d’espace de Hilbert sur C. Les resultatsprecedents restent valables dans ce cadre avec des modifications mineures quant auxpreuves.

1.5.4. Espace L2. Si on munit L2(E,B, µ) du produit scalaire

(f, g) :=∫fg dµ,

les hypotheses de la def. 1.5.1 sont verifiees et (f, f) = ||f ||22. C’est donc un espacede Hilbert.

On peut aussi considerer le cas des fonctions a valeurs complexes. Dans ce casl’espace de Hilbert L2

C est associe au produit scalaire

< f, g >:=∫fg dµ.

Page 23: Universit´e Pierre et Marie Curie Master de sciences et

23

1.6. Mesures images

1.6.1. Soit µ une mesure sur (E,B). On peut lui associer une application I de B+ dansR+ en posant I(f) =

∫f dµ, f ∈ B+. L’application I a les proprietes suivantes: I(f+

g) = I(f) + I(g), I(af) = aI(f), a ∈ R+ et I(fn) ↑ I(f) si fn ↑ f . Reciproquementon a,

Proposition 1.6.1. Soient (E,B) un espace mesurable et I une application de B+

dans R+ telle que(i) si f, g ∈ B+, I(f + g) = I(f) + I(g); si f ∈ B+ et a ∈ R+, I(af) = aI(f),(ii) si fn ∈ B+ et si fn ↑ f , I(fn) ↑ I(f).Alors µ(A) = I(1A), A ∈ B, definit une mesure sur B et on a, pour toute f ∈ B+,I(f) =

∫f dµ.

Preuve: Soient An ∈ B des ensembles deux a deux disjoints d’union A, on a 1A =∑n 1An = lim ↑

∑nk=1 1Ak

et

µ(A) = I(1A) = I(lim ↑n∑k=1

1Ak) = lim ↑ I(

n∑k=1

1Ak) = lim ↑

n∑k=1

I(1Ak) =

∑n

µ(An).

Ce qui montre que µ est une mesure. On a alors, pour toute f ∈ eB+, I(f) =∫f dµ.

On conclut facilement en utilisant la prop. 1.1.1.

Donnons deux applications.

1.6.2. Mesures a densite.

Proposition 1.6.2. Soient (E,B, µ) un espace mesure et h ∈ B+. La formule ν(A) =∫A h dµ, A ∈ B definit une mesure sur B appelee mesure de densite h par rapport aµ. On note ν = h.µ. On a, pour toute f ∈ B+,∫

f dν =∫fh dµ. (1.18)

De plus f ∈ [B] est ν-integrable ssi fh est µ-integrable et l’on a dans ce cas (1.18).

Preuve: On considere la fonctionnelle I(f) =∫fh dµ, f ∈ B+, et on applique la

prop. 1.6.1. La derniere assertion est pure routine en ecrivant f = f+ − f−.

1.6.3. Mesures images.

Proposition 1.6.3. Soient h une application mesurable de (E,B) dans (F,F) et µune mesure sur (E,B). La formule ν(A) = µ(h−1(A)), A ∈ F , definit une mesure sur(F,F) appelee mesure image de µ par h et notee µ h−1. On a, pour toute f ∈ F+,∫

f dµ h−1 =∫f h dµ. (1.19)

De plus f ∈ [F ] est µ h−1-integrable ssi f h est µ-integrable et l’on a dans ce cas(1.19).

Page 24: Universit´e Pierre et Marie Curie Master de sciences et

24 Mesures

Preuve: On considere la fonctionnelle I(f) =∫f h dµ, f ∈ F+ et on applique la

prop. 1.6.1. La mesure associee a I est

ν(A) = I(A) =∫

1A h dµ =∫

1h−1(A) dµ = µ(h−1(A)).

On conclut facilement.

1.7. Mesures produits

1.7.1. Soient (E1,B1) (E2,B2) deux espaces mesurables. On definit une tribu surE1 × E2, appelee tribu produit de B1 et B2 et notee B1 ⊗ B2, par

B1 ⊗ B2 = σ(A1 ×A2, A1 ∈ B1, A2 ∈ B2).

Alors si f : E1 × E2 → R+ (resp. R) est une fonction B1 ⊗ B2-mesurable, on a que,pour tout x1 ∈ E1, x2 7→ f(x1, x2) est B2-mesurable et que, pour tout x2 ∈ E2,x1 7→ f(x1, x2) est B1-mesurable. En particulier si A ∈ B1⊗B2, Ax2 = x1, (x1, x2) ∈A ∈ B1 et Ax1 = x2, (x1, x2) ∈ A ∈ B2. On en deduit que, si f ∈ (B1 ⊗ B2)+

et si µi est une mesure sur (Ei,Bi), x1 7→∫f(x1, x2) dµ2(x2) est B1-mesurable et

x2 7→∫f(x1, x2) dµ1(x1) est B2-mesurable.

Theoreme 1.7.1. Soient (E1,B1, µ1) et (E2,B2, µ2) deux espaces mesures avec µ1 etµ2 σ-finies. Il existe une unique mesure sur B1⊗B2, notee µ1⊗µ2 et appelee mesureproduit de µ1 et µ2, telle que,

pour tous A1 ∈ B1, A2 ∈ B2, µ1 ⊗ µ2(A1 ×A2) = µ1(A1)µ(A2).

De plus, pour toute f ∈ (B1 ⊗ B2)+,∫f dµ1 ⊗ µ2 =

∫[∫f(x1, x2) dµ1(x1)] dµ2(x2) =

∫[∫f(x1, x2) dµ2(x2)] dµ1(x1).

Preuve: (i) Unicite. On applique la prop. 1.2.3 a C = A, A = A1 × A2, A1 ∈B1, A2 ∈ B2, µ(A1) < +∞, µ(A2) < +∞.

(ii) Existence. On applique la prop. 1.6.1 a I1(f) =∫

[∫f(x1, x2) dµ1(x1)] dµ2(x2) ce

qui donne l’existence. Mais on peut aussi appliquer la prop. 1.6.1 a I2(f) =∫[∫f(x1, x2) dµ2(x2)] dµ1(x1) et, vu l’unicite, on a I1(f) = I2(f).

Si f ∈ L1C(µ1 ⊗ µ2), on peut appliquer le theoreme precedent a [<(f)]+, [<(f)]−,

[=(f)]+ et [=(f)]− et l’on obtient le theoreme de Fubini:

Theoreme 1.7.2. Soit f ∈ L1C(µ1 ⊗ µ2). Alors,∫

|f(x1, x2)| dµ2(x2) < +∞ µ1 p.p. et φ1(x1) =∫f(x1, x2) dµ2(x2) ∈ L1(µ1),∫

|f(x1, x2)| dµ1(x1) < +∞ µ2 p.p. et φ2(x2) =∫f(x1, x2) dµ1(x1) ∈ L1(µ2), et∫

f dµ1 ⊗ µ2 =∫

[∫f(x1, x2) dµ1(x1)] dµ2(x2) =

∫[∫f(x1, x2) dµ2(x2)] dµ1(x1).

Page 25: Universit´e Pierre et Marie Curie Master de sciences et

25

1.7.2. Tout ceci s’etend sans (trop de) peine au cas de n espaces mesurables. Il y aquelques verifications fastidieuses a faire du type µ1⊗ (µ2⊗µ3) = (µ1⊗µ2)⊗µ3. Deplus dans la formule d’integrations successives, les variables peuvent etre integreesdans tous les ordres possibles. A ce sujet, le grand principe est: si f est positive, toutest permis, si f est de signe quelconque ou complexe, on considere d’abord |f | et oncommence par montrer que |f | est integrable.

1.7.3. Mesures de Lebesgue sur Rd.

Lemme 1.7.3. B(R)⊗ B(R)⊗ . . .⊗ B(R) = B(Rd)

Preuve: Soit B⊗d = B(R)⊗ B(R)⊗ . . .⊗ B(R).

(i) Si est U un ouvert de Rd, U = ∪nPn, Pn pave ouvert. Donc U ∈ B⊗d et B(Rd) ⊂B⊗d.

(ii) Soient X1, X2, . . . , Xd les projections canoniques de Rd sur R. Les Xk sont con-tinues donc mesurable de (Rd,B(Rd)) dans (R,B(R)) d’ou B⊗d = σ(X1, . . . , Xd) ⊂B(Rd).

Soit λ la mesure de Lebesgue sur (R,B(R)). On definit alors, sur (Rd,B(Rd)),λd = λ⊗ λ⊗ . . .⊗ λ. On peut appliquer la prop. 1.2.3 a

C = A, A =d∏i=1

]ai, bi[, −∞ < ai < bi < +∞.

On obtient que λd est l’unique mesure sur B(Rd) telle que, pour tous −∞ < ai <bi < +∞,

λd(d∏i=1

]ai, bi[) =d∏i=1

(bi − ai).

On appelle λd la mesure de Lebesgue sur Rd.

1.8. Transformation de Fourier

Dans cette section, d etant fixe, on notera simplement λ la mesure de Lebesgue sur Rd.Rappelons que h.λ designe la mesure sur Rd de densite h par rapport a λ (prop. 1.6.2).

Notation. On note Mb l’ensemble des mesures bornees sur (Rd,B(Rd)).

1.8.1. Produit de convolution. Soit φ l’application de Rd×Rd dans Rd, (x, y) 7→ x+y.

Definition 1.8.1. Soient µ, ν ∈Mb. On appelle produit de convolution de µ et ν eton note µ ∗ ν la mesure sur Rd image de µ⊗ ν par φ.

D’apres (1.19), µ ∗ ν est caracterisee par:

pour toute f ∈ B+(Rd),∫f d(µ ∗ ν) =

∫f(x+ y) dµ(x)dν(y). (1.20)

Page 26: Universit´e Pierre et Marie Curie Master de sciences et

26 Mesures

On a donc µ ∗ ν(1) = µ(1)ν(1) et µ ∗ ν ∈Mb.

Supposons que µ = φ.λ. On a (tout est positif)∫f d(µ ∗ ν) =

∫f(x+ y)φ(x) dxdν(y) =

∫f(x)[

∫φ(x− y) dν(y)] dx

et donc, si on pose

φ ∗ ν(x) =∫φ(x− y) dν(y), (1.21)

φ ∗ ν < +∞ λ p.p. et on a (φ.λ) ∗ ν = φ ∗ ν.λ.

Supposons que µ = φ.λ et ν = ψ.λ. On a (tout est positif)∫f d(µ ∗ ν) =

∫f(x+ y)φ(x)ψ(y) dxdy =

∫f(x)[

∫φ(x− y)ψ(y) dy] dx,

et donc, si on pose

φ ∗ ψ(x) =∫φ(x− y)ψ(y) dy, (1.22)

φ ∗ ψ < +∞ λ p.p. et on a (φ.λ) ∗ (ψ.λ) = φ ∗ ψ.λ.

1.8.2. Transformee de Fourier.

Definition 1.8.2. Soit µ ∈Mb. On appelle transformee de Fourier de µ et on noteµ la fonction sur Rd definie par µ(t) =

∫ei<t,x> dµ(x).

Vu que |ei<t,x>| ≤ 1 ∈ L1(µ), t 7→ µ(t) est continue ( cor.1.3.7). Si µ est symetrique(i.e. µ(A) = µ(−A)), µ est reelle. Enfin on a

|µ(t)| ≤ µ(1) = µ(0). (1.23)

Si on notef(t) =

∫ei<t,x>f(x) dx, f ∈ L1(λ),

on a, pour µ = h.λ, µ(t) = h(t).

Theoreme 1.8.3. Soient µ, ν ∈Mb. On a µ ∗ ν(t) = µ(t)ν(t).

Preuve: En effet, puisque |ei<t,x+y>| ≤ 1 ∈ L1(µ⊗ ν), on a (th.1.7.2),

µ ∗ ν(t) =∫

ei<t,x> d(µ ∗ ν)(x) =∫

ei<t,x+y> dµ(x)dν(y)

=∫

ei<t,x> dµ(x)∫

ei<t,y> dν(x) = µ(t)ν(t).

Theoreme 1.8.4. (i) Soient µ, ν ∈Mb. Si µ = ν, µ = ν.(ii) Soit µ ∈Mb telle que µ ∈ L1(λ). On a alors µ = h.λ avec

h(x) = (2π)−d∫

e−i<t,x>µ(t) dt. (1.24)

Page 27: Universit´e Pierre et Marie Curie Master de sciences et

27

Preuve: On rappelle qu’on a pose

gσ(x) = (2πσ2)−d/2 exp(−|x|2

2σ2), |x|2 = x2

1 + . . .+ x2d. (1.25)

et que (cor. 1.4.5) la famille (gσ(x− a), σ > 0, a ∈ Rd) est totale dans C0(Rd).

Lemme 1.8.5. On a gσ(t) = exp(−σ2

2 |t|2) = (2πσ2)d/2gσ(σ2t).

Preuve: Soit φ(t) = (2π)−1/2∫

eitue−u2/2 du, t ∈ R. Vu que | ddte

itu| ≤ |u| ∈ L1(e−u2/2.λ),

on peut appliquer la prop. 1.3.8 et on a

φ′(t) = i(2π)−1/2

∫eitu d(−e−u

2/2) = −(2π)−1/2t

∫eitue−u

2/2 du = −tφ(t)

d’ou φ(t) = Ce−t2/2 = e−t

2/2 puisque φ(0) = 1. Alors (th. 1.7.2)

(2πσ2)−d/2∫

ei<t,x>e−|x|2/2σ2

dx =d∏

k=1

(2πσ2)−1/2

∫eitkxke−x

2k/2σ

2dxk = e−σ

2|t|2/2.

Lemme 1.8.6. Soit µ ∈Mb. On a∫gσ(x− a) dµ(x) = (2π)−d/2

∫g1(σt)e−i<a,t>µ(t) dt. (1.26)

Si, de plus, µ ∈ L1(λ),∫gσ(x− a) dµ(x) = (2π)−d

∫gσ(x− a)

∫e−i<x,t>µ(t) dt dx. (1.27)

Preuve: Notons d’abord que, vu le lem. 1.8.5,

gσ(x) = (2πσ2)−d/2gσ(x

σ2) = (2π)−d/2σd

∫gσ(σ2t)ei<x,t> dt. (1.28)

(i) On a, puisque∫ ∫

gσ(σ2t) dtdµ(x) < +∞,∫gσ(x− a) dµ(x) = (2π)−d/2σd

∫ ∫gσ(σ2t)ei<x−a,t> dtdµ(x)

= (2π)−d/2σd∫gσ(σ2t)e−i<a,t>

∫ei<x,t>dµ(x) dt = (2π)−d/2σd

∫gσ(σ2t)e−i<a,t>µ(t) dt

d’ou (1.26) puisque σdgσ(σ2t) = g1(σt).

(ii) Si µ ∈ L1(λ), gσ(σ2u)µ(t) ∈ L1(λ⊗λ) et on a, vu que gσ(σ2t) = (2πσ2)−d/2gσ(t),∫gσ(x− a) dµ(x) = (2π)−d/2σd

∫gσ(σ2t)e−i<a,t>µ(t) dt

= (2π)−d∫

e−i<a,t>µ(t)∫

ei<u,t>gσ(u) dudt

Page 28: Universit´e Pierre et Marie Curie Master de sciences et

28 Mesures

= (2π)−d∫gσ(u)

∫ei<u−a,t>µ(t) dtdu = (2π)−d

∫gσ(x− a)

∫e−i<x,t>µ(t) dtdx.

(On a pose u = a− x et utilise que gσ(−x) = gσ(x)).

Fin de la preuve. Soit H = gσ(x−a), σ > 0, a ∈ Rd. Si µ = ν, on a, vu (1.26), pourtoute f ∈ H,

∫f dµ =

∫f dν d’ou, H etant total, µ = ν (prop. 1.4.7). De meme, si

µ ∈ L1, posant h(x) = (2π)−d∫

e−i<x,t>µ(t) dt, on a vu (1.27), pour toute f ∈ H,∫f dµ =

∫fh dλ d’ou µ = h.λ.

1.9. Mesures de Radon sur Rd

Nous etudions plus en details les mesures sur Rd utilisant ses proprietes topologiques.

1.9.1. On noteCb l’ensemble des fonctions continues bornees sur Rd,C0 l’ensemble des fonctions de Cb tendant vers 0 a l’infini,Ck l’ensemble des fonctions de C0 a support compact.

On munit ces espaces de la norme ||f || = supx∈Rd |f(x)|. Alors (cor. 1.4.6) C0 estun espace de Banach separable (il existe une suite dense). Rappelons que:

a. Etant donnes K compact ⊂ U ouvert, il existe f ∈ Ck, 0 ≤ f ≤ 1, f = 1 sur K,f = 0 sur U c.

b. Soit K un compact. Il existe une suite d’ouverts Un et une suite fn ∈ Ck telles queK = lim ↓ Un, 1K = lim ↓ fn.

c. Soit U un ouvert. Il existe une suite de compacts Kn et une suite fn ∈ Ck tellesque U = lim ↑ Kn, 1U = lim ↑ fn.

L’objet auquel on s’interesse est le suivant.

Definition 1.9.1. On appelle mesure de Radon sur Rd toute mesure sur B(Rd) finiesur tout compact.

Donc toute mesure bornee sur B(Rd) ainsi que la mesure de Lebesgue sur Rd sontdes mesures de Radon.

Soit µ une mesure de Radon sur Rd. Alors Ck ⊂ L1(µ) et I : f 7→∫f dµ est

une forme lineaire positive sur Ck (positive signifiant que I(f) ≥ 0 si f ≥ 0). Il estremarquable que toutes les mesures de Radon s’obtiennent ainsi (c’est le theoremede Riesz):

Theoreme 1.9.2. Soit I une forme lineaire positive sur Ck. Il existe une et uneseule mesure de Radon µ sur B(Rd) telle que, pour toute f ∈ Ck, I(f) =

∫f dµ.

Ce theoreme fournit une seconde methode pour construire des mesures. Con-siderons par exemple Ck(R). Pour f ∈ Ck(R), on peut construire

∫ +∞−∞ f(x) dx par

des methodes elementaires (sommes de Riemann ou limite de fonctions en escalier).Appliquant ce theoreme, on en deduit l’existence de la mesure de Lebesgue sur R. La

Page 29: Universit´e Pierre et Marie Curie Master de sciences et

29

demonstration du th. 1.9.2 est difficile (voir [30]). Notons cependant que l’unicite estune consequence immediate du cor. 1.1.7. En effet:

Lemme 1.9.3. Soient µ1 et µ2 des mesures de Radon sur B(Rd). On suppose que,pour toute f ∈ Ck,

∫f dµ1 =

∫f dµ2. Alors µ1 = µ2.

Preuve: On considere φ ∈ C+k et Hφ = f ∈ bB(Rd),

∫fφ dµ1 =

∫fφ dµ2. Vu le

cor. 1.1.7, Hφ = bB(Rd). On conclut facilement (voir la prop. 1.4.7).

Si la mesure µ est bornee, C0 ⊂ L1(µ) et I : f 7→∫f dµ est une forme lineaire

positive sur C0. On a reciproquement (voir [30]):

Theoreme 1.9.4. Soit I une forme lineaire positive sur C0. Il existe une et uneseule mesure bornee µ sur B(Rd) telle que, pour toute f ∈ C0, I(f) =

∫f dµ.

1.9.2. Toute mesure de Radon est reguliere au sens suivant.

Proposition 1.9.5. Soit µ une mesure de Radon sur B(Rd). On a, pour tout A ∈B(Rd),

µ(A) = sup(µ(K), K compact ⊂ A) = inf(µ(U), U ouvert ⊃ A).

Preuve: (i) On suppose d’abord µ bornee. Soit C = A ∈ B(Rd), pour tout ε > 0, ilexiste K compact et U ouvert tels que K ⊂ A ⊂ U et µ(U \K) < ε. Alors

a. C contient les ouverts. Si U est un ouvert, il existe Kn compacts, Kn ↑ U et doncµ(U \Kn) → 0.

b. C est stable par complementation. Supposons K ⊂ A ⊂ U et µ(U \K) < ε, on aU c ⊂ Ac ⊂ Kc et µ(Kc\U c) < ε, Kc est ouvert et U c ferme. On choisit Kn compacts,Kn ↑ Rd, µ(U c \ U c ∩Kn) → 0 et U c ∩Kn est un compact inclus dans Ac.

c. C est stable par intersection denombrable. Soit Ap ∈ C. Il existe Kp compacts etUp ouverts tels que Kp ⊂ Ap ⊂ Up et µ(Up \Kp) < ε

2p . On a ∩Kp ⊂ ∩Ap ⊂ ∩Up etµ(∩Up \ ∩Kp) ≤ µ(∪(Up \ Kp)) ≤

∑µ(Up \ Kp) < ε. K = ∩Kp est compact. Soit

Vn = ∩np=1Up, Vn est ouvert, Vn ⊃ ∩Up et µ(Vn \ ∩Up) → 0. Donc ∩Ap ∈ C.

Les points a,b,c montrent que C = B(Rd) et le resultat cherche.

(ii) Passons a µ quelconque. Si µ(A) < +∞, on applique le resultat precedent a lamesure bornee ν(B) = µ(A ∩ B) ce qui donne l’approximation par des compacts.Pour les ouverts, on considere Vn = |x| < n, Dn = Vn \Vn−1 et les mesures borneesµn(B) = µ(Vn ∩ B). Pour tous n et ε > 0, il existe vu (i) des ouverts Un contenantA ∩Dn tels que µn(Un ∩ Vn) < µ(A ∩Dn) + ε2−n. On a alors A ⊂ U = ∪nUn ∩ Vnouvert et µ(U) ≤

∑n µ(Un ∩ Vn) < µ(A) + ε.

Si µ(A) = +∞, il n’y a rien a montrer pour les ouverts. On choisit alors Kn

compacts, Kn ↑ Rd, on a µ(A ∩ Kn) ↑ µ(A) = +∞ et, pour tout n, µ(A ∩ Kn) =supµ(H), H compact ⊂ A ∩Kn. On conclut facilement.

De cette proposition, on deduit aisement,

Page 30: Universit´e Pierre et Marie Curie Master de sciences et

30 Mesures

Theoreme 1.9.6. Soit µ une mesure de Radon sur B(Rd). Alors pour tout p, 1 ≤p < +∞, Ck est dense dans Lp(Rd, µ).

Preuve: Vu la prop. 1.4.13, il suffit d’approcher 1A, A ∈ B(Rd), µ(A) < +∞. D’apresla prop. 1.9.5, il existe des compacts Kn tels que Kn ⊂ A et µ(A \ Kn) = ||1A −1Kn ||

pp → 0. Il suffit donc d’approcher 1K , K compact. Mais il existe fn ∈ Ck tels que

fn ↓ 1K . Utilisant le th. de Lebesgue, on a ||1K − fn||p →n 0.

Corollaire 1.9.7. Soit µ une mesure de Radon sur B(R). L’espace des fonctions enescaliers i.e. de la forme

∑nk=1 ai1]ti,ti+1], t1 < . . . < tn, est dense dans Lp(R, µ).

Preuve: Vu l’uniforme continuite, il est facile d’approcher en norme ||.||p une fonctionde Ck par des fonctions en escaliers. On applique ensuite le th. 1.9.6.

1.9.3. Convergence.

Definition 1.9.8. Soient µn, µ ∈ Mb. On dit que µn converge faiblement vers µ si,pour toute f ∈ C0,

∫f dµn →n

∫f dµ.

Theoreme 1.9.9. Soient µn ∈ Mb telles que A = supn µn(Rd) < +∞. Il existe unesous-suite µnk

et µ ∈Mb telles que µnkconverge faiblement vers µ.

Preuve: Soit V = φ1, φ2, . . . , φk, . . . un ensemble denombrable dense dans C0

(cor. 1.4.6). On a, pour tous n et k, |µn(φk)| ≤ A||φk||. La suite µn(φ1) etant bornee,il existe (n1

k) telle que µn1k(φ1) converge; la suite µn1

k(φ2) etant bornee, il existe

(n2k) ⊂ (n1

k) telle que µn2k(φ2) converge; . . . La suite diagonale (nkk) est telle que

µnkk(φ) converge pour toute φ ∈ V . On pose µ′k = µnk

k. Pour f ∈ C0 et φ ∈ V , on a

|µ′n+k(f)− µ′n(f)| ≤ |µ′n+k(f)− µ′n+k(φ)|+ |µ′n+k(φ)− µ′n(φ)|+ |µ′n(φ)− µ′n(f)|≤ ||f − φ||µ′n+k(1) + |µ′n+k(φ)− µ′n(φ)|+ ||f − φ||µ′n(1).

D’ou lim supn supk |µ′n+k(f) − µ′n(f)| ≤ 2A||f − φ||. Cette derniere quantite etantarbitrairement petite, µ′n(f) est une suite de Cauchy et donc converge pour toutef ∈ C0. On pose I(f) = limn µ

′n(f). Alors f 7→ I(f) est une forme lineaire positive sur

C0, il existe donc (th.1.9.4) µ ∈ Mb telle que I(f) = µ(f) et µ′k converge faiblementvers µ.

1.10. Mesures signees

Soit (E,B) un espace mesurable.

1.10.1. On a reserve le nom de “mesures” aux applications σ-additives de B dansR+ mais on peut aussi s’interesser aux applications σ-additives de B dans R.

Definition 1.10.1. On appelle mesure signee toute application µ de B dans R telleque(i) µ(∅) = 0,(ii) pour tous An ∈ B deux a deux disjoints et de reunion A, la serie

∑µ(An)

converge et∑

n µ(An) = µ(A).

Page 31: Universit´e Pierre et Marie Curie Master de sciences et

31

Remarquons qu’une mesure bornee est une mesure signee mais qu’une mesure nonbornee n’est pas une mesure signee a cause de la valeur +∞.

Exemple. Soit µ = µ1 − µ2 avec µ1, µ2 mesures bornees, alors µ est une mesuresignee (on verra que toutes les mesures signees sont obtenues ainsi). Si µ1 et µ2

ont des densites h1 et h2 par rapport a une mesure λ, on a µ(A) =∫A h dλ avec h =

h1−h2 ∈ L1(λ). Si on pose S = h ≥ 0, on a, pour tout A, µ(A∩S) =∫A h1S dλ ≥ 0

et µ(A ∩ Sc) =∫A h1Sc dλ ≤ 0 i.e. S “porte” la partie positive de µ et Sc “porte” la

partie negative de µ.

En fait l’exemple ci-dessus est representatif du cas general (voir [30]).

Theoreme 1.10.2. Soit µ une mesure signee sur (E,B). Il existe S ∈ B tel que,pour tout A ∈ B, µ(A ∩ S) ≥ 0 et µ(A ∩ Sc) ≤ 0.

On pose

µ+(A) = µ(A ∩ S), µ−(A) = −µ(A ∩ Sc), |µ| = µ+ + µ−. (1.29)

Alors µ+, µ−, |µ| sont des mesures bornees sur (E,B) appelees partie positive, partienegative et valeur absolue de µ. On a evidemment µ = µ+−µ−. Donnons en quelquesproprietes simples.

Corollaire 1.10.3. |µ| est la plus petite mesure ν telle que, pour tout A ∈ B, ν(A) ≥|µ(A)|.

Preuve: D’une part |µ(A)| = |µ(A ∩ S) + µ(A ∩ Sc)| ≤ |µ(A ∩ S)| + |µ(A ∩ Sc)| =|µ|(A ∩ S) + |µ|(A ∩ Sc) = |µ|(A). D’autre part si, pour tout A, ν(A) ≥ |µ(A)|, on aν(A) = ν(A∩S) + ν(A∩Sc) ≥ |µ(A∩S)|+ |µ(A∩Sc)| = |µ|(A∩S) + |µ|(A∩Sc) =|µ|(A).

Corollaire 1.10.4. Si µ = ν1−ν2, ν1, ν2 mesures bornees, on a ν1 ≥ µ+ et ν2 ≥ µ−.

Preuve: On a µ+(A) = µ(A ∩ S) ≤ ν1(A ∩ S) ≤ ν1(A) et µ−(A) = −µ(A ∩ Sc) ≤ν2(A ∩ Sc) ≤ ν2(A).

Corollaire 1.10.5. On a, pour tout A ∈ B, µ(A) =∫A h d|µ| avec |h| = 1.

Preuve: On a µ(A) = µ(A ∩ S) + µ(A ∩ Sc) = |µ|(A ∩ S) − |µ|(A ∩ Sc) =∫A(1S −

1Sc) d|µ|.

1.10.2. Theoreme de Radon-Nikodym. Si µ(A) =∫A h dλ est une mesure signee, on

a evidemment λ(A) = 0 implique µ(A) = 0. Il est remarquable que cette proprietesuffise a caracteriser les mesures ayant une densite par rapport a λ.

Definition 1.10.6. Soit λ une mesure sur (E,B). On dit qu’une mesure signee (ouσ-finie) µ est absolument continue par rapport a λ si

pour tout A ∈ B, λ(A) = 0 implique µ(A) = 0.

Page 32: Universit´e Pierre et Marie Curie Master de sciences et

32 Mesures

On note ceci µ λ. On a alors:

Theoreme 1.10.7. On considere un espace mesure (E,B, λ), λ σ-finie.(i) Soit µ une mesure signee sur (E,B) telle que µ λ. Il existe φ ∈ L1(λ), uniquea un λ p.p. pres, telle que, pour tout A ∈ B, µ(A) =

∫A φdλ.

(ii) Soit µ une mesure σ-finie sur (E,B) telle que µ λ. Il existe φ ∈ B+, unique aun λ p.p. pres, telle que, pour tout A ∈ B, µ(A) =

∫A φdλ.

Preuve: (i) Supposons d’abord µ, λ mesures bornees et µ λ. On pose ρ = λ+ µ.On a L2(ρ) ⊂ L1(ρ) ⊂ L1(µ) et f = g ρ p.p. implique f = g µ p.p. On peut doncdefinir I(f) =

∫f dµ pour f ∈ L2(ρ) et l’on a

|I(f)| ≤∫|f | dµ ≤

∫|f | dρ ≤ (ρ(E))1/2(

∫|f |2 dρ)1/2.

Ceci montre que f 7→ I(f) est une forme lineaire continue sur L2(ρ). Il existe doncg ∈ L2(ρ) telle que I(f) =< g, f > et donc g ∈ L2(ρ) telle

pour toute f ∈ L2(ρ),∫f dµ =

∫fg dρ. (1.30)

Prenant f = 1A dans (1.30), on a, pour tout A ∈ B,

0 ≤∫Ag dρ = µ(A) ≤ ρ(A) =

∫A

1 dρ,

ce qui implique que 0 ≤ g ≤ 1 ρ p.p. Prenant f = 1g=1 dans (1.30), on a µ(g = 1) =ρ(g = 1) d’ou λ(g = 1) = 0 et, vu l’hypothese, µ(g = 1) = 0 et enfin ρ(g = 1) = 0.On a donc 0 ≤ g < 1 ρ p.p.

De (1.30) on tire, puisque ρ = λ+ µ, pour toute f ∈ L2(ρ),∫f(1− g) dµ =

∫fg dλ.

Par limite croissante, on a

pour toute f ∈ B+,

∫f(1− g) dµ =

∫fg dλ. (1.31)

Prenant f = 1A1−g dans (1.31), on a µ(A) =

∫A φdλ avec φ = g

1−g .

(ii) Supposons maintenant µ mesure signee, λ mesure bornee et µ λ. Puisque|µ|(A) = µ(A∩S)−µ(A∩Ss) = 0 si λ(A) = 0, on a |µ| λ. Donc |µ| = φ.λ et (cor.1.10.5) µ = φh.λ.

(iii) Ces resultats s’etendent immediatement au cas σ-fini en “decoupant” E.

Enfin l’unicite resulte facilement de la propriete 1.3.3 (iv).

3. Soit µ une mesure signee sur (E,B). On a (cor. 1.10.5), µ = h.|µ| avec |h| = 1. Sif ∈ L(|µ|), on definit ∫

f dµ :=∫fh d|µ|.

Page 33: Universit´e Pierre et Marie Curie Master de sciences et

33

Revenons au cas ou E = Rd. On note Ms l’ensemble des mesures signees sur B(Rd).Si µ ∈ Ms et f ∈ C0 = C0(Rd), posons I(f) =

∫f dµ. On a |I(f)| = |

∫fh d|µ|| ≤∫

|f | d|µ| ≤ |µ|(Rd)||f ||. Donc f 7→ I(f) est une forme lineaire continue sur C0. Enfait, elles sont toutes de cette forme:

Theoreme 1.10.8. Soit f 7→ I(f) une forme lineaire continue sur C0. Il existeµ ∈Ms unique telle que, pour toute f ∈ C0, I(f) =

∫f dµ.

1.11. Fonctions a variation finie

1.11.1. Soit a(t) une application croissante continue a droite de R+ dans R+ nulle en0. Il existe (th. 1.2.5) une unique mesure µ sur (R+,B(R+)) telle que a(t) = µ([0, t]).Noter que µ(0) = 0. On definit alors, pour f ∈ B+(R+) ∪ L1(R+,B(R+), µ),∫

[0,t]f(s) da(s) :=

∫1[0,t] f dµ.

Si a est continue, pour tout t, µ(t) = 0 et on ecrit simplement∫ t0 f(s) da(s).

Soit u(t) une application de R+ dans R nulle en 0. On pose, pour t ∈ R+,

Su(t) = supn∑k=1

|u(tk)− u(tk−1)|, (1.32)

le sup etant pris sur toutes les subdivisions t0 = 0 < t1 < . . . < tn = t de [0, t].

Definition 1.11.1. Si, pour tout t ∈ R+, Su(t) < +∞, la fonction u est dite avariation finie. La fonction t 7→ Su(t) s’appelle alors la variation totale de u.

Notons que la fonction Su est croissante et que |u| ≤ Su.

1.11.2. Nous presentons d’abord les principaux resultats. Les demonstrations, asseztechniques, viendront apres.

Proposition 1.11.2. Soit u une fonction a variation finie sur R+ nulle en 0 etcontinue a droite (resp.continue). Alors Su est continue a droite (resp.continue) et,si on pose a1 = Su+u

2 , a2 = Su−u2 , les fonctions ai sont croissantes nulles en 0,

continues a droite (resp.continues) et u = a1 − a2.

Pour m mesure de Radon (def. 1.9.1) sur R+, on pose

L1loc(R+,m) = h ∈ [B(R+)], pour tout t,

∫[0,t]

|h| dm < +∞. (1.33)

Comme d’habitude, on note L1loc(R+,m) = L1

loc(R+,m)/ ∼ ou f ∼ g si f = g m p.p.

Proposition 1.11.3. Soient m une mesure de Radon sur R+ avec m(0) = 0 (resp.pour tout t, m(t) = 0) et h ∈ L1

loc(R+,m). On pose u(t) =∫[0,t] h dm. Alors u est

une fonction a variation finie sur R+ nulle en 0 et continue a droite (resp. continue).De plus Su(t) =

∫[0,t] |h| dm.

Page 34: Universit´e Pierre et Marie Curie Master de sciences et

34 Mesures

Corollaire 1.11.4. Soient m une mesure de Radon sur R+ avec m(0) = 0 eth ∈ L1

loc(R+,m). Si, pour tout t,∫[0,t] h dm = 0, alors h = 0 m p.p.

Preuve: Vu la prop. 1.11.3, u(t) =∫[0,t] h dm = 0 implique 0 = Su(t) =

∫[0,t] |h| dm

et h = 0 m p.p.

Theoreme 1.11.5. Soit u une fonction a variation finie sur R+ nulle en 0 et continuea droite. Il existe une unique mesure ν sur R+ et une unique h ∈ L1

loc(R+, ν) tellesque, pour tout t ≥ 0,

Su(t) = ν([0, t]), u(t) =∫

[0,t]h dν.

De plus |h| = 1 ν p.p. Si u est continue, ν(t) = 0 pour tout t. Enfin si u = b1− b2,avec les bi croissantes, nulles en 0, continues a droite, on a b1 ≥ a1 = Su+u

2 , b2 ≥a2 = Su−u

2 .

Soit u une fonction a variation finie sur R+ nulle en 0 et continue a droite. Utilisantle th. 1.11.5, on definit alors, pour f ∈ B+(R+) ∪ L1

loc(R+, ν),∫[0,t]

f(s) du(s) :=∫

[0,t]fh dν. (1.34)

Noter que l’on a, puisque h2 = 1,∫[0,t]

f dν =∫

[0,t]f(s)h(s) du(s), |h| = 1. (1.35)

On a alors u = a1 − a2, ai croissants et continus a droite, et, pour f ∈ bB(R+),∫[0,t]

f(s) du(s) =∫

[0,t]f(s) da1(s)−

∫[0,t]

f(s) da2(s). (1.36)

Evidemment, pour u continue, on ecrit simplement∫ t0 f(s) du(s).

1.11.3. Quelques lemmes. Soit u une fonction a variation finie sur R+ nulle en 0.

Lemme 1.11.6. Pour s < t, |u(t)− u(s)| ≤ Su(t)− Su(s).

Preuve: Soit ε > 0. Il existe t0 = 0 < t1 < . . . < tn = s tel que∑n

k=1 |u(tk) −u(tk−1)| ≥ Su(s) − ε. Alors Su(t) ≥ |u(t) − u(s)| +

∑nk=1 |u(tk) − u(tk−1)| ≥ |u(t) −

u(s)|+ Su(s)− ε.

Pour I intervalle quelconque de R+, on pose

Su(I) = supn∑k=1

|u(tk)− u(tk−1)|,

le sup etant pris sur tous les tk ∈ I tels que t0 < t1 < . . . < tn. Notons que siI = I1 ∪ I2, I1, I2 intervalles disjoints, Su(I) ≥ Su(I1) + Su(I2).

Page 35: Universit´e Pierre et Marie Curie Master de sciences et

35

Lemme 1.11.7. Pour tout c ∈ R+, limε→0 Su(]c, c+ ε]) = 0.

Preuve: Sinon, la fonction ε 7→ Su(]c, c + ε]) etant croissante, il existerait δ > 0 telque, pour tout ε > 0, Su(]c, c+ε]) > δ. Soit ε1 tel que Su(]c, c+ε1[) > δ. Il existe 0 <ε2 < ε1 tel que Su([c+ε2, c+ε1[) > δ. Mais Su(]c, c+ε2[) > δ. Il existe 0 < ε3 < ε2 telque Su([c+ε3, c+ε2[) > δ.. . . Il existe 0 < εk+1 < εk tel que Su([c+εk+1, c+εk[) > δ.Finalement on a Su(]c, c+ε1[) ≥ Su([c+εk+1, c+εk[)+ . . .+Su([c+ε2, c+ε1[) ≥ kδ.Ce qui est impossible puisque k est arbitraire et Su(]c, c+ ε1[) < +∞.

Lemme 1.11.8. Si u est continue a droite (resp. a gauche) au point t, Su est continuea droite (resp. a gauche) au point t.

Preuve: (i) Continuite a droite. Soient ε > 0, s > t et t0 = 0 < t1 < . . . < tn = s.On a tp ≤ t < tp+1 ≤ s et

n∑k=1

|u(tk)− u(tk−1)| ≤p∑

k=1

|u(tk)− u(tk−1)|+ |u(t)− u(tp)|+ |u(tp+1)− u(t)|

+n∑

k=p+2

|u(tk)− u(tk−1)| ≤ Su(t) + |u(tp+1)− u(t)|+ Su(]t, s]) ≤ Su(t) + ε

si s−t est assez petit vu le lem. 1.11.7 et la continuite a droite de u et Su(s) ≤ Su(t)+ε.

(ii) Continuite a gauche. Soient ε > 0 et s < t. Il existe t0 = 0 < t1 < . . . < tn = ttels que Su(t) ≤

∑nk=1 |u(tk) − u(tk−1)| + ε et donc, pour tn−1 < s < t, Su(t) ≤∑n−1

k=1 |u(tk)−u(tk−1)|+ |u(tn−1)−u(s)|+ |u(t)−u(s)|+ ε ≤ Su(s)+ |u(t)−u(s)|+ εd’ou lims↑t ↑ Su(s) ≥ Su(t)− ε.

1.11.4. Demonstration de la prop. 1.11.2. La continuite a droite (resp. continuite) deSu (et donc des ai) resulte du lem. 1.11.8. Vu le lem. 1.11.6, les ai sont croissantes.

1.11.5. Demonstration de la prop. 1.11.3. D’apres le theoreme de Lebesgue, u estcontinue a droite. De plus Su(t) ≤

∫[0,t] |h| dm et u est a variation finie. Soit ν l’unique

mesure telle que ν([0, t]) = Su(t). On pose, pour A ∈ B(R+),

λ(A) =∫Ah dm, λ+(A) =

∫Ah+ dm, λ−(A) =

∫Ah− dm.

On a, pour tout t, |λ([0, t])| = |u(t)| ≤ Su(t) = ν([0, t]) i.e. λ+([0, t]) ≤ ν([0, t]) +λ−([0, t]) et λ−([0, t]) ≤ ν([0, t]) + λ+([0, t]) d’ou, pour tout A ∈ B(R+) borne,λ+(A) ≤ ν(A) + λ−(A) et λ−(A) ≤ ν(A) + λ+(A) et |λ(A)| ≤ ν(A). On a alors

Su(t) = ν([0, t]) = ν([0, t] ∩ h ≥ 0) + ν([0, t] ∩ h < 0)

≥ |λ([0, t] ∩ h ≥ 0)|+ |λ([0, t] ∩ h < 0)| =∫

[0,t]|h| dm.

1.11.6. Demonstration du th. 1.11.5. Soient a1 = Su+u2 , a2 = Su−u

2 . On a Su =a1 + a2, u = a1 − a2. On sait (prop. 1.11.2) que les ai sont croissantes nulles en 0

Page 36: Universit´e Pierre et Marie Curie Master de sciences et

36 Mesures

et continues a droite. Il existe donc des mesures µi telles que µi([0, t]) = ai(t). Soitν = a1 + a2. On a ν([0, t]) = Su(t). De plus µi ν et donc (th. 1.10.7) µi = hi.νd’ou u(t) = a1(t) − a2(t) =

∫[0,t] h dν avec h = h1 − h2. L’unicite ν p.p. de h resulte

du cor. 1.11.4. On a ν([0, t]) = Su(t) =∫[0,t] |h| dν et donc (cor. 1.11.4) |h| = 1 ν p.p.

On a alors a1(t) =∫[0,t] h

+(s) ds, a2(t) =∫[0,t] h

−(s) ds. Supposons b1 − b2 = a1 − a2.Soient ρi les mesures telles que ρi([0, t]) = bi(t). On a b1(t) + a2(t) = a1(t) + b2(t)d’ou ρ1(A) + µ2(A) = µ1(A) + ρ2(A) et b1(t) ≥ ρ1([0, t] ∩ h ≥ 0) ≥ µ([0, t] ∩ h ≥0) =

∫[0,t] h

+(s) ds = a1(t) et b2(t) = a2(t) − a1(t) + b1(t) ≥ a2(t). On aurait aussipu appliquer le cor. 1.10.4.

Page 37: Universit´e Pierre et Marie Curie Master de sciences et

Chapitre 2

Notions de probabilites

2.1. Espace de probabilite

2.1.1. Tout commence par:

Definition 2.1.1. On appelle espace de probabilite un triplet (Ω,A,P) ou (Ω,A) estun espace mesurable et P une probabilite sur A.

Les elements de A s’appellent des evenements. Pour des evenements A et B, onecrira indifferemment A ∩B ou AB.

Premieres proprietes. An, A,B etant des evenements,

(i) P(Ac) = 1− P(A), si A ⊂ B, P(A) ≤ P(B),

(ii) P(A ∪B) = P(A) + P(B)− P(A ∩B),

(iii) si An ↑ A, P(An) ↑ P(A),

(iv) si An ↓ A, P(An) ↓ P(A),

(v) P(∪An) ≤∑

P(An).

Rappelons qu’un sous-ensemble B de Ω est dit negligeable si B ⊂ A ∈ A telque P(A) = 0. Une propriete dependant de ω est vraie presque surement, en abregep.s., si elle est vraie en dehors d’un ensemble negligeable. Notons qu’un ensemblenegligeable n’est pas toujours un evenement sauf si l’espace (Ω,A,P) est complet. Onpeut cependant toujours se ramener a ce cas. Voir a ce sujet 1.2.3.

2.1.2. Probabilite conditionnelle.

Definition 2.1.2. Soient A,B ∈ A avec P (B) > 0. On appelle probabilite condition-nelle de A sachant B et on note P(A|B) la quantite P(A ∩B)/P(B).

Noter que A 7→ P(A|B) est une probabilite sur (Ω,A). La proposition suivantes’appelle la formule de Bayes.

Page 38: Universit´e Pierre et Marie Curie Master de sciences et

38 Notions de probabilites

Proposition 2.1.3. Soient (Bn, n ∈ N) une partition de Ω avec Bn ∈ A et P(Bn) >0. On a, pour tout A ∈ A tel que P(A) > 0 et tout n,

P(Bn|A) =P(Bn)P(A|Bn)∑k P(Bk)P(A|Bk)

Preuve: On a P(Bn|A) = P(A∩Bn)P(A) = P(Bn)P(A|Bn)

P(A) et P(A) =∑

k P(A ∩ Bk) =∑k P(Bk)P(A|Bk).

Proposition 2.1.4. Soient A1, . . . , An des evenements tels que P(A1 . . . An) > 0. Ona

P(A1 . . . An) = P(A1)P(A2|A1)P(A3|A1A2) . . .P(An|A1 . . . An−1).

Preuve: Par recurrence.

Si P(A|B) = P(A), l’occurrence de A n’est pas influence par celle de B, on dit queles evenements A et B sont independants. Ceci s’ecrit aussi P(A∩B) = P(A)P(B). Onvoit facilement qu’alors A et Bc, Ac et B, Ac et Bc sont aussi independants. En fait cesont les tribus σ(A) = Ω, ∅, A,Ac et σ(B) = Ω, ∅, B,Bc qui sont independantes.Nous developperons cette notion en 2.2.

2.1.3. Variables aleatoires. Les variables aleatoires sont les fonctions qui dependentdu hasard, celui-ci etant modelise par le tirage d’un point ω ∈ Ω.

Definition 2.1.5. On appelle variable aleatoire (en abrege v.a.) a valeurs (E, E)toute application mesurable de (Ω,A) dans (E, E).

Si E est denombrable et E = P(E), on parle de v.a. discrete,

si E = R+ et E = B(R+), on parle de v.a. positive,

si E = R et E = B(R), on parle de v.a. reelle (v.a.r.),

si E = Rd et E = B(Rd), on parle de v.a. vectorielle,

si E = C et E = B(C), on parle de v.a. complexe.

Definition 2.1.6. (i) Soit X une v.a. positive. On appelle esperance de X et on noteE(X) la quantite

∫X dP.

(ii) Soit X une v.a. reelle telle que E|X| < +∞. On appelle esperance de X et onnote E(X) la quantite

∫X dP.

Definition 2.1.7. Soit X une v.a. a valeurs (E, E). On appelle loi de X et on noteµX la mesure image P X−1 (prop. 1.6.3) de P par X.

Il resulte de la prop. 1.6.3 que µX est la probabilite sur (E, E) definie par

µX(Γ) = P(X ∈ Γ) ou X ∈ Γ = ω ∈ Ω, X(ω) ∈ Γ = X−1(Γ), (2.1)

et que

pour toute f ∈ E+ ∪ L1(E, E , µX), E(f(X)) =∫f dµX . (2.2)

Page 39: Universit´e Pierre et Marie Curie Master de sciences et

39

Proposition 2.1.8. Soient X une v.a. a valeurs (E, E) et φ une application mesurablede (E, E) dans (F,F), alors Y = φ(X) est une v.a. a valeurs (F,F) et la loi de Yest l’image par φ de la loi de X.

Preuve: Le premier point resulte de ce que la composee de deux applications mesurablesest mesurable. Quant au second, on a, pour f ∈ F+,∫

f dµY = E(f(Y )) = E(f(φ(X))) =∫f φdµX

i.e. (prop. 1.6.3) µY = µX φ−1.

Exemples. Il y a deux situations fondamentales.

(i) X est discrete i.e. E est denombrable. La loi µX est alors determinee par la famille(µX(x), x ∈ E) ou µX(x) = P(X = x) et l’on a

pour toute f ≥ 0 ou bornee, E(f(X)) =∑x∈E

f(x)µX(x).

(ii) X est vectorielle i.e. a valeurs Rd et µX = hX .λ, λ etant la mesure de Lebesguesur Rd. On dit alors que X est une v.a. de densite hX . Dans ce cas, on a,

pour toute f ∈ B+(Rd) ∪ bB(Rd), E(f(X)) =∫fhX dλ.

2.2. Independance

Toutes les tribus considerees sont des sous-tribus de A.

2.2.1. Tribus independantes.

Definition 2.2.1. Des tribus Bi, i = 1, . . . , n sont dites independantes si

pour tous Ai ∈ Bi , P(∩ni=1Ai) =n∏i=1

P(Ai).

Une famille quelconque (Bi, i ∈ I) de tribus est dite independante si toute sous famillefinie est independante.

Cette definition a comme consequence evidente mais importante:

Lemme 2.2.2. Si les tribus (Bi, i ∈ I) sont independantes et si, pour chaque i ∈ I,B′i est une sous-tribu de Bi, les tribus (B′i, i ∈ I) sont independantes.

Proposition 2.2.3. Soient Ck ⊂ P(Ω), k = 1, . . . , n des classes stables par intersec-tion finie et contenant Ω. On suppose que

pour tous Ak ∈ Ck, k = 1, . . . , n, P(∩nk=1Ak) =n∏k=1

P(Ak). (2.3)

Alors les tribus σ(Ck), k = 1, . . . , n, sont independantes.

Page 40: Universit´e Pierre et Marie Curie Master de sciences et

40 Notions de probabilites

Preuve: On considere la propriete pour k = 1, . . . , n,

(Pk) : ∀Ai ∈ σ(Ci), i = 1, . . . , k − 1, ∀Ai ∈ Ci, i = k, . . . , n, P(∩nk=1Ak)) =n∏k=1

P(Ak).

Par hypothese (P1) est vraie. Supposons (Pr). On pose

M = B, ∀Ai ∈ σ(Ci), i = 1, . . . , r − 1, ∀Ai ∈ Ci, i = r + 1, . . . , n,P(A1 . . . Ar−1BAr+1 . . . An) = P(A1) . . .P(Ar−1)P(B)P(Ar+1) . . .P(An).

M contient Ω, est stable par limite croissante et contient, vu (Pr), Cr donc (th. 1.1.2)M contient σ(Cr) et (Pr+1) est vraie. On a donc (Pn) qui est le resultat cherche.

Enfin on a “l’independance par paquets”:

Proposition 2.2.4. Soient (Bi, i ∈ I) des tribus independantes et (Ij , j ∈ J) unepartition de I. Alors les tribus (σ(Bi, i ∈ Ij), j ∈ J) sont independantes.

Preuve: Il suffit de considerer le cas J fini. Soit

Cj = B, B = A1A2 . . . An, Ak ∈ ∪i∈IjBi.

Vu l’independance des Bi, on a, pour tous Bj ∈ Cj , P(∩Bj) =∏

P(Bj). Mais les Cjsont stables par intersection finie, Ω ∈ Cj et σ(Cj) = σ(Bi, i ∈ Ij). On applique laprop. 2.2.3.

2.2.2. Variables aleatoires independantes.

Definition 2.2.5. Des v.a. (Xi, i ∈ I) a valeurs (Ei, Ei) sont dites independantes siles tribus (σ(Xi), i ∈ I) sont independantes.

Des evenements (Ai, i ∈ I) sont dits independants si les tribus (σ(Ai), i ∈ I) sontindependantes.

On a immediatement,

Lemme 2.2.6. Si les tribus (Bi, i ∈ I) sont independantes et si, pour chaque i ∈ I,Xi est une v.a. Bi-mesurable, les v.a. (Xi, i ∈ I) sont independantes.

Preuve: On remarque que σ(Xi) ⊂ Bi et on applique le lem. 2.2.2.

Il faut noter que, si X une v.a. a valeurs (E, E) et f une application mesurable de(E, E) dans (F,F), σ(f(X)) ⊂ σ(X) puisque, si A ∈ σ(f(X)), A = f(X) ∈ Γ =X ∈ f−1(Γ) ∈ σ(X). Donc si les v.a. (Xi, i ∈ I) sont independantes, il en est dememe des v.a. (fi(Xi), i ∈ I), fi fonctions mesurables deterministes.

Le resultat essentiel est:

Theoreme 2.2.7. Soient Xi des v.a. a valeurs (Ei, Ei) i = 1, . . . , n. Il y a equivalenceentre

Page 41: Universit´e Pierre et Marie Curie Master de sciences et

41

(i) Les v.a. X1, . . . , Xn sont independantes.(ii) Pour tous Γi ∈ Ei, P(X1 ∈ Γ1, . . . , Xn ∈ Γn) = P(X1 ∈ Γ1) . . .P(Xn ∈ Γn).(iii) Pour tous Γi ∈ Di, P(X1 ∈ Γ1, . . . , Xn ∈ Γn) = P(X1 ∈ Γ1) . . .P(xn ∈ Γn) ou,pour chaque i, Di est une classe stable par intersection finie, contenant Ei et telleque σ(Di) = Ei.(iv) Pour toutes fi ∈ E+

i (resp. bEi), E(f1(X1) . . . fn(Xn)) = E(f1(X1)) . . .E(fn(Xn)).(v) µ(X1,...,Xn) = µX1 ⊗ . . .⊗ µXn.

Preuve: (i)⇔(ii). C’est la definition.

(ii)⇒(v). On a, pour tous Γi ∈ Ei,

µ(X1,...,Xn)(Γ1 × . . .× Γn) = µX1(Γ1) . . . µXn(Γn)

ce qui entraıne l’egalite des mesures (th. 1.7.1).

(v)⇒(iv). C’est le th. 1.7.1 ou le th. 1.7.2.

(iv)⇒(iii). On prend fi = 1Γi .

(iii)⇒(ii). On applique la prop. 2.2.3 aux Ci = X−1i (Γ), Γ ∈ Di.

Corollaire 2.2.8. Soient X1, . . . , Xn des v.a.r., il y a equivalence entre(i) Les v.a. X1, . . . , Xn sont independantes.(ii) Pour tous ai, bi ∈ R,

P(a1 < X1 < b1, . . . , an < Xn < bn) = P(a1 < X1 < b1) . . .P(an < Xn < bn).

(iii) Pour toutes fi continues a support compact

E(f1(X1) . . . fn(Xn)) = E(f1(X1)) . . .E(fn(Xn)).

Preuve: Il suffit de remarquer que (iii)⇒(ii) puisque 1]a,b[ = lim ↑ fm avec fm ∈ Cket d’appliquer le th. 2.2.7.

Corollaire 2.2.9. Soient X1, . . . , Xn des v.a.r. integrables independantes. Alors leproduit X1 . . . Xn est integrable et E(X1 . . . Xn) = E(X1) . . .E(Xn).

Preuve: On a, vu (iv), E|X1 . . . Xn| = E|X1| . . .E|Xn| < +∞. Donc X1 . . . Xn ∈L1(µ(X1,...,Xn)) et on applique (v) et le th. de Fubini.

Remarque 1. Si les v.a. X1, . . . , Xn sont a valeurs Ei denombrables, elles sontindependantes (il suffit de sommer) ssi

∀xi ∈ Ei, P(X1 = x1, . . . , Xn = xn) = P(X1 = x1) . . .P(Xn = xn).

Remarque 2. Attention. On peut avoir X independante de Y , X independante deZ sans que X soit independante de (Y, Z). Par exemple soient X et Y deux v.a.independantes telles que P(X = 1) = P(Y = 1) = P(X = −1) = P(Y = −1) = 1

2 .On pose Z = XY . On a encore P(Z = 1) = P(Z = −1) = 1

2 . On verifie facilement

Page 42: Universit´e Pierre et Marie Curie Master de sciences et

42 Notions de probabilites

que X et Z sont independantes (en effet P(X = 1, Z = 1) = P(X = 1, Y = 1) =14 = P(X = 1)P(Z = 1), . . .). Mais X n’est pas independante de Z/Y = X car ceciimplique X = Cte. En fait la classe C = A, A = Y ∈ Γ1 ou A = Z ∈ Γ2 n’estpas stable par intersection.

2.2.3. Loi 0-1.

Proposition 2.2.10. Soit X1, . . . , Xn, . . . une suite de v.a. independantes. On pose

B∞ = ∩n≥1σ(Xk, k ≥ n).

Alors, pour tout A ∈ B∞, P(A) = 0 ou 1. De plus, si X est une v.a.r. B∞-mesurable,X = Cte p.s.

Preuve: Posons An = σ(Xk, k ≤ n), A∞ = σ(Xk, k ≥ 0), Bn = σ(Xk, k ≥ n).D’apres la prop. 2.2.4, An est independante de Bn+1 et de B∞ ⊂ Bn+1. Donc B∞est independante de A∞ (prop. 2.2.3 appliquee a ∪An) mais B∞ ⊂ A∞ d’ou B∞ estindependante d’elle meme. Si A ∈ B∞, on a donc P(A) = P(A ∩ A) = P(A)P(A)i.e. P(A) = 0 ou 1. Si X est une v.a. B∞-mesurable, P(X ≤ a) = 0 ou 1. Donc sic = sup(a, P(X ≤ a) = 0),

P(X = c) = lim ↓ P(X ≤ c+ ε)− lim ↑ P(X ≤ c− ε) = 1.

Application. SoitX1, . . . , Xn, . . . une suite de v.a.r. independantes et B∞ = ∩n≥1σ(Xk, k ≥n). On a

∑Xn converge ∈ B∞ et donc une serie de v.a.r. independantes converge

p.s. ou diverge p.s. De meme lim sup 1n(X1 + . . .+Xn) est une v.a. B∞-mesurable et

donc cette lim sup est p.s. constante.

2.2.4. Lemme de Borel-Cantelli. Rappelons que, pour des evenements An,

lim supAn = ∩n ∪k≥n Ak = lim ↓n ∪k≥nAk.

On a donc lim supAn = ω, ω ∈ An pour une infinite de n = ∑

n 1An = +∞.

Proposition 2.2.11. Soit (An, n ≥ 0) une suite d’evenements.(i) Si

∑n P(An) < +∞, P(lim supAn) = 0.

(ii) Si les An sont independants et si∑

n P(An) = +∞, P(lim supAn) = 1.

Preuve: (i) On a

P(lim supAn) = lim ↓n P(∪k≥nAk) ≤ lim ↓n∞∑k=n

P(Ak) = 0.

(ii) Vu l’inegalite 1− u ≤ e−u et l’independance des Acn, on a

P(∩mk=nAck) =m∏k=n

P(Ack) =m∏k=n

(1− P(Ak)) ≤ exp(−m∑k=n

P(Ak))

donc P(∩∞k=nAck) = lim ↓m P(∩mk=nAck) = 0 si∑

P(An) = +∞.

Passant au complementaire, on a P(∪∞k=nAk) = 1 et P(lim supAn) = 1.

Page 43: Universit´e Pierre et Marie Curie Master de sciences et

43

2.3. Variables aleatoires reelles

Dans la suite Lp designe Lp(Ω,A,P). On ne distinguera pas deux v.a.r. egales p.s. cequi fait qu’on designe par X aussi bien la v.a. X que sa classe d’equivalence dans L0.En particulier on ecrira pour une v.a. X ∈ Lp aussi bien que X ∈ Lp.

2.3.1. Moments. Remarquons que, si p ≥ q ≥ 1, Lp ⊂ Lq puisque |X|q ≤ 1 + |X|p.

Definition 2.3.1. Soit X une v.a.r. Pour p ∈ [1,+∞[, E|X|p s’appelle momentabsolu d’ordre p de X; pour p ∈ N∗, si X ∈ Lp, E(Xp) s’appelle moment d’ordre pde X.

Notons que E|X|p =∫|x|p dµX(x), E(Xp) =

∫xp dµX(x). Les deux moments les

plus importants sont le moment d’ordre 1 qui n’est rien d’autre que l’esperance de X(on dit aussi la moyenne de X) et le moment d’ordre 2. On pose, pour X ∈ L2,

Var(X) = E(X − E(X))2. (2.4)

On a Var(X) = E(X2)− (E(X))2 et

Lemme 2.3.2. Si X ∈ L2, E(X − a)2 est minimum pour a = E(X) et ce minimumvaut Var(X).

Preuve: En effet, si m = E(X), E(X − a)2 = E(X −m)2 + (m− a)2.

On note aussi σ2X pour Var(X), σX s’appelle l’ecart type. Une v.a. X ∈ L1 est

dite centree si E(X) = 0. Une v.a. X ∈ L2 est dite centree reduite si E(X) = 0 etE(X2) = Var(X) = 1. Noter que, si X ∈ L2, σ−1

X (X − E(X)) est centree reduite.

Proposition 2.3.3. (i) Soit X ∈ Lp, p ≥ 1. On a pour tout λ > 0,

P(|X| ≥ λ) ≤ 1λp

E|X|p.

(ii) Soit X ∈ L2. On a pour tout λ > 0,

P(|X − E(X)| ≥ λ) ≤ 1λ2

Var(X).

Preuve: (i) On remarque que λp1|X|≥λ ≤ |X|p et on prend l’esperance.

(ii) On applique (i) a |X − E(X)|.

La premiere de ces inegalites s’appelle l’inegalite de Markov, la seconde l’inegalite deBienayme-Tchebichev. Montrons maintenant l’inegalite de Jensen.

Proposition 2.3.4. Soient X une v.a.r. et f une application convexe de R dans R.On suppose X et f(X) integrables. Alors f(E(X)) ≤ E(f(X)).

Preuve: Soit m = E(X). La fonction f etant convexe, il existe une droite passantpar (m, f(m)) et situee sous le graphe de f i.e. une fonction affine α(x) = a(x−m)+f(m) ≤ f(x) pour tout x ∈ R. On a donc a(X − m) + f(m) ≤ f(X) et, prenantl’esperance f(m) ≤ E(f(X)).

Page 44: Universit´e Pierre et Marie Curie Master de sciences et

44 Notions de probabilites

Corollaire 2.3.5. Soient µ une probabilite sur R, f une application convexe de Rdans R et g ∈ [B(R)]. On suppose g et f g µ-integrables. Alors

f(∫g(x) dµ(x)) ≤

∫f(g(x)) dµ(x).

Preuve: On choisit Ω = R, A = B(R), P = µ, X = g et on applique la prop. 2.3.4.

2.3.2. Lois usuelles sur R.

a. Loi hypergeometrique. Une urne contient n boules, n1 blanches et n2 noires. Onen tire r sans remise. Soit X le nombre de boules blanches obtenues. On a

P(X = x) =Cxn1

Cr−xn2

Crn, 0 ≤ x ≤ n1, 0 ≤ r − x ≤ n2.

b. Loi binomiale B(r, p), 0 < p < 1, r ∈ N. Une urne contient n boules, n1 blancheset n2 noires. On en tire r avec remise. Soit X le nombre de boules blanches obtenues.On a, posant p = n1/n,

P(X = x) = Cxr px(1− p)r−x, 0 ≤ x ≤ r.

On a E(X) = rp, Var(X) = rp(1− p).

c. Loi de Poisson P(λ), λ > 0. C’est la loi sur N definie par

µ(x) = e−λλx

x!, x = 0, 1, . . . , n, . . .

Si X est une v.a. de loi P(λ), ce qu’on note X ∼ P(λ), on a E(X) = λ, Var(X) = λ.

d. Loi geometrique de parametre a, 0 < a < 1. C’est la loi sur N definie par

µ(x) = (1− a)ax, x = 0, 1, . . . , n, . . .

e. Loi uniforme sur [a, b] notee U(a, b). C’est la loi sur R de densite

h(x) =1

b− a1[a,b](x).

Si X ∼ U(a, b), E(X) = a+b2 , Var(X) = (b−a)2

12 .

f. Loi gamma de parametres a, c, a > 0, c > 0, notee G(a, c). Rappelons que lafonction

Γ(a) =∫ +∞

0e−xxa−1 dx (2.5)

est definie pour tout a > 0 et que l’on a Γ(a+ 1) = aΓ(a) et Γ(n) = (n− 1)!. Donc

ha,c(x) =ca

Γ(a)e−cxxa−11R+(x) (2.6)

Page 45: Universit´e Pierre et Marie Curie Master de sciences et

45

est une densite de probabilite sur R. La loi de densite ha,c s’appelle la loi G(a, c). Ona, si X ∼ G(a, c), E(X) = a/c, Var(X) = a/c2.

g. Loi normale ou de Gauss N1(m,σ2). On appelle loi N1(m,σ2) la loi sur R de densite

fm,σ2(x) =1√

2πσ2e−

(x−m)2

2σ2 . (2.7)

Si X ∼ N1(m,σ2), E(X) = m, Var(X) = σ2. Notons que si X ∼ N1(0, 1), Y =m+ σX ∼ N1(m,σ2).

2.3.3. Fonction de repartition.

Definition 2.3.6. Soit X une v.a.r de loi µX . La fonction FX(t) = P(X ≤ t) =µX(]−∞, t]) s’appelle la fonction de repartition de X.

La fonction FX est croissante, continue a droite et on a limt→−∞ FX(t) = 0,limt→+∞ FX(t) = 1. La fonction FX a donc des limites a gauche qu’on note FX(t−).On a alors

P(X = t) = µX(t) = FX(t)− FX(t−).

Si X a une densite h, on a FX(t) =∫ t−∞ h(u) du et on peut montrer que F ′(t) = h(t)

p.p.

Plus generalement on appelle fonction de repartition toute application de R dans Rcroissante de 0 a 1 et continue a droite. Le th. 1.2.5 montre que toute fonction derepartition F est la fonction de repartition d’une probabilite sur R et donc qu’il existeune v.a. X de fonction de repartition F . Le theoreme suivant fournit un moyen deconstruire une telle v.a. a partir d’une v.a. de loi U(0, 1).

Theoreme 2.3.7. Soient F une fonction de repartition et U une v.a.r de loi U(0, 1).On pose F−1(u) = inf(t, F (t) ≥ u). Alors X = F−1(U) a pour fonction de repartitionF .

Preuve: Vu la continuite a droite de F , on a t, F (t) ≥ u = [F−1(u),+∞[ et donc

u ≤ F (t) ⇔ F−1(u) ≤ t.

Alors P(X ≤ t) = P(F−1(U) ≤ t) = P(U ≤ F (t)) = F (t) et X a pour fonction derepartition F .

2.4. Variables aleatoires vectorielles

2.4.1. Notations.

(i) On note, pour x = (x1, . . . , xd) ∈ Rd, |x| = (x21 + . . .+ x2

d)1/2.

(ii) On note MT la matrice transposee de la matrice M . Alors on peut representerx ∈ Rd par un vecteur colonne i.e. une matrice d × 1 et on ecrira indifferemment

Page 46: Universit´e Pierre et Marie Curie Master de sciences et

46 Notions de probabilites

x = (x1, . . . , xd) ou x = (x1 . . . xd)T. Pour x = (x1 . . . xd)T et y = (y1 . . . yd)T, on axTy = x1y1 + . . .+ xdyd =< x, y > et xyT est la matrice de terme general xiyj .

(iii) On note Lpd = X = (X1, . . . , Xd), E|X|p < +∞.

(iv) Si X ∈ L1d, on note E(X) = (E(X1), . . . ,E(Xd)).

2.4.2. On appelle vecteur aleatoire toute v.a. a valeurs Rd. On remarque d’abord queX = (X1, . . . , Xd) est un vecteur aleatoire ssi, pour k = 1, . . . , d, Xk est une v.a.r.

Soit X = (X1, . . . , Xd) un vecteur aleatoire. Les lois µX1 , . . . , µXds’appellent

les lois marginales de X. On sait (th. 2.2.7) que les composantes X1, . . . , Xd sontindependantes ssi µX = µX1 ⊗ . . .⊗ µXd

. Si X a une densite h, on a immediatement:

Lemme 2.4.1. Soit X un vecteur aleatoire de densite h. Les composantes X1, . . . , Xd

sont independantes ssi h(x1, . . . , xd) = g1(x1) . . . gd(xd) p.p. et alors Xk a pour densitehXk

(u) = gk(u)/∫

R gk(v) dv.

Rappelons la formule de changement de variables dans Rd. Si φ est un diffeomorphismede l’ouvert U sur l’ouvert V , on a, pour toute f ∈ B+(Rd),∫

Vf(v) dv =

∫Uf(φ(u))|J(φ)(u)| du. (2.8)

ou J(φ) est le determinant de la matrice des ∂φj

∂uk. Il en resulte:

Proposition 2.4.2. Soit X un vecteur aleatoire de densite h. On suppose que X ∈ Dp.s., D ouvert de Rd. Soient ψ un diffeomorphisme de D sur un ouvert ∆ et Y =ψ(X), alors Y a pour densite

h(ψ−1(y))|J(ψ−1)(y)|1∆(y).

Preuve: On a, pour toute f ∈ B+(Rd),

E(f(Y )) = E(f(ψ(X))) =∫Df(ψ(x))h(x) dx =

∫∆f(y)h(ψ−1(y))|J(ψ−1)(y)| dy.

Exemple. SoientX et Y des v.a.r. independantes de lois respectives G(a, c) et G(b, c)(2.6), a, b, c > 0 . On pose S = X + Y , T = X

X+Y . On veut calculer la loi du couple(S, T ). Vu l’independance, le couple (X,Y ) a pour densite

hX,Y (x, y) =ca+b

Γ(a)Γ(b)e−c(x+y)xa−1yb−11]0,+∞[(x)1]0,+∞[(y).

Soit φ l’application (x, y) 7→ (s = x + y, t = xx+y ). φ est un diffeomorphisme de

]0,+∞[×]0,+∞[ sur ]0,+∞[×]0, 1[. De plus J(φ−1)(s, t) = −s. La densite de (S, T )est donc (prop. 2.4.2)

hS,T (s, t) =ca+b

Γ(a)Γ(b)e−cssa+b−1ta−1(1− t)b−11]0,+∞[(s)1]0,1[(t).

Page 47: Universit´e Pierre et Marie Curie Master de sciences et

47

Le lem. 2.4.1 montre que S et T sont independantes, que S a pour densite

hS(s) =ca+b

Γ(a+ b)e−cssa+b−11]0,+∞[(s)

i.e. S ∼ G(a+ b, c) et que T a pour densite

hT (t) =Γ(a+ b)Γ(a)Γ(b)

ta−1(1− t)b−11]0,1[(t).

Puisque hT est une densite de probabilite, on a montre au passage la formule∫ 1

0ta−1(1− t)b−1 dt =

Γ(a)Γ(b)Γ(a+ b)

.

2.4.3. Soient U et V deux v.a.r. de carre integrable. On appelle covariance de U etV la quantite

Cov(U, V ) = E[(U − E(U))(V − E(V ))] = E(UV )− E(U)E(V ).

(U, V ) 7→ Cov(U, V ) est une forme bilineaire et Cov(U,U) = Var(U). Si U et V sontindependantes, Cov(U, V ) = 0. On appelle coefficient de correlation de U et V laquantite

ρU,V =Cov(U, V )σUσV

.

On a |ρU,V | ≤ 1 et |ρU,V | = 1 ssi aU + bV + c = 0 p.s.Plus generalement on pose, pour X ∈ L2

d

K(X) = E[(X − E(X))(X − E(X))T] = E(XXT)− E(X)[E(X)]T. (2.9)

K(X) s’appelle la matrice de covariance de X. On a Kij(X) = Cov(Xi, Xj). Notonsque, si les composantes X1, . . . , Xd sont independantes, K(X) est diagonale.

Proposition 2.4.3. Soit X ∈ L2d. On a

(i) K(αX) = α2K(X), α ∈ R; K(X + a) = K(X), a ∈ Rd; KT(X) = K(X).(ii) Pour tout λ ∈ Rd, λTK(X)λ ≥ 0.(iii) Soit M une matrice deterministe r × d, on a K(MX) = MK(X)MT.

Preuve: (i) resulte de la definition (2.9).

(ii) Vu (i), on peut supposer E(X) = 0. Alors

λTK(X)λ = λTE(XXT)λ = E(λTXXTλ) = E|λTX|2 ≥ 0.

(iii) Vu (i), on peut supposer E(X) = 0. Alors

K(MX) = E(MX(MX)T) = E(MXXTMT) = ME(XXT)MT = MK(X)MT.

Les points (i) et (ii) montrent que K(X) est symetrique semi-definie positive.

Page 48: Universit´e Pierre et Marie Curie Master de sciences et

48 Notions de probabilites

Theoreme 2.4.4. Soient X,Y ∈ L2d des vecteurs aleatoires independants, on a

K(X+Y ) = K(X)+K(Y ). En particulier, si d = 1, Var(X+Y ) = Var(X)+Var(Y )si les v.a.r. X et Y sont independantes.

Preuve: On peut supposer E(X) = E(Y ) = 0. Alors K(X + Y ) = E((X + Y )(X +Y )T) = E(XXT) + E(Y Y T) puisque, vu l’independance, E(XY T) = E(X)E(Y T) = 0et de meme E(Y XT) = 0.

Proposition 2.4.5. Soit X ∈ L2d. On a P(X − E(X) ∈ ImK(X)) = 1.

Preuve: Comme toujours on peut supposer E(X) = 0. Soit V = ImK(X). Sidim(V ) = d, il n’y a rien a montrer. Supposons dim(V ) = r < d. Il existe a1, . . . , ad−r ∈Ker(X) tels que x ∈ V ssi aTkx = 0, k = 1, . . . , d − r (pour voir cela il suffit de seplacer dans une base ou K(X) est diagonale). On a alors, vu la prop. 2.4.3,

E(aTkX)2 = Var(aTkX) = K(aTkX) = aTkK(X)ak = 0

d’ou aTkX = 0 p.s. et X ∈ V p.s.

2.5. Fonctions caracteristiques

2.5.1. Soient X et Y deux v.a. independantes a valeurs Rd. On pose S = X + Y .Cherchons la loi de S. On a, pour toute f ∈ B+(Rd),

E(f(S)) = E(f(X + Y )) =∫f(x+ y) dµX(x)dµY (y) =

∫f dµX ∗ µY .

Ceci d’apres (1.20). On peut donc enoncer:

Proposition 2.5.1. Soient X et Y deux v.a. independantes a valeurs Rd. On aµX+Y = µX ∗ µY .

Comme on sait, pour calculer des produits de convolution, on utilise souvent latransformee de Fourier introduite section 1.8.

2.5.2. Fonction caracteristique.

Definition 2.5.2. Soit X une v.a. a valeurs Rd. On appelle fonction caracteristiquede X la fonction sur Rd

φX(t) := µX(t) = E(ei<t,X>). (2.10)

Proprietes elementaires. (i) φX est continue, φX(0) = 1, |φX(t)| ≤ 1.

(ii) φαX+b(t) = ei<t,b>φX(αt), α ∈ R, b ∈ Rd; φ−X(t) = φX(t); si µ−X = µX , φX estreelle.

Le th. 1.8.4 devient:

Page 49: Universit´e Pierre et Marie Curie Master de sciences et

49

Theoreme 2.5.3. Soient X et Y deux v.a. a valeurs Rd. Si φX = φY , µX = µY . SiφX ∈ L1(λ), µX = h.λ avec

h(x) = (2π)−d∫

e−i<t,x>φX(t) dt.

On a egalement:

Theoreme 2.5.4. Soient X et Y deux v.a. independantes a valeurs Rd. On a φX+Y =φXφY .

Preuve: En fait cela se montre immediatement grace au cor. 2.2.9

φX+Y (t) = E(ei<t,X+Y >) = E(ei<t,X>ei<t,Y >) = E(ei<t,X>)E(ei<t,Y >) = φX(t)φY (t).

Le theoreme suivant est souvent appele “critere Fourier d’independance”.

Theoreme 2.5.5. Des v.a. X1,. . . ,Xn a valeurs Rd1 , . . . ,Rdn sont independantes ssi,pour tous t1 ∈ Rd1 , . . . , tn ∈ Rdn,

φ(X1,...,Xn)(t1, . . . , tn) = φX1(t1) . . . φXn(tn).

Preuve: En effet cette condition est equivalente (th. 2.5.3) a µ(X1,...,Xn) = µX1 ⊗. . .⊗ µXn ce qui equivaut (th. 2.2.7) a l’independance de X1, . . . , Xn.

Proposition 2.5.6. Soit X une v.a. a valeurs Rd.(i) Si X ∈ L1

d, φX est derivable et ∂φX∂tk

(t) = iE(Xkei<t,X>). En particulier ∂φX∂tk

(0) =iE(Xk).(ii) Si X ∈ L2

d, φX est deux fois derivable et ∂2φX∂tj∂tk

(t) = −E(XjXkei<t,X>). En

particulier ∂2φX∂tj∂tk

(0) = −E(XjXk).

Preuve: (i) On remarque que | ∂∂tk ei<t,X>| = |Xk| ∈ L1 et on applique la prop. 1.3.8.

(ii) On continue....

Il est facile de voir en appliquant la prop. 1.3.8 que si X ∈ Lmd , φX est m foisderivable et qu’on peut calculer sa derivee en derivant sous le signe E. Reciproquementon a ,

Proposition 2.5.7. Soit X une v.a. a valeurs Rd. Si φX est 2m fois derivable en 0,m entier, X ∈ L2m

d .

Preuve: On se limite a d = 1, m = 1. On pose φ = φX et µ = µX . On a φ”(0) =limh→0

1h2 (φ(h) + φ(−h)− 2φ(0)) et

φ(h) + φ(−h)− 2φ(0) =∫

(eihx + e−ihx − 2) dµ(x) = −4∫

sin2 hx

2dµ(x).

Page 50: Universit´e Pierre et Marie Curie Master de sciences et

50 Notions de probabilites

Appliquant le lemme de Fatou (prop. 1.3.5), on a

−φ”(0) = limh

4∫

sin2 hx2

h2dµ(x) ≥ 4

∫lim inf

h

sin2 hx2

h2x2x2 dµ(x) =

∫x2 dµ(x).

2.5.3. Fonctions caracteristiques usuelles (voir le 2.3.2. pour les definitions).

a. Loi binomiale B(n, p). Si X ∼ B(n, p), on a

φX(t) = E(eitX) =n∑k=0

Ckn pk(1− p)n−keitk = (peit + 1− p)n.

Cette formule montre que, si X ∼ B(n, p) et Y ∼ B(m, p), X,Y independantes, alorsX + Y ∼ B(n+m, p). En particulier si X1, . . . , Xn sont des v.a. independantes avecP(Xk = 1) = p, P(Xk = 0) = 1− p, Sn = X1 + . . .+Xn ∼ B(n, p).

b. Loi de Poisson P(λ). Si X ∼ P(λ)

φX(t) = E(eitX) =∞∑k=0

e−λλk

k!eitk = exp(λ(eit − 1)).

Si X ∼ P(λ) et Y ∼ P(µ), X,Y independantes, alors X + Y ∼ P(λ+ µ).

c. Loi gamma G(a, c). Si X ∼ G(a, c), on a, φX(t) = ca

Γ(a)

∫ +∞0 eitxe−cxxa−1 dx. Util-

isant la prop. 1.3.8 et integrant par partie, on obtient

φ′X(t) =ica

Γ(a)

∫ +∞

0eitxe−cxxa dx =

−iaca

Γ(a)(it− c)

∫ +∞

0eitxe−cxxa−1 dx =

ia

c− itφX(t)

d’ou φX(t) = (1 − itc )−a puisque φX(0) = 1. Noter que pour a /∈ N, on prend

la determination continue valant 1 en 0. Si X ∼ G(a, c) et Y ∼ G(b, c), X,Yindependantes, alors X + Y ∼ G(a+ b, c). En particulier si X1, . . . , Xn sont des v.a.independantes de meme densite λe−λx1R+ et donc de loi G(1, λ), Sn = X1+. . .+Xn ∼G(n, λ) et a pour densite λn

(n−1)!e−λxxn−11R+ .

d. Loi normale N1(m,σ2). On a

Lemme 2.5.8. Pour tout z ∈ C, f(z) := 1√2π

∫ +∞−∞ ezxe−x

2/2 dx = ez2/2.

Preuve: On a, pour tout λ ∈ R,

1 =1√2π

∫ +∞

−∞e−x

2/2 dx =1√2π

∫ +∞

−∞e−(x−λ)2/2 dx = f(λ)e−λ

2/2

d’ou f(λ) = eλ2/2. Par ailleurs on voit facilement que la fonction f(z) est holomorphe

sur C. Comme il en est de meme de ez2/2, f(λ) = eλ

2/2 pour tout λ ∈ R impliquef(z) = ez

2/2 pour tout z ∈ C.

Page 51: Universit´e Pierre et Marie Curie Master de sciences et

51

Donc si Y ∼ N1(0, 1), E(ezY ) = ez2/2. Soit X = m+ σY , alors X ∼ N1(m,σ2) et

E(ezX) = emzE(ezσY ), d’ou la formule:

E(ezX) = emzeσ2z2/2, z ∈ C, X ∼ N1(m,σ2). (2.11)

En particulier,

φX(t) = exp(itm− σ2t2

2), X ∼ N1(m,σ2). (2.12)

On en deduit immediatement

Proposition 2.5.9. Si X ∼ N1(m,σ2) et Y ∼ N1(l, ρ2), X,Y independantes, alorsX + Y ∼ N1(m+ l, σ2 + ρ2).

2.5.4. Transformation de Laplace. On peut aussi utiliser la transformation de Laplace.Soit X une v.a. reelle de loi µX . On appelle transformee de Laplace de X (ou plutotde µX) la fonction definie sur R

ψX(λ) = E(eλX) =∫

eλx dµX(x). (2.13)

On pose D(ψX) = λ, ψX(λ) < +∞). Considerant la restriction de µX a R+ et R−,on voit facilement que D(ψX) est un intervalle contenant 0 (mais pouvant etre reduita 0). On peut montrer:

Proposition 2.5.10. Si, pour tout λ ∈ I ouvert non vide, ψX(λ) = ψY (λ) < +∞,alors µX = µY .

On suppose que ] − λ0, λ0[⊂ D(ψX), λ0 > 0. Vu que e|λx| ≤ eλx + e−λx, e|λx| =∑n≥0

|λx|nn! ∈ L1(µX) pour tout |λ| < λ0. On en deduit facilement que

ψX(λ) =∑n≥0

λn

n!E(Xn) (2.14)

et que E(Xn) = ψ(n)X (0).

Supposons que X ∼ N1(0, σ2). On a alors, d’apres le lem. 2.5.8, ψ(λ) = E(eλX) =exp(λ

2σ2

2 ). Vu que

exp(λ2σ2

2) =

∞∑n≥0

1n!

(σ2λ2

2)n =

∞∑n≥0

1.3. . . . .(2n− 1)(2n)!

σ2nλ2n,

on a E(X2n+1) = 0 etE(X2n) = 1.3. . . . .(2n− 1)σ2n. (2.15)

2.5.5. Fonctions generatrices. Soit X une v.a. a valeurs N de loi µX(n) = P(X = n).On appelle fonction generatrice de X la fonction definie pour u ∈ [−1,+1] par

gX(u) = E(uX) =∞∑n=0

µX(n)un, (2.16)

Page 52: Universit´e Pierre et Marie Curie Master de sciences et

52 Notions de probabilites

ou l’on a convenu que u0 ≡ 1 (y compris pour u = 0). Notons que ψX(λ) = gX(e−λ),λ ≥ 0.

Il resulte de la prop. 1.3.8 (ou des resultats classiques sur les series entieres) que,pour |u| < 1, g′X(u) = E(XuX−1), g′′X(u) = E(X(X − 1)uX−2), d’ou l’on deduit que,si E(X) < +∞, E(X) = g′X(1), si E(X2) < +∞, E(X(X − 1)) = g′′X(1),. . .

Ici encore on verifie facilement qu’on a gX+Y = gXgY si X et Y sont des v.a.entieres independantes.

On a egalement un critere d’independance. Si X et Y sont des v.a. entieres, onappelle fonction generatrice de (X,Y ), la fonction definie pour u, v ∈ [−1,+1], par

g(X,Y )(u, v) = E(uXvY ) =∞∑n=0

P(X = n, Y = m)unvm. (2.17)

Alors les v.a. X et Y sont independantes ssi, pour tous u, v dans un voisinage de(0, 0), g(X,Y )(u, v) = gX(u)gY (v).

2.6. Vecteurs gaussiens

2.6.1. On dit qu’une probabilite µ sur R est gaussienne si elle a pour densite (2.7)ou si µ = δm. Il est normal d’adjoindre les mesures de Dirac aux lois gaussiennes carla loi N1(m,σ2) converge en un certain sens vers δm lorsque σ → 0. Une v.a. reelleest dite gaussienne si sa loi est gaussienne.

Definition 2.6.1. Un vecteur aleatoire X = (X1, . . . , Xd) est dit gaussien si, pourtout a ∈ Rd, aTX = a1X1 + . . .+ adXd est une v.a.r. gaussienne.

En particulier chaque composante Xk est une v.a.r. gaussienne mais cela ne suffitpas a assurer que le vecteur X est gaussien.

On appelle loi gaussienne sur Rd toute loi d’un vecteur gaussien.

Exemples. (i) X = 0 ∈ Rd est un vecteur gaussien.

(ii) Soit X = (X1, . . . , Xd) avec X1, . . . , Xd independants de meme loi N1(0, 1). Alors(prop. 2.5.9) a1X1 + . . .+ adXd ∼ N1(0, a2

1 + . . .+ a2d) et X est un vecteur gaussien.

Cette notion est invariante par transformation lineaire, plus precisement:

Lemme 2.6.2. Soit X un vecteur gaussien a valeurs Rd de moyenne m et de matricede covariance K. Pour tous b ∈ Rr et M matrice r × d, Y = b+MX est un vecteurgaussien a valeurs Rr, de moyenne b+Mm et de matrice de covariance MKMT

Preuve: En effet aTY = aTb + (aTM)X est une v.a.r. gaussienne. On a E(Y ) =b+ME(X) = b+Mm et (prop. 2.4.3) K(Y ) = K(MX) = MK(X)MT = MKMT.

Theoreme 2.6.3. Soit X un vecteur aleatoire de moyenne m et de matrice de co-variance K. Le vecteur X est gaussien ssi sa fonction caracteristique est donnee par

φX(t) = exp(itTm− 12tTKt). (2.18)

Page 53: Universit´e Pierre et Marie Curie Master de sciences et

53

Preuve: (i) Supposons X gaussien. Alors (lem. 2.6.2) tTX ∼ N1(tTm, tTKt) etφtTX(1) = E(eit

TX) = exp(itTm− 12 t

TKt) d’ou (2.18).

(ii) Supposons (2.18). Alors φaTX(u) = E(eiuaTX) = exp(iuaTm− 1

2u2aTKa) donc aTX

est une v.a.r. gaussienne et X un vecteur gaussien.

Toute loi gaussienne sur Rd est donc determinee par sa moyenne m et sa matrice decovariance K. On note Nd(m,K) une telle loi. On a vu (exemple (ii)) que Nd(0, Id)existe mais on n’a pas etabli l’existence dans le cas general. Pour cela, on utilise:

Lemme 2.6.4. Soit K une matrice d× d symetrique semi-definie positive. Il existeune matrice d× d symetrique semi-definie positive A telle que K = A2.

Preuve: Soient λ1, . . . , λd les valeurs propres de K (elles sont ≥ 0). Il existe unematrice orthogonale C (i.e. CTC = I) telle que CTKC = D = diag(λ1, . . . , λd) oudiag(λ1, . . . , λd) designe la matrice diagonale ayant λ1, . . . , λd sur la diagonale. On aalors CDCT = K. Soit ∆ = diag(

√λ1, . . . ,

√λd). On pose A = C∆CT. On a,

A2 = C∆CTC∆CT = C∆2CT = CDCT = K.

Appliquant le lem. 2.6.2, on a que, si X ∼ Nd(0, Id), Y = m+ AX ∼ Nd(m,K). Ona montre:

Theoreme 2.6.5. Etant donnes m ∈ Rd et une matrice d × d symetrique semi-definie positive K, il existe une et une seule loi gaussienne sur Rd de moyenne m etde matrice de covariance K.

2.6.2. Vecteurs gaussiens et independance.

Theoreme 2.6.6. Soient X = (X1, . . . , Xd) un vecteur gaussien.(i) Les v.a.r. X1, . . . , Xd sont independantes ssi la matrice de covariance K(X) estdiagonale.(ii) On pose

Y1 = (X1, . . . , Xd1), Y2 = (Xd1+1, . . . , Xd2), . . . Yr = (Xdr−1+1, . . . , Xd).

Les vecteurs (Y1, . . . , Yr) sont independants ssi Ki j(X) = Cov(Xi, Xj) = 0 pour tousi, j n’appartenant pas au meme intervalle [1, d1], [d1 + 1, d2], . . . , [dr−1 + 1, d].

Preuve: Seule la suffisance demande une preuve.

(i) Supposons K(X) diagonale. On a K(X) = diag(σ21, . . . , σ

2d) ou σ2

k = Var(Xk).Alors, notant m = E(X),

φX(t) = exp(id∑

k=1

mktk −12

d∑k=1

σ2kt

2k) =

d∏k=1

exp(imktk −12σ2kt

2k) = φX1(t1) . . . φXd

(td)

et donc (prop. 2.5.5) les Xk sont independantes.

Page 54: Universit´e Pierre et Marie Curie Master de sciences et

54 Notions de probabilites

(ii) Supposons la condition sur les covariances realisees. Elle implique, pour tousu1 ∈ Rd1 , u2 ∈ Rd2−d1 , . . . et p 6= q, Cov(uTpYp, u

TqYq) = 0. Donc, d’apres (i), les v.a.r.

uT1Y1, . . . , uTrYr sont independantes. On a alors

E(ei(uT1Y1+...+uTrYr)) = E(eiu

T1Y1) . . .E(eiu

TrYr)

et (prop. 2.5.5) les v.a. Y1, . . . , Yr sont independantes.

Remarque. Attention a l’utilisation du th. 2.6.6. On peut avoir X et Y v.a.r.gaussiennes, Cov(X,Y ) = 0 sans que les v.a. X et Y soient independantes. Parexemple si X ∼ N1(0, 1), si U est une v.a. independante de X telle que P(U =1) = P(U = −1) = 1

2 et si Y = UX, on verifie facilement que Y ∼ N1(0, 1). On aCov(X,Y ) = E(XY ) = E(UX2) = E(U)E(X2) = 0 et |X| = |Y | donc X et Y nesont pas independantes. En fait le couple (X,Y ) n’est pas gaussien.

2.6.3. Le cas non degenere. On dit que la loi Nd(m,K) est non degeneree si det(K) 6=0. Dans ce cas:

Theoreme 2.6.7. Si X ∼ Nd(m,K) et si det(K) 6= 0, X admet la densite

hm,K(x) = (2π)−d2 (det(K))−

12 exp(−1

2(x−m)TK−1(x−m)).

Preuve: Soit A une matrice d×d telle que K = AAT, on a det(A) = (det(K))1/2 et Aest inversible. Soit Y ∼ Nd(0, Id) un vecteur gaussien de densite (2π)−d/2 exp(− |y|2

2 ).On a (lem. 2.6.2) Y = m+AY ∼ Nd(m,K) et, pour f ∈ B+(Rd),

E(f(X)) = E(f(m+AY )) = (2π)−d2

∫f(m+Ay) exp(−|y|

2

2) dy.

On effectue le changement de variable y = A−1(x−m), on a D(y)D(x) = det(A−1) et

E(f(X)) = (2π)−d2 det(A−1)

∫f(x) exp(−1

2(x−m)T(A−1)TA−1(x−m)) dx.

Comme K−1 = (AAT)−1 = (A−1)TA−1, on a la formule annoncee.

2.7. Convergence des suites de variables aleatoires

On presente les differents types de convergence puis on enonce la loi des grandsnombres.

2.7.1. Les differents modes de convergence.

Definition 2.7.1. Soient Xn et X des v.a. a valeurs Rd.(i) On dit que Xn converge en probabilite vers X si, pour tout ε > 0, P(|Xn −X| >ε) →n 0.

Page 55: Universit´e Pierre et Marie Curie Master de sciences et

55

(ii) On dit que Xn converge presque surement (en abrege p.s.) vers X si, pour toutω /∈ N , N negligeable, Xn(ω) →n X(ω).(iii) On dit que Xn converge vers X dans Lp, 1 ≤ p < +∞, si |Xn| et |X| sont dansLp et si E|Xn −X|p →n 0.

La convergence dans L1 s’appelle aussi la convergence en moyenne, la conver-gence dans L2 s’appelle aussi la convergence en moyenne quadratique. On verifieimmediatement que Xn = (X1

n, . . . , Xdn) converge vers X = (X1 . . . , Xd) en un des

sens ci-dessus ssi, pour k = 1, . . . , d, Xkn converge vers Xk dans le meme sens. On ne

considerera donc plus que des v.a. reelles.

On note, pour X v.a.r., ||X||p = (E|X|p)1p . Vu l’inegalite de Holder (1.13), on a, pour

1 ≤ p ≤ q, ||X||p ≤ ||X||q et donc la convergence dans Lq implique la convergencedans Lp. En particulier la convergence dans L2 implique la convergence dans L1.

Proposition 2.7.2. La convergence dans L1 implique la convergence en probabilite,la convergence p.s. implique la convergence en probabilite.

Preuve: (i) D’apres l’inegalite de Markov (prop. 2.3.3), P(|Xn−X| > ε) ≤ ε−1E|Xn−X| ce qui montre le premier point.

(ii) Supposons que Xn converge p.s. vers X. Alors, pour tout ε > 0, 1|Xn−X|>ε →n 0p.s. et est manifestement borne par 1, donc (th. de Lebesgue) P(|Xn − X| > ε) =E(1|Xn−X|>ε) →n 0.

Notons que si Xn converge en probabilite vers X et vers Y , on a P(|X − Y | > ε) ≤P(|X −Xn| > ε

2) + P(|Xn− Y | > ε2) →n 0 et donc P(|X − Y | > 0) = 0 et X = Y p.s.

Ceci implique, vu la prop. 2.7.2, que les limites de Xn en les differents sens definisci-dessus sont p.s. uniques et egales.

Exemple. Soit Xn une suite de v.a.r. independantes telles que P(Xn = an) = pn,P(Xn = 0) = 1− pn. On suppose 0 < pn < 1, pn →n 0 et an ≥ 1.

a. On a, pour ε ∈]0, 1[, P(|Xn| > ε) = P(Xn > ε) = pn et Xn →n 0 en probabilite.

b. On a∑

P(Xn > 0) =∑pn donc, si

∑pn < +∞, on a (prop. 2.2.11) que Xn > 0

n’a p.s. lieu que pour un nombre fini de n donc Xn →n 0 p.s. Reciproquement si∑pn = +∞, on a (prop. 2.2.11) que Xn = an a p.s. lieu pour une infinite de n

donc Xn ne converge pas p.s. vers 0. Donc Xn →n 0 p.s. ssi∑pn < +∞.

c. E|Xn| = E(Xn) = anpn. Donc Xn →n 0 dans L1 ssi anpn →n 0.

d. E(Xn)2 = a2npn. Donc Xn →n 0 dans L2 ssi a2

npn →n 0.

Si on choisit pn = 1n , an = 1, Xn converge vers 0 dans L1 mais pas p.s. Si on choisit

pn = 1n2 , an = n2, Xn converge vers 0 p.s. mais pas dans L1. Si on choisit pn = 1

n2 ,an = n, Xn converge vers 0 dans L1 mais pas dans L2.

2.7.2. Criteres de convergence.

Page 56: Universit´e Pierre et Marie Curie Master de sciences et

56 Notions de probabilites

Proposition 2.7.3. Soit Xn une suite de v.a.r. Si∑

P(|Xn+1 − Xn| > εn) < +∞pour une suite εn > 0 verifiant

∑εn < +∞, la suite Xn converge p.s.

Preuve: D’apres le lemme de Borel-Cantelli (prop. 2.2.11), pour tout ω /∈ N , Nnegligeable, il existe n0(ω) tel que, pour tout n ≥ n0(ω), |Xn+1(ω) − Xn(ω)| ≤ εn.On a donc, pour n > m ≥ n0(ω),

|Xn(ω)−Xm(ω)| ≤n−1∑k=m

|Xk+1(ω)−Xk(ω)| ≤n−1∑k=m

εk.

Vu la convergence de∑εn, ceci implique que Xn(ω) est une suite de Cauchy et donc

Xn(ω) converge.

Corollaire 2.7.4. De toute suite Xn convergeant en probabilite, on peut extraire unesous-suite Xnk

convergeant p.s.

Preuve: Vu que, pour tout k, P(|Xn −X| > 2−(k+1)) →n 0, on peut construire unesuite croissante nk telle que P(|Xnk

−X| > 2−(k+1)) ≤ 2−(k+1). On a alors,

P(|Xnk+1−Xnk

| > 2−k) ≤ P(|Xnk+1−X| > 2−(k+1))+P(|Xnk

−X| > 2−(k+1)) ≤ 2−k.

D’ou (prop. 2.7.3) Xnkconverge p.s.

On a aussi le critere simple de convergence p.s. vers 0 suivant.

Lemme 2.7.5. Si, pour tout ε > 0,∑

P(|Xn| > ε) < +∞, Xn converge p.s. vers 0.

Preuve: Soit A(ε) = lim sup|Xn| > ε, on a (lemme de Borel-Cantelli) P(A(ε)) = 0.Soit A = ∪pA(1

p), P(A) = 0. Si ω 6= A, pour tout p, il existe n0(ω) tel que, pour toutn ≥ n0(ω), |Xn(ω)| ≤ 1

p i.e. Xn(ω) → 0.

Il est tres interessant d’avoir des criteres de type Cauchy.

Proposition 2.7.6. Soit Xn une suite de v.a.r.(i) Xn converge en probabilite ssi, pour tout ρ > 0, supk P(|Xn+k −Xn| > ρ) →n 0,(ii) Xn converge dans Lp (1 ≤ p < +∞) ssi supk E(|Xn+k −Xn|p) →n 0,(iii) Xn converge p.s. ssi, pour tout ρ > 0, P(supk |Xn+k −Xn| > ρ) →n 0.

Preuve: (i) Supposons que, pour tout ρ > 0, supk P(|Xn+k − Xn| > ρ) →n 0. Onpeut alors construire une suite croissante d’entiers nr telle que P(|Xnr+1 − Xnr | >2−r) ≤ 2−r et donc (prop. 2.7.3) Xn converge p.s. et a fortiori en probabilite vers unev.a. X. Alors, etant donne ε > 0,

P(|Xn −X| > ρ) ≤ P(|Xn −Xnr | > ρ/2) + P(|X −Xnr | > ρ/2) < ε

pour tout n ≥ nr si on choisit r assez grand et Xn → X en probabilite. Vu queP(|Xn+k −Xn| > ρ) ≤ P(|Xn+k −X| > ρ/2) + P(|Xn −X| > ρ/2), la reciproque estimmediate.

Page 57: Universit´e Pierre et Marie Curie Master de sciences et

57

(ii) Ceci n’est rien d’autre que la completude de Lp (th. 1.4.11).

(iii) Supposons que, pour tout ρ > 0, P(supk |Xn+k − Xn| > ρ) →n 0. Soit Vn =supi,j≥n |Xi−Xj |, alors Vn ↓ V et Xn converge p.s. ssi V = 0 p.s. (critere de Cauchy).Mais P(Vn > ρ) ≤ P(supk≥1 |Xn+k − Xn| > ρ/2) →n 0 ce qui implique que V = 0p.s. Reciproquement si Xn converge p.s., supk |Xn+k − Xn| →n 0 p.s. et aussi enprobabilite.

2.7.3. Un autre resultat utile est tres utile.

Proposition 2.7.7. Soient p ≥ 1 et Xn une suite de v.a.r. convergeant en probabilitevers X. On suppose soit (i) Y = supn |Xn| ∈ Lp, soit (ii) supn E|Xn|r < +∞ pourun r > p. Alors Xn →n X dans Lp.

Preuve: D’apres le cor. 2.7.4, il existe une sous-suite Xnkconvergeant p.s. vers X.

Sous (i), on a p.s. |X| ≤ Y et |Xn −X| ≤ 2Y d’ou, pour tous ε et M ,

E|Xn −X|p ≤ εp + E(|Xn −X|p1|Xn−X|>ε) ≤ εp + 2pE(Y p1|Xn−X|>ε)≤ εp + 2pMpP(|Xn −X| > ε) + 2pE(Y p1Y >M).

Donc lim supn E|Xn − X|p ≤ εp + 2pE(Y p1Y >M), quantite arbitrairement petitepuisque (Lebesgue) limM→+∞ E(Y p1Y >M) = 0.

Sous (ii), on a (lemme de Fatou) E|X|r ≤ lim infk E|Xnk|r ≤ supn E|Xn|r < +∞ et

donc B = supn E|Xn −X|r < +∞. Alors, appliquant l’inegalite de Holder,

E|Xn −X|p = εp + E(|Xn −X|p1|Xn−X|>ε)

≤ εp + (E|Xn −X|r)pr P(|Xn −X| > ε)

r−pr

et lim supn E|Xn −X|p ≤ εp.

Remarque. En fait ce resultat est une consequence de l’integrabilite uniforme. Voira ce sujet la section 2.10.

2.7.4. Loi des grands nombres.

Proposition 2.7.8. Soit Xn une suite de v.a.r. de carre integrable. On suppose quesupnVar(Xn) = K < +∞, que Cov(Xi, Xj) = 0, i 6= j et que 1

n(E(X1) + . . . +E(Xn)) →n m. Alors

1n

(X1 + . . .+Xn) →n m p.s. et dans L2.

Preuve: On pose Sn = X1+. . .+Xn. Puisque Sn =∑n

k=1(Xk−E(Xk))+∑n

k=1 E(Xk),on peut supposer E(Xk) ≡ 0 ce qu’on fait dorenavant.

(i) Puisque E(XiXj) = 0, i 6= j, on a E(S2n) =

∑nk=1 E(X2

k) ≤ Kn. Donc E(Snn )2 →n 0

i.e. Snn →n 0 dans L2.

Page 58: Universit´e Pierre et Marie Curie Master de sciences et

58 Notions de probabilites

(ii) On a P(|Sn2 |/n2 > ε) = P(|Sn2 | > εn2) ≤ E(S2n2)/ε2n4 ≤ K/ε2n2. Donc (lem.

2.7.5) Sn2/n2 →n 0 p.s.

(iii) On pose Wn = sup(|Sk − Sn2 |, n2 + 1 ≤ k ≤ (n + 1)2). On a P(Wn/n2 >

ε) ≤ E(W 2n)/ε2n4. Mais W 2

n ≤∑(n+1)2

k=n2+1(Sk − Sn2)2 et E(W 2

n) ≤ K(2n + 1)2. DoncP(Wn/n

2 > ε) ≤ K(2n+ 1)2/ε2n4 et ((lem. 2.7.5) Wn/n2 →n 0 p.s.

(iv) Notons mn la partie entiere de√n. On a mn ≤

√n ≤ mn + 1 et

|Snn−Sm2

n

m2n

| ≤|Sn − Sm2

n|

n+ |Sm2

n|( 1m2n

− 1n

) ≤ Wmn

m2n

+|Sm2

n|

m2n

(1− m2n

n).

Par definition m2nn →n 1, vu (iii), Wmn

m2n→n 0 p.s. et, vu (ii),

Sm2

nm2

n→n 0 p.s. Ceci

montre que Snn →n 0 p.s.

Considerons maintenant une suite Xn de v.a.r. independantes de meme loi avecE(X2

1 ) < +∞. On peut appliquer la prop. 2.7.8 et l’on a Snn →n E(X1) p.s. et dans

L2. C’est la loi forte des grands nombres. En fait il suffit d’avoir E|X1| < +∞ (voirle th. 4.4.13) et l’on a:

Theoreme 2.7.9. Soit Xn une suite de v.a.r. independantes et de meme loi avecE|X1| < +∞. On a

1n

(X1 + . . .+Xn) →n E(X1) p.s. et dans L1.

2.8. Convergence en loi

2.8.1. Convergence de probabilites. On noteM1 l’ensemble des probabilites sur B(Rd).Soient µn, µ ∈M1. On veut donner un sens a “µn converge vers µ”. Il semble naturelde demander que, pour tout A ∈ B(Rd), µn(A) → µ(A) mais ceci est tres fort. Parexemple, sur R, si µn = δ 1

net µ = δ0, on a µn(]0, 1]) = 1 et µ(]0, 1]) = 0 et donc,

en ce sens, µn ne converge pas vers µ. C’est pourquoi on introduit (rappelons que Cbdesigne l’ensemble des fonctions continues bornees sur Rd):

Definition 2.8.1. Soient µn, µ ∈M1. On dit que µn converge etroitement vers µ si,pour toute f ∈ Cb,

∫f dµn →n

∫f dµ.

Un critere tres utile est le suivant. Rappelons que H ⊂ C0 est total si e.v.[H] estdense dans C0 pour la norme ||f || = supx |f(x)|.

Proposition 2.8.2. Soient µn, µ ∈ M1. Si, pour toute f ∈ H, H total dans C0,∫f dµn →n

∫f dµ, µn converge etroitement vers µ.

Preuve: Montrons d’abord que, pour toute f ∈ C0,∫f dµn →n

∫f dµ. Soit V =

e.v.[H]. On a V = C0 et, pour toute g ∈ V ,∫g dµn →

∫g dµ. Soient f ∈ C0 et g ∈ V ,

Page 59: Universit´e Pierre et Marie Curie Master de sciences et

59

on a

|∫f dµn −

∫f dµ| ≤ |

∫f dµn −

∫g dµn|+ |

∫g dµn −

∫g dµ|+ |

∫g dµ−

∫f dµ|

≤ 2||f − g||+ |∫g dµn −

∫g dµ|.

On a donc lim supn |∫f dµn −

∫f dµ| ≤ 2||f − g||. Cette derniere quantite etant

arbitrairement petite,∫f dµn →n

∫f dµ.

Ceci fait, on a, pour f ∈ Cb et g ∈ Ck, 0 ≤ g ≤ 1,

|∫f dµn−

∫f dµ| ≤ |

∫f dµn−

∫fg dµn|+|

∫fg dµn−

∫fg dµ|+|

∫fg dµ−

∫f dµ|

≤ ||f ||(1−∫g dµn) + |

∫fg dµn −

∫fg dµ|+ ||f ||(1−

∫g dµ).

On a donc lim supn |∫f dµn−

∫f dµ| ≤ 2||f ||(1−

∫g dµ). Vu qu’il existe gn ∈ Ck, 0 ≤

gn ≤ 1, tels que gn ↑ 1 et qu’alors∫gn dµ ↑

∫1 dµ = 1, 1−

∫g dµ est arbitrairement

petit et∫f dµn →n

∫f dµ. Ceci montre que µn converge etroitement vers µ.

Il y a deus exemples particulierement interessants d’ensemble total dans C0 asavoir l’espace C∞k (cor. 1.4.4) et la famille (gσ(x− a), σ > 0, a ∈ Rd) (cor. 1.4.5).

L’exemple introductif montre que µn peut converger etroitement vers µ sans queµn(A) converge vers µ(A). La question est de savoir pour quels ensembles on a cette

convergence. On note ∂A = A \A la frontiere topologique de A i.e. la fermeture

moins l’interieur.

Proposition 2.8.3. Soient µn, µ ∈ M1. On suppose que µn converge etroitementvers µ. Alors, pour tout A ∈ B(Rd) tel que µ(∂A) = 0, µn(A) →n µ(A).

Preuve: Il existe fp, gp ∈ C+b telles que gp ↓ 1A, fp ↑ 1

A, alors

∫gp dµ ↓ µ(A) et∫

fp dµ ↑ µ(A). D’ou, vu l’hypothese,

∫(gp − fp) dµ→p 0.

Soit ε > 0. Il existe donc f, g ∈ Cb tellles que f ≤ 1A ≤ g et∫

(g − f) dµ < ε. Ona alors ∫

f dµn −∫g dµ ≤ µn(A)− µ(A) ≤

∫g dµn −

∫f dµ

d’ou lim supn |µn(A)− µ(A)| ≤∫

(g − f) dµ < ε. Ceci montre que µn(A) →n µ(A).

2.8.2. On considere des v.a. a valeurs Rd. Rappelons que si X est une telle v.a., onnote µX sa loi et φX sa fonction caracteristique.

Definition 2.8.4. On dit qu’une suite de v.a. Xn converge en loi vers une probabiliteµ (resp. une v.a. X) si la suite µXn converge etroitement vers µ (resp. vers µX).

Page 60: Universit´e Pierre et Marie Curie Master de sciences et

60 Notions de probabilites

La distinction entre convergence en loi vers µ ou vers X est une simple affaire delangage car en fait c’est la loi de Xn qui converge vers µ et donc vers la loi de X pourtoute v.a. X de loi µ. Vu la prop. 2.8.2, ceci equivaut, H etant total dans C0, a:

∀f ∈ H, E(f(Xn)) =∫f dµXn →n

∫f dµ (resp.E(f(X))). (2.19)

Examinons le lien entre la convergence en loi et les convergences des v.a. etudieesdans la section precedente.

Proposition 2.8.5. Si Xn converge en probabilite vers X, alors Xn converge en loivers X.

Preuve: Il suffit (2.19) de montrer que, pour toute f ∈ Ck, E(f(Xn)) →n E(f(X)).Soient donc f ∈ Ck et ε > 0. Il existe, f etant uniformement continue, α > 0 tel que|f(x)− f(y)| ≤ ε si |x− y| ≤ α. On a alors

|E(f(Xn))− E(f(X))| ≤ E(|f(Xn))− f(X)|1|Xn−X|≤α)+E(|f(Xn))− f(X)|1|Xn−X|>α) ≤ ε+ 2||f ||P(|Xn −X| > α)

d’ou lim supn |E(f(Xn))− E(f(X))| ≤ ε et E(f(Xn)) →n E(f(X)).

Exemple. Soir Xn une suite de v.a.r. telle que P(Xn = 1) = pn et P(Xn = 0) = 1−pnavec 0 < pn < 1. Xn →n 0 en probabilite ssi pn →n 0, Xn →n 1 en probabilite ssipn →n 0 et sinon ne converge pas en probabilite tandis que, vu que E(f(Xn)) =pnf(1) + (1− pn)f(0), Xn converge en loi ssi pn →n p. Ceci montre qu’en general laconvergence en loi n’implique pas la convergence en probabilite.

Noter enfin que la prop. 2.8.3 devient:

Proposition 2.8.6. Soit Xn une suite de v.a. convergeant en loi vers µ. Pour toutA ∈ B(Rd) tel que µ(∂A) = 0, on a P(Xn ∈ A) →n µ(A).

2.8.3. Convergence en loi et fonctions caracteristiques.

Theoreme 2.8.7. La suite Xn converge en loi vers µ (resp. vers X) ssi, pour toutt ∈ Rd, φXn(t) →n µ(t) (resp. φX(t)).

Preuve: La condition est evidemment necessaire puisque fx(t) = ei<t,x> ∈ Cb.Reciproquement, notant µn la loi de Xn, on a φXn(t) = µn(t) et, d’apres (1.26)et le theoreme de Lebesgue,∫

gσ(x− a) dµn = (2π)−d/2∫g1(σt)e−i<a,t>µn(t) dt

→n (2π)−d/2∫g1(σt)e−i<a,t>µ(t) dt =

∫gσ(x− a) dµ.

Puisque H = (gσ(x − a), σ > 0, a ∈ Rd) est total dans C0, on conclut grace a laprop. 2.8.2.

Page 61: Universit´e Pierre et Marie Curie Master de sciences et

61

S’il est souvent facile de montrer que φXn(t) →n φ(t), il est plus delicat de montrerque φ(t) est une fonction caracteristique. De plus ce n’est pas toujours vrai. Donnonsun exemple. Soit Xn une suite de v.a.r. de loi uniforme sur [−n,+n]. On a φXn(0) = 1et, pour t 6= 0,

φXn(t) =12n

∫ n

−neitx dx =

sin(nt)nt

.

Donc φXn(t) →n 10(t) qui n’est pas une fonction caracteristique puisque pas con-tinue en 0. En fait, pour f ∈ Ck, il est immediat que

∫f dµXn →n 0 et µXn converge

en un sens faible vers 0. La reponse a ce probleme est donnee par le theoreme deLevy.

Theoreme 2.8.8. Soit Xn une suite de v.a. telle que, pour tout t ∈ Rd, φXn(t) →n

φ(t). Si φ est continue en 0, il existe une probabilite µ sur Rd telle que µ = φ et Xn

converge en loi vers µ.

Preuve: On note µn la loi de Xn. Puisque µn(Rd) = 1, il existe (th.1.9.9) une sous-suite µnk

telle que µnkconverge faiblement vers µ ∈Mb. On pose µ′k = µnk

. D’apres(1.26), on a, pour tout a ∈ Rd,∫

gσ(x− a) dµ′k(x) = (2π)−d/2∫

e−i<a,u>g1(σu)µ′k(u) du.

Passant a la limite en k, on a (justifier),∫gσ(x− a) dµ(x) = (2π)−d/2

∫e−i<a,u>g1(σu)φ(u) du.

On a donc vu (1.26), pour tout a ∈ Rd,∫e−i<a,u>g1(σu)µ(u) du =

∫e−i<a,u>g1(σu)φ(u) du.

D’ou (th.1.8.4) µ(u)g1(σu) = φ(u)g1(σu) λ p.p. et, g1 etant > 0, µ(u) = φ(u) λ p.p.Soit E = µ = φ, on a λ(Ec) = 0. Il existe donc xn ∈ E tel que xn → 0. On a, pourtout n, µ(xn) = φ(xn) et, les deux fonctions etant continues en 0, µ(Rd) = µ(0) =φ(0) = limn µn(0) = 1. Donc µ ∈M1 et (prop. 2.8.2) µ′k converge etroitement vers µ.On en deduit que φ = µ et que µn converge etroitement vers µ.

2.8.4. Convergence en loi et fonctions de repartition.

Proposition 2.8.9. Soient Xn une suite de v.a. reelles de fonctions de repartitionFn et µ une probabilite sur R de fonction de repartition F . Alors Xn converge en loivers µ ssi, pour tout t point de continuite de F , Fn(t) →n F (t).

Preuve: (i) Soit t un point de continuite de F . On a donc µ(t) = F (t)−F (t−) = 0.Soit A =]−∞, t], ∂A = t et µ(∂A) = 0 donc (prop. 2.8.3):

Fn(t) = µXn(]−∞, t]) →n µ(]−∞, t]) = F (t).

Page 62: Universit´e Pierre et Marie Curie Master de sciences et

62 Notions de probabilites

(ii) Si Fn(t) →n F (t) pour tout t point de continuite de F , on a, les points dediscontinuite de F etant au plus denombrables, Fn →n F λ p.p. Soient µn la loi deXn et H = C1

k . H etant total dans C0, pour montrer que Xn converge en loi vers µ,il suffit ( prop. 2.8.2) de montrer que

∫f dµn →n

∫f dµ pour toute f ∈ H. Si f ∈ H,

f(x) =∫ x−∞ f ′(t) dt et on a (Lebesgue):∫

f dµn =∫ +∞

−∞

∫ x

−∞f ′(t) dt dµn(x) =

∫ +∞

−∞f ′(t)

∫ +∞

tdµn(x) dt

=∫ +∞

−∞f ′(t)(1− Fn(t)) dt→n

∫ +∞

−∞f ′(t)(1− F (t)) dt =

∫f dµ.

On en deduit un cas particulier d’un resultat du a Skorokhod.

Corollaire 2.8.10. Soit Xn une suite de v.a.r. convergeant en loi vers X∞. Il existedes v.a.r. (pas necessairement definies sur le meme espace de probabilite) Yn, 1 ≤n ≤ +∞, telles que, pour 1 ≤ n ≤ +∞, loi de Yn = loi de Xn et Yn →n Y∞ presquesurement.

Preuve: Soient Fn et F les fonctions de repartition de Xn et X∞ et C(F ) l’ensembledes points de continuite de F . On pose F−1(u) = inf(t, F (t) ≥ u). Soient A = u ∈[0, 1], ∃t1 6= t2 tels que F (t1) = F (t2) = u et B = [0, 1] \ A. Noter que A estdenombrable. et que, pour tout u ∈ B, y < F−1(u) ⇒ F (y) < u et y > F−1(u) ⇒F (y) > u. On en deduit que, pour tout u ∈ B, F−1

n (u) →n F−1(u). En effet soient

u ∈ B et y ∈ C(F ) tels que y > F−1(u), on a F (y) > u et aussi (th. 2.8.9), pour n assezgrand, Fn(y) > u et y ≥ F−1

n (u) ce qui implique, C(F ) etant dense, lim supn F−1n (u) ≤

F−1(u). Considerant y ∈ C(F ) tel que y < F−1(u), on a, par un argument symetriqueque lim infn F−1

n (u) ≥ F−1(u). D’ou limn F−1n (u) = F−1(u) si u ∈ B. On considere

alors l’espace de probabilite ([0, 1],B([0, 1]), λ = mesure de Lebesgue) et soit U lav.a. U(u) = u. On pose Yn = F−1

n (U), Y∞ = F−1(U). D’apres le th. 2.3.7, Yn et Xn

ont meme loi et, pour tout u ∈ B, Yn(u) = F−1n (u) →n Y∞(u) = F−1(u) et, comme

λ(B) = 1, Yn →n Y∞ p.s.

2.8.5. Convergence en loi et convergence des esperances. Soit Xn une suite de v.a.reelles integrables convergeant en loi vers X. A-t-on E(Xn) →n E(X) ? En generalnon puisque la fonction f(x) = x est continue mais non bornee. Dans le sens positif,on a:

Proposition 2.8.11. Soit Xn une suite de v.a. reelles convergeant en loi vers X.On suppose qu’il existe α > 0 tel que supn E(|Xn|1+α) = M < +∞. Alors X ∈ L1 etE(Xn) →n E(X).

Preuve: Soit a > 0. On pose fa(x) = |x| ∧ a, ga(x) = −a ∨ (x ∧ a). Noter quefa, ga ∈ Cb et que

|ga(x)− x| ≤ |x|1|x|>a ≤|x|1+α

aα.

Page 63: Universit´e Pierre et Marie Curie Master de sciences et

63

D’une part

E(|X|1+α ∧ a) = E(fa(X)) = limn

E(fa(Xn)) ≤ E(|Xn|1+α) ≤M

d’ou, pour a ↑ +∞, E(|X|1+α) = lim ↑a E(|X|1+α ∧ a) ≤M . D’autre part

|E(Xn)− E(X)| ≤ E(|Xn − ga(Xn)|) + |E(ga(Xn))− E(ga(X))|+ E(|ga(X)−X|)

≤ E(|Xn|1+α)aα

+ |E(ga(Xn))− E(ga(X))|+ E(|X|1+α)aα

d’ou lim supn |E(Xn) − E(X)| ≤ 2Maα et le resultat cherche a etant arbitrairement

grand.

2.8.6. Le theoreme de la limite centrale.

Theoreme 2.8.12. Soit Xn une suite de v.a. de L2d independantes et de meme loi.

On pose m = E(X1), K = K(X1), Sn = X1 + . . . , Xn. Alors 1√n(Sn − nm) converge

en loi vers Nd(0,K).

Preuve: Il suffit de considerer le cas ou m = E(X1) = 0. On pose φ(t) = φX1(t). Vu

la prop. 2.5.6, ∂∂tkφ(0) = 0, ∂2

∂tjtkφ(0) = −Kj,k. On a donc

φ(t) = 1− 12tTKt+ |t|2ε(t) avec lim

t→0|ε(t)| = 0.

On en deduit

φ 1√n

Sn(t) = φSn(

t√n

) = (φ(t√n

))n = (1− 12ntTKt+

|t|2

nε(

t√n

))n →n exp(−12tTKt).

Ceci d’apres le lem. 2.8.13 ci-dessous. Donc 1√nSn converge en loi versNd(0,K) d’apres

le th. 2.8.7.

Lemme 2.8.13. Soient zn, z ∈ C tels que zn →n z, alors on a (1 + znn )n →n ez.

Preuve: Pour zn ∈ R, le resultat est classique. Remarquant que, pour a, b ∈ C, on a|an − bn| ≤ n|a− b| si |a| ≤ 1, |b| ≤ 1, on a

|(1 + zn

n )n

(1 + |zn|n )n

− ez

e|z|| = |(

1 + znn

1 + |zn|n

)n − (e

zn

e|z|n

)n| ≤ n |1 + zn

n

1 + |zn|n

− ezn

e|z|n

|

≤ n|(1 + zn

n ) e|z|n − (1 + |zn|

n ) ezn |

(1 + |zn|n ) e

|z|n

≤|zn + |z| − |zn| − z + ε( 1

n)|

(1 + |zn|n ) e

|z|n

→n 0.

Donc (1+ znn

)n

(1+|zn|

n)n→n

ez

e|z| et, vu que (1 + |zn|n )n →n e|z|, (1 + zn

n )n →n ez.

Page 64: Universit´e Pierre et Marie Curie Master de sciences et

64 Notions de probabilites

Corollaire 2.8.14. Soit Xn une suite de v.a.r. independantes, de meme loi, de carreintegrable. On pose m = E(X1), σ2 = Var(X1), Sn = X1 + . . . , Xn. Alors, pour−∞ ≤ a < b ≤ +∞,

P(a <Sn − nm

σ√n

< b) →n1√2π

∫ b

ae−

t2

2 dt.

Preuve: Ceci resulte du th. 2.8.12 et de la prop. 2.8.6.

Exemple. Soient X1, . . . , Xn, . . . une suite de v.a. reelles independantes et de memeloi de Poisson P(1) et Sn = X1 + . . .+Xn. On sait (2.5.3) que Sn ∼ P(n) et (2.3.2)que E(Sn) = n, Var(Sn) = n. Posons

Yn =Sn − n√

n.

D’apres le th. 2.8.12, Yn converge en loi vers Z ∼ N1(0, 1). Soit h(x) = (−x) ∧ 0, hest continue donc Y −n = h(Yn) converge en loi vers Z− = h(Z). Vu que E((Y −n )2) ≤E(Y 2

n ) = 1nVar(Sn) = 1, on a (prop. 2.8.11) E(Y −n ) →n E(Z−). Mais

E(Y −n ) = E(h(Yn)) =+∞∑k=0

h(k − n√

n)P(Sn = k) =

n∑k=0

n− k√n

e−nnk

k!

=e−n√nn∑k=0

nk+1

k!−

n∑k=1

nk

(k − 1)! =

e−n√n

nn+1

n!=

e−nnn√n

n!

et

E(Z−) =1√2π

∫ +∞

−∞x−e−

x2

2 dx =1√2π

∫ +∞

0xe−

x2

2 dx =1√2π

∫ +∞

0d(−e−

x2

2 ) =1√2π

d’ou e−nnn√nn! →n

1√2π

i.e. n! ∼√

2πn e−nnn (formule de Stirling).

2.9. Simulation

On peut consulter [37] et [23].

Soit µ une probabilite sur Rd. Simuler la loi µ, c’est construire une suite (xn, n ≥ 1)de points de Rd censes etre le resultat de tirages independants de points de Rd selonla loi µ i.e. les valeurs prises par une suite X1, X2, . . . , Xn, . . . de v.a. independantesde loi µ.

2.9.1. Nombres au hasard. En general, la fonction “random” d’un ordinateur fournitune suite de nombres entre 0 et 1 censes etre le resultat de tirages independants selonla loi uniforme sur [0, 1]. Ces nombres sont obtenus par un algorithme qui fournitdes nombres ayant les memes proprietes qu’une suite de tirages independants selonU(0, 1). Le probleme est donc de decider si une suite (un, n ≥ 1) peut etre consideree

Page 65: Universit´e Pierre et Marie Curie Master de sciences et

65

comme le resultat de tirages independants selon la loi U(0, 1). Soit (Un, n ≥ 1) unesuite de v.a. independantes de loi U(0, 1). On a (loi des grands nombres), pour tous0 ≤ a < b ≤ 1,

1n

n∑k=1

1[a,b](Uk) →n b− a p.s..

Mais X1 = (U1, U2), X2 = (U3, U4), . . . , Xn = (U2n−1, U2n), . . . est une suite dev.a. indedendantes a valeurs R2 de loi uniformme sur [0, 1]× [0, 1] et l’on a, pour tous0 ≤ a1 < b1 ≤ 1, 0 ≤ a2 < b2 ≤ 1, posant D = [a1, b1]× [a2, b2]

1n

n∑j=0

1D(U2j+1, U2j+2) →n (b1 − a1)(b2 − a2) p.s

Plus generalement, pour tout k et tous 0 ≤ a1 < b1 ≤ 1, . . . , 0 ≤ ak < bk ≤ 1, posantD =

∏kj=1[aj , bj ],

1n

n∑j=0

1D(Ukj+1, . . . , Ukj+k) →n

k∏j=1

(bj − aj) p.s

Ceci conduit a:

Definition 2.9.1. Une suite (un, n ≥ 1) de nombres compris entre 0 et 1 est ditek-uniforme (k ∈ N∗) si, pour tous 0 ≤ a1 < b1 ≤ 1, . . . , 0 ≤ ak < bk ≤ 1, posantD =

∏kj=1[aj , bj ],

1n

n∑j=0

1D(ukj+1, . . . , ukj+k) →n

k∏j=1

(bj − aj).

L’ideal serait de construire une suite (un, n ≥ 1) k-uniforme pour tout k mais, enpratique, ceci est impossible et on se contente d’approximations.

On utilise frequemment des algorithmes du type suivant. On choisit M ∈ N grand(de l’ordre de 108), une application g de E = 0, 1 . . . ,M − 1 dans lui-meme. Onse donne v0 ∈ E et on pose vn+1 = g(vn), un = vn/M . Les differents choix de v0engendrent differentes suites. Une telle suite etant necessairement periodique, cecin’est qu’une approximation. On peut prendre M = 231 et g(x) = 75x modulo M .

Ceci fait, le probleme est maintenant de construire, a partir d’une suite U1, U2, . . .de v.a. independantes de loi U(0, 1), une suite X1, X2, . . . de v.a. independantes deloi µ.

2.9.2. Simultion de v.a. reelles. Soit µ une probabilite sur R de fonction de repartitionF . On pose F−1(u) = inf(t, F (t) ≥ u). On sait (th. 2.3.7) que, si U ∼ U(0, 1), F−1(U)a pour loi µ. Donc, si (Un, n ≥ 1) est une suite de v.a. independantes de loi U(0, 1),(F−1(Un), n ≥ 1) est une suite de v.a. independantes de loi µ.

Page 66: Universit´e Pierre et Marie Curie Master de sciences et

66 Notions de probabilites

Exemple. Soit (pk, k = 0, . . . , n) une probabilite sur 0, 1, . . . , n. Soit F (t) sa fonctionde repartition. On pose

a0 = 0, a1 = p0, a2 = p0 + p1, . . . , an = p0 + . . .+ pn−1, an+1 = 1.

On a

F (t) = 0 = a0 si t < 0, F (t) = a1 si 0 ≤ t < 1, F (t) = a2 si 2 ≤ t < 3, . . .

etF−1(u) = k si ak ≤ u < ak+1, k = 0, 1, . . . , n.

Si µ = f.λ, F (t) =∫ t−∞ f(x) dx. Il n’est pas toujours (en fait pas souvent) possible

de calculer F et F−1. C’est en particulier le cas pour la loi N1(0, 1). Dans ce cas, onutilise:

Proposition 2.9.2. Soient (X,Y ) un couple de v.a.r. independantes de meme loiU(0, 1). On pose U =

√−2 logX. cos(2πY ), V =

√−2 logX. sin(2πY ). Alors les v.a.

U et V sont independantes de meme loi N1(0, 1).

Preuve: Soit ψ : (x, y) 7→ (u =√−2 log x. cos(2πy), v =

√−2 log x. sin(2πy). ψ est

un diffeomrphisme deD =]0, 1[×]0, 1[ sur ∆ = R2\R+×0. On a J(ψ)(x, y) = 2πx , et,

vu que u2+v2 = −2 log x, J(ψ−1)(u, v) = 12π e−(u2+v2)/2. Le couple (X,Y ) a pour den-

site 1D(x, y). Donc (prop. 2.4.2) (U, V ) = ψ(X,Y ) a pour densite 12π e−(u2+v2)/21∆(u, v)

= 1√2π

e−u2/2 1√

2πe−v

2/2 p.p.

2.9.3. La methode de rejet. Soient A un evenement tel que P(A) > 0 et Y une v.a avaleurs Rd. Posons, pour Γ ∈ B(Rd),

µY (Γ|A) = P(Y ∈ Γ|A) =1

P(A)P(A ∩ Y ∈ Γ). (2.20)

Alors, A etant fixe, Γ 7→ µY (Γ|A) est une probabilite sur Rd qu’on appelle loi condi-tionnelle de Y sachant A. De meme, pour φ ∈ L1(µY ),∫

φ(y) dµY (y|A) = E(φ(Y )|A) =1

P(A)

∫Aφ(Y ) dP (2.21)

s’appelle l’esperance conditionnelle de φ(Y ) sachant A.

Soient maintenant (Zn, n ≥ 1) une suite de v.a. a valeurs (E, E) et B ∈ E . Onconsidere ν = inf(n ≥ 1, Zn ∈ B) avec la convention inf ∅ = +∞. Alors ν(ω) estla premier n tel que Zn(ω) ∈ B et si, pour tout n, Zn(ω) /∈ B, ν(ω) = +∞. νest donc une v.a. a valeurs N. Si P(ν < +∞) = 1, on peut definir une v.a. Zν parZν(ω) = Zn(ω) sur ω, ν(ω) = n. La methode de rejet repose sur:

Page 67: Universit´e Pierre et Marie Curie Master de sciences et

67

Proposition 2.9.3. Soient (Zn, n ≥ 1) une suite de v.a. independantes a valeurs(E, E) de meme loi µ et B ∈ E avec µ(B) > 0. On pose ν1 = inf(n ≥ 1, Zn ∈ B),. . ., νr = inf(n > νr−1, Zn ∈ B), . . .. Alors, pour tout r ≥ 1, P(νr < +∞) = 1 et(Zνr , r ≥ 1) est une suite de v.a. independantes de loi ρ donnee par

ρ(A) =µ(A ∩B)µ(B)

= P(Z1 ∈ A |Z1 ∈ B)

i.e. ρ est donc la loi conditionnelle de Z1 sachant que Z1 ∈ B.

Preuve: Notons d’abord que

P(ν1 = k) = P(Z1 /∈ B, . . . , Zk−1 /∈ B,Zk ∈ B) = (1− µ(B))k−1µ(B) (2.22)

d’ou P(ν1 < +∞) =∑

k≥1 P(ν1 = k) = 1. Supposons que P(νr−1 < +∞) = 1, alors

P(νr < +∞) =∑k≥1

P(νr−1 = k, νr < +∞) =∑j,k≥1

P(νr−1 = k, νr = k + j)

=∑j,k≥1

P(νr−1 = k, Zk+1 /∈ B, . . . , Zk+j−1 /∈ B,Zk+j ∈ B)

=∑k≥1

P(νr−1 = k)∑j≥1

(1− µ(B))k−1µ(B) =∑k≥1

P(νr−1 = k) = P(νr−1 < +∞) = 1.

De meme

P(Zν1 ∈ A) =∑k≥1

P(ν1 = k, Zk ∈ A ∩B)

=∑k≥1

P(Z1 /∈ B, . . . , Zk−1 /∈ B,Zk ∈ A∩B) =∑k≥1

(1−µ(B))k−1µ(A∩B) =µ(A ∩B)µ(B)

.

Supposons que P(Zν1 ∈ A1, . . . , Zνr−1 ∈ Ar−1) = µ(A1∩B)µ(B) . . . µ(Ar−1∩B)

µ(B) , alors

P(Zν1 ∈ A1, . . . , Zνr−1 ∈ Ar−1, Zνr ∈ Ar)

=∑j,k≥1

P(Zν1 ∈ A1, . . . , Zνr−1 ∈ Ar−1, νr−1 = k, Zk+1 /∈ B, . . . , Zk+j−1 /∈ B,Zk+j ∈ Ar∩B)

=∑k≥1

P(Zν1 ∈ A1, . . . , Zνr−1 ∈ Ar−1, νr−1 = k)∑j≥1

(1− µ(B))j−1µ(Ar ∩B)

= P(Zν1 ∈ A1, . . . , Zνr−1 ∈ Ar−1)µ(Ar ∩B)µ(B)

=r∏i=1

µ(Ai ∩B)µ(B)

,

ce qui montre que les v.a. (Zνk, k ≥ 1) sont independantes et de meme loi.

En pratique, soit z1, . . . , zn, . . . une suite de tirages independants selon la loi µ. Onconsidere z1. Si z1 ∈ B, on pose x1 = z1, k1 = 1. Sinon, on considere z2. Si z2 ∈ B, onpose x1 = z2, k1 = 2. Sinon, on considere z3. Si z3 ∈ B, on pose x1 = z3, k1 = 3. . . . On

Page 68: Universit´e Pierre et Marie Curie Master de sciences et

68 Notions de probabilites

construit ainsi x1, k1. On considere alors zk1+1. Si zk1+1 ∈ B, on pose x2 = zk1+1, k2 =k1 + 1. Sinon, on considere zk1+2. Si zk1+2 ∈ B, on pose x2 = zk1+2, k2 = k1 + 2.Sinon, on considere zk1+3. Si zk1+3 ∈ B, on pose x2 = zk1+3, k2 = k1 + 3. . . . Onconstruit ainsi x2, k2. On continue.... et on obtient une suite x1, . . . , xn, . . . de tiragesindependants selon la loi ρ(A) = µ(A∩B)

µ(B) .

Remarque 1. Vu (2.22), la v.a. ν1−1 suit une loi geometrique de parametre 1−µ(B) eton a E(ν1) = 1

µ(B) . Il est intuitif (et facile a verifier) que les v.a. ν1, ν2−ν1, . . . , νr−νr−1

sont independantes et de meme loi. On a donc E(ν1) = E(ν2 − ν1) = . . . = E(νr −νr−1) = 1

µ(B) . Donc, si µ(B) est tres petit, cette simulation risque de prendre dutemps.

2.9.4. Simulation de la loi uniforme sur un domaine de mesure de Lebesgue finie.Soit D un domaine de Rd tel que λ(D) < +∞, λ etant la mesure de Lebesgue sur Rd.On appelle loi uniforme sur D, la probabilite de densite (λ(D))−11D. La prop. 2.9.3donne immediatement:

Corollaire 2.9.4. Soient D ⊂ ∆ deux domaines de Rd avec λ(∆) < +∞ et (Zn, n ≥1) une suite de v.a. independantes de loi la loi uniforme sur ∆. On pose ν1 = inf(n ≥1, Zn ∈ D), . . ., νr = inf(n > νr−1, Zn ∈ D), . . .. Alors, pour tout r ≥ 1, P(νr <+∞) = 1 et (Zνr , r ≥ 1) est une suite de v.a. independantes de loi la loi uniformesur D.

Preuve: Il suffit de remarquer que, si µ est la loi uniforme sur ∆, la loi de Xν1 est

ρ(A) =µ(A ∩D)µ(D)

=λ(A ∩D)λ(∆)

:λ(D)λ(∆)

=λ(A ∩D)λ(D)

i.e. la loi uniforme sur D.

En pratique, si D est borne, on choisit ∆ = [a1, b1] × . . . × [ad, bd] et il est tresfacile de simuler la loi uniforme sur ∆ et donc sur D.

2.9.5. SoitD = (x, y), 0 ≤ y < f(x) ⊂ R2 ou f est une densite de probabilite sur R.Si (X,Y ) est un couple de v.a. de loi uniforme sur D, alors X est une v.a.r. de densitef . Reciproquement, si X est une v.a.r. de densite f et si U est une v.a.r. de loi U(0, 1),independante deX, alors (X,Uf(X)) suit la loi uniforme surD et, plus generalement,(X, aUf(X)) (a > 0) suit la loi uniforme sur ∆ = (x, y), 0 ≤ y < af(x). Cecifournit une methode, sachant simuler une loi de densite g, pour simuler une loi dedensite f si f ≤ a g (necessairement a ≥ 1)). Plus precisemment:

Proposition 2.9.5. Soient ρ une mesure σ-finie sur (F,F) et f, g ∈ F+ tellesque

∫f dρ =

∫g dρ = 1 et f ≤ ag ρ p.p. Soient (Yn, n ≥ 1) une suite de v.a.

independantes a valeurs (F,F) de loi g.ρ et (Un, n ≥ 1) une suite de v.a.r independantesde loi U(0, 1) et independantes de (Yn, n ≥ 1). On pose

ν1 = inf(n ≥ 1, aUng(Yn) < f(Yn) ), . . . , νr = inf(n > νr−1, aUng(Yn) < f(Yn) ), . . .

Alors les v.a. (Yνr , r ≥ 1) sont independantes de loi f.ρ.

Page 69: Universit´e Pierre et Marie Curie Master de sciences et

69

Preuve: Soient Zn = (Yn, Un) et Γ = (y, u), a.u.g(y) < f(y) . On a alors ν1 =inf(n ≥ 1, Zn ∈ Γ),. . ..

Lemme 2.9.6. Pour toute φ ∈ F+,

E(φ(Y1)1Z1∈Γ) = E(φ(Y1)1aU1g(Y1)<f(Y1)) =1a

∫φ(y)f(y) dρ(y).

Preuve: Notons que f1g=0 ≤ ag1g=0 = 0 ρ p.p. Alors

E(φ(Y1)1Z1∈Γ) =∫ ∫ 1

0φ(y)1Γ(y, u)g(y)1g>0(y) dρ(y)du

=∫φ(y)g(y)1g>0(y)

∫ 1

01u< f(y)

ag(y) du dρ(y) =

∫φ(y)g(y)1g>0(y)

f(y)ag(y)

dρ(y)

=1a

∫φ(y)f(y) dρ(y).

Prenant φ = 1 dans le lem. 2.9.6, on obtient P(Z1 ∈ Γ) = 1a > 0 et on peut

appliquer la prop. 2.9.3 . Les v.a. (Zνr , r ≥ 1) (resp. (Yνr , r ≥ 1)) sont independantesde meme loi que Zν1 (resp. Yν1). Enfin on a (lem. 2.9.6)

P(Yν1 ∈ A) =P(Y1 ∈ A,Z1 ∈ Γ)

P(Z1 ∈ Γ)=

∫Af dρ

et Yν1 a pour loi f.ρ.

Remarque 2. Vu que P (Z1 ∈ Γ) = 1a , d’apres la remarque 1, E(ν1) = E(νr−νr−1) = a.

Si a est trop grand, cette methode est couteuse en temps.

2.9.6. Methode de Monte-Carlo. Le principe de la methode est le suivant. Soient fune densite sur Rd, (Xn, n ≥ 1) une suite de v.a. independantes de densite f etφ ∈ L1(f.λ). Alors, d’apres la loi des grands nombres,

In =1n

n∑k=1

φ(Xk) →n E(φ(X1)) =∫φ(x)f(x) dx = I p.s.

Donc, si on sait simuler des v.a. de densite f , on peut obtenir une valeur approcheede I. Noter que In se met sous forme recursive:

In+1 = In +1

n+ 1(φ(Xn+1)− In),

ce qui rend le calcul agreable. Examinons de plus pres deux cas.

1. On veut calculer∫D h(x) dx, D etant un domaine borne de Rd et h1D integrable.

Soient ∆ =∏dk=1[ak, bk] ⊃ D, V =

∏dk=1(bk − ak) et (Xn, n ≥ 1) une une suite de

Page 70: Universit´e Pierre et Marie Curie Master de sciences et

70 Notions de probabilites

v.a. independantes de loi uniforme sur ∆. On peut appliquer le resultat precedent af = 1

V 1∆ et on a

V

n

n∑k=1

h(Xk)1D(Xk) →n V1V

∫h(x)1D(x)1∆(x) dx =

∫Dh(x) dx p.s.

2. On veut calculer∫φ(x)f(x) dx (f densite et φ ∈ L1(f.λ)) et on sait simuler de v.a.

(Yn, n ≥ 1) independantes de loi de densite g avec f ≤ a g. Alors on peut utiliser laprop. 2.9.5 pour simuler des v.a. de densite f mais, en fait, on a directement:

Proposition 2.9.7. Soient f, g deux densites sur Rd telles que f ≤ a g, (Yn, n ≥ 1)et (Un, n ≥ 1) deux suites de v.a. independantes de lois respectives g.λ et U(0, 1) etindependantes entre elles. Alors, pour toute φ ∈ L1(f.λ),

a

n

n∑k=1

φ(Yk)1aUkg(Yk)<f(Yk) →n

∫Rd

φ(x)f(x) dx p.s.

Preuve: Les v.a. (φ(Yk)1aUkg(Yk)<f(Yk), k ≥ 1) etant independantes, il suffit d’appliquerla loi des grands nombres vu que E(φ(Y1)1aU1g(Y1)<f(Y1)) = 1

a

∫φf dλ pour φ ≥ 0

(lem. 2.9.6) puis, par difference, pour φ ∈ L1(f.λ).

Pour etre complet, il faudrait considerer les vitesses de convergence. Vu le th.2.8.12,cette vitesse est, en general, de l’ordre de 1√

nce qui fait que, pour des petites valeurs de

d, cette methode est peu competitive par rapport aux methodes classiques d’analysenumerique mais que, pour des valeurs assez grandes de d, elle devient interesssante.

2.10. Uniforme integrabilite

Un probleme essentiel est de passer de la convergence presque sure a la conver-gence dans L1. Un premier outil est le theoreme de Lebesgue. La notion d’uniformeintegrabilite permet une reponse plus precise.

2.10.1. Soit X une v.a.r. integrable. On a |X| < +∞ p.s. et donc |X|1|X|>a → 0p.s. lorsque a → +∞. Puisque |X|1|X|>a ≤ |X| ∈ L1, on a (th. de Lebesgue)E(|X|1|X|>a) →a→+∞ 0. Ceci est a la base de la notion d’uniforme integrabilite (ondit aussi equi-integrabilite).

Definition 2.10.1. On dit qu’une famille H de v.a. reelles est uniformement integrablesi

supX∈H

∫|X|>a

|X| dP →a→+∞ 0.

Ceci equivaut a:

pour tout ε > 0, il existe M tel que, pour tous X ∈ H et a ≥M,

∫|X|>a

|X| dP ≤ ε.

Page 71: Universit´e Pierre et Marie Curie Master de sciences et

71

Exemple: Soit Z ∈ L1, Z ≥ 0. La famille H = X, |X| ≤ Z est uniformementintegrable puisque, si |X| ≤ Z,

∫|X|>a |X| dP ≤

∫Z>a Z dP. Ceci implique qu’une

famille finie de v.a.r. integrables est uniformement integrable.

2.10.2. Un outil de base sera:

Proposition 2.10.2. La famille H est uniformement integrable ssi(i) supX∈H E|X| < +∞,(ii) pour tout ε > 0, il existe α > 0 tel que P(A) < α implique supX∈H

∫A |X| dP < ε.

Preuve: a. Supposons la famille H uniformement integrable. On a, pour tous A ∈ Aet X ∈ H,∫

A|X| dP =

∫A|X|1|X|≤a dP +

∫A|X|1|X|>a dP ≤ aP(A) +

∫|X|1|X|>a dP.

Pour A = Ω, on a supX∈H E|X| < +∞. Pour montrer (ii), on choisit a tel que, pourtout X ∈ H, supX∈H E(|X|1|X|>a) < ε

2 et on a, pour tout A ∈ H,∫A |X| dP < ε si

P(A) < α = ε2a .

b. Supposons (i) et (ii). Soit M = supX∈H E|X|. On a P(|X| > a) ≤ 1aE|X| et donc,

pour tout X ∈ H, P(|X| > a) ≤ Ma et il suffit d’utiliser (ii).

Exemple. Soit X1, . . . , Xn, . . . une suite v.a.r. independantes et de meme loi avecE(|X1|) < +∞. On pose Sn = X1 + . . . + Xn. Alors la famille (Sn

n , n ≥ 1) estuniformement integrable. En effet les (Xn, n ≥ 1) sont uniformement integrablespuisque de meme loi. Donc (prop. 2.10.2), etant donne ε > 0, il existe α > 0 tel que,pour tout n,

∫A |Xn| dP < α si P(A) < ε ce qui implique que

∫A |

Snn | dP < α. Par

ailleurs E(|Snn |) ≤ E(|X1|) et il suffit d’appliquer la prop. 2.10.2.

La prop. 2.10.2 permet d’etablir:

Proposition 2.10.3. Si Xn converge dans L1, la famille (Xn)n≥0 est uniformementintegrable.

Preuve: On verifie (i) et (ii) de la prop. 2.10.2. Soit X la limite de Xn dans L1. Vuque E|Xn| ≤ E|X −Xn|+ E|X|, on a supn E|Xn| < +∞. Montrons (ii). Soit ε > 0. Ilexiste α1 > 0 tel que

∫A |X| dP < ε/2 si P(A) < α1. Vu que∫

A|Xn| dP ≤

∫A|X| dP +

∫A|Xn −X| dP ≤

∫A|X| dP + ||Xn −X||1

il existe n0 tel que∫A |Xn| dP < ε si n ≥ n0 et P(A) < α1. La famille (X1 . . . , Xn0)

etant uniformement integrable, il existe α2 > 0 tel que∫A |Xk| dP < ε si P(A) < α2

et k ≤ n0. On a etabli (ii) avec α = α1 ∧ α2.

2.10.3. Donnons un critere tres pratique d’uniforme integrabilite.

Proposition 2.10.4. Soit g une application de R+ dans R+ telle que limt→+∞g(t)t =

+∞. Si supX∈H E[g(|X|)] < +∞, la famille H est uniformement integrable.

Page 72: Universit´e Pierre et Marie Curie Master de sciences et

72 Notions de probabilites

Preuve: Soit M = supX∈HE[g(|X|)]. Par hypothese, il existe A tel que, si t > A,g(t)t > M

ε . On a alors, pour tout a > A et tout X ∈ H,∫|X|>a

|X| dP ≤ ε

M

∫|X|>a

g(|X|) dP ≤ ε

ME[g(|X|)] ≤ ε.

Exemple: On choisit g(t) = tp, p > 1. Alors si supX∈H ||X||p < +∞, la famille Hest uniformement integrable.

2.10.4. Le resultat essentiel est:

Theoreme 2.10.5. Soit Xn une suite de v.a. reelles convergeant en probabilite. AlorsXn converge dans L1 ssi la famille (Xn)n≥0 est uniformement integrable.

Preuve: Supposons que la famille (Xn)n≥0 soit uniformement integrable et queXn →X en probabilite. On a (prop. 2.10.2) supn E|Xn| < +∞. D’apres le cor. 2.7.4, ilexiste une sous-suite Xnk

convergeant p.s. vers X et, vu le lemme de Fatou, E|X| ≤lim infk E|Xnk

| ≤ supn E|Xn| < +∞. Donc X ∈ L1. On a alors, pour tout ε > 0,

E|Xn −X| = E(|Xn −X|1|Xn−X|≤ε) + E(|Xn −X|1|Xn−X|>ε)≤ ε+ E(|Xn|1|Xn−X|>ε) + E(|X|1|Xn−X|>ε).

On en deduit alors facilement, utilisant la prop. 2.10.2, que E|Xn −X| ≤ 2ε si n estassez grand. Donc Xn →n X dans L1. La reciproque resulte de la prop. 2.10.3.

Remarque: Le th. 2.10.5 est une generalisation du theoreme de Lebesgue puisquepour Y ∈ L1, Xn, |Xn| ≤ Y est uniformement integrable. (Voir l’exemple de2.10.1).

Page 73: Universit´e Pierre et Marie Curie Master de sciences et

Chapitre 3

Processus aleatoires

3.1. Processus aleatoires

3.1.1. Soient T un ensemble, (E, E) un espace mesurable et (Ω,F ,P) un espace deprobabilite. Rappelons qu’on peut toujours supposer (Ω,F ,P) complet (voir 1.2.3);c’est que nous ferons dorenavant.

Definition 3.1.1. On appelle processus a valeurs (E, E) indexe par T toute famille(Xt, t ∈ T ) de v.a. a valeurs (E, E).

Pour tout ω ∈ Ω, l’application t 7→ Xt(ω) s’appelle la trajectoire associee a ω. Onsupposera, en general, T = R+ et (E, E) = (Rd,B(Rd)). Le processus (Xt, t ∈ R+)est dit a trajectoires continues a droite (resp. a trajectoires p.s. continues a droite) si,pour tout ω ∈ Ω (resp. pour tout ω hors d’un ensemble negligeable), t 7→ Xt(ω) estcontinues a droite. On definit de meme la notion de processus a trajectoires continues(resp. a trajectoires p.s. continues).

Definition 3.1.2. 1. Deux processus (Xt, t ∈ R+) et (X ′t, t ∈ R+) definis sur

(Ω,F ,P) et (Ω′,F ′,P′) sont dits equivalents si, pour tous t1, . . . , tn ∈ R+, tousA1, . . . , An ∈ E,

P(Xt1 ∈ A1, . . . , Xtn ∈ An) = P′(X ′t1 ∈ A1, . . . , X

′tn ∈ An).

2. Soient (Xt, t ∈ R+) et (X ′t, t ∈ R+) deux processus definis sur (Ω,F ,P).

(i) On dit que X ′t est une modification de Xt si, pour tout t, X ′

t = Xt p.s.(ii) On dit que Xt et X ′

t sont indistinguables si p.s. Xt = X ′t pour tout t.

Il est clair que ces notions sont de plus en plus restrictives.

Exemple. Soient Ω = [0, 1], F = B(R) et P = mesure de Lebesgue. On definit(Xt, t ∈ [0, 1]) et (X ′

t, t ∈ [0, 1]) par Xt(ω) = 1t(ω) et X ′t(ω) ≡ 0. Alors, pour t

fixe, P(ω, Xt(ω) 6= X ′t(ω)) = P(t) = 0 et X ′

t est une modification de Xt alors queP(ω, Xt(ω) = X ′

t(ω) pour tout t) = 0.

Le lemme elementaire suivant sera d’un usage constant.

Page 74: Universit´e Pierre et Marie Curie Master de sciences et

74 Processus aleatoires

Lemme 3.1.3. Soient Xt et Yt deux processus a valeurs Rd a trajectoires p.s. con-tinues a droite. Si, pour chaque t, Xt = Yt p.s., Xt et Yt sont indistinguables.

Preuve: Il existe des ensembles negligeables N ′ et Nt tels que, pour ω /∈ N ′, Xt(ω)et Yt(ω) soient continues a droite et pour ω /∈ Nt, Xt(ω) = Yt(ω). On pose N =N ′ ∪ ∪t∈Q+Nt, N est negligeable et, pour ω /∈ N , Xt(ω) = Yt(ω) pour tout t.

3.1.2. Processus mesurables. On peut considerer un processus (Xt, t ∈ R+) a valeurs(E, E) comme une application X de Ω × R+ dans E telle, pour tout t, ω 7→ X(t, ω)soit une v.a. C’est pourquoi on ecrira aussi bien Xt(ω) que X(t, ω). Pour pouvoirtravailler avec un processus, il est indispensable que X(t, ω) soit mesurable du couple.Plus precisement,

Definition 3.1.4. Un processus (Xt, t ∈ R+) a valeurs (E, E) est mesurable si(t, ω) 7→ Xt(ω) est mesurable de (R+ × Ω,B(R+)⊗F) dans (E, E).

Si E = Rd, un processus a trajectoires continues a droite est mesurable puisqu’alorsXt(ω) = X0(ω) + limnXn(ω) ou Xn(ω) =

∑k≥0X k+1

2n(ω)1] k

2n ,k+12n ](t) qui est mani-

festement mesurable.Le theoreme suivant, du a Kolmogorov, nous sera tres utile. On l’admet pour le

moment mais le lecteur impatient peut se reporter au 8.2.4.

Theoreme 3.1.5. Soit (Xt, t ∈ R+) un processus a valeurs Rd. Supposons que, pourtout T > 0, il existe α, β > 0 et C < +∞ tels que, pour tous s, t ≤ T , E|Xt −Xs|β ≤C|t− s|1+α, alors (Xt, t ∈ R+) admet une modification a trajectoires continues.

3.1.3. Repartitions finies. Soit X = (Xt, t ∈ R+) un processus a valeurs (E, E) . Onnote J l’ensemble des parties finies de R+. Pour I = t1 < t2 < . . . < tn ∈ J ,on note µI la loi de (Xt1 , . . . , Xtn). C’est une probabilite sur E|I|, |I| designant lecardinal de I, telle que, pour tous Ai ∈ E ,

µt1,...,tn(A1 × . . .×An) = P(Xt1 ∈ A1, . . . , Xtn ∈ An). (3.1)

Les (µI , I ∈ J ) s’appellent les repartitions finies du processusX. Elles sont evidemmenttelles que, notant, pour J ⊂ I, πI,J la projection canonique de E|I| sur E|J |, µJ estl’image de µI par πI,J i.e.

µJ = µI π−1I,J (3.2)

Ceci signifie, plus simplement que, pour tout I = t1 < . . . < tn, tous J = t1 <. . . < tp−1 < tp+1 < . . . < tn ⊂ I, tous Ai ∈ E ,

µJ(A1 × . . . Ap−1 ×Ap+1, . . .×An) = µI(A1 × . . . Ap−1 × E ×Ap+1 . . .×An).

Par definition meme, deux processus ayant les memes repartitions finies sont equivalents.

3.1.4. Processus canoniques. Soit X = (Xt, t ∈ R+) un processus a valeurs (E, E)defini sur (Ω′,F ′,P′). Introduisons l’espace des trajectoires ou espace canonique:

Ω = ER+, ω = (ωt)t∈R+ , ξt(ω) = ωt, F = σ(ξt, t ∈ R+). (3.3)

Page 75: Universit´e Pierre et Marie Curie Master de sciences et

75

Notons aussi pour I = t1 < t2 < . . . < tn ∈ J ,

FI = σ(ξt, t ∈ I), A = ∪I∈JFI . (3.4)

Alors A est une algebre telle que σ(A) = F .On peut definir une application mesurable φ de (Ω′,F ′) dans (Ω,F) par φ(ω′) =

(Xt(ω′))t∈R+ . Soit P la probabilite sur (Ω,F) image de P′ par φ i.e. definie par P(Γ) =P′(φ−1(Γ)), Γ ∈ F . On a alors, pour tous Ai ∈ E ,

P(ξt1 ∈ A1, . . . , ξtn ∈ An) = P′(Xt1 ∈ A1, . . . , Xtn ∈ An).

Le processus Ξ = (Ω,F , (ξt)t∈R+ ,P), qui est donc equivalent a X, s’appelle le proces-sus canonique associe a X et P s’appelle la loi de X. De la prop. 1.2.3 resulte que laloi d’un processus est entierement determinee par ses repartitions finies.

3.1.5. Construction. On suppose (E, E) = (Rd,B(Rd)). Soit (µI , I ∈ J ) une famillede probabilites sur E|I| verifiant la condition (3.2). La question est de savoir s’il existeun processus ayant les µI pour repartitions finies. La reponse est oui et un seul a uneequivalence pres. Precisons un peu. On se place sur l’espace canonique (3.3), (3.4).On definit, pour I = t1 < . . . < tn et Γ = (ξt1 , . . . , ξtn) ∈ A, une probabilite PIsur FI par PI(Γ) = µI(A). Vu (3.2), pour J ⊂ I, la restriction de PI a FJ est PJ .On obtient ainsi une fonction d’ensembles Γ 7→ P(Γ) sur A, defini par (3.4), qui estadditive et qui verifie

P(ξt1 ∈ A1, . . . , ξtn ∈ An) = µt1,...,tn(A1 × . . .×An).

Tout le probleme est de montrer qu’elle est σ-additive sur A ce qui est assez delicat(voir [2]). On applique ensuite le th. 1.2.4 et on obtient:

Theoreme 3.1.6. Soit (µI , I ∈ J ) une famille de probabilites sur (Rd)|I| verifiantla condition (3.2). Il existe une probabilite P sur l’espace canonique defini par (3.3),unique, telle que Ξ = (Ω,F , (ξt)t∈R+ ,P) soit un processus de repartitions finies lafamille (µI , I ∈ J ).

3.1.6. Processus a temps discret. Il est interessant d’examiner ce que devient le th.3.1.6 lorsque T = N. On peut alors considerer un espace mesurable quelconque (E, E).On se donne une famille (µn, n ∈ N) de probabilites sur E⊗(n+1) telles que, pour tousn et Ai ∈ E ,

µn(A0 × . . .×An) = µn+1(A0 × . . .×An × E)

et on poseΩ = EN, ω = (ωn)n≥0, ξn(ω) = ωn, F = σ(ξn, n ≥ 0).

Alors il existe une unique probabilite P sur (Ω,F) telle que, pour tous n et Ai ∈ E ,

P(ξ0 ∈ A0, . . . , ξn ∈ An) = µn(A0 × . . .×An).

Exemple. Si (νn)n≥0 est une suite de probabilites sur (E, E) et si on pose µn =ν0 ⊗ . . .⊗ νn, on obtient ainsi une suite ξn de v.a. independantes de loi νn.

3.1.7. On introduit deux classes importantes de processus.

Page 76: Universit´e Pierre et Marie Curie Master de sciences et

76 Processus aleatoires

Definition 3.1.7. Un processus (Xt, t ∈ R+) a valeurs Rd est a accroissementsindependants (en abrege P.A.I.) si, pour tous 0 ≤ t0 < t1 < . . . < tn, les v.a. Xtk+1

−Xtk , k = 0, 1, . . . , n− 1, sont independantes. Il est a accroissements stationnaires si,pour tous t, h > 0, la loi de Xt+h −Xt est egale a la loi de Xh −X0.

Lemme 3.1.8. Soit (Xt, t ∈ R+) un processus a valeurs Rd tel que X0 = 0. AlorsXt est un P.A.I. ssi pour tous s < t, Xt −Xs est independant de σ(Xu, u ≤ s).

Preuve: Si Xt est un P.A.I. et si 0 = t0 < t1 < . . . < tn ≤ s < t, Xt − Xs

est independant de (Xt1 , Xt2 − Xt1 , . . . , Xtn − Xtn−1) donc de (Xt1 , . . . , Xtn) et deσ(Xu, u ≤ s).

Reciproquement si, pour tous s < t, Xt − Xs est independant de σ(Xu, u ≤ s),on a, pour 0 ≤ t0 < t1 < . . . < tn et fi ∈ bB(Rd),

E(n∏i=1

fi(Xti −Xti−1)) = E(fn(Xtn −Xtn−1))E(n−1∏i=1

fi(Xti −Xti−1))

= . . . =n∏i=1

E(fi(Xti −Xti−1)).

Definition 3.1.9. Un processus (Xt, t ∈ R+) a valeurs Rd est gaussien si, pour toust1 < . . . < tn, (Xt1 , . . . , Xtn) est un vecteur gaussien a valeurs Rnd.

Lemme 3.1.10. Un P.A.I. tel que X0 = 0 et a accroissements gaussiens est unprocessus gaussien.

Preuve: Le vecteur (Xt1 , . . . , Xtn) est une fonction lineaire du vecteur (Xt1 , Xt2 −Xt1 , . . . , Xtn −Xtn−1) qui, par hypothese, est gaussien.

Definition 3.1.11. Un processus (Xt, t ∈ R+) a valeurs Rd est un mouvementbrownien issu de 0 si c’est un P.A.I. a trajectoires p.s. continues avec X0 = 0 etsi, pour tous s < t, Xt −Xs ∼ Nd(0, (t− s)Id).

Pour le moment rien ne nous assure de l’existence d’un tel objet. C’est le problemequ’on etudie maintenant.

3.2. Processus gaussiens. Mouvement brownien

Pour menager le lecteur, on traite d’abord le cas d = 1.

3.2.1. Processus gaussiens reels. Soit (Xt, t ∈ R+) un processus gaussien reel. Onpose

m(t) = E(Xt), Γ(s, t) = Cov(Xs, Xt) = E[(Xs − E(Xs))(Xt − E(Xt))]. (3.5)

La fonction Γ(s, t) s’appelle la fonction de covariance de X. On a:

pour tous s, t, Γ(s, t) = Γ(t, s), (3.6)

Page 77: Universit´e Pierre et Marie Curie Master de sciences et

77

pour tous t1, . . . , tn ≥ 0, pour tous λ1, . . . , λn ∈ R,n∑

j,k=1

λjλkΓ(tj , tk) ≥ 0 (3.7)

puisque, posant Xt = Xt − E(Xt),∑j,k

λjλkΓ(tj , tk) =∑j,k

λjλkE(XtjXtk) = E(∑j,k

λjλkXtjXtk) = E|∑j

λjXtj |2 ≥ 0.

Le vecteur (Xt1 , . . . , Xtn) est un vecteur gaussien de moyenne (m(t1), . . . ,m(tn)) etde matrice de covariance (Γ(tj , tk), 1 ≤ j, k ≤ n). Les repartitions finies (et donc laloi) de X sont donc entierement determinees par les fonctions m(t) et Γ(s, t).

Reciproquement, soient m(t) et Γ(s, t) des fonctions verifiant (3.6) et (3.7). Pourtous I = t1 < . . . < tn, (Γ(tj , tk), 1 ≤ j, k ≤ n) est une matrice symetriquesemi-definie positive. Soit

µI = Nn((m(t1) . . .m(tn))T, (Γ(tj , tk), 1 ≤ j, k ≤ n)).

Les (µI , I ∈ J ) verifient (3.2) et on obtient, appliquant le th. 3.1.6:

Theoreme 3.2.1. Soient m une application de R+ dans R et Γ une applicationde R+ × R+ dans R+ verifiant (3.6) et (3.7). Il existe une unique probabilite P surl’espace canonique defini par (3.3) telle que (ξt, t ∈ R+) soit un processus gaussiende moyenne m(t) et de fonction de covariance Γ(s, t).

3.2.2. Considerons un mouvement brownien reel issu de 0 i.e. un processus (Xt, t ∈R+) verifiant la def. 3.1.11. D’apres le lem. 3.1.10, c’est un processus gaussien centre.De plus, pour s < t, E(XsXt) = E(Xs(Xs +Xt −Xs)) = E(X2

s ) = s puisque Xs etXt −Xs sont independants. Sa fonction de covariance est donc Γ(s, t) = s ∧ t.

Reciproquement, la fonction Γ(s, t) = s ∧ t verifie (3.6) et (3.7) puisque, pourt0 = 0 ≤ t1 ≤ . . . ≤ tn,

n∑j,k=1

λjλktj ∧ tk =n∑

j,k=1

λjλk

j∧k∑l=1

(tl − tl−1) =n∑l=1

(tl − tl−1)(n∑j=l

λj)2 ≥ 0.

Il existe donc (th. 3.2.1) un processus gaussien reel (Xt, t ∈ R+) tel que E(Xt) = 0et E(XsXt) = s ∧ t. On a alors Xt −Xs ∼ N1(0, t− s). Montrons que c’est un P.A.I.Soient t1 < . . . < tn. Le vecteur (Xt1 , Xt2 − Xt1 , . . . , Xtn − Xtn−1) etant gaussiencomme fonction lineaire de (Xt1 , . . . , Xtn), il suffit de montrer que, pour j < k,E((Xtj −Xtj−1)(Xtk −Xtk−1

)) = 0 ce qui est immediat. De plus, posant γp = E|U |2p

pour U ∼ N1(0, 1), on a, vu que Xt−Xs√t−s ∼ N1(0, 1), pour tous p ∈ N et s < t,

E|Xt −Xs|2p = (t− s)pE |Xt −Xs√t− s

|2p = γp(t− s)p. (3.8)

Le th. 3.1.5 (prendre p = 2 dans (3.8)) implique que Xt a une modification X ′t a

trajectoires continues. Le processus X ′t est un mouvement brownien reel. On a montre

au passage:

Page 78: Universit´e Pierre et Marie Curie Master de sciences et

78 Processus aleatoires

Proposition 3.2.2. Soit (Xt, t ∈ R+) un processus reel a trajectoires continues issude 0. Alors Xt est un mouvement brownien reel ssi Xt est un processus gaussiencentre de fonction de covariance Γ(s, t) = s ∧ t.

3.2.3. Transformations. De la prop. 3.2.2, on deduit facilement:

Proposition 3.2.3. Soit (Bt, t ∈ R+) un mouvement brownien reel nul en 0. Onpose B(s)

t = Bt+s − Bs, s fixe, Yt = cBt/c2, c > 0, Zt = tB1/t, t 6= 0, Z0 = 0. Les

processus −Bt, B(s)t , Yt, Zt sont des mouvement browniens reels issus de 0.

Preuve: Pour −Bt, B(s)t et Yt la verification est immediate. Quant a Zt, c’est un pro-

cessus gaussien centre de fonction de covariance Γ(s, t) = E(ZsZt) = stE(B1/sB1/t) =s∧ t. Evidemment Zt est continu sur ]0,+∞[. On a, puisque (Zt, t ∈ R+) et (Bt, t ∈R+) ont meme loi, pour tout α > 0, P(sup0<s≤t |Zs| > α) = P(sup0<s≤t |Bs| > α) ↓t↓00 et Zt → 0 p.s. lorsque t→ 0.

3.2.4. Comportement des trajectoires. Il existe des resultats tres fins sur le comporte-ment des trajectoires du mouvement brownien (voir [32]). On se contente de resultatsrelativement grossiers mais caracteristiques. On considere un mouvement brownienreel (Bt, t ∈ R+) nul en 0.

Proposition 3.2.4. (i) lim supt→+∞Bt√t

= +∞ p.s., lim inft→+∞Bt√t

= −∞ p.s.

(ii) limt→+∞Btt = 0 p.s.

(iii) lim supt→0Bt√t

= +∞ p.s., lim inft→0Bt√t

= −∞ p.s.

Preuve: (i) Soit R = lim supt→+∞Bt√t. Pour tout s > 0, on a

R = lim supt

Bt+s√t+ s

= lim supt

Bt+s√t

= lim supt

Bt+s −Bs√t

.

Donc R est independante (lem. 3.1.8) de σ(Bu, u ≤ s). Ceci etant vrai pour tout s,R est independante de σ(Bu, u ≥ 0) et donc de R. On a, soit P(R = +∞) = 1, soitP(R = α) = 1. Supposons R = α p.s. On a alors, pour tout β > α, P(Bt√

t> β) →t→+∞

0 mais P(Bt√t> β) = P(B1 > β) > 0. Donc R = +∞ p.s. Pour la deuxieme limite, il

suffit de considerer −Bt.

(ii) Soient s = 1/t et Zt = tB1/t. On a Btt = sB1/s = Zs → 0 p.s. lorsque s → 0

puisque Zs est un mouvement brownien issu de 0 (prop. 3.2.3).

(iii) Il suffit de considerer le mouvement brownien Zt = tB1/t.

Corollaire 3.2.5. (i) P p.s., Bt passe une infinite de fois par tout point.(ii) Pour tout s ≥ 0, Bt n’est p.s. derivable ni a droite, ni a gauche en s (a droitepour s = 0).

Preuve: (i) Ceci resulte immediatement de la continuite des trajectoires et de laprop. 3.2.4.

Page 79: Universit´e Pierre et Marie Curie Master de sciences et

79

(ii) Bt n’est p.s. pas derivable a droite en 0 puisque lim supt→0+Bt−B0√

t= +∞ p.s.

Considerant les mouvements browniens (Bt+s − Bs, t ≥ 0) puis Zt = tB1/t, on ad’abord la non derivabilite a droite puis la non derivabilite a gauche en s > 0.

En fait ces resultats sont des cas tres particuliers de la loi du logarithme itere dePaul Levy.

Theoreme 3.2.6. Soit B = (Ω,Ft,F , Bt,P) un mouvemant brownien reel issu de 0.On a p.s.

lim supt→+∞

Bt

(2t log log t)1/2= 1, lim inf

t→+∞

Bt

(2t log log t)1/2= −1

lim supt→0+

Bt

(2t log log 1t )

1/2= 1, lim inf

t→0+

Bt

(2t log log 1t )

1/2= −1.

3.2.5. Le cas vectoriel.

Proposition 3.2.7. (i) Soient (Xit , t ∈ R+), i = 1, . . . , d, des mouvements browniens

reels issus de 0 independants. Alors Xt = (X1t , . . . , X

dt ) est un mouvement brownien

issu de 0 a valeurs Rd.(ii) Soit Xt = (X1

t , . . . , Xdt ) un mouvement brownien issu de 0 a valeurs Rd. Alors

les processus (Xit , t ∈ R+), i = 1, . . . , d, sont des mouvements browniens reels issus

de 0 independants.

Preuve: Tout a fait elementaire en utilisant les proprietes des vecteurs gaussiens. Lelecteur est toutefois invite a la rediger soigneusement.

Grace a la prop. 3.2.7, il est facile de construire un mouvement brownien issude 0 a valeurs Rd. On considere d mouvements browniens reels issus de 0, Bi =(Ωi,F i, Bi

t,Pi) i = 1, . . . , d. On definit Ω = Ω1 × . . . × Ωd, F = F1 ⊗ . . . ⊗ Fd,P = P1⊗ . . .⊗Pd et, pour ω = (ω1, . . . ωd), Xi

t(ω) = Bit(ωi). Alors Xt = (X1

t , . . . , Xdt )

est un mouvement brownien issu de 0 a valeurs Rd.

3.3. Construction de Paul Levy

L’existence du mouvement brownien repose sur les th. 3.1.5 et 3.1.6 que nous avonsadmis et un lecteur scrupuleux peut se sentir frustre. C’est pourquoi nous presentonsune construction plus intuitive du mouvement brownien due a Paul Levy. De pluselle permet de simuler les trajectoires.

3.3.1. D’abord un resultat preparatoire.

Lemme 3.3.1. Soit Xn une suite de v.a.r. gaussiennes centrees. On suppose que Xn

converge en probabilite vers X. Alors X est gaussienne et Xn →n X dans L2.

Page 80: Universit´e Pierre et Marie Curie Master de sciences et

80 Processus aleatoires

Preuve: Par hypothese, Xn ∼ N1(0, σ2n). On a (th. 2.8.5) φXn(t) = E(eitXn) =

exp(−12σ

2nt

2) → φX(t). Ceci implique que σ2n = E(X2

n) →n σ2 et φX(t) = exp(−1

2σ2t2).

Donc X est gaussienne. De plus 13!E|Xn|3 ≤ E(e|Xn|) ≤ E(eXn)+E(e−Xn) = e

σ2n2 +e

σ2n2

(vu (2.11)) d’ou supn E|Xn|3 < +∞ et Xn → X dans L2 (prop. 2.7.7).

3.3.2. Soit (Yk,n, 0 ≤ k < 2n, n ≥ 0) des v.a.r. toutes independantes et de loiN1(0, 1). On definit une suite de processus (Xn(t), t ∈ [0, 1]) par:

Xn(t) est lineaire sur chaque intervalle [k

2n,k + 12n

[,

X0(0) = 0, X0(1) = Y0,0,

Xn+1(k

2n) = Xn(

k

2n), Xn+1(

2k + 12n+1

) = Xn(2k + 12n+1

) + 2−n+2

2 Y2k+1,n+1.

Noter que Xn(2k+12n+1 ) = 1

2Xn( k2n ) +Xn(k+12n ).

Lemme 3.3.2. Le vecteur (Xn( k2n ), k = 0, . . . , 2n) est gaussien centre etE(Xn( k2n )Xn( k

2n )) = k2n ∧ k′

2n .

Preuve: Supposons le lemme vrai a l’ordre n. Alors (Xn+1( k2n+1 ), k = 0, . . . , 2n+1)

est un vecteur gaussien comme fonction lineaire des vecteurs ((Xn( k2n ), k = 0, . . . , 2n)et de (Yk,n+1, k = 0, . . . , 2n+1 − 1) qui sont gaussiens et independants. On a alorsE(X2

n+1(2k+12n+1 )) = E[12(Xn( k2n )+Xn(k+1

2n ))+ (12)

n+22 Y2k+1,n+1]2 = 1

4( k2n + k+12n + 2k

2n )+(12)n+2 = 2k+1

2n+1 . La verification est identique pour les termes croises.

Le processus (Xn(t), t ∈ [0, 1]) est donc gaussien centre puisque∑m

k=1 akXn(tk)est une combinaison lineaire des (Xn( k2n ), k = 0, . . . , 2n). De plus, on a

E(Xn(s)Xn(t)) = s ∧ t+O(12n

). (3.9)

3.3.3. Enfin on a,

Lemme 3.3.3. Il existe une constante C telle que, pour tout n,

P( supt∈[0,1]

|Xn+1(t)−Xn(t)| > 2−n4 ) ≤ C2−n.

Preuve: Notons d’abord que, si Y ∼ N1(0, 1), P(|Y | > a) ≤ a−8E|Y |8 ≤ C1a−8.

Alors

P( supt∈[0,1]

|Xn+1(t)−Xn(t)| > 2−n4 ) = P(∪2n−1

k=0 supt∈[ k

2n ,k+12n ]

|Xn+1(t)−Xn(t)| > 2−n4 )

≤ P(∪2n−1k=0 2

−n+22 |Y2k+1,n+1| > 2−

n4 ) ≤ 2nP(|Y | > 2

n+44 ) ≤ C12−n−2.

D’apres le lemme de Borel-Cantelli (prop. 2.2.11), il existe donc un ensemblenegligeable N tel que, pour tout ω /∈ N , supt∈[0,1] |Xn+1(t, ω)−Xn(t, ω)| ≤ 2−

n4 pour

tout n ≥ n0(ω). On en deduit que Xn(t, ω) converge uniformement sur [0, 1] et quela limite X(t, ω) est continue. Il resulte alors du lem. 3.3.1 que le processus X(t) estgaussien centre et, vu (3.9), que E(X(s)X(t)) = s ∧ t. C’est donc un mouvementbrownien sur [0, 1] (prop. 3.2.2).

Page 81: Universit´e Pierre et Marie Curie Master de sciences et

81

3.4. Filtrations. Processus adaptes

Soit (Ω,F , Xt,P) un processus. On pose F0t = σ(Xs, s ≤ t). La tribu F0

t s’appelle latribu des evenements anterieurs a t. Ce sont les evenements dont on sait s’ils ont eulieu ou non si l’on connaıt les valeurs prises par Xs jusqu’a l’instant t. Mais en general,a l’instant t, on connaıt non seulement (Xs)s≤t mais aussi les valeurs prises pard’autres processus, par exemple (Ys)s≤t et (Zs)s≤t et c’est la tribu σ(Xs, Ys, Zs, s ≤ t)qui represente ce qui est connu a l’instant t. Pour modeliser ce type de situation, onintroduit le formalisme suivant.

3.4.1. Filtrations.

Definition 3.4.1. Soit (Ω,F ,P) un espace de probabilite. Une famille croissante(Ft, t ∈ R+) de sous-tribus de F s’appelle une filtration et le terme (Ω,F ,Ft,P) unespace de probabilite filtre.

On note F∞ = σ(Ft, t ≥ 0). Si chaque Ft contient les ensembles negligeables deF∞, la filtration est dite complete. On dit aloes que l’espace de probabilite filtre estcomplet. On peut toujours se ramener a ce cas en remplacant Ft par Ft = σ(Ft,N )ou N designe la classe des ensembles negligeables de F∞. On pose

Ft+ = ∩ε>0Ft+ε. (3.10)

Alors Ft+ est une tribu et (Ft+, t ∈ R+) une nouvelle filtration. On dit que la filtrationFt est continue a droite si Ft+ = Ft. En particulier la filtration Ft+ est continue adroite. Enfin une filtration est dite standard si elle est complete et continue a droite.

3.4.2. Processus adaptes.

Definition 3.4.2. On appelle processus adapte a valeurs (E, E) un termeX = (Ω,F ,Ft, Xt,P) ou (Ω,F ,Ft,P) est un espace de probabilite filtre et, pour toutt, Xt une v.a. Ft-mesurable a valeurs (E, E).

Evidemment X = (Ω,F , Xt,P) est un processus F0t -adapte ou F0

t = σ(Xs, s ≤ t).

Soient X = (Ω,F ,Ft, Xt,P) un processus adapte a valeurs Rd et f ∈ bB(Rd). SiX est mesurable (def. 3.1.4), on peut definir

Yt(ω) =∫ t

0f(Xs(ω)) ds. (3.11)

Yt est une v.a. mais rien n’assure que ce soit un processus adapte. Ceci conduit a lanotion suivante.

3.4.3. Processus progressifs.

Definition 3.4.3. Un processus X = (Ω,F ,Ft, Xt,P) a valeurs Rd est dit progressifou progressivement mesurable si, pour tout T > 0, l’application (t, ω) 7→ Xt(ω) estmesurable de ([0, T ]× Ω,B([0, T ])⊗FT ) dans (Rd,B(Rd)).

Page 82: Universit´e Pierre et Marie Curie Master de sciences et

82 Processus aleatoires

Evidemment un processus progressif est adapte et mesurable et alors le processusYt defini par (3.11) est adapte. Si on pose

Prog = A ⊂ R+ × Ω, (t, ω) 7→ 1A(t, ω) est progressif, (3.12)

on definit une tribu sur R+ × Ω appelee tribu des ensembles progressifs et il estfacile de voir qu’un processus est progressif ssi l’application (t, ω) 7→ Xt(ω) est Prog-mesurable.

Proposition 3.4.4. Soit X = (Ω,F ,Ft, Xt,P) un processus adapte a valeurs Rd

continu a gauche (resp. continu a droite). Alors il est progressif.

Preuve: On note [t] la partie entiere de t. Si X est continu a gauche, on pose Xn(t) =X([n t

T ]Tn ). On aXn(t, ω) →n X(t, ω) etXn(t) est progressif puisque, pour Γ ∈ B(Rd),

(t, ω), t ≤ T, Xn(t, ω) ∈ Γ

= [0,T

n[×X(0) ∈ Γ ∪ [

T

n,2Tn

[×X(T

n) ∈ Γ ∪ . . . ∈ B([0, T ])⊗FT .

SiX est continu a droite, on poseXn(t) = X(T∧([n tT ]+1)Tn ). AlorsXn(t, ω) →n

X(t, ω) pour t ≤ T et Xn(t) est progressif.

3.4.4. Ft-mouvement brownien. Soient Bt un mouvement brownien issu de 0 a valeursRd et F0

s = σ(Bu, u ≤ s). On sait (lem. 3.1.8) que, pour s < t, Bt−Bs est independantde F0

s . Ceci conduit a la definition plus generale suivante:

Definition 3.4.5. Un processus adapte B = (Ω,F ,Ft, Bt,P) est un Ft-mouvementbrownien issu de 0 a valeurs Rd si:(i) pour tous s < t, Bt −Bs est independant de Fs,(ii) B0 = 0, pour tous s < t, Bt −Bs ∼ Nd(0, (t− s)Id),(iii) t 7→ Bt est p.s. continue.

Notons qu’alors, si Bt = (B1t , . . . , B

dt ), chaque Bi

t est un Ft-mouvement brownienreel issu de 0.

Proposition 3.4.6. Soient B = (Ω,F ,Ft, Bt,P) un Ft-mouvement brownien issu de0 a valeurs Rd et Gt = σ(Bt+s − Bt, s ≥ 0). Alors, pour tout t, les tribus Gt et Ft+sont independantes. En particulier Bt est un Ft+-mouvement brownien.

Preuve: On suppose d = 1.

Montrons d’abord que Gt et Ft sont independantes. Pour cela, il suffit de monterque, pour tous t < t1 < . . . < tn, (Bt1 −Bt, . . . , Btn −Btn−1) est independant de Ft.Soient u1, . . . , un, v ∈ R+ et Z ∈ bFt, on a

E(eivZ+iu1(Bt1−Bt)+...+iun(Btn−Btn−1 ))= E(eivZ+iu1(Bt1−Bt)+...+iun−1(Btn−1−Btn−2 ))E(eiun(Btn−Btn−1 )) = . . . =

E(eivZ)E(eiu1(Bt1−Bt)) . . .E(eiun(Btn−Btn−1 )) = E(eivZ)E(eiu1(Bt1−Bt)+...+iun(Btn−Btn−1 ))

Page 83: Universit´e Pierre et Marie Curie Master de sciences et

83

ce qui montre (th. 2.5.5) l’independance de (Bt1 −Bt, . . . , Btn −Btn−1) et de Z.

Montrons maintenant que Gt et Ft+ sont independantes. Il suffit de montrer que,pour tous t < t1 < . . . < tn, (Bt1 −Bt, . . . , Btn −Bt) est independant de Ft+. Soientu1, . . . , un, v ∈ R+ et Z ∈ bFt+, on a, puisque Z ∈ bFt+ε et vu l’independance etablieci-dessus,

E(eivZ+iu1(Bt1−Bt)+...+iun(Btn−Bt)) = limε→0

E(eivZ+iu1(Bt1+ε−Bt+ε)+...+iun(Btn+ε−Bt+ε)) =

limε→0

E(eivZ)E(eiu1(Bt1+ε−Bt+ε)+...+iun(Btn+ε−Bt+ε)) = E(eivZ)E(eiu1(Bt1−Bt)+...+iun(Btn−Bt))

ce qui montre (th. 2.5.5) l’independance de (Bt1 −Bt, . . . , Btn −Bt) et de Z.

3.4.5. Filtration naturelle du mouvement brownien. SoientB = (Ω,F , Bt,P) un mou-vement brownien issu de 0 a valeurs Rd, F0

t = σ(Bs, s ≤ t), F0∞ = σ(Bt, t ≥ 0) et N

la classe des ensembles negligeables de F0∞. On definit:

FBt = σ(F0

t ,N ). (3.13)

La filtration FBt s’appelle la filtration naturelle du mouvement brownien. La propo-

sition suivante montre que c’est une filtration standard.

Proposition 3.4.7. On a FBt+ = FB

t .

Preuve: Le lecteur peu familier de la notion d’esperances conditionnelles lira d’abordla section 4.1. On note Gt = (Bt+s − Bt, s ≥ 0), FB

∞ = σ(F0∞,N ) et C = A =

B ∩ C, B ∈ F0t , C ∈ Gt. C est stable par intersection finie et on a, vu la prop.

3.4.6, pour tout A ∈ C, E(1A | FBt+) = 1BP(C) = E(1A | FB

t ) p.s. Soit M = A ∈FB∞, E(1A | FB

t+) = E(1A | FBt ) p.s.. M verifie les hypotheses du th. 1.1.2 et M ⊃ C

donc M ⊃ σ(C) = F0∞ et M ⊃ FB

∞. Soit A ∈ FBt+ ⊂ FB

∞, on 1A = E(1A | FBt+) =

E(1A | FBt ) p.s. et donc A ∈ FB

t .

3.5. Temps d’arret

Soit (Ω,Ft,F ,P) un espace de probabilite filtre. On pose F∞ = σ(Ft, t ≥ 0).

3.5.1. Definitions.

Definition 3.5.1. (i) Une application τ de Ω dans R+ est un temps d’arret si, pourtout t ≥ 0, τ ≤ t ∈ Ft.(ii) Soit τ un temps d’arret. La tribu

Fτ := A ∈ F∞ , pour tout t ≥ 0, A ∩ τ ≤ t ∈ Ft

s’appelle la tribu des evenements anterieurs a τ .

On verifie immediatement que Fτ est une tribu. Noter que le temps constant τ = test un temps d’arret et que τ est Fτ -mesurable. Cette notion et evidemment relativea une filtration. On dira Ft-temps d’arret si on veut preciser ce point. On peut aussiconsiderer la filtration Ft+ = F (+)

t . On a a ce sujet:

Page 84: Universit´e Pierre et Marie Curie Master de sciences et

84 Processus aleatoires

Proposition 3.5.2. τ est un Ft+-temps d’arret ssi, pour tout t ≥ 0, τ < t ∈ Ft.On a alors F (+)

τ = A ∈ F∞, pour tout t ≥ 0, A ∩ τ < t ∈ Ft.Preuve: On utilise dans un sens, τ ≤ t = ∩τ < t + 1

n ∈ Ft+ et dans l’autre,τ < t = ∪τ ≤ t− 1

n ∈ Ft.

3.5.2. Proprietes. Rappelons que a ∨ b := sup(a, b) et a ∧ b = inf(a, b).

Proposition 3.5.3. (i) Soient σ et τ des temps d’arret avec σ ≤ τ , alors Fσ ⊂ Fτ .(ii) Soient σ et τ des temps d’arret. Alors σ ∨ τ et σ ∧ τ sont des temps d’arret etFσ∧τ = Fσ ∩ Fτ . De plus σ ≤ τ et σ = τ appartiennent a Fσ∧τ .(iii) Soient τn des temps d’arret. Alors supn τn est un temps d’arret.(iv) Supposons les Ft continues a droite. Soient τn une suite decroissante de tempsd’arret et τ = lim ↓ τn, alors τ est un temps d’arret et Fτ = ∩nFτn.

Preuve: (i) On a, pour A ∈ Fσ, A ∩ τ ≤ t = A ∩ σ ≤ t ∩ τ ≤ t ∈ Ft.

(ii) On a σ∧τ ≤ t = σ ≤ t∪τ ≤ t ∈ Ft et σ∨τ ≤ t = σ ≤ t∩τ ≤ t ∈ Ft.

Vu (i), Fσ∧τ ⊂ Fσ ∩ Fτ . Soit A ∈ Fσ ∩ Fτ , alors A ∩ σ ∧ τ ≤ t = (A ∩ σ ≤t) ∪ (A ∩ τ ≤ t) ∈ Ft et A ∈ Fσ∧τ .

Pour montrer que σ ≤ τ ∈ Fσ∧τ , il suffit donc de montrer que σ ≤ τ ∈ Fσ ∩Fτ .Mais l’on a σ ≤ τ ∩ τ ≤ t = σ ≤ t ∩ τ ≤ t ∩ σ ∧ t ≤ τ ∧ t ∈ Ft etσ ≤ τ ∩ σ ≤ t = σ ∧ t ≤ τ ∧ t ∩ σ ≤ t ∈ Ft.

On procede de meme pour σ = τ.

(iii) On a supn τn ≤ t = ∩nτn ≤ t ∈ Ft.

(iv) Vu que τ < t = ∪nτn < t ∈ Ft, τ est un temps d’arret. Vu (i), Fτ ⊂ ∩nFτn .Soit A ∈ ∩nFτn . On a, utilisant la prop. 3.5.2, A∩ τ < t = ∪nA∩ τn < t ∈ Ft etA ∈ Fτ .

3.5.3. Temps d’entree. Soient X = (Ω,Ft,F , Xt,P) un processus adapte a valeurs Rd

et Γ ∈ B(Rd). On poseτΓ(ω) = inf(t ≥ 0, Xt(ω) ∈ Γ) (3.14)

ou l’on convient que inf ∅ = +∞. Cette convention sera valable dans toute la suite.En gros τΓ, appele temps d’entree dans Γ, est un temps d’arret mais cela demandequelques precautions.

Proposition 3.5.4. Si Γ est ferme et X a trajectoires continues, τΓ est un tempsd’arret de Ft.Preuve: En effet, notant, d(x,Γ) = infy∈Γ |x− y|, on a

τΓ ≤ t = ∩n ∪s<t,s∈Q+ d(Xs,Γ) <1n ∈ Ft.

Si Γ est ouvert, c’est plus complique car la connaissance de Xs sur [0, t] ne per-met pas de decider si τΓ ≤ t ou non. Il faut connaıtre l’avenir infinitesimal. Plusprecisement:

Page 85: Universit´e Pierre et Marie Curie Master de sciences et

85

Proposition 3.5.5. Si Γ est ouvert et X a trajectoires continues a droite, τΓ est untemps d’arret de Ft+.

Preuve: En effet on a

τΓ < t = ∪s<t,s∈Q+Xs ∈ Γ ∈ Ft

et donc τΓ est temps d’arret de Ft+ (prop. 3.5.2).

Le resultat general sur ce sujet, dont la demonstration est difficile (voir [7]), est,

Theoreme 3.5.6. Soient X = (Ω,Ft,F , Xt,P) un processus adapte a valeurs Rd

et Γ ∈ B(Rd). Si X est continue a droite et la filtration Ft standard, τΓ est tempsd’arret.

3.5.4. Soient X = (Ω,Ft,F , Xt,P) un processus adapte a valeurs Rd et τ un tempsd’arret. On veut definir la position du processus a l’instant τ i.e. Xτ (ω) = Xτ(ω)(ω).Cela pose deux problemes. Le premier est que τ peut prendre la valeur +∞, le secondest qu’il n’est pas evident que, meme sur τ < +∞ Xτ soit mesurable.

Pour resoudre le premier probleme, on se donne une v.a.X∞ ∈ Rd, F∞-mesurable.Alors Xτ (ω) = Xτ(ω)(ω) est bien defini. Noter que, si on choisit X∞ = 0, Xτ =Xτ1τ<+∞. Pour resoudre le second, on a:

Proposition 3.5.7. Si X est un processus progressif (def. 3.4.3) et τ un tempsd’arret, Xτ est Fτ -mesurable.

Preuve: Soit Γ ∈ B(Rd). Il s’agit de montrer que Xτ ∈ Γ ∈ Fτ i.e. que Xτ ∈ Γ ∈F∞ et que, pour tout t ≥ 0, Xτ ∈ Γ∩τ ≤ t ∈ Ft. Soit Ωt = τ ≤ t. L’applicationω 7→ (τ(ω), ω) est mesurable de (Ωt,Ft) dans ([0, t]× Ω,B([0, t])⊗ Ft), l’application(s, ω) 7→ Xs(ω) est mesurable de (([0, t] × Ω,B([0, t]) ⊗ Ft) dans (Rd,B(Rd)) pardefinition de la progressivite. Donc l’application composee ω 7→ Xτ(ω)(ω) de (Ωt,Ft)dans (Rd,B(Rd)) est mesurable i.e. τ ≤ t,Xτ ∈ Γ ∈ Ft. Enfin

Xτ ∈ Γ = τ = +∞, X∞ ∈ Γ ∪ lim ↑t→+∞ τ ≤ t,Xτ ∈ Γ ∈ F∞.

3.5.5. Processus a temps discret. Les definitions et resultats precedents s’etendentfacilement au cas T = N avec de nombreuses simplifications. SoientX = (Ω,Fn,F , Xn,P)un processus adapte a valeurs (E, E) et F∞ = σ(Fn, n ≥ 0).

(i) Vu que ν = n = ν ≤ n \ ν ≤ n − 1 et que ν ≤ n = ∪nk=0ν = k,ν : Ω → N est un temps d’arret ssi, pour tout n ≥ 0, ν = n ∈ Fn et Fν = A ∈F∞ ; pour tout n ≥ 0, A ∩ ν = n ∈ Fn.

(ii) Pour tout Γ ∈ E , le temps d’entree dans Γ, τΓ = inf(n ≥ 0, Xn ∈ Γ), est un tempsd’arret de Fn puisque τΓ = n = X0 /∈ Γ, . . . , Xn−1 /∈ Γ, Xn ∈ Γ ∈ Fn.

(iii) Etant donnee une v.a. X∞ F∞-mesurable, Xν definie par Xν(ω) = Xn(ω) surν = n, n ∈ N, est Fν-mesurable vu que Xν ∈ Γ ∩ ν = n = Xn ∈ Γ ∈ Fn.

Page 86: Universit´e Pierre et Marie Curie Master de sciences et

86 Processus aleatoires

(iv) Enfin on a pour toute f ∈ bE ∪ E+:

E(f(Xν)1ν<+∞) =∞∑n=0

E(f(Xn)1ν=n). (3.15)

Page 87: Universit´e Pierre et Marie Curie Master de sciences et

Chapitre 4

Esperances conditionnelles.Martingales

En un premier temps, le lecteur peut, apres la lecture des sections 4.1 a 4.4, se reportera la section 4.7 qui presente les principaux resultats sur les martingales utilises parla suite.

4.1. Esperances conditionnelles

Soit (Ω,A,P) un espace de probabilite.

4.1.1. Soit X une v.a.r. de carre integrable. Predire X, c’est chercher la valeur de aminimisant E(X−a)2. On sait (lem. 2.3.2) que ce minimum est obtenu pour a = E(X)et qur ce minimum vaut Var(X). Supposons que l’on connaisse la valeur prise parune v.a. T , il s’agit alors de minimiser E(X − f(T ))2 parmi toutes les fonctions(deterministes) f telles que f(T ) ∈ L2. Vu le cor. 1.1.6, on est ramene au problemesuivant: etant donnees X ∈ L2 et B une sous-tribu de A, minimiser E(X−Y )2 parmitoutes les v.a.r. Y ∈ L2, B-mesurables. Pour cela, on pose H = L2(Ω,A,P). H est unespace de Hilbert et K = Z ∈ H, Z a un representant B-mesurable est un sousespace ferme de H puisque K ' L2(Ω,B,P). Rappelons (th. 1.5.4) que, pour toutX ∈ H, il existe un unique Y ∈ K verifiant l’une des proprietes equivalentes:(i) pour tout Z ∈ K, ||X − Y ||2 ≤ ||X − Z||2,(ii) pour tout Z ∈ K, X − Y ⊥ Z (⇔ < X,Z >=< Y,Z >).

Y s’appelle la projection orthogonale de X sur K et c’est la solution du problemepose. En d’autres termes, on a etabli:

Theoreme 4.1.1. Soient X une v.a.r. de carre integrable et B une sous-tribu de A.Alors il existe une v.a.r. Y de carre integrable, B-mesurable, unique a une equivalencepres, telle que

pour toute v.a.r. Z de carre integrable B-mesurable, E(Y Z) = E(XZ). (4.1)

4.1.2. Ce resultat s’etend facilement aux v.a.r. positives ou integrables.

Page 88: Universit´e Pierre et Marie Curie Master de sciences et

88 Esperances conditionnelles. Martingales

Theoreme 4.1.2. Soient X une v.a.r. integrable (resp. positive) et B une sous-tribude A. Alors il existe une v.a.r. Y integrable (resp. positive), B-mesurable, unique aune equivalence pres, telle que

pour tout B ∈ B,∫BY dP =

∫BX dP. (4.2)

Preuve: L’unicite resulte du lemme tres utile suivant:

Lemme 4.1.3. Si X et Y sont deux v.a. reelles B-mesurables, toutes deux positivesou toutes deux integrables, verifiant,

pour tout B ∈ B,∫BX dP ≥

∫BY dP (resp. =),

alors X ≥ Y p.s. (resp. =).

Preuve: Soit Fa,b = X ≤ a < b ≤ Y ∈ B. Puisque X < Y = ∪a,b∈QFa,b, il suffitde montrer que, pour tous a < b, P(Fa,b) = 0. Mais si P(Fa,b) > 0,∫

Fa,b

X dP ≤ aP(Fa,b) < bP(Fa,b) ≤∫Fa,b

Y dP,

ce qui contredit l’hypothese.

Montrons l’existence. On suppose X ≥ 0. Soit Xn = X ∧ n, Xn ∈ L2. Il existedonc Yn B-mesurable telle que, pour tout B ∈ B,

∫B Yn dP =

∫B Xn dP . Le lem..

4.1.3 implique que Yn est positive et croissante. On pose Y = lim ↑ Yn, Y est B-mesurable et (Beppo-Levi), pour tout B ∈ B,

∫B Y dP = lim ↑

∫B Yn dP = lim ↑∫

B Xn dP =∫B X dP . Notons que si X est integrable, Y egalement et donc Y < +∞

p.s. Si X ∈ L1, on ecrit X = X+ −X−.

La v.a. Y definie par le th. 4.1.2 s’appelle l’esperance conditionnelle de X sachantB et se note E(X|B) ou EB(X). Si X = 1A, A ∈ A, E(1A|B) se note P(A|B) ets’appelle la probabilite conditionnelle de A sachant B. Si X = (X1, . . . , Xd) ∈ L1

d, levecteur aleatoire (E(X1|B), . . . ,E(Xd|B)) s’appelle encore l’esperance conditionnellede X sachant B et se note aussi E(X|B).

Proposition 4.1.4. (i) Soit X ≥ 0. Alors Y = E(X|B) verifie

pour toute Z ∈ B+, E(Y Z) = E(XZ).

(ii) Soit X ∈ L1. Alors Y = E(X|B) verifie

pour toute Z ∈ bB, E(Y Z) = E(XZ).

Preuve: Supposons d’abord X ≥ 0. La relation E(ZY ) = E(ZX) est, par definition,vraie pour Z = 1B, B ∈ B. Par linearite elle est vraie pour Z etagee B-mesurablepositive puis (prop. 1.1.1 et Beppo-Levi) pour Z B-mesurable positive. Si X ∈ L1,on se ramene au cas positif en ecrivant X = X+ −X− et Z = Z+ − Z−.

Page 89: Universit´e Pierre et Marie Curie Master de sciences et

89

Remarque 1. On peut donner une demonstration directe du th. 4.1.2 en utilisant letheoreme de Radon-Nikodym (th. 1.10.7). Soit X ∈ L1(Ω,A,P). Posons, pour B ∈ B,νX(B) =

∫B X dP, νX est une mesure signee sur (Ω,B) et, notant PB la restriction

de P a B, on a, pour tout B ∈ B, PB(B) = 0 implique νX(B) = 0. On peut appliquerle th. 1.10.7 sur l’espace (Ω,B). Il existe donc Y ∈ L1(Ω,B,P) unique telle que, pourtout B ∈ B,

νX(B) =∫BX dP =

∫BY dPB =

∫BY dP.

On a doncE(X|B) =

d νXdPB

.

Remarque 2: Si on ecrit X = X+−X−, E(X|B) = E(X+|B)−E(X−|B) est definiesans ambiguıte des que E(X+) < +∞ ou E(X−) < +∞.

4.1.3. Proprietes. B designe une sous-tribu de A. On a alors:

Proposition 4.1.5. On suppose les esperances conditionnelles ecrites ci-dessousdefinies sans ambiguıte.

(i) E(1|B) = 1 p.s. et, si B = Ω, ∅, E(X|B) = E(X).

(ii) E(aX + bY |B) = aE(X|B) + bE(Y |B) p.s.

(iii) X ≤ Y p.s. implique E(X|B) ≤ E(Y |B) p.s.

(iv) E(E(X|B)) = E(X).

(v) Si X est B-mesurable, EB(XY ) = XEB(Y ) p.s.

(vi) Soit C une sous-tribu de B, on a EC(X) = EC(EB(X)) p.s.

(vii) Soient X,Y ∈ L2, on a |EB(XY )|2 ≤ EB(X2)EB(Y 2) p.s

(viii) Soit f : R → R convexe, on a f(EB(X)) ≤ EB(f(X)) p.s.

(ix) Si 0 ≤ Xn ↑ X, EB(Xn) ↑ EB(X) p.s.

(x) Si 0 ≤ Xn, EB(lim infXn) ≤ lim inf EB(Xn) p.s.

(xi) Si |Xn| ≤ V avec V ∈ L1 et si Xn → X p.s., EB(Xn) → EB(X) p.s.

Preuve: Les proprietes (i)-(iv) sont immediates.

(v) On considere le cas positif. Soient U = XEB(Y ) et V ∈ B+. Alors U ∈ B+ et ona (prop. 4.1.4) E(V U) = E(V XEB(Y )) = E(V XY ) i.e. U = EB(XY ). p.s.

(vi) On considere le cas positif. Posons Y = EC(EB(X)), Y ∈ C+. Soit Z ∈ C+ ⊂ B+.On a

E(ZY ) = E(ZEC(EB(X))) = E(ZEB(X)) = E(ZX)

i.e. Y = EC(X).

(vii) On a, sauf sur un ensemble negligeable N , pour tout λ ∈ Q, 0 ≤ EB(X+λY )2 =EB(X2)− 2λEB(XY ) + λ2EB(Y 2) d’ou l’inegalite en ecrivant que ∆ ≤ 0 p.s.

Page 90: Universit´e Pierre et Marie Curie Master de sciences et

90 Esperances conditionnelles. Martingales

(viii) Soit xn une suite dense dans R. Reprenant l’argument de la prop. 2.3.4, pourchaque n, il existe une fonction affine αn(x) = anx + bn ≤ f(x) telle que αn(xn) =f(xn). Soit g = supn αn, g est convexe (tout sup de fonctions convexes est convexe),continue (toute fonction convexe sur R est continue) et, pour tout n, g(xn) = f(xn)donc g = f i.e. f(x) = supn(anx+bn). On a alors, pour tout n, anX+bn ≤ f(X) d’oup.s. anEB(X) + bn ≤ EB(f(X)) et f(EB(X)) = supn(anEB(X) + bn) ≤ EB(f(X)).

(ix) Vu (iii), EB(Xn) ↑ p.s. On pose Y = lim sup EB(Xn), Y est B -mesurable eton a EB(Xn) ↑ Y p.s. Vu que, pour tout B ∈ B,

∫B Xn dP =

∫B EB(Xn) dP, on a

(Beppo-Levi),∫B X dP =

∫B Y dP i.e. Y = EB(X) p.s.

(x) Vu que lim infXn = limn ↑ infi≥nXi, on a p.s., utilisant (i), EB(lim infXn) =EB(limn ↑ infi≥nXi) = limn ↑ EB(infi≥nXi) ≤ limn ↑ infi≥n EB(Xi) = lim inf EB(Xn).

(xi) |Xn| ≤ V avec V ∈ L1, on a, appliquant (v) a V + Xn et a V − Xn qui sontpositives

EB(lim infXn) ≤ lim inf EB(Xn) ≤ lim sup EB(Xn) ≤ EB(lim supXn) p.s.

Ceci implique (xi).

Tirons quelques consequences de (viii). Soit p ≥ 1. La fonction x 7→ |x|p etant con-vexe, on a |EB(X)|p ≤ EB(|X|p) et prenant l’esperance, E|EB(X)|p ≤ E(EB(|X|p)) =E|X|p d’ou

pour p ≥ 1 et X ∈ Lp, ||EB(X)||p ≤ ||X||p (4.3)

ce qui signifie que l’operateur X 7→ EB(X) est une contraction de Lp.

4.1.4. Soit T une v.a. a valeurs (E, E). Rappelons (cor. 1.1.6) qu’une v.a. Z a valeursR (resp. R+) est σ(T )-mesurable ssi il existe f ∈ [E ] (resp. f ∈ E+) telle que Z = fT .

PourX integrable ou positive, on definit l’esperance conditionnelle de X sachant Tcomme l’esperance conditionnelle de X sachant σ(T ) i.e.

E(X|T ) := E(X|σ(T )). (4.4)

On a alors:

Proposition 4.1.6. Soit X une v.a. integrable (resp. positive). Alors Y = E(X|T )ssi Y est de la forme Y = h(T ) avec h ∈ [B(R)] (resp. B+(R)) et

pour toute g ∈ bE (resp. toute g ∈ E+), E(g(T )Y ) = E(g(T )X). (4.5)

La fonction h ci-dessus est unique au sens suivant. Si E(X|T ) = h(T ) = h′(T ),h(T ) = h′(T ) p.s. et donc h = h′ µT p.p., µT etant la loi de T .

Remarque. Si P(T = a) > 0, on a h(a) = 1P(T=a)

∫T=aX dP (prendre g = 1a(t)

dans (4.5)).

Page 91: Universit´e Pierre et Marie Curie Master de sciences et

91

4.2. Calculs d’esperances conditionnelles

B designe une sous-tribu de A.

4.2.1. Les principaux resultats sur l’independance ont ete presentes section 2.2. Ondit qu’une v.a. X et une tribu B sont independantes si les tribus σ(X) et B sontindependantes. Ceci equivaut a X est independante de toute v.a.r. B-mesurable.

Proposition 4.2.1. Soit X une v.a.r. positive ou integrable independante de B. Ona E(X|B) = E(X) p.s.

Preuve: Soit m = E(X). Evidemment m est B-mesurable. On a, pour toute Z ∈ B+,E(XZ) = E(X)E(Z) = E(mZ) i.e. E(X|B) = m p.s.

Attention. L’egalite E(X|B) = E(X) p.s. n’implique evidemment pas que X soitindependante de B. Par contre, on a:

Proposition 4.2.2. Soient X une v.a. a valeurs (E, E) et B une sous-tribu de A.Alors X est independante de B ssi

pour toute f ∈ E+, EB(f(X)) = E(f(X)) p.s. (4.6)

Preuve: Si X est independante de B, (4.6) resulte de la prop. 4.2.1. Reciproquementsupposons (4.6). Soient f ∈ E+ et Z ∈ B+. On a

E(f(X)Z) = E(EB(f(X)Z)) = E(ZEB(f(X))) = E(ZE(f(X))) = E(Z)E(f(X))

et les tribus σ(X) et B sont independantes.

Remarque: Dans la prop. 4.2.2, on peut remplacer “pour toute f ∈ E+” par “pourtoute f ∈ bE” ou par “pour toute f ∈ L1(E, E , µX)”.

On verifie facilement que, si X est independante de B, (4.6) est vraie pour toutef ∈ L1(µX).

Proposition 4.2.3. Soient X une v.a. a valeurs Rd et B une sous-tribu de A. AlorsX est independante de B ssi

pour tout t ∈ Rd, EB(ei<t,X>) = E(ei<t,X>) p.s. (4.7)

Preuve: (i) Si X est independante de B, on a (4.7) vu la prop. 4.2.1 .

(ii) Supposons (4.7). Soit Z une v.a.r. B-mesurable. On a, pour tout t ∈ Rp et toutτ ∈ R,

E(ei<t,X>+iτZ) = E(eiτZEB(ei<t,X>))= E(eiτZE(ei<t,X>)) = E(ei<t,X>)E(eiτZ)

et donc (th. 2.5.5) X et Z sont independantes.

4.2.2. On generalise la prop. 4.2.1.

Page 92: Universit´e Pierre et Marie Curie Master de sciences et

92 Esperances conditionnelles. Martingales

Proposition 4.2.4. Soient (Ω,A,P) un espace de probabilites, B, C des sous-tribusde A independantes, X une v.a. B-mesurable a valeurs (E, E) et Φ(x, ω) ∈ (E ⊗C)+∪b(E ⊗ C). Alors

E(Φ(X, .) | B) = φ(X) p.s. avec φ(x) = E(Φ(x, .)).

Preuve: Vu le th. 1.1.3, on peut supposer Φ(x, ω) = f(x)Z(ω) avec f ∈ E+ etZ ∈ C+. Alors φ(x) = f(x)E(Z). Soit U une v.a. B-mesurable. On a

E(UΦ(X, .)) = E(Uf(X)Z) = E(Uf(X)EB(Z)) = E(Uf(X)E(Z)) = E(Uφ(X))

i.e. E(Φ(X, .) | B) = φ(X) p.s.

On en deduit immediatement:

Corollaire 4.2.5. Soient T,X des v.a. a valeurs (E, E) et (F,F). On suppose que Test B-mesurable et que X est independante de B. Alors, pour toute h ∈ (E ⊗ F)+ ∪b(E ⊗ F),

E(h(T,X)|B) = φ(T ) p.s. ou φ(t) = E(h(t,X)).

4.2.3. Le cas gaussien. On considere un vecteur gaussien (T,X) a valeurs Rp × Rq.On note K(T ) et K(X) les matrices de covariance de T et X et on pose C(T,X) =E((T − E(T ))(X − E(X))T), C(X,T ) = CT(T,X). On suppose det(K(T)) 6= 0. Oncherche a ecrire X sous la forme X = AT + Z avec T et Z independantes ce quirevient a chercher une matrice A telle que X − AT et T soient independantes. Lecouple (X − AT, T ) etant gaussien comme fonction lineaire de (T,X), X − AT etT sont independantes (th. 2.6.6) ssi, pour tous i, j, Cov((X − AT )i, Tj) = 0 ce quis’ecrit C(X,T )−AK(T ) = 0.

On a donc, pour A = C(X,T )K−1(T ), X = AT + Z avec T et Z = X − ATindependantes. Remarquons que la v.a. Z est gaussienne avec E(Z) = E(X)−AE(T )et K(Z) = K(X)− C(X,T )K−1(T )C(T,X). Appliquant la prop. 4.2.5, on a

E(f(X) |T ) = E(f(AT + Z) |T ) = φ(T ) p.s. ou φ(t) = E(f(At+ Z)).

On peut enoncer:

Proposition 4.2.6. Soit (T,X) un vecteur gaussien a valeurs Rp ×Rq. On supposedet(K(T)) 6= 0. Alors, pour toute f ∈ B+(Rq) ∪ L1(µX),

E(f(X) |T ) = Φf (T ) p.s. avec Φf (t) = E(f(At+ Z)) p.s.

ou A = C(X,T )K−1(T ) et Z ∼ Nq(E(X)−AE(T ),K(X)−C(X,T )K−1(T )C(T,X)).

On a en particulier

E(X |T ) = E(X) + C(X,T )K−1(T )(T − E(T )) p.s.

4.2.4. Les problemes classiques de conditionnement se traitent grace a:

Page 93: Universit´e Pierre et Marie Curie Master de sciences et

93

Proposition 4.2.7. Soient T,X des v.a. a valeurs (E, E) et (F,F), α, β des mesuresσ-finies sur (E, E) et (F,F). On suppose que (T,X) a une densite h(t, x) par rapporta α⊗ β. On pose φ(t) =

∫h(t, x) dβ(x) et

h(x | t) =h(t, x)φ(t)

si φ(t) 6= 0, h(x | t) = densite arbitraire si φ(t) = 0.

Alors, pour toute f ∈ F+ ∪ L1(µX),

E(f(X) |T ) = Φf (T ) p.s. avec Φf (t) =∫f(x)h(x | t) dβ(x).

Preuve: Soit B = t, φ(t) = 0. On a∫B×F h(t, x) dα(t)dβ(x) =

∫B φ(t) dα(t) = 0

et h(t, x) = 0 sur B ×F α⊗ β p.p. On en deduit que h(t, x) = φ(t)h(x | t) α⊗ β p.p.Soient f ∈ F+ et g ∈ E+, on a

E[g(T )f(X)] =∫g(t)f(x)h(t, x) dα(t)dβ(x) =

∫g(t)f(x)φ(t)h(x | t) dα(t)dβ(x)

=∫g(t)[

∫f(x)h(x | t) dβ(x)]φ(t) dα(t) = E(g(T )φf(T ))

On conclut en appliquant la prop. 4.1.6.

En particulier, pour X reelle integrable, on a:

E(X |T ) =∫xh(x |T ) dβ(x) p.s.

4.2.5. Lois conditionnelles. Soient T,X des v.a. a valeurs (E, E) et (F,F). On saitque µ est la loi de X ssi, pour toute f ∈ F+, E(f(X)) =

∫f(x) dµ(x). On appellera

donc la loi conditionnelle de X sachant T = t, une famille de probabilites sur (F,F),(nt(dx), t ∈ E), telle que, pour toute f ∈ F+,

E(f(X)|T ) =∫f(x)nT (dx) p.s.

Pour etre tout a fait rigoureux, il faudrait preciser les mesurabilites. On voit doncque, dans le cadre de la prop. 4.2.6 la loi conditionnelle de X sachant que T = test la loi gaussienne de moyenne E(X) + A(t − E(T )) et de covariance K(X) −C(X,T )K−1(T )C(T,X) et que, dans le cadre de la prop. 4.2.7 la loi conditionnellede X sachant que T = t est la loi de densite h(x | t) par rapport a β.

4.2.6. La notion d’uniforme integrabilite a ete introduite section 2.10.

Proposition 4.2.8. Soient X ∈ L1 et I l’ensemble des sous-tribus de A, la famille(EB(X), B ∈ I) est uniformement integrable.

Page 94: Universit´e Pierre et Marie Curie Master de sciences et

94 Esperances conditionnelles. Martingales

Preuve: Soit ε > 0. Vu la prop. 2.10.2, il existe α > 0 tel que P(A) < α im-plique

∫A |X| dP < ε. Soit M = α−1E|X|. On a, pour a > M , P(|EB(X)| > a) ≤

a−1E|EB(X)| ≤ a−1E|X| < α et∫|EB(X)|>a

|EB(X)| dP ≤∫|EB(X)|>a

EB|X| dP =∫|EB(X)|>a

|X| dP < ε.

On en deduit immediatement, vu le th. 2.10.5, une generalisation tres utile dutheoreme de Lebesgue (qu’on peut aussi montrer directement).

Corollaire 4.2.9. Soit (Ω,Fn,F , Xn,P) une suite de v.a.r. adaptees. On supposeque Xn →n X p.s. et qu’il existe Y ∈ L1 telle que, pour tout n, |Xn| ≤ E(Y | Fn) p.s.Alors Xn →n X dans L1.

4.2.7. Les notions d’espace de probabilite filtre et de temps d’arret ont ete introduitesen 3.4.4 et 3.5.1. Le lemme suivant sera tres utile.

Lemme 4.2.10. Soient (Ω,Fn,F ,P) un espace de probabilite filtre, ν un tempsd’arret et X une v.a. integrable ou positive. Alors p.s.

sur ν = n, E(X |Fν) = E(X |Fn), n ∈ N.

Preuve: Supposons X ≥ 0. Soit Yn = E(X |Fn). Il s’agit de montrer que

Y :=∑n∈N

Yn1ν=n = E(X |Fν).

On a, pour tout Z ∈ F+ν , vu que Z1ν=n ∈ F+

n ,

E(ZY ) =∑n∈N

E(ZYn1ν=n) =∑n∈N

E(ZX1ν=n) = E(ZX)

d’ou Y = E(X |Fν).

4.3. Martingales

4.3.1. Soit (Ω,Ft,F ,P) un espace de probabilite filtre qu’on suppose complet (3.4.1).Rappelons qu’on note F∞ la tribu σ(Ft, t ≥ 0).

Definition 4.3.1. Un processus adapte reel (Xt, t ∈ R+) est une martingale (resp.une surmartingale, resp. une sous-martingale) si, pour tout t, Xt est integrable et si,pour tous s < t, E(Xt|Fs) = Xs p.s. (resp. E(Xt|Fs) ≤ Xs, resp. E(Xt|Fs) ≥ Xs).

Si, dans cette definition, on remplace “Xt integrable” par “Xt positive”, on a lanotion de martingale generalisee positive (resp. de surmartingale generalisee positive).

Attention. La notion de martingale est relative a une filtration Ft et il serait pluscorrect de parler de Ft-martingale; c’est ce que l’on fera s’il y a la moindre ambiguıte.

Page 95: Universit´e Pierre et Marie Curie Master de sciences et

95

Si aucune filtration n’est precisee, on dit qu’un processus reel X = (Ω,F , Xt,P) estune martingale si c’est une F0

t -martingale ou F0t = σ(Xs, s ≤ t).

Si Xt est une surmartingale, −Xt est une sous-martingale et reciproquement. Xt

est une martingale si c’est a la fois une surmartingale et une sous-martingale.Vu la prop. 4.1.5 (iv), si Xt est une martingale, E(Xt) est constante, si Xt est

une surmartingale, E(Xt) est decroissante, si Xt est une sous-martingale, E(Xt) estcroissante.

Il resulte du lem. 4.1.3 qu’un processus adapte integrableXt est une sous-martingalessi

pour tous s < t, pour tout A ∈ Fs,∫AXt dP ≥

∫AXs dP. (4.8)

Definition 4.3.2. Une sous-martingale Xt est dite fermee par X∞ s’il existe unev.a.r. X∞, integrable et F∞-mesurable, telle que, pour tout t, Xt ≤ E(X∞ | Ft) p.s.

Evidemment s’il existe X ∈ L1 telle que Xt ≤ E(X | Ft) p.s., Xt est fermee parX∞ = E(X | F∞). SiXt est une sous-martingale fermee parX∞ et τ un temps d’arret,on definit Xτ sur τ = +∞ par Xτ = X∞.

Enfin on dira qu’un processus adapte (Xt, t ∈ R+) a valeurs C est une martingalecomplexe si <(Xt) et =(Xt) sont des martingales.

4.3.2. Quelques proprietes. Notons d’abord que, si Xt et Yt sont des surmartingales,Xt ∧ Yt est une surmartingale (verification immediate). On a ensuite,

Proposition 4.3.3. Soient Xt une martingale (resp. une sous-martingale) et fune application de R dans R convexe (resp. convexe croissante). On suppose f(Xt)integrable. Alors f(Xt) est une sous-martingale.

Preuve: On a (prop. 4.1.5 (viii)) pour s < t, EFs(f(Xt)) ≥ f(EFs(Xt)) = f(Xs) p.s.si Xt est une martingale et f(EFs(Xt)) ≥ f(Xs) p.s. si f est croissante et Xt unesous martingale puisque, dans ce cas, EFs(Xt) ≥ Xs p.s.

Ceci implique que, si Xt est une martingale, |Xt|p, p ≥ 1, est une sous-martingalesi Xt ∈ Lp, que, si Xt est une sous-martingale, X+

t est une sous-martingale, et que, siXt est une sous-martingale positive, Xp

t , p > 1, est une sous-martingale si Xt ∈ Lp.

La proposition suivante ne sera utilisee que section 5.9.

Proposition 4.3.4. Soit (Xt, t ∈ R+) une Ft-sous-martingale continue a droite.Alors (Xt, t ∈ R+) est une Ft+-sous-martingale.

Preuve: Il s’agit de montrer que, pour s < t et A ∈ Fs+, E(1AXt) ≥ E(1AXs).Supposons d’abord la sous-martingale positive. On a, pour n assez grand, E(1AXt) ≥E(1AXs+ 1

n). Le cor. 4.2.9 implique que Xs+ 1

n→n Xs dans L1 d’ou le resultat. Pour

le cas general, on considere la sous-martingale positive a+Xt ∨ (−a) et on remarqueque, lorsque a→ +∞, Xs ∨ (−a) → Xs et Xt ∨ (−a) → Xt dans L1.

Page 96: Universit´e Pierre et Marie Curie Master de sciences et

96 Esperances conditionnelles. Martingales

4.3.3. Exemples. Soit X ∈ L1. On pose Xt = EFt(X). On a (prop. 4.1.5 (vi)), pours < t,

EFs(Xt) = EFs(EFt(X)) = EFs(X) = Xs p.s.

et Xt est une martingale. Une telle martingale est dite reguliere.

Proposition 4.3.5. Soit (Bt, t ∈ R+) un Ft-mouvement brownien reel issu de 0.Alors Bt, Yt = B2

t − t et, pour tout λ ∈ R, Zλt = exp(λBt − 12λ

2t) sont des Ft-martingales.

Preuve: Il n’y a pas de probleme d’integrabilite. Rappelons (prop. 4.2.1) que, siU ∈ L1 est independante de Fs, E(U |Fs) = E(U) p.s. On a alors, pour s < t,

E(Bt |Fs) = E(Bs +Bt −Bs |Fs) = Bs + E(Bt −Bs) = Bs p.s.

De meme

t−s = E(Bt−Bs)2 = E((Bt−Bs)2 |Fs) = B2s+E(B2

t |Fs)−2BsE(Bt |Fs) = E(B2t |Fs)−B2

s

d’ou E(B2t − t |Fs) = B2

s − s p.s. Enfin, puisque Bt −Bs ∼ N1(0, t− s),

E(eλ(Bt−Bs) |Fs) = E(eλ(Bt−Bs)) = eλ2

2(t−s) p.s.

d’ou l’on deduit facilement que Zλt est une martingale.

Proposition 4.3.6. Soit (Bt = (B1t , . . . , B

dt ), t ∈ R+) un Ft-mouvement brownien

adapte a valeurs Rd issu de 0. Alors, pour tous j 6= k, BjtB

kt est une Ft-martingale.

Preuve: On a, pour s < t,

BjtB

kt −Bj

sBks = Bj

s(Bkt −Bk

s ) + (Bjt −Bj

s)Bks + (Bj

t −Bjs)(B

kt −Bk

s )

d’ou l’on deduit aisement que E(BjtB

kt −Bj

sBks |Fs) = 0 p.s.

Proposition 4.3.7. Soit X = (Ω,Ft,F , Bt,P) un processus adapte a valeurs Rd nulen 0 et a trajectoires p.s. continues. Alors X est un Ft-mouvement brownien ssi, pourtout α ∈ Rd, Zαt = exp(i < α,Xt > +1

2 |α|2t) est une Ft-martingale.

Preuve: (i) Supposons que (Xt, t ∈ R+) soit un Ft-mouvement brownien. On a p.s.,pour s < t,

E(ei<α,Xt−Xs> |Fs) = E(ei<α,Xt−Xs>) = e−|α|22

(t−s)

et Zαt est une Ft-martingale.

(ii) Supposons que, pour tout α, Zαt soit une Ft-martingale. On a p.s., pour s < t,

E(ei<α,Xt−Xs> |Fs) = e−|α|22

(t−s)

et, prenant l’esperance,

E(ei<α,Xt−Xs>) = e−|α|22

(t−s).

On en deduit d’abord (prop. 4.2.3) que Xt − Xs est independante de Fs puis queXt −Xs ∼ Nd(0, (t− s)Id).

Page 97: Universit´e Pierre et Marie Curie Master de sciences et

97

4.4. Martingales a temps discret

4.4.1. Les definitions et resultats des sous-sections 1 et 2 restent valables pour unprocessus reel adapte X = (Ω,Fn,F , Xn,P) indexe par N. Dans ce cas, pour montrerque Xn est une sous-martingale (resp. une martingale), il suffit de montrer que, pourtout n ≥ 0, EFn(Xn+1) ≥ Xn p.s. (resp. EFn(Xn+1) = Xn p.s.) puisque ceci implique(prop. 4.1.5 (vi)) que, pour n > m,

EFm(Xn) = EFm(EFn−1(Xn)) ≥ EFm(Xn−1) . . . ≥ EFm(Xm+1) ≥ Xm p.s.

Exemple. Soit Y1, . . . , Yn, . . . une suite de v.a.r. independantes integrables. On pose

S0 = 0, F0 = Ω, ∅ et pour n ≥ 1, Sn = Y1 + . . .+ Yn, Fn = σ(Y1, . . . , Yn),

puisque (prop. 4.2.1) E(Yn+1|Fn) = E(Yn+1), on verifie immediatement que:si, pour tout n, E(Yn) = 0, Sn est Fn-une martingale,si, pour tout n, E(Yn) ≤ 0, Sn est une Fn-surmartingale,si, pour tout n, E(Yn) ≥ 0, Sn est une Fn-sous-martingale.

4.4.2. Decomposition de Doob d’une sous-martingale. On dit qu’une suite de v.a.r.(An, n ≥ 0) est un processus croissant previsible si A0 = 0, An ≤ An+1 et si An+1 estFn-mesurable. On note A∞ = lim ↑ An.

Proposition 4.4.1. Toute sous-martingale Xn s’ecrit, de facon unique, sous la formeXn = Mn +An avec Mn martingale et An processus croissant previsible integrable.

Preuve: On definit A0 = 0, An+1 = An + E(Xn+1−Xn|Fn), alors, par construction,An est un processus croissant previsible integrable et Mn = Xn−An verifie E(Mn+1−Mn|Fn) = 0 (puisque An+1 est Fn mesurable). L’ecriture est unique car si Xn =Mn +An = M ′

n +A′n, on a A0 = A′0 = 0 et A′n+1 −A′n = Xn+1 −Xn− (M ′n+1 −M ′

n)d’ou, en conditionnant par Fn, A′n+1 − A′n = E(Xn+1 − Xn|Fn) = An+1 − An etA′n = An puis M ′

n = Mn.

Corollaire 4.4.2. Soit Xn une sous-martingale telle que supn E(X+n ) < +∞, alors

on a Xn = Yn − Zn avec Yn martingale positive et Zn surmartingale positive.

Preuve: X+n est une sous-martingale (prop. 4.3.3) et donc (prop. 4.4.1) X+

n = Mn +An. On a E(X+

n ) = E(Mn) + E(An) = E(M0) + E(An) d’ou E(An) ≤ E(X+n ) + E|M0|

et E(A∞) = lim ↑ E(An) ≤ supn E(X+n ) + E|M0| < +∞. Soit Yn = Mn + E(A∞|Fn),

Yn est une martingale et Yn ≥Mn + E(An|Fn) = Mn +An = X+n ≥ Xn donc Yn ≥ 0

et Zn = Yn −Xn est une surmartingale positive.

4.4.3. Theoremes d’arret. Si Xn est un processus adapte et ν un temps d’arret, ondefinit le processus stoppe Xν par Xν

n = Xn∧ν . On a alors:

Proposition 4.4.3. Soient Xn une sous-martingale et ν un temps d’arret, Xν estune sous-martingale.

Page 98: Universit´e Pierre et Marie Curie Master de sciences et

98 Esperances conditionnelles. Martingales

Preuve: On a |Xn∧ν | ≤ |X0| + . . . + |Xn|, donc |Xn∧ν | est integrable. On a alors,puisque ν > n = ν ≤ nc ∈ Fn,

EFn(Xνn+1) = EFn(X(n+1)∧ν) = EFn(

n∑k=0

Xk1ν=k +Xn+11ν>n)

=n∑k=0

Xk1ν=k + 1ν>nEFn(Xn+1) ≥n∑k=0

Xk1ν=k + 1ν>nXn = Xn∧ν = Xνn.

Remarque 1: Dans la prop. 4.4.3, on peut remplacer sous-martingale par surmartin-gale, martingale, surmartingale generalisee positive, martingale generalisee positive.

Rappelons qu’un temps d’arret ν est dit borne s’il existe M ∈ R+ tel que, pourtout ω ∈ Ω, ν(ω) ≤M .

Theoreme 4.4.4. Soient Xn une sous-martingale et ν1 ≤ ν2 deux temps d’arretbornes, alors

E(Xν2 | Fν1) ≥ Xν1 p.s. (4.9)

Preuve: On suppose 0 ≤ ν1 ≤ ν2 ≤ m ∈ N. On a |Xν2 | ≤ |X0|+ . . .+ |Xm| ∈ L1. Ona alors, pour A ∈ Fν1 , vu la prop. 4.4.3,

∫AXν2 dP =

m∑k=0

∫A∩ν1=k

Xν2∧m dP ≥m∑k=0

∫A∩ν1=k

Xν2∧k dP =∫AXν1 dP

puisque A ∩ ν1 = k ∈ Fk et que, sur ν1 = k, Xν2∧k = Xν1 .

Remarque 2: Dans le th. 4.4.4, on peut remplacer sous-martingale par surmartingaleou surmartingale generalisee positive en changeant le signe et par martingale oumartingale generalisee positive avec le signe egal.

Corollaire 4.4.5. Soient Xn une sous-martingale fermee par X∞ (def. 4.3.2) etν1 ≤ ν2 deux temps d’arret a valeurs [0, p] ∪ +∞, p fixe. Alors E(Xν2 | Fν1) ≥ Xν1

p.s.

Preuve: Il suffit d’appliquer le th. 4.4.4 a la sous-martingale Yn definie par Yn = Xn,si n ≤ p, Yn = X∞, si n > p et aux temps d’arret ν1 ∧ (p+ 1) et ν2 ∧ (p+ 1).

On deduit alors du th. 4.4.4 aussi bien que de la prop. 4.4.3:

Corollaire 4.4.6. Soient Xn une sous-martingale et ν un temps d’arret borne, alorsE(Xν) ≥ E(X0).

4.4.4. Inegalites maximales. On appelle inegalites maximales des inegalites relativesa supnXn ou supn |Xn|.

Page 99: Universit´e Pierre et Marie Curie Master de sciences et

99

Proposition 4.4.7. (i) Soit Xn une surmartingale positive. On a, pour tout a > 0,

aP(supnXn ≥ a) ≤ E(X0).

(ii) Soit Xn une sous-martingale positive. On a, pour tout a > 0 et tout n,

aP(maxk≤n

Xk ≥ a) ≤∫maxk≤n Xk≥a

Xn dP ≤ E(Xn).

Preuve: Soit τa = inf(k ≥ 0, Xk ≥ a). On a maxk≤nXk ≥ a = τa ≤ n et, surτa ≤ n, a ≤ Xτa d’ou, puisque Xn ≥ 0, a1τa≤n ≤ Xτa1τa≤n ≤ Xτa∧n.

(i) SupposonsXn surmartingale. On a P(maxk≤nXk ≥ a) = aP(τa ≤ n) ≤ E(Xτa∧n) ≤E(X0) d’apres le cor. 4.4.6. On conclut en remarquant que, pour tout 0 < b < a,

P(supnXn ≥ a) ≤ P(sup

nXn > b) = lim

nP(max

k≤nXk > b) ≤ lim

nP(max

k≤nXk ≥ b) ≤ 1

bE(X0).

(ii) Supposons Xn sous-martingale. On a, utilisant (4.8),

aP(τa ≤ n) ≤ E(Xτa1τa≤n) =n∑k=0

∫τa=k

Xk dP ≤n∑k=0

∫τa=k

Xn dP =∫τa≤n

Xn dP

et la derniere inegalite est evidente puisque Xn ≥ 0.

De la prop. 4.4.7 on deduit des inegalites remarquables dues a Doob.

Theoreme 4.4.8. Soit Xn une martingale (ou une sous-martingale positive) de Lp,p > 1. Alors, pour tout m > 0,

|| maxk≤m

|Xk| ||p ≤p

p− 1||Xm||p et || sup

n|Xn| ||p ≤

p

p− 1supn||Xn||p.

Preuve: Il suffit d’etablir ce resultat pour Xn sous-martingale positive puisque, si(Xn, n ≥ 0) est une martingale, (|Xn|, n ≥ 0) est une sous-martingale positive. Onremarque d’abord que ||Xn||p est croissant en n. Soit Ym = maxk≤mXk. Si ||Ym||p = 0,il n’y a rien a montrer. On suppose donc ||Ym||p 6= 0. Appliquant la prop. 4.4.7, on a

aP(Ym ≥ a) = aE(1Ym≥a) ≤ E(Xm1Ym≥a)

d’ou en multipliant par pap−2 et en integrant∫ +∞

0pap−1E(1Ym≥a) da ≤

∫ +∞

0pap−2E(Xm1Ym≥a) da. (4.10)

On a alors, tout etant positif, d’une part∫ +∞

0pap−1E(1Ym≥a) da = E(

∫ +∞

0pap−11Ym≥a da) = E(Y p

m) = ||Ym||pp

Page 100: Universit´e Pierre et Marie Curie Master de sciences et

100 Esperances conditionnelles. Martingales

et d’autre part∫ +∞

0pap−2E(Xm1Ym≥a) da = E(Xm

∫ +∞

0pap−21Ym≥a da) =

p

p− 1E(XmY

p−1m ).

De plus, appliquant l’inegalite de Holder avec p et q = pp−1 ,

E(XmYp−1m ) ≤ ||Xm||p||Y p−1

m || pp−1

= ||Xm||p||Ym||p−1p

d’ou finalement, reportant dans (4.10), ||Ym||pp ≤ pp−1 ||Xm||p||Ym||p−1

p et on divise par

||Ym||p−1p (qui est fini) pour obtenir ||Ym||p ≤ p

p−1 ||Xm||p. Enfin il suffit de remarquerque Ym = maxk≤mXk ↑ supnXn pour avoir la derniere inegalite.

4.4.5. Convergence. Le cas L2. On commence par le cas L2.

Proposition 4.4.9. Soit Mn une martingale telle que supn E(M2n) < +∞, alors

Mn converge vers une v.a. M∞ p.s. et dans L2 et on a, pour tout temps d’arret ν,Mν = E(M∞ | Fν) p.s..

Preuve: Soit K = supn E(M2n). M

2n etant une sous-martingale, E(M2

n) ↑ K. On aalors

E(Mn+k −Mn)2 = E(M2n+k)− E(M2

n) ≤ K − E(Mn)2

et supk E(Mn+k −Mn)2 →n 0. Donc Mn converge dans L2.

Soit Vn = supi,j≥n |Mi −Mj |. On a, grace au th. 4.4.8,

P(Vn > ρ) = P( supi,j≥n

|Mi −Mj | > ρ) ≤ P(supi≥n

|Mi −Mn| > ρ/2)

≤ 4ρ2

E(supi≥n

|Mi −Mn|2) ≤16ρ2

supi≥n

E|Mi −Mn|2 →n 0.

Donc Vn ↓ 0 p.s. et Mn est p.s. une suite de Cauchy.

Enfin on a, pour tout A ∈ Fn, E(1AMn) = E(1AMn+p) d’ou, pour p → +∞,E(1AMn) = E(1AM∞) et Mn = E(M∞ | Fn) p.s. On conclut par le lem. 4.2.10.

4.4.6. Applications.

Proposition 4.4.10. Soient Y1, . . . , Yn, . . . une suite de v.a.r. independantes de carreintegrable et Sn =

∑nk=1 Yk. On suppose que les series

∑n E(Yn) et

∑nVar(Yn)

convergent. Alors Sn converge p.s. et dans L2.

Preuve: En effetXn =∑n

k=1(Yk−E(Yk)) est une martingale et E(X2n) =

∑nk=1 Var(Yk).

Donc (prop. 4.4.9) si∑

n Var(Yn) < ∞, Xn converge p.s. et dans L2. EcrivantSn = Xn +

∑nk=1 E(Yk), on obtient le resultat cherche.

Corollaire 4.4.11. Soient Y1, . . . , Yn, . . . une suite de v.a.r. independantes de carreintegrable et Sn =

∑nk=1 Yk. On suppose que 1

n(E(Y1) + . . . + E(Yn)) → m. Alors sila serie

∑ 1n2V ar(Yn) converge, 1

n(Y1 + . . . Yn) → m p.s.

Page 101: Universit´e Pierre et Marie Curie Master de sciences et

101

Preuve: Il suffit de traiter le cas ou E(Yk) ≡ 0. Alors∑ Yn

n converge p.s. (prop. 4.4.10)et il suffit d’appliquer le:

Lemme 4.4.12. Soient y1, . . . , yn, . . . des reels et sn = y1 + . . .+yn. Si la serie∑ yn

nconverge, sn

n tend vers 0.

Preuve: On pose u0 = 0, un =∑n

k=1ykk . On a un → u et aussi 1

n(u1 + . . .+un) → u.Alors

1n

n∑k=1

yk =1n

n∑k=1

k(uk − uk−1) = un −1n

(un−1 + . . .+ u1) → u− u = 0.

On en deduit:

Theoreme 4.4.13. Soient Y1, . . . , Yn, . . . une suite de v.a.r. independantes integrableset de meme loi et Sn =

∑nk=1 Yk. Alors Sn

n converge p.s. et dans L1 vers E(Y1).

Preuve: On peut supposer E(Y1) = 0. On pose Zn = Yn1|Yn|≤n. Pour montrer queSnn → 0 p.s., il suffit d’etablir que∑

P(|Yn| > n) < +∞, limn

E(Zn) = 0,∑ 1

n2E(Z2

n) < +∞.

En effet les deux dernieres conditions impliquent (cor. 4.4.11) que 1n

∑nk=1 Zk → 0 p.s.

et la premiere que∑

n P(Yn 6= Zn) =∑

n P(|Yn| > n) < +∞. D’ou (Borel-Cantelli)p.s. les suites Yn et Zn ne different que d’un nombre fini de termes et on a aussi1n

∑nk=1 Yk → 0 p.s. Alors, notant Y = Y1,

(i) On a∑

n P(|Yn| > n) =∑

n P(|Y | > n) = E(∑

n 1|Y |>n) ≤ 1 + E|Y | < +∞.

(ii) On a E(Zn) = E(Yn1|Yn|≤n) = E(Y 1|Y |≤n) → E(Y ) = 0 d’apres le theoremede Lebesgue.

(iii) Enfin, vu que∑

n≥k1n2 = 1

k2 +∑

n>k1n2 ≤ 1

k2 + 1k ,

∑n≥1

1n2

E(Z2n) =

∑k≥1

1n2

E(Y 21|Y |≤n) =∑n≥1

E(1n2Y 2

n∑k=1

1k−1<|Y |≤k)

=∑k≥1

E((∑n≥k

1n2

)Y 21k−1<|Y |≤k) ≤∑k≥1

E(k21k−1<|Y |≤k(∑n≥k

1n2

))

≤∑k≥1

E((1 + k)1k−1<|Y |≤k) ≤∑k≥1

E((2 + |Y |)1k−1<|Y |≤k) ≤ 2 + E(|Y |) < +∞.

Pour montrer qu’il y a aussi convergence dans L1, il suffit (th. 2.10.5) de montrerque (Sn

n , n ≥ 1) est uniformement integrable ce qui a ete fait (voir l’exemple de lasous-section 2.10.2).

4.4.7. Convergence. Le cas general.

Page 102: Universit´e Pierre et Marie Curie Master de sciences et

102 Esperances conditionnelles. Martingales

Theoreme 4.4.14. Soit Xn une sous-martingale telle que supn E(X+n ) < +∞, alors

Xn converge p.s. vers une v.a. integrable X∞.

Preuve: (i) Supposons d’abord que Xn soit une sous-martingale bornee par K. SoitXn = Mn + An la decomposition de Doob (prop.4.4.1) de Xn. On a E(An) =E(Xn) − E(M0) ≤ 2K et donc E(A∞) < +∞ d’ou A∞ < +∞ p.s. On pose τp =inf(n , An+1 > p); τp est un temps d’arret, Aτp∧n ≤ p et τp = +∞ sur A∞ ≤ p.Alors (prop.4.4.3) M τp

n := Mτp∧n est une martingale bornee par p+K, elle convergedonc p.s. (prop.4.4.9). On en deduit la convergence p.s. de Xτp

n puis celle de Xn surτp = +∞ et enfin celle de Xn vu que Ω = ∪pτp = +∞ p.s. puisque A∞ < +∞p.s.

(ii) Supposons que Xn soit une surmartingale positive. Alors Yn = e−Xn est unesous-martingale verifiant 0 ≤ Yn ≤ 1 (prop.4.3.3). Vu (i), Yn converge p.s. et aussiXn dans R+. Mais E(X∞) = E(lim infXn) ≤ lim inf E(Xn) ≤ E(X0) < +∞ doncX∞ ∈ L1 et X∞ < +∞ p.s.

(iii) Enfin soit Xn une sous-martingale telle que supn E(X+n ) < +∞. Appliquant

le cor.4.4.2, on a, vu (ii), que Xn converge p.s. vers X∞. De integrable.

Remarque 1: Noter qu’on le meme resultat pour une surmartingale Xn telle quesupn E(X−

n ) < +∞ et qu’en particulier toute surmartingale positive converge p.s. Enfait si Xn est une sous-martingale, E(Xn) ≥ E(X0) et E|Xn| = 2E(X+

n ) − E(Xn) ≤2E(X+

n )−E(X0). Donc, pour une sous-martingale, la condition supn E|Xn| < +∞ estequivalente a la condition, en apparence plus faible, supn E(X+

n ) < +∞. De meme,pour une surmartingale, la condition supn E|Xn| < +∞ est equivalente a la conditionsupn E(X−

n ) < +∞.

Remarque 2. Attention. Si Xn est une martingale bornee dans L1 i.e. verifiantsupn E|Xn| < +∞, on a Xn → X∞ p.s. et X∞ ∈ L1 mais on n’a pas toujoursXn → X∞ dans L1 comme le montre l’exemple suivant. Soient Ω = [0, 1], Fn =σ([k2−n, (k + 1)2−n[, 0 ≤ k ≤ 2n − 1), F = B([0, 1]), P = mesure de Lebesgue etXn = 2n1[0,2−n[. Alors Xn est une martingale car, pour tout A ∈ Fn,

∫AXn+1 dP =∫

AXn dP (il suffit de le verifier pour A = [0, 2−n[). On a E(Xn) = E|Xn| = 1, Xn → 0p.s. mais E|Xn − 0| = 1 et Xn ne converge pas dans L1.

Corollaire 4.4.15. Soit Xn une surmartingale generalisee positive, alors Xn con-verge p.s. (dans R+) vers une v.a. X∞.

Preuve: Pour tout p ∈ N, Xn ∧ p est une surmartingale positive, elle converge doncp.s. (th. 4.4.14) ce qui implique la convergence p.s. de Xn dans R+.

Theoreme 4.4.16. Soit (Ω,Fn,F , Xn,P) une martingale. Il y a equivalence entre:(i) (Xn, n ≥ 0) est uniformement integrable,(ii) Xn converge dans L1 lorsque n→ +∞,(iii) Xn est de la forme Xn = E(X | Fn), X ∈ L1.

Une martingale verifiant ces conditions est dite reguliere. Dans ce cas, Xn con-verge vers X∞ p.s. et dans L1 et, pour tout temps d’arret ν, E(X∞ | Fν) = Xν p.s.

Page 103: Universit´e Pierre et Marie Curie Master de sciences et

103

Preuve: Si Xn est une martingale uniformement integrable, on a, vu la prop. 2.10.2,supn E|Xn| < +∞ et donc (th. 4.4.14) Xn converge p.s. et aussi vu le th. 2.10.5dans L1 et (i) ⇒ (ii). Si Xn converge vers X∞ dans L1, on a p.s. E(X∞ | Fn) =limp E(Xp+n | Fn) = Xn et (ii) ⇒ (iii). Que (iii) ⇒ (i) resulte de la prop. 4.2.8 et ladernlere affirmation du lem. 4.2.10.

4.5. Martingales a temps continu

Pour un expose plus complet le lecteur peut consulter [8].

4.5.1. Inegalites maximales. Si Xt est un processus a trajectoires continues a droite,on a sup0≤t≤T |Xt| = lim ↑ sup0≤k≤2n |X kT

2n|. Les prop. 4.4.7 et th. 4.4.8 donnent donc

immediatement:

Proposition 4.5.1. (i) Soit (Xt, t ∈ R+) une surmartingale positive continue adroite. On a, pour tout a > 0,

P(supt≥0

Xt ≥ a) ≤ 1a

E(X0).

(ii) Soit (Xt, t ∈ R+) une sous-martingale positive continue a droite. On a, pour touta > 0 et tout T > 0,

P( sup0≤t≤T

Xt ≥ a) ≤ 1a

E(XT ).

Theoreme 4.5.2. (Inegalite de Doob.) Soit (Xt, t ∈ R+) une martingale (ou unesous-martingale positive) continue a droite. Alors, pour tout p > 1,

|| supt|Xt| ||p ≤

p

p− 1supt||Xt||p .

Remarque. Soit T > 0. Appliquant ce resultat a la martingale stoppee XTt := Xt∧T ,

on obtient, puisque ||Xt||p croıt avec t, || supt≤T |Xt| ||p ≤ pp−1 ||XT ||p.

4.5.2. Theoremes d’arret.

Theoreme 4.5.3. Soient (Xt, t ∈ R+) une sous-martingale continue a droite fermeepar X∞ (def. 4.3.2) et σ et τ deux temps d’arret tels que σ ≤ τ . Alors Xτ ∈ L1 etXσ ≤ E(Xτ | Fσ) p.s.

Preuve: On pose

Dn = k2n, k ∈ N, τn =

n2n−1∑k=0

k + 12n

1[ k2n ,

k+12n [(τ) + (+∞)1τ≥n. (4.11)

Alors τn est un temps d’arret de la filtration (Fk2−n , k ∈ N), τn ↓ τ et, vu la continuitea droite, Xτn →n Xτ p.s. D’apres le coro. 4.4.5, Xτn ≤ E(X∞ | Fτn) et, X+

t etant

Page 104: Universit´e Pierre et Marie Curie Master de sciences et

104 Esperances conditionnelles. Martingales

une sous-martingale fermee par X+∞ (le verifier), X+

τn ≤ E(X+∞ | Fτn). On a alors

E|Xτn | = 2E(X+τn)−E(Xτn) ≤ 2E(X+

∞)−E(X0) d’ou E|Xτ | ≤ lim infn E|Xτn | < +∞i.e. Xτ ∈ L1. On definit σn de la meme facon. Evidemment σn ≤ τn.

(i) On suppose Xt ≥ 0. On peut appliquer le cor. 4.2.9 et donc Xτn →n Xτ dansL1. Soit A ∈ Fσ ⊂ Fσn . On a alors, considerant la sous-martingale (Xt, t ∈ Dn) et,d’apres le cor. 4.4.5, E(1AXσn) ≤ E(1AXτn) et, puisque Xσn et Xτn convergent dansL1, E(1AXσ) ≤ E(1AXτ ).

(ii) On revient au cas general. Pour tout a > 0, a+Xt∨ (−a) est une sous-martingalepositive donc, pour tout A ∈ Fσ, E(1AXσ ∨ (−a)) ≤ E(1AXτ ∨ (−a)). On conclutfacilement puisque, lorsque a→ +∞, Xτ ∨(−a) → Xτ et Xσ∨(−a) → Xσ dans L1.

Remarque. Il est facile de verifier que, si τ est un Ft+-temps d’arret, la v.a. τndefinie par (4.11) est un Ft-temps d’arret. Donc tout Ft+-temps d’arret est limited’une suite decroissante de Ft-temps d’arret.

Corollaire 4.5.4. Soient (Xt, t ∈ R+) une sous-martingale continue a droite etσ ≤ τ deux temps d’arret bornes. Alors Xτ ∈ L1 et E(Xτ | Fσ) ≥ Xσ p.s.

Preuve: On suppose σ ≤ τ ≤ T ∈ R. Il suffit d’appliquer le th. 4.5.3 a la sous-martingale XT

t = Xt∧τ qui est fermee par XT .

Corollaire 4.5.5. Soient (Xt, t ∈ R+) une sous-martingale continue a droite et σet τ deux temps d’arret bornes. Alors E(Xτ | Fσ) ≥ Xσ∧τ p.s.

Preuve: On a, appliquant le cor. 4.5.4 aux temps d’arret σ et σ ∨ τ ,

E(Xτ | Fσ) = E(1τ≤σXσ∧τ + 1τ>σXσ∨τ | Fσ) = 1τ≤σXσ∧τ + 1τ>σE(Xσ∨τ | Fσ)≥ 1τ≤σXσ∧τ + 1τ>σXσ = Xσ∧τ p.s.

Corollaire 4.5.6. Soient (Xt, t ∈ R+) une sous-martingale continue a droite et τun temps d’arret. Alors Xτ

t := Xt∧τ est une Ft-sous-martingale.

Preuve: Vu le cor. 4.5.5, on a, pour s < t, E(Xt∧τ | Fs) ≥ Xt∧τ∧s = Xτ∧s p.s.

Corollaire 4.5.7. Soit (Xt, t ∈ R+) un processus integrable continu a droite. AlorsXt est une martingale ssi, pour tout temps d’arret borne τ , on a E(Xτ ) = E(X0).

Preuve: La necessite resulte du cor. 4.5.4. Montrons la suffisance. Soient s < t etA ∈ Fs. τ = s1A + t1Ac est un temps d’arret borne et l’on E(X0) = E(Xτ ) =E(1AXs)+ E(1AcXt). Mais t est aussi un temps d’arret borne d’ou E(X0) = E(Xt) =E(1AXt)+ E(1AcXt). On en deduit E(1AXs) = E(1AXt) i.e. Xt est une martingale.

Pour illustrer le cor. 4.5.4, montrons (le lecteur peut commencer par supposer letemps d’arret τ fini):

Proposition 4.5.8. Soient (Ω,Ft,F , Bt,P) un Ft-mouvement brownien reel a valeursRd et τ un temps d’arret. Alors, conditionnellement a τ < +∞, B(τ)

t = Bτ+t−Bτest un Fτ+t-mouvement brownien.

Page 105: Universit´e Pierre et Marie Curie Master de sciences et

105

Preuve: Vu la prop. 4.3.7, il suffit de montrer que, pour s < t et A ∈ Fτ+s,∫A∩τ<+∞

exp(i < α,Bτ+t−Bτ+s >) dP = exp(|α|2

2(s−t))P(A∩τ < +∞). (4.12)

Si τ est un temps d’arret borne, (4.12) est vraie (cor. 4.5.4). Sinon, si A ∈ Fτ+s,A ∩ τ ≤ n ∈ Fτ∧n+s et on a∫

A∩τ≤nexp(i < α,Bτ∧n+t −Bτ∧n+s >) dP = exp(

|α|2

2(s− t))P(A ∩ τ ≤ n).

Tout etant borne, on passe a la limite sans difficulte.

4.5.3. Convergences. Dans cette sous-section, toutes les limites sont prises pour t→+∞. La methode utilisee provient de [12].

Lemme 4.5.9. Soit Y ∈ L1, F∞-mesurable. Pour tout ε > 0, il existe Z, Ft-mesurable, telle que P(|Y − Z| > ε) < ε.

Preuve: Ceci resulte du th. 4.4.16 mais on peut aussi le montrer directement. Ilsuffit de l’etablir pour Y etagee et donc pour Y = 1B, B ∈ F∞. C’est evident pourB ∈ ∪tFt. On applique alors le th. 1.1.2.

Lemme 4.5.10. Soit (Yt, t ∈ R+) un processus adapte continu a droite. On poseY = lim supt Yt, Y = lim inft Yt et on suppose que E(supt |Yt|) < +∞. Alors il existeune suite croissante τn de temps d’arret bornes telle que Yτ2n →n Y et Yτ2n+1 →n Yp.s. et dans L1.

Preuve: (i) Montrons d’abord que, pour tous ε > 0 et T ≥ 0, il existe un tempsd’arret borne τ ≥ T tel que P(|Yτ − Y | > ε) ≤ ε. Vu le lem. 4.5.9, il existe, pourp assez grand, Z ∈ [Fp] telle que P(|Z − Y | < ε

4) ≥ 1 − ε2 . On considere alors le

temps d’arret ρ = inf(t ≥ T ∨ p, |Yt − Z| < ε2). Sur |Z − Y | < ε

4, on a ρ < +∞ et|Yρ−Y | < ε. Vu que ρ∧n ↑n ρ, on en deduit que P(|Yρ∧n−Y | > ε) ≤ ε pour n assezgrand.

(ii) Utilisant (i), on peut construire une suite croissante de temps d’arret borne τntelle que P(|Yτ2n − Y | > 2−n) ≤ 2−n et P(|Yτ2n+1 − Y | > 2−n) ≤ 2−n. On a donc(Borel-Cantelli) Yτ2n →n Y p.s. et Yτ2n+1 →n Y p.s. et, vu que supt |Yt| ∈ L1, laconvergence dans L1.

Remarque 1. Le lecteur grincheux objectera que, si les tribus Ft ne sont pas con-tinues a droite, le temps ρ considere dans (i) est seulement un Ft+-temps d’arret.Mais, dans ce cas, il existe des Ft-temps d’arret ρp tels que ρp ↓p ρ (voir la remarquede 4.5.2) et, vu la continuite a droite de Yt, on peut remplacer ρ par ρp pour p assezgrand.

Remarque 2. Le lem. 4.5.10 est evidemment valable pour T = N. On peut en deduirele th. 4.4.14. Soient (Xn, n ∈ N) une sous-martingale telle que E(supn |Xn|) < +∞

Page 106: Universit´e Pierre et Marie Curie Master de sciences et

106 Esperances conditionnelles. Martingales

et X = lim supnXn, X = lim infnXn. D’apres le lem. 4.5.10, il existe une suitecroissante νn de temps d’arret bornes telle que E(Xν2n) →n E(X) et E(Xν2n+1) →n

E(X). Mais (cor. 4.4.5) E(Xνn) est une suite croissante bornee (vu que supn |Xn| ∈L1) et donc convergente. On a donc E(X) = E(X) et, puisque X ≤ X, X = X p.s.et Xn →n X∞ p.s. On conclut comme dans la preuve du th. 4.4.14.

Theoreme 4.5.11. Soit (Xt, t ∈ R+) une sous-martingale continue a droite telleque supt E(X+

t ) < +∞. Alors Xt converge p.s. vers une v.a. integrable X∞.

Preuve: Soient f(x) = Arctg(x), Y = lim supt f(Xt) et Y = lim inft f(Xt). D’apresle lem. 4.5.10, il existe une suite croissante τn de temps d’arret bornes telle queE(f(Xτ2n)) → E(Y ) et E(f(Xτ2n+1)) → E(Y ). Mais (th. 4.4.4) Xτn est une Fτn-sous-martingale verifiant (cor. 4.5.4 pour la sous-martingaleX+

t ) supn E(X+τn) ≤ supt E(X+

t )< +∞, elle converge donc p.s. (th. 4.4.14) et la suite E(f(Xτn)) est convergente. Ceciimplique que E(Y ) = E(Y ) et Y = Y p.s. Donc Xn → X∞ dans R p.s. mais, vu lelemme de Fatou et la remarque 2,

E|X∞| = E(limt|Xt|) ≤ lim inf

tE|Xt| ≤ sup

tE|Xt| < +∞.

Remarque 3. Si Xt est une sous-martingale, E(Xt) ≥ E(X0) et E|Xt| = 2E(X+t )−

E(Xt) ≤ 2E(X+t )−E(X0). Donc, pour une sous-martingale la condition supt E|Xt| <

+∞ est equivalente a la condition supt E(X+t ) < +∞.

Corollaire 4.5.12. Soit (Xt, t ∈ R+) une sous-martingale (resp. une martingale)continue a droite telle que E(supt |Xt|) < +∞. Alors Xt converge p.s. et dans L1

vers X∞ et, pour tout temps d’arret τ , Xτ ≤ E(X∞ | Fτ ) p.s. (resp =).

Preuve: On a (th. 4.5.11) Xt →t X∞ p.s. et dans L1 (vu que supt |Xt| ∈ L1). DoncXt ≤ E(X∞ | Ft) et, vu le th. 4.5.3, Xτ ≤ E(X∞ | Fτ ) p.s. Si Xt est une martingale,on considere les sous-martingales Xt et −Xt.

Corollaire 4.5.13. Soit (Xt, t ∈ R+) une martingale continue a droite telle quesupt E|Xt|p < +∞, p > 1. Alors Xt converge vers X∞ p.s. et dans Lp et, pour touttemps d’arret τ , E(X∞ | Fτ ) = Xτ p.s.

Preuve: Vu le th. 4.5.2, supt |Xt| ∈ Lp. Il suffit d’appliquer le th. 4.5.11 et la prop.2.7.7.

Theoreme 4.5.14. Soit X = (Ω,F ,Ft, Xt,P) une martingale continue a droite. Ily a equivalence entre:(i) (Xt, t ∈ R+) est uniformement integrable,(ii) Xt converge dans L1 lorsque t→ +∞,(iii) Xt est de la forme Xt = E(X | Ft), X ∈ L1.

Une martingale verifiant ces conditions est dite reguliere. Dans ce cas, Xt convergevers X∞ p.s. et dans L1 et, pour tout temps d’arret τ , E(X∞ | Fτ ) = Xτ p.s.

Page 107: Universit´e Pierre et Marie Curie Master de sciences et

107

Preuve: Si Xt est une martingale uniformement integrable, on a, vu la prop. 2.10.2,supt E|Xt| < +∞ et donc, pour t→ +∞, (th. 4.5.11) Xt converge p.s. et aussi vu leth. 2.10.5 dans L1 (puisque c’est le cas de toute suite Xtn pour tn → +∞) d’ou (i) ⇒(ii). Si Xt converge vers X∞ dans L1, on a Xt = E(Xt+n | Ft) →n E(X∞ | Ft) dansL1 et (ii) ⇒ (iii). Que (iii) ⇒ (i) resulte de la prop. 4.2.8 et la dernlere affirmationdu th. 4.5.3.

On en deduit

Theoreme 4.5.15. Soit (Xt, t ∈ R+) une surmartingale generalisee positive con-tinue a droite. Alors Xt converge p.s. vers X∞ dans R+ et, pour tout t, X∞ <+∞ ⊂ Xt < +∞ p.s. De plus, on a, pour tout temps d’arret σ et τ tels queσ ≤ τ , E(Xτ | Fσ) ≤ Xσ p.s.

Preuve: On remarque d’abord que, pour tout a > 0, −Xt∧a est une sous-martingalebornee fermee par 0. Donc, pour tout a > 0, Xt ∧ a converge p.s. ce qui implique laconvergence p.s. de Xt vers X∞ dans R+ et que, pour σ ≤ τ ,

E(Xτ | Fσ) = E(limaXτ ∧ a | Fσ) ≤ lim inf

aE(Xτ ∧ a | Fσ) ≤ lim inf

aXσ ∧ a = Xσ.

Enfin, pour tout M ,

M ≥ E(1Xt≤MXt) ≥ E(1Xt≤ME(X∞| Ft)) = E(1Xt≤MX∞)

et X∞ < +∞ p.s. sur Xt ≤ M et il suffit de remarquer que Xt < +∞ =∪MXt ≤M pour avoir Xt < +∞ ⊂ X∞ < +∞ p.s.

4.5.4. Version reguliere. Les enonces precedents sont relatifs a des (sur-sous)martingalescontinues a droite. Cela sera peu genant car les martingales que nous rencontreronsseront la plupart du temps a trajectoires continues. Cependant on peut avoir a con-siderer des martingales de la forme Mt = E(Z | Ft) qui ne sont pas a priori continuesa droite. On a, a ce sujet, le theoreme suivant que nous admettons (voir [21] ou [32]:

Theoreme 4.5.16. Soit X = (Ω,F ,Ft, Xt,P) une sous-martingale. On suppose lafiltration Ft standard. Alors, si t 7→ E(Xt) est continue a droite, Xt admet unemodification continue a droite.

4.5.5. Martingales de carre integrable. Elles joueront un role fondamental par lasuite. D’abord quelques proprietes elementaires. Si Mt est une martingale de carreintegrable, on a, pour s < t,

E((Mt −Ms)2 | Fs) = E(M2t | Fs)− 2MsE(Mt | Fs) +M2

s = E(M2t −M2

s | Fs).

De plus Mt est un processus a accroissements orthogonaux i.e. pour u < v ≤ s < t,

E((Mv −Mu)(Mt −Ms)) = 0.

Page 108: Universit´e Pierre et Marie Curie Master de sciences et

108 Esperances conditionnelles. Martingales

(Il suffit de conditionner par Fs). Ceci implique que, si t0 = 0 < ti < . . . < tn = t estune subdivision de [0, t],

E(Mt −M0)2 =n−1∑i=0

E(Mti+1 −Mti)2.

Section 5.9, on s’interessera particulierement a:

H2c = M, Mt martingale continue, M0 = 0, sup

tE(M2

t ) < +∞. (4.13)

Dans H2c , on identifie les processus indistinguables.

Proposition 4.5.17. (i) Soit M ∈ H2c . Alors Mt →t→+∞ M∞ p.s. et dans L2 et

Mt = E(M∞ | Ft) p.s.(ii) Soient Mn ∈ H2

c telles que Mn∞ →n X dans L2. Alors il existe M ∈ H2

c telle queX = M∞ p.s. et, pour tout t, Mn

t →n Mt dans L2.(iii) L’espace H2

c muni du produit scalaire (M,N) := E(M∞N∞), est un espace deHilbert.

Preuve: (i) a ete vu (cor. 4.5.13).

(ii). Soit Xt = E(X |Ft). On a (Jensen) E(X2t ) ≤ E(X2) et, vu (4.3), ||Mn

t −Xt||2 ≤||Mn

∞−X||2. Donc Mnt →n Xt dans L2. Soit nk →k +∞ telle que ||Mnk∞ −X||2 ≤ 2−k.

On a, vu le th. 4.5.2,

E(∑k

supt|Mnk

t −Mnk+1

t |) =∑k

E(supt|Mnk

t −Mnk+1

t |)

≤∑k

|| supt|Mnk

t −Mnk+1

t | ||2 ≤ 2∑k

||Mnk∞ −M

nk+1∞ ||2 < +∞

d’ou∑

k supt |Mnkt −M

nk+1

t | < +∞ p.s. Ceci implique que p.s. Mnkt converge uni-

formement sur R+. Il existe donc un processus continu Mt tel que, pour tout t,Mnkt →k Mt p.s. Comme Mnk

t →k Xt dans L2, on a Mt = Xt p.s. et M ∈ H2c .

Enfin on a E(M∞ | Ft) = Mt = Xt = E(X |Ft) p.s. et donc, pour tout A ∈ Ft,∫AM∞ dP =

∫AX dP d’ou (th. 1.1.2) M∞ = X p.s. puisque X est σ(Ft, t ≥ 0)-

mesurable.

(iii) (M,N) est un produit scalaire puisqu’on a identifie les processus indistinguables.Soit Mn une suite de Cauchy dans H2

c . Mn∞ est une suite de Cauchy dans L2. Il existe

donc X ∈ L2 tel que ||Mn∞ −X||2 →n 0 et il suffit d’appliquer (ii).

4.6. Martingales locales

4.6.1. Soit (Ω,Ft,F ,P) un espace de probabilite filtre complet.

Page 109: Universit´e Pierre et Marie Curie Master de sciences et

109

Definition 4.6.1. Un processus reel (Xt, t ∈ R+) est une martingale locale s’il existeune suite de temps d’arret τn croissant p.s. vers +∞ tel que (Xt∧τn , t ∈ R+) soit unemartingale.

Remarque. Nous avons choisi une definition des martingales locales plus restrictivesque la definition usuelle (voir [8]) car elle impose l’integrabilite de X0, auquel cas lesdeux definitions coıncident. En fait, on ne l’utilisera que pour X0 = 0 ou X0 = 1.

Evidemment une martingale est une martingale locale (prendre τn = n). Il fautnoter que cette notion est stable par arret: si (Xt, t ∈ R+) est une martingale localecontinue a droite, il en est de meme de (Xt∧τ , t ∈ R+) quel que soit le temps d’arretτ . Si τ est un temps d’arret tel que (Xt∧τ , t ∈ R+) soit une martingale, on dit que τreduit X.

Lemme 4.6.2. Une martingale locale continue a droite positive est une surmartingalegeneralisee positive.

Preuve: Soient (Xt, t ∈ R+) une martingale locale positive, τn ↑ +∞ p.s. une suitede temps d’arret reduisant X. On a, pour s < t, E(Xt | Fs) = E(limnXt∧τn | Fs) ≤lim infn E(Xt∧τn | Fs) = Xs p.s. vu le cor. 4.5.5.

4.6.2. Une martingale locale n’est en general pas integrable et, meme si elle estintegrable, ce n’est pas necessairement une martingale. Dans le sens positif, on a:

Proposition 4.6.3. Soit (Xt, t ∈ R+) une martingale locale continue a droite nulleen 0.(i) On suppose que, pour tout T , E(supt≤T |Xt|) < +∞. Alors Xt est une martingale.(ii) On suppose que E(supt |Xt|) < +∞. Alors Xt est une martingale qui convergep.s. et dans L1 vers une v.a. X∞ et on a, pour tout temps d’arret τ , Xτ = E(X∞ | Fτ )p.s.(iii) On suppose que E(supt |Xt∧τ |) < +∞, τ temps d’arret. Alors Xt∧τ est unemartingale, X∞ := limt→+∞Xt existe p.s. sur τ = +∞, Xτ ∈ L1 et Xt∧τ =E(Xτ | Ft) p.s. En particulier E(Xτ ) = 0.

Preuve: Montrons d’abord (ii). Soient Y = supt |Xt| et τn une suite de temps d’arretreduisant X. On a, pour A ∈ Fs et s < t, E(1AXs∧τn) = E(1AXt∧τn). Vu que|Xs∧τn | ≤ Y et |Xt∧τn | ≤ Y , on peut appliquer le theoreme de Lebesgue et l’ona E(1AXs) = E(1AXt) i.e. Xt est une martingale. Il suffit alors d’appliquer le cor.4.5.12. On obtient (i) et (iii) en considerant les martingales locales (Xt∧T , t ≥ 0) et(Xt∧τ , t ≥ 0).

4.6.3. Martingales locales continues. Dans ce cas la situation se simplifie grandement.

Lemme 4.6.4. Soit (Xt, t ∈ R) un processus a valeurs Rd avec |X0| ≤ K et atrajectoires continues. On pose ρn = inf(t ≥ 0, |Xt| ≥ n+K). Alors ρn est un tempsd’arret, ρn ↑ +∞ et |Xt∧ρn | ≤ n+K.

Page 110: Universit´e Pierre et Marie Curie Master de sciences et

110 Esperances conditionnelles. Martingales

Preuve: On sait (prop. 3.5.4) que ρn est un temps d’arret. Les ρn sont evidemmentcroissants. Supposons t 7→ Xt(ω) continue et soit A > 0. Alors sup0≤t≤A |Xt|(ω) =M(ω) < +∞ et donc ρn(ω) ≥ A si n+K > M(ω) ce qui montre que ρn(ω) → +∞.

Proposition 4.6.5. Soit (Mt, t ∈ R+) une martingale locale continue nulle en 0. Onsuppose qu’il existe un processus croissant adapte continu (At, t ∈ R+) nul en 0 telque M2

t −At soit une martingale locale. On fixe t > 0. Soit πn = tn0 = 0 < tn1 < . . . <tnrn = t une suite de subdivisions de [0, t] dont le pas |πn| = supi |tni+1 − tni | →n 0.Alors Vn(M) =

∑rn−1i=0 (Mtni+1

−Mtni)2 tend en probabilite vers At lorsque n→ +∞.

Preuve: (i) Supposons d’abord que, pour tout s, |Ms|+As ≤ K. Alors M2s −As est

une martingale bornee et

E(Mtni+1−Mtni

)2 | Ftni = E(M2tni+1

−M2tni| Ftni ) = E(Atni+1

−Atni | Ftni ),

d’ou E(Vn) =∑

i E(Mtni+1−Mtni

)2 = E(At) et, pour j < i,

E[(Mtnj+1−Mtnj

)2 − (Atnj+1−Atnj )(Mtni+1

−Mtni)2 − (Atni+1

−Atni )] = 0.

On en deduit,

E(Vn −At)2 = E[∑i

(Mtni+1−Mtni

)2 − (Atni+1−Atni )]2

= E[∑i

(Mtni+1−Mtni

)2 − (Atni+1−Atni )2]

≤ E[∑i

(Mtni+1−Mtni

)4] + E[∑i

(Atni+1−Atni )2]

≤ E[supi

(Mtni+1−Mtni

)2Vn] + E[supi

(Atni+1−Atni )At]

et, puisque E(Vn) = E(At) ≤ K, E(Vn − At)2 ≤ 4K3 + K2 et supn E[(Vn)2] < +∞.On a donc:

E(Vn −At)2 ≤ supn

E[(Vn)2]E[supi

(Mtni+1−Mtni

)4]1/2 +KE[supi

(Atni+1−Atni )].

On en conclut que Vn →n At dans L2 puisque, vu la continuite, supi(Mtni+1−Mtni

)4

et supi(Atni+1−Atni ) tendent vers 0 en restant bornes.

(ii) Cas general. On pose ρp = inf(s ≥ 0, |Ms| + As ≥ p). Alors Mρp

t = Mt∧ρp etM2t∧ρp

− At∧ρp sont des martingales bornees. Soient α, ε > 0. On peut choisir (lem.4.6.4) p assez grand pour que P(t > ρp) < ε. Alors

P(|Vn(M)−At| > α) ≤ P(|Vn(M)−At| > α, t ≤ ρp)+ε ≤ P(|Vn(Mρp )−At∧ρp | > α)+ε

et, vu la premiere partie, lim supn P(|Vn(M)−At| > α) ≤ ε.

4.6.4. En fait, l’hypothese de la prop. 4.6.5 est toujours verifiee comme le montre letheoreme suivant.

Page 111: Universit´e Pierre et Marie Curie Master de sciences et

111

Theoreme 4.6.6. Soit (Mt, t ∈ R+) une martingale locale continue nulle en 0. Ilexiste un processus croissant adapte continu (At, t ∈ R+) nul en 0, unique a uneindistinguabilite pres, tel que M2

t − At soit une martingale locale. Enfin, si Mt estune martingale de carre integrable, on a E(At) < +∞ et M2

t −At est une martingale.

La lecture de cette preuve peut etre omise en premiere lecture.

Preuve: Notons d’abord que l’unicite resulte de la prop. 4.6.5.

(i) On suppose Mt bornee par K. On pose

Xnt =

∑k≥0

M k2n

(Mt∧ k+12n−Mt∧ k

2n), Mn

t =∑k≥0

M k2n

1] k2n ,

k+12n ](t), Zn = sup

|t−s|≤ 12n

|Mt−Ms|.

Puisque Mt est continue et que Mt →t M∞ p.s., on a Zn →n 0 p.s. et, etantborne, ||Z2

n||2 →n 0. Admettons un moment le resultat suivant.

Lemme 4.6.7. Il existe une martingale continue de carre integrable Yt telle que,pour tout t, Xn

t →n Yt dans L2.

On pose alors At = M2t − 2Yt, At est un processus adapte p.s. continu et M2

t −Atest une martingale. Soit Ant := (Mn

t )2−2Xnt , Ant →n At dans L2. On a, pour i, j ∈ N,

i < j,

Anj2n−Ani

2n= M2

j2n−M2

i2n− 2

j−1∑k=i

M k2n

(M k+12n

−M k2n

)

=j−1∑k=i

[M2k+12n

−M2k2n− 2M k

2n(M k+1

2n−M k

2n)] =

j−1∑k=i

(M k+12n

−M k2n

)2 ≥ 0

d’ou, pour s < t, Ant − Ans ≥ −(1 + 2K)Zn. On en deduit que At ≥ As p.s. (prendreune sous-suite qui converge p.s.). On a construit un processus croissant continu telque M2

t −At soit une martingale.

Preuve du lem. 4.6.7. Commencons par un resultat relatif au temps discret.

Lemme 4.6.8. Pour toute martingale Mn bornee par K et nulle en 0, tout processusadapte borne Cn, on a, pour tout n,

||n∑k=1

Ck−1(Mk −Mk−1)||2 ≤ 6K2|| supk|Ck|2||2.

Preuve: D’apres la prop. 4.4.1 appliquee a la sous-martingales M2n, il existe un

processus croissant An, Fn−1-mesurable, telle que M2n −An soit une martingale. On

Page 112: Universit´e Pierre et Marie Curie Master de sciences et

112 Esperances conditionnelles. Martingales

a An+1−An ≤ 4K2 p.s. et E(∑n

k=1(Mk−Mk−1)2) = E(An) = E(M2n) ≤ K2. De plus

E(M2n −An)2 = E(

n∑k=1

(M2k −M2

k−1 −Ak +Ak−1))2

= E(n∑k=1

(M2k −M2

k−1−Ak+Ak−1)2) ≤ 2E(n∑k=1

(M2k −M2

k−1)2)+2E(

n∑k=1

(Ak−Ak−1)2)

≤ 8K2E(n∑k=1

(Mk −Mk−1)2) + 8K2E(An) ≤ 8K4 + 8K4 = 16K4

et E(A2n) ≤ 2E(M4

n) + 2E(M2n −An)2 ≤ 34K4.

On a alors

E(n∑k=1

Ck−1(Mk −Mk−1))2 =n∑k=1

E(C2k−1(Mk −Mk−1)2)

=n∑k=1

E(C2k−1E((Mk −Mk−1)2 |Fk−1)) =

n∑k=1

E(C2k−1(Ak −Ak−1))

≤n∑k=1

E(supk|Ck|2(Ak −Ak−1)) = E(sup

k|Ck|2An) ≤ 6K2|| sup

k|Ck|2||2.

Pour tout processus borne Ct, on definit Jnt (C) =∑

k≥0C k2n

(Mt∧ k+12n

−Mt∧ k2n

).

Jn(C) est une martingale continue et, vu le lem. 4.6.8, ||Jnm2n

(C)||2 ≤ 6K2|| supt |Ct|2||2et supt ||Jnt (C)||2 ≤ 6K2|| supt |Ct|2||2. Donc Jn(C) ∈ H2

c defini par (4.13). On a alorsXnt = Jnt (M) = Jnt (Mn) = Jmt (Mn) si m > n. D’ou, pour tout m > n,

||Xn∞ −Xm

∞||2 = ||Jm∞(Mn)− Jm∞(Mm)||2 = ||Jm∞(Mn −Mm)||2 ≤ 6K2||Z2n||2.

Donc Xn∞ →n Y dans L2 et (prop. 4.5.17) il existe une martingale continue Y ∈ H2

c

telle que, pour tout t, Xnt → Yt dans L2.

(ii) Passons au cas general. Soit ρp = inf(t ≥ 0, |Mt| ≥ p). Il existe Apt croissantcontinu tel que M2

t∧ρp− Apt soit une martingale. Vu l’unicite, Ap+1

t∧ρp= Apt∧ρp

et onconclut facilement.

(iii) Enfin, si Mt est une martingale de L2, E(At∧ρp) = E(M2t∧ρp

) ≤ E(M2t ) et E(At) <

+∞. Vu que E(sups≤tM2s ) ≤ 4E(M2

t ), la prop. 4.6.3 implique que M2t − At est une

martingale.

Notation. Le processus At s’appelle le processus croissant associe a Mt. On le notetraditionnellement 〈M〉t ou 〈M,M〉t (ce qui est preferable mais plus long...).

Remarque. Soit τ un temps d’arret. Puisque M2t∧τ − 〈M〉t∧τ est une martingale

locale, on a:〈M τ 〉t = 〈M〉t∧τ . (4.14)

Page 113: Universit´e Pierre et Marie Curie Master de sciences et

113

4.6.5. Attention. Il existe des martingales locales continues et de carre integrable quine sont pas des martingales. Par contre l’integrabilite du processus croissant 〈M〉tdonne des informations sur Mt.

Lemme 4.6.9. Soit Mt une martingale locale continue nulle en 0. On a

E(supt|Mt|) ≤ 3 E(

√〈M〉∞).

Preuve: Soit At = 〈M〉t. On pose ρp = inf(s ≥ 0, |Ms| + As ≥ p). Alors Mt∧ρp etM2t∧ρp

− At∧ρp sont des martingales bornees. Soit σc = inf(t ≥ 0, At ≥ c2). On a(prop. 4.4.7 (ii))

P(suptM2t∧σc∧ρp

> c2) ≤ 1c2

E(M2σc∧ρp

) =1c2

E(Aσc∧ρp) ≤1c2

E(Aσc) ≤1c2

E(c2 ∧A∞)

d’ou P(suptM2t∧σc

> c2) ≤ c−2E(c2 ∧A∞) et

P(suptM2t > c2) ≤ P(σc < +∞) + P(sup

tM2t∧σc

> c2) ≤ P(A∞ ≥ c2) + c−2E(c2 ∧A∞).

On a alors

E(supt|Mt|) =

∫ +∞

0P(sup

tM2t > c2) dc ≤

∫ +∞

0P(A∞ ≥ c2) dc+

∫ +∞

0c−2E(c2∧A∞) dc

= E(∫ √

A∞

0dc) + E(

∫ √A∞

0dc) + E(A∞

∫ +∞

√A∞

c−2 dc) = 3E(√A∞).

Theoreme 4.6.10. Soit Mt une martingale locale continue nulle en 0. Alors(i) M∞ = limt→+∞Mt existe p.s. sur 〈M〉∞ < +∞,(ii) si, pour tout t, E(

√〈M〉t) < +∞, Mt est une martingale,

(iii) si E(√〈M〉∞) < +∞, Mt converge p.s. et dans L1 vers une v.a. M∞ et on a,

pour tout temps d’arret τ , Mτ = E(M∞ | Fτ ) p.s.(iv) si, pour tout t, E(〈M〉t) < +∞, Mt est une martingale de L2 et M2

t − 〈M〉t estune martingale,(v) si E(〈M〉∞) < +∞, Mt est une martingale bornee dans L2 i.e. M ∈ H2

c .Soit τ un temps d’arret,

(vi) si E(√〈M〉τ ) < +∞, M∞ = limt→+∞Mt existe p.s. sur τ = +∞, Mτ ∈ L1 et

E(Mτ ) = 0,(vii) si E(〈M〉τ ) < +∞, on a, de plus, E(M2

τ ) = E(〈M〉τ ).

Preuve: Soit τn = inf(t ≥ 0, |Mt|+〈M〉t ≥ n). M2t∧τn−〈M〉t∧τn etant une martingale

locale bornee, c’est une martingale et E(M2t∧τn) = E(〈M〉t∧τn) ≤ E(〈M〉t) d’ou, par

Fatou, E(M2t ) ≤ lim infn E(M2

t∧τn) ≤ E(〈M〉t).

Supposons E(√〈M〉∞) < +∞. Alors (lem. 4.6.9) E(supt |Mt|) < +∞ et on peut

utiliser la prop. 4.6.3 ce qui donne (iii). Appliquant ce resultat a MT , T > 0 fixe, ona (ii) puisque E(

√〈MT 〉∞) = E(

√〈M〉T ). Vu que E(M2

t ) ≤ E(〈M〉t), si, pour tout

Page 114: Universit´e Pierre et Marie Curie Master de sciences et

114 Esperances conditionnelles. Martingales

t, E(〈M〉t) < +∞, Mt est une martingale de L2 et (th. 4.6.6) M2t − 〈M〉t est une

martingale d’ou (iv). Si E(〈M〉∞) < +∞, supt E(M2t ) ≤ E(〈M〉∞) < +∞ et M ∈ H2

c

ce qui montre (v).

Soit ρp = inf(t ≥ 0, 〈M〉t ≥ p). On a, d’apres (4.14), E(〈Mρp〉∞) = E(〈M〉ρp) ≤ pet Mρp ∈ H2

c . D’ou la convergence p.s. de Mρp

t et donc de Mt sur ρp = +∞. Onobtient (i) en remarquant que 〈M〉∞ < +∞ = ∪pρp = +∞ p.s.

Enfin (vi) et (vii) s’obtiennent en appliquant (iii) et (v) a M τ .

On a egalement:

Proposition 4.6.11. Soit Mt une martingale locale continue nulle en 0. Alors, p.s.,Mt et 〈M〉t ont les memes intervalles de constance.

Preuve: On peut supposer M ∈ H2c . On pose At = 〈M〉t .Il suffit de montrer que,

pour tous r, s ∈ Q, r < s, Mu est constante sur [r, s] = Ar = As p.s. Considerant(Mu−Mr, u ≥ r), on peut supposer r = 0. Vu la prop. 4.6.5, P(supu≤s |Mu| > 0) = 0implique P(As = 0) = 1. Reciproquement supposons que P(supu≤s |Mu| > 0) > 0.Alors il existe a > tel que P(τa ≤ s) > 0 ou τa = inf(u ≥ 0, supu≥0 |Mu| ≥ a). On adonc

0 < a2P(τa ≤ s) ≤ E(M2τa∧s) = E(Aτa∧s) ≤ E(As).

4.7. Resume

Soit (Ω,Ft,F ,P) un espace de probabilite filtre complet. La notion de martingale(sous-martingale,. . .) est relative a la filtration Ft.

4.7.1. Theoreme d’arret.

Theoreme. (Voir cor.4.5.4) Soient (Xt, t ∈ R+) une surmartingale (resp. une sur-martingale generalisee positive) continue a droite et σ ≤ τ deux temps d’arret bornes.Alors Xτ ∈ L1 (resp. Xτ ≥ 0) et E(Xτ | Fσ) ≤ Xσ p.s.

Soient (Xt, t ∈ R+) un processus adapte et τ un temps d’arret. On note (Xτt , t ∈

R+) le processus stoppe defini par Xτt = Xt∧τ .

Corollaire. (Voir cor.4.5.6) Soient (Xt, t ∈ R+) une surmartingale (ou une sur-martingale generalisee positive) continue a droite et τ un temps d’arret. Alors il enest de meme du processus (Xτ

t , t ∈ R+).

4.7.2. Inegalites maximales.

Proposition. (Voir prop. 4.5.1) (i) Soit (Xt, t ∈ R+) une surmartingale positivecontinue a droite. On a, pour tout a > 0,

P(supt≥0

Xt ≥ a) ≤ 1a

E(X0).

Page 115: Universit´e Pierre et Marie Curie Master de sciences et

115

(ii) Soit (Xt, t ∈ R+) une sous-martingale positive continue a droite. On a, pour touta > 0 et tout T > 0,

P( sup0≤t≤T

Xt ≥ a) ≤ 1a

E(XT ).

Theoreme. (Voir prop. 4.5.2, inegalite de Doob.) Soit (Xt, t ∈ R+) une martingale(ou une sous-martingale positive) continue a droite. Alors, pour tout p > 1,

|| supt|Xt| ||p ≤

p

p− 1supt||Xt||p .

Remarque. Soit T > 0. Appliquant ce resultat a la martingale stoppee XTt = Xt∧T ,

on obtient, puisque ||Xt||p croıt avec t, || supt≤T |Xt| ||p ≤ pp−1 ||XT ||p.

4.7.3. Convergences.

Theoreme. (Voir th. 4.5.11) Soit (Xt, t ∈ R+) une sous-martingale continue a droitetelle que supt E(|Xt|) < +∞. Alors Xt converge p.s. vers une v.a. integrable X∞ etE(|X∞|) ≤ supt E(|Xt|).

Proposition. (Voir th. 4.5.15) Soit (Xt, t ∈ R+) une surmartingale generalisee pos-itive continue a droite. Alors Xt converge p.s. vers X∞ dans R+ De plus, on a, pourtout temps d’arret σ ≤ τ , E(Xτ | Fσ) ≤ Xσ p.s.

Proposition. (Voir cor. 4.5.13) Soit (Xt, t ∈ R+) une martingale continue a droitetelle que supt E|Xt|p < +∞, p > 1. Alors Xt converge vers X∞ p.s. et dans Lp et,pour tout temps d’arret τ , E(X∞ | Fτ ) = Xτ p.s.

Remarque 2. Soient p > 1 et (Xt, t ∈ R+) une martingale continue a droite telleque supt E|Xt|p < +∞. On a donc Xt →M∞ p.s. et ||Xt||p → ||X∞||p. Donc, vu que||Xt||p ↑, supt ||Xt||p = ||X∞||p et l’inegalite de Doob (prop. 4.5.2) peut s’ecrire:

|| supt|Xt| ||p ≤

p

p− 1||X∞||p (4.15)

4.7.4. Martingales de carre integrable. Notons d’abord que, si Mt est une martingalede carre integrable, on a, pour s < t,

E((Mt −Ms)2 | Fs) = E(M2t | Fs)− 2MsE(Mt | Fs) +M2

s = E(M2t −M2

s | Fs) p.s..

Theoreme. (Voir th. 4.6.6) Soit (Mt, t ∈ R+) une martingale continue de carreintegrable nulle en 0. Il existe un prosessus adapte (At, t ∈ R+) croissant continuintegrable nul en 0 unique tel que M2

t −At soit une martingale.

4.7.5. Martingales locales.

Definition. (Voir def. 4.6.1) Un processus reel (Xt, t ∈ R+) est une martingale locales’il existe une suite de temps d’arret τn croissant p.s. vers +∞ tel que (Xt∧τn , t ∈ R+)soit une martingale.

Page 116: Universit´e Pierre et Marie Curie Master de sciences et

116 Esperances conditionnelles. Martingales

Evidemment une martingale est une martingale locale (prendre τn = n). Il fautnoter que cette notion est stable par arret: si (Xt, t ∈ R+) est une martingale localecontinue a droite, il en est de meme de (Xt∧τ , t ∈ R+) quel que soit le temps d’arretτ . Si τ est un temps d’arret tel que (Xt∧τ , t ∈ R+) soit une martingale, on dit que τreduit X.

Lemme. (Voir 4.6.2) Une martingale locale continue a droite positive est une sur-martingale generalisee positive.

Proposition. (Voir prop. 4.6.3) Soit (Xt, t ∈ R+) une martingale locale continue adroite nulle en 0. Si, pour tout T , E(supt≤T |Xt|) < +∞. Alors Xt est une martingale.

On fera un usage intensif de la remarque suivante. Si Mt est une martingale localecontinue avec |M0| ≤ K et si on pose ρn = inf(t ≥ 0, |Xt| ≥ n+K), alors ρn est untemps d’arret, ρn ↑ +∞ et Mt∧ρn est une martingale continue bornee.

Theoreme. (Voir th. 4.6.6 et prop. 4.6.5) Soit (Mt, t ∈ R+) une martingale localecontinue nulle en 0. Il existe processus adapte (At, t ∈ R+) croissant continu nulen 0 unique tel que M2

t − At soit une martingale locale. De plus, t > 0 fixe, soitπn = tn0 = 0 < tn1 < . . . < tnrn = t une suite de subdivisions de [0, t] dont le pas|πn| = supi |tni+1 − tni | →n 0, alors

∑rn−1i=0 (Mtni+1

−Mtni)2 tend en probabilite vers At

lorsque n→ +∞.

On recommande la lecture de la demonstration de la prop. 4.6.5, cette propositionetant a la base de la preuve de la formule de Ito.

On note At = 〈M〉t. Ce processus s’appelle le processus croissant associe a Mt.Par exemple, si (Bt, t ∈ R+) est un Ft-mouvement brownien reel nul en 0, 〈B〉t = t(prop. 4.3.5). Enfin soient (Mt, t ∈ R+) une martingale locale continue nulle en 0 etτ un temps d’arret. On sait que M τ

t = Mt∧τ est encore martingale locale continuenulle en 0. On a alors 〈M τ 〉t = 〈M〉t∧τ .

Page 117: Universit´e Pierre et Marie Curie Master de sciences et

Chapitre 5

Calcul stochastique

Soit (Ω,F ,Ft,P) un espace de probabilite filtre complet (3.4.1) i.e. F0 contient lesensembles negligeables de F . On identifiera donc les processus indistinguables. Enparticulier, “le processus X est nul” signifie que le processus X est indistinguable duprocessus identiquement nul.

5.1. Processus a variation finie

5.1.1. Les principales proprietes des fonctions a variation finie ont ete etudiees section1.11. Soit (At, t ∈ R+) un processus adapte croissant continu nul en 0. Pour tout ω, ilexiste une unique mesure µ(ω, .) telle que At(ω) = µ(ω, [0, t]). Si Xt est un processusmesurable positif, on definit un nouveau processus (X.A)t =

∫ t0 Xs dAs par

(X ·A)t (ω) :=∫ t

0Xs(ω)µ(ω, ds).

On peut de meme definir∫ t0 Xs dAs pour X reel si, pour tout t,

∫ t0 |Xs| dAs < +∞.

Lemme 5.1.1. Soit Xt un processus progressif tel que∫ t0 |Xs| dAs < +∞ pour tout

t. Alors le processus (X ·A)t =∫ t0 Xs dAs est adapte continu (et donc progressif).

Preuve: La continuite resulte du theoreme de Lebesgue puisque µ(ω, t) = 0. Ap-pliquant, pour t fixe, le th. 1.1.3 a C = ]u, v] × Γ, 0 ≤ u < v ≤ t,Γ ∈ Ft etH = Z ∈ b(B([0, t])⊗Ft),

∫ t0 Zs dAs ∈ Ft, on obtient que H = b(B([0, t])⊗Ft). On

conclut facilement.

5.1.2. Soit (Vt, t ∈ R+) un processus adapte continu nul en 0 et dont les trajectoiressont a variation finie. On appelle processus variation totale de V le processus

SVt (ω) = supn∑k=1

|Vtk(ω)− Vtk−1(ω)|, 0 = t0 < . . . < tn = t.

Page 118: Universit´e Pierre et Marie Curie Master de sciences et

118 Calcul stochastique

SVt est un processus adapte croissant continu (prop. 1.11.2) nul en 0 et |Vt| ≤ SVt . Deplus A1

t = SVt +Vt

2 et A2t = SV

t −Vt

2 sont des processus croissants continus. EvidemmentVt = A1

t −A2t , S

Vt = A1

t +A2t .

Soit Xt un processus progressif verifiant pour tout t,∫ t0 |Xs| dSVs < +∞. On peut

definir

(X · V )t =∫ t

0Xs dVs :=

∫ t

0Xs dA

1t −

∫ t

0Xs dA

2t .

Alors (X · V )t est un processus adapte continu a variation finie nul en 0 et

|∫ t

0Xs dVs| ≤

∫ t

0|Xs| dSVs .

On pose

Ac = A, At est un processus adapte, nul en 0, p.s. croissant et continu.Vc = V, Vt est un processus adapte, nul en 0, p.s. a variation finie et continu.

Les processus de Ac et Vc sont donc indistinguables de processus continus et on aAc ⊂ Vc. Soit Xt un processus progressif. Pour A ∈ Ac, on peut definir (X.A)t =∫ t0 Xs dAs si Xt est positif p.s. ou si

∫ t0 |Xs| dAs <∞ p.s. quel que soit t. Pour V ∈ Vc,

on peut definir (X · V )t =∫ t0 Xs dVs si

∫ t0 |Xs| dSVs < +∞ p.s. quel que soit t.

Exemple. Soit ψt un processus progressif verifiant, pour tout t,∫ t0 |ψs| ds < +∞ p.s.

Alors (voir 1.11) Vt =∫ t0 ψs ds ∈ Vc, SVt =

∫ t0 |ψs| ds et

∫ t0 Xs dVs =

∫ t0 Xsψs ds est

defini pour tout X tel que, pour tout t,∫ t0 |Xs| |ψs| ds < +∞ p.s.

5.1.3. On pose:

Mlocc = M, Mt est une martingale locale nulle en 0, p.s. continue.

Theoreme 5.1.2. Mlocc ∩ Vc = 0.

Preuve: Soit SMt la variation totale de M . C’est un processus continu (prop. 1.11.2).

(i) Supposons d’abord SMt ≤ K. On a aussi |Mt| ≤ K. Soit πn = tn0 = 0 < tn1 < . . . <tnrn = t une suite de subdivisions de [0, t] dont le pas |πn| = supi |tni+1 − tni | →n 0.On a, puisque Mt est une martingale,

E(M2t ) = E

rn−1∑i=0

(M2tni+1

−M2tni

) = Ern−1∑i=0

(Mtni+1−Mtni

)2

≤ Esupi|Mtni+1

−Mtni|rn−1∑i=0

|Mtni+1−Mtni

| ≤ KE(supi|Mtni+1

−Mtni|) →n 0

puisque supi |Mtni+1−Mtni

| →n 0 en restant borne. Donc Mt = 0 p.s. et on conclutpar le lem. 3.1.3.

(ii) Cas general. On pose ρn = inf(t > 0, SMt ≥ n) et on applique (i) a Mt∧ρn .

5.1.4. On etend le th. 4.6.6.

Page 119: Universit´e Pierre et Marie Curie Master de sciences et

119

Theoreme 5.1.3. Pour tous M,N ∈ Mlocc , il existe un unique V ∈ Vc tel que

MtNt − Vt soit une martingale locale. On note Vt = 〈M,N〉t. On fixe t > 0. Siπn = tn0 = 0 < tn1 < . . . < tnrn = t est une suite de subdivisions de [0, t] dont le pas|πn| = supi |tni+1 − tni | →n 0,

rn−1∑i=0

(Mtni+1−Mtni

)(Ntni+1−Ntni

) →n 〈M,N〉t en probabilite. (5.1)

De plus l’application (M,N) → 〈M,N〉 est bilineaire symetrique et, pour tout tempsd’arret τ , 〈M τ , N τ 〉t = 〈M,N τ 〉t = 〈M,N〉t∧τ .

Preuve: (i) Unicite. Supposons MtNt−V 1t = U1

t et MtNt−V 2t = U2

t avec U i ∈ Mlocc .

Alors V 1t − V 2

t = U2t − U1

t ∈ Mlocc ∩ Vc et donc (th. 5.1.2) V 1 = V 2.

(ii) Existence. On a MtNt = 14(Mt+Nt)2− (Mt−Nt)2 et Vt = 1

4〈M +N〉t−〈M −N〉t convient (th. 4.6.6) et la prop. 4.6.5 etablit (5.1).

La stabilite par arret des martingales locales implique que 〈M τ , N τ 〉t = 〈M,N〉t∧τ .Enfin l’egalite 〈M τ , N τ 〉t = 〈M,N τ 〉t resulte de (5.1).

Le processus 〈M,N〉t s’appelle le crochet des martingales (locales) M et N .

5.2. Integrale stochastique

Soit B = (Ω,F ,Ft, Bt,P) un Ft-mouvement brownien reel issu de 0. On veut definir∫ t0 φsdBs pour une classe convenable de processus φs. Le mouvement brownien n’etant

pas a variation finie, ceci ne peut pas se faire trajectoire par trajectoire comme dansla section precedente.

5.2.1. On commence par traiter le cas de processus elementaires.

Definition 5.2.1. On appelle processus etage un processus de la forme

φt =n−1∑i=0

Ui1]ti,ti+1](t) (5.2)

ou 0 ≤ t0 < t1 < . . . < tn et Ui ∈ bFti. On note E l’ensemble des processus etages.

Pour φ ∈ E, on pose, pour tout 0 < t ≤ +∞,

∫ t

0φsdBs :=

n−1∑i=0

Ui(Bti+1∧t −Bti∧t). (5.3)

Rappelons que H2c designe l’espace des martingales continues telles que supt E(M2

t ) <+∞ (voir 4.5.5).

Page 120: Universit´e Pierre et Marie Curie Master de sciences et

120 Calcul stochastique

Proposition 5.2.2. Soit φ ∈ E. Alors Mt =∫ t0 φs dBs ∈ H2

c et 〈M〉t =∫ t0 φ

2sds. En

particulier

E(∫ +∞

0φs dBs) = 0, E(

∫ +∞

0φs dBs)2 = E(

∫ +∞

0φ2s ds). (5.4)

Preuve: Soit φ donne par (5.2). Nous laissons au lecteur le soin de verifier:

Lemme 5.2.3. Soient Xt un processus adapte integrable et 0 = t0 ≤ t1 < · · · < tn <tn+1 = ∞ Si, pour tous s, t ∈ R+ verifiant ti ≤ s < t ≤ ti+1, E[Xt − Xs|Fs] = 0,alors Xt est une martingale.

On suppose donc ti ≤ s < t ≤ ti+1. On a, d’une part, Mt −Ms = Ui(Bt − Bs)avec Ui ∈ bFti ⊂ bFs et

E(Mt −Ms|Fs) = Ui E(Bt −Bs|Fs) = 0.

D’autre part, posant At =∫ t0 φ

2s ds, on a At −As = U2

i (t− s) et

E(M2t −M2

s |Fs) = E((Mt −Ms)2|Fs) = U2i E((Bt −Bs)2|Fs) = U2

i (t− s)

d’ou0 = E(M2

t −M2s − U2

i (t− s)|Fs) = E(M2t −At − (M2

s −As)|Fs)

et M2t − At est une martingale. On a donc, pour tout t, E(M2

t ) = E(At). Mais pourt ≥ tn, Mt = Mtn et At = Atn d’ou E(M2

∞) = E(A∞).

5.2.2. Construction de l’integrale stochastique. On pose

Λ2 = L2(R+ × Ω,Prog, λ⊗ P). (5.5)

Il s’agit donc des classes d’equivalence pour l’egalite λ ⊗ P p.p. C’est un espace deHilbert pour la norme

||φ||Λ2 = E(∫ +∞

0φ2s ds)1/2. (5.6)

et E ⊂ Λ2 (avec l’abus de langage usuel). Alors I : φ → I(φ) =∫ +∞0 φs dBs est une

application lineaire et une isometrie de E dans L2(Ω,F ,P), elle se prolonge donc defacon unique en une isometrie de E dans L2(Ω,F ,P) d’ou l’interet d’identifier E.

Proposition 5.2.4. E est dense dans (Λ2, || . ||Λ2).

Preuve: Soit φ ∈ Λ2 orthogonale a E. Pour montrer que E = Λ2, il suffit de montrerque φ = 0 dans Λ2 (cor. 1.5.5). Considerons Xt =

∫ t0 φs ds. Puisque |φs| ≤ 1 + φ2

s,on a que, pour tout t, E(

∫ t0 |φs| ds) < +∞. Donc Xt ∈ L1 et X = (Xt, t ≥ 0) ∈ Vc.

Soient s < t, A ∈ Fs et ψu = 1A1]s,t](u) ∈ E. On a

0 = E(∫ +∞

0φsψs ds) = E(1A

∫ t

sφs ds) = E(1A(Xt −Xs))

Page 121: Universit´e Pierre et Marie Curie Master de sciences et

121

ce qui montre que Xt est une martingale. Donc (th. 5.1.2) Xt = 0, φs = 0 p.p. (cor.1.11.4) et φ = 0 dans Λ2.

Remarque. On peut montrer (voir [6]) que, si φ est un processus mesurable adaptetel que E(

∫ +∞0 φ2

s ds) < +∞, il existe une suite φn de processus etages telle queE(

∫ +∞0 (φs − φns )

2 ds) →n 0. Ceci implique que, si φ est un processus mesurableadapte, il existe un processus progressif ψ tel que φ = ψ λ ⊗ P p.p. L’espace Λ2 desclasses est alors inchange.

On a donc E = Λ2 et I se prolonge a tout Λ2. Vu son importance et pour lacommodite du lecteur, nous explicitons la construction de ce prolongement. Soit φ ∈Λ2. Il existe φn ∈ E tels que ||φ − φn|||Λ2 → 0. I(φn) est une suite de Cauchy deL2 puisque ||I(φn) − I(φm)||2 = ||φn − φm||Λ2 . Soit X = limn I(φn) dans L2. Cettelimite ne depend pas du choix de la suite φn convergeant vers φ car si ψn convergevers φ dans Λ2, ||I(φn)− I(ψn)||2 = ||φn − ψn||Λ2 → 0 et donc X = limn I(ψn) dansL2. On pose X = I(φ). On a donc etabli (la derniere assertion resulte du fait que laconvergence dans L2 implique la convergence dans L1):

Theoreme 5.2.5. Il existe une application lineaire unique I de Λ2 dans L2(Ω,F ,P)telle que(i) pour toute φ ∈ Λ2, ||I(φ)||2 = ||φ||Λ2,(ii) si φ = U1]s,t], U ∈ bFs, I(φ) = U(Bt −Bs).De plus E(I(φ)) = 0.

On note I(φ) =∫ +∞0 φs dBs. On appelle I(φ) l’integrale stochastique de φ sur R+.

On pose ensuite, pour T > 0,

Λ2(T ) = L2([0, T ]× Ω,Prog, λ|[0,T ] ⊗ P). (5.7)

Si φs ∈ Λ2(T ), φs1[0,T ](s) ∈ Λ2 et on peut definir∫ T

0φsdBs :=

∫ +∞

01[0,T ](s)φs dBs. (5.8)

∫ T0 φsdBs s’appelle l’integrale stochastique de φ sur [0, T ] et l’on a,

Corollaire 5.2.6. (i) Soit φ ∈ Λ2(T ). On a E(∫ T0 φsdBs) = 0 et E(

∫ T0 φsdBs)2 =

E(∫ T0 φ2

s ds).(ii) Soit φ, ψ ∈ Λ2(T ). On a E(

∫ T0 φsdBs

∫ T0 ψsdBs) = E(

∫ T0 φsψs ds).

5.2.3. Continuite de l’integrale stochastique. Soit φ ∈ Λ2. Pour chaque t, Xt =∫ t0 φsdBs est une classe de L2 i.e. n’est definie qu’a une equivalence pres. Il se pose

donc le probleme de choisir un representant Xt(ω) de cette classe tel que le processusXt(ω) soit le plus regulier possible. C’est l’objet du theoreme suivant.

Page 122: Universit´e Pierre et Marie Curie Master de sciences et

122 Calcul stochastique

Theoreme 5.2.7. Soit φ ∈ Λ2. Il existe M ∈ H2c telle que, pour tout t, Mt =∫ t

0 φs dBs p.s. De plus M2t −

∫ t0 φ

2s ds est une martingale.

Preuve: On peut appliquer la prop. 4.5.17 mais aussi le montrer directement. Soientφn ∈ E tels que ||φ− φn||Λ2 ≤ 2−n et Mn

t =∫ t0 φ

ns ds. (Mn

t , t ≥ 0) est une martigalecontinue de L2 et, vu (4.15),

E(supt|Mn+1

t −Mnt |) ≤ || sup

t|Mn+1

t −Mnt | ||2

≤ 2||Mn+1∞ −Mn

∞||2 = 2||φn+1 − φn||Λ2 ≤ 4.2−n.

Il en resulte que E(∑

n supt |Mn+1t −Mn

t |) =∑

n E(supt |Mn+1t −Mn

t |) < +∞ p.s. d’ou∑n supt |Mn+1

t −Mnt | < +∞ p.s. et p.s. la suite de martingales continues (Mn

t , t ≥ 0)converge uniformement sur R+ vers un processus continu (Mt, t ≥ 0). Comme, pourchaque t, Mn

t →n Mt dans L2, Mt est une martingale et Mt =∫ t0 φs dBs p.s. Alors

Unt = (Mnt )2 −

∫ t0 (φns )

2 ds→n M2t −

∫ t0 φ

2s ds = Ut dans L1 et Ut est une martingale.

Enfin E(M2t ) = E(

∫ t0 φ

2s ds) ≤ E(

∫∞0 φ2

s ds) < +∞ et M ∈ H2c .

Dorenavant, pour φ ∈ Λ2,∫ t0 φs dBs designera la martingale continue Mt telle que,

pour tout t, Mt =∫ t0 φs dBs p.s. et Mt s’appelle l’integrale stochastique de φ.

Corollaire 5.2.8. Soient φ, ψ ∈ Λ2, Mt =∫ t0 φs dBs, Nt =

∫ t0 ψs dBs. On a

〈M,N〉t =∫ t0 φsψs ds et MtNt − 〈M,N〉t est une martingale.

Preuve: Il suffit d’ecrire φsψs = 14((φs + ψs)2 − (φs − ψs)2).

Corollaire 5.2.9. Soient φ, ψ ∈ Λ2, Mt =∫ t0 φs dBs, Nt =

∫ t0 ψs dBs et τ un temps

d’arret. On a, pour tout t, E(Mt∧τNt∧τ ) = E(∫ t∧τ0 φsψs ds).

Preuve: Il suffit d’appliquer les cor. 4.5.4 et 5.2.8.

Corollaire 5.2.10. Soient φ ∈ Λ2, Mt =∫ t0 φs dBs et τ un temps d’arret. On a

Mt∧τ =∫ t0 φs1[0,τ ](s) dBs p.s.

Preuve: Soit Nt =∫ t0 φs1[0,τ ](s) ds. Il suffit de montrer que E(Mt∧τ −Nt)2 = 0. Mais

(cor. 5.2.9) E(M2t∧τ ) = E(

∫ t∧τ0 φ2

s ds), E(N2t ) = E(

∫ t0 φ

2s1[0,τ ](s) ds) et (cor. 4.5.5)

E(Mt∧τNt) = E(Mt∧τNt∧τ ) = E(∫ t∧τ0 φ2

s ds) d’ou E(Mt∧τ −Nt)2 = 0.

5.2.4. D’abord un lemme preparatoire.

Lemme 5.2.11. Soient Xnt des processus continus et τn une suite croissante de temps

d’arret avec limn τn = +∞ p.s. On suppose que, pour tout t et tout n, Xnt∧τn = Xn+1

t∧τnp.s. Alors il existe un processus continu Xt tel que, pour tout t et tout n, Xt = Xn

t∧τnp.s.

Preuve: Puisqu’ils sont continus, les processus (Xnt∧τn , t ∈ R+) et (Xn+1

t∧τn , t ∈ R+)sont indistinguables (lem. 3.1.3). Il existe donc un ensemble N negligeable tel que,

Page 123: Universit´e Pierre et Marie Curie Master de sciences et

123

pour tout ω /∈ N , limn τn(ω) = +∞ et Xnt∧τn(ω) = Xn+1

t∧τn(ω) quel que soit n. Ondefinit alors Xt(ω) = Xn

t (ω) si ω /∈ N et t < τn(ω) et Xt(ω) = 0 si ω ∈ N .

5.2.5. Extension. On pose

Λ0 = φ, φs processus progressif et, pour tout t,∫ t

0φ2s ds < +∞ p.s. (5.9)

On identifie comme d’habitude les processus egaux λ⊗ P p.p. Soit φ ∈ Λ0. On pose

τn = inf(t ≥ 0,∫ t

0φ2s ds ≥ n).

On a donc E(∫ τn0 φ2

s ds) < +∞. On definit Mn ∈ H2c par

Mnt =

∫ t

0φs1[0,τn](s) dBs. (5.10)

On a 〈Mn〉t =∫ t∧τn0 φ2

s ds. Vu le cor. 5.2.10, on a Mn+1t∧τn = Mn

t∧τn p.s. Il existe donc(lem. 5.2.11) un processus continu Mt tel que, pour tout t, Mt∧τn = Mn

t∧τn . Parconstruction meme, M ∈ Mloc

c et Ut = M2t −

∫ t0 φ

2s ds ∈ Mloc

c . Si τ est un tempsd’arret tel que E(

∫ τ0 φ

2s ds) < +∞ et si Nt =

∫ t0 φs1[0,τ ](s) dBs, on a (cor. 5.2.10)

Mt∧τn∧τ = Mnt∧τn∧τ = Nt∧τn p.s. et, pour n→ +∞, Mt∧τ = Nt p.s. On a etabli,

Theoreme 5.2.12. Soit φ ∈ Λ0. Il existe M ∈ Mlocc , unique, telle que, pour tout

temps d’arret verifiant E(∫ τ0 φ

2s ds) < +∞, on ait Mt∧τ =

∫ t0 φs1[0,τ ](s) dBs p.s. De

plus 〈M〉t =∫ t0 φ

2s ds.

Mt s’appelle encore l’integrale stochastique de φ et se note toujours∫ t0 φs dBs. On

a comme d’habitude,

Corollaire 5.2.13. Soient φ, ψ ∈ Λ0 et Mt =∫ t0 φs dBs, Nt =

∫ t0 ψs dBs. Alors

〈M,N〉t =∫ t0 φsψs ds.

Soit T > 0. Si φs est un processus progressif tel que∫ T0 φ2

s ds < +∞ p.s.,φs1[0,T ](s) ∈ Λ0 et on definit∫ T

0φs dBs := MT ou Mt =

∫ t

0φs1[0,T ](s) dBs (5.11)

On appelle encore∫ T0 φs dBs l’integrale stochastique de φ sur [0, T ]. Il est essentiel

de remarquer qu’en general la v.a.∫ T0 φs dBs n’est pas integrable et que le cor. 5.2.6

n’est plus valable. Neanmoins le processus croissant 〈M〉t controle l’integrabilite deMt. C’est ce que precise le th. 4.6.10.

Enfin le cor. 5.2.10 s’etend sans peine et devient:

Corollaire 5.2.14. Soient φ ∈ Λ0, Mt =∫ t0 φs dBs et τ un temps d’arret. On a

Mt∧τ =∫ t0 φs1[0,τ ](s) ds p.s.

Page 124: Universit´e Pierre et Marie Curie Master de sciences et

124 Calcul stochastique

5.3. Le cas vectoriel

On considere un Ft-mouvement brownien reel a valeurs Rd issu de 0,B = (Ω,F ,Ft, Bt,P).On note Bt = (B1

t , . . . , Bdt ). Chaque Bk

t est un Ft-mouvement brownien auquel onpeut appliquer les resultats de la section precedente. Rappelons que, pour x ∈ Rd,|x| designe la norme euclidienne de x.

5.3.1. On poseΛ2d = φ, φ = (φ1, . . . , φd), φk ∈ Λ2. (5.12)

Λ0d = φ, φ = (φ1, . . . , φd), φk ∈ Λ0. (5.13)

Pour φ ∈ Λ0d, on definit:

Mt =∫ t

0< φs, dBs >:=

d∑k=1

∫ t

0φks dB

ks . (5.14)

Alors M ∈ Mlocc et, si φ ∈ Λ2

d, M ∈ H2c . On ecrira indifferemment

∫ t0 < φs, dBs > ou∫ t

0 φTs dBs.

Lemme 5.3.1. Soient φ, ψ ∈ Λ0, M it =

∫ t0 φs dB

is, M

jt =

∫ t0 ψs dB

js . On a, pour

i 6= j, 〈M i,M j〉 = 0.

Preuve: On sait (prop. 4.3.6) que, pour i 6= j, BitB

jt est une martingale. Il en est

de meme, pour a > 0, de (Bit − Bi

a)(Bjt − Bj

a), t ≥ a. Comme, pour a < b ≤ c < d,U ∈ bFa, V ∈ bFc, U(Bi

t∧b − Bit∧a)V (Bj

t∧d − Bjt∧c) est une martingale, on a, vu la

bilinearite de 〈 , 〉, que 〈M i,M j〉 = 0 si φ, ψ ∈ E. Par densite, c’est encore vrai pourφ, ψ ∈ Λ2 et, par arret, pour φ, ψ ∈ Λ0.

On en deduit immediatement, vu la bilinearite du crochet,

Proposition 5.3.2. Soient φ, ψ ∈ Λ0d, Mt =

∫ t0 < φs, dBs >, Nt =

∫ t0 < ψs, dBs >.

On a 〈M,N〉t =∑d

k=1

∫ t0 φ

ksψ

ks ds =

∫ t0 < φs, ψs > ds.

En particulier 〈M〉t =∫ t0 |φs|

2 ds. Le lecteur est invite a se reporter au th. 4.6.10pour la liste des proprietes d’integrabilite de Mt en fonction de celles de 〈M〉t.

5.3.2. Localisation.

Proposition 5.3.3. Soient φ ∈ Λ0d et A ∈ F0. Si, sur A,

∫ t0 |φs|

2 ds = 0 p.s., on a∫ t0 φ

Ts dBs = 0 p.s. sur A.

Preuve: Soit Mt =∫ t0 φ

Ts dBs. Par arret, on se ramene au cas ou φ ∈ Λ2

d. AlorsUt = M2

t − 〈M〉t est une martingale et E(Ut |F0) = U0 = 0. On a donc

E(1AM2t ) = E(1AE(M2

t |F0)) = E(1AE(〈M〉t |F0)) = E(1A〈M〉t) = E(1A∫ t

0|φs|2 ds) = 0.

Page 125: Universit´e Pierre et Marie Curie Master de sciences et

125

5.4. Formule d’Ito

On considere toujours un Ft-mouvement brownien reel a valeurs Rd issu de 0,B = (Ω,F ,Ft, Bt,P).

5.4.1. Processus d’Ito.

Definition 5.4.1. On appelle processus d’Ito tout processus Xt de la forme

Xt = X0 +∫ t

0< φs, dBs > +

∫ t

0αs ds (5.15)

ou X0 ∈ F0, φ ∈ Λ0d et αs est un processus progressif reel tel que, pour tout t,∫ t

0 |αs| ds < +∞ p.s.

Un processus d’Ito s’ecrit doncXt = X0+Mt+Vt avecMt =∫ t0 < φs, dBs >∈ Mloc

c

et Vt =∫ t0 αs ds ∈ Vc. Vu le th. 5.1.2, cette decomposition est unique.

Soient Xt = X0+∫ t0 < φs, dBs > +

∫ t0 αs ds et Yt = Y0+

∫ t0 < ψs, dBs > +

∫ t0 βs ds

deux processus d’Ito. On definit:

〈X,Y 〉t :=∫ t

0< φs, ψs > ds =

d∑k=1

∫ t

0φksψ

ks ds. (5.16)

C’est donc (prop. 5.3.2) le crochet des parties martingales. L’application (X,Y ) →〈X,Y 〉 est evidemment bilineaire symetrique. Cette definition est justifiee par:

Proposition 5.4.2. Soient X,Y deux processus d’Ito et t > 0. Soit πn = tn0 =0 < tn1 < . . . < tnrn = t une suite de subdivisions de [0, t] dont le pas |πn| =supi |tni+1 − tni | →n 0. On a

rn−1∑i=0

(Xtni+1−Xtni

)(Ytni+1− Ytni ) →n 〈X,Y 〉t en probabilite.

Preuve: On ecrit Xt = X0 +Mt + Vt, Yt = Y0 +Nt +Wt, M,N ∈ Mlocc , V,W ∈ Vc.

On a (th. 5.1.3)

rn−1∑i=0

(Mtni+1−Mtni

)(Ntni+1−Ntni

) →n 〈M,N〉t en probabilite.

Par ailleurs,

|rn−1∑i=0

(Mtni+1−Mtni

)(Wtni+1−Wtni

)|

≤ supi|Mtni+1

−Mtni|rn−1∑i=0

|Wtni+1−Wtni

| ≤ supi|Mtni+1

−Mtni|SWt

Page 126: Universit´e Pierre et Marie Curie Master de sciences et

126 Calcul stochastique

tend p.s. vers 0 pour n → +∞ vu la continuite de M . Les autres termes se traitentde la meme facon et on obtient le resultat cherche.

5.4.2. Integration par rapport a un processus d’Ito. Soit Xt = X0 +∫ t0 < φs, dBs >

+∫ t0 αs ds un processus d’Ito. On pose:

L0(X) = U, Us progressif et ∀ t∫ t

0(U2

s |φs|2 + |Us||αs|) ds < +∞ p.s. (5.17)

Pour U ∈ L0(X), on definit:∫ t

0Us dXs :=

∫ t

0Usφ

Ts dBs +

∫ t

0Usαs ds (5.18)

ou∫ t0 Usφ

Ts dBs =

∑dk=1

∫ t0 Usφ

ks dB

ks . Noter que tout processus progressif verifiant,

pour tout t, sups≤t |Us| < +∞ p.s. (en particulier continu) est dans L0(X) quel quesoit X. On a:

Proposition 5.4.3. Soient X un processus d’Ito et Uns une suite de processus pro-gressifs bornes dans leur ensemble par M . On suppose que, pour tout s, Uns →n Usp.s. Alors, pour tout t,

∫ t0 U

ns dXs →n

∫ t0 Us dXs en probabilite.

Preuve: Soit Xt = X0 +∫ t0 φ

Ts dBs +

∫ t0 αs ds.

(i) On suppose E(∫ t0 (|φs|2 + |αs|) ds) < +∞. On a, d’une part,

E|∫ t

0Uns φ

Ts dBs −

∫ t

0Usφ

Ts dBs|2

= E|∫ t

0(Uns − Us)φTs dBs|2 = E(

∫ t

0|(Uns − Us)φs|2 ds) →n 0.

et, d’autre part,

E|∫ t

0Uns αs ds−

∫ t

0Usαs ds| ≤ E(

∫ t

0|(Uns − Us)αs| ds) →n 0

d’apres le theoreme de Lebesgue. Donc∫ t0 U

ns dXs →n

∫ t0 Us dXs dans L1.

(ii) On considere les temps d’arret τn = inf(t ≥ 0,∫ t0 |(φs|

2 + |αs|) ds ≥ n). On aP(τn < t) →n 0 et on se ramene a (i) comme dans la prop. 4.6.5.

On en deduit,

Corollaire 5.4.4. Soient Xs un processus d’Ito et Us un processus progressif continu.On fixe t > 0. Soit πn = tn0 = 0 < tn1 < . . . < tnrn = t une suite de subdivisions de[0, t] dont le pas |πn| = supi |tni+1 − tni | →n 0. Alors

rn−1∑i=0

Utni (Xtni+1−Xtni

) →n

∫ t

0Us dXs en probabilite.

Page 127: Universit´e Pierre et Marie Curie Master de sciences et

127

Preuve: Supposons d’abord Us borne. On pose Uns =∑rn−1

i=0 Utni 1]tni ,tni+1](s). On a

rn−1∑i=0

Utni (Xtni+1−Xtni

) =∫ t

0Uns dXs.

Vu la continuite, Uns →n Us pour tous s ≤ t et il suffit d’appliquer la prop. 5.4.3.Pour traiter le cas general, on se ramene au cas precedent en posant τn = inf(s ≥0, |Us| ≥ n).

5.4.3. Formule d’Ito. Soit Xt = X0 +∫ t0 < φs, dBs > +

∫ t0 αs ds un processus d’Ito.

On ecrira dXt =< φt, dBt > +αt dt et dXt s’appelle la differentielle stochastique deX. La proposition suivante montre que, si X et Y sont des processus d’Ito, d(XY )t =XtdYt+YtdXt+d〈X,Y 〉t mettant en evidence la difference entre le calcul differentielordinaire et le calcul differentiel stochastique.

Proposition 5.4.5. Soient X et Y des processus d’Ito. On a

XtYt −X0Y0 =∫ t

0Xs dYs +

∫ t

0Ys dXs + 〈X,Y 〉t.

Preuve: Ecrivant XY = 14 [(X+Y )2− (X−Y )2], il suffit de montrer que X2

t −X20 =

2∫ t0 Xs dXs+ 〈X〉t. Soit πn = tn0 = 0 < tn1 < . . . < tnrn = t une suite de subdivisions

de [0, t] dont le pas |πn| = supi |tni+1 − tni | →n 0. Vu que x22 − x2

1 = 2x1(x2 − x1) +(x2 − x1)2, on a

X2t −X2

0 =rn−1∑i=0

(X2tni+1

−X2tni

) = 2rn−1∑i=0

Xtni(Xtni+1

−Xtni) +

rn−1∑i=0

(Xtni+1−Xtni

)2.

D’apres le cor. 5.4.4 et la prop. 5.4.2, le terme de droite converge en probabilite versZt = 2

∫ t0 Xs dXs + 〈X〉t. On a donc X2

t −X20 = Zt p.s. et, vu la continuite, X2

t −X20

et Zt sont indistinguables.

Theoreme 5.4.6. (Formule d’Ito) Soient X1t , . . . , X

pt des processus d’Ito, Xt =

(X1t , . . . , X

pt ) et f ∈ C2(Rp). Alors f(Xt) est un processus d’Ito et on a

f(Xt)− f(X0) =p∑j=1

∫ t

0

∂f

∂xj(Xs) dXj

s +12

p∑j,k=1

∫ t

0

∂2f

∂xj∂xk(Xs) d〈Xj , Xk〉s.

Preuve: On remarque d’abord que, si la formule est vraie pour f et pour g, elle estvraie pour f + g et, utilisant la prop. 5.4.5, pour fg. Etant evidente pour f : x 7→ xi,1 ≤ i ≤ p, elle est donc vraie si f est un polynome de p variables. On peut supposerX0 borne, sinon on montre la formule pour X01|X0|≤n et on applique la prop. 5.3.3.Introduisant les temps d’arret τn = inf(t ≥ 0, |Xt| ≥ n), on se ramene au cas Xt estborne. On suppose donc supt |Xt| ≤ M et soit K = |x| ≤ M. Il existe une suitede polynomes fn(x) tels que fn(x), ∂fn

∂xj(x) et ∂2fn

∂xj∂xk(x) tendent vers f(x), ∂f

∂xj(x) et

Page 128: Universit´e Pierre et Marie Curie Master de sciences et

128 Calcul stochastique

∂2f∂xj∂xk

(x) uniformement sur le compact K. On ecrit alors la formule pour fn et onpasse a la limite utilisant la prop. 5.4.3.

Sous forme differentielle, la formule d’Ito s’ecrit

df(Xt) =p∑j=1

∂f

∂xj(Xt) dX

jt +

12

p∑j,k=1

∂2f

∂xj∂xk(Xt) d〈Xj , Xk〉t. (5.19)

5.4.4. Si certains des processus Xit dans (5.19) sont a variation finie, seules les

derivees premieres par rapport a ces arguments interviennent dans (5.19). Donc ap-prochant une fonction C1 en ces arguments par des fonctions C2, on voit que laformule d’Ito reste valable pour de telles fonctions. Le cas de loin le plus utile est lesuivant. On note C1,2(R × Rd) l’espace des fonctions f(t, x) continument derivablesen t et deux fois continument derivables en x. On a:

Corollaire 5.4.7. Soient X1t , . . . , X

pt des processus d’Ito, Xt = (X1

t , . . . , Xpt ) et f ∈

C1,2(R× Rp). Alors f(t,Xt) est un processus d’Ito et on a

f(t,Xt)− f(0, X0) =∫ t

0

∂f

∂u(s,Xs) ds+

p∑j=1

∫ t

0

∂f

∂xj(s,Xs) dXj

s +12

p∑j,k=1

∫ t

0

∂2f

∂xj∂xk(s,Xs) d〈Xj , Xk〉s.

5.4.5. Exemple. Soient U un ouvert borne regulier de Rd et f une fonction regulieresur ∂U . Il existe une fonction u ∈ C2(U) ∩ C(U) telle que

∆u(x) = 0 si x ∈ U, u(x) = f(x) si x ∈ ∂U

ou ∆ =∑d

i=1∂2

∂x2i. C’est la solution du probleme de Dirichlet. On suppose U et f

suffisamment reguliers pour que u se prolonge en une fonction a support compact,encore notee u, de classe C2 sur Rd.

Soient Bt un mouvement brownien a valeurs Rd issu de 0 et x ∈ U . On poseBxt = x + Bt et τx = inf(t ≥ 0, Bx

t ∈ ∂U). Comme lim supt→+∞ |B1t | = +∞ (prop.

3.2.4), P(τx < +∞) = 1. Appliquant la formule d’Ito, on a

Mt := u(Bxt )− u(x)− 1

2

∫ t

0∆u(Bx

s ) ds =∫ t

0< ∇u(Bx

s ), dBs > .

Comme ∇u est bornee, Mt est une martingale et (cor. 4.5.4) E(Mt∧τx) = E(M0) = 0.Comme ∆u(Bx

s ) = 0 pour s ≤ t ∧ τx, on a u(x) = E(u(Bxt∧τx)). Lorsque t → +∞,

Bxt∧τx → Bx

τx ∈ ∂U et, u etant bornee, E(u(Bxt∧τx)) → E(u(Bx

τx)) = E(f(Bxτx)). On a

donc:u(x) = E(f(Bx

τx)).

C’est la representation probabiliste des solutions du probleme de Dirichlet qu’onrevisitera en 7.3.4.

Page 129: Universit´e Pierre et Marie Curie Master de sciences et

129

5.5. Martingales exponentielles

On considere toujours un Ft-mouvement brownien reel a valeurs Rd issu de 0,B = (Ω,F ,Ft, Bt,P).

5.5.1. Martingales exponentielles. On pose, pour φ ∈ Λ0d,

Zt = Zt(φ) = exp(∫ t

0< φs, dBs > −1

2

∫ t

0|φs|2 ds). (5.20)

Proposition 5.5.1. Soit Zt definie par (5.20).(i) Zt = 1 +

∫ t0 Zsφ

Ts dBs est une martingale locale.

(ii) Zt est une surmartingale positive, Zt converge p.s. vers une v.a. Z∞ et, pour toutt ∈ [0,+∞], E(Zt) ≤ 1.(iii) Soit T > 0. Si E(ZT ) = 1, Zt est une martingale sur [0, T ].(iv) Si E(Z∞) = 1, Zt = E(Z∞ |Ft) p.s.

Preuve: (i) Xt =∫ t0 φ

Ts dBs− 1

2

∫ t0 |φs|

2 ds est un processus d’Ito et 〈X〉t =∫ t0 |φs|

2 ds.On a donc, pour f ∈ C2,

f(Xt)− f(X0) =∫ t

0f ′(Xs) dXs +

12

∫ t

0f”(Xs) d〈X〉s

=∫ t

0f ′(Xs)φTs dBs −

12

∫ t

0f ′(Xs)|φs|2 ds+

12

∫ t

0f”(Xs)|φs|2 ds.

Soit f(x) = ex. On a f = f ′ = f” et

Zt = f(Xt) = 1 +∫ t

0Zsφ

Ts dBs. (5.21)

Ce qui montre que Zt est une martingale locale.

(ii) Puisque Zt ≥ 0, c’est une surmartingale generalisee positive (lem.4.6.2) et E(Zt) ≤E(Z0) = 1. Elle converge donc p.s. vers une limite finie Z∞ et, par le lemme de Fatou,E(Z∞) = E(limZt) ≤ lim inf E(Zt) ≤ 1.

(iii) et (iv). Soit 0 ≤ T ≤ +∞. Supposons E(ZT ) = 1 et soit t < T . On a, pour toutA ∈ Ft, E(1AZt) ≥ E(1AZT ) (par definition d’une surmartingale si T < +∞, par lelemme de Fatou si T = +∞). Supposons E(1AZt) > E(1AZT ). Alors

1 = E(Z0) ≥ E(Zt) = E(1AZt) + E(1AcZt) > E(1AZT ) + E(1AcZT ) = E(ZT ) = 1

ce qui est impossible. Donc E(1AZt) = E(1AZT ) et Zt = E(ZT |Ft) p.s.

5.5.2. Une martingale locale complexe est un processus a valeurs C dont les partiesreelle et imaginaire sont des martingales locales reelles.

Page 130: Universit´e Pierre et Marie Curie Master de sciences et

130 Calcul stochastique

Lemme 5.5.2. Soient φks , k = 1, . . . , d, des processus progressifs a valeurs C telsque, pour tous t et k,

∫ t0 |φ

ks |2 ds < +∞ p.s. Alors

Zt = exp(d∑

k=1

∫ t

0φks dB

ks −

12

d∑k=1

∫ t

0(φks)

2 ds)

est une martingale locale complexe.

Preuve: On pose Ut =∑d

k=1

∫ t0 φ

ks dB

ks− 1

2

∑dk=1

∫ t0 (φks)

2 ds,Xt = <(Ut), Yt = =(Ut).Xt et Yt sont des processus d’Ito et on calcule par la formule d’Ito exp(Xt + iYt).Comme dans la prop. 5.5.1, les termes a variations finies disparaissent.

5.5.3. La prop. 5.5.1 montre l’interet d’etablir que E(ZT ) = 1 ou si possible queE(Z∞) = 1. Ceci n’est pas toujours vrai. Par exemple si Zt = exp(Bt − 1

2 t), Btmouvement brownien reel, Zt est une martingale (prop. 4.3.5) et E(Zt) = 1 maisZt → Z∞ = 0 puisque Bt − 1

2 t = −t(12 −

Btt ) → −∞ (prop. 3.2.4). Le critere usuel,

appele critere de Novikov, est le suivant.

Proposition 5.5.3. Soient Zt definie par (5.20) et 0 ≤ T ≤ +∞. SiE(exp(1

2

∫ T0 |φs|2 ds)) < +∞, alors E(ZT ) = 1.

Preuve: Si on pose Mt =∫ t0 < φs, dBs > et At = 〈M〉t =

∫ t0 |φs|

2 ds, alors, pourtout λ ∈ R, Z(λ)

t = exp(λMt− λ2

2 At) ∈ Mlocc et la prop. 5.5.3 est un cas particulier du

lemme suivant. Noter qu’on deduit le resultat pour T < +∞ de celui pour T = +∞en considerant la martingale stoppee MT

t = Mt∧T .

Lemme 5.5.4. Soient M ∈ Mlocc , A ∈ Ac. On suppose que, pour tout λ ∈ R, Z(λ)

t =exp(λMt − λ2

2 At) ∈ Mlocc . Si E(exp(1

2A∞)) < +∞, alors E(Z(1)∞ ) = 1.

Preuve: On pose Zt = Z(1)t . Alors Z(λ)

t est une surmartingale positive, E(Z(λ)t ) ≤ 1 et,

comme dans la prop. 5.5.1, si E(Z(λ)∞ ) = 1, Z(λ)

t = E(Z(λ)∞ |Ft). Vu que E(A∞) < +∞,

on a (th. 4.6.10) Mt ∈ H2c et M∞ = limMt existe p.s. Soit τn = inf(t ≥ 0, |Mt|+At ≥

n). Alors Zt∧τn est une martingale bornee et donc E(Zτn) = limt E(Zt∧τn) = 1.

(i) On suppose qu’il existe λ > 1 tel que E(exp(λ2A∞)) < +∞. Il s’agit de trouverr > 1 tel que supn E(Zrτn) < +∞ car alors (prop. 2.7.7) Zτn →n Z∞ dans L1 etE(Z∞) = 1. Soient donc r > 1, p > 1. On a (ne pas confondre Z(λ)

t et Zrt )

Zrτn = exp(rMτn −r

2Aτn) = exp(rMτn −

pr2

2Aτn) exp(

r(pr − 1)2

Aτn) = XnYn.

Par Holder, E(Zrτn) ≤ ||Xn||p||Yn|| pp−1

. D’une part E(Xpn) = E(exp(rpMτn−

p2r2

2 Aτn)) ≤

1. D’autre part E(Yp

p−1n ) = E(exp(1

2rp(pr−1)p−1 Aτn)) ≤ E(exp(1

2rp(pr−1)p−1 A∞)). Toute la

question est donc de trouver r > 1 et p > 1 tels que rp(pr−1)p−1 < λ. C’est facile. On

fixe p ∈]1, λ[ et vu que rp(pr−1)p−1 ↓ p lorsque r ↓ 1, il existe r > 1 tel que rp(pr−1)

p−1 < λ.

Page 131: Universit´e Pierre et Marie Curie Master de sciences et

131

(ii) On pose, pour a > 0, σa = inf(t ≥ 0, Mt −At = −a). On deduit de (i) que, pour0 < λ < 1, E(Z(λ)

∞ ) = 1 ce qui implique que Z(λ)t = E(Z(λ)

∞ |Ft) et donc E(Z(λ)σa ) = 1.

On a, pour λ ↑ 1,

λa+ λMσa −λ2

2Aσa = λ(a+Mσa −Aσa) + (λ− λ2

2)Aσa ↑ a+Mσa −

12Aσa

d’ou E(exp(a + Mσa − 12Aσa)) = lim ↑λ E(exp(λa + λMσa − λ2

2 Aσa)) = lim ↑λeλaE(Z(λ)

σa ) = ea et E(Zσa) = E(exp(Mσa − 12Aσa)) = 1. On a alors

|E(Z∞)− E(Zσa)| ≤ E(Z∞1σa<+∞) + E(Zσa1σa<+∞).

Mais, lorsque a→ +∞, E(Z∞1σa<+∞) → 0 puisque σa → +∞ et E(Z∞) ≤ 1 et

E(Zσa1σa<+∞) = E(exp(−a+12Aσa)1σa<+∞) ≤ e−aE(exp(

12A∞)) → 0.

Finalement on a bien E(Z∞) = 1.

5.5.4. Une consequence tres utile de la prop. 5.5.3 est:

Proposition 5.5.5. Soient Zt definie par (5.20) et 0 < T < +∞. S’il existe µ > 0tel que sup0≤s≤T E(exp(µ|φs|2)) < +∞, on a E(ZT ) = 1.

Preuve: Soit 0 = t0 < t1 < . . . < tn = T un partage de [0, T ] avec ti+1 − ti ≤ µ. Onpose

Zit = exp(∫ t

0< φis, dBs > −1

2

∫ t

0|φis|2 ds), φis = φs1]ti,ti+1](s).

On a, appliquant l’inegalite de Jensen (cor. 2.3.5),

E(exp(∫ T

0|φis|2 ds)) = E(exp(

∫ ti+1

ti

|φs|2 ds)) = E(exp((ti+1−ti)1

ti+1 − ti

∫ ti+1

ti

|φs|2 ds))

≤ E(1

ti+1 − ti

∫ ti+1

ti

exp((ti+1−ti)|φs|2) ds =1

ti+1 − ti

∫ ti+1

ti

E(exp((ti+1−ti)|φs|2)) ds < +∞.

Vu la prop. 5.5.3, E(ZiT ) = 1 et Zit est une martingale sur [0, T ]. On a donc

E(Zti+1Z−1ti| Fti) = E(Ziti+1

| Fti) = Ziti = 1 p.s.

On en deduit facilement

E(ZT ) = E[Zt0(Zt1Z−1t0

) . . . (ZtnZ−1tn−1

)] = 1.

Page 132: Universit´e Pierre et Marie Curie Master de sciences et

132 Calcul stochastique

5.6. Theoreme de Girsanov

On represente un actif financier par un processus d’Ito de differentielle stochastiquedXt = ψtdBt+αtdt. Si α ≡ 0, Xt est, sous des conditions d’integrabilite convenables,une martingale ce qui permet de nombreux calculs. Si α 6= 0, ce n’est pas le cas. Oncherche donc une probabilite Q telle que, sous Q, Xt soit une martingale avec, deplus, une bonne connaissance de dQ

dP .

5.6.1. Exemple simplifie. Soit X une v.a.r. de loi N1(a, 1) definie sur (Ω,A,P). Sia 6= 0, E(X) = a 6= 0. Peut-on trouver une probabilite Q sur (Ω,A) telle que, sousQ, X soit centree avec une formule explicite pour dQ

dP ? On a, pour g ≥ 0, puisqueX − a ∼ N1(0, 1),

E(g(X − a)) =1√2π

∫g(x)e−

x2

2 dx =1√2π

∫g(x)e−ax+

a2

2 e−(x−a)2

2 dx

d’ou

E(g(X − a)) = E(g(X) exp(−aX +a2

2)). (5.22)

Si on pose

Z = exp(−aX +a2

2), (5.23)

on a Z ≥ 0 et E(Z) = 1 (prendre g = 1 dans (5.22)). On definit sur (Ω,A) uneprobabilite Q par Q(A) =

∫A Z dP. On a, pour toute v.a. positive,

EQ(U) :=∫U dQ =

∫UZ dP = EP(ZU).

Donc (5.22) s’ecritEP(g(X − a)) = EQ(g(X)). (5.24)

On a donc, vu (5.24),

EQ(g(X)) =1√2π

∫g(x)e−

x2

2 dx

et, sous Q, X ∼ N1(0, 1). En particulier EQ(X) = 0.

5.6.2. Soit B = (Ω,F ,Ft, Bt,P) un Ft-mouvement brownien a valeurs Rd issu de 0.On considere a nouveau

Zt = exp(∫ t

0< φs, dBs > −1

2

∫ t

0|φs|2 ds), φ ∈ Λ0

d. (5.25)

On suppose E(Z∞) = 1. Alors (prop. 5.5.1) Zt est une martingale positive reguliere.Soit Q la probabilite sur (Ω,F) de densite Z∞ par rapport a P. Elle est definie parQ(A) =

∫A Z∞ dP et notee Q = Z∞.P. Noter que, si A ∈ Ft, Q(A) =

∫A Z∞ dP =∫

A Zt dP. On a alors

Page 133: Universit´e Pierre et Marie Curie Master de sciences et

133

Lemme 5.6.1. Un processus Xt est une Q-martingale (resp. une Q-martingale locale)des que XtZt est une P-martingale (resp. une P-martingale locale).

Preuve: (i) Supposons queXtZt soit une P-martingale. Vu que∫|Xt| dQ =

∫|Xt|Zt dP,

on a Xt ∈ L1(Q). Soient s < t et A ∈ Fs. On a∫AXs dQ =

∫AXsZs dP =

∫AXtZt dP =

∫AXt dQ

i.e. Xt est une Q-martingale.

(ii) Supposons que XtZt soit une P-martingale locale. Il existe des temps d’arretτn ↑ +∞ p.s. et que Xt∧τnZt∧τn soit une P martingale. Les ensembles P negligeablesetant Q negligeables, on a Q(limn τn = +∞) = 1 et il suffit de montrer que Xt∧τn estune Q martingale. On a, pour s < t et A ∈ Fs, puisque A ∩ τn > s ∈ Fs∧τn ,∫

AXt∧τn dQ =

∫A∩τn>s

Xt∧τn dQ +∫A∩τn≤s

Xt∧τn dQ

=∫A∩τn>s

Xt∧τnZt dP +∫A∩τn≤s

Xτn dQ =∫A∩τn>s

Xt∧τnZt∧τn dP

+∫A∩τn≤s

Xτn dQ =∫A∩τn>s

Xs∧τnZs∧τn dP +∫A∩τn≤s

Xτn dQ

=∫A∩τn>s

Xs∧τn dQ +∫A∩τn≤s

Xτn dQ =∫AXs∧τn dQ.

On en deduit:

Theoreme 5.6.2. On suppose que Zt, definie par (5.25), verifie E(Z∞) = 1 et soitQ = Z∞.P. Alors le processus Bt = Bt −

∫ t0 φs ds est, sous Q, un Ft-mouvement

brownien.

Preuve: D’apres la prop. 4.3.7, il suffit de montrer que Mt = exp(iαTBt + 12 |α|

2t)est, pour tout α ∈ Rd, une Q-martingale. Comme Mt est bornee, il suffit de montrerque c’est une martingale locale et donc (lem. 5.6.1) que MtZt est une P-martingalelocale. Mais

MtZt = exp(iαTBt −∫ t

0iαTφs ds+

12|α|2t+

∫ t

0φTs dBs −

12

∫ t

0|φs|2 ds)

= exp(∫ t

0(φs + iα)T dBs −

12

d∑k=1

∫ t

0(φks + iαk)2 ds)

qui est bien une P-martingale locale (lem. 5.5.2).

5.6.3. Cas d’un horizon fini. On fixe T > 0. On dit qu’un processus continu, nul en0, B = (Ω,F ,Ft, Bt,P)0≤t≤T est un Ft-mouvement brownien sur [0, T ] si, pour touss < t ≤ T , Bt−Bs est independant de Fs et si Bt−Bs ∼ Nd(0, (t−s)Id). Evidemmenttout ce qu’on vient de faire s’applique en se limitant a t ≤ T . Vu son importance,nous reenoncons le th. 5.6.2 dans ce cadre quitte a etre un peu repetitif.

Page 134: Universit´e Pierre et Marie Curie Master de sciences et

134 Calcul stochastique

Theoreme 5.6.3. Soient (Bt, t ≤ T ) un Ft-mouvement brownien sur [0, T ] a valeursRd et (φt, t ≤ T ) un processus progressif a valeurs Rd verifiant

∫ T0 |φs|2 ds < +∞.

On suppose que E(ZT ) = 1 ou ZT = exp(∫ T0 < φs, dBs > −1

2

∫ T0 |φs|2 ds). On pose

Q = ZT .P. Alors le processus Bt = Bt −∫ t0 φs ds est, sous Q, un Ft-mouvement

brownien sur [0, T ].

On rappelle que E(ZT ) = 1 si E(exp(12

∫ T0 |φs|2 ds) < +∞ (prop. 5.5.3) ou si

sups≤T E(exp(µ|φs|2) < +∞ pour un µ > 0 (prop. 5.5.5).

Exemple. Soit Xt un processus d’Ito reel verifiant dXt = ψtdBt + αtdt, ψt > 0.Soient φt progressif tel que E(ZT ) = 1 ou ZT = exp(

∫ T0 φs dBs − 1

2

∫ T0 φ2

s ds) etQ = ZT .P. Alors (Bt = Bt −

∫ t0 φs ds, t ≤ T ) est un Q-mouvement brownien sur

[0, T ] et dXt = ψdBt + ψtφtdt + αtdt = ψdBt + (ψtφt + αt)dt. Donc si on choisitφt = −αt/ψt, on a que Xt = X0 +

∫ t0 ψs dBs est une Q-martingale locale sur [0, T ].

5.6.4. On revient au cas t ∈ R+. La condition E(Z∞) < ∞), qui est assez con-traignante, peut etre sensiblement affaiblie. On dit que B = (Ω,F ,Ft, Bt,P) estun mouvement brownien canonique s’il est defini sur l’espace canonique (3.3) avecE = Rd, Bt = ξt et Ft = σ(Bs, s ≤ t). On a alors:

Theoreme 5.6.4. Soit (Bt, t ∈ R+) un mouvement brownien canonique a valeursRd. On suppose que Zt, definie par (5.25), verifie, pour tout t, E(Zt) = 1. Alors ilexiste une unique probabilite Q sur (Ω,F) telle que, pour tout t, Q|Ft = Zt.P|Ft et leprocessus Bt = Bt −

∫ t0 φs ds est, sous Q, un Ft-mouvement brownien.

Preuve: On definit sur chaque Ft une probabilite Qt par Qt(A) =∫A Zt dP, A ∈ Ft.

Puisque Zt est une martingale, pour s < t, Qt = Qs sur Fs Il s’agit de trouver uneprobabilite Q sur (Ω,F) qui induise Qt sur Ft. D’apres la prop. 1.2.3, cette probabiliteest unique. On definit pour 0 ≤ t1 < t2 < . . . < tn une probabilite µt1,t2,...,tn sur (Rd)n

par

µt1,t2,...,tn(A) =∫(Zt1 ,...,Ztn )∈A

Zt dP, A ∈ B((Rd)n), tn < t.

Zt etant une martingale, les µt1,t2,...,tn verifient (3.2) et, d’apres le th. 3.1.6, il existeQ sur (Ω,F) telle que

Q((Bt1 , . . . , Btn) ∈ A) = µt1,t2,...,tn(A).

Toujours d’apres la prop. 1.2.3, Q|Ft = Qt.Alors Xt est une Q-martingale locale si XtZt est une P-martingale locale. En effet

la demonstration du lem. 5.6.1 s’applique mot a mot. Il suffit de remarquer que siτn ↑ +∞ P p.s., alors, pour tout t, Q(τn < t) = E(Zt1τn<t) →n 0 puisque Zt ∈ L1

et donc τn ↑ +∞ Q p.s. Enfin la demonstration du th. 5.6.2 est inchangee.

5.7. Espaces gaussiens

5.7.1 Espaces gaussiens.

Page 135: Universit´e Pierre et Marie Curie Master de sciences et

135

Definition 5.7.1. Un espace gaussien est un sous espace vectoriel ferme de L2(Ω,F ,P)constitue de v.a.r. gaussiennes centrees.

Noter qu’un espace gaussien est par definition constitue de v.a.r. centrees. Si Vest un sous espace vectoriel de L2(Ω,F ,P) constitue de v.a.r. gaussiennes centrees,V est un espace gaussien puisque, si Xn est une suite de v.a.r. gaussiennes centreesconvergeant vers X dans L2, X est gaussienne centree (lem. 3.3.1). Donc, si X =(Xt, , t ∈ R+) est un processus gaussien centre (def. 3.1.9) a valeurs Rd,

e.v.(Xkt , k = 1, . . . , d, t ∈ R+)

est un espace gaussien qu’on note H(X).

Proposition 5.7.2. Soient H un espace gaussien et (Hi, i ∈ I) une famille de sousespaces vectoriels. Alors les tribus σ(X, X ∈ Hi ) sont independantes ssi les Hi sontdeux a deux orthogonaux.

Preuve: Evidemment, si les σ(X, X ∈ Hi ) sont independantes, les Hi sont orthogo-naux. Reciproquement supposons les Hi orthogonaux. Il s’agit de montrer que, pourtous i1, . . . , in ∈ I, les tribus σ(X, X ∈ Hik ), k = 1, . . . , n, sont independantes.Pour cela il suffit de montrer que, pour tous Xi11

, . . . , Xi1r1∈ Hi1 , . . . , Xin1

, . . . , Xinrn∈

Hin , les vecteurs (Xi11, . . . , Xi1r1

), . . . , (Xin1, . . . , Xinrn

) sont independants. Le vecteur(Xi11

, . . . , Xi1r1, . . . . . . , , Xin1

, . . . , Xinrn) etant gaussien, il suffit de montrer ( th. 2.6.6)

que, pour j 6= k, E(XijpXikq

) = 0 ce qui est le cas par hypothese.

5.7.2. On pose, λ designant la mesure de Lebesgue sur R,

L2d(R+, λ) = f, f = (f1, . . . , fd), fk ∈ L2(R+, λ) (5.26)

qu’on munit de la norme ||f ||2,d = ∑d

k=1 ||fk||221/2. On rappelle (prop. 1.9.7) quel’espace S des fonctions en escalier i.e. de la forme

∑nk=1 ai1]ti,ti+1], ai ∈ R, 0 ≤

t1, . . . < tn, est dense dans L2(R+, λ).

Proposition 5.7.3. Soit B = (Ω,F , Bt,P) un mouvement brownien issu de 0 avaleurs Rd. L’application J : f 7→

∫ +∞0 < f(s), dBs > est une isometrie de L2

d(R+, λ)sur H(B).

Preuve: On suppose d’abord d = 1. Pour f ∈ S, f =∑n

k=1 ai1]ti,ti+1], on a J(f) =∑ni=1 ai(Bti+1 −Bti) ∈ H(B) et E|J(f)|2 =

∫ +∞0 f2(s) ds. Comme S est dense, J est

une isometrie de L2(R+, λ) dans H(B). Il reste a montrer la surjectivite. Soit X ∈H(B). Par definition, il existe Xn de la forme Xn =

∑ni=1 aiBti tels que Xn →n X

dans L2(P). Vu que Bt =∫ +∞0 1]0,t](s) dBs, on a Xn =

∫ +∞0 fn(s) dBs = J(fn) avec

fn ∈ L2(R+, λ). Comme∫ +∞0 |fn(s) − fm(s)|2 ds = E(Xn − Xm)2 →n,m 0, il existe

f ∈ L2(R+, λ) telle que fn → f dans L2(R+, λ) et J(f) = X.On passe facilement au cas d quelconque en remarquant que, vu la prop. 5.7.2,

H(B) = H(B1)⊕ . . .⊕H(Bd).

Page 136: Universit´e Pierre et Marie Curie Master de sciences et

136 Calcul stochastique

5.8. Martingales du mouvement brownien

On considere un mouvement brownien reel issu de 0, B = (Ω,F , Bt,P) a valeurs Rd.On note N la famille des ensembles negligeables de F0

∞ = σ(Bt, t ≥ 0). On definit:

FB∞ = σ(F0

∞,N ), F0t = σ(Bs, s ≤ t), FB

t = σ(F0t ,N ).

Rappelons que les espaces Λ2d et Λ0

d sont des espaces de classes d’equivalence et doncque φ = 0 dans Λid signifie que φ = 0 λ⊗ P p.p.

5.8.1. Structure des v.a. FB∞-mesurables.

Proposition 5.8.1. Soit X ∈ L2(Ω,FB∞,P). Il existe φ ∈ Λ2

d, unique, tel que

X = E(X) +∫ +∞

0< φs, dBs > .

Preuve: Nous presentons la demonstration pour d = 1. L’extension au cas generalest facile aux lourdeurs de notation pres. Soit H = X ∈ L2(Ω,FB

∞,P), X = a +∫ +∞0 φs dBs, φ ∈ Λ2. Notons que a = E(X). H est un sous espace vectoriel. Il est

elementaire de verifier qu’il est ferme. Pour f ∈ L2(R+, λ), λ mesure de Lebesgue, onpose

Mt(f) = exp(∫ t

0f(s) dBs −

12

∫ t

0f2(s) ds), 0 ≤ t ≤ +∞.

On a E(M2t (f)) = exp(

∫ t0 f

2s ds)E(Mt(2f)) et, puisque E(M2

t (2f)) ≤ 1, on a, pourtout t, E(M2

t (f)) ≤ exp(∫ +∞0 f2(s) ds). Appliquant la formule d’Ito, Mt(f) = 1 +∫ t

0 Ms(f)f(s) dBs et E(∫ +∞0 M2

s (f)f2(s) ds) ≤ exp(∫ +∞0 f2(s) ds).

∫ +∞0 f2(s) ds <

+∞ et finalement M∞(f) ∈ H.

Pour montrer queH = L2(Ω,FB∞,P), il suffit de montrer que, pour Y ∈ L2(Ω,FB

∞,P),E(Y Z) = 0 pour tout Z ∈ H implique Y = 0 p.s. Pour un tel Y , on a, pour toutef ∈ L2(R+, λ), E(YM∞(f)) = 0 et donc E(Y exp(

∑nk=1 ckBtk)) = 0 pour tous ck ∈ R,

tk ∈ R+, puisque∑n

k=1 ckBtk =∫ +∞0 f(s) ds avec f =

∑nk=1 ck1]0,tk]. On en deduit

que, notant g(Bt1 , . . . , Btn) = E(Y |Bt1 , . . . , Btn),

E(g(Bt1 , . . . , Btn) exp(n∑k=1

ckBtk)) = 0,

soit encore, h designant la densite de (Bt1 , . . . , Btn),∫g(x1, . . . , xn) exp(

n∑k=1

ckxk)h(x1, . . . , xn) dx1 . . . dxn = 0

pour tous ck ∈ R. Ceci implique que gh = 0 p.p. et, puisque h > 0, g = 0 p.p. i.e.E(Y |Bt1 , . . . , Btn) = 0 p.s. On a donc, pour A ∈ σ(Bt1 , . . . , Btn), E(1AY ) = 0. Ilsuffit alors d’appliquer le th. 1.1.2 pour avoir E(1AY ) = 0 pour tout A ∈ FB

∞ et doncY = 0 p.s.

5.8.2. Structure des FBt -martingales.

Page 137: Universit´e Pierre et Marie Curie Master de sciences et

137

Theoreme 5.8.2. Soit Mt une FBt -martingale locale. Il existe φ ∈ Λ0

d, unique, tel queMt = M0 +

∫ t0 < φs, dBs > (en particulier toute martingale locale a une modification

continue). De plus, si Mt est une martingale de L2, E(∫ t0 |φs|

2 ds) < +∞ pour tout t.

Preuve: On suppose d = 1. On sait (prop. 3.4.7) que les tribus FBt sont continues

a droite et donc (th. 4.5.16), pour X ∈ L1, E(X | FBt ) a une modification continue a

droite.

(i). Soit Mt une FBt -martingale bornee dans L2 nulle en 0. Alors Mt → M∞ ∈

L2(Ω,FB∞,P) dans L2. Vu la prop. 5.8.1, il existe φ ∈ Λ2 telle que M∞ =

∫ +∞0 φs dBs.

Soit Nt =∫ t0 φs dBs. On a M∞ = N∞ p.s. et Mt = E(M∞ | FB

t ) = E(N∞ | FBt ) = Nt

p.s. L’unicite resulte de l’isometrie fondamentale. Appliquant ceci a MTt = Mt∧T , on

a le resultat pour les martingales de L2.

(ii). Soit Mt une FBt une martingale de la forme Mt = E(M∞ | FB

t ) qu’on peutsupposer continue a droite (th. 4.5.16). Il existe Mn

∞ ∈ L2 tel que E|Mn∞ −M∞| →n

0 et (prendre une sous-suite) on peut supposer∑

n E|Mn∞ − M∞| < +∞. On a

alors (prop. 4.5.1) P(supt |Mnt − Mt| > ε) ≤ ε−1E|Mn

∞ − M∞|. Donc (lem. 2.7.5)supt |Mn

t −Mt| →n 0 p.s. etMt est p.s. continue. SiMt une FBt -martingale locale nulle

en 0, il existe des temps d’arret τn ↑ +∞ p.s. tels que Mt∧τn soit une martingale qu’onpeut supposer reguliere (quitte a remplacer τn par n ∧ τn). On en deduit facilementque Mt a une modification continue.

(iii). Soit Mt une FBt -martingale locale continue nulle en 0. On pose τn = inf(t ≥

0, |Mt| ≥ n). On peut appliquer (i) a M τn et on a Mt∧τn =∫ t∧τn0 φns dBs. Vu l’unicite

dans (i), φns = φn+1s pour s ≤ τn. On prend φs =

∑n φ

n+1s 1]τn,τn+1](s). L’unicite se

montre facilement par localisation.

5.9. Integrale stochastique par rapport a une martingalecontinue

On se propose de definir∫ t0 φs dMs pour M ∈ Mloc

c et φ progressif ce qui generaliserales resultats de la section 5.2. Cette section est hors programme. Neanmoins elle estindispensable pour qui veut utiliser la litterature sur le calcul stochastique.

5.9.1. Inegalite de Kunita-Watanabe. Rappelons que, pour V ∈ Vc, (H · V )t designele processus

∫ t0 Hs dVs. On ecrit (notation un peu dangereuse )∫ t

0Hs |dVs| :=

∫ t

0Hs dS

Vs . (5.27)

Proposition 5.9.1. Soient M,N ∈ Mlocc . On a, pour tous processus mesurables

Hs,Ks et tout t, 0 ≤ t ≤ +∞,∫ t

0|Hs| |Ks| |d〈M,N〉s| ≤

∫ t

0H2s d〈M〉s1/2

∫ t

0K2s d〈N〉s1/2. (5.28)

Page 138: Universit´e Pierre et Marie Curie Master de sciences et

138 Calcul stochastique

Preuve: Puisque

|∑

(Mti+1 −Mti)(Nti+1 −Nti)| ≤ ∑

(Mti+1 −Mti)21/2

∑(Nti+1 −Nti)

21/2,

(5.1) implique que, pour s < t, on a p.s.

|〈M,N〉t − 〈M,N〉s| ≤ (〈M〉t − 〈M〉s)1/2(〈N〉t − 〈N〉s)1/2. (5.29)

Vu la continuite, il existe A negligeable tel qu’on ait (5.29) sur Ac quels que soients < t. La proposition resulte alors du lemme suivant.

Lemme 5.9.2. Soit u une fonction a variation finie continue nulle en 0. On supposequ’il existe µ, ν, mesures de Radon sur R+, telles que, pour tous s < t, |u(t)−u(s)| ≤µ(]s, t])1/2ν(]s, t])1/2. Alors on a, pour toutes f, g ∈ B+(R+),∫ t

0|f(s)| |g(s)| dSu(s) ≤

∫ t

0f2(s) dµ(s)1/2

∫ t

0g2(s) dν(s)1/2.

Preuve: On a, pour f =∑n−1

k=0 ai1]ti,ti+1], g =∑n−1

k=0 bi1]ti,ti+1],

[∫ t

0f(s)g(s) du(s) ]2 ≤ [

n−1∑k=0

|ai| |bi| |u(ti+1)− u(ti)| ]2

≤ [n−1∑k=0

|ai| |bi| µ(]ti, ti+1])1/2ν(]ti, ti+1])1/2]2

≤ (n−1∑k=0

a2iµ(]ti, ti+1]))(

n−1∑k=0

b2i ν(]ti, ti+1])) =∫ t

0f2(s) dµ(s)

∫ t

0g2(s) dν(s).

Cette inegalite reste vraie pour f, g ∈ bB(R+) vu la densite des fonctions en escalierdans L2(ρ + µ + ν) ou ρ([0, t]) = Sut . Par ailleurs il existe h ∈ B(R+) avec |h| = 1telle que dSu = h.du (voir(1.35)). On a donc, pour f, g ∈ bB(R+),

[∫ t

0|f(s)| |g(s)| dSu(s)]2 = [

∫ t

0|f(s)| |g(s)|h(s) du(s)]2 ≤

∫ t

0f2(s) dµ(s)

∫ t

0g2(s) dν(s).

On conclut facilement.

Appliquant l’inegalite de Schwarz, on obtient:

E(∫ t

0|Hs| |Ks| |d〈M,N〉s|) ≤ E(

∫ t

0H2s d〈M〉s)1/2E(

∫ t

0K2s d〈N〉s)1/2. (5.30)

5.9.2. Construction de l’integrale stochastique. On pose, pour M ∈ H2c ,

L2(M) = H, Hs progressif et E(∫ +∞

0H2s d〈M〉s) < +∞. (5.31)

Page 139: Universit´e Pierre et Marie Curie Master de sciences et

139

Pour A ∈ Prog, la formule

νM (A) = E(∫ +∞

01A(s, .) d〈M〉s) (5.32)

definit une mesure bornee sur Prog et l’on a

L2(M) = L2(R+ × Ω,Prog, νM )

que l’on munit de la norme

||H||L2(M) = E(∫ +∞

0H2s d〈M〉s)1/2. (5.33)

Pour construire l’integrale∫ +∞0 Hs dMs, on peut proceder comme precedemment i.e.

commencer par definir l’integrale des processus etages, ce qui est elementaire, puis laprolonger par densite a L2(M). On peut aussi exploiter les proprietes de H2

c . Rap-pelons (voir prop. 4.5.17) que l’espace H2

c des martingales continues bornees dans L2

et nulles en 0 est un espace de Hilbert pour le produit scalaire (M,N) = E(M∞N∞)et la norme

||M ||H2c

= E(M2∞)1/2. (5.34)

On sait qu’alors toute forme lineaire φ continue sur H2c est de la forme φ(M) = (M,N)

pour un N ∈ H2c convenable.

Theoreme 5.9.3. Soit M ∈ H2c . Pour tout H ∈ L2(M), il existe un unique element

de H2c , note H ·M , tel que

pour tout N ∈ H2c , 〈H ·M,N〉 = H · 〈M,N〉 (5.35)

et l’application H 7→ H ·M est une isometrie de L2(M) dans H2c . De plus

(i) si K ∈ L2(M) et H ∈ L2(K ·M), alors HK ∈ L2(M) et HK ·M = H · (K ·M),(ii) pour tout temps d’arret τ , H ·M τ = H1[0,τ ] ·M = (H ·M)τ ,(iii) si U ∈ bFτ , U1]τ,+∞[ ∈ L2(M) et U1]τ,+∞[ ·M = U(M −M τ ).

Preuve: Unicite. Si, pour tout N ∈ H2c , 〈L,N〉 = 〈L′, N〉, on a 〈L − L′〉 = 0 et

L = L′.

Existence. Soit M ∈ H2c . Pour H ∈ L2(M), on a, vu (5.28),

E(∫ +∞

0|Hs| |d〈M,N〉s|) ≤ E(

∫ +∞

0H2s d〈M〉s)E(〈N〉∞)1/2 < +∞.

Si on pose φ(N) = E(∫ +∞0 Hs d〈M,N〉s), N 7→ φ(N) est une forme lineaire continue

sur H2c puisque |φ(N)| ≤ ||H||L2(M)||N ||H2

c. Il existe (th. 1.5.6) L ∈ H2

c tel que, pourtout N ∈ H2

c , φ(N) = (L,N) = E(L∞N∞). Soit τ un temps d’arret borne, on a

E(LτNτ ) = E(L∞N τ∞) = E(

∫ +∞

0Hs d〈L,N τ 〉s) = E(

∫ τ

0Hs d〈L,N〉s)

Page 140: Universit´e Pierre et Marie Curie Master de sciences et

140 Calcul stochastique

et Zt = LtNt −∫ t0 Hs d〈L,N〉s est une martingale puisque E(Zτ ) = 0 (cor. 4.5.7).

Donc 〈L,N〉 = H · 〈M,N〉. De plus, on a

||L||2H2c

= E(L2∞) = E(

∫ ∞

0Hs d〈M,L〉s) = E(

∫ ∞

0H2s d〈M,M〉s) = ||H||2L2(M).

On note L = H ·M .

(i) Vu que 〈K ·M,K ·M〉 = K2〈M,M〉, HK ∈ L2(K ·M) et on a

〈H · (K ·M), N〉 = H · 〈K ·M,N〉 = HK · 〈M,N〉 = 〈HK ·M,N〉

i.e. HK ·M = H · (K ·M).

(ii) On remarque d’abord que H1[0,τ ] · 〈M,N〉 = H · 〈M τ , N〉 vu que∫ t

0Hs1[0,τ ](s) d〈M,N〉s =

∫ t

0Hs d〈M,N〉s∧τ =

∫ t

0Hs d〈M τ , N〉s.

On a alors, vu (i),

〈H1[0,τ ] ·M,N〉 = 〈1[0,τ ] · (H ·M), N〉 = 1[0,τ ] · 〈H ·M,N〉 = 〈(H ·M)τ , N〉

i.e. H1[0,τ ] ·M = (H ·M)τ et, d’autre part,

〈H1[0,τ ] ·M,N〉 = H1[0,τ ] · 〈M,N〉 = H · 〈M τ , N〉 = 〈H ·M τ , N〉

i.e. H1[0,τ ] ·M = H ·M τ .

(iii) D’abord un lemme.

Lemme 5.9.4. Soient L ∈ H2c telle que Lt = 0 si t ≤ τ , τ temps d’arret et U ∈ bFτ .

Alors UL ∈ H2c et 〈UL,N〉 = U〈L,N〉.

Preuve: Soit σ un temps d’arret borne. On a

E(ULσ) = E(U1τ<σLσ∨τ ) = E(U1τ<σE(Lσ∨τ |Fτ )) = 0

et ULt est une martingale (cor. 4.5.7). De plus 〈Lτ 〉 = 0 puisque E(〈Lτ 〉) = E(L2τ ) = 0

et, d’apres (5.28), 〈L,N〉t = 0 pour t ≤ τ . Donc, vu que LN − 〈L,N〉 est unemartingale, ULN − U〈L,N〉 aussi et 〈UL,N〉 = U〈L,N〉.

On a alors, appliquant le lem. 5.9.4 a la martingale M −M τ ,

〈U(M −M τ ), N〉 = U〈M −M τ , N〉t = U1]τ,+∞[ · 〈M,N〉 = 〈U1]τ,∞[ ·M,N〉

i.e. U1]τ,∞[ ·M = U(M −M τ ).

5.9.3. SoientM ∈ H2c etH =

∑n−1i=0 Ui1]ti,ti+1] une fonction etagee. Vu le th. 5.9.3 (iii),

(Ui1]ti,+∞[ ·M)t = Ui(Mt−Mt∧ti) et, par linearite, (Ui1]ti,+ti+1] ·M)t = Ui(Mt∧ti+1−Mt∧ti) et

(H ·M)t =n−1∑i=0

Ui(Mt∧ti+1 −Mt∧ti). (5.36)

On a bien construit l’objet souhaite. Pour les calculs, on peut avoir a utiliser:

Page 141: Universit´e Pierre et Marie Curie Master de sciences et

141

Proposition 5.9.5. L’espace E des fonctions etagees est dense dans L2(M)

Preuve: Il suffit dans la demonstration de la prop. 5.2.4 de remplacer Λ2 par L2(M)et ds par d〈M〉s.

5.9.4. L’extension aux martingales locales se fait de la meme facon que dans la section5.2. Pour M ∈ Mloc

c on pose

L0(M) = H, Hs progressif, pour tout t,∫ t

0H2s d〈M〉s < +∞ p.s.. (5.37)

Ici encore on identifie les processus egaux νM p.p., νM etant definie par (5.32). Onpose

τn = inf(t ≥ 0,∫ t

0(1 +H2

s ) d〈M〉s ≥ n).

On a τn ↑n +∞, M τn ∈ H2c et H ∈ L2(M τn). On definit Ln = H ·M τn . Les Ln se

recollent et on obtient,

Theoreme 5.9.6. Soit M ∈ Mlocc . Pour tout H ∈ L0(M), il existe un unique element

de Mlocc , encore note H ·M , tel que

pour tout N ∈ Mlocc , 〈H ·M,N〉 = H · 〈M,N〉. (5.38)

De plus les proprietes (i) et (ii) du th. 5.9.3 restent vraies.

En particulier 〈H ·M〉 = H2 · 〈M〉 et le th. 4.6.10 donne des conditions pour queMt soit une martingale. On appelle (H ·M)t l’integrale stochastique de 0 a t de Hpar rapport a M et on ecrira (H ·M)t =

∫ t0 Hs dMs.

Remarque. Evidemment ces resultats contiennent ceux de la section 5.2. Soit B =(Bt, t ≥ 0) un Ft-mouvement brownien reel issu de 0. Pour T > 0, on definit BT

t :=Bt∧T . Alors BT ∈ H2

c et L2(BT ) = Λ2(T ). On a aussi B ∈ Mlocc et L0(B) = Λ0 et le

th. 4.6.10 precise les integrabilites.

5.9.5. Semi-martingales.

Definition 5.9.7. Un processus reel X est une semi-martingale continue si Xt =X0 +Mt + Vt avec X0 F0-mesurable, M ∈ Mloc

c et V ∈ Vc.

Vu le th. 5.1.2, cette ecriture est unique. On note Sc l’ensemble des semi-martingalescontinues. Soient X,Y ∈ Sc, X = X0 +Mt + Vt, Yt = Y0 +Nt +Wt, on pose

〈X,Y 〉 := 〈M,N〉. (5.39)

Il n’y a rien a changer a la prop. 5.4.2 et l’on a

rn−1∑i=0

(Xtni+1−Xtni

)(Ytni+1− Ytni ) →n 〈X,Y 〉t en probabilite

Page 142: Universit´e Pierre et Marie Curie Master de sciences et

142 Calcul stochastique

si πn = tn0 = 0 < tn1 < . . . < tnrn = t est une suite de subdivisions de [0, t] dont lepas |πn| = supi |tni+1 − tni | →n 0.

On dit qu’un processusHt est localement borne s’il verifie, pour tout t, sups≤t |Hs| <+∞. SiHt est un processus progressif localement borne (par exemple cas un processusadapte continu), et si X = X0 +Mt + Vt ∈ Sc, on peut definir

H ·X := H ·M +H · V.

On ecrira indifferemment (H ·X)t ou∫ t0 Hs dXs.

Les prop. 5.4.3, cor. 5.4.4, prop.5.4.5 et th. 5.4.6 sont valables avec des demonstrationsquasiment inchangees. Vu son importance, nous reenoncons la formule d’Ito.

Theoreme 5.9.8. (Formule d’Ito) Soient X1t , . . . , X

pt ∈ Sc , Xt = (X1

t , . . . , Xpt ) et

f ∈ C2(Rp). Alors f(Xt) ∈ Sc et on a

f(Xt)− f(X0) =p∑j=1

∫ t

0

∂f

∂xj(Xs) dXj

s +12

p∑j,k=1

∫ t

0

∂2f

∂xj∂xk(Xs) d〈Xj , Xk〉s.

5.9.6. Pour montrer l’interet du th. 5.9.8, demontrons un resultat du a Paul Levy etrelativement long a etablir directement

Proposition 5.9.9. Soit Xt = (X1t , . . . , X

dt ) un processus Ft-adapte continu a valeurs

Rd nul en 0. Il y a equivalence entre(i) Xt est un Ft-mouvement brownien a valeurs Rd,(ii) les Xi

t sont des Ft-martingales locales et 〈Xi, Xj〉t = δi,jt ou δi,j = 1j(i).

Preuve: On sait que (i)⇒ (ii). Soit, pour α ∈ Rd, Zαt = exp(i < α,Xt > +12 |α|

2t).D’apres la formule d’Ito, Zαt ∈ Mloc

c et Zαt est une martingale puisque bornee. Il suffitalors d’appliquer la prop. 4.3.7.

Ce resultat va nous permettre d’etablir le theoreme de Dubbins-Schwarz.

Theoreme 5.9.10. Soient Mt une martingale locale continue nulle en 0 et At =〈M〉t. On suppose que A∞ = +∞. Alors il existe une filtration continue a droite Gtet un Gt-mouvement brownien Bt issu de 0 tels que At soit un Gt-temps d’arret etque Mt = BAt.

Preuve: On peut supposer la filtration Ft continue a droite puisque Mt est aussi uneFt+ martingale locale (prop. 4.3.4). On pose, pour tout s ≥ 0, τs = inf(t, At > s).Alors τs est un temps d’arret et, vu la continuite de At, t, At ≤ s = [0, τs]. On endeduit que s 7→ τs est croissante, continue a droite et que Aτs = s. Posons Gs = Fτs .D’apres la prop. 3.5.3 (iv), Gs est une filtration continue a droite et, vu que At ≤s = τs ≥ t, At est un Gt-temps d’arret.

Soit Bs = Mτs . C’est un processus Gs-adapte continu a droite et, pour tout s ≥ 0,Bs− existe et vaut Mτs− . En fait, puisque Aτs− = Aτs , il resulte de la prop. 4.6.11,

Page 143: Universit´e Pierre et Marie Curie Master de sciences et

143

que, p.s., on a, pour tout s ≥ 0, Bs− = Mτs− = Mτs = Bs et Bs est p.s. continu. Vuque τAs = sup(u, Au = As), on a egalement BAs = Mτ

As= Ms.

On pose, pour tout n ∈ N, Xns = Mτn∧s et Y n

s = M2τn∧s − Aτn∧s. On a 〈Xn〉s =

Aτn∧s ≤ Aτn = n. Donc Xn ∈ H2c d’ou

E(sups≥0

|Xns |2) < +∞, E(sup

s≥0|Y ns |) < +∞.

On peut appliquer le cor. 4.5.12 et on en deduit que Xnτs = Mτn∧τs = Bn∧s et

Y nτs == M2

τn∧τs −Aτn∧τs = B2n∧s − n ∧ s sont des Fτs-martingales locales. Ceci etant

vrai pour tout n, Bs et B2s − s sont des Gs-martingales et (prop. 5.9.9) Bs est un

Gs-mouvement brownien issu de 0.

5.9.7. Martingales exponentielles.

Proposition 5.9.11. Soient Mt et At des processus adaptes continus nuls en 0 avecAt croissant. Il y a equivalence entre(i) Mt est une martingale locale de processus croissant At.(ii) Pour tout θ ∈ R, Z(θ)

t := exp(θMt − θ2

2 At) est une martingale locale.

Dans ce cas, Z(θ)t est une martingale si, pour tout t, E(exp( θ

2

2 〈M〉t)) < +∞.

Preuve: (i)⇒ (ii) C’est le th. 5.9.8.

(ii)⇒ (i) On se ramene au cas Mt et At bornes. Alors, pour s < t et tout A ∈ Fs,∫A

exp(θMt −θ2

2At) dP =

∫A

exp(θMs −θ2

2As) dP.

Derivant en θ, on a successivement,∫AZ

(θ)t (Mt − θAt) dP =

∫AZ(θ)s (Ms − θAs) dP,∫

AZ

(θ)t [(Mt − θAt)2 −At] dP =

∫AZ(θ)s [(Ms − θAs)2 −As] dP.

Pour θ = 0, la premiere egalite montre que Mt est une martingale, la seconde queM2t −At est une martingale.

(ii) Quant a la derniere affirmation, elle resulte des arguments de la prop. 5.5.1 et dulem. 5.5.4.

5.9.8. Theoreme de Girsanov. Soient (Ω,Ft,F ,P) un espace de probabilite filtre etZt une martingale. On sait que la formule Qt(A) = E(1AZt), A ∈ Ft, definit uneprobabilite sur Ft et que, si s < t, Qt|Fs = Qs. On dit que la martingale Zt admetune mesure de sortie Q s’il existe une probabilite Q sur (Ω,F) telle que Q|Ft = Qt.C’est le cas si Zt est une martingale reguliere et alors Q = Z∞P.

Page 144: Universit´e Pierre et Marie Curie Master de sciences et

144 Calcul stochastique

Proposition 5.9.12. Soient Nt une martingale et Zt = exp(Nt − 〈N〉t). On sup-pose que Zt est une martingale ayant une mesure de sortie Q. Alors, si Mt est unemartingale locale, Mt − 〈M,N〉t est une Q-martingale locale de processus croissant〈M〉t.

Preuve: D’apres la prop. 5.9.11, il suffit de montrer que U θt = expθ(Mt−〈M,N〉t)−θ2

2 < M > est une Q-martingale locale. Mais il n’y a rien a changer au lem. 5.6.1 etUt est une Q-martingale locale si UtZt est une P-martingale locale. Or on a

UtZt = expθ(Mt−〈M,N〉t)−θ2

2〈M〉t exp(Nt−〈N〉t) = exp(Nt+θMt−

12〈N+θM〉t)

qui est une P-martingale locale (prop. 5.9.11).

Remarque. Vu la prop. 5.9.11, exp(Nt−〈N〉t) est une martingale ayant une mesurede sortie si E(exp(1

2〈N〉∞)) < +∞.

5.9.9. Inegalites de Burkholder-Davis-Gundy.

Proposition 5.9.13. Pour tout p > 0, il existe des constantes 0 < cp < Cp < +∞telles que, pour toute M ∈ Mloc

c ,

cpE(〈M〉p/2∞ ) ≤ E( supt∈R+

|Mt|p) ≤ CpE(〈M〉p/2∞ ).

On admettra cette proposition (voir [32]). Nous invitons cependant le lecteur amontrer l’inegalite de droite pour p ≥ 2 en adaptant la preuve de la prop. 6.1.2ci-apres.

5.10. Le cas des martingales vectorielles.

On veut definir Lt =∫ t0 < φs, dMs > pour φs processus progressif a valeurs Rd

et M = (M1, . . . ,Md) martingale continue vectorielle. La premiere idee est de poserLt =

∑di=1

∫ t0 φ

is dM

is. Comme on verra ci-dessous, ceci ne donne pas la classe optimale

de processus integrables, ce qui fait que l’extension au cas vectoriel, sans etre difficile,ne se reduit pas a une suite de trivialites.

5.10.1. Un resultat d’algebre lineaire. On note M(d, d) l’espace des matrices reellesd × d muni de la norme |A| :=

∑a2i,j1/2. On note O(d) le sous-espace des matri-

ces orthogonales (c’est un compact), S+(d) le sous-espace des matrices symetriquessemi-definies positives (c’est un ferme) et S+

n (d) = S+(d) ∩ A, |A| ≤ n (c’est uncompact). En un premier temps, on n’utilise que la partie (i) du lemme suivant, lesparties (ii) et (iii) serviront en 5.10.6.

Lemme 5.10.1. (i) Il existe une application borelienne δ de S+(d) dans O(d) telleque, pour tout A ∈ S+(d), [δ(A)]TAδ(A) soit diagonale.(ii) Pour tout A ∈ S+(d), il existe une unique A1/2 ∈ S+(d) telle que A = (A1/2)2.De plus A 7→ A1/2 est borelienne.

Page 145: Universit´e Pierre et Marie Curie Master de sciences et

145

(iii) Il existe une application borelienne γ de M(d, d) dans O(d) telle que, pour toutR ∈M(d, d), R = (RRT)1/2γ(R).

Preuve: L’outil de base est le theoreme de section suivant (voir Dellacherie. Seminairede Probabilite IX).

Theoreme 5.10.2. Soient E et F deux espaces metriques compacts et B un boreliende E × F . On suppose que, pour tout x ∈ E, Bx = y ∈ F, (x, y) ∈ B est non videet union denombrable de compacts. Alors il existe une application borelienne φ de Edans F telle que, pour tout x ∈ E, (x, φ(x)) ∈ B.

(i) Soient n ∈ N, E = S+n (d), F = O(d) et B = (A,U), UTAU est diagonale. Alors

B est ferme donc compact dans E × F et BA = U ∈ O(d), UTAU est diagonaleest non vide (resultat classique) et ferme donc compact. On applique le th. 5.10.2 eton recolle en n.

(ii) Soit A ∈ S+(d). Il existe U ∈ O(d) telle que UTAU = diag(λ1, . . . , λd), λk ≥ 0.On pose A1/2 = Udiag(

√λ1, . . . ,

√λd)UT. Soit R ∈ S+(d) telle que R2 = A. On

a RA = R3 = AR et R et A commutent. Donc R laisse invariant les sous-espacespropres de A. Ceci implique qu’il existe U ∈ O(d) telle que UTAU et UTRU soientdiagonales. On en deduit facilement que R = A1/2. Il resulte de (i) que A 7→ A1/2 estborelienne.

(iii) Soient R ∈M(d, d) et A = RRT. On note (α1, . . . , αd) et (β1, . . . , βd) les vecteurscolonnes de RT et de A1/2. La relation RRT = A equivaut a < αi, αj >=< βi, βj >pour tout i, j. Ceci implique que dim Im(RT) = dim Im(A1/2) et qu’il existe uneapplication lineaire u de Im(RT) sur Im(A1/2) telle que u(αi) = βi. Par hypothese urespecte le produit scalaire, elle se prolonge en une application lineaire de Rd dans Rd

avec la meme propriete. Il existe donc U ∈ O(d) telle que Uαi = βi i.e. URT = A1/2

et R = A1/2U . Alors B = (R,U), R = (RRT)1/2U est un ferme de Mn(d, d)×O(d)ou Mn(d, d) = A ∈ M(d, d), |A| ≤ n et BR = U ∈ O(d), R = (RRT)1/2U estnon vide et ferme donc compact. On applique le th. 5.10.2 et on recolle en n.

5.10.2. On noteH2c(d) = M = (M1, . . . ,Md), Mk ∈ H2

c.

On definit, pour M ∈ H2c(d),

〈〈M〉〉t =d∑i=1

〈M i〉t. (5.40)

Alors 〈〈M〉〉t est l’unique (vu le th. 5.1.2) processus croissant continu tel que |Mt|2−〈〈M〉〉t soit une martingale.

On definit une mesure bornee νM sur (R+ × Ω,Prog) en posant

νM (A) = E(∫ +∞

01A(t, .) d〈〈M〉〉t), A ∈ Prog. (5.41)

Page 146: Universit´e Pierre et Marie Curie Master de sciences et

146 Calcul stochastique

Lemme 5.10.3. Soit M ∈ H2c(d).

(i) Il existe un processus progressif at(M) a valeurs S+(d) et de trace 1, unique a unprocessus νM p.p. nul pres, tel que, pour tous θ, η ∈ Rd, 〈θTM,MTη〉 = θT a(M) η ·〈〈M〉〉.(ii) Pour tout N ∈ H2

c , il existe un processus progressif ρt(M,N) a valeurs Rd, uniquea un processus νM p.p. nul pres, tel que, pour tout θ ∈ Rd, 〈θTM,N〉 = θTρ(M,N) ·〈〈M〉〉.

Preuve: Pour N ∈ H2c , on definit une mesure signee νi sur Prog en posant

νi(A) = E(∫ +∞

01A(t, .) d〈M i, N〉t), A ∈ Prog.

Vu la prop. 5.9.1, νi νM . On prend

ρit(M,N) =dνidνM

.

On definit alors ai,j(M) = ρi(M,M j). Puisque, pour tout λ ∈ Qd, tout Φ ∈ b(Prog)+,

E(∫ +∞

0Φtλ

Tat(M)λ d〈〈M〉〉t) = E(∫ +∞

0Φt d〈λTM,λTM〉t) ≥ 0

et que Tr(a(M)) = 1, νM p.p., on peut supposer que, pour tout (t, ω), a(M)(t, ω) ∈S+(d) et que Tr(a(M)(t, ω)) = 1.

5.10.3. On pose, pour M ∈ H2c(d),

L20(M) = φ = (φ1, . . . , φd), φk ∈ [Prog],

d∑i=1

E(∫ +∞

0(φit)

2 d〈M i〉t) < +∞,

L2(M) = φ = (φ1, . . . , φd), φk ∈ [Prog], E(∫ +∞

0φTtat(M)φt d〈〈M〉〉t) < +∞

Si at est diagonale, L2(M) = L20(M), mais, en general, L2

0(M) est strictement inclusdans L2

0(M) (voir l’exemple ci-dessous).

Si φ ∈ L20(M), il n’y a aucun probleme pour definir l’integrale stochastique. On

pose ∫ t

0< φs, dMs >=

∫ t

0φTs dMs = (φT ·M)t :=

d∑i=1

∫ t

0φis dM

is.

Alors φT ·M ∈ H2c et on a, pour toute toute N ∈ H2

c ,

〈φT ·M,N〉 = φTρ(M,N) · 〈〈M〉〉, 〈φT ·M〉 = φT aφ · 〈〈M〉〉. (5.42)

Soient Ut un processus progressif a valeurs O(d) et e1, . . . , ed la base canonique deRd. Comme Ut est borne, on definit Mt =

∫ t0 Us dMs = (U ·M)t par eTi Mt = (eTiU ·M)t.

Alors M ∈ H2c(d) et on a, pour tous θ, η ∈ Rd et toute N ∈ H2

c ,

〈θTM,N〉 = θTU ρ(M,N) · 〈〈M〉〉, ρ(M,N) = U ρ(M,N), (5.43)

Page 147: Universit´e Pierre et Marie Curie Master de sciences et

147

〈θTM, (M)Tη〉 = θTU a(M)UTη · 〈〈M〉〉, a(M) = U a(M)UT. (5.44)

En particulier,

〈〈M〉〉 =d∑i=1

〈eTi M〉 =d∑i=1

eTiU a(M)UTei · 〈〈M〉〉 = Tr(U a(M)UT) · 〈〈M〉〉

= Tr( a(M)UTU) · 〈〈M〉〉 = Tr( a(M)) · 〈〈M〉〉 = 〈〈M〉〉.

5.10.4. Le cas general.

Theoreme 5.10.4. Soient M ∈ H2c(d) et φ ∈ L2(M).

(i) Pour toute N ∈ H2c , E(

∫ +∞0 |φTtρt(M,N)| d〈〈M〉〉t) < +∞.

(ii) Il existe L ∈ H2c , unique, telle que, pour toute N ∈ H2

c ,

〈L,N〉 = φTρ(M,N) · 〈〈M〉〉. (5.45)

En particulier 〈L〉 = φT a(M)φ · 〈〈M〉〉.

Preuve: D’apres le lem. 5.10.1, Ut = [δ(at(M))]T est un processus progressif a valeursO(d) tel que Ut at(M)UT

t = ∆t = diag(λ11, . . . , λ

dt ) avec λkt ≥ 0 progressifs. On pose

Mt =∫ t0 Us dMt. On a 〈〈M〉〉 = 〈〈M〉〉, a(M) = U a(M)UT = ∆ et

d∑i=1

∫ +∞

0(eTiUtφt)

2λit d〈〈M〉〉t =∫ +∞

0φTtU

T∆tUtφt d〈〈M〉〉t

=∫ +∞

0φTtat(M)φt d〈〈M〉〉t < +∞. (5.46)

(i) Appliquant la prop. 5.9.1, on a pour un α ∈ [Prog], |α| = 1 et toute N ∈ H2c ,

E(∫ +∞

0|eTiUtφtρit(M,N)| d〈〈M〉〉t) = E(

∫ +∞

0αte

TiUtφtρ

it(M,N) d〈〈M〉〉t) =

E(∫ +∞

0αte

TiUtφt d〈M i, N〉t) ≤ E(

∫ +∞

0(eTiUtφt)

2λit d〈〈M〉〉t) E(〈N〉∞])1/2 < +∞.

On a donc, vu (5.43),

E(∫ +∞

0|φTtρt(M,N)| d〈〈M〉〉t) = E(

∫ +∞

0|φTtUTρt(M,N)| d〈〈M〉〉t)

≤d∑i=1

E(∫ +∞

0|eTiUtφtρit(M,N)| d〈〈M〉〉t) < +∞.

(ii) Vu (5.46), Uφ ∈ L20(M). Posons Lt =

∫ t0 φ

TsU

Ts dMt. Alors L ∈ H2

c et, pour touteN ∈ H2

c , on a, d’apres (5.42) avec M a la place de M ,

〈L,N〉 = 〈φTUT · M,N〉 = φTUTρ(M,N) · 〈〈M〉〉 = φTρ(M,N) · 〈〈M〉〉.

Page 148: Universit´e Pierre et Marie Curie Master de sciences et

148 Calcul stochastique

Pour les memes raisons,

〈L,L〉 = φTUT a(M)Uφ · 〈〈M〉〉 = φTa(M)φ · 〈〈M〉〉.

L’unicite est evidente: si L1, L2 ∈ H2c(d) verifient (5.45), on a, pour toute N ∈ H2

c ,〈L1 − L2, N〉 = 0 et, prenant N = L1 − L2, 〈L1 − L2〉 = 0 et L1 = L2.

La martingale Lt s’appelle encore l’integrale stochastique de φ par rapport a Met se note (φT ·M)t ou

∫ t0 < φs, dMs >.

Exemple. Soient (Ω,Ft,F , Bt,P) un Ft-mouvement brownien reel, αi des processusreels progressifs tels que E(

∫ +∞0 (αis)

2 ds) < +∞, i = 1, 2. On pose M it =

∫ t0 α

is dBs.

Alors M = (M1,M2) ∈ H2c(2) et on a

L20(M) = φ = (φ1, φ2), φi ∈ [Prog], E(

∫ +∞

0[(φ1

sα1s)

2 + (φ2sα

2s)

2] ds) < +∞,

L2(M) = φ = (φ1, φ2), φi ∈ [Prog], E(∫ +∞

0(φ1sα

1s + φ2

sα2s)

2 ds) < +∞

et L20(M) est strictement inclus dans L2(M).

5.10.5. Par arret, le passage aux martingales locales ne presente aucune difficulte.On pose

Mlocc (d) = M = (M1, . . . ,Md), Mk ∈ Mloc

c (d),

〈〈M〉〉 =d∑i=0

〈eTiM〉, νM (A) = E(∫ +∞

01A(t, .) dt), A ∈ Prog.

Il existe un processus progressif at(M) a valeurs S+(d) et, pour toute N ∈ Mlocc , un

processus progressif ρt(M,N) a valeurs Rd, uniques a un νM p.p. pres, tels que, pourtous θ, η ∈ Rd,

〈θTM,MTη〉 = θT a(M) η · 〈〈M〉〉, 〈θTM,N〉 = θTρ(M,N) · 〈〈M〉〉.

On pose

L0(M) = φ = (φ1, . . . , φd), φi ∈ [Prog], ∀ t,∫ t

0φTsas φs d〈〈M〉〉s < +∞.

Alors il existe L ∈ Mlocc , unique, telle que, pour tout N ∈ Mloc

c , 〈L,N〉 = φTρ(M,N) ·〈〈M〉〉. En particulier 〈L〉 = φT a(M)φ · 〈〈M〉〉.

5.10.6. Soit Mt une martingale reelle continue telle que 〈M〉t =∫ t0 as ds avec a ≥ ρ >

0. PosonsBt =∫ t0 a

−1/2s dMs,Bt est une martingale continue et 〈B〉t =

∫ t0 a

−1s d〈M〉s =

t. Donc (prop. 5.9.9) Bt est un mouvement brownien reel. On a alorsMt =∫ t0 a

1/2s dBs.

Pour traiter le cas general, il y a deux problemes. D’abord a n’est pas toujours in-versible. Ensuite on cherche une representation pour tout σt tel que σtσTt = at. Pourcela, on doit agrandir l’espace de probabilite.

Page 149: Universit´e Pierre et Marie Curie Master de sciences et

149

Agrandissement. Soient (Ω,Ft,F ,P) et (Ω′,F ′t,F ′,P′) deux espaces de probabilitefiltres. On pose

Ω = Ω× Ω′, Ft = Ft ⊗F ′t, F = F ⊗ F ′, P = P⊗ P′ (5.47)

ou ¯ designe la completion par les ensembles P-negligeables. On dit que (Ω, Ft, F , P)est un agrandissement de (Ω,Ft,F ,P). Toute fonction Φ sur Ω (resp. Ψ sur Ω′) seprolonge en une fonction sur Ω en posant Φ(ω, ω′) = Φ(ω) (resp. Ψ(ω, ω′) = Ψ(ω′)).

Proposition 5.10.5. Soit (Ω,Ft,F ,Mt,P) une martingale continue a valeurs Rr .On suppose que, pour tout θ ∈ Rr, 〈θTM〉t =

∫ t0 θ

Tas θ ds ou as est un processusprogressif a valeurs S+(r). Soit σt un processus progressif a valeurs M(r, d) tel queat = σt σ

Tt . Alors il existe un agrandissement (Ω, Ft, F , P) de (Ω,Ft,F ,P) donne

par (5.47) et un Ft-mouvement brownien Bt a valeurs Rd issu de 0 tels qu’on aitMt =

∫ t0 σs dBs P p.s.

Preuve: On suppose d’abord que d = r. On choisit un espace (Ω′,F ′t,F ′,P′) portantun F ′t-mouvement brownien B′t a valeurs Rr . Soit Ω = Ω× Ω′, . . . donne par (5.47).

Vu le lem. 5.10.1, Ut = [δ(at)]T est un processus progressif a valeurs O(r) telque Ut at UT

t = ∆t = diag(λ1t , . . . , λ

dt ) avec λkt ≥ 0 et progressif. Puisque, par hy-

pothese,∫ t0 |as| ds < +∞ p.s., on a, pour tout t et i,

∫ t0 λ

is ds < +∞ p.s. On pose

Yt =∫ t0 Us dMs. Puisque |U i,js | ≤ 1, cette integrale stochastique est definie sans

probleme composante par composante. Alors Yt = (Y 1t , . . . , Y

rt ) une martingale lo-

cale vectorielle et

〈Y i, Y j〉t =∫ t

0eTiUsasU

Ts ej ds = 1i(j)

∫ t

0λis ds.

Vu que∫ t0 (λis)

−1/21λis>0 d〈Y i〉s = 1, on peut definir

Zt =r∑i=1

∫ t

0(λis)

−1/21λis>0 dY

is +

r∑i=1

∫ t

01λi

s=0 d(B′s)i.

Puisque 〈Y i, Y j〉t = 0 si i 6= j et que Y et B′ sont independants, on a

〈θTZt〉t =r∑i=1

θ2i

∫ t

01λi

s>0 ds+r∑i=1

θ2i

∫ t

01λi

s=0 ds = |θ|2 t.

Donc (prop. 5.9.9) Zt est un Ft-mouvement brownien et∫ t0 ∆1/2

s dZs = Yt puisque

eTi

∫ t

0∆1/2s dZs =

∫ t

01λi

s>0 dYis = Y i

s −∫ t

01λi

s=0 dYis = Y i

s

vu que 〈∫ .0 1λi

s=0 dYis 〉t =

∫ .0 1λi

s=0λis ds = 0.

Page 150: Universit´e Pierre et Marie Curie Master de sciences et

150 Calcul stochastique

Vu le lem. 5.10.1, il existe un processus progressif Vs a valeurs O(r) tel queσs = a

1/2s Vs. On pose Bt =

∫ t0 V

Ts U

Ts dZs. Puisque V T

s UTs ∈ O(r), c’est encore un

Ft-mouvement brownien et on a, puisque a1/2s = UT

s∆1/2s Us,∫ t

0σs dBs =

∫ t

0σsV

Ts U

Ts dZs =

∫ t

0a1/2s UT

s dZs =∫ t

0UTs∆

1/2s dZs =

∫ t

0UTs dYs = Mt.

Enfin si d 6= r, on se ramene au cas d = r. Si d < r, on complete σt par des zerospour en faire une matrice r × r; si d > r, on complete σt par des zeros pour en faireune matrice d× d et Yt par des zeros pour en faire un vecteur de Rd.

Page 151: Universit´e Pierre et Marie Curie Master de sciences et

Chapitre 6

Equations differentiellesstochastiques

6.1. Solutions d’Ito

Resoudre une equation differentielle, c’est, f etant donnee, trouver une fonction φtelle que dφ(t) = f(φ(t))dt. Resoudre une equation differentielle stochastique (enabrege E.D.S.), c’est, f et g etant donnees, trouver un processus φt tel que dφt =f(φt)dt+ g(φt)dBt. Tout ceci doit etre precise, c’est l’objet de ce chapitre.

6.1.1. Notations. On noteM(r, d) l’espace des matrices reelles a r lignes et d colonnes.On a M(r, d) ∼ L(Rd,Rr). Rappelons qu’on note AT la matrice transposee de Aet que, pour A ∈ M(r, r), la trace de A est definie par Tr(A) =

∑ri=1 ai,i. On

munit M(r, d) de la norme |A| := ∑a2i,j1/2 =

√Tr(AAT). Pour A ∈ M(r, d) et

B ∈M(d,m), on a (c’est Cauchy-Schwarz) |AB| ≤ |A| |B|. Enfin (e1, . . . , er) designela base canonique de Rr.

6.1.2. Processus a valeurs M(r, d). Soient ( Ω, Ft, F , Bt, P ) un Ft-mouvement brown-ien a valeurs Rd issu de 0 et φs un processus progressif a valeurs M(r, d) tel que,pour tout t,

∫ t0 |φs|

2 ds < +∞ p.s. On definit une martingale locale vectorielle Mt =(M1

t , . . . ,Mrt ) par

M it =

d∑j=1

∫ t

0φi,js dBj

s . (6.1)

On note Mt =∫ t0 φs dBs. Alors M i

t = eTiMt =∫ t0 e

Tiφs dBs est une martingale locale

et l’on a

〈M i,M j〉t =∫ t

0eTiφsφ

Tsej ds. (6.2)

Page 152: Universit´e Pierre et Marie Curie Master de sciences et

152 Equations differentielles stochastiques

De plus, si E(∫ t0 |φs|

2 ds) < +∞,

E(|∫ t

0φs dBs|2) =

r∑i=1

E(∫ t

0eTiφs dBs)

2 =r∑i=1

E(∫ t

0|eTiφs|2 ds) = E(

∫ t

0|φs|2 ds).

(6.3)6.1.3. Processus d’Ito vectoriel.

Definition 6.1.1. Un processus Xt a valeurs Rr de la forme

Xt = X0 +∫ t

0φs dBs +

∫ t

0αs ds (6.4)

ou X0 est une v.a. F0-mesurable, φs un processus progressif a valeurs M(r, d) tel que|φs| ∈ Λ0, αs un processus progressif a valeurs Rr tel que

√|αs| ∈ Λ0, s’appelle un

processus d’Ito vectoriel.

On ecrira alors dXt = φt dBt +αt dt et dXt s’appelle la differentielle stochastiquede Xt. On pose, pour f ∈ C1,2(R× Rr),

∇xf = (∂f

∂x1. . .

∂f

∂xr)T, D2

xf = (∂2f

∂xi∂xj, 1 ≤ i, j ≤ r). (6.5)

Soit Xt est un processus d’Ito donne par (6.4). On a, d’apres le cor. 5.4.7 et (6.2),

df(t,Xt) =r∑i=1

∂f

∂xi(t,Xt)eTiφt dBt

+ ∂f∂t

(t,Xt) +r∑i=1

∂f

∂xi(t,Xt)αit +

12

r∑i,j=1

∂2f

∂xi∂xj(t,Xt)eTiφtφ

Tt ej dt, (6.6)

soit, sous forme concentree,

df(t,Xt) = (∇xf)T(t,Xt)φt dBt+∂f

∂t(t,Xt)+(∇xf)T(t,Xt)αt++

12Tr[D2

xf(t,Xt)φtφTt ]dt.

Les majorations suivantes seront essentielles pour controler les moments des solutions.

Proposition 6.1.2. Soit p ≥ 2. Il existe une constante Kp telle que, pour toutprocessus progressif φs a valeurs M(r, d) tel que |φs| ∈ Λ0 et tout T > 0, on ait

E(supt≤T

|∫ t

0φs dBs|p) ≤ KpE(

∫ T

0|φt|2 dt)

p2 ≤ KpT

p2−1E(

∫ T

0|φs|p ds).

Remarque. Noter que la constante Kp ne depend ni de r ni de d. Le lecteur peucourageux peut se contenter de la preuve ci-dessous dans le cas d = r = 1 puisde majorer |

∫ t0 φs dBs| composante par composante. On obtient ainsi une constante

dependant de d et r ce qui est moins elegant mais suffisant pour la suite.

Page 153: Universit´e Pierre et Marie Curie Master de sciences et

153

Preuve: Soient Mt =∫ t0 φs dBs et At =

∫ t0 |φs|

2 ds. On peut supposer Mt et Atbornes (sinon on considere Mt∧τn ou τn = inf(t ≥ 0, |Mt| + At ≥ n) puis on passea la limite en n). Vu que p ≥ 2, |Mt|p = (|Mt|2)

p2 est une sous-martingale positive

et (th. 4.5.2) E(supt≤T |Mt|p) ≤ ( pp−1)pE(|MT |p). Si p = 2, on utilise (6.3). Si p > 2,

appliquant la formule d’Ito a |x|p et prenant l’esperance, on obtient

E(|MT |p) = E(∫ T

0|Mt|p−2(

p

2

r∑i=1

eTiφtφTt ei+1|Mt|6=0

p(p− 2)2

r∑i,j=1

M itM

jt

|Mt|2eTiφtφ

Tt ej) dt).

Vu que∑r

i=1 eTiφtφ

Tt ei =

∑ri=1 |eTiφt|2 = |φt|2 et que, sur |Mt| 6= 0,

|r∑

i,j=1

M itM

jt

|Mt|2eTiφtφ

Tt ej | ≤

r∑i,j=1

(M itM

jt

|Mt|2)21/2

r∑i,j=1

(eTiφtφTt ej)

21/2 = |φtφTt | ≤ |φt|2,

on a donc, appliquant l’inegalite de Holder,

E(supt≤T

|Mt|p) ≤ (p

p− 1)pE(|MT |p) ≤ κp E(

∫ T

0|Mt|p−2|φt|2 dt)

≤ κp E(supt≤T

|Mt|p−2AT ) ≤ κp E(supt≤T

|Mt|p)p−2

p E(Ap2T

2p .

On en deduit, utilisant a nouveau l’inegalite de Holder,

E(supt≤T

|Mt|p) ≤ KpE(∫ T

0|φt|2 dt)

p2 ≤ KpT

p2−1E(

∫ T

0|φt|p dt).

Lemme 6.1.3. Soit p ≥ 1. On a, pour tout processus progressif αs a valeurs Rr telque

√|αs| ∈ Λ0 et tout T > 0,

E(supt≤T

|∫ t

0αs ds|p) ≤ T p−1E(

∫ T

0|αs|p ds).

Preuve: En effet, utilisant l’inegalite de Holder,

E(supt≤T

|∫ t

0αs ds|p) ≤ E(

∫ T

0|αs| ds)p ≤ T p−1E(

∫ T

0|αs|p ds).

6.1.4. On considere des applications mesurables σ(t, x) et b(t, x) de R+ × Rr dansM(r, d) et Rr.

On dit que σ et b sont localement bornees si, pour tous T > 0 et K compact deRr, |σ(t, x)|+ |b(t, x)| est bornee sur [0, T ]×K.

On dit que σ et b sont a croissance sous-lineaire si, pour tout T > 0, il existe uneconstante M(T ) telle que (rappelons que a ∨ b = sup(a, b))

pour t ≤ T, x ∈ Rr, |σ(t, x)| ∨ |b(t, x)| ≤M(T )(1 + |x|). (6.7)

Page 154: Universit´e Pierre et Marie Curie Master de sciences et

154 Equations differentielles stochastiques

On dit que σ et b sont lipschitziennes si, pour tout T > 0, il existe une constanteL(T ) telle que

pour t ≤ T, x, y ∈ Rr, |σ(t, x)− σ(t, y)| ∨ |b(t, x)− b(t, y)| ≤ L(T )|x− y|. (6.8)

On dit que σ et b sont localement lipchiptziennes si, pour tous T > 0 et n, ilexiste une constante Ln(T ) telle que, notant Bn = ξ, |ξ| ≤ n ,

pour t ≤ T, x, y ∈ Bn , |σ(t, x)− σ(t, y)| ∨ |b(t, x)− b(t, y)| ≤ Ln(T )|x− y|. (6.9)

Definition 6.1.4. Soient σ(t, x) et b(t, x) des applications mesurables localementbornees de R+ × Rr dans M(r, d) et Rr.(i) On dit qu’un terme S = (Ω,Ft,F , Bt, Xt,P) est solution de l’E.D.S.

E(σ, b) dXt = σ(t,Xt) dBt + b(t,Xt) dt, (6.10)

si B = (Ω,Ft,F , Bt,P) est un Ft-mouvement brownien a valeurs Rd issu de 0, si Xt

est un processus continu Ft-adapte a valeurs Rr et si

Xt = X0 +∫ t

0σ(s,Xs) dBs +

∫ t

0b(s,Xs) ds. (6.11)

(ii) Etant donne un Ft-mouvement brownien a valeurs Rd, B = (Ω,Ft,F , Bt,P), issude 0, on dit que Xt est une solution de E(σ, b) relative a B si le terme (Ω,Ft,F , Bt, Xt,P)est une solution de E(σ, b).

6.1.5. Localisation. Le resultat suivant, appele lemme de Gronwall, sera utilise defacon intensive.

Lemme 6.1.5. Soit f ∈ B+([0, T ]) integrable sur [0, T ] telle que, pour tout t ≤ T ,f(t) ≤ a+ b

∫ t0 f(s) ds, a ≥ 0, b ≥ 0. Alors f(t) ≤ a exp(bt) sur [0, T ].

Preuve: En effet, on a, pour tout t ≤ T ,

f(t) ≤ a+ b

∫ t

0f(s) ds ≤ a+ bat+ b2

∫ t

0ds

∫ s

0f(u) du ≤ . . .

≤ a

n∑k=0

(bt)k

k!+ rn, rn = bn+1

∫ t

0du1

∫ u1

0du2 . . .

∫ un

0f(un+1) dun+1,

et rn = bn+1∫ t0 f(v) (t−v)n

n! dv ≤ bn+1 tn

n!

∫ t0 f(v) dv →n 0.

Proposition 6.1.6. Soient T > 0, U un ouvert de Rr, B = (Ω,Ft,F , Bt,P) unFt-mouvement brownien a valeurs Rd issu de 0, σi(t, x) et bi(t, x) des applicationsmesurables localement bornees de R+ × Rr dans M(r, d) et Rr, Xi

t des solutions deE(σi, bi) relatives a B et τ i = inf(t, Xi

t /∈ U), i = 1, 2. On suppose que, pour tous

Page 155: Universit´e Pierre et Marie Curie Master de sciences et

155

t ≤ T et x ∈ U , σ1(t, x) = σ2(t, x), b1(t, x) = b2(t, x) et qu’il existe des constantesKn telles que

pour t ≤ T, x, y ∈ Un, |σ1(t, x)− σ1(t, y)| ∨ |b1(t, x)− b1(t, y)| ≤ Kn|x− y|

ou Un = U ∩ ξ, |ξ| ≤ n. Alors, si P(X10 = X2

0 ) = 1,

P(τ1 ∧ T = τ2 ∧ T, X1t = X2

t pour tout t ≤ τ1 ∧ T ) = 1.

Preuve: On pose τ = τ1 ∧ τ2, αn = inf(t ≥ 0, |X1t | ≥ n ou |X2

t | ≥ n), ρn = τ ∧ αn.Noter que αn ↑ +∞. Evidemment supt≤T E(|X1

t∧ρn− X2

t∧ρn|2) ≤ 4n2. On a alors,

pour t ≤ T ,

E(|X1t∧ρn

−X2t∧ρn

|2)

≤ 2E(|∫ t∧ρn

0(σ1(s,X1

s )− σ2(s,X2s )) dBs|2) + 2E(|

∫ t∧ρn

0(b1(s,X1

s )− b2(s,X2s )) ds|2)

≤ 2E(∫ t∧ρn

0|σ1(s,X1

s )− σ2(s,X2s )|2 ds) + 2TE(

∫ t∧ρn

0|b1(s,X1

s )− b2(s,X2s )|2 ds)

= 2E(∫ t∧ρn

0|σ1(s,X1

s )− σ1(s,X2s )|2 ds) + 2TE(

∫ t∧ρn

0|b1(s,X1

s )− b1(s,X2s )|2 ds)

≤ 2K2n(T + 1)E(

∫ t∧ρn

0|X1

s −X2s |2 ds) ≤ 2K2

n(T + 1)∫ t

0E(|X1

s∧ρn−X2

s∧ρn|2) ds.

D’ou (lem. 6.1.5) E(|X1t∧ρn

−X2t∧ρn

|2) = 0 pour tout t ≤ T . Vu la continuite, on endeduit P(X1

t∧ρn= X2

t∧ρnpour tout t ≤ T ) = 1 puis P(X1

t∧τ = X2t∧τ pour tout t ≤

T ) = 1 et enfin la proposition.

Choisissant dans la prop. 6.1.6, σ = σ1 = σ2, b = b1 = b2 et U = Rr, on a:

Corollaire 6.1.7. Soient B = (Ω,Ft,F , Bt,P) un Ft-mouvement brownien a valeursRd issu de 0, σ(t, x) et b(t, x) des applications de R+×Rr dans M(r, d) et Rr verifiant(6.9) et Xi

t , i = 1, 2, des solutions de E(σ, b) relatives a B. Alors, si P(X10 = X2

0 ) = 1,P(X1

t = X2t pour tout t) = 1.

6.1.6. Solutions d’Ito.

Theoreme 6.1.8. Etant donnes:(i) un Ft-mouvement brownien a valeurs Rd issu de 0, B = (Ω,Ft,F , Bt,P),(ii) une v.a. η a valeurs Rr F0-mesurable et de carre integrable,(iii) des applications mesurables σ(t, x) et b(t, x) a valeurs M(r, d) et Rr verifiant(6.7) et (6.8),il existe une et une seule solution Xt de E(σ, b) relative a B telle que X0 = η.

Preuve: Elle repose sur le resultat elementaire suivant:

Lemme 6.1.9. Soient E un espace de Banach et U une application de E dans Everifiant, pour tous x, y ∈ E, ||Ux−Uy|| ≤ ρ||x−y||, ρ < 1. Alors il existe un uniquex ∈ E tel que x = Ux. De plus, pour tout x0 ∈ E, Unx0 → x.

Page 156: Universit´e Pierre et Marie Curie Master de sciences et

156 Equations differentielles stochastiques

Preuve: L’unicite est evidente puisque x = Ux et y = Uy impliquent ||x − y|| =||Ux − Uy|| ≤ ρ||x − y|| et x = y. Pour l’existence, on choisit x0 ∈ E quelconqueet on pose xn = Unx0. Alors, vu que ||Unx − Uny|| ≤ ρ||Un−1x − Un−1y|| ≤ . . . ≤ρn||x − y||, ||xn+k − xn|| ≤

∑ki=1 ||xn+i − xn+i−1|| =

∑ki=1 ||Un+ix0 − Un+i−1x0|| ≤∑k

i=1 ρn+i−1||Ux0−x0|| ≤ ρn

1−ρ ||Ux0−x0|| →n 0 uniformement en k. Donc xn est unesuite de Cauchy et xn → x. Mais xn+1 = Uxn et, vu la continuite de U , x = Ux.

On fixe T > 0 et on pose H = L2r([0, T ]×Ω,Prog, λ|[0,T ] ⊗ P). Muni de la norme

||φ|| = E(∫ T0 |φt|2 dt)1/2, H est un espace Banach. Pour φ ∈ H, on definit

(Sφ)t = η0 +∫ t

0σ(s, φs) dBs +

∫ t

0b(s, φs) ds. (6.12)

On voit facilement, soit directement, soit en utilisant la prop. 6.1.2 et le lem. 6.1.3,que φ 7→ Sφ est une application de H dans H. On a, d’apres (6.8), pour φ, ψ ∈ H ett ≤ T ,

E|(Sφ)t− (Sψ)t|2 ≤ 2E|∫ t

0(σ(s, φs)−σ(s, ψs)) dBs|2 +2E|

∫ t

0(b(s, φs)− b(s, ψs)) ds|2

≤ 2E(∫ t

0|σ(s, φs)− σ(s, ψs)|2 ds) + 2TE(

∫ t

0|b(s, φs)− b(s, ψs)|2 ds)

≤ C(T )∫ t

0E|φs − ψs|2 ds avec C(T ) = 2(1 + T )L(T ).

Considerons, pour c > 0, la norme sur H, ||φ||c = E(∫ T0 e−ct|φt|2 dt)1/2. Elle est

equivalente a ||φ||. On a alors

||Sφ− Sψ||2c =∫ T

0E|(Sφ)t − (Sψ)t|2e−ct dt

≤ C(T )∫ T

0∫ t

0E|φs − ψs|2 dse−ct dt = C(T )

∫ T

0E|φs − ψs|2

∫ T

se−ct dt ds

≤ C(T )c

∫ T

0E|φs − ψs|2e−cs ds =

C(T )c

||φ− ψ||c.

Si on choisit c assez grand pour que C1(T )c < 1, S satisfait les hypotheses du lem.

6.1.9 et donc il existe φ dans H, unique, tel que Sφ = φ. On peut supposer φ continupuisque Sφ a un representant continu.

L’unicite resulte egalement du cor. 6.1.7.

Notation. On note Xη la solution de (6.11) de condition initiale η.

Remarque. Il resulte de la preuve ci-dessus que, sous les hypotheses du th. 6.1.8, lasolution Xx

t est FBt -adaptee, FB

t designant la filtration naturelle de Bt introduite en3.4.5.

6.1.7. Il resulte egalement de la preuve du th. 6.1.8 que:

Page 157: Universit´e Pierre et Marie Curie Master de sciences et

157

Corollaire 6.1.10. Sous les hypotheses du th. 6.1.8, soient Xt la solution de (6.11) etS definie par (6.12). Alors, pour tout T > 0 et tout φ ∈ L2

r([0, T ]×Ω,Prog, λ|[0,T ]⊗P),E(

∫ T0 |(Snφ)t −Xt|2 dt) →n 0.

On a aussi,

Corollaire 6.1.11. Sous les hypotheses du th. 6.1.8, on a, sur η = η′, Xηt = Xη′

t

quel que soit t p.s.

Preuve: Soient X0 ≡ η, Xn+1 = SXn, X ′0 ≡ η′, X ′

n+1 = SX ′n. D’apres la prop. 5.3.3,

on a de proche en proche, sur η = η′, Xn = X ′n p.s. et donc Xη = Xη′ p.s. vu le

cor. 6.1.10.

6.1.8. Generalisation. Si on examine les demonstrations precedentes, on observe queles fonctions σ(t, x) et b(t, x) n’interviennent que par les majorations (6.7) et (6.8) etque, si on considere des fonctions σ(t, ω, x) et b(t, ω, x) verifiant les memes inegalites,on a le meme resultat pourvu que, pour tout processus progressif φt, les processusσ(t, ω, φt(ω)) et b(t, ω, φt(ω)) soient progressifs. On a donc:

Proposition 6.1.12. Le theoreme 6.1.8 reste vrai si on remplace (iii) par:(iii’) des fonctions Prog ⊗ B(Rr)-mesurables σ(t, ω, x) et b(t, ω, x) verifiant, uni-formement en ω, (6.7) et (6.8).

6.2. Proprietes

6.2.1. Dependance des conditions initiales.

Proposition 6.2.1. Soient p ≥ 2 et T > 0. Sous les hypotheses du th. 6.1.8, il existedes constantes Ci(T, p) telles que:

(i) E(sups≤t

|Xηs − η|p) ≤ C1(T, p)t

p2 (1 + E|η|p), η ∈ Lp, t ≤ T,

(ii) E(sups≤T

|Xηs −Xη′

s |p) ≤ C2(T, p)E|η − η′|p, η, η′ ∈ Lp.

Preuve: Les constantes Ci,Ki ci-dessous dependent de T , de p et de σ et b parl’intermediaire de (6.7) et (6.8).

(i) On ecrit X pour Xη. On pose τn = inf(t ≥ 0, |Xt − η| ≥ n) et fn(t) =E(sups≤t |Xs∧τn − η|p). Evidemment fn(t) ≤ np. On a, pour t ≤ T ,

|Xs∧τn − η|p ≤ 2p−1(|∫ s∧τn

0σ(u,Xu) dBu|p + |

∫ s∧τn

0b(u,Xu) du|p)

et, vu la prop. 6.1.2 et le lem. 6.1.3,

fn(t) ≤ C3tp2−1E(

∫ t

0|σ(u,Xu∧τn)|p du) + C4t

p−1E(∫ t

0|b(u,Xu∧τn)|p du).

Page 158: Universit´e Pierre et Marie Curie Master de sciences et

158 Equations differentielles stochastiques

Utilisant (6.7), on obtient pour u ≤ T ,

E(|σ(u,Xu∧τn)|p) ≤ C5E(1 + |Xu∧τn |p) ≤ C6(1 + E|η|p + fn(u))

et de meme pour E(|b(u,Xu∧τn)|p). On a donc, pour t ≤ T ,

fn(t) ≤ C7tp2 (1 + E|η|p) + C8

∫ t

0fn(u) du

d’ou (lem. 6.1.5)

fn(t) = E(sups≤t

|Xs∧τn − η|p) ≤ C9tp2 (1 + E|η|p)

et (i) puisque τn ↑ +∞.

(ii) On pose X = Xη, X ′ = Xη′ , ∆sσ = σ(s,Xs)−σ(s,X ′s), ∆sb = b(s,Xs)−b(s,X ′

s).On a, utilisant la prop. 6.1.2, le lem. 6.1.3 et (6.8), pour t ≤ T ,

E(sups≤t

|Xηs −Xη′

s |p) ≤ 3p−1[E|η − η′|p + E(sups≤t

|∫ s

0∆uσ dBu|p) + E(sup

s≤t|∫ s

0∆ub du|p)]

≤ K1[E|η − η′|p + E(∫ t

0|∆uσ|p du) + E(

∫ t

0|∆ub|p du)]

≤ K2E|η − η′|p +K3

∫ t

0E|Xu −X ′

u|p du.

On applique alors le lem. 6.1.5 a g(u) = E(sups≤u |Xs − X ′s|p) et on obtient g(t) ≤

K4E|η − η′|p sur [0, T ] puisque, vu (i), g(u) est localement bornee.

Remarque. La premiere inegalite montre que, si η ∈ Lp, alors Xηt ∈ Lp, p ≥ 2.

6.2.2. On appelle fonction aleatoire une famille (Xi, i ∈ I) de v.a. indexees par I,reservant le terme de processus au cas I = R+. Le th. 3.1.5 admet la generalisationsuivante (voir [32]):

Proposition 6.2.2. Soit (Zt(x), t ∈ R+, x ∈ Rr) une fonction aleatoire a valeursRm continue en t pour chaque x. On suppose que, pour tous x, y ∈ Rr et T > 0,

E(supt≤T

|Zt(x)− Zt(y)|p) ≤ ap,T |x− y|r+ε, ε > 0, p > 1.

Alors il existe une fonction aleatoire Z∗t (x) continue en (t, x) telle que, pour tout x,on ait p.s. Z∗t (x) = Zt(x) quel que soit t.

Si on applique la prop. 6.2.1 a Xxt et Xy

t , on obtient, pour tout p > 2,

E(supt≤T

|Xxt −Xy

t |p) ≤ C2(p, T )|x− y|p. (6.13)

Prenant p > r dans (6.13), la prop. 6.2.2 implique qu’il existe une fonctionaleatoire Xt(x) continue en (t, x) telle que, pour tout x, p.s. Xt(x) = Xx

t quel quesoit t. Alors,

Page 159: Universit´e Pierre et Marie Curie Master de sciences et

159

Proposition 6.2.3. Sous les hypotheses du th. 6.1.8, pour toute η ∈ [F0], Xt = Xt(η)est l’unique solution de E(σ, b) relative a B telle que X0 = η.

Preuve: L’unicite resulte du cor. 6.1.7. D’apres le cor. 6.1.11, c’est vrai pour η etagee.Soit η ∈ L2(F0). Il existe ηn etagees telles que ηn → η dans L2 et aussi p.s. (prendreune sous-suite). On a (prop. 6.2.1) Xηn → Xη dans L2 et, vu la continuite, Xt(ηn) →Xt(η) p.s. d’ou le resultat. Pour le cas general, on considere d’abord ηM = η1|η|≤M,qui est dans L2, puis on applique la prop. 5.3.3.

On fixe s > 0. Evidemment (B(s)u := Bs+u − Bs, u ≥ 0) est un Fs+u-mouvement

brownien issu de 0 et on a

Lemme 6.2.4. Pour tout processus progressif φ tel que |φ| ∈ Λ0, on a∫ t−s

0φs+u dB

(s)u =

∫ t

sφu dBu.

Preuve: Raisonnant composante par composante, on se ramene a d = 1. C’est alorsevident pour φ etagee puis on passe a la limite.

On pose, pour s < t,

Gst = σ(Bu −Bs, s < u ≤ t, N ), N negligeables de σ(Bu, u ≥ 0). (6.14)

Alors (B(s)u , u ≥ 0) est aussi un Gss+u-mouvement brownien issu de 0 et, sous les

hypotheses (i) et (iii) du th. 6.1.8, il y a existence et unicite des solutions de

ξu = x+∫ u

0σ(s+ v, ξv) dB(s)

v +∫ u

0b(s+ v, ξv) dv

et cette solution est Gss+u-mesurable. De la prop. 6.2.3, on deduit:

Theoreme 6.2.5. On suppose (i) et (iii) du th. 6.1.8. Alors, pour tout s ≥ 0, il existeune fonction aleatoire (Xt(s, x), t ≥ s, x ∈ Rr) continue en (t, x) et Gst -mesurable telleque, pour toute η ∈ [Fs], Yt = Xt(s, η) soit l’unique solution de

Yt = η +∫ t

sσ(v, Yv) dBv +

∫ t

sb(v, Yv) dv, t ≥ s. (6.15)

Donc Xt(s, x) designe la position a l’instant t de la solution de l’E.D.S. partantde x a l’instant s. Ceci implique

Lemme 6.2.6. Pour s ≤ t ≤ t+ h, Xt+h(s, η) = Xt+h(t,Xt(s, η)) p.s.

Preuve: Posant ξu = Xu(s, η), on a, pour u > t,

ξu = η +∫ u

sσ(v, ξv) dBv +

∫ u

sb(v, ξv) dv

= η +∫ t

sσ . . .+

∫ t

sb . . .+

∫ u

tσ . . .+

∫ u

tb . . .

= Xt(s, η) +∫ u

tσ(v, ξv) dBv +

∫ u

tb(v, ξv) dv

d’ou (unicite) ξu = Xu(t,Xt(s, η)) p.s.

Page 160: Universit´e Pierre et Marie Curie Master de sciences et

160 Equations differentielles stochastiques

Proposition 6.2.7. Sous les hypotheses du th. 6.2.5, on a pour s ≤ t ≤ t+h, η ∈ [Fs]et f ∈ B+(Rr) ∪ bB(Rr),

E(f(Xt+h(s, η)) | Ft) = φ(Xt(s, η)) p.s. avec φ(x) = E(f(Xt+h(t, x)).

Preuve: Vu le lem. 6.2.6, on a f(Xt+h(s, η)) = f(Xt+h(t,Xt(s, η))) avec Xt(s, η)Ft-mesurable et Xt+h(t, x) Gtt+h-mesurable, les tribus Ft et Gtt+h etant independantes(prop. 3.4.6). Il suffit d’appliquer la prop. 4.2.4.

Si dans la prop. 6.2.7, on prend f = 1A, on a:

P(Xt+h(s, η) ∈ A | Ft) = φ(Xt(s, η)) p.s. avec φ(x) = P(Xt+h(t, x) ∈ A).

C’est la propriete de Markov sur laquelle on reviendra en details au chapitre 7.

6.2.3. Soient σ(t, x) et b(t, x) des applications mesurables a valeurs M(r, d) et Rr.On definit l’operateur

Ls =12

r∑i,j=1

ai,j(s, x)∂2

∂xi∂xj+

r∑i=1

bi(s, x)∂

∂xi, a = σσT. (6.16)

Proposition 6.2.8. Sous les hypotheses du th. 6.1.8, soient f ∈ C1,2(R+ × Rr) et

Mft = f(t,Xt)− f(0, X0)−

∫ t

0(∂

∂s+ Ls)f(s,Xs) ds.

Alors Mft est une martingale locale et 〈Mf 〉t =

∫ t0 (∇xf)Ta∇xf(s,Xs) ds. C’est une

martingale de L2 si, pour tout t, sups≤t supx |∇xf(s, x)| < +∞.

Preuve: La premiere partie resulte de (6.6). La seconde de (6.7) et de la prop.6.2.1puisque, pour s ≤ t, |∇xf)Ta∇xf(s, x)| ≤ C|σ(s, x)|2 ≤ 2CM(1 + |x|2) et doncE(〈Mf 〉t) < +∞.

6.3. Unicite en loi

Le probleme est le suivant. Si on resout l’equation (6.10) relativement a differentsmouvements browniens, que peut-on dire des solutions?

6.3.1. Une premiere reponse est donnee par:

Proposition 6.3.1. Soient σ(t, x) et b(t, x) des applications a valeurs M(r, d) et Rr

verifiant (6.7) et (6.8) et, pour i = 1, 2, Bi = (Ω,F it ,F i, Bi

t,Pi) des F it -mouvements

browniens issus de 0 a valeurs Rd, ηi des v.a. F i0-mesurables et Xi

t des processuscontinus verifiant

Xit = ηi +

∫ t

0σ(s,Xi

s) dBis +

∫ t

0b(s,Xi

s) ds.

Alors, si η1 et η2 ont meme loi, (X1t , t ∈ R+) et (X2

t , t ∈ R+) ont meme loi.

Page 161: Universit´e Pierre et Marie Curie Master de sciences et

161

Preuve: On note d’abord que, si φi sont des processus continus adaptes tels queles processus ((φ1

t , B1t ), t ≤ T ) et ((φ2

t , B2t ), t ≤ T ) aient meme loi, les processus

((B1t ,

∫ t0 φ

1s dB

1s ), t ≤ T ) et ((B2

t ,∫ t0 φ

1s dB

1s ), t ≤ T ) ont meme loi. Pour φi,n =∑n−1

k=0 φikTn

1] kT

n,(k+1)T

n](t), c’est evident puis on passe a la limite utilisant le cor. 5.4.4

si les processus φi sont bornes. S’ils ne sont pas bornes, on se ramene a ce cas enconsiderant les temps d’arret τ in = inf(|φit| ≥ n) et les processus φi

t∧τ in.

Soient Si l’application (6.12) relative a Bit. Si η1 et η2 ont meme loi, on a donc loi

de (B1t , (S

1η1)t, t ≤ T ) = loi de (B2t , (S

2η2)t, t ≤ T ),. . ., loi de (B1t , ((S

1)nη1)t, t ≤T ) = loi de ((B2

t , ((S2)nη2)t, t ≤ T ) et, a la limite, les processus (X1

t , t ≤ T ) et(X1

t , t ≤ T ) ont meme loi (cor. 6.1.10). Ceci etant vrai pour tout T , on a le resultatcherche.

6.3.2. Soient σ(x) et b(x) des applications a valeurs M(r, d) et Rr verifiant

pour tous x, y ∈ Rr, |σ(x)− σ(y)| ∨ |b(x)− b(y)| ≤ L|x− y|. (6.17)

Alors (6.7) et (6.8) sont satisfaites puisque |σ(x)| ≤ |σ(0)|+|σ(x)−σ(0)| ≤ |σ(0)|+L|x|et de meme pour b. Noter que (6.17) est vraie des que σ et b sont C1 a derivees bornees.On a alors

Proposition 6.3.2. On suppose (6.17) et soit Xt(s, x) la solution de (6.15). Alors,pour tout s et x, les processus (Xs+u(s, x), u ≥ 0) et (Xu(0, x), u ≥ 0) ont meme loi.

Preuve: Soit B(s)u = Bs+u −Bs. On a, compte tenu du lem. 6.2.4,

Xs+u(s, x) = ξ1u = x+∫ s+u

sσ(Xv(s, x)) dBv +

∫ s+u

sb(Xv(s, x)) dBv

= x+∫ u

0σ(ξ1v) dB

(s)v +

∫ u

0b(ξ1v) dv

Xu(0, x) = ξ2u = x+∫ u

0σ(ξ2v) dBv +

∫ u

0b(ξ2v) dv.

Il suffit alors d’appliquer la prop. 6.3.1.

Corollaire 6.3.3. Sous les hypotheses de la prop. 6.3.2, on a, pour toutes η ∈ [F0]et f ∈ B+(Rr) ∪ bB(Rr),

E(f(Xt+h(s, η)) | Ft) = φ(Xt(s, η)) p.s. avec φ(x) = E(f(Xh(0, x)).

Preuve: On a, vu les prop. 6.2.7 et 6.3.2,

E(f(Xt+h(s, η)) | Ft) = φ(Xt(s, η)) p.s. avec φ(x) = E(f(Xt+h(t, x))) = E(f(Xh(0, x))).

Page 162: Universit´e Pierre et Marie Curie Master de sciences et

162 Equations differentielles stochastiques

6.4. Generalisations

Nous avons presente la theorie d’Ito dans son cadre classique a savoir coefficientslipschitziens a croissance sous-lineaire. Differentes extensions sont possibles. Poursimplifier l’expose, on suppose d’abord σ et b independants de t.

6.4.1. Le resultat suivant illustre le role joue par le coefficient b(x) appele “drift”.

Theoreme 6.4.1. Soient B = (Ω,F ,Ft, Bt,P) un mouvement brownien issu de 0 avaleurs Rd, σ(x) ∈M(r × d) et b(x) ∈ Rr verifiant,

|σ(y)− σ(x)| ∨ |b(y)− b(x)| ≤ Ln|y − x|, |x|, |y| ≤ n.

On suppose qu’il existe λ > 0 tel que, pour tout x ∈ Rr,

2 < b(x), x > +Tr(a(x)) ≤ λ(1 + |x|2), a = σσT. (6.18)

Alors, pour tout η F0-mesurable, l’equation

E(η, σ, b) Xt = η +∫ t

0σ(Xs) dBs +

∫ t

0b(Xs) ds (6.19)

a une et une seule solution.

Remarque. Si r = d = 1, (6.18), etant toujours satisfaite pour |x| ≤ A, se reduit a

lim supx→−∞

2x b(x) + σ2(x)|x|2

< +∞, lim supx→+∞

2x b(x) + σ2(x)|x|2

< +∞. (6.20)

Preuve: L’unicite resulte immediatement de la prop. 6.1.7. Passons a l’existence. Vula prop. 5.3.3, on peut supposer |η| ≤M .

a. On suppose d’abord que σ et b verifient (6.18) seulement pour |x| ≤ R ou R > M .Soient Xt une solution de E(η, σ, b) et τR = inf(t ≥ 0, |Xt| ≥ R). On pose

f(t, x) = e−λt(1 + |x|2), Zt = f(t,Xt).

Alors (Zt∧τR , t ≥ 0) est une Ft-surmartingale positive. En effet, appliquant la formulede Ito, on a

Zt − Z0 =∫ t

0e−λs−λ(1 + |Xs|2) + 2 < Xs, b(Xs) > +Tr(a(Xs)) ds

+∫ t

0e−λsXT

sσ(Xs) dBs = Ut + Vt.

D’une part Ut∧τR est un processus decroissant puisque, par hypothese, la quantiteentre accolade est negative pour s ≤ τR et, d’autre part, Vt∧τR est une martingalepuisque e−λsXT

sσ(Xs) est bornee pour s ≤ τR.

Page 163: Universit´e Pierre et Marie Curie Master de sciences et

163

b. Soit φ une application de Rr dans R de classe C1 valant 1 si |x| ≤ 1 et 0 si |x| ≥ 2.On pose:

σn(x) = σ(x)φ(x

n), bn(x) = b(x)φ(

x

n).

On peut alors appliquer le th. 6.2.5 et l’equation E(η, σn, bn) a une unique solutionqu’on note Xn

t . On pose, pour R > M , τnR = inf(t ≥ 0, |Xnt | ≥ R). Vu la prop. 6.1.6,

pour tout n ≥ n0 > M ,

P(Xnt∧τn

n= Xn+1

t∧τn+1n

pour tout t ≥ 0) = 1.

Soit Znt = f(t,Xnt ). D’apres a, Znt∧τn

nest une surmartingale positive. On en deduit:

1 +M2 ≥ E(Zn0 ) ≥ E(Znt∧τnn) = E(e−λt∧τ

nn (1 + |Xn

t∧τnn|2))

≥ E(e−λt(1 + |Xnτnn|2)1τn

n≤t) ≥ e−λt(1 + n2)P(τnn ≤ t).

On a donc, pour tout t, P(τnn ≤ t) ≤ eλt 1+M2

1+n2 →n 0 et τnn ↑n +∞ p.s.On pose alors Xt = Xn0

t si t < τn0n0

et, pour n ≥ n0, Xt = Xnt si τnn ≤ t < τn+1

n+1 .Xt est p.s. continu et verifie (6.19) sur t < τnn et donc p.s. pour tout t puisqueτnn ↑n +∞ p.s.

6.4.2. Les solutions a valeurs ]0,+∞[ d’une E.D.S. sont particulierement interessantesen mathematiques financieres car elles peuvent modeliser l’evolution de la valeur d’unactif financier. La methode que nous presentons permet d’obtenir une large classe detelles solutions.

Soient U et V deux intervalles ouverts de R eventuellement non bornes, φ undiffeomorphisme de classe C3 de U sur V avec φ′ > 0 et Xt est un processus continu avaleurs U solution de E(η, σ, b), η prenant ses valeurs dans U . Appliquant la formulede Ito, on voit facilement que Yt = φ(Xt) est un processus continu a valeurs V ,solution de E(η, σ, b) avec η = φ(η) et

σ = (σφ′) φ−1, b = (bφ′ +12σ2φ′′) φ−1. (6.21)

On choisit U =]0,+∞[, V = R et φ telle que φ(x) = x si x ≥ 2. Soient σ, b ∈C1(]0,∞[) et η > 0. On definit des fonctions σ et b sur R par (6.21) et η = φ(η).Si E(η, σ, b) a une solution Yt, alors Xt = φ−1(Yt) est solution de E(η, σ, b). Puisqueσ, b ∈ C1(R), d’apres (6.20), E(η, σ, b) a une solution si

lim supy→+∞

1y2

(2y b(y) + σ2(y)) < +∞, lim supy→−∞

1y2

(2y b(y) + σ2(y)) < +∞,

soit encore, vu le choix de φ, lim supx→+∞1x2 (2x b(x) + σ2(x)) < +∞ et

lim supx→0+

1φ2(x)

Lφ2(x) < +∞, L =12σ2(x)

d2

dx2+ b(x)

d

dx.

Si on choisit φ telle que, de plus, φ(x) = −√− log x pour x ≤ 1, on obtient (l’unicite

resultant de la prop. 6.1.7):

Page 164: Universit´e Pierre et Marie Curie Master de sciences et

164 Equations differentielles stochastiques

Theoreme 6.4.2. Soient B = (Ω,F ,Ft, Bt,P) un mouvement brownien reel issu de0 , σ, b ∈ C1(]0,∞[) verifiant

lim supx→+∞

1x2

(2x b(x) + σ2(x)) < +∞, lim supx→0+

−2x b(x) + σ2(x)x2(− log x)

< +∞.

Alors, pour tout 0 < η ∈ F0, il existe un unique processus continu Xt a valeurs]0,+∞[ solution de E(η, σ, b).

Exemples. Posons ρ(x) = −2x b(x)+σ2(x)x2(− log x)

.1. On considere l’E.D.S.

dXt = αXt dBt + βXt dt, X0 = x0 > 0. (6.22)

On a ρ(x) = −2β+α2

(− log x) →x→0+ 0 et (6.22) a une unique solution > 0.2. On considere l’E.D.S.

dXt = σ√Xt dBt + µdt, X0 = x0 > 0. (6.23)

On a ρ(x) = −2µ+σ2

x2(− log x). Si 2µ ≥ σ2, lim supx→0+ ρ(x) ≤ 0 et (6.23) a une unique

solution > 0.3. On considere l’E.D.S.

dXt = σ dBt +a

Xtdt, X0 = x0 > 0. (6.24)

On a ρ(x) = −2a+σ2

x2(− log x). Si 2a ≥ σ2, lim supx→0+ ρ(x) ≤ 0 et (6.24) a une unique

solution > 0.

6.4.3. Dans le cas inhomogene, on voit facilement, suivant pas a pas la preuve du th.6.4.1, que, si σ(t, x) et b(t, x) verifient (6.9) et, pour tout t ≤ T , T > 0 quelconque,

2 < b(t, x), x > +Tr(a(t, x)) ≤ λ(T )(1 + |x|2),

l’equation (ou η est F0-mesurable)

Xt = η +∫ t

0σ(s,Xs) dBs +

∫ t

0b(s,Xs) ds

a une unique solution et qu’il existe une fonction aleatoire Xt(x) continue en (t, x)telle que, pour tout t > 0, Xt(η) = Xt p.s. Alors le th. 6.2.5, les prop. 6.2.7, 6.3.1,6.3.2 restent valables. Il en est de meme dans le cadre du th. 6.4.2, si on suppose

supt≤T

lim supx→+∞

1x2

(2x b(t, x)+σ2(t, x)) < +∞, supt≤T

lim supx→0+

−2x b(t, x) + σ2(t, x)x2(− log x)

< +∞.

Page 165: Universit´e Pierre et Marie Curie Master de sciences et

165

6.5. Solutions fortes et faibles

6.5.1. Nous allons preciser les notions d’existence et d’unicite des solutions d’uneE.D.S. Etant donnees σ(t, x) et b(t, x) applications mesurables localement bornees avaleurs M(r, d) et Rr, on considere l’equation

E(σ, b) dXt = σ(t,Xt) dBt+b(t,Xt) dt.

Definition 6.5.1. On appelle solution de E(σ, b) tout couple (Bt, Xt) ou Bt est unFt-mouvement brownien issu de 0 et Xt un processus continu Ft-adapte verifiantE(σ, b).

Definition 6.5.2. On dit qu’il y a existence faible (ou en loi) des solutions de E(σ, b)si, pour toute probabilite µ sur B(Rr), il existe une solution (Bt, Xt) de E(σ, b) telleque X0 ait pour loi µ.

On dira alors que le couple (Bt, Xt) est une solution faible de E(µ, σ, b).

Definition 6.5.3. (i) On dit qu’il y a unicite trajectorielle des solutions de E(σ, b)si, pour tout x ∈ Rr, etant donnees deux solutions (Bt, X1

t ) et (Bt, X2t ) de E(σ, b)

telles X0 = X ′0 = x, on a X1

t = X2t p.s.

(ii) On dit qu’il y a unicite faible (ou en loi) des solutions de E(σ, b) si, pour toutx ∈ Rr, etant donnees deux solutions (B1

t , X1t ) et (B2

t , X2t ) de E(σ, b) telles que

X0 = X ′0 = x, les processus (X1

t , t ≥ 0) et (X2t , t ≥ 0) ont meme loi.

Remarque. On peut montrer que (i) implique que, si (Bt, X1t ) et (Bt, X2

t ) sont deuxsolutions de E(σ, b) telles X0 = X ′

0, on a X1t = X2

t p.s. et que (ii) implique que, si(B1

t , X1t ) et (B2

t , X2t ) sont deux solutions de E(σ, b) telles X0 et X ′

0 aient meme loi,les processus (X1

t , t ≥ 0) et (X2t , t ≥ 0) ont meme loi.

6.5.2. Le resultat principal sur ce sujet est du a Yamada-Watanabe (voir[18]).

Theoreme 6.5.4. On suppose qu’il y a unicite trajectorielle et existence faible dessolutions de E(σ, b). Alors, pour tout Ft-mouvement brownien Bt issu de 0 et toutev.a. η F0-mesurable, il existe une solution (Bt, Xt) de E(σ, b) telle que X0 = η.

Notons que dans ce cas, choisissant η = x et Ft = FBt , on a que Xx

t est FBt -

mesurable. On parle alors de solution forte de E(σ, b).

6.5.3. Par contre il peut y avoir unicite faible sans qu’il y ait unicite forte comme lemontre l’exemple suivant.

Exemple. Soit sign(x) = 1x≥0 − 1x<0. On considere l’E.D.S. reelle:

Xt =∫ t

0sign(Xs) dBs. (6.25)

On remarque d’abord que, siXt est solution de (6.25),Xt est un mouvement brownienpuisque exp(iαXt + 1

2α2t) est une martingale (prop. 4.3.7). Il y a unicite en loi.

Page 166: Universit´e Pierre et Marie Curie Master de sciences et

166 Equations differentielles stochastiques

Soit ξt un mouvement brownien reel issu de 0. On pose βt =∫ t0 sign(ξs) dξs.

Comme ci-dessus, on voit que βt est un mouvement brownien. Alors∫ t0 sign(ξs) dβs =∫ t

0 (sign(ξs))2 dξs = ξt. Donc (βt, ξt) est solution de (6.25). Il y a existence faible. Mais,puisque E(

∫ t0 1ξs=0 dβs)2 = E(

∫ t0 1ξs=0 ds) = 0, on a p.s.

−ξt =∫ t

0−sign(ξs) dβs =

∫ t

0−sign(ξs)1ξs 6=0 dβs =

∫ t

0sign(−ξs) dβs

et (βt,−ξt) est aussi solution de (6.25). Il n’y a pas unicite trajectorielle.

6.6. E.D.S. lineaires

6.6.1. Le mouvement brownien geometrique. On considere l’E.D.S. sur R:

dXt = σ(t)XtdBt + c(t)Xt dt, X0 = η, (6.26)

ou σ et c sont des applications boreliennes de R dans R localement bornees. Notonsqu’il y a existence et unicite des solutions de (6.26). Supposons d’abord c ≡ 0. Lasolution de dXt = σ(t)XtdBt est alors (prop. 5.5.1 ou formule d’Ito)

Xt = η exp(∫ t

0σ(s) dBs −

12

∫ t

0σ2(s) ds).

De meme, si σ ≡ 0, la solution de dXt = c(t)Xt dt est Xt = η exp(∫ t0 c(s) ds).

Revenons au cas general. S’inspirant de la methode de la variation de la constante, oncherche une solution de (6.26) sous la forme Xt = Ut exp(

∫ t0 c(s) ds) avec Ut processus

d’Ito. On doit avoir, posant Zt = exp(∫ t0 c(s) ds),

dXt = Zt dUt + Utc(t)Zt dt = σ(t)UtZt dBt + c(t)UtZtdt

d’ou l’on tire dUt = σ(t)Ut dBt et Ut = U0 exp(∫ t0 σ(s) dBs− 1

2

∫ t0 σ

2(s) ds). Finalement

Xt = η exp(∫ t

0σ(s) dBs +

∫ t

0(c(s)− 1

2σ2(s)) ds). (6.27)

On peut verifier par la formule d’Ito que (6.27) est bien solution de (6.26).

Pour σ(t) ≡ σ et c(t) ≡ c, on obtient l’E.D.S.

dXt = σXtdBt + cXt dt, X0 = η, σ, c ∈ R, (6.28)

qui a donc pour solution

Xt = η exp((c− 12σ2)t+ σBt). (6.29)

Le processus Xt s’appelle alors le mouvement brownien geometrique. Si η > 0, Xt > 0pour tout t et ce processus est souvent utilise pour modeliser le cours d’une action. Le

Page 167: Universit´e Pierre et Marie Curie Master de sciences et

167

processus Yt = (c− 12σ

2)t+σBt etant a accroissements independants et stationnaires,on a, pour tout t0 < t1 < . . . < tn et h, que les v.a.

Xt1+h

Xt0+h,Xt2+h

Xt1+h, . . . ,

Xtn+h

Xtn−1+h

sont independantes et de lois independantes de h.

6.6.2. E.D.S. lineaires. On s’interesse a l’E.D.S.

dXt = (F (t)Xt + f(t)) dt+G(t) dBt, X0 = η ∈ L2(F0) (6.30)

ou F (t) et G(t) sont des matrices d × d continues, f(t) est une fonction continue avaleurs Rd (F,G, f deterministes) et Bt un Ft-mouvement brownien d-dimensionnel.

Considerons d’abord l’equation matricielle (deterministe):

Φ′(t) = F (t)Φ(t), Φ(0) = I matrice unite d× d. (6.31)

On a le resultat classique suivant:

Proposition 6.6.1. L’equation (6.31) a une unique solution Φ(t) qui est une matricereguliere (i.e. inversible). De plus, pour tout ξ0 ∈ Rd, ξ(t) = Φ(t)ξ0 est l’uniquesolution de

ξ′(t) = F (t)ξ(t), ξ(0) = ξ0. (6.32)

Cherchons une solution de (6.30) sous la forme Xt = Φ(t)Ct, ou Ct est un proces-sus d’Ito. On doit avoir

dXt = Φ′(t)Ct dt+ Φ(t) dCt = F (t)Xt dt+ f(t) dt+G(t) dBt,

c’est a dire, puisque Φ′(t)Ct = F (t)Xt, Φ(t) dCt = f(t) dt + G(t) dBt et dCt =Φ−1(t)f(t) dt+ Φ−1(t)G(t) dBt. La solution de (6.30) est donnee par:

Xt = Φ(t) η +∫ t

0Φ−1(s)f(s) ds+

∫ t

0Φ−1(s)G(s) dBs. (6.33)

On peut verifier, a posteriori, grace a la formule d’Ito que Xt satisfait (6.30). Avantd’etudier les proprietes de Xt, on presente quelques complements sur les processusgaussiens.

6.4.3. Processus gaussiens vectoriels. Rappelons (def. 3.1.9) qu’un processus (Xt, t ≥0) a valeurs Rd est gaussien, si pour tous 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn, le vecteur(Xt1 , · · · , Xtn) est gaussien. On pose alors

m(t) = E(Xt), K(s, t) = E[(Xs −m(s))(Xt −m(t))T]. (6.34)

Considerons Y =∑n

k=1 uTkXtk , Y est une v.a.r. gaussienne et

E(Y ) =n∑k=1

uTkm(tk), Var(Y ) =n∑

j,k=1

uTjK(tj , tk)uk.

Page 168: Universit´e Pierre et Marie Curie Master de sciences et

168 Equations differentielles stochastiques

Donc K(s, t) verifie:

K(s, t) = KT(t, s), ∀ t1, . . . , tn ≥ 0, ∀ u1, . . . , un ∈ Rd,n∑

j,k=1

uTjK(tj , tk)uk ≥ 0.

(6.35)On a egalement pour tous t1, . . . , tn ≥ 0, u1, . . . , un ∈ Rd,

E [ exp(in∑k=1

uTkXtk) ] = exp [ in∑k=1

uTkm(tk)−12

n∑j,k=1

uTjK(tj , tk)uk ]. (6.36)

Ceci montre que la loi du processus Xt est entierement determinee parm(t) etK(s, t).Reciproquement si on se donne m(t) et K(s, t) verifiant (6.35), il existe un et unseul processus gaussien de moyenne m(t) et de matrice de covariance K(s, t) (sesrepartitions finies sont donnees par (6.36)).

6.4.4. On revient a la solution de (6.30).

Proposition 6.6.2. Si η est gaussien et F0-mesurable, le processus Xt defini par(6.33) est un processus gaussien et l’on a, posant m(0) = E(η), V (0) = K(η) =E [(η −m(0))(η −m(0))T ],

m(t) = Φ(t) [m(0) +∫ t

0Φ−1(s)f(s)ds ], (6.37)

K(s, t) = Φ(s) [V (0) +∫ s

0Φ−1(u)G(u)G(u)T(Φ−1(u))Tdu ]ΦT(t), s ≤ t. (6.38)

Preuve: Soit H(B) l’espace gaussien engendre par (Bt, t ≥ 0). Les composantes deYt =

∫ t0 Φ−1(s)G(s) dBs sont dans H(B) et donc Yt est un processus gaussien qui est

independant de η. On en deduit facilement que Xt est un processus gaussien et lesformules (6.37) et (6.38).

Soit V (t) = K(t, t). On a

V (t) = Φ(t)V (0)Φ(t)T + Φ(t)∫ t

0Φ−1(u)G(u)G(u)T(Φ−1(u))Tdu Φ(t)T. (6.39)

Un calcul elementaire montre alors que les fonctions m, V et K sont solutions desequations differentielles suivantes:

m′(t) = F (t)m(t) + f(t), m(0) = E(η), (6.40)

V ′(t) = F (t)V (t) + V (t)F T(t) +G(t)GT(t), V (0) = E[ηηT]− E(η)E(ηT), (6.41)

∂K

∂t(s, t) = K(s, t)F T(t), t > s, K(s, s) = V (s), K(s, t) = KT(t, s). (6.42)

6.4.5. On suppose F (t) ≡ F , G(t) ≡ G, f(t) ≡ 0.

Page 169: Universit´e Pierre et Marie Curie Master de sciences et

169

On a alors Φ(t) = etF =∑

n≥0tnFn

n! et

Xt = etF η +∫ t

0e(t−s)FGdBs. (6.43)

On suppose, de plus, que la matrice F a toutes ses valeurs propres de parties reellesstrictement negatives. Dans ce cas, il existe M < +∞ et λ > 0 tels que

pour tout t ≥ 0, |etF | ≤Me−λt. (6.44)

On cherche s’il existe des distributions de η pour lesquelles le processus Xt soitstationnaire (i.e., pour tout h > 0, loi de (Xt1+h, . . . , Xtn+h) = loi de (Xt1 , . . . , Xtn)).Dans ce cas, on doit avoir V (t) = V (0) = V et, vu (6.39) et (6.44), pour t→ +∞,

V = V (t) = etFV (0)etFT

+∫ t

0euFGGTeuF

T

du→∫ +∞

0euFGGTeuF

T

du.

Posons

V =∫ +∞

0euFGGTeuF

T

du. (6.45)

Lemme 6.6.3. V definie par (6.45) est solution de l’equation de Liapounov:

FV + V F T = −GGT. (6.46)

Preuve: En effet, compte tenu de (6.44),

FV + V F T =∫ +∞

0

d

dueuFGGTeuF

T

du = −GGT.

On choisit donc η, F0-mesurable, de loi Nd(0, V ). On a que V (t) = E(XtXTt ) est

solution de (6.41) et donc (unicite) V (t) = V . Alors, vu (6.42),

K(s, t) = V e(t−s)F T

, s < t, (6.47)

et, d’apres (6.36), le processus Xt est stationnaire. En resume,

Theoreme 6.6.4. (i) L’equation dXt = FXt dt + GdBt, X0 = η, η F0-mesurable,a pour solution

Xt = etF η +∫ t

0e(t−s)FGdBs.

Si η est gaussien, le processus Xt est gaussien.(ii) Si la matrice F a toutes ses valeurs propres de parties reelles strictement negativeset si η ∼ Nd(0, V ) ou V est donnee par (6.45), le processus Xt est un processusgaussien centre stationnaire de covariance K(s, t) = V e(t−s)F

T, t ≥ s.

Page 170: Universit´e Pierre et Marie Curie Master de sciences et

170 Equations differentielles stochastiques

Page 171: Universit´e Pierre et Marie Curie Master de sciences et

Chapitre 7

Processus de diffusion

7.1. Processus de diffusion

Dans ce chapitre, on s’interesse aux proprietes markoviennes des solutions des E.D.S.On se limitera au cas homogene ce qui simplifiera les notations mais ce qui est rela-tivement regrettable. Cependant si l’on a bien compris le cas homogene, il est assezfacile de se reporter a la litterature traitant du cas general.

7.1.1. Soit (E, E) un espace mesurable tel que, pour tout x ∈ E, x ∈ E .

Definition 7.1.1. On appelle processus de Markov (homogene) a valeurs (E, E) unterme X = (Ω,Ft,F , Xt, (Px)x∈E) ou(i) pour tout x ∈ E, Px est une probabilite sur (Ω,F),(ii) pour tout A ∈ F , x 7→ Px(A) est E-mesurable,(iii) pour tout t ≥ 0, Xt est une v.a. Ft-mesurable a valeurs (E, E),(iv) pour tout x ∈ E, Px(X0 = x) = 1,(v) pour tous t, h ≥ 0, tout x ∈ E, tout Γ ∈ E,

Px(Xt+h ∈ Γ | Ft) = PXt(Xh ∈ Γ) Px p.s. (7.1)

Comme d’habitude, notant Ex l’esperance pour Px, (v) implique que, pour toutef ∈ E+, Ex(f(Xt+h) | Ft) = EXt(f(Xh)). On pose alors, pour f ∈ E+,

Ptf(x) = Ex(f(Xt)). (7.2)

Pt verifie Pt1 = 1 et, pour f, g ∈ E+ et α ≥ 0, Pt(αf) = αPtf ,Pt(f + g) = Ptf +Ptg.C’est un operateur lineaire de bE dans bE . Evidemment Ptf(x) =

∫Pt(x, dy)f(y) ou

Pt(x,Γ) = Px(Xt ∈ Γ). La famille (Pt(x, dy), t ≥ 0) s’appelle la fonction de transitiondeX. Pour µ probabilite sur (E, E), on definit Pµ(A) =

∫Px(A) dµ(x) et l’on a encore,

notant Ex l’esperance pour Px,

Eµ(f(Xt+h) | Ft) = EXt(f(Xh)), Pµ p.s. (7.3)

Page 172: Universit´e Pierre et Marie Curie Master de sciences et

172 Processus de diffusion

Proposition 7.1.2. Soit X un processus de Markov a valeurs (E, E) de fonction detransition Pt. On a, pour tout x ∈ E, tous 0 ≤ t1 < . . . < tn, toute f ∈ (E⊗n)+,

Ex(f(Xt1 , . . . , Xtn)) =∫Pt1(x, dx1) . . . Ptn−tn−1(xn−1, dxn)f(x1, x2, . . . , xn). (7.4)

Preuve: Il suffit de montrer (7.4) pour f(x1, x2, . . . , xn) = f1(x1) . . . fn(xn) (vu lecor. 1.1.5). Pour n = 1, c’est (7.2). Supposons (7.4) vraie au rang n. On a alors

Ex(f1(Xt1) . . . fn+1(Xtn+1)) = Ex(f1(Xt1) . . . fn(Xtn)Ex(fn+1(Xtn+1) | Ftn))= Ex(f1(Xt1) . . . fn(Xtn)Ptn+1−tnfn+1(Xtn) = Ex(f1(Xt1) . . . (fnPtn+1−tnfn+1)(Xtn))

=∫Pt1(x, dx1)f1(x1) . . . Ptn−tn−1(xn−1, dxn)fn(xn)Ptn+1−tn(xn, dxn+1)fn+1(xn+1).

La prop. 7.1.2 implique que, pour tous s, t ≥ 0 et f ∈ E+,

Ps+tf(x) =∫Ps(x, dx1)Pt(x1, dx2)f(x2)

i.e. la propriete de semi-groupe:

Ps+t = PsPt = PtPs. (7.5)

7.1.2. Semi-groupe de Feller. Rappelons que l’on note C0 = C0(Rd) l’espace desfonctions continues sur Rd tendant vers 0 a l’infini qu’on munit de la norme ||f || =supx |f(x)|.

Definition 7.1.3. On appelle semi-groupe de Feller sur Rd une famille (Pt, t ≥ 0)d’operateurs lineaires positifs de C0 dans C0 verifiant:(i) P0 = I et, pour tout t ≥ 0, Pt1 = 1,(ii) pour tous s, t ≥ 0, Ps+t = PsPt = PtPs,(iii) pour toute f ∈ C0, ||Ptf − f || → 0 lorsque t ↓ 0.

On a donc |Ptf(x)| ≤ ||f ||Pt1(x) = ||f || d’ou ||Ptf || ≤ ||f ||.

Definition 7.1.4. Soit (Pt, t ≥ 0) un semi-groupe de Feller sur Rd. On dit quef ∈ DA et que Af = g s’il existe g ∈ C0 telle que ||1t (Ptf − f)− g|| → 0 lorsque t ↓ 0.

L’operateur (DA, A) s’appelle le generateur infinitesimal de Pt. Donnons quelquesproprietes elementaires.

Proposition 7.1.5. Si f ∈ DA, ddtPtf existe et vaut PtAf et l’on a Ptf(x)− f(x) =∫ t

0 PsAf(x) ds.

Preuve: Soit h > 0. Alors 1h(Pt+hf −Ptf) = Pt( 1

h(Phf − f)) → PtAf . Examinons laderivabilite a gauche. Soient t > 0 et h > 0 assez petit. On a

||1h

(Ptf − Pt−hf)− PtAf || ≤ ||1h

(Ptf − Pt−hf)− Pt−hAf ||+ ||Pt−hAf − PtAf ||

≤ ||Pt−h(1h

(Phf−f)−Af)||+||Pt−h(Af−PhAf)|| ≤ ||1h

(Phf−f)−Af)||+||Af−PhAf || → 0.

Page 173: Universit´e Pierre et Marie Curie Master de sciences et

173

On a donc ddtPtf(x) = PtAf(x) qui est continu en t d’ou Ptf(x)−f(x) =

∫ t0ddsPsf(x) ds =∫ t

0 PsAf(x) ds.

Si (Pt, t ≥ 0) est un semi-groupe de Feller sur Rd, il est facile de montrer al’aide de (7.4) et du th. 3.1.6, qu’il existe un processus de Markov de fonction detransition Pt mais nous n’utiliserons pas ce fait. Le lecteur peut egalement montrera titre d’exercice (resultats qui sont un cas particulier du th. 7.1.7 ci-dessous) que, sion pose,

Ptf(x) = (2πt)−d/2∫

Rd

e−|y−x|2/2tf(y) dy, f ∈ C0(Rd), (7.6)

Pt est un semi-groupe de Feller sur Rd et que (C2k ,

12∆) ⊂ (DA, A) ou ∆ =

∑di=1

∂2

∂x2i

et C2k = C2 ∩ Ck. Le processus de Markov associe est le mouvement brownien. En

particulier, on a, pour toute f ∈ C2k ,

Ptf(x) = f(x) +12

∫ t

0Ps∆f(x) ds.

7.1.3. Processus de diffusion. Soient ai,j(x), bi(x), 1 ≤ i, j ≤ d, des fonctions mesurableslocalement bornees sur Rd. On suppose que, pour tout x ∈ Rd,

ai,j(x) = aj,i(x),d∑

i,j=1

ai,j(x)θiθj ≥ 0 quel que soit θ ∈ Rd.

La matrice a(x) = (ai,j(x), 1 ≤ i, j ≤ d) est donc symetrique semi-definie positive.On pose

L =12

d∑i,j=1

ai,j(x)∂2

∂xi∂xi+

d∑i=1

bi(x)∂

∂xi. (7.7)

Definition 7.1.6. On appelle processus de diffusion de generateur L donne par (7.7)un processus de Markov X = (Ω,Ft,F , Xt, (Px)x∈E) a valeurs Rd et a trajectoirescontinues tel que, pour tout x ∈ Rd, t ≥ 0 et f ∈ C2

k ,

Ex(f(Xt))− f(x) = Ex(∫ t

0Lf(Xs) ds). (7.8)

Notons qu’alors, pour tout x, Mft = f(Xt) − f(x) −

∫ t0 Lf(Xs) ds est une Px-

martingale. En effet

Ex(Mft −Mf

s | Fs) = Ex(f(Xt)− f(Xs) | Fs)−∫ t

sEx(Lf(Xu) | Fs) du

= EXsf(Xt−s)− f(X0)−∫ t−s

0Lf(Xu) du = 0.

Utilisant les resultats du chapitre 6, nous allons construire un tel processus lorsqueL est suffisamment regulier. On suppose:

∃ σ(x) ∈M(d, d) telle que a = σσT, |σ(x)− σ(y)| ≤ A|x− y|, x, y ∈ Rd, (7.9)

Page 174: Universit´e Pierre et Marie Curie Master de sciences et

174 Processus de diffusion

|b(x)− b(y)| ≤ A|x− y|, x, y ∈ Rd. (7.10)

Soit B = (Ω, Ft, F , Bt, P) un mouvement brownien a valeurs Rd et Xt(x) la fonctionaleatoire continue en (t, x) solution de:

Xt = x+∫ t

0σ(Xs) dBs +

∫ t

0b(Xs) ds.

C’est la fonction aleatoire Xt(0, x) du th. 6.2.5. On a alors (cor. 6.3.3) pour f ∈bB(Rd),

E(f(Xt+h(x)) | Ft) = φ(Xt(x)) p.s. avec φ(y) = E(f(Xh(y))) (7.11)

et (prop. 6.2.8), pour f ∈ C2k(Rd) et t ≥ 0,

E(f(Xt(x))− f(x) = E(∫ t

0Lf(Xs(x)) ds). (7.12)

On introduit l’espace canonique:

Ω = C(R+,Rd), Xt(ω) = ω(t), Ft = σ(Xs, s ≤ t), F = σ(Xt, t ≥ 0). (7.13)

On definit une application mesurable Φx de (Ω, F) dans (Ω,F) par

Φx(ω) = (t 7→ Xt(x, ω)). (7.14)

C’est l’application qui a ω associe sa trajectoire. Soit Px l’image de P par Φx. On a

Px(A) = P(Φ−1x (A)), A ∈ F , Ex(F ) = E(F (Φx)), F ∈ bF . (7.15)

Montrons que X = (Ω,Ft,F , Xt,Px) est une diffusion de generateur L. On pose, pourf ∈ bB(Rd),

Ptf(x) = Ex(f(Xt)) = E(f(Xt(x))). (7.16)

Vu la continuite en x de Xt(x), on a Pt(Cb) ⊂ Cb. Pour la meme raison, pour fi ∈ Cb,la fonction

x 7→ Ex(f1(Xt1) . . . fn(Xtn)) = E(f1(Xt1(x)) . . . fn(Xtn(x))

est continue en x. Posant H = F ∈ bF , x 7→ Ex(F ) est borelienne, le cor. 1.1.8montre que H = bF .

Par ailleurs, d’apres (7.11), on a , pour tous t1, . . . tn ≤ t et fi, f ∈ bB(Rd),

Ex[f1(Xt1) . . . fn(Xtn)f(Xt+h)] = E [f1(Xt1(x)) . . . fn(Xtn(x))f(Xt+h(x))]= E [f1(Xt1(x)) . . . fn(Xtn(x))Phf(Xt(x))] = Ex[f1(Xt1) . . . fn(Xtn)Phf(Xt)]

et donc (cor. 1.1.8) Ex(1Af(Xt+h)) = Ex(1APhf(Xt)) pour tout A ∈ Ft i.e.

Ex(f(Xt+h) | Ft) = Phf(Xt) = EXt(f(Xh)), Px p.s.

Page 175: Universit´e Pierre et Marie Curie Master de sciences et

175

Enfin on a, vu (7.12), pour toute f ∈ C2k ,

Exf(Xt)− f(x)−∫ t

0Lf(Xs) ds = Ef(Xt(x))− f(x)−

∫ t

0Lf(Xs(x)) ds = 0

et X est bien une diffusion de generateur L.

Se pose alors la question suivante: la probabilite Px est elle determinee par (7.8) ou,ce qui est equivalent, par le fait que, pour toute f ∈ C2

k , f(Xt)− f(x)−∫ t0 Lf(Xs) ds

est une Px-martingale? On dira alors que Px est solution du probleme des martingalesPM(x, a, b). Cette notion a ete introduite par Stroock et Varadhan et s’est reveleetres feconde. On vient de montrer que, si L verifiait (7.9) et (7.10), ce probleme avaitau moins une solution. En fait sous cette hypothese, il y a aussi unicite (voir [35]) et,appelant processus de diffusion canonique un processus de diffusion defini sur l’espacecanonique (7.13), on peut enoncer:

Theoreme 7.1.7. Soit L un operateur defini par (7.7) et verifiant (7.9) et (7.10). Ilexiste un unique processus de diffusion canonique de generateur L. Soit Pt sa fonctionde transition. On a Pt(Cb) ⊂ Cb. Si, de plus, les fonctions a et b sont bornees, Pt estun semi-groupe de Feller sur Rd et (C2

k , L) ⊂ (DA, A).

Preuve: Il reste a montrer la derniere assertion si |a| ≤ K et |b| ≤ K. Soit f ∈ C0.On sait que Ptf ∈ Cb. Il s’agit de montrer que lim|x|→+∞ |Ptf(x)| = 0. On peut, vu ladensite de Ck dans C0, supposer f ∈ Ck et (vu la linearite) que |f(x)| ≤ 1 et f(x) = 0pour |x| ≥ R. On a, pour |x| ≥ max(2R, 4Kt),

|Ptf(x)| = |Ex(f(Xt))| = |E(f(Xt(x))| ≤ P(|Xt(x)| ≤ R)

≤ P(|Xt(x)− x| > |x|2

) ≤ P(|∫ t

0σ(Xs(x)) dBs| >

|x|4

)

≤ 16|x|2

E|∫ t

0σ(Xs(x)) dBs|2 =

16|x|2

E(∫ t

0|σ(Xs(x))|2 ds) ≤

16K2

|x|2

en utilisant que |∫ t0 b(Xs(x)) ds| ≤ Kt ≤ |x|

4 . Donc Ptf(x) → 0 pour |x| → +∞.

Pour toute f ∈ C2k , on a Ptf(x) − f(x) =

∫ t0 PsLf(x) ds d’ou ||Ptf − f || ≤

t||f || →t↓0 0. On en deduit, C2k etant dense dans C0 et ||Pt|| ≤ 1, que ||Ptg−g|| →t↓0 0

pour toute g ∈ C0.

Enfin, pour f ∈ C2k ,

|1t(Ptf(x)− f(x))− Lf(x))| = 1

t|∫ t

0(PsLf(x)− Lf(x)) ds|

≤ sups≤t

|PsLf(x)− Lf(x)| ≤ sups≤t

||PsLf − Lf ||

et donc ||1t (Ptf − f)− Lf || →t↓0 0 puisque Lf ∈ C0. Donc f ∈ DA et Af = Lf .

7.1.4. Comme on l’a formulee, l’hypothese (7.9) n’est pas tres satisfaisante. En effetla donnee est la matrice a et non la matrice σ et on aimerait que l’hypothese porte sur

Page 176: Universit´e Pierre et Marie Curie Master de sciences et

176 Processus de diffusion

a. Si a(x) est une famille de matrices symetriques semi-definies positives mesurableen x, il existe une famille de matrices du meme type a1/2(x) mesurable en x telle quea = a1/2a1/2 (lem. 5.10.1). Le probleme de la regularite de a1/2(x) est plus delicatsurtout si a(x) est degeneree. Deja pour d = 1, on voit que |x| est lipschitzienne cequi n’est pas le cas de

√|x|. C’est une question d’analyse dont la reponse est (voir

[35] pour une demonstration):

Proposition 7.1.8. (i) On suppose que, pour tout θ, θTa(x)θ ≥ α|θ|2, α > 0 et que,pour tous x, y, |a(x) − a(y)| ≤ A|x − y|. Alors, pour tous x, y, |a1/2(x) − a1/2(y)| ≤A

2√α|x− y|.

(ii) On suppose que a ∈ C2 et que, pour tous i, θ, x, | ∂2

∂x2iθTa(x)θ| ≤ K|θ|2. Alors

|a1/2(x)− a1/2(y)| ≤ d√

2K|x− y|.

7.2. La propriete forte de Markov

7.2.1. Operateurs de translation. On se place sur l’espace canonique (Ω,Ft,F , Xt)defini par (7.13). On definit, pour tout t ≥ 0, une application θt de Ω dans Ω parθtω(s) = ω(t+ s) i.e. Xs(θtω) = Xt+s(ω). Alors θt est une application mesurable de(Ω, σ(Xs, s ≥ t)) dans (Ω,F) et l’on a θt+u = θt θu = θu θt.

Soient Ft+ = ∩ε>0Ft+ε (voir 3.5), τ un temps d’arret de Ft+ et Ωτ = τ < +∞.On note Fτ+ la tribu des evenements anterieurs a τ pour la filtration Ft+. On definitune application θτ de Ωτ dans Ω par θτ (ω) = θt(ω) si τ(ω) = t. On a alors, pour tousΓi ∈ B(Rd),

θ−1τ (Xt1 ∈ Γ1, . . . , Xtn ∈ Γn) = Ωτ ∩ Xτ+t1 ∈ Γ1, . . . , Xτ+tn ∈ Γn

ce qui montre que θτ est une application mesurable de (Ωτ ,F|Ωτ ) dans (Ω,F).

7.2.2. La propriete forte de Markov.

Theoreme 7.2.1. Soit X = (Ω,Ft,F , Xt,Px) un processus de Markov a valeurs Rd

defini sur l’espace canonique (7.13) de fonction de transition Pt. On suppose quePt(Ck) ⊂ Cb. Alors pour toute Ψ ∈ bF ∪ F+ et tout Ft+-temps d’arret τ , on a, pourtoute loi initiale µ,

Eµ(1τ<+∞Ψ θτ | Fτ+) = 1τ<+∞EXτ (Ψ) Pµ p.s. (7.17)

Sous forme integree, cette propriete, appelee propriete forte de Markov, s’ecrit

Eµ(1τ<+∞ΦΨ θτ ) = Eµ(1τ<+∞ΦEXτ (Ψ)), Φ ∈ bFτ+, Ψ ∈ bF . (7.18)

Preuve: Elle se fait en plusieurs etapes.

(i) Soit f ∈ Ck. On a (7.3) Eµ(f(Xt+h+ε) | Ft+ε) = Phf(Xt+ε) et, conditionnant parFt+,

Eµ(f(Xt+h+ε) | Ft+) = Eµ(Phf(Xt+ε)) | Ft+) Pµ p.s.

Page 177: Universit´e Pierre et Marie Curie Master de sciences et

177

Vu que Phf ∈ Cb, lorsque ε → 0, Xt+h+ε → Xt+h et Phf(Xt+ε) → Phf(Xt) et, toutetant borne,

Eµ(f(Xt+h) | Ft+) = Eµ(Phf(Xt)) | Ft+) = Phf(Xt) Pµ p.s. (7.19)

(ii) On suppose τ a valeurs t1, . . . , tn, . . . ,+∞. On a, pour f ∈ Ck et A ∈ Fτ+, vu(7.19) puisque A ∩ τ = tk ∈ Ftk+,∫

A∩τ<+∞f(Xτ+t) dPµ =

∑k

∫A∩τ=tk

f(Xtk+t) dPµ

=∑k

∫A∩τ=tk

Ptf(Xtk) dPµ =∫A∩τ<+∞

Ptf(Xτ ) dPµ.

(iii) On suppose τ quelconque. On pose τn =∑

kk+12n 1[ k

2n ,k+12n [(τ) + (+∞)1τ=+∞.

Alors τn est un Ft+-temps d’arret et τn ↓ τ . Pour A ∈ Fτ+ ⊂ Fτn+ et f ∈ Ck, on a,vu (ii), ∫

A∩τn<+∞f(Xτn+t) dPµ =

∫A∩τn<+∞

Ptf(Xτn) dPµ

et, pour n→ +∞, par le meme argument qu’en (i),∫A∩τ<+∞

f(Xτ+t) dPµ =∫A∩τ<+∞

Ptf(Xτ ) dPµ (7.20)

Vu le cor. 1.1.7, (7.20) est vraie pour toute f ∈ bB(Rd).

(iv) D’apres le cor. 1.1.5, il suffit de montrer (7.17) pour Ψ =∏nk=1 fk(Xtk), fk ∈

bB(Rd). Pour n = 1, c’est (7.20). On suppose donc (7.17) pour le produit de n − 1fonctions. On a alors

Eµ(1τ<+∞

n∏k=1

fk(Xτ+tk) | Fτ+)

= Eµ1τ<+∞

n−1∏k=1

fk(Xτ+tk)Eµ(fn(Xτ+tn) | Fτ+tn−1+) | Fτ+

= Eµ1τ<+∞

n−2∏k=1

fk(Xτ+tk)(fn−1Ptn−tn−1fn)(Xτ+tn−1) | Fτ+

= 1τ<+∞EXτ (n−2∏k=1

fk(Xtk)(fn−1Ptn−tn−1fn)(Xtn−1)) = . . . = 1τ<+∞EXτ (n∏k=1

fk(Xtk)).

Corollaire 7.2.2. Sous les hypotheses du th. 7.2.1, on a, pour tout Fτ+-temps d’arretτ , toute U ∈ b(Fτ+ ⊗F) et toute loi initiale µ,∫

τ(ω)<+∞U(ω, θτω) dPµ(ω) =

∫τ(ω1)<+∞

∫U(ω1, ω2) dPXτ (ω1)(ω2) dPµ(ω1).

Page 178: Universit´e Pierre et Marie Curie Master de sciences et

178 Processus de diffusion

Preuve: Par le th. 1.1.3, on se ramene au cas ou U(ω1, ω2) = Φ(ω1)Ψ(ω2), Φ ∈ bFτ+,Ψ ∈ bF et c’est la formule (7.18).

Remarque. Le lecteur attentif aura note que la demonstration du th. 7.2.1 ne de-mande que la continuite a droite de Xt. La propriete forte de Markov est donc aussivalable pour un processus de Markov defini sur l’espace des applications continues adroite de R+ dans Rd s’il verifie Pt(Ck) ⊂ Cb.

7.2.3. Loi 0-1. Supposons d = 1 et soit τ = inf(t ≥ 0, Xt > 0). Alors τ est un tempsd’arret de Ft+ (prop. 3.5.5). En particulier τ = 0 ∈ F0+. C’est l’evenement “lestrajectoires penetrent instantanement dans ]0,+∞]”. Pour un tel evenement, on a,

Proposition 7.2.3. Sous les hypotheses du th. 7.2.1, on a, pour tout A ∈ F0+ ettout x ∈ Rd, Px(A) = 0 ou 1.

Preuve: En effet on a, Px p.s., 1A = Ex(1A | F0+) = EX0(1A) = Px(A).

7.2.4. Les tribus definitives. Pour un processus de Markov, le fait de se donner unefamille Px de probabilites rend plus delicat le maniement des ensembles negligeablescar il faut preciser pour quelle loi ils sont negligeables. Soit M1 l’ensemble des prob-abilites sur Rd. Pour µ ∈ M1, on note N µ les ensembles Pµ negligeables de (Ω,F).On pose ensuite

Fµt = σ(Ft,N µ), F t = ∩µ∈M1F

µt .

Proposition 7.2.4. Sous les hypotheses du th. 7.2.1, les filtrations Fµt et F t sont

continues a droite.

Preuve: Il suffit de le montrer pour chaque Fµt . Le th. 7.2.1 implique que, pour toute

U ∈ bF de la forme ΦΨ θt, on a

Eµ(U | Ft+) = Eµ(U | Ft), Pµ p.s.

Utilisant le cor. 1.1.5, on voit que cette relation est vraie pour toute U ∈ bF . PourA ∈ Ft+, on a donc 1A = Eµ(1A | Ft+) = Eµ(1A | Ft) Pµ p.s. i.e. A ∈ Ft Pµ p.s.

7.2.5. Le mouvement brownien revisite. Si on prend pour Px la loi de x + Bt, Btmouvement brownien issu de 0, on obtient le processus de diffusion canonique X =(Ω,Ft,F , Xt,Px) de generateur 1

2∆. Il a pour fonction de transition le semi groupe deFeller Pt donne par (7.6). Comme application du th. 7.2.1, retrouvons la prop. 4.5.8.

Proposition 7.2.5. Soient X = (Ω,Ft,F , Xt,Px) le mouvement brownien canoniqueet τ un Ft+-temps d’arret. Pour la loi conditionnelle Px( . | τ < +∞), Wt =Xτ+t −Xτ est un mouvement brownien issu de 0.

Preuve: Vu que, pour tout y, Ey(f(Xt1 −X0, . . . , Xtn −X0)) = E0(f(Xt1 , . . . , Xtn)),

Ex(1τ<+∞f(Wt1 , . . . ,Wtn)) = Ex(1τ<+∞f(Xt1 −X0, . . . , Xtn −X0) θτ )= Ex(1τ<+∞EXτ (f(Xt1−X0, . . . , Xtn−X0))) = Px(τ < +∞)E0(f(Xt1 , . . . , Xtn)).

Page 179: Universit´e Pierre et Marie Curie Master de sciences et

179

7.2.6. Le principe de reflexion. Soit X = (Ω,Ft,F , Xt,Px) le mouvement browniencanonique reel. On pose, pour a > 0, τa = inf(t ≥ 0, Xt = a). On sait (cor. 3.2.5) queP0(τa < +∞) = 1.

Proposition 7.2.6. Pour tout t, P0(τa < t) = 2P0(Xt > a).

Preuve: (i) Premiere preuve. On a P0(τa < t) = P0(τa < t,Xt > a)+P0(τa < t,Xt <a) (puisque P0(Xt = a) = 0) = 2P0(τa < t,Xt > a) (c’est le principe de reflexion)= 2P0(Xt > a) car Xt > a ⊂ τa < t.

(ii) Seconde preuve. On a, comme ci-dessus, P0(τa < t) = P0(Xt > a) + P0(τa <t,Xt < a). D’ou, posant U(ω1, ω2) = 1[0,t[(τa(ω1))1[0,a[(Xt−τa(ω1)(ω2)), vu le cor.7.2.2,

P0(τa < t,Xt < a) =∫U(ω, θτaω) dP0(ω)

=∫

1[0,t[(τa(ω1))Pa(Xt−τa(ω1) < a) dP0(ω1) =12

P0(τa < t).

On a donc

P0(τa < t) = 2∫ +∞

a(2πt)−1/2 exp(−x

2

2t) dx = a

∫ t

0(2πu3)−1/2 exp(− a

2

2u) du

(on a pose x = at1/2/u1/2). Le temps d’arret τa a pour densite:

a(2πu3)−1/2 exp(− a2

2u)1R+(u). (7.21)

Remarque. On a P0(τa < t) = P0(|Xt| > a) = P0(X2t > a2) = P0(tX2

1 > a2) =

P0( a2

X21< t). On voit donc que τa et a2/X2

1 ont meme loi.

7.3. E.D.P. et E.D.S.

Sur ce sujet, notre ambition est tres limitee. On suppose l’existence de solutionspour certaines equations aux derivees partielles et on montre comment ces solutionspeuvent se representer a l’aide de processus de diffusion.

7.3.1. Notations et hypotheses. On note Cmb (Rd) l’espace des fonctions numeriques,definies sur Rd, dont les derivees d’ordre ≤ m sont continues bornees et C1,m

b ([0, T ]×Rd) l’espace des fonctions numeriques f(t, x), definies sur [0, T ]×Rd, dont les deriveesd’ordre ≤ 1 en t et d’ordre ≤ m en x sont continues bornees.

Soient ai,j(x), bi(x), c(x) des fonctions de C1b (Rd). On suppose que c(x) ≥ 0, que

ai,j = aj,i et qu’il existe α > 0 tel que, pour tout λ ∈ Rd, pour tout x ∈ Rd,

d∑i,j=1

ai,j(x)λiλj ≥ α|λ|2. (7.22)

Page 180: Universit´e Pierre et Marie Curie Master de sciences et

180 Processus de diffusion

On pose

L =12

d∑i,j=1

ai,j(x)∂2

∂xi∂xj+

d∑i=1

bi(x)∂

∂xi. (7.23)

On note X = (Ω,Ft,F , Xt,Px) le processus de diffusion canonique de generateur L(th. 7.1.7).

7.3.2. Equation de la chaleur. On se donne g(t, x) ∈ C1,1b ([0, T ]×Rd) pour tout T et

φ(x) ∈ C1b (Rd). Alors il existe u(t, x) ∈ C1,2

b ([0, T ] × Rd) pour tout T verifiant (voir[14] ou [15]):

∂u

∂t(t, x) = (L− c)u(t, x) + g(t, x), u(0, x) = φ(x). (7.24)

Theoreme 7.3.1. La solution u(t, x) de (7.24) verifie:

u(t, x) = Exφ(Xt) exp(−∫ t

0c(Xs) ds)+Ex

∫ t

0g(t−s,Xs) exp(−

∫ s

0c(Xu) du) ds.

Preuve: Soit B = (Ω, Ft, F , Bt, P) un Ft-mouvement brownien a valeurs Rd. Onconsidere, x etant fixe, la solution ξs de

ξs = x+∫ s

0σ(ξu) dBu +

∫ s

0b(ξu) du.

On pose, t > 0 etant fixe,

v(s, x) = u(t− s, x), Zs = exp(−∫ s

0c(ξu) du).

Appliquant la formule d’Ito, on a

d(v(s, ξs)Zs) = −vcZ ds+ Z dv = Z∂v∂s

+ (L− c)v ds+ Z∇xv σ dBs.

Vu que ∇xv est bornee et que 0 ≤ Zs ≤ 1, E(∫ t0 Zs∇xv σ(ξs) dBs) = 0. D’autre part

∂v∂s (s, x) = −∂u

∂s (t− s, x) et donc

∂v

∂s(s, x) + (L− c)v(s, x) = −∂u

∂s(t− s, x) + (L− c)u(t− s, x) = −g(t− s, x).

On a donc

E(v(t, ξt)Zt)− E(v(0, ξ0)Z0) = E(−∫ t

0g(t− s, ξs)Zs ds),

mais, puisque u(0, ξt) = φ(ξt),

E(v(t, ξt)Zt)− E(v(0, ξ0)Z0) = E(u(0, ξt)Zt)− u(t, x) = E(φ(ξt)Zt)− u(t, x)

Page 181: Universit´e Pierre et Marie Curie Master de sciences et

181

et l’on obtient

u(t, x) = E(φ(ξt)Zt) + E(∫ t

0g(t− s, ξs)Zs ds).

On en deduit le theoreme puisque Px est la loi de ((ξt)t≥0, P).

7.3.3. Equation de la chaleur retrograde. On fixe T > 0 et on se donne g(t, x) ∈C1,1b ([0, T ]×Rd) et φ(x) ∈ C1

b (Rd). Alors il existe v(t, x) ∈ C1,2b ([0, T ]×Rd) verifiant

(voir [14] ou [15]):

−∂v∂t

(t, x) = (L− c)v(t, x) + g(t, x), 0 ≤ t ≤ T, v(T, x) = φ(x). (7.25)

Theoreme 7.3.2. La solution v(t, x) de (7.25) verifie, pour tout 0 ≤ t ≤ T ,

v(t, x) = Exφ(XT−t) exp(−∫ T−t

0c(Xs) ds)+Ex

∫ T−t

0g(t+s,Xs) exp(−

∫ s

0c(Xu) du) ds.

Preuve: Soit B = (Ω, Ft, F , Bt, P) un Ft-mouvement brownien a valeurs Rd. Onconsidere, x etant fixe, la solution ξt de

ξt = x+∫ t

0σ(ξs) dBs +

∫ t

0b(ξs) ds.

On pose, pour 0 ≤ t ≤ T ,

w(s, x) = v(t+ s, x), Zt = exp(−∫ t

0c(ξs) ds).

Appliquant la formule d’Ito, on a, pour 0 ≤ s ≤ T − t,

d(w(s, ξs)Zs) = −wcZ ds+ Z dw = Z∂w∂s

+ (L− c)w ds+ Zs∇xwσ dBs.

Comme ci-dessus E(∫ t0 Zs∇xwσ(ξs) dBs) = 0 et, puisque ∂w

∂s (s, x) + (L− c)w(s, x) =−g(t+ s, x), on a donc

E(w(T − t, ξT−t)ZT−t)− E(w(0, ξ0)Z0) = E(−∫ T−t

0g(t+ s, ξs)Zs ds),

mais

E(w(T − t, ξT−t)ZT−t)− E(w(0, ξ0)Z0) = E(v(T, ξT−t)ZT−t)− v(t, x)

et l’on obtient, puisque v(T, ξT−t) = φ(ξT−t),

v(t, x) = E(φ(ξT−t)ZT−t) + E(∫ T−t

0g(t+ s, ξs)Zs ds).

On en deduit le theoreme puisque Px est la loi de ((ξt)t≥0, P).

Page 182: Universit´e Pierre et Marie Curie Master de sciences et

182 Processus de diffusion

Si on note Xt(s, x) la position a l’instant t de la solution de l’E.D.S. partant de xa l’instant s, definie sur (Ω, Bt, P), on a

v(t, x) = E(φ(XT−t(0, x))ZT−t) + E(∫ T−t

0g(t+ s, Xs(0, x))Zs ds).

Vu que la loi de (Xs(0, x), 0 ≤ s ≤ T − t) est egale a la loi de (Xt+s(t, x), 0 ≤ s ≤T − t), on obtient:

Corollaire 7.3.3. La solution v(t, x) de (7.25) verifie

v(t, x) = Eφ(XT (t, x)) exp(−∫ T

tc(Xs(t, x)) ds)

+E∫ T

tg(s, Xs(t, x)) exp(−

∫ s

tc(Xu(t, x)) du).

7.3.4. Probleme de Dirichlet. On s’appuiera sur le resultat classique suivant (voir[17]):

Theoreme 7.3.4. On se place sous les hypotheses de 7.3.1. Soit U un ouvert bornede classe C1. Alors, pour toute g ∈ C1(U) et toute φ ∈ C(∂U), il existe une uniquefonction u ∈ C(U) ∩ C2(U) telle que

(L− c)u(x) = −g(x), x ∈ U, u(x) = φ(x), x ∈ ∂U. (7.26)

Remarque 1. Evidemment n’interviennent que les valeurs de ai,j , bi, c sur U .

Soit X = (Ω,Ft,F , Xt,Px) le processus de diffusion canonique de generateur L et

Zt = exp(−∫ t

0c(Xs) ds). (7.27)

On sait que, pour toute v ∈ C2k ,

Mvt = v(Xt)Zt − v(x)−

∫ t

0(L− c)v(Xs)Zs ds

est une Px-martingale.Soit U un ouvert borne de classe C1. On pose

τ = inf(t ≥ 0, Xt /∈ U) (7.28)

Lemme 7.3.5. supx∈U Ex(τ) < +∞.

Preuve: Appliquant le th. 7.3.4 a un ouvert regulier contenant U et pour c ≡ 0, ilest facile de construire w ∈ C2

k telle que Lw = −1 sur U . Le theoreme d’arret borneapplique a la martingale Mw

t (avec c = 0 et donc Zt = 1) donne:

Ex(w(Xt∧τ ))− w(x) = Ex(∫ t∧τ

0Lw(Xs) ds) = −Ex(t ∧ τ).

Page 183: Universit´e Pierre et Marie Curie Master de sciences et

183

On en deduit Ex(τ) = lim ↑t→+∞ Ex(t ∧ τ) ≤ 2||w||∞.

Soit u la solution de (7.26). On voudrait appliquer la formule d’Ito a u mais un’est pas de classe C2 sur tout Rd. On introduit donc

Dε = x ∈ U, d(x,U c) ≤ ε, Uε = U \Dε, τε = inf(t ≥ 0, Xt /∈ Uε). (7.29)

uε ∈ C2k , uε(x) = u(x) pour tout x ∈ Uε. (7.30)

Pour x ∈ Uε, on a, puisque Muεt est une martingale,

Ex(u(Xt∧τε)Zt∧τε)− u(x) = Ex(uε(Xt∧τε)Zt∧τε)− uε(x)

= Ex(∫ t∧τε

0(L− c)uε(Xs)Zs ds) = −Ex(

∫ t∧τε

0g(Xs)Zs ds).

Lorsque ε → 0, τε ↑ τ (continuite des trajectoires) et on obtient par le theoreme deLebesgue (puisque Ex(τ) < +∞),

Ex(u(Xt∧τ )Zt∧τ )− u(x) = −Ex(∫ t∧τ

0g(Xs)Zs ds).

Enfin, lorsque t→ +∞, t∧τ → τ , Xt∧τ → Xτ et u(Xt∧τ ) → u(Xτ ) = φ(Xτ ). CommeEx(τ) < +∞, on obtient, a nouveau par le theoreme de Lebesgue,

Ex(φ(Xτ )Zτ )− u(x) = −Ex(∫ τ

0g(Xs)Zs ds).

On a montre:

Theoreme 7.3.6. La solution u(x) de (7.26) verifie, τ etant defini par (7.28),

u(x) = Exφ(Xτ ) exp(−∫ τ

0c(Xs) ds)+ Ex

∫ τ

0g(Xs) exp(−

∫ s

0c(Xu) du).

Remarque 2. Dans cette section, on a suppose que les equations (7.24), (7.25)et (7.26) avaient des solutions et on a donne une representation probabiliste de cessolutions a l’aide de la diffusion de generateur L. On pourrait aussi partir des formulesdes th. 7.3.1, 7.3.2 et 7.3.6, et montrer que les fonctions qu’elles definissent sontsolutions des E.D.P. (7.24), (7.25) et (7.26). Ceci est particulierement interessant siL n’est pas strictement elliptique. Pour (7.24) et (7.25), c’est long mais relativementfacile. Pour (7.26), c’est plus delicat a cause de la presence du temps d’arret τ . Lemieux est souvent de combiner les deux methodes.

Page 184: Universit´e Pierre et Marie Curie Master de sciences et

184 Processus de diffusion

Page 185: Universit´e Pierre et Marie Curie Master de sciences et

Chapitre 8

Convergence en loi de processus

8.1. Convergence faible

La reference classique est [3]. On peut aussi consulter [33] et [34].

8.1.1. Soit (E, d) un espace metrique. On pose B(x, r) = y, d(x, y) < r et, pourA ⊂ E, d(x,A) = infy∈A d(x, y). On designe par Cb(E) (resp. Udb (E)) l’espace desfonctions reelles bornees et continues (resp. bornees et uniformement continues pourla distance d) sur E. La raison pour laquelle d figure en exposant pour le secondespace et non pour le premier apparaıtra en 8.1.4. Ces espaces sont munis de la norme||f || = supx∈E |f(x)|. On note B(E) la tribu borelienne de E et M1(E) l’ensembledes probabilites sur B(E).

Proposition 8.1.1. Soit µ ∈M1(E). On a, pour tout A ∈ B(E),

µ(A) = inf(µ(U), U ouvert ⊃ A) = sup(µ(F ), F ferme ⊂ A).

Preuve: Soit C = A ∈ B(E), pour tout ε > 0, il existe F ferme et U ouvert tels queF ⊂ A ⊂ U et µ(U \F ) < ε. On verifie (voir la preuve de la prop. 1.9.5) que C est unetribu et que, si F est ferme, F ∈ C puisque F = lim ↓ Un avec Un = x, d(x, F ) < 1

nouvert. Donc C = B(E).

Definition 8.1.2. Soient µn, µ ∈M1(E). On dit que µn converge faiblement vers µsi, pour toute f ∈ Cb(E),

∫f dµn →n

∫f dµ.

Remarque. Le lecteur attentif aura note qu’on appelle convergence faible ce qu’on aappele convergence etroite en 2.8.1. Ceci pour nous conformer dans chaque situationa l’usage le plus repandu.

Theoreme 8.1.3. Soient µn, µ ∈M1(E). Il y a equivalence entre(i) µn converge faiblement vers µ,(ii) pour toute f ∈ Udb (E),

∫f dµn →n

∫f dµ,

(iii) pour tout ferme F , lim supn µn(F ) ≤ µ(F ),(iv) pour tout ouvert U , lim infn µn(U) ≥ µ(U),(v) pour tout B ∈ B(E) tel que µ(∂B) = 0, limn µn(B) = µ(B).

Page 186: Universit´e Pierre et Marie Curie Master de sciences et

186 Convergence en loi de processus

Preuve: Evidemment (i)⇒(ii) et, par complementation, (iii)⇔(iv). De meme (iii) et(iv) impliquent (v) puisque

lim supn

µn(B) ≤ lim supn

µn(B) ≤ µ(B) = µ(B) = µ(B) ≤ lim inf

nµn(

B) ≤ lim inf

nµn(B).

Montrons que (ii)⇒(iii). Soient F un ferme et fk(x) = (1 + d(x, F ))−k, k ≥ 1. On afk ∈ Udb (E) et fk ↓k 1F d’ou

µ(F ) = limk

∫fk dµ = lim

klimn

∫fk dµn ≥ lim sup

nµn(F ).

Montrons que (v)⇒(i). Soient f ∈ Cb et ε > 0. On peut construire a0 < a1 < . . . < artels que ai+1 − ai < ε, f(E) ⊂]a0, ar[ et µ(f−1(ai)) = 0 (a ∈ R, µ(f−1(a)) > 0etant au plus denombrable). Soient Bi = x, ai < f(x) ≤ ai+1. Les Bi sont disjoints,µ(∂Bi) = 0 et ||f −

∑ri=1 ai1Bi ||∞ ≤ ε. On a alors

|∫f dµn −

∫f dµ | ≤ 2ε+ |

∫ r∑i=1

ai1Bi dµn −∫ r∑

i=1

ai1Bi dµ |

≤ 2ε+r∑i=1

|ai| |µn(Bi)− µ(Bi)| ≤ 3ε si n ≥ n0.

Corollaire 8.1.4. Soient µ, ν ∈M1(E). Si, pour toute f ∈ Udb (E),∫f dµ =

∫f dν,

alors µ = ν.

Preuve: Vu le th. 8.1.3, on a∫f dµ =

∫f dν pour toute f ∈ Cb(E) d’ou µ(U) = ν(U)

pour tout ouvert U puisque 1U = lim ↑ fn, fn ∈ Cb(E). On conclut par la prop.1.2.3.

Soit (F, δ) un autre espace metrique. Pour h : E → F mesurable, on pose Ch =x ∈ E, h est continue en x et on note Dh son complementaire. Pour µ ∈ M1(E),rappelons qu’on note µh−1 la probabilite sur (F,B(F )) image de µ par h (def. 1.6.3).On a donc:

µ h−1(Γ) = µ(h−1(Γ)), Γ ∈ B(F ). (8.1)

Corollaire 8.1.5. Soient µn, µ ∈ M1(E) et h : E → F mesurable. On suppose queµn converge faiblement vers µ et que Dh est µ-negligeable. Alors µn h−1 convergefaiblement vers µ h−1.

Preuve: Soit Γ un ferme de F . On a, vu que h−1(Γ) ⊂ h−1(Γ) ∪Dh,

lim supn

µn h−1(Γ) = lim supn

µn(h−1(Γ)) ≤ lim supn

µn(h−1(Γ))

≤ µ(h−1(Γ)) = µ(h−1(Γ)) = µ h−1(Γ)

et donc µn h−1 converge faiblement vers µ h−1.

Page 187: Universit´e Pierre et Marie Curie Master de sciences et

187

Corollaire 8.1.6. Soient µn, µ ∈M1(E) et h ∈ bB(E). On suppose que µn convergefaiblement vers µ et que Dh est µ-negligeable. Alors

∫h dµn →n

∫h dµ.

Preuve: D’apres le cor. 8.1.5, µnh−1 converge faiblement vers µh−1. Soit φ ∈ Cb(R)telle que φ(x) = x sur h(E). On a alors∫h dµn =

∫φh dµn =

∫φd(µnh−1) →n

∫φd(µh−1) =

∫φh dµ =

∫h dµ.

8.1.2. Soit (E, d) un espace metrique. Si H ⊂ E, (H, d) est aussi un espace metrique.Alors:

Lemme 8.1.7. Soit H ⊂ E. On a B(H) = A ∩ H, A ∈ B(E). En particulier siH ∈ B(E), B(H) = A ∈ B(E), A ⊂ H.

Preuve: Soit C = A ∩H, A ∈ B(E), C est une tribu. Soit U un ouvert de H, ona U = G ∩ H, G ouvert de E. Donc U ∈ C et C ⊃ B(H). Reciproquement soit jl’application identique de H dans E. Elle est continue donc mesurable pour les tribusboreliennes d’ou, pour tout A ∈ B(E), j−1(A) = A ∩H ∈ B(H) et C ⊂ B(H).

Supposons que H ∈ B(E). On a donc B(H) = A ∈ B(E), A ⊂ H. On dira queµ ∈M1(E) est portee par H si µ(H) = 1. Dans ce cas, la restriction de µ a H est uneprobabilite et on ecrira (un peu abusivement) µ ∈M1(H). De meme, si µ ∈M1(H),on peut prolonger µ a E en posant, pour A ∈ B(E), µ(A) = µ(A ∩H) et on ecriraaussi µ ∈M1(E).

Lemme 8.1.8. Soit H ∈ B(E).(i) Soient µn, µ ∈M1(E) portees par H. On suppose que µn converge faiblement versµ dans M1(E). Alors µn converge faiblement vers µ dans M1(H).(ii) Soient µn, µ ∈ M1(H). On suppose que µn converge faiblement vers µ dansM1(H). Alors µn converge faiblement vers µ dans M1(E).

Preuve: (i) Soit U un ouvert de H. On a U = H ∩G, G ouvert de E et

µ(U) = µ(H ∩G) = µ(G) ≤ lim infn

µn(G) = lim infn

µn(H ∩G) = lim infn

µn(U).

(ii) Soit U un ouvert de E. On a, puisque H ∩ U est un ouvert de H,

µ(U) = µ(H ∩ U) ≤ lim infn

µn(H ∩ U) = lim infn

µn(U).

8.1.3. Le cas compact. Soit (K, d) un espace metrique compact et donc separable(i.e. il existe une suite dense).

Lemme 8.1.9. L’espace C(K) est separable.

Page 188: Universit´e Pierre et Marie Curie Master de sciences et

188 Convergence en loi de processus

Preuve: Soient (xm, m ≥ 1) une suite dense dansK, fm(x) = d(x, xm)(1+d(x, xm))−1,D = 1, fm, m ≥ 0 et A l’ensemble des combinaisons lineaires finies rationnellesd’elements de D. Alors A est denombrable et c’est une algebre contenant les con-stantes et separant les points de K donc (theoreme de Stone-Weierstrass) A est densedans C(K).

L’outil essentiel sera le theoreme de Riesz que nous avons deja rencontre en 1.9.1et que nous rappelons (voir [30]).

Theoreme 8.1.10. Soit I une forme lineaire positive sur C(K) telle que I(1) = 1.Alors il existe une unique probabilite µ sur B(K) telle que, pour toute f ∈ C(K),I(f) =

∫f dµ.

Soit (fm, m ≥ 1) une suite dense dans C(K). On pose, pour µ, ν ∈M1(E),

∆(µ, ν) =∞∑m=1

12m

1 ∧ |∫fm dµ−

∫fm dν|. (8.2)

Theoreme 8.1.11. ∆ est une distance sur M1(K), ∆(µn, µ) →n 0 ssi µn convergefaiblement vers µ et l’espace (M1(K),∆) est compact.

Preuve: On pose (µ, f) :=∫f dµ. ∆ est une distance puisque ∆(µ, ν) = 0 implique

µ(fm) = ν(fm) pour tout m et donc µ(f) = ν(f) pour toute f ∈ C(K) et µ = ν.Si µn converge faiblement vers µ, ∆(µn, µ) →n 0 en vertu du theoreme de Lebesguepour les series. Si ∆(µn, µ) →n 0, µn(fm) →n µ(fm) pour tout m et donc (densite)µn(f) →n µ(f) pour toute f ∈ C(K).

Soit µn ∈M1(K). La suite µn(f0) etant bornee, il existe une suite n0k telle que

µn0k(f0) →k λ(f0). De proche en proche, on construit des suites emboıtees (n0

k, k ≥0) ⊃ (n1

k, k ≥ 0) ⊃ . . . ⊃ (nmk , k ≥ 0) . . . telles que, pour tout m, µnmk

(fm) →k λ(fm).Posant µ′k = µnk

k, on a donc que, pour tout fm, µ′k(fm) →k λ(fm). Soit f ∈ C(K).

Approchant f par des fm, on verifie facilement que µ′k(f) est une suite de Cauchyet donc λ(f) := limk µ

′k(f) existe. Mais f 7→ λ(f) est une forme lineaire positive

sur C(K) et λ(1) = 1 donc (th. 8.1.10) il existe une probabilite µ sur B(K) telleque λ(f) =

∫f dµ et, par construction, ∆(µ′k, µ) →k 0. Ceci montre que M1(K) est

compact.

8.1.4. Un peu de topologie. Soit (E, d) un espace metrique. Rappelons qu’on dit queA ⊂ E est relativement compact si A est compact et que A est relativement compactssi, de toute suite d’elements de A, on peut extraire une sous-suite convergente. Lanotion suivante est capitale pour la suite.

Definition 8.1.12. Une partie A de E est dite totalement bornee si, pour tout α > 0,A peut etre recouvert par un nombre fini de boules de rayon α.

Proposition 8.1.13. On suppose E complet. Une partie A de E est relativementcompact ssi A est totalement bornee.

Page 189: Universit´e Pierre et Marie Curie Master de sciences et

189

Preuve: (i) Supposons que A ne soit pas totalement bornee. Alors, il existe α > 0 etune suite (xn) ⊂ A tel que d(xm, xn) ≥ α pour tout m 6= n. Donc aucune sous-suiteextraite de (xn) ne peut converger et A n’est pas relativement compact.

(ii) Supposons que A soit totalement bornee et soit (xn) ⊂ A. Puisque A peut etrerecouvert par un nombre fini de boules de rayon 1, il existe I1 ⊂ N, I1 infini, tel que(xn, n ∈ I1) ⊂ B(y1, 1) puis il existe I2 ⊂ I1, I2 infini, tel que (xn, n ∈ I2) ⊂ B(y2,

12).

De proche en proche, on construit une suite de sous-ensembles infinis de N, I1 ⊃ I2 ⊃. . . ⊃ Ik ⊃ . . . tels que (xn, n ∈ Ik) ⊂ B(yk, 1

k ). On pose nk = inf(n, n ∈ Ik). Alorsxnk

est une suite de Cauchy donc convergente. Ceci montre que A est relativementcompact.

Rappelons le theoreme de completion.

Theoreme 8.1.14. Il existe un espace metrique complet (E, d) et une application jde E dans E verifiant:(i) j est une bijection de E sur j(E),(ii) j est une isometrie,(iii) j(E) est dense dans E.

L’espace (E, d) muni de ces proprietes est unique a un isomorphisme pres, ils’appelle le complete de (E, d). On a alors Udb (E) ' U db (j(E)) ' U db (E).

Une distance δ sur E est topologiquement equivalente a d si elle definit la memetopologie i.e. si l’application identique est continue de (E, d) dans (E, δ) et de (E, δ)dans (E, d).

L’espace (E, d) est separable s’il existe une suite dense dans E. L’espace (E, d)est polonais s’il est separable et complet. Plus generalement l’espace topologique Eest polonais s’il existe une distance d definissant sa topologie telle que (E, d) soitpolonais.

Il faut soigneusement distinguer les proprietes topologiques (ouverts, boreliens,compacts, separabilite, fonctions continues) qui sont invariantes par changement dedistances topologiquement equivalentes et les proprietes metriques (suites de Cauchy,ensembles totalement bornes, fonctions uniformement continues) qui dependent duchoix de la distance meme si celles-ci definissent la meme topologie.

Exemple: Soient E = [1,+∞[, d(x, y) = |x−y|, δ(x, y) = | 1x−1y |. Vu que d(xn, x) →n

0 ssi δ(xn, x) →n 0, d et δ sont topologiquement equivalentes. (E, d) est complet alorsque (E, δ) ne l’est pas vu que xn = n est une δ-suite de Cauchy. (E, d) n’est pastotalement borne alors que (E, δ) l’est puisque Bδ( 1

α , α) =]α2 ,+∞[. Le δ-complete deE est donc compact. En fait, il s’identifie a [1,+∞]. On a donc U δb (E) ' C([1,+∞]) =f, f est continue sur [1,+∞[ et a une limite lorsque x → +∞ qui est strictementinclu dans Udb (E).

8.1.5. Metrisabilite de M1(E). Soit (E, d) un espace metrique separable.

Proposition 8.1.15. (i) Il existe une distance δ sur E, topologiquement equivalentea d, telle que E soit δ-totalement borne.

Page 190: Universit´e Pierre et Marie Curie Master de sciences et

190 Convergence en loi de processus

(ii) Si (E, δ) est totalement borne, le complete (E, δ) de (E, δ) est compact et U δb (E)est separable.

Preuve: (i) On note (xm, m ≥ 1) une suite dense dans E et fm(x) = d(x, xm)(1 +d(x, xm))−1. On considere

F = [0, 1]N, D(a, b) =+∞∑k=1

12k|ak − bk|, a, b ∈ F.

Alors (F,D) est un espace metrique compact. On definit une application φ de E dansF par

φ(x) = (fm(x), m ≥ 0), x ∈ E. (8.3)

Lemme 8.1.16. L’application φ est un homeomorphisme de E sur φ(E) ⊂ F .

Preuve: Vu que x = y ssi, pour tout m, fm(x) = fm(y), φ est une bijection de E surφ(E). Evidemment φ est continue et il reste a montrer que φ−1|φ(E) l’est egalement.Supposons donc que, pour tout m, fm(yn) →n fm(y). On a alors, pour tout m,d(yn, xm) →n d(y, xm) d’ou, vu que d(yn, y) ≤ d(yn, xm)+d(xm, y), lim supn d(yn, y) ≤2d(xm, y) qui est arbitrairement petit ce qui montre que yn →n y.

On pose alorsδ(x, y) = D(φ(x), φ(y)), x, y ∈ E. (8.4)

Vu le lem. 8.1.16, δ est une distance sur E topologiquement equivalente a d. Deplus, E est δ-totalement borne puisque φ(E) est D-totalement borne d’apres la prop.8.1.13.

(ii) Soit (E, δ) “le” complete de (E, δ) et j l’injection canonique de E dans E (th.8.1.14). j etant une isometrie, j(E) est δ-totalement borne donc (prop. 8.1.13) j(E) =E est compact. On a donc U δb (E) ' U δb (j(E)) ' U δb (E) ' C(E). Donc (lem. 8.1.9)U δb (E) est separable.

On choisit alors une suite (gm, m ≥ 1) dense dans U δb (E) et on pose

∆(µ, ν) =+∞∑m=1

12m

1 ∧ |∫gm dµ−

∫gm dν|, µ, ν ∈M1(E). (8.5)

Proposition 8.1.17. ∆ est une distance sur M1(E) telle que ∆(µn, µ) →n 0 ssi µnconverge faiblement vers µ. De plus (M1(E),∆) est separable.

Preuve: Vu le cor. 8.1.4,∫gm dµ =

∫gm dν pour tout m implique que µ = ν. On en

deduit facilement que ∆ est une distance. Si µn converge faiblement vers µ, il suffitd’appliquer le theoreme de Lebesgue pour avoir ∆(µn, µ) →n 0. La reciproque resultedu th. 8.1.3. Passons a la separabilite. On considere, (xn, n ≥ 1) etant dense dans E,

V = µ ∈M1, µ =p∑

k=1

αkδxk, αk ∈ Q , W = µ ∈M1, µ =

+∞∑k=1

βkδyk, βk ∈ R, yk ∈ E .

Page 191: Universit´e Pierre et Marie Curie Master de sciences et

191

V est denombrable et V ⊃W . On peut, pour chaque n, construire une suite (An,k, k ≥1) d’ensembles mesurables non vides, deux a deux disjoints, de diametres ≤ 1

n ettels que E = ∪kAn,k. On choisit yn,k ∈ An,k et on pose, pour µ ∈ M1(E), µn =∑

k µ(An,k)δyn,k∈W . Alors, pour toute f ∈ Cb(E),

|∫f dµn −

∫f µ| ≤

∑k

∫An,k

|f(y)− f(yn,k)| dµ(y) ≤ supd(y,z)≤ 1

n

|f(y)− f(z)|.

D’ou∫f dµn →n

∫f dµ pour toute f ∈ Udb (E) et (th. 8.1.3) µn converge faiblement

vers µ. Ceci montre que V = E.

La topologie sur M1(E) associee a ∆ s’appelle la topologie de la convergencefaible. On verra en 8.1.7 que, si E est un espace polonais, M1(E) egalement.

8.1.6. Theoremes de Prokhorov. Soit (E, d) un espace metrique.

Definition 8.1.18. Une partie Γ de M1(E) est dite relativement sequentiellementfaiblement compacte si, de toute suite d’elements de Γ, on peut extraire une sous-suitefaiblement convergente (vers un element de M1(E) ).

Si E est separable, les parties relativement sequentiellement faiblement compactescoıncident avec les parties relativement faiblement compactes puisque la convergencefaible equivaut a la convergence dans l’espace metrique (M1(E),∆).

Definition 8.1.19. Une partie Γ de M1(E) est dite tendue si, pour tout ε > 0, ilexiste un compact K de E tel que, pour toute µ ∈ Γ, µ(K) ≥ 1− ε.

Theoreme 8.1.20. Si Γ ⊂ M1(E) est tendue, Γ est relativement sequentiellementfaiblement compacte.

Preuve: Soit Γ une partie tendue. On peut donc construire une suite croissanteKm de compacts tels que, pour tout m et toute µ ∈ Γ, µ(Km) ≥ 1 − 1

m . PosantS = lim ↑ Km ∈ B(E), on a alors, pour tout µ ∈ Γ, µ(S) = 1. Noter que l’espace(S, d) est separable (puisque chaque Km l’est) et que Km est un compact de S.On considere “le” complete (S, δ) de (S, δ) pour une distance δ, topologiquementequivalente a d, telle que S soit δ-totalement borne (prop. 8.1.15) et soit j l’injectioncanonique de S dans S. On a j(S) = lim ↑ j(Km) ∈ B(S) puisque j(Km) est compactet egalement µ j−1(j(S)) = 1.

Soient (µn n ≥ 0) ⊂ Γ et νn = µn j−1. Vu que S est compact, il existe (th.8.1.10) une sous-suite nk et ν ∈M1(S) telles que νnk

converge faiblement vers ν dansM1(S). Vu que ν(j(Km)) ≥ lim supk νnk

(j(Km)) ≥ 1− 1m , ν(j(S)) = 1 et (lem. 8.1.8)

νnkconverge faiblement vers ν dans M1(j(S)). Par ailleurs j−1 est une application

continue de j(S) dans S et, vu le cor. 8.1.5, νnk (j−1)−1 converge faiblement vers

ν (j−1)−1 dans M1(S) et (lem. 8.1.8) µnk= νnk

(j−1)−1 converge faiblement versν (j−1)−1 dans M1(E).

Theoreme 8.1.21. On suppose E polonais. Si Γ ⊂ M1(E) est relativement faible-ment compacte, Γ est tendue.

Page 192: Universit´e Pierre et Marie Curie Master de sciences et

192 Convergence en loi de processus

Preuve: Soit ε > 0. Notons d’abord que, vu le (iv) du th. 8.1.3, pour tous U ouvertet λ reel, µ ∈ M1(E), µ(U) ≤ λ est ferme et donc que µ ∈ M1(E), µ(U) > λest ouvert. Soit (xn, n ≥ 0) une suite dense dans E. On pose, pour tout k ∈ N,

Unk =n⋃i=1

B(xi,1k), Gnk = µ ∈M1(E), µ(Unk ) > 1− ε2−(k+1).

Gnk est ouvert et, puisque Unk ↑n E, Gnk ↑n M1(E). Vu que Γ est compact, pour tout k,il existe nk tel que Gnk

k ⊃ Γ. On a donc, pour tous µ ∈ Γ et k, µ(Unkk ) > 1−ε2−(k+1).

Considerons

K :=⋂k≥0

Unkk ⊂

nk⋃i=1

B(xi,2k) quelque soit k.

K est totalement borne et complet (puisque ferme dans E complet) donc compactet, pour tout µ ∈ Γ, µ(K) ≥ 1− ε.

Corollaire 8.1.22. On suppose E polonais. Soit µ ∈ M1(E). On a, pour tout A ∈B(E), µ(A) = sup(µ(K), K compact ⊂ A).

Preuve: On sait que (prop. 8.1.1) µ(A) = sup(µ(F ), F ferme ⊂ A). Vu le th. 8.1.21,pour tout F ferme, µ(F ) = sup(µ(K), K compact ⊂ F ). On conclut facilement.

8.1.7. Metrique de Prokhorov. Dans cette sous-section, qui peut etre omise en premierelecture, on introduit une distance sur M1(E), topologiquement equivalente a ∆, pourlaquelle M1(E) est complet si E est polonais.

Soit (E, d) un espace metrique. On note S la classe des fermes de E et, pourA ⊂ E et α > 0, Aα = x ∈ E, d(x,A) < α. Aα est ouvert et Aα ↓ A lorsque α ↓ 0.On pose, pour λ, µ ∈M1(E),

ρ(λ, µ) = inf(α > 0, λ(F ) ≤ µ(Fα) + α pour tout F ∈ S). (8.6)

Lemme 8.1.23. Si λ(F ) ≤ µ(Fα) + α pour tout F ∈ S, alors µ(F ) ≤ λ(Fα) +α pour tout F ∈ S.

Preuve: Soit Hα = E \ Fα. Hα ∈ S et F ⊂ E \Hαα d’ou

λ(Fα) = 1− λ(Hα) ≥ 1− µ(Hαα )− α ≥ µ(F )− α.

Lemme 8.1.24. ρ est une distance sur M1(E).

Preuve: Vu le lem. 8.1.1, ρ(λ, µ) = ρ(µ, λ). Si ρ(λ, µ) = 0, λ(F ) = µ(F ) pour toutF ∈ S d’ou (prop. 8.1.1) λ = µ. Enfin si α > ρ(λ, µ) et β > ρ(µ, ν), on a, pour toutF ∈ S,

λ(F ) ≤ µ(Fα) + α ≤ µ(Fα) + α ≤ ν((Fα)β) + α+ β ≤ ν(Fα+β) + α+ β

et donc ρ(λ, ν) ≤ α+ β.

Page 193: Universit´e Pierre et Marie Curie Master de sciences et

193

Lemme 8.1.25. On suppose E separable. Alors ρ(µn, µ) →n 0 ssi µn converge faible-ment vers µ.

Preuve: (i) Supposons que ρ(µn, µ) →n 0. On a, pour tous α > 0 et F ferme,µn(F ) ≤ µ(Fα) + α si n est assez grand d’ou lim supn µn(F ) ≤ µ(Fα) + α et, pourα ↓ 0, lim supn µn(F ) ≤ µ(F ). Donc (th. 8.1.3), µn converge faiblement vers µ.

(ii) Supposons que µn converge faiblement vers µ. Soit ε > 0. Puisque E est separable,il existe une partition (Ak, k ∈ N) de E avec Ak ∈ B(E) et de diametre ≤ ε/2. Onchoisit p ∈ N tel que µ(∪pk=1Ak) ≥ 1− ε/2 et on pose

I = P(1, . . . , p), G = (∪k∈IAk)ε/2, I ∈ I .

Par hypothese, G etant fini, il existe n0 tel que, pour tous n ≥ n0 et G ∈ G, µ(G) ≤µn(G) + ε/2 (th. 8.1.3). Soient F un ferme et

I0 = k ∈ 1, . . . , p, Ak ∩ F 6= ∅, F0 = (∪k∈I0Ak)ε/2 ∈ G.

On a, pour tout n ≥ n0,

µ(F ) ≤ µ(F ε/20 ) + ε/2 ≤ µn(Fε/20 ) + ε ≤ µn(F ε) + ε

et donc ρ(µ, µn) ≤ ε.

Proposition 8.1.26. On suppose que (E, d) est polonais. Alors il en est de memede (M1(E), ρ).

Preuve: Vu la prop. 8.1.17, (M1(E), ρ) est separable (c’est une propriete topologique).Soit µn une suite de Cauchy pour ρ. Pour montrer que µn converge, il suffit de montrerqu’une sous-suite converge et donc (th. 8.1.20) que µn est tendue. Soit nk une suitestrictement croissante d’entiers telle que supn>nk

ρ(µn, µnk) ≤ ε/2k+1. Pour chaque

k, il existe un compact Kk ⊂ E tel que min1≤j≤nkµj(Kk) ≥ 1− ε/2k+1. On a donc,

pour tout k,minnµn(K

ε/2k

k ) ≥ 1− ε/2k.

On pose

K =⋂k

Kε/2k

k .

On a, pour tout n, µn(K) ≥ 1− ε. K est complet (puisque ferme dans E complet) ettotalement borne donc compact (prop. 8.1.13).

8.2. Convergence en loi

8.2.1. Soit (E, d) un espace metrique. Par variable aleatoire a valeurs E, on entendune v.a. a valeurs (E,B(E)). Soient Xn, X des v.a. a valeurs E. On dit que Xn

converge en probabilite vers X si d(Xn, X) →n 0 en probabilite. Il faut noter quecette notion est topologique et non metrique. En effet:

Page 194: Universit´e Pierre et Marie Curie Master de sciences et

194 Convergence en loi de processus

Lemme 8.2.1. Si d(Xn, X) →n 0 en probabilite et si δ est une distance topologique-ment equivalente a d, δ(Xn, X) →n 0 en probabilite.

Preuve: Supposons que δ(Xn, X) ne tende pas vers 0 en probabilite. Il existe alorsα > 0 et une sous-suite (n1

k) tels que, pour tout k, δ(Xn1k, X) ≥ α puis (n2

k) ⊂ (n1k)

telle que d(Xn2k, X) →k 0 p.s. i.e. Xn2

k→k X p.s. d’ou une contradiction.

Soient X une v.a. a valeurs E et µX sa loi (avec la notation introduite en (8.1),µX = P X−1, µX est une probabilite sur (E,B(E)).

Definition 8.2.2. Soit Xn une suite de v.a. a valeurs E. On dit que Xn converge enloi vers µ ∈ M1(E) (resp vers X v.a. a valeurs E) si µXn converge faiblement versµ (resp. µX). On note alors Xn

L→ µ (resp. XnL→ X).

Proposition 8.2.3. Soient Xn, Yn des v.a. a valeurs E. On suppose que Yn convergeen loi vers µ et que d(Xn, Yn) →n 0 en probabilite. Alors Xn converge en loi vers µ.

Preuve: Soit F un ferme de E. On pose, pour α > 0, Fα = x, d(x, F ) ≤ α. AlorsFα est ferme et Fα ↓ F lorsque α ↓ 0. On a

µXn(F ) = P(Xn ∈ F ) ≤ P(Yn ∈ Fα) + P(d(Xn, Yn) > α)

d’ou lim supn µXn(F ) ≤ µ(Fα) et, pour α ↓ 0, lim supn µXn(F ) ≤ µ(F ).

Corollaire 8.2.4. Si Xn converge vers X en probabilite, Xn converge en loi vers X.

Preuve: Il suffit d’appliquer la prop. 8.2.3 avec Yn = X pour tout n.

8.2.2. Un peu d’analyse. On fixe T > 0 et on considere E = C([0, T ],Rd) muni dela norme ||w|| = sup0≤t≤T |w(t)|. Alors E est un espace de Banach separable (etdonc polonais). La section 8.1 a montre l’interet de caracteriser les compacts de E.C’est l’objet du theoreme d’Ascoli que nous revisitons. Une partie H de E est diteequicontinue si:

∀ ε > 0, ∃ δ > 0, ∀w ∈ H, ∀ s, t ∈ [0, T ] tel que |t− s| < δ, |w(t)− w(s)| < ε. (8.7)

Si on pose

VT (w, δ) = sup( |w(t)− w(s)|, s, t ∈ [0, T ], | t− s| < δ), (8.8)

H est equicontinue ssilimδ↓0

supw∈H

VT (w, δ) = 0. (8.9)

Theoreme 8.2.5. Une partie H de C([0, T ],Rd) est relativement compacte ssi:a. supw∈H |w(0)| = M < +∞,b. H est equicontinue.

Page 195: Universit´e Pierre et Marie Curie Master de sciences et

195

Preuve: (i) On suppose a et b. Soit φ(δ) = supw∈H VT (w, δ). Notons d’abord quesupw∈H sup0≤t≤T |w(t)| ≤M+ Tφ(δ)

δ < +∞. On considere une suite wn ∈ H. Soit(tm)une suite dense dans [0, T ]. Puisque, pour tout m, (wn(tm))n≥1 est bornee, il existedonc des suites emboitees (n1

k) ⊃ (n2k) ⊃ . . . (nmk ) ⊃ . . . telles que, pour tout m,

limk wnmk

(tm) existe. On a alors, posant nk = nkk, que, pour tout m, limk wnk(tm) :=

u(tm) existe. Vu b, u est uniformement continue sur A = ∪mtm qui est dense dans[0, T ], elle se prolonge de facon unique en une fonction continue, encore notee u, sur[0, T ]. De plus VT (u, δ) ≤ φ(δ). Montrons que wnk

converge vers u uniformementsur [0, T ]. Soient ε > 0, δ0 tel que φ(δ0) < ε/3, ti0 < ti1 < . . . < tiq tels que[0, T ] ⊂ ∪qj=1]tij − δ0/2, tij + δ0/2[ et k0 tel que, pour tous k ≥ k0 et tij , j = 0, . . . q,|wnk

(tij )−u(tij )| < ε/3. Alors pour t ∈ [0, T ], il existe tij tel que |t− tij | < δ0 et l’ona, pour k ≥ k0,

|wnk(t)− u(t)| ≤ |wnk

(t)− wnk(tij )|+ |wnk

(tij )− u(tij )|+ |u(tij )− u(t)| < ε.

(ii) On suppose H relativement compact. L’application w 7→ w(0) etant continue deC([0, T ],Rd) dans Rd, on en deduit immediatement que (w(0), w ∈ H) est borne. Soitε > 0. Vu l’hypothese, H est totalement borne (def. 8.1.12). Il existe donc w1, . . . , wqtels que, pour tout w ∈ H, on ait ||w − wi|| < ε/3 pour un certain i. On choisit δtel que VT (wi, δ) < ε/3, i = 1, . . . , q. On a alors pour tous s, t tels que |t− s| < δ etw ∈ H,

|w(t)− w(s)| ≤ |w(t)− wi(t)|+ |wi(t)− wi(s)|+ |wi(s)− w(s)| < ε

et H est equicontinue.

8.2.3. L’espace W = C(R+,Rd). C’est l’espace des trajectoires des processus continusa valeurs Rd. On munit W de la distance:

d(w,w′) =∞∑k=1

12k

1 ∧ sup0≤t≤k

|w(t)− w′(t)|. (8.10)

Donc d(wn, w) →n 0 ssi wn →n w uniformement sur tout intervalle borne. On verifiefacilement (exercice) que l’espace (W,d) est polonais.

Soient ξt l’application coordonnee de W dans Rd definie par ξt(w) = w(t) etG = σ(ξt, t ≥ 0). On a:

Lemme 8.2.6. G = B(W ) (tribu borelienne de W ).

Preuve: L’application ξt etant continue, on a G ⊂ B(W ). Puisque sup0≤t≤k |w(t) −w′(t)| = sup0≤t≤k,t∈Q |w(t)−w′(t)|, d(w,w′) est G ⊗ G-mesurable. Soient F un fermede W et (wn) une suite dense dans F . On a F = w, infn d(w,wn) = 0 ∈ G etB(W ) ⊂ G.

Ce lemme implique que, si (Ω,F , Xt,P) est un processus continu a valeurs Rd,l’application X : ω 7→ (t 7→ Xt(ω)) est une v.a. a valeurs W et que sa loi µX ∈M1(W ). On a immediatement:

Page 196: Universit´e Pierre et Marie Curie Master de sciences et

196 Convergence en loi de processus

Proposition 8.2.7. Soient Xn et X des processus continus a valeurs Rd. Alors Xn

converge en loi vers X ssi:(i) les repartitions finies de Xn convergent etroitement vers celles de X,(ii) la suite µXn est tendue.

Preuve: Si Xn L→ X, (i) resulte du cor. 8.1.6 et (ii) du th. 8.1.21. On suppose (i)et (ii). Si µXnk →k ν faiblement, on a, vu (i), ν = µX . Donc vu (ii) et le th. 8.1.20,

µXn →n µX faiblement et Xn L→ X.

On cherche donc a caracteriser les parties tendues de M1(W ). On commence pardecrire les compacts de W . On rappelle que VN (w, δ) a ete defini en (8.8). La fonctionw 7→ VN (w, δ) est evidemment B(W )-mesurable puisqu’il suffit de prendre le sup surles s, t ∈ Q.

Lemme 8.2.8. Soit H ⊂W . Alors H est relativement compact ssi:a. supw∈H |w(0)| < +∞,b. pour tout N ∈ N, limδ↓0 supw∈H VN (w, δ) = 0.

Preuve: Pour w ∈ W , on note wN la restriction de w a [0, N ] et, pour H ⊂ W ,HN = wN , w ∈ H. Il est facile de voir que H est relativement compact ssi, pourtout N ∈ N, HN est relativement compact dans C([0, N ],Rd). Le lemme resulte alorsdu th. 8.2.5.

Theoreme 8.2.9. Une partie Γ ⊂M1(W ) est tendue ssi:(i) limλ→+∞ supµ∈Γ µ(w, |w(0)| > λ) = 0,(ii) pour tous ε > 0 et N ∈ N, limδ↓0 supµ∈Γ µ(w, VN (w, δ) > ε) = 0.

Preuve: On suppose Γ tendue. Soit α > 0. Il existe un compact K ⊂ W tel que,pour tout µ ∈ Γ, µ(K) ≥ 1− α. D’apres le lem. 8.2.8, supw∈K |w(0)| = M < +∞ et,pour tous N et ε, supw∈K VN (w, δ) ≤ ε si 0 < δ ≤ δ0(ε,N). D’ou (i) et (ii).

On suppose (i) et (ii). Soit α > 0. Pour tout p ∈ N, il existe δp > 0 tel que

supµ∈Γ

µ(w, VN (w, δp) >1p) < α

2p+1.

On choisit λ tel que supµ∈Γ µ(w, |w(0)| > λ) < α/2 et on pose:

K =⋂p

w, Vp(w, δp) ≤1p ∩ w, |w(0)| ≤ λ.

On a, pour tout µ ∈ Γ, µ(K) ≥ 1 − α et, vu le lem. 8.2.8, K est un compact de W .Donc Γ est tendue.

Corollaire 8.2.10. Une suite (µn, n ≥ 1) de M1(W ) est tendue si:(i) limλ→+∞ lim supn µn(w, |w(0)| > λ) = 0,(ii) pour tous ε > 0 et N ∈ N, limδ↓0 lim supn µn(w, VN (w, δ) > ε) = 0.

Page 197: Universit´e Pierre et Marie Curie Master de sciences et

197

Preuve: On se ramene au th. 8.2.9 grace au:

Lemme 8.2.11. Soit un(ρ) ∈ R+. On suppose que, pour tout n, limρ↓0 un(ρ) = 0 etque limρ↓0 lim supn un(ρ) = 0, alors limρ↓0 supn un(ρ) = 0.

Preuve: Soit ε > 0. Il existe ρ0 > 0 et n1 tels que, pour tout ρ ≤ ρ0, supn≥n1un(ρ) ≤

ε puis ρ1 > 0 tel que, pour tout ρ ≤ ρ1, supn≤n1un(ρ) ≤ ε. Alors, pour tout ρ ≤ ρ0∧ρ1,

supn un(ρ) ≤ ε.

8.2.4. Le critere de Kolmogorov. Pour T > 0, on note D(T ) l’ensemble des nombresde [0, T ] de la forme kT2−n, k, n ∈ N.

Proposition 8.2.12. Etant donnes α, β > 0 et λ ∈]0, αβ [, il existe K(α, β, λ) telleque, pour tout processus (Xt, t ∈ D(T )) a valeurs Rd verifiant

E|Xt −Xs|β ≤ CT |t− s|1+α pour tous s, t ∈ D(T ),

on ait

P( sups,t∈D(T ), s 6=t

|Xt −Xs||t− s|λ

> R) ≤ K(α, β, λ)CT R−β .

Preuve: On peut se limiter a T = 1. On note D = D(1) et Dn = k2−n, k =0, . . . , 2n.

Lemme 8.2.13. Soit w : D → Rd. On pose

Uλ(w) = supn

sup1≤k≤2n

2nλ|w(k

2n)− w(

k − 12n

)|.

On a, pour tout s, t ∈ D, |w(t)− w(s)| ≤ Uλ(w) 2λ+12λ−1

|t− s|λ.

Preuve: Notons d’abord que, si u ∈ Dn, on a |w(u+2−n)−w(u)| ≤ Uλ(w) 2−nλ. Pouru ∈ D et p ∈ N, on pose up = [u2p]2−p. On a u = up+εp+12−(p+1)+. . .+εp+m2−(p+m)

avec εi = 0 ou 1 d’ou

|w(u)− w(up)| ≤∑k>p

Uλ(w)2−λk ≤ Uλ(w)(2λ − 1)−12−λp.

Soient donc s, t ∈ D, s < t et p le plus petit entier tel que 2−p < t− s. Vu le choix dep, tp = sp + ε2−p avec ε = 0 ou 1 d’ou |w(tp)−w(sp)| ≤ Uλ(w)2−λp. On a finalement

|w(t)− w(s)| ≤ |w(t)− w(tp)|+ |w(tp)− w(sp)|+ |w(sp)− w(s)|

≤ Uλ(w)(1 + 2(2λ − 1)−1)2−pλ ≤ Uλ(w)2λ + 12λ − 1

(t− s)λ.

Page 198: Universit´e Pierre et Marie Curie Master de sciences et

198 Convergence en loi de processus

On a alors, compte tenu du lem. 8.2.13, pour Ki = Ki(α, β, λ),

P( sups,t∈D, s6=t

|Xt −Xs||t− s|λ

> R) ≤ P(Uλ(X) > K1R)

≤∑n

2n∑k=1

P(2nλ|X k2n−X k−1

2n| > K1R) ≤

∑n

2n∑k=1

K2R−β2nλβE|X k

2n−X k−1

2n|β

≤ K2C1R−β

∑n

2n2nλβ2−n(1+α) = K2C1R−β

∑n

2n(λβ−α) = K3C1R−β.

Rappelons que w ∈ W est localement λ-holderienne si, pour tout T > 0, |w(t)−w(s) ≤ KT |t− s|λ pour tout s, t ∈ [0, T ].

Theoreme 8.2.14. Soit (Xt, t ∈ R+) un processus a valeurs Rd. On suppose qu’ilexiste α, β > 0 et (CT , T > 0) tels que E|Xt − Xs|β ≤ CT |t − s|1+α pour touss, t ∈ [0, T ]. Alors, pour tout λ ∈]0, αβ [, il existe une modification de Xt a trajectoireslocalement λ-holderiennes.

Preuve: On pose

An,N = ω, sup0≤s<t≤N

|Xt(ω)−Xs(ω)|(t− s)λ

≤ n, A =⋂N

⋃n

An,N .

Vu la prop. 8.2.12, on a P(⋃nAn,N ) = 1 et P(A) = 1. Si ω ∈ A, t 7→ Xt(ω) est, pour

tout N , uniformement continue sur D(N) et donc se prolonge de facon unique en unefonction continue sur R+ qui est evidemment localement λ-holderienne. Donc, si onpose,

Yt(ω) = lims→t, s∈D(R+)

Xs(ω), ω ∈ A, Yt(ω) = 0, ω ∈ Ac,

le processus Yt a ses trajectoires localement λ-holderiennes. Par hypothese, si s →t, s ∈ D(R+), Xs(ω) → Xt(ω) dans L1 et, par construction, Xs(ω) → Yt(ω) p.s.Donc, pour tout t ∈ R+, Xt = Yt p.s.

Remarque. Soient 0 = t0 < . . . < tn = t. Majorant E|Xt−X0|β par∑

E|Xti+1−Xti |βsi β ≤ 1 et ||Xt −X0||β par

∑||Xti+1 −Xti ||β si β > 1, on voit immediatement que

la condition du th. 8.2.14 implique que Xt = X0 p.s. si β ≤ 1 ou si 1 < β < 1 + α.Dans les cas non triviaux, on a donc toujours α/β < 1.

Corollaire 8.2.15. Soit (Bt, t ∈ R+) un mouvement brownien issu de 0 a valeursRd, alors, pour tout λ < 1/2, Bt a p.s. ses trajectoires localement λ-holderiennes.

Preuve: Resulte de (3.8).

Proposition 8.2.16. Soit H une famille de processus continus a valeurs Rd. Onsuppose qu’il existe α, β > 0 et (CT , T > 0) tels que, pour tout X ∈ H,∫

|ξt − ξs|β dµX ≤ CT |t− s|1+α, 0 ≤ s, t ≤ T.

Alors si la famille (µX0 , X ∈ H) est tendue dans M1(Rd), la famille (µX , X ∈ H)est tendue dans M1(W ).

Page 199: Universit´e Pierre et Marie Curie Master de sciences et

199

Preuve: Ceci resulte immediatement du th. 8.2.9 vu la prop. 8.2.12, notant que, siXt est continu,

sups,t∈[0,T ], s 6=t

|Xt −Xs||t− s|λ

= sups,t∈D(T ), s 6=t

|Xt −Xs||t− s|λ

.

8.3. Le principe d’invariance

8.3.1. Le theoreme de Donsker. Soit (Un, n ≥ 1) une suite de v.a. a valeurs Rd. Onpose

S0 = 0, Sn = U1 + . . .+ Un, n ≥ 1.

On considere le processus continu Xnt qui vaut 1√

nSk si t = k

n et qui est lineaire entrekn et k+1

n . On a donc, notant [u] la partie entiere de u,

Xnt =

1√nS[nt] +

1√n

(nt− [nt])U[nt]+1. (8.11)

Theoreme 8.3.1. On suppose que les v.a. Un sont centrees, independantes, de memeloi, de carre integrable et que Γ = E(U1U

T1 ) est reguliere. Alors Γ−1/2Xn converge en

loi vers B mouvement brownien issu de 0 a valeurs Rd.

Preuve: Pour la definition de Γ1/2, voir le lem. 5.10.1. Quitte a remplacer Un parΓ−1/2Un, on peut supposer Γ = I. On utilise la prop. 8.2.7. Pour cela, on doit montrer(i) la convergence des repartitions finies et (ii) que les µXn sont tendues.

(i) Rappelons d’abord deux resultats elementaires. Si ξn et ηn sont des v.a. a valeursRp, si ξn − ηn →n 0 en probabilite et si ηn

L→n µ, alors ξnL→n µ (prop. 8.2.3). De

meme si (ξn) et (ηn) sont des suites independantes de v.a. a valeurs Rp et Rq, siξn

L→n µ et si ηnL→n ν, alors (ξn, ηn)

L→n µ⊗ ν.

Soient 0 ≤ t1 < . . . < tp. On a Xnt1 = 1√

nS[nt1] + ηn avec ηn →n 0 en probabilite.

Vu le theoreme de la limite centrale 1√nS[nt1] =

√[nt1]√n

1√[nt1]

S[nt1]L→n N1(0, t1) et

donc Xnt1

L→n Bt1 . De la meme facon, Xntk− Xn

tk−1

L→n Btk − Btk−1. Noter que,

puisque Xntk−1+ 1

n

− Xntk−1

→n 0 en probabilite, Xntk− Xn

tk−1+ 1n

L→n Btk − Btk−1.

On pose ξn = (Xnt1 , X

nt2 −X

nt1 , . . . , X

ntp −X

ntp−1

) et ηn = (Xnt1 , X

nt2 −X

nt1+ 1

n

, . . . , Xntp −

Xntp−1+ 1

n

). Pour n assez grand, les composantes de ηn sont independantes; donc ηnL→n

(Bt1 , . . . , Btp −Btp−1) et il en est de meme de ξn puisque ξn−ηn →n 0 en probabilite.Soit φ : (x1, . . . , xp) 7→ (x1, x1 + x2, . . . , x1 + . . .+ xp), φ etant continue, on a

φ(ξn) = (Xnt1 , . . . , X

ntp)

L→n φ(Bt1 , . . . , Btp −Btp−1) = (Bt1 , . . . , Btp).

Page 200: Universit´e Pierre et Marie Curie Master de sciences et

200 Convergence en loi de processus

(ii) D’apres le cor. 8.2.10, puisque Xn0 = 0, pour montrer que les µXn sont tendues,

il suffit d’etablir que, pour tous T > 0 et ε > 0,

lim supn

P( sup|t−s|<δ,s,t≤T

|Xnt −Xn

s | > ε) →δ↓0 0. (8.12)

On commence par exprimer cette quantite a l’aide des Sn.

Lemme 8.3.2. P(sup|t−s|<δ,s,t≤T |Xnt −Xn

s | > ε) ≤ Tδ P(supr≤[nδ]+1 |Sr| > ε

16

√n).

Preuve: On a

sup|t−s|<δ,s,t≤T

|Xnt −Xn

s | ≤ 2 supk≤T/δ

supkδ<t≤(k+2)δ

|Xnt −Xn

kδ| ≤ 4 supk≤T/δ

supkδ<t≤(k+1)δ

|Xnt −Xn

kδ|

et, pour t ∈]kδ, (k + 1)δ],

|Xnt −Xn

kδ| ≤ 1√n

[S[nt] − S[nkδ] + (nt− [nt])U[nt]+1 − (nkδ − [nkδ])U[nkδ]+1]

≤ 4√n

sup[nkδ]<r≤[n(k+1)δ]

|r∑

i=[nkδ]+1

Ui |.

D’ou

P( sup|t−s|<δ,s,t≤T

|Xnt −Xn

s | > ε) ≤ P( supk≤T/δ

supkδ<t≤(k+1)δ

|Xnt −Xn

kδ| >ε

4)

≤ T

δsupk

P( supkδ<t≤(k+1)δ

|Xnt −Xn

kδ| >ε

4) ≤ T

δsupk

P( sup[nkδ]<r≤[n(k+1)δ]

|r∑

i=[nkδ]+1

Ui | >ε

16√n)

≤ T

δP( supr≤[nδ]+1

|Sr| >ε

16√n)

puisque les Ui sont independants et de meme loi.

Lemme 8.3.3. Soient λ > 0 et m ∈ N. Si mink≤m P(|Sk| ≤ λ) ≥ α > 0, on a

P(maxk≤m

|Sk| > 2λ) ≤ 1α

P(|Sm| > λ).

Preuve: On pose

Ak = |S1| ≤ 2λ, . . . , |Sk−1| ≤ 2λ, |Sk| > 2λ, Bk = |Sm − Sk| ≤ λ.

Alors Ak et Bk sont independants, P(Bk) ≥ α et |Sm| > λ ⊃ ∪mk=1Ak ∩Bk d’ou

P(|Sm| > λ) ≥m∑k=1

P(Ak ∩Bk) =m∑k=1

P(Ak)P(Bk) ≥ αP(maxk≤m

|Sk| > 2λ).

Page 201: Universit´e Pierre et Marie Curie Master de sciences et

201

On pose ε = ε16 . Vu que P(|Sr| > ε

√n) ≤ (ε2n)−1E|Sd|2 = (ε2n)−1dr, on a,

maxk≤[nδ]0+1

P(|Sk| > ε√n) ≤ d(nδ + 1)

ε2n≤ d

ε2(δ +

1n

) ≤ 12

si δ ≤ δ0(ε), δ0(ε) > 0, et n ≥ n0(ε). On peut donc utiliser le lem. 8.3.3 et on obtient

P( supr≤[nδ]+1

|Sr| > ε√n) ≤ 2P(|S[nδ]+1| >

ε

2√n), δ ≤ δ0(ε), n ≥ n0(ε).

Vu que (theoreme de la limite centrale), pour tout δ > 0,

1√nS[nδ]+1 =

√[nδ] + 1√n

1√[nδ] + 1

S[nδ]+1L→ δξ, ξ ∼ Nd(0, I),

on a P(|S[nδ]+1| > ε2

√n) →n P(|ξ| > ε

2δ ). D’ou, pour δ < δ0(ε),

lim supn

T

δP( supr≤[nδ]+1

|Sr| > ε√n) ≤ 2T

δP(|ξ| > ε

2δ) ≤ 8Tδ2

δεE|ξ|2 →δ 0.

8.3.2. Le principe d’invariance. Soit h : W → Rd continue ou mesurable avec Dh

µB-negligeable. Alors, sous les hypotheses du th. 8.3.1, h(Xn) L→ h(Γ1/2B). Donccette limite est la meme quelle que soit la suite Un. C’est ce qu’on appelle le principed’invariance ou le theoreme de la limite centrale fonctionnel. Pour calculer cette limite,on peut soit considerer le mouvement brownien, soit une suite Un particulierementsimple (en general Un = ±1).

Exemple. On suppose d = 1. On considere h(w) = sup0≤t≤1w(t). Vu que |h(w) −h(w′)| ≤ sup0≤t≤1 |w(t) − w′(t)|, h est continue. De plus h(Xn) = 1√

nsupk≤n Sk.

Supposons σ2 = 1. On a donc 1√n

supk≤n SkL→ sup0≤t≤1Bt et P( 1√

nsupk≤n Sk ≥

a) = P(sup0≤t≤1Bt ≥ a) = 2P(Bt ≥ a) d’apres la prop. 7.2.6 (les lois considereesayant des densites, on peut ecrire des inegalites larges ou strictes). Finalement, onobtient:

Proposition 8.3.4. On a pour toute suite Un de v.a.r. centrees, independantes, dememe loi, de variances σ2 < +∞ et tout a > 0, posant Sk = U1 + . . .+ Uk,

P(1

σ√n

supk≤n

Sk ≥ a) →n2√2π

∫ +∞

ae−u

2/2 du.

8.4. Probleme des martingales.

Dans cette section, on considere des applications boreliennes σ(x) et b(x) de Rr dansM(r, d) et Rr et on pose

L =12

r∑i,j=1

ai,j(x)∂2

∂xi∂xj+

r∑i=1

bi(x)∂

∂xi, a(x) = σ(x)σT(x). (8.13)

Page 202: Universit´e Pierre et Marie Curie Master de sciences et

202 Convergence en loi de processus

Les fonctions σ et b sont toujours supposees bornees (sauf dans le th. 8.4.5).

On note:

W = C(R+,Rr), ξt(w) = w(t), G = σ(ξt, t ≥ 0) = B(W ), Gt = σ(ξs, s ≤ t).

8.4.1. L’objet principal de cette section est de montrer:

Theoreme 8.4.1. On suppose σ et b continues bornees. Alors il existe une solutionfaible de E(σ, b).

Rappelons que cela signifie que, pour toute probabilite µ sur B(Rr), il existe unFt-mouvement brownien B = (Ω,Ft,F , Bt,P) issu de 0 a valeurs Rd et un processusadapte Xt continu tel que X0 ait pour loi µ et que

Xt = X0 +∫ t

0σ(Xs) dBs +

∫ t

0b(Xs) ds. (8.14)

Rappelons egalement:

Definition 8.4.2. Une probabilite P sur (W,G) est dite solution du probleme desmartingales PM(a, b) si

∀f ∈ C2k , f(ξt)− f(ξ0)−

∫ t

0Lf(ξs) ds est une P -martingale.

C’est une solution de PM(µ, a, b), µ probabilite sur B(Rr), si P ξ−10 = µ et une

solution de PM(x, a, b) si µ = δx.

On va d’abord etudier les liens entre les solutions de (8.14) et de PM(µ, a, b).

8.4.2. Soit (Ω,Ft,F , Bt, Xt,P) une solution de (8.14). On sait (formule de Ito) que, sif ∈ C2

k , f(Xt)− f(X0)−∫ t0 Lf(Xs) ds est une martingale. On verifie alors facilement

que la loi de (Xt, t ≥ 0), P = P X−1, est une solution de PM(µ, a, b). En effetP (ξ0 ∈ A) = P(X0 ∈ A) = µ(A) et, pour tous s < t, tout m ∈ N, toute Φ ∈ Cb(Rm),tous 0 ≤ s1 < . . . < sm ≤ s,

EP [Φ(ξs1 , . . . , ξsm)(f(ξt)− f(ξs)−∫ t

sLf(ξu) du)]

= E[Φ(Xs1 , . . . , Xsm)(f(Xt)− f(Xs)−∫ t

sLf(Xu) du)] = 0,

ce qui montre que f(ξt)− f(ξ0)−∫ t0 Lf(ξu) du est une P -martingale.

8.4.3. Partons maintenant d’une solution du probleme des martingales.

Lemme 8.4.3. Soit P une solution de PM(a, b). Alors, pour tout θ ∈ Rr,< θ, ξt − ξ0 −

∫ t0 b(ξs) ds > est une P-martingale de L2 de processus croissant∫ t

0 < θ, a(ξs)θ > ds.

Page 203: Universit´e Pierre et Marie Curie Master de sciences et

203

Preuve: La def. 8.4.2 implique que, pour toute f ∈ C2, f(ξt)− f(ξ0)−∫ t0 Lf(ξs) ds

est une martingale locale. Choisissant f(x) = θTx puis f(x) = (θTx)2, on a queM θt = θTξt − θTξ0 −

∫ t0 θ

Tb(ξs) ds et

U θt = (θTξt)2 − (θTξ0)2 − 2∫ t

0θTξs θ

Tb(ξs) ds−∫ t

0θTa(ξs)θ ds (8.15)

sont des martingales locales. Integrant par parties, on a:

M θt

∫ t

0θTb(ξs) ds =

∫ t

0θTb(ξs)M θ

s ds+ mart. locale

=∫ t

0θTb(ξs)θTξs ds− θTξ0

∫ t

0θTb(ξs) ds−

∫ t

0θTb(ξs)

∫ s

0θTb(ξu) du ds+ mart. locale

=∫ t

0θTb(ξs)θTξs ds− θTξ0

∫ t

0θTb(ξs) ds−

12(∫ t

0θTb(ξs) ds)2 + mart. locale.

D’ou, remplacant M θt par sa definition,

2∫ t

0θTb(ξs)θTξs ds = 2θTξt

∫ t

0θTb(ξs) ds− (

∫ t

0θTb(ξs) ds)2 + mart. locale.

Portant ceci dans (8.15), on a que

V θt = (θTξt)2−(θTξ0)2−2θTξt

∫ t

0θTb(ξs) ds+(

∫ t

0θTb(ξs) ds)2−

∫ t

0θTa(ξs)θ ds = mart. locale

et finalement

(θTξt − θTξ0 −∫ t

0θTb(ξs) ds)2 −

∫ t

0θTa(ξs)θ ds = V θ

t − 2θTξ0M θt

est une martingale locale. C’est une martingale de L2 vu le th. 4.6.10.

8.4.4. Soient une probabilite P sur (W,Gt,G) solution de PM(µ, a, b) et a(x) =σ(x)σT(x). On pose Yt = ξt − ξ0 −

∫ t0 b(ξs) ds. Alors (lem. 8.4.3), pour tout θ ∈ Rr,

θTYt est une martingale et 〈θTY 〉t =∫ t0 θ

Ta(ξs)θ ds. On applique la prop. 5.10.5 avecas = a(ξs) et σs = σ(ξs). Il existe donc un agrandissement de W , Ω = W × Ω′, . . .et un Ft-mouvement brownien Bt a valeurs Rd tels que Yt =

∫ t0 σs dBs. Mais on a,

posant Xt(w,ω′) = ξt(w), σt = σ(Xt) et Yt = Xt − X0 −∫ t0 b(Xs) ds. Donc

Xt − X0 −∫ t

0b(Xs) ds =

∫ t

0σ(Xs) dBs

et (BsXt) est une solution de E(µ, σ, b). Compte tenu de 8.4.2, on a montre:

Proposition 8.4.4. L’existence faible (resp. l’unicite faible) des solutions de E(µ, σ, b)implique l’existence (resp. l’unicite) des solutions de PM(µ, a, b) pour a = σσT.L’existence (resp. l’unicite) des solutions de PM(µ, a, b) implique l’existence faible(resp. l’unicite faible) des solutions de E(µ, σ, b) pour tout σ tel que σσT = a.

Page 204: Universit´e Pierre et Marie Curie Master de sciences et

204 Convergence en loi de processus

8.4.5. Preuve du th. 8.4.1. D’apres la prop. 8.4.4, il suffit de montrer l’existence d’unesolution de PM(µ, a, b). Il existe des fonctions σn et bn de classe C1

b telles que

αn := supx|σn(x)− σ(x)|+ sup

x|bn(x)− b(x)| → 0. (8.16)

On peut, par exemple, prendre (σn)i,j = σi,j ∗ f0, 1n

et (bn)i,j = bi,j ∗ f0, 1n

ou fm,ρ2 estdefinie par (2.7). Noter qu’on a supx,n |σn(x)|+ supx,n |bn(x)| ≤M < +∞.

Soit (Ω,Ft,F , Bt,P) un Ft-mouvement brownien a valeurs Rd et η une v.a. F0-mesurable de loi µ. Vu les resultats du chapitre 6, il existe des processus continus Xn

t

tels que

Xnt = η +

∫ t

0bn(Xn

s ) ds+∫ t

0σn(Xn

s ) dBs.

Utilisant la prop. 6.1.2, on a

E|Xnt −Xn

s |4 ≤ 8 E(∫ t

sbn(Xn

u ) du)4 + 8 E(∫ t

sσn(Xn

u ) dBu)4

≤ 8M4(t− s)4 + 8E(∫ t−s

0σn(Xn

s+u) dB(s)u )4

≤ 8M4(t− s)4 + 8K4M4(t− s)2 ≤ CN (t− s)2

pour tous 0 ≤ s < t ≤ N . Si Pn = P (Xn)−1 est la loi de Xn, on a donc

EPn |ξt − ξs|4 ≤ CN |t− s|2 pour tous 0 ≤ s, t ≤ N.

Comme les Pn ξ−10 , etant egales a µ, sont tendues, ceci implique (prop. 8.2.16) que

la suite (Pn, n ≥ 1) est tendue. Il existe donc une sous-suite convergeant faiblementet, changeant la numerotation, on peut supposer que Pn converge faiblement vers P .

D’une part, pour f ∈ Cb(Rr), µ(f) = EPn(f(ξ0)) →n EP (f(ξ0)) i.e., sous P , ξ0 apour loi µ. D’autre part on sait que, pour toute f ∈ C2

k , f(ξt)−f(ξ0)−∫ t0 Lnf(ξs) ds est

une Pn-martingale. On fixe f ∈ C2k , s < t, m ∈ N, Φ ∈ Cb(Rm), 0 ≤ s1 < . . . < sm ≤ s

et on pose

F (w) = Φ(ξs1(w), . . . , ξsm(w))(f(ξt(w))− f(ξs(w))−∫ t

sLf(ξu(w)) du)

Fn(w) = Φ(ξs1(w), . . . , ξsm(w))(f(ξt(w))− f(ξs(w))−∫ t

sLnf(ξu(w)) du).

On a F ∈ Cb(W ) et donc EPn(F ) →n EP (F ). Par ailleurs |Fn(w) − F (w)| ≤C(f,Φ, t)αn ou αn est donne par (8.16). Donc

|EP (F )− EPn(Fn)| ≤ |EP (F )− EPn(F )|+ |EPn(F − Fn)| →n 0.

Comme EPn(Fn) = 0, EP (F ) = 0. On en deduit facilement que f(ξn) − f(ξ0) −∫ t0 Lf(ξs) ds est une P -martingale et donc P est une solution de PM(µ, a, b).

Page 205: Universit´e Pierre et Marie Curie Master de sciences et

205

8.4.6. Pour montrer que, pour tout Ft-mouvement brownien Bt issu de 0, il existe unprocessus continu Xt Ft-adapte tel que (Bt, Xt) soit une solution de E(σ, b), il suffit,pour des coefficients σ et b continus bornes et vu les th.8.4.1 et 6.5.4, de montrer qu’ily a unicite trajectorielle des solutions de E(σ, b). En dimension un, ceci permet uneamelioration sensible, due a Yamada, du th.6.1.8.

Theoreme 8.4.5. Soient σ et b des applications continues de R dans R telles que,pour tous x, y ∈ R,

|b(y)− b(x)| ≤ L|y − x|, |σ(y)− σ(x)| ≤ ρ(|y − x|) (8.17)

ou ρ est une application continue croissante de R+ dans R+ verifiant ρ(0) = 0,ρ(x) > 0 si x > 0 et

∫ ε0 ρ

−2(u) du = +∞ quel que soit ε > 0. Alors il y a unicitetrajectorielle des solutions de E(σ, b).

Remarque 1. Typiquement ρ(u) = u1/2.

Preuve: Soient (Ω,Ft,F , Bt,P) un Ft-mouvement brownien issu de 0 et X1t et X2

t

deux solutions de

Xit = x+

∫ t

0σ(Xi

s) dBs +∫ t

0b(Xi

s) ds, i = 1, 2.

On pose τn = inf(t ≥ 0, |X1t | ∧ |X2

t | ≥ n). Vu la continuite, τn ↑n +∞ p.s. et, pourtout n, supt E(|X1

t∧τn −X2t∧τn |) < +∞.

Lemme 8.4.6. Pour tout ε > 0, il existe une fonction φε ∈ C2(R) telle que, pourtout x ∈ R,

|x| ≤ ε+ φε(x), |φ′ε(x)| ≤ 1, 0 ≤ φ′′ε(x)ρ2(|x|) ≤ ε.

Preuve: Puisque∫ ε0 ρ

−2(u) du = +∞, il existe une fonction continue positive α

a support inclus dans ]0, ε[ telle que 0 ≤ α ≤ ρ−2 et∫ +∞0 α(u) du = ε−1. Soit

β(u) = ε∫ u0 α(v) dv, u ≥ 0. On a 0 ≤ β ≤ 1 et β(u) = 1 si u ≥ ε. Il suffit de poser

φε(x) =∫ |x|0 β(u) du.

Appliquant la formule de Ito, on a

φε(X1t−X2

t ) =∫ t

0φ′ε(X

1s−X2

s )(σ(X1s )−σ(X2

s )) dBs+∫ t

0φ′ε(X

1s−X2

s )(b(X1s )−b(X2

s )) ds

+12

∫ t

0φ′′ε(X

1s −X2

s )(σ(X1s )− σ(X2

s ))2 ds = Z1

t + Z2t + Z3

t .

Vu le choix de τn, E(Z1t∧τn) = 0. Par ailleurs,

E(Z2t∧τn) ≤ LE(

∫ t∧τn

0|X1

s −X2s | ds) ≤ L

∫ t

0E(|X1

s∧τn −X2s∧τn |) ds,

E(Z3t∧τn) ≤ 1

2E(

∫ t∧τn

0φ′′ε(X

1s −X2

s )ρ2(|X1

s −X2s |) ds ≤ εt.

Page 206: Universit´e Pierre et Marie Curie Master de sciences et

206 Convergence en loi de processus

Finalement on obtient, pour tout t ≤ T ,

E(|X1t∧τn−X

2t∧τn |) ≤ ε+E(φε(X1

t∧τn−X2t∧τn)) ≤ ε(1+T )+L

∫ t

0E(|X1

s∧τn−X2s∧τn |) ds,

d’ou (lemme de Gronwall) E(|X1t∧τn − X2

t∧τn |) ≤ ε(1 + T )eLT et, ε etant arbitraire,E(|X1

s∧τn −X2s∧τn |) = 0 pour tout t et enfin X1 = X2 p.s.

On a donc etabli:

Corollaire 8.4.7. Soient (Ω,Ft,F , Bt,P) un Ft-mouvement brownien reel issu de 0et σ, b des applications bornees de R dans R verifiant (8.17). Pour toute v.a. η ∈ [F0],il existe un unique processus continu Xt solution de

Xt = η +∫ t

0σ(Xs) dBs +

∫ t

0b(Xs) ds.

Remarque 2. Reprenant la methode de localisation de la preuve du th. 6.4.1, onpeut traiter le cas de σ et b non bornes. En particulier la conclusion du cor. 8.4.7reste valable si σ et b verifient (8.17) et |σ(x)| ≤ L(1 + |x|).8.4.7. Un des interets de la formulation en termes de probleme des martingales estle resultat suivant (voir [35] ou [32]):

Theoreme 8.4.8. Supposons que, pour tout x ∈ Rr, le probleme des martingalesPM(x, a, b) ait une unique solution Px et que, pour tout A ∈ B(Rr) et tout t > 0,l’application x → Px(ξt ∈ A) soit mesurable, alors (ξt, (Px)x∈Rd) est un processus deMarkov de fonction de transition Pt(x,A) = Px(ξt ∈ A).

Page 207: Universit´e Pierre et Marie Curie Master de sciences et

Bibliographie

[1] P. Baldi, L. Mazliak, P. Priouret: Martingales et chaınes de Markov. Hermann.2000

[2] P. Billingsley: Probability and Measure. Wiley and Sons. 1979

[3] P. Billingsley: Convergence of Probability Measure. Wiley and Sons. 1968

[4] N. Bouleau: Processus stochastiques et applications. Hermann. Paris, 1988

[5] N. Bouleau, D. Lepingle: Numerical Methods for Stochastic Processes. Wiley.1994

[6] K.L. Chung, R.J. Williams: Introduction to Stochastic Integration. Birkhauser.1990

[7] C. Dellacherie, P-A Meyer: Probabilites et Potentiel. Vol 1. Hermann. Paris, 1976

[8] C. Dellacherie, P-A Meyer: Probabilites et Potentiel. Vol 2. Hermann. Paris, 1980

[9] R. Durrett: Brownian Motion and Martingales in Analysis. Wadsworth. 1984

[10] R. Durrett: Stochastic Calculus. CRC Press. 1996

[11] R. Durrett: Essentials of Stochastic Processes. Springer. 1999

[12] G.A. Edgar, L. Sucheston: Stopping Times and Directed Processes. CambridgeUniversity Press. 1992

[13] S.N. Ethier, T.G. Kurtz: Markov Processes. Characterization and Convergence.Wilet and Sons. 1986

[14] A. Friedman: Partial Differential Equations of Parabolic Type. Printice Hall.1964

[15] A. Friedman: Stochastic Differential Equations and Applications. Vol 1. Aca-demic Press. 1975

[16] A. Friedman: Stochastic Differential Equations and Applications. Vol 2. Aca-demic Press. 1976

Page 208: Universit´e Pierre et Marie Curie Master de sciences et

208 BIBLIOGRAPHIE

[17] D. Gilbarg, N.S. Trudinger: Elliptic Partial Differential Equations of SecondOrder. Springer. 1977

[18] N. Ikeda, S. Watanabe: Stochastic Differential Equations and Diffusion Pro-cesses. North Holland. 1981

[19] J. Jacod, P. Protter: Probability Essentials. Springer. 2000

[20] J. Jacod, A.N. Shiryaev: Limit Theorems for Stochastic processes. Springer. 1987

[21] L. Karatzas, S. Shreve: Brownian Motion and Stochastic Calculus. Springer. 1987

[22] D. Lamberton, B. Lapeyre: Introduction au calcul stochastique applique a lafinance. Ellipses. 1992

[23] B. Lapeyre, E. Pardoux, R. Santis: Methodes de Monte-Carlo pour les equationsde transport et de diffusion. SMAI-Springer. 1998

[24] G. Letac: Integration et probabilites, analyse de Fourier et analyse spectrale.Exercices. Masson. 1997

[25] R.S. Lipster, A.N. Shiryaev: Statistics of Random processes. Vol I. General The-ory. Springer. 1977

[26] R.S. Lipster, A.N. Shiryaev: Theory of Martingales. Kluwer Academic Publish-ers. 1989

[27] J. Neveu: Martingales a temps discret. Masson. 1972

[28] B. Oksendal: Stochastic Differential Equations. Springer. 1998

[29] P. Priouret: Processus de iffusion et equations differentielles stochastiques. Ecoled’ete de probabilites de Saint-Flour III. Lectures Notes in Mathematics. Vol 390.Springer. 1974

[30] D. Revuz: Mesures et integration. Hermann. 1994

[31] D. Revuz: Probabilites. Hermann. 1997

[32] D. Revuz, M. Yor: Continuous Martingales and Brownian Motion. Springer. 1991

[33] L.C.G. Rogers, D. Williams: Diffusions, Markov Processes and Martingales. Vol1: Fondations. Vol 2: Ito Calculus. Wiley and sons. 1987

[34] D.W. Stroock: Probability Theory: An Analytic View . Cambridge UniversityPress. 1993

[35] D.W. Stroock, S.R.S. Varadhan: Multidimensional Diffusion Processes .Springer. 1979

Page 209: Universit´e Pierre et Marie Curie Master de sciences et

BIBLIOGRAPHIE 209

[36] D. Williams: Probability with Martingales. Cambridge Math.Textbooks. Cam-bridge. 1991

[37] B.Ycart: Simulation des variables aleatoires, http://www.math-info.univ-paris5.fr/ ycart 1999

Page 210: Universit´e Pierre et Marie Curie Master de sciences et

210 BIBLIOGRAPHIE

Page 211: Universit´e Pierre et Marie Curie Master de sciences et

A

Index des notations

1.2.3 renvoie chapitre 1, section 2, sous-section 3.

a(M) 5.10.2, 5.10.5 |dVs| 5.9.1Ac (A ensemble) 1.1.5 dXt 5.4.3|A|, A matrice, 6.1.1 Dh 8.1.1AT (A matrice) 2.4.1 D(T ) 8.2.4A1/2 (A ∈ S+(d)) 5.10.1 D2

xf 6.1.3Ac 5.1.2 (DA, A) 7.1.2

B(r, p) 2.3.2 e.v. [H] 1.4.3B 1.2.3 (E,B, µ) 1.2.2[B] 1.1.5 E(σ, b) 6.1.4B+ 1.1.5 E(η, σ, b) 6.4.1bB 1.1.5 E(µ, σ, b) 6.5.1eB+ 1.1.5 E(X) 2.1.3B(R), B(R+), B(Rd) 1.1.2 E(X|B) 4.1.2B1 ⊗ B2 1.7.1 EB(X) 4.1.2

E(X|T ) 4.1.4C0 1.4.3, 1.9.1 E 5.2.1Cb 1.9.1Ck 1.9.1 f+, f− 1.1.4C2k 7.1.2 fm,σ2 2.3.2

C∞k 4.4.3 FX 2.3.3.Cmb (Rd) 7.3.1 F∞ 3.5.1C1,2(R+ × Rd) 5.4.4 F0

t 3.4.2C1,mb ([0, T ]× Rd) 7.3.1 FB

t 3.4.5Cov 2.4.3 Fν 3.5.5

Fτ 3.5.1d(x, y) 1.4.1 Ft+ 3.4.1d(x,A) 8.1.1 Fτ+ 7.2.1

Page 212: Universit´e Pierre et Marie Curie Master de sciences et

212 Index des notations

gX 2.5.5 O(d) 5.10.1gσ(x) ??.3, 1.8.2G(a, c) 2.3.2 p.p. 1.2.3

p.s. 1.2.3, 2.1.1H(X) 5.7.1 P(A|B) 2.1.2H ·M 5.9.2 PM(a, b) 7.1.3, 8.4.1H2c 4.5.5 PM(x, a, b) 8.4.1

H2c(d) 5.10.2 PM(µ, a, b) 8.4.1

P(λ) 2.3.2J(φ) 2.4.2 Prog 3.4.3

K(X) 2.4.3 Su 1.11.1Sc 5.9.5

lim inf fn 1.1.4 S+(d) 5.10.1lim sup fn 1.1.4lim supAn 2.2.2 Tr(A) 6.1.1L 7.1.3, 7.3.1Ls 6.2.3 U(a, b) 2.3.2Lp, Lp(E,B, µ) 1.4.4 Udb (E) 8.1.1L1loc(R+,m) 1.11.2

LpC 1.4.8 v.a 2.1.3Lpd 2.4.1 v.a.r. 2.1.3L0(M) 5.9.4, 5.10.5 Var 2.3.2L2(M) 5.9.2, 5.10.3 Vc 5.1.1L2

0(M) 5.10.3 VT (w, δ) 8.2.2L1, L1(E,B, µ) 1.3.2L1

C, L1C(E,B, µ) 1.3.2 W = C(R+,Rd) 8.2.3

L1loc(R+,m) 1.11.2

Lp, Lp(E,B, µ) 1.4.4 Xν 4.4.330 L0(X) 5.4.2 Xτ 4.5.2L→ 8.2.1 Xη 6.1.6

Xt(s, x) 6.2.2M(r, d) 6.1.1 X ·A 2.3.1M1 2.8.1, 7.2.4 X · V 2.3.2M1(E) 8.1.1 〈X,Y 〉 5.4.1, 5.9.5Mb 1.8.1Mlocc 5.1.3

Mlocc (d) 5.10.5 Γ(a) 2.3.2

〈M〉 4.6.4〈M,N〉 5.1.4 δa 1.2.2〈〈M〉〉 5.10.2, 5.10.5 ∂A, (A ensemble) 2.8.1

∆(µ, ν), µ, ν ∈M1(E), 8.1.3, 8.1.5N1(m,σ2) 2.3.2 ∆u 5.4.5Nd(m,K) 2.6.1

Page 213: Universit´e Pierre et Marie Curie Master de sciences et

Index des notations 213

θt, θτ 7.2.1 σ(X) 1.1.7σ(Xi, i ∈ I) 1.1.7

Λ0 5.2.5Λ2 5.2.2 φX 2.5.2Λ2(T ) 5.2.2Λ0d 5.3.1 ψX 2.5.4

Λ2d 5.3.1

Ωτ 7.2.1µ h−1 1.6.3, 8.1.1 (Ω,A,P) 2.1.1µ 2.5.1µX 2.1.3 ∇xf 6.1.3µ λ 1.10.2µ1 ⊗ µ2 1.7.1 1A 1.1.5µ ∗ ν 2.5.1|µ|, µ+, µ− 1.10.2 An ↑ A, An ↓ A 1.2.2

fn ↑ f , fn ↓ f 1.1.4νM 5.9.2, 5.10.2

x ⊥ y, M⊥ 1.5.2ρ(U, V ) 2.4.3ρ(λ, µ), λ, µ ∈M1(E), 8.1.7 || ||p 1.4.4ρ(M,N) 5.10.2 || ||2,d 5.7.2

|| ||H2c

5.9.2σ2(X) 2.3.1 || ||Λ2 5.2.2σ(C) 1.1.1 || ||L2(M) 5.9.2

Page 214: Universit´e Pierre et Marie Curie Master de sciences et

214 Index des notations

Page 215: Universit´e Pierre et Marie Curie Master de sciences et

B

Index des termes

1.2.3 renvoie chapitre 1, section 2, sous-section 3.

absolument continue 1.10.2 convergence en probabilite 2.7.1accroissements independants (processus a) 3.1.7 convergence etroite 2.8.1adapte (processus) 3.4.2 convergence faible 8.1.1agrandissement (d’un espace de prob.) 5.10.6 convergence monotone (theoreme de) 1.3.3algebre (d’ensembles) 1.1.1 convergence presque sure 2.7.1algebre (de fonctions) 1.4.3 convolution (produit de) 1.8.1arret (theoreme d’) 4.4.3, 4.5.2 convexe 1.5.2Ascoli (theoreme d’) 8.2.2 correlation (coefficient de) 2.4.3

covariance 2.4.3Banach (espace de) 1.4.1 covariance (fonction de) 3.2.1Beppo-Levi (th.de) 1.3.3 covariance (matrice de) 2.4.3Bienayme-Tchebichev (inegalite de) 2.3.1 crochet (de deux martingales) 5.1.3binomiale (loi) 2.3.2, 2.5.3 croissant (processus) 4.6.4Borel-Cantelli (lemme de) 2.2.4borelienne (tribu) 1.1.2 densite 2.1.3borelienne (fonction) 1.1.3 differentielle stochastique 5.4.3, 6.1.3bornee (mesure) 1.2.2 diffusion (processus de) 7.1.3brownien (mouvement) 3.1.7 Dirac (mesure de) 1.2.2brownien (Ft-mouvement) 3.4.4 Dirichlet (probleme de) 5.4.5, 7.3.4Burkholder-Davis-Gundy (inegalite de) 5.9.9 Donsker (theoreme de) 8.3.1

Doob (decomposition de) 4.4.2canonique (processus) 3.1.4 Doob (inegalite de) 4.4.4, 4.5.1caracteristique (fonction) 2.5.2 Dubbins-Schwarz (theoreme de) 5.9.6Caratheodory (th. de) 1.2.4centree (variable aleatoire) 2.3.1 E.D.S. 6.1.4, 6.3.3complet (espace mesurable) 1.2.3 E.D.S. lineaires 6.6.2complete (filtration) 3.4.1 equation de la chaleur 7.3.2complete (espace metrique) 8.1.4 equation de la chaleur retrograde 7.3.3convergence en loi 2.8.2, 8.2.1 equicontinue (partie) 8.2.2

Page 216: Universit´e Pierre et Marie Curie Master de sciences et

216 Index des termes

equivalents (processus) 3.1.1 integrable (fonction) 1.3.1escaliers (fonction en) 1.9.2 integrale stochastique 5.2.2, 5.9.2esperance 2.1.3 invariance (principe d’) 8.3.2esperance conditionnelle sachant B 4.1.2 Ito (formule d’) 5.4.3, 5.9.5esperance conditionnelle sachant T 4.1.4 Ito (processus d’) 5.4.1, 6.1.3etage (processus) 5.2.1 Ito (solution d’) 6.1.6etagee (fonction) 1.1.5etroite (convergence) 2.8.1 Jensen (inegalite de) 2.3.1evenement 2.1.1

Kolmogorov (critere de) 8.2.4Fatou (lemme de) 1.3.3 Kolmogorov (theoreme de) 3.1.2Feller (semi-groupe de) 7.1.2 Kunita-Watanabe (inegalite de) 5.9.1fermee (sous-martingale) 4.3.1filtration 3.4.1 Laplace (transformee de) 2.5.4filtration continue a droite 3.4.1 Lebesgue (mesure de) 1.2.4, 1.7.3filtration standard 3.4.1 Levy (theoreme de) 2.8.3filtre (espace de probabilite) 3.4.1 Liapounov (equation de) 6.4.5fonction aleatoire 6.2.2 limite centrale (theoreme de la) 2.8.5Fourier (transformee de) 1.8.2 localisation 5.3.2, 6.1.5Fubini (theoreme de) 1.7.1 loi (d’une variable aleatoire) 2.1.3

loi 0-1 2.2.3, 7.2.3gamma (loi) 2.3.2, 2.5.3 lois conditionnelles 4.2.5gaussien (espace) 5.7.1 loi des grands nombres 2.7.4, 4.4.6gaussien (processus) 3.1.7gaussien (vecteur) 2.6.1 marginales (lois) 2.4.2gaussienne (loi) 2.6.1 Markov (inegalite de) 2.3.1gaussienne (v.a.r.) 2.6.1 Markov (processus de) 7.1.1generateur (d’une diffusion) 7.1.3 Markov (propriete forte de) 7.2.2generateur infinitesimal 7.1.2 martingale 4.3.1generatrice (fonction) 2.5.5 martingale exponentielle 5.5.1, 5.9.7geometrique (loi) 2.3.2 martingale generalisee positive 4.3.1geometrique (mouvement brownien) 6.4.1 martingale locale 4.6.1Girsanov (theoreme de) 5.6, 5.9.8 martingale vectorielle 5.10Gronwall (lemme de) 6.1.5 martingales (probleme des) 8.4.1

maximales (inegalites) 4.4.4, 4.5.1Hilbert (espace de H. reel) 1.5.1 mesurable (application) 1.1.3Hilbert (espace de H. complexe) 1.5.3 mesurable (espace) 1.1.1Holder (inegalite de) 1.4.2 mesurable (processus) 3.1.2holderienne (fonction) 8.2.4 mesure 1.2.2

mesure (espace) 1.2.2image (mesure) 1.6.3 mesure a densite 1.6.2independance (evenements) 2.2.2 Minkowski (inegalite de) 1.4.2independance (variables aleatoires) 2.2.2 modification (d’un processus) 3.1.1independance (tribus) 2.2.1 moments (d’une variable aleatoire) 2.3.1independance de X et de B 4.2.1 monotone (theoreme de la classe) 1.1.6indicatrice (fonction) 1.1.5 moyenne (d’une variable aleatoire) 2.3.1indistinguables (processus) 3.1.1

Page 217: Universit´e Pierre et Marie Curie Master de sciences et

Index des termes 217

negligeable (ensemble) 1.2.3 separable (espace) 8.1.4normale (loi) 2.3.2, 2.5.3 sequentiellement faiblement compact 8.1.6norme 1.4.1 signee (mesure) 1.10.1Novikov (critere de) 5.5.3 solution forte (d’une E.D.S.) 6.5.1

solution faible (d’une E.D.S.) 6.5.1orthogonal 1.5.2 sortie (mesure de) 5.9.8

sous-martingale 4.3.1Poisson (loi de) 2.3.2, 2.5.3 Stone-Weierstrass (theoreme de) 1.4.3polonais (espace) 8.1.4 stoppe (processus) 4.4.1presque partout 1.2.3 surmartingale 4.3.1presque surement 1.2.3 surmartingale generalisee positive 4.3.1principe d’invariance 8.3.1 σ-additivite 1.2.2probabilite 1.2.2 σ-finie (mesure) 1.2.2probabilite (espace de) 2.1.1probabilite conditionnelle elementaire 2.1.2 temps d’arret 3.5.1probabilite conditionnelle sachant B 4.1.2 temps d’entree 3.5.3processus 3.1.1 tendue (famille de probabilites) 8.1.6produit (mesure) 1.7.1 totale (partie) 4.4.3progressif (ensemble) 3.4.3 totalement borne 8.1.4progressif (processus) 3.4.3 trajectoire 3.1.1projection orthogonale 1.5.2 trajectorielle (unicite) 6.3.3Prokhorov (metrique de) 8.1.7 translation (operateur de) 7.2.1Prokhorov (theoremes de) 8.1.6 transition (fonction de) 7.1.1

tribu 1.1.1Radon (mesure de) 1.9.1Radon-Nikodym (th.de) 1.10.2 uniforme integrabilite 2.10.1reduite (variable aleatoire) 2.3.1 uniforme (loi) 2.3.2reflexion (principe de) 7.2.6reguliere (martingale) 4.3.3 variable aleatoire 2.1.3reguliere (mesure) 1.9.2 variation finie (fonction a) 1.11.1repartitions finies 3.1.3 variation finie (processus a) 5.1.2repartition (fonction de) 2.3.3 variation totale 1.11.1Riesz (theoreme de) 1.9.1, 8.1.3 vecteur aleatoire 2.4.2

Schwarz (inegalite de) 1.5.1 Yamada (theoreme de) 8.4.6semi-martingale 5.9.5 Yamada-Watanabe (theoreme de) 6.3.3