Calcul Calcul stochastiqu stochastique e M2 Mat Math´ h´emati ema tique quess Jean-Christophe Breton Universit´ Uni versit´e de Renn Rennes es 1 SeptembreSept embre-D´ D´ecembre ecembr e 2014 201 4
Version du 20/10/14
2
Table ble des des mat mati` eres 1 Form ormule ule d’I d’Itˆ tˆ o et co cons´ ns´equen equ ences ces 1.1 Form ormule ule d’I d’Itˆ tˆ o . . . . . . . . . . . . . . . . . . 1.2 Th Th´´eor` eo r`eme em e de L´evy ev y . . . . . . . . . . . . . . . 1.3 Dub Dubins ins-Sc -Schw hwarz arz . . . . . . . . . . . . . . . . . 1.4 In´egalit´ egalit´es es de Burkholder-DavisBurkho lder-Davis-Gundy Gundy . . . . 1.5 Repr´ esentation des esentation des martingales (browniennes) (browniennes) 1.6 Form ormule ule de Tanak anakaa . . . . . . . . . . . . . . .
. . . . . .
1 1 11 12 14 20 23
. . . .
27 28 30 32 34
. . . . . . . .
41 41 43 43 45 45 51 53 60
. . . .
63 63 67 72 73
5 Diffu Diffusi sion onss 5.1 G´en´ en´erateur erat eur d’une diffusio diffu sion n . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Sem Semi-g i-grou roupe pe d’un d’unee diffu diffusio sion n . . . . . . . . . . . . . . . . . . . . . . . . . .
75 75 77
2 Th´eor` eor`eme eme de Gir Girsa sanov nov 2.1 Log Logari arithm thmee stoc stochas hastiq tique ue . . . . . 2.2 Th´eor` eor`eme eme de Girsan Gir sanov ov . . . . . . 2.3 Uti Utilis lisati ation on de Gir Girsan sanov ov . . . . . . 2.4 Gir Girsan sanov ov dans dans le cadr cadree browni brownien en .
. . . .
. . . .
. . . .
´ 3 Equations diff´ erentielles stocha erentielles stochastiques stiques 3.1 Introduction, d´efinitions efinitions . . . . . . . . 3.22 Ex 3. Exem empl ples es d’ d’ED EDS S . . . . . . . . . . . . ´ 3.2.1 Equa Equation tionss lin´eaires eai res . . . . . . . ´ 3.2.2 Equations affines . . . . . . . . 3.3 Existence et unicit´ unicit´e . . . . . . . . . . . 3.4 Uti Utilis lisati ation on de Girs Girsano anov v pour les les EDS . 3.5 Flo Flott sur sur l’esp l’espace ace de Wie Wiener ner . . . . . . 3.6 Marko Markov v fort pour EDS homog`ene ene . . . 4 Mouve Mouvemen mentt browni brownien en et EDP EDP 4.1 Foncti onctions ons harmo harmonique niquess . . . . 4.2 Probl`eme eme de Dirichlet . . . . . ´ 4.3 Equation de la chaleur . . . . 4.4 Form ormule ule de Feynm eynman-Kac an-Kac . .
. . . .
. . . .
. . . .
. . . .
i
. . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .
Table des mati`eres
ii 5.3 Diffusion et EDP . . . . . . . . . . . . . 5.3.1 EDP de type Dirichlet . . . . . . 5.3.2 Formule de Feynman-Kac . . . . 5.4 Probl`eme de martingales . . . . . . . . . 5.4.1 Introduction . . . . . . . . . . . . 5.4.2 EDS et probl`eme de martingales .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
81 82 83 85 85 87
Introduction Ces notes de cours ont pour but de pr´esenter le mouvement brownien et l’int´egration stochastique. d’introduire au calcul stochastique et `a ses outils fondamentaux Elles sont principalement destin´ees aux ´etudiants du Master 2 « Math´ematiques et applications » de l’Universit´e de Rennes 1. Ces notes ont plusieurs sources d’inspiration, principalement [LG1] mais aussi les notes de cours [Gu´e], [EGK], [CM], [Mal]. Par ailleurs, des r´ef´erences standard conseill´ees sur le sujet sont les livres [KS], [RY]. Le contenu de ces notes est le suivant : Les propri´et´es de l’int´egrale stochastique, en particulier la formule d’Itˆo et le th´eor`eme de Girsanov, sont des outils qui fondent le calcul stochastique ; ils sont pr´esent´es dans les Chapitres 1 et 2. On pr´esente la notion d’´equation diff´erentielle stochastique (EDS) `a laquelle on donne un sens grˆace `a l’int´egration stochastique, dans le Chapitre 3. Le calcul stochastique et la formule d’Itˆo en particulier permettent de cr´eer des liens f´econds entre processus stochastiques et EDP. Ils sont illustr´es dans le Chapitre 4 par les liens entre mouvement brownien et ´equation de la chaleur. On s’int´eresse ensuite aux processus de diffusion, qui sont des solutions d’EDS particuli`eres. On le introduit dans le chapitre 5. Des r´ef´erences valables pour tous les chapitres sont [LG1], [Gu´e], [EGK], [KS], [RY], [CM] et [Mal]. Les pr´erequis de ce cours sont des probabilit´es de base (des fondements des probabilit´es aux cons´equences de la LGN et du TCL – niveau L3) , les martingales en temps discret (niveau M1), , le mouvement brownien et l’int´ egration stochastique.
iii
iv
c JCB – M2 Math. – Universit´e de Rennes 1
Chapitre 1 Formule d’Itˆ o et cons´ equences Dans ce chapitre, on prouve la formule d’Itˆo, v´eritable clef de voˆute du calcul stochastique. Celle-ci montre que lorsqu’on applique une application C 2 `a une semimartingale, on conserve une semimartingale ; elle en donne en plus la d´ecomposition (martingale locale + processus `a variation finie). La formule d’Itˆo est prouv´ee en Section 1.1. Des cons´equences importantes en sont pr´esent´ees dans les sections suivantes : th´eor`eme de L´evy (caract´erisation du mouvement brownien par son crochet, Section 1.2 ), th´eor`eme de Dubins-Schwarz (Section 1.3), in´egalit´es de Burkholder-Davis-Gundy (Section 1.4), th´eor`eme de repr´esentation des martingales (Section 1.5), formule de Tanaka (Section 1.6).
1.1
Formule d’Itˆ o
La formule d’Itˆo est l’outil de base du calcul stochastique : elle montre qu’une fonction de classe C 2 de p semimartingales continues est encore une semimartingale continue, et elle exprime explicitement la d´ecomposition de cette semimartingale. Rappelons la formule de changement de variable classique : si F, g sont de classe C 1 alors (F ◦ g) (t) = F (g(t)) g (t) s’´ecrit
t
F (g(t)) = F (g(0)) +
F (g(s))g (s) ds.
0
Si F est C 1 et g est seulement absolument continue (c’est `a dire `a variation finie) alors on a encore avec l’int´egrale de Stieltjes :
t
F (g(t)) = F (g(0)) +
F (g(s)) dg(s).
0
La mˆeme formule reste vraie pour un processus X `a variation finie en faisant un calcul trajectoriel (pour chaque ω fix´e, la trajectoire t → X t (ω) est `a variation finie et le cas pr´ec´edent s’applique) : pour F une fonction de classe C 1 , on a alors
t
F (X t ) = F (X 0 ) +
0
1
F (X s ) dX s .
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
2
La formule d’Itˆo g´en´eralise cette propri´et´e pour des semimartingales lorsque F est C 2 et fait apparaˆıtre un terme suppl´ementaire dˆu au fait que ces processus ne sont pas `a variation finie, cf. (1.1) ci-dessous.
Th´ eor` eme 1.1 (Formule d’Itˆ o) Soient X une semimartingale et F : R → R une fonc2 tion de classe C . Alors
t
F (X t ) = F (X 0 ) +
1 F (X s ) dX s +
2
0
t
F (X s ) dX, X s .
(1.1)
0
Si on consid`ere p semimartingales continues X 1 , . . . , X p et F : R p → R de classe C 2 alors,
p
F (X t1 , . . . , X pt )
=
F (X 01 , . . . , X p0 ) +
p
t
1 + 2 i,j=1
0
t
0
i=1
∂F 1 (X s , . . . , X ps ) dX si ∂x i
∂ 2 F (X s1 , . . . , X ps ) dX i , X j s . ∂x i ∂x j
(1.2)
D´ emonstration : On traite d’abord le cas (1.1) pour p = 1. Consid´erons une suite {0 = n t0 < · · · < t pnn = t }n≥1 de subdivisions emboit´ees de [0, t] de pas tendant vers 0. Alors en t´elescopant la somme, on a pn 1
F (X t ) = F (X 0 ) +
−
F (X tni+1 ) − F (X tni ) .
i=0
La formule de Taylor `a l’ordre 2 sur l’intervalle (X tni , X tni+1 ) donne pour chaque ω ∈ Ω : F (X tni+1 ) − F (X tni ) = F (X tni )(X tni+1 − X tni ) + o`u f n,i ∈
f n,i (ω) (X tni+1 − X tni )2 2
inf F X tni + θ(X tni+1 − X tni ) , sup F X tni + θ(X tni+1 − X tni )
θ [0,1]
∈
θ [0,1]
∈
.
D’apr`es 6) dans la Proposition ?? (approximation `a la Riemann des int´egrales stochastiques) avec H s = F (X s ), on a au sens de la convergence en probabilit´ e: pn 1
P- lim n
−
→+∞
t
F (X tni )(X tni+1 − X tni ) =
i=0
F (X s ) dX s .
0
Pour prouver la formule d’Itˆo (1.1), il reste `a ´etablir la convergence en probabilit´e : pn 1
P- lim n
→+∞
−
i=0
f n,i (ω)(X
tn i+1
2
− X ) = tn i
t
0
F (X s ) d X, X s ,
(1.3)
1.1. Formule d’Itˆ o
3
car alors, par unicit´e presque sˆure de la limite en probabilit´ e, on aura pour tout t ≥ 0 :
t
F (X t ) = F (X 0 ) +
0
1 F (X s ) dX s + 2
t
F (X s ) d X, X s ps.
0
Les deux termes de l’´egalit´e ci-dessus ´etant continus en t, les deux processus sont en fait indistinguables, ce qui donnera (1.1). Il reste donc `a ´etablir (1.3) ; pour cela, on note pour m < n : pn 1
−
T n =
f n,i (ω)(X tni+1 − X tni )2
i=0 pm 1
−
T m,n =
pn 1 i=0
− =
pm 1 j=0
−
(X tni+1 − X tni )2 .
{i:tmj ≤ tni
j=0
Comme
f m,j (ω)
{i:tmj ≤ tni
|T n − T m,n | pm 1
=
−
j=0
pm 1
f n,i (ω)(X
tn i+1
j=0
pm 1
=
j=0
≤ Z m,n
f m,j (ω)(X tni+1 − X tni )2
{i:tmj ≤ tni
f n,i (ω) − f m,j (ω) (X tni+1 − X tni )2
{i:tmj ≤ tni
−
(X tni+1 − X tni )2
{i:tmj ≤ tni
pn 1
= Z m,n
2
− X ) − tn i
{i:tmj ≤ tni
−
−
(X tni+1 − X tni )2
i=0
avec Z m,n =
sup 0 j pm 1
≤≤ −
sup
{i:tmj ≤ tni
|f n,i − f m,j | .
La continuit´e de F assure que Z m,n → 0 ps quand m, n → + ∞. D’apr`es l’interpr´etation P n −1 ”variation quadratique” du crochet (Proposition ??), on a pi=0 (X tni+1 − X tni )2 −→ X, X t . Et donc pour ε > 0 donn´e, il existe m1 tel que pour tout n > m ≥ m1 ,
P |T n − T m,n | ≥ ε/3
pn 1
≤ P Z m,n
−
i=0
(X tni+1 − X tni )2
≥ ε/3
≤ ε/3. (1.4)
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
4 P
(Comme Z m,n −→ 0 et
Z m,n bilit´e :
pn 1 n i=0 (X ti+1 −
−
P
pn 1 n i=0 (X ti+1
−
− X tni )2 −→ X, X t , le th´eor`eme de Slutsky assure
P
X tni )2 −→ 0.) Ensuite la Proposition ?? montre aussi qu’en proba pm 1
−
P- lim T m,n = P- lim n
→+∞
n
f m,j
→+∞ j=0
{i:tmj ≤ tni
pm 1
−
=
(X tni+1 − X tni )2
− X, X tm f m,j X, X tm j +1 j
j=0 t
hm (s) dX, X s ,
=
0
m o`u hm est d´efinie par hm (s) = f m,j si t jm ≤ s < t j+1 . Ainsi il existe m2 tel que pour m ≥ m 2
P
t
T m,n −
hm (s) d X, X s ≥ ε/3
0
≤ ε/3.
(1.5)
Puis comme F est C 2 , on a limm→+∞ hm (s) = F (X s ) ps. De plus, on a pour tout s hm (s) − F (X s ) = f m,j − lim f m,i = lim n
→+∞
n
→+∞
et donc
f m,j − f m,i ≤ lim Z n,m , n
→+∞
P
sup |hm (s) − F (X s )| −→ 0. s [0,t]
∈
Il existe donc aussi m 3 tel que pour m ≥ m 3
t
P
t
F (X s ) d X, X s ≥ ε/3 ≤ ε/3.
hm (s) d X, X s −
0
Comme
0
pn 1
−
t
2
F (X s ) dX, X s ≥ ε
f n,i (X tni+1 − X tni ) −
0
i=0
⊂ {|T n − T m,n | ≥ ε/3} t
∪
T m,n −
hm (s) d X, X s ≥ ε/3
0
t
∪
t
F (X s ) dX, X s ≥ ε/3
hm(s) d X, X s −
0
0
en combinant (1.4), (1.5), (1.6), et en prenant n > m ≥ max(m1 , m2 , m3 ), on a : pn 1
P
−
f n,i (X
tn i+1
i=0
t
2
F (X s ) dX, X s ≥ ε
− X ) − tn i
0
≤ ε
(1.6)
1.1. Formule d’Itˆ o
5
ce qui prouve (1.3) et donc la formule d’Itˆo (1.1) pour p = 1. Dans le cas o`u p est quelconque, la formule de Taylor (toujours `a l’ordre 2) donne F (X t1ni+1 , . . . , X pt ni+1 ) − F (X t1ni , . . . , X pt ni ) p
=
k=1
p
k,l
f n,i k ∂F 1 (X tni , . . . , X pt ni )(X tkni+1 − X tkni ) + (X tni+1 − X tkni ) 2 ∂x k k,l=1
avec k,l f n,i ∈
2
2
∂ F ∂ F (X t1ni + θ(X t1ni+1 − X t1ni ), . . . ), sup (X t1ni + θ(X t1ni+1 − X t1ni ), . . . ) . θ ∈[0,1] ∂x k ∂x l θ ∈[0,1] ∂x k ∂x l inf
Le 6) dans la Proposition ?? donne `a nouveau la limite cherch´ee pour les termes faisant intervenir les d´eriv´ees premi`eres :
p
t
i=1
0
∂F 1 P (X s , . . . , X ps ) dX si → ∂x i
p
t
0
i=1
∂F 1 (X s , . . . , X ps ) dX si . ∂x i
En adaptant l´eg`erement les arguments du cas p = 1, on montre que pour tous k, l ∈ {1, . . . , p} : pn 1
P- lim n
→+∞
−
k,l (X tkni+1 f n,i
−
X tkni )(X tlni+1
−
X tlni )
t
=
i=0
0
∂ 2 F (X s1 , . . . , X ps ) d X k , X l s . ∂x k ∂x l
Cela ach`eve la preuve de la formule d’Itˆo dans le cas g´en´eral (1.2).
Un cas particulier important de la formule d’Itˆo est la formule d’int´egration par parties.
Corollaire 1.1 (IPP) Si X et Y sont deux semimartingales continues, on a
t
X t Y t = X 0 Y 0 +
0
t
X s dY s +
Y s dX s + X, Y t .
(1.7)
0
Le terme X, Y est nul si X ou Y est `a variation finie. Il est pr´esent quand on consid`ere de (vraies) semimartingales et ce terme suppl´ementaire t´emoigne de la diff´erence entre le calcul stochastique et le calcul diff´erentiel d´eterministe.
D´ emonstration : Appliquer la formule d’Itˆo a` F (x, y) = xy qui est bien de classe C 2 en x, y et noter que ∂ 2 F ∂ 2 F ∂ 2 F (x, y) = 1, (x, y) = (x, y) = 0. ∂x∂y ∂x 2 ∂y 2
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
6
En particulier, si Y = X on obtient
t
X t2
= X 02
+2
X s dX s + X, X t .
0
– Lorsque X = M est une martingale locale, on sait que M 2 −M, M Remarque 1.1 est une martingale locale (d´efinition du crochet du th´eor`eme ??). La formule pr´ec´edente montre que cette martingale locale est en fait M 02
t
+2
M s dM s ,
0
ce qu’on aurait pu voir directement sur la d´emonstration donn´ee en Section ?? puisqu’une lecture attentive de la d´emonstration indique que la construction de M, M n fait intervenir pi=0 M tni (M tni+1 − M tni ) qui sont des approximations (`a la Riemann) t de l’int´egrale stochastique 0 M s dM s . – En prenant X t1 = t et X t2 = X t , on a aussi pour toute fonction F de classe C 2 sur R+ × R
t
F (t, X t ) = F (0, X 0 )+
0
∂F (s, X s )dX s + ∂x
t
0
1 ∂F (s, X s )ds + 2 ∂t
martingale locale
t
0
∂ 2 F (s, X s ) d X, X s . ∂x 2
variation finie
(1.8) En fait, il suffit de prendre F ∈ C (R+ × R, R), ie. F est C en t ∈ R+ et C 2 en x ∈ R. 1,2
1
Retour au mouvement brownien Pour un (F t )t≥0 -mouvement brownien B , la formule d’Itˆo s’´ecrit
t
F (Bt ) = F (B0 ) +
1 F (Bs ) dB s +
2
0
t
F (Bs ) ds.
0
En prenant X t1 = t et X t2 = Bt , (1.8) devient : pour toute fonction F de classe C 2 sur R+ × R, on a :
t
F (t, Bt ) = F (0, B0 ) +
0
∂F (s, Bs ) dB s + ∂x
t
0
∂F 1 ∂ 2 F + (s, Bs ) ds. 2 ∂x 2 ∂t
Si B t = (Bt1 , . . . , B pt ) est un (F t )t≥0 -mouvement brownien en dimension d alors les B i sont des mouvements browniens ind´ependants. On a vu au chapitre pr´ec´edent que dans ce cas
1.1. Formule d’Itˆ o
7
B i , B j = 0 lorsque i = j et dB i , B i s = ds. La formule d’Itˆo montre alors que, pour toute fonction F de classe C 2 sur R p ,
p
F (Bt1 , . . . , B pt )
=
F (B01 , . . . , B p0 ) +
t
i=1
o`u ∆F =
d ∂ 2 F i=1 ∂x 2i
0
1 ∂F 1 (Bs , . . . , B ps )dBsi + 2 ∂x i
t
0
∆F (Bs1 , . . . , B ps )ds
est le laplacien de F . On a aussi une formule analogue pour F (t, Bt1 , . . . , B pt ).
En particulier si F est harmonique (ie. ∆F = 0) alors F (Bt1 , . . . , B pt ) est une martingale locale.
Exponentielles stochastiques On d´efinit maintenant l’exponentielle stochastique E (M ) d’une martingale locale M quelconque. La formule d’Itˆo justifie qu’il s’agit d’une martingale locale et explique la terminologie, cf. la Remarque 1.2 ci-dessous. Pour commencer, on dit qu’un processus `a valeurs dans C est une martingale locale si ses parties r´eelle et imaginaire en sont.
Proposition 1.1 Soit M une martingale locale. Pour tout λ ∈ C, soit
λ 2 E (λM )t = exp λM t − M, M t . 2 Le processus E (λM ) est une martingale locale.
D´ emonstration : Si F (x, r) est une fonction de classe C 2 sur R × R+ , la formule d’Itˆo entraˆıne que
F M t , M, M t
t
t
+
∂F M s , M, M s dM s 0 ∂x ∂F 1 ∂ 2 F + M s , M, M s dM, M s . 2 ∂x 2 ∂r
= F (M 0 , 0) +
0
Le processus F M t , M, M t est une martingale locale d`es que sa partie `a variation finie s’annule, ie. lorsque F v´erifie la condition : ∂F 1 ∂ 2 F + = 0. 2 ∂x 2 ∂r
2
Il est imm´ediat que cette condition est satisfaite par la fonction F (x, r) = exp λx − λ2 r (plus pr´ecis´ement par les parties r´eelle et imaginaire de cette fonction).
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
8
Remarque 1.2 Avec F (x, r) = exp x − r/2 (prendre λ = 1 pr´ec´edemment), F (x, r), si bien que l’identit´e
F M t , M, M t = F (M 0 , 0) + s’´ecrit
t
∂F (x, r) ∂x
=
∂F M s , M, M s dM s ∂x
0
t
E (M )t = E (M )0 +
E (M )s dM s
(1.9)
0
ou en ´ecriture symbolique d’EDS (cf. Chapitre 3) : dE (M ) = E (M )dM , ce qui g´en´eralise l’´equation dy = ydx de solution y(x) = e x avec la condition y(0) = 1 ou l’´equation dy = ydg de solution y(t) = exp(g(t)) si g est `a variation finie nulle en 0 et avec la condition initiale y(0) = 1. Cette propri´et´e justifie l’appelation « exponentielle stochastique » de M pour E (M ).
Proposition 1.2 Soit f ∈ L2loc (B). Si pour une constante C finie, on a
t
f (s)2 ds ≤ C
ps
0
·
·
alors E ( 0 f s dBs ) est une vraie martingale de carr´e int´egrable et, pour tout t ≥ 0, E[E ( 0 f s dBs )t ] = 1 Si f ∈ L 2loc (B) est `a valeurs complexes, on a t
2
|f (s)| ds ≤ C =⇒ E
0
·
E (
2
f s dBs )
0
·
< + ∞
et
·
E E (
f s dBs ) = 1.
0
D´ emonstration : Notons Z t = E ( 0 f (s)dBs )t . On commence par supposer que |f (s)| ≤ k pour tout s ∈ [0, t]. Pour l’exponentielle stochastique, la formule d’Itˆo s’´ecrit
t
Z t = 1 +
Z s f (s) dB s .
0
On montre alors que f Z ∈ L 2[0,t] (B)
=
t
H : Ω × R+ → R : progressif avec E
0
t
H s2 ds < + ∞
pour assurer que 0 Z s f (s) dB s est une (vraie) martingale et que E[Z t ] = 1. De (a + b)2 ≤ 2(a2 + b2 ), on d´eduit Z u2
≤ 2 1 +
0
2
u
Z s f s dBs
,
u ≤ t.
1.1. Formule d’Itˆ o
9
u 0
Pour le calcul du moment d’ordre 2 de pour u ≤ t :
Z s f s dBs , on utilise l’isom´etrie d’Itˆo pour d´eduire u
E
Z u2
E Z s2 f s2 ds
≤ 2 1+
0
≤ 2 1 + k
u
2
0
E Z s2 ds
.
(1.10)
A priori comme E[Z s2 ] n’est pas finie, on consid`ere les temps d’arrˆet T n = inf t ≥ 0 : Z t ≥ n , n ≥ 1, qui r´eduisent la martingale locale Z . En faisant comme pr´ec´edemment, on peut remplacer (1.10) par
E
Z u2 1 u T n
{ ≤ } ≤E
Z u2 T n
≤ 2 1 + k
∧
u
2
0
E Z s2 1s≤T n ds
.
(1.11)
On peut alors appliquer le r´esultat suivant `a E Z u2 1{u≤T n } :
Lemme 1.1 (Gronwall) Soit g une fonction positive localement int´egrable d´efinie sur R+ telle que pour a, b ≥ 0 t
g(t) ≤ a + b
g(s) ds.
(1.12)
0
Alors g(t) ≤ a exp(bt) pour tout t ≥ 0.
Preuve (Gronwall). En multipliant par e−bt , l’hypoth`ese (1.12) s’´ecrit
d exp(−bt) dt ce qui, en int´egrant, donne
t
g(s)ds ≤ a exp(−bt)
0
t
exp(−bt)
g(s)ds ≤
0
a (1 − exp(−bt)). b
On obtient le r´esultat en reportant l’in´egalit´e ci-dessus dans l’hypoth`ese (1.12) : a g(t) ≤ a + b ebt (1 − exp(−bt)) = aebt . b
Le lemme de Gronwall assure E[Z s2 1{u≤T n} ] ≤ 2 exp(2k 2 s) et par convergence monotone lorsque n → + ∞ E[Z s2 ] ≤ 2 exp(2k 2 s). On a donc Z s de carr´e int´egrable et born´e dans L 2 pour s ∈ [0, t]. Cela garantit f Z ∈ L 2[0,t] (B) et E[Z t ] = 1. Dans le cas g´en´eral, on pose f n = (f ∧ n) ∨ (−n) et on applique le cas pr´ec´edent `a f n . Par t t convergence monotone 0 f n (u)2 du 0 f (u)2 du, n → + ∞, et par isom´etrie et convergence domin´ee
t (u)dBu 0 f n
E
t
0
L2
−→
t 0 f (u)dBu
f n (u) dBu −
car
0
2
t
f (u) dB u
t
=E
0
(f n (u) − f (u))2 du .
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
10 On a donc
t
0
1 f n (s) dB s − 2
t
t
P
2
f n (s) ds −→
0
0
1 f n (s) dB s − 2
t
f (s)2 ds
0
et (comme la convergence en probabilit´ e se conserve en appliquant une application contiP nue) on a avec des notations ´evidentes Z n (t) −→ Z (t), n → + ∞. Puis
E Z n (t)
2
t
t
f n (s) dB s − (4 − 3)
= E exp 2
0
0
t
≤ E exp 4
f n (s)2 ds 1/2
t
f n (s) dB s − 8
0
2
f n (s) ds
0
1/2
t
2
×E exp 6
f n (s) ds
0
≤ 1 × exp(3C )
en utilisant l’in´egalit´e de Cauchy-Schwarz et le cas pr´ec´edent pour avoir
t
E exp
4
t
f n (s) dB s − 8
0
t
f n (s)2 ds
0
= E E
4f n (s) dB s
0
= 1.
On a donc (Z n (t))n≥1 uniform´ement int´egrable. D’apr`es le Th´eor`eme de Vitali, la converL1
P
gence Z n (t) −→ Z (t) se renforce en Z n (t) −→ Z (t) et on a en particulier lim n→+∞ E[Z n (t)] = E[Z (t)], ce qui assure E[Z (t)] = 1. Par le lemme de Fatou,
E[Z (t)|F s ] = E
n
lim Z n (t)|F s = E lim inf Z n (t)|F s
→+∞
n
→+∞
≤ liminf E Z n (t)|F s ≤ lim inf Z n (s) = Z (s). n
→+∞
n
→+∞
Par cons´equent, Z est une surmartingale. Comme E[Z (t)] = 1, cela exige qu’en fait ce soit une vraie martingale. Puis, on a mieux que l’uniforme int´egrabilit´e dans L 1 : en effet
3 t f n (s) dB s − f n (s)2 ds E[Z n (t) ] = E exp 3 2 0 0 t 18 − 15 t = E exp 3 f n (s) dB s − f n (s)2 ds 2 0 0 3
t
t
≤ E exp 6
1/2
t
2
f n (s) dB s − 18
0
f n (s) ds
0
t
×E exp 15
1/2
2
f n (s) ds
0
1.2. Th´eor`eme de L´evy
11
·
≤ E E
6f n (s) dBs
0
t
exp(15C/2) = exp(15C/2) L2
justifie que (Z n (t))n≥1 est uiform´ement int´egrable dans L2 . On en d´eduit alors que Z n (t) −→ Z (t) et donc Z (t) ∈ L 2 . Pour le cas complexe, on ´ecrit f = Re(f ) + iIm(f ) et on se ram`ene assez facilement au cas r´eel.
1.2
Th´eor` eme de L´ evy
Le r´esultat suivant permet de caract´eriser le mouvement brownien par son crochet parmi les martingales locales `a trajectoires continues.
Th´ eor` eme 1.2 (Caract´erisation du MB par son crochet) Soit X = (X 1 , . . . , X d ) un processus `a trajectoires continues (F t )t≥0 -adapt´e issu de 0. Il y a ´equivalence entre 1. X est un (F t )t≥0 -mouvement brownien en dimension d.
2. Les processus X 1 , . . . , X d sont des (F t )t≥0 -martingales locales continues et de plus
X i , X j t = δ i,j t o` u δ i,j d´esigne le symbole de Kronecker. En particulier, une (F t )t≥0 -martingale locale continue M issue de 0 est un ( F t )t≥0 -mouvement brownien si et seulement si M, M t = t.
Remarque 1.3 Il est crucial que le processus soit `a trajectoires continues. Par exemple le processus de Poisson (standard) v´erifie la mˆeme propri´et´e de crochet mais il est `a trajectoires c`adl`ag. D´ emonstration : Le sens 1) ⇒ 2) est connu, cf. Remarques ?? et ??. On montre la d r´eciproque. Pour cela, soit u ∈ Rd . Alors u · X t = j=1 u j X jt est une martingale locale de processus croissant d
d
j=1 k=1
d
j
k
u j uk X , X t =
u j2 t = u2 t.
j=1
D’apr`es la Proposition 1.1 sur les exponentielles stochastiques, E (iuX ) = exp iu · X t + 1 2 est une martingale locale. Cette martingale locale est born´ ee sur les intervalles 2 u t [0, T ], T > 0, il s’agit donc d’une vraie martingale. La propri´et´e de martingale donne alors pour s < t 1 1 E exp iu · X t + u2 t Fs = exp iu · X s + u2 s . 2 2
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
12
En particulier, pour A ∈ F s , on a :
E 1A exp iu · (X t − X s )
= E [E [1A exp (iu · (X t − X s )) |F s ]] 1 1 = E 1A exp −iu · X s − u2 t E exp iu · X t + u2 t |F s 2 2 1 1 = E 1A exp −iu · X s − u2 t exp iu · X s + u2 s 2 2 1 = P(A)exp − u2 (t − s) . 2
(1.13)
Avec A = Ω, (1.13) montre que X t − X s ∼ N (0, (t − s)I d ). Ensuite pour A ∈ F s de probabilit´e P(A) > 0, en notant PA (·) = P(·|A), on a
EA exp iu · (X t − X s )
1 = exp − u2 (t − s) 2
ie. L (X t − X s |A) = N 0, (t − s)I d . Pour toute fonction mesurable positive f sur Rd , on a EA f (X t − X s ) = E f (X t − X s )
soit
E 1A f (X t − X s ) = P(A)E f (X t − X s ) .
Comme c’est vrai pour tout A ∈ F s , on a X t − X s ⊥ F s .
Finalement, pour tout 0 = t 0 < t1 < · · · < t p , le vecteur X tij − X tij−1 1≤i≤d est un vecteur 1 j p
≤≤
gaussien (car obtenu en regroupant p vecteurs gaussiens ind´ependants). Par transformation lin´eaire, (X ti )1≤i≤ p est encore un vecteur gaussien pour tout (ti )1≤i≤ p et donc X est un processus gaussien. Comme le vecteur X tij − X tij−1 1≤i≤d a ses composantes ind´ependantes, 1 j p
≤≤
le processus X est finalement gaussien, `a accroissements ind´ependants et stationnaires et (par hypoth`ese) `a trajectoires continues : cela justifie que X 1 , . . . , X d sont d mouvements browniens ind´ependants.
1.3
Dubins-Schwarz
Le r´esultat suivant montre que pour les martingales locales, le crochet est une horloge interne qui permet de retrouver le processus quand on ´evalue un mouvement brownien avec cette horloge. C’est une preuve suppl´ementaire du rˆole central du mouvement brownien dans la classe des martingales locales continues.
1.3. Dubins-Schwarz
13
Th´ eor` eme 1.3 (Dubins-Schwarz) Soit M une martingale locale continue issue de 0 et telle que M, M ∞ = +∞ ps. Alors, il existe un mouvement brownien β tel que ps
∀t ≥ 0,
M t = β M,M t .
Remarque 1.4 – En grossissant l’espace de probabilit´e on peut se d´ebarrasser de la restriction M, M ∞ = +∞ ps. – Le mouvement brownien β n’est pas adapt´e par rapport `a la filtration (F t )t≥0 initiale de M , mais par rapport `a une filtration « chang´ee de temps ». – Il s’agit d’un r´esultat existentiel : le r´esultat est valable pour un certain mouvement brownien (construit par la preuve du th´eor`eme) et pas pour un mouvement brownien quelconque. D´ emonstration : Pour tout r ≥ 0, on d´efinit un temps d’arrˆet τ r en posant
τ r = inf t ≥ 0 : M, M t > r . L’hypoth`ese sur M, M assure que τ r < + ∞ ps. De plus, la fonction r → τ r est – croissante car si r ≤ s alors
{t ≥ 0 : M, M t > s} ⊂ {t ≥ 0 : M, M t > r} et en passant aux inf : τ r ≤ τ s ; – continue `a droite car si on note α = limsr τ s , on a d’abord α ≥ τ r par croissance, puis si l’in´egalit´e est stricte, on aurait τ r < β < α ≤ τ s pour tout s > r et n´ecessairement r < M, M β ≤ s pour tout s > r ce qui est absurde (car on peut prendre s arbitrairement proche de r) ; – avec des limites a` gauche en r > 0 avec
lim τ s = τ r− = inf t ≥ 0 : M, M t = r . s
r
La fonction r → τ r est donc croissante c`adl`ag. On pose alors β r = M τ r . Le processus β est adapt´e par rapport `a la filtration donn´ee par G r = F τ r , r ≥ 0. Remarquons que cette filtration satisfait les conditions habituelles (puisque lorsque ( T n )n≥1 est une suite de temps d’arrˆet d´ecroissants vers T on a F T = n≥1 F Tn , cf. Prop. ?? ).
Lemme 1.2 Les intervalles de constance de M et de M, M sont ps les mˆemes. En d’autres termes, on a ps pour tous a < b, M t = M a , ∀t ∈ [a, b] ⇐⇒ M, M t = M, M a , ∀t ∈ [a, b].
D´ emonstration : De la gauche vers la droite, utiliser l’approximation habituelle de M, M t . De la droite vers la gauche, appliquer le Corollaire ?? (M, M = 0 : M est indistinguable de M 0 ) au processus M (a+t)∧T − M a pour un temps d’arrˆet T convenable.
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
14
Revenons `a la preuve du Th´eor`eme 1.3. On a ps pour tout r > 0, lim β s = lim M τ s = M τr − = M τ r = β r .
s
r
s
r
o`u l’avant derni`ere ´egalit´e vient du Lemme 1.2 et du fait que pour t ∈ [τ r− , τ r ], on a M, M t = r. Par ailleurs, par composition de telles fonctions, les trajectoires de β sont clairement continues `a droite ; on conclut que le processus β est `a trajectoires continues. Nous montrons ensuite que β s et β s2 − s sont des martingales relativement `a la filtration (G s )s≥0 . Pour tout n ≥ 1, les martingales locales arrˆet´ees M τ n et (M τ n )2 − M, M τ n sont des vraies martingales uniform´ement int´egrables (d’apr`es le Th´eor`eme ?? puisque M τ n , M τ n ∞ = M, M τ n = n). Le th´eor`eme d’arrˆet s’applique pour ces martingales uniform´ement int´egrables et donne alors pour r ≤ s ≤ n : E[β s |G r ] = E[M τ τ sn |F τr ] = M τ τ rn = β r
et
E[β s2 − s|G r ] = E (M τ τ sn ) 2 − M τ n , M τ n τ s |F τr
= (M τ τ rn ) 2 − M τ n , M τ n τ r = β r2 − r.
On a donc β, β s = s. Le Th´eor`eme 1.2 (Th´eor`eme de L´evy avec d = 1) assure alors que β est un (G r )r≥0 -mouvement brownien. Finalement, par d´efinition de β , on a ps pour tout t ≥ 0, β M,M t = M τ M,M t . On a
τ M,M t = inf s ≥ 0 : M, M s > M, M t ≥ t, si l’in´egalit´e est stricte alors M, M est constante sur [t, τ M,M t ], et d’apr`es le Lemme 1.2 M aussi, ce qui assure M τ M,M t = M t et conclut que ps pour tout t ≥ 0 on a M t = β M,M t . Par continuit´ e des trajectoires, les deux processus sont indistinguables.
1.4
In´ egalit´ es de Burkholder-Davis-Gundy
Dans cette section, on prouve les in´egalit´es Burkholder-Davis-Gundy (BDG) qui montrent que pour une martingale locale M
E M, M m t
et
E |M t∗ |2m
o`u M t∗ = max0≤s≤t |M s | sont de mˆeme ordre de grandeur sur [0, +∞[ pour tout m > 0.
1.4. In´egalit´es de Burkholder-Davis-Gundy
15
Th´ eor` eme 1.4 (In´ egalit´es de Burkholder-Davis-Gundy) Pour tout r´eel p ≥ 0, il existe des constantes c p , C p telles que pour toutes martingale locale M continue issue de 0,
p/2 ∗ p c p E M, M p/2 ∞ ≤ E (M ∞ ) ≤ C p E M, M ∞
o` u M t∗ = sup0≤s≤t |M s |.
(1.14)
Remarque 1.5 Si T est un temps d’arrˆet quelconque, en rempla¸cant M par la martingale locale arrˆet´ee M T , on obtient les mˆemes in´egalit´es avec T `a la place de +∞ ; en particulier, on a les mˆemes in´egalit´es avec t `a la place de +∞. On commence par les r´esultats pr´eliminaires suivant :
Proposition 1.3 (In´egalit´ es de martingales) Soit M une martingale continue born´ee et de variation quadratique born´ ee. Pour tout temps d’arrˆet T , on a
E |M T |2m
Bm E M, M m T Bm E M, M m T
m>0 ≤ C m E M, M m T , ≤ E |M T |2m , m > 1/2 E M, M m , ≤ E (M T ∗ )2m ≤ C m T
m > 1/2
(1.15) (1.16) (1.17)
sont des constantes universelles (qui d´ependent seulement de m mais pas o` u Bm , C m, C m de la martingale M ni du temps d’arrˆet T ). Remarque 1.6 En localisant correctement, on montre que ( 1.15) et (1.17) restent valables pour M martingale locale continue. Pour que (1.16) reste valable, il faut supposer en plus que E M, M m T < + ∞.
D´ emonstration :[In´egalit´es de martingales] On consid`ere le processus Y t = δ + εM, M t + M t2
t
= δ + (1 + ε)M, M t + 2
t ≥ 0,
M s dM s ,
0
o`u δ > 0 et ε > 0 sont des constantes qui seront choisies plus tard et la deuxi`eme expression vient de la formule d’Itˆo. En appliquant la formule d’Itˆo pour f (x) = x m , on a pour t ≥ 0 :
t
Y tm
m
= δ + m(1 + ε)
t
+2m
0
0
t
Y sm 1 dM,
−
M s + 2m(m − 1)
0
Y sm−2 M s2 dM, M s
Y sm−1 M s dM s .
Comme par hypoth`ese M , Y et M, M sont born´ees et Y est born´ee de 0, l’int´egrale t m−1 Y M s dM s est (vraie) une martingale uniform´ement int´egrable. Le th´eor`eme d’arrˆet 0 s (Th´eor`eme ??) s’applique et donne
T
E
0
Y sm−1 M s dM s = 0.
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
16
En prenant les esp´erances dans la formule d’Itˆo, on a donc E
T
Y T m
m
= δ + m(1 + ε)E
0 T
+2m(m − 1)E
Y sm 1 dM,
−
M s
(1.18)
Y sm−2 M s2 dM, M .
0
Cas 1 : borne sup pour 0 < m ≤ 1. Comme le dernier terme `a droite de (1.18) est n´egatif pour m ≤ 1, en faisant δ → 0, on a
E (εM, M T + M T 2 )m
T
≤ m(1 + ε)E
0
(εM, M s + M s2 )m−1 dM, M s T
≤ m(1 + ε)εm−1 E
0
m 1
= (1 + ε)ε −
−1 dM, M s M, M m s
E M, M m T
(1.19)
en utilisant la d´ecroissance de xm−1 pour 0 < m ≤ 1. Comme pour ces valeurs de m, x → x m est concave, on a 2m−1 (xm + y m ) ≤ (x + y)m ,
x ≥ 0, y ≥ 0,
(1.20)
et (1.19) donne
2m ≤ (1 + ε)(ε/2)m−1 E M, M m εm E M, M m T + E |M T | T .
On d´eduit alors
E |M T |2m ≤ (1 + ε)(2/ε)1−m − εm E M, M m T .
(1.21)
(1.22)
Cas 2 : borne inf pour m > 1 . Dans ce cas, le dernier terme `a droite de (1.18) est positif, x m−1 est croissante et x → xm est convexe. Les in´egalit´es dans (1.19), (1.21), (1.22) x→ se renversent pour mener `a E |M T |2m ≥ (1 + ε)(2/ε)1−m − εm E M, M m T .
Cas 3 : borne inf pour
1 2
2m
E |M T |
< m ≤ 1 . En faisant ε = 0 et δ → 0 dans (1.18), on a 1 = 2m(m − )E 2
T
|M s |
2(m 1)
− dM, M s .
0
De plus, on d´eduit de (1.20) et (1.18) et de la d´ecroissance de x m−1
2 m 2m−1 εm E[M, M m T ] + E[(δ + M T ) ]
≤ E
εM, M T + (δ + M T 2 )
m
= E|Y T m ]
(1.23)
1.4. In´egalit´es de Burkholder-Davis-Gundy
17
≤ δ m + m(1 + ε)E
T
0
(δ + M s2 )m−1 dM, M s .
En faisant δ 0, on voit alors
T
2m 2m−1 εm E M, M m T + E |M T |
≤ m(1 + ε)E
|M s |2(m−1) dM, M s . (1.24)
0
En combinant (1.23) et (1.24), on a la borne inf´erieure valable pour tout ε > 0 : E |M T |
2m
≥ ε
−1
(1 + ε)21−m −1 2m − 1
m
E M, M m T .
Cas 4 : borne sup pour m > 1 . Dans ce cas, l’in´egalit´e (1.24) s’inverse et on a E |M T |
2m
≤ ε
m
(1 + ε)21−m −1 2m − 1
o`u ε doit v´erifier ε > (2m − 1)2m−1 − 1.
−1
E M, M m T
Les cas 1–4 ´etablissent (1.15) et (1.16). Pour prouver (1.17), on applique l’in´egalit´e maximale de Doob `a la (F t )-martingale (M T ∧t )t≥0 On a alors pour m > 1/2 :
Bm E M, M m T ∧t
≤ E |M T ∧t |2m ≤ E (M T ∗ ∧t )2m 2m 2m E |M T ∧t |2m ≤ 2m − 1 2m 2m E M, M m ≤ C m T ∧t , 2m − 1
t ≥ 0,
ce qui est (1.17) avec T remplac´e par T ∧ t. On conclut alors `a l’aide du th´eor`eme de convergence monotone en faisant t → + ∞. On utilise encore l’in´egalit´e de Lenglart :
Proposition 1.4 (In´egalit´ e de Lenglart) Soit (X t )t≥0 un processus continu positif partant de 0 et (At )t≥0 un processus continu croissant tels que pour tout temps d’arrˆet T born´e :
E[X T ] ≤ E[AT ].
(1.25)
Alors pour tout temps d’arrˆet T born´e : P
max X s ≥ ε s T
≤
∗ ) p E (X T
≤
E[δ ∧ AT ]
+ P(AT ≥ δ ), ε, δ > 0 ε 2 − p p E AT , 0 < p < 1. ≤ 1 − p
(1.26) (1.27)
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
18
Remarque 1.7 Noter que la condition (1.25) est remplie si X = M 2 o`u M est une martingale continue born´ee dans L2 car par d´efinition du crochet de M , on a X t − A t = M t2 − M, M t martingale locale et c’est une vraie martingale car M ∈ L2 . Le th´eor`eme d’arrˆet (avec T born´e et 0 ≤ T ) donne en prenant l’esp´erance E M T 2 − AT = E M 02 − A0 , ie. E[X T ] = E[AT ]. La condition (1.25) est encore remplie si M est une martingale locale r´eduite par T n : on peut supposer que M T n est une martingale L 2 pour laquelle d’apr`es 1) (1.25) est vraie, ie.
E[X T ∧T n ] = E[AT ∧T n ] ≤ E[AT ].
Mais comme T n + ∞ et T est born´e, par le lemme de Fatou,
E[X T ] = E lim inf X T ∧T n ≤ lim inf E[X T ∧T n ] ≤ lim inf E[AT ∧T n ] ≤ E[AT ]. n
n
n
D´ emonstration : Soient d’abord T un temps d’arrˆet born´e et ε > 0. On note R = inf t ≥ 0 : X t ≥ ε . Sur {X T ∗ ≥ ε }, on a R ≤ T ou encore R = R ∧ T . Comme par continuit´e des trajectoires X R = ε, on a alors :
∗ ≥ ε P X T
X R X R∧T = E 1{X T ∗ ≥ε} = E 1{X T ∗ ≥ε} = E 1{X T ∗ ≥ε} ε ε 1 1 1 ≤ E[X R∧T ] ≤ E[AR∧T ] ≤ E[AT ] ε ε ε
(1.28)
o`u on utilise d’abord (1.25) avec T ∧ R born´e puis la croissance de A. Si T est un temps d’arrˆ et quelconque, alors (1.28) s’applique `a T n = T ∧ n temps d’arrˆet ∗ born´e : P(X T n ≥ ε) ≤ 1ε E[AT n ]. Mais comme T n → T , n≥1 {X T ∗n > ε} = {X T ∗ > ε} (r´eunion croissante), en passant `a la limite, on a :
∗ > ε = lim P X ∗ > ε ≤ P X T T n n
→+∞
1 E[AT ]. ε
On a aussi P(X T ∗ > ε) ≤ 1ε E[AT ]. Finalement, soient ε, δ > 0 et S = inf t ≥ 0 : A t ≥ δ . On a
∗ ≥ ε P X T
= P X T ∗ ≥ ε, AT < δ + P X T ∗ ≥ ε, AT ≥ δ ≤ P(X T ∗ ≥ ε, T < S ) + P(AT ≥ δ ) ≤ P(X T ∗ ∧S ≥ ε) + P(AT ≥ δ ) 1 ≤ E AT ∧S + P(AT ≥ δ ) ε 1 ≤ E AT ∧ δ + P(AT ≥ δ ) ε
en utilisant (1.28) avec T ∧ S puis la d´efinition de S (qui assure A T ∧S = A T ∧ δ ).
1.4. In´egalit´es de Burkholder-Davis-Gundy
19
Consid´erons (M n )n≥1 une suite de martingales locales et un temps d’arrˆet T tels que P M n , M n T −→ 0. D’apr`es la remarque, la borne pr´ec´edente reste vraie pour X = (M n )2 et At = M n , M n t o`u M n est une martingale locale. on a alors P
sup |M sn |2 s T
≤
1 > ε ≤ E M n , M n T ∧ δ + P M n , M n T ≥ δ . ε
Le deuxi` eme terme tend vers 0 directement par l’hypoth` ese. Comme M n , M n T ∧ δ ≤ δ est born´e, le premier terme tend aussi vers 0 par convergence domin´ee. Finalement, P sups≤T | M sn |2 > ε → 0, ce qui assure, en probabilit´ e
P- lim n
→+∞
sup |M sn |
= 0.
s T
≤
+
∞
Pour la derni`ere partie, on utilise E[Z ] = 0 P(Z ≥ x)dx valable pour toute variable al´eatoire Z positive. Avec ci-dessous (1.28) pour ε = δ = x −1/p , on a +
E
(X ∗ ) p T
≤
∞
0
+
∞
+
∞
≤
0
≤
∗ ) p > x dx P (X T ∗ > x1/p dx P X T
0
∞
P AT > x1/p dx
0
ApT
≤ E
+
dx + E
0
≤ E[A pT ] + E AT × ≤
+
x−1/p E AT ∧ x1/p +
∞
ApT
+
∞
AT x−1/p dx +
0
p
P AT > x dx
p A pT −1 + E A pT 1 − p
2 − p p E AT . 1 − p
D´emonstration des in´egalit´es BDG (Th´eor`eme 1.4). D’apr`es les in´egalit´es de martingales pr´ec´edentes (Proposition 1.3) et la remarque qui les suit, (1.14) est valable pour p = 2m > 1. Il reste `a voir le cas 0 < p = 2m ≤ 1. On suppose (quitte `a localiser les processus) que M et M, M sont born´ees et on utilise l’in´egalit´e de Lenglart (1.27). D’apr`es l’in´egalit´e droite dans (1.17) (avec m = 1), on peut appliquer l’in´egalit´e de Lenglart (1.27) avec X = (M ∗ )2 , A = C 1 M, M et on a pour m ≤ 1/2 :
E (M T ∗ )2m ≤
2−m (C 1 )m E M, M m T 1−m
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
20
pour tout 0 < m < 1. De la mˆeme fa¸con, l’in´egalit´e `a gauche de (1.17) (avec m = 1) permet d’appliquer l’in´egalit´e de Lenglart avec X = B 1 M, M ,
A = (M ∗ )2
ce qui donne, pour 0 < m < 1,
1−m m ∗ 2m . B1 E M, M m T ≤ E (M T ) 2−m Cela ach`eve la preuve des in´egalit´es BDG.
1.5
Repr´ esentation des martingales (browniennes)
Nous montrons que lorsque la filtration est engendr´ee par un mouvement brownien, toutes les martingales pour cette filtration peuvent ˆetre repr´esent´ees comme int´egrales stochastiques par rapport `a ce mouvement brownien.
Th´eor`eme 1.5 (Repr´esentation des martingales) On suppose que la filtration (F t )t≥0 sur Ω est (l’augmentation habituelle de) la filtration canonique d’un mouvement brownien B issu de 0. Alors, pour toute variable al´eatoire Z ∈ L2 (Ω, F ∞ ), il existe un (unique) processus h ∈ L2 (B) (en particulier progressif donc adapt´e) tel que
+
Z = E[Z ] +
∞
h(s, ω) dBs .
0
Par cons´ equent, pour toute martingale M continue et born´ee dans L 2 (respectivement pour toute martingale locale M continue), il existe un (unique) processus h ∈ L2 (B) (resp. h ∈ L 2loc (B)) et une constante C r´eelle tels que
t
M t = C +
h(s, ω) dBs .
0
La preuve utilise le r´esultat suivant de densit´e.
Lemme 1.3 Sous les hypoth`eses du th´eor`eme pr´ec´edent, l’espace vectoriel engendr´e par les variables al´eatoires
n
exp i
j=1
λ j (Btj − Btj−1 )
pour 0 = t 0 < t1 < · · · < tn et λ1 , . . . , λn ∈ R est dense dans L2C (Ω, F ∞ ).
1.5. Repr´esentation des martingales (browniennes)
21
D´ emonstration :[Lemme 1.3] Il suffit de montrer que si Z ∈ L 2C (Ω, F ∞ ) v´erifie
n
E Z exp i
λ j (Btj − Btj−1 )
j=1
=0
(1.29)
pour tout choix de 0 = t 0 < t1 < · · · < tn et λ 1 , . . . , λn ∈ R alors Z = 0. Soient 0 = t 0 < t1 < · · · < tn fix´es et on note gm,σ2 (x), x ∈ R, la densit´e de la loi N (m, σ2 ), m ∈ R, σ2 > 0. La condition (1.29) assure que pour tous σ 12 , . . . , σn2 > 0 et m1 , . . . , mn ∈ R, on a
n
0 =
Rn
n
gmj ,σj2 (λ j )E Z exp i
j=1
λ j (Btj − Btj −1 )
j=1
m
dλ1 . . . d λ j
σ j2 (Btj − Btj−1 )2 = E Z exp im j (Btj − Btj−1 ) − 2 j=1
o`u la deuxi`eme ´egalit´e vient du th´eor`eme de Fubini et de l’expression de la fonction caract´eristique d’une loi gaussienne. On obtient pour tous m 1 , . . . , mn ∈ R et α 1 , . . . , αn > 0 :
m
exp im j (Btj − Btj−1 ) − α j (Btj − Btj−1 )2
E Z
j=1
= 0.
Le th´eor`eme de Stone-Weierstrass garantit que les combinaisons lin´eaires complexes de la fonction constante ´egale `a 1 et des fonctions de la forme
n
(y1 , . . . , yn ) → exp
(im j y j −
α j y j2 )
j=1
avec α1 , . . . , αm > 0 et m1 , . . . , mn ∈ R sont denses dans l’espace C (Rn , C) des fonctions continues de Rn dans C qui ont une limite `a l’infini, muni de la norme de la convergence uniforme. Par un passage `a la limite, on obtient donc, pour toute fonction ϕ ∈ C (Rn , C),
E Z ϕ(Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 ) = 0.
On a donc, d’abord par approximation, pour tout ouvert born´ e U de Rn puis, par un argument de classe monotone, pour tout bor´elien U de Rn : E Z 1U (Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 ) = 0.
Finalement, on a obtenu l’´egalit´e E[Z 1A ] = 0 pour tout A ∈ σ(Bt1 , . . . , Btn ). Avec un dernier argument de classe monotone, on montre que cette ´egalit´e reste vraie pour tout A ∈ σ(Bt : t ≥ 0) ; puis, par compl´etion, pour tout A ∈ F ∞ . On conclut finalement que Z = 0 ce qui ´etablit le lemme.
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
22
D´ emonstration :(du Th´eor`eme 1.5) On montre d’abord la premi`ere assertion. Pour cela, on note H l’espace vectoriel des variables al´eatoires Z ∈ L2 (Ω, F ∞ ) qui ont la propri´et´e annonc´ee. Remarquons que l’unicit´e de h est facile `a ´etablir puisque si h et h correspondent `a la mˆeme variable al´eatoire Z , on a par isom´etrie :
+
E
∞
+
(h(s, ω) − h (s, ω))2 ds = E
0
+
∞
h(s, ω) dBs −
0
∞
2
h (s, ω))2 dBs
0
= 0,
d’o` u h = h dans L2 (B). Si Z ∈ H correspond `a h, E[Z 2 ] = E[Z ]2 + E
+
∞
h(s, ω)2 ds .
0
Il en d´ecoule facilement que si (Z n )n≥0 est une suite dans H qui converge dans L2 (Ω, F ∞ ) vers Z , les processus hn associ´es `a Z n forment une suite de Cauchy dans L2 (B) donc convergent vers h ∈ L2 (B). D’apr`es la propri´et´e d’isom´etrie de l’int´egrale stochastique +∞ (Th´eor`eme ??) on a alors Z = E[Z ] + 0 h(s, ω) dBs et H est donc ferm´e.
n Ensuite, pour 0 = t 0 < t1 < · · · < tn et λ1 , . . . , λn ∈ R, notons f (s) = j=1 λ j 1]tj−1,tj ] (s) · f et E t la martingale exponentielle E i 0 f (s) dB s (cf. Proposition 1.1). La formule d’Itˆo pour l’exponentielle stochastique (cf. (1.9)) montre que
n
n
1 f exp i = 1 + i λ j (Btj − Btj−1 ) + λ j2 (t j − t j −1 ) = E ∞ 2 j=1 j=1
+
∞
0
E sf f (s) dB s
soit
n
λ j (Btj − Btj−1 )
exp i
j=1
n
1 = exp − λ j2 (t j − t j −1 ) + i 2 j=1 c’est `a dire
n
λ j (Btj − Btj−1 )
exp i
j=1
+
n
∞
1 exp − λ j2 (t j − t j −1 ) E sf f (s) dBs 2 j=1
0
: λ j ∈ R, 0 = t 0 < t1 · · · < tn , n ∈ N
⊂H
et d’apr`es le Lemme 1.3,
n
L2 (Ω, F ∞ ) = Vect
exp i
j=1
λ j (Btj − Btj−1 )
: λ j ∈ R, 0 = t 0 < t1 · · · < tn , n ∈ N
On a donc H = L2 (Ω, F ∞ ) ce qui prouve la premi`ere partie du th´eor`eme.
⊂ H = H .
1.6. Formule de Tanaka
23
Soit maintenant M une martingale continue et born´ee dans L 2 , alors, d’apr`es la premi`ere partie, M ∞ ∈ L 2 (Ω, F ∞ ) s’´ecrit, avec h ∈ L 2 (B), sous la forme
+
M ∞ = E[M ∞ ] +
∞
h(s, ω) dB s .
0
Par conditionnement, il vient :
t
M t = E[M ∞ |F t ] = E[M ∞ ] +
h(s, ω) dB s .
0
L’unicit´e de h s’obtient comme dans la premi`ere partie. Enfin, soit M une martingale locale (continue), on a d’abord M 0 = C ∈ R parce que F 0 est P-triviale (ce qu’on peut d´ eduire soit de la premi` ere partie de la preuve soit du Chapitre ??). Si T n = inf t ≥ 0 : | M t | ≥ n on peut appliquer ce qui pr´ec`ede `a la martingale arrˆet´ee M T n et trouver un processus h n ∈ L 2 (B) tel que
M tT n
t
= C +
hn (s, ω) dB s .
0
Par unicit´e dans la deuxi`eme partie, si m < n, on a hn (s, ω) = h m (s, ω), ds-pp sur [0, T m ] ps. Il est alors facile de construire h ∈ L2loc (B) tel que, pour tout m, h(s, ω) = hm (s, ω) ds-pp sur [0, T m ] ps. La formule annonc´ee d´ecoule ensuite de la construction de l’int´egrale t stochastique 0 h(s, ω) dB s et l’unicit´e de h s’obtient aussi facilement par un argument de localisation.
Remarque 1.8 Sous les hypoth`eses du Th´eor`eme 1.5, notons N la classe des P-n´egligeables de σ(Bt : t ≥ 0) et pour tout t ≥ 0, G t = σ(Bs : 0 ≤ s ≤ t) ∨ N . A priori, on a F t = G t+ . En fait, le Th´eor`eme 1.5 entraˆıne que G t = G t+ = F t (le cas t = 0 est la loi de Blumenthal). En effet, si Z est une variable al´eatoire F t -mesurable born´ee, on a
t
Z =
t ε
2
h(s, ω) dB s = (L )-lim ε 0
↓
0
−
h(s, ω) dBs .
0
et quitte `a prendre une sous-suite, on voit que Z est limite ps de variables ( G t )t -mesurables (car si ε > 0 : F t−ε ⊂ G t ).
1.6
Formule de Tanaka
Th´ eor` eme 1.6 (Formule de Tanaka) Soit X une semimartingale continue. Il existe a (Lt )t≥0 , a ∈ R, processus croissant continu, appel´e temps local en a de la semimartingale X , tel que +
(X t − a)
+
= (X 0 − a) +
t
0
1 1{X s >a}dX s + Lat 2
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
24
t
(X t − a)− = (X 0 − a)− −
0
t
|X t − a| = |X 0 − a| +
0
1 1{X s ≤a} dX s + Lat 2
sgn (X s − a)dX s + Lat
o` u sgn (x) = − 1, 1 selon que x ≤ 0, x > 0. De plus, la mesure (de Stieltjes) dLat associ´ee `a Lat est port´ee par {t ∈ R : X t = a}.
D´ emonstration : On consid`ere d’abord ϕ une fonction convexe continue. Bien que ϕ ne soit pas C 2 , on tente d’´ecrire une « formule d’Itˆo » pour ϕ(X t ). Soit j une fonction positive de classe C ∞ `a support compact inclus dans ] − ∞, 0] telle que 0 0 j(ny)dy. Comme ϕ convexe est localement −∞ j(y)dy = 1. On pose ϕn(x) = n −∞ ϕ(x+y) ∞ born´ee, ϕ n est bien d´efinie. De plus, ϕ n est C et converge simplement vers ϕ et ϕ n croˆıt vers ϕ − , d´eriv´ee `a gauche de ϕ.
En appliquant la formule d’Itˆo a` la fonction ϕ n de classe C 2 , on a pour chaque n ≥ 1 :
t
ϕn (X t ) = ϕ n (X 0 ) +
0
o`u A ϕt n =
1 ϕn (X s )dX s + Aϕt n 2
(1.30)
t ϕ (X s )dX, X s . 0 n
On a limn→+∞ ϕn (X t ) = ϕ(X t ) et limn→+∞ ϕn (X 0 ) = ϕ(X 0 ). En arrˆetant X , on peut supposer que X et ϕn (X s ) sont born´ees (uniform´ement en n car ϕ1 ≤ ϕn ≤ ϕ− ). Par le Th´eor`eme ?? (convergence domin´ee pour l’int´egrale stochastique), on a
t
0
P
t
ϕ (X s )dX s −→ n
0
ϕ− (X s )dX s
uniform´ement sur les compacts. Par cons´equent, A ϕn converge vers un processus A ϕ croissant car limite de processus croissants. En passant `a la limite dans (1.30), il vient
t
ϕ(X t ) = ϕ(X 0 ) +
0
1 ϕ− (X s )dX s + Aϕt 2
(1.31)
puis le processus A ϕ peut ˆetre choisi continu (car diff´erence de processus continus). On applique (1.31) `a ϕ(x) = (x − a)+ fonction convexe de d´eriv´ee `a gauche ϕ − = 1 ]a,+∞[ : il existe un processus croissant A + tel que +
+
(X t − a) = (X 0 − a) +
t
0
1 1{X s >a} dX s + A+ . 2 t
(1.32)
De la mˆeme fa¸con avec ϕ(x) = (x − a)− fonction convexe de d´eriv´ee `a gauche ϕ− = −1]−∞,a] : il existe un processus croissant A − tel que
t
(X t − a)− = (X 0 − a)− −
0
1 1{X s ≤a} dX s + A− . 2 t
(1.33)
1.6. Formule de Tanaka
25
Par diff´erence de (1.32) et (1.33), comme x = x + − x− , on a
t
X t = X 0 +
0
1 − dX s + (A+ t − At ). 2
(1.34)
Il vient A+ = A− et on pose alors Lat = A+ t . En sommant (1.32) et (1.33), comme |x| = − + x + x , on a
t
|X t − a| = | X 0 − a| +
0
sgn(X s − a)dX s + Lat .
Pour la derni`ere partie, en appliquant la formule d’Itˆo a` la semimartingale |X t − a| avec f (x) = x 2 , on a en utilisant aussi (1.34)
|X t − a|
2
t
2
= |X 0 − a| + 2
|X s − a| d(|X s − a|)s + |X − a|, |X − a|t
0
t
2
= (X 0 − a) + 2
t
|X s − a|sign (X s − a) dX s + 2
0
0
|X s − a| dL as + X, X t .
En comparant avec la formule d’Itˆo pour X avec f (x) = (x − a)2 , 2
t
2
(X t − a) = (X 0 − a) + 2
(X s − a) dX s + X, X t
0
il vient
t | X s 0
− a| dL as = 0 ps, ce qui est le r´esultat.
Remarque 1.9 (Formule d’Itˆo-Tanaka) Lorsque ϕ : R → R est une fonction convexe, on peut pr´eciser (1.31) : on montre que Aϕt
+
=2
∞
−∞
Lat ϕ (da)
o`u ϕ (da) est la mesure associ´ee `a ϕ `a comprendre dans le sens des distributions. On a alors la formule d’Itˆo-Tanaka pour ϕ convexe :
t
ϕ(X t ) = ϕ(X 0 ) +
0
+
ϕ− (X s )dX s +
∞
−∞
Lat ϕ (da).
(1.35)
La formule (1.35) se g´en´eralise imm´ediatement `a une combinaison lin´eaire de fonctions convexes ϕ = pi=1 αi ϕi . Dans ce cas, ϕ devient une mesure sign´ee.
26
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 1.
Chapitre 2 Th´ eor` eme de Girsanov La formule d’Itˆo ´etudi´ee au Chapitre 1 explore comment se transforme une semimartingale quand on lui applique une transformation C 2 . On ´etudie maintenant comment se transforme une semimartingale lorsqu’on change de mesure de probabilit´ e P. C’est l’ob jet du th´eor`eme de Girsanov qu’on prouve en Section 2.2 et dont on ´etudie les premi`eres cons´equences en Section 2.2. Commen¸cons par une approche heuristique pour des variables al´eatoires : la densit´e gaus2 2 sienne standard g(x) = √ 12π exp(− x2 ) poss`ede la propri´et´e suivante g(x − a) = g(x)eax−a /2 pour tout a ∈ R qui se r´e´ecrit E[f (N + a)] =
= =
f (x + a)g(x)dx f (x)g(x − a)dx 2 /2
f (x)eax−a
g(x)dx
= E[f (N )exp(aN − a2 )] = Ea [f (N )] pour f mesurable born´ee et N ∼ N (0, 1). Cela signifie que la variable al´eatoire translat´ee N + a suit la mˆeme loi que N en changeant la probabilit´e en dQ(a) = exp(aN − a2 ) d P (a)
ie. PN +a = QN . C’est cette observation, g´en´eralis´ee au mouvement brownien, qui constitue la formule de Cameron-Martin (1944, cf. Corollaire 2.7) puis le Th´eor`eme de Girsanov original (1960, cf. Corollaire 2.6). Ce th´eor`eme a ensuite ´et´e ´etendu `a des martingales locales plus g´en´erales, c’est cette version que nous pr´esentons. On consid`ere (Ω, F , (F t )t≥0 , P) un espace filtr´e satisfaisant les conditions habituelles. 27
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 2.
28
2.1
Logarithme stochastique
La propri´et´e de martingale est li´ee `a la probabilit´ e utilis´ee : si on change P en Q, une martingale X (pour P) n’a pas de raison de rester une martingale pour Q. Dans cette section, on ´etudie comment se transforme une semimartingale quand on change la probabilit´e P en Q P. La r´eponse est donn´ee par le Th´eor`eme de Girsanov (Th. 2.1). Pour ´eviter les confusions dans un tel contexte, on indique la probabilit´e par rapport `a laquelle une martingale est consid´er´ee (on ´ecrira ainsi : soit X une P-martingale ou une (F t , P)-martingale et on notera EP pour une esp´erance relative `a P). Dans la suite, on consid`ere Q P sur F ∞ . Bien sˆ ur, on a alors Q P sur F t pour tout dQ t ≥ 0 et on note Dt = dP |F t la d´eriv´ee de Radon-Nikodym de Q par rapport `a P sur F t . Dans un contexte statistique, D s’appelle la vraisemblance de Q (par rapport `a P). Le processus D v´erifie les propri´et´es suivantes :
Proposition 2.1 (Processus d´ eriv´ee de Radon-Nikodym) 1. D est une (F t )t≥0 -martingale uniform´ement int´egrable. 2. D admet une modification c`adl` ag ; pour cette version et pour tout temps d’arrˆet T , dQ on a DT = dP |F . T
3. Si Q ∼ P sur F ∞ (ie. Q P et P Q) alors ps pour tout t ≥ 0, Dt > 0.
D´ emonstration : 1) Pour A ∈ F t ⊂ F ∞ , on a
Q(A) = EQ [1A ] = EP [1A D∞ ] = EP 1A EP [D∞ |F t ] .
Comme E P [D∞ |F t ] est F t -mesurable, par unicit´e de la d´eriv´ee de Radon-Nikodym, il vient Dt = E P [D∞ |F t ] ps, ce qui assure que D est une ( F t )t≥0 -martingale (filtration compl`ete) ; elle est uniform´ement int´egrable car ferm´ee. 2) D’apr`es le Th´eor`eme ?? (r´egularisation trajectorielle des martingales), D admet une version c`adl`ag. On peut donc consid´erer que D est c`adl`ag, ce qui permet d’appliquer le th´eor`eme d’arrˆet (D est uniform´ement int´egrable) : si T est un temps d’arrˆet et A ∈ F T , on a : Q(A) = EQ [1A ] = EP [1A D∞ ] = EP [1A DT ]. Comme DT est F T -mesurable, par unicit´e de la d´eriv´ee de Radon-Nikodym, on a DT = dQ . dP |F T
3) Posons S = inf t ≥ 0 : Dt = 0 . Il s’agit d’un temp d’arrˆ et. Sur {S < +∞}, on peut consid´erer sn S avec Dsn = 0, la continuit´e `a droite de D assure alors DS = 0. Avec A = {S < + ∞} ∈ F S , on a d’apr`es le 2) : Q(A) = EP [1A DS ] = 0 et donc par hypoth`ese on a aussi P(A) = 0. Ainsi, S = +∞ P (ou Q)-presque sˆurement, c’est `a dire D t > 0 pour tout t ≥ 0.
2.1. Logarithme stochastique
29
Dans la suite, on suppose en g´en´eral D `a trajectoires continues. La notion d’exponentielle stochastique a ´et´e visit´ee au Chapitre 1. On lui associe maintenant la notion de logarithme stochastique :
Proposition 2.2 (Logarithme stochastique) Soit D une martingale locale continue strictement positive. Alors, il existe une unique martingale locale, `a trajectoire continues, L, appel´ee logarithme stochastique de D, telle que
1 Dt = exp Lt − L, Lt 2
= E (L)t .
(2.1)
De plus, L est donn´ee par l’expression
t
Lt = log D0 +
0
Ds−1 dDs .
(2.2)
D´ emonstration : Unicit´e. Si D t = exp Lt − 12 L, Lt = exp Lt − 12 L , L t pour tout t ≥ 0 alors Lt − L t = 12 L, Lt − 12 L , L t pour tout t ≥ 0 ce qui exige L = L par le Th´eor`eme ?? (une martingale locale `a variation born´ee et issue de 0 est nulle). Existence. Prenons L donn´e par (2.2) et remarquons que
t
L, Lt =
0
dD, Ds . Ds2
Comme D > 0 et log est C 2 sur R∗+ , on applique la formule d’Itˆo a` log D :
t
log Dt = log D0 +
0
dDs 1 − 2 Ds
t
0
1 dD, Ds = L − L, Lt , t 2 Ds2
ce qui donne (2.1) en appliquant exp.
Proposition 2.3 (P-martingale et Q-martingale) Soit Q ∼ P sur F ∞ . Soit L le logarithme stochastique associ´ e `a la martingale Dt = (dQ/dP)|F t qu’on suppose continue. Soient X un processus continu adapt´e et T un temps d’arrˆ et tel que (XD)T est une Pmartingale alors X T est une Q-martingale. En particulier, si XD est une P-martingale locale alors X est une Q-martingale locale. D´ emonstration : La seconde partie de la proposition d´ecoule facilement de la premi`ere partie qu’on se contente de prouver. Pour cela, on a d’abord X tT ∈ L 1 (Q) car d’apr`es la Proposition 2.1, EQ [|X T ∧t |] = EP [|X T ∧t DT ∧t |] < + ∞.
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 2.
30
Puis consid´erons s < t et A ∈ F s . Comme A ∩ {T > s} = A ∩ {T ≤ s }c ∈ F s et (XD)T est une P-martingale, on a
EP 1A∩{T >s} X T ∧t DT ∧t = EP 1A∩{T >s} X T ∧s DT ∧s
(2.3)
par propri´et´e de P-martingale pour (XD)T . On a aussi A ∩ {T > s} ∈ F T car pour tout u ≥ 0, si s ≤ u si s > u
A ∩ {T > s} ∩ {T ≤ u } ∈ F s ∩ F u ⊂ F u , A ∩ {T > s} ∩ {T ≤ u } = ∅ ∈ F u .
Comme aussi A ∩ {T > s} ∈ F s , on a donc A ∩ {T > s} ∈ F T ∧s ⊂ F T ∧t , l’´egalit´e (2.3) se r´e´ecrit EQ 1A∩{T >s} X T ∧t = EQ 1A∩{T >s} X T ∧s
car on rappelle que par la Proposition 2.1 : DT ∧t =
dQ , dP |F T ∧t
DT ∧s =
dQ . dP |F T ∧s
Par ailleurs, comme il est ´evident que EQ [1A∩{T ≤s} X T ∧t ] = EQ [1A∩{T ≤s} X T ∧s ] (car dans ces deux int´egrales X T ∧t = X T = X T ∧s ), il vient EQ [1A X T ∧t ] = EQ [1A X T ∧s ] pour tout A ∈ F s . Cela ´etablit que X T est une Q-martingale et prouve la proposition.
2.2
Th´ eor`eme de Girsanov
Th´ eor` eme 2.1 (Girsanov) Soit Q ∼ P sur F ∞ et soit L le logarithme stochastique (suppos´e a` trajectoires continues) associ´ e `a la martingale Dt = (dQ/dP)|F t . Si M est une (F t , P)-martingale locale continue, alors le processus M = M − M, L est une (F t , Q)martingale locale continue.
Sous les hypoth`eses du Th´eor`eme 2.1, notons M = G QP (M ). Alors l’application G QP v´erifie : – G QP envoie l’ensemble des P-martingales locales continues dans l’ensemble des Qmartingales locales continues. – G PQ ◦ G QP = Id. – De plus, G QP commute avec l’int´egrale stochastique, ie. si H est un processus localement born´e alors H · G QP (M ) = G QP (H · M ).
D´ emonstration : On applique la formule d’Itˆ o avec F (x, y) = xy de classe C 2 aux semimartingales M = M − M, L et D :
t
Mt Dt = M0 D0 +
t
Ds dMs + M , Dt
Ms dDs +
0
0
2.2. Th´eor`eme de Girsanov
31
t
= M 0 D0 +
t
Ms dDs +
0
= M 0 D0 +
t
Ds dM s −
0
t
0
Ds dM, Ls + M, Dt
0
t
Ms dDs +
Ds dM s
(2.4)
0
puisque d’apr`es la Proposition 2.2 on a dM, Ls = Ds−1 dM, Ds . Comme M et D sont des P-martingales, l’´egalit´e (2.4) montre alors que M D est une P-martingale locale car M et D en sont donc les int´egrales stochastiques contre D et M aussi. La conclusion vient de la Proposition 2.3.
Les corollaires suivants explorent quelques cons´equences remarquables du th´eor`eme de Girsanov.
Corollaire 2.1 Une (F t , P)-martingale locale continue M reste une (F t , Q)-semimartingale continue avec la d´ecomposition M = M + M, L. D´ emonstration : Directe.
En particulier, ce corollaire montre que la classe des ( F t , P) semimartingales continues est contenue dans celle des (F t , Q) semimartingales continues. Mais en fait, on a mieux :
Corollaire 2.2 Sous les hypoth`eses du Th´eor`eme 2.1 (Girsanov), les classes des (F t , P) semimartingales continues et des (F t , Q) semimartingales continues co¨ ıncident. D´ emonstration : Il suffit de montrer que sous les hypoth`eses du Th´eor`eme 2.1 (Girsanov), les rˆoles de P et Q sont sym´etriques. Pour cela, on applique le Th´eor`eme 2.1 `a M = − L. On a M = M − M, L = − L+ L, L est une martingale locale continue avec M , M = L, L. Ainsi
1 E M t = exp Mt − M , M t 2
1 = exp −Lt + L, Lt − L, Lt 2 1 = exp −Lt + L, Lt 2 = E L
−1 t
= D t−1 .
On peut donc ´echanger les rˆo les de P et Q quitte `a remplacer D par D−1 et L par M = − L + L, L.
Corollaire 2.3 Soient X, Y deux semimartingales continues (relativement `a P ou Q). La valeur du crochet X, Y est la mˆeme sous P et sous Q.
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 2.
32
D´ emonstration : En effet dans les deux cas, X, Y est donn´e par l’approximation de la Proposition ?? qui ne change pas si on change P en Q. Ou encore, le changement de probabilit´e n’affecte que la partie `a variation finie d’une semimartingale donc pas son crochet.
De mˆeme, si H est un processus localement born´e, l’int´egrale stochastique H · X est la mˆeme sous P et Q (utiliser des approximations par des processus ´el´ementaires). Le Th´eor`eme de Girsanov s’utilise souvent `a horizon fini :
Corollaire 2.4 Pour T > 0 une date d´eterministe fix´ee, on se donne une filtration (F t )t∈[0,T ] et on suppose qu’elle v´erifie les conditions habituelles (chaque F t contient les P -n´egligeables de F T ). Si Q ∼ P, on d´efinit comme pr´ec´edemment la martingale (Dt )t∈[0,T ] et, si D a une version continue, on d´efinit la martingale (Lt )t∈[0,T ] . Alors, l’analogue du Th´eor`eme 2.1 (Girsanov) reste vrai pour [0, T ].
2.3
Utilisation de Girsanov
Dans les applications pratiques du Th´eor`eme de Girsanov (Th. 2.1), on ne dispose pas en g´en´eral de la probabilit´e Q mais de ce qui joue le rˆole du logarithme stochastique L de sa d´eriv´ee de Radon-Nikodym D = d Q/dP. On reconstruit alors la probabilit´ e Q comme suit : – on part d’une martingale locale continue L telle que L0 = 0 ; – alors E (L)t est une martingale locale continue `a valeurs strictement positives, c’est donc une surmartingale (Proposition ?? ) ; – cela assure l’existence ps de la limite E (L)∞ (Th´eor`eme ??) ; en plus, d’apr`es le lemme de Fatou, on a E[E (L)∞ ] ≤ 1 (2.5) puisque E[E (L)∞ ] = E
t
lim E (L)t = E lim inf E (L)t ≤ lim inf E[E (L)t ] ≤ 1
→+∞
t
→+∞
t
→+∞
(2.6)
car, si s ≤ t, E[E (L)t ] ≤ E[E (L)s ] ≤ E[E (L)0 ] = 1. – Mais si on a ´egalit´e dans (2.5), on a bien mieux : Proposition 2.4 Si la condition suivante est satisfaite E[E (L)∞ ] = 1,
(2.7)
alors E (L) est une vraie martingale uniform´ement int´egrable. D´ emonstration : On montre d’abord sous (2.7) que E (L) est une vraie martingale : sous (2.7), il y a ´egalit´e dans les in´egalit´es (2.6), soit n´ecessairement E[E (L)t ] = E[E (L)s ] pour tout s ≤ t, ce qui combin´ e avec E[E (L)t |F s ] ≤ E (L)s exige E[E (L)t |F s ] = E (L)s , c’est `a dire E (L) est une vraie martingale.
2.3. Utilisation de Girsanov
33
Puis comme E (L)t → E (L)∞ ps avec E[|E (L)t |] = E[|E (L)∞ |] = 1 alors le r´esultat suivant (lemme de Scheff´e) garantit que E (L)t → E (L)∞ dans L 1 . D’apr`es la Proposition ?? sur la convergence des martingales, c’est ´equivalent `a avoir E (L) uniform´ement int´egrable (ou ferm´ee). – En posant Q = E (L)∞ · P , on est finalement dans le cadre du th´eor`eme de Girsanov (Th. 2.1).
Lemme 2.1 (Scheff´e) Soient X n → X ps. Alors
E |X n | → E |X |
E |X n − X | → 0 ie. X n → X dans L1 .
ssi
En pratique, si M est une P-martingale locale, si on change sa partie `a variation finie en retranchant M, L, on a toujours une martingale locale en changeant P en Q, probabilit´e ´equivalente de densit´e donn´ee par l’exponentielle stochastique E (L). Il faut cependant que la condition (2.7) soit satisfaite. Il est donc important de pouvoir donner des conditions qui assurent (2.7). C’est l’objet du r´esultat suivant.
Th´eor`eme 2.2 (Condition de Novikov) Soit L une martingale locale continue telle que L0 = 0. Consid´erons les conditions suivantes :
1. E exp 12 L, L∞ ] < + ∞ ;
2. L est une martingale uniform´ement int´egrable et E exp( 12 L∞ ) < + ∞ ; 3. E (L) est une martingale uniform´ement int´egrable. Alors on a les implications 1) ⇒ 2) ⇒ 3).
D´ emonstration : • 1) ⇒ 2). Comme d’apr`es 1) E[L, L∞ ] < +∞, L est une vraie martingale born´ee dans L2 (cf. Th. ??). Elle est donc uniform´ement int´egrable. Puis, par d´efinition de E (L)∞ :
1 exp L∞ 2
1 = E (L)1/2 exp L, L∞ ∞ 2
1/2
.
Par l’in´egalit´e de Cauchy-Schwarz, comme on a toujours (2.5) , on a
1 E exp L∞ 2
1 ≤ E [E (L)∞ ]1/2 E exp L, L∞ 2
1/2
1 ≤ E exp L, L∞ 2
1/2
< + ∞.
• 2) ⇒ 3). Puisque L est une martingale uniform´ement int´egrable, on a Lt = E[L∞ |F t ]. Par l’in´egalit´e de Jensen avec exp, on a alors
1 exp Lt 2
1 1 = exp E[L∞ |F t ] ≤ E exp L∞ |F t 2 2
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 2.
34
ce qui assure, par 2), que exp( 12 Lt ) ∈ L1 . Par convexit´ e de exp, exp( 12 Lt ) est une sousmartingale qui, par l’in´egalit´e pr´ec´edente, est ferm´ee par exp( 12 L∞ ) (en tant que sousmartingale). En appliquant le th´eor`eme d’arrˆet (Th. ??) pour les (sur)sous-martingales ferm´ees, pour tout temps d’arrˆet T , on a exp( 12 LT ) ≤ E[exp( 12 L∞ )|F T ]. Cela montre que la famille exp( 12 LT ) : T temps d’arrˆet est uniform´ement int´egrable.
(a)
Puis pour 0 < a < 1, on pose Z t
= exp
aLt 1+a
. Un calcul direct donne 2
2
E (aL)t = (E (L)t )a (Z t(a) )1−a . Si Γ ∈ F ∞ et T est un temps d’arrˆet, l’in´egalit´e de H¨older avec p = 1/a2 et q = 1/(1 − a2 ) donne a2
E [1Γ E (aL)T ] ≤ E [E (L)T ]
E
1Γ Z t(a)
1 a2
−
≤E
1Γ Z t(a)
1 a2
−
1 ≤ E 1Γ exp LT 2
2a(1 a)
−
(2.8) o`u, pour la deuxi`eme in´egalit´e, on a utilis´e que E (L) est une surmartingale positive, ie. E [E (L)T ] ≤ E [E (L)0 ] = 1
puis pour la troisi`eme l’in´egalit´e de Jensen avec ϕ(x) = x (1+a)/(2a) (convexe pour 0 < a < 1), ie.
E
(a) 1Γ Z t
(1+a)/(2a)
(a)
= ϕ E 1Γ Z t
(a) ≤ E ϕ(1Γ Z t ) = E 1Γ exp
1 LT 2
.
Comme la famille exp( 12 LT ) : T temps d’arrˆet est uniform´ement int´egrable, l’in´egalit´e (2.8) montre que la famille E (aL)T : T temps d’arrˆet l’est aussi. D’apr`es la Proposition ?? cela entraˆıne alors que E (aL) est une vraie martingale uniform´ement int´egrable. Il suit alors a2
2 (a) 1 a
1 = E [E (aL)0 ] = E [E (aL)∞ ] ≤ E [E (L)∞ ] E Z ∞
−
1 ≤ E [E (L)∞ ] E exp L∞ 2 a2
2a(1 a)
avec, `a nouveau pour la derni`ere ´egalit´e, l’in´egalit´e de Jensen avec ϕ(x) = x(1+a)/(2a) . En faisant a → 1, la derni`ere borne implique E [E (L)∞ ] ≥ 1 et donc avec (2.5) toujours valable on a obtenu E [E (L)∞ ] = 1. On d´eduit de la Proposition 2.4 que E (L) est une vraie martingale uniform´ement int´egrable.
2.4
Girsanov dans le cadre brownien
Dans cette section, on sp´ecialise de plus en plus le Th´eor`eme de Girsanov dans le cadre brownien.
−
2.4. Girsanov dans le cadre brownien
35
Corollaire 2.5 (Girsanov brownien 1) Soient B un ( F t , P)-mouvement brownien et L satisfaisant (2.7) (en satisfaisant une des conditions de Novikov du Th. 2.2 ). Alors B = B − B, L est un (F t , Q)-mouvement brownien.
D´ emonstration : Par le Th´eor`eme 2.1 (Girsanov), B = B − B, L est une ( F t , Q)martingale locale continue de variation quadratique B, B t = B, B t = t, t ≥ 0. Le Th´eor`eme de L´evy (Th. 1.2) assure alors que B est un ( F t , Q)-mouvement brownien. t
Dans le corollaire suivant, on prend Lt = 0 f (s)dBs . Il s’agit du Th´eor`eme de Girsanov original (1960). On rappelle que, pour le mouvement brownien B , L2loc (B) =
T
H : Ω → R : progressif avec pour tout t ≥ 0 E
0
ici on consid`ere L2[0,T ] (B)
=
T
H : Ω → R : progressif avec E
H s (·)2 ds < + ∞
H s (·)2 ds < + ∞ .
0
Corollaire 2.6 (Girsanov brownien 2) Soit B un (F t , P)-mouvement brownien et, pour t T fix´e, f ∈ L 2[0,T ] (B) telle que Lt = 0 f (s)dBs satisfait (2.7) (en satisfaisant une des conditions de Novikov du Th. 2.2 ). Soit Q de densit´e (par rapport `a P)
T
DT = exp
0
1 f (s)dBs − 2
T
f (s)2 ds .
0
Sous Q, le processus B s’´ecrit Q
Bt = B t +
t
f (s)ds
(2.9)
0
o` u B Q est un (F t , Q)-mouvement brownien.
D´ emonstration : On applique le Th´eor`eme de Girsanov (Th. 2.1) `a M = B avec t t Lt = 0 f (s)ds et on remarque que B, Lt = 0 f (s)ds. Alors B = B − B, L = B Q est une Q-martingale locale continue de crochet B, B t = B, B t = t. Donc B Q = B est un Q-mouvement brownien.
On sp´ecialise encore davantage le Th´eor`eme de Girsanov dans le cadre brownien en prenant maintenant des int´egrales stochastiques avec des int´egrants f d´eterministes. On obtient la formule de Cameron-Martin (1944) :
Corollaire 2.7 (Cameron-Martin) Soient (Bt )t≥0 un (F t , P)-mouvement brownien et f ∈ L2 ([0, T ]).
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 2.
36 1. La variable al´eatoire
T
DT = exp
0
1 f (s)dBs − 2
T
f (s)2 ds
0
est une densit´e de probabilit´e qui d´efinit une probabilit´e Q (par dQ = D T dP). 2. Le processus
t T
Q
Bt = Bt −
∧
f (s)ds
0
est un Q-mouvement brownien. Autrement dit, sous Q, le P-mouvement brownien B s’´ecrit t Bt = B tQ +
f (s)ds.
0
D´ emonstration : Il suffit de prouver le point 1). Le point 2) est alors donn´e par le Corolt t laire 2.6. On prend L t = 0 f (s)dBs dans (2.1). On a L, Lt = 0 f (s)2 ds et comme f est d´eterministe, E[expL, LT ] < + ∞ est garanti. Le Th´eor`eme 2.2 assure alors la condition de Novikov (2.7) et donc (Dt )t∈[0,T ] est bien une densit´e de probabilit´e.
t
Dans le cadre gaussien pour Lt = 0 f (s) dBs avec f ∈ L 2[0,T ] (B), on donne une condition plus explicite qui garantit (2.7) mais pour un horizon T fini :
Proposition 2.5 Soient T une date d´eterminite fix´ee et f ∈ L2[0,T ] (B). On suppose qu’il existe a > 0 et C ∈]0, +∞[ tel que pour tout t ∈ [0, T ] on ait
E exp(af (t)2 ) ≤ C < + ∞,
alors E[E (L)T ] = 1, ie. la condition (2.7) garantissant le Th´eor`eme de Girsanov sur [0, T ] est satisfaite.
D´ emonstration : On localise afin de pouvoir appliquer la Proposition 1.2 qui garantit T · que si 0 f (s)2 ds est born´ee alors E[E ( 0 f (s)dBs )T ] = 1. Pour cela, on pose τ n = inf t ≥ t 0 : 0 f (s)2 ds ≥ n . La suite f n = f 1[0,τ n] est telle que, quand n → + ∞,
T
T
2
T
2
f n (u) du ≤ n,
f n (u) du
0
0
T
2
·
f (u)2 dBu
f n (u) dBu →
f (u) du,
0
T
2
0
ps.
0
·
On note V n = E ( 0 f n (s)dBs ) et V = E ( 0 f (s)dBs ). Fixons r, s tels que 0 ≤ r ≤ s ≤ T avec | s − r| ≤ a/6 et ´ecrivons V n (s) V n (r)
2
s
s
f n (u)dBu −
= exp 2
r
r
s
s
f n (u)dBu − 4
= exp 2
r
f n (u)2 du
s
2
f n (u) du exp 3
r
r
f n (u)2 du .
2.4. Girsanov dans le cadre brownien
37
L’in´egalit´e de Cauchy-Schwarz implique
2
V n (s) V n (r)
E
1/2
s
≤
E exp
s
f n (u)dBu − 8
4
s
2
× E exp 6
f n (u) du
r
r
2
1/2
f n (u) du
r
=1
1/2
s
= 1 × E exp 6
2
f n (u) du
r
s
≤
du E exp(6(s − r)f n (u) ) s−r
1/2
2
r 1/2
≤ C
en utilisant le th´eor`eme de Fubini, l’in´egalit´e de Jensen pour la fonction convexe exp et la mesure uniforme du/(s − r) sur [r, s] et enfin l’hypoth`ese sur a ≥ 6(s − r) ainsi que la Proposition 1.2 pour
s
E exp 4
s
f n (u)dBu − 8
r
Comme les moments d’ordre 2 de
f n (u)2 du
r
V n (s) sont V n (r)
= 1.
born´es, on en d´eduit que
V n (s) est V n (r)
uniform´ement
P
int´egrable. Comme de plus, V n (t) −→ V (t), cf. preuve de la Proposition 1.2, on a aussi V n (s) P V (s) et avec le Th´eor`eme de Vitali : V n (r) −→ V (r) V n (s) V (s) = dans L 1 n→+∞ V n (r) V (r) lim
et par continuit´e de l’esp´erance conditionnelle
V (s) V n (s) E F r = lim E Fr = 1 n→+∞ V (r) V n (r) car, pour f n , Ln est une vraie martingale, ce qui assure E
E[V n (s)|F r ] V n (s) V n (r) = = 1. |F r = V n (r) V n (r) V n (r)
k Pour conclure, il suffit de d´ecomposer [0, T ] en une subdivision tk = m T , 0 ≤ k ≤ m, avec m assez grand pour que le pas v´erifie T /m ≤ a/6. On ´ecrit alors V (T ) = V (tm−1 ) × [V (tm )/V (tm−1 )] avec V (tm−1 ) variable al´eatoire F tm−1 -mesurable et, par ce qui pr´ec`ede, E[V (tm )/V (tm−1 )|F tm−1 ] = 1. Finalement, par r´ ecurrence
E[V (T )] = E V (tm−1 ) × [V (tm )/V (tm−1 )]
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 2.
38
= E V (tm−1 )E[V (tm)/V (tm−1 )|F tm−1 ] = E[V (tm−1 )] = 1.
´ Exemple 1 : Etude du sup d’un mouvement brownien d´ ecentr´e. Pour ´etudier la loi du sup de Bt = B t + bt sur [0, T ], il suffit de connaˆıtre la loi du couple (BT , supt≤T B t ). En effet, d’apr`es la formule de Cameron-Martin, on a P
sup(Bt + bt) ≥ x t T
≤
= EP
1 exp(bBT − b2 T )1{supt≤T B t ≥x} . 2
Exemple 2 : Application statistique ` a la d´ etection d’un signal. Consid´erons un signal (temporel, d´eterministe) repr´esent´e par une fonction m. On cherche `a tester la pr´esence ou non du signal m. La difficult´e vient de ce que le test se pratique dans une ambiance bruit´ee (repr´esent´ee par B). On observe alors – soit B (le bruit pur) si le signal est absent, – soit m + B (le signal utile m bruit´e par B ) si le signal est pr´esent. L’observateur n’observe qu’une seule des deux fonctions (sans savoir laquelle) ω = (ωt : t ∈ [0, T ]) ∈ {B, m + B } et le but est pr´ecis´ement de d´eterminer laquelle des deux fonctions il observe. Plutˆot que de consid´erer les deux fonctions al´eatoires B et m + B dont la loi est mesur´ee par la mˆeme probabilit´e P, il est ´equivalent de consid´erer qu’il ne peut observer qu’une fonction X , qui mod´elise son observation, mais sous deux probabilit´es diff´erentes selon que le signal est pr´esent ou pas. Ainsi ω est observ´ee avec la probabilit´e P(dω) ou Q(dω) selon le cas. On suppose que – le bruit est mod´elis´e par un mouvement brownien B ; t – le signal est de la forme m(t) = 0 f (s)ds o` u f est d´eterministe mesurable. · On interpr`ete alors m comme le crochet m(t) = B, 0 f (s)dBs t . Sous la probabilit´e Q donn´ee par d Q = D T dP avec
T
DT = exp
0
1 f (s)dBs − 2
T
f (s)2 ds
0
B est un processus (mouvement brownien) d´ecentr´e par m (ie. B = B Q + m), tandis que sous P, B est un mouvement brownien standard donc centr´e. La vraisemblance associ´ee `a l’observation de la trajectoire ω est donn´ee par DT (ω) qui vaut 1 s’il n’y a pas de signal et qui peut ˆetre tr`es grand s’il y en a un. On en d´eduit une r`egle
2.4. Girsanov dans le cadre brownien
39
de d´ecision : si on observe ω, on d´ecide que le signal ´etait pr´esent lorsque
T
U :=
0
1 1 f (s)dBs > VarP (U ) = 2 2
T
0
1 f (s)2 ds = σ2 . 2
Cette r`egle n’est pas infaillible : Sous P, U ∼ N (0, σ2 ) ∼ σN 0 (o`u N 0 ∼ N (0, 1)) et si le signal m est r´eellement absent, la probabilit´e de prendre une mauvaise d´ecision est
1 1 p = P U > σ2 = P N 0 > σ . 2 2 Tandis que si le signal est vraiment pr´esent, Q est la probabilit´e qui gouverne le ph´enom`ene ; sous Q
T
U =
T
f (s)dBs =
0
0
f (s)dBs +
T
=
0
T
Q
T
Q
f (s)dBs + 2
2
∼ N (0, σ ) + σ .
f (s)dm(s)
0
f (s)2 ds
0
La probabilit´e d’erreur est alors
1 1 q = Q U < VarP (U ) = P σN 0 + σ 2 ≤ σ2 2 2 1 1 = P σN 0 ≤ − σ2 = P σN 0 ≥ σ2 = p 2 2
(selon les cas, c’est P ou Q qui gouverne les lois). D’apr`es la table de la loi N (0, 1), on a p, q ≤ 5% si σ ≥ 4.
40
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 2.
Chapitre 3 ´ Equations diff´ erentielles stochastiques On pr´esente dans ce chapitre les ´equations diff´erentielles stochastiques browniennes. On commence par en donner une motivation en Section 3.1 en tant que g´en´eralisation des ´equations diff´erentielles ordinaires dans un contexte d’incertitude repr´esent´ee par un bruit al´eatoire. Des exemples d’EDS classiques sont pr´esent´es en Section 3.2. Les principaux r´esultats d’existence et d’unicit´e sont d´ecrits en Section 3.3. On ´etudie les solutions d’EDS dirig´ee par un mouvement brownien comme fonctionnelle sur l’espace de Wiener en Section 3.5. La propri´et´e de Markov pour les solutions d’EDS est pr´esent´ee en Section 3.6.
3.1
Introduction, d´ efinitions
´ Equations diff´ erentielles et EDS Les ´equations diff´erentielles (standard) gouvernent de nombreux ph´enon`enes d´eterministes. Pour prendre en compte des ph´enom`enes al´eatoires, formellement on doit prendre en compte des « diff´erentielles stochastiques », ce qui transforme les ´equations en ´equations diff´erentielles stochastiques (EDS). Les ´equations diff´erentielles sont des ´equations d’´evolution du type ˙ = a(t, x(t)) x(t)
(3.1)
o`u l’inconnue est une fonction x(t) qui doit v´erifier une ´equation impliquant sa d´eriv´ee x˙ et elle mˆeme. Les cas les plus simples sont les ´equations diff´erentielles d’ordre 1 comme en (3.1) (seule la d´eriv´ee 1`ere est impliqu´ee) avec a(t, x) = a + bx ind´ependant de t et affine par rapport `a x. Symboliquement, l’´equation (3.1) se r´e´ecrit dx(t) = a(t, x(t)) dt.
(3.2)
Cette ´equation mod´elise typiquement un syst`eme physique (x(t))t≥0 qui ´evolue avec le temps de fa¸con que x s’accroˆıt, `a la date t, selon le taux a(t, x(t)). Par exemple, avec 41
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 3.
42
a(t, x) = a(t)x, l’´equation dx(t) = a(t)x(t) dt mod´elise le cours d’un actif financier x(t) soumis au taux d’int´erˆet variable a(t) ou d’une population avec un taux de natalit´e a(t). Il est bien connu que la solution est
t
x(t) = x 0 exp
a(s) ds .
0
Les EDS sont des g´en´eralisations des ´equations (3.2) o`u la dynamique d´eterministe d’´evolution a est perturb´ee par un terme al´eatoire (stochastique). On parle alors d’´equation diff´erentielle stochastique. En g´en´eral la perturbation al´eatoire est consid´er´ee comme un bruit. Par un argument du type TCL, il est l´egitime de consid´erer que ce bruit est un processus gaussien et en g´en´eral il est mod´elis´e par un mouvement brownien B et une intensit´e de bruit σ(t, x) : (3.3) dX t = a(t, X t ) dt + σ(t, X t ) dBt o`u σ est une fonction du temps t et de l’inconnue au temps t (X t ) mais pourrait juste d´ependre du temps (σt ) ou de la valeur X t en t (σ(X t )) ou encore ˆetre constante σ.
D´ efinitions En fait, l’´ecriture (3.3) est symbolique car dBt n’a pas vraiment de sens (le mouvement brownien n’est pas d´erivable !). Il faudrait ´ecrire (3.3) sous la forme
t
X t = X 0 +
t
a(s, X s ) ds +
0
σ(s, X s ) dB s
(3.4)
0
t
qui, elle, a un sens si l’int´egrale stochastique 0 σ(s, X s ) dB s a un sens, cf. chapitre ?? . On g´en´eralise encore dans la d´efinition suivante la notion d’EDS dans un cadre vectoriel.
D´ efinition 3.1 (EDS) On appelle ´equation diff´erentielle stochastique (EDS) une ´equation en le processus X (` a valeurs dans Rd ) de la forme dX t = a(t, X t ) dt + σ(t, X t ) dBt
(E (a, σ))
ce qui, en terme int´egrale, s’´ecrit X ti
= X 0i +
m
t
ai (s, X s ) ds +
0
j=1
t
0
σi,j (s, X s ) dB js ,
1 ≤ i ≤ d
(3.5)
o` u, pour m, d des entiers positifs, – a(t, x) = (ai (t, x))1≤i≤d est un vecteur mesurable de Rd d´efini sur R+ × Rd appel´e d´ erive ou drift de l’EDS, – σ(t, x) = (σi,j (t, x))1≤i≤d est une matrice d × m mesurable d´efinie sur R + × Rd appel´e 1 j m
≤≤
coefficient de diffusion de l’EDS, et B = (B 1 , . . . , Bm ) est un mouvement brownien standard en dimension m.
3.2. Exemples d’EDS
43
La solution d’une EDS est une fonction al´eatoire. Il s’agit donc d’un processus qu’on note X = (X t )t≥0 . Plus pr´ecis´ement, on a :
D´ efinition 3.2 (Solution d’une EDS) On appelle solution de l’EDS E (a, σ) la donn´ee de – un espace de probabilit´e filtr´e Ω, F , (F t )t≥0 , P satisfaisant les conditions habituelles ; – un (F t )t≥0 -mouvement brownien B = (B 1 , . . . , Bm ) dans Rm d´efini sur cet espace de probabilit´e ; – un processus (F t )t≥0 -adapt´e continu X = (X 1 , . . . , X d ) `a valeurs dans Rd tel que (3.4) soit v´erifi´ee, c’est `a dire, coordonn´ee par coordonn´ee, pour tout 1 ≤ i ≤ d : (3.5). Lorsque de plus X 0 = x ∈ Rd , on dira que le processus X est solution de E x (a, σ).
En pratique (dans les cas simples), pour trouver la solution d’une EDS, on intuite la forme de la solution et on v´erifie que l’EDS de d´epart est bien satisfaite en appliquant la formule d’Itˆo, cf. Section 3.2. On propose des r´esultats g´en´eraux d’existence et d’unicit´e des EDS, du type th´eor`eme de Cauchy-Lipschitz dans la Section 3.3.
3.2
Exemples d’EDS
Les EDS affines admettent des solutions explicites qu’on peut obtenir comme dans le cas d´eterministe par la m´ethode de variation de la constante. Le cas affine est important car les EDS affines apparaissent comme des lin´earis´ees d’EDS plus complexes qu’on ne sait pas toujours r´esoudre. On se place dans le cas r´eel, ie. d = m = 1.
3.2.1
´ Equations lin´ eaires
Ornstein-Uhlenbeck : ´ equation a(t, x) = −ax (a > 0) et σ(x) = σ. Il s’agit de l’´equation de Langevin : (3.6) dX t = − aX t dt + σ dBt c’est `a dire avec a(t, x) = − ax, et σ(x) = σ. La solution est donn´ee par X t = X 0 e−at + σ
t
e−a(t−s) dBs .
(3.7)
0
Sans le terme σdBt , l’´equation dX t = −aX t dt se r´esout imm´ediatement en X t = Ce−at . Pour tenir compte du terme σ dBt , on fait « varier la constante C » : dC e−at − aCe −at dt = dX t = − aX t dt + σ dBt dC = σe at dBt
t
C = X 0 +
0
σeas dBs
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 3.
44
et, avec X t = C e−at , l’expression (3.7) est obtenue. On peut observer directement que (3.7) est satisfaite en d´erivant X t = X 0 e−at +σe−at avec la formule d’Itˆo (sous la forme d´eriv´ee de l’IPP) :
t as e 0
dBs
d(X t Y t ) = X t dY t + Y t dX t + dX, Y t . Il s’agit du processus d’Ornstein-Uhlenbeck (cf. Section ?? ). Ce cas se g´en´eralise au contexte vectoriel.
´ Equation a(t, x) = a t x et σ(x) = σ t x. On suppose les processus (at )t≥0 et (σt )t≥0 born´es T T ou v´erifiant l’int´egrabilit´e 0 |at | dt < + ∞, 0 |σt |2 dt < + ∞. L’EDS
dX t = X t (at dt + σt dBt ),
X 0 = x
(3.8)
admet pour solution
t
X t = x exp
t
as ds +
0
0
1 σs dBs − 2
t
0
σs2 ds .
(3.9)
Pour le voir, on suppose X positivement born´e sur [0, T ] (minor´e par 1/n, major´e par n) ; sinon, on introduit le temps d’arrˆet T n = inf(t : X t ≤ 1/n ou X t > n) et on arrˆete les processus `a ces dates. On applique la formule d’Itˆo `a X t∧T n et `a la fonction ln (qui est C 2 sur [1/n,n]). De l’´equation (3.8), on d´eduit dX, X t = X t2 σt2 dt. Le processus Y t = ln X t∧T n v´erifie alors
dY t =
1 1 dX, X t 1 2 σ t2 = − − dX t − a dt + σ dB dt = a σ dt + σt dBt , t t t t 2 X t2 2 2 t X t
ce qui prouve le r´esultat (3.9).
Black et Scholes. C’est le cas particulier o`u a(t, x) = ax et σ(t, x) = σx, ie. dX t = aX t dt + σX t dBt .
(3.10)
Cette EDS mod´elise l’´evolution d’un cours X soumis a` un taux d’int´erˆet d´eterministe a et `a une perturbation stochastique σX t dBt . Dans un contexte financier, le coefficient de diffusion σ est appel´e volatilit´e. Noter que la partie d´eterministe de l’accroissement de X t (aX t ) et sa partie al´eatoire (σX t ) sont toutes les deux proportionnelles `a la valeur courante, X t , en t (ce qui est typique des mod`eles de croissance). La solution de (3.10) est un cas particulier de ( 3.9) :
σ 2 X t = X 0 exp at − t + σB t . 2 On retrouve le mouvement brownien g´eom´etrique .
3.3. Existence et unicit´e
3.2.2
45
´ Equations affines
On suppose que a(t, x) = ct + at x et σ(t, x) = σt x + δ t , c’est `a dire qu’on consid`ere l’EDS affine g´en´erale dX t = X t (at dt + σt dBt ) + ct dt + δ t dBt .
(3.11)
Elle a une solution construite `a partir de la solution Z de l’EDS lin´eaire dZ t = Z t (at dt + σt dBt ) de condition initiale Z 0 = 1, ie.
t
Z t = exp
t
as ds +
0
0
1 σs dBs − 2
donn´ee, avec ct = c t − σt δ t , par
t
X t = Z t X 0 +
0
t
0
σs2 ds
Z s−1(cs ds + δ s dBs ) .
(3.12)
Avec la formule d’Itˆo, on v´erifie que (3.12) satisfait effectivement l’´equation (3.11) : dX t = Z t Z t−1 (ct dt + δ t dBt ) + X t (at dt + σt dBt ) + dZ t , Z t−1 δ t Bt t = ct dt + δ t dBt + X t (at dt + σt dBt ) + σt δ t dt = X t (at dt + σt dBt ) + ct dt + δ t dBt .
3.3
Existence et unicit´ e
Comme d’habitude pour les ´equations diff´erentielles, les notions d’existence et d’unicit´e sont essentielles. Dans le contexte des EDS, il existe plusieurs types d’existence et d’unicit´e des EDS. Dans toute cette section, on consid`ere l’EDS E (a, σ).
D´ efinition 3.3 (Existence, unicit´ e des EDS) Pour l’´equation E (a, σ), on dit qu’il y a – existence faible si pour tout x ∈ Rd , il existe une solution de E x (a, σ) ; – existence et unicit´ e faibles si de plus toutes les solutions de E x (a, σ) ont mˆeme loi ; – unicit´e trajectorielle si, l’espace de probabilit´e filtr´e Ω, F , (F t )t≥0 , P et le mouvement brownien B ´etant fix´es, deux solutions X et X de E (a, σ) telles que X 0 = X 0 ps sont indistinguables. On dit de plus qu’une solution X de E x (a, σ) est une solution forte si X est adapt´e par rapport `a la filtration canonique de B. Il y a unicit´e forte pour E (a, σ) si pour tout mouvement brownien B, deux solutions fortes associ´ ees `a B sont indistinguables.
Remarque 3.1 Il peut y avoir existence et unicit´e faibles sans qu’il y ait unicit´e tra jectorielle. Pour voir cela, on consid`ere un mouvement brownien β issu de β 0 = y et on pose
t
Bt =
0
sign (β s ) dβ s
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 3.
46
avec sign (x) = 1 si x ≥ 0 et sign (x) = − 1 si x < 0. On constate facilement que
t
β t = y +
sign (β s ) dB s .
0
Comme B est une martingale locale `a trajectoires continues et que
t
B, B t =
t
2
sign (β s ) dβ, β s =
0
ds = t,
0
le Th´eor`eme de L´evy (Th´eor`eme 1.2) justifie que B est un mouvement brownien (issu de 0). On voit alors que β est solution de l’EDS dX t = sign (X t ) dB t ,
X 0 = y,
(3.13)
` nouveau, par le Th´eor`eme de L´evy, on prouve pour laquelle il y a donc existence faible. A l’unicit´e faible : toute solution X de (3.13) est une martingale locale `a trajectoires continues et v´erifie t t
X, X t =
sign (X s )2 dB, B s =
0
ds = t
0
et doit donc ˆetre un mouvement brownien (Th´eor`eme de L´evy : Th. 1.2). Par contre, il n’y a pas, en g´en´eral, unicit´e trajectorielle : pour y = 0, on voit facilement que β et −β sont deux solutions de (3.13) associ´ees au mˆeme brownien B. Noter que t 1 ds = 0 car 0 {βs =0}
E
0
2
t
1{βs =0} dBs
t
=E
0
12βs =0
{
t
} ds = E
0
t
1{βs =0} ds =
P(β s = 0)ds = 0
0
t
et donc 0 1 {βs =0} dBs = 0 ps). Aussi, β n’est pas solution forte de l’EDS : on montre que la filtration de B co¨ıncide avec la filtration canonique de | β |, qui est strictement plus petite que celle de β . Le r´esultat suivant -admis (cf. [KS, Prop 3.20] pour une preuve)- relie les diff´erentes notions d’existence et d’unicit´e :
Th´ eor` eme 3.1 (Yamada-Watanabe) Existence faible et unicit´e trajectorielle impliquent unicit´e faible. De plus, dans ce cas, pour tout espace de probabilit´e filtr´e Ω, F , (F t )t≥0 , P et tout ( F t )t≥0 -mouvement brownien B , il existe pour chaque x ∈ Rd une (unique) solution forte de E x (a, σ).
Dans toute la suite, on suppose remplies les conditions suivantes : Hypoth`eses lipschitziennes. Les fonctions a et σ sont continues sur R+ × Rd et lipschitziennes en x, ie. il existe une constante K ∈]0, +∞[ telle que pour tout t ≥ 0 et x, y ∈ Rd
|a(t, x) − a(t, y)| ≤ K |x − y|
3.3. Existence et unicit´e
47
|σ(t, x) − σ(t, y)| ≤ K |x − y|
T
et 0 |a(t, 0)|2 + | σ(t, 0)|2 dt < +∞ pour tout T o` u |a| et |σ| repr´esentent la norme du vecteur a et de la matrice σ. On a alors
Th´ eor` eme 3.2 (Cauchy-Lipschitz pour EDS) Sous les hypoth`eses lipschitziennes, il y a unicit´e trajectorielle pour E (a, σ). De plus, pour tout espace de probabilit´e filtr´e Ω, F , (F t )t≥0 , P et tout (F t )t -mouvement brownien B, il existe pour chaque x ∈ Rd une (unique) solution forte de E x (a, σ).
Ce r´esultat entraˆıne en particulier qu’il y a existence faible pour E (a, σ). L’unicit´e faible sera une cons´equence du Th´eor`eme 3.4 (cf. remarque qui suit ce r´esultat) ; elle vient aussi de l’unicit´e trajectorielle si on utilise le th´eor`eme de Yamata-Watanabe (Th´eor`eme 3.1).
Remarque 3.2 On peut affaiblir l’hypoth`ese de continuit´e en t, celle-ci n’intervient essentiellement que pour majorer sup 0≤t≤T | σ(t, x)| et sup0≤t≤T | a(t, x)| pour x fix´e : on peut « localiser » l’hypoth` ese lipschitzienne sur a et σ se contenter d’une constante K qui d´epend du compact sur lequel t et x sont consid´er´es. Il faut alors conserver une condition de croissance sous-lin´eaire :
|σ(t, x)| ≤ K (1 + |x|),
|a(t, x)| ≤ K (1 + |x|).
Comme pour les ´equations diff´erentielles (ordinaires), la croissance sous-lin´eaire pr´evient l’explosion de la solution de l’EDS.
D´ emonstration : Pous simplifier la preuve, on consid`ere le cas d = m = 1. Unicit´ e trajectorielle. On consid`ere deux solutions X et X de E (a, σ) avec X 0 = X 0 , d´efinies sur sur le mˆeme espace et avec le mˆeme mouvement brownien B. Pour M > 0 fix´e, on consid`ere le temps d’arrˆet
τ = inf t ≥ 0 : | X t | ≥ M, |X t | ≥ M . D’apr`es E (a, σ), on a alors pour tout t ≥ 0 : t τ
X t∧τ = X 0 +
∧
t τ
σ(s, X s ) dB s +
0
∧
0
∧
a(s, X s ) ds
0
t τ
X t∧τ = X 0 +
t τ
σ(s, X ) dB s + s
∧
0
a(s, X s ) ds.
On consid`ere t ∈ [0, T ]. Par diff´erence, comme X 0 = X 0 et comme X, X sont born´ees par M sur ]0, τ ], l’expression de la variance d’une int´ egrale stochastique L2 , l’in´egalit´e de Cauchy-Schwarz, les hypoth` eses lipschitziennes et la majoration (x + y)2 ≤ 2(x2 + y 2 ) donnent
E (X t∧τ − X t∧τ )2
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 3.
48
2
t τ
∧
≤ 2 E
(σ(s, X s ) − σ(s, X )) dB s s
0
≤ 2 E
0
∧
0
≤ 2K (1 + T )E
t τ
t
0
s
t τ
∧
(σ(s, X s ) − σ(s, X s ))2 ds + T E
≤ 2K 2 (1 + T )E 2
+E
(a(s, X s ) − a(s, X )) ds
0
t τ
∧
∧
0
2
t τ
(a(s, X s ) − a(s, X s ))2 ds
(X s − X s )2 ds
(X s∧τ − X s ∧τ )2 ds.
Si on pose h(t) = E (X t∧τ − X t∧τ )2 et C = 2K 2 (1 + T ), alors on a ´etabli que h v´erifie pour t ∈ [0, T ] : h(t) ≤ C
t
h(s) ds.
0
De plus, par d´efinition de τ , la fonction h est born´ee par 4M 2 , l’in´egalit´e de Gronwall (lemme suivant) s’applique avec a = 0 et b = C . On obtient h = 0, c’est `a dire X t∧τ = X t∧τ ps. Finalement, en faisant M → + ∞, on a τ → + ∞ et donc X t = X t ps. Les processus X et X sont des modifications `a trajectoires continues, ils sont donc indistinguables, ce qui prouve l’unicit´e trajectorielle.
Lemme 3.1 (Gronwall) Soient T > 0 et g une fonction positive mesurable born´ee sur [0, T ]. On suppose qu’il existe des constantes a ≥ 0, b ≥ 0 telles que pour tout t ∈ [0, T ], on a t g(t) ≤ a + b
g(s)ds.
(3.14)
0
Alors on a g(t) ≤ a exp(bt) pour tout t ∈ [0, T ].
D´ emonstration :[Gronwall] En it´erant la condition (3.14) sur g, on a pour tout n ≥ 1, (bt)2 (bt)n + a(bt) + a + + a + bn+1 ··· g(t) ≤ a 2 n!
t
s1
ds1
0
sn
ds2 . . .
0
g(sn+1 )dsn+1 .
0
Si g est major´ee par A, le dernier terme se majore par A(bt)n+1 /(n + 1)! et il tend vers 0 quand n → + ∞, ce qui prouve le lemme car le d´eveloppement `a droite tend vers a exp(bt).
Existence forte. On proc`ede comme pour les ´equations diff´erentielles avec une m´ethode d’approximation de Picard. Pour cela, on pose X t0 = x
t
X t1 X t2
= x +
0
t
= x +
0
t
σ(s, x) dB s +
a(s, x) ds
0
σ(s, X s1 ) dB s +
t
0
a(s, X s1 ) ds
3.3. Existence et unicit´e
49
... = ... X tn
t
= x +
0
σ(s, X sn 1 ) dB s +
−
t
0
a(s, X sn−1 ) ds.
(3.15)
Les int´egrales stochastiques ci-dessus sont bien d´efinies puisque par r´ecurrence, on constate que, pour chaque n, X tn est continu et adapt´e donc localement born´e si bien que le processus σ(t, X tn ) l’est aussi (hypoth`ese lipschitzienne) et l’int´egrale correspondante bien d´efinie. On fixe maintenant T > 0 et on raisonne sur [0, T ]. On prouve par r´ecurrence qu’il existe C n tel que, pour tout t ∈ [0, T ], E (X tn ) 2 ≤ C n . (3.16)
En effet, (3.16) est imm´ediate si n = 0 avec C 0 = x. Puis, on suppose que (3.16) est vraie au rang n − 1 avec
|σ(s, y)| ≤ K + K |y |,
|a(s, y)| ≤ K + K |y|,
s ∈ [0, T ], y ∈ R.
Noter que par la croissance sous-lin´eaire de σ et l’hypoth`ese de r´ecurrence (3.16), on a t E 0 σ(s, X sn−1 )2 ds < + ∞. On a donc
E
0
2
t
σ(s, X sn 1 ) dB s
−
t
=E
0
σ(s, X sn 1 )2
−
ds .
Comme (x + y + z )2 ≤ 3(x2 + y 2 + z 2 ), par l’in´egalit´e de Cauchy-Schwarz, l’isom´etrie L2 , et les hypoth` eses lipschitziennes, on majore comme suit E
(X tn ) 2
t
2
2
t
σ(s, X sn 1 ) dB s
−
≤ 3 |x| + E
0
2
a(s, X sn 1 ) ds
−
+E
0
(convexit´e)
t
2
σ(s, X sn 1 )2
−
≤ 3 |x| + E
0
t
ds + tE
0
a(s, X sn−1 )2 ds
2
(isom´etrie L , Cauchy-Schwarz) t
2
≤ 3 |x| + (1 + T )E
0
((K )2 + K 2 (X sn−1 )2 ) ds
(hypoth`eses lipshitziennes) ≤ 3(|x|2 + T (1 + T )((K )2 + K 2 C n−1 ) =: C n
ce qui ´etablit (3.16) par r´ecurrence. La borne (3.16) et la croissance sous-lin´eaire de σ assurent alors que, pour chaque n, la t martingale locale 0 σ(s, X sn )dBs est une vraie martingale born´ee dans L2 sur l’intervalle [0, T ] (cf. Th´eor`eme ?? ).
Cela va permettre de ma jorer par r´ecurrence E sup0≤t≤T | X tn+1 − X tn | 2 . On a X tn+1
−
X tn
t
=
0
(σ(s, X sn )
−
σ(s, X sn 1 ))
−
dBs +
t
0
(a(s, X sn ) − a(s, X sn−1 ) ds.
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 3.
50
En utilisant les in´egalit´es de Doob (Prop. ??) et de Cauchy-Schwarz ainsi que les hypoth`eses lipschitziennes, on d´eduit
sup |X sn+1 − X sn |2
E
0 s t
≤≤
(σ(u, X un )
≤ 2E sup
0 s t
≤≤
0
≤ 2 4E
0
(σ(u, X un )
−
−
−
−
≤ 2 4E
0
+ sup
0 s t
≤≤
dBu
2
(isom´etrie L , Cauchy-Schwarz) t
≤ 2(4 + T )K E
0
(a(u, X un )
t
+E
0
t
(σ(u, X un ) − σ(u, X un−1 ))2 du + T E
2
0
0
2
s
2
σ(u, X un 1 ))
(in´egalit´e de Doob) t
σ(u, X un 1 )) dB u
(convexit´e)
t
2
s
−
a(u, X un 1 )) du
−
a(u, X un 1)| du
−
2
|a(u, X un )
−
(a(u, X un ) − a(u, X un−1 ))2 du
|X un − X un−1 |2du
(3.17)
(hypoth`eses lipschitziennes) t
≤ C T E
sup |X rn − X rn−1 |2 du
(3.18)
0 0 r u
≤≤
avec C T = 2(4 + T )K 2 . Si on note gn (u) = E sup0≤r≤u |X rn − X rn−1 |2 alors on a ´etabli t
gn+1 (t) ≤ C T
gn (u)du.
(3.19)
0
Par ailleurs, par (3.16) et les in´egalit´es pr´ec´edentes (cf. (3.17)), on voit que les fonctions g n sont born´ees sur [0, T ]. En particulier, il existe une constante C T telle que g 0 (t) ≤ C T pour t ∈ [0, T ]. Par une r´ecurrence utilisant ( 3.19), on ´etablit que pour tout n ≥ 1 et t ∈ [0, T ], on a tn gn (t) ≤ C T . n! On d´eduit alors que
+
∞
sup
n=0 0 s T
≤≤
+ n=0
|X sn+1
cela entraˆıne que ps
∞ g (T )1/2 < +∞, comme n
+
−
X sn |
≤
2
+
∞
n=0
∞
n=0
+
sup
0 s T
≤≤
|X sn+1
−
X sn |
sup |X sn+1 − X sn | < + ∞,
0 s T
≤≤
=
2
∞
n=0
gn (T )1/2 < + ∞
3.4. Utilisation de Girsanov pour les EDS
51
et donc ps la suite (X tn ) t∈[0,T ] converge uniform´ement sur [0, T ] vers un processus limite (X t )t∈[0,T ] qui est continu. Comme par r´ecurrence, chaque processus X n est adapt´e par rapport `a la filtration canonique de B , X l’est aussi `a la limite. Les estimations (3.18) ´etablissent aussi que E
2
+
∞
sup |X sn − X s |2 ≤
0 s T
≤≤
gk (T )1/2
→ 0,
n → + ∞.
k=n
On d´eduit alors de l’isom´etrie L 2 , des hypoth`eses lipschitziennes que, avec des limites dans L2 , on a :
t
2
L - lim n
→+∞
2
0
σ(s, X sn )
n
t
dBs =
→+∞
0
σ(s, X s ) dB s ,
0
t
L - lim
t
a(s, X sn ) ds
=
a(s, X s ) ds.
0
Finalement, en passant `a la limite dans l’´equation de r´ecurrence (3.15), on obtient que X est solution forte de E x (a, σ) sur [0, T ].
3.4
Utilisation de Girsanov pour les EDS
Le th´eor`eme de Girsanov permet de montrer l’existence de solution faible d’EDS quand elle n’admet pas n´ecessairement de solution forte.
Proposition 3.1 Soit B un mouvement brownien standard dans Rd et a : R+ × Rd → Rd . On consid`ere l’EDS (3.20) dX t = a(t, X t )dt + dBt . 1. Il y a existence faible lorsque a est une fonction born´ee. 2. Il y a unicit´ e faible sur [0, T ] lorsque a est presque sˆ urement carr´e int´egrable sur i i i [0, T ] : Soit pour i = 1, 2 X une solution sur Ω , F , (F ti )t≥0 , Pi associ´ee au mouvement brownien B i et de condition initiale µ (ind´ependante de i = 1, 2). Alors (X 1 , B 1 ) et (X 2 , B 2 ) ont la mˆeme loi sous P1 et P2 resp. (unicit´e faible) si
Pi
T
0
a(t, X ti )2 dt < + ∞ = 1.
– La condition sur a est trop faible pour que le Th´eor`eme 3.2 s’apRemarque 3.3 plique. Le th´eor`eme de Girsanov permet de montrer l’existence faible d’une solution. – On peut affaiblir l’hypoth`ese a born´ee en croissance sous-lin´eaire :
a(t, x) ≤ K (1 + x),
0 ≤ t ≤ T , x ∈ Rd .
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 3.
52
– On met ainsi en ´evidence l’effet r´egularisant du mouvement brownien B (en fait B , cf. ci-dessous) dans (3.20) puisque sans B , l’´equation diff´erentielle ordinaire xt = t )ds n’admet pas de solution en g´en´eral lorsque a est seulement born´e. 0 a(s, xs
D´ emonstration : Pour simplifier, on suppose d = 1. 1) Existence faible. En partant de Ω, F , (F tB )t≥0 , P et B un mouvement brownien, on construit une solution faible par le th´eor`eme de Girsanov. Pour cela, on consid` ere t Lt = 0 a(s, Bs )dBs (bien d´efini parce que a est born´ee) et on pose
t
Z t = E (L)t = exp
0
Comme exp
1 2
t a(s, Bs )2 0
1 a(s, Bs ) dB s − 2
t
a(s, Bs )2 ds .
0
ds ≤ exp(ta∞ /2), le crit`ere de Novikov (Th´eor`eme 2.2) est
satisfait sur tout intervalle [0, t] et Z est une F B -martingale sur R+ . On d´efinit alors une probabilit´e sur chaque F tB en posant d Qa|F B = Z t dP. Le th´eor`eme de Girsanov assure que t
t
Bt = B t −
a(s, Bs )ds
0
est un Qa -mouvement brownien. Sous Qa , le processus B est solution de t
X t = Bt +
a(s, X s )ds
0
c’est `a dire de l’EDS (3.20) dirig´ee par B . On a donc construit une probabilit´ e Qa et des processus (B, B ) tels que B est un mouvement brownien sous Qa et B est solution faible de (3.20).
e faible. Soient T une date d´eterministe fix´ee et µ une loi initiale. Pour k ≥ 1 2) Unicit´ et i = 1, 2, on consid`ere
τ ki = T ∧ inf 0 ≤ t ≤ T :
t
0
a(s, X si )2 ds ≥ k .
Comme pr´ec´edemment, le crit`ere de Novikov assure que Z tk,i = exp
t τ ki
∧
0
a(s, X si ) dB si −
1 2
t τ ki
∧
0
a(s, X si )2 ds
est une martingale. On d´efinit alors des probabilit´es par dQk,i = Z T k,i dPi . Le th´eor`eme de Girsanov assure alors que sous Qk,i X ti τ i k
∧
= X 0i +
t τ ki
∧
0
a(s, X si )ds + Bti∧τ i , k
0 ≤ t ≤ T
3.5. Flot sur l’espace de Wiener
53
est un mouvement brownien standard de loi initiale µ, arrˆet´e `a τ ki . De plus, on montre que τ ki , (Bti : t ≤ τ ki ) et Z T k,i s’expriment en termes de X ti∧τ i ind´ependamment de i = 1, 2.
k
Pour 0 = t 0 < t1 < · · · < tn = T et A ∈ B R2(n+1) , on a
P1 (X t10 , Bt10 , . . . , Xt1 n , Bt1n ) ∈ A, τ k1 = T
=
= =
1
k,1 Ω1 Z T
1{(X t1 ,Bt1 ,...,X t1n ,Bt1n )∈A,τ k1 =T } dQk,1 0
0
1
k,2 } dQ
1 (X t2 ,Bt2 ,...,X t2n ,Bt2n ) A,τ k2 =T k,2 0 0 Ω2 Z T P2 (X t20 , Bt20 , . . . , Xt2 n , Bt2n ) ∈ A, τ k2
{
∈
= T i
o`u la deuxi`eme ligne vient de l’observation pr´ec´edente et du fait que sous Q k,i , X i,τ k est un mouvement brownien (arrˆet´e, de loi initiale µ). L’hypoth`ese sur a implique limk→+∞ Pi τ ki = T = 1, i = 1, 2. On peut donc passer `a la limite k → + ∞ pour conclure.
Le r´esultat suivant (admis) est une g´en´eralisation de la Proposition 3.1 pour une EDS avec un coefficient de diffusion plus g´en´eral : ee et σ : R → R une Th´ eor` eme 3.3 (Beneˇs) Soient a : R → R une fonction born´ fonction (globalement) lipschitzienne et ne s’annulant pas et B un mouvement brownien r´eel standard. L’EDS dX t = a(X t ) dt + σ(X t ) dBt admet une solution faible qui est unique en loi. L’hypoth` ese cruciale est que le coefficient de diffusion ne s’annule pas : le processus diffuse tout le temps. La non-nullit´e de ce coefficient joue un rˆole essentiel dans l’´etude de la r´egularit´e des lois de solutions d’EDS. Cela est explor´e `a l’aide du calcul de Malliavin .
3.5
Flot sur l’espace de Wiener
Dans l’exemple des EDS affines (3.11), la d´ependance de la solution par rapport aux conditions initiales est explicite puisque (3.12) se r´e´ecrit X t = Z t (X 0 + Dt ). La solution X t est donc une fonction affine de la condition initiale X 0 . Lorsque les coefficients sont d´eterministes, les processus Z t et Dt sont adapt´es par rapport a` la filtration F t = σ(Bs : s ≤ t) pour tout t. Autrement dit, X t est une fonction d´eterministe de X 0 et de la trajectoire du mouvement brownien sur [0, t]. En ´ecrivant [x]t = {s → xs : s ≤ t} la trajectoire d’une fonction x sur [0, t], on peut ´ecrire pour l’EDS affine X t (ω) = F X0 (t, [B(ω)]t ) o`u F x (t, w) est continue par rapport `a x. On g´en´eralise cette observation en interpr´etant la solution de l’EDS E (a, σ), ie. dX t = a(t, X t ) dt + σ(t, X t ) dB t , comme fonctionnelle sur
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 3.
54
l’espace de Wiener C (R+ , Rm ), B (C (R+ , Rm )), W (espace des trajectoires du mouvement brownien). On rappelle que l’espace de Wiener est l’espace canonique d’un mouvement brownien B, issu de 0 `a valeurs dans Rm , c’est `a dire l’ensemble C (R+ , Rm ) des fonctions continues de R+ dans Rm , muni de la mesure de Wiener W, . En particulier, la mesure de Wiener W est la loi d’un mouvement brownien B .
Th´ eor` eme 3.4 (Fonctionnelle sur l’espace de Wiener) Sous les hypoth`eses lipschitziennes, pour tout x ∈ Rd , il existe F x :
C (R+ , Rm ) → C (R+ , Rd ) → w F x (w)
mesurable et satisfaisant les propri´et´es suivantes : i) pour tout t ≥ 0, F x (w)t co¨ ıncide W(dw)-ps avec une fonction mesurable de [w]t = w(r) : 0 ≤ r ≤ t ; avec un abus de notation, on ´ecrira F x (t, [B]t ) ;
m
ii) pour tout w ∈ C (R+ , R ), l’application
Rd → C (R+ , Rm )
x
→ F x (w)
est continue ;
iii) pour tout x ∈ Rd , pour tout choix d’espace de probabilit´e filtr´e Ω, F , (F t )t≥0 , P et tout (F t )t≥0 -mouvement brownien B en dimension m, le processus X d´efini par X t = F x (B)t est l’unique solution de E (a, σ) avec valeur initiale x ; de plus, si Z est une variable al´eatoire F 0 -mesurable, le processus F Z (B)t est l’unique solution avec valeur initiale Z .
Remarque 3.4 L’assertion iii) montre en particulier qu’il y a unicit´e faible pour l’EDS E (a, σ) : les solutions de E x (a, σ) sont toutes de la forme F x (B) et ont donc la mˆeme loi, image de la mesure de Wiener W par F x . ` nouveau, on simplifie la pr´esentation de la preuve en consid´erant le D´ emonstration : A cas d = m = 1. On note N la classe des sous-ensembles W-n´egligeables de C (R+ , R) et on consid`ere la filtration donn´ee pour tout t ∈ [0, +∞],
G t = σ w(s) : 0 ≤ s ≤ t ∨ N . D’apr`es la Remarque 1.8, la filtration (G t )t≥0 est continue `a droite, comme en plus elle est compl`ete, elle satisfait les conditions habituelles. Pour chaque x ∈ R, on note X x la solution de l’EDS E x (a, σ) associ´ee `a l’espace canonique C (R+ , R), G ∞ , (G t )t≥0 , W et au mouvement brownien (canonique) Bt (w) = w(t). D’apr`es le Th´eor`eme 3.2, sous les hypoth`eses lipschitziennes cette solution existe et est unique `a indistinguabilit´e pr`es.
Soient x, y ∈ R et T n le temps d’arrˆet d´efini par
T n = inf t ≥ 0 : |X tx | ≥ n ou |X ty | ≥ n .
3.5. Flot sur l’espace de Wiener
55
Soit p ≥ 2 et T ≥ 1. En utilisant (x + y + z ) p ≤ 3 p−1 (x p + y p + z p ), les in´egalit´es de Burkholder-Davis-Gundy (Th´eor`eme 1.4) et l’in´egalit´e de H ¨older, on a pour tout t ∈ [0, T ] :
E sup |X sx∧T n − s t
≤
X sy T n | p
∧
s T n
p
∧
≤ C p |x − y| + E sup
0 s t
≤≤
0
s T n
∧
+E sup
0 s t
≤≤
(convexit´e)
p
σ(r, X rx )
0
t T n
∧
≤ C p |x − y| + C p E
0
t T n
∧
+E
a(r, X rx )
0
− −
a(r, X ry )
a(r, X rx )
σ(r, X rx )
−
−
≤ C p |x − y| + C p t p/2−1 E
σ (r ∧
0
t
p 1
+t −
E
0
T n , X rx T n )
∧
t
E
0
p
dr
dr
dr
− σ(r ∧
|X tx T n −
∧
X ry T n | p
∧
(hypoth`eses lipschitziennes et T ≥ 1)
dr
p T n , X ty T n )
∧
a(r ∧ T n , X rx∧T n ) − a(r ∧ T n , X ry∧T n )
(in´egalit´e de H¨older)
≤ C p |x − y| p + T p
dB r
p
a(r, X ry )
t
p
p
p/2
2 σ(r, X ty )
(in´egalit´e BDG droite pour p ≥ 2)
σ(r, X ty )
p
dr
dr
o`u la constante C p < + ∞ d´epend de p et de la constante K intervenant dans les hypoth`eses lipschitziennes sur σ et a mais pas de n, x, y ou T .
Puisque par d´efinition de T n , la fonction t → E sups≤t |X sx∧T n − X sy∧T n | p est born´ee, l’in´egalit´e de Gronwall (Lemme 3.1) s’applique avec a = C p |x − y | p et b = C p T p et entraˆıne que pour tout t ∈ [0, T ], on a
y
E sup |X sx∧T n − X s∧T n | p ≤ C p |x − y | p exp(C p T p t).
Comme
s t
≤
sup |X sx∧T n − X sy∧T n | p = sup |X sx − X sy | p s t
s t T n
≤
≤∧
et T n + ∞, c’est croissant en n ≥ 1. Par convergence monotone, il vient alors
E sup |X sx − X sy | p ≤ C p |x − y | p exp(C p T p t). s t
≤
(3.21)
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 3.
56
On consid`ere sur C (R+ , R) la topologie de la convergence uniforme sur les compacts. Elle est d´efinie par une distance du type
+
∞
d(w, w ) =
sup |w(s) − w (s)| ∧ 1 s≤k
αk
k=1
pour tout choix de la suite de r´eels positifs αk > 0 tels que la s´erie Ici, on fait le choix des coefficients α k tels que
≥ αk soit convergente.
k 1
+
∞
αk exp C p k p+1 < + ∞.
(3.22)
k=1
D’apr`es (3.21), ce choix (3.22) garantit que pour une constante C p < + ∞, on a :
+
∞
αk E sup |X sx − X sy | p ≤ C p |x − y| p . s k
≤
k=1
(3.23)
Alors les estimations pr´ec´edentes et l’in´egalit´e de Jensen montrent que
E d(X x , X y ) p
+
= E
∞
=
∞
s k
≤
p
αk
k=1 +
∞
≤
+
∞
E
k=1 +
p
αk
p
αk sup |X sx − X sy | ∧ 1
k=1
+
E
k=1
αk
+ k=1
∞α
∞
αk
k=1
+ k=1
k
∞α
k
=
∞
k=1
p 1 +
−
αk
∞
p
sup |X sx − X sy | ∧ 1 s k
≤
p
sup |X sx s k
≤
(in´egalit´e de Jensen pour la mesure +
−
X sy |
∧1
+ αk +∞ δ ) k=1 αk k
∞
k=1
αk E sup |X sx − X sy | p . ≤ C p |x − y| p
k=1
s k
≤
(avec la borne (3.23))
Le Th´eor`eme de Kolmogorov-Centsov (Th´eor`eme ?? ) appliqu´e au processus (X x , x ∈ R) `a valeurs dans C (R+ , R) muni de la distance d donne l’existence d’une modification ( X x , x ∈ R) dont les trajectoires sont continues. On note
F (t,x,w) = F x (w)t = Xt x (w).
Par choix de la version X , x → F x (w) est continue ce qui ´etablit la propri´et´e ii) de l’´enonc´e. L’application w → F x (w) est mesurable de C (R+ , R) muni de la tribu G ∞ dans C (R+ , R) muni de la tribu bor´elienne σ(w(s) : s ≥ 0). De mˆeme, pour chaque t ≥ 0, F x (w)t = Xt x (w)
3.5. Flot sur l’espace de Wiener
57
est G t -mesurable donc co¨ıncide ps avec une fonction mesurable de [w]t = {w(s) : 0 ≤ s ≤ t }, ce qui ´etablit maintenant l’assertion i). On termine en montrant l’assertion iii). On commence par fixer l’espace de probabilit´e filtr´e Ω, F , (F t )t≥0 , P et un (F t )t≥0 -mouvement brownien B. Il s’agit de voir que F x (B) est solution de l’EDS E x (a, σ) :
dX t = a(t, X t ) dt + σ(t, X t ) dB t ,
X 0 = x.
On observe que le processus F x (B) est continu et adapt´e d’apr`es i) puisque F x (B)t co¨ıncide ps avec une fonction mesurable de [B]t = {Br : 0 ≤ r ≤ t} en effet pour une fonction f x mesurable sur C (R+ , R), par le th´eor`eme de transfert
P F x (B)t = f x ([B]t ) = W F x (w)t = f x ([w]t ) = 1.
D’autre part, par construction de F x , on a W(dw)-ps
t
F x (w)t = x +
t
σ(s, F x (w)s ) dw(s) +
0
a(s, F x (w)s ) ds.
0
De fa¸con standard, l’int´egrale de Stieltjes s’approxime par des sommes de Riemann : on a W-ps
tn pn 1
−
t
a(s, F x (w)s ) ds = lim n
0
→+∞
a(tni , F x (w)tni ) (tni+1 − tni )
i=0
o`u 0 = tn0 ≤ tn1 ≤ · · · ≤ t pnn = t est une subdivision de [0, t] de pas qui tend vers 0. De la mˆeme fa¸con, d’apr`es 6) dans la Proposition ??, on a une approximation `a la Riemann t pour l’int´egrale stochastique 0 σ(s, F x (w)s ) dw(s) mais dans le sens de la convergence en probabilit´e W :
tn pn 1
−
t
σ(s, F x (w)s ) dw(s) = W- lim n
0
→+∞
σ tni , F x (w)tni
i=0
w tni+1 − w (tni ) .
En prenant une sous-suite (nk )k correctement choisie, on a une convergence W-presque sˆure :
n
tpnk
t
k
σ(s, F x (w)s ) dw(s) = lim k
0
→+∞
−1
σ
tni k , F x (w)tni k
i=0
k − w (tni k ) . w tni+1
Comme en plus W-ps F x (w)t = f x ([w]t ) pour une fonction f x mesurable sur C (R+ , Rm ), on a finalement
n
tpnk
k
f x ([w]t ) = x + lim k
→+∞
−1
σ
i=0
tni k , F x (w)tni k
w
k tni+1
− w (tni k )
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 3.
58
n
tpnk
+
−1 k
k − tni k ) a(tni k , F x (w)tni k )(tni+1
i=0
.
Maintenant qu’on s’est ramen´e `a une convergence W-presque sˆure, on peut, comme pr´ec´edemment, remplacer w par B (puisque sa loi est W) :
1 = W
n
tpnk
−1
k
f x ([w]t ) = x + lim k
σ
→+∞
i=0
n
tpnk
k
+
−1
= P
n
tpnk
k
f x ([B]t ) = x + lim k
→+∞
−1
σ tni k , F x (B)tni k
i=0
n
tpnk
k
+
−1
k w tni+1 − w (tni k )
k − tni k ) a(tni k , F x (w)tni k )(tni+1
i=0
tni k , F x (w)tni k
k − B (tni k ) B tni+1
k − tni k ) a(tni k , F x (B)tni k )(tni+1
i=0
.
Mais, en utilisant encore 6) dans la Proposition ?? , on a
n
tpnk
t
−1
k
σ(s, F x (B)s ) dB s = P- lim k
0
→+∞
t
a(s, F x (B)s ) ds =
0
n
lim
→+∞
i=0 tn 1 pn
−
σ tni k , F x (B)tni k
k − B (tni k ) (en proba) B tni+1
a(tni , F x (B)tni )(tni+1 − tni ) P-ps
i=0
c’est `a dire finalement (par unicit´e de la limite en probabilit´e) : P-ps t
F x (B)t = f x ([B]t ) = x +
σ(s, F x (B)s ) dB s +
0
t
a(s, F x (B)s ) ds.
0
On obtient donc que F x (B) est la solution recherch´ee de l’EDS E x (a, σ). Pour finir, on ´etablit la deuxi`eme partie de iii). On fixe `a nouveau l’espace de probabilit´e filtr´e Ω, F , (F t )t≥0 , P et le ( F t )t≥0 -mouvement brownien B. Soit Z une variable al´eatoire F 0 -mesurable. En rempla¸cant formellement, dans l’EDS v´erifi´ee par F x (B), x par Z , on obtient que F Z (B) est solution de E (a, σ) avec valeur initiale Z . On justifie maintenant ce remplacement formel.
D’abord comme (x, ω) → F x (B)t est continue par rapport `a x et F t -mesurable par rapport a` ω, on a facilement que cette application est mesurable pour la tribu B (R) ⊗ F t . Comme
3.5. Flot sur l’espace de Wiener
59
Z est F 0 -mesurable, il s’en d´eduit, par composition, que F Z (B)t est F t -mesurable et le processus F Z (B) est donc continu et adapt´e. On a vu pr´ec´edemment que
n
tpnk
k
F x (B)t = x + P- lim k
→+∞
−1
σ
tni k , F x (B)tni k
i=0
+
n
tpnk
−1
k
k − B (tni k ) B tni+1
k − tni k ) a(tni k , F x (B)tni k )(tni+1
i=0
.
De plus, comme Z est F 0 -mesurable, on a Z ⊥ ⊥ B. On peut donc remplacer pr´ec´edemment x par Z et, en utilisant encore 6) dans la Proposition ?? , avoir (avec Z ⊥ B encore)
t
F Z (B)t = Z +
t
σ(s, F Z (w)s ) dB s +
0
a(s, F Z (B)s ) ds
0
ce qui ´etablit que F Z (B) est solution de E (a, σ) avec valeur initiale Z .
Propri´et´e de flot On suppose toujours valides les hypoth`eses lipschitziennes. On consid`ere maintenant le cas g´en´eral de l’EDS E (a, σ) qui part de x `a la date r, ie. avec X r = x et on note la solution X tr,x pour t ≥ r. D’apr`es le Th´eor`eme 3.4, on peut ´ecrire X tr,x = F (r,x,t, [B· − Br ]t ) o`u (B· − Br )s+r = B s+r − Br est la valeur en s du mouvement brownien translat´e en temps de r (c’est bien un mouvement brownien d’apr`es la propri´et´e de Markov faible).
Th´eor`eme 3.5 (Propri´ et´ e de flot) Sous les hypoth`eses lipschitziennes, la solution de l’EDS E (a, σ) avec X r = x v´erifie la propri´et´e de flot F (r,x,t0 + t, [B· − Br ]t0 +t ) = F (t0 , X tr,x , t0 + t, [B· − Bt0 ]t0+t ) 0 t0 ,X r,x
ie. X tr,x = X t0 +t t0 . 0 +t
(3.24)
Cette propri´et´e s’´etend pour des temps al´eatoires : soit T ≥ r un temps d’arrˆet born´e F (r,x,T + t, [B· − Br ]T +t ) = F (T, X T r,x, T + t, [B· − BT ]T +t ) T,X r,x
r,x ie. X T +t = X T +tT .
(3.25)
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 3.
60
D´ emonstration : La propri´et´e de flot (3.24) vient de l’unicit´e forte de la solution de l’EDS E (a, σ) due au Th´eor`eme 3.2 sous les hypoth`eses lipschitziennes. Le processus t → `a l’instant t = 0. Il en est de F (t0 , X tr,x , t0 + t, [B· − Bt0 ]t0+t ) est une solution issue de X tr,x 0 0 mˆeme du processus t → . Les F (r,x,t0 + t, [B· − Br ]t0+t ) : `a la date t = 0, il est en X tr,x 0 deux processus sont adapt´es par rapport `a la filtration σ(Bt0+t − Bt0 : t ≥ 0) ∨ σ(Bt0 − Br ). Par unicit´e forte, ces deux processus continus en t sont ´egaux. Pour un temps d’arrˆet T , on proc`ede de mˆeme en notant que, par la propri´et´e de Markov forte, (BT +t − BT )t≥0 est un mouvement brownien, cf. Th´eor`eme ?? .
3.6
Markov fort pour EDS homog` ene
Dans cette section, on suppose toujours les hypoth`eses lipschitziennes de la section pr´ec´edente remplies. Pour avoir des propri´et´es markoviennes homog`enes, on suppose en outre que l’EDS est homog`ene, c’est `a dire que les coefficients de l’EDS ne d´ependent pas du temps : σ(t, y) = σ(y), a(t, y) = a(y). Pour chaque x ∈ Rd , on note P x la loi sur C (R+ , Rd ) des solutions de E x (a, σ) (d’apr`es le Th´eor`eme 3.4, on a P x = WF x−1 ). L’assertion ii) dans le Th´eor`eme 3.4 montre que P x est continue pour la topologie de la convergence ´etroite : soit xn → x, pour x → f ∈ C b (C (R+ , Rd ))
f dP xn =
f (F xn (w)) d W(w) →
f (F x (w)) d W(w) =
f dP x
o`u on utilise F xn (w) → F x (w) dˆu au Th´eor`eme 3.4 et la convergence domin´ee puisque f ∈ C b C (R+ , Rd ) . On d´eduit alors d’un argument de classe monotone que pour toute fonction Φ bor´elienne de C (R+ , Rd ) dans R, l’application x → Ex [Φ] est, elle aussi, mesurable.
Th´eor`eme 3.6 (Markov fort pour EDS homog`ene) Soit X une solution de E (a, σ) sur un espace de probabilit´e filtr´e Ω, F , (F t )t≥0 , P . Soit aussi T un temps d’arrˆet fini ps. Alors pour Φ : C (R+ , Rd ) → R+ bor´elienne, on a
E Φ(X T +t : t ≥ 0) |F T = EX T [Φ]
c’est `a dire pour toute variable al´eatoire U positive F T -mesurable
E U Φ(X T +t : t ≥ 0) = E U EX T [Φ]
ie. L (X T +t )t≥0 |F T = L (X t )t≥0 |X T .
3.6. Markov fort pour EDS homog`ene
61
Remarque 3.5 Ce r´esultat signifie que la solution X de l’EDS v´erifie la propri´et´e de Markov forte par rapport `a la filtration (F t )t≥0 : pour tout temps d’arrˆet fini T , la loi conditionnelle du « futur » (X T +t : t ≥ 0) connaissant le « pass´e » F T est la loi de X partant de X T , qui ne d´epend que du pr´esent `a l’instant T . Dans le cas particulier σ = I d et a = 0, on retrouve la propri´et´e de Markov forte pour le mouvement brownien. C’est du reste sur celle-ci qu’on s’appuie pour la preuve. esentation de la preuve, on suppose encore que D´ emonstration : Pour simplifier la pr´ (T ) m = 1, d = 1. Notons B t = BT +t − BT . Il s’agit d’un mouvement brownien ind´ependant de F T (propri´et´e de Markov forte pour le brownien B, cf. Th´eor`eme ??). On pose aussi X t = X T +t et on remarque que le processus X est adapt´e par rapport `a la filtration (F t )t≥0 o`u F t = F T +t et que cette filtration satisfait les conditions habituelles. De plus, d’apr`es l’EDS satisfaite par X ,
T +t
X = X T + t
T +t
a(X s ) ds +
T
σ(X s ) dB s .
T
Par changement de variable, on a de suite
T +t
t
a(X s ) ds =
T
0
a(X s ) ds
(comme il s’agit d’une int´egrale de Stieltjes d´efinie ω par ω, on peut faire le changement de variable sans probl`eme ω par ω, la valeur T = T (ω) ´etant alors fig´ee). On fait aussi un changement de variable dans l’int´ egrale stochastique `a l’aide du lemme suivant :
Lemme 3.2 Si h est un processus continu adapt´e, on a
T +t
t
h(s, ω) dBs =
T
0
h(T + s, ω) dBs(T ) .
D´ emonstration :[Lemme] En approchant h par des combinaisons lin´eaires finies de processus de la forme h(s, ω) = ϕ(ω)1]r,r ] (s) o`u ϕ est F r -mesurable. Pour simplifier on prend mˆeme h de la forme h(s, ω) = ϕ(ω)1]T +r,T +r ] (s) o`u ϕ est F T +r -mesurable, il suffit de montrer le changement de variables pour ces fonctions particuli` eres :
T +t
T
T +t
h(s, ω) dB s =
T
ϕ(ω)1]T +r,T +r ] (s) dBs
(T +r ) (T +t)
∧
= ϕ(ω)
dBs
(T +r) (T +t)
∧
= ϕ(ω) B((T + r ) ∧ (T + t)) − B((T + r) ∧ (T + t)) = ϕ(ω) B((T + r ) ∧ (T + t)) − BT − B((T + r) ∧ (T + t)) + BT = ϕ(ω) B T (r ∧ t) − B T (r ∧ t)
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 3.
62
r t
= ϕ(ω)
r t
r t
=
∧
r t t
∧
=
0
∧
∧
dBuT
ϕ(ω) dB uT
ϕ(ω)1]r,r ] (u) dB u(T )
t
=
0
t
=
0
ϕ(ω)1]T +r,T +r ] (T + u) dB u(T ) h(T + u, ω) dBu(T ) .
On d´eduit alors du lemme que
T +t
t
σ(X s ) dB s =
T
0
et on a donc X T = X T +
t
σ(X T +u ) dB u(T )
σ(X ) dB (T ) +
0
s
s
t
=
0
t
0
σ(X u ) dB u(T )
a(X s ) ds.
On remarque que X est adapt´e par rapport `a la filtration (F t )t≥0 , B (T ) est un (F t )mouvement brownien et X T est F 0 -mesurable. D’apr`es iii) dans le Th´eor`eme 3.4, on doit avoir ps X = F X T B (T ) . Le r´esultat du th´eor`eme suit alors facilement : comme X T est F T -mesurable et B (T ) est ind´ependant de F T , on a
E Φ(X t : t ≥ 0) |F T
= E Φ F XT (B (T ) ) |F T =
C (R+ ,Rm )
Φ(F XT (w)) W(dw) = EX T [Φ(X t : t ≥ 0)].
Chapitre 4 Mouvement brownien et EDP Des liens importants imp ortants existent entre probabilit´es es et EDP via les processus stochastiques. Ceux-ci Ceux -ci sont souvent sou vent reli´ re li´es es `a des op´erateurs erat eurs diff´erentiels erenti els lin´eaires, eair es, ce qui permet pe rmet d’exprim d’ex primer er les solutions de certaines EDP en termes de processus stochastiques. L’op´erateur erateur le plus simple est celui c elui de Laplace L aplace ∆ et il est directement d irectement reli´e au a u mouvement mo uvement brownien. brownie n. On O n ´etudie etudie dans ce chapitre chap itre les connexions connexio ns entre mouvement mo uvement brownien et ´equations equatio ns li´ees ees au laplacien laplacie n (´equation equation de Laplace, probl`eme eme de Dirichlet, ´equation equation de la chaleur, formule de FeynmanKac).
4.1 4.1
Fonct onctio ions ns har harmo moni nique quess
Le laplacien ∆u ∆u d’une fonction C fonction C 2 sur un ouvert U ouvert U de Rd est d´efini efin i par pa r d
∆u(x) =
i=1
∂u (x). ∂x i2
Le mouvement brownien B dans Rd est naturellement naturell ement reli´e `a cet op´erateur, erateur, en effet la d 2 formule d’Itˆo montre que si Φ : R → R est C est C alors
t
Φ(B Φ(Bt ) = Φ(B Φ(B0 ) +
0
1 Φ(Bs ) · dBs + ∇Φ(B 2
t
∆Φ(B ∆Φ(Bs )ds.
(4.1)
0
Ainsi, si ∆Φ = 0, alors Φ(B Φ( B ) est une martingale locale.
D´ efinition efinition 4.1 (Fonction (Fonction harmonique) harmoniqu e) Soit D ⊂ Rd un domaine domaine (ouvert, (ouvert, connexe) onnexe) 2 Une fonction u : D → R est dite harmonique si u est de classe C sur D et satisfait l’´equation equa tion de Lapla Laplace ce ∆u = 0 dans D. Exemples. En dimension 2 : ln(x ln( x21 + x22 ) et e et e x1 sin x2 sont harmoniques. En dimension d dimension d : d−2 d 1/|x| l’est sur D sur D = R \ {0}. 63
c JCB – M2 Math. – Universit´ Chapitre 4. Universit´e de Rennes 1
64
La propr pro pri´ i´et´ et´e suivant su ivantee joue jo ue un rˆole ole essentiel pour relier les solutions d’EDP `a des esp´ esp ´erance era ncess de processus arrˆet´ et´es es en des temps de sortie de domaine. Dans la suite, pour G ouvert, on note pour B pour B mouvement brownien : (t ≥ 0 : Bt temp s d’entr´ d’ent r´ee ee dans G c , ∈ G) τ G = inf (t G) le temps (t > 0 : B t ∈ G) σG = inf (t G) le temps de sortie de G. On note que le temps de sortie de G est p lus grand que le l e temps temp s d’entr´ d’e ntr´ee ee dans da ns G G est plus Gc : σG ≥ τ G . Par exemple si G est ouvert et B part de ∂G, ∂G , on a τ G = 0 mais σG > 0 si B commence par entrer dans G. G . ¯ ⊂ D et B un mouvement brownien issu Proposition 4.1 Soit G un ouvert ouve rt born´e avec G de a ∈ G. : D → R est harmonique alors G. Si u : D = u((Bt∧τ G ) − u(a) M t = u est une martinga mart ingale le centr´ee. ee.
D´ emons emo nstra tratio tion n : La fonction u fonction u n’est n’es t d´efinie efini e que sur D. o, D . Pour appliquer la formule d’Itˆo, d 2 d on commence par la prolonger sur R en Φ ∈ C (R ) (qui co¨ıncide avec u sur G – mais pas n´ecessai eces sairement rement sur D). D ). Par exemple, on peut obtenir le prolongement par convolution avec : (1G2δ ∗ ρ) × u dans D dans D Φ= 0 dans D c
o`u G2δ est le (2δ (2 δ )-voisinage )-voisinage de G avec 4δ 4δ = dist(G, dist(G, Dc ) > 0 et o` u ρ est une fonction t ∞ d’int´ d’ int´egrale egr ale 1, C et `a support dans B (0, (0, δ ). ). En notant N t = Φ(a Φ(a) + 0 ∇ Φ(B Φ(Bs ) · dBs la martingale locale obtenue dans la formule d’Itˆo (4.1 4.1), ), on a 1 Φ(B Φ(Bt∧τ G ) = N t∧τ G + 2
t τ G
∧
∆Φ(B ∆Φ(Bs )ds.
0
Comme Φ|G = u |G et comme u est harmonique sur G, on a Φ(B Φ(Bt∧τ G ) = N t∧τ G o`u N t∧τ G = t ¯ . FinaΦ(Bs ) · dBs est une martingale L 2 puisque ∇Φ est born´ bo rn´e sur G u(a) + 0 1 [0,τ [0,τ G ] (s)∇Φ(B lement,
t
Φ(Bt∧τ G ) − Φ(a Φ(a) = M t = u(Bt∧τ G ) − u(a) = Φ(B
Φ(Bs ) · dBs 1[0,τ [0,τ G ] (s)∇Φ(B
0
est une martingale L martingale L 2 (et donc do nc centr´ cent r´ee). ee) .
D´ efinition efinition 4.2 (Formule (Formule de la moyenne) Une fonction r´eelle eel le u est dite satisfaire la formule de la moyenne sur D si pour toute boule ouverte B (a, r) telle que B (a, r) ⊂ D, on a (4.2) u(a) = u(x) λa,r (dx) dx)
∂B( ∂B (a,r) a,r)
o` u u λa,r est es t la probabilit´ probabili t´e uniforme unifo rme sur la sph`ere ere ∂B (a, r).
4.1. Fonctions onctions harmonique harmoniques s
65
Cette Cett e propri´ prop ri´et´ et´e signifie sig nifie que la valeur de u en tout point a s’obtient comme moyenne de u sur n’imp n’i mporte orte quelle quel le sph`ere ere centr´ee ee en a, d’a dh´erence eren ce dan danss D. a , d’adh´ D . Notons que le volume de la boule B (a, r) est d/2 2rd πd/2 Vol B (a, r) = := V := V r dΓ( d2 )
et son aire de surface est
d/2 2rd−1 πd/2 d = S r = ∂ r Vol B (a, r) = V r , r Γ( d2 )
ainsi, on d´eduit eduit l’expression l’express ion suivante pour po ur les l es int´ i nt´egrales egrales sur les boules boul es :
B (a,r) a,r)
r
f ( f (x) dx = dx =
f (x) λ a,r (dx) dx)dρ.
S ρ
0
(4.3)
∂B( ∂B (a,r) a,r)
erifi e la formule form ule Proposition 4.2 Soit u : D → R. Alors u est harmonique sur D ssi u v´erifie de la moyenne (4.2 4.2)). avec G = = B D´ emons emo nstra tratio tion n : ⇒ : On applique la Proposition 4.1 avec G B((a, r) : Ea [u(Bt∧τ G )] − u(a) = Ea [M t ] = 0.
Comme G est est born´ or n´e, e, τ G < +∞ ps, et en faisant t → +∞, on d´eduit eduit par convergence domi do min´ n´ee ee (comme (co mme u est born´ bo rn´ee ee sur su r B (a, r )) : )]. u(a) = Ea [u(Bτ G )].
(4.4)
On observe que le mouvement brownien standard issu de a est isotrope : aucune direction n’est n’es t privil pr ivili´ i´egi´ egi´ee ee par p ar le pro p rocess cessus, us, ie. la loi de B de B est est invariante par les rotations de centre a. a . Par cons´equent, equent, la loi du point de sortie de B de la boule B (a, r ) est invariante aussi par les rotations de centre a. probabi lit´e uniforme u niforme λa,r est la seule loi sur la sph`ere ere a . Comme la probabilit´ ecessairement de la loi de Bτ G : ∂B( ∂B (a, r) invariante par rotation (de centre a), il s’agit n´ecessairement Pa (Bτ ∂B (a,r) ∈ ·) = λ a,r . On r´ e´ e´ecri ecritt alor al orss (4.4 4.4)) comme suit u(a) = Ea [u(Bτ G )] =
u(x) λ a,r (dx) dx).
(4.5)
∂B( ∂B (a,r) a,r )
erifie la formule de la moyenne (4.2 ( 4.2). ). On commence ⇐ : On suppose maintenant que u v´erifie par montrer que u que u est est de classe C classe C ∞ . Soit, pour ε pour ε > 0, g 0, g ε : Rd → R+ la fonction C fonction C ∞ do donn´ee par si x < ε cε exp x21−ε2 gε (x) = 0 si x ≥ ε
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 4.
66
o`u la constante c ε est choisie de fa¸con que
ε
gε (x) dx = c ε
B(0,ε)
S ρ exp
0
1 ρ2 − ε2
dρ = 1.
(4.6)
Soient ε > 0 et a ∈ D tels que B (a, ε) ⊂ D, on pose uε (a) =
u(y)gε (y − a) dy.
u(a + x)gε (x) dx =
Rd
B(0,ε)
Il est clair que uε est C ∞ sur le domaine D o`u elle est d´efinie. De plus, pour tout a ∈ D, il existe ε > 0 tel que B(a, ε) ⊂ D, on d´eduit alors, a` l’aide du th´eor`eme de Fubini, de la formule de la moyenne et de (4.6)
uε (a) =
u(a + x)gε (x) dx
B(0,ε) ε
= cε
u(a + x)exp
S ρ
0
∂B ρ
1 ρ2 − ε2
ε
= cε
u(x) λ a,ρ (dx) exp
S ρ
0
∂B(a,ρ)
ε
= cε
1 ρ2 − ε 2
S ρ u(a)exp
0
λ0,ρ (dx)dρ
1 ρ2 − ε 2
dρ
dρ
= u(a)
en utilisant l’´ecriture (4.3) des int´egrales. Comme u = u ε sur D avec uε ∈ C ∞ , on a aussi u de classe C ∞ sur D. Pour voir que ∆u = 0 sur D, on choisit a ∈ D et on ´ecrit la formule de Taylor en a : d
u(a + y) = u(a) +
i=1
d
1 ∂u ∂ 2 u (a) + (a) + o(y 2 ), yi yi y j 2 i,j=1 ∂x i ∂x i ∂x j
y ∈ B(0, ε), (4.7)
o`u ε > 0 est assez petit pour que B (a, ε) ⊂ D o`u u est C ∞ . Comme par (im)parit´e, on a
= j, yi y j λ0,ε (dy) = 0, i
yi λ0,ε (dy) = 0,
∂B (0,ε)
∂B (0,ε)
en int´egrant la formule de Taylor (4.7) sur ∂B (0, ε), et en utilisant la formule de la moyenne, on obtient
1 u(a) = u(a + y) dy = u(a) + 2 ∂B(0,ε) Mais comme
∂B (0,ε)
yi2
1 λ0,ε (dy) = d
d
i=1
∂ 2 u (a) ∂x 2i
d
i=1
∂B (0,ε)
yi2
∂B(0,ε)
yi2 λ0,ε (dy) + o(ε2 ).
ε2 λ0,ε (dy) = , d
4.2. Probl`eme eme de Dirichlet Di richlet
67
on a
ε2 ∆u(a) + o + o((ε2 ) = 0. 2d D’o` u il vient ∆u ∆ u(a) = 0 pou pourr a ∈ D en faisant ε faisant ε → 0.
Proposition 4.3 (Principe du maximum) Soit u une u une fonction harmonique sur D. D . Alors 1. Si u atteint son maximum en un point point int´ erieur erieur `a a D et si l’ouvert D est connexe alors u est constante sur D. 2. Sur tout comp compact act F ⊂ D, D , u atteint son maximum sur le bord ∂F de F . F .
D´ emons emo nstra tratio tion n : Pour 1), on pose M pose M = = sup(u sup(u(x) : x ∈ D). Si a ∈ D, d’a pr`es es la formule formu le D ). Si a D , d’apr` de la moyenne (satisfaite par u harmonique), u(a) est moyenne des valeurs {u(x) : x ∈ tout r assez petit. Ainsi si u( ece ssai airem rement ent u estt constant con stantee ´egale egal e ∂B( ∂B (a, r)} pour tout r u (a) = M , M , n´ecess u es a` M s ur toute tout e sph` s ph`ere ere la ∂ la ∂B M sur B (a, r). Comme ceci est valable pour tout r assez r assez petit, cela exige que u que u soit constante sur un voisinage de a de a.. L’ensemble A L’ensemble A = = {x ∈ D : d onc ouvert ouver t mais ma is il est e st aussi aus si ferm´ f erm´e par pa r continui co ntinuit´ t´e D : u u((x) = M } est donc de u de u.. De plus, comme par hypoth`ese A ese A = ∅ et D est connexe, on a A = A = D D.. Pour montrer 2), on consid`ere a ere a ∈ F ◦, int´erieur eri eur de F compact note G la la composante F compact et on note G ◦ connexe de F qui contient a. D’apr`es es la formule de la moyenne, moyenne, on a u(a) ≤ max(u max(u(x) : Comme ∂ G ⊂ ∂F max(u(x) : x ∈ ∂F ). x ∈ ∂G ∂ G). Comme ∂ ∂ F ◦ ⊂ ∂F ∂ F ,, on a donc aussi que u(a) ≤ max(u ∂ F ).
4.2
Probl` eme eme de Dirichlet Dirichlet
Le probl`eme eme de Dirichlet consiste en r´esoudre esoudre l’´equation equation de Laplace sur un ouvert D ´ avec avec des conditions aux bords impos´ees ees (sur ∂D). donn´e un ouvert D ⊂ Rd et ∂D ). Etant pro bl` eme eme de Dirichlet Dirich let (D, f ) f : ∂ D → R une fonction continue, le probl` f ) consiste `a trouver ¯ → R continue sur D ¯ et C une fonction u fonction u : : D et C 2 sur D sur D telle que
∆u = 0 u|∂D = f.
sur D
(4.8)
Il s’agit d’un probl`eme eme bien connu qu’on q u’on peut r´esoudre esoudre explicitement explicitem ent de fa¸con con analytique en utilisant la transformation de Fourier sur des domaines pertinents. L’approche probabiliste permet d’avoir acc` es es rapidement `a une expression de la solution pour des domaines D de g´eom´ eom´etrie etrie (relativement) (relativement) arbitraire. De plus, elle ouvre la porte `a des techniques de simulations de ces solutions d’EDP (m´ethode ethode de Monte-Carlo). Monte-Carlo). Cependant pour p our simplifier, nous supposons que D est es t born´ or n´e. e.
c JCB – M2 Math. – Universit´ Chapitre 4. Universit´e de Rennes 1
68
ere le probl`eme eme de Dirichle Diri chlet t (4.8 4.8)). Soit Th´ Th´ eor` eo r` eme em e 4.1 4. 1 (Dir (Dirich ichle lett 1) On consid`ere )], u(x) = Ex [f (Bτ D )],
¯ x ∈ D.
(4.9)
4.9)) v´erifie (4.8 4.8)). 1. Si Ex [|f ( donn nn´´ee ee pa par r (4.9 f (Bτ D )|] < + < + ∞, ∀x ∈ D, D , alors u do 2. Si f est bor born´ n´ee ee et f est Pa (τ D < + < + ∞) = 1,
∀a ∈ D
alors toute solution born´ ee ee du probl` eme eme de Dirichlet (D, f ) s’´ecrit (4.9 4.9)). f ) s’´ Si D est born´ b orn´e alors la condition dans 1) au a u dessus est satisfaite car Bτ D reste dans D et d omaine born´e. e. f est f est finie sur un domaine D’apr`es le Th´eor`eme 4.1 4.1,, pour p our r´esoudre eso udre le probl` prob l`eme eme de Dirichlet Diri chlet ( 4.8 4.8), ), il reste rest e seule s eulement ment `a voir la continuit´ conti nuit´e sur ∂ D de u de u donn´ do nn´ee ee par pa r (4.9 4.9), ), c’est `a dire lim Ex [f ( f (Bτ D )] = f ( f (a).
x D x a
∈ →
(4.10)
Ceci Cec i est li´e `a la notion de r´egularit´ egularit´e du bord, bord , cf. ci-dessous. ci-desso us.
D´ emons emo nstra tratio tion n : On montre d’abord 2) puis 1). 2) On suppose d’abord qu’il existe u v´erifiant erifi ant le probl` pro bl`eme eme de Dirichlet Diri chlet ( 4.8 4.8). ). Soient x Soient x ∈ D ε ε et D− = {x ∈ D : dist(x, dist(x, Dc ) > ε} le ε-int´ -i nt´erieu eri eurr de D. Pour ε assez petit, x ∈ D− . On applique alors la Proposition 4.1 Proposition 4.1 et en prenant l’esp´erance erance de la martingale obtenue, on a
u(x) = Ex u(Bt∧τ Dε ) . −
ε Par hypoth` hyp oth`ese, ese, on a τ D−ε < + ∞ ps (D− ene facilement, au cas o`u D est D ) : on se ram`ene ⊂ D) un rectangle et on utilise les temps de sortie des marginales de B qui sont des mouvements browniens unidimensionnels dont les temps de sorties d’intervalles sont bien connus. On ¯ puisque D est born´ utilise util ise le th´eor` eor`eme eme de convergence converg ence domin´ dom in´ee ee ( u bor born´ n´ee ee sur su r D bo rn´e) e) pour po ur faire successivement successivement t comme τ D−ε < + ∞ ps t → + ∞ et ε → 0 : d’abord comme τ
u(x) = lim Ex u(Bt∧τ Dε ) = Ex u(Bτ Dε ) . t
→+∞
−
−
ε ε Puis comme D = ε>0 e de B et de ε>0 D− , on a τ D− τ D lorsque ε → 0 donc par continuit´ ee : u, `a nouveau par convergence domin´ee
u(x) = lim Ex u(Bτ Dε ) = Ex [u(Bτ D )] = Ex [f (Bτ D )] ε
→0
−
o`u la derni`ere ere ´egalit´ egalit´e vient de la condition conditio n au bord du probl`eme eme de Dirichlet ( 4.8 4.8)) avec Bτ D ∈ ∂D. ∂D . Finalement, si x ∈ ∂ D, τ D = 0 et on a u(x) = f ( f (x). Si elle existe, la solution de (4.8 4.8)) est donc unique et n´ecessairement ecessair ement donn´ee ee par ( 4.9 4.9). ). 1) On consid`ere ere maintenant u donn´ don n´ee ee par (4.9 4.9). ). Comme pour p our 2), il est imm´ imm´ediat ediat que u(x) = f ( f (x) si x ∈ ∂D. ∂D . Pour montrer que u est harmonique dans D, on montre que u
4.2. Probl`eme eme de Dirichlet Di richlet
69
v´erifie erifie la formule de la moyenne, ce qui q ui est ´equivalent equivalent par pa r la l a Proposition Propo sition 4.2 4.2.. Soit B (a, r) ⊂ D. Quand B part de a ∈ B( D . Quand B B (a, r) ⊂ D, D , comme τ B (a,r) a,r ) ≤ τ D , on a F τ τ B(a,r) ⊂ F τ τ D et par conditionnement on a
u(a) = Ea [f ( f (Bτ D )] = Ea Ea [f ( f (Bτ D )|F τ τ B(a,r) ] . Mais
Ea [f (Bτ D )|F τ τ B(a,r) ] = Ea [f (Bτ D − Bτ B(a,r) + B + Bτ B(a,r) )|F τ τ B(a,r) ] (τ
)
(τ
)
) = Ea [f (Bτ DB−(a,r + Bτ B(a,r) )|F τ τB (a,r) ] τ B(a,r) + B
= Ea [f (Bτ B(a,r) + Bτ B(a,r) )|F τ τ B(a,r) ] D
= u(Bτ B(a,r) ) (τ B(a,r) )
car par la propri´ prop ri´et´ et´e de Markov forte, fort e, B t
:= B := B t+τ B(a,r) − Bτ B(a,r) , t ≥ 0, est un mouve(τ
)
) ment brownien br ownien issu de 0, ind´ependant ependa nt de F τ τ B(a,r) et donc sachant F τ τB (a,r) , Bt+Bτ B(a,r + Bτ B(a,r) (a,r) est un mouvement brownien partant de Bτ B(a,r) ∈ ∂B( ∂B (a, r) pour lequel τ D := τ D − τ B (a,r) a,r ) reste le temps de sortie D (il s’agit de τ de τ D , reinitia rein itialis´ lis´e `a la date τ date τ B (a,r) a,r) ). Finalement avec (4.5 ( 4.5), ), on a
u(a) = Ea [u(Bτ B(a,r) )] =
u(y ) λ a,r (dy) dy)
∂B( ∂B (a,r) a,r)
ce qui ´etablit etablit la formule de la moyenne moyenne donc l’harmonicit´e par la Proposition 4.2 4.2,, c’es c’ estt `a dire l’´equation equation de Laplace sur D sur D..
R´ egul eg ular arit it´ ´ e du b ord or d Pour avoir une solution au probl`eme eme de Dirichlet (4.8 ( 4.8)) `a partir de (4.9 ( 4.9), ), il reste `a voir la continu cont inuit´ it´e sur s ur ∂ (4.10). ). Pour cela, ce la, on utilise la notion de r´egularit´ egulari t´e d du u bord b ord tel que ∂D D, ie. (4.10 d´ecri ec ritt dans da ns [KS KS,, p. 245]. inf(t > 0 : B t ∈ D´efin efi nition ti on 4.3 (R´ egul gu larit´ ri t´ e) e) On rappelle que σD = inf(t D) est le temps de sortie de D d’un mouvement brownien B . 1. 1. Un point x ∈ ∂D egu lier er pour D si Px (σD = 0) = 1. ∂ D est r´eguli 2. Le domaine D est r´egulier egulier si tous ses points fronti` eres eres le sont : Px (σD = 0) = 1
∀x ∈ ∂D. ∂ D.
(4.11)
En d’autres termes, la r´egularit´ egularit´e demande d emande que le mouvement brownien partant de ∂ de ∂D D sorte imm´ im m´ediate edi atement ment de D de D..
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 4.
70
– Un point x est dit irr´egulier si Px (σD = 0) < 1. Comme { σD = 0} ∈ Remarque 4.1 F 0B+ , la loi du z´ero/un de Blumenthal assure que, pour ces points, Px (σD = 0) = 0. – La condition de r´egularit´e est locale : x ∈ ∂D est r´egulier pour D ssi x l’est pour B(x, r) ∩ D pour r > 0.
Exemples (R´ egularit´ e). – C’est le cas si D ⊂ R2 est de bord une courbe simple C 1 ou D ⊂ Rd est le bord d’une vari´et´e diff´erentiable de classe C 1 . – En dimension 1, tout point de ∂D est r´egulier. En effet, par exemple pour 0, le mouvement brownien r´eel issu de 0 visite R∗+ et R∗− en des temps arbitrairement proches de 0, ce qui garantit σD = 0. Ainsi, on verra avec le Th´eor`eme 4.2 que le probl`eme de Dirichlet en dimension 1 est r´esoluble avec une solution lin´eaire par morceaux donn´ee par (4.9). – En dimension d ≥ 2, un ouvert priv´e d’un point int´erieur (par exemple Rd \ {0}) n’est pas r´egulier. – Pour d ≥ 2, D = {x ∈ Rd : 0 < x < 1}. Pour x ∈ D, le mouvement brownien partant de x quitte D par S 1 = { x ∈ Rd : x = 1}, pas par l’origine. Ainsi u donn´ee par (4.9) est d´etermin´ee seulement par les valeurs de f sur la fronti`ere ext´erieure S 1 et va co¨ıncider (`a part `a l’origine) avec la fonction harmonique u(x) = Ex [f (Bτ B(0,1) )] = Ex [f (BσD )],
x ∈ B(0, 1).
En posant u(0) = f (0), u est continue en 0 ssi f (0) = u(0). – Quand d ≥ 3, il est possible d’avoir ∂D connect´e et avec des points irr´eguliers.
Proposition 4.4 (R´ egularit´e du bord) Soient d ≥ 2 et a ∈ ∂D. Les assertions suivantes sont ´equivalentes. 1. La condition (4.10) est remplie pour toute fonction mesurable born´ ee f : ∂D → R, continue en a. 2. Le point a est r´egulier pour D. 3. Pour tout ε > 0, on a lim Px (τ D > ε) = 0.
x D x a
∈→
Des Th´eor`eme 4.1 et Proposition 4.4, on d´eduit d’abord imm´ediatement :
Th´ eor` eme 4.2 (Dirichlet 2) Si le domaine D est r´egulier, alors la fonction u donn´ee par (4.9) est l’unique solution du probl` eme de Dirichlet, ie. u est C 2 sur D et continue sur ¯ et (4.8) est satisfait. D
4.2. Probl`eme de Dirichlet
71
Cons´ equences sur le mouvement brownien Exemple 1. Pour d = 2, on consid`ere l’anneau D de centre 0 et de rayons int´erieur r et ext´erieur R, 0 < r < R < + ∞, ie. D = x = (x1 , x2 ) : r 2 < x 21 + x22 < R2 et f est donn´ee sur ∂ D par 1 si |x| = r f (x) = 0 si |x| = R. Comme le domaine D est r´egulier, d’apr`es le Th´eor`eme 4.2, la solution du probl`eme de Dirichlet (D, f ) est donn´ee par (4.9), soit
u(x) = Ex 1{|Bτ D |=r} = Px B sort de D par le cercle int´erieur ,
De plus un calcul direct montre que ln R − ln |x| , ln R − ln |r|
¯ x ∈ D.
¯ x ∈ D,
v´erifie l’EDP de Dirichlet (4.8) et donc (par unicit´e) co¨ıncide avec u. On a ´etabli
Px B sort de D par le cercle int´ erieur =
ln R − ln |x| , ln R − ln |r|
¯ x ∈ D.
Exemple 2. On consid`ere maintenant d ≥ 3 et toujours D = x ∈ Rd : r < | x| < R avec f comme pr´ec´edemment. On v´erifie alors que
u(x) = Ex 1{|Bτ D |=r}
|x|−d+2 − |R|−d+2 = Px B sort de D par le cercle int´erieur = −d+2 , |r | − |R|−d+2
¯ x ∈ D
o`u la deuxi`eme ´egalit´e vient de ce que, par un calcul direct, on voit que la fonction est solution de l’EDP de Dirichlet (4.8). Quand R → + ∞, comme le temps d’atteinte de la sph`ere ext´erieure tend presque sˆurement vers +∞ avec R, on a, par convergence monotone : R
lim Px B sort de D par le cercle int´erieur = Px B atteint la boule B (0, r) en temps fini .
→+∞
Dans l’Exemple 1, on constate que u(x) → 1 quand R → + ∞ ; dans l’Exemple 2, u(x) → (r/|x|)d−2 . Cela met en ´evidence deux types de comportements diff´erents du mouvement brownien selon que d = 2 ou d ≥ 3. En fait, en dimension d = 2, le mouvement brownien est r´ecurrent (avec probabilit´e 1, il finit par atteindre la boule B (0, r) pour tout rayon r > 0 et pour tout point de d´epart (et aussi pour tout rayon positif par scaling). Au contraire, si d ≥ 3, le mouvement brownien a une probabilit´e strictement positive de ne jamais atteindre la boule B(0, r), il est transcient. Il y a en quelque sorte trop de place en dimension d ≥ 3 pour que la « marche au hasard brownienne » soit sˆ ure de repasser pr`es de l’origine.
72
4.3
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 4.
´ Equation de la chaleur
Les lois de la thermodynamique expliquent que la solution u du probl`eme de Dirichlet (D, f ) en (4.8) est le champ de temp´erature `a l’´equilibre `a l’int´erieur D d’un r´ecipient dont les parois ∂ D sont maintenues `a temp´erature f (cette interpr´etation suppose que f ≥ 0) . On s’int´eresse maintenant aux ´equations de Laplace avec ´evolution dans le temps : par exemple, pour poursuivre la mˆeme interpr´etation thermodynamique, on consid`ere une plaque infiniment mince isol´ee homog`ene et infinie. La temp´erature u(t; y, z ) au point (y, z ) `a l’instant t se d´etermine en fonction de la temp´erature initiale f comme la solution de l’EDP ∂u σ 2 ∂ 2 u ∂ 2 u = + 2 ∂y 2 ∂z 2 ∂t partant de u(0, ·) = f (·). Le coefficient σ > 0 ne d´epend pas de (y, z ) et caract´erise la conductance thermique de la plaque.
En dimension d quelconque, on appelle ´ equation de la chaleur, le probl`eme de Cauchy
∂ ∂t u
= 12 ∆u u(0, ·) = f.
(4.12)
Nous allons relier cette EDP `a des objets probabilistes. On consid`ere d’abord la loi de Bt sachant F s : par ind´ependance et stationnarit´e des accroissements, en ´ecrivant Bt = Bt − Bs + Bs , on constate qu’il s’agit de la loi gaussienne (conditionnelle) N d (Bs , (t − s)I d ) de densit´e au point y, en notant B s = x, donn´ee par p(t − s; x, y) = gt−s (y − x). On voit sans difficult´e que p = p(t; x, y) v´erifie
|y − x|2 d − 1 ∂p = − + p 2 ∂t
2t
2t
et que
1 (yi − xi )2 ∂ 2 p = + − ∂x 2i t t2 de sorte que la fonction p est solution de l’´equation progressive (dite forward) (ie. en la variable y de la position future) p−1
1 ∂ p = ∆y p, 2 ∂t
lim p dy = δ x t
0
o`u δ x est la mesure de Dirac en 0 et aussi par sym´etrie solution de l’´equation r´etrograde (dite backward) (ie. en la variable x de la position pass´ee) 1 ∂ p = ∆x p, 2 ∂t
lim p dx = δ y . t
0
Ces relations justifient que p est la solution fondamentale de l’´equation de la chaleur. (De ce fait, on appelle p le noyau de la chaleur .)
4.4. Formule de Feynman-Kac
73
Proposition 4.5 On suppose que la condition initiale f v´erifie pour une constante c > 0. Alors la fonction
Rd
2
|f (x)|e−c|x| dx < + ∞
u(t, x) = Ex [f (Bt )] est solution de l’´ equation de la chaleur (4.12) sur [0, t0 [×Rd avec t0 = 1/(2c).
D´ emonstration : Par d´efinition, on a u(t, x) = Rd f (y) p(t; x, y) dy. La propri´et´e d’int´egrabilit´e de f permet de d´eriver sous le signe int´egrale pour t ∈ [0, 1/(2c)[ et d’avoir ∂ u = ∂t
∂ f (y) p(t; x, y) dy, ∂t
∂ 2 u = ∂x 2i
∂ 2 f (y) 2 p(t; x, y) dy ∂x i
ce qui implique d’apr`es l’´equation r´etrograde pour p que u est solution de (4.12) sur cet intervalle de temps avec la bonne condition initiale.
4.4
Formule de Feynman-Kac
On consid`ere l’EDP parabolique lin´eaire
∂ ∂t u
= 12 ∆u − ku, u(0, ·) = f.
(t, x) ∈ R∗+ × Rd
(4.13)
Le terme suppl´ementaire k(x) r´epr´esente le taux de dissipation de la chaleur en x dans le cas o` u k ≥ 0. Dans le cas o`u k n’est pas positive, on interpr`etera plutˆot cette ´equation (avec f ≥ 0) comme d´ecrivant la densit´e u(t, x) au temps t et au point x de particules diffusant dans l’espace qui se multiplient dans les sites tels que k(x) ≤ 0 (`a un taux −k) et qui sont tu´ees dans les sites tels que k(x) ≥ 0 (`a un taux k). Puisque cette ´equation se r´eduit si k = 0 a` l’´equation de la chaleur, le r´esultat suivant n’est pas surprenant compte tenu de la Proposition 4.5 :
Proposition 4.6 On suppose que f : Rd → R et k : Rd → R sont bor´eliennes avec f `a croissance sous-exponentielle et k born´ ee. Alors toute solution u(t, x) de l’EDP para1,2 bolique lin´eaire (4.13) de classe C dont le gradient est `a croissance sous-exponentielle (uniform´ement en temps), est donn´ee par la formule
t
u(t, x) = Ex f (Bt )exp −
k(Bs )ds
.
(4.14)
0
En particulier, une telle solution est unique. On interpr`etera mieux cette formule, plus tard, avec la notion de g´en´erateur associ´e `a la diffusion B .
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 4.
74
D´ emonstration : On fixe t ≥ 0 et on applique la formule d’Itˆo au temps s ∈]0, t[ a` s s → u(t − s, Bs )exp − 0 k(Br )dr . Il vient
s
d u(t − s, Bs )exp
−
k(Br )dr
0
=
1 ∂ − k(Bs )u(t − s, Bs )ds − u(t − s, Bs )ds + ∇u(t − s, Bs )dBs + ∆u(t − s, Bs )ds 2 ∂t s
× exp −
k(Br )dr
0
s
= ∇u(t − s, Bs ) dB s exp −
k(Br )dr
0
en utilisant l’EDP (4.13). On int`egre entre s = 0 et s = t : t
exp −
t
k(Br )dr u(0, Bt ) − u(t, B0 ) = exp −
0
k(Br )dr f (Bt ) − u(t, B0 )
0
t
s
exp −
=
k(Br )dr ∇u(t − s, Bs )dBs .
0
0
On passe a` l’esp´erance sous Px , en notant que l’int´egrale stochastique est une martingale L2 d’apr`es les hypoth`eses de croissance sous-exponentielle de u et de la bornitude pour k ; elle est donc d’esp´ erance nulle. On obtient alors
t
Ex exp −
k(Br )dr f (Bt ) − u(t, B0 ) = 0
0
soit, puisque B 0 = x sous Px ,
t
u(t, x) = Ex exp −
k(Br )dr f (Bt )
0
ce qui est la formule de Feynman-Kac ( 4.14).
Cas de l’EDP (4.13) sur un domaine. Soit D un domaine born´e r´egulier de Rd , k mesurable born´ee sur D. On consid`ere maintenant l’EDP
∂ ∂t u
= 12 ∆u − ku, (t, x) ∈ R∗+ × D ¯ u(0, ·) = f sur D u(·, x) = 0 pour x ∈ ∂D.
¯ de classe C 1,2 born´ee et `a d´eriv´ees Soit u une solution de l’EDP continue sur R+ × D, born´ees. On peut v´erifier qu’alors
u(t, x) = Ex f (Bt )1{t<τ D } exp − o`u τ D est le temps de sortie de D.
t
k(Bs )ds
0
Chapitre 5 Diffusions Dans ce chapitre, on introduit bri`evement en Section 5.1 les solutions d’EDS appel´ees diffusions ainsi que des outils importants pour leur ´etude. On termine en reliant l’existence d’une solution faible d’une EDS `a un probl`eme de martingales en Section 5.4.
5.1
G´ en´ erateur d’une diffusion
D´ efinition 5.1 (Processus de diffusion) On appelle processus de diffusion un processus v´erifiant la propri´et´e de Markov forte et `a trajectoires continues du type consid´er´e dans le Th´eor`eme 3.6 . Ainsi, d’apr`es le Th´eor`eme 3.6, les solutions d’EDS homog`enes dX t = a(X t ) dt + σ(X t ) dBt sont des diffusions. On consid`ere ce type de processus dans la suite. De fa¸con g´en´erale, on consid`ere X solution forte de l’EDS E (a, σ) dX t = a(t, X t ) dt + σ(t, X t ) dBt avec a(t, x) ∈ Rd et σ(t, x) ∈ Md,m (R) bor´eliennes et B un mouvement brownien mdimensionnel. On suppose que pour tout t ≥ 0 ps, pour tout 1 ≤ i ≤ d et 1 ≤ j ≤ m, on a t t
|ai (s, X s )| ds < + ∞,
0
|σi,j (s, X s )|2 ds < + ∞.
0
Il est important de pouvoir attacher aux processus de diffusion des martingales (locales) continues. C’est l’objet du th´eor`eme suivant o`u on note σ ∗ la transpos´ee de la matrice σ. Pour cela, on introduit le g´en´erateur d’une diffusion.
D´ efinition 5.2 (G´ en´ erateur infinit´ esimal) Soit X diffusion solution forte de l’EDS E (a, σ). On appelle g´en´erateur (infinit´esimal) de X , l’op´erateur elliptique du deuxi`eme ordre qui associe `a f , fonction de classe C 2 sur Rd , d
Lf (t, x) =
i=1
1 ∂f (x) + ai (t, x) 2 ∂x i 75
d
d
i=1 j=1
∂ 2 f ∗ (σσ )i,j (t, x) (x) ∂x i ∂x j
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 5.
76
1 L = a · ∇x + σσ ∗ ∇x ∇∗x . 2 Le Th´eor`eme 5.2 justifiera la terminologie ”g´en´erateur”. Par exemple, pour X = B mouvement brownien, L = ∂ 2 /∂x 2 (en dimension 1) ou L = ∆ (en dimension d). Le r´esultat suivant justifie l’importance du g´en´erateur L de X pour X .
Th´ eor`eme 5.1 Soient X une solution forte de E (a, σ) de g´en´erateur L et f dans le domaine de l’op´erateur L. Alors
t
f (X t ) −
Lf (s, X s ) ds
0
est une martingale locale.
D´ emonstration : On commence par noter que comme d B k , B l t = δ k,l dt, on a : m
i
j
dX , X t =
σi,k (t, X t )σ j,l (t, X t )dB k , B l t
k,l=1 m
=
σi,k (t, X t )σ j,k (t, X t ) dt
k=1
= (σσ ∗ )i,j (t, X t ) dt. On applique la formule d’Itˆo a` f (X t ) :
d
f (X t ) = f (X 0 ) +
t
0
i=1 d
= f (X 0 ) +
t
0
i=1
+
t
= f (X 0 ) +
1 2 1≤i,j ≤d
t
t
0
∂ 2 f (X s )dX i , X j s ∂x i ∂x j
d
t
i=1
(σσ ∗ )i,j (s, X s )
0
0
d
m
m
σi,k (s, X s ) dB sk
k=1
σi,k (s, X s )
0
m
∂f (X s ) dB sk . ∂x i
t
Lf (s, X s )ds = f (X 0 ) +
σi,k (s, X s )
0
i=1 k=1
∂f (X s ) dBsk (5.1) ∂x i
est bien une martingale locale car en arrˆetant l’int´egrale en
∂ f (X s ) ds ∂x i ∂x j
t
d
0
∂f (X s ) ∂x i
2
i=1 k=1
t
f (X t ) −
∂f (X s ) ds + ai (s, X s ) ∂x i
Lf (s, X s ) ds +
0
Finalement
1 ∂f (X s )dX si + 2 1≤i,j ≤d ∂x i
t
S n = inf t ≥ 0 : X t ≥ n, ∃(i, j),
0
σi,j (s, X s )2 ds ≥ n
5.2. Semi-groupe d’une diffusion
77
temps d’arrˆet (qui tend vers + ∞ par hypoth`ese sur σ) on a bien une vraie martingale.
Si f est assez r´eguli`ere, on a mˆeme une vraie martingale et en prenant l’esp´erance avec X 0 = x :
t
E[f (X t )] = f (x) +
E[Lf (s, X s )]ds.
(5.2)
0
L’op´erateur L pour X permet d’interpr´eter de nombreux r´esultats probabilistes en analyse et r´eciproquement. Ce pont, jet´e entre probabilit´e et analyse, se r´ev`ele particuli`erement f´econd et constitue `a lui seul une motivation importante pour l’´etude des E ds. Le Th´eor`eme 5.3 qui suit en est une illustration.
5.2
Semi-groupe d’une diffusion
D´ efinition 5.3 (Noyau de transition) On associe `a X r,x solution de l’EDS E (a, σ) partant de x `a l’instant r un noyau de transition donn´e par P tr f (x) = E[f (X tr,x)] t ≥ r.
(5.3)
On notera aussi P t f (r, x) := P tr f (x). Ce noyau donne la distribution de la variable al´eatoire X tr,x pour t ≥ r. Par exemple, on voit dans le Chapitre 4 que, dans le cas du mouvement brownien, le noyau est le semi-groupe de la chaleur. Il s’agit encore d’un semi-groupe dans le cas g´en´eral, cf. Th´eor`eme 5.2.
Th´ eor` eme 5.2 (Propri´et´ e de semi-groupe) Le noyau de transition (P tr )t≥r v´erifie la propri´et´e de semi-groupe : pour r ≤ s ≤ t : P tr f (x) = P sr (P ts f )(x).
(5.4)
Lorsque les coefficients de l’EDS ne d´ependent pas du temps, le semi-groupe de transition P tr ne d´epend que de t − r (ie. P tr = P t−r ) et on note r P t+r f (x) := P t f (x) := E[f (X t+r )|X r = x].
D´ emonstration : D’apr`es la propri´et´e de flot, on a pour s ≥ r : r,x = F (r,x,s + t, [Br+· − Br ]t ) X s+t = F (s, X sr,x, s + t, [Bs+· − Bs ]t )) r,x c’est `a dire X s+t s’´ecrit comme fonction de X sr,x et du mouvement brownien ind´ependant [Bs+· − Bs ]t ). r,x De plus, comme [Bs+· − Bs ]t est ind´ependante de F s , la loi conditionnelle de X s+t sachant s,X sr,x F s est celle de X s+t sachant X sr,x . Ainsi r,x L(X s+t |F s )
= L
s,X sr,x |X sr,x X s+t
.
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 5.
78
En prenant les esp´erances, il vient r P s+t f (x)
=
r,x E[f (X s+t )]
s,y )PX sr,x (dy) f (X s+t
= E =
=
r,x E [E[f (X s+t )|F s ]]
=E
=
s,X r,x E[f (X s+t s )|X sr,x]
s,y
E [f (X s+t )] PX sr,x (dy)
s s s P s+t f (y)PX sr,x (dy) = E[P s+t f (X sr,x)] = P sr (P s+t f )(x).
Le semi-groupe du mouvement brownien v´erifie l’´equation de la chaleur (4.12), cf. Section 4.3. On montre dans le Th´eor`eme 5.3 que cela se g´en´eralise pour une diffusion solution d’une EDS E (a, σ) en une EDP impliquant le g´en´erateur.
Th´eor`eme 5.3 (D´ erivation et g´en´ erateur) Le semi-groupe (P tr )t≥r est d´erivable par rapport a` t et sa d´eriv´ee est le g´en´erateur de la diffusion, ie. pour f de classe C 2 assez r´eguli`ere : ∂ t P t f (r, x) = P tr [Lf (t, ·)](x).
(5.5)
En particulier, ∂ t P tr f (x)|t=r = Lf (r, x). Dans le cas homog`ene (ie. a(t, x) = a(x) et σ(t, x) = σ(x)), on a ∂ t P t f (x) = P t (Lf )(x) = L(P t f )(x)
et
∂ t P t f (x)|t=0 = Lf (x).
(5.6) (5.7)
Cela explique la terminologie ”g´en´erateur infinit´esimal” pour L, puisqu’on peut ´ecrire symboliquement (5.7) sous la forme « P t = exp(tL) ».
D´ emonstration : On suppose que la fonction f est r´eguli`ere de fa¸con que la martingale locale du Th´eor`eme 5.1 soit une vraie martingale. Elle est d’esp´erance nulle et donc l’esp´erance dans la formule d’Itˆo (5.1) donne pour les dates t et t + h (avec t ≥ r et h ≥ 0) : r,x E[f (X t+h )]
=
r,x E[f (X t )] +
t+h
E
t
Lf (s, X sr,x) ds .
Comme Lf (s, X sr,x) est continue et born´ee lorsque f est assez r´eguli`ere, d’apr`es le th´eor`eme de convergence domin´ee, la fonction de t, P tr f (x) = E[f (X tr,x)] est d´erivable `a droite et de d´eriv´ee E[Lf (t, X tr,x)] = P tr [Lf (t, ·)](x), ce qui ´etablit l’identit´e (5.5). En particulier, ∂ t P tr f (x)|t=r = Lf (r, x). La d´erivabilit´e pr´ec´edente a ´et´e montr´ee `a droite seulement. Pour conclure, on observe que P tr ∂ t [Lf (t, ·)](x) = E[Lf (t, X tr,x)] est une fonction continue de t par convergence domin´ee (et r´egularit´e de f ). Ainsi la fonction
t
t →
r
P sr [Lf (s, ·)](x) ds
5.2. Semi-groupe d’une diffusion
79
est d´erivable de d´eriv´ee P tr [Lf (t, ·)](x). Comme la diff´erence de deux fonctions qui ont la mˆeme d´eriv´ee `a droite est n´ecessairement constante, il existe c tel que P tr f (x)
t
=
r
P sr [Lf (s, ·)](x) + c.
En faisant t = r, on a c = f (x). Cela ach`eve de prouver compl`etement la d´erivabilit´e dans (5.5). Dans le cas homog`ene, la propri´et´e de semi-groupe s’´ecrit P t+s f = P s P t f = P t P s f et montre maintenant la deuxi`eme partie de (5.7) P t+h f (x) − P t f (x) P h P t f − P t f P h g − g = (x) = (x) h h h en notant g = P t f . En passant `a la limite h 0, on a P t+h f (x) − P t f (x) = ∂ u P u g(x)|u=0 = Lg(x) = L[P t f ](x) h0 h
∂ t P t f (x) = lim
ce qui ´etablit l’identit´e (5.7).
Remarque 5.1 Si le semi-groupe (P tr )t≥r admet une densit´e pt (r,x,y) (ie. P tr f (x) = pt (r,x,y)f (y) dy), cette densit´e v´erifie l’´equation de convolution
pt (r,x,y) ps (t,y,z )dy = p s+t (r,x,z ).
Rn
En effet, l’´equation de convolution est l’analogue sur les densit´es de la propri´et´e de semigroupe (5.4).
´ Th´eor`eme 5.4 (Equation de Kolmogorov) On suppose que le semi-groupe (P tr )t≥r admet une densit´e p t (r,x,y). Alors cette densit´e v´erifie (dans le sens des distributions) l’´equation de Kolmogorov progressive en (t, y), au sens des distributions,
∂ t pt (r,x,y) = L∗y [ pt (r,x, ·)](t, y) limt→r pt (r,x, ·) = δ x
(5.8)
o` u L∗ est l’op´erateur adjoint de L d´efini par y
d
∂ 2 [(σ(t, x)σ(t, x)∗ )i,j f (t, x)] − 2 i,j=1 ∂x i ∂x j
1 L∗ f (t, x) =
d
i=1
∂ [ai (t, x)f (t, x)]. ∂x i
Si en plus l’EDS est homog`ene alors la densit´e pt (r,x,y) satisfait aussi l’´equation de Kolmogorov r´etrograde en (t, x) :
∂ t pt (r,x,y) = Lx [ pt (r·, y)](t, x) limt→r pt (r·, y) = δ y .
(5.9)
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 5.
80
D´ emonstration : Avec (5.5), pour toute fonction f r´eguli`ere `a support compact, on a : ∂ t P t f (r, x) = P t [L(t, ·)](r, s) =
pt (r,x,y)Lf (t, y)dy
Rd
d
=
pt (r,x,y)
Rd
d
=
Rd
2
d
1 ∂ f (σ(t, y)σ(t, y)∗ )i,j (y) + 2 i,j=1 ∂y i ∂y j
1 ∂ [(σ(t, y)σ(t, y)∗ )i,j pt (r,x,y)] − 2 i,j=1 ∂y i ∂y j
Rd
=
2
ai (t, y)
i=1
d
i=1
∂f (y) dy ∂y i
∂ [ai (t, y) pt (r,x,y)] f (y)dy ∂y i
L∗y pt (r,x,y)f (y)dy
avec quelques IPP. En comparant les deux expressions obtenues, il vient : l’´equation progressive (5.8). Dans le cas homog`ene, par convergence domin´ee, avec la d´efinition de P tr , on a pour toute fonction f r´eguli`ere `a support compact ∂ t P tr f (x)
= ∂ t E[f (X tr,x)]
= ∂ t
f (y) pt (r,x,y)dy
Rd
=
f (y)∂ t pt (r,x,y)dy.
Rd
Or d’apr`es (5.7), on a ∂ t P tr f (x)
= L(P tr f )(x)
= L
f (y) pt (r, ·, y)dy (x) =
En comparant avec l’expression ∂P t f (r, ) = ∂ t
pt (r,x,y)f (y) dy
=
f (y)Lx [ pt (r, ·, y)](x)dy.
∂ t pt (r,x,y)f (y) dy,
il vient l’´equation r´etrograde (5.9) (avec des d´eriv´ees dans le sens des distributions).
Remarque 5.2 (EDS homog` enes) Pour des EDS homog`enes, le g´en´erateur L de (5.1) ne d´epend que de x et le semi-groupe v´erifie P tr = P t−r . Dans ce cas, on a des expressions homog`enes en temps : P t f (x) P t+s f ∂ t P t f P t
= = = =
E[f (X tx )]
P t (P s f ) P t Lf = LP t f exp(tL).
5.3. Diffusion et EDP
5.3
81
Diffusion et EDP
On g´en´eralise l’observation du Th´eor`eme 5.1 avec la formule de Dynkin.
Th´eor`eme 5.5 (Formule de Dynkin) Soit X t )t≥0 une diffusion homog`ene de g´en´erateur d
L =
∂ 2 ∗ (σσ )i,j (x) + ∂x i x j
i,j=1
d
ai (x)
i=1
∂ , ∂x i
x ∈ Rd , τ un temps d’arrˆet int´egrable : Ex [τ ] < + ∞ et f : Rd → R une fonction de classe C 2 `a support compact. Alors
τ
x
E [f (X τ )] = f (x) + E
x
Lf (X s ) ds .
0
(5.10)
D´ emonstration : Pour simplifier la preuve, on consid`ere le cas d = m = 1. Avec la formule d’Itˆo, comme dans la preuve du Th´eor`eme 5.1, on a
τ
Ex [f (X τ )] = f (x) + Ex
τ
Lf (X s ) ds + Ex
0
σ(X s )f (X s ) dBs .
0
(5.11)
Il suffit donc de montrer que l’esp´erance de l’int´egrale stochastique est nulle. Mais pour toute fonction h born´ee par M , et N ∈ N, on a
τ N
Ex
∧
N
h(X s ) dBs = Ex
0
0
1{s<τ } h(X s ) dB s = 0
car 1{s<τ } et h(X s ) sont F s -mesurables. Puis
τ
Ex
h(X s ) dB s −
0
∧
0
2
τ N
h(X s ) dB s
τ
= Ex
2
h(X s ) ds
τ N
∧
≤ M 2 Ex[τ − τ ∧ N ]
qui tend vers 0 quand n → + ∞ par convergence domin´ee, en vertu de l’hypoth`ese E x [τ ] < +∞, On a donc
τ
0 = lim Ex N +
→ ∞
0
τ
h(X s ) dB s = Ex
0
h(X s ) dB s
ce qui conclut la preuve en reportant cette conclusion dans ( 5.11) pour h = σf .
(5.12)
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 5.
82
5.3.1
EDP de type Dirichlet
On consid`ere D un ouvert de Rd et τ le temps de premi`ere sortie de D d’une diffusion homog`ene de g´en´erateur L. On consid`ere alors le probl`eme avec condition au bord :
Lu = θ, x ∈ D u = ψ, x ∈ ∂D.
(5.13)
Si le probl`eme (5.13) admet une unique solution (par exemple si D, θ, ψ sont assez r´eguliers) alors d’apr`es la formule de Dynkin (5.10), on a
u(x) = Ex ψ(X τ ) −
τ
θ(X s ) ds .
0
En particulier, – pour ψ = 0 et θ = 1, u(x) est ´egal `a l’esp´erance de τ partant de x. – pour θ = 0 et ψ = indcatrice d’une partie A de ∂D, alors u(x) est la probabilit´e de quitter D par A. Ainsi la r´esolution de (5.13) donne des informations sur le temps de sortie τ et le lieu de sortie X τ de la diffusion X de D.
Exemple 1. On consid`ere la diffusion dX t = X t dBt . Comme les solutions de Lu = 0 sont u(x) = c1 x + c 2 , c1 , c2 ∈ R, en notant τ a et τ b les temps d’atteinte de a < b, on montre qu’on a b−x , x ∈ [a, b]. Px (τ a < τ b ) = b−a Exemple 2. On consid`ere la diffusion dX t = rX t dt + X t d Bt , r ∈ R. Pour r = 1/2, les 1−2r solutions de Lu = 0 sont u(x) = c 1 x + c2 , c 1 , c2 ∈ R. – Pour r < 1/2, en notant τ a et τ b les temps d’atteinte de 0 < a < b, En appliquant la formule de Dynkin (5.10) avec θ = 0 et ψ(a) = 0, ψ(b) = 1, on a u(x) = Ex [1{X τ =b} ] = Px (τ b < τ a ) D’apr`es l’unicit´e de la solution de l’EDP, en d´eterminant les constantes `a l’aide de u(b) = 1, u(a) = 0, on a x1−2r − a1−2r Px (τ b < τ a ) = 1−2r , − a1−2r b
1 2r
−
x ∈ [a, b].
Comme lima→0 a1−2r = 0, on a Px (τ b < τ 0 ) = xb . La probabilit´e que X n’atteigne 1−2r jamais b est 1 − (x/b) . on a x1−2r − a1−2r (τ ) = , x ∈ [a, b]. Px b < τ a b1−2r − a1−2r Comme lima→0 a1−2r = 0, on a x 1−2r Px (τ b < τ 0 ) = . b La probabilit´e que X n’atteigne jamais b est 1 − (x/b)1−2r .
5.3. Diffusion et EDP
83
– Pour r > 1/2, on a Px (τ a < τ b ) =
x1−2r − b1−2r , a1−2r − b1−2r
x ∈ [a, b].
Comme lima→0 a1−2r = +∞, on a Px (τ 0 < τ b ) = 0,
x < b.
Puis comme la solution de
Lu(x) = −1, 0 < x < b u(x) = 0, x = b
est u(x) =
ln b − ln x r − 1/2
Mais avec θ = − 1 et ψ = 0, et τ = τ b , on a u(x) = E
x
τ b
1 ds = Ex [τ b ]
0
On en d´eduit de l’unicit´e de la solution de l’EDP que 1 Ex [τ b ] = ln r − 1/2
b . x
Remarque : Cela montre que les solutions tendent `a croˆıtre exponentiellement puisque Ex [τ b ] = T pour b = x exp (r − 1/2)T . on d´eduit que 1 b Ex [τ b ] = ln . r − 1/2 x
Cela montre que les solutions tendent `a croˆıtre exponentiellement puisque E x [τ b ] = T pour b = x exp (r − 1/2)T .
5.3.2
Formule de Feynman-Kac
Parfois, il n’est pas utile de connaˆıtre explicitement tout le semi-groupe de transition en utilisant des EDP r´etrogrades, seulement certaines int´egrales. ≥
(P tr )t r mais,
Th´ eor` eme 5.6 (Feynman-Kac) Soit g une fonction continue. S’il existe une solution r´eguli`ere u(t, x) `a l’EDP r´etrograde ∂u (t, x) + Lu(t, x) = 0, ∂t alors u(t, x) = E[g(X T )|X t = x].
u(T, x) = g(x),
(5.14)
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 5.
84
L’int´erˆ et d’une telle formule est de pouvoir donner une solution d’EDP sous forme d’es` l’aide de m´ethodes de Monte-Carlo pour approximer les esp´erances, on peut p´erance. A simuler la solution de l’EDP.
D´ emonstration : Comme pour (5.1), on applique la formule d’Itˆo a` u(s, X s ) entre t et T et on utilise que u v´erifie l’EDP (5.14). On a
T
u(T, X T ) = u(t, X t ) +
t
d
= u(t, X t ) +
∂u (s, X s ) ds + ∂s m
i=1 j=1
σi,j (s, X s )
t
Lu(s, X s ) ds +
0
T
d
t
m
i=1 j=1
T
σij (s, X s )
t
∂u (s, X s(5.15) ) dB js ∂x i
∂u (s, X s ) dB js . ∂x i
T
Avec assez de r´egularit´e, les int´egrales t σij (s, X s ) ∂∂xui (s, X s ) dB js sont de vraies martingales. En prenant l’esp´erance, la propri´et´e de martingale annule l’esp´erance correspondante et avec la condition terminale en T , on a : E[g(X T )|X t = x] = E[u(T, X T )|X r = x] = E[u(t, X t )|X t = x] = u(t, x).
Corollaire 5.1 Soit g une fonction continue. S’il existe une solution r´eguli`ere v(t, x) `a l’EDP r´etrograde ∂v (t, x) + Lv(t, x) − k(t, x)v(t, x) = 0, ∂t
v(T, x) = g(x),
alors v(t, x) = E exp −
T k(s, X s ) t
(5.16)
ds g(X T )|X t = x .
D´ emonstration : Comme dans la preuve pr´ec´edente et dans celle de la Proposition 4.6, on applique la formule d’Itˆo (de la mˆeme fa¸con que pour (5.1)) au produit de processus s u(s, X s ) et exp − t k(u, X u )du et on utilise l’EDP (5.16). En prenant l’esp´erance, la partie martingale disparaˆıt et on a s
E exp −
k(u, X u )du u(s, X s )|X t = x
t
t
= E [u(t, X t )|X t = x] +
v
E exp −
s
k(u, X u )du
t
∂u + Lu − ku (v, X v )|X t = x ∂t
On conclut en utilisant le fait que u est solution de l’EDP (5.16).
dv.
5.4. Probl`eme de martingales
5.4 5.4.1
85
Probl` eme de martingales Introduction
On consid`ere l’EDS E (a, σ) dX t = a(t, X t ) dt + σ(t, X t ) dBt o`u a(t, x) ∈ Rd et σ(t, x) ∈ Md,m (R) sont mesurables pour t ∈ R+ et x ∈ Rd et B est un mouvement brownien m dimensionnel. Dans cette section, on ne suppose plus les hypoth` eses lipschitziennes du Chapitre 3 et on cherche une solution faible `a l’EDS E (a, σ), c’est `a dire un triplet X , B, (Ω, F , (F t )t≥0 , P) tel que B soit un (F t )t≥0 -mouvement brownien et X un processus adapt´e et continu v´erifiant ps
t
0
2 (s, X s ) ds < + ∞, |ai (s, X s )| + σi,j
t
X t = X 0 +
a(s, X s ) ds +
0
1 ≤ i ≤ d, 1 ≤ j ≤ m, t ≥ 0 (5.17)
t
σ(s, X s ) dB s ,
t ≥ 0.
(5.18)
0
Noter que pour une telle solution X t est bien d´efinie pour tout t. Si bien que lorsqu’on consid`ere les temps d’arrˆet S n = inf(t ≥ 0 : X t ≥ n) on a S n → + ∞ ps quand n → + ∞. Une solution faible peut ˆetre vue comme une loi sur l’espace C (R+ , Rd ), B (C (R+ , Rd ) . On parle aussi de mesure-solution. Dans cette section, on montre qu’une probabilit´e sur C (R+ , Rd ), B (C (R+ , Rd ) est solution faible (mesure-solution) de E (a, σ) si et seulement si c’est la solution d’un probl`eme de martingales. Ce type de probl`eme a ´et´e introduit par Stroock et Varadhan en 1969.
Exemple. Si on consid`ere l’´equation E (0, 1) avec m = d = 1 et a = 0, σ(t, x) = 1 avec la condition initiale x = 0, ie. dX t = dBt , X 0 = 0 la seule solution est X = B et la solution faible est donc la mesure de Wiener W sur
(Ω , F ) = C (R+ , R), B (C (R+ , R))
muni de la filtration (F t )t≥0 engendr´ee par le processus canonique X t (ω ) = ω (t). Dans ce cas, on observe avec le Th´eor`eme de L´evy que la mesure de Wiener W est la seule probabilit´e sur (Ω , F , (F t )t≥0 ) sous laquelle X t et X t2 − t sont des martingales locales. Le but dans cette section est de g´en´eraliser cette observation `a (presque toutes) les ´equations E (a, σ) sous l’hypoth`ese : a et σ sont des fonctions bor´eliennes localement born´ees.
(loc)
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 5.
86
On note c = σσ ∗ la fonction de R+ × Rd dans l’espace des matrices d × d sym´etriques positives, ie. m
ci,j (t, x) =
σi,k (t, x)σ j,k (t, x).
k=1
La fonction c est bor´elienne et sous (loc) elle est aussi localement born´ee. On associe `a l’EDS E (a, σ) le g´en´erateur (5.1), ie. d
Lf (t, x) =
i=1
d
1 ∂f ∂ 2 f (x) + (x), ai (t, x) ci,j (t, x) 2 i,j=1 ∂x i ∂x i ∂x j
f ∈ C 2 (Rd ).
Si f ∈ C 1,2 (R+ × Rd ), on applique L · (t, ·) `a f (t, ·) et on pose d
Lf (t, x) =
i=1
d
1 ∂f ∂ 2 f (t, x) + (t, x). ai (t, x) ci,j (t, x) 2 i,j=1 ∂x i ∂x i ∂x j
Proposition 5.1 Soit X , B , (Ω, F , (F t )t≥0 , P) une solution faible de l’EDS E (a, σ). Pour toute fonction f (t, x) ∈ C 1,2 (R+ × Rd ), M tf = f (t, X t ) − f (0, X 0 ) −
t
0
∂f + Lf (s, X s ) ds ∂t
(5.19)
(5.20)
est une martingale locale continue. De plus si g ∈ C 1,2 (R+ × Rd ) alors
d
f
g
M , M t =
t
i,j=1
ci,j (s, X s )
0
∂f ∂ g (s, X s ) (s, X s ) ds. ∂x i ∂x j
Puis si f ∈ C c1,2 (R+ × R d ) et les coefficients σi,j sont born´es sur le support de f alors M f ∈ L 2 (B).
D´ emonstration : La formule d’Itˆo exprime M f comme une somme d’int´egrales stochastiques : d m t ∂f f i,j i,j (s, X s ) dB js M t = M t avec M t = σi,j (s, X s ) ∂x i 0 i=1 j=1
cf. par exemple (5.15). On consid`ere les temps d’arrˆet
t
S n = inf t ≥ 0 : X t ≥ n ou
2
σi,j (s, X s ) ds ≥ n pour un (i, j) .
0
Comme ps pour chaque (i, j), on a pour la solution X de l’EDS alors S n → + ∞. Les processus d
(M tf ) S n
= M tf S n
∧
=
m
i=1 j=1
d
M ti,jS n
∧
=
m
i=1 j=1
t σ (s, X s )2 0 i,j
t S n
∧
0
σi,j (s, X s )
ds < +∞
∂f (s, X s ) dB js ∂x i
5.4. Probl`eme de martingales
87
sont des martingales continues. Le crochet (5.20) vient de l’expression obtenue pour M f et de B i , B j t = δ i,j t :
d
f
g
M , M t =
m
·
0
i,k=1 j,l=1 d
=
m
t
σi,j (s, X s )σk,l (s, X s )
i,k=1 j,l=1 d
=
0
m
t
0
i,k=1 j=1 d
=
∂f (s, X s ) dB js , σi,j (s, X s ) ∂x i
∗ (s, X s ) σi,j (s, X s )σ j,k
t
(σσ ∗ )i,j (s, X s )
i,k=1
0
·
0
∂g (s, X s ) dBsl σk,l (s, X s ) ∂x k
t
∂f ∂ g (s, X s ) (s, X s )dB j , B l s ∂x i ∂x k
∂f ∂g (s, X s ) (s, X s ) ds ∂x i ∂x k
∂f ∂g (s, X s ) (s, X s ) ds. ∂x i ∂x k
Si de plus f est `a support compact sur lequel chaque σi,j est born´e alors l’int´egrand dans M i,j est born´e et M f ∈ L 2 (B).
5.4.2
EDS et probl` eme de martingales
On va montrer une sorte de r´eciproque : si M f est une martingale locale lorsque f ∈ C 1,2 (R+ × Rd ) alors on a une solution faible de l’EDS E (a, σ). En fait, on montre qu’il suffit de le voir pour les fonctions f i (x) = xi , 1 ≤ i ≤ d, et f i,j (x) = xi x j , 1 ≤ i, j ≤ d. Dans ce cas, Lf i (t, x) = a i (t, x),
Lf i,j (t, x) = a i (t, x)x j + a j (t, x)xi + ci,j (t, x)
et on note M i = M f i et M i,j = M f i,j : M ti M ti,j
= =
X ti
−
X ti X jt
xi0
−
t
−
ai (s, X s ) ds,
0
xi0 x j0
−
t
0
On introduit pour i, j = 1, . . . , d N ti,j
i = 1, . . . , d
(5.21)
ai (s, X s )X js + a j (s, X s )X si + ci,j (s, X s ) ds. (5.22)
=
M ti M jt
=
M ti,j
−
t
−
ci,j (s, X s ) ds
0 i j X 0 M t
(5.23)
− X j0 M ti + K ti,j
avec le terme correctif K ti,j
t
=
0
(X si
−
X ti )a j (s, X s ) ds +
t
0
(X js
−
X jt )ai (s, X s ) ds +
t
0
t
ai (s, X s ) ds
0
a j (s, X s ) ds
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 5.
88
t
=
0
(M si − t
M ti )a j (s, X s )
s
= −
0
a j (s, X s ) ds
0
t
ds +
0
(M js − M js )ai (s, X s ) ds
dM si −
t
s
0
ai (s, X s ) ds
0
dM js
(5.24)
(5.25)
o`u (5.24) s’obtient par int´egration par parties classique
t
t
ai (s, X s ) ds
a j (s, X s ) ds
0
0
t
=
t
t
ai (u, X u ) du a j (s, X s ) ds +
0
s
t
0
a j (s, X s ) du ai (s, X s ) ds
s
t
avec X si − X ti + s a i (s, X s ) ds = M si − M ti et (5.25) est obtenu par IPP avec la formule · d’Itˆo pour [XY ] avec X = M et Y = 0 a(s, X s ) ds. Finalement N i,j est une martingale locale ssi M i,j en est une. Comme a priori on ne dispose pas de solution (ie. de triplet X , B, (Ω, F , (F t )t≥0 , P) o`u B est un (F t )t≥0 -mouvement brownien B et sur lequel X est solution comme en (5.17)–(5.18)), on va exprimer le probl`eme de martingales sur l’espace canonique
(Ω , F ) = C (R+ , Rd ), B (C (R+ , Rd )) . On le munit de la filtration ( F t )t≥0 engendr´ee par le processus canonique donn´e par X t (ω ) = ω (t).
D´ efinition 5.4 (Probl` eme de martingales) Une probabilit´e P sur (Ω , F ) sous laquelle M f d´efinie par
t
f
M t = f (X t ) − f (X 0 ) −
0
Lf (s, X s ) ds
(5.26)
est une martingale locale (resp. martingale) pour tout f ∈ C 2 (R+ , Rd )(resp. f ∈ C c2 (R+ , Rd )) est appel´ee solution du probl`eme de martingale locale (resp. martingale). On consid`ere les ´equivalents de M f i , M f i,j sur Ω comme en (5.21)-(5.23)
M i = M f i = X i − xi − A i , i = 1, . . . , d N i,j = M i M j − C i,j , i, j = 1, . . . , d o`u i
At =
t
0
i,j
ai (s, X s ) ds, Ct =
sont des processus continus et adapt´es sur Ω . Le r´esultat principal est alors le suivant :
t
0
ci,j (s, X s ) ds
(5.27)
5.4. Probl`eme de martingales
89
Th´ eor` eme 5.7 (Probl`eme de martingales) On suppose l’hypoth`ese ( loc) satisfaite pour l’EDS E (a, σ). Une probabilit´e P sur (Ω , F ) est solution faible (ou mesure-solution) ssi les processus M i et N i,j sont des martingales locales sous P avec M 0i = 0 P -ps pour tout 1 ≤ i ≤ d (soit P (X 0 = x) = 1). De la Proposition 5.1 et du Th´eor`eme 5.7, on d´eduit :
Corollaire 5.2 Consid´erons les assertions suivantes : (A) Il existe une solution faible de l’EDS E (a, σ). (B) Il existe une solution au probl`eme de martingale locale (5.26). (C) Il existe une solution au probl`eme de martingale (5.26). Alors (C ) ⇒ {(A) ⇔ (B)}.
D´ emonstration :[Th´eor`eme 5.7] On proc`ede par ´etape : ´etape 1 : la condition est n´ecessaire ; ´etape 2 : travail pr´eliminaire pour la suffisance ; ´etape 3 : la condition est suffisante. ´ Etape 1 : On montre que la condition du Th´eor`eme 5.7 est n´ecessaire. On suppose que P est solution faible. Il existe alors (Ω, F , (F t )t≥0 , P), B (F t )t -mouvement brownien et X processus adapt´e `a trajectoires continues ps, triplet solution de E (a, σ) avec (5.17)-(5.18) sur Ω avec B et X de loi P . D’apr`es la Proposition 5.1, chaque M i et M i,j sont des martingales locales et les crochets des M i sont donn´es par i
t
j
M , M t =
ci,j (s, X s ) ds.
0
En particulier, chaque N i,j = M i M j − C i,j est une martingale locale. Il reste `a transf´erer cette observation aux martingales M i , M i,j et N i,j qui sont leur analogue sur Ω . On effectue le transfert par le processus solution X : Ω → Ω . Plus pr´ecis´ement en notant N = {ω : la fonction t → X t (ω) n’est pas continue }, on consid`ere φ : Ω → Ω donn´ee par φ(ω)(t) =
X t (ω) 0
si ω ∈ N si ω ∈ N
alors P = P ◦ X −1 = P ◦ φ−1 . On note T n = inf(t ≥ 0 : X t ≥ n) et T n = inf(t ≥ 0 : X t ≥ n). Comme d’apr`es (loc) les processus arrˆet´es (M i )T n et (N i,j )T n sont born´es sur chaque intervalle de temps, ce sont de (vraies) martingales. D’apr`es les d´efinitions de φ, des processus M i , N i,j et des processus M i et N i,j , hors de N , on a (M i )T n = (M i )T n ◦ φ, (N i,j )T n = (N i,j )T n ◦ φ. (5.28) Comme P(N ) = 0, les ´egalit´es restent vraies P-ps.
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 5.
90
Lemme 5.1 Soit (Ω, F , (F t )t≥0 , P) et (Ω , F , (F t )t≥0 ) et φ : Ω → Ω qui respecte les filtrations. On pose P = P ◦ φ −1 . Alors si M est une martingale sur (Ω, F , (F t )t≥0 , P), le processus continu M sur Ω associ´e `a M par M = M ◦ φ en dehors de N (bien d´efini P -ps) est une martingale sur (Ω , F , (F t )t≥0 , P ). D´ emonstration : En effet, si s < t et A ∈ F s , on a A = φ−1 (A ) ∈ F s (car X est pr´evisible) et E [(M t − M s )1A ] = E[(M t − M s )1A ] = 0 par transfert `a l’aide de φ. Ainsi M est une martingale sur (Ω , F , (F t )t≥0 , P ).
D’apr`es cette remarque, les expressions (5.28) assurent que (M i )T n et (N i,j )T n sont des martingales sur Ω . Comme T n → +∞ (sous P avec les condition (loc)), on obtient que M i et N i,j sont des P -martingales locales P -ps nulles en 0, ce qui prouve l’´etape 1.
´ Etape 2 : On montre quelques r´esultats pr´eliminaires avant d’´etablir que la condition du Th´eor`eme 5.7 est suffisante dans l’´etape 3 : pour montrer que P est solution faible, il s’agit de trouver un espace Ω sur lequel X (de loi P ) est encore d´efini et est solution de E (a, σ), ie. v´erifie (5.17)–(5.18). Pour cela, on consid`ere un espace auxiliaire (Ω , F , (F t )t≥0 , P ) sur lequel est d´efini un mouvement brownien m-dimensionnel B (par exemple Ω peut ˆetre l’espace de Wiener m-dimensionnel). On pose alors Ω = Ω × Ω , F = F ⊗ F , F t =
F s ⊗ F s ,
P = P ⊗ P .
s>t
Avec un abus de notation, on ´etend toutes les fonctions sur Ω ou Ω de mani`ere usuelle `a Ω en gardant le mˆeme symbole, par exemple X t (ω , ω ) = X t (ω ),
Bt (ω , ω ) = B t (ω ).
Par construction, B est ind´ependant de Ω . Soit U et U des martingales locales sur (Ω , F , (F t )t , P ) et (Ω , F , (F t )t , P ). On les suppose r´eduites respectivement par (T n )n≥1 et (T n )n≥1 . Pour tous s ≤ t et A ∈ F s , A ∈ F s , on a
T
E U t
T
E U t
n
n
T
U t
n
T
= E U t n 1A P (A ) = E U sT n 1A P (A ) = E U sT n 1A×A
1A ×A
1A ×A , = E U t T n 1A E U t T n 1A = E U sT n 1A E U s T n 1A
= E U sT n U s T n 1A ×A .
(5.29)
T
T
Donc U et U sont des martingales locales sur (Ω, F , (F t )t , P). Comme U t n U t une martingale,
T
T
U t n U t
n
T n T n
∧
T
= U t
n
∧T n U T n ∧T n = U U t t t
T n T n
∧
n
est aussi
5.4. Probl`eme de martingales
91
est une martingale (car martingale arrˆet´ee) et donc U U est une martingale locale car T n ∧ T n → + ∞. Par cons´equent, U , U t = 0. Il s’ensuit que sur cet espace (Ω , F , (F t )t≥0 , P), B est un mouvement brownien et les M i et N i,j sont des martingales locales avec M i , B j = 0 d’apr`es (5.29). On utilise maintenant des r´esultats ´el´ementaires d’alg`ebre lin´eaire : on rappelle que si c = σσ∗ est de rang ζ (≤ d, m) alors σ est aussi de rang ζ . Le fait que σσ ∗ soit d´eg´en´er´ee est la difficult´ e qui oblige `a construire un mouvement brownien sur une extension Ω de l’espace Ω . Soit c = σ ∗ σ une matrice de taille m × m sym´etrique positive. Elle s’´ecrit c = ΠΛΠ∗ o`u Π est orthogonale de taille m × m et Λ est diagonale avec Λ i,i > 0 si i ≤ ζ et Λi,i = 0 si i > ζ . Soit Λ la matrice diagonale avec Λi,i = 1/Λi,i si i ≤ ζ
et
Λi,i = 0 si i > ζ.
On a ΛΛ = I m,ζ en notant I m,ζ la matrice diagonale de taille m × m ayant 1 pour les ζ premiers ´el´ements diagonaux et 0 pour les suivants. Soit enfin σ = Λ Π∗ σ∗ une matrice de taille m × d. On a alors
σ cσ ∗ = (Λ Π∗ σ∗ )(σσ ∗ )(σΠΛ ) = (Λ Π∗ )(ΠΛΠ∗ )(ΠΛΠ∗ )(ΠΛ ) = Λ ΛΛΛ = I m,ζ . (5.30) Enfin comme Λ = Π∗ c Π = Π∗ σ∗ σΠ = (σΠ)∗ (σΠ), en regardant les termes diagonaux pour d 2 (σΠ) j,k = 0 si k > ζ . Ainsi, (σΠ) j,k = 0 pour tout j si k > ζ , ce qui s’´ecrit k > ζ , on a j=1 σΠ = σΠI m,ζ . Par suite
σΠσ c = σΠ(Λ Π∗ σ∗ )(σσ ∗ ) = σΠΛ Π∗ (ΠΛΠ∗ )σ∗ = (σΠ)(Λ Λ)Π∗ σ ∗ = σΠI m,ζ Π∗ σ∗ = σΠΠ∗ σ∗ = σσ∗ = c.
(5.31)
´ Etape 3 : On montre maintenant que la condition du Th´eor`eme 5.7 est suffisante. Comme la fonction matricielle σ est bor´elienne sur R+ × Rd , il en est de mˆeme pour son rang ζ . On peut aussi v´erifier qu’on peut choisir pour les matrices Π et Λ des fonctions bor´eliennes. De mˆeme, les fonctions Λ et σ le sont encore. | (elle est encore bor´elienne). La fonction σ /α (avec la convenSoit aussi α = supi≤m,j ≤d |σi,j tion 0/0 = 0) ´etant born´ee, pour tout i = 1, . . . , m on peut d´efinir les int´egrales
d
U ti
=
t
0
j=1
σi,j (s, X s )dM s j . α
D’apr`es l’hypoth`ese de cette ´etape, N i,j , d´efinie en (5.23), est une P -martingale locale. On a donc M i , M j = C i,j . On a alors
i
j
U , U t =
t
0
d
σ σi,k j,l (s, X s )dM k , M l s 2 α k,l=1
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 5.
92
t
=
0
d
σ ck,l σi,k j,l (s, X s ) ds 2 α k,l=1
t
(σ cσ ∗)i,j = (s, X s ) ds 2 α 0 t 1 1 = δ i,j ds 2 {ζ (s,X s )≥i} ) α(s, X 0 s
en utilisant σ cσ ∗ = I m,ζ (cf. (5.30)). Cela assure que les int´ egrales stochastiques V ti = t α(s, X s )dU si sont bien d´efinies et en plus 0
i
t
j
V , V t = δ i,j
1{ζ (s,X s )≥i} ds.
0
(5.32)
Dans la suite, on utilise
t
i
j
M , V t =
0 d
=
t
k=1 d
= =
σ j,k (s, X )dM i , M k s α(s, X ) s
0
t
k=1
0
t
d
0 k=1 t
=
α(s, X s )dM i , U j s s
α
(s, X )dM i , M k s σ j,k s (s, X )ci,k (s, X ) ds σ j,k s s
(cσ ∗ )i,j (s, X s ) ds.
0
(5.33)
On rappelle que B est un mouvement brownien ur Ω et qu’il est ind´ependant de l’espace facteur Ω . Pour i ≤ m, on d´efinit les P-martingales locales continues suivantes Z ti
= V ti
+
0
m
t
i
1{ζ (s,X s )
Bti
et
=
k=1
t
0
Πi,k (s, X s )dZ sk .
(5.34)
Noter que, par ind´ependance, on a M i , B k = 0 et donc il vient U i , B k = 0 puis aussi V i , B k = 0. Avec (5.32) et B i , B j t = δ i,j t (mouvements browniens ind´ependants), on obtient
t
i
j
i
j
Z , Z t = V , V t + δ i,j
m
B i , B j t =
k,l=1
t
0
0
1{ζ (s,X s )
(Πi,k Π j,l )(s, X s )dZ k , Z l s
5.4. Probl`eme de martingales
93
m
=
t
0
k=1 t
=
0
(Πi,k Π j,k )(s, X s ) ds
(ΠΠ∗ )i,j (s, X s ) ds = δ i,j t
puisque ΠΠ∗ = I m. Par cons´equent, Z et B sont des (F t )t≥0 -mouvements browniens mdimensionnels. En particulier, B est le mouvement brownien cherch´ e sur Ω pour r´esoudre l’EDS E (a, σ) sur (Ω, F , (F t )t≥0 , P) comme en (5.18). Pour le voir, on consid`ere les processus
i
Y ti
= X t − x − = M t −
t
j=1
ai (s, X ) ds − s
0
m
i
0
m
t
i
t
0
j=1
σi,j (s, X s ) dB js
σi,j (s, X s ) dB js .
Ce sont des martingales locales continues nulles en 0 et il s’agit de voir qu’elles sont indis tinguables de 0 pour ´etablir que X = (X 1 , . . . , X d ) est solution de l’EDS E (a, σ) comme en (5.18). Pour le voir, on calcule Y i , Y i t pour montrer que le crochet est identiquement nul. On a
Y i , Y i t = M i , M i t
m
+
k,l=1
m
t
σi,k (s, X )σi,l (s, X )dB k , B l s − 2 s
0
s
t
0
k=1
D’abord, on a i
i
M , M t =
σi,k (s, X s )dM i , B k s . (5.35)
t
0
ci,i (s, X s ) ds.
(5.36)
Ensuite, pour le premier terme de ( 5.35), on a :
m
k,l=1
t
0
m
σi, (s, X s )σi,l (s, X s )dB k , B l s =
t
0
k=1
2 (s, X s ) ds σi,k
t m
=
0 k=1 t
=
0
2 (s, X s ) ds σi,k
ci,i (s, X s ) ds.
Pour le deuxi`eme terme de (5.35) : d’abord, comme M i , B k ≡ 0, on a
m
i
j
M , B t =
k=1
t
0
Π j,k (s, X s )dM i , Z k s
(5.37)
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 5.
94
m
=
t
k=1 m
=
k=1 m
=
k=1 t
=
0
0
t
0
Π j,k (s, X s ) dM i , V k s + 1{ζ (s,X s )
Π j,k (s, X s )dM i , V k s
t
0
(Π j,k (cσ ∗ )i,k )(s, X s ) ds
(cσ ∗ Π∗)i,j (s, X s ) ds
(5.38)
d’apr`es (5.33). Et donc le deuxi`eme terme de (5.35) s’´ecrit avec (5.38) :
m
k=1
0
m
t
i
k
σi,k (s, X s )dM , B s =
t
0
k=1 t
=
σi,k (s, X s )(cσ ∗ Π∗)i,k (s, X s ) ds
(cσ ∗Π∗ σ∗ )i,i (s, X s ) ds
0
t
=
0
ci,i (s, X s ) ds
(5.39)
car par sym´etrie de c et avec (5.31) obtenu dans l’´etape 2
cσ ∗ Π∗σ ∗ = c ∗ σ ∗ Π∗ σ∗ = (σΠσ c)∗ = c ∗ = c. Finalement, (5.35) s’´ecrit
t
i
i
Y , Y t =
0
t
ci,i (s, X ) ds + s
0
t
ci,i (s, X ) ds − 2 s
0
(σΠσ c)i,i (s, X s ) ds = 0.
Comme en plus Y 0i = 0 P-ps, on en d´eduit que Y i est P-indistinguable de 0. Cela signifie que X consid´er´e comme processus sur (Ω, F , (F t )t≥0 , P) est solution de l’EDS E (a, σ) relativement au mouvement brownien B construit en (5.34). Comme par construction P est la loi de X , cela signifie que P est solution faible (ou mesure-solution) de l’EDS E (a, σ) et on a le r´esultat cherch´e.
Corollaire 5.3 On suppose l’hypoth`ese ( loc) satisfaite pour l’EDS E (a, σ). Si m = d et si la fonction σ est inversible d’inverse σ −1 localement born´e, une probabilit´e P sur (Ω , F ) est solution faible de E (a, σ) ssi il existe un (F t )t≥0 -mouvement brownien d-dimensionnel B sur (Ω , F ) tel que X soit solution faible de E (a, σ) relativement `a B . Remarque 5.3 L’int´erˆet du corollaire est donc d’assurer que sous de bonnes conditions, on peut construire la solution faible directement sur l’espace canonique Ω = C (R+ , Rd ).
5.4. Probl`eme de martingales
95
D´ emonstration : La condition est clairement suffisante. Pour voir qu’elle est n´ecessaire, on suppose que d = m, que P est une solution faible et que la fonction σ −1 existe (elle est alors bor´elienne) et est localement born´ee. D’apr`es le Th´eor`eme 5.7, les processus M i et N i,j sont des P -martingales locales ps nulles en 0. On reprend alors l’´etape 3 dans la preuve pr´ec´edente avec ζ (x, t) = m (presque sˆurement par hypoth`ese sur σ) et Λ = Λ−1 . Dans ce cas (ζ (x, t) = m), par les d´efinitions en (5.34), on a Z i = V i et donc B ne d´epend pas de B . C’est donc un mouvement brownien sur (Ω , F , (F t )t , P ) (et pas seulement sur Ω comme dans l’´ etape 3). En d’autres termes, on n’a pas besoin d’introduire l’espace auxiliaire Ω et les processus Y i sont d´efinis sur Ω ´egalement. On a le r´esultat avec B = B.
96
c JCB – M2 Math. – Universit´e de Rennes 1 Chapitre 5.
Bibliographie [App] David Applebaum. L´ evy Processes and Stochastic Calculus . Cambridge series in advanced mathematics, vol. 93, 2004. [BC] Bernard Bercu, Djalil Chafa¨ı. Mod´elisation stochastique et simulation . Dunod, 2007. [JCB-L3] Jean-Christophe Breton. Fondement des Probabilit´es . Notes de cours, L3 Math´ematiques, Universit´e de Rennes 1, 2013. [Bil2] Patrick Billingsley. Convergence of Probability measures . 2nd Edition, Wiley series in probabilities and mathematical statistics, 1999. [CM] Francis Comets, Thierry Meyre. Calcul stochastique et mod` eles de diffusions . Dunod, 2006. [Chung] Kai Lai Chung. A course in probability theory . 3rd Edition, Academic Press, 2001. [Dav] Youri Davydov. Cours de DEA ”Processus stochastiques”. Universit´e Lille 1, 1999– 2000. [DM] Claude Dellacherie, Pierre-Andr´e Meyer. Probabilit´es et potentiels . Hermann, 1975. [EGK] Nicole El Karoui, Emmanuel Gobet, Etienne Pardoux. Introduction au calcul sto´ chastique . Ecole Polytechnique, 2001. [Fel] William Feller. An introduction to probability theory and its applications . Vol. 1. 3rd Edition, Wiley series in probabilities and mathematical statistics, 1968. [Gal] L´eonard Gallardo. Mouvement brownien et calcul d’Itˆ o. Coll. M´ethodes math´ematiques. Ed. Hermann. 2008. [Gu´e] H´el`ene Gu´erin. Processus `a temps continu . Notes de cours, M2 Math´ematiques, Universit´e de Rennes 1, 2009. [Kal] Olav Kallenberg. Foundations of modern probability . 2nd Edition, Springer Series in Statistics. Probability and its Applications, 2002. [KS] Ioannis Karatzas, Steven E. Shreve. Brownian motion and stochastic calculus . Springer, 1987. [Kin] John Kingman. Poisson processes . Oxford University Press, 1993. [KT] Rama Kont, Peter Tankov. Financial modelling with Jump Processes . Chapman & Hall, 2003. [LG0] Jean-Fran¸cois Le Gall. Introduction au mouvement brownien . Gazette des Math´ematiciens, vol. 40, 1989. 97