A b d e l k a d e r B E NHA R RII
PROCESSUS PROCESSUS STOCHA STOCHA STI QUES QUES
Rappels de théorie de probabilités, processus stochastiques stochastiques en temps continu, martingales
Mouvement Brownien, calcul d'Itô
Table de matières Quelques rappels de théorie de probabilités
1. 2. 3. 4. 5.
Lemme de Borel-Cantelli Quelques in´ egalit´ es Convergence d’une suite de variables al´ eatoires Esp´ erances conditionnelles Lois infiniment divisibles et th´ eor` eme de L´ evy-Khinchin
2 2 2 4 4
Processus stochastiques en temps continu
1. Quel Quelqu ques es ´ el´ e l´ emen e ments ts de th´ th´ eori e oriee de la mesu mesure re dans dans les les espa espace cess de fonc foncti tion onss 2. Processus stochastiques 3. Le th´eor` eme d’extension de Daniell-Kolmogorov 4. Quelques applications du th´ eor` eme de Daniell-Kolmogorov 4.1. Processus de Markov 4.2. Processus gaussiens 5. Le crit` ere de continuit´ e de Kolmogorov 6. Convergence en loi de processus continus 7. Un invit´ e de marque: A. Kolmogorov
7 8 10 13 13 16 17 19 21
Martingales
1. Filtrations et temps d’arrˆ ets 2. Martingales 3. In´ egalit´ es martingales 4. Quelques applications des th´ eor` emes de Do ob 4.1. R´ egularisation des processus de Feller-Dynkin 4.2. Martingales et densit´ es 5. Un invit´ e de marque: J. Doob
25 26 34 36 36 36 37
Mouvement Brownien
1. 2. 3. 4. 5. 6. 7. 8.
Pr´ elimina elim inaires ires:: La marche march e al´ eatoire eatoi re sym´ etrique etri que Processus de L´ evy evy D´ efiniti efin ition, on, existen exis tence ce et premi` prem i` eres eres propri´ pro pri´et´ et´ es es du mouvement Le principe principe d’inv d’invaria ariance nce de Donske Donskerr Loi du d u logarith logar ithme me it´ i t´ er´ er´ e Propri´ et´ e de Markov forte Diffu Diffusi sion onss Un invit´e de d e marque: marqu e: Paul L´ evy evy
42 49 brownien
53
60 64 66 69 74
Calcul d'Itô
1. Int´ Int´ egrale egrale d’Itˆ d’Itˆ o 1.1. Variation des tra jectoires browniennes 1.2. Int´ egration contre le mouvement brownien 1.3. Martingales de carr´ e int´ egrable et variations quadratiques 1.4. 1.4. Prob Probll` eme:Int me:Int´ egra e grati tion on con contre les les mar marting tingal ale es de carr arr´ e int int´ egra e grabl ble e 1.5. Martingales lo cales, Semi-martingales et int´ egrateurs 2. Formule ormule d’Itˆ d’Ito ˆ 3. Le th´ t h´ eor` eor`eme eme de repr´ r epr´esentati esent ation on d’Itˆ d’I tˆ o 4. Probl` eme: Th´ eor` eme de Girsanov 5. Equations diff´ erentielles sto chastiques et diffusions 6. Un invit´ invit´ e de marque: K. Itˆ o
76 76 78 82 86 87 91 94 96 98 98
1
´ ´ CHAPIT CHAPITRE RE 1: QUELQU QUELQUES ES RAPPEL RAPPELS S DE THEORIE DES PRO PROBABIL BABILIT ITES
Sans ˆetre etre exhaustif, exhaust if, nous rappelons rapp elons ici quelques ´el´ el´ements ements de la th´eorie eorie des probabilit´ proba bilit´es es qui reviendront tout au long de ce cours. Des notions telles que: – La notion no tion d’espace de probabilit´e (Ω ,F ,P); – La notion de variable al´eatoire; eatoire; – La notion no tion de loi d’une variable al´eatoire; eatoire; – La notion de fonction caract´eristique; eristique; – Le th´ t h´eor` eor`eme eme central limite et la l a loi l oi des grands grand s nombres; no mbres; – La notion no tion d’ind´ependance epen dance de tribus tr ibus ou de variables al´eatoires; eatoir es; – La notion de loi gaussienne et de vecteurs gaussiens; sont suppos´ supp os´ees ees acquises. Dans le cas contraire, nous renvoyons renvoyons `a tout tou t ouvrag ouv ragee ´el´ el´ementai eme ntaire re dont notamment: ”Probability ” Probability ” par A.N. Shiryaev, Springer, Graduate Texts in Mathematics, 95.
2
1. Lemme de Borel-Cantelli
A
Soit (Ω,F ,P) un espace de probabilit´e. e. Soit ( An )n∈N , une un e suit su itee d’´ev´ ev´enem en ement entss de F . On note limsup An =
= {ω ∈ Ω,∀m,∃n(ω) ≥ m,ω ∈ An(ω) }.
n
m n≥m
Proposition Proposition 1. (Lemme de Borel-Cantelli) Soit (An )n∈N une un e suit su itee d’´ev´ ev´eneme ene ment ntss de F telle que P(An )
< +∞.
n
Alors P(lim (lim sup An)
= 0.
´ ´ 2. Quelques inegalit egalites es
Soit (Ω,F ,P) un espace de probabilit´ proba bilit´e. e. Proposition Proposition 2. (In´egalit´ ega lit´e de Markov Mar kov)) Soient Soi ent X une variable al´ eatoire eatoire mesurable et g : (0, + ∞) une fonction bor´ bor´elienne, elienne, alors pour tout x ∈ R, P(X ≥
x) ≤
Proposition 3. (In´ (I n´egal eg alit´ it´e de Jense Jen sen) n) Soient Soi ent φ :
E(g (X )) ))
g(x) R
R
→
.
variable → R une fonction convexe et X une variable
al´eatoire eatoi re mesurables. me surables. Supposons que, E(|
X |) < +∞,
E(|
φ(X ) |) < +∞.
Alors, E(φ(X )) ))
)). ≥ φ(E(X ))
ega lit´e de Tcheby Tch ebyche chev) v) Soit Soi t X une variable al´eatoire eatoire mesurable dans L2 , Proposition Proposition 4. (In´egalit´ alors pour tout c > 0, Var(X ) P(| X − E(X ) |≥ c) ≤ . c2 Proposition 5. (In´ (I n´egal eg alit it´ ´es es de H¨ older et Minkowski) Soient p > 1 et q tels que p1 + 1q = 1. On a pour toutes variables al´eatoires eatoires mesurables X et Y , 1
1
| E(X Y ) | E(| X | p ) p E(| Y |q ) q , et E(|
1
1
1
X + Y | p ) p ≤ E(| X | p ) p + E(| Y | p ) p .
´ 3. Convergence d’une suite de variables aleatoires eatoires
Soit (X n)n∈N une suite de variables al´eatoires eatoi res r´eelles eelles mesurables. mesura bles. Definition 6. On dit que X n →n→+∞ X presque sˆ urement urement si P(X n
→n→+∞ X ) = 1.
On dit que X n →n→+∞ X en probabilit´e si pour tout ε > 0, P(|
X n − X |> ε) →n→+∞ 0.
On dit X n →n→+∞ X dans L p , p ≥ 1, si E(|
X
1
X | p ) p →
0
3
Entre ces diff´erents erents modes mo des de convergence, on a les relations suivantes: suivantes: – La convergence presque sˆure ure implique i mplique la convergence co nvergence en probabi pr obabilit´ lit´e; e; – La convergence dans L p implique impliqu e la convergence en probab p robabilit´ ilit´e. e. D’autre D’autre part, Proposition 7. (Th´ (T h´eor` eo r`eme em e de d e conv co nverg ergen ence ce dom d omin in´ ´ee) ee ) Soi Soit t (X n )n∈N une suite de variables variab les al´eatoires eatoi res r´ eelles eel les mesurables telle tel le que X n →n→+∞ X en probabilit´ probabilit´e. e. Si il existe une constante K > 0 telle
que sup | X n |≤ K, n
alors X n →n→+∞ X presque sˆ urement. urement. Definition Definition 8. Soit (X i )i∈I une famille de variables variables al´ eatoires. eatoires. On dit que (X i )i∈I est uniuni form´ fo rm´ement emen t int´egrable egrab le si pour tout tou t ε > 0, on peut trouver un K ≥ 0 tel que
∀i ∈ I ,
E(|
X i | 1|Xi |>K ) < ε.
On a alors alo rs quelque que lquess propri´ pro pri´et´ et´es: es: – Une famille finie de L1 est toujou tou jours rs unifor uni form´ m´ement ement int´egrabl egr able; e; – Une famille fam ille uniform´ unif orm´ement eme nt int´ i nt´egrabl egr ablee est born´ bo rn´ee ee dans dan s L1 ; – Une famille f amille born´ bor n´ee ee dans da ns L p , p > 1, est unifor uni form´ m´ement ement int´egrabl egr able. e. Proposition 9. Soit (X n )n∈N une suite de variables al´ eatoires eatoires appartenant ap partenant `a a L1 . Soit X ∈ L1 . Alors X n →n→+∞ X dans L1 , si et seulement si: (1) X n →n→+∞ X en probabi proba bili lit´ t´e; e; (2) La suite (X n )n∈N est es t unif un ifor orm´ m´ement em ent int´ in t´egrabl eg rable. e.
La notion de converg convergence ence en loi est la plus faible mais aussi la plus int´ eressante eressante d’un point de vue probabiliste. Soit (X n )n∈N une suite de variables al´eatoires eatoires mesurables `a valeurs dans un espace polonais 1 . variab le al´ a l´eatoire eatoi re X si pour toute Definition 10. On dit que (X n )n∈N converge en loi vers une variable fonction f : E → R, continue, born´ ee, ee, on a: E(f (X n ))
→n→+∞ E(f (X n )).
Cela revient `a dire que la suite des lois de X n converge ´etroitement etroiteme nt vers la loi de X . On remarquera remarquera que pour la converg convergence ence en loi, les variables ariables al´ eatoires eatoires X n n’ont n’ont donc pas n´ecessai eces sairem rement ent besoi be soin n d’ˆetre etr e d´efinies efini es sur le mˆeme eme espace espa ce de probab pro babili ilit´ t´e. e. Th´ eor` eme 11. (Th´ (T h´eor` eo r`eme em e de Prokho Prok horov) rov) Soit So it P une famil fam ille le de probabilit´ probabi lit´es es d´efinies efini es sur (E, E).
Alors P est un ensemble ensemble relativem relativement ent comp compact act pour pour la topolo topologie gie de la convergenc onvergencee ´etroite, etroite, si et seulement si la famille P est tendue, i.e. pour tout ε ∈ (0,1), 1), on peut trouver un ensemble compact K ε ⊂ E tel que pour tout P ∈ P , P(K ε )
≥ 1 − ε.
La raison d’ˆetre etre de ce th´eor` eor`eme eme est qu’elle permet la strat´egie egie suivante suivante pour d´emontrer emontrer la convergence en loi d’une suite ( X n )n∈N : (1) On d´emontre emontre que la famille ( X n)n∈N est tendue; tendue; (2) On d´emontre emontre que la suite ( X n )n∈N ne peut avoir qu’une unique valeur d’adh´erence. erence. Si ( X n )n∈N est une suite de variables variabl es al´eatoires eatoir es r´eelles, eelles, alors tous les l es autres aut res modes mo des de convergence cit´ es es plus haut, impliquent la convergence en loi. 1. Un
topologique est dit polonais si c’est
m´ etrique etrique complet s´ eparable. eparable.
4
4. Esp´ erances conditionnelles erances Soit (Ω,F ,P) un espace de probabilit probabilit´´e. e. Soient Soient maintenan maintenantt G une sous-t sous-trib ribu u de F et X une variab vari able le al´eato ea toir iree r´eelle eel le F mesurable telle que E(|
X |) < +∞.
Alors il existe e xiste une variable varia ble al´eatoire eatoir e Y , G mesurable mesurable telle que: (1) E(| Y |) < +∞; (2) Pour tout A ∈ G , E(1A X ) = E(1A Y ). De plus, si Z est une autre variable al´eatoire eatoir e G me mesu sura rabl blee qui qu i v´erifi er ifiee les le s 2 prop pr opri ri´´et´ et´es es pr´ pr´ec´ ec´edent ed entes es,, alors P(Y = Z ) = 1. La variable Y s’appelle une version de l’esp´ erance erance conditionnelle de X sachant G et on note Y = E(X | G ).
Si on consid` con sid`ere ere des variables varia bles al´eatoir eat oires es X 1 et X 2 d´efini efi nies es sur (Ω ,F ,P) telles que E(|
X 1 |) < +∞,
E(|
X 2 |) < +∞,
ainsi que deux sous-tribus H et G de F v´erifi er ifian ant: t:
∅= H ⊂ G, alors alo rs on a les propri´ pro pri´et´ et´es es suivantes: suivant es: – Si X 1 est G mesurable, E(X 1 | G ) = X 1 ; – Si Y est une variable al´eatoire eatoir e G mesurable mesurab le positive p ositive et born´ b orn´ee ee alors al ors E(Y
X 1 ) =
E (Y E (X 1
| G )) ;
– Si Y 1 et Y 2 sont deux variables al´eatoires eatoir es positives posi tives born´ bor n´ees ees et G mesurables, alors E (Y 1 X 1
+ Y 2 X 2 | G ) = Y 1 E (X 1 | G ) + Y 2 E (X 2 | G ) ;
– E (E (X 1 | G ) | H) = E (X 1 | H); – Si X n est une suite de variables int´egrables egrables qui converge dans L1 vers X 1 , alors lim
n→+∞
E (X n
| G ) = E (X 1 | G ) .
– Si X 1 ≥ X 2 , E (X 1 | G ) ≥ E (X 2 | G ); – Si ψ : R → R est une fonction convexe telle que ψ (X 1 ) est es t int´egra eg rabl blee alor al orss on a l’in´ l’ in´egal eg alit´ it´e de Jensen: Jensen: E(ψ (X 1 ) | G ) ≥ ψ (E (X 1 | G )) . ´oreme ` ´ 5. Lois infiniment divisibles et theor e e me de Levy-Khinchin evy-Khinchin
Soient (Ω,F ,P) un u n espace de probabilit´ proba bilit´e et X une variable varia ble al´eatoir eat oiree r´eelle. eell e. eatoire eatoire infiniment divisible si pour tout n ≥ 1, Definition 12. On dit que X est une variable al´ on peut trouver des variables varia bles al´eatoires eatoi res ind´ependantes ependantes X 1 ,...,X n telles que X +
+ X =loi X.
5
On a alors le th´eor` eor`eme eme important impo rtant suivant qui caract´ carac t´erise erise enti`erement erement les variables al´eatoires eatoir es infiniment divisibles: evy-Kh evy -Khinch inchin) in) Soit Soi t X une variable al´ eatoire eatoire infiniment i nfiniment divisible. On peut Th´ eor` eme 13. (L´ trouver λ ∈ R, σ > 0 et une mesure ν sur R\{0} tels que
(1 ∧ x2 )ν (dx) < +∞,
R
iλθ− 12 σ2 θ 2 +
iθx
(e −1−iθx1|x|≤ )ν (dx) ∀θ ∈ R, E(e ) = e . R´eciproquem eci proquement ent,, soient soi ent λ ∈ R, σ > 0 et une mesure ν sur R\{0} telle que iθX
R
(1 ∧ x2 )ν (dx) < +∞.
R
La fonction:
iλθ− 12 σ 2 θ 2 +
θ→e
R
(eiθx −1−iθx1|x|≤1 )ν (dx)
est alors la fonction caract´ caract´eristique eristique d’une loi infiniment divisible. di visible.
1
6
CHAPITRE CHAPITRE 2: PROCESS PROCESSUS US STOCHAST STOCHASTIQUE IQUES S EN TEMPS TEMPS CONTINU CONTINU
Dans ce chapitre nous jetons les bases de la th´eorie eorie des processus stochastiques sto chastiques en temps continu. Nous d´efinissons efinisso ns un u n process pr ocessus us stochast st ochastique ique comme une variable varia ble al´eatoire eatoir e `a valeurs dans un espace de fonctions r´eels. eels. Les outils importants introduits sont: – La th´eorie eorie de la mesure dans les espaces de fonctions; f onctions; – Le th´eor` eor`eme eme de Daniell-Kol Danie ll-Kolmogor mogorov ov ; – La notion de processus de Markov et de processus gaussien; – Le crit`ere ere de continuit´ continuit´e de Kolmogorov qui donne une condition simple pour l’existence d’une version continue d’un processus; – La notion de convergence en loi d’une suite de processus continus.
7
´ ´ 1. Quelques el elements ements de th´ eorie de la mesure dans les espaces de fonctions eorie
Avant d’attaquer d’atta quer la l a th´eorie eorie des proces pr ocessus sus stochast st ochastiques iques qui peuvent p euvent ˆetre etre vus comme co mme des de s variables variable s al´eato ea toir ires es a` valeurs dans un espace de fonctions, il est important de bien comprendre quelles sont les tribus canoniques sur ces espaces fonctionnels. R. Notons (R+ ,R) l’ensemble de toutes les applications R+ On consid`ere ere la famille d’ensemble dits cylindriques:
A
→
{f ∈ A(R+,R),f ( ,f (t1 ) ∈ I 1 ,...,f ( ,...,f (tn ) ∈ I n }
o` u
∈
t1 ,...,tn R+ et o` u I 1 ,...,I n sont des intervalles de la forme (a ( ai ,bi ]. On note alors (R+ ,R) la σ -alg` -a lg`ebre eb re de (R+ ,R) engendr´ee ee par cette famille. Cette σ -alg -a lg``ebre eb re admet adm et d’autr d’a utres es famill fam illes es g´en´ en´eratri era trices. ces.
T
A
-a lg` `ebre eb re,, Proposition 1. En tant que σ -alg vantes: (1) o` u u
T (R+,R) est ´egalement egalem ent engendr´ee ee par les famil les sui-
{f ∈ A(R+,R),f ( ,f (t1 ) ∈ B1 ,...,f ( ,...,f (tn ) ∈ Bn } ∈
t1 ,...,tn R+ et o` u u B1 ,...,Bn sont des ensembles ensembl es bor´ eliens eliens de
R.
(2)
o` u u
{f ∈ A(R+,R),(f ( f (t1 ),...,f ( ,...,f (tn )) ∈ B }
t1 ,...,tn et o` u u B est un ensemble ensembl e bor´ elien elien de Rn .
∈ R+
Preuve.
Exercice
Exercice 2. Montrer que les ensembles suivants ne sont pas dans
(1)
{f ∈ A([0, ([0,1], 1],R), sup
f ( f (t) < 1
t∈[0, [0,1]
T ([0, ([0,1], 1],R):
}
(2)
{f ∈ A([0, ([0,1], 1],R),∃t ∈ [0, [0,1]f 1]f ((t) = 0} L’exercice L’exerci ce pr´ec´ ec´edent edent montre bien que la tribu T (R+ ,R) n’est pas assez riche pour rendre mesurable des ´ev´ ev´enements enements dont, p ourtant, ourta nt, on aimerait aimera it pouvoir p ouvoir calculer calcule r la probabilit´ proba bilit´e (sic (si c !). Cela est dˆu au fait que l’espace dont on est parti, A(R+ ,R) est bien trop gros. Dans ce cours nous nous int´ eresserons eresserons beaucoup `a des processus qui ont des trajectoires continues. Dans ce cas on part de l’espace des fonctions continues C (R+ ,R) et on consid`ere ere la tribu B(R+,R) engendr´ e ngendr´ee ee par les cylindres: cylindr es: {f ∈ C (R+,R),f ( ,f (t1 ) ∈ I 1,...,f ( ,...,f (tn ) ∈ I n } o` u
∈
t1 ,...,tn R+ et o` I ,...,I sont des intervalles de la forme ( ,b ].
8
Il est int´eressant eressant de noter que Proposition 3.
B(R+,R) est bor´ bo r´elienne eli enne::
B(R+,R) est engendr´ee ee par les ouverts de la topologie topologie de la convergence convergence uni-
forme sur tout compact. Preuve.
C
On rappelle tout d’abord que sur (R+ ,R) la topologie de la convergence uniforme sur tout compact est m´etrisable, etrisable, par exemple grˆace ace `a la distance +∞
d(f,g) f,g ) =
n=1
1 min( sup f ( f (t) 2n 0≤t≤n
|
− g(t) | ,1). 1).
Cette distance fait de (R+ ,R) un espace espa ce m´etriqu etr iquee comp c omplet let s´eparab epa rable. le. Notons la tribu engendr´ee ee par p ar les ouverts. Il est clair que les cylindres de la forme
C
O
,f (t1 ) < a 1,...,f ( ,...,f (tn ) < an } {f ∈ C (R+,R),f ( sont sont des ouverts ouverts qui engendren engendrentt B(R+ ,R). Par cons´ con s´equent eque nt B(R+,R) ⊂ O.
Pour d´emontrer emontrer l’inclusion l’incl usion inverse, il i l suffit su ffit de d´emontrer emontrer que pour pou r tout to ut n et tout g (R+ ,R),
∈C
∈ N, n ≥ 1 tout ρ > 0
{f ∈ C (R+,R), 0sup | f ( f (t) − g(t) |< ρ } ∈ B (R+ ,R), t n ≤ ≤
ce qui qu i d´ecou ec oule le de l’´egal eg alit it´´e
{f ∈ C (R+,R), 0sup | f ( f (t) − g (t) |< ρ } = ∩t t n
∈Q,0≤t≤n
≤ ≤
{f ∈ C (R+,R), | f ( f (t) − g(t) |< ρ }.
Exercice 4. Montrer que les ensembles suivants sont dans
(1)
{f ∈ C ([0, ([0,1], 1],R), sup
B([0, ([0,1], 1],R): }
f ( f (t) < 1
t∈[0, [0,1]
(2)
{f ∈ C ([0, ([0,1], 1],R),∃t ∈ [0, [0,1]f 1]f ((t) = 0} 2. Processus stochastiques
F
Soit (Ω, (Ω, ,P) un espace de probabilit´ proba bilit´e. e.
processus stochastique sur (Ω, var iables les al´eatoires eat oires (Ω, ,P) est une suite (X t )t∈R+ de variab Definition 5. Un processus re´el les
F
F -mesurables. -mesurables.
Un processus (X ( X t )t∈R+ peut ˆetre etre vu comme une application X (ω )
∈ A(R+,R),t → X t(ω).
L’ense L’ensemb mble le de ces applic applicati ations ons est l’ense l’ensemb mble le des trajectoi trajectoires res de ( X t )t∈R+ . Il est facile de voir voir (exerc (exercice ice !) qu’un qu’un processu processuss ( X t )t∈R+ est mesurable en tant qu’application X : (Ω, (Ω, ) ( (R+ ,R), (R+ ,R)). La loi image µ de P par cette application, applic ation, d´efinie efinie par
A
T
F →
µ(A) = P(X −1 (A)),A )),A
s’appelle la loi du processus (X ( X )
∈ T (R+,R))
9
≥
∈A
Si, pour t 0, on note πt l’application qui `a f (R+ ,R) associe f ( f (t). Le processus stochastique (πt )t∈R+ d´efini efini sur l’espa l’e space ce de probab pro babili ilit´ t´e ( (R+ ,R), (R+ ,R),µ) ,µ) s’appelle le processus canonique asso as soci´ ci´e `a X . C’est un processus de loi µ. ` A ce degr´ deg r´e de g´enerali ener alit´ t´e, e, il n’y a priori aucune r´egularit´ egularit´e des trajectoires tra jectoires du processus. Le minimum `a exiger est la mesurabilit´e jointe j ointe en temps et en ω:
A
T
Definition 6. Un processus (X t )t∈R+ est dit mesurable si l’application
(t,ω) t,ω)
→ X t(ω)
est mesurable par rapport `a a (R+ )
B ⊗ F , c’est-`a-dire a-dire si ∀A ∈ B(R),{(t,ω) t,ω),X t (ω) ∈ A} ∈ B(R+ ) ⊗ F .
Un processus pro cessus mesurable a ´evidemment evidemment des tra jectoires qui sont des fonctions mesurables.
` valeurs dans Definition 7. Si X est a
C (R+,R), c’est-`a-dire a-dire si les trajectoires de X sont conti-
nues, on dit que (X t )t∈R+ est un processus continu.
F → C
B
Dans ce cas, l’application X : (Ω, (Ω, ) ( (R+ ,R), (R+ ,R)) est mesurable et la loi de X vit sur l’espace l’espace ( (R+ ,R), (R+ ,R)). De plus,
C
B
Proposition 8. Un processus continu est mesurable.
(X t )t∈R+ un processus continu. Montrons tout d’abord que si A est un bor´ bo r´elien elie n Preuve. Soit (X de
R,
{(t,ω) t,ω) ∈ [0, [0,1] × Ω,X t (ω) ∈ A} ∈ B (R+ ) ⊗ F . Pour n
∈ N, soit
X tn = X [2nt] ,t 2n
∈ [0, [0,1], 1],
o` u [.] d´esigne esigne la partie parti e enti` e nti`ere. ere. Comme les trajectoi tra jectoires res de X n sont constantes par morceaux, il est clair que
{(t,ω) t,ω) ∈ [0, [0,1] × Ω,X tn (ω ) ∈ A} ∈ B (R+ ) ⊗ F . D’autre D’autre part, ∀t ∈ [0, [0,1],ω 1],ω ∈ Ω lim X tn (ω ) = X t (ω ).
n→+∞
Donc
{(t,ω) t,ω) ∈ [0, [0,1] × Ω,X t (ω) ∈ A} ∈ B (R+ ) ⊗ F . De mˆeme eme on montre que ∀k ∈ N, {(t,ω) t,ω ) ∈ [k,k + 1] × Ω,X t (ω) ∈ A} ∈ B (R+ ) ⊗ F . Comme
{(t,ω) t,ω) ∈ R × Ω,X t (ω ) ∈ A} = ∪k {(t,ω) t,ω) ∈ R × Ω,X t (ω ) ∈ A}, ∈N
on en d´eduit edu it le r´esul es ulta tatt souh so uhai ait´ t´e. e.
10
´ 3. Le theor eor` eme d’extension de Daniell-Kolmogorov eme
Dans le paragraphe parag raphe pr´ec´ ec´edent, edent, nous avons vu qu’un processus pro cessus stochastique stocha stique d´efinissait efinissa it une mesure de probab p robabilit´ ilit´e sur s ur l’espace l’espa ce ( (R+ ,R), (R+ ,R)). Nous allons tout d’abord voir que cette mesure est enti`erement erement d´etermin´ etermi n´ee ee par ce que l’on appelle app elle les lois fini-dimensionn fini-dim ensionnelles elles du processus. pro cessus.
A
Definition 9. Soit t1 ,...,tn
T
∈ Rn+. On note µt ,...,t 1
n
la loi de la variable al´eatoire eatoire
(X t1 ,...,X tn ).
C’est donc une mesure de probabilit´ probabilit´e port´ port´ee ee par Rn . Cette prob probabilit abilit´ ´e s’appelle s’appelle une loi finidimensionnelle du processus X . p rocess essus us stochast stoch astiqu iques es ´eventu eve ntuel elleme lement nt d´efinis efini s Proposition 10. Soient (X t )t∈R+ et (X t )t∈R+ 2 proc
sur des espaces de probabilit´e diff´erents. erents. Si ces 2 processus processus ont les mˆemes emes lois fini-dimensionne fini-dim ensionnell les, alors ils ont les mˆ emes emes lois. Preuve.
Dire que (X (X t )t∈R+ et (X t )t∈R+ ont les mˆemes emes lois fini-dimensionnelles revient `a dire que les lois de X et X coinciden coincidentt sur les cylindres cylindres
{f ∈ A(R+,R),f ( ,f (t1 ) ∈ I 1 ,...,f ( ,...,f (tn ) ∈ I n }. Comme ces cylindres engendrent la σ -alg -a lg``ebr eb re T (R+ ,R), nous en d´eduisons eduiso ns que X et X ont la
mˆeme em e loi. lo i.
L’ensemble des lois fini-dimensionnelles d’un processus v´erifient erifient les 2 conditions dite de compatibi ti bili lit´ t´e: e: Soi S oient ent t1 ,...,tn R+ et τ une permutation de l’ensemble 1,...,n , on a
∈
{
}
(1) µt1 ,...,tn (A1
× ... × An) = µt
τ (1) ,...,tτ (n)
(Aτ (1) τ (1)
× ... × Aτ (τ (n)),
Ai
∈ B(R).
(2) µt1 ,...,tn (A1
× ... × An 1 × R) = µt ,...,t −
1
n−1
(A1
× ... × An
−1 ),
Ai
∈ B(R).
Le th´eor` eor`eme eme de Daniel Dan iell-K l-Kolm olmogo ogorov rov affirme affir me que r´ecipro ecip roquem quement, ent, ´etant eta nt donn´ don n´ee ee une famille fam ille com com-patible patibl e de probabilit´ proba bilit´es es d´efinis efinis sur les cylindres cylindr es de (R+ ,R), il est toujours possible de construire un processus dont les lois fini-dimensionnelles sont donn´ees ees par ces probabilit´es. es.
T
Th´ eor` eme 11. (Daniell 1918, Kolmogorov 1933)
Supposons Sup posons donn´ don n´ee ee pour pou r chaqu ch aquee t1 ,...,tn R+ une un e probabi proba bili lit´ t´e µt1 ,...,tn sur Rn. Supposons que cette famil le de probabilit´es es v´erifie erifie les 2 conditions: conditio ns: (1) µt1 ,...,tn (A1 ... An ) = µtτ (1),...,tτ (n) (Aτ (1) ... Aτ ( (R). τ (1) τ (n) ), Ai
∈
× ×
× ×
∈B
(2) µt1 ,...,tn (A1
× ... × An 1 × R) = µt ,...,t (A1 × ... × An 1), Ai ∈ B(R). Alors il existe une unique probabilit´ probabilit´e µ sur (A(R+ ,R),T (R+ ,R)) telle que pour t1 ,...,tn ∈ R+ , A1,...,An ∈ B (R): µ(πt ∈ A1 ,...,πt ∈ A ) = µt ,...,t (A1 × × A ) −
1
n−1
−
11
Pour d´emontre emo ntrerr ce th´eor` eor`eme, eme, nous nou s nous nou s appuyon app uyonss sur le th´eor` eor`eme eme classiq cla ssique ue de Carath´ Car ath´eodor eo dory y d’extension de la mesure que nous rappelons ici:
(Ca rath´edory) edo ry) Soit Soi t Ω un ensemble non vide et Th´ eor` eme 12. (Carath´
A une famille de sous-ensembles
de Ω telle que: ; (1) Ω ,A B ; (2) Si A,B (3) Si A ,Ω A . (Ω, ), alors il Notons σ ( ) la σ -alg -a lg` `ebre eb re enge en gend ndr´ r´ee ee par . Si µ0 est une mesure σ-additive sur (Ω, (Ω,σ(( )) telle que pour A existe une unique mesure µ sur (Ω,σ ,
∈A A
∈A ∪ ∈A ∈A \ ∈A
A
A
A
∈A
µ0 (A) = µ(A).
Nous utiliserons utilis erons ´egalement egalem ent le lemme suivant:
⊂ Rn, n ∈ N, une suite de bor´ bor´eliens eliens tels que Bn+1 ⊂ Bn × R. On suppose donn´ee ee pour chaque chaqu e n ∈ N une un e probabi proba bili lit´ t´e µn sur (Rn ,B (Rn )) telle que, que,
Lemme 13. Soit Bn
µn (Bn ) > ε,
o` u u ε est un r´eel eel strictement strict ement positif strictement stric tement inf´erieur erieu r a` 1. Alors, on peut trouver une suite n de compacts K n R , n N, tels que: – K n Bn – K n+1 K n R. – µn (K n ) 2ε .
⊂
⊂
⊂
≥
∈
×
esulta t classique cla ssique de th´ t h´eorie eorie de la l a mesure me sure que p our chaque Bn on Preuve du lemme. C’est un r´esultat peut trouver un compact K n∗
⊂ Rn tel que
K n∗
et
⊂ Bn
µn (Bn K n∗ )
\
On pose alors K n = (K 1∗ Il est facile de v´erifier erifier que: – K n Bn – K n+1 K n R. D’autre D’autre part,
⊂
⊂
≤ 2nε+1 .
× Rn 1) ∩ ... ∩ (K n 1 × R) ∩ K n. −
∗
∗
−
×
− µn(Bn\K n) = µn (Bn ) − µn Bn \ (K 1 × Rn 1 ) ∩ ... ∩ (K n 1 × R) ∩ K n ≥ µn(Bn) − µn Bn\ (K 1 × Rn 1) − ... − µn Bn\ K n 1 × R − µn(Bn\K n) ≥ µn(Bn) − µn(B1\K 1 ) − ... − µn(Bn\K n) ≥ ε − 4ε − ... − 2nε+1 ≥ 2ε .
µn (K n ) = µn (Bn )
∗
∗
−
∗
−
∗
∗
∗
−
∗
−
∗
12
Preuve Preu ve du th´ eor` eor` eme eme de DaniellDani ell-Kolmo Kolmogorov. gorov. Pour le cylindre
Ct ,...,t (B) = {f ∈ A(R+,R),(f ( f (t1 ),...,f ( ,...,f (tn )) ∈ B } 1
o` u
n
t1 ,...,tn et o` u B est un bor´ bo r´elien elie n de de
n R ,
on pose
∈ R+
Ct ,...,t ((B ((B ))) = µt ,...,t (B ).
µ(
1
1
n
n
Grˆ ace ace aux propri´ propr i´et´ et´es es de compatibilit´ compa tibilit´e, e, il est facile facil e de voir que µ est bien d´efinie efinie et que
A
µ ( (R+ ,R)) = 1. 1.
A
C
Maintenant, l’ensemble de tous les cylindres t1 ,...,tn (B ) v´erifi er ifiee les le s hyp hypoth´ ot h´eses es es du th´ th´eor` eo r`eme em e de Carath´ Carat h´eodory. eodo ry. Pour conclure conclur e la d´emonstration emonstr ation du th´eor` eor`eme eme de Daniell-Kolm Daniel l-Kolmogorov, ogorov, il reste donc `a d´emontrer emo ntrer que µ est σ-additive, c’est-`a-dire a-dire que si (C ( C n )n∈N est une suite de cylindres 2 a` 2 disjoints telle que C = n∈N C n est un cylindre alors
∪
+∞
µ (C ) =
µ(C n ).
n=0
C’est C’es t la partie par tie difficil diffi cilee du th´eor` eor`eme. eme. Comme pour tout N N, on a
∈
N n=0
N n=0 C n
\ ∪ ∪
µ(C ) = µ C
il suffit de montrer que
C n + µ
,
lim µ (DN ) = 0.
N →+∞
o` u DN = C N n=0 C n . La suite (µ (µ(DN ))N ∈N est d´ecroissante ecroissante et positive et donc do nc convergente. Supposons Supp osons par l’absurde qu’elle converge vers ε > 0. Nous allons d´emontrer emontrer que cela implique
\∪
∈N DN
∩N
= ∅,
ce qui est clairement absurde. Comme chaque chaque DN est un cylindr cyli ndre, e, l’´ev´ ev´enement ene ment N ∈N DN ne fait fait interv interveni enirr qu’un qu’un nombre nombre d´enombra eno mbrable ble d’insta d’in stants nts t1 < ... < t n < ... et on peut supposer, quitte `a rajouter des ensembles dans la suite des DN , que chaque ensemble DN peut eu t ˆetr et re ´ecr ec rit
∪
{ ∈ A(R+,R),(f ( f (t1 ),...,f ( ,...,f (tN )) ∈ BN }
DN = f
eliens tels t els que ⊂ Rn, n ∈ N, est une suite de bor´eliens Bn+1 ⊂ Bn × R. Comme, par hypoth`ese, ese, µ(DN ) ≥ ε, on peut utiliser le lemme pr´ec´ ec´ edent edent pour construire une n suite de compacts K n ⊂ R , n ∈ N, tels que: – K n ⊂ Bn – K n+1 ⊂ K n × R. – µt ,...,t (K n ) ≥ 2ε . o` u Bn
1
n
Chaque K n ´etant etant non vide, on peut trouver
(xn1 ,...,xnn )
∈ K n.
j (n)
La suite (x (xn1 )n∈N admet une suite extraite (x ( x11 )n∈N qui converge vers x1 j (n) j1 (n) la suite (( 1 ) va admettre une suite extraite qui converge vers (
em e ∈ K 1. De mˆeme ) ∈ K En
13
raisonnant ainsi, de proche en proche, on construit ainsi une suite ( xn )n∈N telle que pour tout n, (x1,...,xn ) K n .
∈
L’´ev´enement
{f ∈ A(R+,R),(f ( f (t1 ),...,f ( ,...,f (tN )) = (x (x1 ,...,xN )}
se trouve alors dans chaque DN , ce qui conduit `a notre contradiction. contradiction. L’int´erˆ erˆet et essentiel du th´eor` eor`eme eme de Daniell-Kolm Daniel l-Kolmogorov ogorov est de pouvoir pouvoi r construire constr uire un processus pro cessus `a l’aide de ses lois fini-dimensionnel fini-dimensionnelles: les:
sur Rn . Supposons Sup posons que cette famil fam ille le de probabilit´ probabi lit´es es v´erifie eri fie les conditio condi tions ns de compatibil compati bilit´ it´e du th´eor` eor`eme eme de Daniell-Kolmogorov. (Ω, ,P) ainsi qu’un processus (X t )t≥0 d´efini Alors on peut trouver un espace espace de probabilit´ probabilit´e (Ω, efi ni sur su r cet espace dont les lois fini-dimensionnelles sont les µt1 ,...,tn . ee ee pour chaque chaqu e t1 ,...,tn Corollary Corollary 14. Supposons donn´
∈ R+ une un e probabi proba bili lit´ t´e µt ,...,t 1
n
F
e, e, on prend Preuve du corollaire. Comme espace de probabilit´
F
A
T
(Ω, (Ω, ,P) = ( (R+ ,R), (R+ ,R),µ) ,µ) o` u µ est la probabilit´ proba bilit´e donn´ee ee par le th´eor` eor`eme eme de Daniell-Kolm Daniel l-Kolmogorov. ogorov. On consid`ere ere alors le processus processus (πt )t≥0 d´efini efi ni sur su r (R+ ,R) par πt (f ) f ) = f ( f (t). Par construction mˆeme, eme, ce processus est de loi µ.
A
´ eor` eme de Daniell-Kolmogorov eme 4. Quelques applications du theor
4.1. Processus Intuitivemen ement, t, un processus processus de Markov Markov ( X t )t≥0 d´efini efini sur un Processus de Markov Markov.. Intuitiv espace de probabilit´ proba bilit´e (Ω, (Ω, ,P) est un processus pro cessus sans m´emoire. emoire . Un tel processus proc essus est caract´eris´ eris´e par sa fonction de transition. La fonction de transition d’un processus de Markov est l’analogue en temps continu de la matrice mat rice de transition associ´ee ee `a une chaine de Markov. Tout au long de ce cours, nous rencontrerons de nombreux exemples de processus de Markov dont notamment, le mouvement brownien.
F
Definition 15. Une fonction de transition P t ,t
{ ≥ 0} sur R est une famille de noyaux P t : R × B (R) → [0, [0,1]
telle que: (1) Pour t 0 et x (2) Pour t 0 et A (3) Pour s,t 0, x
≥ ≥ ≥
(1)
∈ R, P t(x,·) est une mesure de probabilit´e sur B(R); x,A) est mesurable par rapport a ∈ B(R), la fonction x → P t(x,A) a` B(R); ∈ R et A ∈ B(R), P t+s (x,A) x,A) =
P t (y,A) y,A)P s (x,dy); x,dy );
R
L’´equati equ ation on (1) est appel´ app el´ee ee l’´equatio equa tion n de d e Chap C hapman man-Ko -Kolmo lmogor gorov. ov. Une fonction de transition peut ´egalement egalement ˆetre etre vu comme une famille d’op´erateurs erateurs ( Pt )t≥0 continus et de norme inf´erieure erieure `a 1 d´ efinis efinis sur l’espace des fonctions f : R or´elie el ienn nnes es R b or´ born´ or n´ees: ee s:
→
(Pt f )( f )(x x) =
f ( f (y)P t (x,dy) x,dy).
14
Exercice 16.
(1) Montrer que l’´equation equat ion de Chapman-Kolmogorov Chapma n-Kolmogorov equation est ´equivalente equiv alente a` la prop ropri´et´e de semigroupe: Pt+s = Pt Ps ,s,t 0.
≥
→ R une fonction continue en 0 telle que f ( f (t + s) = f ( f (t)f ( f (s),s,t ≥ 0. Montrer qu’il existe α ∈ R tel que pour t ≥ 0,
(2) Soit f : R+
f ( f (t) = eαt .
→ Mn(R) (espace des matrices n × n) une fonction continue en 0 telle que f ( f (t + s) = f ( f (t)f ( f (s),s,t ≥ 0. Montrer qu’il existe α ∈ Mn (R) tel que pour t ≥ 0,
(3) Soit f : R+
f ( f (t) = etα .
Cet exe exercice rcice sugg´ sug g´ere ere que sous sou s une hypoth` hypot h`ese ese de continui conti nuit´ t´e en 0, on doit pouvoir ´ecrire ecrire Pt = etL ,
o` u u
L sera un op´erateur erateur d´efini efini sur un certain espace foncti f onctionnel. onnel.
efini efini sur l’espace l’e space de probabilit´ probabi lit´e (Ω, (Ω, ,P) est appel´e un Definition Definition 17. Un processus (X t )t≥0 d´
{
processus de Markov s’il existe une fonction de transition P t ,t R, et 0 < s,t, bor´ bor´elie el ienn nnee born born´ ´ee ee f : R
→
F
≥ 0} telle que pour toute fonction
| σ(X u,u ≤ s)) = (Ptf )( f )(X X s ), o` u u σ (X u ,u ≤ s) est la plus petite sous-tribu de T (R+ ,R) qui rend mesurable toutes les variables E (f ( f (X s+t )
al´ al´eato ea toire iress
(X u1 ,...,X un ),u1 ,...,un
{
La fonction de transition P t ,t
∈ [0,s [0,s]].
≥ 0} est appel´ee ee la fonction de transition du processus processus (X t )t
≥0 .
Ainsi, pour un processus de Markov, toute l’information contenue dans X s+t conditionnellement `a σ (X u ,u s) se r´esume esume `a X s . Le th´eor` eor`eme eme de Daniell-Kolomogorov assure l’existence d’un processus de Markov de fonction de transition donn´ee. ee.
≤
{ ≥ 0} une fonction de transition et ν une mesure de probabilit´e (Ω,F ,P) ainsi qu’un processus de Markov (X t )t 0 sur R. Alors, Alo rs, il existe e xiste un espace e space de prob p robabili abilit´ t´e (Ω, de fonction de transition {P t ,t ≥ 0} d´efini efini sur cet espace tel te l que
Proposition 18. Soient P t ,t
≥
X 0 =loi ν. cara ct´ erise erise les lois fini-dimensionnelles Preuve. Nous allons montrer comment la fonction de transition caract´ et ensuite utiliser le corollaire 14. Si (X t )t≥0 est un processus de Markov de fonction de transition P t ,t
{
X
loi
≥ 0} tel que:
15
Alors on doit avoir, pour toute fonction foncti on bor´elienne elienne born´ bor n´ee ee f : f : E(f ( f (X t ))
= E ((Pt f )( f )(X X 0 ))
=
(Pt f )( f )(x x)ν (dx) dx)
R
=
R
Ainsi Ains i n´ecessai ece ssairem rement, ent, si B est un bor´ bo r´elien eli en de µt (B ) =
f ( f (y)P t (x,dy) x,dy)ν (dx) dx).
R
R,
R
P t (x,dy) x,dy)ν (dx) dx).
B
De mˆeme eme on peut calculer les lois bi-dimensionnelles. Si f est une fonction foncti on bor´elienne elienne born´ee ee 2 R R, pour 0 < t 1 < t2 ,
→
E(f ( f (X t1 ,X t2 ))
|
= E (E (f ( f (X t1 ,X t2 ) σ (X u ,u
=E
R
=
R
R
f ( f (X t1 ,y) ,y )P t2 −t1 (X t1 ,dy) ,dy)
R
R
B
f ( f (x,y) x,y )P t1 (z,dx) z,dx)P t2 −t1 (x,dy) x,dy )ν (dz) dz ).
Ainsi, Ains i, n´ecessai ece ssairem rement, ent, si B est un bor´ bo r´elien eli en de µt1 ,t2 (B ) =
≤ t1)))
R2 ,
P t2 −t1 (x,dy) x,dy)P t1 (z,dx) z,dx)ν (dz) dz ). n R
De mˆeme, eme , on o n montr m ontree que q ue n´ecessai eces sairem rement, ent, si 0 < t 1 < ... < t n et si B est un bor´ bo r´elien elie n de µt1 ,...,tn (B ) =
R
B
P t1 (z,dx1 )P t2 −t1 (x1 ,dx2 )...P tn −tn 1 (xn−1 ,dxn )ν (dz) dz ). −
L’id´ee ee est donc maintenant de d´efinir efinir pour pou r 0 = t0 < t1 < ... < t n , A b or´elie el ien n de n de R , µt0 ,t1 ,...,tn (A
× B) =
A
alors
B
R
et B bor´ or ´elie el ien n
P t1 (z,dx1 )P t2 −t1 (x1 ,dx2 )...P tn −tn 1 (xn−1 ,dxn )ν (dz) dz ). −
Voir que cette famille famill e de d e probabilit´ probab ilit´es es est compatible compat ible au sens du th´eor` eor`eme eme de Daniell-Kolm Daniel l-Kolmogorov ogorov est une u ne cons´ co ns´equence equence de l’´equation equati on de d e Chapman-K Cha pman-Kolmog olmogorov orov (Exercic ( Exercicee !). Donc d’apr`es es le corollaire 14 1 4 on peut trouver un processus (X ( X t )t≥0 d´efini efini sur un certain certai n espace de probab p robabilit´ ilit´e dont d ont les l es lois l ois fini-dimension fini-dim ensionnelles nelles sont donn´ d onn´ees ees par les µt0 ,t1 ,...,tn . Montrons que ce processus est un processus de Markov de fonction de transition P t ,t 0 et que: X 0 =loi ν. Comme µ0 (A) =
ν (dz) dz ) = ν (A),A
A
on a bien
{
≥ }
∈ B(R),
X 0 =loi ν. Il s’agit maintenant de d´emontrer emontrer que pour toute fonction bor´elienne elienne born´ee ee f : 0 < s,t, s,t, f (X ) (X )) = (P f )( f )(X X ) E (f (
|
≤
R
→ R, et
16
Pour cela, il suffit de d´emontrer emontrer que pour toutes fonctions bor´eliennes eliennes born´ees ees f : n F : R R, et 0 = t0 < t 1 < ... < t n ,
→
E
−
Rn+1
=
−
−
−
f ( f (X tn )F ( F (X t0 ,...,X tn 1 )
E
=
→ R,
f ( f (X tn )F ( F (X t0 ,...,X tn 1 ) = E (Ptn −tn 1 f )( f )(X X tn 1 )F ( F (X t0 ,...,X tn 1 ) .
Mais Ma is d’ap d’ apr` r`es es le th´eor` eo r`eme em e de Fubini: Fubin i:
R
R
−
f ( f (xn )F ( F (z,x 1 ,...,xn−1 )P t1 (z,dx1 )P t2 −t1 (x1 ,dx2 )...P tn −tn 1 (xn−1 ,dxn )ν (dz) dz )
Rn−1
−
(Ptn −tn 1 f )( f )(x xn−1 )F ( F (z,x 1 ,...,xn−1 )P t1 (z,dx1 )P t2 −t1 (x1 ,dx2 )...P tn −
1 −tn−2
−
(xn−2 ,dxn−1 )ν (dz) dz )
=E (Ptn −tn 1 f )( f )(X X tn 1 )F ( F (X t0 ,...,X tn 1 ) . −
−
−
Ce qui qu i conclut co nclut la d´emonstration. emonstr ation.
4.2. Processus gaussiens.
efini efin i sur su r un espace es pace de probabi pro babili lit´ t´e (Ω, (Ω, ,P) est dit gaussien Definition 19. Un processus (X t )t≥0 d´ si toutes ses lois fini-dimensionnelles sont des lois gaussiennes.
F
La loi l oi d’un tel processus proc essus est caract´ carac t´eris´ eris´ee ee par pa r sa fonction fonct ion moyenne m(t) = E(X t ) et sa fonction de covariance
− m(t))(X ))(X s − m(s))) .
R(s,t) s,t) = E ((X ((X t
En effet la loi fini-dimensionnelle µt1 ,...,tn a la densit´ densit´ e suivante suivante par rapport `a la mesure de Lebesgue: 1 n/2 (2π (2π )n/2
1 √det exp Σ
− 1 2
(xi
1≤i,j ≤n
−1
− m(ti))(Σ
)i,j (x j
− m(t j ))
,
o` u Σi,j = R(ti ,t j ). On remarquera que la fonction de covariance R(s,t) s,t) est sym´etriqu etr iquee (R(s,t) s,t) = R(t,s)) t,s)) et telle que pour tout a1 ,...,an R et t1 ,...,tn R+ ,
∈
∈
ai a j R(ti ,t j ) =
1≤i,j ≤n
− − ai a j E (X ti
m(ti ))(X ))(X tj
1≤i,j ≤n
2
n
=E
(X ti
− m(t j ))
m(ti ))
i=1
≥ 0.
R´ecip ec ipro roque queme ment, nt,
→ R et R : R+ × R+ → R une foncti fon ction on sym´etriqu etr iquee qui v´erifie eri fie pour tout a1 ,...,an ∈ R et t1,...,tn ∈ R+ , ai a j R(ti ,t j ) ≥ 0.
Proposition 20. Soient m :
R+
1≤i,j ≤n
(Ω, ,P) ainsi qu’un processus gaussien (X t )t≥0 d´efini Alors, il existe un espace espace de probabilit´ probabilit´e (Ω, sur cet espace de fonction moyenne et de fonction de covariance R
F
17
efinissons efinisso ns une famille famil le de probabilit´ proba bilit´es es par Preuve. D´ µt1 ,...,tn =
1 n/2 (2π (2π )n/2
1 √det exp Σ
− 1 2
(xi
1≤i,j ≤n
−1
− m(ti))(Σ
)i,j (x j
− m(t j ))
dx1 ...dxn ,
o` u Σi,j = R(ti ,t j ) et o` u dx1 ...dxn est la mesure de Lebesgue sur Rn . Par hypoth` hypo th`ese ese sur R, notez que Σ est bien une un e matrice matr ice sym´etrique etriqu e positive, po sitive, de sorte que µt1 ,...,tn est bien une loi gaussienne. Il est facile de v´erifier erifier que cette famille famill e est e st compatible compat ible au sens du th´ t h´eor` eor`eme eme de Daniell-Kolm Daniel l-Kolmogorov, ogorov, on peut p eut donc appliquer le corollaire 14 pour obtenir la conclusion souhait´ee. ee. Exercice 21. Soit (X t )t≥0 un processus gaussien de fonction moyenne nulle et de fonction de
covariance R(s,t) egalement un processus processus de Markov et s,t) = min(s,t min(s,t)). Montrer que (X t )t≥0 est ´egalement calculer sa fonction de transition. ` ´ de Kolmogorov 5. Le critere ere de continuite
Comme nous l’avons d´ej` ej`a pr´ecis´ ecis´e, e, les processus pro cessus stochastiques stocha stiques que nous avons ´etudi´ etudi´es es jusqu’`a pr´esent esent sont encore enco re extrˆemement eme ment g´enerau ene raux x dans dan s le sens o`u leurs trajectoires sont quelconques. N´ eanmoins, eanmoins, de nombreux nombreux processus processus continus continus qui sont sont int´ int´eressants eressants dans la pratique pratique ont des tra jectoi jec toires res relati rel ativement vement r´eguli` egu li`eres. ere s.
fonction f : Definition 22. Une fonction
→ R est dite H¨ olderienne d’exposant α > 0 si il existe une constante C > 0 telle que pour tout s,t ∈ R+ , | f ( f (t) − f ( f (s) |≤ C | t − s |α . R+
Exercice 23.
(1) Montrer que si f est une fonction H¨ olderienne d’exposant α > 1, alors f est constante. (2) Montrer qu’une fonction H¨ old´erienne eri enne est unifor uni form´ m´ement eme nt continue conti nue.. 1 old´ ol d´erie er ienne nne d’ordre d’ ordre 2 . (3) Donner un exemple de fonction H¨ ˜ t )t≥0 est appel´ processus stochastique (X appel´e une modification modification du processus processus Definition Definition 24. Un processus (X t )t≥0 si pour t
≥ 0,
P
˜ t = 1. X t = X
˜ t )t≥0 est une modification du processus (X t )t≥0 alors (X ˜ t )t≥0 a les le s mˆemes em es Remarque 25. Si (X
loi-fini-dimensionnelles que (X t )t≥0 . Le th´eor` eor`eme eme import imp ortant ant suivant, sui vant, dˆu `a A. Kolmogorov, Kolmogorov, donne une condition suffisante suffisante pour p our qu’un processus X admette une modification continue avec des trajectoires H¨olderiennes. olderiennes.
F
(Ω, ,P) Th´ eor` eme 26. (Kolmogorov 1956) Soit α,ε,c > 0. Si un processus (X t )t∈[0, efini efi ni sur su r (Ω, [0,1] d´
v´erifie eri fie pour tout tou t s,t
∈ [0, [0,1],
1+ε | X t − X s |α) ≤ c | t − s |1+ε ,
E(
alors il existe une modification de (X t )t∈[0, [0,1] qui est un processus continu dont les trajectoires ε [0, α ). sont γ H¨ olderiennes pour tout γ [0,
∈
Preuve. Pour n
∈ N, notons Dn =
k ,k = 0,...,2 ,...,2n 2n
18
et
D = ∪n Dn. On remarque que D est dense dans [0, [0 ,1]. Soit γ ∈ [0, [0, αε ). ∈N
On a, d’ap d’ apr` r`es es l’in´ l’i n´egal eg alit´ it´e de Tcheby Tch ebyche chev: v: P
max
1≤k≤2n
| X − X |≥ 2 k−1 2n
k
2n
−γn
∪ ≤ | | ≤ =P
| X − X |≥ 2
1≤k≤2n
k−1 2n
k
2n
2n
P
X kn
− X |≥ 2
X kn
|
2
k=1
2n E
−γn
k−1 2n
− X
k−1 2n
2
2−γαn
k=1
−γn
α
γα ) −n(ε−γα)
≤ c2
Ainsi, comme γα > ε, ε, on a +∞
max
P
n=1
1≤k≤2n
−γn
| X − X |≥ 2 k−1 2n
k
2n
∞
<+ ,
donc d’apr`es es le lemme de Borel-Cantelli on peut trouver un ensemble Ω ∗ et tel que pour ω Ω∗ , il existe N ( N (ω ) tel que pour tout n N ( N (ω),
∈
|
max n X kn (ω)
1≤k≤2
2
− X
k−1 2n
≥
∗
∈ F tel que P(Ω ) = 1
(ω) < 2−γn .
|
D
De l`a, a, on o n peut p eut en d´eduire eduire que les tra jectoires de X /Ω sont γ H¨ olderiennes olderiennes sur . En effet, soient soient ∗ ω Ω et s,t tels que 1 s t 2n o` u n N ( N (ω). On peut trouver une suite (s ( sn )n∈N croissante et stationnaire qui converge vers s, telle que sn n et sn+1 sn = 2−(n+1) ou 0. De mˆ eme eme on peut trouver trouver une suite (t ( tn )n∈N qui converge vers t et qui qu i v´erifie er ifie des de s prop pr opri´ ri´et´ et´es es identiques. On a alors: ∗
∈
∈D
| − |≤
≥
∈D
|
X t
− X s =
− |
+∞
+∞
(X si+1
i=n
− X s ) + (X ( X s − X t ) + n
i
n
Remarquez Remarqu ez que les sommes ci-dessus ci-dessu s sont en r´ealit´ ealit´e finies. Par cons´ co ns´equen eq uent, t,
(X ti
i=n
− X t
i+1
+∞
| X t − X s | ≤ 2 ≤2
i=n +∞
max
1≤k≤2i
k
2i
(ω)
− X
k−1 2i
2−γi
i=n
≤ 1 −22
−γ
Ainsi, les trajectoires de X
| X
sont bien
2−γn .
H¨ olderiennes olderiennes sur
D
(ω)
|
)
19
˜ t (ω ) l’unique fonction continue qui coincide avec t Pour ω Ω∗ , soit t X X t (ω) sur . Pour ∗ ˜ ˜ ω / Ω , on pose X t (ω) = 0. On obtient alors un processus ( X t )t∈[0, [0,1] qui est la modification de (X t )t∈[0, esir es ir´´ee ee (v´ (v´erifi er ifiez ez le !). !) . [0,1] d´
∈
∈
→
→
D
6. Convergence en loi de processus continus Dans ce paragraphe, paragraphe, nous allons donner des crit` crit`eres eres qui assurent assurent la converg convergence ence en loi d’une suite de processus continus. On se place place sur l’espa l’espace ce des foncti fonctions ons contin continues ues (R+ ,R) sur lequel lequel on consid consid``ere ere la tribu tribu bor´ or´elie el ienn nnee (R+ ,R) engendr´ engendr´ ee ee par les ouverts ouverts de la topologie de la convergenc convergencee uniforme uniforme sur tout compact. On notera, comme d’habitude, (π ( πt )t≥0 , le processus pro cessus des coo coordonn´ rdonn´ees. ees. On rappelle rapp elle que le th´eor` eor`eme eme d’Ascoli d’Ascol i caract´ carac t´erise erise les ensembles relativement relati vement compacts compac ts 1 de cette topologie:
C
B
Th´ eor` eme 27. (Ascoli)
Pour N
∈ N, f ∈ C (R+,R) et δ > 0, on note: V N (f,δ) f,δ ) = sup{| f ( f (t) − f ( f (s) | , | t − s |≤ δ, s,t ≤ N }. Un sous-ensemble K ⊂ C (R+ ,R) est relativement compact si et seulement si: es t born´ bor n´e; e; (1) L’ensemble {f (0) f (0),f ,f ∈ K } est (2) Pour tout N ∈ N, lim sup V N (f,δ) f,δ ) = 0.
δ →0 f ∈K
Comme un processus stochastique continu n’est rien d’autre d’autr e qu’une variable al´eatoire eatoire `a valeurs dans (R+ ,R), on a une notion de convergence en loi pour une suite de processus:
C
processus continus (´eventuel eventu ellement lement d´efinis efinis sur des espaces Definition 28. Une suite (X n )n∈N de processus de probabilit´e diff´erents) erents) est dite convergente en loi vers un processus processus X , si la suite des lois de n etroitemen t dans l’espace polonais (R+ ,R) vers la loi de X . X converge ´etroitement
C
On a alors un crit` crit`ere, ere, tr` es es utile en pratique, pratique, qui assure la converg convergence ence en loi d’une suite de processus continus: Proposition 29. Soient (X n )n∈N une suite de processus continus et X un processus continu.
Supposons les deux conditions suivantes satisfaites: (1) La suite des lois de X n est relativement compacte dans la topologie de la convergence ´etro et roiite; te ; (2) Pour tout t1 ,...,tk Rk ,
∈
(X tn1 ,...,X tnk )
→loi n +
→ ∞
(X t1 ,...,X tk ).
Alors la suite (X n )n∈N converge en loi vers X . Preuve.
Pour d´emontrer emontrer qu’une suite relativement relat ivement compacte com pacte est convergente, co nvergente, il suffit de d e d´emontrer emontrer qu’elle a une et une un e seule seu le valeur vale ur d’ad d ’adh´ h´erence ere nce,, ce qui q ui est es t ici imm´ediat edia t ´etant eta nt donn´ don n´e que la loi l oi d’un d ’un process pro cessus us est caract´eris´ eris´ee ee par ses loi fini-dimension fini-di mensionnelles. nelles.
1. Un ensemble est dit relativement compact si son adh´ erence erence est compacte
20
Pour pouvoir mettre en oeuvre le crit`ere ere pr´ec´ ec´ edent, edent, il faut pouvoir caract´eriser eriser les suites relativemen lativementt compactes compactes dans la topologie de la convergenc convergencee ´etroite, etroite, et c’est l`a que qu e le th´ th´eor` eo r`eme em e d’Ascoli intervient: Proposition 30. Sur l’espace
C (R+,R), une suite (Pn)n de probabilit´e est relativement relativem ent compacte dans la topologie topologie de la convergence convergence ´etroite etroite si et seulement si: (1) Pour tout ε > 0, on peut trouver A > 0 et n0 ∈ N tels que pour tout n ≥ n0 , Pn (| π0 |> A) A ) ≤ ε; (2) Pour tout η,ε > 0 et N ∈ N, on peut trouver δ > 0 et n0 ∈ N tels que pour tout n ≥ n0 , n Pn (V (π,δ) π,δ ) > η ) ≤ ε. ∈N
0
Preuve.
Supposons que la suite ( Pn )n∈N est relativement compacte dans la topologie de la convergence ´etroite, etroit e, alors d’apr`es es le th´eor` eor`eme eme de Prokhorov, Prokho rov, cette suite est tendue, tendue , i.e. pour tout ε (0, (0,1), on peut trouver un ensemble relativement compact K ε (R+ ,R), tel que pour tout n N:
∈ ∈
⊂C
Pn (K ε )
≥ 1 − ε.
En ´ecri ec rivant vant K ε sous la forme donn´ee ee par le th´eor` eor`eme eme d’Ascoli, d’Asco li, on v´erifie erifie alors facilement facile ment que les propri´ propr i´et´ et´es es (1) et (2) sont satisfaites satisf aites avec n0 = 0. Supposons maintenant que les propri´et´ et´es es (1) et (2) sont satisfaites. Tout d’abord, comme une suite finie fi nie est toujours toujo urs relativeme r elativement nt compacte, compa cte, on o n peut pe ut supposer supp oser que les propri´ propr i´et´ et´es es (1) et (2) (2 ) sont satisfaites avec n0 = 0. Toujours Toujou rs d’apr` d’a pr`es es le th´eor` eor`eme eme de Prokho Pro khorov, rov, pour po ur d´emontrer emo ntrer la relati rel ative ve compacit´ compac it´e, e, il suffit de d´emontrer emontrer la tension. tensio n. Soient ε > 0 et N N. Pour tout k 1, on peut alors trouver AN > 0 et δN,k tels que: ε sup Pn ( π0 > A N ) +1 2N +1 n∈N
∈
≥
| |
sup Pn n∈N
On pose alors, K ε =
∈C f
1 V N (π,δk ) > k
|
(R+ ,R), f (0) f (0)
N ∈N
≤
≤
|≤ AN ,V
ε 2N +k+1
N
(π,δ N,k )
≤
∀ ≥
1 , k k
1 .
Le th´eor` eor`eme eme d’Ascol d’As colii impliq imp lique ue la relati rel ative ve comp c ompaci acit´ t´e de K ε , et il est facile facile de voir voir que pour tout n 0, Pn (K ε ) 1 ε.
≥
≥ −
Enfin, le crit`ere ere suivant de compacit´ compac it´e relative relati ve s’av`ere ere souvent applicable applica ble en pratique: prati que: Propositio Proposition n 31. (Crit` (Cri t`ere ere de compacit´ compaci t´e de Kolmogorov Kol mogorov)) Soit Soi t (X n )n∈N une suite de processus
continus telle que: (1) La famille des lois de (X 0n )n∈N est tendue; (2) On peut trouver des constantes α,β,γ > 0 telles que pour s,t E(
1+γ | X tn − X sn |α) ≤ β | t − s |1+γ .
≥ 0 et n ≥ 0,
Alors la famille des lois de (X n )n∈N est relativement compacte dans la topologie de la convergence ´et et it
21
Preuve.
Exercice. . ´ de marque: A. Kolmogorov 7. Un invite Born: 25 April 1903 in Tambov, Tambov province, Russia Died: 20 Oct 1987 in Moscow, Russia
Andrei Nikolaevich Kolmogorov’s parents were not married and his father took no part in his upbringing. His father Nikolai Kataev, the son of a priest, was an agriculturist who was exiled. He returned after the Revolution to head a Department in the Agricultural Ministry but died in fighting in 1919. Kolmogorov’s mother also, tragically, took no part in his upbringing since she died in childbirth at Kolmogorov’s birth. His mother’s sister, Vera Yakovlena, brought Kolmogorov up and he always had the deepest affection for her. In fact it was chance that had Kolmogorov born in Tambov since the family had no connections with that place. Kolmogorov’s mother had been on a journey from the Crimea back to her home in Tunoshna near Yaroslavl and it was in the home of his maternal grandfather in Tunoshna that Kolmogorov spent his youth. Kolmogorov’s name came from his grandfather, Yakov Stepanovich Kolmogorov, and not from his own father. Yakov Stepanovich was from the nobility, a difficult status to have in Russia at this time, and there is certainly stories told that an illegal printing press was operated from his house. After Kolmogorov left school he worked for a while as a conductor on the railway. In his spare time he wrote a treatise on Newton’s laws of mechanics. Then, in 1920, Kolmogorov entered Moscow State University but at this stage he was far from committed to mathematics. He studied a number of subjects, for example in addition to mathematics he studied metallurgy and Russian history. Nor should it be thought that Russian history was merely a topic to fill out his course, indeed he wrote a serious scientific thesis on the owning of property in Novgorod in the 15th and 16th centuries. There is an anecdote regarding this thesis, his teacher saying: You have supplied one proof of your thesis, and in the mathematics that you study this would perhaps suffice, but we historians prefer to have at least ten proofs . Kolmogorov may have told this story as a joke but nevertheless jokes are only funny if there is some truth in them and undoubtedly this is the case here. In mathematics Kolmogorov was influenced at an early stage by a number of outstanding mathematicians. P S Aleksandrov was beginning his research (for the second time) at Moscow around the time Kolmogorov began his undergraduate career. Luzin and Egorov were running their impressive research group at this time which the students called ’Luzitania’. It included M Ya Suslin and P S Urysohn, in addition to Aleksandrov. However the person who made the deepest impression on Kolmogorov at this time was Stepanov who lectured to him on trigonometric series. It is remarkable that Kolmogorov, although only an undergraduate, began research and produced results of international importance at this stage. He had finished writing a paper on operations on sets by the spring of 1922 which was a major generalisation of results obtained by Suslin. By June of 1922 he had constructed a summable function which diverged almost everywhere. This was wholly unexpected by the experts and Kolmogorov’s name began to be known around the world. Kolmogorov Kolmogorov graduated from Moscow State Universit University y in 1925 and began b egan research research under Lusin’s supervision in that year. It is remarkable that Kolmogorov published eight papers in 1925, all written while he was still an undergraduate. Another milestone occurred in 1925, namely Kolmogorov’s first paper on probability appeared. This was published jointly with Khinchin
22
and contains the ’three series’ theorem as well as results on inequalities of partial sums of random variables which would become the basis for martingale inequalities and the stochastic calculus. In 1929 Kolmogorov completed his doctorate. By this time he had 18 publications and Kendall writes: These included his versions of the strong law of large numbers and the law of the iterated logarithm, some generalisations of the operations of differentiation and integration, and a contribution to intuitional logic. His papers ... on this last topic are regarded with awe by specialists in the field. The Russian language edition of Kolmogorov’s collected works contains a retrospective commentary on these papers which [Kolmogorov] evidently regarded as marking an important development in his philosophical outlook . An important event for Kolmogorov was his friendship with Aleksandrov which began in the summer of 1929 when they spent three weeks together. On a trip starting from Yaroslavl, they went by boat down the Volga then across the Caucasus mountains to Lake Sevan in Armenia. There Aleksandrov worked on the topology book which he co-authored with Hopf, while Kolmogorov worked on Markov processes with continuous states and continuous time. Kolmogorov’s results from his work by the Lake were published in 1931 and mark the beginning of diffusion theory. In the summer of 1931 Kolmogorov and Aleksandrov made another long trip. They visited Berlin, Gttingen, Munich, and Paris where Kolmogorov spent many hours in deep discussions with Paul L´evy. evy. After this they spent a month at the seaside with Fr´echet echet Kolmogorov was appointed a professor at Moscow University in 1931. His monograph on probability theory Grundbegriffe der Wahrscheinlichkeitsrechnung published in 1933 built up probability theory in a rigorous way from fundamental axioms in a way comparable with Euclid’s treatment of geometry. One success of this approach is that it provides a rigorous definition of conditional expectation. Around this time Malcev and Gelfand and others were graduate students of Kolmogorov along with Gnedenko who describes what it was like being supervised by Kolmogorov: The time of their graduate studies remains for all of Kolmogorov’s students an unforgettable period in their lives, full of high scientific and cultural strivings, outbursts of scientific progress and a dedication of all one’s powers to the solutions of the problems of science. It is impossible to forget the wonderful walks on Sundays to which [Kolmogorov] invited all his own students (graduates and undergraduates), as well as the students of other supervisors. These outings in the environs of Bolshevo, Klyazma, and other places about 30-35 kilometres away, were full of discussions cussions about the curr current ent problems problems of mathematics mathematics (and its applications), applications), as well as discussions discussions about the questions of the progress of culture, especially painting, architecture and literature. In 1938-1939 a number of leading mathematicians from the Moscow University joined the Steklov Mathematical Institute of the USSR Academy of Sciences while retaining their positions at the Universit University y. Among them were Aleksandro Aleksandrov, v, Gelfand, Gelfand, Kolmogorov, Kolmogorov, Petrovs Petrovsky ky,, and Khinchin. Khinchin. The Department of Probability and Statistics was set up at the Institute and Kolmogorov was appointed as Head of Department. Kolmogorov Kolmogorov later extended extended his work to study the motion of the planets planets and the turbulent turbulent flow of air from a jet engine. In 1941 he published two papers on turbulence which are of fundamental importance. In 1954 he developed his work on dynamical systems in relation to planetary motion. He thus demonstrated the vital role of probability theory in physics. We must mention just a few of the numerous other major contributions which Kolmogorov made in a whole range of different areas of mathematics. In topology Kolmogorov introduced the notion of cohomology groups at much the same time, and independently of, Alexander. In 1934 Kolmogorov investigated chains, cochains, homology and cohomology of a finite cell
23
complex. In further papers, published in 1936, Kolmogorov defined cohomology groups for an arbitrary locally compact topological space. Another contribution of the highest significance in this area was his definition of the cohomology ring which he announced at the International Topology Conference in Moscow in 1935. At this conference both Kolmogorov and Alexander lectured lectured on their independent independent work on cohomology cohomology.. In 1953 and 1954 two papers by Kolmogorov, each of four pages in length, appeared. These are on the theory of dynamical systems with applications to Hamiltonian dynamics. These papers mark mark the beginni beginning ng of KAM KAM-th -theory eory,, which which is named named after after Kolmogor Kolmogorov ov,, Arnold Arnold and Moser. Moser. Kolmogorov addressed the International Congress of Mathematicians in Amsterdam in 1954 on this topic with his important talk General General theory of dynamical dynamical systems and classical classical mechanics. mechanics. N H Bingham notes Kolmogorov’s major part in setting up the theory to answer the probability part of Hilbert’s Sixth Problem ”to treat ... by means of axioms those physical sciences in which mathematics plays an important part; in the first rank are the theory of probability and mechanics” in his 1933 monograph Grundbegriffe der Wahrscheinlichkeitsrechnung. Bingham also notes: Paul L´ evy evy writes writ es poignantly of his realisation, immediately on seeing the ”Grundbegriffe”, ”Grundbegriffe”, of the opportunity which he himself had neglected to take. A rather different perspective is supplied by the eloquent writings of Mark Kac on the struggles that Polish mathematicians of the calibre Steinhaus and himself had in the 1930s, even armed with the ”Grundbegriffe”, to understand the (apparently perspicuous) notion of stochastic independence. If Kolmogorov made a major contribution to Hilbert’s sixth problem, he completely solved Hilbert’s Thirteenth Problem in 1957 when he showed that Hilbert was wrong in asking for a proof that there exist continuous continuous functions of three variables variables which could not be represent represented ed by continuous functions of two variables. Kolmogorov had many interests outside mathematics, in particular he was interested in the form and structure of the poetry of the Russian author Pushkin. Article by: J J O’Connor and E F Robertson,
24
CHAPITRE 3: MARTINGALES MARTINGALES
Dans ce chapitre, chapitre , nous no us consid´ c onsid´erons erons un processus pro cessus stochastique stocha stique comme un syst`eme eme al´eatoire eatoi re transportant de l’information et ´evoluant evoluant dans le temps. Les outils importants importants introduits introduits sont: sont: – La notion de filtration et de temps d’arrˆet; et; – La notion de martingale; – Le th´eor` eo r`eme em e d’ar d’ arrˆ rˆet et de Doob Do ob;; – Le th´eor` eor`eme eme de convergence de Doob; Doo b; – Le th´eor` eor`eme eme de r´egular egu larisa isatio tion n de Doob; Do ob; – Les in´egalit´ ega lit´es es maximal maxi males es de d e Doo D oob; b; – La notion de processus de Feller-Dynkin; – L’´etude etu de de l’abso l’a bsolue lue continuit´ cont inuit´e de probab pro babilit´ ilit´es sur un espace esp ace de probab pro babili ilit´ t´e filtr´ filt r´e. e.
25
ˆ 1. Filtrations et temps d’arrets ets
Un processus stochastique (X ( X t )t≥0 est un syst`eme eme al´eatoire eatoi re qui ´evolue evolue dans le temps. Ce processus ”transporte” avec lui de l’information; plus pr´ecis´ ecis´ ement, ement, par observation des trajectoires tra jectoires de X , `a un instant t > 0, on sait sa it si un ´ev´ ev´eneme en ement nt A ∈ σ (X s ,s ≤ t) s’est produit ou non. Ce flux temporel d’informations correspond `a la notion math´ematique ematiqu e de filtration. (Ω,F ,P) un espace de probabilit´e. Definition 1. Soit (Ω, e. Une filtration (F t )t≥0 est une suite crois-
sante de sous-tribus de F . Par exemple si (X ( X t )t≥0 est un processus stochastique d´efini efini sur (Ω, (Ω ,F ,P), alors
F t = σ(X s ,s ≤ t) est une filtration. Cette filtration est appel´ee ee la filtration naturelle du processus pro cessus X . Definition Definition 2. On dit qu’un processus (X t )t≥0 est adapt´ ada pt´e a` une filtration (F t )t≥0 si pour tout
t ≥ 0, X t est F t -mesurable. Un processus pro cessus est ´evidemment evidemme nt toujours toujo urs adapt´e `a sa filtration naturelle. On remarquera que si un processus (X (X t )t≥0 est es t ada a dapt´ pt´e `a une filtration (F t )t≥0 et que si F 0 contient tous les sous-ensembles de F qui sont de mesure nulle, alors toute modification du processus X est encore enco re adapt´ ada pt´ee ee `a la filtration (F t )t≥0 . Dans Dan s le l e chapit cha pitre re pr´ec´ ec´edent edent (d´efinitio efini tion n 6), 6 ), on a d´efini efini la notion not ion de mesura mes urabil bilit´ it´e pour p our un process pro cessus. us. Pour tenir compte de l’aspect dynamique dynamique associ´ associ´e `a une filtration, on introduit maintenant la notion de mesurabilit´ mesura bilit´e progre p rogressive: ssive:
ad apt´ t´e a` une filtration (F t )t≥0 , est progressiveDefinition 3. On dit qu’un processus (X t )t≥0 , adap ment mesurable si pour tout t ≥ 0,
∀A ∈ B (R),{(s,ω) s,ω ) ∈ [0,t [0,t]] × Ω,X s (ω) ∈ A} ∈ B([0,t ([0,t]) ]) ⊗ F t . Et on peut montrer, de la mˆeme eme mani`ere ere que la proposition 8,
ad apt´ t´e a` une filtration (F t )t≥0 , est progressiveProposition 4. Un processus continu (X t )t≥0 , adap ment mesurable. Il est e st souvent s ouvent int´eressant eressant d’associer d’asso cier `a une filtration filtra tion une certaine famille de temps al´eatoires. eatoires. (Ω,F ,P). Soit maintenant Definition 5. Soit (F t )t≥0 une filtration sur un espace de probabilit´e (Ω, variab le al´eatoire eatoi re F mesurable a` valeurs dans R+ ∪ {+∞}. On dit que T est un temps T une variable
d’arrˆet et de la filtration (F t )t≥0 si pour tout t ≥ 0,
{T ≤ t} ∈ F t . L’exercice L’exerci ce suivant donne do nne un exemple tr`es es important impo rtant de temps d’arrˆet. et.
conti nu adapt´ ada pt´e ` a une filtration (F t )t≥0 . Exercice 6. (Temps d’atteinte) Soit (X t )t≥0 un processus continu Soit T = inf {t ≥ 0,X t ∈ F },
o` u u F est un sous-ensemble ferm´ e de R. Montrer que T est un temps d’arrˆet et pour la l a filtration (F )
26
Etant Et ant donn´ do nn´e un temp te mpss d’a d ’arrˆ rrˆet et T , T , on o n peut p eut d´efinir efin ir la tribu tri bu des ´ev´ ev´enements ene ments qui se produi pro duisent sent avant T : T :
et d’une filtration (F t )t≥0 . On note Proposition 7. Soit T un temps d’arrˆet
F T T = {A ∈ F ,∀t ≥ 0,A ∩ {T ≤ t} ∈ F t }. Alors F T tri bu, appel´ee ee tribu tri bu des ´ev´ ev´enement ene mentss ant´erieur eri eurss a a` T . T est une tribu, Preuve.
Il est tout d’abord facile de v´erifier erifier que ∅ ∈ F T puisque pour tout t ≥ 0, ∅ ∈ F t. Soit maintenant T puisque A ∈ F T T . On a c A ∩ {T ≤ t} = {T ≤ t}\ (A ∩ {T ≤ t}) ∈ F t , et donc c A ∈ F T (An )n∈N est es t une u ne suit su itee d’´ d ’´ev´ ev´eneme ene ments nts de F T T . Enfin si (A T , (∩n∈N An ) ∩ {T ≤ t} = ∩n∈N (An ∩ {T ≤ t}) ∈ F t .
Si T est un temps d’arrˆet et d’une filtration pour laquelle un certain processus est adapt´e, e, alors il est possible d’arrˆeter eter ce processus au temps T : T :
espace de probabilit´ probabilit´e (Ω, (Ω,F ,P) et T un Propositio Proposition n 8. Soient (F t )t≥0 une filtration sur un espace temps d’arrˆet et de la filtration (F t )t≥0 fini presque sˆurement. urement. Soit (X t )t≥0 un processus adapt´ ada pt´e a` la filtration (F t )t≥0 et progressivement mesurable. Alors le processus (X t∧T )t≥0 est progressivement mesurable par rapport a ` la filtration (F t∧T )t≥0 . Preuve.
Exercice. . 2. Martingales Nous allons maintenan maintenantt introduire introduire `a la notion de martingale en temps continu. Les martingales sont un des objets centraux du calcul stochastique et reviendront tout au long de ce cours. (Ω,F ,P). Un proDefinition 9. Soit (F t )t≥0 une filtration d´ efinie efinie sur un espace de probabilit´e (Ω,
cessus (M t )t≥0 adap ad apt´ t´e a` la filtration (F t )t≥0 est appel´e une sous-martinga sous-ma rtingale le si: (1) Pour tout t ≥ 0, E (| M t |) < +∞; (2) Pour tout t ≥ s ≥ 0 E (M t | F s ) ≥ M s . Un processus (M t )t≥0 adapt da pt´ ´e a` la filtration (F t )t≥0 tel que (−M t )t≥0 est une sous-martingale sous-martingale est appel´e une sur-martingal sur-mar tingale. e. Enfin, un processus processus (M t )t≥0 adap ad apt´ t´e a` la filtration (F t )t≥0 qui est `a a la fois une sous et une sur-martingale est appel´ appel´e une martingale. (Ω,F ,P) et X Exercice Exercice 10. Soient (F t )t≥0 une filtration d´ efinie efinie sur un espace de probabilit´e (Ω, une variab var iable le al´eatoire eat oire int´egrable egrab le F -mesurable. -mesurable. Montrer que le processus (E(X | F t ))t≥0 est une
martingale relativement a` la filtration (F t )t≥0 .
efinie efinie sur un espace espace de probabilit´ probabilit´e (Ω, (Ω,F ,P) et Exercice Exercice 11. Soient (F t )t≥0 une filtration d´ (M t )t≥0 une sous-martingale par rapport a` la filtration (F t )t≥0 . Montrer que l’application t → E(M t ) est croissante. (Ω,F ,P) et Exercice Exercice 12. Soient (F t )t≥0 une filtration d´ efinie efinie sur un espace espace de probabilit´ probabilit´e (Ω, (M t )t≥0 une martingale par rapport a ` la filtration (F t )t≥0 . Soit maintenant ψ : R → R une fonct fonction ion convexe onvexe telle que pour tout t ≥ 0, E (| ψ (M t ) |) < +∞. Montr Montrer er que le pro processus essus (ψ (M ))
est une sous-martingale.
27
(Ω,F ,P), on consid´ Exercice Exercice 13. Sur un espace espace de probabilit´ probabilit´e (Ω, consid´ere ere un processus processus gaussien de s,t) = min(s,t min(s,t)). Montrer que ce processus est une moyenne nulle et de fonction de covariance R(s,t) martingale par rapport a` sa filtration naturelle. Le th´eor` eo r`eme em e suivant sui vant,, dˆu a Doob, Doo b, s’av`ere ere tr`es es utile dans la pratique: prati que: Proposition 14. (Th´ (T h´eor` eo r`eme em e d’ar d’ arrˆ rˆet et de Doob) Doo b)
(Ω,F ,P) et (M t )t≥0 un processus Soient (F t )t≥0 une filtratio filt ration n d´efinie efini e sur s ur un espace de probabilit´ probabi lit´e (Ω, int´ int ´egrabl eg rable, e, a` trajectoires traject oires localement localem ent born´ees, ees , et adapt´ ada pt´e a` la filtration filtration (F t )t≥0 . Les deux conditions suivantes suivan tes sont ´equivalente equiv alentes: s: (1) (M (M t )t≥0 une martingale par rapport a` la filtration (F t )t≥0 ; et T born´e presque presq ue sˆurement urement de la filtration (F t )t≥0 , E(| M T (2) Pour tout temps d’arrˆet T |) < +∞ et E(M T T ) = E(M 0 ). Preuve.
Supposons que (M (M t )t≥0 une martingale par rapport `a la filtration (F t )t≥0 . Soit maintenant T un temps temp s d’arrˆ d’a rrˆet et born´ bo rn´e presque pre sque sˆurement urement par K ≥ 0. Supposons tout d’abord que T prend un nombre fini de valeurs 0 ≤ t1 < ... < t n ≤ K. On a, par propri´ pro pri´et´ et´e de martin mar tingal gale, e, n
E(M T T ) = E(
M T T 1T = T =ti )
i=1
n
=
E(M ti 1T = T =ti )
i=1 n
=
E(M tn 1T = T =ti )
i=1
= E(M tn ) = E(M 0 ). Ainsi, le r´esultat esulta t est es t prouv´ pr ouv´e dans da ns le l e cas ca s d’un d’ un temps t emps d’arrˆet et qui q ui ne n e prend pr end qu’un un nombre fini de valeurs. Quand T ne prend pas un nombre fini de valeurs, on l’approxime par la suite de temps d’a d’ arrˆ rr ˆets et s 2n kK τ n = 1 (k−1)K ≤T < kK . 2n 2n 2n
k=1
Chaque τ n ne prend qu’un nombre fini de valeurs et quand n → +∞, τ n → T . T . Pour conclure, il nous faut donc d´emontrer emontrer lim E(M τ τn ) = E(M T T ). n→+∞
Pour cela on d´emontre emontre que la famille (M τ τn )n∈N est unifor uni form´ m´ement ement int´egrabl egr able. e. Soit Soi t donc don c A ≥ 0. Tout d’abord, comme τ n ne prend qu’un nombre fini de valeurs, il est facile de voir en utilisant la propri´ pro pri´et´ et´e de martin mar tingal galee que E(M K ) = E(M τ τ n 1M τ τ n ≥A ). K 1M τ τn ≥A
Ainsi, E(M 1
) ≤ E(M 1
)→
0
28
Donc, Don c, par int´egrabi egr abilit´ lit´e unifor uni forme me lim E(M τ τn ) = E(M T T ).
n→+∞
d’o` u E(M T T ) = E(M 0 ).
R´ecipro ecipro quement, supposons suppo sons maintenant maintena nt que qu e pour p our tout temps d’arrˆet et T born´ bo rn´e presque pre sque sˆurement urement de la filtration (F t )t≥0 , E(M T T ) = E(M 0 ). Soit 0 ≤ s ≤ t et A ∈ F s . En utilisant T = s1A + t1c A , on obtient obtient alors facilement facilement E ((M ((M t − M s )1A ) = 0
qui conduit `a la propri´ pro pri´et´ et´e de martin mar tingal gale. e.
efinie efinie sur un espace espace de probabilit´ probabilit´e (Ω, (Ω,F ,P) et Exercice Exercice 15. Soient (F t )t≥0 une filtration d´ E n s’inspi s ’inspirant rant de la d´emonstration emonst ration (M t )t≥0 une martingale continue par rapport a` la filtration (F t )t≥0 . En du th´eor` eo r`eme em e d’a d ’arrˆ rrˆet et de Doob, Doob , montrer mon trer que qu e si T 1 et T 2 sont deux temps d’arrˆet et presque p resque sˆ surement uˆrement born´es es de la filtratio filt ration n (F t )t≥0 tels que T 1 ≤ T 2 et E(| M T T1 |) < +∞, E(| M T T2 |) < +∞, alors, E(M T T2 | F T T1 ) = M T T1 .
En d´eduire edu ire que le processus (M t∧T 2 )t≥0 est une martingale relativement a` la filtration (F t∧T 2 )t≥0 . Indiquer o` u est apparue l’hypoth`ese ese de continuit´e des trajectoires dans votre d´emonstration. emonst ration. efinie efinie sur un espace espace de probabilit´ probabilit´e (Ω, (Ω,F ,P) et Exercice Exercice 16. Soient (F t )t≥0 une filtration d´ (M t )t≥0 une sous-martingale par rapport `a la filtration (F t )t≥0 dont les trajectoires sont continues `a droite et limit´ees ees a` gauche. gauch e. En s’inspirant s’insp irant toujours toujo urs de la d´emonstration emonstrati on du th´eor` eor`eme eme d’arrˆet et de Doob, montrer m ontrer que si T 1 et T 2 sont deux temps d’arrˆet et presque p resque sˆ surement uˆreme nt born´es es de la filtration (F t )t≥0 tels que T 1 ≤ T 2 , et E(| M T T 1 |) < +∞, E(| M T T2 |) < +∞, alors E(M T T 1 ) ≤ E(M T T2 ).
On a vu que si X est une variable al´eatoire eatoire F -mesurable -mesurable et int´ int´egrable, egrable, alors le processus processus (E(X | F t ))t≥0 est une martingale relativement `a la filtration filtration (F t )t≥0 . Le th´eor` eo r`eme em e suivant su ivant donn do nnee des conditions conditio ns suffisantes pour qu’une martingale puisse s’´ecrire ecrire ( E(X | F t ))t≥0 .
eor`eme eme de convergence conve rgence de Doob) Th´ eor` eme 17. (Th´eor` (Ω,F ,P) et (M t )t≥0 une martinSoient (F t )t≥0 une filtratio filt ration n d´efinie efini e sur s ur un espace de probabilit´ probabi lit´e (Ω, martingale par rapport a` la filtration (F t )t≥0 continue a ` droite avec des limites ` a gauche. Les conditions suivantes suivan tes sont ´equivalente equiv alentes: s: (1) (M (M t )t≥0 converge dans L1 ; converge presque sˆurement urement vers une variable varia ble al´eatoire eatoi re X int´ in t´egrab eg rable le et F -mesurable -mesurable (2) (M (M t )t≥0 converge telle que M t = E(X | F t ),t ≥ 0;
es t unifo uni form´ rm´ement eme nt int´ in t´egrabl eg rable. e. (3) La famille (M t )t≥0 est
29
Preuve.
Nous allons tout d’abord montrer que si ( M t )t≥0 est born´ bo rn´ee ee dans dan s L1, i.e. sup E(| M t |) < +∞ t≥0
alors (M (M t )t≥0 converge presque sˆurement ure ment vers une variable varia ble al´eatoir eat oiree int´ i nt´egrabl egr ablee X . On remarque tout d’abord que
{ω ∈ Ω,M t (ω) converge} = ω ∈ Ω, lim lim sup sup M t (ω ) = lim lim inf inf M t (ω) t→+∞
t→+∞
D´emontr emo ntrer er que qu e (M ( M t )t≥0 converge presque sˆurement urement revient donc `a d´emon em ontr trer er P
ω ∈ Ω, lim lim sup sup M t (ω) > lim lim inf inf M t (ω) t→+∞
t→+∞
Raisonnons par l’absurde en supposant que P
ω ∈ Ω, lim lim sup sup M t (ω) > lim lim inf inf M t (ω) t→+∞
t→+∞
Dans ce cas, on peut trouver a < b tels que: P
= 0.
> 0.
ω ∈ Ω, lim lim sup sup M t (ω ) > a > b > lim lim inf inf M t (ω ) t→+∞
t→+∞
> 0.
L’id´ee ee est maintenant maintena nt d’´etudier etudier les oscillations oscill ations de ( M t )t≥0 entre a et b. Nous allons ´etudier etudier ces ∗ oscillations en des temps dyadiques. Pour N ∈ N et n ∈ N, on note
Dn,N = et
kN ,0 ≤ k ≤ 2n , n 2
D = ∪n,N Dn,N . Soit maintenant N (a,b,n,N ) a,b,n,N ) le plus grand entier k pour lequel on peut trouver des ´el´ el´ements ements de Dn,N , 0 ≤ q1 < r 1 < q 2 < r 2 < ... < q k < r k ≤ N v´erifi er ifiaant M qi < a,M ri > b. On consid` con sid`ere ere alo alors rs 2n
Y n,N n,N =
C kN (M kN − M (k−1)N ), n n 2
k=1
2n
2
o` u C k ∈ {0,1} est r´ecurs ecu rsive ivemen mentt d´efini efin i par: pa r: C 1 = 1M 0
2n
Comme (M (M t )t≥0 est une martingale, il est facile de voir que E(Y n,N n,N ) = 0.
D’autr D’a utree part, par t, par d´efiniti efin ition on mˆeme eme de N (a,b,n,N ), a,b,n,N ), Y
≥ (b
) N (a,b,n,N ) a,b,n,N )
max(
M 0)
30
Par cons´ co ns´equen eq uent, t, (b − a)E ( N (a,b,n,N )) a,b,n,N )) ≤ E (max(a (max(a − M N N ,0)) ≤| a | +E(| M N N |) ≤| a | +sup E(| M t |). t>0 t>0
et donc
(b − a)E sup N (a,b,n,N ) a,b,n,N ) n,N
≤| a | +sup E(| M t |), t>0 t>0
et ainsi, presque sˆurement urement supn,N N (a,b,n,N ) a,b,n,N ) < +∞. Cela implique impliqu e ´evidemment evidemm ent P
ω ∈ Ω, lim
sup
M t (ω ) > a > b > lim
t→+∞,t∈D ,t∈D
inf
t→+∞,t∈D ,t∈D
M t (ω)
= 0.
Cependant, comme (M (M t )t≥0 est continue `a droite, on a, P
=P
ω ∈ Ω , lim
sup t→+∞,t∈D ,t∈D
M t (ω ) > a > b > lim
inf
t→+∞,t∈D ,t∈D
ω ∈ Ω, lim lim sup sup M t (ω ) > a > b > lim lim inf inf M t (ω ) t→+∞
t→+∞
M t (ω)
.
Ce qui est absurde. Ainsi (M ( M t )t≥0 converg convergee presque presque sˆurement urement vers une variable al´eatoire eatoir e X qui est F mesurable. Voir que X est int´egrable egrab le est une cons´equence equence du lemme de Fatou. Ainsi, une martingale continue `a droite droit e et limit´ee ee `a gauche et born´ee ee dans L1 converge presque sˆ urement ure ment vers une variable varia ble al´eatoir eat oiree int´egrabl egr able. e. A l’aide l’a ide de ce r´esultat esul tat pr´elimina elim inaire ire,, d´emontro emo ntrons ns mai maintena ntenant nt notre not re th´eor` eor`eme. eme . 1 Supposons que (M (M t )t≥0 converge dans L . Dans ce cas (M ( M t )t≥0 est born´ bor n´ee ee dans L1 , d’o` u la convergence presque sˆure ure vers une variable al´eatoire eatoir e X qui est F mesurable mesurab le et int´egrable. egrab le. Soient t ≥ 0 et A ∈ F t , on a pour tout s ≥ t, E(M s 1A ) = E(M t 1A )
Quand s → +∞, le th´eor` eo r`eme em e de conver co nverge genc ncee domi do min´ n´ee ee donn do nnee E(X 1A ) = E(M t 1A ).
Ainsi E(X | F t ) = M t .
Supposons maintenant que (M (M t )t≥0 converge presque sˆurement urement vers une variable al´eatoire eatoire X int´egra eg rabl blee et F -mesurable -mesurable telle que M t = E(X | F t ),t ≥ 0. On a alors supt≥0 | M t |< +∞ p.s. et donc pour A ≥ 0, E(| M t | 1|M t |≥A |≥A ) = E(| E(X | F t ) | 1|M t |≥A |≥A )
≤ E(| X | 1|M t |≥A |≥A ) ≤ E(| X | 1supt≥0 |M t |≥A |≥A ). Ce qui nous donne l’int´egrabilit´ egrab ilit´e uniforme. unifor me. Enfin, supposons que la famille (M ( M t )t≥0 est uniform´ unif orm´ement eme nt int´ i nt´egrabl egr able. e. Dans Dan s ce c e cas c as elle ell e est e st born´ bo rn´ee ee 1 dans L , et donc converge presque sˆurement. urement. La convergence presque sˆure ure entraine la convergence en probabilit´ proba bilit´e et on sait que la convergence en probabilit´ proba bilit´e plus l’uniforme l’unif orme int´egrabilit´ egrab ilit´e entraine 1 la convergence L .
31
Tant que faire se peut, nous essayons essayons de travailler travailler avec des versions r´eguli` eguli` eres eres des processus. Le crit` cri t`ere ere de continui cont inuit´ t´e de Kolmog Kol mogorov orov allait all ait d´ej` ej`a dans cette direction. Concernant l’existence de bonnes versions pour les sur-martingales sur-martingales (et du mˆ eme eme coup pour les sous-martingales sous-martingales et les martingales) martin gales),, on a un th´eor` eor`eme eme important. impo rtant. (Ω,F ,P). Si les Definition 18. Soit (F t )t≥0 une filtration d´ efinie efinie sur un espace de probabilit´e (Ω,
hypoth`eses eses suivantes suiva ntes sont satisfaites satisf aites:: (1) Si A ∈ F est tel que P(A) = 0, alors tous les sous-ensembles de A sont dans F 0 ; (2) La filtration (F t )t≥0 est continue a ` droite, i.e. pour tout t ≥ 0
F t = ∩ε>0 ε>0 F t+ε alors on dira que l’espace de probabilit´e filtr´e (Ω, (Ω,(F t )t≥0 ,F ,P)
satisfait les conditions usuelles. (Ω,F ,P) et Remarque Remarque 19. Soient (F t )t≥0 une filtration d´ efinie efinie sur un espace de probabilit´e (Ω, (M t )t≥0 une (sous, sur) martingale continue ` a droite d roite et limit´ lim it´ee ee a` gauche par rapport a` la filtration (F t )t≥0 . Alors Alor s l’espace l’e space de probabilit´ probabi lit´e filtr´ filt r´e (Ω, (Ω,(F t )t≥0 ,F ,P)
peut ˆetre etre plong´ plo ng´e canoniqu canon iqueme ement nt dans dan s un espace de probabilit´ probabi lit´e filtr´ filt r´e (Ω, (Ω,(Gt )t≥0 ,G ,P)
qui satisfait les conditions usuelles. En effet, pour G , on prend la P-compl´ -com pl´etio et ion n de F et
Gt = ∩u>t σ(F u , N N ) o` u u N est l’ensemble des ensembles de mesure nulle pour P. De plus (M t )t≥0 est alors une (sous, sur) martingale par rapport a` la filtration (Gt )t≥0 (ce dernier point n’est pas trivial, nous le laissons cependant cependant en exercice !). L’espace (Ω, (Ω,(Gt )t≥0 ,G ,P)
s’appelle la compl´ compl´etion etion usuelle de (Ω, (Ω,(F t )t≥0 ,F ,P).
satis fait les conditions conditio ns (Ω,(F t )t≥0 ,F ,P) un espace de probabilit´e filtr´e qui satisfait Exercice 20. * Soient (Ω, usuelles et (X t )t≥0 un processus adapt´ ada pt´e a` la filtration (F t )t≥0 dont les trajectoires sont continues ` a droite et ont des limites a` gauche. Soit K un ensemble compact de R. Montrez que le temps T = inf {t ≥ 0,X t ∈ K }
est un temps d’arrˆet et de la filtration (F t )t≥0 . Nous en venons maintenant `a notre not re th´eor` eor`eme eme de r´egular egu larisa isatio tion n sous sou s des ”hypoth` ”hyp oth`eses eses usuelle usu elles”. s”.
(T h´eor` eo r`eme em e de r´egul eg ular aris isat atio ion n de Doob) Doob ) Th´ eor` eme 21. (Th´ Soient (Ω, espacee de prob probabilit abilit´ ´e filtr´ filtr´e qui satisfait satisfait les condition conditionss usuelles et (Ω,(F t )t≥0 ,F ,P) un espac (M t )t≥0 une sur-martingale par rapport a` la filtration (F t )t≥0 . Supposons que la fonction t → ˜ t )t≥0 qui est une modification de E(M t ) est continue a ` droite. Alors il existe un processus (M (M t )t≥0 et tel que: ˜ t )t≥0 est es t adap ad apt´ t´e a` la filtration (F t )t≥0 ; (1) (M ˜ t )t≥0 sont des fonctions localement (2) Les trajectoires de (M localement born´ born´ees ees qui en tout point sont continues ` a droite et ont des limites a` gauche;
32
˜ t )t≥0 une sur-martingale par rapport a` la filtration (F t )t≥0 . (3) (M Preuve.
L’id´ee ee est encore d’´etudier etudier les oscillation oscill ationss de ( M t )t≥0 . Nous reprenons donc certaines notations de la d´emonstr emo nstrati ation on du th´eor` eor`eme eme de convergen conver gence ce de Doob. Do ob. ∗ Pour N ∈ N et n ∈ N, on note
Dn,N =
kN ,0 ≤ k ≤ 2n , n 2
DN = ∪n Dn,N et
D = ∪n,N Dn,N . Pour a < b, on note N (a,b,n,N ) a,b,n,N ) le plus grand entier k pour po ur lequel leq uel on peut pe ut trouver tro uver des ´el´ el´ements ement s de Dn,N , 0 ≤ q1 < r 1 < q 2 < r 2 < ... < q k < r k ≤ N v´erifi er ifiaant M qi < a,M ri > b. On note maintenant Ω ∗ l’ensemble des ω ∈ Ω tels que: (1) ∀t ≥ 0, lims→t,s>t,s∈D t,s>t,s∈D M s (ω ) existe et est finie; (2) ∀t > 0, lims→t,s
ω ∈ Ω, sup | M t (ω ) |< +∞ et sup N (a,b,n,N ) a,b,n,N ) < +∞ . t∈DN
n∈N
Par cons´ con s´equent, eque nt, Ω∗ ∈ F . Par le mˆeme eme type de raisonnement que dans la d´emonstration emonstration du ∗ th´eor` eor`eme eme de convergence de Doob, Doo b, on montre que P(Ω ) = 1 (essayez (essayez de le d´emontrer emontrer proprement ment !). ˜ t )t≥0 de la mani` Pour t ≥ 0, on d´efinit efinit alors notre processus ( M man i`ere ere suivante: suivant e: – Si ω ∈ Ω∗ , ˜ t (ω ) = M li m M s (ω) s→t,s>t,s∈D t,s>t,s∈D
– Si ω ∈ / Ω∗ , ˜ t (ω) = 0. M ˜ t )t≥0 sont des fonctions localement born´ees Il est clair que les trajectoires de ( M ees qui en tout point ˜ sont continues `a droite et ont des limites `a gauche. Montrons que ( M t )t≥0 est la modification de (M t )t≥0 souh so uhai ait´ t´ee. ee . Tout d’abord, on remarque que pour t ≥ 0, lim
s→t,s>t,s∈D t,s>t,s∈D
M s
est mesurable par rapport `a ∩s>tF s = F t . D’autre part, Ω \Ω∗ est de mesure nulle et donc ˜ t )t≥0 est bien appartient `a F 0 . Ainsi (M bie n adapt´ ada pt´e `a la filtration (F t )t≥0 . ˜ Montrons maintenant que (M t )t≥0 est une modification de (M ( M t )t≥0 . Soit t ≥ 0. Par construction, on sait que presque sˆurement: urement: lim
˜ t. M s = M
33
Montrons que cette convergence a aussi lieu dans L1 . Pour cela, il suffit de montrer que pour toute suite (s (sn )n∈N d’´el´ements nt s de D qui converge en d´ecroissant ecrois sant vers t, la famille (M ( M sn )n∈N est unifo uni form´ rm´ement em ent int´egra eg rabl ble. e. Soit ε > 0. Comme u → E(M u ) est, e st, par hypoth`ese, ese, continue `a droite, on peut trouver un s ∈ R tel que t < s et tel que pour tout s > u > t, t, ε 0 ≤ E(M u ) − E(M s ) ≤ . 2 Pour s > u > t et λ > 0, on a alors: E(| M u | 1|M u |>λ ) = −E(M u 1M u <−λ ) + E(M u ) − E(M u 1M u ≤− ≤−λ λ)
≤ −E(M s 1M u <−λ ) + E(M u ) − E(M s 1M u ≤− ≤−λ λ) ε ≤ E(| M s | 1|M u |>λ ) + . 2 1 Maintenant, comme M s ∈ L , on peut trouver un δ > 0 tel que pour tout F ∈ F , ε P(F ) F ) < δ implique E(| M s | 1F ) < . 2 Mais pour t < u < s, s, E(| M u |) E(M u ) + 2 E(max(−M u ,0)) P(| M u |> λ) λ) ≤ = . λ λ Par l’in´egalit´ egalit´e de d e Jensen, J ensen, on voit que le processus pro cessus (max( −M u ,0))t λ) λ) ≤ . λ On peut donc trouver A > 0 tel que pour tout t < u < s, s, P(| M u |> A) A ) < δ,
Et on alors pour tout t < u < s, s, E(| M u | 1|M u |>λ ) < ε.
Cela montre bien que pour toute suite ( sn )n∈N d’´el´eme em ents nt s de D qui converge en d´ecroissant ecrois sant vers t, la famille (M (M sn )n∈N est uniform´ unifor m´ement ement int´egrable. egrabl e. Ainsi la convergence ˜ t. lim M s = M s→t,s>t,s∈D t,s>t,s∈D
a aussi lieu dans L1 . Comme (M (M t )t≥0 est une sur-martingale, pour s ≥ t on a E (M s | F t ) ≤ M t .
Par cons´ co ns´equen eq uent, t, lim
s→t,s>t,s∈D t,s>t,s∈D
E (M s | F t ) ≤ M t .
Par conti co ntinui nuit´ t´e L1 de l’esp´erance erance conditionnelle, on obtient donc
˜ t | F t ≤ M t . E M D’o` u
˜ ≤ M M
34
˜ t est car M es t adap ad apt´ t´e `a F t . D’un autre cˆot´ ot´e, e, comm co mmee u → E(M u ) est continue `a droite, lim
s→t,s>t,s∈D t,s>t,s∈D
E(M s ) = E(M t ).
Mais on a aussi par convergence L1 , lim
s→t,s>t,s∈D t,s>t,s∈D
E(M s ) = E(
li m
s→t,s>t,s∈D t,s>t,s∈D
˜ t ), M s ) = E(M
D’o` u ˜ t ) = E(M t ). E(M ˜ t est donc une variable al´eatoire M t − M eatoire positive d’esp´ erance erance nulle. On O n en conclut que presque ˜ ˜ sˆ urement urement M t = M t , i.e. ( M t )t≥0 est une modification de (M ( M t )t≥0 . Une modification d’une sur˜ martingale martingale restant restant une sur-martingal sur-martingale, e, (M t )t≥0 est ´egalement egalement une sur-martingale par rapport a` la filtration (F t )t≥0 . Cela Cel a conclu con clutt la d´emonst emo nstrat ration ion du th´eor` eor`eme eme de r´egular egu larisat isation ion (ouf!) (ou f!)..
´galites ´s martingales e e 3. Inegalit
Dans ce paragraphe nous pr´esentons esentons deux in´egalit´ egalit´es es fondamentales, une nouvelle fois dues `a Doob. Th´ eor` eme 22. (In´egalit´ ega lit´es es maxima max imales les de Doob)
(Ω,F ,P) et (M t )t≥0 une marSoient (F t )t≥0 une filtration d´efinie efinie sur un espace de probabilit´e (Ω, tingale continue par rapport ` a la filtration (F t )t≥0 . p (1) Soient p ≥ 1 et T > 0. Si E(| M T T | ) < +∞, alors pour tout λ > 0, P
sup | M t |≥ λ
0≤t≤T
≤
p E (| M T T | )
λ p
.
p (2) Soient p > 1 et T > 0. Si E(| M T T | ) < +∞ alors,
E
p
sup | M t |
0≤t≤T
p ≤ p − 1
p
p E(| M T T | ).
Preuve. p p (1) Soient p ≥ 1 et T > 0. Si E(| M T T | ) < +∞), alors le processus ( | M t | )0≤t≤T est une sous-martingale (v´erifiez erifiez le !). Soit λ > 0. On consid`ere ere le temps d’arrˆet et presque sˆ ureme ur ement nt b orn´ or n´e τ = inf {s ≥ 0 tel que | M s |≥ λ} ∧ T ,
avec la convention que inf ∅ = +∞. On a alors p p E(| M τ τ | ) ≤ E(| M T T | ).
Mais par d´efinition efiniti on de τ , τ , p p | M τ τ | p ≥ 1sup0≤t≤T |M t |≥λ T | . |≥λ λ + 1sup0≤t≤T |M t |<λ | M T
Par cons´ co ns´equent equ ent,, P
sup | M t |≥ λ
0≤t≤T
≤
E | M T T
| p
1sup0≤t≤T |M t |≥λ |≥λ λ p
≤
p E (| M T T | )
λ p
.
35
(2) Soient p ≥ 1 et T > 0. Supposons dans un premier temps que E
p
sup | M t |
0≤t≤T
< +∞.
La d´emon em onst stra rati tion on pr´ec´ ec´edent ed entee nous no us a mo montr´ ntr´e que p our ou r λ > 0, P
sup | M t |≥ λ
0≤t≤T
E | M T T | 1sup0≤t≤T |M t |≥λ |≥λ
≤
λ
.
Par cons´ co ns´equent equ ent,, +∞
p−1 P λ p−
+∞
sup | M t |≥ λ dλ ≤
0≤t≤T
0
0
Maiss par le th´eor` Mai eor`eme eme de Fubini, +∞
p−1 P λ p−
sup | M t |≥ λ dλ =
0≤t≤T
0
p−2 E | M T λ p− T | 1sup0≤t≤T |M t |≥λ |≥λ dλ.
sup0≤t≤T |M t |(ω)
Ω
p−1 λ p− dλ dP(ω)
0
1 = E p
p
sup | M t |
0≤t≤T
.
De la mˆeme em e ma mani ni``ere, er e, +∞
0
p−2 E | M T λ p− T | 1sup0≤t≤T |M t |≥λ |≥λ dλ =
1 E p − 1
Ainsi,
E
p
sup | M t |
0≤t≤T
≤
p E p − 1
Mais Ma is par pa r l’in´ l’ in´egal eg alit´ it´e de H¨older, older, E
p− p−1
sup | M t |
0≤t≤T
d’o` u
E
p
sup | M t |
0≤t≤T
Ainsi, si E
| M T T |
≤
E
p
sup | M t |
0≤t≤T
sup | M t |
0≤t≤T
1
p ≤ E (| M T T | ) p E
1
| M T T |
p−1 p
sup | M t |
p
sup | M t |
0≤t≤T
.
.
p
0≤t≤T
| M T T |
,
p−1 p
.
< +∞, on obtient bien le r´esultat esulta t souhait´ souhai t´e: e: p
p ≤ p − 1
sup | M t |
0≤t≤T
p− p−1
p− p−1
p p E (| M T T | ) p E p − 1
sup0≤t≤T | M t |
p
p E(| M T T | ).
Autrement, pour N ∈ N, soit τ N T . En appliquant ce qui N = inf {t ≥ 0, | M t |≥ N } ∧ T . pr´ec´ede a` la martingale (M (M t∧τ N ) , on obtient N t≥0 E
p
sup | M t∧τ N | N
0≤ ≤T
≤
p
p
p
1
p E(| M T T | ),
36
et le th´eor` eor`eme eme s’en suit par convergen conver gence ce domin´ dom in´ee. ee.
deu x in´egalit´ ega lit´es es pr´ec´ ec´edente ede ntess restent resten t vraies vraie s dans dan s le cas o` u la martingale est Remarque 23. Les deux seulement seulem ent suppos´ee ee continue a` droite avec des limites `a gauche. (A votre avis, la d´ emonstration emonstration pr´ec´ ec´edente edente est elle el le suffisante suffisa nte pour couvrir ce cas ?) ´ ` eoremes emes de Doob 4. Quelques applications des theor
4.1. R´ ace ac e au th´eor` eo r`eme eme de r´egul eg ular arisa isati tion on egularisation egularisat ion des processus proce ssus de Feller-Dynkin. eller-Dyn kin. Grˆ de Doob, il est possible de pr´eciser eciser consid´erablement erablement la proposition 18 du chapitre 1 sur l’existence de processus de Markov (voir section 4.1). Tout d’abord nous ´elargissons elargissons la d´efinition efinition de processus de Markov.
probabi lit´e filtr´ filt r´e et (X t )t≥0 un processus (Ω,(F t )t≥0 ,F ,P) un espace de probabilit´ Definition Definition 24. Soient (Ω, adap ad apt´ t´e a` la filtration (F t )t≥0 . On dit que (X t )t≥0 est un processus de Markov de fonction de transition {P t ,t ≥ 0} relativement a` la filtration (F t )t≥0 si pour toute tou te foncti fon ction on bor´elienne eli enne born´ee ee f : R → R, E(f ( f (X s+t ) | F s ) = (Pt f )( f )(X X s ),s,t > 0. a une filtration (F t )t≥0 est un processus Remarque 25. Un processus de Markov relativement ` de Markov relativement a` sa filtration naturelle. Notre but est maintenant de s’int´ eresser eresser `a l’existence de bonnes versions pour un processus de Markov Markov de fonction fonction de transition transition donn´ee. ee. Pour cela, on introduit introduit la notion de fonction fonction de transition de Feller-Dynkin. On note C0 (R+ ,R) l’ensemble des applications continues f : R → R telles que lim −∞ f = lim+∞ f = 0. Definition 26. Soit {P t ,t ≥ 0} une fonction de transition. On dit que {P t ,t ≥ 0} est de Feller-
Dynkin si les hypoth` eses eses suivantes sont satisfaites: (1) Pt : C0 (R+ ,R) → C0 (R+ ,R); (2) P0 = Id; (3) ∀f ∈ C0 (R+ ,R),∀x ∈ R, limt→0 (Pt f )( f )(x x) = f ( f (x). On a alo alors rs le th´eor` eor`eme eme suivant sui vant que l’on l’o n admett adm ettra ra mai maiss qui est une cons´ con s´equence eque nce du th´eor` eor`eme eme 18 du chapitre 1 ainsi que du th´eor` eor`eme eme de r´egularisatio egular isation n de Doob: Doo b: Th´ eor` eme 27. Soit {P t ,t ≥ 0} une fonction de transition de Feller-Dynkin. Alors on peut (Ω,(F t )t≥0 ,F ,P) ainsi qu’un processus (X t )t≥0 d´efini trouver trouv er un espace de probabilit´ probabi lit´e filtr´ filt r´e (Ω, efi ni sur su r
cet espace tels que: (1) Les trajectoires de (X t )t≥0 sont continues `a droite avec des limites a` gauche; a` (2) (X (X t )t≥0 est un processus de Markov de fonction de transition {P t ,t ≥ 0} relativement a la filtration (F t )t≥0 . 4.2. Martinga cons tout d’abord par quelques rappels sur la notion Mart ingales les et densit´ dens it´ es. es. Commen¸cons de probabilit´es es absolument continues l’une par rapport `a l’autre. Soit (Ω, (Ω,F ) un espace muni d’une tribu F . (Ω,F ). On dit que P est absolument Definition 28. Soient P et Q deux deu x mesures mes ures de probabilit´ probabi lit´e sur su r (Ω, continue par rapport a a` P, si pour tout A ∈ F , Q(A) = 0 implique Q(A) = 0. On notera alors P Q. Si P Q et Q P, on dit que les probabilit´ probabilit´es es P et Q sont ´equivalentes, equivalentes, ce que nous noterons P Q
37
Le th´eor` eo r`eme em e suiva su ivant nt du ˆ `a Radon et Nikodym caract´erise erise l’absolue l’abso lue continuit´e des d es mesures. mesures .
e sur (Ω, (Ω,F ). Alors Th´ eor` eme 29. (Radon-Nikodym) Soient P et Q deux mesures de probabilit´ P Q si et seulement il existe une variable al´ eatoire eatoire D, F -mesurable telle que pour tout A ∈ F , P(A) =
DdQ.
A
D s’appelle s’appel le alors la densit´e de d e P par rapport a a` Q et on notera dP D= . dQ D’autre D’a utre part sous sou s les mˆemes eme s hypoth` hypot h`eses eses P Q si et seulement si D est strictement positive P presque sˆ urement urement et dans ce cas: dQ 1 = . dP D Soit maintenant (Ω, (Ω,(F t )t≥0 ,F ,P) un espace de probabilit´e filtr´e. e. On suppose que la filtration (F t )t≥0 est continue `a droite et on note:
F ∞ = σ (F t ,t ≥ 0) . Pour t ≥ 0, on note P/F t la restriction de P `a F t . Soit maintenant Q une probab pro babili ilit´ t´e sur F ∞ telle que pour tout t ≥ 0, Q/F t P/F t .
(Ω,(F t )t≥0 ,F ,P), il existe une martingale l’e space de probabilit´ probabi lit´e filtr´ filt r´e (Ω, Propositio Proposition n 30. Sur l’espace (Dt )t≥0 qui est continue a ` droite avec des limites a` gauche telle que pour tout t ≥ 0, dQ/F t Dt = , P − p.s. dP/F t Preuve.
Exercice.
Proposition 31. Les propri´ prop ri´et´ et´es es suiv su ivant antes es sont so nt ´equi eq uiva vale lent ntes es:: (1) Q/F ∞ P/F ∞ ;
es t unif un ifor orm´ m´emen em entt int´ int ´egrabl eg rable; e; (2) La martingale (Dt )t≥0 est (3) (D (Dt )t≥0 converge dans L1 ; (4) (D (Dt )t≥0 converge onverge presque presque sˆ urement urement vers une variable al´eatoire eatoire D int´ in t´egrabl eg rablee et F ∞ mesurable telle que Dt = E(D | F t ),t ≥ 0. Preuve.
Exercice.
´ de marque: J. Doob 5. Un invite
Born: 27 Feb 1910 in Cincinnati, Ohio, USA Died: 7 June 2004 in Clark-Lindsey Village, Urbana, Illinois, USA
Joseph Doob’s parents were Mollie Doerfler and Leo Doob. Joseph’s interest in science started when he was at grammar school. There he became interested in radio and constructed his own crystal radio set. When he was at high school his interest in radio increased. He learnt Morse
38
code, obtained a licence to transmit radio signals, and started to use a radio transmitter which he had built himself. At this stage in his education, given his hobby, he felt that physics was the right subject for him to study at university, and having sought advice from the principal of his high school, he applied to study at Harvard. When he entered Harvard in September 1926 he registered for courses in physics but, by the end of his first year of study, Doob had decided that he did not want to proceed to a physics degree. His favourite course during his first year had been calculus and its applications so, since he had always enjoyed mathematics, there was an obvious direction in which to take his studies. In his second year of study Doob registered for courses in mathematics. He was taught calculus by Osgood and this led to his taking the third year calculus course at the same time. He said in an interview: [Osgood] taught my sophomore calculus course, using his own textbook. I did not suspect that he was an internationally famous mathematician and of course I had no idea of mathematical research, publication in research journals, or what it took to be a university professor. Osgood was a large, bearded portly gentleman who took life and mathematics very seriously and walked up and down in front of the blackboard making ponderous statements. After a few weeks of his class I appealed to my adviser Marshall Stone to get me into a calculus section with a more lively teacher. Of course Stone did not waste sympathy on a student who complained that a teacher got on his nerves, and he advised me that if I found sophomore calculus too slow I should take junior calculus at the same time! ... Through the fortunate accident of having a tedious instructor I had gained a year! The analytic function course, taken in my junior year with Osgood as teacher, was my first course in rigorous analysis and I took to it right away in spite of his mannerisms . Doob was awarded a AB by Harvard in 1930 and asked his advisor Marshall Stone if he would supervise his doctorate. Stone suggested that he would be better with J L Walsh as his supervisor. Doob wrote: Walsh accepted me and we had a fine relationship: he never bothered me, and conversely. Harvard suited my character in that there was so little supervision that I could neglect classes for a considerable time while cultivating a side interest, sometimes mathematical sometimes not . He obtained a Master’s Degree in 1931, the same year he married Elsie Haviland Field (on 26 June 1931). Joe and Elsie had three children; Stephen, Peter and Deborah. He continued research and was awarded his doctorate in 1932 for a thesis entitled Boundary Values of Analytic Functions. The ideas which led him to study the relation between analytic functions and their limit values at the boundaries of their domains came through questions that he was asked by Wladimir Seidel who was a postdoctoral assistant at Harvard at the time. However, the level of undergraduate mathematics at Harvard at this time was not particularly high, so with only two years of highly specialised research after his undergraduate degree, Doob had not obtained a broad mathematical education: Getting a Ph.D. in two years left me woefully ignorant of almost everything in mathematics not connected with my thesis work. I had missed fertile contact with Birkhoff, Kellogg, and Morse, all three at Harvard and leaders in their fields . After completing completing his doctorate do ctorate,, Doob Do ob was supported by Birkhoff in an application for a two two year National Research Council Fellowship. Since in 1932 Elsie, Doob’s wife, was a medical student in New York, he had applied to work at Columbia University with J F Ritt. However, these were difficult times and Doob could not look forward to the future with any confidence. The Great Depression had begun in 1929 and by 1932, the year Doob went to New York, one quarter of the workers in the United States were unemployed. Despite his efforts to look for academic positions he could see little chance of success. He was advised to speak to Harold Hotelling, the professor of statistics at Columbia University, since statistics was one subject that was expanding despite
39
the Depression. Hotelling managed to obtain a Carnegie fellowship to enable Doob to remain at Columbia University and work with him on probability during the year 1934-35. He was appointed as Associate Professor at the University of Illinois in 1935. He said: I was charmed by the small town atmosphere of Urbana as soon as I arrived and never wanted to leave, even though the atmosphere changed through the years. His first student was Paul Halmos who completed his doctorate with the thesis Invariants of certain stochastic transformation: The mathematical theory of gambling systems in 1938. At the same time Doob was supervising Warren Ambrose whose thesis Some properties of measurable stochastic processes was submitted a year later. Doob’s next outstanding doctoral student was David Blackwell who entered the University of Illinois in the year Doob was appointed there and completed completed his doctorate on Properties of Markov Markov chains chains in 1941. Doob became a full professor professor at the University of Illinois in 1945. However before this he had a period away from Urbana undertaking war work during World War II. In 1942 Veblen approached him to work in Washington for the navy on mine warfare. He worked there until 1945 when he returned to the University of Illinois. Illinois. Doob’s work was in probability and measure theory, in particular he studied the relations between probability and potential theory. His papers look at many of the areas of probability to which Doob made major contributions such as separability, stochastic processes, martingales, optimal stopping, potential theory, and classical potential theory and its probabilistic counterpart. Doob built on work by Paul L´evy evy and, during the 1940’s and 1950’s, 1950’s, he developed developed basic martingale theory and many of its applications. Doob’s work has become one of the most powerful tools available to study stochastic processes. In 1953 he published a book which gives a comprehensive treatment of stochastic processes, including much of his own development of martingale theory. This book Stochastic Processes has become a classic and was reissued in 1990. In fact he undertook the work of writing the book because he had become intellectually bored while undertaking war work in Washington and so was enthusiastic when, in 1945, Shewhart invited him to publish a volume in the Wiley series in statistics. In the introduction to Stochastic Processes Doob states that: ... [a stochastic process is] any process running along in time and controlled by probabilistic laws ... [more precisely] any family of random variables X t [where] a random variable is ... simply a measurable function . The spirit of the book is clear by his statement: ... probability theory is simply a branch of measure theory, with its own special emphasis and field of application ... David David Kendall Kendall reviewing reviewing Stochastic Stochastic Processes Processes writes: writes: Very few readers will work steadily through the whole of this difficult book, but it cannot fail to exercise a decisive influence on the development of its subject . Another classic text by Doob is Classical potential theory and its probabilistic counterpart first published published in 1984 and reprinted reprinted in 2001. His interest in potential theory went went back to 1955 when he was invited to speak at the Berkeley Symposium on Probability and Statistics. He decided to speak on Axiomatic Potential Theory and from then on he undertook research on the subject. He corresponded with Brelot, a leading expert on the topic, and many years later Brelot said that he wanted to write a text on modern potential theory. He asked Doob to cooperate with him in writing the sections on probability theory but in the end Doob wrote the whole book. Sharpe, reviewing the book writes: This is the long-awaited book by the author, developing in parallel potential theory and part of the theory of stochastic processes. It is divided into two quite distinct parts, each occupying about half the volume. The first half concerns the potential theory of the Laplace operator (i.e. classical
40
potential theory) and of the heat operator and its adjoint (i.e. parabolic potential theory), while the second half treats the probabilistic counterparts (interpreted liberally) to the objects in the first half. ... Graduate students and researchers in probability or classical analysis will find much to learn from this fine book by a master of both areas. Doob is also the author of a well known book on measure theory published in 1994 when he was 84 years old. It presents: ... what measure theory every would-be analyst should learn . Chatterji, reviewing the text writes: ... this text, written by one of the most illustrious probabilists alive, is an interesting addition to the textbook literature in measure theory; every serious mathematical library should acquire it and teachers of measure theory - especially those who are analysts by profession - should not fail to consult it for their future courses. As we indicated above, Doob was a member of the faculty of the University of Illinois from the time of his appointment appointment in 1935. He retired retired in 1978 but remained extremely extremely active continuin continuingg to write books and research papers. One fact which we should mention is that he was Commissar of the Champaign-Ur Champaign-Urbana bana Saturday Hike Hike for about 25 years. years. The tradition tradition of the Saturday Hike Hike started in 1909 and Doob joined the hikers in 1939 and went regularly every Saturday. Article by: J J O’Connor and E F Robertson,
41
CHAPITRE CHAPITRE 4: MOUVEME MOUVEMENT NT BROW BROWNIEN NIEN
Le m mouvemen ouvementt brownien est une description du mouvement al´eatoire eatoire de particules qui ne sont soumises a` aucune autre interaction interactio n que les chocs. Ce comportement comp ortement a ´et´ et´e d´ecrit ecrit physiquement physiqueme nt pour po ur la premi` pre mi`ere ere fois foi s par le biol b iologi ogiste ste Robert Rob ert Brown B rown en 1827. 1 827. Il fut f ut ´etudi´ etud i´e math´ ma th´ematiqu ema tiquement ement au 20`eme eme si`ecle ecle notamm not amment ent par Bachelie Bache lier, r, Einstei Ein stein, n, Wiener, Wien er, L´evy, evy, Yor. D’´enorm´ enor m´ement ement de points po ints de vue, il i l constitue const itue le processus pro cessus ”canoniqu ” canonique” e” de la l a th´eorie eorie des probabili pro babilit´ t´es es et reste a` l’heure actuelle l’objet d’intenses recherches. Les outils introduits sont: – La notion de marche al´eatoire eatoire sym´etrique; etrique; – La notion de processus p rocessus de L´evy; evy; – La notion de mouvement brownien; – La notion de propri´et´ et´e de Markov forte; – La notion de processus de diffusion.
42
´ ´ 1. Pr´ eliminaires: La marche al eatoire eliminaires: eatoire symetrique etrique
Le but de ce paragraphe est d’essayer de mettre en avant sur un objet simple quelques techniques essentielles qui reviendront dans l’´ etude etude du mouvement mouvement brownien : (1) L’utilisation de martingales et de temps d’arrˆet. et. (2) La notion de propri´et´ et´e de Markov forte. ap pelle le marche ma rche al´ a l´eatoire eato ire sur su r Z une suite de variables variabl es al´eatoires eatoires (S n)≥0 d´efinies ie s Definition 1. On appel sur un espace de probabilit´ probabilit´e (Ω, ,P) a ` valeurs dans Z et v´erifi er ifian antt les l es deux de ux propri´ prop ri´et´ et´es es suiva su ivant ntes es::
B
∈ N, S m+n − S m a ∈ N, S m+n − S m
(1) (S n )≥0 est ` a accroissements stationnaires, c’est-` a-dire a-dire que pour m,n mˆeme eme loi que qu e S n (2) (S n )≥0 est ` a accroissements ind´ependants, ependants, c’est-`a-dire a-dire que pour m,n est ind´ependant ependa nt de σ (S 0 ,...,S m ) .
Intuitivement, la marche al´eatoire eatoire est un objet ob jet tr`es es simple a` comprendre (mais pour lequel une ´etude etude fine et approfondie approfondie est fort d´ elicate elicate !). Si on consid` consid` ere ere une partie de pile ou face non biais´ biais´ee ee p our laquelle on gagne 1 euro si pile tombe et p erd 1 euro si c’est face, alors la fortune fortune (alg`ebrique) ebrique ) d’un d ’un joueur j oueur qui joue j oue a` ce jeu est une marche mar che al´eatoire eato ire sym´etrique etri que sur Z. De ma mani ni``ere er e rigoureuse: Consid´ Consi d´erons erons une suite de variables al´eatoires eatoires ind´ependantes epen dantes (X i )i≥1 d´efinies efinies sur un espace de prob pr obab abil ilit´ it´e (Ω ( Ω, ,P) et v´erifia eri fiant nt 1 P (X i = 1) = P (X i = 1) = 2 A une telle suite on associe la suite (S n )n≥0 d´efini efi niee par pa r S 0 = 0 et pour n 1 par
B
−
≥
n
S n =
X i
i=1
S n s’interpr´ete ete ´egalement egalement comme la position posi tion d’un marcheur (fou !) ayant effectu´e n pas sur un
axe soit en avant, avant, soit en arri`ere ere avec la probabilit´ probab ilit´e 12 . Nous noterons pour n 0, n la tribu engendr´ee ee par p ar les l es variables variab les S 0 ,...,S n .
≥ B
−
eatoires eatoires au sens de la d´efinition efinitio n 1. Proposition 2. (S n )n≥0 et ( S n )n≥0 sont des marches al´ Preuve. Montrons tout d’abord que
(X 1 ,...,X n ) =loi (X m+1 ,...,X m+n ) Pour cela, il suffit de v´ erifier erifier que pour p our tout n-uplet n-uplet (f i )1≤i≤n de fonctions avons E (f 1 (X 1 ) ...f n (X n )) = E (f 1 (X m+1 ) ...f n (X m+n )) Comme par ind´ependance epend ance des X i nous avons E (f 1 (X 1 ) ...f n (X n ))
{−1,1} → R nous
= E (f 1 (X 1 )) ...E (f n (X n ))
et E (f 1 (X m+1 ) ...f n (X m+n ))
= E (f 1 (X m+1 )) ...E (f n (X m+n ))
nous concluons du fait que E (f i (X i ))
puisque
= E (f i (X m+i ))
X i =loi X m+i
43
Nous avons ainsi
n+m
S n+m
− S m =
n
X k =
loi
k=m+1
X k = S n
k=1
et l’ind´ependance epen dance se montre de mˆeme, eme, ´etant etant donn´e que pour pou r tout m+n-uplet m+n-up let (f i )1≤i≤m+n de fonctions 1,1 R nous avons
{− } →
E (f 1 (X 1 ) ...f m+n (X m+n ))
= E (f 1 (X 1 ) ...f m (X m )) E (f m+1 (X m+1 ) ...f m+n (X m+n ))
ce qui implique que la tribu σ (X m+1 ,...,X m+n ) est ind´ependante epen dante de la l a tribu t ribu La d´emonstration emonst ration est identique i dentique pour ( S n )n≥0 .
−
(S n )n≥0 est appel´ app el´ee ee la marche mar che al´eatoire eato ire sym´etrique etr ique standa sta ndard rd sur
∈
o` u u
n p
Z.
∈
Proposition 3. Pour n N, k Z: (1) Si n et k ont on t la mˆeme em e parit parit´ ´e: e:
Bm .
1 P(S n = k ) = 2n
n
n+k 2
,
n! = p!( . p!(n n− p)! p)!
(2) Si n et k ont des de s parit´ pari t´es es diff´ diff ´erente eren tess P(S n
= k) = 0.
. Preuve. On remarque que
Ainsi
n+S n 2
n+S n 2
est une somme de n variables variab les al´eatoires eato ires de Berno Be rnoull ullii ind´ in d´ependa ep endantes. ntes. suit une loi binomiale de param` etres etres (0,n).
edui ed uire re a` l’aide de la formule de Stirling (n! Exercice 4. En d´ etant eta nt la partie part ie enti` en ti`ere ere de x. x R de P (S 2n = 2[x]) , [x] ´
∈
Proposition 5. Les suites suivantes de v.a. sont des (
(1) (S n )n≥0
−
(2) S n2
n
−
∼ e−nnn√2πn) un ´equiva equ ivalent lent pour
Bn)n≥0 martingales:
n 0
≥
(3) (3) exp exp ( λS n
− n ln(cosh(λ))) ,n ≥ 1,λ > 0.
Preuve.
(1) Pour n
≥m
E (S n
| Bm)
= E (S n = E (S n = S m
− S m | Bm) + E (S m | Bm) − S m ) + S m
(2) Tout d’abord remarquons que E
S n2
=
E
= E = = n
(
i X i )
i,j
n i=1 E
2
X i X j
X i2 +
i= j E (X i ) E (X j )
44
≥ m, nous avons (S n − S m )2 | Bm = E (S n − S m )2
Maintenant, pour n E
− | B − | B | B |B || BB −− − |B − | B = E S n2−m = n
m
Mais, d’un autre cˆot´e E
(S n
− S m)2
= = =
m
E
S n2
E
S n2 S n2
E
2E (S n S m 2 + S 2 2S m m
m m m
2 S m
m
2 = S m
m) + E
2 S m
m
Ce qui nous permet de conclure E
(3) Pour n
≥m
E
S n2
n
e−λ(S n −S m )
m
= E e−λ(S n −S m ) = E e−λS n−m n−m = E e−λX1 = (co (cosh λ)n−m
m
ce qui am`ene ene a` la conclusion conclus ion souhait´ souhai t´ee. ee.
≤ n, k ∈ Z, P (S n = k | Bm ) = P (S n = k | S m ) .
(Propr i´et´ et´e de Markov Mark ov simple) simp le) Pour Pou r m Proposition 6. (Propri´ Preuve. On a pour λ > 0, E
Ainsi
E
e−λS n | Bm
e−λS n | Bm
= (cosh λ)n−m e−λS m .
=E
e−λS n | S m
.
Ainsi (S n)n≥0 a la prop pr opri´ ri´et´ et´e de Ma Markov. rkov. Nous rappelons rapp elons qu’une variable al´eatoire eatoire T a` valeurs dans N est appel´ app el´ee ee un temps temp s d’arrˆ d’a rrˆet et pour po ur (S n )n≥0 si pour tout m l’´ev`enement T m est dans m . L’ensemble
{ ≤ } B BT = {A ∈ B, ∀ m ∈ N∗, A ∩ {T ≤ m} ∈ Bm } est alors une sous tribu de B (d´emontrez emo ntrez le !).
∞) = 1 alors la suite (S n+T − S T eatoire eato ire sym´etrique etri que sur Z ind´ in d´ependan epen dante te de BT . T )n≥0 est une marche al´
et et pour (S n )n≥0 tel que P (T < + Proposition 7. Si T est un temps d’arrˆ Preuve. Notons
S Sn = S n+T
et consid´ cons id´erons eron s alo alors rs le temps temp s d’arrˆ d’a rrˆet et
− S T T
T m = T + m
En appliq app liquant uant le th´eor` eor`eme eme d’arrˆ d’a rrˆet et de Doob Do ob a` la martingale
asso as soci´ ci´ee ee
(cos λ)−n eiλS n
n≥0 ∗ au temps tem ps d’ar d’ arrˆ rˆet et T m ∧ N avec N ∈ N , nous obtenons, ∀ n ∈ N −n eiλ( iλ(S n+T m ∧N −S T Tm ∧N ) | BT ∧N = 1 E (cos λ)
m
45
A la limite N (1)
→ +∞, nous nou s obten o btenons ons donc don c par p ar le th´eor` eor`eme eme de convergence converg ence domin´ dom in´ee, ee, ∀ n ∈ N −n eiλ(S Se −S Se ) | BT + E (cos λ) T +m = 1
n+m
n
ce qui qu i implique im plique donc l’ind´ependance epend ance et e t la stationnarit´ statio nnarit´e des accroisseme accr oissements. nts. Ainsi S est une marche al´eatoire eatoire sur Z ind´ in d´epen ep enda dante nte de T . Sn
B
n 0
≥
−
Pour conclure, montrons que cette marche est sym´ etrique. etrique. La variable variable S Sn +1 dans 1,1 et v´ erifie erifie d’autre d’autr e part,
{− }
− − − E
ce qui donne ´evidemment evidemm ent P
e
e −e
iλ(S Sn +1 S Sn )
S Sn =
S Sn +1
= cos λ
S n+1 1 = P S
S S n = 1 =
` valeurs S S n est a
1 . 2
et´ et´e de Markov forte) Soit T un temps d’arrˆ et et pour (S n )n≥0 tel tel que que Corollaire Corollaire 8. (Propri´ P (T
∞) = 1. Pour tout k ∈ Z
<+
P (S T +1 T +1
Preuve. Comme la suite (S n+T de T , on a pour λ > 0,
B
E
Ainsi E
=k
| BT ) = P (S T +1 T +1 = k | S T T )
− S T T )n≥0 est une marche march e al´ a l´eatoire eato ire sym´etrique etri que sur Z ind´ in d´epend ep endant antee
T +1 e−λS T | BT
T +1 e−λS T
T . = (cosh λ) e−λS T
| BT
T +1 S T = E e−λS T T .
|
Ainsi (S n)n≥0 a la propri´ pro pri´et´ et´e de Markov forte. for te. Dans la proposition prop osition suivante, nous montrons que la marche al´eatoire eatoire sym´etrique etrique est r´ecurrente, ecurrente, c’est-` a-dire visite chaque point de Z avec une a-dire un e pro p robab babil ilit´ it´e ´egale ega le a` 1. ecurrence ecu rrence de la marche) marche ) Proposition 9. (R´
∀ k ∈ Z, ∀ m ∈ N, P (∃ n ≥ m, S n = k) = 1 Preuve.
Montrons tout d’abord
∀ k ∈ [1,2n] , S k = 0) = P (S 2n = 0) . P (∀ k ∈ [1,2n] , S k = 0) 2P (∀ k ∈ [1,2n] , S k > 0) n 2 j=1 j =1 P (∀ k ∈ [1,2n] , S k > 0 | S 2n = 2 j ) P (S 2n = 2 j ) P(
On a
= = = 2 = 2
n j j=1 j =1 n P (S 2n = 2 j ) 2n n j 1 j=1 j =1 n 22n n + j
Maintenant, il est facile de d´emontrer emontrer par r´ecurrence ecurrence l’identit´e suivante n
j
j=1 j =1
2n n + j
=
n
2n
2
n
46
qui assure bien
∀ k ∈ [1,2n] , S k = 0) = P (S 2n = 0) .
P(
Comme
P (S 2n
= 0) =
(2n)! 1 (n!)2 22n
→n→+∞ 0
nous nou s d´eduison edu isonss que
∃ n > 1, S n = 0) = 1
P(
Notons Z 1 le premier z´ero ero non nul de d e ( S n )n∈N. Soit maintenant
{ ≥ 0, S n = 1}
T 1 = inf n
et
{ ≥ 0, S n = −1}
T −1 = inf n
Il est clair que T 1 et T −1 sont des temps d’arrˆet. et. Mmontrons que P (T 1 < + D’ap D’ apr` r`es es la prop pr opri´ ri´et´ et´e de Ma Markov, rkov, p our ou r n 1
≥
≥ n) P (Z 1 ≥ n | S 1 = 1) P (S 1 = 1) + P (Z 1 ≥ n | S 1 = −1) P (S 1 = −1) 1 1 2 P (Z 1 ≥ n | S 1 = 1) + 2 P (Z 1 ≥ n | S 1 = −1) 1 1 2 P (T 1 ≥ n − 1) + 2 P (T −1 ≥ n − 1) P (Z 1
= = = Comme il est clair que
∞) = 1
P (T 1
−
(S n )n≥0 = ( S n )n≥0
∞) = 1 si et seulement si P (T −1 < +∞) = 1 et dans ce cas
<+
T 1 =loi T −1
Ainsi, puisque puisque P (Z 1
<+
P (T 1
<+
nous avons bien
∞) = 1
∞) = 1
En appl ap pliq iqua uant nt le r´esul es ulta tatt pr´ec´ ec´edent ede nt a` la marche al´eatoire eatoire (S n+T 1
∃ n > 1, S n = 2) = 1.
P(
eduit que − 1)n≥0, on en d´eduit
Par r´ecurren ecur rence ce nous nou s d´eduison edui sonss donc don c que Puis, Pui s, par sym´etrie etri e
∀k ∈ N,P (∃ n > 1, S n = k) = 1.
∀k ∈ N,P (∃ n > 1, S n = −k) = 1. En appliquant cela `a la marche al´eatoire eatoire (S n+m − S m )n≥0 , on en d´eduit eduit que ∀ k ∈ Z, ∀ m ∈ N, P (∃ n ≥ m, S n = k) = 1.
Comme Com me cons´equence eque nce imm´ediate edi ate de la propo pro positi sition on pr´ec´ ec´edente, edent e, pour po ur k
{ ≥ 1, S n = k}
T k = inf n
est tel que P (T k
∞) = 1.
<+
∈ Z, le temps temp s d’arrˆ d’a rrˆet et
47
Tout d’abord, on remarque eatoire eatoire sur Z. Proposition 10. La suite (T k )k ≥0 est une marche al´ Preuve. Pour 0
≤ a < b, on a
−
{ ≥ 1,S n+T
T b = T a + inf n
a
}
=b .
Comme (S n+T a a)n≥0 est une marche al´eatoire eatoire sur Z ind´ in d´epend ep endant antee de d e T a , on en d´eduit eduit que: (1) inf n 1,S n+T a = b est ind´epend ep endant ant de T a . (2) inf n 1,S n+T a = b =loi T b−a .
{ ≥
}
B
{ ≥
}
Calculons maintenant la loi de T k . Proposition 11. Pour 0 < x < 1, k
∈ Z,
xn P(T k = n) =
n=0
−√ − 1
x2
1
x
k
.
ap pliqu iquant ant le th´eor` eor `eme em e d’arr d’ arrˆˆet et a` la martingale Preuve. Soit λ > 0. En appl
avec le temps tem ps d’arrˆ d’a rrˆet et T k
(cosh λ)−n e−λS n
n 0
≥
∧ N , N ∈ N∗, nous obtenons E
N )lncosh λ N ∧T k −(T k ∧N )lncosh e−λS N = 1.
On utilis uti lisee mai maintena ntenant nt le th´eor` eor`eme eme de convergence converg ence domin´ dom in´ee ee pour po ur en d´eduire: edu ire: E
D’o` u, u, E
En posant
cosh λ e−λk−T k ln cosh = 1.
e−(lncosh λ)T k
= eλk .
cosh λ x = e− ln cosh
on obtient E
−√ − xT k =
1
1
x2
k
x
.
On en d´edui ed uit: t: Corollaire 12. Pour k
∈ N, n ∈ N,
1 P(T k = n) = 2n avec I =
En particulier, pour n
∈ N,
I
2i1
1
1
− 1 ... 2ik − 1
(i1 ,...,ik )
2i1 i1
−
−1
...
∈ Nk ,i1 + ... + ik = n 2 k
P(T 1
= 2n) = 0 1 2n P(T 1 = 2 n + 1) = 2n 1 n
−
−1
2ik ik .
1
22n+1
.
−1
,
48
suffi t de d´evelopp evelo pper er en s´erie erie enti`ere ere la fonctio fon ction n Preuve. Il suffit x
√ − − → 1
1
x2
k
x
maintena nt ´etudier etudier la suite des z´ eros eros de S : Exercice 13. On souhaite maintenant
{
}
Z 0 = 0,Z k+1 = inf n > Z k , S n = 0
Montrer que: (1) La suite (Z k )k≥0 est une marche al´eatoire eatoire sur Z. (2) Pour k 1, Z k =loi k + T k .
≥
(Princi pe de d e r´eflexion) eflexio n) Pour n Proposition 14. (Principe
≥ 0, soit
M n = ma max x S k . 0 k n
On a alors pour k,n
≤≤
∈ N, P (M n
Preuve. Fixons k,n
≥ k, S n < k) = 12 (P (T k ≤ n) − P (S n = k)) .
avant toute chose nous remarquons remarqu ons l’´egalit´ egalit´e ensembliste ensemblist e suivante ∈ N et avant {T k ≤ n} = {M n ≥ k}
Ensuite, introduisons la suite de variables variables al´ eatoires eatoires S Sm
S S m = S m+T k
m 0
≥
−k
d´efini efi niee par pa r
Cette suite est une marche al´eatoire eatoire sym´etrique etrique pour pou r laquelle laqu elle n Maintenant, S Sn −T k ∧n =loi S Sn −T k ∧n Nous pouvons pou vons donc ´ecrire ecrire P
Autrement dit
≤ T k
Cela nous permet de conclure
≤ −
n,S Sn −T k < 0 = P T k
P (T k
2P (T k
et. − T k ∧ n est un temps d’arrˆet.
n,S S n−T k > 0
≤ n,S n < k) = P (T k ≤ n,S n > k)
≤ n,S n < k) + P (S n = k) = P (T k ≤ n)
Comme corollaire corolla ire imm´ediat ediat du principe princi pe de r´eflexion, eflexion, nous en d´eduisons eduison s la loi de M n . Corollaire 15. Pour k,n
∈N
P (M n
≥ k) = 2 P (S n ≥ k) − P (S n = k) .
Exercice 16. (Temps local de la marche en 0) Pour n N on note ln0 = Card 0 i
∈
(1) Montrer que pour n P
∈ N et k ∈ N∗
{ ≤ ≤ n, S i = 0 }
l20n = k = P l20n+1 = k = P (S 2n+1−k = k
− 1)
49
(2) En d´eduire edu ire que quand qua nd n
→ +∞ ln0 √n →loi |N (0,1)|
Exercice Exercice 17. Maintenant, au lieu de supposer que le marcheur effectue un pas de longueur
unit´ e pendant l’unit´e de temps, on supposera supposera qu’il effectue pendant chaque intervalle de temps τ , un pas de longueur ξ . En d´ esignan esig nantt par p(t,x) la densit´ den sit´e de probabilit´ probabil it´e de la variabl var iablee al´eatoire eato ire X t repr´ esentant esentan t la position du marcheur a` l’instant t, ´etablir etablir une relation de r´ecurrence ecurrence entre p(t + τ,x ),p(t,x ξ ) et p(t,x + ξ ). Montrer que si ξ et τ tendent vers 0 d’une mani` ere ere que l’on pr´ecis ec isera era alors alo rs p devien dev ientt soluti so lution on d’un d ’unee ´equatio equ ation n aux au x d´eriv´ eriv ´ees ees partiel par tiel les. Reconnai Reconnaisse ssez-v z-vous ous cette ´equatio equ ation n et pouvez-vo pouvez -vous us la r´esoudre eso udre ?
−
´ 2. Processus de Levy evy
F
F
Dans ce qui suit, nous nous pla¸cons cons sur un espace espa ce de d e prob p robabi abilit´ lit´e filtr´ fi ltr´e (Ω ( Ω,( t )t≥0 , ,P). La bonne g´en´ en´eralisation eralisa tion de la notion de marche al´eatoire eatoire en temps continu est celle de processus proc essus de L´evy. evy. Definition 18. Soit (X t )t≥0 un processus stochastique. On dit que (X t )t≥0 est un processus de L´evy ev y d´efini efi ni sur su r l’espace l’e space (Ω,( t )t≥0 , ,P) si les conditions suivantes sont satisfaites:
F
F
(1) Presque sˆ urement urement X 0 = 0; 0; (2) Presque sˆ urement, les trajectoires de (X t )t≥0 sont continues ` urement, a droite avec des limites `a a gauche; (3) (X t )t≥0 est es t adapt´ ada pt´e a` la filtration ( t )t≥0 ; (4) Pour tout T 0, le processus (X t+T X T ependant ependant de la tribu T T )t≥0 est ind´ T ; loi X . (5) Pour tout t,T 0, X t+T X T T = t
F
≥ ≥
−
−
F
F
F
si (X t )t≥0 est un process processus us de L´evy evy d´efini efin i sur l’espace l’es pace (Ω,( t )t≥0 , ,P), Exercice 19. Montrer que si ( X alors c’est aussi un processus processus de L´evy evy sur l’espace (Ω,( t )t≥0 , ,P), o` u u ( tX )t≥0 est la filtration naturelle de (X t )t≥0 .
F
F
F
F t )t≥0,F ,P),
si (X t )t≥0 est un process processus us de L´evy evy d´efini efin i sur l’espace l’es pace (Ω,( Exercice 20. Montrer que si ( alors c’est aussi un processus processus de L´ evy evy sur l’espace l’espace (Ω,( t )t≥0 , ,P), o` u u
G
G
G
G
(Ω,( t )t≥0 , ,P) est la compl´ etion etion usuel le de de
F t )t≥0,F ,P).
(Ω,(
eatoires eatoires exponenExercice Exercice 21. (Processus de Poisson) Soit (T n )n∈N une suite de variables al´
tiel tie l les ind´ependantes ependa ntes,,
∈ dt) = λe−λtdt,t ≥ 0,n ∈ N, d´efinies efin ies sur un espace de probabilit´ probabili t´e (Ω,F ,P). On note n S n = T i ,n ≥ 1, P(T n
i=1
et S 0 = 0. Pour t
≥ 0, soit
{ ≥ 0,S n ≤ t}.
N t = max n
(1) Montrer Montrer que le pro processus cessus (N t )t≥0 est un processus processus de L´ evy evy sur l’espace de probabilit´ probabilit´e N N (Ω,( t )t≥0 , ,P), o` u u ( t )t≥0 est la filtration naturelle de (N t )t≥0 .
F
F
F
50
(2) Montrer que pour t
≥ 0, N t est une variable al´eatoire eatoire de Poisson de param` param`etre etre λt, i.e.: n −λt (λt) ,n ∈ N. P(N t = n) = e n!
Le processus (N t )t≥0 s’appelle le processus processus de Poisson d’intensit´ d’inten sit´e λ > 0. (3) Soit maintenant (Y n )n≥0 une suite sui te de variabl var iables es al´eatoires eato ires ind´ependante epend antess de mˆeme eme loi µ. On note alors pour t 0,
≥
N t
X t = 1N t ≥1
Y i
.
i=1
Montrer Montrer que le pro processus cessus (X t )t≥0 est un processus processus de L´ evy evy sur l’espace de probabilit´ probabilit´e X X (Ω,( t )t≥0 , ,P), o` u u ( t )t≥0 est la filtration naturelle de (X t )t≥0 . Montrer, de plus, que pour θ R et t 0:
F
F ∈
≥
F
iθX t E(e )
= etλ
R (e −1)µ 1)µ(dx) dx) . iθx
R
Le processus (X t )t≥0 s’appelle s’appell e un processus processus de Poisson compos´ compos´e. e. On a un th´eor` eor`eme eme tr`es es important imp ortant concernant concerna nt la structure structu re des processus proce ssus de L´ evy evy continus: Th´ eor` eme 22. (L´evy) Soit ( Soit (X t )t≥0 un processus process us de L´evy ev y contin cont inu u d´efini efi ni sur su r l’espace l’e space de probabili probab ilit´ t´e filtr´ fil tr´e (Ω,( t )t≥0 , ,P). Alors on peut trouver σ R+ et µ R tels que (X t )t≥0 est un processus gaussien de fonction
moyenne:
∈
F
∈
E(X t )
F
= µt;
et de fonction de covariance: E ((X t
− µt)(X s − µs)) = σ2(s ∧ t).
F t)t≥0 de
R´eciproqueme eci proquement, nt, soit (X t )t≥0 un processus processus gaussien gaussie n continu contin u et e t adapt´ ad apt´e a` la filtration ( fonction moyenne: E(X t ) = µt; et de fonction de covariance: E ((X t
− µt)(X s − µs)) = σ2(s ∧ t).
F t )t≥0 ,F ,P)
Alors (X t )t≥0 est un processu processuss de L´evy evy sur l’espace l’es pace de probabilit´ probabili t´e filtr´e (Ω,(
Preuve. Soit (X t )t≥0 est un process pro cessus us de L´evy evy continu conti nu d´efini efin i sur l’espac l’e spacee de probabi pro babilit´ lit´e filtr´ filt r´e (Ω,( t )t≥0 , ,P). Tout d’abord remarquons que la loi de X 1 est infiniment divisible (voir le chapitre 0 pour la d´efinition efinition d’une loi infiniment divisible). En effet, pour tout n N, on a
F
∈
n
X 1 =
(X k
k=1
−
F
n
− X − ), 1
k
n
et les accroissements X k X k−1 sont ind´ependa ep endants nts et identiqu ide ntiquement ement distri dis tribu´ bu´es. es. Par cons´equent, eque nt, n n d’apr` d’a pr`es es le th´eor` eor`eme eme de L´evy-Khi evy- Khinchin nchin (voir le chapitre chapi tre 0), on peut pe ut trouver trou ver σ R+ , µ R et ν une mesure bor´elienne elienn e sur R 0 tels que:
\{ }
∈
|
( x
R
et
|2 ∧1)ν (dx) < +∞
iλX1 ) E(e
= eψ(λ) ,λ
∈ R,
∈
51
avec
1 2 2 ψ(λ) = iµλ σ λ + (eiλx 1 2 R R fix´ e. e. On consid` con sid`ere ere l’appl l’a pplicat ication ion
−
Soit maintenant λ
∈
− − iλx1|x|≤1)ν (dx).
f (t) = E(eiλXt ),t
≥ 0. Comme (X t )t≥0 est un processus de L´ evy, evy, on a, pour s,t ≥ 0, f (t + s) = E(eiλXt+s )
iλ(Xt+s −Xt )+X )+Xt = E(eiλ( ) iλ(Xt+s −Xt ) = E(eiλ( )E(eiλXt )
= E(eiλXs )E(eiλXt ) = f (t)f (s). D’autre part, comme (X t )t≥0 est `a trajectoires continues, il est aussi continu en loi, ce qui veut dire que l’application f est continue. Comme f (1) = eψ(λ) , on en d´ eduit eduit donc que p our tout t 0, tψ(λ) f (t) = etψ( ,t 0. Ainsi pour λ R et t 0, iλXt tψ(λ) . ) = etψ( E(e Nous allons maintenant montrer que la mesure ν qui apparait dans l’expression de ψ est en fait ´egal eg alee a` 0. Soit ε (0,1). On a ψ = ψε + φε , o` u 1 2 2 ψε (λ) = iµλ σ λ + (eiλx 1 iλx)ν (dx), 2 |x|≤ε et
≥
∈
≥
≥
∈
−
(eiλx
φε (λ) =
|x|>ε
− −
− 1 − iλx1|x|≤1)ν (dx).
Cette d´ecompositio ecomp osition n de ψ va en fait correspondre `a une d´ ecomposition ecomposition trajectorielle de X . Pour t 0, soit µt la loi de probabilit´ probab ilit´e sur R de fonction fonctio n caract´eristique: eristiqu e:
≥
eiλx µt (dx) = etψε (λ) ,λ
R
∈ R.
(une (un e telle te lle loi existe exis te d’apr` d’a pr`es es le th´eor` eor`eme eme de L´evy-Khi evy- Khinchin nchin). ). On a alor a lorss p our s,t µt
∗ µs = µt+s.
≥0
Par cons´equent eque nt si on d´efinit efin it pour po ur f fonct fo nctio ion n b or´elien el ienne ne b orn´ or n´ee ee (Pt f )(x) =
f (x + y )µt (dy ),
R
{
≥ }
alors la famille P t ,t 0 est une fonction de transition. D’autre part, il est facile de voir (v´erifiez erifiez le !) que cette fonction fonctio n de transition transi tion est de Feller-Dynkin. eller-Dyn kin. Ainsi, d’apr`es es le th´eor` eor`eme eme ˜ ˜ ˜ ˜ 27 du chapitre 2, on peut trouver un espace de probabilit´e filtr´ e (Ω,( t )t≥0 , ,P) ainsi qu’un processus (Y t )t≥0 d´efini efini sur cet espace tels que: (1) Les trajectoires de ( Y t )t≥0 sont continues `a droite avec des limites `a gauche;
F
F
52
{
(2) (Y t )t≥0 est un processus de Markov de fonction de transition P t ,t la filtration ( ˜t )t≥0 . Le processus (Y t )t≥0 est alors un processus de L´ evy evy puisque
F
E(e
iλY t+s
| F s) =
≥ 0} relativement a`
iλ(Y s +y ) eiλ( µt (dy ),
R
ce qui implique iλ( iλ(Y t+s Y s ) E(e
−
| F s) = etψ (λ) , ε
et donc l’ind´ependance epend ance et la stationnarit´ station narit´e des accroissements. accroisse ments. ˜ ) , construire un processus de ˜ ,( ˜t )t≥0 , ˜ ,P De mˆ eme, eme, on va pouvoir, p ouvoir, quitte a` grossir l’espace (Ω L´evy (Z t )t≥0 qui est ind´ i nd´ependant epend ant du processus pro cessus (Y t )t≥0 et tel que:
F
iλZ t ) E(e
On a φε (λ) =
(eiλx
= etφε (λ) .
− 1 − iλx1|x|≤1)ν (dx)
|x|>ε
=
F
iλx
− 1)ν (dx) − iλ
(e
|x|>ε
|x|>ε
x1|x|≤1 ν (dx),
et
{ | | }
∞.
ν ( x, x > ε ) < +
Ainsi, d’apr` es es l’exercice 4, on a en fait Z t = Lt
− t
|x|>ε
x1|x|≤1 ν (dx),
o` u (Lt )t≥0 est un processus processus de Poisson Poisson compos´ compos´e. e. En particulier particulier,, les trajectoires trajectoires du processus processus (Z t )t≥0 ne peuvent peuvent donc qu’avoir qu’avoir un nombre nombre fini de sauts sur tout interv intervalle alle de temps born b orn´´e, e, chaque chaqu e saut sau t ´eventuel eventue l ´etant eta nt de taille tai lle sup´erieure erie ure a` ε. Comme les deux processus (Y t )t≥0 et (Z t )t≥0 sont ind´ependants, ependants, il est alors facile de voir que le processus ˜ t = Y t + Z t X ´ est un processus proce ssus de L´ evy evy qui a mˆeme eme loi que le process p rocessus us ( X t )t≥0 . Egalement Egaleme nt par ind´ependance, epen dance, presque sˆ urement urement les sauts de ( Y t )t≥0 et les sauts de ( Z t )t≥0 ne s’intersectent pas. Donc chaque ˜t )t≥0 . Comme (X t )t≥0 est continu, (Y t )t≥0 ne peut saut sau t ´eventuel eventue l de (Y t )t≥0 induit un saut sur ( X donc pas avoir de saut, ce qui implique
{ | | }
ν ( x, x > ε ) = 0.
Mais ε ´etait etait arbitraire, arbitr aire, donc en fait f ait ν = 0. On en conclut que iλXt ) E(e
1
= et(iµλ− 2 σ
2 λ2 )
.
Ainsi pour t > 0, X t =loi (µt,σ 2 t). Enfin, Enfi n, pour p our v´erifier erifier que le processus pro cessus est bien gaussien, on utilise l’ind´ependance ependance et la stationnarit´ e des accroissements accroissements qui impliquent pour λ1 ,...,λn R,
N
∈
53
0 < t1 < ... < tn : E
i
e
P
n k=1
n
λk (Xtk+1 Xtk )
−
=
eiλk (Xtk+1 −Xtk )
E
k=1 n
=
e
E
iλk Xtk+1 −tk
k=1
P
=e
n k=1 (tk+1
)(iµλk − 12 σ2 λk2 ) −tk )(iµλ .
Cela Cel a conclut con clut la d´emonstr emo nstrati ation on de la premi` prem i`ere ere partie part ie du th´eor` eor`eme eme de structu str ucture re de L´evy. evy. R´eciproquement, ecipro quement, soit maintenant (X t )t≥0 un process pr ocessus us gaussien gau ssien continu et adapt´e `a la filtration ( t )t≥0 de fonction moyenne: E(X t ) = µt; et de fonction de covariance:
F
− µt)(X s − µs)) = σ2(s ∧ t). On veut d’ab d ’abord ord d´emontrer emontrer que tout T ≥ 0, le processus (X t+T − X T ependant epend ant de la T )t≥0 est ind´ tribu F T . T Soient t1 ,...,tn ≥ T , s1 ,...,sm ≤ T , α1 ,...,αn ∈ R, β 1 ,...,β m ∈ R. E ((X t
On a
n
E
m
αi (X ti +T
i=1
− X T T )
−
=
β i X si
i=1
E
αi β j (X ti +T
i,j
Ainsi, le processus (X t+T X T ependant epend ant de la tribu t ribu T )t≥0 est bien ind´ loi de montrer que pour tout t,T 0, X t+T X T X t . T =
≥
−
− X T T )X s
j
= 0.
F T T . De mˆeme, eme, il est facile
` 3. D´ efinition, existence et premieres efinition, eres propri´ et et´ es du mouvement brownien es
F t )t≥0,F ,P)
Dans ce paragraphe, nous nous pla¸cons cons encore enco re sur s ur un espace espa ce de d e probab pr obabili ilit´ t´e filtr´ fil tr´e (Ω ,( donn´e.
F
processus stochastique continu adapt´e a` la filtration ( t )t≥0 . On Definition 23. Soit (Bt )t≥0 un processus dit que (Bt )t≥0 est un mouvement brownien si c’est un processus gaussien de fonction moyenne nulle et de fonction de covariance
E(Bs Bt )
=s
∧ t.
F F
efini efi ni sur su r (Ω, ,P) est un mouveRemarque 24. On dira simplement qu’un processus (Bt )t≥0 d´ B ment brownien si c’est un mouvement brownien sur l’espace (Ω,( t )t≥0 , ,P), o` u u ( tB )t≥0 est la filtration naturelle de (Bt )t≥0 .
F
F
Exercice Exercice 25. Soit (Bt )t≥0 un mouvement brownien. On note ( tB )t≥0 sa filtration naturelle, B = ( B de mesure nulle. Montrer que la filtration 0) et les sous-ensembles de ∞ σ Bu ,u ∞ (σ ( tB , )) ))t≥0 satisfait les conditions usuelles.
F
F N N
≥
N
F
F
On a ´egalement egalement une d´efinition efiniti on markovienne du mouvement brownien.
F
Soit (Bt )t≥0 un processus processus stochastique continu adapt´e a` la filtration ( t )t≥0 tel Proposition 26. Soit ( que B0 = 0 p.s.. Alors (Bt )t≥0 est un mouvement brownien si et seulement si c’est un processus ee par: F t)t≥0 de fonction de transition donn´ee
de Markov relativement a ` la filtration ( P0 = Id,
(Pt f )(x) =
R
f (y )
e−
(x−y )2 2t
√2πt
dy,t > 0,x
∈ R,
54
f : R
→ R ´etant etant une fonction fonctio n bor´ elienne elienn e born´ ee. ee. De plus la fonction fonctio n de transition {P t ,t ≥ 0} est
de Feller-Dynkin. Preuve.
F t )t≥0 de fonction de transition
Soit (Bt )t≥0 un processus de Markov relativement `a la filtration ( donn do nn´´ee ee par: pa r: P0 = Id,
| F | F
(Pt f )(x) =
f (y )
e−
√2πt
R
On a pour s,t
≥ 0, λ ∈ R, iλBt+s E(e
ce qui implique iλ( iλ(Bt+s Bs ) E(e
−
(x−y )2 2t
dy,t > 0,x
∈ R.
y2
− t iλ( iλ(Bs +y ) e 2 e dy, s) = 2πt R s)
=
√
y2
eiλy
R
e− 2t
√2πt dy = e−
1 2 λ t 2
et donc l’ind´ependance epen dance et la stationnarit´ station narit´e des accroissements. accroiss ements. Pour v´ erifier erifier que le processus proc essus est bien gaussien, avec avec la bonne structure de moyenne moyenne et de covariance, covariance, on utilise l’ind´ependance ependance et la stationnarit´ e des accroissements accroissements qui impliquent pour p our λ1,...,λn R, 0 < t1 < ... < tn : E
i
e
P
n k=1
∈
n
λk (Btk+1 Btk )
−
=
E
iλk (Btk+1 Btk )
−
e
k=1 n
=
E
k=1
1
= e− 2
P
iλk Btk+1 −tk
e
n k=1 (tk+1
−tk )λk2 .
Ce qui permet de conclure que ( Bt)t≥0 est bien un mouvement brownien. R´ecipro ecip roquem quement, ent, soit soi t (Bt )t≥0 un mouvement brownien sur (Ω,( t )t≥0 , ,P). Soient maintenant fon ction on bor´ bo r´elienne elie nne born´ bo rn´ee ee et s,t 0. On a: f : R R une foncti
→
F
≥
F
| F s) = E(f (Bt+s − Bs + Bs) | F s). Comme Bt+s − Bs est ind´ependa ep endant nt de F s , on en d´eduit eduit tout d’abord que E(f (Bt+s ) | F s ) = E(f (Bt+s ) | Bs ). Pour x ∈ R, E(f (Bt+s ) | Bs = x) = E(f (Bt+s − Bs + Bs ) | Bs = x) = E(f (X t + x)), o` u X t est une variable variab le al´eatoire eato ire ind´epend ep endante ante de Bs telle que X t =loi N (0 (0,t). Par cons´ con s´equent, eque nt, E(f (Bt+s )
E(f (Bt+s )
| Bs = x) =
et
y2
f (x + y )
R
e− 2t
√2πt dy y2
e− 2t
| F s ) = f (Bs + y) √2πt dy. Pour montrer que la fonction de transition {P t ,t ≥ 0} est de Feller-Dynkin, eller-Dyn kin, il faut v´erifier: erifier: (1) Pt : C0 (R+ ,R) → C0 (R+ ,R); E(f (Bt+s )
R
(2) P0 = Id; (3) f 0 (R+ ,R), x
∀ ∈C
∀ ∈ R, limt→0(Ptf )(x) = f (x).
55
C
Ce que nous laissons en exercice. (On rappelle que 0 (R+ ,R) est l’ensemble des applications continues f : R R telles que lim−∞ f = lim+∞ f = 0). Bien entendu, le mouvement mouvement brownien n’est n ’est int´ eressant eressant a` ´etudier etudier que s’il existe !
→
˜ ,( ˜t )t≥0 , ˜ ,P ˜ ) ainsi qu’un probabilit´e filtr´e (Ω Th´ eor` eme 27. On peut trouver un espace de probabilit´ mouvement brownien (Bt )t≥0 d´ efini efini sur cet espace. D’autre part deux mouvements browniens browniens
F
F
´even ev entu tuel ellem lemen entt d´efini efi niss sur su r des de s espaces espa ces de probabili probab ilit´ t´e filtr´ fil tr´es es diff´ diff ´erents eren ts ont on t n´ecessa eces sairem iremen entt la mˆeme eme loi: Cette loi s’appelle la mesure de Wiener. Preuve.
˜ , ˜ ,P ˜ ) ainsi D’apr` es es la proposition 20 du chapitre 1, on peut trouver un espace de probabilit´e (Ω qu’un processus gaussien (X t )t≥0 d´efini efini sur cet espace de fonction moy moyenne enne nulle et de fonction de covariance E(X s X t ) = s t. On a pour tout n 0 et 0 s t: (2n)! X s )2n = n (t s)n . E (X t 2 n! Par cons´equent, equent, en utilisant utilis ant le th´eor` eor`eme eme 26 du chapitre 1 (crit`ere ere de continuit´e de KolmogoKolmogo rov), on va pouvoir trouver une modification continue (Bt )t≥0 du processus (X t )t≥0 dont les trajectoires sont localement γ -H¨ -H¨ old´ old´erienne erie nness p our tout tou t γ [0, n2−n1 ). Comme modification de (X t )t≥0 , le processus ( Bt )t≥0 a la mˆeme eme loi que (X t )t≥0 c’est donc un processus gaussien de fonction moyenne nulle et de fonction de covariance s t. ˜ ,( ˜t )t≥0 , ˜ ,P ˜) On en d´edui ed uitt que q ue (Bt )t≥0 est un u n mouvement mou vement brown b rownien ien sur s ur l’espa l’ espace ce de prob p robabi abilit´ lit´e filtr´ fil tr´e (Ω o` u ( ˜t )t≥0 est la filtration naturelle de (Bt )t≥0 . Quant a` l’unicit´ l’unicit´ e de la loi du mouvement mouvement brownien, brownien, elle vient du fait que la loi d’un processus gaussien gaussi en est enti`erement erement caract´eris´ eris´ee ee par sa fonction moyenne et sa fonction foncti on de covariance covariance..
F
≥
≤ ≤
∧
−
−
∈
∧
F
F
F
Maintenant Maintenant qu’on sait que le mouvement mouvement brownien existe, on va en exhiber exhib er quelques premi` eres eres propri´et´es.
F
F
mouvement browni brownien en sur (Ω,( t )t≥0 , ,P). Alors, Alors, presque presque Propositio Proposition n 28. Soit (Bt )t≥0 un mouvement 1 toutes les trajectoires de (Bt )t≥0 sont localement γ -H¨ -H¨ old´erienn eri ennes es pour tout γ [0, 2 ). Preuve. Soit T > 0. On a pour tout n
∈
≥ 0 et 0 ≤ s ≤ t: (2n)! 2n = n (t − s)n . E (Bt − Bs ) 2 n!
Par cons´equent, eque nt, en utilis uti lisant ant le th´eor` eor`eme eme 26 du chapitre chapi tre 1 (crit` (cri t`ere ere de continuit´ conti nuit´e de Kolmogo Kol mogorov), rov), ˜ on va pouvoir trouver une modification continue ( Bt )0≤t≤T du processus (Bt )0≤t≤T dont les tra˜t )0≤t≤T jectoires sont localement γ -H¨ -H¨ old´ old´erienne erie nness pour p our tout tou t γ [0, n2−n1 ). Comme (Bt )0≤t≤T et (B sont tous les deux continus, on a en fait
∈
P
∀ ∈ t
˜t = 1, [0,T ],Bt = B
ce qui implique que presque toutes les trajectoires de ( Bt )0≤t≤T sont γ -H¨ -H¨ old´ old´erienne eri enness p our tout n−1 γ [0, 2n ). L’entier n pouvant po uvant ˆetre etre pris pri s auss a ussii grand gra nd qu’on qu’o n veut, on en d´eduit edu it le r´esultat esul tat souhai sou hait´ t´e. e.
∈
F t )t≥0 ,F ,P). Montrer que la variable
Soit (Bt )t≥0 un mouvement brownien sur (Ω sur (Ω,( Exercice 29. Soit ( 1 al´ al ´eatoi at oire re 0 Bs ds est gaussienne et calculer sa loi.
56
F
F
Proposition 30. Soit (Bt )t≥0 un mouvement brownien sur (Ω,( t )t≥0 , ,P). Alors, pour tout ε > 0, presque sˆ urement, urement, Bt lim 1 = 0. t→+∞ t 2 +ε Preuve. La convergence L2 est claire, et comme Bt est une variable al´eatoire eatoire gaussienne, gaussien ne, on a ´egalement egalement
la convergence presque sˆure. ure.
F t )t≥0 ,F ,P). Alors les processus
Soit (Bt )t≥0 un mouvement brownien sur (Ω sur (Ω,( Proposition 31. Soit (
suivants sont des mouvements browniens: (1) ( Bt )t≥0 . C’est C’es t la propri´et´ et´e de sym´etrie etri e du mouveme mou vement nt brownien. browni en. (2)
− √1c Bct
−
t 0
≥
, c > 0. C’est C’es t la propri´et´ et´e d’autosi d’au tosimila milarit´ rit´e du mouveme mouv ement nt brownien. browni en.
≥
BT )t≥0 , T (3) (BT + 0. C’est la propri´et´ et´e d’invariance d’invar iance par translation t ranslation du mouvement mouveme nt T +t brownien. (4) (tB1/t )t≥0 . C’est la propri´ propri´ et´ et´ e d’invariance d’invariance par inversion du temps du mouvement browbrownien. Preuve.
Exercice Exercice !
F F − −∞ ∞ F F
Exercice 32. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(
(1) Montrer que pour t > 0, l’int´egrale egrale de Riemann t Bs 0 s ds t 0
(2) Montrer que le processus Bt
≥
t )t 0 , ,P). t Bs 0 s ds existe presque
≥
est un mouvement brownien.
Proposition 33. Soit (Bt )t≥0 un mouvement brownien sur (Ω,( P
inf Bt =
, sup Bt = +
t 0
≥
sˆ urement. urement.
t )t 0 ,
≥
,P). Alors
= 1.
t 0
≥
Preuve.
−
Comme le processus ( Bt)t≥0 est ´egalement egalement un mouvement brownien, pour pou r d´emontrer emontrer que P
il suffit en fait de v´ erifier erifier que
inf Bt =
t 0
≥
P
Soit N
∞
Bt = + −∞, sup t≥0
∞
sup Bt = + t 0
≥
= 1.
O n a par p ar la prop pr opri´ ri´et´ et´e d’au d’ auto tosi simi mila lari rit´ t´e, e, ∈ N. On P c sup Bt ≤ N = P sup Bt ≤ N t≥0 t≥0
Par cons´ con s´equent equ ent,,
P
≤ sup Bt t 0
≥
Mais P
≤
sup Bt = 0 t 0
≥
P(B1
= 1,
,c > 0.
N = P sup Bt = 0 . t 0
≥
Bt = 0) = P(B1 ≤ 0, sup(Bt+1 − B1 ) = −B1 ). ≤ 0, sup t≥1 t≥0
57
Comme le processus (Bt+1 tout c > 0, P(B1
D’o` u, u,
− B1)t≥0 est un mouvement m ouvement brownien b rownien ind´ependant epend ant de B1 , on a pour
≤ 0, sup (Bt+1 − B1 ) = −B1 ) = P(B1 ≤ 0,c sup(Bt+1 − B1 ) = −B1 ). t≥0 t≥0
P(B1
≤ 0, sup (Bt+1 − B1 ) = −B1 ) = P(B1 ≤ 0, sup(Bt+1 − B1 ) = 0) t≥0 t≥0 = P(B1 ≤ 0)P(sup(Bt+1 − B1 ) = 0) t≥0
1 = P sup Bt = 0 . 2 t≥0
Ainsi, P
On en conclut
≤ ≤ ∞
sup Bt = 0 t 0
≥
P
1 P sup Bt = 0 . 2 t≥0
sup Bt = 0
= 0,
t 0
≥
et
P
sup Bt
N = 0.
t 0
≥
Comme cela est vrai pour tout N , cela implique P
sup Bt = +
= 1.
t 0
≥
De cette derni` ere ere proposition , on en d´eduit eduit imm´ ediatement ediatement que le mouvement mouvement brownien est r´ecurrent, ecurrent, c.a.d. que presque sˆurement, urement, il visite tous les points de R. Plus Pl us pr´ pr´ecis ecis´´ement em ent::
F t )t≥0 ,F ,P). Alors pour tout
Propositio Proposition n 34. Soit (Bt )t≥0 un mouvement brownien sur (Ω,( t 0 et x R, t,Bs = x) = 1. P( s
≥
∈
∃ ≥
Preuve.
Exercice Exercice !
F t )t≥0 ,F ,P). Alors les processus
Soit (Bt )t≥0 un mouvement brownien sur (Ω sur (Ω,( Proposition 35. Soit ( suivants sont des martingales: (1) (Bt )t≥0 ; (2) (Bt2 t)t≥0 ; (3)
−
eλBt −
λ2
2
t
,λ t 0
≥
∈ C.
Preuve.
≥ | ≥ − | F ≥ ∞ − | F −
|
∞ − ≥
(1) Tout d’abord pour t 0, E( Bt ) < + car Bt est une variable gaussienne. Ensuite, Bs ) = 0, d’o` pour t s, E(Bt Bs u E(Bt s ) = E(Bt s ) = Bs . 2 2 Bs )2 ) = t s, (2) Pour t 0, E(Bt ) = t < + et pour t s, E((Bt Bs ) s ) = E((Bt 2 s. d’o` u E(Bt2 t s ) = Bs
−
| F | F
−
−
58
λBt
− λ22 t
< +∞ car Bt est une variable gaussienne. Ensuite, pour t ≥ s, ≥ 0, E e λ(B −B ) ) = e (t−s) , d’o` u E eλB − t | F s = eλB − s . E(eλ(B −B ) | F s ) = E(e
(3) Pour t
t
s
t
λ2
s
2
λ2
t
2
s
λ2
2
Exercice 36. Soit (Bt )t≥0 un mouvement brownien. On note P la mesure de Wiener, (πt )t≥0 le process processus us des coordonn coordonn´ ´ees ees et ( t )t≥0 sa filtration naturelle. Soient maintenant µ R et Pµ la loi du processus (Bt + µt)t≥0 . Montrer que pour tout t 0,
F
≥
µ P/
F t ≪ P/F t ,
et que
µ
dP/F
t
=e
dP/F t
A t’on
µπt
∈
− µ22 t .
µ P/
F ∞ ≪ P/F ∞
?
Les martingales martin gales pr´ec´ ec´ edentes edentes sont souvent utiles pour pou r calculer des lois en utilisant utilis ant le th´eor` eor`eme eme d’arrˆ d’a rrˆet et de Doob. Doo b.
F t )t≥0,F ,P). Pour a > 0, on
Proposition 37. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(
note
{ ≥ 0, Bt = a}.
T a = inf t
On a alors pour tout λ > 0, E
et P(T a
Preuve. Soit α > 0. Pour N
∈
e−λT a
√2λ
= e−a
,
a2 a − e 2t dt, (2πt )3/2
dt) =
t > 0.
≥ 1, on note T N N le temps d’arrˆetet presque sˆureme ur ement nt born´ bo rn´e: e: T N N = T a ∧ N.
En appliq app liquant uant le th´eor` eor`eme eme d’arrˆ d’a rrˆet et de Doob Do ob a` la martingale,
αBt
e
on obtient: E
Mais pour tout N
≥ 1,
− α22 t
,
t 0
≥
− α22 (T a ∧N ) N )
αBT a ∧N
e
eαBT a ∧N −
α2
2
(T a N )
∧
= 1.
≤ eαa.
Par cons´equent, eque nt, d’apr` d’a pr`es es le th´eor` eor`eme eme de convergence converg ence domin´ dom in´e, e, on obtient obt ient quand quan d n E
eαBT a −
α2
2
T a
= 1.
Par continuit´ e des trajectoires on a presque sˆ s urement, u ˆrement, BT a = a,
→ +∞,
59
d’o` u, u,
e−
E
Ainsi, pour tout λ > 0, E
α2
2
T a
e−λT a
= eαa .
√2λ
= e−a
.
La densi de nsit´ t´e de T a s’obti s’o btient ent alo alors rs en inversant inversa nt la transfo tra nsform´ rm´ee ee de Laplace Lap lace pr´ec´ ec´edente. edent e.
La prop pr oposi ositi tion on 36 p eut en fait fai t ˆetre etr e consi con sid´ d´erabl era blem ement ent g´en´ en´erali era lis´ s´ee. ee.
F
F
mouvement brownie brownien n sur (Ω,( t )t≥0 , ,P). Soit maintenant Th´ eor` eme 38. Soit (Bt )t≥0 un mouvement f : R+ R C une application telle que: (1) f est continume contin ument nt diff´ di ff´erentiable erenti able en sa premi`ere ere variab va riable le et e t deux deu x fois fo is continu cont inumen mentt diff´ di ff´erentiable erenti able 1 , 2 en sa seconde variable v ariable (On ´ecrira ecrira f (R+ R,C)). (2) Pour tout t 0, on peut trouver des constantes K > 0 et α > 0 telles que
× →
∈C
≥
×
f (s,x) |≤ Ke αx . | 0≤s≤t
sup
Alors le processus processus (f (t,Bt ))t≥0 est une martingale si et seulement si f v´erifie eri fie l’´equa eq uatio tion n aux au x d´eriv er iv´ ´ees ee s parti par tiel el les: le s: ∂f 1 ∂ 2 f + = 0. 2 ∂x 2 ∂t Preuve. Soit t > 0. D’apr` D’ap r`es es la propri´ pro pri´et´ et´e de Markov, on a pour po ur s < t, E(f (t,Bt )
| F s) =
(y −Bs )2 − e 2(t−s)
f (t,y )
R
2π (t
− s) dy
Par cons´ co ns´equent, eque nt, le l e pro cessus cess us ( f (t,Bt ))t≥0 est une martingale si et seulement si pour tout 0 < s < t et x R,
∈
(y −x)2 − e 2(t−s)
− ∈ − → f (t,y )
dy = f (s,x).
2π (t s) Supposons d’abord que pour tout 0 < s < t et x R, R
f (t,y )
R
(y −x)2 − e 2(t−s)
2π (t
s)
dy = f (s,x).
On fixe alors t > 0 et on observe alors que la fonction g : (s,x)
f (t,y )
R
d´efinie efin ie sur su r [0,t)
× R v´eri er ifie l’´ l’ ´equ eq uatio at ion n
(y −x)2 − e 2(t−s)
2π (t
− s) dy
∂g 1 ∂ 2 g + = 0. ∂s 2 ∂x 2
Ce qui implique que f v´erifi er ifiee cett ce ttee mˆeme em e ´equa eq uati tion on.. R´eciproquement, ecipro quement, supposons supp osons que f v´erifi er ifiee l’´equa eq uati tion on aux au x d´ d´eriv´ er iv´ees ee s part pa rtie iell lles es:: ∂f 1 ∂ 2 f + = 0. 2 ∂x 2 ∂t
60
Soit t > 0. Alors, en consid´erant erant toujours toujour s g : (s,x)
(y −x)2 − e 2(t−s)
→ f (t,y)
2π(t
R
on s’aper¸coit coit que h = f
− g v´erifi er ifiee l’´ l ’´equ eq uatio at ion n
− s) dy,
∂h 1 ∂ 2 h + =0 ∂s 2 ∂x 2
sur [0,t)
× R avec de plus la condition `a la limite: ∀x ∈ R, slim →t h(s,x) = 0.
La th´eorie eori e des ´equatio equa tions ns aux d´eriv´ eriv´ees ees partiel part ielles les parab par aboli oliques ques impliq imp lique ue alo alors rs h = 0.
eq uati tion on Remarque 39. L’´equa
∂f 1 ∂ 2 f + = 0, ∂t 2 ∂x 2
est connue sous le nom d’´equation equati on de la chaleur chaleu r r´etrograde. etrograde.
{
Exercice 40. Soit P t ,t
≥ 0} la fonction de transition du mouvement brownien. Soit f : R → R
une fonction bor´ bor´elienne elienne telle qu’il existe α,β > 0 v´erifia ri fiant nt::
∀x ∈ R, | f (x) |≤ αeβ |x|.
Montrer que la fonction: g : (0, +
∞) × R → R,
(t,x)
est solution du probl` eme eme parabolique parabolique suivant: suivan t: 1 ∂ 2 g ∂g = , ∂t 2 ∂x 2
→ (Ptf )(x),
g(t,x) = f (x). ∀x ∈ R, tlim →0
L’´equatio equ ation n pr´ec´ ec´edente ede nte est appel´ee ee l’´equatio equ ation n de la chaleu cha leur. r. Il est possible possib le de montrer mont rer que g est en fait l’uniqu l’un iquee solution solu tion du probl`eme eme pr´ec´ ec´edent. ede nt. 4. Le principe d’invariance de Donsker ` la fois d’un point de vue intuitif A intuitif et th´ eorique, eorique, il est int´ int´eressan eressantt de bien comprendre que le mouvement mouvement brownien est une limite de marches al´eatoires. eatoires. Soit (S n )n∈N une marche mar che al´eatoire eat oire sym´etrique etri que sur Z. On d´ efinit efinit alors une suite de processus processus n continus ((S t )t∈[0, con con suivante: [0,1] )n∈N de la fa¸ S tn
√ = n
− k n
t
S k +1 +
k+1 n
− t S k
,
k n
≤ t ≤ k +n 1 .
Th´ eor` eme 41. (Principe d’invariance de Donsker) La suite de processus ((S tn )t∈[0, [0,1] )n∈N converge en loi vers (Bt )t∈[0, u u (Bt )t∈[0, [0,1] o` [0,1] est un mouvement brownien Preuve.
Il nous suffit de v´erifier erifier deux choses: (1) Pour tout t1 ,...,tk [0,1],
∈
S tn1 ,...,S tnk
→
loi n +
→ ∞ (Bt1 ,...,Btk ).
(2) La famille ((S tn )t∈[0, [0,1] )n∈N est relativement compacte dans la topologie de la convergence ´etro et roiite. te .
61
Nous laissons le premier point (1) en exercice. Notons n´eanmoins eanmoins que pour faciliter les calculs, il sera plus ais´e de d´emontrer emontrer que pour pou r tout t1,...,tk [0,1],
S tn1 ,S tn2
− S tn ,...,S tn − S tn − 1
k
k
1
∈
→
loi n +
→ ∞ (Bt1 ,Bt2 − Bt1 ...,Btk − Btk−1 ).
D´ emontrons emontrons que la famille ((S tn )t∈[0, [0,1] )n∈N est relativement compacte dans la topologie de la convergence converg ence ´etroite etro ite.. Soit λ > 0. Le processus ( S n4 )n∈N est une sous-ma sou s-marti rtinga ngale, le, par cons´equent eque nt d’apr` d’a pr`es es l’in´ l’i n´egalit´ egal it´e maximale de Doob, pour tout n 1, P
≥
√ 3n2 − 2n 3 E(S 4 ) . ≤ max | S k |> λ n ≤ 4 n2 = 4 2 k ≤n λ n λ n λ4
Par stationna sta tionnarit´ rit´e des d es accroissem acc roissements ents de (S n )n∈N , on en d´eduit eduit finalement finaleme nt que pour pou r tout k,n λ > 0, 3 S k > λ n . P max S i+k 4
∈
i n
≤
≥ 1,
− | √ ≤λ
|
Soient maintenant ε,η (0,1). De l’in´ l’i n´egalit´ egal it´e qui pr´ec´ ec´ede, ede, il est facile faci le de voir qu’on qu’o n peut pe ut trouver trou ver δ > 0 tel que pour tout k,n 1
≥
∈
P
|≥ ≤
√ max | S i+k − S k |≥ ε n ≤ ηδ. i≤[nδ] nδ]
Soient N,ε,η > 0. Par d´efiniti efin ition on de S n on en d´ eduit eduit qu’on peut trouver δ tout n 1 et t N ,
≥
≤
P
S sn − S tn | t+δ
sup
t s
≤≤
Pour 0
≤ i < N δ et n ≥ 1, soit Ani =
ω
Ω,
sup iδ s (i+1)δ +1)δ N
≤≤
∧
η
∈ (0,1) tel que pour
εδ.
| S iδn − S sn
|≥ η
.
Il est facile de voir que
∩ci Ani ⊂ {sup{| S tn − S sn | , | t − s |≤ δ, s,t ≤ N } < 3η} . Par cons´equent, equent, pour pou r tout n ≥ 1, n n P (sup{| S t − S s | , | t − s |≤ δ, s,t ≤ N } ≥ 3η ) ≤ P Ani ≤ 1 + [ N δ−1 ]
i
δε < (N + 1)ε.
Ce qui implique, par la proposition 30 du chapitre 1 que ((S tn )t∈[0, [0,1] )n∈N est relativement compacte dans la topologie de la convergence convergence ´etroite. etroite.
Le principe princip e d’invariance d’invariance de Donsker peut p eut s’av´ erer erer utile pour calculer des lois de fonctionnelles browniennes. Comme illustration nous allons montrer comment d´eriver eriver la loi du temps pass´ e dans R+ par un mouvement brownien.
F t )t≥0,F ,P).
l’arcs inuss de L´evy) evy ) Soit So it ((Bt )t≥0 un mouvement brownien sur (Ω sur (Ω,( Th´ eor` eme 42. (Loi de l’arcsinu Pour t 0, on note
≥
t
At =
0
1R+ (Bs )ds.
62
On a alors pour x
≤ t: P(At
2
≤ x) = π arcsin
x t
Preuve. Soit (S n )n∈N une marche march e al´eatoire eato ire sym´etrique etri que sur Z. On note T 1 son temps d’atteinte de 1 et ero ero non n on nul. Rappelons, Rapp elons, comme nous l’avons vu dans un exercice de la l a section Z 1 son premier z´
1 que
Z 1 =loi T 1 + 1.
On note
{ ≤ i ≤ n, max(S i−1,S i) > 0}, qui correspond corresp ond au a u temps tem ps pass´ p ass´e dans da ns R+ avant avant l’instant n par (S n )n∈ On va montrer par r´ecurrence ecurrenc e sur n que pour 0 ≤ k ≤ n, An = Card 1
N
P (A2n
Tout d’abord, P (A2n
= 0) = P (T 1
.
= 2k) = P (S 2k = 0) P (S 2n−2k = 0)
≥ 2n + 1) = P (Z 1 ≥ 2n + 2) = P (S 1 = 0,...,S 2n = 0) .
Mais comme nous l’avons vu dans la d´ emonstration emonstration de la Proposition 9: P (S 1
Par cons´ con s´equent equ ent,,
= 0,...,S 2n = 0) = P (S 2n = 0) .
P (A2n
= 0) = P (S 2n = 0) .
On montre de mˆeme eme que P (A2n
= 2n) = P (S 2n = 0) .
Ce qui initialise initia lise la r´ecurrence. ecurrence . Pour 1 k n 1,
≤ ≤ −
{A2n = 2k} ⊂ {Z 1 ≤ 2k}
ainsi: k
P (A2n
= 2k) =
P (A2n
i=1
1 = 2
|
= 2k Z 1 = 2i) P (Z 1 = 2i)
k
i=1
P (Z 1
= 2i) (P (A2n−2i = 2k ) + P (A2n−2i = 2k
− 2i)) ,
cela nous donne, grˆace ace a` l’hyp l’ hypoth oth``ese ese de r´ecurr ecu rrenc ence, e, =
P (A2n = 2k ) k 1 i=1 P (Z 1 2
= 2 i) (P (S 2k = 0) P (S 2n−2k−2i = 0) + P (S 2k−2i = 0) P (S 2n−2k = 0))
mais maintenant, grˆ ace ace a` la propr pr opri´ i´et´ et´e de Ma Markov rkov k
i=1
k
P (Z 1
= 2i) P (S 2k−2i = 0) =
P (Z 1
|
= 2i) P (S 2k = 0 Z 1 = 2i)
i=1
= P (S 2k = 0)
De mˆeme, em e, k
i=1
P (Z 1
= 2i) P (S 2n−2k−2i = 0) = P (S 2n−2k = 0) .
63
Ainsi P (A2n
ce qui ach`eve eve la r´ecurr ecu rrenc ence. e. Par cons´equent eque nt pour po ur 0 k
= 2k) = P (S 2k = 0) P (S 2n−2k = 0)
≤ ≤ n,
P (A2n
= 2 k) = P (S 2k = 0) P (S 2n−2k = 0) =
− −
1 (2n 2k)! (2k)! 2n (n k )!2 (k )!2
Avec Av ec l’aide de la formule formule de Stirling Stirling on p eut alors en d´eduire eduire (faites (faites la justificatio justification n !) que pour x [0,1]:
∈
P
Etant Et ant donn´ do nn´e que q ue
A2n 2n
≤ ∼ x
[nx] nx]
1 n
→+∞
π
1
k (n
k=0
− k)
√ − ∈ ≤ √ − ≤ ≤ √ − x
0
nous avons donc pour tout x
du
π
=
u (1
u)
A2n 2n
x
2
π
arcsin x
[0,1]:
n
lim
P
→+∞
=
2
arcsin x.
π
Consid´ Consi d´erons erons maintenant la suite s uite de Donsker: Don sker: S tn =
n
t
k n
S k +1 +
k+1 n
t S k
,
k n
k+1 . n
t
Il est facile de voir que
1
0
1R+ (S tn )dt =
A2n . 2n
1
Le th´eor` eor`eme eme de Donsker implique impli que la convergence en loi de 0 1R+ (S tn )dt vers cons co ns´´equ eq uent ent 2 x) = arcsin x. P(A1
≤
π
1 0 1R+ (Bs )ds.
Par
√
Et la loi de At est d´ eduite eduite de celle de A1 par la propri´ pro pri´et´ et´e d’auto d’a utosim simila ilarit´ rit´e du mouvement mou vement brownien.
Exercice 43.
(1) Soit (S n )n∈N une marche al´eatoire eato ire sym´etrique etri que sur Z. On note toujours
{ ≤ i ≤ n, max(S i−1,S i) > 0}
An = Card 1
(a) Montrer que pour 0 < x,y < 1 +
∞
n
n=0 k=0
P (A2n
= 2k,S 2n = 0) x2k y2n =
2
− − 1
y2 +
1
x2 y 2
(b) En d´eduire eduire que, conditionnel lement a a` S 2n = 0, A2n est uniform´ uni form´ement eme nt distribu dist ribu´ ´ee ee sur l’ensemble 0,2,4,...,2n.
64
F
F
(2) Soit (Bt )t≥0 un mouvement brownien sur (Ω,( t )t≥0 , ,P). En utilisan util isantt le th´eor` eor`eme eme de Donsker, montrer que conditionnellement a a` B1 = 0, 0 , la variable variabl e al´eatoire eatoire
1
0
1R+ (Bs )ds,
est uniform´ement ement distribu´ee ee sur l’interval l’inter valle le [0,1]. 1].
F t )t≥0 ,F ,P). Le but de l’exercice
Exercice Exercice 44. Soit (Bt )t≥0 un mouvement brownien sur (Ω,(
est de calculer la loi de
{ ∈ [0,1],Bt = 0}.
g1 = sup t
(1) Soit (S n )n∈N une marche al´eatoire eato ire sym´etrique etri que sur Z. Pour n
{ ≤ k ≤ n,S k = 0}.
dn = max 1
Montrer que pour 0
≤k≤n
P (d2n
(2) En d´eduire edu ire que pour x
= 2 k) = P (S 2k = 0) P (S 2n−2k = 0)
∈ [0,1] n
∈ N, on note
lim
≤ dn n
P
→+∞
x
=
2 π
√
arcsin x.
(3) Grˆ ace ace au principe principe de Donsker, en d´ eduire eduire la loi de g1 . ´ 5. Loi du logarithme iter er´ e
Nous avons vu que les trajectoires d’un mouvement brownien sont presque sˆurement urement localement 1 γ -H¨ -H¨ older older pour tout γ 0, 2 . La proposition suivante connue sous le nom de loi du logarithme it´er´ er´e aide a` visualiser un peu les trajectoires browniennes et montre en particulier que les tra jectoires ne sont pas 12 -H¨ older. older.
∈
loga rithm thmee it´er´ er´e) e) Th´ eor` eme 45. (Loi du logari B Soit ( t )t≥0 un mouvement brownien sur (Ω,( P
− lim inf t
→0
Preuve.
Bt+s
F t )t≥0,F ,P). Pour tout s ≥ 0, Bs Bt+s − Bs = −1 , lim lim sup sup = 1 = 1. 1 1 t→0
2t lnln
2t lnln
t
t
Grˆace ace aux propri´ et´ et´ es es de sym´ etrie etrie et d’invariance d’invariance par translation du mouvement mouvement brownien, il suffit en fait de d´emontrer emontrer que: P
Bt
lim lim sup sup t
→0
2t lnln
1 t
=1
= 1.
≤1
= 1.
Dans un premier temps, montrons que P
Bt
lim lim sup sup t
→0
2t lnln
1 t
Pour simplifier les notations, on note
h(t) =
1 2t lnln . t
65
Soit α,β > 0, d’apr` d’a pr`es es l’in´ l’i n´egalit´ egal it´e max maxima imale le de Doob Doo b appliq app liqu´ u´ee ee a` la martingale on a pour tout t P
≥ 0:
sup
0 s t
≤≤
Soit maintenant θ,δ
α
−−2s
Bs
> β = P
P
2
s
≤
> eαβ
0 s t
≤≤
→ ∞
(1 + δ)h(θ n ) θn
,β =
sup
≤≤
(1 + δ)h(θ n ) s 2θ n
−
Bs
∈
≥
sup
0 s θn
≤≤
Mais
sup
0 s θn n,
≤≤
implique que pour θ n+1 < t
On en d´eduit edu it ainsi ain si
(1 + δ)h(θ n ) s 2θ n
Bs (ω )
−
Bs (ω )
− (1 + 2δθ)nh(θ
≤θ Bt (ω ) ≤ sup 0≤s≤θ
1
=O
1+δ n1+δ
,
t 0
≥
n
Bt
lim lim sup sup t
2t lnln 1t
→0
→ 1 et δ → 0, on obtient bien lim lim sup sup
P
t
→0
Montrons maintenant que
Bt
2t lnln
lim lim sup sup
P
n)
≤ ≤
1 h(θn ). 2 1 h(θ n ) 2
s
t
→0
Bt
2t lnln
∈ (0,1). Pour n ∈ N, on note
An = ω,B θn (ω )
≤ √ ≤ 2+δ 2 θ
Bθn+1 (ω )
P(An )
1
= 1.
≥1
= 1.
1 t
1 t
= 1.
≥ (1 −
√
∞
=+ .
Pour cela, cela , on utilis uti lisee l’in´ l’i n´egalit´ egal it´e ´el´ el´ementaire ement aire (justifi (ju stifiez ez la !): +
∞
a
e−
u2
2
du
a
e− 2 1+a
a2
2
,
θ)h(θ n ) .
a > 0.
.
∈ Ω, on peut trouver
≤ 12 (2 + δ)h(θn ) ≤ (2 +2√δ)θh(t) .
Bs (ω )
− ≥
P
On va montrer que
e−αβ .
1 > h(θn ) 2
Par cons´ co ns´equent, equent, d’apr`es es le l e lemme l emme de Borel-Cantel Bo rel-Cantelli, li, pour pou r presque pre sque tout ω N (ω ) N tel que pour tout n N (ω ),
Soit θ
e
− α22 t
1 h(θn ), 2
+ ,
0 s θn
En faisant θ
αBt
∈ (0,1). 1) . En appl ap pliq iqua uant nt l’in´ l’ in´egali ega lit´ t´e pr´ec´ ec´edent ed entee p our ou r tou t outt n ∈ N avec t = θn ,α =
on obtient, quand n
sup eαBs −
α2
66
On a ainsi: P(An )
1 2π
√
=
avec
+
e−
Au voisinage de + ,
2
du
≥ 1 +ana2 e−
2 an 2
,
n
− √√θ)h(θn) . n/2 1 − θ θ n/2
(1
2 an an − 2 =O e 1 + an2
Par cons´ con s´equent equ ent,,
u2
an
an =
∞
∞
1 n
√
1+θ−2 θ 1−θ
.
∞ D’apr`es es le lemme de Borel-Cantelli, Borel-C antelli, avec probabi p robabilit´ lit´e 1, √ Bθ − Bθ ≥ (1 − θ)h(θn) n
P(An )
=+ .
n+1
se produit pour une infinit´e de n. Mais d’apr`es es la premi`ere ere partie de la d´emonstration, emonst ration, pour presque tout ω, on peut trouver N (ω) tel que pour n N (ω ) Bθn+1
Par cons´equent, eque nt, avec probab pro babili ilit´ t´e 1,
≥ √ > −2h(θ n+1 ) ≥ −2 θh(θ n ). √ Bθ > h(θ n )(1 − 5 θ) n
se produit pour une infinit´e de n. Cela implique P
Bt
lim lim sup sup
2t lnln 1t
t
→0
On obtient alors
P
lim lim sup sup t
→0
→
Bt
√ ≥ − ≥
2t lnln
1
1 t
5 θ
1
= 1.
= 1.
en faisant θ 0. Par la l a propri´ p ropri´et´ et´e d’invariance par inversion du temps du mouvement m ouvement brownien, on a:
F t )t≥0,F ,P).
Corollaire 46. Soit (Bt )t≥0 un mouvement brownien sur (Ω,( P
lim lim inf inf t
→+ ∞
Bt
√2t lnln t = −1 ,
lim lim sup sup t
→+ ∞
Bt
√2t lnln t = 1
= 1.
6. Propri´ et et´ e de Markov forte Dans ce paragraphe, nous allons donner quelques applications app lications de la propri´ et´ et´ e de Markov Markov dite forte du mouvement mouvement brownien. Un processus est dit Markov Markov fort, s’il v´ erifie erifie la propri´ et´ et´ e de Markov ´egalement egalement par rapport rapp ort a` des de s temps tem ps d’ar d’ arrˆ rˆet, et, plus pl us pr´ecis´ eci s´ement: eme nt:
F t )t≥0 ,F ,P) un espace de probabilit´ probabili t´e filtr´e et (X t )t≥0 un processus adap ad apt´ t´e a` la filtration (F t )t≥0 . On dit que (X t )t≥0 est un processus de Markov fort de fonction de transition {P t ,t ≥ 0} relativement a ` la filtration (F t )t≥0 si pour toute tout e fonctio fon ction n bor´elienne elie nne born´ee ee f : R → R, et pour tout temps d’arrˆ et et fini S de la filtration (F t )t≥0 : E(f (X S S +t ) | F S S ) = (Pt f )(X S S ), t > 0.
Definition 47. Soient (Ω,(
67
Un processus processus de Markov Markov fort est ´evidemmen evidemmentt un processus processus de Markov. Markov. Comme nous allons le montrer, un exemple de processus de Markov fort est le mouvement brownien.
F
F
Proposition 48. Soit (Bt )t≥0 un mouvement brownien sur (Ω,( t )t≥0 , ,P). Soit maintenant T un temps d’arrˆ et et fini de la filtration filtration ( t )t≥0 . Alors le processus,
F
− BT )t≥0 est un mouvement brownien brownien ind´ ependant ependant de la tribu F T T . (BT + T +t
Preuve. Soit T un temps d’arrˆ et et fini de la filtration (
F t)t≥0. Pour t ≥ 0, on note ˜t = BT + B T +t − BT
Soient λ
∈ R, 0 ≤ s ≤ t et N ≥ 1. En appliq app liquant uant le th´eor` eor`eme eme d’arrˆ d’a rrˆet et de Doob Do ob a` la martingale
2
iλBt + λ2 t
e
,
t 0
≥
∧ N et s + T ∧ N , on obtient: + (T ∧N +t) iλB ∧ eiλB ∧ | F T T ∧N + N +s = e
avec les temps tem ps s’arrˆ s’a rrˆet et t + T E
T N +t
d’o` u
λ2
2
λ2 T N +s + 2 (T
λ2
(t−s) . | F T T ∧N + N +s Par le th´eor` eor`eme eme de converg con vergen ence ce domi do min´ n´ee, ee, quan qu and d N → +∞, on obtient: ˜ −B ˜ ) − (t−s) . iλ( iλ(B | F T + E e T +s = e
E
iλ(BT ∧N +t BT ∧N +s ) eiλ(
N +s) ∧N + ,
−
t
s
= e−
2
λ2
2
˜t )t≥0 est par cons´equent Le processus ( B eque nt a` accroissements accroissements ind´ ependants ependants et stationnaires. Il est ˜t )t≥0 est un processus de L´ d’autre d’aut re part pa rt ´evidemment evidemme nt continu. co ntinu. Donc Do nc (B evy evy continu. continu. La relation E
˜
˜
iλ(Bt −Bs ) eiλ( = e−
implique que c’est un mouvement brownien.
λ2
2
(t s)
−
,
Comme corollaire, corolla ire, nous en d´eduisons: eduison s:
F t)t≥0 ,F ,P). Alors (Bt )t≥0 v´erifie
sur (Ω (Ω,( Corollaire 49. Soit (Bt )t≥0 un mouvement brownien sur
F t )t≥0.
la propri´et´ et´e de Markov Mark ov forte fort e relativeme relati vement nt a` la filtration (
Preuve. Soient f : R
fonc tion n bor´ bo r´elienne elie nne born´ bo rn´ee, ee, t ≥ 0 et S un temps d’arrˆet et fini. On a: → R une fonctio E(f (Bt+S ) | F S S ) = E(f (Bt+S − BS + BS ) | F S S ). Comme Bt+S − BS est ind´ependa ep endant nt de F S eduit eduit tout d’abord que S , on en d´ E(f (Bt+S ) | F S S ) = E(f (Bt+S ) | BS ). Pour x ∈ R, E(f (Bt+S ) | BS = x) = E(f (Bt+S − BS + BS ) | BS = x) = E(f (X t + x)),
68
o` u X t est une variable variab le al´eatoire eato ire ind´epend ep endante ante de BS telle que X t =loi
N (0 (0,t). Par cons´equent, eque nt,
E(f (Bt+S )
| BS = x) =
et E(f (Bt+S )
| F S S ) =
f (x + y )
R
f (BS + y )
R
y2 − e 2t
√2πt dy
y2 − e 2t
√2πt dy.
La propri´ pro pri´et´ et´e de Markov forte fort e perme pe rmett de d´eduire edu ire plusieu plu sieurs rs r´esulta esu ltats ts int´eressants eres sants.. Dans ce qui suit, pour a R, on note
∈
{
}
T a = inf t > 0,Bt = a ,
F
F
o` u (Bt )t≥0 est un mouvement brownien sur (Ω,( t )t≥0 , ,P). Dans un premier temps, on a un principe princip e de r´ eflexion eflexion analogue a` celui des marches al´eatoires. eatoires . (Pri ncipe pe de r´eflexio efle xion) n) Proposition 50. (Princi Soit a R. Le processus
∈
˜t = Bt , B = 2a
t < Ta
− Bt, t ≥ T a,
est un mouvement brownien. Preuve.
Exercice.
Proposition 51. Pour t
≥ 0, on note {
S t = sup Bs ,s
Alors, pour t
≤ t}.
≥ 0, a ≥ 0, x ≤ a, 2(2a − x) − e P(S t ∈ da,Bt ∈ dx) = √ 2πt3
(2a−x)2 2t
dadx.
Preuve.
Exercice.
Proposition 52. On a
(S t
| |
− Bt )t≥0 =loi (| Bt |)t≥0 .
D’autre part, ( Bt )t≥0 est un processus de Markov fort de fonction de transition: (Pt f )(x) = Preuve.
Exercice.
2 2πt
√
+
0
∞
e−
x2 +y 2 2t
cosh
xy f (y )dy, t > 0. t
69
7. Diffusions L’´etude etude des martingales martin gales browniennes brownienn es nous n ous a montr´e que le mouvement brownien ´etait, etait, dans un certain sens, reli´e a` l’´equation equatio n de la chaleur: ∂f 1 ∂ 2 f . = 2 ∂x 2 ∂t
Dans ce paragraphe, nous allons pr´eciser eciser un plus ce lien, en introduisant la notion de diffusion.
{
≥ }
0 une foncti fonction on de trans transiti ition on de Feller-Dy eller-Dynki nkin. n. Montr Montrer er que si Exercice Exercice 53. Soit P t ,t ∞ f : R R est une fonction C ` a support compact, alors
→
lim Pt f
t
→0
{ →
− f ∞ = 0 .
≥ }
Exercice 54. Soit P t ,t 0 la fonction de transition du mouvement brownien. R une fonction C ∞ ` (1) Soit f : R a support compact. Montrer que pour tout x
lim
(Pt f )(x)
→0
(2) Soit f : R
2 ` a support compact. Montrer, en fait que, t
t
→ R une fonction C ∞
− f (x) = 1 f ′′(x).
− f − 1 f ′′
Pt f lim t→0 t
(3) Montrer que si f : R
∈ R,
2
= 0.
∞
→ R est une fonction polynomiale alors pour tout x ∈ R +
(Pt f )(x) =
∞
k =0
1 2k k!
(2k ) tk f (2k (x).
R, C ∞ a Dans la suite on notera c∞ (R,R), l’espace des fonctions R ` support compact et on rappelle que 0 (R,R) d´ enote enote l’ensemble des applications continues continues f : R R telles que lim−∞ f = lim+∞ f = 0. On rappelle rapp elle ´egalement egalement que (R+ ,R) est l’espace des fonctions continues R+ R. Le processus des coordonn´ coor donn´ees ees sur cet espace est not´e comme d’habitude d’habi tude (πt )t≥0 et on note enfin:
C
C
→
→
C
→
Gt = σ(πs,0 ≤ s ≤ t), t ≥ 0, G∞ = σ(πs,s ≥ 0). fonction de trans transiti ition. on. On dit que {P t ,t ≥ 0} est une Definition Definition 55. Soit {P t ,t ≥ 0} une fonction fonction de transition de diffusion si: (1) La fonction de transition {P t ,t ≥ 0} est de Feller-Dynkin; (2) Pour tout f ∈ Cc∞ (R,R), il existe g ∈ C0 (R,R) telle que: Pt f − f −g . lim t→0 t ∞ (3) Pour Pou r toute to ute mesure mesu re de probabilit´ p robabilit´e ν sur R, on peut trouver une probabilit´ e Pν sur G∞ telle
que: (a) Sous Pν , π0 =loi ν ; (b) Sur l’espace l’es pace de probabilit´ probabili t´e filtr´e ( (R+ ,R),( t )t≥0 , ∞ ,Pν ), (πt )t≥0 est un processus de Markov de fonction de transition P t ,t 0 relativement ` a la filtration ( t )t≥0 . Dans (2) le g qui est associ´ ass oci´e au f est unique et on notera g = f . L’o L ’op´ p´erate era teur ur : c∞ (R,R) s’ap pellee le g´en´ en´erateur erateu r infin i nfinit´ it´esimal esi mal de la fonction fonc tion de transition transi tion P t ,t 0 . 0 (R,R) s’appell
C
C
{
G G ≥ } L
{
L C ≥ }
G
→
70
processus continu d´efini efini sur un espace de probabilit´ probabilit´e filtr´e Definition Definition 56. Soit (X t )t≥0 un processus (Ω,( t )t≥0 , ,P). On dit que (X t )t≥0 est un pro processus cessus de diffusion diffusion par rapport apport a` la filtration
F
F
F
( t )t≥0 si c’est un processus de Markov dont la fonction de transition est une fonction de transition de diffusion. diffusion . Le g´en´ en´erateur erateur infinit´esimal esimal de cette fonction fonctio n de transition est encore appel´ e le g´en´ en´erateu erat eurr infi i nfini nit´ t´esima es imall de la diffus di ffusio ion. n.
F
F
∈
Exercice 57. Soit (Bt )t≥0 un mouvement brownien sur (Ω,( t )t≥0 , ,P). Pour µ R, montrer que le processus (Bt + µt)t≥0 est un process processus us de diffusio diffu sion n de g´en´ en´erateur erateu r infinit´ infi nit´esimal: esi mal:
d 1 d2 . =µ + dx 2 dx2
L
Exercice 58. (Processus d’Ornstein-Uhlenbeck) Soit (Bt )t≥0 un mouvement mouvement browni brownien en sur (Ω,( t )t≥0 , ,P). Soit θ
F
processus
F
ere le ∈ R\{0}. On consid`ere
X t = eθt B 1−e−2θt . 2θ
(1) Montrer que (X t )t≥0 est un processus gaussien dont on calculera la fonction moyenne et la fonction de covariance. (2) Montrer que (X t )t≥0 est un proc processus essus de Markov de fonction de transition transition donn´ ee ee par: par: (Pt f )(x) =
− √ e2θt
f eθt x +
1
2θ
R
e−
y
y2
2
2π
dy.
(3) Montrer que (X t )t≥0 est une diffusion diffu sion de g´en´ en´erateur erateu r infinit´ infi nit´esimal esi mal
L
d 1 d2 . = θx + dx 2 dx2
{
Exercice 59. Soit (X t )t≥0 un processus de diffusion de fonction de transition P t ,t ∞ g´en´ en ´erate era teu ur infin in finit it´ ´esim es imal al . Montrer que si f c (R,R) est une fonction telle que
L
alors pour tout x
∈C
Lf = µf ,
∈R
+
(Pt f )(x) =
∞
k=0
1 2k k !
µ
≥ 0} et de
∈ R,
tk (
Lk f )(x) = e
1 µt 2
f (x).
On p eut construire toute une famille de martingales associ´ees ees `a un processus de diffusion: processus de diffusion d´ efini efini sur un espace espace de probabilit´ probabilit´ e Propositio Proposition n 60. Soit (X t )t≥0 un processus filtr´e (Ω,( t )t≥0 , ,P) de fonction de transition P t ,t 0 et de g´en´ en ´erate era teur ur infin in finit it´ ´esim es imal al . Soit ∞ f c (R,R). Alors, le processus
∈C
F
F
{
f (X t )
≥ }
− L t
L
( f )(X s )ds
0
t 0
≥
F t)t≥0 .
est une martingale relativement a ` la filtration ( Preuve.
∈ Cc∞(R,R) et t ≥ 0, Pε f − f lim = Pt Lf. ε→0 ε
Remarquons tout d’abord, d’apr`es es l’exercice 53, que pour p our f
−
Pt+ε f Pt f lim = Pt ε→ 0 ε
71
Il s’en suit que pour f
∈ Cc∞(R,R) et t ≥ 0, Pt f = f +
t
L
Pu fdu.
0
Soient maintenant f
∈ Cc∞(R,R) et t ≥ s ≥ 0, on a: E (f (X t ) | F s ) = (Pt−s f )(X s )
L L L L t s
= f (X s ) +
−
(Pu f )(X s )du
0
t
= f (X s ) +
(Pu−s f )(X s )du
s
t
= f (X s ) +
E ((
s
f )(X u )
| F s)
t
= f (X s ) + E Ce qui conclut la d´emonstration. emonstr ation.
s
( f )(X u )du
| F s
.
Le joli jol i th´eor` eor`eme eme suivant sui vant dˆu `a Dynkin nous dit qu’un g´en´ en´erateur erateur infinit´ infini t´esimal esimal de diffusion diffusi on est n´ecessair eces sairement ement un op´ o p´erateur erat eur diff´erentiel erent iel ellipt ell iptiqu iquee du d u second sec ond ordre: ord re:
L
processus us de diffusion diffu sion de g´en´ en´erateur erateu r infinit´ infi nit´esimal esim al Th´ eor` eme 61. (Dynkin) Soit (X t )t≥0 un process d´efini efi ni sur su r un espace es pace de probabili probab ilit´ t´e filtr´ filt r´e (Ω,( t )t≥0 , ,P). On peut trouver des fonctions continues b:R [0, + ) telles que: R et σ : R
→
→
F
∞
L
F
2 d 1 2 d . = b(x) + σ (x) dx dx2 2
Preuve. Soit (X t )t≥0 un processus de diffusion de fonction de transition P t ,t 0 et de g´en´ en´erat er ateu eurr infin in finit´ it´esima esi mall d´efini efi ni sur un espace esp ace de prob pr obab abil ilit´ it´e filtr´ fil tr´e (Ω ( Ω,( t )t≥0 , ,P). Montrons Montrons tout d’abord
L
F
{ ≥ } F
L v´erifi er ifiee les le s prop pr opri´ ri´et´ et´es es suiva su ivant ntes es:: ∞ (1) L : Cc (R,R) → C0 (R+ ,R) est un op´erateu era teurr lin´ li n´eaire; eai re; (2) L est un op´ erateur erateur local, i.e. si f,g ∈ C c∞(R,R) coincident sur un voisinage de x ∈ R, alors (Lf )(x) = (Lg )(x); (3) L v´ erifie erifie le principe princi pe du maximum: m aximum: Si f ∈ Cc∞ (R,R) atteint son maximum en x ∈ R avec f (x) ≥ 0, alors (Lf )(x) ≤ 0. La prop pr opri´ ri´et´ et´e (1) (1 ) est clair cla iree et d´ecoul eco ulee de la lin´ li n´earit´ ear it´e de Pt . ∞ Soient maintenant f,g ∈ Cc (R,R) qui coincident sur un voisinage de x ∈ R. On a que
(Pt f )(x) = Ex (f (πt)),
d´esign esi gnee l’esp´ l’ esp´erance era nce sous so us la prob pr obab abil ilit´ it´e Px telle que: – Sous Px , π0 =loi δx (distribution de Dirac en x); – Sur l’espace l’espa ce de probabilit´ probab ilit´e filtr´e ( (R+ ,R),( t )t≥0 , ∞ ,Pν ), (πt )t≥0 est un processus de Markov de fonction de transition P t ,t 0 relativement a` la filtration ( t )t≥0 . De mˆeme, em e, (Pt g )(x) = Ex (g (πt )). Comme (πt )t≥0 est continu, on en d´eduit eduit l’existence l’exist ence d’un temps d’arrˆet et T tel que T > 0, Px p.s. et f (πt ) = g (πt ), t < T . o` u
Ex
C G { ≥ }
G
G
72
Ce qui implique Ex (f (πt ))
lim
t
− Ex(g(πt )) = lim Ex(f (1t
→0
→0
Comme d’un autre cˆot´ ot´e, e, on a lim
Ex (f (πt ))
− Ex(g(πt )) = ( Lf )(x) − (Lg)(x), t
t
→0
on en d´eduit edu it que
t
t
L
L
( f )(x) = ( g )(x). La propri´et´ et´e (2) est donc bien satisfaite. satisfa ite. ∞ Montrons Montr ons que la propri´ pro pri´et´ et´e (3) l’est l’e st ´egalement egal ement.. Soit Soi t f c (R,R) qui atteint son maximum en x R avec f (x) 0. Soit encore Px la probab pro babili ilit´ t´e sur ∞ telle que: – Sous Px , π0 =loi δx (distribution de Dirac en x); – Sur l’espace l’espa ce de probabilit´ probab ilit´e filtr´e ( (R+ ,R),( t )t≥0 , ∞ ,Pν ), (πt )t≥0 est un processus de Markov de fonction de transition P t ,t 0 relativement a` la filtration ( t )t≥0 . D’apr` D’ap r`es es la propo pro posit sition ion pr´ec´ ec´edente, edent e, sous sou s cette cett e probab pro babili ilit´ t´e Px , le processus
∈
∈C
≥
G
C G { ≥ }
G
− L G L
G
t
f (πt )
( f )(πs )ds
0
t 0
≥
est une martingale relativement a` la filtration ( t )t≥0 . Par cons´equent, equent, pour pou r tout t out t t
x E (f (πt ))
= f (x) +
x E ((
≥ 0,
f )(πu ))du.
0
Comme pour tout t
≥ 0,
on en d´eduit eduit que pour t
x E (f (πt ))
≥0
1 t
A la limite t
→ 0, on r´ecup ec up``ere: er e:
t
≤ f (x),
x E ((
Lf )(πu))du ≤ 0.
0
L
≤
( f )(x) 0. En conclusi co nclusion, on, les propri´et´ et´es es (1), (2) et (3) ( 3) sont bien bi en satisfait sa tisfaites. es. On veut maintenant d´emontrer emontrer que est un op´erateur erateur diff´erentiel erentiel elliptique ellipt ique du second ordre. Soit x R. Soit ψ0 une fonction C ∞ a` support compact telle que dans un voisinage de x,
∈
L
ψ(y ) = 1.
De Pt 1 = 1, il est facile de voir, en utilisant utilis ant la propri´et´ et´e d’op´erateur erateur local loca l de
L
( ψ0 )(x) = 0 .
L que:
Soit maintenant ψ1 une fonction C ∞ a` support compact telle que dans un voisinage de x, ψ1 (y ) = y
On pose alors
− x.
L
b(x) = ( ψ1 )(x).
La fonction fonction ψ12 atteint un minimum local en x, par cons´equent eque nt ( ψ12 )(x)
L
≥ 0,
73
et on pose alors σ2 (x) = ( ψ12 )(x).
L
Les fonctions b et σ sont bien d´efinies efinies et continues continues (justifiez le !). ∞ Montrons maintenant que pour tout f c (R,R),
∈C
1 ( f )(x) = b(x)f ′ (x) + σ (x)2 f ′′ (x). 2 ∞ es es la formule de Taylor, au voisinage de d e x, on peut pe ut ´ecrire ecri re c (R,R). D’apr`
L
Soit donc f
∈C
f (y ) = f (x)ψ0 (y ) + f ′(x)ψ1 (y ) +
1 ′′ f (x)ψ12 (y ) + R(y )ψ13 (y ) 2
o` u R est continue. On en d´eduit edu it donc don c 1 ( f )(x) = f (x)( ψ0 )(x) + f ′ (x)( ψ1 )(x) + f ′′ (x)( ψ12 )(x) + ( Rψ13 )(x). 2 Pour conclure notre d´ emonstration, emonstration, il reste donc a` v´erifier eri fier que qu e
L
L
L
L
L
( Rψ13 )(x) = 0.
L
Pour ε > 0 assez petit, y
a un maximum local en x, d’o` u
→ R(y)ψ13(y) − ε(y − x)2 ( Rψ13 )(x)
L
On en d´edui ed uitt
≤ εσ2 (x).
( Rψ13 )(x)
L
De mˆeme, eme , en consi con sid´ d´erant era nt y
on montre que
≤ 0.
→ R(y)ψ13(y) + ε(y − x)2, ( Rψ13 )(x)
L
Ce qui montre bien
≥ 0.
( Rψ13 )(x) = 0.
L
Les processus pro cessus de diffusion diffusi on permettent perm ettent de r´esoudre esoudre des ´equations equation s aux d´eriv´ eriv´ees ees partielles: partie lles:
{
Proposition 62. Soit (X t )t≥0 un processus de diffusion de fonction de transition P t ,t
de g´en´ en´erate era teur ur infin in finit´ it´esim es imal al
L Soit f
2 d 1 2 d . = b(x) + σ (x) dx dx2 2
∈ Cc∞(R,R). Alors, la fonction: g : (0, + ∞) × R → R,
(t,x)
→ (Ptf )(x),
est solution du probl` eme eme parabolique parabolique suivant: suivan t: ∂g ∂g ∂ 2 g 1 = b(x) + σ 2 (x) 2 , ∂t ∂x ∂x 2
g (t,x) = f (x). ∀x ∈ R, tlim →0
≥ 0} et
74
Preuve.
Exercice. . Ainsi, si on a en tˆete ete des applications applica tions en th´eorie eorie des ´equations equatio ns aux d´eriv´ eriv´ees ees partielles, partiel les, il est important de savoir comment construire des processus de diffusion. Le calcul d’Itˆo pr´esen es ent´ t´e au chapitre suivant s’av` erera erera un outil tr`es es puissant puissa nt facile a` ´etendre etendre en dimension di mension plus grande que 1. En attendant, attend ant, on a le th´eor` eor`eme eme remarquable remarqu able suivant, que d´emontrerons emontrerons plus tard et qui r`egle egle le probl`eme eme de l’existence des diffusions en dimension 1, sous des hypoth` eses eses relativement relativement faibles:
→ R et σ : R → (0, + ∞) deux fonctions continues. x y | b(z) | dz dy, x ∈ R. exp −2 s(x) =
Th´ eor` eme 63. Soient b : R
Soit
0
0
σ (z )2
Soit maintenant (Bt )t≥0 un mouvement brownien. Pour u 0, on note
≥
u
Au =
Alors le processus
0
ds = ′ s (Bs )σ 2 (Bs )
u
exp
0
s−1 Binf {u,Au>t}
est une diffusion diffu sion de g´en´ en´erateur erateu r infinit´ infi nit´esimal esi mal
B 2 0 s σb((zz))2 dz σ 2 (Bs )
|
|
ds,
t 0
≥
2
L = b(x) dxd + 12 σ(x)2 dxd 2 . Ce qu’il y a de remarquable dans ce th´ eor` eor` eme, eme, c’est qu’ainsi toutes les diffusions unidimensionnelles peuvent ˆetre construite constru ite a` partir du seul mouvement brownien. ´ 8. Un invit´ e de marque: Paul Levy evy
Born: 15 Sept 1886 in Paris, France Died: 15 Dec 1971 in Paris, France
Paul L´evy evy was born into a family containin containingg several several mathematic mathematicians. ians. His grandfather grandfather was a ´ professor professor of mathematics mathematics while Paul’s Paul’s father, father, Lucien Lucien L´ evy, evy, was an examiner examiner with the Ecole Polytec Polytechnique hnique and wrote papers on geometry geometry.. Paul Paul attended attended the Lyc´ Lyc´ee ee Saint Saint Louis in Paris Paris and he achieved outstanding success winning prizes not only in mathematics but also in Greek, ´ chemistry and physics. He was placed first for entry to the Ecole Normale Sup´erieur erieur and second ´ for entry to the Ecole Polytechnique Polytechnique in the Concours d’entr d’ entr´´ee ee for the two institutions. ´ He chose to attend the Ecole Polytechnique and he while still an undergraduate there published his first paper on semiconvergent series in 1905. After graduating in first place, L´vy vy took a year ´ doing military service before entering the Ecole des Mines in 1907. While he studied at the ´ Ecole des Mines he also attended courses at the Sorbonne given by Darboux and Emile Picard. In addition he attended lectures at the Coll`ege ege de France by Georges Humbert and Hadamard. It was Hadamard who was the ma jor influence in determining the topics on which L´ evy evy would ´ undertake research. Finishing his studies at the Ecole des Mines in 1910 he began research in functional functional analysis. His thesis thesis on this topic was examined examined by Emile Picard, Picard, Poincar Poincar´´e and Hadamard in 1911 and he received his Docteur `es es Sciences in 1912. ´ L´evy evy became becam e professor profess or Ecole des Mines in Paris in 1913, then professor of analysis at the ´ Ecole Polytechnique in Paris in 1920 where he remained until he retired in 1959. During World War I L´ evy evy served in the artillery and was involved involved in using his mathematical skills in solving
75
problems concerning defence against attacks from the air. A young mathematician R Gateaux was killed near the beginning of the war and Hadamard asked L´ evy evy to prepare Gateaux’s work for publication. He did this but he did not stop at writing up Gateaux’s results, rather he took Gateaux’s ideas and developed them further publishing the material after the war had ended in 1919. As we indicated above L´evy evy first worked worked on functional analysis: ... done done in the spirit spirit of Volterr olterra. a. This This involv involveed extend extending ing the calculu alculuss of functi functions ons of a real variable to spaces where the points are curves, surfaces, sequences or functions. functions. ´ In 1919 L´ evy evy was asked to give three lectures at the Ecole Polytechnique on: ... notions of calculus of probabilities and the role of Gaussian law in the theory of errors . Taylor writes: At that time there was no mathematical theory of probability - only a collection of small computational problems. Now it is a fully-fledged branch of mathematics using techniques from all branches of modern analysis and making its own contribution of ideas, problems, results and use ful machinery to be applied elsewhere. If there is one person who has influenced the establishment and growth growth of probabilit probabilityy theory more than any other, that person person must be Paul L´ evy evy . Lo`eve, eve, one on e of his students, gives a very colorful colo rful description descrip tion of L´evy’s evy’s contributions: contribut ions: Paul L´ evy evy was a painter painter in the prob probabili abilistic stic world. world. Like the very grea greatt painting ainting geniuses, geniuses, his palette was his own and his paintings transmuted forever our vision of reality. ... His three main, somewhat overlapping, periods were: the limit laws period, the great period of additive processes and of martingales painted in pathtime colors, and the Brownian pathfinder period. Not only did L´evy evy contribute to probability and functional analysis but he also worked on partial differential equations and series. In 1926 he extended Laplace transforms to broader function classes. classes. He undertook a large-sca large-scale le work work on generalize generalized d different differential ial equations equations in functional functional derivatives. He also studied geometry. His main books are Le¸cons cons d’analyse d’anal yse fonctionn fo nctionnelle elle (1922), Calcul des probabil pr obabilit´ it´es es (1925), (1 925), Th´eorie eorie de l’addition l’ addition des variables variables al´eatoires eatoires (1937-54), and Processus Pro cessus stochastiques et mouvemen m ouvementt brownien (1948). Lo`eve eve sums up in these words: He was a very modest man while believing fully in the power of rational thought. ... whenever I pass by the Luxembourg gardens, I still see us there strolling, sitting in the sun on a bench; I still hear him speaking carefully his thoughts. I have known a great man. Article by: J J O’Connor and E F Robertson,
76
ˆ CHAPIT CHAPITRE RE 5: CALCUL CALCUL D’IT D’ITO
´ ˆ 1. Integrale egrale d’Ito
1.1. Variation des trajectoires browniennes. Pour d´evelopp evelo pper er une th´eorie eor ie de l’int´ l’i nt´egrati egr ation on par rapport au mouvement mouvement brownien, la premi` ere ere id´ee ee est d’essayer d’essayer une approche trajectorielle, tra jectorielle, c’est-`a-dire a-d ire d’essayer d’es sayer de d´efinir efini r une int´egrale egr ale us dBs comme une limite presque sˆure ure de sommes de Riemann. Riemann. La th´ eorie eorie classique classique de l’int´ l’int´ egration egration de Riemann-Sti Riemann-Stieljes eljes nous dit qu’une qu’une telle 1 approche n’est possible que si les trajectoires sont localement `a variatio varia tion n born´ bo rn´ee ee . On va tout de suite montrer que cette approche trajectorielle n’est pas possible. Si ∆n [0,t [0,t]] = 0 = tn0 tn1 ... tnn = t est une subdivision de l’intervalle de temps [0 ,t], ,t], on note
{
≤ ≤ ≤
}
[0,t]] |= max{| tkn+1 − tkn | ,k = 0,...,n − 1}, | ∆n[0,t
le pas de cette subdivision.
mouve ment brownien d´efini efini sur un espace de probabilit´e filtr´e Proposition 1. Soit (Bt )t≥0 un mouvement (Ω, (Ω,( t )t≥0 , ,P). Soit t 0. Pour toute suite de subdivisions ∆n [0,t [0,t]] telle que
F
F
≥
lim | ∆n [0,t [0,t]] |= 0, → +∞
n
on a au sens L2 (et donc en probabilit´e): e):
n
n
lim
→+∞
Btnk
k=1
− Bt
n k−1
2
= t.
1. En fait il existe une th´ eorie eorie de l’int´ egration egration due a` Young qui permet d’int´ d’int´ egrer egrer contre contre des fonctions fonctions de p-variation finie avec p < 2. 1
77
En particulier les trajectoires browniennes sont presque sˆurement urement de variation infinie sur tout intervalle [0,t [0,t]]. Preuve.
On note
n
V n =
B
tn k
k=1
−B
2
tn k−1
.
On a alors, alors , par pa r ind´ependance epen dance et station st ationnarit´ narit´e des accroissements accroi ssements browniens: browniens :
E (V n
− t)2
= E V n2
2tE (V n ) + t2
− − − − n
=
Btnj
E
j,k=1 j,k=1 n
=
Btnj
E
k=1 n
=
= =
2
− − − − Btnj
1
−
Btnj
Btnk
2
Btnk
1
−
n
4
+2
1
−
−
t2
Btnj
E
2
− Bt
n j −1
1 j
≤
−
≤
−
≤
≤
−
≤
≤
−
−
−
−
−
−
Btnk
− Bt
− 2
n k−1
t2
− t2
−
−
[0,t]] |→n→+∞ 0. ≤ 2t | ∆n[0,t
Montrons maintenant que cette convergence implique que les trajectoires de ( Bt )t≥0 sont presque sˆ urement de variation infinie sur l’intervalle [0,t urement [0 ,t], ], c’est-`a-dire, a-dire, qu’on peut trouver une suite de subdivisions subdivisions ∆n [0,t [0,t]] telle que presque sˆurement urement n
lim
n
→+∞
|
Btnk
− Bt |= +∞. n k−1
k=1
Raisonnons Raisonnons par l’absurde en supposant que le sup sur toutes les subdivisions subdivisions de [0 ,t] ,t] des sommes n n
lim
→+∞
|
Btnk
k=1
− Bt | n k−1
peut ˆetre etre ma major´ jor´e par un certain certai n M > 0. D’apr`es es ce qui pr´ec` ec`ede, ede, on peut trouver une suite de subdivisions subdivisions ∆n [0,t [0,t]] dont le pas tend vers 0 et telle que, presque sˆurement, n
n
lim
→+∞
Btnk
k=1
2
− Bt
n k−1
= t,
car de toute suite qui converge en probabilit´e, e, on peut extraire une sous-suite convergente. Mais on a alors n
Btnk
k=1
ce qui est absurde.
− Bt
n k−1
2
≤
M sup 1 k n
≤≤
| Bt − Bt |→n→+∞ 0, n k
n k−1
78
mouvem ent brownien d´efini efini sur un espace de probabilit´e filtr´e Exercice Exercice 2. Soit (Bt )t≥0 un mouvement (Ω, (Ω,( t )t≥0 , ,P).
F
F
(1) Montrer que pour tout t
≥ 0, presque sˆurement urement 2n
n
lim
→+∞
(2)
B ktn 2
k=1
−B
(k−1)t 2n
2
= t.
∗ Soit une suite de subdivisions ∆n [0,t [0,t]] dont le pas tend vers 0 et telle que ∆n+1 [0,t [0,t]] ⊂ ∆n [0,t [0,t]], montrer que presque sˆ urement urement n
n
lim
→+∞
(3)
B
k=1
tn k
−B
2
tn k−1
= t.
∗ Montrer qu’il existe une suite de subdivisions ∆n[0,t [0,t]] telle que presque sˆ urement urement n
n
lim
→+∞
Btnk
k=1
− Bt
n k−1
2
=+ .
∞
Ainsi, d’apr`es es ce qui pr´ec` ec`ede ede on ne peut pas d´efinir efinir trajector tra jectorielleme iellement nt une int´egrale egrale contre le mouvement mouvement brownien. N´eanmoins, eanmoins, l’existence d’une variation quadratique, encourage `a tenter 2 une approche approche L qui va s’av`erer erer fructueuse. fruct ueuse. 1.2. Int´ erons erons un egration egration contre le mouvement brownien. Dans ce qui suit nous consid´ mouvement brownien (B (Bt )t≥0 d´efini efin i sur un espace esp ace de probab pro babili ilit´ t´e filtr´ filt r´e (Ω, (Ω ,( t )t≥0 , ,P) qui satisfait tisfait les conditions conditions usuelles. usuelles. Cette hypoth`ese ese de condition condition usuelle usuelle sur la filtration filtration implique implique notamment: (1) Toute limite (presque sˆure, ure, au sens L1 , etc...) etc... ) de processus pro cessus adapt´es es reste adapt´ee; ee; (2) Toute modification d’un processus pro cessus progressivement progressivement mesurable reste progressivement mesurable; (3) Toute sur-martingale est r´egularisable egularisable au sens de Doob. 2 On note L (Ω, (Ω,( t )t≥0 ,P) l’ensemble des processus (u ( ut )t≥0 progressivement mesurables par rapport a` la filtration ( t )t≥0 et tels que
F
F
F
+
E
∞
0
u2s ds
F
<+ .
∞
(Ω,( t )t≥0 ,P) muni de la norme Exercice 3. Montrer que L2 (Ω,
F
u2 = E est un espace de Hilbert. On note maintenant
+
0
∞
u2s ds
( ut )t≥0 qui peuvent pe uvent ˆetre etr e ´ecrits ecr its sous sou s la l a forme: for me: E l’ensemble des processus (u n 1
ut =
−
F i 1(ti ,ti+1 ] (t),
i=0
eatoir e F t mesurable telle que E(F i2 ) < +∞. ≤ ≤ ... ≤ tn et F i est une variable al´eatoire evisibles. Il est clair que E s’appelle l’ensemble des processus simples pr´evisibles. E ⊂ L2(Ω (F ) P)
avec 0 t0 L’ensemble
i
79
(I nt´egrale eg rale d’It d’ Itˆ o) oˆ) Th´ eor` eme 4. (Int´ Il existe une unique application lin´ eaire eaire
I : L2(Ω, (Ω,(F t )t≥0 ,P) → L2 (Ω, (Ω,F ,P)
telle que: (1) Pour u =
(2) Pour u
n 1 i=0 F i 1(ti ,ti+1 ]
−
∈ E , n 1
−
I (u) =
(Ω,(F t )t≥0 ,P), ∈ L2(Ω,
F i (Bti+1
i=0
+
I 2
(u)
E
=E
− Bt ); i
∞
0
u2s ds
.
L’application s’appelle s’appel le l’int´egrale egrale d’Itˆo contre le mouvement brownien et on note pour u 2 L (Ω, (Ω,( t )t≥0 ,P),
I
F
∈
+
I (u) = Preuve.
∞
us dBs .
0
Par le th´eor` eor`eme eme de prolongement des isom´ etries etries dans les espaces de Hilbert, il nous suffit de d´emontrer emont rer deux deu x chose ch oses: s: n−1 (1) Pour u = i=0 F i 1(ti ,ti+1] ,
∈ E
E
−
F i (Bti+1
i=0
(2)
2
n 1
− Bt ) i
+
=E
∞
0
u2s ds
;
(Ω,(F t )t≥0 ,P) pour la norme: E est dense dans L2(Ω, +∞ u2s ds . u2 = E 0 n−1 = ependance ependance des accroisseme accroissements nts du mouvemen mouvementt ] ∈ E . On a, par ind´ i=0 F i 1(t ,t
Soit u brownien:
− − − − i
i+1
n 1
−
E
F i (Bti+1
n 1
=E
F i F j (Bti+1
n 1
=E
F i2 (Bti+1
Bti )2
i=0
n 1
=E
−
F i2 (ti+1
i=0 +
∞
=E
0
u2s ds .
−
Bti )(B )(Btj +1
i,j=0 i,j =0
−
2
Bti )
i=0
−
ti )
Btj )
+ 2E
0 i
≤
≤−
F i F j (Bti+1
− Bt )(B )(Bt − Bt ) i
j +1
j
80
Montrons maintenant que est dense dans L2 (Ω, (Ω,( t )t≥0 ,P). Nous Nou s proc´ pro c´edons edo ns en plusieu plu sieurs rs ´etape eta pes. s. Dans un premier temps, on remarque que le sous-ensemble des processus progressivement mesurables surabl es et born´ bor n´es es est dense dans L2 (Ω, (Ω,( t )t≥0 ,P). En effet, si u L2 (Ω, (Ω,( t )t≥0 ,P), alors u peut ˆetre etre approxim´e par la suite de processus proc essus ( ut 1[0,n [0,n]] ( ut ))t≥0 . Dans un deuxi` eme eme temps, on remarque que si u L2 (Ω, (Ω,( t )t≥0 ,P) est un process pr ocessus us born´ b orn´e, e, alors a lors 2 u peut ˆetre etre approxim´e par un processus pro cessus de L (Ω, (Ω,( t )t≥0 ,P) born´e et dont presque toutes les trajectoires sont `a support inclus dans un mˆeme eme compact (il suffit maintenant de consid´ erer erer la suite de processus (u ( ut 1[0,n conclur e par convergence domin´ee). ee). [0,n]] (t)t≥0 et de conclure 2 Dans un troisi`eme eme temps, on remarque que si u L (Ω, (Ω,( t )t≥0 ,P) est un processus born´e dont presque toutes les trajectoires sont `a support inclus dans da ns un mˆeme eme compact, alors u peut eu t ˆetre et re 2 approxim´e par p ar un processus pro cessus de L (Ω, (Ω,( t )t≥0 ,P) continu, born´e et dont presque toutes les trajectra jec-
E
F
F
∈
| | ∈ F F ∈
F
F
F
toires sont aussi `a support supp ort inclus in clus dans da ns un mˆeme eme compact. com pact. En E n effet la l a suite
1 n
t t
− n1 us ds1[ n1 ,+∞) (t) t≥0
fait tout `a fait l’affaire (v´erifiez-le erifiez-le !) . Il suffit su ffit donc do nc finalement fi nalement de d´emontrer emontrer que si u L2 (Ω, (Ω,( t )t≥0 ,P) est un proce p rocessus ssus b orn´e, e, continu, co ntinu, dont presque toutes les trajectoires sont `a support inclus dans da ns un mˆeme eme compact alors u peut ˆetr et re appr ap proo ch´e par pa r un ´el´ el ´emen em entt de . Pour Po ur d´emont em ontre rerr cel c ela, a, il suffit su ffit de cons co nsid´ id´erer er er la suit su itee d’´ d ’´el´ el´ement em entss de :
∈
F
E
E
+
utn
∞
=
u i 1( i , i+1 ] (t). n
i=0
n
n
Exercice 5. Soit u,v
∈ L2(Ω, (Ω,(F t )t≥0 ,P), montrer que +
E
∞
0
us dBs
=0
et +
E
∞
+
us dBs
0
∞
+
vs dBs
0
=E
∞
us vs ds .
0
Le th´eor` eor`eme eme pr´ec´ ec´edent edent perme pe rmett de constr con struir uiree un process pro cessus us int´egrale egr ale d’Itˆ d’It ˆo: o: Proposition 6. Soit u
(Ω,(F t )t≥0 ,P) . Le processus ∈ L2(Ω, t
+
us dBs
0
=
0
t 0
≥
∞
us 1[0,t [0,t]] (s)dBs
est une martingale relativement `a la filtration (
t 0
≥
F t)t≥0 qui admet une modification continue.
Preuve.
D´emontro emo ntrons ns tout tou t d’ab d ’abord ord la propri´ pro pri´et´ et´e de martin mar tingal gale. e. Si n 1
ut =
−
F i 1(ti ,ti+1 ] (t)
81
est es t un ´el´ el´emen em entt de
E alors pour t ≥ s, t
E
uv dBv
0
n 1
| F −
=E
s
i=0
F i (Bti+1∧t
− Bt ∧t) | F s i
n 1
−
=
i=0 s
=
F i (Bti+1 ∧s
− Bt ∧ s ) i
uv dBv .
0
Ainsi si u
∈ E , le processus
t
+
∞
us dBs
=
0
0
t 0
≥
us 1[0,t [0,t]] (s)dBs
t 0
≥
F t)t≥0. Comme E est dense dans L2(Ω, (Ω,(F t )t≥0 ,P)
est une martingale relativement `a la filtration ( pour la norme: 2
u
+
=E
0
∞
u2s ds
,
et que l’esp´ erance erance conditionnelle est continue dans L2, nous nou s en d´eduiso edu isons ns le r´esultat esul tat souhai sou hait´ t´e. e. D´emontrons emontron s maintenant mai ntenant l’existen l’ existence ce d’une d’u ne version versi on continue co ntinue pour p our l’int´egrale egral e stochastique sto chastique.. Si u , le r´esultat esultat d´ecoule ecoule facilement facile ment de la continuit´e des trajecto tra jectoires ires browniennes. brownien nes. Soit maintenant maintena nt 2 n u L (Ω, (Ω,( t )t≥0 ,P). Consid´erons erons une suite u de qui converge vers u pour notre norme habitu hab ituelle elle.. D’apr` D’a pr`es es l’in´ l’i n´egalit´ ega lit´e de Doob, Do ob, pour po ur m,n 0 et ε > 0,
E
∈
∈
F
t
P
| sup t 0
≥
0
E
(uns
− ums )dBs
≥ +∞ n 2 (us − um s )dBs | 0
| |≥ ≤ E
ε
ε2
+ 0
E
=
∞ (un − um )2 ds s
ε2
s
.
Par cons´equent, equent, il est possible de trouver une suite nk telle que t
P
| sup t 0
≥
n (us k+1
0
|≥ ≤
− uns )dBs k
1 2k
1 . 2k
D’apr`es es le lemme de Borel-Cantelli, la suite de processus continu presque sˆurement urement uniform´ unifor m´ement ement vers le processus pro cessus
t 0 us dBs t 0 .
≥
t nk 0 us dBs t 0
≥
converge alors
D’o` u le r´esult esu ltat at souh so uhai ait´ t´e. e.
Comme corollaire corol laire imm´ediat ediat de ce th´eor` eor`eme eme et des in´egalit´ egalit´es es martingales marti ngales de Doob, Doo b, nous en d´eduis edu ison onss imm´ im m´ediat edi ateme ement: nt: Proposition 7. Soit u
(Ω,(F t )t≥0 ,P). Alors: ∈ L2(Ω,
(1) Pour tout λ > 0,
us dBs
|≥ ≤
us dBs
| ≤
E
t
P
| sup t 0
≥
0
λ
+ 0
∞ u2 ds s
λ2
;
(2)
|
2
t
E
sup t 0
≥
0
+
4E
0
∞
u2s ds
.
82
Nous insiston i nsistonss sur le fait fa it que l’int´egrale egral e d’Itˆ d’It ˆo n’est pas trajectorielle, i.e. pour u les sommes de Riemann n 1
−
u kt (B (k+1)t n
k=0
n
ne convergent conver gent en g´en´ en´eral era l pas presque pre sque sˆurement urement vers n´eanmoi ean moins ns une convergen conver gence ce en probab pro babili ilit´ t´e: e: Proposition 8. Soit u
−B
kt n
,
t 0 us dBs .
(Ω,(F t )t≥0 ,P), ∈ L2(Ω,
Sous So us des d es hypoth` hyp oth`eses eses faibles, faible s, on on a
(Ω,(F t )t≥0 ,P) un processus continu `a gauche. Soit t Soit t ≥ 0. Pour toute ∈ L2(Ω,
suite de subdivisions ∆n [0,t [0,t]] telle que
lim | ∆n [0,t [0,t]] |= 0, → +∞
n
on a en probabilit´ probabi lit´e: e: n 1 n
−
t
lim
→+∞
utnk Btnk+1
k=0
Preuve.
− Bt
n k
=
us dBs .
0
Exercice. On d´ emontrera emontrera tout d’abord, a` l’aide l’a ide des in´egalit´ ega lit´es es de Doob Do ob pr´ec´ ec´edentes ede ntes que si un est une suite de processus de L2 (Ω, (Ω,( t )t≥0 ,P) qui converge presque sˆurement urement vers 0 et telle que t n n u u o` u u est un processus localement born´e, e, alors 0 us dBs converge vers 0 en probabilit´ proba bilit´e. e.
F
≤
Exercice 9.
(1) Montrer que pour t
≥ 0,
t
1 Bt2 t . 2 0 Qu’est-ce qui vous surprend dans cette formule? (2) Calculer la limite en probabilit´ probabilit´e quand n + de
Bs dBs =
→ ∞
n 1
−
−
B (k+1)t B (k+1)t n
k=0
n
−B
kt n
.
1.3. Martinga Mart ingales les de carr´ e int´ egrable egra ble et variations variati ons quadrati quad ratiques ques.. Soit un espace de probabi ba bililit´ t´e filtr fil tr´´e (Ω, (Ω ,( t )t≥0 , ,P) qui satisfait les conditions usuelles. Sur cet espace, une martingale est dite de carr´e int´egrable egrab le si pour tout t 0, E M t2 < + . Par exemple, si (B ( Bt )t≥0 est un mouvement brownien sur (Ω, (Ω,( t )t≥0 , ,P) et si (u ( ut )t≥0 est un processus progressivement mesu-
F
F
F
rable par rapport a` la filtration (
F
≥
∞
F t)t≥0 tel que pour tout t ≥ 0, E t
M t =
0
us dBs , t
≥ 0,
t 2 0 us ds
<+
∞ alors
est une martin mar tingal galee de d e carr´ c arr´e int´egrabl egr able. e. Concern Con cernant ant les martin mar tingal gales es de carr´ car r´e int´ i nt´egrabl egr able, e, le th´eor` eor`eme eme suivant sui vant est es t fond f ondame amental ntal.. martin gale continue de carr´ e int´egrable egrable sur l’espace de proTh´ eor` eme 10. Soit (M t )t≥0 une martingale bab babilit´e (Ω, (Ω,( t )t≥0 , ,P) telle que M 0 = 0. Il existe un unique processus continu et croissant (et
F F donc ` a vari va riat atio ion n born´ee) ee ) not´ not ´e (M t )t≥0 qui qu i v´erifi er ifie: e: (1) M 0 = 0; (2) Le processus (M 2 M ) est une martingale.
83
D’autre part pour t
on a en probabilit´ probabi lit´e: e:
[0,t]] telle que ≥ 0 et pour toute suite de subdivisions ∆n[0,t lim | ∆n [0,t [0,t]] |= 0, n→+∞ n
n
lim
→+∞
M tnk
2
− M t
n k−1
k=1
= M t .
Le processus ( M t )t≥0 est appel´ appel´e le processus processus variation quadratique de (M t )t≥0 .
Preuve.
Quitte `a consid´erer erer la suite de martingales ( M t∧T n )t≥0 avec T n = inf t 0, M t > n , nous supposerons que la martingale (M ( M t )t≥0 est born´ bo rn´ee. ee. Nous allons tout d’abord d´emontrer emontrer que si ∆n [0,t [0,t]] est une suite de subdivisions de [0 ,t] ,t] telle que
{ ≥ |
n
lim
n
n
lim
→+∞
L2
}
[0,t]] |= 0, | ∆n[0,t
→+∞
alors la limite
|
M tnk
k=1
2
− M t
n k−1
existe au sens et donc en probabilit´ proba bilit´e. e. Pour cela, introduisons quelques notations. Si ∆[0 ,T ] ,T ] est une subdivision de l’intervalle de temps [0,T [0,T ]] et si (X ( X t )t≥0 est un processus, alors on note ∆[0,T ∆[0,T ]] S t (X )
k 1
−
=
X ti+1
i=0
− X t
i
+ (X (X t
− X t )2, k
o` u k est tel que tk t < t k+1 . Par un calc c alcul ul ´el´ el´ementair ement airee d’esp´ d’ esp´erances era nces condit con dition ionnel nelles, les, il est e st faci f acile le de voir que si (X ( X t )t≥0 est une martingale, alors le processus
≤
X t2
∆[0,T ]] (X ), t ≤ T − S t∆[0,T
est ´egalement egalement une martingale. Enfin, si ∆[0 ∆[0,T ,T ]] et ∆ [0,T [0,T ]] sont deux subdivisions de l’intervalle de temps [0,T [0 ,T ], ], on notera ∆ ∆ [0,T [0,T ]] la subdivision subdivision obtenue obtenue en r´ eunissant eunissant tous les points de ∆[0,T ∆[0 ,T ]] et ∆ [0,T [0,T ]. ]. Soit ∆n [0,T [0,T ]] une suite de subdivisions de [0,T [0 ,T ]] telle que
∨
n
lim
→+∞
∆ [0,T [0,T ]]
[0,T ]] |= 0. | ∆n[0,T
[0,T ]] (M ) Montrons que la suite S T n (M ) M ) est de Cauchy dans L2 . Comme le processus S ∆n [0,T M ) ∆ [0,T [0 ,T ] ] S p (M ) M ) est une martingale (en tant que diff´erence erence de deux martingales), nous en d´eduisons eduisons
≤ E
=E
∆ [0,T [0,T ]]
S T n
−
(M ) M )
−
∆ ∆ [0,T [0,T ]] ∆n [0,T S T n p (S [0,T ]] (M ) M )
∨
∆
2 E S T n
2 ∆ [0,T [0,T ]] S T p (M ) M )
∆p [0,T [0,T ]]
− S
(M )) M ))
[0,T ]] ∆n [0,T ∆ ∨∆ [0,T [0,T ]] ∆p [0,T ∨∆p [0,T (S [0,T ]] (M )) M )) + E S T n p (S [0,T ]] (M )) M ))
.
Maintenant notons sk les points de la subdivision ∆ n ∆ p [0,T [0,T ]] et pour sk fix´e, tl le point de ∆n [0,T [0,T ]] le plus proche de sk tel que tl sk tl+1 . On a [0,T ]] S s∆kn+1[0,T (M ) M )
≤ ≤
∨
[0,T ]] − S s∆ [0,T − M t )2 − (M s − M t )2 (M ) M ) = (M s = (M s )(M s + M s − 2M t ). − M s )(M n k
k+1
l
k+1
k
k
k+1
l
k
l
84
Par cons´ con s´equent, equ ent, en vertu de l’in´ l’i n´egalit´ ega lit´e de Cauchy-Schwar Cau chy-Schwarzz E
≤ →
∆ ∆ [0,T [0,T ]] [0,T ]] S T n p (S ∆n [0,T (M )) M ))
∨
E sup(M sk+1 + M sk k
Comme M est continue, quand n,p
− 2M t ) l
+ ,
∞
1/2
E
→
− 2M t )4
sup(M sk+1 + M sk
E
4
l
k
Pour conclure il suffit donc de d´ emontrer emontrer que le terme E
2 ∆ ∆ [0,T [0,T ]] S T n p (M ) M )
∨
1/2
0.
2 ∆ ∆ [0,T [0,T ]] S T n p (M ) M )
∨
est born´ bo rn´e, e, ce
qui se v´erifie erifie sans trop de difficult´ d ifficult´es es en e n utilisant ut ilisant le fait f ait que M est es t supp su ppos os´´ee ee b orn´ or n´ee. ee . Ainsi, la limite n
M t = n→lim+∞ L2
M tnk
k=1
− M t
2
n k−1
existe au sens et donc en probabilit´ proba bilit´e. e. 2 Voir que le processus (M ( M t M t )t≥0 est une martingale martingale est ais´ e puisque puisque pour chaque chaque n et T 0, le processus
−
≥
M t2
[0,T ]] (M ) M ), t ≤ T − S t∆ [0,T n
l’est. Montrons maintenant que M est continu. Pour cela, remarquons remar quons que d’apr`es es l’in´egalit´ egali t´e de Doob, pour n,p 0 et ε > 0,
≥
P
sup
0 t T
≤≤
≤ E
∆ [0,T [0,T ]] S t n (M ) M )
−
∆ [0,T [0,T ]] S t p (M ) M )
∆ [0,T [0,T ]] (M ) S T n M )
>ε
−
ε2
2 ∆ [0,T [0,T ]] (M ) S T p M )
.
En utilisant le lemme de Borel-Cantelli il est donc possible de trouver une suite nk telle que la ∆n [0,T [0,T ]] suite de processus continus S t k (M ) M ) converge presque sˆurement ure ment unifor uni form´ m´ement ement vers
0 t T
≤≤
le processus ( M t )0≤t≤T , ce qui donne l’existence d’une version continue. Enfin, pour montrer que M est croissant, cro issant, il suffit de consid´ erer erer une suite croissante de subdivisions dont le pas tend vers 0. V´erifion eri fionss mai mainten ntenant ant l’unici l’un icit´ t´e de M . Soient donc A et A deux processus continus, croissants, nuls en 0 et et tels que ( M t2 At )t≥0 et (M t2 At )t≥0 sont sont des marting martingale ales. s. Le process processus us (N t )t≥0 = (At At )t≥0 est alors une martingale `a variation born´ bor n´ee ee nulle en 0. Cela implique que (N t )t≥0 est identique identiquement ment nulle (Exercice !).
−
−
−
Soit (M t )t≥0 une marting mart ingale ale continue conti nue de carr´e int´egrable egrab le sur l’espace l’e space de probabilit´ probabi lit´e Exercice 11. Soit ( (Ω, (Ω,( t )t≥0 , ,P) telle que M 0 = 0. Si ∆[0 ∆[0,T ,T ]] est une subdivision de l’intervalle de temps [0,T [0,T ]] et
F
F
si (X t )t≥0 est un processus, alors on note toujours ∆[0,T ∆[0,T ]] S t (X )
k 1
=
−
i=0
o` u u k est tel que tk
X ti+1
− X t
i
+ (X (X t
− X t )2, k
[0,T ]] une suite de subdivisions de [0,T [0,T ]] telle que ≤ t < t k+1. Soit ∆n[0,T lim | ∆n [0,T [0,T ]] |= 0.
.
85
Montrer Mont rer qu’e q u’en n probabil p robabilit´ it´e, e, n
lim
sup
→+∞ 0≤t≤T
∆[0,T ]] | S t∆[0,T (M ) M ) − M t |= 0.
Ainsi, Ainsi , dans d ans le th´eor` eor`eme eme pr´ec´ ec´edent, ede nt, la convergence conve rgence a en e n fait f ait lieu lie u unifor uni form´ m´ement eme nt sur tout tou t interv int erval alle le de temps compact. (Ω,( t )t≥0 , ,P) et si (ut )t≥0 est Proposition 12. Si (Bt )t≥0 est un mouvement brownien sur (Ω,
F F un processus progressivement mesurable par rapport `a la filtration ( filtration (F t )t≥0 tel que pour tout t tout t ≥ 0, t E 0 u2s ds < +∞ alors pour t ≥ 0:
·
0
Preuve.
Comme le processus
t 2 0 us ds t 0
≥
est une martingale. Pour u
uv dBv
=
0
t
2
t
t
− us dBs
u2s ds.
0
u2s ds
∈ E , processus simple, et t ≥ s, il est facile de voir que:
2
t
0
us dBs
est continu, croissant et nul en 0, il suffit donc de v´ erifier erifier que
0
E
t
| F
s
s
=E
uv dBv +
0
uv dBv
0
uv dBv
0
s
2
t
s
+E
s
2
s
=E
s
uv dBv
2
s
=E
2
| F | F | F | F t
t
s
+E
s
uv dBv
s
uv2 dv ,
et on conclut par densit´e. e. Par polarisation, on obtient tout de suite: martingales continues ontinues nulles en 0 de carr´ carr´ e Corollai Corollaire re 13. Soient (M t )t≥0 et (N t )t≥0 deux martingales int´egrable egrab le sur l’espace l’e space de probabilit´ probabi lit´e (Ω, (Ω,( t )t≥0 , ,P). Il existe un unique processus continu `a a
F
F
vari va riat atio ion n born bo rn´ ´ee, ee , not´ no t´e ( M,N t )t≥0 qui qu i v´erifie er ifie:: (1) M,N 0 = 0; (2) Le processus (M t N t M,N t )t≥0 est une martingale. D’autre part pour t 0 et pour toute suite de subdivisions ∆n [0,t [0,t]] telle que
−
≥
n
lim
→+∞
[0,t]] |= 0, | ∆n[0,t
on a en probabilit´ probabi lit´e: e: n
lim → +∞
n
k=1
M
tn k
− M
tn k−1
N
tn k
− N
tn k−1
= M,N t .
Le pro p rocessus cessus ( M,N t )t≥0 est appel´e le processus processus de covariatio covari ation n quadratique qua dratique de (M t )t≥0 et ( et (N t )t≥0
86
1.4. Probl` eme eme Prob l` eme eme :Int´ egration egra tion contre contr e les martinga mart ingales les de carr´ e int´ egrable egr able.. De la mˆ fa¸con con qu’on a construit une int´egrale egrale contre le mouvement brownien, nous pouvons p ouvons construire une int´egrale egr ale contre cont re des martin mar tingal gales es de carr´ car r´e int´egrabl egr able: e: ` faire absolumen absolumentt !) Prob Pr obl` l` eme em e 14. 14 . ( A Soit ( Soit (M t )t≥0 une marting mart ingale ale continue conti nue de carr´e int´ i nt´egrable egrab le sur l’espace l’e space de d e probabil p robabilit´ it´e (Ω, (Ω,( t )t≥0 , ,P) 2 2 telle que supt≥0 E M t < + et M 0 = 0. On note M (Ω, (Ω,( t )t≥0 ,P) l’ensemble des processus (ut )t≥0 progressivement mesurables par rapport `a la filtration ( t )t≥0 et tels que
∞
L
+
E
∞
u2s d
M s
0
F
F F
F
<+ .
∞
On note toujours l’ensemble l’ensem ble des processus processus simples simple s pr´ p r´evisibles. evisib les. 2 (Ω, (1) On d´efinit efinit la relation sur M (Ω,( t )t≥0 ,P) de la fa¸con con suivante:
E
Montrer que (2) On note
R L uRv ⇔ E
F +
∞
0
2
(us
− vs) dM s
equiv alence. R est une relation d’´equivalence.
= 0.
2 2 LM (Ω, (Ω,( t )t≥0 ,P) = M (Ω, (Ω,( t )t≥0 ,P)/ . 2 (Ω, Montrer que LM (Ω,( t )t≥0 ,P) muni de la norme
F
F
L
F
+
2
u
=E
∞
0
u2s d
R
M s
,
est un espace de Hilbert. (3) Montrer qu’il existe une unique application lin´ eaire eaire telle que: – Pour u =
2 I M (Ω,(F t )t≥0 ,P) → L2 (Ω, (Ω,F ,P) M : LM (Ω,
n 1 i=0 F i 1(ti ,ti+1 ]
−
∈ E ,
n 1
I (u) =
−
F i (M ti+1
i=0
− M t ); i
2 (Ω, ∈ LM (Ω,(F t )t≥0 ,P), +∞ 2 E I M =E u2s dM s . M (u) 0 L’application I M s’appel le l’int´egrale egrale d’Itˆo contre la martingale (M t )t≥0 et on note pour M s’appelle 2 u ∈ LM (Ω, (Ω,(F t )t≥0 ,P), +∞ I M us dM s . M (u) = 0 (4) Soit (ut )t≥0 un processus progressivement mesurable par rapport `a la filtration (F t )t≥0 t tel que pour tout t ≥ 0, E 0 u2s dM s < +∞ . Montrer que le processus
– Pour u
t
+
us dM s
0
=
t 0
≥
0
∞
us 1[0,t [0,t]] (s)dM s
t 0
≥
est une martingale marti ngale de car´ e int´egrable egrable relativement relativem ent a` la filtration ( modification continue.
F t)t≥0 qui admet une
87
(5) Soit (ut )t≥0 un processus progressivement mesurable par rapport `a la filtration (
tel que pour tout t
t 2 0 us d
≥ 0, E
∞
M s
<+
t
·
us dM s
0
=
0
t
2 (Ω, LM (Ω,( t )t 0 ,P)
F t)t≥0
. Montrer que
u2s d M s .
(6) Soit u un processus continu `a gauche. Soit t ≥ toute suite de subdivisions ∆n [0,t [0,t]] telle que
∈
≥ 0. Montrer que pour
F
n
lim
[0,t]] |= 0, | ∆n[0,t
→+∞
on a en probabilit´ probabi lit´e: e: n 1 n
lim
−
→+∞
u
tn k
t
M
tn k+1
k=0
− M
tn k
t
=
us dM s .
0
(7) On suppose maintenant que M t = 0 Θs dBs o` u u (Bt )t≥0 est un mouvement brownien sur 2 2 (Ω, (Ω, (Ω,( t )t≥0 , ,P) et Θ L (Ω, (Ω,( t )t≥0 ,P). Montrer alors que pour u LM (Ω,( t )t≥0 ,P), t t 0 us dM s = 0 us Θs dBs . (8) Soient (M t )t≥0 et ( et (N t )t≥0 deux martingales martin gales de carr´ e int´egrable egrable telles tel les que pour tout t out t 0,
F F E
∈
t
F
M s2 d N s
0
Montrer que pour t
≥ 0,
∈
t
<+ ,
∞
E
t
M t N t = M 0 N 0 +
0
N s2 d M
s
F
≥
<+ .
∞
t
M s dN s +
0
N s dM s + M,N t .
0
1.5. Martingales locales, Semi-martingales Semi-martingales et int´ egrateurs. egrateurs. Dans ce paragraphe, nous allons tout d’abord d’ab ord ´etendre etendr e la classe des processus pro cessus qui peuvent ˆetre etre int´egr´ egr´es es par rapport rapp ort `a un mouvement mouvement brownien. L’id´ee ee est d’utiliser le proc´ed´ ed´e fertile de localisation. Nous essayerons essayerons ensuite de voir quelle est la classe la plus g´en´ en´erale erale de processus continus par rapport auxquels il est possible de d´efinir efinir une int´ egrale egrale stochastique naturelle. Cela nous conduira `a la notion de semi-martingale. Soit un mouvement brownien (B ( Bt )t≥0 d´efini efini sur un espace espa ce de probab pro babili ilit´ t´e filtr´ filt r´e (Ω, (Ω ,( t )t≥0 , ,P) qui satisfait satisfait les conditions usuelles.
F
F
2 (Ω, (Ω,( t )t≥0 ,P), l’ensemble des processus progressivement mesurables Definition 15. On note Lloc
par rapport a ` la filtration (
F
F t)t≥0 et tels que pour tout t ≥ 0 t P u2s ds < +∞ = 1.
0
On a le lemme suivant: Lemme 16. Soit u
2 (Ω, (Ω,(F t )t≥0 ,P). Il existe une suite sui te croissante de temps d’arrˆet et (T n )n≥0 ∈ Lloc
de la filtration ( t )t≥0 telle que: (1) Presque sˆ urement, urement,
F
lim T n = +∞; → +∞
n
(2)
T n
E
0
u2s ds
<+ .
∞
88
Preuve.
Exercice.
t
2 (Ω, Grˆ ace a ce `a ce lemme, on d´efinit efinit facilement 0 us dBs pour u Lloc (Ω,( t )t≥0 ,P). En effet soient 2 u Lloc (Ω, (Ω,( t )t≥0 ,P) et t 0. Soit maintenant ma intenant une suite croissante de temps d’arrˆet et ( T n )n≥0 de la filtration ( t )t≥0 telle que: (1) Presque sˆ urement, urement,
∈
F
F
≥
n
∈
F
lim T n = + ;
∞
→+∞
(2) T n
E
0
Comme
T n
E
0
l’int´egrale egr ale stoch st ochast astiqu iquee T n
0
u2s ds
<+ .
u2s ds
<+ ,
∞ ∞
+
us dBs =
0
∞
us 1[0,T [0,T n ] (s)dBs
existe. Cela permet donc de d´efinir efinir (de fa¸con con unique), un processus t
us dBs
0
t 0
≥
tel que: (1) t
0
us dBs
t 0
≥
est un proc p rocessus essus continu adapt´e `a la filtration ( (2) Le processus
F t)t≥0;
t T n
∧
us dBs
0
t 0
≥
est une martingale marti ngale uniform´ unifor m´ement ement int´egrable egrab le (car born´ee ee dans L2 ) par rapport `a la filtration ( t )t≥0 . Cela nous conduit `a la d´efiniti efin ition on suivante suivant e
F
e une u ne marting m artingale ale locale (par rapport `a la filtration Definition 17. Un processus (M t )t≥0 est appel´ (
et (T n )n≥0 telle que: F t)t≥0) s’il existe une suite de temps d’arrˆet (1) La suite (T n )n≥0 est croissante et limn→+∞ T n = +∞ p.s.; (2) Pour tout n ≥ 1, the process (M t∧T )t≥0 est une martingale marti ngale uniform´ unifor m´ement ement int´egrable egrable relativement ` a la filtration (F t )t≥0 . t 2 (Ω, Ainsi, si u ∈ Lloc (Ω,(F t )t≥0 ,P) alors le processus 0 us dBs est une martingale locale contit≥0 n
nue nulle en 0.
89
Evidemment une martingale est toujours une martingale locale, mais attention la r´ecip ec ipro roque que est loin loi n d’ˆetre etr e vraie, vra ie, n´eamoin eam oins: s: Exercice 18. Soit (M t )t≥0 une martingale locale telle que pour tout t E
|
sup M s s t
≤
|
≥ 0,
<+ .
∞
Montrer que (M t )t≥0 est une martingale. En particulier, les martingales locales locales born´ born´ees ees sont des martingales. Le lemme suivant suivant permet d’´etendre etendre facilement les r´esultats esultats que nous avons vus pour les martingale ga less de carr´ ca rr´e int´egra eg rabl bles. es. Soit (M t )t≥0 une martingale marti ngale locale continue sur l’espace de probabilit´e (Ω, (Ω,( t )t≥0 , ,P) Lemme 19. Soit ( telle que M 0 = 0. Alors pour tout n N, le processus (M t∧T n )t≥0 est une martingale martin gale born´ ee ee (et
F
∈
donc don c de carr´e int´egrable egrab le !).
F
Preuve.
Soit (S (S n )n≥0 une suite de temps d’arrˆet et telle que: (1) La suite (S (S n )n≥0 est croissante et lim n→+∞ S n = + p.s.; (2) Pour tout n 1, the process (M ( M t∧sn )t≥0 est une martingale marti ngale uniform´ unifo rm´ement ement int´egrable egrab le relativement `a la filtration ( t )t≥0 . Pour t s et k,n 0, on a:
∞
≥
≥
F
≥
En passant `a la limite quand k l’esp´erance erance conditionnel condit ionnelle. le.
E (M t∧S k ∧T n
| F s) = M s∧S ∧T . k
n
edu it le r´esultat esul tat souhai sou hait´ t´e par continuit´ cont inuit´e L1 de → +∞, on en d´eduit
De ce c e petit p etit lemme nous d´eduisons eduison s Soit (M t )t≥0 une martingale martin gale locale continue sur l’espace de probabilit´e (Ω, (Ω,( t )t≥0 , ,P) Th´ eor` eme 20. Soit (
F
telle que M 0 = 0. Alors, il existe un unique processus processus continu et croissant not´e ( M t )t≥0 qui v´erifie: fie : (1) M 0 = 0; (2) Le processus (M t2 M t )t≥0 est une martingale locale. D’autre part pour t 0 et pour toute suite de subdivisions ∆n [0,t [0,t]] telle que
≥
−
lim | ∆n [0,t [0,t]] |= 0, → +∞
n
on a en probabilit´ probabi lit´e: e:
n
n
lim
2
− ∞
→+∞
M tnk
M tnk
1
−
= M t .
k=1
De plus si u est un processus progressivement mesurable tel que pour tout t t
P
0
u2s d M s < +
alors on peut d´efinir efinir un processus processus int´egrale egrale d’Itˆo est une martingale locale continue.
≥ 0,
= 1,
t 0 us dM s t 0
≥
qui est tel que
t 0 us dM s t 0
≥
efinit efinit de fa¸con con imm´ ediate ediate le processus processus de covariation Remarque Remarque 21. Par polarisation, on d´ quadratique de deux martingales locales continues.
F
90
Nous en sommes maintenant presqu’au bout de la route de la th´eorie eorie de l’int´egration egration stochastique ! On remarque tout d’abord que que cela ne coˆute ute rien d’ajouter un processus `a variatio varia tion n born´ bo rn´ee ee a` une martingale locale, c’est `a dire que si un processus ( X t )t≥0 peut eu t ˆetre et re ´ecri ec rit: t: X t = X 0 + At + M t o` u (At )t≥0 est un processus `a variation born´ bor n´ee ee et (M t )t≥0 est une martingale martingale locale continue continue sur l’espace l’espac e de probabilit´ proba bilit´e (Ω, (Ω,( t )t≥0 , ,P) telle que M 0 = 0, alors si u est un processus progressivement mesurable tel que pour tout t 0,
F
F
≥ t
P
0
∞
u2s d M s < +
t 0 us dX s t 0
on peut d´efinir efinir un processus int´ egrale egrale d’Itˆo t 0 us dAs
= 1,
≥
=
est tout simplement une int´ egrale egrale de Riemann-Stieltjes. Cela nous conduit `a la l a d´efiniti efin ition on suivante: suivant e:
t 0 us dAs
+
t 0 us dM s t 0
≥
o` u
processus adapt´e et continu sur l’espace de probabilit´e filtr´e Definition Definition 22. Soit (X t )t≥0 un processus (Ω, (Ω,( t )t≥0 , ,P). On dit que (X t )t≥0 est une semi-martinga semi-martingale le relativem relativement ent a ` la filtration ( t )t≥0
F
F
F
si (X t )t≥0 peut peut ˆetre et re ´ecri ec rit: t:
X t = X 0 + At + M t o` u ( u (At )t≥0 est un processus `a vari v ariati ation on born´ee ee et (M t )t≥0 est une martingale locale continue nulle en 0. 0 . Dans D ans ce cas, la d´ ecomposition ecomposition pr´ec´ ec´edente edente est alors unique (Demandez-vous (Demande z-vous pourquoi !) et on note ( X t )t≥0 la variation quadratique de la martingale locale (M t )t≥0 .
Comme Comme un processu processuss `a variation born´ b orn´ ee ee est de variation quadratique quadratique nulle, nulle, il est facile de d´emon em ontr trer er le th´eor` eo r`eme em e suiva su ivant nt:: Proposition 23. Soit
X t = X 0 + At + M t une semi-martingale continue et adapt´ee. ee. Pour t 0 et pour toute suite de subdivisions ∆n [0,t [0,t]] telle que lim ∆n [0,t [0,t]] = 0,
≥
n
→+∞
on a en probabilit´ probabi lit´e: e:
|
|
n
n
lim
→+∞
On note alors X = M .
X
k=1
tn k
− X
tn k−1
2
= M t .
Soit (X t )t≥0 une semi-mart se mi-martingale ingale continue sur l’espace l ’espace de probabilit´e (Ω, (Ω,( t )t≥0 , ,P). Exercice 24. Soit ( Si ∆[0 ∆[0,T ,T ]] est une subdivision de l’intervalle de temps [0,T [0,T ]] alors on note ∆[0,T ∆[0,T ]] S t (X )
k 1
=
−
i=0
o` u u k est tel que tk
F
X ti+1
− X t
i
+ (X (X t
− X t )2, k
[0,T ]] une suite de subdivisions de [0,T [0,T ]] telle que ≤ t < t k+1. Soit ∆n[0,T lim | ∆n [0,T [0,T ]] |= 0. n→+∞
Montrer Mont rer qu’e q u’en n probabil p robabilit´ it´e, e,
n
lim
sup
→+∞ 0≤t≤T
∆[0,T ]] | S t∆[0,T (X ) − X t |= 0.
F
91
Soit (X t )t≥0 une semi-mart se mi-martingale ingale continue sur l’espace l ’espace de probabilit´e (Ω, (Ω,( t )t≥0 , ,P). Exercice 25. Soit (
F
un
F
Soit maintenant une suite de processus processus localement born´ es es adapt´es es convergeant simplement simple ment n vers 0 et telle que u u o` u est un processus processus localement born´ e Montrer qu’en probabilit´e, e, pour T 0,
≤
≥
t
n
lim
sup
→+∞ 0≤t≤T
| 0
uns dX s = 0.
|
L’int´egrale egral e stochastique sto chastique par rapport rapp ort `a une semi-martingale continue est ´egalement egalement une limite en probabilit´ probab ilit´e de d e sommes so mmes de Riemann. Riemann . Soit u un processus processus continu et adapt´e et ( et (X t )t≥0 une semi-martingale continue Proposition 26. Soit u adap ad apt´ t´ee. ee . Soit So it t
[0,t]] telle que ≥ 0. Pour toute suite de subdivisions ∆n[0,t lim | ∆n [0,t [0,t]] |= 0, n→+∞
on a en probabilit´ probabi lit´e: e:
n 1
−
t
lim → +∞
n
utnk X tnk+1
k=0
− X t
n k
=
us dX s .
0
Comme le montre le puissant th´eor` eor`eme eme structurel suivant, suivant, la classe des semi-martingales `a laquelle nous sommes finalement finaleme nt arriv´e appara appar aˆıt comme la classe la plus g´en´ en´erale erale des processus pro cessus contre lesquels on a une int´ egrale egrale sto chastique naturelle d’un point de vue probabiliste. Notons b l’ensemble des processus (u ( ut )t≥0 qui peuvent pe uvent ˆetre etr e ´ecrits ecr its sous sou s la l a forme: for me:
E
N
ut =
F i 1(S i ,T i ] (t),
i=1
avec 0 S 1 T 1 ... S N T N te mps d’ar d’ arrˆ rˆet et b orn´ or n´es es et F i , variable varia ble al´eatoir eat oiree S N N temps Si mesurable et born´ bo rn´ee. ee. Si (X t )t≥0 est un processus pro cessus adapt´e et continu, alors on d´efinit efinit naturellement nature llement
≤ ≤ ≤ ≤
≤
N
t
F
us dX s =
0
i=1
F i (X T T i ∧t
− X S S ∧t). i
processus adapt´e et continu. Alors (X t )t≥0 est est une une semi semi-Th´ eor` eme 27. Soit (X t )t≥0 un processus
marting martingale ale si et seulem seulement ent si pour toute toute suite suite un de form´ ement ement vers 0, on a pour tout t 0 et ε > 0,
≥
n
t
lim P
→+∞
| 0
E b
uns dX s > ε
|
qui conver converge ge presque presque sˆ urement urement uni-
= 0.
ˆ 2. Formule d’Ito
La formule d’Itˆo est tr`es es certainemen certainementt la formule formule la plus importante et la plus utile du calcul stochastique. stocha stique. C’est une formule tr`es es simple dont la sp´ecificit´ ecificit´e par rapport rapp ort au calcul diff´erentiel erentiel ordinaire est l’apparition d’un terme de variation quadratique. Essayons tout d’abord de comprendre d’un point de vue intuitif quelle est la nature exacte de ce terme correctif et d’o`u il R suffisam provien provient. t. Pour cela, prenons prenons une fonction f : R suffi samment ment r´eguli` egu li`ere ere disons diso ns C ∞ et R une fonction de classe C 1 . On a alors le petit calcul a x:R ` la physicienne suivant:
→
→
f ( f (xt+dt ) = f ( f (xt + (x (xt+dt
− xt))
= f ( f (xt ) + f (xt )(x )(xt+dt = f ( f (xt ) + f (xt )dxt ,
− xt)
92
qui conduit `a une u ne formule f ormule math´ematique ematiq ue correct c orrecte: e: t
f ( f (xt ) = f ( f (x0 ) +
f (xs )dxs .
0
Supposons Supposons maintenan maintenantt qu’on veuille veuille prendre pour x un mouvement brownien (B ( Bt )t≥0 . Alors, la prem pr emi` i`ere er e diffic di fficul ult´ t´e `a laquelle on se heurte est la non-d´ erivabilit´ erivabilit´e des trajectoires traj ectoires browniennes: Quel sens donner `a dBt ? Eh bien en fait, il faut se rendre compte que tout le travail fait pr´ec´ ec´edemment edemment pour pou r la construction constr uction d’une int´egrale egral e par rapport rapp ort au mouvement brownien revient a` cela cela !! Du coup, coup, reprenons reprenons le calcul calcul a ` la physicienne pr´ec´edent a` partir de f ( f (Bt+dt ) = f ( f (Bt + (B (Bt+dt
− Bt))
Mais maintenant maintena nt dans le d´eveloppement evelopp ement limit´e de f il va falloir tenir compte du terme d’ordre deux qui fait intervenir (dB ( dBt )2 : ce terme ne plus ˆetre etre n´eglig´ eglig´e. e. En effet, puisque le mouvement brownien a une variation quadratique quadrat ique ´egale egale `a t, on a envie d’´ecrire ecrire (dBt )2 = dt ce qui donne le calcul suivant: f ( f (Bt+dt ) = f ( f (Bt + (B (Bt+dt
− Bt))
= f ( f (Bt ) + f (Bt )(B )(Bt+dt
− Bt) + 12 f (Bt)((B )((Bt+dt − Bt ))2
1 = f ( f (Bt ) + f (Bt )dBt + f (Bt )dt. 2 En notation notat ion int´egrale, egrale , on obtient par cons´equent equent t
1 t f ( f (Bt ) = f (0) f (0) + f (Bs )dBs + f (Bs )ds, 2 0 0 formule qui nous le verrons est math´ematiquement ematiquement tout `a fait correcte. Dans ce qui suit, nous nous pla¸cons sur un espace de probabilit´e filtr´e (Ω, (Ω ,( t )t≥0 , ,P) qui satisfait satisfa it les conditions condit ions usuelles u suelles.. Notre Not re point p oint de d´epart epart pour ´etablir etabli r la formule d’Itˆo est la formule d’int´egration egrat ion par parties parti es suivante:
F
F
egration par parties) part ies) Soient (X t )t≥0 et ( et (Y t )t≥0 deux semi-martingales Th´ eor` eme 28. (Formule d’int´egration
continues et adapt´ees, ees, alors le processus processus (X t Y t )t≥0 est une semi-martingale continue et on a: t
X t Y t = X 0 Y 0 + Preuve.
0
t
X s dY s +
0
Y s dX s + X,Y t .
Par polarisation, on peut se restreindre au cas o`u X = Y . Y . Quitte `a consi co nsid´ d´erer er er X suppose supp osera ra ´egaleme ega lement nt X 0 = 0. Soit t 0. Pour toute suite de subdivisions ∆ n [0,t [0,t]] telle que
≥
n
on a
lim
→+∞
n
k=1
X
tn k
− X
2
tn k−1
[0,t]] |= 0, | ∆n[0,t n
=
X t2
− 2
X
tn k−1
k=1
En passant `a la limite en probabilit´e, e, on obtient donc X t2 Ce qui est le r´esulta esu ltatt souhait´ souh ait´e. e.
t
=2
0
X s dX s + X t .
X
tn k
− X
tn k−1
.
− X 0, on
93
Nous en arrivons `a la formule d’Itˆo. o. (Formule d’Itˆ o I) Soit (X t )t≥0 une semi-martingale continue et adapt´ee ee et Th´ eor` eme 29. (Formule 2 R une application de classe C . On a: f : R
→
t
(1)
f ( f (X t ) = f ( f (X 0 ) +
0
1 f (X s )dX s + 2
t
f (X s )d X s .
0
Preuve.
Quitte `a localiser par les temps d’arrˆet et T n = inf t 0,X t > n nous supposerons que X est born´ee. Notons l’ensemble des applications f de classe C 2 pour lesquelles la formule (1) est satisfaite. Par lin´earit´ earit´e de la formule, il est clair que est un espace vectoriel r´eel. eel. Montrons que c’est ´egalement egalem ent une alg`ebre, ebre, i.e. que est stable par multiplication. Soient donc f,g . En E n utilisant la formule d’int´egration egration par parties pour f ( f (X ) et g(X ), ), on obtient:
{ ≥
A
A
∈A
}
A
t
f ( f (X t )g(X t ) = f ( f (X 0 )g(X 0 ) +
0
t
f ( f (X s )dg( dg(X s ) +
0
g(X s )df ( f (X s ) + f ( f (X ),g( ,g(X ) t .
Calculons Calculo ns maintenant maintena nt les diff´erents erents termes de la somme pr´ec´ ec´edente. edente. Comme f,g facilement facile ment (v´erifiez erifiez le proprement pro prement !): t
t
f ( f (X s )dg( dg (X s ) =
0
0
t
0
t
g(X s )df ( f (X s ) =
0
1 f ( f (X s )g (X s )dX s + 2
t
f ( f (X ),g( ,g(X )t = Par cons´ co ns´equen eq uent, t, t
f ( f (X t )g(X t ) =f ( f (X 0 )g(X 0 ) +
0
f ( f (X s )g (X s )d X s
0
t
0
g(X s )f (X s )d X s
f (X s )g (X s )d X s .
f ( f (X s )g (X s )dX s +
0
t
g(X s )f (X s )dX s
0
1 t f ( f (X s )g (X s )d X s + f (X s )g (X s )d X s + g (X s )f (X s )d X s 2 0 0 0 t t 1 =f ( f (X 0 )g(X 0 ) + (f g ) (X s )dX s + (f g ) (X s )d X s . 2 0 0 1 + 2
t
1 2
g(X s )f (X s )dX s +
t
∈ A, on a
t
On en d´eduit edu it que f g . Par P ar cons´ co ns´equen eq uentt est bien une alg`ebre. ebre. Comme contient la fonction x x, on en d´eduit eduit que contient ´egalement egalement toutes t outes les fonctions polynomiales. Comme X est suppos´ee ee born´ee, ee, elle prend ses valeurs dans un compact. Mais maintenant, on o n sait tr`es es 2 bien, qu’´etant etant donn´ee ee une fonction foncti on de classe C sur un compact, il est possible de trouver une suite de fonctions polynomiales P n telle que P n converge uniform´ unifo rm´ement ement vers f , f , P n converge uniform´ unif orm´ement eme nt vers f et P n converge conver ge unifor uni form´ m´ement eme nt vers ver s f . On peut alors conclure `a l’aide du r´esult esu ltat at d´emont em ontr´ r´e dans da ns l’exe l’ exerc rcic icee 25 25..
→
∈A
A
A
A
Ainsi en e n appliquant appl iquant cette c ette premi` p remi`ere ere formule fo rmule d’Itˆ d’I tˆo avec X un mouvement brownien B , on en arrive R est une application de classe C 2 , a` la l a formule for mule annonc´ ann onc´ee ee en pr´eambule: eambu le: Si f : R t
f ( f (Bt ) = f (0) f (0) +
→
1 f (Bs )dBs + 2
t
f (Bs )ds.
94
De la mˆeme eme fa¸con, con , il est facile fac ile de d´eriver eri ver quelques quel ques g´en´ en´eralisa era lisatio tions ns de la formule for mule pr´ec´ ec´edente: edent e: (Formule d’Itˆ o II) Soit ( Soit (X t )t≥0 une semi-mar s emi-martingal tingalee continue continu e et adapt´ee, ee, (At )t≥0 Th´ eor` eme 30. (Formule 1 R une application de classe C ,2 , i.e. une un processus adapt´ ada pt´e a` variat var iation ion born´ee ee et f : R R
× →
fois continument diff´erentiable erentiable en la premi`ere ere variable variab le t et deux fois continument diff´erentiable erentiabl e en la seconde variable x. On a: t
f ( f (At ,X t ) = f ( f (A0 ,X 0 ) +
0
∂f (As ,X s )dAs + ∂t
t
0
∂f 1 (As ,X s )dX s + ∂x 2
t
0
∂ 2 f (As ,X s )d X s . ∂x 2
o II) Soient (X t1 )t≥0,...,( ,...,(X tn )t≥0 n semi-martingales continues et Th´ eor` eme 31. (Formule d’Itˆ R une application de classe C 2 . On a: adap ad apt´ t´ees ee s et f : Rn
→
f ( f (X t1 ,...,X tn )
=
n
t
f ( f (X 01 ,...,X 0n )+
0
i=1
Exercice 32. Soit f : R+
∂f 1 (X s1 ,...,X sn )dX si + ∂x i 2
n
t
i,j=1 i,j =1 0
∂ 2 f (X s1,...,X sn )d X i ,X j s . ∂x i ∂x j
× R → C une fonction de classe C 1,2 telle que 1 ∂ 2 f ∂f + = 0. 2 ∂x 2 ∂t
Montrer que si ( si (M t )t≥0 est une martingale locale continue, alors (f ( f ( M t ,M t ))t≥0 en est es t ´egal eg alem ement ent 1 2 une. En d´eduire eduire que pour λ C, le processus exp(λM exp(λM t 2 λ M t ) est une martingale locale.
∈ − Exercice 33. Soit f : Rn × R+ → R une fonction de classe C 2 et (Bt )t≥0 = (Bt1 ,...,Btn )t≥0 un 1 n
mouvement brownien n brownien n-dimensionnel, i.e. Bt ,...,Bt sont des mouvements mouvem ents browniens ind´ependants. ependants. Montrer que t 1 ∂f ∆f ( (s,Bs )ds X t = f ( f (t,Bt ) f (s,Bs ) + 2 ∂t 0
−
est une martingale locale.
efinit efini t le polynˆ polyn ˆ ome de Hermite d’ordre n par ome Exercice 34. On d´ n
H n (x) = ( 1) e
−
x2
2
dn − x2 e 2. dxn
(1) Calculer H 0 ,H 1 ,H 2 ,H 3 .
Bt n/2 H ( √ (2) Montrer que si (Bt )t≥0 est un mouvement mouvement brownien brownien alors tn/2 ) n t
tingale. (3) Montrer que
Bt n/2 tn/2 H n ( ) = n! t
√
t
t1
tn
...
0
0
0
t 0
≥
est une mar-
1
−
dBs1 ...dBsn .
(U n th´ th´eor` eo r`eme em e de P. L´evy) ev y) Soit So it (M t )t≥0 une martingale locale continue nulle en Exercice 35. (Un
0 et telle que pour tout t
≥ 0, M t = t. Montrer que (M t)t≥0 est un mouvement brownien.
` ´ ˆ 3. Le th´ eoreme eor eme de representation esentation d’Ito
Dans ce qui suit, nous nous pla¸cons cons sur un espace de probabilit´ probab ilit´e filtr´e (Ω, (Ω ,( t )t≥0 , ,P) et on suppose que ( t )t≥0 est la filtration filtra tion naturelle nature lle usuellement usuelle ment compl´et´ et´ee ee d’un mouvement brownien (B ) (une telle filtration est appel´ filtration brownienne).
F
F
F
95
On a alo alors rs le th´eor` eor`eme eme suivant: sui vant: (T h´eor` eo r`eme em e de repr´esen es enta tati tion on d’It d’ Itˆ o). oˆ). Soit F L2 ( ∞ ,P). Il existe un unique Th´ eor` eme 36. (Th´ ∞ processus (ut )t≥0 progressivement mesurable tel que E 0 u2s ds < + et +
F = E(F ) F ) +
∞
0
Preuve.
Soit
∈
F ∞
us dBs .
D l’ensemb l’e nsemble le des foncti fon ctions ons ´etag´ eta g´ees ees `a support compact R+ → R, i.e. n
f =
ai 1[ti
1 ,ti ]
−
.
i=1
Pour f
∈ D, on note
t
f ) = exp E t(f )
f ( f (s)dBs
0
−
1 2
t
f ( f (s)2 ds .
0
` l’aide de la formule d’Itˆo, A o, il est facile de v´erifier erifier que ( t (f )) f ))t≥0 est une martingale. Nous pr´etendons etendo ns maintenant ma intenant que la l a famille fa mille
E
{E ∞(f ) f ),f ∈ D}
est totale totale dans dans L2 ( ∞ ,P), c’est-` c’est-` a-dire a-dire qu’une qu’une variable ariable de L2 ( ∞ ,P) orthogon orthogonale ale `a tous les ´el´ el´ements eme nts de la famille fam ille pr´ec´ ec´edente ede nte est n´ecessai ece ssairem rement ent nulle. nulle . En effet effe t soit soi t X L2 ( ∞ ,P) telle que pour tout f , E (X ∞ (f )) f )) = 0. 0. Il est alors facile de voir que pour tout λ1 ,...,λn R, t1 ,...,tn R+ ,
F ∈D
E E
∈
n
E Xe
i=1
λi Bti
F
∈
F
∈
= 0.
Par prolon p rolongement gement analytique, analyt ique, on a alors en fait plus g´en´ en´eralement, eralem ent, n
E Xe
pour tout λ1 ,...,λn
i=1
λi Bti
= 0,
∈ C, t1,...,tn ∈ R, et doncen particulier, i
E Xe
n j =1
λj Btj
= 0,
pour tout λ1 ,...,λn R, t1,...,tn R. Nos connaissances en analyse de Fourier sont alors suffiR, santes pour p our conclure conclur e que pour toute fonction foncti on bor´ b or´elienne elienne born´ bor n´ee ee f : Rn
∈
∈
E (Xf ( Xf (Bt1 ,...,Btn )) = 0, 0,
→
c’est-` a-dire a-dire que E (X σ (Bt1 ,...,Btn )) = 0. 0.
|
Comme ∞ est engendr´ eng endr´ee par les cylindr cyli ndres es pr´ec´ ec´edents ede nts (`a comp co mpl´ l´etio et ion n pr`es), es ), nous no us en d´eduis edu ison onss alors que X = 0. Ainsi la famille f ),f ∞ (f ) est dense dans L2 ( ∞ ,P). Notons maintenant le sous-ensemble de L2 ( ∞ ,P) consti con stitu´ tu´e des variable varia bless al´eatoir eat oires es F pour ∞ lesquelles on peut trouver un processus ( ut )t≥0 progressivement mesurable tel que E 0 u2s ds < + et
F
F B
∞
{E
∈ D}
F
+
F = E(F ) F ) +
∞
us dBs .
96
Par continuit´ cont inuit´e de l’int´ l’i nt´egrale egr ale d’Itˆ d’It oˆ (c’est une isom´etrie etrie !), f ,
∈D
´ es t ferm fe rm´´e. e. Etant donn´e que pour B est
+
E ∞(f ) f ) = 1 + nous avons Par densit´e nous concluons concluo ns
∞
0
f ( f (s) s (f ) f )dBs ,
E
{E ∞(f ) f ),f ∈ D } ⊂ B. B = L2(F ∞,P).
L’uni L’u nici cit´ t´e de u est es t une un e cons´ co ns´equen equ ence ce imm´ im m´ediat edi atee de la prop pr opri´ ri´et´ et´e d’iso d’ isom´ m´etri et riee de l’int´ l’ int´egra eg rale le d’It d’ Itˆˆo. o.
≥ 0 et F ∈ L2(F T T ,P), T T il existe un unique processus (ut )0≤t≤T progressivement mesurable tel que E 0 u2s ds < +∞ et
eo r`eme eme pr´ec´ ec´eden ed entt impl im pliq ique ue faci fa cile leme ment nt que qu e pour pou r T Remarque 37. Le th´eor`
T
F = E(F ) F ) +
0
us dBs .
Le th´eor` eor`eme eme pr´ecedent eced ent admet adm et le remarq rem arquab uable le coroll cor ollair airee suivant: s uivant: Soit (M t )t≥0 une martingale par rapport `a la filtration ( filtration ( t )t≥0 de carr carr´ ´e int i nt´ ´egrab eg rablle, Corollaire 38. Soit ( t 2 alors il existe un unique processus (ut )t≥0 progressivement mesurable tel que E 0 us ds < + ,
F
t
≥ 0 et
t
M t = E(M 0 ) +
us dBs ,
t
0
∞
≥ 0.
Ce qu’il y a de remarquable remarquable dans ce r´esultat esultat c’est qu’ainsi toutes les martingales martingales de carr´ e int´ egrable egrable dans une filtration brownienne sont n´ ecessairement continues ! Nous en profitons ici ecessairement pour insister insiste r sur l’hypoth` l’hypo th`ese ese de filtration filtra tion brownienne brownien ne dans tout ce qui pr´ec` ec`ede. ede. ´ Le coroll cor ollair airee pr´ec ecdent s’´etend ete nd sans san s difficul diffi cult´ t´es es `a des martingales locales: Soit (M t )t≥0 une martingale locale par rapport `a la filtration filtration (( t )t≥0 montrer qu’il Exercice 39. Soit ( t existe un unique processus (ut )t≥0 progressivement mesurable tel que P 0 u2s ds < + = 1, t
≥ 0 et
F
t
M t = E(M 0 ) +
0
us dBs ,
t
∞
≥ 0.
` `me de Girsanov 4. Probleme: eme: Th´ eoreme eor e
Le but de ce probl`eme eme est d’´etudier etudier l’impact l’impa ct d’un changement de probabilit´ proba bilit´e ´equivalent sur le calcul stochastique. Nous encourageons vivement le lecteur `a relire la section 4.2. du Chapitre 2. Prob Pr obl` l` eme em e 40. 40 . Partie Partie I
Soit (Bt )t≥0 un mouvement brownien. On note P la mesure de Wiener, (πt )t≥0 le processus des coordon coord onn´ n´ees ee s et ( t )t≥0 sa filtration filtration naturelle. naturelle.
F
(1) Soit µ
µt)t≥0 . Montrer que pour tout t ≥ 0, ∈ R et Pµ la loi du processus (Bt + µt) µ P P/
97
et que
dPµ/F t
=e
dP/F t
(2) A t’on
µ
P/F
∞
(3) Pour a
µπt
∈ R+, on note
− µ22 t. ?
P/F
∞
T a = inf t
{ ≥ 0,Bt + µt = a}.
Calculer la loi de T a ` a l’aide de la question (1). t R une fonction telle que pour tout t 0, 0 f 2 (s)ds < (4) Plus Pl us g´en´ en´eraleme eral ement nt,, soit so it f : R+ t + . On note Pf la loi du processus (Bt + 0 f ( f (s)ds) ds)t≥0 . Montrer que pour tout t 0,
→
∞
f
P/F
t
et que
dPf /F t dP/F t
=e
t 0
≥
≥
P/F , t
f (s)dπs
− 12 0t f 2(s)ds.
(5) Pour quelles fonctions f , f , a-t’on f
P/F
∞
?
P/F
∞
Partie Partie II
Dans cette partie, nous nous pla¸cons cons sur un espace de probabilit´e filtr´e (Ω, (Ω,( t )t≥0 , ,P) et on suppose que ( t )t≥0 est la filtration naturelle naturel le usuel lement compl´et´ et´ee ee d’un mouvement mouveme nt brownien (Bt )t≥0. Soit Q une probabilit´ probabi lit´e sur ∞ ´equi eq uiva vale lent ntee a a` P. On note D la densi de nsit´ t´e de Q par rapport a ` a P.
F
F
F
F
(1) Montrer qu’il existe un processus (Θt )t≥0 tel que pour tout t tout t 0, P et t 1 t 2 E (D Θs dBs Θ ds . t ) = exp 2 0 s 0 (2) Montrer que sous la probabilit´e Q, le processus
≥
−
| F
−
t 2 0 Θs ds
∞
<+
=1
t
Bt
Θs ds
0
est un mouvement brownien. (3) En d´ eduire eduire que toute semimartinga semimartingale le sur l’espac l’espacee (Ω, (Ω,( semi-martingale sur l’espace (Ω, (Ω,( t )t≥0 , ,Q).
F
egalem ent une F t)t≥0,F ,P) est ´egalement
F
Partie Partie III
Dans Dans cette partie, artie, nous nous nous nous pla¸ cons cons sur un espace de probabilit´e filtr´e (Ω, (Ω,( t )t≥0 , ,P) qui satisfait les conditions usuelles. Soit ( Soit (Bt )t≥0 un mouveme m ouvement nt brownien sur cet espace de d e prob p robabili abilit´ t´e filtr´e. e. Soit maintenant mainte nant (Θt )t≥0 un processus progressivement mesurable tel que pour tout t 0,
F
P
t 2 0 Θs ds
∞
<+
≥
= 1. On note
t
Z t = exp
(1) Montrer que (Z )
F
0
Θs dX s
−
1 2
t
0
est une martingale locale.
Θs
2 ds
,t
≥ 0.
98
(2) Montrer que si pour tout t
≥ 0,
E(Z t ) = 1,
alors (Z t )t≥0 est une martin mar tingal galee unif u niform´ orm´ement eme nt int´egrable. egrab le. (3) On suppose d´esormais esorma is l’hypoth`ese ese de la question questi on pr´ec´ ec´edente edente satisfaite satis faite.. Montrer que sur l’es l’ espace pace de probabi proba bili lit´ t´e filtr´ filt r´e ∞ , il existe une unique mesure de probabilit´ probabilit´e Q ´equi eq uiva vale lent ntee a ` a P telle que pour tout t 0, dQ/F t = Z t , P p.s. dP/F t
≥
F
−
(4) Montrer que sous la probabilit´e Q, le processus t
Bt
−
Θs ds
0
est un mouvement brownien.
5. Equations diff´ erentielles stochastiques et diffusions erentielles Dans ce paragraphe, nous revenons au probl`eme eme de la construction de diffusions ´evoqu´ evoqu´ e `a la section 7 du chapitre 3 et nous allons voir comment le calcul d’Itˆo s’av` s’ av`ere er e un u n outi ou till ext e xtrˆ rˆememe em ement nt puissant. Comme d’habitude nous nous pla¸cons cons sur un espace de probabilit´ proba bilit´e filtr´e (Ω, (Ω ,( t )t≥0 , ,P) qui satisfait les conditions usuelles et sur lequel est d´efini efini un mouvement brownien ( Bt )t≥0 . L’id´ee ee va ˆetre etr e de constr con struir uiree `a partir de (B (Bt )t≥0 et du calcul d’Itˆo un process pro cessus us de g´en´ en´erateu era teurr
F
F
2 d 1 2 d = b(x) + σ (x) . dx 2 dx2 o` u b et σ sont deux fonctions foncti ons donn´ees. ees.
L
Th´ eor` eme 41. Soient b : R
[0, + ∞) deux fonctions continues telles que pour → R et σ : R → [0, un certain K > 0, (1) | b(x) − b(y ) | + | σ (x) − σ (y ) |≤ K | x − y |, x,y ∈ R; (2) | b(x) | + | σ (x) |≤ K (1+ (1+ | x |), x ∈ R. Alors pour tout x0 ∈ R, il existe un unique processus continu (X tx )t≥0 tel que pour t ≥ 0 0
X tx0
(2) De plus
t
= x0 +
(X tx0 )t 0
0
b(X sx0 )ds +
t
0
σ (X sx0 )dBs .
diff usion on de g´en´ en´erateur erate ur ≥ est un processus de diffusi
L
2 d 1 2 d = b(x) + σ (x) . dx 2 dx2
´ de marque: K. Ito ˆ 6. Un invite
Born: 7 Sept 1915 in Hokusei-cho, Mie Prefecture, Japan alive ! Dead: Still alive
Kiyosi Ito studied mathematics in the Faculty of Science of the Imperial University of Tokyo. It was during his student years that he became attracted to probability theory. In [3] he explains how this came about: Ever since I was a student, I have been attracted to the fact that statistical laws reside in seemingly random phenomena. Although I knew that probability theory was a means of describing such phenomena, I was not satisfied with contemporary papers or works on probability theory,
99
since they did not clearly define the random variable, the basic element of probability theory. At that time, few mathematicians regarded probability theory as an authentic mathematical field, in the same strict sense that they regarded differential and integral calculus. With clear definition of real numbers formulated at the end of the19th century, differential and integral calculus had developed into an authentic mathematical system. When I was a student, there were few researchers in probability; among the few were Kolmogorov of Russia, and Paul Levy of France. In 1938 Ito graduated from the University of Tokyo and in the following year he was appointed to the Cabinet Statistics Bureau. He worked there until 1943 and it was during this period that he made his most outstanding contributions:During those five years I had much free time, thanks to the special consideration given me by the then Director Kawashima ... Accordingly, I was able to continue studying probability theory, by reading Kolmogorov’s Basic Concept of Probability Theory and Levy’s Theory of Sum of Independent Random Variables. At that time, it was commonly believed that Levy’s works were extremely difficult, since Levy, a pioneer in the new mathematical field, explained probability theory based on his intuition. I attempted to describe Levy’s ideas, using precise logic that Kolmogorov Kolmogorov might use. Introducing Introducing the concept concept of regularisatio regularisation, n, developed developed by Doob of the United States, I finally devised stochastic differential equations, after painstaking solitary endeavours. My first paper was thus developed; today, it is common practice for mathematicians to use my method to describe Levy’s theory. In 1940 he published On the probability distribution on a compact group on which he collaborated with Yukiyosi Kawada. The background to Ito’s famous 1942 paper On stochastic processes processes (Infinitely divisible divisible laws of probabilit probability) y) which which he published published in the Japanese Journal of Mathematics is given in [2]:Brown, a botanist, discovered the motion of pollen particles in water. At the beginning of the twentieth century, Brownian motion was studied by Einstein, Perrin and other physicists. In 1923, against this scientific background, Wiener defined probability measures in path spaces, and used the concept of Lebesgue integrals to lay the mathematical foundations of stochastic analysis. In 1942, Dr. Ito began to reconstruct from scratch the concept of stochastic integrals, and its associated theory of analysis. He created the theory of stochastic differential equations, which describe motion due to random events. Although today we see this paper as a fundamental one, it was not seen as such by mathematicians at the time it was published. Ito, who still did not have a doctorate at this time, would have to wait several years before the importance of his ideas would be fully appreciated and mathematicians would begin to contribute to developing the theory. In 1943 Ito was appointed as Assistant Professor in the Faculty of Science of Nagoya Imperial University. This was a period of high activity for Ito, and when one considers that this occurred during the years of extreme difficulty in Japan caused by World War II, one has to find this all the more remarkable. Volume 20 of the Proceedings of the Imperial Academy of Tokyo contains six papers by Ito: (1) On the ergodicity of a certain stationary process; (2) A kinematic theory of turbulence; (3) On the normal stationary process with no hysteresis; (4) A screw line in Hilbert space and its application to the probability theory; (5) Stochastic integral; and (6) On Student’s test. In 1945 Ito was awarded his doctorate. He continued to develop his ideas on stochastic analysis with many important papers on the topic. Among them were On a stochastic integral equation (1946), On the stochastic integral (1948), Stochastic differential equations in a differentiable manifold (1950), Brownian motions in a Lie group (1950), and On stochastic differential equations (1951).
100
In 1952 Ito was appointed to a Professorship at Kyoto University. In the following year he published his famous text Probability theory. In this book, Ito develops the theory on a probability space using terms and tools from measure theory. The years 1954-56 Ito spent at the Institute for Advanced Study at Princeton University. An important publication by Ito in 1957 was Stochastic Stochastic processes. This book contained contained five chapters, chapters, the first providing providing an introduction, introduction, then the remaining remaining ones studying processes with independent independent increments increments,, stationary stationary processes, processes, Markov processes, and the theory of diffusion processes. In 1960 Ito visited the Tata Institute in Bombay, India, where he gave a series of lectures surveying his own work and that of other on Markov processes, Levy processes, Brownian motion and linear diffusion. Although Ito remained as a professor at Kyoto University until he retired in 1979, he also held positions as professor at Aarhus University from 1966 to 1969 and professor at Cornell University from 1969 to 1975. During his last three years at Kyoto before he retired, Ito was Director of the Research Research Institute Institute for Mathematical Mathematical Sciences Sciences there. After retiring from Kyoto Kyoto Universit University y in 1979 he did not retire from mathematics but continued to write research papers. He was also appointed at Professor at Gakushuin University. Ito gives a wonderful description mathematical beauty in [3] which he then relates to the way in which he and other mathematicians have developed his fundamental ideas:In precisely built mathematical structures, mathematicians find the same sort of beauty others find in enchanting pieces of music, or in magnificent architecture. There is, however, one great difference between the beauty of mathematical structures and that of great art. Music by Mozart, for instance, impresses greatly even those who do not know musical theory; the cathedral in Cologne overwhelms spectators even if they know nothing about Christianity. The beauty in mathematical structures, however, cannot be appreciated without understanding of a group of numerical formulae that express laws of logic. Only mathematicians can read ”musical scores” contain containing ing many many numer numerica icall formula formulae, e, and play play that ”m ”musi usic” c” in their their hearts hearts.. Accordi Accordingl ngly y, I once believed that without numerical formulae, I could never communicate the sweet melody played played in my heart. Stochastic Stochastic differential differential equations, equations, called ”Ito Formula,” Formula,” are currently currently in wide use for describing phenomena of random fluctuations over time. When I first set forth stochastic differential equations, however, my paper did not attract attention. It was over ten years years after my paper that other mathematicia mathematicians ns began b egan reading my ”musical scores” and playing my ”music” with their ”instruments.” By developing my ”original musical scores” into more elaborate ”music,” these researchers have contributed greatly to developing ”Ito Formula.” Ito received many honours for his outstanding mathematical contributions. He was awarded the Asahi Prize in 1978, and in the same year he received the Imperial Prize and also the Japan Academy Prize. In 1985 he received the Fujiwara Prize and in 1998 the Kyoto Prize in Basic Sciences from the Inamori Foundation. These prizes were all from Japan, and a further Japanese honour was his election to the Japan Academy. However, he also received many honours from other countries. He was elected to the National Academy of Science of the United States and to the Acadmie des Sciences of France. He received the Wolf Prize from Israel and honorary doctorates from the universities of Warwick, England and ETH, Zurich, Switzerland. In [2] this tribute is paid to Ito: Nowadays, Dr. Ito’s theory is used in various fields, in addition to mathematics, for analysing phenomena due to random events. Calculation using the ”Ito calculus” is common not only to scientists in physics, population genetics, stochastic control theory, and other natural sciences, but also to mathematical finance in economics. In fact, experts in financial affairs refer to Ito calculus as ”Ito’s formula.” Dr. Ito is the father of the modern stochastic analysis that has been systematically developing during the twentieth century. This ceaseless development has been led by many, including Dr. Ito, whose work in this regard is remarkable for its mathematical
101
depth and strong interaction with a wide range of areas. His work deserves special mention as involving one of the basic theories prominent in mathematical sciences during this century. A recent monograph entitled Ito’s Stochastic Calculus and Probability Theory (1996), dedicated to Ito on the occasion of his eightieth birthday, contains papers which deal with recent developments of Ito’s ideas:Professor Kiyosi Ito is well known as the creator of the modern theory of stochastic analysis. Although Although Ito first proposed his theory, theory, now known as Ito’s stochastic stochastic analysis or Ito’s stochastic stochastic calculus, about fifty years ago, its value in both pure and applied mathematics is becoming greater and greater. For almost all modern theories at the forefront of probability and related fields, Ito’s analysis is indispensable as an essential instrument, and it will remain so in the future. For example, a basic formula, called the Ito formula, is well known and widely used in fields as diverse as physics and economics. Article by: J J O’Connor and E F Robertson
102
Bibl iog r a phie evy evy processes proces ses.. Cambridge University Press, Cambridge, 1996. [1] J. Bertoin. L´ ¨ rk. Arbitrage theory in continuous time. Oxford University o [2] T. Bjork. University Press, Oxford, Oxford, 1998.
es es financiers financi ers en temps continu Economica, Paris, 1998. Traduction Springer [3] R.A. Dana et M. Jeanblanc. March´ 2002. es es et Potentiel. Potenti el. Volumes 1 ` [4] C. Dellacherie et P.-A. Meyer. Probabilit´ a 5. Hermann, Paris, 1975-1992.
[5] R. J. Elliott. Stochastic Calculus and Applications. Springer, Springer, Berlin, Berlin, 1982. ¨ llmer et A. Schied Stochastic Finance : an introduction in discrete time. Walter de Gruyter, Berlin, 2003. o [6] H. Follmer
[7] G. Grimmett et D. Stirzaker. Probability and Random Processes. Oxford University Press, New-York, 1982. [8] G. Grimmett et D. Stirzaker. One Thousand Exercises in Probability. Oxford University Press, New-York, 2001. [9] J. Jacod et P. Protter. Probability Essentials. Springer, Springer, Berlin, Berlin, 1997. [10] J. Jacod et A. N. Shiryaev . Limit Theorems for Stochastic Processes. Springer, Springer, Berlin, Berlin, 1987. [11] I. Karatzas et S. E. Shreve. Brownian Motion and Stochastic Calculus. Springer, Springer, Berlin, Berlin, 1991. stochastiq ue appliqu´ ap pliqu´ e` a la finance. Ellipses, Paris, 1991. [12] D. Lamberton et B. Lapeyre. Introduction au calcul stochastique Malliavin. Stochastic Analysis. Springer, [13] P. Malliavin. Springer, Berlin, Berlin, 1997.
ematiqu es du calcul des probabilit´ es. es. Masson, [14] J. Neveu. Bases math´ematiques Masson, Paris, Paris, 1964.
[15] B. Oksendal. Stochastic Differential Equations. Springer, Berlin, 6th edition, 2002. [16] P. Protter. Stochastic Integration and Differential Equations. Springer, Berlin, 2nd edition, version 2.1. 2005. [17] D. Revuz et M. Yor. Continuous Martingales and Brownian Motion. Springer, Berlin, 3th edition 1999. [18] L. C. G. Rogers et D. Williams. Diffusions, Markov Processes, and Martingales. Volume 1 : Foundations. Wiley, Chichester, 1994. [19] L. C. G. Rogers et D. Williams. Diffusions, Markov Processes, and Martingales. Volume 2 : Itˆo Calculus. Wiley, Chichester, 1987. [20] G. Samorodnitsky et M. S. Taqqu. Stable Non-Gaussian Random Processes. Chapman & Hall, New York, 1994. evy evy Proces Processes ses and Their Infinitely Divisible Distributions. Cambridge University Press, Cambridge, [21] K.-I. Sato. L´ 1999.
[22] D. Stirzaker. Elementary Probability. Cambridge University Press, Cambridge, 1994. [23] A.N. Shiryaev . Essentials of stochastic Finance. [24] A.N.Shiryaev. probability. Springer, Graduate texts in mathematics, 95. [25] D. Williams. Probability with Martingales. Cambridge University Press, Cambridge, 1991.