©Roland Portait et Patrice Poncet
CHAPITRE 25 ELEMENTS DE CALCUL STOCHASTIQUE
L'utilisation du calcul stochastique qui s’applique aux mouvements browniens en temps continu, et plus généralement aux processus stochastiques dont la variation s’exprime en fonction de celle d’un brownien, s'est révélée particulièrement féconde pour l'analyse l'analyse des marchés financiers. Ces processus ont été introduits i ntroduits par le mathématicien français Louis Bachelier, Bachelier, au début du 20
ème
siècle, pour représenter le mouvement de cours boursiers. Les mathématiques
de ces processus ont été développées par la suite pour résoudre certains problèmes de physique pointus puis appliquées à nouveau à la finance. Elles ne font pas partie des programmes standard des classes préparatoires aux grandes écoles scientifiques, et des « troncs communs » des programmes des écoles éco les d'ingénieurs d'ingénieur s ou des facultés facu ltés de sciences; or le calcul différentiel et intégral sur des fonctions de processus stochastiques n
s'écarte notablement notablement du calcul familier qui régit les fonctions de R . Cette annexe présente les éléments de calcul sur les processus d’Itô, qui constituent un outil très utilisé dans la théorie et dans les techniques financières modernes. Les démonstrations rigoureuses faisant appel à des mathématiques abstraites (notamment à la théorie de la mesure) ne seront pas présentées présentées dans cette cette annexe où l'accent l'accent sera mis sur les outils de calcul et leur signification afin que l’exposé soit accessible à tous les lecteurs, car ces outils sont nécessaires à la compréhension de nombreux chapitres de cet ouvrage1. Des développements mathématiquement plus précis (et utiles seulement à la compréhension des parties les plus techniques de ce livre) pourront être trouvés dans les notes de bas de page et dans le chapitre suivant. Par ailleurs, les processus de Poisson sont également succinctement présentés. Alors que les processus d’Itô sont continus, les processus de Poisson permettent de représenter des « sauts sauts » intervenant à des instants aléatoires. Après l'énoncé de quelques définitions générales générales concernant les processus stochastiques et leur typologie (au §1) nous étudierons les mouvements browniens (au §2), les processus d’Itô et de diffusion unidimensionnels (au §3), les propriétés des fonctions de
1
Les outils présentés dans les quatre premiers paragraphes de cette annexe sont utilisés dans une dizaine de chapitres de ce livre. Les paragraphes 5 et 6 sont moins indispensables et pourront être omis lors d’une première lecture.
2 processus stochastiques et les règles de calcul différentiel et intégral d’Itô (aux §4 et 5) et les processus à sauts (au §6).
1 Définitions, notations et considérations considérations générales générales sur les processus stochastiques
Un processus stochastique (ou processus aléatoire) est une variable à une ou plusieurs dimensions qui dépend du hasard et du temps. Il existe une infinité d’exemples de tels processus. Pour s’en tenir au domaine de la finance fi nance citons le cours d’une action, un taux d’intérêt, un indice boursier, ou un ensemble (vecteur) de variables comprenant plusieurs taux, indices, taux de change,…
1.1 Notations générales
- Les variables et les processus processus aléatoires seront seront désignés par par des lettres capitales et et les n
éléments non aléatoires de R ou de R seront en général représentés par des petites lettres. - Un tiret dénotera un vecteur (exemple : X est un vecteur ( X 1, ... X n) de variables n
aléatoires ; x est un élément non aléatoire de R ). - Une matrice sera représentée par une lettre capitale, en gras, comme Σ .
1.2 Les processus processus stochastiques : définitions, notations, cadre général général d’analyse d’analyse
a) Cadre probabiliste (simplifié)
A l’instar d’une variable aléatoire, un processus stochastique dépend de l’état du monde noté ω (l'ensemble des états du monde est noté Ω) ; il dépend en plus du temps. Une notation complète indique cette double dépendance ; on notera donc X (t,ω ) la valeur prise par un processus X en t dans l’état du monde ω . On considérera le cas de processus définis et observés à des instants particuliers 0, t 1 , t 2 ,…, t n=T ainsi que le cas de processus définis en tout t dans l’intervalle de temps (0, T )2 ; dans le premier cas on dira 2Formellement
n
c'est une application X , mesurable, de [0, T ] × Ω dans R où Ω est l'espace probabilisé fondamental muni d'une σ-algèbre F et et d'une mesure de probabilité. La σ-algèbre I t est représentative du système d'information disponible en t ; l'enrichissement du système d'information au cours du temps est représenté par une suite I t de σ-algèbres emboîtées ( I 0 ⊆ I 1⊆...⊆ I t ... ⊆ Ι Τ = F que l'on appelle une filtration. On se bornera implicitement dans la suite à considérer les processus dits « adaptés » ou I t t -
2 processus stochastiques et les règles de calcul différentiel et intégral d’Itô (aux §4 et 5) et les processus à sauts (au §6).
1 Définitions, notations et considérations considérations générales générales sur les processus stochastiques
Un processus stochastique (ou processus aléatoire) est une variable à une ou plusieurs dimensions qui dépend du hasard et du temps. Il existe une infinité d’exemples de tels processus. Pour s’en tenir au domaine de la finance fi nance citons le cours d’une action, un taux d’intérêt, un indice boursier, ou un ensemble (vecteur) de variables comprenant plusieurs taux, indices, taux de change,…
1.1 Notations générales
- Les variables et les processus processus aléatoires seront seront désignés par par des lettres capitales et et les n
éléments non aléatoires de R ou de R seront en général représentés par des petites lettres. - Un tiret dénotera un vecteur (exemple : X est un vecteur ( X 1, ... X n) de variables n
aléatoires ; x est un élément non aléatoire de R ). - Une matrice sera représentée par une lettre capitale, en gras, comme Σ .
1.2 Les processus processus stochastiques : définitions, notations, cadre général général d’analyse d’analyse
a) Cadre probabiliste (simplifié)
A l’instar d’une variable aléatoire, un processus stochastique dépend de l’état du monde noté ω (l'ensemble des états du monde est noté Ω) ; il dépend en plus du temps. Une notation complète indique cette double dépendance ; on notera donc X (t,ω ) la valeur prise par un processus X en t dans l’état du monde ω . On considérera le cas de processus définis et observés à des instants particuliers 0, t 1 , t 2 ,…, t n=T ainsi que le cas de processus définis en tout t dans l’intervalle de temps (0, T )2 ; dans le premier cas on dira 2Formellement
n
c'est une application X , mesurable, de [0, T ] × Ω dans R où Ω est l'espace probabilisé fondamental muni d'une σ-algèbre F et et d'une mesure de probabilité. La σ-algèbre I t est représentative du système d'information disponible en t ; l'enrichissement du système d'information au cours du temps est représenté par une suite I t de σ-algèbres emboîtées ( I 0 ⊆ I 1⊆...⊆ I t ... ⊆ Ι Τ = F que l'on appelle une filtration. On se bornera implicitement dans la suite à considérer les processus dits « adaptés » ou I t t -
3 que le processus est « en temps discret » et dans le second qu’il est représenté « en temps continu ». La date 0 désigne souvent (mais pas toujours) la date d’aujourd’hui.
L’état du monde ω ω doit être interprété comme « l’histoire exhaustive du système étudié entre 0 et
T ».
Pour un état du monde ω donné toutes les réalisations du
processus X (t,ω ) sont donc connues. Dès lors, pour un ω donné, X (t,ω ) ≡ xω (t ) est une simple fonction du temps (sans caractère aléatoire) qui représente la réalisation particulière du processus sous l’occurrence ω . Cette fonction du temps xω (t ) pour un ω donné s’appelle une trajectoire. Une trajectoire est donc une suite discrète ou continue de réalisations de X ; dans le cas d’un processus en temps continu une trajectoire peut être représentée par une simple courbe (sur un plan si le processus est unidimensionnel ou dans un espace à n+1 dimensions s’il est n-dimensionnel). Par ailleurs, pour un t donné, X (t,ω ) ≡ X t t( ω ) est une simple variable aléatoire dont la valeur exacte n’est connue qu’en t . Dans le vocabulaire probabiliste, une propriété concernant X (t,ω ) sera dite « presque sûrement » vraie (p.s.) si elle est vraie pour tout ω sauf éventuellement dans un sousensemble de Ω de probabilité nulle. On pourra donc interpréter « p.s. » comme synonyme de « certainement » ou « avec probabilité 1 ». La notation X (t,ω ) est la plus explicite pour désigner un processus aléatoire que l’on se contente le plus souvent de noter X (t ). ). L’ambiguïté est partiellement levée dans nos notations car les lettres capitales sont réservées aux éléments aléatoires (les petites lettres désignant en général des éléments déterministes). En fait, les processus stochastiques que nous considérerons sont des variables unidimensionnelles ou des vecteurs multidimensionnels, aléatoires et fonction du n
temps, prenant leurs valeurs dans R . Un processus aléatoire vectoriel sera noté par exemple X (t ). ). On considérera parfois deux instants s et t et on supposera toujours que X (s) est connu pour s ≤ t. Cette dernière propriété caractérise les processus dits adaptés (leur valeur est connue sans délai, « en temps réel ») 3. Au fur et à mesure que le temps s’écoule et que l’information s’enrichit, l’incertitude se réduit. L’ensemble des informations disponibles en t est représenté par I t t. 4 C’est à partir
mesurables, c'est-à-dire que, pour tout t , la variable aléatoire X (t , .) est connue en t c'est-à-dire mesurable par rapport à I t t. 3 Cf. note 1 supra.
4 de I t que sont élaborées, en t , les probabilités concernant le futur et qualifiées de « conditionnelles » car dépendantes des informations disponibles. On spécifiera par / I t un tel conditionnement ; par exemple E( X (T )/ I t ) désignera l’espérance de la valeur terminale X (T ) élaborée en t , avec le système d’information I t disponible à cet instant. De façon analogue nous noterons par exemple E( X (T )/ X (t ) = x) « l’espérance de X (T ) sachant que X (t ) = x ».
b) Processus sans mémoire
Commençons par considérer un processus unidimensionnel X (t ), une suite arbitraire d'instants successifs t 0, t 1, ..., t m-1 compris dans [0, T [, des nombres réels quelconques x0, x1, ..., xm-1 et x, et la probabilité que X (t m) soit inférieur ou égal à x sachant que X (t 0)
= x0, X (t 1) = x1, ..., X (t m-1) = xm-1 ; nous écrivons cette probabilité conditionnelle : Proba { X (t m) ≤ x / X (t 0) = x0, X (t 1) = x1,..., X (t m-1) = xm-1} Un processus sans mémoire est, par définition, caractérisé par des probabilités conditionnelles de X (t m) qui, quels que soient x et la suite ( t 0, ..., t m), ne dépendent que de
( xm-1, t m-1) caractérisant le dernier état connu; la probabilité conditionnelle
précédente se simplifie alors en : Proba { X (t m) ≤ x / X (t m-1) = xm-1} ≡ F ( xm-1, t m-1 ; x, t m). Cette probabilité de passage de l'état xm-1 en t m-1 à un état ≤ x en t m s'appelle la probabilité de transition. Pour résumer, un processus sans mémoire est tel que la réalisation la plus récente contient toute l'information pertinente à l'élaboration des probabilités concernant le futur : « le passé n’influence l’avenir que par l’intermédiaire du présent ». Ainsi, supposer que le cours des actions suit un processus sans mémoire est en totale contradiction avec les analyses techniques et chartistes mais en parfait accord avec l’hypothèse d’efficience (cf. chapitre 1). Les définitions que nous venons d'exposer se généralisent aisément au cas des processus multivariés : X et x se transforment simplement en X et x qui représentent des vecteurs. Définition : Un processus de Markov est un processus sans mémoire dont les probabilités de transition respectent certaines conditions5.
4 5
Cf. note 1 supra. Les conditions pour qu’un processus sans mémoire soit markovien sont les deux suivantes :
5
c) Processus à trajectoires continues
Les définitions précédentes recouvrent deux cas que nous avons distingués : celui où le processus X (t ) n'est défini que pour des valeurs discrètes du temps ; celui où il peut être caractérisé en temps continu, c'est-à-dire à tout instant dans l’i ntervalle de temps [0, T ]. Les processus en temps continu peuvent être classés en deux catégories : les processus continus et les processus à sauts.
Les processus continus, dits aussi processus à trajectoires continues, sont ceux pour lesquels les trajectoires sont sûrement continues alors celles des processus à sauts sont caractérisées par des discontinuités. Dès lors, un processus continu ne peut connaître qu’une modification infinitésimale de sa valeur dans un intervalle de temps de durée dt . Les processus continus ont été étudiés notamment par le mathématicien Japonais Itô.
Enfin, parmi les processus en temps continu ou discret on s'intéresse particulièrement aux processus stationnaires, c'est-à-dire à ceux pour lesquels les probabilités de transition Proba { X (t ) ≤ xt / X (s) = xs } s'écrivent, pour tous s et t ∈ [0, T ], comme des fonctions de ( xs, xt , t-s)6.
2 Le mouvement brownien La notion de mouvement brownien a été introduite en 1828 par le botaniste Robert Brown pour décrire les mouvements de particules de pollen en suspension dans l’eau. Soixante-dix ans plus tard, le mathématicien français Louis Bachelier, dans sa thèse de n
• F( xs , s ; ., t ) est une fonction mesurable par rapport à la σ -algèbre I t et les boréliens de R . • L'équation suivante, dite de Chapman-Kolmogorov, est satisfaite pour r < s < t : F ( x, r ; z, t ) =
∫ F ( y, s ; z, t )dF ( x, r ; y, s) (l’intégration s’opère sur y). y
Cette équation signifie simplement que la probabilité que X passe de ( r, x ) à (t, ≤ z) est égale à la somme des probabilités de toutes les trajectoires passant en s par tous les états intermédiaires y possibles et aboutissant en t à une valeur ≤ z. 6Les
processus stationnaires ne sont pas uniquement définis sur la classe particulière des processus markoviens ; de manière générale un processus X (t ) est stationnaire si sa fonction de distribution est telle que : ∀h, Proba ( X (t m) ≤ xm, X (t m-1) ≤ xm-1, ..., X (t 0) ≤ x0) = Proba ( X (t m+h) ≤ xm, ..., X(t 0+h) ≤ x0) c'est-à-dire qu'elle est invariante pour toute tr anslation dans le temps. Cette définition générale implique la définition particulière que nous avons donnée pour les processus markoviens.
6 l'année 1900 intitulée « Théorie de la spéculation » portant sur le comportement des prix cotés à la Bourse de Paris, développait et formalisait la théorie et utilisait le mouvement brownien en temps continu pour représenter les variations des cours boursiers. Le travail de Louis Bachelier précédait celui des physiciens et des mathématiciens tels que A. Einstein, N. Wiener, P. Levy, et K. Itô, qui ont utilisé le mouvement brownien pour décrire des phénomènes en Physique et développer la théorie mathématique des processus stochastiques continus. Soixante-dix ans après le travail de Bachelier, Robert Merton, dans une série d’articles fondamentaux, fondait un pan essentiel de la théorie actuelle des marchés financiers en s’appuyant sur les mathématiques des processus « dérivés du mouvement brownien ». Nous commençons par l'étude du mouvement brownien unidimensionnel en 2.1, nous présentons quelques règles de calcul utiles relatives à ce processus en 2.2, et le mouvement brownien multidimensionnel en 2.3. 2.1 Le mouvement brownien unidimensionnel Nous allons étudier dans ce paragraphe des mouvements browniens unidimensionnels, c'est-à-dire qui prennent leurs valeurs dans R .
a) Introduction : le temps discret
Pour introduire plusieurs concepts essentiels pour la suite, nous considérons d’abord un processus markovien unidimensionnel observé à des instants régulièrement espacés, de valeur successives X (0), X (1), ..., X (t ), ..., à accroissements
X ( t)
−
X ( t-1)
indépendants, normalement et identiquement distribués dont l’espérance est notée
µ et l'écart type σ . Posons U (t+1) ≡
X (t + 1) − X (t ) − µ
σ
D’après les caractéristique du processus X décrites plus haut, les U (t ) sont des variables normales, centrées réduites et indépendamment distribuées, et l'équation qui régit le mouvement de X peut s'écrire : (1)
X (t+1) − X (t ) = µ + σ U (t+1)
Par ailleurs, en écrivant X (t ) comme la somme de X (0) et de ses t accroissements entre 0 t
et t , il vient : X (t ) =
∑ X (i) −X (i − 1) ; les accroissements X (i) − X (i-1) étant gaussiens i =1
2
et indépendants, nous avons : E( X (t )) = µ t ; var(( X (t )) = σ t et X (t ) est distribué selon N ( µ t ,
σ 2 t ).
7 Ce processus très simple, appelé auto-régressif du 1
er
ordre, est couramment utilisé en
économétrie. Le mouvement brownien peut être considéré comme une limite de ce processus en temps continu.
b) Le temps continu
Nous allons généraliser l’approche en temps discret en considérant un processus X (t ) défini en temps continu, c'est-à-dire pour tout t ∈ (0, T ) que nous définirons comme un « mouvement brownien arithmétique7 non standardisé », ou plus simplement « un brownien ». Parmi les différentes définitions possibles du mouvement brownien, nous optons ici pour la suivante : Définition du mouvement brownien arithmétique X (t ) est un mouvement brownien arithmétique si : 2
(i) X (t ) − X (0) est gaussien de moyenne µ t et de variance σ t (c'est-à-dire selon la loi N ( µ t ,
(ii)
σ 2 t )) ;
Ses accroissements sont indépendants (s’ils sont calculés sur des périodes
disjointes) ; dès lors, si t 1, t 2, t 3, t 4 désignent quatre instants successifs quelconques avec 0≤ t 1 < t 2 < t 3 < t 4 ≤ T : X (t 4) − X (t 3) est indépendant de X (t 2) − X (t 1). Plus généralement, l’accroissement du brownien sur une période ( s, t ) quelconque est indépendant de tous les évènements survenus jusqu’à la date s comprise.
Considérons deux dates successives s et t quelconques. Si on écrit : X (t ) – X (s) = ( X (t ) – X (0)) – ( X (s) – X (0)), on obtient : E( X (t ) – X (s)) = µ (t − s).
Si on écrit : X (t ) – X (0) = ( X (t ) – X (s)) + ( X (s) – X (0)), on obtient : Var( X (t ) – X (0)) = Var( X (t ) – X (s)) + Var( X (s) – X (0)), d’où: 2
Var( X (t ) – X (s)) = = σ (t − s) On peut aussi écrire : Cov( X (s), X (t )) = Cov( X (s), X (s) + ( X (t ) – X (s))) = Var( X (s)) + Cov( X (s), X (t ) – X (s)) 2
= Var( X (s)) = σ s 7 C’est pour les distinguer des mouvements browniens géométriques (cf. 3.2, exemple 2) que les browniens simples sont parfois qualifiés de « browniens arithmétiques ».
8 Par ailleurs, les accroissements X (t ) – X (s) ne dépendant pas des évènements antérieurs à s, le processus est markovien. En outre, X est stationnaire puisque les deux premiers moments de X (t ) − X (s) (qui définissent toutes les probabilités, puisque X est gaussien) ne dépendent que de t − s. Dès lors, si on considère deux instants t et t+ ∆t , X (t+ ∆t ) − X (t ) est distribué selon une 2
loi N ( µ ∆t , σ ∆t ) et on peut écrire : X (t+∆t ) − X (t ) ≡ ∆ X = µ ∆t + σ ∆t U (t ),
(2)
où U (t ) représente une gaussienne standard. L’équation (2) indique aussi que le processus est continu car en faisant tendre ∆t vers 0
∆ X tend vers 0 (en un certain sens défini plus avant). En fait, le caractère normal et i.i.d. des accroissements suffit à conférer au processus son caractère continu, comme on le montrera dans ce qui suit. Les propriétés du mouvement brownien mises en évidence dans ce qui précède sont résumées sous la forme d’une proposition. ère
Proposition 1 (1
série de propriétés du mouvement brownien arithmétique)
- Les accroissements d’un mouvement brownien ont une espérance et une variance proportionnelles à la durée de l’intervalle sur lequel ils sont calculés : X (t ) – X (s) est 2 donc distribué selon une loi N ( µ (t − s ) , σ (t − s)). Deux accroissements calculés sur
des périodes de même durée sont donc identiquement distribués. 2
- Pour s < t : Cov( X (s), X (t )) = σ s. - Les trajectoires du mouvement brownien sont continues.
- Le mouvement brownien est markovien et stationnaire.
Parmi les mouvements browniens arithmétiques, on distingue ceux dont les accroissements sont d’espérance nulle ( µ = 0) et dont la variance par unité de temps est 2
égale à un ( σ = 1). Définition du mouvement brownien standard (ou processus de Wiener) Un mouvement brownien arithmétique dont les accroissements ont une espérance µ = 0 2 et une variance par unité de temps σ = 1 s’appelle un mouvement brownien standard,
ou processus de Wiener (du nom du mathématicien qui, le premier, en a étudié les propriétés) ; il sera noté dans la suite W (t ). On posera en outre W (0) = 0 (par définition, le processus de Wiener part de l’origine).
9
On en tire directement les propriétés suivantes : Propriétés du processus de Wiener (brownien standard) : - le processus de Wiener W (t ) est distribué selon une loi N (0, t ) ; - son accroissement entre t et t + ∆t , ∆W ≡ W (t+∆t ) − W (t ), est N (0, ∆t ) - l'espérance conditionnelle Ε (W (t )/ W (s)) = W (s) ; on dit que W est une martingale8.
En matière de mouvement brownien, le brownien standard joue un rôle analogue à celui de la variable normale centrée réduite à l’égard des variables normales d’espérance et de variance quelconque. En particulier, il est possible d’exprimer un mouvement brownien arithmétique X (t ) de paramètres µ et σ en fonction d’un processus de Wiener W (t ). Il suffit de vérifier que W (t ) =
X (t ) − µ t est un processus de Wiener ( X (t ) lui confère son
σ
caractère gaussien ainsi que l’indépendance de ses accroissements et, par construction, 2
sa moyenne est nulle et sa variance égale var( X (t )/ σ = t ). On écrit alors :
(3)
X (t ) = µ t + σ W (t )
En termes d’accroissements, cette dernière relation implique :
(4)
∆ X = µ ∆t + σ ∆W
Puisque ∆W = W (t+∆t ) − W (t ) est N (0, ∆t ), cet accroissement s’exprime en fonction d’une variable normale standard U :
(5)
∆W = √∆t U
On remarquera que (5) est un cas particulier de (2) (avec µ = 0 et σ = 1).
Nous avons déjà indiqué, sur la base d’une justification intuitive, que les trajectoires du mouvement brownien sont continues en tout point. Reprenons ce point important avec plus de rigueur. Situons-nous en un point quelconque ( t , W (t )) d’une trajectoire
8
De façon plus générale l’accroissement W (t ) − W (s) ne dépend d’aucun évènement antérieur à s et de ce fait on peut écrire : E(W (t ) − W (s)/ I s) = 0 donc E(W (t ) / I s) = W (s), où I s désigne l’ensemble des informations disponibles en s qui est représentée mathématiquement par une σ -algèbre.
10 quelconque d’un processus de Wiener et considérons l’accroissement ∆W aléatoire à venir dans la période ( t , t +∆t ). 2 2 Var(∆W ) = E [(∆W) ] = σ ∆t tend vers 0 quand ∆t tend vers 0 ce qui montre que la
trajectoire est continue au sens de la norme quadratique. Elle est aussi continue au sens où : pour tout ε >0 lim Proba( |∆W | > ε ) = 0, puisque ∆W est normale centrée sur 0 et ∆t →0
que sa variance tend vers 0 quand ∆t tend vers 0 ; ceci annule toute probabilité de saut. En outre, la propriété de continuité des trajectoires que l’on vient de montrer dans le cas d’un processus de Wiener W , est vérifiée également pour un brownien non standard X , en vertu de (3).
Les processus X (t ) et W (t ) sont définis en temps continu, ce qui permet d’écrire l'équation (4) sur un intervalle infinitésimal (t , t+dt ), sous la forme différentielle :
dX (t )
(6)
µ dt
=
Non aléatoire = E(dX)
σ dW
+
aléa gaussien centré 2 de variance=σ dt
(dW est normale d’espérance nulle et de variance égale à dt ).
La relation (6) est une équation différentielle stochastique (EDS dans la suite). Elle exprime le fait que la variation dX comprend une composante déterministe µ dt égale à son espérance mathématique et une composante stochastique σ dW d'espérance nulle et de variance σ 2 dt ; µ est appelé le terme de dérive ou de tendance (« drift » en anglais), σ le paramètre de diffusion et σ 2 la variance instantanée. Cette EDS (6) a pour forme intégrale (ou solution) : t
t
∫
∫
0
0
X (t ) – X (0) = µ ds + σ dW ( s ) = µ t +σ W (t ).
L’EDS (6) est la généralisation de l’équation différentielle ordinaire (EDO) (sans terme t
stochastique) la plus simple : dX = µ dt
∫
X (t ) – X (0) = µ ds = µ t 0
Remarquons que
t
t
t
0
0
0
∫ σ dW (s) = σ ∫ dW ( s) = σ W (t ) car σ est une constante et que ∫ dW (s)
représente simplement la somme des accroissements de W entre 0 et t : ce résultat, et la
11 définition même de cette intégrale stochastique, seraient moins évidents si σ n’était pas constant, comme dans le cas des processus plus généraux étudiés dans la suite. Le processus brownien peut être utilisé quand le mouvement d'un système résulte d'une force constante qui imprime une dérive (traduite par le terme µ dt ) perturbée par des chocs aléatoires successifs, continuels et indépendants dans le temps qui impriment des mouvements erratiques (représentés par le terme σ dW ). Il a notamment été utilisé pour représenter, à la suite des observations de R. Brown, le mouvement d'une particule en suspension dans un fluide 9.
Reprenons maintenant l’équation (5) qui permet d’écrire :
∆W ∆t
=
σ
U ∆t
Cette expression n’ayant pas de limite quand ∆t tend vers 0 le mouvement Brownien (W et X ) est non dérivable (bien qu’il soit continu).
Les trajectoires du mouvement brownien sont donc continues en tout point alors qu’elles ne sont dérivables en aucun point (chaque point étant « anguleux », ce qui est difficile à concevoir). Cette double caractéristique de continuité et de non dérivabilité ne constitue qu’une des propriétés du brownien qui peut paraître insolite. Citons, parmi d’autres :
ème
3
série de propriétés du mouvement brownien
- Un brownien atteindra sûrement une valeur réelle quelconque, aussi grande ou aussi petite soit-elle. Cette valeur sera même atteinte un nombre infini de fois ; - Quelle que soit l’échelle de temps (c'est-à-dire quel que soit le « niveau du zoom ») adoptée pour observer un mouvement brownien, la trajectoire conserve une « similitude de forme » caractéristique d’une structure fractale.
Expliquons de manière plus précise en quoi consiste cette structure fractale du brownien. De façon générale « une fractale possède une forme spéciale d’invariance ou de symétrie reliant le tout à ses parties: le tout peut être décomposé en parties plus
9 X (t )
est une des coordonnées de la position de la particule (un brownien tridimensionnel représenterait sa position dans l’espace à trois dimensions). La particule subit une succession ininterrompue de chocs avec les molécules du fluide qui sont en constante agitation ; ces chocs provoquent des mouvements aléatoires de la particule représentés par l’aléa gaussien σ dw. En outre, une « dérive » µ dt traduit l’existence d’un « courant » qui traverse le fluide entraînant la particule dans une direction déterminée.
12 petites, chacune répétant le tout comme un écho » 10. Elle est, dans ce sens, « invariante d’échelle ». Considérons le cas d’un processus de Wiener. Sur une période de durée ∆t ce brownien standard a une variation égale à √∆t U où U est une gaussienne standard ; or ce même intervalle peut être décomposée en n sous intervalles de durée ∆t/n et la variation du brownien est la somme de n variables normales
∆t n
U i où les U i sont des
gaussiennes standard. De même, sur un de ces sous-intervalle de durée ∆t/n, la variation 2
du brownien peut être décomposée à son tour en n sous intervalles de durée ∆t/n sur chacun desquels la variation du brownien est
∆t n
2
U j ; et ainsi de suite pour des
décompositions de plus en plus fines comme l’indique le schéma ci dessous.
∆t / n 3 U 1''
∆t / n 2 U 1' ∆t / n3 U n''
∆t / n U 1
√∆t U
∆t / n 2 U n' ∆t / n U n
La gaussienne standard U constitue donc le motif commun, le générateur de toute la trame, quelle que soit l’échelle à laquelle cette trame est observée. Cependant ces variables aléatoires U i prennent des valeurs différentes les unes des autres ce qui explique que des formes exactes ne se retrouvent pas à l’identique, sur des images emboîtées correspondant à des zooms différents d’une même trajectoire. La figure 1 ci-dessous représente, parmi une infinité de réalisations possibles, deux trajectoires d’un brownien X (t ).
10
Benoît Mandelbrot : Une approche fractale des marchés , Odile Jacob, 2005.
13
Figure 1: 2 trajectoires possibles d'un brow nien 2,5 2 1,5 ) t ( X
1 0,5 0 -0,5
1
275 549 823 1097 1371 1645 1919 2193 2467 2741 3015 3289 3563 3837
-1 t
Zoom sur une trajectoire
1,8 1,6 1,4 1,2 ) t
1
X
0,8 0,6 0,4 0,2 0 t
La figure du haut présente deux trajectoires simulées d’un même brownien de dérive µ = 0,04% (soit 0,004 × 252 # 10% sur une année de 252 jours ouvrés) et de paramètre de diffusion σ = 0,02 par jour (soit 0,02 × √252 # 32% annualisé); le graphique retrace l’évolution de X (t ) sur 4000 jours. Comme nous le verrons plus loin X (t ) pourrait représenter le logarithme népérien du prix d’une action de volatilité égale à 32%. On remarquera le caractère continu et partout « rugueux » des trajectoires (« qui changent de direction en tout point ») et qui traduit leur non dérivabilité.
14 La figure du bas est un zoom sur une des trajectoires (agrandissement de 4 qui « détaille » la trajectoire entre les jours 1200 et 2200) ; il fait apparaître la même « structure rugueuse » que la trajectoire sur 4000 jours : sans précision sur l’échelle des axes elle pourrait, a priori, représenter une trajectoire de brownien à une échelle quelconque, conformément à la propriété « d’invariance à l’échelle » caractéristique d’une structure fractale.
2.2 Règles de calcul sur les mouvements browniens Nous allons maintenant établir un certain nombre de « règles heuristiques » de calcul concernant le mouvement brownien arithmétique qui constituent la base du calcul stochastique.
Le calcul différentiel sur des processus de Wiener obéit aux règles suivantes : (7-a) (dW )2 = dt = var(dW ) (7-b) dW.dt = 0 (7-c)
dW 1(t ).dW 2(t ) = ρ 12 dt = cov (dW 1, dW 2) si W 1 et W 2 sont deux processus de
Wiener non indépendants et ρ 12 est le coefficient de corrélation instantané entre W 1et W 2.
(7-d) dW (t 1).dW (t 2) = 0 si t 1 ≠ t 2
Ces relations peuvent être justifiées à l’aide de l’équation (5) que l’on réécrit avec deux de ses implications directes (U est une variable N (0,1)): (5-a)
∆W = √∆t U ;
(5-b)
2
2
(∆W ) = ∆t U ;
2
2
(5-c) (dW ) = dt U
Justification de (7-a). La relation (7-a) peut paraître étonnante pour deux raisons. - D'abord on peut être surpris que le carré d'un élément différentiel soit d'ordre un (et non d’ordre deux), comme l’indique (5-c) et (7-a); la raison en est que W n'est pas dérivable et que dW est d'ordre
1 2
comme le montre l’équation (5-a).
Cette caractéristique particulière a des conséquences importantes sur la manière dont est calculée la différentielle d'une fonction de processus de diffusion, comme on le verra dans le paragraphe suivant.
15 - Une deuxième cause de surprise vient du fait que (7-a) indique que (dW )2 est non aléatoire. En fait: E [(dW )2 – dt ] = 0 et (5-c) implique : Var [(dW )2 – dt ] = (dt )2 var U 2 = (dt )2 La variable (dW )2 – dt a donc une espérance nulle et une variance égale à (dt )2, d'ordre deux: la variance peut donc être considérée comme nulle11, donc (dW )2 peut être assimilé à son espérance dt .
- Justification de (7-b) et (7-c). Les règles (7-b) et (7-c) ont des fondements analogues à (7-a). D'abord, var{dt.dW } = (dt )3/2, donc dt dW peut être assimilé à son espérance qui est nulle, d'où dW dt = 0. Ensuite dW 1 dW 2 = U 1 U 2 dt où U 1 et U 2 sont deux variables normales standardisées dont on appellera ρ 12 le coefficient de corrélation (égal à leur covariance). Dès lors : E{dW 1 dW 2} = dt E{U 1 U 2} = ρ 12dt ; var{dW 1 dW 2} = ( dt )2 var{U 1 U 2} qui est donc d'ordre deux ; ce produit peut donc être assimilé à son espérance, donc dW 1 dW 2 = ρ 12dt .
- Justification de (7-d). La règle (7-d) résulte directement du fait que W est un processus à accroissements indépendants.
Ces règles s’adaptent au brownien arithmétique non standard X .
Règles « heuristiques » de calcul applicables au brownien non standard de paramètres µ et σ : (9-a)
dX 2 = σ 2dt ;
(9-b) dX dt = 0 ; (9-c) dX 1(t ) dX 2(t ) = cov (dX 1, dX 2) = σ 12 dt =
ρ 12σ 1σ 2dt.
Nous ne justifions que (9-a), les autres relations se démontrant de manière analogue.
11L'espace
des variables aléatoires centrées à variance finie peut être muni d'un produit scalaire, la covariance, et par conséquent d'une norme : la variance. Un élément de norme nulle est l'élément nul.
16 2
2
2
2
2
D’après (6) : (dX ) = ( µ dt + σ dW ) = ( µ dt ) + σ (dW ) + 2 µ σ dt dW et en appliquant les règles (7), c'est-à-dire en ne retenant que les termes d’ordre 1 : dX 2 = σ 2dt .
2.3 Mouvement brownien arithmétique multidimensionnel Le mouvement brownien étudié plus haut est unidimensionnel puisqu’il prend ses valeurs dans R , mais il est possible de généraliser ce qui précède au cas multidimensionnel. On commence par définir un processus de Wiener multidimensionnel W (t ) comme un processus à m composantes browniennes standard et indépendantes entre elles : pour j ≠ k, W j est un Wiener, indépendant de W k , ce qui permet d’écrire, en vertu de (7-c) : dW j dW k = 0.
On
peut
alors
définir
le
mouvement
brownien
arithmétique
non
standard
multidimensionnel à partir de W comme un vecteur aléatoire à n dimensions, X (t ) satisfaisant à : X (t ) − X (0) = µ t + Σ W (t )
où Σ est une matrice de n×m constantes appelée matrice de diffusion. Cette dernière équation est l’homologue de (3). X (t ) obéit alors à l'EDS (10) suivante qui est l'homologue de (6) :
(10)
dX = µ dt + Σ dW
n
Rappelons que µ est un vecteur constant de R , W un Wiener multidimensionnel à m composantes indépendantes12 et Σ une matrice de n×m constantes. En s'attachant à la ième composante de (10), on écrit : m
dX i = µ i d t +
∑ σ dW ij
j
j =1
Ceci implique notamment que : m m m m Cov(dX i, dX k ) = cov ∑ σ ij dW j , ∑ σ kl dWl , = ∑ σ ijσ kj var( dW j ) = ∑ σ ijσ kj dt l =1 j =1 j =1 j =1
12
Alternativement, on peut considérer un Wiener Z à composantes non indépendantes ( dZ idZ j= ρ ijdt ) et écrire l'EDS relative à la ième composante sous la forme : dX i = µ i + si dZ i
17 c'est-à-dire que la matrice de variance-covariance instantanée des composantes du vecteur dX est égale au produit matriciel Σ Σ ’ (Σ’ est la matrice transposée de Σ ).
3. Processus plus généraux dérivés du brownien : processus d’Itô et de diffusions unidimensionnels
Malgré l'intérêt des applications auxquelles il a donné lieu, le mouvement brownien est en fait très particulier, notamment parce que les coefficients de dérive µ et de diffusion
σ sont supposés constants. Un souci de généralisation conduit à considérer des processus dont la dérive et le coefficient de diffusion ne sont pas constants. Nous présentons ici les processus univariés, les processus multivariés faisant l’objet du paragraphe 5.
3.1 Processus d’Itô unidimensionnels On souhaite représenter la dynamique d’un processus univarié, plus général que le mouvement brownien, dont les coefficients de dérive µ (t ) et de diffusion σ (t ) sont euxmêmes stochastiques car ils dépendent de l’information acquise jusqu’à la date t . La variation de X entre t et t + dt obéit alors à l’EDS :
(11-a)
dX = µ (t ) dt + σ (t ) dW
Nous noterons que les notations de la dérive et de la diffusion aléatoires µ (t ) et σ (t ) dérogent exceptionnellement à notre convention consistant à représenter les éléments aléatoires par des capitales. Nous supposerons que les processus aléatoires µ (t ) et σ (t ) sont connus en t : rappelons qu’ils sont de ce fait qualifiés de « processus adaptés ». L’équation (11-a) s’interprète comme l’équation (6) qui régit le brownien : vue de l’instant t, l’accroissement dX entre t et t+dt est la somme de son espérance µ (t ) dt et 2
d’un aléa σ (t ) dW de variance égale à (σ (t )) dt. La variation de X entre 0 et t , somme des variations infinitésimales entre 0 et t , s’écrit : t
(11-b)
t
∫
∫
0
0
X (t ) – X (0) = µ ( s ) ds + σ ( s ) dW ( s )
18 La définition de l’équation (11-b), solution de l’EDS (11-a), repose sur celle des deux intégrales qui en constituent le membre de droite. Ces deux intégrales sont elles-mêmes des processus stochastiques adaptés ; leur définition, qui sera brièvement présentée dans le paragraphe 3.3 ci-dessous, requiert que les processus µ (t ) et σ (t ) satisfassent certaines conditions techniques (cf 3.3). Si ces conditions sont satisfaites, l'EDS (11-a) admet la solution (11-b) qui, pour des conditions initiales données, est unique dans les deux sens équivalents suivants : - tous les processus obéissant à l'EDS (11-a) et satisfaisant la même condition initiale ont la même réalisation (même trajectoire) : si deux processus X (t ) et Y (t ) obéissent à (11-a) et X (0) = Y (0) alors X (t ) = Y (t ), p.s.13 et en toute date t ∈(0, T ) ; - A une valeur X (0) et à une trajectoire quelconque du brownien W (t )] t ∈(0, T ) correspond p.s. une seule trajectoire X (t )] t ∈(0, T ) donnée par (11-b).
Définition. Un processus stochastique obéissant aux équations (11-a) et (11-b) s’appelle un processus d’Itô14.
Tout comme les browniens dont ils sont dérivés, les processus d’Itô sont continus
partout et dérivables nulle part . Contrairement aux browniens, les processus d’Itô ne sont pas nécessairement markoviens (bien que certains le soient), car les coefficients
µ (t ) et σ (t ) dépendent de façon générale de tout l’historique précédant la date t et, de ce fait, ne sont pas nécessairement des processus sans mémoire.
Règles de calcul sur les processus d’Itô Les règles de calcul relatives au brownien se généralisent aux processus d’Itô. Règles heuristiques de calcul applicables au processus d’Itô de paramètres µ (t ) et σ (t ) : (12)
dX 2 = σ (t )2dt ;
dX dt = 0 ;
dX 1(t ) dX 2(t ) = cov (dX 1, dX 2) = σ 12(t ) dt
La justification des règles (12) est analogue à celle des règles (9) relatives au brownien.
3.2
13
Processus de diffusion unidimensionnels
Presque sûrement, c'est-à-dire pour tout ω sauf éventuellement dans un sous-ensemble de Ω de probabilité nulle. 14 Du nom du mathématicien japonais qui a été le premier à les définir et à les étudier (juste après la 2 ème guerre mondiale).
19 Parmi les processus d’Itô qui constituent une classe vaste de processus continus, nous allons considérer ceux dont les coefficients de dérive et de diffusion s’expriment comme des fonctions déterministes du temps et de la valeur courante du processus. En notant respectivement µ (t , X (t )) et σ (t , X (t )) les valeurs prises par les coefficients de dérive et de diffusion, un tel processus est donc régi par les équations :
dX = µ (t , X (t )) dt + σ (t , X (t )) dW
(13-a)
t
(13-b)
t
∫
∫
0
0
X (t ) – X (0) = µ ( s, X ( s) ) ds + σ ( s, X (s ) ) dW (s )
Comme dans le cas plus général des processus d’Itô, les deux intégrales du membre de droite de (13-b) sont définies et donnent des trajectoires « uniques » si les fonctions µ (t , X ) et σ (t , X ), satisfont des conditions techniques (cf. 3.3 infra).
En outre, il faut remarquer que les coefficients µ (t , X (t )) et σ (t , X (t )) suivent des processus stochastiques, bien qu’ils soient calculés avec des fonctions déterministes 2
habituelles de R dans R appelées µ (.) et σ (.), parce que l’argument X (t ) dont ils dépendent est stochastique.
Définition. Les processus stochastiques obéissant aux équations (13-a) et (13-b) s’appellent des processus de diffusion.
Tout comme les browniens dont ils sont dérivés et les processus d’Itô dont ils sont un cas particulier, les processus de diffusion sont continus partout et dérivables nulle
part. A l’instar des browniens, et contrairement à certains processus d’Itô, les processus de diffusion sont markoviens car les coefficients µ (t , X (t )) et σ (t , X (t )), donc les accroissements de X après la date t , ne dépendent que du dernier état ( t , X (t )).
Exemple 1: le mouvement brownien géométrique (MBG). Un MBG unidimensionnel est un processus X obéissant à l'EDS : dX = µ. X dt + σ. X dW. Les coefficients µ et σ sont deux constantes. Cette EDS est un cas particulier de (13-a) avec µ (t , X (t )) = µ. X (t ) et σ (t , X (t )) = σ. X (t ). Le MBG est donc un processus de diffusion. Le MBG est souvent utilisé pour représenter l'évolution des cours de bourse.
20 Dans ce cas X (0), le cours initial, est positif et µ représente l’espérance de rentabilité instantanée qui est typiquement positive. A ce stade de l’exposé, nous ne disposons pas encore de l’outil mathématique adéquat pour résoudre l’EDS régissant le MBG, c'est-à-dire pour exprimer analytiquement X (t ) – X (0). Remarquons simplement que, si X (t ) = 0, l’EDS régissant X implique dX = 0 et de
proche en proche X (t’) = 0 pour tout t’ >t . Dès lors, si le processus atteint une valeur nulle, il demeure « collé » à cette valeur et on dit que le processus possède une « barrière absorbante » en X = 0. Par ailleurs, si X (0) >0, X (t ) étant continu, sa valeur ne peut « sauter » au-dessous de zéro et X (t ) ≥ 0 pour tout t > 0. Nous reprendrons plus avant l’étude du MBG qui est un processus très utilisé pour représenter l’évolution des cours boursiers.
Exemple 2: le processus d’Orstein-Uhlenbeck. Ce processus, qui est parfois utilisé pour représenter l'évolution du taux d'intérêt à court terme, suit une EDS qui s'écrit : dX (t ) = a [b −X (t )] dt + σ dW (t ). Les coefficients a, b et σ sont constants et a > 0. Il s’agit donc d’une diffusion dont la dérive µ (t , X (t )) = a [b −X (t )] est proportionnelle à l'écart entre une valeur b (valeur "normale") et la valeur courante X (t ). Une force de rappel vers b, plus ou moins forte selon la valeur de a, tend donc à rapprocher X (t ) de sa valeur normale ; à cette force de rappel se superpose le choc aléatoire σ dW dont l'intensité dépend de la valeur de σ . Nous reprendrons plus loin l’étude de ce processus, quand nous serons munis d’un outil technique plus puissant.
* 3.3 L'intégrale stochastique (Ce paragraphe peut être omis en première lecture) Nous allons donner quelques indications sur la signification des intégrales intervenant dans les équations (11-b), (13-b), (14-b) et (15-b).
a) Le cas des processus d’Itô t
t
∫
∫
0
0
Rappelons l’équation (11-b) : X (t ) – X (0) = µ ( s ) ds + σ ( s ) dW ( s ) .
21 Appelons I 1 la première intégrale du membre de droite et réécrivons-la de manière plus t
∫
explicite afin de marquer son caractère aléatoire : I 1(ω ,t ) = µ (ω , s ) ds . 0
Pour un ω donné µ (ω , s) est une fonction déterministe du temps représentative d’une trajectoire particulière du processus µ , et Ι 1 devient une intégrale standard qui peut être définie au sens habituel de Riemann, par exemple. Dès lors, pour tout processus µ (s) t
pour lequel toutes les trajectoires sont
intégrables15, I 1(ω ,t )
∫
= µ (ω , s ) ds peut ainsi être 0
simplement défini « point par point », c'est-à-dire pour chaque trajectoire (pour chaque
ω ). t
La deuxième intégrale intervenant dans (11-b), I 2 ≡
∫ σ ( s ) dW (s) , est plus délicate à 0
définir. t
∫ Y ( s ) dW (s )
De façon générale, il s’agit de définir l’intégrale stochastique I ≡
où
0
Y (t )]t ∈(0,T ) est un processus stochastique, et de spécifier les conditions à imposer à Y (t )
pour que cette définition ait un sens. On peut penser à définir I , dans l’esprit d’une intégrale de Stieltjes, en suivant la méthode
standard qui consiste, à partir d'une
partition [t 0= 0, t 1, ..., t k-1, t k , ..., t m= t ] de l'intervalle [0, t ], à considérer les sommes de Riemann : m
Sm =
∑ Y (t )(W (t ) − W (t * k
k
*
) où t k ∈(t k-1, t k),
k −1
k =1
et à définir I comme la limite de Sm (presque sûre ou en moyenne quadratique16) quand la partition devient de plus en plus fine ( m tendant vers l’infini et sup (t k- t k-1) tendant k
vers 0). On peut montrer que les Sm convergent (presque sûrement et/ou en moyenne quadratique) si le processus Y (t ) satisfait certaines conditions17, mais que la limite *
dépend de la position assignée à t k dans l'intervalle [t k-1, t k ] .
15
t
∫
On supposera donc que | µ (ω , s ) | ds < ∞ presque sûrement. 0
16
Sm tend en moyenne quadratique vers I si lim E [(Sm−I )2 ] = 0. m→∞
22 Il est d'usage de choisir la spécification de l’intégrale correspondant à t k = t k-1, donc de m
définir I comme la limite des sommes Sm =
∑ Y (t
k −1
) [W (tk ) − W (t k −1 )] .
k =1
Ainsi définie, il s’agit de l’intégrale d’Itô qui est la seule utilisée en finance.
t
Pour résumer, le processus d’Itô, X (t ) – X (0) =
t
∫ µ ( s ) ds + ∫ σ ( s ) dW (s) , 0
avec les
0
intégrales qu’il implique, peut être défini sans ambiguïté si µ (t ) et σ (t ) sont deux processus adaptés satisfaisant des conditions d’intégrabilité portant sur des integrales non stochastiques et que l’on écrit, le plus souvent :
t t 2 E ∫ | µ ( s ) | ds < ∞ et E ∫ σ ( s ) ds < ∞. 0 0
(CI)
L’intégrale d’Itô possède des propriétés dont nous présentons les plus importantes sous la forme d’une proposition.
Proposition 2 (quelques propriétés de l’intégrale stochastique d’Itô)
t (14-a) E ∫ Y ( u ) dW ( u) / I s = 0 ; s t Posons I (t ) = ∫ Y ( u ) dW (u ) pour t ∈(0, T ) ; I (t ) est une martingale, c’est à dire que : 0 (14-b)
E [ I (t ) / I (s) ] = I (s)
Par ailleurs : 2 t t t (14-c) E ∫ Y ( u ) dW (u ) / I s = var ∫ Y ( u ) dW (u ) / I s = ∫ E (Y 2 (u )) du / I s ; s s s
17
Une limite en moyenne quadratique des Sm peut être obtenue si Y (t ) est de carré sommable, c'est-à-dire
t
0
∫
si : E Y 2 ( s ) ds
t
< ∞. Une limite p.s. peut être obtenue quand ∫ Y 2 ( s ) ds < ∞ p.s. Rappelons que la 0
limite p.s. implique la limite en moyenne quadratique mais que l’inverse n’est pas toujours vrai. La
t
0
∫
condition d’intégrabilité en principe la plus facile à vérifier, est E Y 2 ( s ) ds plus souvent retenue.
< ∞. C’est celle qui est e
23 t t t (14-d) E ∫ Y ( u ) dW (u ) ∫ Z ( v ) dW (v) / I s = E ∫ Y ( u ) Z ( u ) du / I s s s s
Les justifications suivantes s’appuient sur les « règles heuristiques » du calcul stochastique et ne constituent pas une démonstration rigoureuse de cette proposition. - Justification de (14-a) :
t t t E ∫ Y ( u ) dW ( u) / I s = ∫ E (Y ( u ) dW (u ) / I s ) = ∫ E ( Y (u ) / I s ) E ( dW (u ) / I s ) = 0 s s s (On utilise le fait que dW (u) = W (u+du) – W (u) est indépendant de Y (u) et que E (dW (u)/ I s) = 0) t
s
t
∫
∫
∫
0
0
s
- Justification de (14-b) : I (t ) = Y ( u ) dW (u ) = Y (u ) dW (u ) + Y (v ) dW (v ) , d’où : t
I (t ) = I (s) +
∫ Y ( v ) dW (v) , et donc, d’après (14-a) : E [ I (t ) / I (s) ] = I (s). s
- Justification de (14-c) : 2 t t E ∫ Y ( u ) dW (u ) / I s = var ∫ Y ( u ) dW (u ) / I s + s s
t E ∫ Y ( u ) dW (u ) / I s s
2
t = var ∫ Y ( u ) dW ( u) / I s en vertu de (14-a) ; s t t t Par ailleurs var ∫ Y ( u ) dW ( u) / I s = ∫ var (Y ( u ) dW ( u) / I s ) = ∫ E (Y 2 ( u ) / I s ) du s s s
(on utilise le fait que l’intégrale est la « somme » de variables indépendantes Y (u)dW (u)) - La justification de (14-d) est analogue à celle de (14-c).
b) Le cas des processus de diffusion
Tous les résultats relatifs aux processus d’Itô, en particulier ceux qui ont été présentés dans le paragraphe précédent, s’appliquent au cas des diffusions qui en constituent un cas particulier. Cependant, dans le cas des diffusions, les conditions d’intégrabilité peuvent s’exprimer directement comme portant sur les fonctions de deux variables µ (t , x) et σ (t , x) : celles ci doivent être Lipschitziennes, c'est-à-dire que deux constantes c et k existent telles que pour tout x, y et t ∈(0, T ) :
|µ (t , x)| ≤ c(1+| x|) ; |σ (t , x)| ≤ c(1+| x|) ;
24
|µ (t , x) − µ (t , y)| ≤ k |x − y| ; |σ (t , x) − σ (t , y)| ≤ k |x − y|
4. La différentiation d'une fonction d’un processus d’Itô : le lemme d’Itô
Rappelons que, dans le cas d’une fonction différentiable ordinaire f (t , X ) de deux variables t et X déterministes, la différentielle de f s’écrit : df =
∂ f ∂t
dt +
∂f ∂X
dX .
Cette règle « standard » n’est pas valide quand X est un processus stochastique. Nous allons donc étudier la règle de différentiation qui s’applique quand X est un processus d’Itô ou une diffusion. On commence par le cas d’un processus X unidimensionnel avant de traiter celui d’un processus X vectoriel.
4.1 Le lemme d’Itô Considérons : - un processus d’Itô unidimensionnel X (t ) obéissant à l'EDS : dX = µ (t ) dt + σ (t ) dW
où µ (t ) et σ (t ) respectent les conditions d’intégrabilité et W est un Wiener. - une fonction f de R 2 dans R , dont on écrira les valeurs f (t , x), une fois continûment différentiable par rapport à t et deux fois continûment différentiable par rapport à la
∂f ∂f ∂2 f deuxième composante x. Les différentes dérivées partielles sont notées , et . ∂t ∂x ∂x 2 On s’intéressera au processus f (t , X (t )) qui est stochastique parce que X (t ) l’est. Par exemple, f (t , X (t )) représentera la valeur d’une option et X (t ) celle de son sous-jacent. On considère l’intervalle (t , t+dt ) au cours duquel X varie de dX = X (t+dt )) – X (t ). On note df = f (t+dt, X (t+dt )) – f (t, X (t )) la variation de f (t , X ) induite par la double variation infinitésimale (dt, dX ). Pour simplifier l’écriture et faire tenir certaines équations sur une ligne, (.) représentera ( t, X (t )). La proposition suivante caractérise le processus f (t, X (t )).
Proposition 3 (lemme d’Itô ; cas unidimensionnel) Avec les notations et sous les hypothèses décrites plus haut : (i) f (t, X (t )) est un processus d’Itô.
25 (ii) La différentielle df peut s’écrire sous les trois formes suivantes : (15-a)
df =
∂f ∂t
(.) dt +
∂f ∂x
(.) dX +
2 1∂ f
2 ∂x 2
2
(.)( dX ) ;
qui implique :
∂f 1 ∂2 f ∂f 2 df = . σ (t ) dt + ( .) + (.) dX ; 2 ( ) ∂x 2 ∂x ∂t
(15-b)
qui implique :
∂f ∂f ∂f 1 ∂2 f 2 + σ σ . ( ) . ( ) df = t dt t dW (.) + (.) µ (t ) + ( ) ( ) ∂x ∂x 2 ∂x 2 ∂t
(15-c)
Sous forme intégrale, (15-c) s’écrit : t ∂f ∂f ∂f 1 ∂2 f 2 σ σ + . ( ) . ( ) f (t, X (t )) – f (0 , X (0)) = ∫ s ds s dW (.) + (.) µ (s) + ( ) ( ) ∫ 0 ∂x ∂s ∂x 2 ∂x 2 0 t
Les équations (15) sont de la plus grande utilité et s’appliquent au calcul de la différentielle d'une fonction d’un processus d’Itô ou de diffusion.
Justification des formules (15). Notons d’abord que les règles (15) diffèrent de celles qui président au calcul des différentielles classiques. Par exemple, (15-a) comprend le terme supplémentaire 2 1 ∂ f
2 ∂ x
2
(.) (dX ) 2 qui est du premier ordre en calcul stochastique mais qui est absent, car
du deuxième ordre, en calcul différentiel ordinaire. Pour comprendre l’origine de ce terme supplémentaire, et en s’en tenant à des justifications qui reposent sur les règles heuristiques de calcul, considérons la variation
∆ f = f (t +∆t , X (t +∆t )) − f (t , X (t )) calculée sur un intervalle de durée ∆t faible mais non infinitésimale. On posera ∆ X ≡ X (t +∆t ) − X (t ) et on notera ε les termes d'ordre soit supérieur à (∆t )2, soit supérieur à ( ∆ X )2. Le développement en série à l'ordre deux de f (t +∆t , X (t +∆t )) autour de (t , X (t )) implique:
∆ f =
∂f ∂t
(.) ∆t +
∂f ∂x
(.) ∆X +
1 ∂2 f 2 ∂x
2
2
(.)( ∆X ) +
1 ∂2 f 2 ∂t
2
2
(.)( ∆t ) +
∂2 f ∂x∂t
(. ) ∆X ∆t + ε
Etudions le comportement de ∆ f quand ∆t tend vers zéro en remplaçant ∆t par l'élément différentiel dt , ∆ X par dX et en éliminant les termes d'ordre supérieur à un ; compte tenu du fait que (dX )2 est d'ordre 1, l'on aboutit à l'équation (15-a).
26 (15-a) conduit directement à (15-b) car ( dX )2 = σ 2(t ) dt en vertu de la règle de calcul 9a. (15-b) conduit directement à (15-c) car dX = µ (t ) dt + σ (t ) dW .
4.2
Exemples d’application
Pour illustrer les règles du calcul différentiel et intégral stochastique exposées précédemment et du fait des applications auxquelles elles ont donné lieu dans la technique financière, nous allons étudier deux processus particuliers déjà introduits : le mouvement brownien géométrique d'une part, et le processus d'Orstein-Uhlenbeck d'autre part.
a) Le mouvement brownien géométrique (MBG)
Nous avons déjà introduit le MBG qui est un processus X (t ) obéissant à l'EDS : dX = µ. X dt + σ. X dW
(16-a)
où les coefficients µ et σ sont deux constantes. Nous avons déjà remarqué que si X (0) est positif le MBG est nécessairement positif en tout temps, ce qui permet d’écrire la variation relative de X sous la forme équivalente : dX
(16-b)
X
= µ dt + σ dW
Quand l’EDS est écrite sous cette forme, le paramètre de diffusion σ s’appelle la volatilité. Nous allons caractériser le MBG par la proposition suivante : Proposition 4 : Si X (t ) est un MBG obéissant à (16) (dérive µ et volatilité σ ) : (i) Ln( X (t )) obéit à un mouvement brownien simple dont la dérive est µ − variance instantanée est σ 2 ; (ii) X (t ) est une variable Log-normale qui s’écrit : (16-c)
( µ −σ 2/ 2)t + σ W (t )
X (t ) = X (0) e
(16-c) est la solution de l’EDS (16-a) ou (16-b) (iii) L'espérance de X (t ) croît exponentiellement au taux µ .
σ 2 2
et la
27 Pour démontrer la première partie de cette proposition, appliquons le lemme d’Itô à Ln( X ) (équations (15) : d Ln( X ) =
dX X
−
1 ( dX ) 2
2
X
2
.
2
dX 2 Comme = µ dt + σ dW et = σ dt , on peut écrire : X X dX
d Ln( X ) = ( µ −
σ 2
) dt + σ dW 2 L'on aboutit bien au premier résultat ( i): Ln( X ) est un brownien arithmétique et :
X (t ) σ 2 Ln( X (t )) − Ln( X (0)) = Ln = ( µ − ) t + σ W (t ) (0) 2 X ( µ −σ 2/ 2)t + σ W (t )
, ce qui démontre ( ii).
X (t ) est donc log-normal et X (t ) = X (0) e
( µ −σ 2/ 2)t + σ √t U
t
) = e µ , ce
En écrivant W (t ) = √t U (où U est N (0,1)) : E ( X (t )) = X (0) E (e qui démontre (iii)18.
Le MBG a été souvent utilisé pour représenter les variations du cours des actions. La Log-normalité du cours est compatible avec une importante propriété de celui-ci : la valeur d'une action ne peut être négative (responsabilité limitée des actionnaires). Cette propriété n'est pas respectée par d'autres lois de distribution, notamment l a loi Normale.
b) Le processus d'Orstein-Uhlenbeck
Rappelons que ce processus de diffusion, utilisé parfois pour représenter l'évolution du taux d'intérêt à court terme, suit une EDS qui s'écrit : dX (t ) = a [b −X (t )] dt + σ dW (t )
(17)
Pour intégrer cette EDS, posons : at
Y (t ) = [ X (t ) − b]e
ce qui implique : dY (t ) = eat dX (t ) + [ X (t ) − b ] a eat dt
soit, en utilisant (17) : dY (t ) = σ eat dW (t ).
D'où il vient, par intégration :
18
2
(a µ +0,5aσ 2)
Rappelons que si X a une distribution normale N ( µ , σ ), alors : E(eaX )) = e
.
28 t
at
as
Y (t ) − Y (s) = [ X (t ) − b]e − [ X (s) − b]e
∫
= σ e au dW (u) s
soit : t
-a(t-s)
X (t ) = e
-at
[ X (s) − b] + b + σ e
∫ e
au
dW (u)
s
au En tant que « somme » des variables normales e dW (u), X ( t) est une variable normale.
En notant xs la réalisation en s de X (s), on peut calculer les deux premiers moments qui caractérisent entièrement sa distribution, puisqu’elle est normale : [ xs − b] + b ≡ φ ( xs ,(t-s))
-a(t-s)
E [ X (t )/ X (s) = xs] = e
t
2
-2at
Var[ X (t )/ X (s) = xs] = σ e
∫ e
2 au
2
) / 2a ≡ ψ (t-s).
-2a(t-s)
du =σ (1− e
s
Ces derniers résultats découlent directement de la proposition 2 et montrent que le processus d'Orstein-Uhlenbeck est stationnaire.
5.
Processus d’Itô et de diffusion multidimensionnels
Nous avons présenté en 2.3 les browniens multivariés et nous conservons les notations qui y ont été introduites pour décrire les processus d’Itô multivariés. Par ailleurs, nous allons étendre au cas multidimensionnel les définitions et les résultats obtenus aux paragraphes 3. et 4. concernant les processus d’Itô et les diffusions unidimensionnels.
5.1 Processus d’Itô et de diffusion multivariés a) Un processus d’Itô n-dimensionnel, associé à un brownien standard W (t ) comprenant m composantes indépendantes, est un processus stochastique X (t ) à n composantes régi
par les équations suivantes : (18-a)
dX = µ (t ) dt + Σ(t ) dW t
(18-b)
t
∫
∫ Σ ( s ) dW (s)
0
0
X (t ) – X (0) = µ ( s ) ds +
Le vecteur de dérive µ (t ) est un processus stochastique adapté à n composantes (satisfaisant certaines conditions techniques) et la matrice de diffusion (ou de covolatilité) Σ(t ) est une matrice n×m dont chacune des nm composantes σ ij(t ) est un
29 processus adapté, satisfaisant certaines conditions techniques pour assurer l ’existence et l’unicité de (18-b). La i
ème
m
composante de l’équation (18-a) s’écrit : dX i = µ i(t ) dt +
∑σ (t ) dW . ij
j
j =1
La matrice de variance-covariance du vecteur aléatoire dX (t ) (de terme général cov( dX i, dX j)) est, à l’instant t , égale à Σ(t ) Σ'(t ).
Le processus d’Itô multidimensionnel, comme son homologue à une dimension, est continu, non dérivable et non nécessairement markovien.
b) Un processus de diffusion n-dimensionnel est un processus d’Itô particulier dont la
dynamique s’écrit :
(19-a)
dX = µ (t , X (t )) dt + Σ (t , X (t )) dW t
(19-b)
t
∫
∫ Σ ( s, X (s ) ) dW (s )
0
0
X (t ) – X (0) = µ ( s, X ( s ) ) ds +
n+1
Les composantes µ i(t , X ) et σij(t , X ) sont des fonctions de R
dans R qui doivent
satisfaire des conditions de Lipschitz pour assurer l’existence et l’unicité de la solution (19-b). Le processus de diffusion multidimensionnel, comme son homologue à une dimension, est continu, non dérivable et markovien.
5.2 Lemme d’Itô (différentiation d'une fonction d’un processus d’Itô n-dimensionnel)
a) Lemme d’Itô dans le cas d’un processus X multivarié
Le lemme d’Itô formulé dans la proposition 3 et applicable aux fonctions d’un processus univarié se généralise au cas de processus multivariés de la manière suivante :
Proposition 5 (Lemme d’Itô ; cas multidimensionnel) Soient X (t ) = ( X 1(t ) ,…, X n(t )) un processus d’Itô multivarié et f (t , x) une fonction de dans
R
telle que les dérivées partielles
∂ f
∂ f
∂ 2 f
n+1
R
, et existent et soient continus ∂t ∂ xi ∂ xi ∂x j
pour tous les ( i,j). En rappelant que (.) signifie (t , X (t )), on peut écrire :
30
(20)
df =
∂ f ∂t
n
(.)dt +
n
∂ f
n
1 ∂ 2 f
∑ ∂ x (.)dX + ∑∑ 2 ∂ x ∂ x i
i =1
i =1 j =1
i
i
(.)dX i dX j
j
Ce qui implique :
(21)
n n m ∂ f ∂ f ∂ f 1 n n ∂ 2 f υ ij (.) + ∑ µ i (.) df = (.) + ∑∑ (.)dt + ∑∑ (.)σ ij (.)dW j t x x x x ∂ ∂ ∂ ∂ ∂ 2 i =1 j =1 i =1 i =1 j =1 i j i i
n
υ ij dénotant l’élément général de la matrice Σ Σ ’, soit υ ij =
∑ σ σ ik
jk
.
k =1
Sous sa forme « intégrale », (21) s’écrit : n ∂ f ∂ f 1 n n ∂ f 2 υ ij (.) + ∑ µ i (.) (.) + ∑∑ (.) du f (t , X (t ) ) − f (s, X (s )) = ∫ ∂u ∂ ∂ ∂ 2 x x x i j i i j i s t
(22)
m
+
t
n
∂ f
∑ ∫ ∑ ∂ x (.)σ (.)dW ij
j =1 s i =1
j
i
La « justification » de ces équations peut-être conduite de manière analogue à celle des équations (15), c’est à dire en procédant à un développement en série de f (t + dt , X + d X ) autour de (t , X ) et en éliminant les termes d’ordre supérieur à un.
b) L’opérateur de Dynkin
L’écriture des équations différentielles stochastiques et du lemme d’Itô se simplifie grandement en ayant recours à l’opérateur de Dynkin (ou plus simplement le Dynkin). Pour simplifier, notons E (.) l’espérance conditionnelle E ( . / I t) et considérons t
E df = E { f (t + dt , X (t + dt )) − f (t , X (t ))}. Dans le cas unidimensionnel, cette espérance t
t
s’écrit d’après (15-c) :
(23-a)
∂ f ∂ f 1 2 ∂ 2 f (. ) + σ (.) 2 (.) dt E df = (.) + µ (.) t ∂ ∂ ∂ x 2 t x
ou bien, dans le cas multidimensionnel, d’après (22) :
(23-b)
n ∂ f 1 n n ∂ f ∂ 2 f E df = (.) + ∑ µ i (.) (.) + ∑∑υ ij (.) (.) dt t ∂ xi ∂ xi ∂ x j 2 i =1 j =1 i =1 ∂t
31 L’équation (23-a) s’applique aux processus unidimensionnels et (23-b) aux processus multivariés.
On peut alors écrire l’espérance instantanée de la variation de f sous la forme :
E df t
(24)
dt
t
≡ D f =
∂ f ∂t
n
(.) +
∂ f
n
1
n
∂2
∑ µ (.) ∂ x (.) + 2 ∑∑ ∂ x ∂ x υ (.) i
i =1
ij
i
i =1 j =1
i
j
t
L’opérateur D ainsi défini s’appelle le Dynkin ou opérateur différentiel et permet de simplifier les notations. Par exemple, l’équation (22) se réécrit :
n
t
df = D f dt +
m
∂ f
∑∑ ∂ x (.)σ (.)dW ij
i =1 j =1
j
i
n ∂ f (.)σ ij (.)dW j f (t , X (t )) − f (s, X (s )) = ∫ D f du + ∑ ∫ ∑ xi j =1 s i =1 ∂ s t
m
t
u
ce qui implique notamment quand X ( s ) = x :
t u E { f (t , X (t )) / X ( s ) = x} = f ( s, x ) + E ∫ D f du . s s s
6.
Les processus à sauts
Nous allons maintenant examiner brièvement le deuxième type de processus dont les trajectoires sont caractérisées par des discontinuités à occurrence aléatoire. Ces processus, ont donné lieu à différentes applications en Finance, notamment dans le domaine du risque de crédit. Le lecteur trouvera une étude plus approfondie de ces processus dans le chapitre 29, relatif au risque de crédit. 6.1 Description des processus à sauts Contrairement aux processus d’Itô, pour lesquels uniquement des mouvements
32 infinitésimaux sont possibles dans des intervalles de temps infiniment petits 17, les processus à sauts, souvent représentés à l’aide d’un processus de Poisson, sont caractérisés par des changements discrets ayant lieu à des instants aléatoires. Pendant un intervalle de temps donné, la valeur de X (t ) soit reste stable, soit subit une modification finie et discrète ; dans le cas d’un processus de Poisson, la probabilité d'occurrence d'un tel saut est proportionnelle à la durée de l'intervalle. Dans un intervalle de temps de durée dt le processus à sauts X (t ) subira donc une modification finie avec une probabilité infinitésimale alors que le processus continu subit dans ce même intervalle de durée dt une modification presque certaine mais infinitésimale.
6.2 Modélisation des processus à sauts
a) Le processus de Poisson en temps continu constitue le "modèle de base" à partir
duquel on peut représenter un processus à sauts.
Rappelons qu'un processus de Poisson en temps continu, caractérisant l'occurrence d'un certain événement (par exemple un saut) est défini par les deux propriétés suivantes :
. Propriété 1 - Dans un intervalle de temps quelconque de durée ∆t , la probabilité que l'événement considéré ait lieu : - zéro fois, est égale à 1− λ ∆t + o1(∆t ) ; - une seule fois, est égale à λ ∆t + o2(∆t ) ; - plus d'une fois, est égale à o3(∆t ) ; o(∆t ) dénote, comme d'habitude, un élément tel que
lim
∆t →0
o(∆t )
∆t
= 0 et λ est une
constante positive qui représente le nombre moyen d'occurrences par unité de temps.
. Propriété 2 - Les événements ayant lieu dans deux intervalles de temps disjoints sont indépendants.
17
Les trajectoires, on l’a vu, sont continues presque sûrement.