Analyse Anal yse des S´ eries Temp eries emporel orelles les Application aux rentabilit´ es des actifs financi es financiers ers
Jaouad Madkour e-mail :
[email protected]
Master Finance, Finance , Banque et March´ es es Facult´ e des sciences science s juridiques, juridiq ues, ´ economiques economiq ues et sociales socia les - Tanger
2016/2017
Introduction Rentabilit´ es es des actifs financiers :
Soit P t t le prix d’un actif financier `a la date t . Les rentabilit´ rentabilit´es es de cet actif sont donn´ees ees par les formules suivantes :
• Rentabi Rent abili lit´ t´e ne nette tte : Rt =
P t t − P t t −1 P t t −1
Rent abili lit´ t´e brute bru te : • Rentabi 1 + Rt =
P t t P t t −1
• Log-r Log -renta entabi bilit´ lit´e : r t t = ln (1 + Rt ) = ln ln (P t t ) − ln (P t t −1 )
Introduction Rentabilit´ es es des actifs financiers :
Soit P t t le prix d’un actif financier `a la date t . Les rentabilit´ rentabilit´es es de cet actif sont donn´ees ees par les formules suivantes :
• Rentabi Rent abili lit´ t´e ne nette tte : Rt =
P t t − P t t −1 P t t −1
Rent abili lit´ t´e brute bru te : • Rentabi 1 + Rt =
P t t P t t −1
• Log-r Log -renta entabi bilit´ lit´e : r t t = ln (1 + Rt ) = ln ln (P t t ) − ln (P t t −1 )
Introduction
La courbe cour be ci-des ci- dessus sus repr´esente ese nte l’´evolution evolu tion de la log-renta log -rentabil bilit´ it´e de l’actio l’a ction n de Maro Marocc Telec elecom. om. Il s’ag s’agit it en r´ealit´ ealit´e d’une d’u ne fonct fonction ion math´ math´emati ema tique que inconnu inc onnuee d´ee processsus su s g´ en´ erat rateur eu r des don do nn´ ees (PGD). Afin de pendant du temps t ap appel´ee proce produire des pr´ evisions evisions fiables, tout financier cherche cherche a` trouver une fonction math´ math´ematique ematique qui soit la meilleure meilleure approximat approximation ion possible du PGD, cette cette approxima appr oximation tion est appel´ app el´ee ee mod mo d`ele el e n’´etant et ant qu’u qu’une ne repr´ re pr´esent es entat atio ion n mod` ` ele . Un mod` simplifi´ simp lifi´ee ee de la r´ealit´ eal it´e est donc par d´efinition efini tion faux, fau x, mais il pe peut ut ˆetre etre utile util e comme le souligne le statisticien britannique George BOX : ”All models are wrong but some are useful”
Introduction
BOX et JENKINS ont publi´ e en 1970 un ouvrage intitul´e « Time Series Analysis : Forecasting and Control » dans lequel ils ont propos´e une strat´egie r´evolutionnaire dans le domaine de la mod´elisation des s´eries chronologiques. Leur nouvelle approche, connue sous l’appellation mod´elisation ARMA, se d´eroule en trois principales ´etapes : 1. Identification du mod`ele de la famille ARMA le plus adapt´e ` a la s´erie des donn´ees sujette a` l’´etude. 2. Estimation des param`etres du mod`ele retenu dans la premi`ere ´etape. 3. Validation du mod`ele estim´e dans la deuxi`eme ´etape a` l’aide de tests statistiques. C’est cette approche qui sera pr´esent´ee et ´etudi´ee dans notre cours.
Introduction
Plan du cours
Chapitre 1 : D´ efinitions esentation Chapitre 2 : Repr´
Chapitre 3 : Identification Chapitre 4 : Estimation Chapitre 5 : Validation evision Chapitre 6 : Pr´
Chapitre 7 : Tests de racine unitaire
´finitions Chapitre 1 : De
Section 1 : Processus stochastiques Section 2 : Processus stochastiques stationnaires ˆ me retard Section 3 : Op´ erateur retard et polyno
1. D´efinitions
Section 1 : Processus stochastiques
1.1.1. D´ efinitions 1.1.2. Exemple de processus stochastiques
1. D´efinitions 1.1. Processus stochastiques
efinitions 1.1.1. D´
• Un processus stochastique est une suite de variables al´eatoires indic´ees par le temps {y 1 ,y 2 , · · · ,y t , · · · ,y T }. • Si le temps est continu ( t ∈ R) alors y t est un processus stochastique continu et si le temps est discret ( t ∈ Z) alors y t est un processus stochastique discret . • La trajectoire d’un processus stochastique y t est une r´ealisation ou un ´echantillon de ce processus.
1. D´efinitions 1.1. Processus stochastiques 1.1.1. D´ efinitions
Remarques :
• Un processus stochastique est not´e {y t }T y t =1 ou simplement t . • Un processus stochastique s’appelle aussi s´ erie temporelle ou s´ erie chronologique . • Les appellations « s´ erie temporelle » et « s´erie chronologique » sont g´en´eralement r´eserv´ees aux processus stochastiques discrets.
1. D´efinitions 1.1. Processus stochastiques
1.1.2. Exemple de processus stochastiques L’exemple typique d’un processus stochastique est le processus bruit blanc (White noise ). Il s’agit d’une suite de variables al´ eatoires {1 ,2 , · · · ,T } v´erifiant les trois propri´et´es suivantes : 1. E (t ) = 0 , ∀t = 1,2, · · · ,T 2. V (t ) = σ 2 , ∀t = 1,2, · · · ,T 3. cov (t , t −k ) = 0 , ∀t = 1,2, · · · ,T et ∀k = 1,2, · · · Un bruit blanc de variance σ2 est not´e : t ∼ WN (0,σ2 ) , ∀t = 1,2, · · · ,T
1. D´efinitions 1.1. Processus stochastiques 1.1.2. Exemple de processus stochastiques
Graphiquement, la trajectoire d’un bruit blanc se caract´erise par des fluctuations stables autour de la valeur z´ ero a` l’int´erieur d’une zone bien d´etermin´ee.
1. D´efinitions
Section 2 : Processus stochastiques stationnaires
efinition 1.2.1. D´
1.2.2. Exemple de processus stochastiques stationnaires ´ore ` me de d´ ecomposition de Wold 1.2.3. The
1. D´efinitions 1.2. Processus stochastiques stationnaires
1.2.1. D´ efinition Un processus stochastique y t est stationnaire au sens faible ou stationnaire au second ordre ou encore stationnaire en covariance si ses moments non conditionnels d’ordres un et deux sont finis et ind´ependants de l’indice temporel t , c’est ` a dire : 1. E ( y t ) = µ < ∞ , ∀t = 1,2, · · · ,T 2. V (y t ) = σ 2 < ∞ , ∀t = 1,2, · · · ,T 3. cov ( y t ; y t −k ) = γ k < ∞ , ∀t = 1,2, · · · ,T et ∀k = 1,2, · · ·
1. D´efinitions 1.2. Processus stochastiques stationnaires 1.2.1. D´ efinition
(a) Processus stationnaire
(b) Processus non stationnaire
Graphiquement, la trajectoire d’un processus stochastique stationnaire fluctue dans une zone bien d´ etermin´ee autour de sa valeur moyenne qui est constante (figure (a)). En revanche, un processus non stationnaire prend toutes les directions de fa¸con compl`etement al´eatoire (figure (b)).
1. D´efinitions 1.2. Processus stochastiques stationnaires
1.2.2. Exemple de processus stochastiques stationnaires Le bruit blanc suivant est un exemple de processus stochastiques stationnaires : t ∼ WN (0,1) , ∀t = 1,2, · · · ,T Le processus t v´erifie les trois conditions de stationnarit´e : 1. E (t ) = 0 , ∀t = 1,2, · · · ,T 2. V (t ) = 1 < ∞ , ∀t = 1,2, · · · ,T 3. cov (t , t −k ) = 0 , ∀t = 1,2, · · · ,T et ∀k = 1,2, · · ·
1. D´efinitions 1.2. Processus stochastiques stationnaires
´ore ` me de d´ ecomposition de Wold 1.2.3. The
Tout processus stochastique y t stationnaire au sens faible peut s’´ ecrire sous forme d’une somme pond´er´ee infinie de bruits blancs pr´esent t et pass´es t −1 ,t −2 , · · · plus, ´eventuellement, un processus d´eterministe ηt parfaitement pr´evisible : +∞
y t = η t +
ψi t −i
i =0
avec :
ψ0 = 1 et ψi ∈ R
∞ i =0
ψi 2 < +∞ pour assurer l’existence des moments d’ordre 2.
1. D´efinitions
´rateur retard et polyno ˆ me retard Section 3 : Ope
erateur retard L 1.3.1. Op´ ˆ me retard Φ (L) 1.3.2. Polyno
1. D´efinitions 1.3. Op´ erateur retard et polynˆ ome retard
erateur retard L 1.3.1. Op´
L’op´erateur retard not´e L (Lag ) ou B (Backshift ) permet de passer d’une variable al´eatoire y t a ` sa valeur retard´ee y t −1 de la mani`ere suivante : y t −1 = Ly t
Par cons´equent, on peut exprimer tous les retards de la variable al´eatoire y t comme suit : 2
y t −2 = Ly t −1 = L (Ly t ) = L y t
2
3
y t −3 = Ly t −2 = L L y t = L y t · · ·
Plus g´en´eralement :
k
y t −k = L y t
1. D´efinitions 1.3. Op´ erateur retard et polynˆ ome retard 1.3.1 Op´ erateur retard L
Remarque :
Si le processus stochastique y t prend la mˆeme valeur θ a ` chaque instant t , alors on a : y t = Ly t −1
θ = L θ
(1)
On en conclut que l’op´erateur retard n’a aucun effet sur une constante. Il se comporte, de ce fait, exactement comme l’´el´ement neutre de la multiplication, i.e. le nombre 1, quand il est appliqu´e a ` une constante.
1. D´efinitions 1.3. Op´ erateur retard et polynˆ ome retard
ˆ me retard Φ (L) 1.3.2. Polyno
ome retard Φ (L) permet d’´ Le polynˆ ecrire une combinaison lin´eaire de variables retard´ees de mani`ere r´eduite en utilisant l’op´erateur retard L comme suit :
φ0 y t + φ1 y t −1 + φ2 y t −2 + · · · + φn y t −n = φ 0 y t + φ1 Ly t + φ2 L2 y t + · · · + φn Ln y t
2
= φ0 + φ1 L + φ2 L + · · · + φn L
≡ Φ (L) y t Dans le cas particulier d’une diff´erence premi`ere, on a : y t − y t −1 = y t − Ly t
= (1 − L) y t
≡ ∆y t erence . ∆ est l’op´erateur diff´
n
y t
Chapitre 2 : Repr´ esentation
ele Autor´ egressif Section 1 : Mod` ele Moyenne Mobile Section 2 : Mod` ele Autor´ egressif Moyenne Mobile Section 3 : Mod` eles AR, MA et ARMA Section 4 : Liens entre les mod`
2. Repr´esentation Remarque pr´ eliminaire :
Tout au long de ce cours, il sera fait appel aux notions d’esp´erance math´ematique, de variance et de covariance qu’il faut savoir manipuler. Celles-ci, et plus particuli` erement la covariance, peuvent donner lieu ` a des calculs fastidieux. Afin de les simplifier et d’en r´eduire le nombre, les variables al´eatoires seront centr´ees de sorte que la covariance entre deux variables al´eatoires soit simplement ´egale a ` l’esp´erance math´ematique de leur produit. Une variable al´eatoire centr´ee ´etant une variable dont l’esp´erance est nulle :
cov ( X ,Y ) = E
X − E (X ) 0
Y − E (Y ) 0
= E [ XY ]
2. Repr´esentation
`le Autor´ Section 1 : Mode egressif
ele Autor´ egressif d’ordre 1 2.1.1. Mod` ele Autor´ egressif d’ordre p 2.1.2. Mod` eles AR 2.1.3. Exemples de mod`
2. Repr´esentation 2.1. Mod`ele Autor´egressif
2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.1. Formule analytique d’un AR (1) Un mod`ele autor´egressif d’ordre 1 , not´e AR (1), met en relation la variable al´eatoire y t avec sa valeur retard´ee d’une p´eriode y t −1 selon la forme analytique suivante : y t = θ + α1 y t −1 + t , ∀t = 1,2, · · · ,T
avec t ∼ WN (0,σ2 ) et α1 = 0.
(2)
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.1. Formule analytique d’un AR(1)
Signification de chaque ´ el´ ement du mod` ele (2) :
• y t : la variable expliqu´ee, elle d´ epend de fa¸con lin´eaire de la variable explicative y t −1 ; • y t −1 : la variable explicative, il s’agit du retard de la variable expliqu´ee y t . Le sens et l’ampleur du lien lin´ eaire qui existe entre les variables y t et y t −1 sont donn´es par le param`etre α1 ; • θ : l’ordonn´ee a` l’origine, i.e. la valeur de y t pour y t −1 = 0. C’est un param` etre qui donne la position de la droite par rapport a` l’origine des axes. Une valeur nulle de ce param`etre indique que la droite passe par l’origine des axes ; • α1 : le coefficient directeur de la droite qui lie la variable expliqu´ee a ` la variable explicative, il est ´egal au coefficient d’autocorr´elation partielle entre les variables y t et y t −1 . • t : un terme d’erreur, une innovation ou un choc `a cause duquel les points (y t −1 ; y t ) ne sont pas n´ecessairement align´es. Il s’agit d’un bruit blanc car il ne doit contenir aucune information exploitable.
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.1. Formule analytique d’un AR(1) Repr´ esentation graphique du mod` ele (2) :
y t = 0.2 + 0.5y t −1 + t , t ∼ W N (0,4)
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.1. Formule analytique d’un AR(1)
Alternativement, le mod`ele (2) peut s’´ecrire, apr`es substitutions r´ecursives, comme suit : y t = θ + α1 y t −1 + t
= θ + α1 (θ + α1 y t −2 + t −1 ) + t = θ + α1 θ + α21 y t −2 + α1 t −1 + t = θ + α1 θ + α21 (α0 + α1 y t −3 + t −2 ) + α1 t −1 + t = θ + α1 θ + α21 θ + α31 y t −3 + α21 t −2 + α1 t −1 + t 2
= θ
2
α1i + α13 y t −3 +
i =0
.. . = θ
i =0
αi 1 t −i
i =0
t −1
t −1
i
t
α1 + α1 y 0 +
αi 1 t −i
i =0
y 0 est une condition initiale suppos´ ee constante ou pr´ed´etermin´ee.
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.1. Formule analytique d’un AR(1)
Rappel : Somme des termes d’une suite de raison q
• Suite arithm´etique : u n +1 = u n + q n
u i = u 1 + · · · + u n = n ×
u 1 + u n
i =1
2
• Suite g´eom´etrique : u n +1 = u n × q n
i =1
u i = u 1 + · · · + u n =
u 0 ×
1−q n 1−q
si q =1
n × u 1 si q = 1
2. Re Repr´ pr´esent es entat atio ion n 2. 1. Mo 2.1. Mod` d`ele el e Au Auto tor´ r´egre eg ress ssif if 2.1.1. 2.1 .1. Mo Mod` d` ele Auto ele Autor´ r´ egr essiff d’or egressi d’ordre dre 1 2.1.1.1. Formule analytique d’un AR(1) n Rappel : Convergence Converge nce de la suite suit e g´ eom´ eom´etrique etri que u n n = α
(c) |α| < 1
(d) |α| = 1
• |α| < 1 : La suite u n n converge vers 0. • |α| = 1 :
α = 1 : La suite u n n est constante. α = −1 : La suite u n est born´ or n´ee. ee . n est • |α| > 1 :
α > 1 : La suite u n n diverge vers +∞. α < −1 : La suite u n e st non non born´ bo rn´ee. ee. n est
(e) |α| > 1
2. Re Repr´ pr´esent es entat atio ion n 2. 1. Mo 2.1. Mod` d`ele el e Au Auto tor´ r´egre eg ress ssif if 2.1.1. 2.1 .1. Mo Mod` d` ele Auto ele Autor´ r´ egr essiff d’or egressi d’ordre dre 1 2.1.1.1. Formule analytique d’un AR(1)
t
|α1 | < 1 : on a lim α1 = 0 et lim t →+∞
t →+∞
t −1 =0 i =0
α i 1 =
1 1−α1
Le processus y t t s’´ s ’´ecrit ecr it comme com me une somme som me pond´ po nd´er´ er´ee ee infinie infin ie des chocs choc s pr´esent ese nt et pass´ pas s´es es plus un terme term e consta con stant nt 1−θα1 : +∞
θ + αi 1 t −i y t t = 1 − α1 =0 i =0
Les poids α poids α i 1 des de s chocs d´ ecroissent, ecroiss ent, en e n valeurs absolues, absolue s, a` mesure que ces derniers s’´eloignent eloigne nt dans le temps traduisant traduisa nt l’importance l’imp ortance d´ ecroissante ecrois sante des chocs les plus anciens. On dit que les chocs sont temporaires ou transitoires .
2. Re Repr´ pr´esent es entat atio ion n 2. 1. Mo 2.1. Mod` d`ele el e Au Auto tor´ r´egre eg ress ssif if 2.1.1. 2.1 .1. Mo Mod` d` ele Auto ele Autor´ r´ egr essiff d’or egressi d’ordre dre 1 2.1.1.1. Formule analytique d’un AR(1)
|α1 | = 1 • α1 = 1 : on a
t −1 i =0 =0
αi 1 = t
Le processus y t t s’´ecrit ecrit comme comme la somme so mme des chocs cho cs pr´esent esent et pass´ pass´es es plus la condition initiale y 0 et un terme d´ epe ndant du temps t : ependant y t t = θ t + y 0 + t + t −1 + · · · + 1
Les poids des chocs restent identiques `a mesure que ces derniers s’´ eloignent eloignent dans le temps temps traduisan traduisantt le maintien maintien de l’importance l’importance des chocs les plus anciens. On dit que les chocs sont permanents ou persistants .
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.1. Formule analytique d’un AR(1)
|α1 | = 1 • α1 = −1 : on a
t −1 i =0
αi 1 = I (t impair )=
1 0
si t impair si t pair
Le processus y t s’´ecrit comme la somme des chocs pr´esent et pass´es de signes altern´ es, plus ou moins la condition initiale y 0 plus un terme d´ependant du temps t : t
t −1
y t = θ I (t impair ) + (−1) y 0 + t − t −1 + · · · + (−1)
1
Les poids des chocs restent, en valeurs absolues, identiques ` a mesure que ces derniers s’´ eloignent dans le temps traduisant le maintien de l’importance des chocs les plus anciens. On dit que les chocs sont permanents ou persistants .
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.1. Formule analytique d’un AR(1)
|α1 | > 1 : on a lim αt 1 = ±∞ t →+∞
Le processus y t s’´ecrit comme une somme pond´er´ee divergente des chocs pr´esent et pass´es plus d’autres termes divergents. Le processus y t devient explosif : t −1 1 − αt 1 + αt 1 y 0 + αi 1 t −i y t = θ 1 − α1 i =0
Les poids αi 1 des chocs croissent, en valeurs absolues, `a mesure que ces derniers s’´eloignent dans le temps traduisant l’importance croissante des chocs les plus anciens.
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1
2.1.1.2. Propri´et´es statistiques d’un AR (1) On a vu que le mod`ele (2) pouvait s’´ecrire selon α1 comme suit :
|α1 | < 1 : +∞
θ y t = + αi 1 t −i 1 − α1 i =0
|α1 | = 1 : α1 = 1 : y t = θ t + y 0 + t + t −1 + · · · + 1
α1 = −1 : t
y t = θ I (t impair ) + (−1) y 0 + t − t −1 + · · · + (−1)
|α1 | > 1 : y t = θ
1 − αt 1 1 − α1
t −1
+ αt 1 y 0 +
i =0
αi 1 t −i
t −1
1
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.1. Esp´erance non conditionnelle E ( y t ) :
• |α1 | < 1 : E ( y t ) = E
+∞
θ + αi 1 t −i 1 − α1 i =0 +∞
θ = + αi 1 E (t −i ) 1 − α1 i =0
0
=
θ 1 − α1
L’esp´erance du processus y t ne d´epend pas du temps t .
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.1. Esp´erance non conditionnelle E ( y t ) :
• α1 = 1 : E ( y t ) = E (θ t + y 0 + t + t −1 + · · · + 1 )
= θ t + y 0 + E (t ) + E (t −1 ) + · · · + E (1 )
0
= θ t + y 0
0
L’esp´erance du processus y t d´epend du temps t .
0
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.1. Esp´erance non conditionnelle E ( y t ) :
• α1 = −1 :
t −1
t
E ( y t ) = E θ I (t impair ) + (−1) y 0 + t − t −1 + · · · + (−1)
1
= θ I (t impair ) + (−1)t y 0 + E (t ) − · · · + (−1)t −1 E (1 )
0
= θ I (t impair ) + (−1)t y 0
L’esp´erance du processus y t d´epend du temps t .
0
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.1. Esp´erance non conditionnelle E ( y t ) :
• |α1 | > 1 :
E ( y t ) = E θ
= θ
= θ
1 − αt 1 1 − α1
1 − αt 1 1 − α1 1 − αt 1 1 − α1
t −1
+ αt 1 y 0 +
αi 1 t −i
i =0
t −1
t
αi 1 E (t −i )
+ α1 y 0 +
i =0
+ αt 1 y 0
L’esp´erance du processus y t d´epend du temps t .
0
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.2. Variance non conditionnelle V (y t ) :
• |α1 | < 1 :
+∞
θ + αi 1 t −i 1 − α1 i =0
V (y t ) = V
+∞
=
αi 1
2
V (t −i )
i =0
2 σ
+∞
2
α21
= σ
i
i =0
σ2 = 1 − α21
La variance du processus y t ne d´epend pas du temps t .
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.2. Variance non conditionnelle V (y t ) :
• α1 = 1 : V (y t ) = V (t θ + y 0 + t + t −1 + · · · + 1 )
= V (t ) + V (t −1 ) + · · · + V (1 )
2 σ
2 σ
= t σ2
La variance du processus y t d´epend du temps t .
2 σ
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.2. Variance non conditionnelle V (y t ) :
• α1 = −1 :
t
V (y t ) = V θ I (t impair ) + (−1) y 0 + t − t −1 + · · · + (−1)
= V (t ) + V (t −1 ) + · · · + V (2 ) + V (1 ) 2 σ
2 σ
2 σ
2 σ
= t σ2
La variance du processus y t d´epend du temps t .
t −1
1
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.2. Variance non conditionnelle V (y t ) :
• |α1 | > 1 :
V (y t ) = V θ t −1
=
αi 1
1 − αt 1 1 − α1 2
t −1
+ αt 1 y 0 +
αi 1 t −i
i =0
V (t −i )
i =0
2 σ
t −1
= σ 2
α21
i
i =0
2
= σ
1 − α21t 1 − α21
La variance du processus y t d´epend du temps t .
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) : La fonction d’autocovariance s’´ecrit : cov ( y t ; y t −k ) = E [( y t − µt ) (y t −k − µt −k )] , ∀k = 1,2, · · ·
(3)
avec µt ≡ E ( y t ) et µt −k ≡ E ( y t −k ). Comme : y t = θ + α1 y t −1 + t
(4)
E (y t ) = θ + α1 E ( y t −1 )
(5)
µt
Alors :
µt −1
(4) − (5) ⇐⇒ y t − µt = α 1 (y t −1 − µt −1 ) + t
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) : La fonction d’autocovariance (3) devient : cov ( y t ; y t −k ) = E {[α1 (y t −1 − µt −1 ) + t ][y t −k − µt −k ]}
= E [α1 (y t −1 − µt −1 ) (y t −k − µt −k ) + t ( y t −k − µt −k )] = α 1 E [( y t −1 − µt −1 ) (y t −k − µt −k )] + E [t (y t −k − µt −k )] = α 1 E [( y t −1 − µt −1 ) (y t −k − µt −k )] + E {[t − E (t )][y t −k − µt −k ]}
0
= α 1 E [( y t −1 − µt −1 ) (y t −k − µt −k )] + cov (t ,y t −k ) 0
d’o` u:
cov ( y t ; y t −k ) = α 1 E [( y t −1 − µt −1 ) (y t −k − µt −k )] , ∀k = 1,2, · · ·
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• k = 1 : cov ( y t ; y t −1 ) = α 1 E [( y t −1 − µt −1 ) (y t −1 − µt −1 )]
= α 1 V (y t −1 )
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• k = 2 : cov ( y t ; y t −2 ) = α 1 E [( y t −1 − µt −1 ) (y t −2 − µt −2 )]
= α1 E {[α1 (y t −2 − µt −2 ) + t −1 ][y t −2 − µt −2 ]} = α1 E {[α1 (y t −2 − µt −2 )][y t −2 − µt −2 ] + t −1 [y t −2 − µt −2 ]} = α21 E [( y t −2 − µt −2 ) (y t −2 − µt −2 )] + α1 E {[t −1 − E ( t −1 )][y t −2 − µt −2 ]}
0
= α21 E [( y t −2 − µt −2 ) (y t −2 − µt −2 )] + α1 cov ( t −1 ,y t −2 ) 0
= α21 V (y t −2 )
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1) 2.1.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• k = 3 : cov ( y t ; y t −3 ) = α 1 E [( y t −1 − µt −1 ) (y t −3 − µt −3 )]
= α1 E {[α1 (y t −2 − µt −2 ) + t −1 ][y t −3 − µt −3 ]} = α1 E {[α1 (y t −2 − µt −2 )][y t −3 − µt −3 ] + t −1 [y t −3 − µt −3 ]} = α21 E [( y t −2 − µt −2 ) (y t −3 − µt −3 )] + α1 E {[t −1 − E ( t −1 )][y t −3 − µt −3 ]}
0
= α21 E [( y t −2 − µt −2 ) (y t −3 − µt −3 )] + α1 cov ( t −1 ,y t −3 ) 0
= α21 E {[α1 (y t −3 − µt −3 ) + t −2 ][y t −3 − µt −3 ]}
= α31 E [( y t −3 − µt −3 ) (y t −3 − µt −3 ) + t −2 (y t −3 − µt −3 )] = α31 E [( y t −3 − µt −3 ) (y t −3 − µt −3 )] + α31 E {[t −2 − E ( t −2 )][y t −3 − µt −3 ]}
0
= α31 E [( y t −3 − µt −3 ) (y t −3 − µt −3 )] + α31 cov ( t −2 ,y t −3 ) 0
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) : Finalement, pour un k quelconque, on a : k
cov ( y t ; y t −k ) = α1 V (y t −k )
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• |α1 | < 1 : V (y t −k ) =
2 σ
1−α2 1
αk 1 σ2 cov ( y t ; y t −k ) = 1 − α21 La fonction d’autocovariance cov ( y t ; y t −k ) d´epend du d´ecalage temporel k mais pas du temps t .
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• |α1 | = 1 : V (y t −k ) = (t − k ) σ2 k
2
cov ( y t ; y t −k ) = (t − k ) α1 σ
La fonction d’autocovariance cov ( y t ; y t −k ) d´epend du d´ecalage temporel k et du temps t .
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.2. Propri´ et´es statistiques d’un AR(1)
2.1.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• |α1 | > 1 : V (y t −k ) =
2(t −k ) 1−α1 1−α2 1
σ2 k
cov ( y t ; y t −k ) = α 1
1− 1
2(t −k ) α1 − α21
σ2
La fonction d’autocovariance cov ( y t ; y t −k ) d´epend du d´ecalage temporel k et du temps t .
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1
2.1.1.3. Condition de stationnarit´e d’un AR (1) Rappel :
Un processus stochastique y t est stationnaire au sens faible si ses moments non conditionnels d’ordres un et deux sont finis et ind´ ependants de l’indice temporel t , c’est ` a dire : 1. E ( y t ) = µ < ∞ , ∀t = 1,2, · · · ,T 2. V (y t ) = σ 2 < ∞ , ∀t = 1,2, · · · ,T 3. cov ( y t ; y t −k ) = γ k < ∞ , ∀t = 1,2, · · · ,T et ∀k = 1,2, · · ·
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.1. Mod` ele Autor´ egressif d’ordre 1 2.1.1.3. Condition de stationnarit´e d’un AR(1)
Les propri´et´es statistiques d’un AR (1) sont les suivantes :
|α1 | < 1 E ( y t )
θ 1−α1
|α1 | = 1
|α1 | > 1
t θ + y 0
θ
θI (t impair ) + (−1)t y 0 V (y t ) cov ( y t ; y t −k )
2 σ
1−α2 1 2 αk 1 σ
1−α2 1
2
1−αt 1 1−α1
2
t σ
σ
k
2
(t − k ) α1 σ
k
α1
+ αt 1 y 0
t 1−α2 1 1−α2 1
2(t −k )
1−α1 1−α2 1
Il en r´esulte que la condition de stationnarit´e d’un AR (1) est |α1 | < 1.
σ2
2. Re Repr´ pr´esent es entat atio ion n 2.1. 2. 1. Mo Mod` d`ele el e Au Auto tor´ r´egre eg ress ssif if
` ´ ele Autoregressif egressif d’ordre p 2.1.2. Modele
2.1.2.1. Formule analytique d’un AR (p ) autor´ egressi egressiff d’ordre d’ordre p , not´e AR (p ), met en relation la variable Un mod`ele autor´ al´eatoir to iree y t t avec ses p valeur vale urss reta retard´ rd´ees ees y t t −1 ,y t t −2 , · · · ,y t t −p selon la forme analytique suivante :
θ + α1 y t t −1 + α2 y t t −2 + · · · + αp y t t −p + t , ∀t = 1,2, · · · ,T y t t = θ +
avec t ∼ WN 0,σ2 et αp = 0.
(6)
2. Re Repr´ pr´esent es entat atio ion n 2. 1. Mo 2.1. Mod` d`ele el e Au Auto tor´ r´egre eg ress ssif if 2.1. 2. 1.2. 2. Mo Mod` d` el e Aut ele Autor´ or´egre eg ressi ssiff d’ d’ord ordre re p 2.1.2.1. Formule analytique d’un AR (p )
Alternat Alte rnativement, ivement, le mod` mo d`ele ele (6) peu eutt s’´ecri ec rire re de mani` ma ni`ere er e r´edui eduite te a ` l’aide d’un polynˆome ome retard : y t t − α1 y t t −1 − α2 y t t −2 − · · · − αp y t t −p = θ + t 2
p
θ + t y t t − α1 Ly t t − α2 L y t t − · · · − αp L y t t = θ +
2
p
y t t 1 − α1 L − α2 L − · · · − αp L
α (L) y t t = θ + θ + t avec α (L) ≡ 1 − α1 L − α2 L2 − · · · − αp Lp .
= θ = θ + + t
2. Re Repr´ pr´esent es entat atio ion n 2. 1. Mo 2.1. Mod` d`ele el e Au Auto tor´ r´egre eg ress ssif if 2.1. 2. 1.2. 2. Mo Mod` d` el e Aut ele Autor´ or´egre eg ressi ssiff d’ d’ord ordre re p
2.1.2.2. Condition Conditio n de stationnarit´ station narit´e d’un AR (p ) Cons Co nsid´ id´eron eronss l’´ecri ec ritu ture re suivant su ivantee d’un d’un mod` mo d`ele el e AR (1) : (1 − α1 L) y t t = θ + θ + t
α(L)
Au polynˆ ome ome retard α (L) on associe l’´ equa eq uati tion on caract caract´ ´ eris er isti tiqu que e suivante : 1 − α1 z = 0 Cette ´equation equatio n admet comme racine z ∗ = 1/α1 . Nous avons vu que la condition de stationn stat ionnarit´ arit´e d’un AR (1) est |α1 | < 1, cette condition peut se traduire en termes term es de racine rac ine de l’´equation equa tion caract´ car act´eristiq eri stique ue par |z ∗ | > 1. 1. Ce r´esul esultat tat sera sera g´en´eralis´e au cas d’un mod`ele AR (p ).
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p 2.1.2.2. Condition de stationnarit´e d’un AR (p )
Consid´erons l’´ecriture suivante d’un mod`ele AR (p ) :
2
1 − α1 L − α2 L − · · · − αp L
α(L)
p
y t = θ + t
Au polynˆ ome retard α (L) on associe l’´ equation caract´ eristique : 1 − α1 z − α2 z 2 − · · · − αp z p = 0 Cette ´equation peut ˆetre factoris´ee comme suit : (1 − λ1 z ) (1 − λ2 z ) · · · (1 − λp z ) = 0 Chaque facteur est l’´equation caract´eristique d’un AR (1). Il faut donc v´erifier la condition de stationnarit´e pour chacune des ces ´equations pour garantir la stationnarit´e du mod`ele AR (p ), c’est ` a dire :
|z i | > 1 , ∀i = 1,2, · · · ,p
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p 2.1.2.2. Condition de stationnarit´e d’un AR (p )
Remarques :
• Comme certaines racines de l’´equation caract´eristique peuvent ˆetre des nombres complexes, la condition de stationnarit´e d’un AR (p ) est que toutes les racines soient strictement sup´erieures a ` l’unit´e en module. • Si au moins une racine z i est ´egale a` 1, alors le processus est nonstationnaire. Dans ce cas pr´ecis, on dit que le processus a une racine unitaire .
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p
2.1.2.3. Propri´et´es statistiques d’un AR (p ) 2.1.2.3.1. Esp´erance non conditionnelle E ( y t ) : Sous l’hypoth`ese de stationnarit´e du processus y t , on pose E (y t ) ≡ µ : y t = θ + α1 y t −1 + α2 y t −2 + · · · + αp y t −p + t E ( y t ) = θ + α1 E ( y t −1 ) +α2 E ( y t −2 ) + · · · + αp E ( y t −p ) + E (t )
µ
µ
µ
µ = θ + α1 µ + α2 µ + · · · + αp µ
µ
0
µ (1 − α1 − α2 − · · · − αp ) = θ d’o` u: µ =
θ 1 − α1 − α2 − · · · − αp
Notons que si θ = 0 alors E ( y t ) = 0. On dit que le processus stochastique y t est centr´ e .
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p 2.1.2.3. Propri´ et´es statistiques d’un AR (p ) 2.1.2.3.2. Variance V (y t ) et fonction d’autocovariance cov (y t ; y t −k ) : Sous l’hypoth`ese de stationnarit´ e du processus y t , on pose µ ≡ E ( y t ). La fonction d’autocovariance s’´ecrit : γ k = E [( y t − µ) (y t −k − µ)]
Comme y t = θ + α1 y t −1 + α2 y t −2 + · · · + αp y t −p + t
(7)
E ( y t ) = E ( θ + α1 y t −1 + α2 y t −2 + · · · + αp y t −p + t )
µ
= θ + α1 E ( y t −1 ) +α2 E ( y t −2 ) + · · · + αp E ( y t −p )
µ
µ
µ = θ + α1 µ + α2 µ + · · · + αp µ
µ
(8)
alors on a : (7) − (8) ⇔ y t − µ = α1 (y t −1 − µ) + α2 (y t −2 − µ) + · · · + αp ( y t −p − µ) + t
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p 2.1.2.3. Propri´ et´es statistiques d’un AR (p )
2.1.2.3.2. Variance V (y t ) et fonction d’autocovariance cov ( y t ; y t −k ) : Ainsi : γ k =E {[α1 (y t −1 − µ) + α2 (y t −2 − µ) + · · · + αp ( y t −p − µ) + t ][ y t −k − µ]} =E [α1 (y t −1 − µ) (y t −k − µ) + α2 (y t −2 − µ) (y t −k − µ) + · · · + αp ( y t −p − µ) (y t −k − µ) + t ( y t −k − µ) ] =α1 E [( y t −1 − µ) (y t −k − µ)] + α2 E [( y t −2 − µ) (y t −k − µ)] + · · · + αp E [( y t −p − µ) (y t −k − µ)] + E [t ( y t −k − µ)] =α1 cov ( y t −1 ; y t −k ) + α2 cov ( y t −2 ; y t −k ) + · · · + αp cov ( y t −p ; y t −k ) + E [t ( y t −k − µ)]
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p 2.1.2.3. Propri´ et´es statistiques d’un AR (p ) 2.1.2.3.2. Variance V (y t ) et fonction d’autocovariance cov (y t ; y t −k ) : On sait que
y t −k − µ = α1 (y t −k −1 − µ) + α2 (y t −k −2 − µ) + · · · + αp y t −k −p − µ + t −k
On peut donc ´ecrire :
E [ t (y t −k − µ)] =E [t α1 (y t −k −1 − µ) + t α2 (y t −k −2 − µ) + · · · + t αp y t −k −p − µ
+ t t −k ] =α1 E [ t ( y t −k −1 − µ)] + α2 E [ t (y t −k −2 − µ)] + · · ·
+ αp E t y t −k −p − µ + E [ t t −k ]
=α1 cov ( t ; y t −k −1 ) +α2 cov ( t ; y t −k −2 ) + · · · + αp cov t ; y t −k −p 0
0
+ cov ( t ; t −k ) d’o` u:
E [ t ( y t −k − µ)] = cov ( t ; t −k ) =
σ2
si k = 0
0
si k > 0
0
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p 2.1.2.3. Propri´ et´es statistiques d’un AR (p )
2.1.2.3.2. Variance V (y t ) et fonction d’autocovariance cov ( y t ; y t −k ) : Finalement : γ k = α 1 γ k −1 + α2 γ k −2 + · · · + αp γ k −p +
σ2
si k = 0
0
si k > 0
sachant que sous l’hypoth`ese de stationnarit´e de y t , on a : γ k = cov ( y t ; y t −k ) = cov ( y t +k ; y t ) = cov ( y t ; y t +k )
= cov y t ; y t −(−k ) = γ −k
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p 2.1.2.3. Propri´ et´es statistiques d’un AR (p )
2.1.2.3.2. Variance V (y t ) et fonction d’autocovariance cov ( y t ; y t −k ) :
• k = 0 : γ 0 = α 1 γ −1 + α2 γ −2 + · · · + αp γ −p + σ2 = α 1 γ 1 + α2 γ 2 + · · · + αp γ p + σ2 En divisant par γ 0 , on obtient : γ 0 γ 1 γ 2 γ p σ2 = α 1 + α2 + · · · + αp + γ 0 γ 0 γ 0 γ 0 γ 0 σ2 1 = α 1 ρ1 + α2 ρ2 + · · · + αp ρp + γ 0 avec ρi est le coefficient d’autocorr´elation d´efini par ρi = γ 0 =
σ2
1−
p i =1
αi ρi
γ i γ 0
, d’o` u:
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p 2.1.2.3. Propri´ et´es statistiques d’un AR (p )
2.1.2.3.2. Variance V (y t ) et fonction d’autocovariance cov ( y t ; y t −k ) :
• k > 0 : γ 1 = α 1 γ 0 + α2 γ 1 + · · · + αp γ 1−p γ 2 = α 1 γ 1 + α2 γ 0 + · · · + αp γ 2−p .. . En divisant par γ 0 , on obtient les ´equations de Yule-Walker : ρ1 = α1 ρ0 + α2 ρ1 + · · · + αp ρ1−p ρ2 = α1 ρ1 + α2 ρ0 + · · · + αp ρ2−p .. . dont la r´esolution par substitution r´ecursive donne les coefficients d’autocorr´elation ρi et in fine les autocovariances γ i .
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p 2.1.2.3. Propri´ et´es statistiques d’un AR (p )
2.1.2.3.2. Variance V (y t ) et fonction d’autocovariance cov ( y t ; y t −k ) :
• Exemple : Soit le mod`ele AR (2) stationnaire suivant : y t = 0.1y t −1 + 0.2y t −2 + t , t ∼ WN (0; 1)
On a : γ k = 0.1γ k −1 + 0.2γ k −2 +
1
si k = 0
0
si k > 0
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p 2.1.2.3. Propri´ et´es statistiques d’un AR (p )
2.1.2.3.2. Variance V (y t ) et fonction d’autocovariance cov ( y t ; y t −k ) :
Variance V (y t ) : γ 0 = 0.1γ 1 + 0.2γ 2 + 1 γ 0 γ 1 γ 2 1 = 0.1 + 0.2 + γ 0 γ 0 γ 0 γ 0 1 1 = 0.1ρ1 + 0.2ρ2 + γ 0 d’o` u: γ 0 =
1 1 − 0.1ρ1 − 0.2ρ2
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.2. Mod` ele Autor´egressif d’ordre p 2.1.2.3. Propri´ et´es statistiques d’un AR (p )
2.1.2.3.2. Variance V (y t ) et fonction d’autocovariance cov ( y t ; y t −k ) :
Fonction d’autocovariance cov ( y t ; y t −k ) : Equations de Yule - Walker : ρ1 = 0.1 + 0.2ρ1 = 0.1250 ρ2 = 0.1ρ1 + 0.2 = 0.2125 ρ3 = 0.1ρ2 + 0.2ρ1 = 0.04625 .. . et γ 0 = 1.0582 d’o` u: γ 1 = ρ 1 γ 0 = 0.1323 γ 2 = ρ 2 γ 0 = 0.2249 γ = ρ γ = 0 0489
2. Repr´esentation 2.1. Mod`ele Autor´egressif
eles AR 2.1.3. Exemples de mod`
SERIES e = 2 * NRND SERIES Y = 0 SMPL @FIRST+1 @LAST Y = 0.2 + 0.5 * Y( -1 ) + e
AR (1) : y t = 0.2 + 0.5y t −1 + t , t ∼ WN (0,4)
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.3. Exemples de mod`eles AR
SERIES e = 2 * NRND SERIES Y = 0 SMPL @FIRST+1 @LAST Y = 0.2 + Y( -1 ) + e
AR (1) : y t = 0.2 + y t −1 + t , t ∼ WN (0,4)
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.3. Exemples de mod`eles AR
SERIES e = 2 * NRND SERIES Y = 0 SMPL @FIRST+1 @LAST Y = 0.2 + 0.9 * Y( -1 ) + e
AR (1) : y t = 0.2 + 0.9y t −1 + t , t ∼ WN (0,4)
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.3. Exemples de mod`eles AR
SERIES e = 2 * NRND SERIES Y = 0 SMPL @FIRST+2 @LAST Y = 0.3 + 0.1 * Y( -1 ) + 0.4 * Y( -2 ) + e
AR (2) : y t = 0.3 + 0.1y t −1 + 0.4y t −2 + t , t ∼ WN (0,4)
2. Repr´esentation 2.1. Mod`ele Autor´egressif 2.1.3. Exemples de mod`eles AR
SERIES e = 2 * NRND SERIES Y = 0 SMPL @FIRST+2 @LAST Y = 0.3 + 0.5 * Y( -1 ) + 0.4 * Y( -2 ) + e
AR (2) : y t = 0.3 + 0.5y t −1 + 0.4y t −2 + t , t ∼ WN (0,4)
2. Repr´esentation
Section 2 : Mod` ele Moyenne Mobile
ele Moyenne Mobile d’ordre 1 2.2.1. Mod` ele Moyenne Mobile d’ordre q 2.2.2. Mod` eles MA 2.2.3. Exemples de mod`
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile
ele Moyenne Mobile d’ordre 1 2.2.1. Mod`
2.2.1.1. Formule analytique d’un MA (1) Un mod`ele moyenne mobile d’ordre 1 , not´e MA (1), met en relation la variable al´eatoire y t avec la valeur retard´ee d’une p´eriode du choc t −1 selon la forme analytique suivante : y t = θ + β 1 t −1 + t , ∀t = 1,2, · · · ,T
avec t ∼ WN (0,σ2 ) et β 1 = 0.
(9)
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.1. Mod`ele Moyenne Mobile d’ordre 1 2.2.1.1. Formule analytique d’un MA (1)
Alternativement, le mod`ele (9) peut s’´ecrire de mani`ere r´eduite a ` l’aide d’un polynˆome retard : y t = θ + β 1 Lt + t
= θ + (1 + β 1 L) t = θ + β (L) t avec β (L) ≡ 1 + β 1 L.
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.1. Mod`ele Moyenne Mobile d’ordre 1
´t´ 2.2.1.2. Proprie es statistiques d’un MA (1)
2.2.1.2.1. Esp´erance non conditionnelle E ( y t ) : E (y t ) = E (θ + β 1 t −1 + t )
= θ + β 1 E (t −1 ) + E (t )
0
= θ
0
L’esp´erance du processus y t ne d´epend pas du temps t .
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.1. Mod`ele Moyenne Mobile d’ordre 1 2.2.1.2. Propri´ et´es statistiques d’un MA (1)
2.2.1.2.2. Variance non conditionnelle V (y t ) : V (y t ) = V (θ + β 1 t −1 + t )
= β 12 V (t −1 ) + V (t )
2 σ
2 σ
= β 12 σ2 + σ2
= 1 + β 12 σ2
La variance du processus y t ne d´epend pas du temps t .
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.1. Mod`ele Moyenne Mobile d’ordre 1 2.2.1.2. Propri´ et´es statistiques d’un MA (1)
2.2.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) : cov ( y t ; y t −k ) = E {[y t − E ( y t )][y t −k − E ( y t −k )]}
θ
θ
= E [( β1 t −1 + t ) (β1 t −k −1 + t −k )]
= E t t −k + β1 t t −k −1 + β1 t −1 t −k + β12 t −1 t −k −1
= E ( t t −k ) + β1 E ( t t −k −1 ) + β1 E ( t −1 t −k ) + β12 E ( t −1 t −k −1 ) = cov (t ; t −k ) + β1 cov ( t ; t −k −1 ) + β1 cov ( t −1 ; t −k ) + β12 cov ( t −1 ; t −k −1 )
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.1. Mod`ele Moyenne Mobile d’ordre 1 2.2.1.2. Propri´ et´es statistiques d’un MA (1)
2.2.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• k = 1 : cov ( y t ; y t −1 ) = E ( t t −1 ) +β1 E ( t t −2 ) +β1 E ( t −1 t −1 ) +β12 E ( t −1 t −2 )
0
0
0
2 σ
= β1 σ2
• k > 1 : cov ( y t ; y t −k ) = E ( t t −k ) +β1 E ( t t −k −1 ) +β1 E ( t −1 t −k ) +β12 E ( t −1 t −k −1 )
0
=0
0
0
0
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.1. Mod`ele Moyenne Mobile d’ordre 1 2.2.1.2. Propri´ et´es statistiques d’un MA (1)
2.2.1.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
cov ( y t ; y t −k ) =
β 1 σ2
si k = 1
, ∀t = 1,2, · · · ,T et k =0 0
si k > 1
La fonction d’autocovariance cov ( y t ; y t −k ) ne d´ epend pas du temps t .
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.1. Mod`ele Moyenne Mobile d’ordre 1
2.2.1.3. Condition de stationnarit´e d’un MA(1) Rappel :
Un processus stochastique y t est stationnaire au sens faible si ses moments non conditionnels d’ordres un et deux sont finis et ind´ ependants de l’indice temporel t , c’est ` a dire : 1. E ( y t ) = µ < ∞ , ∀t = 1,2, · · · ,T 2. V (y t ) = σ 2 < ∞ , ∀t = 1,2, · · · ,T 3. cov ( y t ; y t −k ) = γ k < ∞ , ∀t = 1,2, · · · ,T et k =0
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.1. Mod`ele Moyenne Mobile d’ordre 1 2.2.1.3. Condition de stationnarit´e d’un MA(1)
Les propri´et´es statistiques d’un MA (1) sont les suivantes : 1. E ( y t ) = θ , ∀t = 1,2, · · · ,T
2. V (y t ) = 1 + β 12 σ2 , ∀t = 1,2, · · · ,T 3. cov ( y t ; y t −k ) =
β 1 σ2 0
si k = 1 si k > 1
, ∀t = 1,2, · · · ,T et k =0
Il en r´esulte qu’un mod`ele MA (1) est toujours stationnaire.
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile
ele Moyenne Mobile d’ordre q 2.2.2. Mod`
2.2.2.1. Formule analytique d’un MA (q ) Un mod`ele moyenne mobile d’ordre q , not´e MA (p ), met en relation la variable al´eatoire y t avec les q valeurs retard´ees du choc t −1 ,t −2 , · · · ,t −q selon la forme analytique suivante : y t = θ + β 1 t −1 + β 2 t −2 + · · · + β q t −q + t , ∀t = 1,2, · · · ,T
avec t ∼ WN (0,σ2 ) et β q = 0.
(10)
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.1. Formule analytique d’un MA (q )
Alternativement, le mod`ele (10) peut s’´ecrire de mani`ere r´eduite a ` l’aide d’un op´erateur retard : 2
q
y t = θ + β 1 Lt + β 2 L t + · · · + β q L t + t
2
y t = θ + 1 + β 1 L + β 2 L + · · · + β q L y t = θ + β (L) t
avec β (L) ≡ 1 + β 1 L + β 2 L2 + · · · + β q Lq .
q
t
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q
2.2.2.2. Propri´et´es statistiques d’un MA (q ) 2.2.2.2.1. Esp´erance non conditionnelle E ( y t ) : E (y t ) = E (θ + β 1 t −1 + β 2 t −2 + · · · + β q t −q + t )
= θ + β 1 E (t −1 ) +β 2 E (t −2 ) + · · · + β q E (t −q ) + E (t )
0
= θ
0
L’esp´erance du processus y t ne d´epend pas du temps t .
0
0
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.2. Variance non conditionnelle V (y t ) : V (y t ) = V (θ + β 1 t −1 + β 2 t −2 + · · · + β q t −q + t )
= β 12 V (t −1 ) +β 22 V (t −2 ) + · · · + β q 2 V (t −q ) + V (t )
2 σ
2 σ
= 1 + β 12 + β 22 + · · · + β q 2 σ2
2 σ
La variance du processus y t ne d´epend pas du temps t .
2 σ
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) : cov ( y t ; y t −k ) =E {[y t − E ( y t )][y t −k − E (y t −k )]}
θ
θ
=E [(β 1 t −1 + · · · + β q t −q + t ) (β 1 t −k −1 + · · · + β q t −k −q + t −k )] =E [t (t −k + β 1 t −k −1 + · · · + β q t −k −q ) + β 1 t −1 (t −k + β 1 t −k −1 + · · · + β q t −k −q ) + ··· + β q t −q (t −k + β 1 t −k −1 + · · · + β q t −k −q )]
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) : cov ( y t ; y t −k ) =E (t t −k + β 1 t t −k −1 + · · · + β q t t −k −q
+ β 1 t −1 t −k + β 12 t −1 t −k −1 + · · · + β 1 β q t −1 t −k −q + ··· + β q t −q t −k + β q β 1 t −q t −k −1 + · · · + β q 2 t −q t −k −q ) =E (t t −k ) + β 1 E (t t −k −1 ) + · · · + β q E (t t −k −q ) + β 1 E (t −1 t −k ) + β 12 E (t −1 t −k −1 ) + · · · + β 1 β q E (t −1 t −k −q ) + ··· + β q E (t −q t −k ) + β q β 1 E (t −q t −k −1 ) + · · · + β q 2 E (t −q t −k −q )
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• q = 2 et k = 1 : cov ( y t ; y t −1 ) =E (t t −1 ) + β 1 E (t t −2 ) + β 2 E (t t −3 )
+ β 1 E (t −1 t −1 ) + β 12 E (t −1 t −2 ) + β 1 β 2 E (t −1 t −3 ) + β 2 E (t −2 t −1 ) + β 2 β 1 E (t −2 t −2 ) + β 22 E (t −2 t −3 ) =β 1 σ2 + β 2 β 1 σ2 = (β 1 + β 2 β 1 ) σ2
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• q = 2 et k = 2 : cov ( y t ; y t −2 ) =E (t t −2 ) + β 1 E (t t −3 ) + β 2 E (t t −4 )
+ β 1 E (t −1 t −2 ) + β 12 E (t −1 t −3 ) + β 1 β 2 E (t −1 t −4 ) + β 2 E (t −2 t −2 ) + β 2 β 1 E (t −2 t −3 ) + β 22 E (t −2 t −4 ) =β 2 E (t −2 t −2 ) =β 2 σ2
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• q = 2 et k = 3 : cov ( y t ; y t −3 ) =E (t t −3 ) + β 1 E (t t −4 ) + β 2 E (t t −5 )
+ β 1 E (t −1 t −3 ) + β 12 E (t −1 t −4 ) + β 1 β 2 E (t −1 t −5 ) + β 2 E (t −2 t −3 ) + β 2 β 1 E (t −2 t −4 ) + β 22 E (t −2 t −5 ) =0
• q = 2 et k > 2 : cov ( y t ; y t −k ) = 0
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• Mod`ele MA (2)
cov ( y t ; y t −k ) =
(β 1 + β 2 β 1 ) σ2
si k = 1
β 2 σ2
si k = 2
0
si k > 2
, ∀t = 1,2, · · · ,T et k =0
La fonction d’autocovariance cov ( y t ; y t −k ) ne d´ epend pas du temps t .
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• q = 3 et k = 1 : cov ( y t ; y t −1 ) =E ( t t −1 ) + β1 E ( t t −2 ) + β2 E ( t t −3 ) β3 E ( t t −4 )
+β1 E ( t −1 t −1 ) + β12 E ( t −1 t −2 ) + β1 β2 E ( t −1 t −3 ) + β1 β3 E ( t −1 t −4 ) +β2 E ( t −2 t −1 ) + β2 β1 E ( t −2 t −2 ) + β22 E ( t −2 t −3 ) + β2 β3 E ( t −2 t −4 ) +β3 E ( t −3 t −1 ) + β3 β1 E ( t −3 t −2 ) + β3 β2 E ( t −3 t −3 ) + β32 E ( t −3 t −4 ) =β1 E ( t −1 t −1 ) + β2 β1 E ( t −2 t −2 ) + β3 β2 E ( t −3 t −3 ) =β1 σ2 + β2 β1 σ2 + β3 β2 σ2 = (β1 + β2 β1 + β3 β2 ) σ2
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• q = 3 et k = 2 : cov ( y t ; y t −2 ) =E ( t t −2 ) + β1 E ( t t −3 ) + β2 E ( t t −4 ) + β3 E ( t t −5 )
+β1 E ( t −1 t −2 ) + β12 E ( t −1 t −3 ) + β1 β2 E ( t −1 t −4 ) + β1 β3 E ( t −1 t −5 ) +β2 E ( t −2 t −2 ) + β2 β1 E ( t −2 t −3 ) + β22 E ( t −2 t −4 ) + β2 β3 E ( t −2 t −5 ) +β3 E ( t −3 t −2 ) + β3 β1 E ( t −3 t −3 ) + β3 β2 E ( t −3 t −4 ) + β32 E ( t −3 t −5 ) =β2 E ( t −2 t −2 ) + β3 β1 E ( t −3 t −3 ) =β2 σ2 + β3 β1 σ2 = (β2 + β3 β1 ) σ2
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• q = 3 et k = 3 : cov ( y t ; y t −3 ) =E ( t t −3 ) + β1 E ( t t −4 ) + β2 E ( t t −5 ) + β3 E ( t t −6 )
+β1 E ( t −1 t −3 ) + β12 E ( t −1 t −4 ) + β1 β2 E ( t −1 t −5 ) + β1 β3 E ( t −1 t −6 ) +β2 E ( t −2 t −3 ) + β2 β1 E ( t −2 t −4 ) + β22 E ( t −2 t −5 ) + β2 β3 E ( t −2 t −6 ) +β3 E ( t −3 t −3 ) + β3 β1 E ( t −3 t −4 ) + β3 β2 E ( t −3 t −5 ) + β32 E ( t −3 t −6 ) =β3 E ( t −3 t −3 ) =β3 σ2
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q ) 2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• q = 3 et k = 4 : cov ( y t ; y t −4 ) =E ( t t −4 ) + β1 E ( t t −5 ) + β2 E ( t t −6 ) + β3 E ( t t −7 )
+β1 E ( t −1 t −4 ) + β12 E ( t −1 t −5 ) + β1 β2 E ( t −1 t −6 ) + β1 β3 E ( t −1 t −7 ) +β2 E ( t −2 t −4 ) + β2 β1 E ( t −2 t −5 ) + β22 E ( t −2 t −6 ) + β2 β 3E ( t −2 t −7 ) +β3 E ( t −3 t −4 ) + β3 β1 E ( t −3 t −5 ) + β3 β2 E ( t −3 t −6 ) + β32 E ( t −3 t −7 ) =0
• q = 3 et k > 3 : cov ( y t ; y t −k ) = 0
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• Mod`ele MA (3)
cov ( y t ; y t −k ) =
(β 1 + β 2 β 1 + β 3 β 2 ) σ2
si k = 1
(β 2 + β 3 β 1 ) σ2
si k = 2
, ∀t = 1,2, · · · ,T et k =0
β 3 σ2
si k = 3
0
si k > 3
La fonction d’autocovariance cov ( y t ; y t −k ) ne d´ epend pas du temps t .
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.2. Propri´ et´es statistiques d’un MA (q )
2.2.2.2.3. Fonction d’autocovariance cov ( y t ; y t −k ) :
• Mod`ele MA (q )
σ2
cov ( y t ; y t −k ) =
0
q −k i =0 βi βk +i
si k ≤ q , ∀t = 1,2, · · · ,T , k = 0 et β0 = 1 si k > q
La fonction d’autocovariance cov ( y t ; y t −k ) ne d´ epend pas du temps t .
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q
2.2.2.3. Condition de stationnarit´e d’un MA(q ) Rappel :
Un processus stochastique y t est stationnaire au sens faible si ses moments non conditionnels d’ordres un et deux sont finis et ind´ ependants de l’indice temporel t , c’est ` a dire : 1. E ( y t ) = µ < ∞ , ∀t = 1,2, · · · ,T 2. V (y t ) = σ 2 < ∞ , ∀t = 1,2, · · · ,T 3. cov ( y t ; y t −k ) = γ k < ∞ , ∀t = 1,2, · · · ,T et k =0
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.2. Mod`ele Moyenne Mobile d’ordre q 2.2.2.3. Condition de stationnarit´e d’un MA(q )
Les propri´et´es statistiques d’un MA (q ) sont les suivantes : 1. E ( y t ) = θ , ∀t = 1,2, · · · ,T
2. V (y t ) = 1 + β 12 + β 22 + · · · + β q 2 σ2 , ∀t = 1,2, · · · ,T
3. cov ( y t ; y t −k ) =
σ2 0
q −k i =0
β i β k +i
si k ≤ q
∀t = 1,2, · · · ,T si k > q
Il en r´esulte qu’un mod`ele MA (q ) est toujours stationnaire.
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile
eles MA 2.2.3. Exemples de mod`
SERIES e = 2 * NRND SERIES Y = 0 Y = 0.8 * e( -1 ) + e
MA (1) : y t = 0.8t −1 + t , t ∼ WN (0,4)
2. Repr´esentation 2.2. Mod` ele Moyenne Mobile 2.2.3. Exemples de mod`eles MA
SERIES e = 2 * NRND SERIES Y = 0 Y = -0.5 * e( -1 ) + e
MA (1) : y t = −0.5t −1 + t , t ∼ WN (0,4)
2. Re Repr´ pr´esent es entat atio ion n 2.2 . Mo 2.2. Mod` d` ele Moyenne Mobi ele Mobile le 2.2.3. Exemples de mod`eles eles MA
SERIES e = 2 * NRND SERIES Y = 0 Y = 0.8 * e( -1 ) + 0.3 * e( -2 ) + e
MA (2) : y t t = 0.8t −1 + 0.3t −2 + t , t ∼ WN (0, (0,4)
2. Re Repr´ pr´esent es entat atio ion n 2.2 . Mo 2.2. Mod` d` ele Moyenne Mobi ele Mobile le 2.2.3. Exemples de mod`eles eles MA
SERIES e = 2 * NRND SERIES Y = 0 Y = -0.5 * e( -1 ) + 0.3 * e( -2 ) + e
MA (2) : y t t = −0.5t −1 + 0.3t −2 + t , t ∼ WN (0, (0,4)
2. Re Repr´ pr´esent es entat atio ion n
`le Autor´ Section 3 : Modele e egressif Moyenne Mobile egressif
` ele Autor´ egressif Moyenne Mobile d’ordre (1, egressif 2.3.1. Modele (1,1) ` ele Autor´ egressif Moyenne Mobile d’ordre (p ,q ) egressif 2.3.2. Modele ` eles ARMA 2.3.3. Exemples de modeles
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile
ele Autor´ egressif Moyenne Mobile d’ordre (1,1) 2.3.1. Mod`
2.3.1.1. Formule analytique d’un ARMA(1,1) Un mod`ele autor´ egressif moyenne mobile d’ordre (1,1), not´e ARMA(1,1), met en relation la variable al´eatoire y t avec sa valeur retard´ee d’une p´eriode y t −1 et la valeur retard´ee d’une p´ eriode du choc t −1 selon la forme analytique suivante : (11) y t = θ + α1 y t −1 + β 1 t −1 + t , ∀t = 1,2, · · · ,T avec t ∼ WN (0,σ2 ) et α1 = 0 et β 1 = 0.
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.1. Mod` ele Autor´ egressif Moyenne Mobile d’ordre (1,1) 2.3.1.1. Formule analytique d’un ARMA(1,1)
Alternativement, le mod`ele (11) peut s’´ecrire de mani`ere r´eduite a ` l’aide de polynˆomes retard comme suit : y t − α1 y t −1 = θ + β 1 t −1 + t y t − α1 Ly t = θ + β 1 Lt + t
(1 − α1 L) y t = θ + (1 + β 1 L) t α (L) y t = θ + β (L) t avec α (L) ≡ 1 − α1 L et β (L) ≡ 1 + β 1 L.
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile
ele Autor´ egressif Moyenne Mobile d’ordre (1,1) 2.3.1. Mod`
2.3.1.2. Condition de stationnarit´e d’un ARMA(1,1) Le mod`ele ARMA(1,1) est le m´elange d’un mod`ele AR (1) qui n’est pas tou jours stationnaire et d’un mod` ele MA (1) qui est au contraire toujours stationnaire. Par cons´equent, la condition de stationnarit´e d’un mod`ele ARMA(1,1) provient de celle de sa partie autor´egressive AR (1), en l’occurrence |α1 | < 1.
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.1. Mod` ele Autor´ egressif Moyenne Mobile d’ordre (1,1)
2.3.1.3. Propri´et´es statistiques d’un ARMA(1,1) 2.3.1.3.1. Esp´erance non conditionnelle E ( y t ) Sous l’hypoth`ese de stationnarit´e de y t , notons E ( y t ) ≡ µ : y t = θ + α1 y t −1 + β 1 t −1 + t E ( y t ) = E (θ + α1 y t −1 + β 1 t −1 + t )
µ
= θ + α1 E ( y t −1 ) +β 1 E (t −1 ) + E (t )
0
µ
µ = θ + α1 µ
µ (1 − α1 ) = θ d’o` u: µ=
θ 1 − α1
0
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.1. Mod` ele Autor´ egressif Moyenne Mobile d’ordre (1,1) 2.3.1.3 Propri´et´es statistiques d’un ARMA(1,1)
2.3.1.3.2. Variance non conditionnelle V (y t ) Sous l’hypoth`ese de stationnarit´e de y t , notons V (y t ) ≡ σ 2 : y t = θ + α1 y t −1 + β 1 t −1 + t V (y t ) = V (θ + α1 y t −1 + β 1 t −1 + t )
σ2
= α 21 V (y t −1 ) +β 12 V (t −1 ) + V (t ) +2α1 cov ( y t −1 ,t )
σ2
2 σ
2 σ
+ 2β 1 cov (t −1 ,t ) +2α1 β 1 cov ( y t −1 ,t −1 ) 0
?
0
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.1. Mod` ele Autor´ egressif Moyenne Mobile d’ordre (1,1) 2.3.1.3 Propri´et´es statistiques d’un ARMA(1,1)
2.3.1.3.2. Variance non conditionnelle V (y t ) cov ( y t −1 ,t −1 ) = E {[y t −1 − µ][t −1 − E (t −1 )]}
0
= E [t −1 (α1 y t −2 + β 1 t −2 + t −1 )]
= α 1 E (t −1 y t −2 ) +β 1 E (t −1 t −2 ) + E (t −1 t −1 ) 0
d’o` u:
0
σ2 = α21 σ2 + β 12 σ2 + σ2 + 2α1 β 1 σ2 Enfin : σ2 =
1 + 2α1 β 1 + 1 − α21
β 12
σ2
2 σ
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.1. Mod` ele Autor´ egressif Moyenne Mobile d’ordre (1,1) 2.3.1.3 Propri´et´es statistiques d’un ARMA(1,1)
2.3.1.3.3. Fonction d’autocovariance cov ( y t ,y t −k ) Sous l’hypoth`ese de stationnarit´e de y t , notons cov ( y t ,y t −k ) ≡ γ k y t = θ + α1 y t −1 + β 1 t −1 + t E (y t ) = θ + α1 E ( y t −1 ) +β 1 E (t −1 ) + E (t )
µ
µ
0
y t − µ = α 1 (y t −1 − µ) + β 1 t −1 + t
0
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.1. Mod` ele Autor´ egressif Moyenne Mobile d’ordre (1,1) 2.3.1.3 Propri´et´es statistiques d’un ARMA(1,1)
2.3.1.3.3. Fonction d’autocovariance cov ( y t ,y t −k ) γ k = E [( y t − µ) (y t −k − µ)] = E {[α1 (y t −1 − µ) + β 1 t −1 + t ][y t −k − µ]} = E [α1 (y t −1 − µ) (y t −k − µ) + β 1 t −1 (y t −k − µ) + t ( y t −k − µ)] = α 1 E [( y t −1 − µ) (y t −k − µ)] + β 1 E {[t −1 − E (t −1 )][y t −k − µ]}
0
+ E {[t − E (t )][y t −k − µ]}
0
= α 1 cov ( y t −1 ; y t −k ) + β 1 cov (t −1 ; y t −k ) + cov (t ; y t −k )
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.1. Mod` ele Autor´ egressif Moyenne Mobile d’ordre (1,1) 2.3.1.3 Propri´et´es statistiques d’un ARMA(1,1)
2.3.1.3.3. Fonction d’autocovariance cov ( y t ,y t −k ) γ 1 = α 1 cov ( y t −1 ; y t −1 ) +β 1 cov (t −1 ; y t −1 ) + cov (t ; y t −1 )
σ2
2 σ
0
= α 1 σ 2 + β 1 σ2
γ 2 = α 1 cov ( y t −1 ; y t −2 ) +β 1 cov (t −1 ; y t −2 ) + cov (t ; y t −2 )
γ 1
0
0
= α 1 γ 1
γ k = α 1 cov ( y t −1 ; y t −k ) +β 1 cov (t −1 ; y t −k ) + cov (t ; y t −k )
γ k −1
= α 1 γ k −1
0
0
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile
ele Autor´ egressif Moyenne Mobile d’ordre (p ,q ) 2.3.2. Mod`
2.3.2.1. Formule analytique d’un ARMA(p ,q ) Un mod`ele autor´egressif moyenne mobile d’ordre (p ,q ), not´e ARMA(p ,q ), met en relation la variable al´eatoire y t avec ses p valeurs retard´ees y t −1 ,y t −2 , · · · ,y t −p et les q valeurs retard´ees du choc t −1 ,t −2 , · · · ,t −q selon la forme analytique suivante : y t = θ+α1 y t −1 +· · ·+αp y t −p +β 1 t −1 +· · ·+β q t −q +t , ∀t = 1,2, · · · ,T (12)
avec t ∼ WN 0,σ2 et αp = 0 et β q = 0.
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.2. Mod` ele Autor´ egressif Moyenne Mobile d’ordre (p,q ) 2.3.2.1 Formule analytique d’un ARMA(p,q )
Alternativement, le mod`ele (12) peut s’´ecrire de mani`ere r´eduite a ` l’aide de polynˆomes retard comme suit : y t − α1 y t −1 − · · · − αp y t −p = θ + β 1 t −1 + · · · + β q t −q + t p
q
y t − α1 Ly t − · · · − αp L y t = θ + β 1 Lt + · · · + β q L t + t
(1 − α1 L − · · · − αp Lp ) y t = θ + (1 + β 1 L + · · · + β q Lq ) t α (L) y t = θ + β (L) t avec α (L) ≡ 1 − α1 L − · · · − αp Lp et β (L) ≡ 1 + β 1 L + · · · + β q Lq .
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.2. Mod` ele Autor´ egressif Moyenne Mobile d’ordre (p,q ) 2.3.2.1 Formule analytique d’un ARMA(p,q )
Remarque :
ARMA (0,q ) ≡ MA (q ) ARMA (p ,0) ≡ AR (p )
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.2 Mod`ele Autor´ egressif Moyenne Mobile d’ordre (p,q )
2.3.2.2. Condition de stationnarit´e d’un ARMA(p ,q ) Le mod`ele ARMA(p ,q ) est le m´elange d’un mod`ele AR (p ) qui n’est pas tou jours stationnaire et d’un mod`ele MA (q ) qui est au contraire toujours stationnaire. Par cons´equent, la condition de stationnarit´e d’un mod`ele ARMA(p ,q ) provient de celle de sa partie autor´ egressive AR (p ), en l’occurrence |z i | > 1 , ∀i = 1,2, · · · ,p ...
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.2 Mod`ele Autor´ egressif Moyenne Mobile d’ordre (p,q )
2.3.2.3. Propri´et´es statistiques d’un ARMA(p,q ) 2.3.2.3.1. Esp´erance non conditionnelle E ( y t ) Sous l’hypoth`ese de stationnarit´ e de y t , on note E ( y t ) ≡ µ : y t = θ + α1 y t −1 + · · · + αp y t −p + β1 t −1 + · · · + βq t −q + t E ( y t ) = E ( θ + α1 y t −1 + · · · + αp y t −p + β1 t −1 + · · · + βq t −q + t )
µ
= θ + α1 E ( y t −1 ) + · · · + αp E ( y t −p ) +β1 E ( t −1 ) + · · · + βq E ( t −q ) + E ( t )
µ
0
µ
µ = θ + α1 µ + · · · + αp µ
d’o` u: µ =
θ
1 − α1 − α2 − · · · − αp
0
0
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.2 Mod`ele Autor´ egressif Moyenne Mobile d’ordre (p,q ) 2.3.2.3. Propri´ et´es statistiques d’un ARMA(p,q )
2.3.2.3.1. Variance non conditionnelle V (y t ) Sous l’hypoth`ese de stationnarit´e de y t , on note V (y t ) ≡ σ 2 : y t = θ + α1 y t −1 + · · · + αp y t −p + β 1 t −1 + · · · + β q t −q + t V (y t ) = V (θ + α1 y t −1 + · · · + αp y t −p + β 1 t −1 + · · · + β q t −q + t )
σ2
= α 21 V (y t −1 ) + · · · + α2p V (y t −p ) +β 12 V (t −1 ) + · · · + β q 2 V (t −q ) + V (t )
σ2
+2
σ2
2 σ
2 σ
αi β j cov ( y t −i ; t − j )
2 σ
i ≤ j
σ
2
= α 21 σ 2
2
2
+ · · · + αp σ +
β 12 σ2
2
2
2
+ · · · + β q σ + σ + 2
αi β j cov ( y t −i ; t − j )
i ≤ j
d’o` u:
1− σ = 1+ 2
p i =1 q j =1
α2i 2 σ + 2 β j 2
i ≤ j
αi β j cov ( y t −i ; t − j )
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.2 Mod`ele Autor´ egressif Moyenne Mobile d’ordre (p,q ) 2.3.2.3. Propri´ et´es statistiques d’un ARMA(p,q )
2.3.2.3.1. Fonction d’autocovariance cov ( y t ; y t −k )
• k > max (p ,q ) : γ k = α 1 γ k −1 + α2 γ k −2 + · · · + αp γ k −p
• k < max (p ,q + 1) : Le calcul de la fonction d’d’autocovariance devient compliqu´ e!
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile
eles ARMA 2.3.3. Exemples de mod`
SERIES e = 2 * NRND SERIES Y = 0 SMPL @FIRST+1 @LAST Y = 0.2 + 0.5 * Y( -1 ) + 0.8 * e( -1 ) + e
ARMA (1,1) : y t = 0.2 + 0.5y t −1 + 0.8t −1 + t , t ∼ WN (0,4)
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.3. Exemples de mod`eles ARMA
SERIES e = 2 * NRND SERIES Y = 0 SMPL @FIRST+2 @LAST Y = 0.2 + 0.5 * Y( -1 ) + 0.8 * e( -1 ) + 0.2 * e( -2 ) + e
ARMA (1,2) : y t = 0.2 + 0.5y t −1 + 0.8t −1 + 0.2t −2 + t , t ∼ WN (0,4)
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.3. Exemples de mod`eles ARMA
SERIES e = 2 * NRND SERIES Y = 0 SMPL @FIRST+2 @LAST Y= 0.2+0.5*Y(-1)+0.1*Y(-2)+0.8*e(-1)+e
ARMA (2,1) : y t = 0.2 + 0.5y t −1 + 0.1y t −2 + 0.8t −1 + t , t ∼ WN (0,4)
2. Repr´esentation 2.3. Mod` ele Autor´ egressif Moyenne Mobile 2.3.3. Exemples de mod`eles ARMA
SERIES e = 2 * NRND SERIES Y = 0 SMPL @FIRST+2 @LAST Y=0.2+0.5*Y(-1)+0.1*Y(-2)+0.8*e(-1)+0.2*e(2)+e
ARMA (2,2) : y t = 0.2+0.5y t −1 +0.1y t −2 +0.8t −1 +0.2t −2 +t , t ∼ WN (0,4)
2. Repr´esentation
Section 4 : Liens entre les mod ` eles AR , MA et ARMA
2.4.1. Stationnarit´ e et inversibilit´ e des processus esentation MA(∞) d’un AR (p ) 2.4.2. Repr´
2.4.3. Repr´ esentation AR (∞) d’un MA(q ) esentations AR (∞) et MA(∞) d’un ARMA(p ,q ) 2.4.4. Repr´
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA
e et inversibilit´ e des processus 2.4.1. Stationnarit´ Inversibilit´ e d’un polynˆ ome :
Un polynˆ ome P (x ) = a 0 + a 1 x + a 2 x 2 + · · · + a n x n de degr´e n est inversible s’il existe un polynˆ ome Q (x ) = b 0 + b1 x + b2 x 2 + · · · + bm x m de degr´e m tel que : P (x )Q (x ) = 1 L’inverse du polynˆome P (x ), not´e P −1 (x ), est donn´e par : −1
P
(x ) =
1 = Q (x ) = b0 + b1 x + b2 x 2 + · · · + bm x m P (x )
L’existence du polynˆome Q (x ) suppose, en outre, que la somme est convergente.
m b x i i =0 i
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.2.1. Stationnarit´ e et inversibilit´e des processus
Stationnarit´ e d’un processus :
En vertu du th´eor`eme de Wold, tout processus stochastique stationnaire centr´e y t peut s’´ecrire sous forme d’une somme pond´er´ee infinie des chocs pr´esent t et pass´es {t −1 ; t −2 ; · · · } : +∞
y t =
β i t −i = t + β 1 t −1 + β 2 t −2 + · · ·
i =0
avec β 0 = 1. Intuitivement, l’impact du choc t −i sur le processus y t , mesur´e par le coefficient β i (i = 0;1;2; · · · ), doit s’att´enuer ` a mesure que ce choc s’´ eloigne ∞ dans le temps. Ceci garantie la convergence de la somme + i =0 β i t −i et donc l’inversibilit´e du polynˆome retard associ´e a` y t .
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.2.1. Stationnarit´ e et inversibilit´e des processus
Inversibilit´ e d’un processus :
Un processus stochastique centr´e y t est inversible s’il est possible de reconstruire la valeur du choc t uniquement `a partir de ses observations pr´esente y t et pass´ees {y t −1 ; y t −2 ; · · · } : +∞
t =
αi y t −i = y t + α1 y t −1 + α2 y t −2 + · · ·
i =0
avec α0 = 1. Intuitivement, la contribution de l’observation y t −i dans la reconstruction du choc t , mesur´ee par le coefficient α i (i = 0; 1; 2; · · · ), doit se r´eduire a ` mesure que cette observation s’´ eloigne dans le temps. Ceci garantie la convergence ∞ de la somme + αi y t −i et donc l’inversibilit´e du polynˆ ome retard associ´e i =0 a ` t .
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA
esentation MA(∞) d’un AR (p ) 2.4.2. Repr´
Soit le mod`ele AR (1) centr´e suivant : y t = α 1 y t −1 + t
(13)
Apr`es substitutions r´ecursives, on obtient : 2
y t = α 1 (α1 y t −2 + t −1 ) + t = α 1 y t −2 + α1 t −1 + t
= α 21 (α1 y t −3 + t −2 ) + α1 t −1 + t = α 31 y t −3 + α21 t −2 + α1 t −1 + t = ··· ou encore :
2
n
y t = t + α1 t −1 + α1 t −2 + · · · + α1 y t −n
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.4.2. Repr´esentation MA(∞) d’un AR(p )
Si le processus y t est stationnaire, i.e. |α1 | < 1, et si n → +∞, alors : +∞
2
3
y t = t + α1 t −1 + α1 t −2 + α1 t −3 + · · · =
αi 1 t −i
(14)
i =0
En posant αi 1 ≡ β i (avec β 0 = 1), on retrouve le r´esultat du th´eor`eme de Wold : +∞
y t =
β i t −i
i =0
Il s’agit d’une repr´esentation moyenne mobile infinie MA (∞) du mod`ele AR (1).
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.4.2. Repr´esentation MA(∞) d’un AR(p ) En utilisant des polynˆ omes retard, on ´ecrit (13) comme suit : y t = α1 y t −1 + t y t (1 − α1 L) = t α(L)y t = t
(15)
et (14) comme suit : y t = t + α1 t −1 + α21 t −2 + α31 t −3 + · · ·
y t = 1 + α1 L + α21 L2 + α31 L3 + · · · t
En posant βi = αi 1 (avec i = 1;2; · · · ) :
2
3
y t = 1 + β1 L + β2 L + β3 L + · · · t y t = β (L)t
(16)
On peut montrer que les ´ecritures (15) et (16) sont ´equivalentes en v´ erifiant que le polynˆ ome retard β (L) est simplement l’inverse du polynˆ ome retard α(L), i.e. : β (L) = α −1 (L)
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.4.2. Repr´esentation MA(∞) d’un AR(p ) Soit la division suivant les puissances croissantes de 1 par 1 − α1 L : 1 − α1 L
1
− 1 0 −
1 + α1 L + α21 L2 + α31 L3 + · · ·
−α1 L +α1 L +α1 L 0 −
−α21 L2 +α21 L2 +α21 L2 0
−α31 L3 +α31 L3 .. .
d’o` u
1 = 1 + α1 L + α21 L2 + α31 L3 + · · · 1 − α1 L En posant αi 1 = βi (avec i = 1;2; · · · ), on obtient : 1 = 1 + β1 L + β2 L2 + β3 L3 + · · · 1 − α1 L Finalement :
α−1 (L) = β (L)
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.4.2. Repr´esentation MA(∞) d’un AR(p )
R´ ecapitulatif :
AR (1) stationnaire −→y t = α 1 y t −1 + t
(1 − α1 L)y t = t α(L)y t = t y t = α
−1
(L)t
y t = β (L)t 2
3
y t = (1 + β 1 L + β 2 L + β 3 L + · · · )t y t = t + β 1 t −1 + β 2 t −2 + β 3 t −3 + · · · −→ MA(∞)
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.4.2. Repr´esentation MA(∞) d’un AR(p )
G´ en´ eralisation :
AR (p ) stationnaire −→y t = α 1 y t −1 + α2 y t −2 + · · · + αp y t −p + t
(1 − α1 L − α2 L2 − · · · − αp Lp )y t = t α(L)y t = t y t = α
−1
(L)t
y t = β (L)t 2
3
y t = (1 + β 1 L + β 2 L + β 3 L + · · · )t y t = t + β 1 t −1 + β 2 t −2 + β 3 t −3 + · · · −→ MA(∞)
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA
esentation AR (∞) d’un MA(q ) 2.4.3. Repr´
Soit le mod`ele MA(1) centr´e suivant : y t = β 1 t −1 + t
(17)
que l’on peut r´e´ecrire : t = y t − β 1 t −1 Apr`es substitutions r´ecursives, on obtient : t = y t − β 1 (y t −1 − β 1 t −2 ) = y t − β 1 y t −1 + β 12 t −2 = y t − β 1 y t −1 + β 12 ( y t −2 − β 1 t −3 ) = y t − β 1 y t −1 + β 12 y t −2 − β 13 t −3 = ··· ou encore : t = y t − β 1 y t −1 + β 12 y t −2 − · · · + (−1)n β 1n y t −n
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.4.3. Repr´esentation AR(∞) d’un MA(q )
Si le processus y t est inversible, i.e. |β 1 | < 1, et si n → +∞, alors : +∞
t = y t − β 1 y t −1 + β 12 y t −2 − β 13 y t −3 + · · · =
(−1)i β 1i y t −i (18)
i =0
En posant (−1)i β 1i ≡ αi (avec α0 = 1) : +∞
t =
αi y t −i
i =0
Il s’agit d’une repr´esentation autor´egressive infinie AR (∞) du mod`ele MA(1).
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.4.3. Repr´esentation AR(∞) d’un MA(q )
En utilisant des polynˆomes retard, on ´ecrit (17) comme suit : y t = β 1 t −1 + t y t = (1 + β 1 L) t y t = β (L)t
(19)
et (18) comme suit : t = y t − β 1 y t −1 + β 12 y t −2 − β 13 y t −3 + · · · t = (1 − β 1 L + β 12 L2 − β 13 L3 + · · · )y t En posant αi = (−1)i β 1i (avec i = 1;2; · · · ) : t = (1 + α1 L + α2 L2 + α3 L3 + · · · )y t α(L)y t = t
(20)
On peut montrer que les ´ecritures (19) et (20) sont ´equivalentes en v´erifiant que le polynˆome retard α(L) est simplement l’inverse du polynˆome retard β (L), i.e. : α(L) = β −1 (L)
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.4.3. Repr´esentation AR(∞) d’un MA(q ) Consid´erons la division suivant les puissances croissantes de 1 par 1 + β1 L : 1
1 + β1 L
− 1 0 −
1 − β1 L + β12 L2 − β13 L3 + · · ·
+β1 L −β1 L
−β1 L 0 −
−β12 L2 +β12 L2 +β12 L2 0
d’o` u
+β13 L3 −β13 L3 .. .
1 = 1 − β1 L + β12 L2 − β13 L3 + · · · 1 + β1 L
En posant αi = (−1)i β1i , on obtient : 1 = 1 − α1 L − α2 L2 − α3 L3 + · · · 1 + β1 L Finalement :
β −1 (L) = α(L)
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.4.3. Repr´esentation AR(∞) d’un MA(q )
R´ ecapitulatif :
MA(1) inversible −→y t = β 1 t −1 + t y t = (1 + β 1 L)t y t = β (L)t
β −1 (L)y t = t α(L)y t = t 2
3
y t (1 − α1 L − α2 L − α3 L − · · · ) = t y t = α 1 y t −1 + α2 y t −2 + α3 y t −3 + · · · + t −→ AR (∞)
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA 2.4.3. Repr´esentation AR(∞) d’un MA(q )
G´ en´ eralisation :
MA(q ) inversible −→y t = β 1 t −1 + β 2 t −2 + · · · + β q t −q + t 2
q
y t = (1 + β 1 L + β 2 L + · · · + β q L )t y t = β (L)t
β −1 y t = t α(L)y t = t 2
3
y t (1 − α1 L − α2 L − α3 L − · · · ) = t y t = α 1 y t −1 + α2 y t −2 + α3 y t −3 + · · · + t −→ AR (∞)
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA
esentations AR (∞) et MA(∞) d’un ARMA(p ,q ) 2.4.4. Repr´
Soit le mod`ele ARMA(1,1) centr´e suivant : y t = α 1 y t −1 + β 1 t −1 + t
que l’on peut r´e´ecrire : y t − α1 y t −1 = β 1 t −1 + t
ou encore : y t (1 − α1 L) = (1 + β 1 L)t
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA
Si le processus y t est stationnaire, i.e. |α1 | < 1, alors le polynˆ ome 1 − α1 L est inversible et l’on peut ´ecrire : y t =
1 + β 1 L 1 − α1 L
t
La division du polynˆome 1 + β 1 L par 1 − α1 L donne : 1 + β 1 L = 1 + (α1 + β 1 )L + α1 (α1 + β 1 )L2 + α21 (α1 + β 1 )L3 + · · · 1 − α1 L En posant ψi = α 1i −1 (α1 + β 1 ) (avec i = 1; 2; · · · ) on obtient : 1 + β 1 L = 1 + ψ1 L + ψ2 L2 + ψ3 L3 + · · · 1 − α1 L
2
3
y t = 1 + ψ1 L + ψ2 L + ψ3 L + · · · t
= ψ 1 t −1 + ψ2 t −2 + ψ3 t −3 + · · · + t Il s’agit d’une repr´esentation MA(∞) du mod`ele ARMA(1,1).
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA Si le processus y t est inversible, i.e. |β 1 | < 1, alors le polynˆome 1 + β 1 L est
inversible et l’on peut ´ecrire :
1 − α1 L 1 + β 1 L
y t = t
La division du polynˆome 1 − α1 L par 1 + β 1 L donne : 1 − α1 L = 1 − (α1 + β 1 )L + β 1 (α1 + β 1 )L2 − β 12 (α1 + β 1 )L3 + · · · 1 + β 1 L En posant ϕi = (−β 1 )i −1 (α1 + β 1 ) (avec i = 1; 2; · · · ) on obtient : 1 − α1 L = 1 − ϕ1 L − ϕ2 L2 − ϕ3 L3 − · · · 1 + β 1 L
2
3
1 − ϕ1 L − ϕ2 L − ϕ3 L − · · · y t = t
y t − ϕ1 y t −1 − ϕ2 y t −2 − ϕ3 y t −3 − · · · = t y t = ϕ1 y t −1 + ϕ2 y t −2 + ϕ3 y t −3 + · · · + t
Il s’agit d’une repr´esentation AR (∞) du mod`ele ARM A(1,1).
2. Re Repr´ pr´esent es entat atio ion n 2.4. Liens entre les mod`eles eles AR, MA et ARMA R´ ecap ecapit itul ulat atif if :
ARMA(1, (1,1) −→y t t = α 1 y t t −1 + β 1 t −1 + t y t t − α1 y t t −1 = β 1 t −1 + t
(1 − α1 L)y t t = (1 + β 1 L)t
(1,1) stationnaire −→y t t = ARMA(1,
1 + β 1 L 1 − α1 L
t 2
y t t = (1 + ψ1 L + ψ2 L + · · · )t y t t = ψ 1 t −1 + ψ2 t −2 + · · · + t −→ MA(∞)
ARMA(1, (1,1) inversible −→
1 − α1 L 1 + β 1 L
y t t = t
(1 − ϕ1 L − ϕ2 L2 − · · · )y t t = t y t t − ϕ1 y t t −1 − ϕ2 y t t −2 − · · · = t y t t = ϕ 1 y t t −1 + ϕ2 y t t −2 + · · · + t −→ AR (∞)
2. Re Repr´ pr´esent es entat atio ion n 2.4. Liens entre les mod`eles eles AR, MA et ARMA G´ en´ eralisation : p
−→y t t = ARMA(p ,q ) −→
q
αi y t t −i +
i =1 =1
αi Li )y t t = (1 +
i =1 =1
β (L) α(L)
q
βi Li )t
i =1 =1
α(L)y t t = β (L)t ARMA(p ,q ) stationnaire −→y t t =
βi t −i + t
i =1 =1
p
(1 −
t
y t t = ψ (L)t y t t = (1 + ψ1 L + ψ2 L2 + · · · )t y t t = ψ 1 t −1 + ψ2 t −2 + · · · + t −→ MA(∞) ARMA(p ,q ) inversible −→
α(L) β (L)
y t t = t
ϕ(L)y t t = t
(1 − ϕ1 L − ϕ2 L2 − · · · )y t t = t y t t − ϕ1 y t t −1 − ϕ2 y t t −2 − · · · = t y t t = ϕ 1 y t t −1 + ϕ2 y t t −2 + · · · + t −→ AR(∞)
2. Re Repr´ pr´esent es entat atio ion n 2.4. Liens entre les mod`eles eles AR, MA et ARMA
Remarque Rema rque : Pro P rocess cessus us non-centr´ non- centr´ es es
Tout au long de cette section, seuls des processus centr´ centr´es, es, i.e. des processus sans sans terme ter me const constant, ant, ont ´et´ et´e cons consid´ id´er´ er´es es afin afin de simpl simplifi ifier er la pr´esenta esentatio tion. n. Le r´esultat esul tat obtenu obte nu est e st que l’on l’o n pe peut ut bascule bas culerr entre les diff´erentes erente s repr´esentatio ese ntations ns des mod` eles eles de la famille famille ARMA simplemen simplementt en divisan divisantt par un polynˆ ome ome retard Φ(L), pourvu que celui-ci soit inversible. En introduisant une constante non nulle θ dans ces mod`eles eles ils deviennent non-centr´ non- centr´es es et le r´esultat esu ltat obtenu obte nu rester res tera a valable a` la diff´erenc erencee pr`es es qu’il qu’ il faut faut diviser ´egalement egaleme nt le terme constant θ par le mˆ eme eme polynˆ pol ynˆ ome ome retard Φ(L). Pour cela, rappelons quelques r`egles egles de calculs quand il s’agit d’appliquer `a une constante une op´eration eration faisant intervenir un op´ erateur erateur ou un polynˆ pol ynˆ ome ome retard.
2. Repr´esentation 2.4. Liens entre les mod`eles AR, MA et ARMA
Remarque : Processus non-centr´ es (suite) L’une des propri´et´es de l’op´erateur retard L est qu’il n’a aucun effet sur un terme constant θ, i.e. Lθ = θ. Dans ce cas pr´ecis, l’op´erateur retard L se
comporte exactement comme l’´el´ement neutre de la multiplication, ` a savoir le nombre 1. Etudions la multiplication de la constante θ par le polynˆome retard Φ(L) = 1 + φ1 L + φ2 L2 + · · · + φn Ln : Φ(L)θ = (1 + φ1 L + φ2 L2 + · · · + φn Ln )θ = θ + φ1 Lθ + φ2 L2 θ + · · · + φn Ln θ = θ + φ1 θ + φ2 θ + · · · + φn θ = (1 + φ1 + φ2 + · · · + φn )θ = Φ(1)θ Multiplier une constante par un polynˆome retard revient `a la multiplier par ce mˆeme polynˆ ome en rempla¸cant l’op´erateur L par le nombre 1. Ce r´esultat peut ais´ement ˆetre g´en´eralis´e a` la division d’une constante par un polynˆome θ retard, i.e. : Φ(θL) = Φ(1) = 1+φ1 +φθ2 +···+φn .