Séries chronologiques : Prévisions avec un modèle ARMA
Master Finance Islamique Année : 2017/2018
Elaboré par : -
ELAMRANI Jihane HELLAOUI Yousra KHARBOUCH Doha MRIGA Salem
-
ELHARHARI Youssef
Encadré par : - Mr. DOUMI Karim
1
Table des matières
Chapitre 1 : Généralités sur les séries chronologique ......................................... chronologique ......................................... 4 Rappelle sur les séries chronologiques ……………..... ………………………………………4
1 Définition d’une série chronologique……………………………………………………………. chronologique……………………………………………………………. 4 2 Les composantes
d’une série chronologique................ chronologique............................. ....................... ....................... ................….5 ...….5
3 Modélisation d'une série chronologique…………. chronologique………….……………………………………………7 Prévision par les méthodes de lissage exponentielle........................... exponentielle...........................…... …...9 9 1 Lissage exponentiel simple .......................... ....................................... .......................... ...................... ......................… .............…... ... 10 2 Lissage exponentiel double…. double….………………………………………………………………… .10 3Méthode de Holt Winters……………………………………………………………………..…. Winters……………………………………………………………………..…. 10 Processus stochastique………………… stochastique…………………..…………………………………………………………… 12 Processus stationnaire………………………… stationnaire…………………………..……………………………………………………. 13 Processus non stationnaire…………………………………………………………………………14 stationnaire…………………………………………………………………………14 Conclusion………………………………………………………………………………………………….…17 Conclusion………………………………………………………………………………………………….…17 Chapitre 2 : Les Processus ARIMA .......................................... .................... ............................................ ......................... ... 18
......................................................................... ......................... 26 Les étapes de la méthode de BOX-JENKINS ................................................
1-
...................................................................................................................... 26 Identification Identification : .......................................................................................................................
2-
Estimation des paramètres d’un modèle ARIMA ........................................................ 30
3-
....................................................................................................................... ........................................................... 31 Le diagnostic : ............................................................
4-
......................................................................................................................... ...................... 32 La prévision : ...................................................................................................
Chapitre 3 Partie empiriqu empiriquee ............................................................................. 35 Application de la méthode méthode de Box-Jenkins Box-Jenkins (Modélisation ARIMA) ARIMA) sur SPSS SPSS ... 35 ……………………………………………………………………………………………………… ……………………………………………………………….48 ……………………………….48 Conclusion ……………………………………………………………………… ………………………………..…………………………………… ………………………………………………………………………… ……………………………………………………………49 ……………………49 Bibliographie ………………………………..…
2
Table des matières
Chapitre 1 : Généralités sur les séries chronologique ......................................... chronologique ......................................... 4 Rappelle sur les séries chronologiques ……………..... ………………………………………4
1 Définition d’une série chronologique……………………………………………………………. chronologique……………………………………………………………. 4 2 Les composantes
d’une série chronologique................ chronologique............................. ....................... ....................... ................….5 ...….5
3 Modélisation d'une série chronologique…………. chronologique………….……………………………………………7 Prévision par les méthodes de lissage exponentielle........................... exponentielle...........................…... …...9 9 1 Lissage exponentiel simple .......................... ....................................... .......................... ...................... ......................… .............…... ... 10 2 Lissage exponentiel double…. double….………………………………………………………………… .10 3Méthode de Holt Winters……………………………………………………………………..…. Winters……………………………………………………………………..…. 10 Processus stochastique………………… stochastique…………………..…………………………………………………………… 12 Processus stationnaire………………………… stationnaire…………………………..……………………………………………………. 13 Processus non stationnaire…………………………………………………………………………14 stationnaire…………………………………………………………………………14 Conclusion………………………………………………………………………………………………….…17 Conclusion………………………………………………………………………………………………….…17 Chapitre 2 : Les Processus ARIMA .......................................... .................... ............................................ ......................... ... 18
......................................................................... ......................... 26 Les étapes de la méthode de BOX-JENKINS ................................................
1-
...................................................................................................................... 26 Identification Identification : .......................................................................................................................
2-
Estimation des paramètres d’un modèle ARIMA ........................................................ 30
3-
....................................................................................................................... ........................................................... 31 Le diagnostic : ............................................................
4-
......................................................................................................................... ...................... 32 La prévision : ...................................................................................................
Chapitre 3 Partie empiriqu empiriquee ............................................................................. 35 Application de la méthode méthode de Box-Jenkins Box-Jenkins (Modélisation ARIMA) ARIMA) sur SPSS SPSS ... 35 ……………………………………………………………………………………………………… ……………………………………………………………….48 ……………………………….48 Conclusion ……………………………………………………………………… ………………………………..…………………………………… ………………………………………………………………………… ……………………………………………………………49 ……………………49 Bibliographie ………………………………..…
2
Introduction : Une série chronologique, ou série temporelle, est une série d'observations ordonnées chronologiquement. Elles se rencontrent naturellement dans une grande variété de domaines. On peut p eut citer : l'économie (taux de chômage, PNB …), la finance (cours d'action, taux d'intérêt, …), l'écologie (pollution à l'ozone, au CO, …), le transport (avec l'exemple célèbre du trafic aérien international), la démographie…). Les objectifs d'étude sont multiples. La prévision est sans doute le but le plus fréquent. Il s'agit de prévoir les valeurs futures d'une variable grâce aux valeurs observées dans le présent et le passé de cette même variable ; la problématique n'est donc pas la même qu'en régression où l'on cherche à prévoir le niveau d'une variable (la réponse) en fonction du niveau d'autres variables (les prédicteurs). Nous allons à présent étudier de façon de plus précise ce qu’est un processus non stationnaire. Il existe en effet deux sorte de non stationnarité : la non stationnarité déterministe et la non stationnarité stochastique. Nous verrons que suivant l’origine du non stationnarité, il convient d’adopter une méthode de stationnarisation particulière. La seconde partie de ce chapitre sera ensuite consacrée à la présentation des principaux tests de non stationnarité. Il s’agit alors de définir une stratégie empirique permettant de vérifier si les processus sont stationnaires ou au contraire s’il est nécessaire de les stationnariser et quelle est alors la méthode appropriée. appropr iée.
3
Chapitre 1 : Généralités sur les séries chronologique Le but de ce chapitre est d’introduire la notion de processus temporel et plus particulièrement la classe des processus ARMA qui sont particulièrement utiles pour décrire le comportement des séries temporelles univariées. Cette présentation suppose que l’on définisse au préalable un certain nombre de notions essentielles esse ntielles à l’analyse des séries temporelles, et en particulier la notion de stationnarité. I.
Rappelle sur les séries chronologiques : 1. Définition d’une série chronologique
Une série chronologique (Y t, variable y à à t, t Є T) est une suite d’observations d’une variable y différentes dates t. Habituellement T est dénombrable, de sorte que t = 1,2,……….,T. Le but de l’analyse des séries temporelles (séries chronologiques) est de s’intéresser à la dynamique d’une variable. Cette dernière est importante pour au moins deux raisons :
D’un point de vue économétrique, économétrique, on ne peut relier que deux variables qui ont des propriétés similaires, en particulier une même stabilité ou instabilité Les propriétés mathématiques mathématiques permettant de relier deux variables dépendent de leur dynamique
Exemple : On a relevée les chiffres chiffres d’affaires trimestriels, exprimées en K€, d’une entreprise au cours des années 2012 `a 2015. Ceux-ci sont présentés dans le tableau suivant.
Présentation graphique :
4
Ici, le nombre d’années est n = 4, le nombre de périodes par année est p = 4 et on a y1 = 20, y2 = 25, y3 = 50, y4 = 70, y5 = 35, . . ., y16 = 170 Objectif d’une série chronologique:
De décomposer une série chronologique en composantes générale saisonnière et aléatoire afin de l’analyser; D’estimer les composantes de la série chronologique Prédire les valeurs futures de la série 2. Les composantes d’une série chronologique
Le but de la décomposition d’une série est de distinguer dans l’évolution de la série une tendance
des variations stationnaires qui se répètent chaque année et des variations accidentelles imprévisibles. L’intérêt de ceci est d’une part de mieux comprendre de mieux décrire l’évolution de la série et d’autres part de prévoir son évolution (a partir de la tendance et des variations saisonnières.
Y t = f (T t ; S t; C t ; εt)
La tendance Tt : La tendance correspond à l’évolution à long terme de la série, l’évolution fondamentale de la série. Exemple : augmentation du
chiffre d’affaire de 2007 à 2017
5
Les variations saisonnières St : Les variations saisonnières sont des fluctuations périodiques à l’intérieur d’une année, et qui se reproduisent de façon plus ou moins permanente d’une année sur l’autre.
Cycle Ct : composante de moyen terme avec un intervalle de répétition plus.
Les variations accidentelles ou résiduelles : εt . Les variations accidentelles sont des fluctuations irrégulières et imprévisibles. Elles sont supposées en général de faible amplitude. Elles proviennent de circonstances non prévisibles : catastrophes naturelles, crise boursière, grèves.
6
3. Modélisation d’une série chronologique Le modèle générale
Y t =T t+ C t + S t +I t
. St : est la composante
Tt : désigne
Ct : est le cycle.
saisonnière et
It : est l’irrégulier,
la tendance
C’est un mouvement
représente les
regroupant toutes
qui
lisse, quasi
représente
périodique autour de
l’évolution
la tendance
de long
présentant des
terme de la
phases de
croissance et de
fluctuations infra –
les fluctuations plus
annuelles qui se
ou moins erratiques
répètent de manière plus ou moins régulière d’année en année.
non prises en compte dans les composantes énumérées (résidu)
récession.
a) Modèle additif : Définition On parle de modèle additif lorsque la série chronologique y = yt se décompose sous la forme yt = tt + st + Ɛt; ou tt désigne la composante tendance générale, st désigne la composante saisonnière ;ct le cycle et Ɛt désigne la composante aléatoire de la série au temps t.
7
Remarque Rappelons que la composante saisonnière est supposée p-périodique (i.e. sk+p = sk, pour tout k) et d’influence nulle sur une année (i.e. s1 + s2 + · · · + sp = 0 pour le modèle additif). La composante aléatoire est supposée négligeable (i.e. Ɛt = 0, pour tout t, pour le modèle additif). Critère Pour savoir si le modèle additif est adapté, on trace les lignes polygonales passant par les pics positifs d’une part et négatifs d’autre part. Si celles-ci sont proches de droites et si la largeur de la bande délimitée par celles-ci est essentiellement constante, on choisit d’utiliser le modèle additif Graphiquement :
b) Modèle multiplicatif : Définition On parle de modèle multiplicatif lorsque la série chronologique y = yt se décompose sous la forme :
yt = tt × st × Ɛt; Ou tt désigne la composante tendance générale, st désigne la composante saisonnière et Ɛt désigne la composante aléatoire de la série au temps t. Remarque Rappelons que la composante saisonnière est supposée p-périodique (i.e. sk+p = sk, pour tout k) et d’influence nulle sur une année (i.e. s1 × s2 × · · · × sp = 1 pour le modèle multiplicatif). La composante aléatoire est supposée négligeable (i.e. Ɛt ’ 1, pour tout t, pour le modèle multiplicatif).
8
Critère Pour savoir si le modèle multiplicatif est adapté, on trace les lignes polygonales passant par les pics positifs d’une part et négatifs d’autre part. Si celles-ci sont proches de droites et si la largeur de la bande délimitée par celles-ci est clairement croissante ou décroissante, on choisit d’utiliser le modèle multiplicatif .
II.
Prévision par les méthodes de lissage exponentiel :
Le lissage exponentiel est une classe de méthodes de lissage de séries chronologiques dont l'objectif est la prévision à court terme. Ces méthodes sont fondées sur une hypothèse fondamentale : chaque observation à l’instant t dépend des observations précédentes et d'une variation accidentelle, et cette dépendance est plus ou moins stable dans le temps. Le lissage exponentiel simple ne s'applique qu'aux séries sans tendance ni saisonnalité. Les extensions de la méthode - méthodes de Holt et de Holt-Winters – permettent de tenir compte de la présence d'une tendance et/ou d'une saisonnalité. 1) Lissage exponentiel simple :
Disposant d’une série temporelle Y1, . . . , Yn, l’objectif du lissage exponentiel est
̂ n,h cette d’estimer la valeur Y n+h non encore observée. Nous noterons Y prévision. Etant donnée une constante de lissage 0 < α < 1 , on définit la prévision par lissage exponentiel simple :
̂ Y
n,h =
̂ α Y n + (1-α) Y
n-1,h
La prévision est une moyenne de toutes les observations passées, pondérée de sorte que plus l’observation soit ancienne moins elle ait d’importance. Une constante de lissage α proche de 0 (≤ 0.3) donne une importance significative aux observations
9
éloignées, tandis qu’un α proche de 1 (≥ 0.7) tend à négliger ces observations éloignées.
̂ n,h ne dépend pas de h . Remarque : la prévision Y
2) Lissage exponentiel double :
On ajuste au voisinage de l’instant n une droite d’équation Y t = a1+ a2(t - n). La prévision par lissage exponentiel double est :
â
1(n)
̂ n-1,1), =a ̂ 1(n - 1) +̂ a2(n - 1) + α(2 - α)( Yn - Y
̂ n-1,1), â 2(n) = â 2(n - 1) + α(2 - α)( Yn - Y Où a ̂ 1(n) et â 2(n) sont les estimations des paramètres a1 et a2 lorsque l’on a observé la série jusqu’à la n-ème réalisation. Les valeurs initiales étant a ̂ 1(0) = x1 et â 2(0) = Y 2 - Y 1 Remarque : comme pour le lissage exponentiel simple, l’estimateur de la prévision est la meilleure approximation au sens des moindres carrés pondérés. 3) Méthode de Holt-Winters
Méthode non saisonnière Comme la méthode de lissage exponentiel double, celle de Holt-Winters non saisonnière revient à estimer au voisinage de l’instant n une droite yt = a1 + a2(t - n).
̂ La prévision prend la forme Y
n,h =
â 1(n) + â 2(n)h.
La variante par rapport à la méthode de lissage exponentiel double est au niveau des formules de mise à jour dans l’estimation des paramètres a1 et a2. Soient deux constantes de lissages 0 < α < 1 et 0 < β < 1. Les formules de mise à jour sont :
1(n) = α Yn + (1 - α ) [ 1(n - 1) + 2(n - 1)], 2(n) = β [1(n) - 1(n - 1)] + (1 - β)2(n - 1). Méthode saisonnière additive On cherche maintenant à ajuster au voisinage de l’instant n une droite d’équation yt = a1 + a2(t - n) + st, où st est une composante périodique de période T. Les formules récursives de mise à jour sont :
â 1(n) = α (xn - ŝ n-T ) + (1 - α) [â 1(n - 1) + â 2(n - 1)], â 2(n) = β [â 1(n) - â 1(n - 1)] + (1 - β)â 2(n - 1), 10
ŝ n = γ[xn - â 1(n)] + (1 - γ)̂ sn-T . Les prévisions sont de la forme :
̂ n,h = 1 + 2h + n+h-T 1 ≤ h ≤ T, Y ̂ n,h = 1 + 2h + n+h-2T T + 1 ≤ h ≤ 2T.µ et ainsi de suite pour h ≥ 2T Y . Les trois constantes de lissages, α, β et γ ont le même effet que précédemment, plus elles sont petites et plus l’importance des données éloignées est significative. Elles agissent respectivement sur les paramètres a1, a2 et st. Se référer à Gouriéroux et Monfort 1983 [5] pour les valeurs d’initialisation. Méthode saisonnière multiplicative On ajuste au voisinage de l’instant n une droite d’équation : yt = [a1 + a2(t - n)] × st, où st est une composante périodique de période T . Les formules récursives de mise à jour sont :
â 1(n) = α Yn ŝ n-T + (1 - α)[ 1(n - 1) + 2(n - 1)], â 2(n) = β [â 1(n) - â 1(n - 1)] + (1 - β)â 2(n - 1), ŝ
n
= γ Yn â 1(n) + (1 - γ) n-T .
̂ n,h = [1 + 2h]n+h-T 1 ≤ h ≤ T, Y ̂ n,h = [1 Les prévisions sont de la forme : Y + 2h] n+h-2T T + 1 ≤ h ≤ 2T. Se référer également à [5] pour les valeurs d’initialisation.
11
III.
Processus stochastique
a) Définition : Est une collection de variables aléatoire Yt indexées dans le temps. Un processus stochastique Yt est une famille de variables aléatoires réelles (Yt)t Θ, ou Θ R est appelé l’espace des temps.
Si Θ Z, le processus est dit à temps discret ; Y t=Y 1, Y2, Y3,….Y T Si Θ est un intervalle de R , le processus est dit à temps continu Ytϵ R
Evidemment, pour modéliser et analyser les séries chronologiques on utilise les processus à temps discret.
Yt=Yt-1 + Ɛt Y t-Y t-1=Ɛt => ∆Y t =Ɛt
ou
Ɛt est un bruit blanc iid (indépendamment
identiquement distribué)
b) Bruit blanc : Un type particulier de processus stochastiques stationnaires: processus purement aléatoires ou processus bruit blanc. Un processus est dit de bruit blanc si :
Sa moyenne est nulle : E(Ɛt)=0 Sa variance est constante : Var(Ɛt)=ƃ2=cst le terme aléatoire du MC est supposé être un processus de bruit blanc; noté Ɛt ~NID(0, ƃ2) c-a-d est distribué indépendamment et identiquement comme une distribution normale avec une moyenne nulle et une variance constante
Si l’espérance est nulle, le bruit blanc est centré, et si les variables aléatoires sont gaussiennes, le bruit blanc est gaussien
12
IV.
Processus stationnaire
Un processus stochastique est dit stationnaire si sa moyenne et sa variance sont constantes dans le temps et la valeur de la covariance entre les deux périodes de temps ne dépend pas du temps auquel la covariance est calculée.
Processus fortement stationnaire(ou au sens strict) : la distribution de probabilité est invariante par translation de l’axe du temps
Processus faiblement stationnaire (ou stationnaire à l’ordre 2) : permanence des deux premiers moments (conditions utilisées en pratique).
Un processus Y t et dit stationnaire si : Moyenne du processus est nulle : E(Yt) = µ
Variance invariable dans le temps : Var(Yt) = E (Yt - µ)= ƃ2 L’auto-covariance ne dépend que de la distance entre deux points dans le temps et non d’une date particulière : Cov(Yt,Yt-k) = E(Yt - µ)(Yt-1 - µ) =ƿt c.-à-d que la covariance est indépendante du temps.
Un bruit blanc est processus stationnaire Ɛt
~NID (0, ƃ2)
a) Fonction d’auto-corrélation FAC : La fonction d’auto-corrélation FAC est la fonction notée ρk qui mesure la corrélation de la série avec elle-même décalée de k périodes.
Nous pouvons en déduire que :
ρ0 = 1 et
-1 ≤ ρk ≤ 1
k
ȳ:la moyenne de la série calculée sur (n période)
n: nombre d’observation 13
NB: il exige de recalculer pour chaque terme les moyennes et les variances pour cela on calcule la FAC d’échantillonnage. On peut faire l’identification des caractéristiques stochastique d’une série chronologique, si elle est stationnaire. L’étude de stationnarité se faire par l’étude des fonctions d’auto-corrélation
b) Fonction d’auto-corrélation partielle (FACP): La fonction d’auto-corrélation partielle ; mesure la corrélation entre yt et yt-k, l’influence des autres variables (yt-1, yt-2,…,yt-k+1) ayant été retirée. V.
Processus non stationnaire
Un processus non stationnaire est un processus qui ne satisfait pas les conditions de stationnarité. Ainsi, l’origine de la non stationnarité peut provenir d’une dépendance du moment d’ordre un (l’espérance) par rapport au temps et/ou d’une dépendance de la variance ou des auto-covariances par rapport au temps. Ce sont des séries les plus rencontrées dans la pratique. Une chronique ne vérifiant pas les trois hypothèses de stationnarité :
E(Yt) = µ Var(Yt) = E (Yt - µ)= ƃ2 Cov(Yt,Yt-k) = E(Yt - µ)(Yt-1 - µ) =ƿt
Est dite non stationnaire. estimation.
Il faudra donc la stationnariser avant son
La méthode de stationnarisation dépend de la source de non stationnarité.
Il existe deux types de processus non stationnaire a) Processus Trend Stationary (DS) :
Cette méthode permet de supprimer les tendances et saisonnalité d’une série temporelle sans les estimer. Soit ∆T l’opérateur qui associe : (Y t - Y t-T) à (Y t) :
∆T( Yt) = Y t - Y t-T
Un processus DS présente un non stationnarité de type aléatoire. Pour stationnariser un processus DS, on utilise le filtre aux différences de la série et elle même décaler de k périodes. 14
Exemple la marche aléatoire sans dérive β=0 : Y t = Y t-1 + Ɛt Yt=Yt-2+ Ɛt-1+ Ɛt Yt=Yt-3+ Ɛt-2+ Ɛt-1+ Ɛt Yt=Y t-k + Ʃ Ɛt-k+1
En k=t Yt=Y 0+ Ʃ Ɛt-k+1 Yt=Y 0+ Ʃ Ɛt-1 en calcule l’espérance de Yt E(Yt)=E(Y 0+ Ʃ Ɛt-1) = E(Y0)+E(Ʃ Ɛt-1)=E(Y0)=Y0 or
E(Ʃ Ɛt-1)=0
Donc E(Yt)=Y0 l’espérance est stationnaire Généralement :
Le processus DS sans dérive est non stationnaire car on a :
Var(yt) = Var ∑ εi = ∑ Var(εi) = ∑ σ²ε = t σ²ε .
On constate que la variance du processus DS sans dérive dépend du temps t.
Plus t →∞ et plus Var(yt) →∞
Exemple la marche aléatoire avec dérive β≠0 : Y t = Y t-1 +βt+ Ɛt
Par récurrence, on obtient (dans le cas avec dérive) : y1 = y0 + β + ε1 y2 = y1 + β + ε2 = y0 + β + ε1 + β + ε2 = y0 + 2β + ε1 + ε2
yt = y0 + βt + ∑εi
où εi ~> iid(0, σ² ε)
Le processus DS avec dérive est non stationnaire car on a E(yt) = y0 + βt qui dépend du temps t. Plus t →∞ et plus E(yt) →∞
15
b). Processus Differency Stationary (TS) : Le processus trend stationnary s’écrit :
Yt = α + βt +Ɛt
La série chronique
la constante du modèle la tendance l’erreur (bruit
blanc) Ou Ɛt représente l’erreur du modèle à la date t. Il représente une non stationnarité de nature déterministe, le processus TS est non stationnaire car :
E(Yt)=E (α + βt +Ɛt) E(Yt)=E(α ) +E (βt)+E(Ɛt) Or E (Ɛt)=0 l’espérance de l’erreur suit une loi indépendante du temps.
E(α)= α = constante sans biais Donc E(Yt)=
E (βt)=tE(β)= βt
α + βt l’espérance
dépend du temps t.
Le processus Yt peut être stationnarisé en retranchant à Yt la valeur estiméê + ̂ par la méthode des Moindres Carrés Ordinaires MCO. Ce qu’on doit faire, c’est d’éliminer la tendance. On estime les paramètres α et β par le MCO : Yt =α+βt+ Ɛt ou Yt : la variable endogène du modèle et t : la variable exogène. Or α ̂ =ȳ- β̂ t et β̂ =cov(t,Y)/var(t). On calcule les estimations de Yt par le modèle puis on les soustrait aux Yt observés. Remarque : Les propriétés de stationnarité ou de non stationnarité des séries utilisées déterminent le type de modélisation et les propriétés asymptotiques des méthodes économétriques correspondantes.
16
Conclusion Les séries temporelles sont considérées à tort comme étant une branche exclusive de l'économétrie. Cette dernière est une discipline qui est relativement jeune alors que les séries temporelles ont été utilisées bien avant en Astronomie (1906), en météorologie (1968) etc. L'objet des séries temporelles est l'étude des variables au cours du temps. Par conséquent, même s'ils n'ont pas été à l'origine de cette discipline, ce sont les économètres qui ont assuré les grandes avancées qu'à connues cette discipline .C'est pour cette raison que certaines considèrent (à tort) les séries temporelles comme étant exclusivement une branche de l'économétrie
17
Chapitre 2 : Les Processus ARIMA Il existe deux catégories de modèles pour rendre compte d'une série temporelle. Les premiers considèrent que les données sont une fonction du temps (y = f(t)). Cette catégorie de modèle peut être ajustée par la méthode des moindres carrés, ou d'autres méthodes itératives. L'analyse des modèles par transformée de Fourier est une version sophistiquée de ce type de modèle. Une seconde catégorie de modèles cherche à déterminer chaque valeur de la série en fonction des valeurs qui la précède (yt = f(yt-1, yt-2, …)). C'est le cas des modèles ARIMA ("Auto-Regressive – Integrated – Moving Average"). Cette catégorie de modèles a été popularisée et formalisée par Box et Jenkins (1976). Les processus autorégressifs (AR) supposent que chaque point peut être prédit par la somme pondérée d'un ensemble de points précédents, plus un terme aléatoire d'erreur. Le processus d'intégration (I) suppose que chaque point présente une différence constante avec le point précédent. Les processus de moyenne mobile(MA) supposent que chaque point est fonction des erreurs entachant les points précédant, plus sa propre erreur. Un modèle ARIMA est étiqueté comme modèle ARIMA (p,d,q), dans lequel : p est le nombre de termes auto-régressifs d est le nombre de différences q est le nombre de moyennes mobiles.
II.
les applications des modèles ARIMA
Repérer les tendances et cycles:
Grace aux tendances et aux cycles, il est ainsi possible d’analyser les entres diverses variables, afin d’atteindre un équilibre.
interactions
Corriger des variations saisonnières:
En comparant le niveau saisonnier entre deux années par exemple, on va pouvoir en déduire un comportement. Celui-ci apportera des informations supplémentaires indispensable afin d’affiner les valeurs saisonnières, et appréhender leurs évolutions
18
Contrôler les processus:
Il est indispensable de dresser une carte des variables ayant une forte influence sur les reste de l’économie, afin d’anticiper les évolutions possibles.
1) Modèle AR (Auto Régressif) : a) Formulation Dans le processus autorégressif d’ordre p, l’observation présente yt est générée par une moyenne pondérée des observations passées jusqu’à la p-ième période sous la forme suivante: AR ( 1 ) : yt = θ1 yt −1 + εt AR ( 2 ) : yt = θ1 yt −1 + θ2 yt −2 + εt .. . . AR (p) : yt = θ1 yt −1 + θ2 yt −2 + . . . + θp yt − p + εt (1) où θ1,θ2,. . . ,θp sont des paramètres à estimer positifs ou négatifs, εt est un aléa gaussien. Nous pouvons ajouter à ce processus une constante qui ne modifie en rien les propriétés stochastiques. L’équation (1) peut aussi s’écrire à l’aide de l’opérateur décalage D : ( 1 − θ1 D − θ2 D2 − . . . − θpDp)yt = εt
b) Caractéristiques des corrélogrammes : Il est démontré que le corrélo-gramme simple d’un processus AR (p) est caractérisé par une décroissance géométrique de ses termes de type : ρk = ρk On peut obtenir deux sortes de correlo-gramme suivant si ρ est positif ou négatif
19
2) Modèle MA (Moving Average : Moyenne Mobile) : a) Formulation Dans le processus de moyenne mobile d’ordre q, chaque observation yt est générée par une moyenne pondérée d’aléas jusqu’à la q-ième période. MA ( 1 ) : yt = εt − α1εt −1 MA ( 2 ) : yt = εt − α1εt −1 − α2εt −2 ... MA (q) : yt = εt − α1εt −1 − α2εt −2 − . . . − αqεt −q (2) où α1,α2,. . . ,αq sont des paramètres pouvant être positifs ou négatifs et εt est un aléa gaussien. L’équation (2) peut aussi s’écrire : ( 1 − α1 D − α2 D2 − . . . − αqDq)εt = yt .
Dans ce processus, tout comme dans le modèle auto-régressif AR, les aléas sont supposés être engendrés par un processus de type bruit blanc. Nous pouvons interpréter le modèle MA comme étant représentatif d’une série chronologique fluctuant autour de sa moyenne de manière aléatoire, d’où le terme de moyenne mobile car celle-ci, en lissant la série, gomme le bruit créé par l’aléa. Il est à noter qu’il y a équivalence entre un processus MA(1) et un processus AR d’ordre p infini : MA ( 1 ) = AR ( ∞ ). b) Caractéristiques des corrélo-grammes : Le corrélo-gramme simple d’un processus MA (q ) est de la forme générale : 20
C’est-à-dire que seuls les q premiers termes du corrélogramme simple sont significativement différents de0. Le corrélogramme partiel est caractérisé par une décroissance géométrique des retards. L'auto-corrélogramme de Y devient:
3) Modèle ARMA (mélange de processus AR et MA) : a) Formulation Les modèles ARMA sont donc représentatifs d’un processus généré par un combinaison des valeurs passées et des erreurs passées. Ils sont définis par l’équation : ARMA (p,q) : ( 1 − θ1 D − θ2 D2 − . . . − θpDp)yt = ( 1 − α1 D − α2 D2 − . . . − αqDq)εt Nous avons : ARMA ( 1,0 ) = AR (1 );ARMA (0 ,1 ) = MA ( 1 ). Dans le cas d’un processus ARMA ( p, q) avec constante : yt = μ + θ1 xt −1 + θ2 xt −2 + ... + θpxt − p + εt − α1εt −1 −α2εt −2 − ... − αqεt −q
21
E(xt ) = μ ( 1 − θ1 − θ2 − ... − θp) Donc connaissant l’espérance du processus (SPSS calcule directement l’espérance du processus), la constante du processus ARMA est déterminée par : L’espérance du processus est donnée1 par :
μ = E(xt ) × ( 1 − θ1 − θ2 − ... − θp)
b) Caractéristiques des corrélo-grammes : Les corrélo-grammes simples et partiels sont, par voie de conséquence, un mélange des deux corrélo-grammes des processus AR et MA purs. Il s’avère ainsi plus délicat d’identifier ces processus à partir de l’étude des fonctions d’auto-corrélation empiriques. Le tableau 2 synthétise les caractéristiques, en termes de corrélo-grammes, des processus AR, MA et ARMA.
Tableau 2 – Résumé des propriétés des fonctions d’auto-corrélation simple et partielle
22
Processus
AR(1)
AR(2)
AR( p)
MA(1)
MA(2)
MA(q)
ARMA (1, 1)
ARMA ( p, q)
Fonction autocorrélation simple Décroissance exponentielle (θ1 > 0) ou sinusoïdale amortie (θ1 < 0)
Décroissance exponentielle ou sinusoïdale selon les signes de θ1 et θ2
Décroissance exponentielle et/ou sinusoïdale
Pic significatif pour le premier retard : positif si α1 < 0 et négatif si α1 > 0. Les autres coefficients sont nuls pour des retards > 1 Pics significatifs pour le premier et second retards. Les autres coefficients sont nuls pour des retards >2 Pics significatifs pour les q premiers retards. Les autres coefficients nuls pour des retards > q Décroissance géométrique à partir du premier retard, le signe est déterminé par θ1 – α1 Décroissance exponentielle ou sinusoïdale amortie tronquée après (q – p) retards
Fonction autocorrélation partielle Pic significatif pour le premier retard: Positif si θ1 > 0 et négatif si θ1 < 0, les autres coefficients nuls pour des retards > 1 Pics significatifs pour le premier et second retards, les autres coefficients sont nuls pour des retards > 2 Pics significatifs pour les p premiers retards, les autres coefficients sont nuls pour des retards > p Décroissance exponentielle (α1 > 0) ou sinusoïdale amortie (α1 < 0) Décroissance exponentielle ou sinusoïdale selon les signes de α1 et α2
Décroissance exponentielle et/ou sinusoïdale Décroissance exponentielle (α1 > 0) ou sinusoïdale amortie (α1 < 0) Décroissance exponentielle ou sinusoïdale amortie tronquée après p – q retards
23
4) Différenciation.
L'estimation des modèles ARIMA suppose que l'on travaille sur une série stationnaire. Ceci signifie que la moyenne de la série est constante dans le temps, ainsi que la variance. La meilleure méthode pour éliminer toute tendance est de différencier, c'est-à-dire de remplacer la série originale par la série des différences adjacentes. Une série temporelle qui a besoin d'être différenciée pour atteindre la stationnarité est considérée comme une version intégrée d'une série stationnaire (d'où le terme Integrated). La correction d'une non-stationnarité en termes de variance peut être réalisée par des transformation de type logarithmique (si la variance croît avec le temps) ou à l'inverse exponentielle. Ces transformations doivent être réalisées avant la différenciation. Une différenciation d'ordre 1 suppose que la différence entre deux valeurs successives de y est constante. yt – yt-1 = μ + ε t
μ est la constante du modèle, et représente la différence moyenne en y. Un tel modèle est un ARIMA (0,1,0). Il peut être représenté comme un accroissement linéaire en fonction du temps. Si μ est égal à 0, la série est stationnaire. Les modèles d'ordre 2 travaillent non plus sur les différences brutes, mais sur les différences de différence. La seconde différence de y au moment t est égale à (yt -yt-1 ) - (yt-1 - yt-2), c'est-à dire yt – 2yt-1 + yt-2. Un modèle ARIMA (0,2,0) obéira à l’équation de prédiction suivante : yt – 2yt-1 + yt-2 = μ + ε t ou encore:
yt = μ + 2yt-1 - yt-2 + ε t
24
5) Signification des paramètres des modèles ARIMA L'objectif essentiel des modèles ARIMA est de permettre une prédiction de l'évolution future d'un phénomène. Son développement dans le domaine de l'économétrie est basé sur ce principe. On en verra plus loin une illustration.
Un autre intérêt, peut-être plus essentiel en ce qui concerne la recherche scientifique, est de comprendre la signification théorique de ces différents processus. Il est clair cependant que cette interprétation dépend de la nature du phénomène étudié, et des modèles dont le chercheur dispose pour en rendre compte. - Un processus non différencié à bruit blanc (ARIMA (0,0,0) suggère des fluctuations aléatoires autour d'une valeur de référence. Cette valeur de référence peut être considérée comme une caractéristique stable du système étudié (trait de personnalité, mémoire, capacité stabilisée, etc..) - Un processus de moyenne mobile suggère que la valeur de référence évolue d'une mesure à l'autre. Plus précisément, la valeur de référence est fonction de la valeur de référence précédente et de l'erreur ayant entaché la mesure précédente. - Un processus auto-régressif suggère que le phénomène étudié n'est pas déterminé par une valeur de référence. C'est la performance précédente (ou les performances précédentes) qui déterminent entièrement la performance présente.
III.
METHODOLOGIE DE BOX ET JENKINS
La méthodologie de BOX JENKINS pour analyser une série chronologique représente la réponse statistique à ce problème. Il s’agit de choisir dans la vaste classe des modèles ARIMA le modèle reproduisant au mieux la série étudiée. La panoplie statistique habituelle peut s’appliquer : estimation des paramètres du modèle, tests d’hypothèse, analyse des résidus, identification d’observations atypiques, prévision. Lorsque les données ont une structure probabiliste suffisamment stable au cours du temps et sont assez nombreuses pour permettre une estimation de cette structure, l’approche BOX JENKINS permet d’obtenir les prévisions les plus précises. La théorie sous-jacente à la méthodologie de BOX JENKINS est complexe, elle est cependant indispensable à une bonne utilisation des logiciels. Il faut avoir en mémoire les propriétés des modèles ARIMA pour pouvoir choisir le modèle adapté aux données. Nous Présentons donc les résultats théoriques essentiels dans une première partie.
L’objectif de cet exposé est de permettre une bonne utilisation des logiciels d’analyse d’une série chronologique à l’aide de la méthode de BOX JENKINS. 25
Les étapes de la méthode de BOX-JENKINS
1-
Identification :
On suppose qu’on a éliminé les composantes saisonnières de la série chronologique, car ils nécessitent un autre ensemble de paramètres.
Il faut identifier la décomposition retenue de la série chronologique selon les 3 types de processus en spécifiant les paramètres p,d,q du modèle ARIMA(p,d,q) .Avant d’identifier ces paramètres, il convient tout d’abord vérifier la stationnarité de la série. Un processus est dit faiblement stationnaire si son espérance et sa variance sont constantes et sa covariance ne dé pend que de l’intervalle de temps. Si la série n’est pas stationnaire c.à.d. si la moyenne de la série varie sur le court terme ou que la variabilité de la série est plus élevée sur certaines périodes que sur d’autres, Il faut les rendre stationnaire. Pour les rendre stationnaire, la transformation la plus courante est la différenciation de la série c.à.d. chaque valeur de la série est remplacée par la différence de cette valeur et celle qui la précède. La stationnarité une fois obtenue, l’étape suivant e consiste à analyser le graphe de la fonction d’auto-corrélation (FAC) et celui d’auto -corrélation partielle (FAP) pour déterminer (p,d,q) du modèle. Le paramètre d est fixé par le nombre de différenciation effectuées pour rendre la série stationnaire, généralement d n’excède pas 2. Une fois ce paramètre fixé, il convient de spécifier l’ordre p du processus AR et q du processus MA, les corrélo grammes (graphes FAC et FAP) permettent selon leurs aspects d’identifier correctement les paramètres p et q, gén éralement ces valeurs n’excédent pas 2 eux aussi. La fonction d’auto -corrélation (FAC) constitue l’ensemble des auto -corrélations de la série :
Ρk = corr (Yt, Yt-k) Calculée pour des décalages d’ordre k, le décalage maximum de k admissible pour que le coefficient d’auto -corrélation ait un ses est k = n /3 (avec n : le nombre d’observation temporelle). La fonction d’autocorrélation partielle (FAP) est constituée par l’ensemble des auto corrélations partielles, il mesure la corrélation entre les variables Yt et Yt-k. Les corrélo-grammes affichent les intervalles de confiance à 95% qui permettent de déterminer quels sont les coefficients statistiquement significatifs à prendre en compte.
26
L’interprétation des corrélo -grammes pour la spécification des processus AR et MA est généralement gouvernée par les règles suivantes : les processus autorégressifs d’ordre p, AR(p), présentent une fonction d’auto-corrélation dont les valeurs décroissent exponentiellement avec des alternances possibles de valeurs positives et négatives ; leur fonction d’auto -corrélation partielle présente exactement p pics aux p premières valeurs du corrélo-gramm e d’auto-corrélation partielle. les processus de moyenne mobile d’ordre q, MA(q), présentent exactement q pics aux q premières valeurs du corrélo-gramme de la fonction d’auto-corrélation et des valeurs exponentiellement décroissantes de la fonct ion d’auto-corrélation partielle. si la fonction d’auto -corrélation décroît trop lentement, on conseille de différencier la série av ant l’identification du modèle.
Généralement : L’identification consiste à spécifier les trois paramètres p; d; q du modèle ARIMA (p,d,q). La stationnarité du modèle est d’abord testée par étude graphique, de corrélo-gramme et test de dickey fuller augmenté. Si la série n’est pas stationnaire, il convient de la transformer stationnaire. L’ordre d’intégration "d " est le nombre de fois que la série initiale a été différenciée pour obtenir la stationnarité. Les auto-corrélations et les auto*corrélations partielles permettent d’estimer les ordres p et q pour les modèles AR et MA : 1. Les auto-corrélations partielles sont nulles au delà de l’ordre p. 2. Les auto-corrélations sont nulles au dela de l’ordre q.
27
Test de Dickey Fuller simple :
Dickey et Fuller sont les premiers à fournir un ensemble d’outils statistiques formels pour détecter la présence d’une racine unitaire dans un processus autorégressif du premier ordre, ce test permet de tester l’hypothèse.
H0 : Le modèle a une racine unitaire, H1 : le modèle n’a pas de racine unitaire.
Ce test est regroupé en 4 cas :
Pour simplifier, on écrira :
Nous pouvons résumer la stratégie d’ADF à partir de schéma suivant :
28
29
Estimation
2-
des
paramètres
d’un
modèle
ARIMA
L’estimation des paramètres d’un modèle ARIMA (p,d,q) lorsque p; d; q sont supposés connus peut se réalise par différentes méthodes dans le domaine temporel, et parmi ces méthodes on a : 1. Maximum de vraissemblance. 2. Dans le cas q = 0, on utilise les équations de Yule Walker. Plusieurs logicielles informatiques impliquent ces méthodes d’estimation d’un modèle ARIMA (Eviews, Spss,...), notamment les méthodes du maximum de vraissemblance.
Critères de choix des modèles
Souvent il n’est pas facile de déterminer un modèle unique. Le modèle qui est f inalement choisi et celui qui minimiser l’un des critères à partir T observations. Critère standard •
L’erreur absolue moyenne (Mean Absolute Error)
•
L’erreur quadratique moyenne (Mean Squared Error) :
•
La racine carrée de l’erreur quadratique moyenne (Root Mean Square Error)
30
•
Ecart absolu moyen en pourcentage (Mean Absolute Percent Error) :
Plus la valeur de ces critères est faible, plus le modèle estimé est proche des observations.
3-
Le diagnostic :
Dans cette étape finale du triptyque identification-estimation-diagnostic de la méthode de Box Jenkins, les principales vérifications à effectuer portent sur les éléments suivants : les valeurs des fonctions d’auto -corrélation et d’auto-corrélation partielle de la
série des résidus doivent être toutes nulles ; si les auto- corrélations d’ordre 1 ou 2 diffèrent significativement de 0, alors la spécification (p,d,q) du modèle ARIMA est probablement inadaptée. les résidus ne doivent présenter aucune configuration déterministe : leurs
caractéristiques doivent correspondre à celle d’un bruit blanc. Une statistique couramment utilisée pour tester un bruit blanc est le Q’ de Box et Ljung
31
4-
La prévision :
C’est la dernière étape de la méthodologie de Box et Jenkins. Connaissant l’horizon de prévision (h), la prévision faite en T pour la date T+h est donnée par : Cette expression représente la meilleure prévision de la série Y conditionnellement { l’ensemble d’information disponible { la date t. Ou encore : Le terme signifie que la valeur de Yt est prévue sur base des observations passées Yt-1, Yt-2, … en utilisant la valeur estimée des coefficients. Notez que la prévision et l’estimation des effets causaux sont des objectifs très différents.
Pour un modèle de prévision, par exemple : - Le coefficient de détermination corrigé a beaucoup d’importance, alors que le biais d’omission n’est pas vraiment un problème. - On ne cherche pas {interpréter les coefficients d’un modèle de prévision (c’est ce que l’on qualifie également d’économétrie sans théorie), ce qui importe c’est la validité externe du modèle. - Le modèle estimé sur des données du passé (prédiction) doit être valable dans le futur (prévision).
Résumé : La méthodologie de Box et Jenkins permet de déterminer le modèle ARIMA adéquat pour la modélisation d’une série chronologique, donc il s’agit de construire un modèle restituant le mieux possible le comportement d’une série temporelle. Cette méthodologie suggère quatre étapes : l’identification, l’estimation, la validation et la prévision du modèle.
32
33
Conclusion Parmi ses principaux objectifs figurent la détermination de tendances au sein de ces séries ainsi que la stabilité des valeurs (et de leur variation) au cours du temps. C'est de la déception des prévisions issues des modèles structurels d'inspiration keynésienne qu'est née la théorie des séries temporelles telles qu'on l'a connait aujourd'hui. Et sur ce point, c'est la publication de l'ouvrage de Box et Jenkins en 1970 qui a été décisive. En effet, dans l'ouvrage les deux auteurs développent le très populaire modèle ARMA (Auto Regressive Moving Average).
34
Chapitre 3 Partie empirique I.
Application de la méthode de Box-Jenkins (Modélisation ARIMA) sur SPSS
Nous intéressons à appliquer la méthode de Box-Jenkins sur des données réel noté « PSIA » qui représente la quantité vendues des Profit Sharing Investissement A ccount (comptes d’investissement MOUDARABA et MOUCHARAKA ), les données considérées sont mensuelles et la période retenue pour l’étude est de janvier 2011 à août 2015. •
Une série chronologique assez longue
{ Y 1, Y 2, Y 3…..., Y n } (n
56).
Objectif : Prévoir la quantité vendue des PSIA de septembre 2015 jusqu'à aout 2020. Tableau : Moisn Années janvier fevrier mars avril mai juin juillet août septembre octobre novembre décembre
2011 582 510 573 417 545 625 656 554 545 593 529 592
2012 606 555 588 623 673 638 706 619 661 707 707 738
2013 776 709 769 729 651 749 771 744 758 777 730 778
2014 875 786 912 992 871 901 925 854 911 911 867 959
2015 890 828 926 936 890 916 900 892
35
Avant de construire le modèle de prévision, nous commençons par l’analyse de graphique de la série puis l’analyse de la stationnarité à l’aide du diagramme séquentiel.
On remarque que le type des données est mensuel donc il nous faut éliminer l’effet saisonnier.
1ere étape : Etudier la stationnarité
Analyse
Prévision
Diagrammes séquentiels
Résultat obtenu :
36
Interprétation : On remarque a travers le diagramme séquentiel que notre série n’est pas stationnaire parce qu’elle est générer par une volatilité temporelle d’une part d’autre par on remarque que la série ne contient pas une moyenne constante E(Yt)= µ variance n’est pas constante var(Yt)= σ ² t
et son
Z.
2eme étape : Vérification de la non stationnarité par l’analyse des autocorrélogrammes FAC et FACP.
37
Analyse
Prévisions
autocorrélations
Résultat obtenu :
Fonction d’auto-corrélation FAC
Fonction d’auto-corrélation partielle FACP:
38
Interprétation : Le corrélo-gramme du FAC diminue lentement vers 0 qui représente la valeur prise par la FAC en fonction de nombre de retard Remarque : l’auto-corrélogramme mesure la corrélation de la série avec elle-même décalée de k période, dans le cas ou l’autocorrélogramme n’est pas décroissant on dis que il y a un absence de Cut off c.-à-d. la série n’est pas stationnaire en tendance . Pour le FACP on voit un pic au niveau du 1 er retard d’auto-corrélogramme partiel, on dit que notre série est générée par un modèle AR. 3eme étape : Rendre la série stationnaire la méthode de différentiation, processus Trend Stationnary DS. Cette méthode permet de supprimer les tendances et saisonnalité de notre série sans l’estimer d=1 ARIMA
(0, 1,0).
39
Analyse
Prévisions
diagrammes séquentiels
Résultat obtenu :
40
Interprétation : D’après le diagramme séquentiel en remarque que notre série est devienne stationnaire ; elle est généré par une moyenne nulle E(Yt)= µ=0 et une variance constante var(Yt)= σ ². La serie fluctue autour de sa moyenne nulle et sa variance constante. 4eme étape : Analyse d’auto-correlogramme simple et partiel FAC et FACP
pour déterminer l’ordre p,d,q de processus ARIMA
Analyse
Prévisions
Autocorrélation
la série DPSIA est stationnaire on cherche un modèle ARIMA (p,d,q) qui représente cette série pour identifier le processus qui représente au mieux notre série , on examine les auto-corrélations simple et partiel ( FAC et FACP) pour déterminer le nombre de retards p de processus AR(p) et q de processus MA(q).
Détermination de moyenne mobile MA q :
Résultat obtenu
41
Interprétation : Les auto-corrélations simples qui ne dépassent pas les limites de seuil de confiance α=0,05 sont considérées comme nulles et par conséquent doivent être négligées. D’après le correlo-gramme d’auto-corrélation simple FAC on voit quatre pics qui sort de l’intervalle de confiance Lag(1,3,6,9), alors on choisis les pics qui minimisent les critères d’akaike et schwarz . On constate qu’on est devant un processus ARIMA d’ordre q = 1 avec autocorrélation de -0.410 processus MA(1).
42
Détermination d’ Auto Régressif AR p:
Pour déterminer « p » on utilise le corrélo- gramme d’auto-corrélation partielle FACP.
Interprétation : Les auto-corrélations partiels qui ne dépassent pas les limites de seuil de confiance α=0,05 sont considérées comme nulles et par conséquent doivent être négligées. D’après le correlo-gramme d’auto-corrélation partie lFACP on voit trois pics qui sort de l’intervalle de confiance Lag(p=1p=,2,p=5), alors on choisis les pics qui minimisent les critères d’akaike et schwarz . On choisit toujours l’ordre le plus grand avec la valeur min . On constate qu’on est devant un processus ARIMA d’ordre p= 2 et p=5 sans p=1 avec auto-corrélation de -0.438 et -0.293 processus AR(2) et AR(5). On peut conclure de cette étape que c’est un processus ARIMA (2,1, 1).et ARIMA (5, 1,1)
43
5eme étape : Estimation des paramètres du modèle pour le modèle ARIMA(2,1,1)
Analyse
Crée un modele
Prévisions
Il est nécessaire de vérifier l’hypothèse d’un bruit blanc pour les résiduels. Cette vérification se fait par le test de Ljung-Box. L’hypothèse du bruit blanc est jugée acceptable si sig. est supérieure à 0,05.
Estimation des paramètres
Modèle
Nombre de
Statistiques de
Ljung-Box Q(18)
Nombre de
variables
qualité
valeurs
indépendantes
d'ajustement du
éloignées
modèle R-deux
Statistiques
DDL
Sig.
stationnaire Qt PSIA-Modèle_1
0
,328
13,740
15
,545
0
Dans notre cas 0,545 est supérieur à 0,05 donc l’hypothèse du bruit blanc est validé. Cette étape consiste essentiellement à juger si le modèle choisit est acceptable. Pour se faire deux méthodes sont possible :
44
1ere méthode : analyse de corrélo-gramme des FAC résiduel et des
FACP résiduel
Interprétation : Tous les pics des FAC et FACP résiduels sont à l’intérieur de l’intervalle de confiance donc l’hypothèse de Bruit Blanc est significative , le modèle étudier est acceptable . 2eme méthode : analyse du tableau des paramètres du modèle ARIMA
45
Estimation Constante
SE
t
Sig.
6,239
3,942
1,583
,120
Lag 1
-,721
,269
-2,679
,010
Lag 2
-,492
,147
-3,347
,002
,310
-,535
,595
AR Qt PSIA-Modèle_1
Qt PSIA
Aucune transformation
Différence MA
1
Lag 1
-,166
On choisis la signification qui est proche de 0
A partir de ce tableau on remarque qu’in y a deux paramètres non significatifs qui doivent être supprimés afin d’adapter le modèle de telle sorte a ce q u’il soit
significatif (p=1 et q=1). AR(2) et MA(0) modèle ARIMA(2,1,0).
Estimation des paramètres du modèle pour le modèle ARIMA(5,1,1)
Méthode : analyse du tableau des paramètres du modèle ARIMA(5,1,1,)
Paramètres du modèle ARIMA
Estimation Constante
Qt PSIA-Modèle_1
Qt PSIA
Aucune transformation
AR
t
Sig.
6,925
2,350
2,947
,005
Lag 1
-,726
,393
-1,849
,071
Lag 2
-,603
,266
-2,270
,028
Lag 3
-,323
,262
-1,234
,223
Lag 4
-,418
,163
-2,568
,013
Lag 5
-,364
,150
-2,420
,019
,424
-,258
,798
Différence MA
SE
Lag 1
1 -,109
On choisis la signification qui est proche de 0
A partir de ce tableau on remarque qu’in y a cinq paramètres non significatifs qui doivent être supprimés afin d’adapter le modèle de telle sorte a ce q u’il soit
significatif (p=1,2,3,5 et q=1). AR(2) et MA(0) modèle ARIMA(4,1,0).
46
6eme étape : équation du modèle ARIMA (5, 1, 0)
Yt = -0,418 (Yt-4 – 6,925) -0,364(Y t-5 – 6,925) + 6,925 Yt =- 0,418 Yt-4 – 0,364 Yt-5 + 12, 34035
5ème étape : graphe de la série et prévisions
Ajustement : Les prévisions du modèle pour la période d’estimation ; UCL et LCL : Les intervalles de confiance pour la période de prévision.
47
Le tableau des prévisions s’affiche dans la feuille des résultats.
Conclusion Notre travail est basé sur l’application de la méthode de Box-Jenkins sur des données réelles noté « PSIA » qui représente la quantité vendues des produits des comptes d’investissement (MOUDARABA ET MOUCHARAKA), avant de prévoir, en utilisant les modèles ARIMA , à l’aide de test d’ADF, les auto-corrélation, les auto-corrélation partiels et les critères d’information notamment AIC et BIC. On peut conclure à des valeurs prévisionnelles et des résultats satisfaisants et homogènes qui nous confortent dans notre conviction que la méthode utilisée est la plus adéquate pour effectuer notre étude.
48