Université Catholique de l’Afrique de l’Ouest (UCAO) Facu Faculté lté des des Scien Sciences ces Econ Econom omiq ique ues s et de Gest Gestio ion n
Année Année Universita Universitaire ire 2013/201 2013/2014 4
Master 2 en Monnaie – Finance – Banque (MFB) Volume Volume horair horaire e : 40 40 Logici Logiciels els : Evie Eviews ws et Stata Stata
Par Fodiyé Fodiyé Bakary Bakary Doucou Doucouré ré
Maître Maître en Econom Econométr étrie ie Docteur Docteur en Statistiqu Statistique e Facu Faculté lté des des Scien Sciences ces Econ Econom omiq ique ues s et de Gest Gestio ion n Univ Univers ersité ité Cheik Cheikh h Anta nta Diop Diop de Dakar Dakar Email : fodiye@refer.
[email protected] sn
Juin Juin 2014 2014 1
Table Ta ble de des s ma mati tièr ères es Introduction …….…………………………………………………………………….………...5
1. Qu’est Qu’est - ce que l’économét l’économétrie rie ? ………………………… ……………………………………… …………………………… ……………………..6 ……..6 2. Les types de données données …………………………… ………………………………………… …………………………… ……………….…..……… .…..………8 8 3. Les Les différents différents types types d’horizons d’horizons ………………………… ………………………………………… ……………………….….… ……….….………8 ……8 4. Les différen différentes tes étapes étapes de la démarc démarche he économét économétriq rique ue ……………… ……………………… ……………9 ……9
Chap Ch apitr itre e 1 : Le mo modè dèle le lin linéa éair ire e gé géné néra rall
Objectifs Objectifs pédagogi pédagogiques ques du chapitre chapitre 1………………………… 1…………………………….……….. ….………..………….…… ………….…….12 .12 1. Exposé du problème ……………………………………………………………….…………13 2. Notation Notation matricielle matricielle du modèle modèle linéaire linéaire général général …………………………… …………………………………….…… ……….……14 14 3. Estimation Estimation et propriétés propriétés des estimateurs estimateurs …………………………… …………………………………….….… ……….….………16 ……16 3.1 Hypothèses d’application de la méthode des moindres carrés ordinaires ………………………………………………………………….…….……16 3.1.1 Hypothèses structurelles …………………………………………….……16 3.1.2 Hypothèses Hypothèses stochastiques ……………………………………….………16 3.2 Estimation des paramètres par la méthode des moindres carrés ordinaires ……………………………………………………………..………17 4. Interprétat Interprétation ion économiqu économique e des paramètres paramètres ………………………… ……………………………………….. ……………..……19 ……19 4.1 Modèle sans logarithm logarithme e ……………………………… …………………………………………… …………………………1 ……………19 9 4.2 Modèle Modèle log-linéair log-linéaire e …………………………… ………………………………………… ………………………..… …………..…………20 ………20 4.3 Modèle Modèle semi logarithmiq logarithmique ue …………………………… …………………………………………… ………………….………2 ….………21 1 5. Théorème Théorème de Gauss Gauss et Markov Markov …………………………… …………………………………………… …………………..………… …..…………21 21 6. Equation Equation d’analyse d’analyse de la varian variance ce et et qualité qualité d’un ajustemen ajustementt ………..…………… ………..………………22 …22 6.1 Equation Equation d’analyse d’analyse de la variance variance ………………………… ………………………………………… ……………….…22 .…22 6.2 Qualité Qualité d’un ajustement ajustement …………………………… ………………………………………… …………………….……… ……….………23 23 6.2.1 Coefficien Coefficientt de déterminatio détermination n ………………………… ………………………………….…… ……….………23 …23 6.2.2 Coefficien Coefficientt de déterminatio détermination n corrigé corrigé …………………………… …………………………………23 ……23 6.2.3 Interprétati Interprétation on du coefficien coefficientt de déterminati détermination on ……………..………2 ……………..………24 4 7. Tests économétr économétriques iques ………………………… ………………………………………… ……………………………… …………………….……2 …….……24 4 7.1 Test d’hypothès d’hypothèses es …………………………… …………………………………………… …………………….…….… …….…….………24 ……24 7.1.1 Définitions …………………………………………………..…….………24 7.1.2 Types d’erreurs d’erreurs ……………………………… ……………………………………………… ………………….………2 ….………25 5 7.1.3 7.1.3 Niveau Niveau de signifi significa cation tion d’un d’un test test ……………… ……………………… ……………… ……………2 ……25 5 2
7.2 Test Test du coeffic coefficie ient nt de corrélati corrélation on linéair linéaire e ……………… ……………………… ………….… ….……25 …25 7.3 Test de normalité normalité de Jarque-Bera Jarque-Bera …………………………… ……………………………………...… ………...……29 …29 7.3.1 7.3.1 Moment Moment centré centré d’ordr d’ordre e r ……………… ……………………… ……………… ……………… ……………2 ……29 9 7.3.2 Test de Jarque-Ber Jarque-Bera a …………………………… ……………………………………….…… ………….…….…..30 .…..30 7.4 Test Test de Student Student …………………………… …………………………………………… ……………………………… ……………….….…32 .….…32 7.4.1 7.4.1 Compar Comparais aison on d’un d’un paramè paramètre tre ai à une valeur valeur fixée a …………32 7.4.2 Comparais Comparaison on d’un paramètre paramètre a i à la valeur a 0 …………………33 7.4.3 7.4.3 Test Test de l’hypo l’hypothè thèse se la s …………………………………………34 7.4.4 Intervalle de confiance pour pour les paramètres ai ………………………34 7.5 Test de significati significativité vité globale globale d’une régressi régression on ………………………..… ………………………..… 39 7.6 Tests d’autocorré d’autocorrélation lation des erreurs erreurs …………………………… ………………………………….……… …….………41 41 7.6.1 7.6.1 Défini Définition tion et cause causess de l’auto l’autocor corrél rélati ation on des erreur erreurss …….……4 …….……41 1 7.6.2 Estimation Estimation en présence présence d’autocor d’autocorrélati rélation on des erreurs erreurs ….………41 ….………41 7.6.3 Tests d’autocor d’autocorrélatio rélation n des erreurs erreurs ………………………..…… ………………………..………41 …41 7.6.3.1 7.6.3.1 Test de Durbin-Wats Durbin-Watson on …………………………… …………………………….………41 .………41 7.6.3.2 7.6.3.2 Test de Breusch-God Breusch-Godfrey frey ………………………….… ………………………….………43 ……43 7.6.3.3 7.6.3.3 Procédures Procédures d’estimatio d’estimation n en cas d’autocorr d’autocorrélatio élation n des erreurs ………………………………………..…………44 7.7 Tests d’hétéroscé d’hétéroscédasti dasticité cité des erreurs erreurs ……….…………….…… ……….…………….……….………4 ….………46 6 7.7.1 Définition …………………………………………………………………46 7.7.2 Tests de détection détection de l’hété l’hétérosc roscédas édasticité ticité des erreurs erreurs …..………47 …..………47 7.7.2.1 7.7.2.1 Test de White ………………………… …………………………………….…… ………….…………47 ……47 7.7.2. 7.7.2.2 2 Test Test ARCH ARCH ……………… ……………………… ……………… ……………… ……………… …………48 …48 7.7.3 Procédure Procédure d’estimatio d’estimation n en en présence présence de l’hétérosc l’hétéroscédast édasticité icité des erreurs …………………………………………………..…………49 7.8 Test Test de spécif spécifica icatio tion n de Ramse Ramseyy ……………… ……………………… ……………… ……………… ……………5 ……51 1 7.9 Tests Tests de stabilité stabilité …………………… …………………………………… ……………………………. …………….…………..… …………..…52 52 7.9.1 7.9.1 Test Test de Chow Chow ……………… ……………………… ……………… ……………… ………….…… ….…………… ……… 52 7.9.2 Tests Cusum Cusum de Brown-Durb Brown-Durbin-Ev in-Evans…… ans…………………… ………………….……54 ….……54 8. La prévis prévision ion à l’aide l’aide du modèle modèle linéai linéaire re généra générall ……………………………… 58 Application économétrique ……..………………………………………………………….…62 Chap Ch apit itre re 2 : Le Les s
modè mo dèle les s
à dé déca cala lag ges tempo tempore rels ls
Objectifs Objectifs pédagogi pédagogiques ques du chapitre chapitre 2………………………… 2…………………………………..…… ………..………..………7 …..………79 9 1. Introduction Introduction …………………………… ………………………………………… …………………………… ……………………………. ……………..………80 .………80 2. Pourquoi Pourquoi introduire introduire des retards retards ? Quelques Quelques exemples… exemples……………… ………………..………… …..…………80 80 3. Les Les modèles modèles linéaires linéaires autorégres autorégressifs sifs …………………………… ………………………………….……… …….………….……80 ….……80 3.1 Formulation Formulation générale générale …………………… ………………………………… …………………………… …………………………80 …………80 3.2. Modèle Modèle autorégre autorégressif ssif d’ordre d’ordre un …………………………… …………………………………….…… ……….………80 …80 3.3 Elasti Elasticit cités és de court court et long long termes termes ……………… ……………………… ……………… ……………… …………81 …81 3.4 Tests Tests d’auto d’autocor corrél rélatio ation n des erreur erreurss et méthod méthodes es d’esti d’estimat mation ion …………81 …………81
3
4. Les modèles à retards échelonnés …………………………………………….………81 4.1 Formulation générale ………………………………………………….…………81 4.2 Détermination du nombre de retards ………………………….……..………82 4.2.1 Critère de Akaike …………………………………….…………...……82 4.2.2 Critère de Schwarz ……………………………………..……….……83 Application économétrique 1 : Modèle linéaire autorégressif ………………….……...84 Application économétrique 2 : Modèle à retards échelonnés ……………………..….88 Chapitre 3 : La cointégration et le modèle à correction d’erreur
Objectifs pédagogiques du chapitre 3………………………………….…….….…………91 1. Introduction ………………………………………………………………………..…………92 2. Tests de stationnarité ………………………………………………………..……………92 2.1 Stationnarité ……………………………………………………………… 92 2.1.1 Définition ………………………………………………………….………92 2.1.2 Exemples de processus stationnaire …………………………... 92 2.2 Tests de stationnarité ……………………………………………………………93 2.2.1 Test de Dickey-Fuller Augmenté ……………………………….……93 2.2.2 Test de Phillips Perron …………………………………………………94 3. Variables intégrées d’ordre d …………………………………………………… 95 3.1 Opérateurs décalage et différence ………………………………….…………95 3.1.1 Opérateur décalage ……………………………………………...………95 3.1.2 Opérateur différence ……………………………………………..…….…95 3.2 Notion d’intégration ……………………………………………………..…………95 3.2.1 Intégration …………………………………………………..……………95 3.2.2 Quelques définitions ………………………………………..……………95 3.2.3 Exemple de processus non stationnaires ………………..…………96 3.2.4 Propositions ………………………………………………………..………98 4. Cointégration et modèle à correction d’erreur ……………………………..…… 99 4.1 Le problème des régressions fallacieuses ……………………………… 99 4.2 Définition de la cointégration …………………………………..……… 100 4.3 Tests de cointégration ……………………………….………………… 101 4.3.1 Test de Engle et Granger …………………………….……… 101 4.3.2 Test de cointégration de Johansen ……………………….………103 4.4 Modèle à correction d’erreur …………………………………………..………105 4.5 Conclusion ……………………………………………………………….………106 Application économétrique…………………………………………………..……..…………107 Bibliographie ……………………………………………………………….………………………….……….123
4
Introduction Objectifs pédagogiques de l’introduction
Lorsque vous aurez lu l’introduction, vous pourrez :
définir correctement l’économétrie ; savoir quelques interrogations auxquelles l’économétrie permet de répondre ;
définir les types de séries temporelles ;
distinguer les différents types d’horizon de prévision ;
indiquer les différentes étapes dans la construction d’un modèle économétrique.
5
Toute faute humaine est impatience, un arrêt prématuré du méthodique, une apparente fixation de ce qui paraît être. F. Kafka
L’homme approche la vérité inaccessible par une succession d’erreurs. A. Huxley
Le travail mental de prévision est une des bases essentielles de la civilisation. Prévoir est à la fois l’origine et le moyen de toutes les entreprises, grandes ou petites. P. Valéry
Tout le monde sait et dit que celui qui observe sans idée, observe en vain. Alain
Les machines un jour pourront résoudre tous les problèmes, mais jamais aucune d'entre elles ne pourra en poser un ! Albert Einstein
La théorie sans la pratique est absurde, la pratique sans la théorie est aveugle. E Kant
1. Qu’est - ce que l’économétrie ?
L’économétrie est la mesure des phénomènes économiques. Elle constitue une branche de la science économique qui fait appel conjointement à la théorie économique, la statistique, les mathématiques et l’informatique. L’économétrie, en tant que discipline, est née en 1930 lors de la création de la Société d’économétrie par Ragnar Frisch, Charles Roos et Irving Fisher. L’économétrie est un ensemble de méthodes statistiques appliquées à l’économie. Elle a deux fonctions essentielles : i) tester les théories économiques ou, plus modestement certaines assertions de la théorie économique; ii) évaluer les paramètres en jeu dans les relations économiques. L’économétrie est une branche de la science économique consistant à établir des lois ou à vérifier des hypothèses à partir de données chiffrées tirées de la réalité. Il est à peu près impossible de faire de la recherche en sciences économiques sans se trouver devant la nécessité de lire ou de réaliser des travaux d’économétrie à un moment ou à un autre.
6
C’est la raison pour laquelle, dans tous les pays, la formation des économistes suppose l’acquisition des techniques économétriques. A titre d’illustration sur les derniers Prix Nobel d’Economie, trois furent attribués à des économètres : Heckman et McFadden en 2000 (économétrie des variables qualitatives), Engle et Granger en 2003 (économétrie des séries temporelles et économétrie financière) et Sargent et Sims en 2011 (recherches sur la cause et l’effet en macroéconomie, modèles VAR, …). De fait donc, l’économiste ne doit-il pas être aussi économètre ? John Maynard Keynes, dans les années 1930, écrivait : « L’économiste doit être mathématicien, historien, philosophe, homme d’Etat, … » S’il faut transférer la pensée de Keynes aujourd’hui, n’aurait-il pas lui-même ajouté l’économiste doit être économètre ? L’économétrie est donc une discipline dont le contenu opérationnel est très important. A titre d’exemple, l’économétrie peut permettre de quantifier un phénomène, d’établir une relation entre plusieurs variables, de valider ou d’infirmer empiriquement une théorie, d’évaluer les effets d’une mesure de politique économique, etc. L’économétrie peut permettre de répondre à des interrogations comme :
Les termes de l’échange sont-il un instrument de la valeur des taux de change ? D’autres variables économiques ont-elles plus d’impact ? La théorie de la parité des pouvoirs d’achat est-elle vérifiée empiriquement ? Le CFA est-il surévalué ? Si oui, quel est le pourcentage de surévaluation ? En d’autres termes, quelle est la valeur d’équilibre du CFA ? Une hausse de l’inflation permet-elle de réduire le chômage ? Y a t-il une convergence des PIB par tête au niveau international ? Quel est l’impact d’une hausse de 10% du revenu sur la consommation d’un ménage ? Cet impact diffère t-il selon le pays de résidence du ménage ? etc. De manière générale, pour répondre à ces interrogations, l’économètre devra construire un modèle visant à mettre en relation les diverses variables d’intérêt. L’économétrie peut en effet être appliquée à toutes les branches de l’économie : la macroéconomie, la finance, l’économie du travail, l’économie industrielle, l’économie publique, etc. Les techniques économétriques peuvent aussi être mobilisées dans d’autres disciplines, telles que la gestion (notamment en marketing), la biologie, l’agronomie, la science politique, la médecine, la sociologie, etc. Les techniques économétriques sont régulièrement utilisées dans les banques, les ministères, les agences gouvernementales, les grandes entreprises, les institutions internationales, la recherche agronomique, la finance, etc. 7
2. Les types de données
Nous distinguons plusieurs types de données selon que le modèle est spécifié en :
Y t t 1,2, , T :
c’est le cas le plus fréquent en économétrie, il s’agit de variables observées à intervalles de temps réguliers Série temporelle
Exemple : Le Produit Intérieur Brut (PIB) de la Guinée, exprimé en dollars courants depuis 1980 jusqu’en 2007.
Yi
instant et spécifiques
i 1,2, , n
: les données sont observées au même concernent les valeurs prises par la variable pour un groupe d’individus
Coupe instantanée
Exemple : La consommation observée en 2012 pour les chefs de ménages guinéens.
Yi t i 1,2,, n ; t 1,2,, T : la
variable représente les valeurs prises par un échantillon d’individus sur une période donnée ; Panel
Exemple : Le Produit Intérieur Brut (PIB) des pays de l’UEMOA, exprimé en francs courants depuis 1980 jusqu’en 2007. Cohorte : très proches des données de panel, les données de cohorte se distinguent de
la précédente par la constance de l’échantillon, les individus sondés sont les mêmes d’une période sur l’autre. 3. Les différents types d’horizons
Il est classique de distinguer les prévisions en fonction de leur terme. En fait, quatre horizons sont généralement mis en scène i)
Le très court terme : des dernières observations jusqu’à deux trimestres au-delà de la date courante.
ii)
Le court terme : de six mois à deux ans ;
iii)
Le moyen terme : généralement entre deux et cinq ans, quelquefois dix ans ;
iv)
Le long terme : au-delà de cinq à dix ans.
Les techniques économétriques sont adaptées pour des prévisions à moyen ou long termes. Les techniques statistiques (méthodes de lissage, méthode de Box-Jenkins, …) sont adaptées pour des prévisions à court ou moyen termes. 8
4. Les différentes étapes de la démarche économétrique
La construction d’un modèle économétrique s’effectue selon plusieurs étapes. Etape 1 : Choix de la variable dépendante (ou variable expliquée ou encore variable endogène.
La variable endogène est notée
Y .
Etape 2 : Choix des variables indépendantes (ou variables explicatives ou encore variables exogènes)
Les variables exogènes sont notées : X 1 , X 2 , ,
k
.
Le modélisateur peut s’aider de la théorie économique pour choisir les variables explicatives. Etape 3 : Constitution de la base des données
Les données sont collectées pour la variable endogène et pour les variables exogènes. Quatre types de données sont couramment utilisées pour la constitution de la base des données : les séries temporelles ; les séries en coupe instantanée ; les panels ; les cohortes. Etape 4 : Choix du modèle
On choisit un modèle
Y f (
1
,
2
,,
k
)
Sachant que le phénomène étudié ne peut être expliqué à 100%, l’influence des autres variables explicatives éventuelles est prise en compte par le terme d’erreur . Pour le choix de la forme fonctionnelle, le modélisateur peut s’aider des représentations graphiques entre la variable endogène et chaque variable exogène. Dans la pratique, il teste plusieurs formes (linéaire, non linéaire) et retient celle jugée la plus satisfaisante en se basant sur certains critères. Les modèles économétriques disponibles sont : le modèle linéaire général, le modèle linéaire autorégressif, le modèle à retards échelonnés, le modèle à correction d’erreur, le modèle probit-logit, le modèle tobit, le modèle de durée, le modèle à équations simultanées, le modèle de panel, le modèle VAR, … Le choix d’un modèle dépend de la disponibilité des données et du problème étudié. 9
Etape 5 : Estimation des paramètres du modèle choisi
Les coefficients des modèles économétriques peuvent être estimés par diverses méthodes : Moindres Carrés Ordinaires (MCO), Moindres Carrés Généralisés (MCG), Maximum de Vraisemblance (MV), ….. Etape 6 : Validation du modèle estimé
Après l’estimation du modèle, l’économètre doit procéder à sa validation. Pour ce faire, il utilise des critères (économiques, statistiques et économétriques) afin de vérifier si les paramètres obtenus sont théoriquement satisfaisants et statistiquement significatifs. Au total, le modèle doit être validé économiquement, statistiquement et économétriquement. -- Les critères économiques
Ces critères sont déterminés par les développements de la théorie économique et concernent généralement le signe et la valeur des paramètres des relations économiques (propension marginale, élasticité, semi élasticité, multiplicateurs,…). -- Les critères statistiques
Ils sont déterminés par la théorie statistique et ont pour but d’évaluer la fiabilité statistique des estimateurs des coefficients du modèle. Les plus usuels sont le coefficient de détermination R², la variance des estimateurs, les critères d’information, …. -- Les critères économétriques
Ces critères permettent de vérifier les hypothèses de base qui sous-tendent la technique économétrique utilisée. Ils concernent une batterie de tests. Un modèle est validé si :
la plupart des variables explicatives ont un impact significatif sur la variable endogène (Student) il est globalement significatif (Fisher) ; ses erreurs ne sont pas corrélées (Durbin-Watson, Breusch-Godfrey, h de Durbin, …) ; ses erreurs sont homocédastiques (White, Goldfeld-Quandt, Glejer, ARCH, Breusch-Pagan,….) ;
il est bien spécifié (Ramsey) ;
il est stable (Chow, Cusum de Brown-Durbin-Evans, …) 10
Etape 7 : Simulation et prévision du modèle validé
Avant d’utiliser le modèle estimé pour réaliser des prévisions pour un horizon souhaité, il est vivement conseillé d’évaluer son pouvoir prédictif par la réalisation de simulations sur le passé permettant de comparer les valeurs estimées aux données réelles. Un modèle a des chances d’avoir « fidèlement » le passé.
un
11
bon
pouvoir
prédictif
s’il
reproduit
Chapitre 1 : Le modèle linéaire général
▀ Objectifs pédagogiques du chapitre 1
Lorsque vous aurez complété l’étude du chapitre 1, vous pourrez :
maîtriser l’économétrie du modèle linéaire général; énoncer les hypothèses d’application de la méthode des moindres carrés ordinaires ;
interpréter économiquement les paramètres d’un modèle estimé ;
interpréter le coefficient de détermination R² d’un modèle estimé ;
définir ce qu’on entend par seuil de signification d’un test d’hypothèse ;
reconnaître quel type de test économétrique on doit mettre en œuvre dans une situation particulière ; appliquer la économétriques Bera, Student, Ramsey, Chow
démarche proposée dans l’exécution des tests suivants : coefficient de corrélation linéaire, JarqueFisher, White, ARCH, Durbin-Watson, Breusch-Godfrey, et Brown-Durbin-Evans ;
utiliser le modèle linéaire général à des fins de prévision ; utiliser le logiciel économétrique Eviews pour estimer les paramètres du modèle linéaire général et effectuer les tests économétriques classiques.
12
Introduction
On parle de modèle de régression simple si une seule variable explicative est considérée. La fonction de consommation keynésienne
C t a1 a2
t
t ,
t 1, ... , n
où C est la consommation et R le revenu est un modèle de régression simple. En pratique, il est cependant fréquent qu’une variable (expliquée) dépende de plusieurs variables explicatives. Prenons quelques exemples visant à illustrer les questions auxquelles on peut répondre dans le chapitre. La production d’une entreprise dépend-t-elle plus du facteur capital ou du facteur travail ? Le PIB d’un pays dépend-t-il plus de ses exportations, de l’investissement, du capital humain, de l’encours de la dette extérieure, du taux d’inflation, ou du taux de change ? Dans ces différents cas où plusieurs variables explicatives entrent en jeu, on parle de modèle linéaire général1 ou modèle de régression linéaire multiple. 1. Exposé du problème
Le modèle linéaire général (ou modèle de régression linéaire multiple) peut s’écrire :
où Y est la variable endogène (ou à expliquer), les variables exogènes (ou explicatives) indépendantes et non aléatoires, des nombres réels inconnus, le nombre d’observations et le terme d’erreur (ou aléa) non observé. L’erreur est une variable aléatoire centrée de variance 2 , indépendante des variables . Il s’agit d’un terme d’erreur stochastique qui permet de prendre en compte le fait que la variable Y est affectée par d’autres variables que les variables . Généralement, la première variable est égale à 1 pour toutes les observations. Par conséquent a1 est la constante du modèle qui est de la forme :
On désire estimer les paramètres et la variance à partir d’un ensemble de n observations indépendantes.
de la variable aléatoire
Ce chapitre reprend un certain nombre de développements figurant dans l’ouvrage de Doucouré (2013) que le lecteur intéressé pourra consulter pour plus de détails. 1
13
2. Notation matricielle du modèle linéaire général
Le modèle linéaire général peut être présenté sous la forme matricielle :
où
Y est le vecteur des n observations sur la variable endogène. X est la matrice des variables exogènes, chaque colonne de la matrice X est une variable explicative. a est le vecteur des coefficients de régression. est le vecteur des écarts aléatoires. Exercice d’application 1 : Considérons le modèle linéaire simple (fonction de
consommation keynésienne) :
C t a 1 a 2 R t t , t 1, ... , n C t consommation au temps t ; R t revenu au temps t ; a 1 consommation incompressible ; a 2 propension marginale à consommer Ce modèle s’écrit matriciellement :
Y X . a
( n ,1)
( n , 2) ( 2,1)
( n ,1)
C1 1 R 1 1 C 1 R a 2 2 1 Y 2 ; X a ; ; a 2 C n 1 R n n
14
Exercice d’application 2 : Considérons le modèle linéaire simple :
Yt a 1 a 2 t t , t 1, ... , n Ce modèle s’écrit matriciellement :
Y X . a
( n ,1)
( n , 2) ( 2,1)
( n ,1)
Y1 1 1 1 1 2 Y a 2 1 2 Y ; X ; a ; a 2 1 n Yn n Exercice d’application 3 : Considérons le modèle linéaire :
Yt a 1 a 2 t a 3 t 2 t , t 1, ... , n Ce modèle s’écrit matriciellement :
Y X. a
(n,1)
Y1 1 Y 1 Y 2 ; X 1 Y n
(n, 3) (3,1)
1 2
n
(n,1)
1 a 1 22 a a ; 2 a 3 n2
1 2 ; n
Exercice d’application 4 : A la fonction de production de Cobb-Douglas, on associe
le modèle linéaire général :
Yt a 1 a 2 Z t a 3 M t t , t 1, ... , n où
Yt est le logarithme népérien de la production Q t de la période t Z t est le logarithme népérien du capital utilisé K t M t est le logarithme népérien de la main d’œuvre employée L t a 2 est l’élasticité de la production par rapport au facteur capital a 3 est l’élasticité de la production par rapport au facteur travail a 1 est la constante du modèle. 15
Ce modèle s’écrit matriciellement :
Y X . a
( n , 1)
Y 1 1 Y 1 Y 2 ; X Y n 1
( n , 3 ) ( 3, 1)
Z1 Z2
Zn
M 1 M2
( n , 1)
a 1 a a ; 2 a 3
M n
1 2 ; n
L’écriture sous forme matricielle rend plus aisée la manipulation du modèle linéaire général, c’est pourquoi nous l’adoptons par la suite. 3. Estimation et propriétés des estimateurs 3.1 Hypothèses d’application de la méthode des moindres carrés ordinaires.
Deux catégories d’hypothèses doivent être faites pour résoudre le problème des moindres carrés. Nous distinguons les hypothèses structurelles ; des hypothèses stochastiques (liées à l’erreur ). 3.1.1 Hypothèses structurelles
: le nombre d’observations est supérieur au nombre de séries explicatives, c’est à dire que les degrés de liberté ( ) doivent être strictement positifs. le rang de la matrice X des variables explicatives est égal à k, le nombre de paramètres à estimer. La matrice X est de plein rang colonne, autrement dit, les variables explicatives sont linéairement indépendantes (absence de colinéarité entre les variables explicatives). Ceci implique que la matrice est inversible c’est à dire que la matrice existe. désignant la transposée de la matrice X. Ces hypothèses structurelles sont techniques, elles garantissent l’existence d’une solution. 3.1.2 Hypothèses stochastiques
, l’espérance mathématique de l’erreur est nulle. Cette hypothèse implique que Y est une variable aléatoire d’espérance mathématique . Cette condition permet d’obtenir des estimations sans biais. , les erreurs sont homocédastiques (leur variance est constante). Cette hypothèse peut être testée et quand on a repéré l’hétéroscédasticité ( pour au moins un t), on peut corriger et obtenir néanmoins de bons estimateurs.
16
, les erreurs sont non corrélées indépendantes). Cette hypothèse peut elle aussi être testée. Quand vérifiée, on parle alors d’autocorrélation des erreurs.
(ou encore n’est pas
les termes d’erreur suivent une loi normale. Cette hypothèse joue un rôle essentiel bien qu’elle soit difficile à vérifier. Il existe des tests de normalité (par exemple le test de Jarque-Bera) mais ils ne sont pas applicables sur les termes d’erreurs, qui par définition demeurent inconnus. Les hypothèses stochastiques ont pour but de s’assurer que les estimateurs des coefficients jouissent de propriétés statistiques intéressantes. 3.2 Estimation des paramètres par la méthode des moindres carrés ordinaires
La méthode des moindres carrés ordinaires (ci-après MCO) consiste à minimiser la somme des carrés des résidus. On démontre que de l’estimateur des moindres carrés ordinaires est . La matrice existe du fait que X est de rang (hypothèse H 2 ). Remarque 1.1 : L’estimation des paramètres par la méthode des MCO est effectuée
par ordinateur grâce à des logiciels comme Eviews, Stata, SPSS (Statistical Package of Social Sciences) ou SAS (Statistical Analysis System). Exercice d’application 5 : Soit le modèle linéaire simple :
Yi X
i
i
i
On suppose que la variable aléatoire 2 variance .
1 i n suit une loi normale centrée et de
1) Quelle hypothèse du modèle linéaire simple n’est pas vérifiée a priori dans cette spécification ? 2) Pouvez-vous trouver dans la théorie économique deux exemples où de telles relations se justifient ? 3) Démontrer que l’estimateur des moindres carrés ordinaires de n
ˆ
i1 n
X iYi
i1
17
X
i
2
.
est
Corrigé :
.
1) Il n’y a pas de terme constant hypothèse supplémentaire 0 .
Ou autrement dit, on a supposé
une
2) Une telle relation se justifie dans les deux modèles suivants: a) Dans un modèle d’offre de travail
OTi w i i
où OT est l’offre de travail et w le salaire. Pour un salaire nul, un individu n’offrira pas de travail. b) Dans la fonction de consommation de Milton Friedman, on a
C kY p où C est la consommation et Y p le revenu. Pour un revenu permanent (richesse) nul, l’individu ne pourra pas consommer . 3) Nous déterminons l’estimateur en utilisant deux méthodes ( par minimisation de la somme des carrés des erreurs et par calcul matriciel) a) Par minimisation L’estimateur de
est obtenu en minimisant f
n
Y i
i1
2
Xi
n f ( ) 0 2 X i ( Yi X i ) 0 i 1 n
X i Yi
i 1
n
X i2 i1
On obtient : n
ˆ
X iYi
X i2
i1 n i1
18
b) Par calcul matriciel L’écriture matricielle du modèle est :
Y1 X 1 1 Y2 X 2 2 Y n X n n Calculons X' X
1
X ' X X 1 X 2
et X' Y
X 1 X X n 2 X n
X ' Y X 1 X 2
n
i 1
X i2
1
X ' X 1
n
X i2
i 1
Y1 Y Xn 2 Y n
n
i 1
X i Yi
On obtient n
ˆ X ' X 1 X ' Y
X i Yi
i1 n
i1
X i2
4. Interprétation économique des paramètres
Nous considérons trois modèles de régression couramment utilisés dans la pratique et donnons l’interprétation économique des paramètres. 4.1 Modèle sans logarithme
Y aX b .
Nous considérons le modèle
Dans ce cas, le paramètre a est une propension marginale.
a
Y Y X
a
X
Le paramètre b a une signification économique, c’est la valeur de Y quand X 0. 19
Exercice d’application 6 : A l’aide de 35 observations, on souhaite estimer les
paramètres du modèle Cons a Re v b , où cons est la consommation de l’individu et Rev son revenu. Les données sont en francs CFA. L’estimation des paramètres par la méthode des MCO donne : a 0,85 ; b 12 000 . . ˆ
ˆ
On a une fonction de consommation, b est l’estimation de la consommation quand le revenu est nul, c’est à dire si Rev 0 . b est donc l’estimation de la consommation incompressible (consommation autonome ou minimum de subsistance). ˆ
ˆ
a est l’estimation de la propension marginale à consommer : Cons 0,85 Re v. a 0,85 signifie qu’une augmentation de 100 000 francs CFA du revenu d’un individu implique une augmentation de 85 000 francs CFA de sa consommation. ˆ
ˆ
4.2 Modèle log-linéaire
Le modèle log-linéaire, encore appelé modèle log-log ou modèle double-log , est donné par : log(Y ) a log( X ) b où log est le logarithme népérien. Dans ce cas, le paramètre
a
a
est une élasticité.
log( Y ) Y log( X ) Y
a
X X
est l’élasticité de Y par rapport à X et le paramètre b n’a pas une signification économique. a
Exercice d’application 7 : Les importations du Sénégal (Y) sont mises en relation
avec le Produit Intérieur Brut (X) sur la période 1962 à 1995 .
log( MP ) a log( PIB) b L’estimation des paramètres par la méthode des MCO donne : a ˆ
0,75 ;
b
ˆ
0,65 .
a est l’estimation de l’élasticité des importations par rapport au produit intérieur brut. ˆ
IMP IMP
0,75
PIB PIB
a 0,75 signifie qu’une augmentation de 10% du PIB implique une augmentation ˆ
de 7,5% des importations. Il est à noter que b 0,65 n’a pas d’interprétation économique. ˆ
20
transf sfor orma matition on loga logari rith thmi miqu que, e, donn donnan antt lieu lieu à un modè modèle le loglogRema Re marq rque ue 1.2 : La tran liné linéai aire re peut peut être être util utilis isé é pour pour rédu réduir ire e l’hé l’hété téro rocé céda dast stic icitité é des des erre erreur urss (voi (voirr la sous sous sectio section n 7.7). 7.7). La réduct réduction ion de l’hété l’hétéroc rocéda édasti sticit cité é provie provient nt du fait fait que la transfo transforma rmatio tion n log logarit arithm hmiq iqu ue « comp compri rime me » les les éche échelllles es dans ans les lesquell uelles es les les varia ariabl bles es sont ont mesurées. 4.3 Modè Modèle le semi loga logarithmi rithmique que
Le modèle modèle semi semi logari logarithmi thmique que est donné donné par :
log(Y ) aX b Dans ce cas, le paramètre a est une semi élasticité. élasticité. a
log(Y ) Y a X Y X
est la semi élasticité de Y par rapport à X et le paramètre b n’a pas une signification économique. L’inve vest stis isse seme ment nt (INV (INV)) du Séné Sénéga gall est est mis mis en rela relatition on Exer Ex ercic cice e d’ d’ap appl plic icat atio ion n 8 : L’in avec avec le taux taux d’inté d’intérêt rêt réel réel (TXINT (TXINT)) sur la périod période e 1972 1972 à 2001. 2001.
log( NV ) aTXINT b L’estimation des paramètres par la méthode des MCO donne : a 0,06 ; b 2,59 ˆ
ˆ
a est est l’es l’estitima matition on de la semi semi élas élastitici cité té de l’in l’invvesti estiss ssem emen entt par par rapp rappor ortt au taux taux d’intérêt d’intérêt réel. ˆ
INV INV
0,06 TXINT
a 0,06 signifi signifie e qu’une qu’une hauss hausse e du taux d’inté d’intérêt rêt réel réel d’un d’un point point (100 (100%) %) de de 3% à 4% par par exem exempl ple e entr entraî aîne ne une une dimi diminu nutition on de 6% de l’inv l’inves estitiss sseme ement nt.. Il est est à noter noter que b 2,59 n’a pas d’interpréta d’interprétation tion économique économique.. ˆ
ˆ
5. Th Théo éorè rème me de Ga Gaus uss s et Ma Mark rkov ov
L’estimateur de a est «BLU» (Best Linear Unbiased) ou le meilleur estimateur estimateur linéaire linéaire sans biais de a c’est-à-di c’est-à-dire re que que : a) les composantes b)
de
sont des fonctions linéaires des
est un estima estimateu teurr sans sans biais biais de a,
c) la matrice de variances-covariances de
est
21
.
,
d) parmi les estimateurs sans biais des composantes de a fonctions linéaires des , les composantes de sont celles dont les variances sont minimum. minimum. Le théorè théorème me de Gauss Gauss et Markov Markov énonce énonce une propri propriété été très très importa importante nte des MCO : donn donne e la la mei meilllleu eure re conn connai aiss ssan ance ce poss possib ible le de puis puisqu qu’i’ill est est sans sans biai biaiss et et à vari varian ance ce mini minima male le.. Cette Cette prop propri riét été é est obten obtenue ue sous sous les hypo hypoth thès èses es asse assezz peu peu exig exigea eant ntes es puisqu’on puisqu’on n’a pas formulé formulé d’hypothès d’hypothèse e sur la (ou les lois) lois) suivie(s) suivie(s) par par les erreurs erreurs t . ˆ
L’estitimat mateu eurr des des MCO MCO est est app appel elé é estim estimate ateur ur de Gaus Gausss-Ma Mark rkov ov.. Il Remarq Rem arque ue 1.3 : L’es est est opti optima mall si les les erre erreur urss sont sont homo homocé céda dast stiq ique uess et non non corr corrél élée éess c’es c’estt à dire dire si 2 V ( ) I . Si les erreurs erreurs sont sont homocé homocédas dastiq tiques ues et/ou non corré corrélée lées, s, l’esti l’estimati mation on des paramètres paramètres se fait par la méthode méthode des moindres moindres carrés carrés généra généralisés lisés (MCG). (MCG). Considérons le modèle Y X a
2
, pour pour lequ lequel el V ( ) V I , l’estim l’estimate ateur ur des 1
1 1 MCG MCG ou esti estima mate teur ur de Aitk Aitken en est est A X V X X V Y . L’es L’estitima mate teur ur de Aitk Aitken en généra généralis lise e donc donc l’esti l’estimat mateur eur de Gauss Gauss et Markov Markov.. ˆ
6. Equa Equation tion d’ana d’analyse lyse de la varian variance ce et quali qualité té d’un d’un ajust ajustement ement 6.1 Equ Equati ation on d’a d’ana nalys lyse e de la var varian iance ce
Ayant évalué par la méthode des moindres carrés ordinaires les paramètres du modè modèle le,, on cher cherch che e à déte détermi rmine nerr si le modè modèle le perm permet et de bien bien expl expliq ique uerr la vari variab able le endogène. endogène. Soit e Y Y , le vect vecteu eurr des des rés résid idus us et Y X , le vecteu vecteurr des valeur valeurss esti estimé mées es de Y. On démo démont ntre re que que : ˆ
ˆ
n
n
2
ˆ
n
2 ( ) ( ) ( ) Y Y Y Y Y Y t t t t ˆ
t 1
2
ˆ
t 1
SCT
t 1
SCR
SCE
Cette Cette égal égalité ité est est l’éq l’équa uatition on d’an d’anal alys yse e de la vari varian ance ce.. Cette Cette égal égalitité é corr corres espo pond nd à la décomp décomposi ositio tion n de la varia variance nce totale totale (SCT) (SCT) en varian variance ce résidu résiduell elle e (SCR) (SCR) et varia variance nce expliquée (SCE). SCT = Variabilité Variabilité totale SCR = Variabilité Variabilité des des résidus résidus SCE = Variabilité Variabilité expli expliquée quée
22
6.2 Qua Qualit lité é d’u d’un n aju ajuste stemen mentt 6.2.1 6.2 .1 Coe Coeffic fficien ientt de dét déterm ermina inatio tion n
Un modèle est une représentation simplifiée des déterminants du phénomène économique étudié. étudié. Les facteu f acteurs rs qui influencent influencent la variable variable endogène endogène Y sont certainement certainement beaucoup beaucoup plus plus nombre nombreux ux et comp complex lexes es que ceux ceux qui qui sont sont retenu retenuss dans dans le modèl modèle. e. Quell Quelle e est la la part part de la varia variance nce de Y qui est expli expliqué quée e par ce modèle modèle réduct réducteur eur ? Le coeffi coeffici cien entt de déter détermin minat atio ion n R² est défin définii à part partir ir de l’éq l’équa uatition on d’ana d’analy lyse se de la variance variance précédente précédente :
Y Y Y Y
2
ˆ
2
variance expliquée variance totale
t
t
2
SCE SCT
t
On a : R
2
SCT
SCR
SCT
1
SCR SCT
et SCR
( 1 R 2 ) SCT
2
1. Le coeffici Par const construc ructio tion n on a : 0 coefficient ent de détermi déterminat nation ion est donc donc bien bien un inst instru rume ment nt de mesu mesure re de la qual qualité ité de l’aj l’ajus uste teme ment nt.. Plus Plus il est est proc proche he de 1, mieu mieuxx cela cela vaut. vaut. Cepen Cependan dantt le coeffic coefficien ientt de déterm détermina ination tion doit doit être utilis utilisé é avec avec précau précautio tion, n, 2 il est est auss aussii à note noterr que que le coef coeffifici cien entt n’est n’est utilisa utilisable ble que dans dans un un modè modèle le avec avec terme constant. constant. 6.2.2 6.2 .2 Coe Coeffic fficien ientt de dét déterm ermina inatio tion n cor corrig rigé é
Le coef coeffifici cien entt de déte déterm rmin inat atio ion n est est une une fonc fonctition on non non décr décroi oisssant sante e du du nomb nombre re de varia variable bless explic explicati atives ves inclus incluses es dans dans le modèle modèle.. Ains Ainsi,i, lorsqu lorsqu’on ’on augmen augmente te le nombre nombre de vari variab able less expli explica cativ tives es dans dans le modè modèle le,, la la vale valeur ur du coef coeffic ficie ient nt de déte déterm rmin inat atio ion n augm augmen ente te.. Afin Afin de pall pallie ierr ce prob problè lème me,, il conv convie ient nt de corr corrig iger er le coef coeffifici cien entt de déterm détermina inatio tion n par le nombre nombre de degrés degrés de libert liberté. é. Pour Pour cela cela,, on on déterm détermine ine ce que l’on l’on appell appelle e le coeffic coefficien ientt de déter détermin minati ation on corri corrigé, gé, ou encore encore coeffic coefficien ientt de déterm détermina inatio tion n ajus ajusté té.. Ce dern dernie ierr noté noté 2 est est donn donné é par par : :
R 2
1
n 1 n k
(1 R 2 )
2 On a : R 2 2 et si si n est gr grand peut diminu diminuer er lorsq lorsqu’u u’une ne variab variable le 2 . R 2 peut est ajouté ajoutée e à l’ense l’ensembl mble e des variab variables les exogèn exogènes. es. R 2 peut peut même même être être négati négatif. f.
23
6.2.3 Interprétation du coefficient de détermination
Nous donnons l’interprétation du coefficient de détermination à travers un modèle de croissance économique. On dispose pour un pays donné, des séries macroéconomiques PIB, Investissement (INV), Exportations (EXPT), Taux d’inflation (TINF) et Encours de la dette extérieure (DETTE). L’estimation par la méthode des MCO des paramètres du modèle PIBt
a1 a 2 XPT t a3TINF t a4 DETTE t t
donne une valeur de R 2 égale à 0,87. Cette valeur indique que 87% des fluctuations du PIB sont expliquées par les variables EXPT, TINF et DETTE. On peut aussi affirmer que le modèle explique 87% de la variance du PIB. Il faut remarquer que cette valeur obtenue pour le coefficient de détermination R 2 n’indique rien sur la qualité du modèle. Remarque 1.4 : Les coefficients de détermination et de détermination ajusté permettent
de comparer des modèles entre eux. Bien entendu, ces modèles doivent avoir la même variable endogène et comporter le même nombre d’observations. On retiendra le modèle dont le coefficient de détermination – ou le coefficient de détermination ajusté – est le plus élevé. 7. Tests économétriques
Une étude économétrique consiste non seulement à estimer des paramètres d’un modèle, mais aussi, à tester des hypothèses afin de valider le modèle économique théorique. Les paramètres estimés A sont des variables aléatoires, ce ne sont pas des valeurs certaines, ils ne sont pas exactement identiques à la vraie valeur des paramètres a. On doit effectuer des tests statistiques afin de compléter les résultats des estimations. Considérons le modèle de régression multiple : ˆ
Y t
a1 a 2 X 2t a 3 X 3t
a k X kt t
Dans cette section, nous nous intéressons à quelques problèmes statistiques qui découlent de l’écriture de ce modèle. 7.1 Test d’hypothèses 7.1.1 Définitions
Un test est une procédure qui permet d’accepter ou de rejeter rationnellement une hypothèse relative par exemple à la valeur d’un paramètre de la population ou à sa loi de probabilité. L’hypothèse nulle (ou hypothèse à tester) est notée H0 tandis que l’hypothèse alternative est notée H1 .
24
7.1.2 Types d’erreurs
Tout test d’hypothèses est sujet à des erreurs. Ces dernières surviennent parce que la distribution de ces tests est asymptotique et que l’échantillon sur lequel travaille l’économètre est fini. L’inférence par un test d’hypothèses peut conduire à deux types d’erreur. L’erreur de type I (erreur de première espèce) survient lorsque le test d’hypothèse rejette une hypothèse nulle vraie tandis que l’erreur de type II (erreur de deuxième espèce) ne parvient pas à rejeter une hypothèse nulle fausse. 7.1.3 Niveau de signification d’un test
Le niveau de signification d’un test est la probabilité de l’erreur de première espèce. En théorie, les valeurs critiques d’un test d’hypothèses sont construites selon un niveau désiré. Les seuils statistiques conventionnels sont 1%, 5% ou 10 %. Par exemple, une valeur critique d’un niveau théorique de 5% signifie que la probabilité de rejeter une hypothèse nulle vraie se situe à 5% (on se donne 5 chances sur 100 de se tromper). Remarque 1.5 : Tests sur les logiciels
Sur les logiciels économétriques, les statistiques des tests sont assorties de leurs probabilités critiques (risque de rejeter à tort l’hypothèse nulle H 0 ), ce qui évite de se référer aux tables. La règle de décision suivante doit être appliquée : L’hypothèse nulle est rejetée dès que cette probabilité est inférieure au seuil
.
L’hypothèse nulle n’est pas rejetée dès que cette probabilité est supérieure ou égale au seuil
.
7.2 Test du coefficient de corrélation linéaire
Nous disposons de deux variables quantitatives aléatoires X et Y. Le test du coefficient de corrélation linéaire s’écrit : 0 : 1 :
les variables X et Y ne sont pas corrélées ( 0) les variables X et Y sont corrélées ( 0)
On calcule le coefficient de corrélation linéaire défini par : n
r ( x, y)
Cov( X , Y ) X Y
n
n
x y x y i
i
i
i 1
n
n
x
2
i
i 1
n i i1
avec : 25
n
i 1
2
i 1
n
n
i
y
2
i
i 1
n yi i1
2
-
Cov( X , Y )
-
x et y
-
n
covariance entre X et Y
écart type de X et écart type de Y ;
nombre d’observations
Pour tester l’hypothèse H 0 , on peut comparer la valeur observée de r ( x, y ) à la valeur seuil A donnée par la table du coefficient de corrélation pour v n 2 degrés de liberté. La règle de décision est alors la suivante :
Si r ( X , Y ) A , l’hypothèse H 0 n’est pas rejetée, Si r ( , y) corrélées.
, l’hypothèse H 0 est rejetée et les variables X et Y sont
Exercice d’application 9 : Une entreprise commerciale consacre une certaine somme à
des opérations publicitaires au début de chaque mois. Dans le tableau ci-dessous sont récapitulés, mensuellement, pour 2002,
Les sommes consacrées à ces opérations ; Les montants des ventes correspondantes
Mois Janvier Février Mars Avril Mai Juin Juillet Août Septembre Octobre Novembre Décembre
Dépenses de publicité X i (en millions de FCFA) 2,4 3 3 2,5 3,2 3,5 2 1,8 3 3,2 3,8 4,6
26
Ventes Yi (en millions de FCFA) 38 42 42 39 40 45 35 24 38 40 44 53
1) Tracer le nuage de points et le commenter. 2) Calculer le coefficient de corrélation linéaire. 3) Effectuer aux seuils de 5% et 1% le test du coefficient de corrélation linéaire. Les ventes sont-elles liées aux dépenses de publicité ? 4) Effectuer le test du coefficient de corrélation linéaire en utilisant le logiciel Eviews Corrigé :
1) Le nuage de points indique que les couples de valeurs sont approximativement alignés : les deux variables sont corrélées positivement. 55 50 45
S E T N E V
40 35 30 25 20 1.5
2.0
2.5
3.0
3.5
4.0
4.5
5.0
PUB
2) Afin de calculer le coefficient de corrélation linéaire, nous dressons le tableau de calcul suivant : i 1 2 3 4 5 6 7 8 9 10 11 12 Somme
X 2,4 3 3 2,5 3,2 3,5 2 1,8 3 3,2 3,8 4,6 36
Y 38 42 42 39 40 45 35 24 38 40 44 53 480
X² 5,76 9 9 6,25 10,24 12,25 4 3,24 9 10,24 14,44 21,16 114,58
27
Y² 1444 1764 1764 1521 1600 2025 1225 576 1444 1600 1936 2809 19708
XY 91,2 126 126 97,5 128 157,5 70 43,2 114 128 167,2 243,8 1492,4
n
r xy
Cov ( X , Y ) Y
n
n
n
i
i
1
2 i
n
i
x i
y i
1
i
n xi i 1
n
1
2
i
n
n
i
i
1 2 i
1
n y i i 1
2
12 (1292 ,4) (36 )( 480 ) (12 )(114 ,58) 36 2 (12 )(19708 ) 480 2
0,906 . On trouve que le coefficient de corrélation linéaire existant entre les deux variables X et Y est r ( X, Y ) 0,906 . soit r xy
3) Le test d’hypothèses est :
H 0 : les variables X et Y sont non corrélées 0 H1 : les variables X et Y sont corrélées 0 L’hypothèse H 0 signifie que la variable Vente est indépendante de la variable Publicité. Pour tester H 0 , on peut comparer la valeur de r à la valeur seuil A donnée par la table du coefficient de corrélation à n 2 12 2 10 degrés de liberté. a) A
0,576 pour le seuil de 5 %.
r 0,906 0,576 rejet de l’hypothèse H 0 . Le coefficient de corrélation entre X et Y est significativement différent de 0 au seuil de 5%. On conclut donc qu’il existe une liaison (linéaire) entre les ventes et les dépenses de publicité. Les ventes sont donc liées aux dépenses de publicité. b) A 0,7079 pour le seuil de 1% . r 0,906 0,7079 rejet de l’hypothèse H 0 . dépenses de publicité. au seuil de 1%.
Les ventes sont
liées aux
4) le test du coefficient de corrélation linéaire effectué sur le logiciel Eviews 6 donne les résultats suivants : Included observations: 12 Correlation Probability PUB
PUB 1.000 ----0.906 0.0000
VENTES
28
VENTES 1.000 -----
Le coefficient de corrélation linéaire est 0,906 ; sa probabilité critique est nulle. Nous rejetons donc l’hypothèse nulle d’absence de corrélation linéaire aux seuils de 1% et 5%. Les ventes sont donc liées aux dépenses de publicité. 7.3 Test de normalité de Jarque-Bera 7.3.1 Moment centré d’ordre r
On appelle moment centré d’ordre r r N associé à la série X t le nombre : n
r
r x t
t 1
avec
n
x
1 n
n
t
t 1
Jarque et Bera (1980) ont proposé un test portant sur les deux caractéristiques d’une loi normale : la symétrie et l’aplatissement. La loi normale est caractérisée par un coefficient d’asymétrie (skewness) nul et un coefficient d’aplatissement (kurtosis) égal à 3. Le coefficient de skewness, noté S, associé à la série X t est donné par :
S
2
où
2
1 n
n
3
3
t x
3 3
2 2
2
i 1
et
3
1 n
n
3 t
t 1
Si le skewness est nul, la distribution est dite symétrique. Lorsque le skewness est
S 0 , la distribution est étalée vers la gauche (elle a un biais négatif). Si S 0 , la non
nul, la distribution est
dite
asymétrique. Plus
spécifiquement si
distribution est étalée vers la droite (elle a un biais positif).
Distribution étalée vers la droite
Distribution symétrique
29
Distribution étalée vers la gauche
Le coefficient d’aplatissement d’une courbe est caractérisé par la valeur de :
K
4 4
4 2
2
4
où
1 n
n
4 x t
t 1
Si K 3, la distribution est normale (on dit qu’elle est mésokurtique). Lorsque K 3 , la distribution est plus aplatie que la distribution normale (on dit qu’elle est hyponormale ou platykurtique). Si K 3 , la distribution présente un excès de kurtosis. Elle est moins aplatie que la distribution normale (on dit qu’elle est hypernormale ou leptokurtique).
Distribution platikurtique
Distribution mésokurtique
Distribution leptokurtique
7.3.2 Test de Jarque-Bera
Le test d’hypothèses est le suivant : 0
: la variable X suit une loi normale
N m,
H 1 : la variable X ne suit pas une loi normale N m, La statistique de Jarque-Bera est définie par :
S 2 K 3 2 JB n 6 24 où S est le coefficient de dissymétrie (Skewness) et K le coefficient d’aplatissement (Kurtosis). La statistique JB suit sous l’hypothèse nulle de normalité une loi du KhiDeux à deux degrés de liberté. La valeur seuil A pour 5% est égale à 5,991. Par conséquent, si la valeur calculée de la statistique JB est inférieure à A, l’hypothèse nulle de normalité n’est pas rejetée. En revanche, si la valeur de JB est supérieure ou égale à A, l’hypothèse nulle de normalité est rejetée.
30
est utile sur des échantillons de petite dimension mais l’est moins sur de grands échantillons où le « théorème central limite » 2 s’applique. Ce test permet notamment de tester l’hypothèse de normalité des résidus. Remarque
1.6 : Le test de normalité
Exercice d’application 10 : Test de normalité de Jarque-Bera
Considérons la série macroéconomique masse monétaire (X) du Sénégal sur la période 1971-2007 à fréquence annuelle. Les données sont en milliards de FCFA. Tester au seuil de 5% les hypothèses de normalité et de lognormalité de la variable masse monétaire. Les résultats obtenus pour cette série sont consignés dans le tableau ci-dessous : m2 522.93 336.52 497.43 1.49 4.34 16.47 0.00 37
Mean Median Standard Deviation Skewness Kurtosis Jarque-Bera Probability Observations
log(m2) 5.82 5.82 1.01 -0.31 2.66 0.77 0.68 37
La moyenne et l’écart-type sont donnés en milliards de francs CFA . Corrigé :
1) Variable Masse monétaire Le test d’hypothèses est le suivant :
H 0 : X suit une loi normale m, H 1 : X ne suit pas une loi normale m, La statistique de Jarque-Bera est définie par ;
S 2 K 3 2 JB n 6 24 où S est le coefficient de dissymétrie et K le coefficient d’aplatissement. On lit dans la table du Khi-Deux à 2 degrés de liberté, au seuil de 5% : la valeur seuil A 5,991 .
(1, 49 ) 2 ( 4,34 3) 2 B 37 16,47 24 6 Le théorème central limite affirme d’une suite de variables aléatoires X 1 , X 2 ,, X n indépendantes et de même loi tend vers une loi normale si le nombre d’observations n est supérieur à 30. Les variables X i suivent une loi quelconque. 2
31
B 16,47 5,991 ;
on ne suit pas une loi normale.
rejette tte l’hypothè thèse H 0 . La variab variable le masse masse monéta monétaire ire
proba abili bilité té crit critiq ique ue asso assocciée iée au test est de norm normal alit ité é est est null nulle. e. Rema Re marq rque ue 1. 1.7 7 : la prob L’hy L’hypo poth thès èse e null nulle e est est reje rejeté tée. e. La vari variab able le mass masse e moné monéta tair ire e ne suit suit pas pas une une loi loi normale. 2) Variable Variable log(masse log(masse monétaire) monétaire) Une Une vari variab able le suit suit une une loi loi logn lognor orma male le si son son loga logari rith thme me suit suit une une loi loi norm normal ale e Le test test d’hyp d’hypoth othèse èsess est le suivan suivantt :
H 0 : log(X) suit suit une une loi loi norm normal ale e m, H1 : log(X) ne suit suit pas pas une une loi loi norm normal ale e Nm,
( 0,31) 2 ( 2,66 3) 2 JB 37 0,77 6 24 JB 0,77 5,991 ; on ne rejette pas l’hypothèse H 0 . La vari variab able le mas masse se moné monéta tair ire e suit suit une une loi loi logn lognor orma male le de moye moyenn nne e 5,82 5,82 mill millia iard rdss de FCFA FCFA et d’éc d’écar artt type 1,01 milliard milliard de FCFA.
probab abililitité é crit critiq ique ue asso associ ciée ée au test test de logn lognor ormal malitité é est est égal égale e à Remarque 1.8 : la prob 0,68 0,68.. L’h L’hyypoth pothès èse e null nulle e de log lognorm normal alit ité é n’es n’estt pas pas reje rejeté tée. e. La varia ariabl ble e mass masse e moné monéta taire ire suit suit une une loi loi logn lognor orma male le.. Autr Autreme ement nt dit, dit, si nous nous rejet rejeton onss l’hyp l’hypot othè hèse se de logn lognor orma malilité té de la varia ariabl ble e mass masse e moné monéta tair ire, e, nous nous auro aurons ns 68% 68% de chan chance cess de prendre prendre une mauvaise mauvaise décision. décision. 7.4 Test Test de Studen Studentt 7.4.1 Comp Comparais araison on d’un para paramètre mètre ai à une vale valeur ur fixée
Le test test d’hypo d’hypothèse thèsess est le suiva suivant nt : Soit Ai ˆ
ˆ
0 : ai
a
contre
a
1 : ai
a
l’écart type estimé des estimateurs des coefficients de régression.
La statistique
Âi a i
suit suit sous sous l’hy l’hypo poth thès èse e null nulle e une loi loi de Stud Studen entt à n k
ˆ
ˆ
i
degrés de liberté notée
T n k . 32
, une valeur valeur critique critique t telle que :
On déterm détermine ine au seuil seuil
P
t T n k t 1
La règle de décision décision est alors la suivante suivante :
Si q
ˆ
i
A
a
ˆ
ˆ
Si
q
i
A ˆ
ˆ
t , l’hypothèse H : a a n’est n’est pas rejeté rejetée, e, 0
i
a
ˆ
t
, l’hypothèse
0
: a a est est reje rejeté tée. e.
i
En prat pratiq ique ue,, le test test le plus plus util utilis isé é est est celui elui qui qui cons consis iste te à test tester er l’hy l’hypo poth thès èse e null nulle e
H 0 : ai
0
contr contre e l’hypo l’hypothè thèse se altern alternati ative ve H 1 : ai significativ significativité ité des variables variables explicativ explicatives. es. 7.4.2 Comp Comparais araison on d’un paramètre paramètre a i à la valeur a
0.
Il s’agit du test de
0
Quelles sont, parmi les variables X i choisies, choisies, celles qui sont réellement réellement explicativ explicatives, es, cell celles es qui qui ont ont une une infl influe uenc nce e sign signifific icat ativ ive e au seui seuill . Le te test d’ d’hypothèses est H 0 : ai 0 contre H 1 : a 0. Les décisions associées étant d’exclure ou de conserver la variable X i dans le modèle. Dans Dans ce cas, la règle règle de décision est est : ˆ
i Si q A
ˆ
ˆ
, l’hypothès l’hypothèse e H 0 : ai 0
n’es n’estt pas pas reje rejeté tée. e. La vari variab able le
i
explicative X it n’es n’estt pas pas sign signifific icat ativ ive e et n’a n’a aucu aucune ne infl influe uenc nce e sur Y t . On l’élimine du modèle.
Si q
A i ˆ
A
ˆ
ˆ
X it est est modèle.
t , l’hypothèse
0 : ai
0 est rejetée. rejetée. La variable variable explicativ explicative e
i
signific ficative et a une influ fluence sur Y t . On la conserve dans le
33
nombre Remarque 1.9 : Le nombre
t
Ai ˆ
est est appe appelé lé ratio ratio de Stud Studen ent. t. Sur Sur les les logi logici ciel els, s,
ˆ
Ai
ˆ
i
ˆ
les nombre nombress et A
ˆ
ˆ
ˆ
ˆ
i
sont notés notés respectiv respectivement ement t-Stati t-Statistic stic et StandardStandard-Error. Error.
i
7.4.3 7.4 .3 Te Test st de l’hy l’hypot pothès hèse e la
On dési désire re tes tester ter H1 : la avec
s H 0 : la
l’hy l’hypo poth thès èse e nulle ulle
a1 a2 l l 1 l 2 l k , a 1 , k ( k , 1 ) a k
cont contre re
l’hy l’hypo poth thès èse e
alter alterna natitive ve
, la l 1 a1 l 2 a 2 l k a k
l A ˆ
Dans Dans ce cas, cas, on démo démont ntre re que que la vari variab able le aléa aléatoi toire re
l a
l A
une une loi loi Stud Studen entt à
ˆ
ˆ
( n k )
degrés de liberté.
La règle règle de de déci décisio sion n est :
Si q
l
ˆ
s
A ˆ
ˆ
Si q
n’est n’est pas rejeté rejetée. e.
i
l A s ˆ
l A ˆ
t , l’hypothèse H 0 : la s
t
, l’hypothèse H 0 : la s est est reje rejeté tée. e.
ˆ
7.4.4 Inter Intervalle valle de confiance confiance pour les paramètres paramètres ai
On cherche un intervalle I tel que : P ai I 1 . I est appelé appelé intervalle intervalle de confiance confiance pour le paramètre ai , au niveau de confiance 1 . Le réel 0 1 peut être interprété comme le risque que l’intervalle de confiance I ne contienne pas la vraie valeur du paramètre. paramètre. On utilise utilise le résultat résultat établi établi précédemm précédemment ent :
Ai a i ˆ
A
T n
ˆ
ˆ
i
34
k
On a alors :
P A i I
A i t A ˆ
ˆ
t A i ai A i t A i 1 ˆ
ˆ
ˆ
ˆ
ˆ
est l’intervalle de confiance du paramètre a i au niveau L’intervalle prend aussi la forme I A i r ; A i r où
; A i t A ˆ
ˆ
ˆ
ˆ
i
ˆ
de confiance 1 .
i
ˆ
ˆ
r t A est le rayon de l’intervalle de confiance. ˆ
ˆ
i
L’intervalle de confiance peut être utilisé pour effectuer le test de Student H 0 : ai a contre 1 : ai a . Remarque 1.10 :
Si a A i t A i ; A i t A i , l’hypothèse H 0 : ai a est n’est pas rejetée.
ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
i t A i , l’hypothèse Si a A i t A i ; A ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
0 : ai
a est rejetée.
Exercice d’application 11 : On souhaite estimer la fonction de production des
entreprises industrielles sur la période 1975-1994. On dispose pour cela des observations relatives au logarithme du niveau de production noté log(Q t ) , au logarithme du stock de capital utilisé noté log(K t ) , ainsi qu’au logarithme du niveau d’emploi noté log(L t ) . On se propose d’estimer la fonction de production de ces entreprises en utilisant une spécification de type Cobb-Douglas. 1) L’expression générale de la fonction de production Cobb-Douglas s’écrit Q t AK t 2 L t 3 . Pourquoi ce modèle n’est pas estimable économétriquement par les moindres carrés ordinaires. 2) On considère la forme estimable suivante :
log(Q t ) 1 2 log(K t ) 3 log(L t ) t En effectuant la régression par les moindres carrés ordinaires sur la période globale, on obtient :
LogQt
1,899 0,342 LogK t 0,405 LogLt ( 0, 06
( 0, 048
( 0, 031
n 20 R 2 0,9842 (·) = Écarts types estimés de l’estimateur des coefficients de régression.
35
a) Comment s’interprètent économiquement les différents paramètres ? b) Comment s’interprète la perturbation t du modèle économétrique ? c) Donner une interprétation du coefficient de détermination R 2 . 3) Testez au seuil de 5%, la significativité de 2 et de 3 . 4) Testez au seuil de 5%, l’hypothèse H 0 : 2 0,4 contre H 1 : 2 0,4 5) Donnez, au seuil de 5%, des intervalles de confiance pour les paramètres 2 et 3 . 6) Testez au seuil de 5%, l’hypothèse selon laquelle les rendements d’échelle constatés pour cette entreprise sont constants. On a calculé 0,0235 . ˆ
ˆ
2
ˆ
3
Corrigé
1) Le modèle Q t AK t 2 L t 3 n’est pas linéaire dans les paramètres, il n’est donc pas estimable économétriquement par les moindres carrés ordinaires. Pour le linéariser, on passe aux logarithmes.
log(Q t ) log(A) 2 log(K t ) 3 log(L t ) t 2) 1 1,899 ˆ
1 0 , 06
;
ˆ
ˆ
3 0 , 405 ; 3 ˆ
ˆ
ˆ
; 2 0 , 342 ˆ
;
2 0,048 ; ˆ
ˆ
0 , 031 ;
a) Interprétation des coefficients a1) 1 log(A ) n’a pas d’interprétation économique intéressante a2) 2 est l’élasticité de la production par rapport au capital
2
LogQ Q / Q e LogK K / K Q / K
2 0 ,342 signifie que l’on estime qu’une augmentation de 10% du capital ˆ
implique une augmentation de 3,42% de la production, toutes choses égales par ailleurs (c’est à dire si le facteur travail est constant).
36
a3) 3 est l’élasticité de la production par rapport au travail
3
ogQ ogL
Q/Q eQ / L /
3 0 , 405 signifie que l’on estime qu’une augmentation de 10%
du travail implique une augmentation de 4,05% de la production, toutes choses égales par ailleurs (c’est à dire si le facteur capital est constant). ˆ
b) La perturbation t représente l’effet des pannes de machines, de l’état de santé et de motivation des travailleurs, le progrès technique, ... c) R 2 0,9842 signifie que 98,42% des fluctuations de la production sont expliquées par les facteurs capital et travail. Il faut noter que ceci n’indique rien sur la qualité du modèle. 3) a) On veut tester H 0 : 2 0 contre H 1 : 2 0 .
t ˆ
0,342 2 7,125 2 0,048 ˆ
2
ˆ
ˆ
Le Student théorique à 5% pour n k 20 3 17 degrés de liberté est t 2,11
t ˆ 2 7,125 2,11 ;
on rejette l’hypothèse H 0 . Le capital a un impact positif significatif sur la production. b) On veut tester H 0 : 3 0 contre H 1 : 3 0 .
t ˆ
0,405 3 13,06 3 0,031 ˆ
3
ˆ
ˆ
t ˆ 3 13,06 2,11 ;
on rejette l’hypothèse H 0 . Le travail a un impact positif significatif sur la production. 4) On veut tester H 0 : 2 0 ,4 contre H 1 : 2 0,4 .
0,4 0,342 0,4 tc 2 1,208 0,048 2 ˆ
ˆ
ˆ
t c 1,208 2,11 ; on ne rejette pas l’hypothèse H 0 : 2 0,4 . 37
L’élasticité de la production par rapport au capital est égale à 0,4. 5) a) L’intervalle de confiance à 95% de 2 est
2 t ˆ
ˆ
; 2 t 2 ˆ
ˆ
ˆ
2
ˆ
Le niveau de confiance est 1 95 % , soit
5 %
Le Student théorique à 5% pour n k 20 3 17 degrés de liberté est t 2,11 L’intervalle de confiance est :
0,342 2,11 0,048 ; 0,342 2,11 0,048 0,242 ; 0,442 L’intervalle de confiance n’est pas très large, l’estimation de 2 est précise. On remarque que la valeur zéro n’appartient pas à l’intervalle de confiance. L’hypothèse H 0 : 2 0 est rejetée. Le capital a un impact positif significatif sur la production. On retrouve un résultat obtenu précédemment. b) L’intervalle de confiance à 95% de 3 est
3 t ˆ
ˆ
ˆ
; 3 t ˆ
3
ˆ
ˆ
3
L’intervalle de confiance est :
0,405 2,11 0,031 ; 0,405 2,11 0,031 0,34 ; 0,47 L’intervalle de confiance n’est pas très large, l’estimation de 3 est précise. On remarque que la valeur zéro n’appartient pas à l’intervalle de confiance. L’hypothèse H 0 : 3 0 est aussi rejetée. Le travail a un impact positif significatif sur la production. 6) 2 3 représente les rendements d’échelle : de combien varie la production lorsque qu’on fait varier de la même façon tous les inputs ?
Les rendements d’échelle sont décroissants si 2 3 1, la production augmente dans une proportion moindre que les facteurs de production, Les rendements d’échelle sont constants si 2 3 1 , la production augmente dans une proportion identique aux facteurs de production, Les rendements d’échelle sont croissants si 2 3 1, la production augmente plus vite que les facteurs de production 38
Tester l’hypothèse selon laquelle les rendements d’échelle constatés pour cette entreprise sont constants consiste à tester :
H 0 : 2 3 1 contre H1 : 2 3 1 Le ratio de Student est égal à
t c
2 ˆ
3 ˆ
ˆ
ˆ
1
0 , 342 0 , 405 1 10 , 76 0 , 0235
on
rejette l’hypothèse
2 3 ˆ
t c 10 ,76 2,11 ;
H 0 de rendements d’échelle
constant. 7.5 Test de significativité globale d’une régression (Fisher)
Dans ce qui suit, nous allons nous interroger sur la signification globale du modèle de régression, c’est-à-dire si l’ensemble des variables explicatives a une influence sur la variable à expliquer Y. Soit le test d’hypothèses : H 0 : a2
a3 ak 0
contre H 1 : il existe au moins un des coefficients non nul.
Le modèle à tester est Y t a1 t . Pour le test de signification globale, on démontre n k R 2 . que la statistique de Fisher est égale à F * k 1 1 R 2 Pour effectuer le test de signification globale, nous allons comparer ce F * calculé au Flu sur la table de Fisher à respectivement k 1 et n
k degrés de liberté.
La règle de décision est : 2 k F lu , nous ne Si F 2 k 1 1 R globalement significatif au seuil . *
Si F *
n
n k
R 2
rejetons pas H 0 : le modèle n’est pas
F lu , nous rejetons l’hypothèse k 1 1 2 globalement significatif au seuil . 39
0 :
le modèle est
Exercice d’application 12 : Test de significativité globale de Fisher
On considère la fonction de production de l’exemple précèdent :
log(Q t ) 1 2 log(K t ) 3 log(L t ) t En effectuant la régression par les moindres carrés ordinaires sur la période globale, on obtient : LogQ t
1,899 0 ,342 LogK t 0 , 405 ( 0 , 06 )
( 0 , 048 )
( 0 , 031 )
LogL t
n 20 R 2 0,9842 (·) = Écarts types estimés de l’estimateur des coefficients de régression. Tester au seuil de 5%, la significativité globale de ce modèle. Corrigé :
On veut tester l’hypothèse :
H 0 : 2 3 0 contre
H1 : il existe au moins un coefficient différent de 0 La statistique de Fisher est : *
F
n k k 1
2
1 R 2
20 3 0,9842 529,47 3 1 1 0,9842
Pour tester H 0 , on peut comparer la valeur de F * à la valeur seuil donnée par la table de Fisher à respectivement k 1 2 et n k 17 degrés de liberté. Le Fisher théorique à 5% pour (2,17) degrés de liberté est Flu 3,59 .
F * 529 ,47 3,59
rejet de l’hypothèse H 0 . On conclut donc que le
modèle est globalement significatif au seuil de 5%. Il est préférable au modèle log(Q t ) 1 t . Les facteurs capital et le travail ont globalement un effet significatif sur la production.
40
7.6 Tests d’autocorrélation des erreurs 7.6.1 Définition et causes de l’autocorrélation des erreurs
Nous sommes en présence d’une autocorrélation des erreurs lorsque les erreurs son liées par un processus à mémoire, donc non indépendantes au cours du temps. L’autocorrélation des erreurs peut être observée pour plusieurs raisons : i) L’absence d’une ou plusieurs variables explicatives dont l’explication résiduelle permettrait de « blanchir » les erreurs. ii) Une mauvaise spécification du modèle, les relations entre la variable à expliquer et les variables explicatives ne sont pas linéaires et s’expriment sous une autre forme que celle du modèle estimé (logarithmes, différences premières, etc.). 7.6.2 Estimation en présence d’autocorrélation des erreurs
En présence d’autocorrélation des erreurs, les estimateurs des moindres carrés ordinaires sont sans biais mais ne sont plus de variance minimale. Dans cette situation, on utilise la méthode des moindres carrés généralisés. 7.6.3 Les tests d’autocorrélation des erreurs 7.6.3.1 Test de Durbin et Watson (1951)
Le test de Durbin et Watson (DW) permet de détecter une autocorrélation des erreurs d’ordre un selon la forme : t t 1 t (1) avec t N (0 , 2 ) Le test d’hypothèses est le suivant :
contre
H 0 : 0
(les erreurs ne sont pas autocorrélées)
H 1 : 0
(les erreurs sont autocorrélées)
Considérons le modèle linéaire général Y Xa , soit e Y X , le résidu calculé. On suppose que le modèle comporte une constante. La statistique de Durbin et Watson est : ˆ
n
DW
e t 1 ) 2
( e t
t 2
n
e t 2
t 1
où et est le résidu calculé au temps t. Pour un grand nombre d’observations c’est-à est un dire quand n tend vers , on montre que DW 2 (1 ) où coefficient de corrélation linéaire avec 1 ρ 1 . ˆ
ˆ
41
ˆ
De par sa construction, la statistique DW varie entre 0 et 4. Ce qui donne 0 DW 4 . Il est intéressant d’avoir en tête l’approximation DW 2 (1 ρ) qui permet de se faire une idée de la valeur de ρ à partir de DW. Ainsi, il est probable que 0 quand DW 2 . En revanche, quand la valeur de DW est proche de 0, les erreurs sont probablement autocorrélées, avec un ρ positif et proche de 1. Quand, à l’inverse, DW est proche de 4, les erreurs sont vraisemblablement affectées d’une forte autocorrélation négative. ˆ
Venons-en maintenant à la procédure du test. Les valeurs critiques du test Durbin et Watson tenant compte du nombre d’observations et du nombre de variables explicatives ont été calculées. La lecture de la table de Durbin et Watson permet de déterminer deux valeurs d 1 d inf et d 2 d sup comprises entre 0 et 2 qui délimitent l’espace entre 0 et 4 selon le schéma cidessous :
Selon la position du DW empirique dans cet espace, nous pouvons conclure :
Si d 2 DW 4 d 2 , on accepte l’hypothèse H 0 ( ρ 0 ), les résidus sont non corrélés. Si 0 DW d1, on rejette l’hypothèse H 0 ( ρ 0 ), les résidus sont autocorrélés positivement. Si 4 d1 DW 4 ,on rejette l’hypothèse H 0 ( ρ 0 ), les résidus sont autocorrélés négativement. Si d1 DW d 2 ou 4 d 2 DW 4 d 1 ,on est dans une zone d’indétermination, ou zone de doute, c’est-à-dire qu’on ne peut pas conclure dans un sens comme dans l’autre. Remarque 1.11 : Lorsque que la statistique de Durbin et Watson appartient à la
région de doute, les économètres conseillent de rejeter l’hypothèse de non autocorrélation des erreurs. Le test de Durbin et Watson est très fréquemment utilisé. Il est cependant important de préciser les conditions d’utilisation :
Le modèle de régression doit comporter impérativement un terme constant ; Les variables explicatives doivent être certaines (c’est à dire non aléatoires) ; Le nombre d’observations doit être supérieur ou égal à 15 ; 42
Le modèle doit être en série temporelle, pour les modèles en coupe instantanée, les observations doivent être ordonnées en fonction de la variable à expliquer ; La variable à expliquer ne doit pas figurer parmi les variables explicatives (en tant que variable retardée). Le modèle ne doit pas être autorégressif, si c’est le cas on doit utiliser le test de Breusch et Godfrey (1978). Remarque 1.12 : Le test de Durbin et Watson
permet uniquement de détecter l’autocorrélation d’ordre 1 des résidus. En d’autres termes, il n’est pas approprié si les résidus présentent de l’autocorrélation à un ordre supérieur ou égal à 2. 7.6.3.2 Test de Breusch et Godfrey (1978)
Breusch et Godfrey ont proposé un test permettant de déceler la présence d’autocorrélation d’ordre supérieur à 1 restant valide lorsque le modèle comporte la variable endogène retardée dans les variables explicatives 3. Ce test est fondé sur un test de Fisher de nullité des coefficients (F-statistic) ou du Multiplicateur de Lagrange ( nR 2 ). L’idée générale de ce test réside dans la recherche d’une relation significative entre le résidu et ce même résidu décalé. Considérons le modèle général à erreurs autocorrélées d’ordre p :
Yt a1X1t a 2 X 2t a k X kt a 0 ρ1 ε t 1 ρ 2 ε t 2 ρp ε t p v t Le test de Breusch et Godfrey consiste à tester l’hypothèse H0 d’absence d’autocorrélation des erreurs, soit H0 : ρ1 ρ 2 ρ p 0 . Ce test est mené en trois étapes : i) On estime par la méthode des moindres carrés ordinaires les paramètres du modèle ci-dessus et on calcule le résidu e t , puisque les erreurs ε t sont inconnues. ii) On estime par la méthode des moindres carrés ordinaires l’équation intermédiaire
e t a1X1t a 2 X 2t a k X kt a 0 ρ1 e t 1 ρ 2 e t 2 ρ p e t p v t et on calcule le coefficient de détermination
² associé à
cette régression.
iii) On calcule la statistique du multiplicateur de Lagrange de Breusch et Godfrey définie par BG nR 2 . Cette statistique suit sous l’hypothèse H 0 de non autocorrélation des erreurs une loi du Khi-Deux à p degrés de liberté. On se fixe un seuil , et on lit sur la table du Khi-Deux la valeur seuil A.
3
Les modèles linéaires autorégressifs sont étudiés dans le chapitre 2. 43
La règle de décision est la suivante :
Si
BG
A, l’hypothèse nulle d’absence d’autocorrélation n’est pas rejetée.
Si BG A, l’hypothèse nulle d’absence d’autocorrélation est rejetée : au moins un des coefficients , i 1, , , est significativement différent de zéro. 7.6.3.3 Procédures d’estimation en cas d’autocorrélation des erreurs
En cas d’autocorrélation des erreurs, les estimateurs des MCO restent sans biais, mais ne sont plus de variance minimale. Dans ce cas, si la variance du terme d’erreur est connue, on applique la méthode des moindres carrés généralisés. Lorsque la variance du terme d’erreur est inconnue, on utilise les méthodes numériques de Cochrane et Orcutt, de Hildreth et Lu et du maximum de vraisemblance. Les programmes de régression utilisent fréquemment la méthode de Cochrane et Orcutt. Sargan a montré que la procédure itérative de Cochrane et Orcutt est convergente c’est-à-dire qu’au bout d’un certain nombre d’itérations les valeurs des coefficients vont se stabiliser. Application 13 : Tests d’autocorrélation des erreurs
On considère la fonction d’importation du Sénégal, à fréquence annuelle sur la période allant de 1962 à 1995 :
(1) log( import t ) a b log( pibt ) t , t 1,2, 34 , n 34 où import désigne les importations, pib le produit intérieur brut et log le logarithme népérien. Partie 1 : Modèle estimé par les moindres carrés ordinaires
1) Estimer les paramètres du modèle (1) par la méthode des moindres carrés 2) Tester une éventuelle autocorrélation des erreurs. a) par le test de Durbin-Watson, b) par le test de Breusch-Godfrey.
Partie 2 : Modèle estimé par la méthode de Cochrane-Orcutt
3) Estimer les paramètres par la méthode de Cochrane-Orcutt. 4) Tester une éventuelle autocorrélation des erreurs du modèle corrigé par la méthode de Cochrane-Orcutt en utilisant le test de Breusch-Godfrey.
44
Corrigé : Partie 1
1) L’estimation des paramètres par la méthode des MCO conduit aux suivants : Log IMPORT t 0 ,65 0,75 Log PIB t (1, 87
R 2
0,87,
SCR 0,134 , DW 1,06
résultats
(15 ,19
, n 34
où les chiffres entre parenthèses correspondent aux ratios de Student des coefficients estimés. 2) Tests d’autocorrélation des erreurs a) Test de Durbin-Watson Le tests d’hypothèses sont H 0 : 0 contre H 1 : 0 . Les conditions d’utilisation du test de Durbin et Watson sont bien respectées : le modèle est spécifié en série temporelle, le nombre d’observations (n 34) est supérieur à 15 et , enfin le modèle comporte un terme constant. Le nombre de variables exogènes (constante exclue) est k 1 . Sur la table de Durbin et Watson, au seuil de 5 %, on lit les valeurs suivantes :
1, 39 4 d 1 2, 61
1, 51 4 d 2 2, 49
d 1
On a :
d 2
0 DW d 1 0 1,06 1,39
L’hypothèse nulle est rejetée : on peut donc présumer une autocorrélation positive des erreurs. Le test de Durbin-Watson effectué sur le logiciel STATA donne les résultats suivants : Durbin's alternative test for autocorrelation
--------------------------------------------------------------------------lags(p) | chi2 df Prob > chi2 -------------+------------------------------------------------------------1 | 6.592 1 0.0102 --------------------------------------------------------------------------H0: no serial correlation Durbin-Watson d-statistic(2,34) =1.064825
La probabilité critique (0,0102) est inférieure au seuil de 5%. On rejette l’hypothèse de non corrélation des erreurs. 45
b) Le test de Breusch-Godfrey conduit aux résultats suivants : Breusch-Godfrey Serial Correlation LM Test: (Lag : 1 ) F-statistic Obs*R-squared
6.591775 5.961952
Probability Probability
0.015291 0.014618
Le nombre de décalages (Lag) sur le terme d’erreur est un. On teste donc une autocorrélation d’ordre un des résidus. Le logiciel Eviews effectue 2 tests : le test de Fisher (F-statistic) et le test du multiplicateur de Lagrange (obs*R-squared = nR²). Les deux probabilités sont inférieures au seuil de 5%. On rejette l’hypothèse de non corrélation des erreurs pour les 2 tests. Les erreurs sont donc autocorrélées. Partie 2
3) Les erreurs du modèle étant corrélées positivement, l’estimation par la méthode de Cochrane et Orcutt conduit aux résultats suivants :
Log MPORT t R 2
0, 90
0, 47 0, 77 Log PIB t 0, 41 ar (1)
SCR 0, 09
(1, 88 )
(10 , 20 )
DW 2,18
( 2 , 64 )
(2)
0,41 ˆ
Convergence assurée après 6 itérations. 4) Le test de Breusch-Godfrey effectué sur le modèle corrigé par la méthode de Cochrane-Orcutt conduit aux résultats suivants : Breusch-Godfrey Serial Correlation LM Test: Lag : 1 F-statistic Obs*R-squared
1.182139 1.292506
Probability Probability
0.285875 0.255587
Les deux probabilités sont supérieures aux seuils conventionnels. L’hypothèse nulle de non corrélation des erreurs n’est pas rejetée. Le test BG effectué pour les décalages 1 et 2 aboutit au même résultat. La méthode de Cochrane-Orcutt a donc corrigé l’autocorrélation des erreurs. 7.7 Tests d’hétéroscédasticité des erreurs 7.7.1 Définition
Les erreurs sont homocédastiques si elles ont la même variance. Dans le cas contraire, on dit qu’elles sont hétérocédastiques. L’hétérocédasticité se rencontre plus fréquemment pour les modèles en coupe instantanée, contrairement au problème de l’autocorrélation qui est plutôt spécifique aux modèles en séries temporelles. Sur séries temporelles, les cas les plus fréquents d’hétéroscédasticité concernent les séries financières ; ces dernières étant en général caractérisées par une variance variant au cours du temps. 46
7.7.2 Tests de détection de l’hétéroscédasticité des erreurs
Les tests statistiques d’homocédasticité portent sur l’hypothèse : H 0 : 1
2
2 2 ... n 2
c’est à dire sur l’hypothèse d’une variance des erreurs identique pour chaque individu. Il existe toute une batterie de tests permettant de détecter de l’hétéroscédasticité des erreurs dont notamment :
le test de Goldfeld-Quandt (1965)
le test de Glejser (1969)
le test de Breusch-Pagan (1979) le test de White (1980)
le test ARCH (1982)
Dans ce qui suit nous ne revenons que sur les deux derniers tests, qui sont les plus utilisés dans la pratique. 7.7.2.1 Test de White (1980)
Le test de White consiste à estimer dans une première étape le modèle : Y t a1 a 2 X 2t ak X kt t puis à calculer le résidu et Y t a1 a2 X 2t ak X kt ˆ
ˆ
(i)
ˆ
Dans une deuxième étape, on estime par la méthode des MCO l’équation 2
0 1 Z 1t 2 Z 2t p Z pt ut (ii) où les variables Z kt , k 1,2, , sont les variables explicatives du modèle, leurs et
carrés et leurs produits. De l’estimation par la méthode des MCO de l’équation (ii), on déduit le coefficient de détermination noté 2W . La statistique de White est la statistique du multiplicateur de Lagrange (Lagrange Multiplier : LM) définie par LM nR2W . Cette statistique suit sous l’hypothèse H 0 d’homocédasticité des erreurs une loi du Khi-Deux à p degrés de liberté. On se fixe un seuil , et on lit sur la table du KhiDeux la valeur A qui est telle
.
La règle de décision est la suivante :
Si
, l’hypothèse
Si
, l’hypothèse
0 d’homocédasticité n’est
0 d’homocédasticité
47
pas rejetée.
est rejetée.
Remarque 1.13 : Les tests de Glejser, White et ARCH sont disponibles sur le logiciel
Eviews. Le test de Breusch-Pagan est exécutable sur le logiciel Stata. L’avantage du test de Glejser par rapport aux autres tests est qu’il permet de spécifier la forme de l’hétérocédasticité. 7.7.2.2 Test ARCH (1982)
Les modèles ARCH (en anglais AutoRegressive Conditional Heteroscedasticity) ont été introduits par Engle en 1982, pour modéliser le processus d’inflation en Grande Bretagne. Ils permettent de modéliser des chroniques (la plupart du temps financières) qui ont une volatilité instantanée qui dépend du passé. Le test d’hétérocédasticité de type ARCH est fondé aussi sur le test du Multiplicateur de Lagrange (Lagrange Multiplier Test). De manière pratique, on procède de la manière suivante : Première étape : calcul de e t le résidu du modèle de régression ; Deuxième étape : calcul des e
2
t
;
Troisième étape : régression autorégressive des résidus sur p retards (résidu décalé) 2 e t où seuls les retards significatifs sont conservés ,
0 i e 2 t i i 1
. Soit à
tester d’homocédasticité des erreurs H 0 : 1 2 p 0 . Quatrième étape : calcul de la statistique du multiplicateur de Lagrange , LM nR 2 avec n = nombre d’observations servant au calcul de la régression de l’étape 3,
R 2 = coefficient de détermination de l’équation intermédiaire de l’étape 3.
La règle de décision est la suivante : 2
Si LM ( p) à p degrés de liberté lu dans la table du Khi-Deux à un seuil , l’hypothèse H0 n’est pas rejetée, les erreurs sont homocédastiques. 2
Si LM ( ) , l’hypothèse H0 est rejetée; on considère que les erreurs sont hétéroscédastiques conditionnellement (le processus suit un modèle ARCH(p)).
48
Remarque 1.14 : C’est le test de significativité des coefficients
i
de la régression
2
2
e t sur e t p qui permet de déterminer l’ordre p du processus ARCH sachant qu’un processus ARCH d’ordre 3 semble un maximum (p 3) . 7.7.3 Procédure d’estimation en présence de l’hétéroscédasticité des erreurs
La présence de l’hétéroscédasticité des erreurs a pour conséquence que les estimateurs des moindres carrés restent sans biais, mais ne sont plus de variance minimale. Il peut être pertinent de chercher à corriger l’hétéroscédasticité. Il convient de distinguer les cas où la variance de l’erreur est connue de ceux où elle est inconnue. Lorsque la variance du terme d’erreur est connue, il convient d’appliquer la méthode des moindres carrés généralisés. Dans ces cas où la variance du terme d’erreur est inconnue, les programmes de régression utilisent les corrections suggérées par White (1980) et Newey-West (1987). Exercice d’application 14 : Test d’hétérocédasticité des erreurs de White
Un économiste désire estimer par les moindres carrés ordinaires une fonction de production de type Cobb-Douglas sur Q production, K facteur capital, L facteur travail utilisés à partir d’un échantillon de 25 entreprises. On estime une fonction de type :
a og i og i i
og Qi
(i 1, , 25)
En effectuant la régression, l’économiste a obtenu les résultats suivants :
Log Q i 2, 481 0, 640 Log K i 0, 257 Log L i (1) (19, 29)
R 2 0, 94
DW 2, 54
;
(18, 43)
;
(9, 54 )
SCR 0, 1871
() = t de Student On désire déceler une éventuelle hétéroscédasticité des résidus. On régresse alors le carré des résidus (obtenu dans la régression (1)) sur les variables explicatives du modèle, leurs carrés et leurs produits. On obtient les résultats suivants :
e i 2 0,047 0,064 LogK i 0,01 (LogK i ) 2 0,009 (LogK i LogL i )
0,004 LogL i 0,002 (LogL i ) 2 R 2 0, 1244
;
SCR 0,002 ; n 25
Faites un test de White, au seuil de 5%, de l’hypothèse que les erreurs sont homocédastiques. Conclusion. Que proposez-vous alors de faire ? 49
Corrigé :
Le test d’hypothèses est
H 0 : i 2 2 i contre
H1 : i 2 2 pour au moins un i La statistique de White est :
W nR 2 w 25 0 ,1244 3,11 Pour tester H 0 , on peut comparer la valeur de F * à la valeur seuil donnée par la table du Khi-Deux à p 5 degrés de liberté. Le Khi-Deux théorique à 5% est A 11,07 .
W 3,11 11,07
non rejet de l’hypothèse H 0 . Les erreurs du modèle sont
donc homocédastiques. On garde donc les estimations obtenues par les moindres carrés ordinaires qui restent sans biais et de variances minimales. Exercice d’application 15 : Test erreurs
ARCH
d’hétérocédasticité conditionnelle des
Considérons la fonction d’importation du Sénégal, à fréquence annuelle sur la période allant de 1962 à 1995. L’estimation des paramètres par les MCO conduit aux résultats suivants :
Log IMPORT t R2
0,87,
0,65 0,75 Log PIB t (1, 87 )
(15 ,19 )
SCR 0,134 , DW 1,06 , n 34
où les chiffres entre coefficients estimés.
parenthèses correspondent
aux ratios
de Student
Tester une éventuelle hétérocédasticité des erreurs par le test ARCH d’ordre 1. Corrigé :
Le test ARCH d’ordre 1 conduit aux résultats suivants : Heteroskedasticity Test: ARCH(1) F-statistic 0.008791 Obs*R-squared 0.009355 50
Prob. F(1,31) Prob. Chi-Square(1)
0.9259 0.9229
des
Les deux probabilités sont supérieures au seuil de 5%. Le test de Fisher de significativité du coefficient de régression ou la statistique LM sont concordants, nous ne rejetons pas l’hypothèse d’homocédasticité des erreurs. Il n’existe pas d’effet ARCH sur les erreurs du modèle. 7.8 Test de spécification de Ramsey
Le test de spécification de Ramsey repose sur la même idée simplificatrice du test de White. Il s’agit d’un test général de variables manquantes. En pratique, le test de Ramsey consiste à procéder en 4 étapes. 1re étape : Estimer les paramètres de la forme linéaire :
Y t
a 1 a 2 X 2 t
a k X kt t
2e étape : Simuler la variable ajustée Y t définie par : ˆ
Y t ˆ
a1 ˆ
a 2 X 2 t ˆ
a k X kt ˆ
3e étape : Estimer les paramètres du modèle linéaire par les MCO
Y t
a1
a2 X 2t
ak X kt 1Y t 2 2Y t 3 3Y t 4 ut ˆ
ˆ
4e étape : Effectuer un test de Fisher de l’hypothèse H 0 : 1
ˆ
2 3 0 .
La règle de décision est la suivante :
Si l’hypothèse H0 n’est pas rejetée, le modèle est bien spécifié. Si l’hypothèse H0 est rejetée, le modèle est mal spécifié. Remarque 1.15 : On peut se demander pourquoi s’arrêter à la puissance 4 dans la
troisième étape, d’autant plus la plupart des logiciels permettent de procéder au test en utilisant des puissances supérieures. En fait les expériences de simulation (de Monte-Carlo) montrent que la puissance du test est maximale dans cette configuration.
Exercice d’application 16 : Test de spécification de Ramse
Reprenons la fonction d’importation du Sénégal, à fréquence annuelle sur la période allant de 1962 à 1995. En effectuant la régression sur la période globale n 34 , on obtient : Log IMPORT t 0,65 0,75 Log PIB t Tester la spécification du modèle.
51
Corrigé : Le test de Ramsey conduit aux résultats suivants :
Ramsey RESET Test: F-statistic
6.366191
Prob. F(2,30)
0.0050
Log likelihood ratio
12.02783
Prob. Chi-Square(2)
0.0024
Le logiciel Eviews effectue 2 tests : le test de Fisher et le test du rapport de vraisemblance (Log likelihood ratio). La statistique de Fisher vaut 6,36 ; sa probabilité critique est nulle. L’hypothèse nulle du test de Ramsey est rejetée : la fonction d’importation est mal spécifiée. Ce résultat n’est pas surprenant dans la mesure où le pib n’est pas la seule variable explicative des importations. Il manque des variables explicatives comme la production nationale, les prix, etc. 7.9 Tests de stabilité
La stabilité des paramètres joue un rôle important lorsqu’on cherche à comprendre les mécanismes économiques et à réaliser des projections. Leur instabilité peut refléter des phénomènes ponctuels dans le temps (choc pétrolier, dévaluation, crise boursière, calamités naturelles, mesures de politiques économiques, nouvelles réglementions, passage d’un régime de changes fixes à un régime de changes flexibles...). Il est souvent intéressant d’évaluer la robustesse du modèle estimé, c’est à dire la stabilité de celui-ci. L’idée sous-jacente est que, sur la période considérée, il peut apparaître un changement structurel ou un changement ponctuel dans la relation entre la variable à expliquer et les variables explicatives. En d’autres termes, il se peut que les valeurs des coefficients du modèle estimé ne soient pas stables sur l’ensemble de la période considérée. Les changements peuvent avoir plusieurs sources. Il existe diverses méthodes pour évaluer la stabilité des coefficients estimés d’un modèle de régression, nous en présentons deux :
Le test de Chow (1960) Les tests Cusum et Cusum Carré de Brown, Durbin et Evans (1975). 7.9.1 Test de Chow
Le test de Chow appelé aussi test de changement structurel, permet d’examiner si les coefficients d’une régression sont stables par rapport à l’observation utilisée. Sur des séries temporelles, on compare les estimations effectuées sur deux (ou plusieurs) sous ensembles d’observations qui correspondent à un découpage de l’échantillon initial. On parle dans ce cas de test de stabilité temporelle de la régression.
52
Sur les données en coupe, on peut comparer les résultats obtenus par exemple sur des pays, des régions, des secteurs industriels différents. Concernant des individus, on peut s’intéresser à des résultats par classe d’âge, par sexe, etc. Dans ce cas, le test de Chow est souvent qualifié de test d’homogénéité des comportements. On considère le modèle linéaire général suivant : Y
( n,
1)
X a ( n, k ) ( k ,
1)
(0)
( n, 1)
On se pose le problème de la stabilité des coefficients du modèle dans le temps. Doit-on considérer le modèle comme étant stable sur la totalité de la période ( t 1, 2, , n ) ? Ou doit-on considérer deux sous périodes distinctes d’estimation ? Supposons qu’on ait deux sous périodes ayant n1 et n2 observations : Sous période 1 : Y 1
( n1 , 1)
Sous période 2 : Y 2
( n 2 , 1)
X 1
a1
( n1 , k ) ( k , 1)
X 2
a2
( n 2 , k ) ( k , 1)
1
(1)
( n1 , 1)
2
(2)
( n 2 , 1)
Le principe du test est de voir dans quelle mesure le fait de régresser séparément sur les deux sous périodes améliore le résultat de la régression. Ce test portera sur les sommes des carrés des résidus (variances résiduelles). On commence par régresser sur la population totale soit n observations (modèle (0)), on calcule alors SCR, qui est la somme des carrés des résidus du modèle (0). Puis on refait la même régression sur chacun des deux sous populations séparément et on retient la somme des carrés des résidus de chaque régression. Soit : Sur n1 observations SCR1 Sur n2 observations SCR2 On pose alors le test d’hypothèses : 0 : SCR
contre 1 : SCR
SCR1 SCR2
SCR1 SCR2
(Stabilité des coefficients) (Instabilité des coefficients)
53
Le Fisher empirique est égal à : F *
SCR ( SCR 1 SCR 2 ) / k SCR 1 SCR 2 / ( n 2 k )
Cette statistique est distribuée suit sous l’hypothèse de stabilité une loi de Fisher à respectivement k degrés de liberté pour le numérateur et (n 2k ) degrés de liberté pour le dénominateur. On se fixe un seuil de signification et on lit sur la table de Fisher la valeur F lu telle que P F ( k , n 2k ) F lu
La règle de décision est :
Si F * F lu ,l’hypothèse 0 n’est pas rejetée et on retient une estimation par les moindres carrés ordinaires avec l’ensemble des observations (les coefficients sont stables sur l’ensemble de la période), Si F * F lu , l’hypothèse l’ensemble de la période.
0 est
rejetée. Les coefficients ne sont pas stables sur
Remarque 1.16 : Le test de Chow peut être facilement généralisé à l’existence de
plus d’une rupture structurelle. Ainsi, si l’on souhaite tester l’existence de deux ruptures, on procédera en trois sous-périodes, le principe du test restant le même (la somme des carrés SCR étant égale à la somme des carrés des résidus des trois régressions correspondant aux trois sous-périodes). Le test de Chow suppose que l’on connaisse la date à laquelle se produit la (ou les) rupture(s). 7.9.2
Tests Cusum
Le test de Chow suppose la date de rupture connue a priori. Quand on travaille sur des séries temporelles, la date à laquelle des changements dans les coefficients interviennent n’est pas toujours facilement repérable. Mais il existe également des tests de stabilité temporelle qui permettent de déterminer les dates de rupture. Brown, Durbin et Evans (1975) ont proposé des tests de stabilité des coefficients basés sur le calcul des résidus récursifs. Ces tests graphiques permettant d’accepter ou non l’hypothèse de stabilité. L’intérêt de ces tests réside dans le fait qu’il permet d’étudier la stabilité d’une régression sans définir a priori la date de rupture sur les coefficients. Il existe deux versions de ce test : le CUSUM fondé sur la somme cumulée des résidus récursifs et le CUSUM SQ (CUSUM of Squares) fondé sur la somme cumulée du carré des résidus récursifs. Les tests Cusum sont ainsi basés sur les résidus récursifs : on procède à une représentation graphique des résidus récursifs cumulés qui permet de tester la stabilité temporelle de la régression et de visualiser les dates d’éventuelles ruptures de comportement. Pour ces deux tests, si on constate une rupture du graphique à la période t alors on rejette l’hypothèse de stabilité des coefficients de la régression pour cette période . Les tests Cusum sont disponibles sur le logiciel EViews. 54
Remarque 1.17 : Les
tests Cusum ne sont valables qu’après une estimation des paramètres par la méthode des MCO. Exercice d’application 17 : Tests de stabilité des coefficients d’un modèle
Reprenons la fonction d’importation du Sénégal, à fréquence annuelle sur la période allant de 1962 à 1995. L’estimation des paramètres par la méthode des MCO conduit aux résultats suivants :
Log MPORT t R 2
0,87,
0,65 0,75 Log PIBt (1, 87
SCR 0,134 , DW 1,06
où les chiffres entre coefficients estimés.
(15 ,19
, n 34
parenthèses correspondent
aux ratios
de Student
des
1) Tester la stabilité de la fonction d’importation du Sénégal en utilisant : a) le test de Chow (choisir les dates de rupture 1973 et 1978), b) les tests Cusum de Brown-Durbin-Evans 2) Stabiliser le modèle en utilisant les variables indicatrices. Corrigé :
1) Test de stabilité de Chow a1)
Pour la date de rupture 1978, le test de Chow aboutit aux résultats suivants :
La régression de l’importation sur le PIBR et la constante est refaite pour les 2 souspériodes 1962-1978 et 1979-1995. On obtient les résultats suivants : Sous- période 1 : 1962 à 1978 Log IMPORT t
R 12 0,46
1, 34 0, 65 Log PIBt ( 3, 63)
SCR 1 0,102
n 1 17
Sous- période 2 : 1979 à 1995 Log IMPORT t
R 22 0, 84
SCR 2 0, 014
2,15 0, 54 Log PIBt ( 8, 90 )
n 2 17 55
La statistique de Chow vaut donc : F*
SCR (SCR 1 SCR 2 ) / k SCR 1 SCR 2 / ( n 2 k )
0 ,134 ( 0 ,102 0 ,014 ) 2 2 , 302 0 ,102 0 , 014 30 La valeur critique Flu est F0,05 ( 2, 30) 3, 32
F * Flu , l’hypothèse H 0 n’est pas rejetée, les coefficients sont stables sur l’ensemble de la période. La fonction d’importation du Sénégal est stable. Les résultats du test de Chow donnés par le logiciel Eviews sont : Chow Breakpoint Test: 1978 Null Hypothesis: No breaks at specified breakpoints Varying regressors: All equation variables Equation Sample: 1962 1995 F-statistic
1.95
Prob. F(2,30)
0.16
Log likelihood ratio Wald Statistic
4.15 3.89
Prob. Chi-Square(2) Prob. Chi-Square(2)
0.12 0.14
La probabilité associée au test de Chow (0,16) est supérieure aux seuils statistiques conventionnels. L’hypothèse de stabilité n’est pas rejetée. La fonction d’importation est donc stable. a2) Pour la date de rupture 1973, le test de Chow aboutit aux résultats suivants : Chow Breakpoint Test: 1973 Null Hypothesis: No breaks at specified breakpoints Varying regressors: All equation variables Equation Sample: 1962 1995 F-statistic
Log likelihood ratio Wald Statistic
7.27
Prob. F(2,30)
0.00
13.44 14.54
Prob. Chi-Square(2) Prob. Chi-Square(2)
0.00 0.00
La statistique de Chow vaut 7,27 ; sa probabilité critique est nulle. L’hypothèse nulle de stabilité est rejetée au seuil de 1%. La fonction d’importation est instable sur la totalité de la période. Le fait de scinder en deux échantillons détériore la qualité du modèle. Le premier choc pétrolier (année 1973) est bien une date d’instabilité pour l’économie sénégalaise. 56
b) Les tests Cusum et Cusum Carré sont effectués avec le logiciel Eviews. b1) Test Cusum Ce test permet de détecter les instabilités structurelles. 20 15 10 5 0 -5 -10 -15 -20 1965
1970
1975
1980
CUS UM
1985
1990
1995
5% S ignific anc e
GRAPHIQUE 6 Test CUSUM
La courbe ne sort pas du corridor représenté en pointillés, la fonction d’importation est structurellement stable. b2) Test Cusum Carré Ce test permet de détecter les instabilités ponctuelles. 1.4 1.2 1.0 0.8 0.6 0.4 0.2 0.0 -0.2 -0.4 1965
1970
1975
1980
CUS UM of S quares
1985
1990
1995
5% S igni fi c anc e
GRAPHIQUE 6 Test CUSUM carré
La courbe sort du corridor représenté en pointillés, le modèle est ponctuellement instable. La zone d’instabilité est 1977 à 1986. Cette instabilité peut être expliquée par le deuxième choc pétrolier et par les politiques d’ajustement structurel. Au total, c’est l’hypothèse d’instabilité qui doit être acceptée.
57
2) Stabilisation du modèle par variable indicatrice Pour stabiliser le modèle, on peut utiliser une variable indicatrice (appelée aussi variable dummy). La variable indicatrice vaut 1 pendant la ou les zones d’instabilité. Elle vaut 0 ailleurs. On pose :
1 dumt 0 dumt
pour les années 1977 à 1986 ailleurs
L’estimation par les MCO du modèle corrigé conduit aux résultats suivants : Log IMPORT t 2
0,90,
SCR 0,108
0,76 0,73 Log PIB t 0,06 dum t (16 , 01
( 2 , 73
n 34
où les chiffres entre parenthèses correspondent aux ratios de Student des coefficients estimés. La variable indicatrice dum est significative au seuil statistique de 5%. Les tests Cusum effectués sur le modèle corrigé indiquent que la fonction d’importation est maintenant structurellement et ponctuellement stable. L’utilisation de la variable indicatrice a donc stabilisé le modèle.
8. La prévision à l’aide du modèle linéaire général
L’un des intérêts pratiques du modèle de régression réside dans la prévision. Ainsi une fois le modèle estimé, il est possible de l’utiliser afin de prévoir l’évolution de la variable endogène Y. Nous considérons le modèle linéaire simple : Y t a
bX t t , t 1, 2, , n
On suppose connue la valeur X n h et on cherche à déterminer la prévision de la variable expliquée pour un horizon h. Nous voulons prévoir la valeur Y n h où n est l’origine de la prévision et h l’horizon de la prévision, h N * . Le terme prévision a ici un sens différent de celui qu’il reçoit dans le langage courant. Il ne s’agit pas de prévision du futur. On cherche en fait à caractériser les simulations de politique économique que les estimations économétriques rendent possibles. La valeur de Y n h est prévue par Y n h a b X n h où estimateurs des MCO des paramètres a et b définis par : ˆ
ˆ
ˆ
58
a et b sont les ˆ
ˆ
b ˆ
Cov ( X , Y )
; a ˆ
Var ( X )
Y b X ˆ
L’intervalle de confiance des prévisions - également appelée intervalle de prévision-
au niveau 1 est donnée par : Y n h B ; Y n h B avec :
--
B
t S
ˆ
ˆ
2 X X 1 2 n X X
1
n h
n
t
t
n
-- X X t t 1
--
1 n 2 S et , et Y t Y t Y t a b n 2 t 1 2
ˆ
ˆ
ˆ
-- t est facile d’ordre 1
2
t
de la loi de Student à ( n 2 ) degrés de liberté.
Notons que la longueur de l’intervalle de prévision n’est pas constante : plus la valeur de de l’échantillon considéré, plus la n h s’écarte de la moyenne longueur de l’intervalle augmente, c’est à dire plus l’intervalle s’élargit.
Exercice d’application 18 : Prévision d’un modèle linéaire simple
L’exemple suivant concerne les importations sénégalaises en données annuelles de 1962 à 1995. L’ajustement par la méthode des moindres carrés ordinaires a donné :
Log IMPORTt 0, 65 0, 75 Log PIBR t (1, 86)
(15,19)
R 2 0, 87 ; SCR 0, 134 ; n 34 () = t de Student , log est le logarithme népérien. On a calculé : X 7, 00
;
n
(X t X) 2 1, 80 t 1
IMPORTt et X t Log PIBR t . où Yt Log Prévoir, par un intervalle de seuil 0,05, la variable Importation pour l’année 1996 sachant que le logarithme du PIBR en 1996 est fixé à 7,57.
59
Corrigé :
L’ajustement du modèle à donné : a 0, 65
et b 0, 75 ˆ
ˆ
1) La prévision pour l’année 1996 du logarithme des importations est donnée par :
Y1996 0,65 0, 75 7, 57 6, 3275 ˆ
) 559,755 La prévision de la variable importation est exp(6,3275 (exp est l’exponentiel) 2) Intervalle de prévision Déterminons d’abord l’intervalle de prévision du logarithme des importations pour l’année 1996 Calculons la valeur de S :
SCR n2
S
0,134 0,0647 34 2
Il nous faut ensuite calculer la valeur de B :
2 1 (X X ) n h B S 1 n n 2 ( X X ) t t 1
1 2
1 2
1 (7, 57 7) 2 soit B 0, 0647 1 0, 0712 34 1 , 8 La valeur de t est lue dans la table de Student à 34 2 32 degrés de liberté, on lit t 1, 96 . L’intervalle de confiance de la prévision du logarithme des importations est donné par
[Y1996 t B ; Y1996 t B] ˆ
ˆ
[6,3275 1,96 0,0712 ; 6,3275 1,96 0,0712] soit [6,1879 ; 6,4670]
60
L’intervalle de confiance de la prévision 1996 est [ exp(6,1879) ; exp(6,4670) ]
des importations du Sénégal pour l’année
soit [486,82 ; 643,55] La prévision des importations pour l’année 1996 a 95% de chances de se trouver dans cet intervalle.
P Importatio n 1996 [486,82 ; 643,55 ] 0,95 L’intervalle de confiance est assez grand, donc notre prévision n’est pas précise.
61
Application économétrique sur le modèle linéaire général Fonction d’investissement du Sénégal
« Les machines un jour pourront résoudre tous les problèmes, mais jamais aucune d'entre elles ne pourra en poser un ! » Albert Einstein
Enoncé de l’étude de cas
On dispose pour le Sénégal et sur la période 1972 à 2001, des séries macroéconomiques Investissement (INV), Produit Intérieur Brut (PIB) et Taux d’intérêt réel (TXINT). Nous disposons des données annuelles du tableau 1. On fait l’hypothèse que les variables INV, PIB et TXINT vérifient le modèle linéaire général :
log( INV t ) 1 2 log( PIBt ) 3 TXINT t t 1) Tester l’hypothèse de corrélation linéaire entre les variables : a) INV et PIB ; b) INV et TXINT ; c) PIB et TXINT ; 2) Tester la normalité et la lognormalité des variables INV, PIB et TXINT, (Utiliser le test de Jarque Bera ). 3) Estimer les paramètres du modèle par la méthode des moindres carrés ordinaires. Interpréter économiquement les paramètres estimés. 4) Interpréter la valeur du coefficient de détermination 5) Effectuer les tests suivants : a) Significativité des variables explicatives (Student) ; b) Significativité globale du modèle (Fisher) ; c) Normalité des erreurs (Jarque-Bera); d) Hétéroscédasticité des erreurs ; d1) Test de White ; d2) Test ARCH ; 62
R 2 .
e) Corrélation des erreurs de Breusch-Godfrey ; e3) Estimer les paramètres par la méthode de Cochrane-Orcutt dans le cas où les erreurs sont corrélées ; f) Spécification du modèle (Ramsey) ; g) Stabilité des coefficients du modèle g1) Test de Chow ; g2) Tests CUSUM de Brown, Durbin et Evans ; 6) Simuler le modèle et prévoir la variable investissement pour les années 2002 à 2004. 7) Rappeler les critères de prévision Tableau 1. Investissement, PIB et Taux d’intérêt réel Date
INV
PIB
TXINT
1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998
158 202 275 289 264 287 316 314 350 317 316 317 300 270 429 574 633 548 787 708 894 765 676 748 859 789 866
1090 1255 1414 1906 1933 1979 2209 2751 2987 2479 2583 2480 2337 2579 3763 4600 4980 4626 5698 5500 6027 5431 3642 4476 4651 4387 4646
3.5 5.5 5.5 8 8 8 8 8 10.5 10.5 12.5 10.5 10.5 10.5 8.5 8.5 9.5 11 11 11 12.5 10.5 10 7.5 6.5 6.5 6.25
63
1999 2000 2001 2002 2003 2004
905 867 925
4752 4371 4620 4625 4635 4650
5.75 6.5 6.5 6.75 6.85 7.5
La période 2002 à 2004 est utilisée pour des fins de prévisions. Corrigé de l’étude de cas 1) Test du coefficient de corrélation linaire
Le test d’hypothèses est le suivant : H 0 : les variables X et Y ne sont pas corrélées H 1 : les variables X et Y sont corrélées La règle de décision est :
On ne rejette pas l’hypothèse H0 de non corrélation dès que la valeur de Probability est supérieure à 5%. On rejette l’hypothèse H0 de non corrélation Probability est inférieure ou égale à 5%.
dès que la valeur de
Instruction EVIEWS 6 Cliquer sur
puis Taper INV PIB TXINT puis OK Cliquer sur puis puis OK Covariance Analysis: Ordinary Sample (adjusted): 1972 2001 Included observations: 30 after adjustments Balanced sample (listwise missing value deletion) Correlation Probability INV PIB
INV 1.0000 ----0.9028
PIB
1.0000 0.0000 -----0.0068 0.3025
TXINT
0.9714
64
TXINT
1.0000 0.1041 -----
a) H 0 : les variables INV et PIB ne sont pas corrélées H1 : les variables INV et PIB sont corrélées le coefficient de corrélation linéaire est 0,9028. La probabilité critique est nulle. Les variables INV et PIB sont corrélées positivement. b) H 0 : les variables INV et TXINT ne sont pas corrélées H1 : les variables INV et TXINT sont corrélées Le coefficient de corrélation linéaire est - 0,0068. La probabilité critique est vaut 0,9714. Les variables INV et TXINT ne sont pas corrélées. c) H 0 : les variables PIB et TXINT ne sont pas corrélées H1 : les variables PIB et TXINT sont corrélées Le coefficient de corrélation linéaire est 0,3025. La probabilité critique Les variables PIB et TXINT ne sont pas corrélées.
vaut 0,1041.
2) Test de normalité de Jarque-Bera
Le test d’hypothèses est le suivant :
H0 : la variable X H1 : la variable X
suit une loi normale m, ne suit pas une loi normale
m,
La règle de décision est :
On ne rejette pas l’hypothèse H0 de normalité dès que la valeur de Probability est supérieure à 5%. On rejette l’hypothèse H0 de normalité dès que la valeur de Probability est inférieure ou égale à 5% Instruction EVIEWS
Cliquer sur puis puis Saisir ensuite dans la fenêtre « Series List » inv log(inv) pib log(pib) txint log(txint)
65
Statistics> puis
Tableau 2. Caractéristiques de distribution des séries
INV 531.600 488.500 925.000 158.000 259.740 0.193 1.410
Log(INV) 6.146 6.183 6.829 5.062 0.533 -0.171 1.656
PIB 3538.400 3702.500 6027.000 1090.000 1459.118 -0.047587 1.700699
Log(PIB) 8.072 8.216 8.704 6.993 0.478 -0.608 2.333
TXINT 8.583 8.250 12.500 3.500 2.286 -0.162 2.189
Log(TXINT) 2.111 2.109 2.525 1.252 0.294 -0.803 3.487
Jarque-Bera Probability
3.345
2.402
2.121
2.408
0.954
3.523
0.187
0.300
0.346
0.299
0.620
0.171
observations
30
30
30
30
30
30
Mean Median Maximum Minimum Std. Dev. Skewness Kurtosis
Toutes les probabilités critiques sont supérieures à 5%. Les séries INV, PIB et TXINT du Sénégal suivent des lois normales et lognormales sur la période 1972 à 2001. Remarque : Une variable X suit une loi lognormale si son logarithme suit une loi normale. 3) Estimation par les moindres carrés ordinaires des coefficients du modèle a) Estimation de la relation de long terme par la méthode des moindres carrés ordinaires (MCO) Instruction EVIEWS
Renter dans l’ordre : log(inv) c log(pib) txint (Série à expliquer, Constante, Variables explicatives). On obtient alors l’estimation du modèle linéaire général ( LS : Least Squares : Moindres Carrés Ordinaires)
66
Tableau 3. Estimation du modèle d’investissement
Dependent Variable: LOG(INV) Method: Least Squares Sample(adjusted): 1972 2001 Included observations: 30 after adjusting endpoints Variable Coefficient Std. Error t-Statistic C -2.599391 0.444296 -5.850588 LOG(PIB) 1.150813 0.058314 19.73462 TXINT -0.063363 0.012197 -5.194884 R-squared 0.935858 Mean dependent var Adjusted R-squared 0.931107 S.D. dependent var S.E. of regression 0.139953 Akaike info criterion Sum squared resid 0.528842 Schwarz criterion Log likelihood 18.00579 F-statistic Durbin-Watson stat 1.102590 Prob(F-statistic)
Prob. 0.0000 0.0000 0.0000 6.146406 0.533203 -1.000386 -0.860266 196.9703 0.000000
b) Interprétation économique des paramètres
2
log inv inv / inv log pib pib/ ib : inv
On a :
2 ˆ
inv
1,15
2
élasticité de l’investissement par rapport au PIB.
pib ib
si le PIB augmente de 10% alors l’investissement augmente de
11,5%, toutes choses égales par ailleurs (c’est à dire si les taux d’intérêts réels restent constants).
log inv inv / inv 3 tx int tx int
: semi élasticité de l’investissement par rapport au
taux d’intérêt réel. On a :
3 ˆ
inv inv
0,063
3 tx int
si le taux d’intérêt réel augmente d’un point (100%) , alors
l’investissement diminue le PIB reste constant).
de 6,3%, toutes choses égales par ailleurs (c’est à dire si
4) Interprétation du coefficient de détermination
R 2 0,9358 93,58% des fluctuations de l’investissement sont expliquées par le PIB et le taux d’intérêt réel. 67
5) Tests classiques a) Test de significativité des variables explicatives (Student)
Le test d’hypothèses est le suivant :
H0 : le coefficient ai associé à la variable Xi est nul H1 : le coefficient ai associé à la variable Xi est différent de 0 La règle de décision est :
On ne rejette pas l’hypothèse H0 si la valeur de Probability est supérieure à 5% la variable Xi n’a pas un impact significatif sur la variable endogène Y. On rejette l’hypothèse H0 dans le cas contraire la variable Xi a impact significatif sur la variable endogène Y.
un
-- Testons
H0 : le coefficient 2
est nul
H1 : le coefficient 2
est différent de 0
contre
La probabilité critique associée à la variable log(PIB) est nulle. On accepte l’hypothèse H1 . Le PIB a un impact positif significatif sur l’investissement. -- Testons
H0 : le coefficient 3
est nul
H1 : le coefficient 3
est différent de 0
contre
La probabilité critique associée à la variable TXINT est nulle. On accepte l’hypothèse H1 . Le taux d’intérêt réel a un impact négatif significatif sur l’investissement. b) Test de significativité globale du modèle (Fisher)
H0 : le modèle n’est pas globalement significatif contre
H1 : le modèle est globalement significatif La statistique de Fisher vaut 196,9703. Sa probabilité critique est nulle. On accepte l’hypothèse H1 . Les variables PIB et Taux d’intérêt réel ont globalement un impact significatif sur l’investissement.
68
c) Test de normalité des erreurs
H0 : les erreurs suivent une loi normale contre
H1 : les erreurs ne suivent pas une loi normale La règle de décision est la suivante :
On ne rejette pas l’hypothèse H0 de normalité des erreurs dès que la probabilité critique (Probability) est supérieure à 5%. On rejette l’hypothèse H0 de normalité des erreurs dès que la probabilité critique (Probability) est inférieure ou égale supérieure à 5%.
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires 14 Series: Residuals Sample 1972 2001 Observations 30
12 10 8
Mean Median Maximum Minimum Std.Dev. Skewness Kurtosis
6 4 2 0 -0.2
0.0
0.2
4.44E-17 0.028670 0.312213 -0.275180 0.135040 -0.158678 3.003585
Jarque-Bera 0.125910 Probability 0.938986
La statistique de Jarque-Bera est 0,1259. Sa probabilité critique vaut 0,9389. On ne rejette pas l’hypothèse de normalité des erreurs. d) Test d’homocédasticité des erreurs de
White
d1) Test de White
H 0 : les erreurs sont homocédastiques H 1 : les erreurs sont hétéroscédastiques La règle de décision est la suivante :
On ne rejette pas l’hypothèse H0 d’homocédasticité dès que la probabilité critique (Probability) est supérieure à 5%. On rejette l’hypothèse H0 d’homocédasticité dès que la probabilité critique (Probability) est inférieure ou égale à 5%. 69
Le logiciel Eviews propose deux options pour le test de White . Option 1 : Test de White sans termes croisés Instruction EVIEWS
Après avoir estimé les paramètres par les moindres carrés ordinaires Cliquer sur puis puis White Heteroskedasticity Test (no cross terms) 0.062987 Probability F-statistic 0.299319 Probability Obs*R-squared
0.992219 0.989858
Les deux probabilités critiques sont supérieures à 5%. On ne rejette pas l’hypothèse d’homocédasticité des erreurs. Option 2 : Test de White avec termes croisés Instruction EVIEWS
Après avoir estimé les paramètres par les moindres carrés ordinaires Cliquer sur puis puis White Heteroskedasticity Test (cross terms)
F-statistic Obs*R-squared
3.790150 13.23661
Probability Probability
0.011350 0.021260
Les deux probabilités critiques sont inférieures à 5%. On rejette l’hypothèse d’homocédasticité des erreurs. Au total, c’est l’hypothèse d’hétéroscédasticité qui doit être acceptée. d2) Test ARCH
H 0 : les erreurs ne suivent pas un modèle ARCH d’ordre 1 elles sont homocédastiques H1 : les erreurs suivent un modèle ARCH d’ordre 1 elles sont conditionnellement hétéroscédastiques Instruction EVIEWS
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires Cliquer sur puis puis < ARCH LM Test> Dans la fenêtre « Lag to include », taper 1 Test ARCH Test ARCH(1) :
F-statistic Obs*R-squared
0.006502 0.006982
Probability Probability 70
0.936326 0.933407
Les deux probabilités sont supérieures à 5%. Les erreurs ne suivent pas un modèle ARCH d’ordre 1 noté ARCH(1). Les erreurs sont homocédastiques. Tableau 4. Régression autorégressive
Test Equation: Dependent Variable: RESID^2 Method: Least Squares Sample(adjusted): 1973 2001 Included observations: 29 after adjusting endpoints Variable Coefficient Std. Error C 0.017571 0.005933 RESID^2(-1) -0.015477 0.191939 R-squared 0.000241 Mean dependent var Adjusted R-squared -0.036787 S.D. dependent var S.E. of regression 0.026232 Akaike info criterion Sum squared resid 0.018579 Schwarz criterion Log likelihood 65.46965 F-statistic Durbin-Watson stat 1.972229 Prob(F-statistic)
t-Statistic 2.961351
Prob. 0.0063
-0.080636
0.9363
0.017298 0.025762 -4.377217 -4.282921 0.006502 0.936326
Le paramètre 1 est significativement égal à zéro. L’hypothèse d’homocédasticité des erreurs n’est pas rejetée. e) Test de corrélation des erreurs de Breusch-Godfrey
Le test d’hypothèses est :
H 0 : les erreurs ne sont pas corrélées H 1 : les erreurs sont corrélées On ne rejette pas l’hypothèse H 0 si la valeur de Probability est supérieure à 5%. On rejette l’hypothèse H 0 si la valeur de Probability est inférieure ou égale à 5%. Testons une autocorrélation d’ordre 1 des erreurs. Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires Saisir 1 dans la fenêtre «Lag to include » Breusch-Godfrey Serial Correlation LM Test:
F-statistic Obs*R-squared
5.603920 5.319517
Probability Probability
Les valeurs des probabilités sont inférieures à 5%, on rejette corrélation des erreurs.
0.025646 0.021088 l’hypothèse de non
Si on désire tester une autocorrélation d’ordre 2 des erreurs, alors on choisit 2 pour «Lag to include ». 71
Remarque : Les erreurs sont corrélées, la méthode des moindres carrés n’est plus optimale. On peut utiliser la méthode d’estimation de Cochrane-Orcutt. Correction de l’autocorrélation par la méthode de Cochrane Orcutt
La méthode de Cochrane-Orcutt est une méthode d’estimation des paramètres qui doit être utilisée en cas de corrélation des erreurs. Nous avons vu que les erreurs du modèle linéaire étaient corrélées. Nous donnons ci-dessous les estimations obtenues par la méthode de Cochrane Orcutt. Estimation par la méthode de Cochrane-Orcutt Instruction EVIEWS
Rentrer dans l’ordre : log(inv) c log(pib) txint ar(1) Tableau 5. Estimation par la méthode de Cochrane-Orcutt
Dependent Variable: LOG(INV) Method: Least Squares Sample(adjusted): 1973 2001 Included observations: 29 after adjusting endpoints Convergence achieved after 15 iterations
Variable C LOG(PIB) TXINT AR(1) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat
Inverted AR Roots
Coefficient 0.282131 0.766443 -0.017902 0.864431 0.952100 0.946351 0.116056 0.336726 23.45961
Std. Error t-Statistic 1.371151 0.205762 0.159034 4.819354 0.019576 -0.914448 0.108455 7.970425 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion F-statistic Prob(F-statistic)
2.443466
Prob. 0.8386 0.0001 0.3692 0.0000 6.183779 0.501060 -1.342042 -1.153450 165.6385 0.000000
.86
Convergence assurée après 15 itérations.
Testons la corrélation des erreurs du modèle estimé par la méthode de CochraneOrcutt en utilisant la méthode de Breusch-Godfrey Après avoir estimé les paramètres par la méthode de Cochrane-Orcutt Saisir 1 dans la fenêtre “Lag to include” Breusch-Godfrey Serial Correlation LM Test:
F-statistic Obs*R-squared
2.009490 2.240536
Probability Probability
72
0.169171 0.134434
Les valeurs des probabilités sont supérieures à 5%, on ne rejette pas l’hypothèse de non corrélation des erreurs. La méthode de Cochrane-Orcutt a donc corrigé la corrélation des erreurs. f) Test Reset de Ramsey
H 0 : le modèle est bien spécifié H 1 : le modèle est mal spécifié On ne rejette pas l’hypothèse H 0 si la valeur de Probability est supérieure à 5%. On rejette l’hypothèse H 0 si la valeur de Probability est inférieure ou égale à 5%. Si le modèle est mal spécifié alors il manque des variables explicatives pertinentes dans le modèle. Instruction EVIEWS
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires < Stability Tests> < Ramsey Reset Test> Ramsey RESET Test:
F-statistic Log likelihood ratio
1.896326 6.381662
Probability Probability
0.157185 0.094448
Les deux probabilités sont supérieures à 5%, on accepte l’hypothèse H 0 . Le modèle est bien spécifié. g) Tests de stabilité des paramètres
L’un des critères les plus importants pour l’estimation d’un modèle est qu’elle doit rester valable pour des données autres que celles qui ont été utilisées lors de l’estimation. Ce critère est celui de la constance des paramètres. g1) Test de Chow
H 0 : le modèle est stable H 1 : le modèle est instable
Les coefficients du modèle sont stables supérieure à 5%.
si la valeur de probability est
Les coefficients du modèle sont instables si la valeur de probability est inférieure ou égale à 5%.
73
Nous allons choisir deux dates de rupture : 1981 et 1994 -- Point de rupture 1981
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires < Stability Tests> < Saisir 1981> Chow Breakpoint Test: 1981
F-statistic Log likelihood ratio
1.340279 4.646839
Probability Probability
0.284748 0.199561
Les deux probabilités sont supérieures à 5% : le modèle est stable. -- Point de rupture 1994 (Dévaluation du franc FCFA)
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires < Stability Tests> Chow Breakpoint Test : 1994
F-statistic Log likelihood ratio
5.972873 16.73029
Probability Probability
0.003430 0.000803
Les deux probabilités sont inférieures à 5% , le modèle est instable. On a un changement de régime entre les deux périodes. L’année de la dévaluation du franc CFA (1994) est bien une date d’instabilité pour l’économie sénégalaise. g2) Tests CUSUM de Brown, Durbin et Ewans Ces tests ne sont exécutables qu’après une estimation par la méthode des moindres carrés ordinaires.
-- Test CUSUM
Ce test permet de détecter les instabilités structurelles Instruction EVIEWS
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires < Stability Tests> < Cusum Test> La règle de décision est la suivante :
Si la courbe ne coupe pas les bornes du stable.
corridor alors le modèle est
Si la courbe coupe les bornes du corridor alors le modèle est instable. Dans ce cas, la courbe indique la période d’instabilité. 74
20
10
0
-10
-20 76
78
80
82
84
86
88
C US UM
90
92
94
96
98
00
5% S i gni fi cance
Conclusion : La courbe ne coupe pas le corridor, le modèle est structurellement stable.
-- Test Cusum Carré
Ce test permet de détecter les instabilités ponctuelles Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires < Stability Tests> < Cusum of Squares Test> 1.6
1.2
0.8
0.4
0.0
-0.4 76
78
80
82
84
86
88
C U SU M of Squares
90
92
94
96
98
00
5% Si gni f i cance
Conclusion : La courbe ne coupe pas le corridor, le modèle est ponctuellement stable. On peut remarquer sur le graphique que la date 1989 est une date de quasi instabilité ponctuelle (Troubles suite aux élections de 1988, problème avec la Mauritanie). 6) Simulation et prévision du modèle estimé par la méthode des moindres carrés ordinaires 6.1) Simulation Instruction EVIEWS
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires , cliquer sur Resids 75
7. 0
6. 5
6. 0 0. 4
5. 5
0. 2
5. 0
0. 0
-0.2
-0.4 75
80
85
90
R esi dual
95
A ctual
00
Fi tted
Les courbes des séries observée (actual) et ajustée (fitted) sont proches. L’erreur commise est faible, cette erreur sera quantifiée à l’aide des critères de prévision. Le modèle a des chances d’avoir un bon pouvoir prédictif car il reproduit « fidèlement » le passé. 6.2) Prévision Instruction EVIEWS
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires , cliquer sur Forecast. Le logiciel indique l’intervalle de prévision et les critères de prévision. -- Intervalle de prévision 1200
1000
800
600
400
200
0 75
80
85
90
INV PR EV
76
95 ± 2 S. E.
00
-- Critères de prévision
Forecast: INVF Actual: LOG(INV) Sample: 1972 2004 Include observations: 30 Root Mean Squared Error Mean Absolute Error
0.132771 0.100651
Mean Absolute Percentage Error Theil Inequality Coefficient
1.657931 0.010763
Bias Proportion Variance Proportion Covariance Proportion
0.000000 0.016571 0.983429
MAPE : Mean Absolute Percentage Error (Erreur absolue moyenne en pourcentage) Theil Inequality Coefficient : Critère U de Theil Nous utilisons les critères de prévision MAPE et U de Theil pour apprécier les performances prévisionnelles. L’erreur absolue moyenne en pourcentage est égale à 1,66%. Le modèle fait moins de 2% d’erreur. Le critère U de Thieil est proche de 0. les 2 critères indiquent que le modèle a de bonnes performances prévisionnelles. -- Prévision
Les prévisions obtenues sont données dans le tableau 7 ci-après : Tableau 7. Prévision à un horizon de trois années
Année 2002 2003 2004
Investissement 800,2217 797,1461 767,8316
7) Critères de prévision
Y1, Y2 ,, Yn les n valeurs observées ˆ 1, Yˆ 2 ,, Yˆ n les prévisions associées Soient Y Soient
ˆ i, Posons e i Yi Y
i 1,, n
Les critères ci-dessous sont utilisés pour juger de la qualité de la méthode de prévision 77
a) Root Mean Squared Error (Erreur quadratique moyenne)
n
RMSE(e)
1 ei 2 n i 1
Ce critère est exprimé dans les mêmes unités que les données. b) Mean Absolute Error ( Erreur absolue moyenne)
n
MAE(e) 1 ei n i 1
c) Mean Absolute Percentage Error (Erreur absolue moyenne en pourcentage)
n e i 1 MAPE(e) n i 1 Yi
d) Theil Inequality Coefficient (Critère U de Theil)
n
Y i Yˆ i Y i 1 i 2 n Y i Y i Y i 1 i 2
U
2
1
2
On a toujours 0 U 1 U vaut 0 si les prévisions sont parfaites. Une valeur égale à 1 indique que la méthode naïve est aussi bonne que la méthode de prévision examinée. Une valeur de U entre 0 et 1 survient quand la méthode de prévision étudiée est meilleure que la méthode naïve. Dans le cas où U > 1, la méthode naïve donne de meilleurs résultats.
78
Objectifs pédagogiques du chapitre 2
Lorsque vous aurez complété l’étude du chapitre 2, vous pourrez :
distinguer entre modèle linéaire autorégressif et modèle à retards échelonnés; maîtriser l’économétrie du modèle linéaire autorégressif ; maîtriser l’économétrie du modèle à retards échelonnés ; déterminer le nombre de décalages du modèle à retards échelonnés en utilisant les critères d’information de Akaike et de Schwarz.
79
1. Introduction
Dans le chapitre 1, nous avons essentiellement considéré des modèles dans lesquels les variables sont toutes exprimées au même instant du temps. Sur de tels modèles, les effets sont dits synchrones. La théorie économique postule couramment des effets retardés qui peuvent être de deux types : les modèles autorégressifs et les modèles à retards échelonnés. Dans le modèle autorégressif, la variable retardée est la variable endogène. Par contre, dans les modèles à retards échelonnés, les variables exogènes apparaissent avec plusieurs décalages. 2. Pourquoi introduire des retards ? Quelques exemples
En économie, il est fréquent que la valeur présente de la variable endogène dépende des valeurs passées des variables exogènes. En d’autres termes, l’influence des variables explicatives ne s’exerce qu’après un certain temps, appelé retard ou décalage. La présence de telles variables peut, en fait, être justifiée par des motifs divers : intégration d’un schéma d’anticipation dans l’équation, phénomènes de mémoire ou tendance à l’inertie (par exemple, modèles faisant dépendre la consommation de la date t à la consommation de la date t 1 ), existence de temps de réaction psychologiques ou technique (par exemple, modèles faisant dépendre la consommation de la date t du revenu de la date t 1 pour la raison que le revenu doit être perçu avant d’être dépensé), etc. 3. Les modèles linéaires autorégressifs 3.1 Formulation générale
Lorsqu’on étudie un phénomène économique, il arrive souvent qu’à côté de la valeur prise par la variable endogène à l’instant t figurent les valeurs prises par cette même variable aux instants t 1, t 2 , , t h . Dans ce cas on se trouve en présence d’un modèle autorégressif. Soit la formulation
Yt b1Yt 1 b 2 Yt 2 b h Yt h a 0 a1X1t a 2 X 2t a k X kt ε t ou encore h
Yt
k
b j Y t j a 0
j 1
a i X it ε t
i1
3.2. Modèle autorégressif d’ordre un
Le modèle général spécifié ci-dessus est rarement utilisé, le plus souvent nous nous limitons à des modèles autorégressifs d’ordre un de la forme :
Y t bY t 1 a0 a1
1t
a2 80
2t
ak
kt
t
Ce modèle est dit stable si
b
1
et explosif si b
1.
Un exemple classique de modèle autorégressif d’ordre un est :
C t b C t 1 a0 où C t est la consommation au temps t et
a1 t
t
t
le revenu au temps t.
3.3 Elasticités de court et long termes
Considérons le modèle linéaire autorégressif d’ordre un dans lequel toutes les variables sont exprimées en logarithmes népériens :
log(Y t ) b log(Y t 1 ) a0 a1 log(
1t
) a2 log( X 2t ) ak log( X kt ) t
Le coefficient a0 représente la constante du modèle. Les coefficients Les coefficients
a1, a2 ,, ak a1
,
a2
1 b 1 b
, ,
sont les élasticités de court terme. ak
1b
sont les élasticités de long terme.
3.4 Tests d’autocorrélation des erreurs et méthodes d’estimation
La méthode d’estimation adéquate dépend d’une éventuelle autocorrélation des erreurs ; or dans le cas d’un modèle autorégressif, le test du Durbin et Watson a une puissance limitée et est biaisé. C’est pourquoi il convient d’utiliser le test de Breusch et Godfrey (1978). Si les erreurs ne sont pas corrélées, alors on estime les paramètres par la méthode des moindres carrés ordinaires. En cas d’autocorrélation des erreurs, nous pouvons utiliser différentes méthodes d’estimation : la méthode de Cochrane et Orcutt, la méthode de Hildreth-Lu, la méthode du maximum de vraisemblance ou la méthode des variables instrumentales. 4. Les modèles à retards échelonnés 4.1 Formulation générale
Nous avons vu précédemment les modèles comportant des variables endogènes retardées. Il arrive souvent également que les variables intervenant dans les modèles apparaissent non seulement au temps t mais aussi aux instants
t 1, t 2,
Ce type de modèle est un modèle à retards échelonnés. Son estimation ne pose pas de problème puisque les variables retardées sont des exogènes. 81
Le modè modèle le à reta retard rdss éche échelo lonn nnés és se prés présen ente te sous sous la forme forme :
Yt b 0 a 0 X t a1 X t 1 a 2 X t 2 a h X t h ε t h
a j X t j b 0 ε t
j 0
En généra général,l, l’effet l’effet de la variab variable le explic explicativ ative e s’esto s’estompe mpe avec avec le temps temps :
a 0 a1 a 2 a h Le no nombre de retards, h, h, peut êt être fin fini ou in infin fini. Cependant, la la somme des coefficients a tend tend vers vers une limite limite finie, finie, sinon sinon Yt serait serait un proces processus sus explo explosif sif.. Les coeffic coefficien ients ts a 0 , a1, a 2 ,, a h repr représ ésen ente tent nt des des mult multip iplic licat ateu eurs rs instan instanta tané néss et leur somme ( a 0 a1 a 2 a h ) le multip multiplic licate ateur ur cumulé cumulé.. Un exempl exemple e classi classiqu que e de modèle modèle à retard retardss échelo échelonné nnéss est : t
b0 a0 P t a1 P t 1 a2 P t 2 t
où I est est l’in l’inve vest stis isse seme ment nt et P le prof profitit.. Ce exem exempl ple e est est just justififié ié par par la théo théori rie e économ économiqu ique e postul postulant ant que les dépens dépenses es d’inve d’investi stisse ssemen mentt peuven peuventt être expliq expliquée uéess par les profits profits passés passés.. 4.2 Dét Déterm ermina inatio tion n du nom nombre bre de ret retard ards s
Il exist existe e de nombre nombreux ux critèr critères es statis statistiq tiques ues permet permettan tantt de déterm détermine inerr la valeur valeur du nomb nombre re de retar retards ds d’un d’un modè modèle le à reta retard rdss éche échelo lonn nnés és.. Dans Dans la prati pratiqu que, e, il s’ag s’agitit de déte déterm rmin ine er la périod riode e max maximum imum d’in d’infl flu uence ence de la série érie expl explic icat ativ ive. e. Pour Pour déterm détermine inerr le nombre nombre de retard retards, s, on utilis utilise e les critère critèress d’info d’informat rmation ion : Akaike Akaike (AIC), (AIC), Schw Schwar arzz (SC) (SC) ou Hann Hannan an Quin Quinn n (HAN (HAN). ). Nous Nous expo exposo sons ns dans dans cett cette e sect sectio ion n les les critères AIC et SC. 4.2.1 Critè Critère re de Aka Akaike ike (197 (1974) 4)
Cette Cette méth méthod ode e cons consis iste te à rete reteni nirr comm comme e vale valeur ur de h cell celle e qui qui mini minimi mise se la fonct fonctio ion n de Akaike qui est donnée par :
SCR h 2 h AIC(h) Log n n Résidus pour le modèle modèle à h retards retards Somme des Carrés des Résidus n nombre d’observ d’observations ations disponib disponibles les logarithme népérien népérien Log logarithme
avec SCR h
82
4.2.2 4.2 .2 Cr Critèr itère e de Sch Schwar warz z (19 (1978) 78)
Cette ette méth méthod ode e très très proc proche he de la préc précé édent dente e consi onsisste à rete reteni nirr la valeu aleurr h qui minimis minimise e la fonctio fonction n de Schwa Schwarz rz :
SCR h h log(n) SC(h) Log n n Pour Pour ces ces deux deux critè critère res, s, la proc procéd édur ure e cons consis iste te à insé insére rerr des des retar retards ds succ succes essi sifs fs et à arrê arrêter ter la spéc spécifi ifica catio tion n du modè modèle le au mome moment nt où la vale valeur ur des des deux deux stat statis istitiqu ques es ne diminu diminue e plus. plus.
Remarque Remar que : Principe Principe de parc parcimonie imonie
Il peut peut arri arrivver que que les les crit critèr ères es AIC AIC et SC ne donn donnen entt pas pas le même même résu résultltat at.. Dans Dans cett cette e situ situat atio ion, n, le prin princi cipe pe de parc parcim imon onie ie invi invite te à choi choisi sirr le nomb nombre re de reta retard rdss le plus plus faib faible le.. On choi choissit ains ainsii le modè modèle le qui qui a le plus plus faib faible le nomb nombre re de para paramè mètr tres es c’es c’estt à dire dire celu celuii qui qui maxi maximi mise se les les degr degrés és de libe liberté rté..
83
Partie 2. App Applicatio lications ns écon économétr ométriques iques Appli Ap plicat cation ion 1 : Mo Modèl dèle e lin linéai éaire re aut autoré orégre gressif ssif Enoncé Eno ncé de l’a l’appl pplica icatio tion n 1
On dispose pour le Sénégal et sur la période 1972 à 2001, des séries macr macroé oéco cono nomi miqu ques es Inve Invest stis isse seme ment nt (INV (INV)) et Prod Produi uitt Inté Intéri rieu eurr Brut Brut (PIB (PIB)) et Taux Taux d’in d’inté térê rêtt (TXI (TXINT NT). ). Nous Nous disp dispos oson onss des des donn donnée éess du tabl tablea eau u 1. On fait fait l’hy l’hypo poth thès èse e que les varia variable bless INV, INV, PIB et TXINT TXINT vérifi vérifient ent le modèle modèle linéai linéaire re autoré autorégre gressi ssiff :
log( INV t ) b log( INV t 1 ) a 0. a1 log( IBt ) a2 TXINT t t 1) Esti Estime merr les les para paramè mètr tres es mod modèle èle liné linéai aire re autor utoré égress ressiif par par la méth méthod ode e des des moindres moindres carrés ordinaires. ordinaires. 2) Interpr Interpréte éterr écono économiq miquem uement ent les élasti élasticit cités és de court court et de long long termes termes.. 3) Interpr Interpréte éterr la valeur valeur du coeffi coefficie cient nt de déterm détermina inatio tion n R2 . 4) Effectu Effectuer er les tests tests suiva suivants nts : a) Signific Significativi ativité té des variables variables explicativ explicatives es (Studen (Student) t) ; b) Signifi Significat cativi ivité té global globale e du modèle modèle (Fish (Fisher) er) ; c) Normalit Normalité é des erreurs erreurs (Jarqu (Jarque-Bera e-Bera); ); d) Hétéroscéd Hétéroscédastic asticité ité des erreurs erreurs d1) d1) Tes Testt de White White ; d2) Test Test ARCH ARCH ; e) Corrél Corrélati ation on des erreur erreurss de Breusc Breusch-G h-God odfrey frey f) Spécification Spécification du modèle modèle (Ramsey) (Ramsey) ; g) Stabil Stabilité ité des coeffi coefficie cients nts du modèle modèle g1) g1) Tes Testt de Chow Chow ; g2) g2) Test Testss CUSU CUSUM M de Brow Brown, n, Durb Durbin in et Evan Evanss ; 5) Déterm Détermine inerr la prévi prévisio sion n d’inve d’investi stisse ssemen mentt pour pour les années années 2002 2002 à 2004 2004
84
TABLEAU 1 Investissement, PIB et Taux d’intérêt du Sénégal
Date
INV
PIB
TXINT
1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004
158 202 275 289 264 287 316 314 350 317 316 317 300 270 429 574 633 548 787 708 894 765 676 748 859 789 866 905 867 925
1090 1255 1414 1906 1933 1979 2209 2751 2987 2479 2583 2480 2337 2579 3763 4600 4980 4626 5698 5500 6027 5431 3642 4476 4651 4387 4646 4752 4371 4620 4625 4635 4650
3.5 5.5 5.5 8 8 8 8 8 10.5 10.5 12.5 10.5 10.5 10.5 8.5 8.5 9.5 11 11 11 12.5 10.5 10 7.5 6.5 6.5 6.25 5.75 6.5 6.5 6.75 6.85 7.5
La période 2002 à 2004 est utilisée à des fins de prévisions.
85
Corrigé de l’application 1
Instruction EVIEWS
Renter dans l’ordre :
log(inv) c log(inv(-1)) log(pib) txint
L’estimation des paramètres par les MCO conduit aux résultats tableau 2.
figurant dans le
TABLEAU 2 Estimation du modèle linéaire autorégressif par les MCO
Dependent Variable: LOG(INV) Variable C LOG(INV(-1)) LOG(PIB) TXINT R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic)
Coefficient -1.2653 0.4280 0.6465 -0.0474 0.9659 0.9618 0.0978 0.2393 28.41091 236.4473 0.0000
Std. Error 0.3981 0.0835 0.1024 0.0099 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat
t-Statistic -3.1783 5.1242 6.3098 -4.7794 6.1837 0.5010 -1.6835 -1.4949 2.4036
Prob. 0.0039 0.0000 0.0000 0.0001
Les paramètres estimés sont :
b
ˆ
0,428
a0 ˆ
1,265
a1 ˆ
0,646
a2 ˆ
0,047
2) Elasticités de court et de long termes 2.1) Elasticités de court terme -- L’élasticité de court terme de l’investissement par rapport au PIB est a 0,646 . A court terme, si le PIB augmente de 10%, alors l’investissement
1
ˆ
augmente de 6,46%. -- La semi élasticité de court terme de l’investissement par rapport au taux d’intérêt est a 0,047 . A court terme, si le taux d’intérêt augmente d’un point ˆ
2
(100%), alors l’investissement diminue de 4,7%.
86
2.2) Elasticités de long terme -- L’élasticité a1 ˆ
1 b
de
long
terme
de
l’investissement
par
rapport
au
PIB
est
1,129 . A long terme, si le PIB augmente de 10%, alors l’investissement
ˆ
augmente de 11,29%. -- La semi élasticité de long terme de l’investissement par rapport au taux a2 0,082 . A long terme, si le taux d’intérêt augmente d’un d’intérêt est 1 b point (100%), alors l’investissement diminue de 8,2%. ˆ
ˆ
2
0,9659 . On peut dire que 3) La valeur du coefficient de détermination est 96,59% des fluctuations du logarithme de l’investissement courant sont expliquées par le logarithme de l’investissement de la période courant et les taux d’intérêt courants.
t 1 , le logarithme du PIB
NB : Pour les réponses des questions 4 et 5, nous renvoyons le lecteur au corrigé de l’étude de cas 1 du chapitre 1.
87
Application économétrique 2 : modèle à retards échelonnés
Détermination du nombre de retards dans un
Enoncé du cas 2
La théorie économique postule que les dépenses d’investissement (notées Yt ) peuvent être expliquées par les profits passés (notés X t ). Le modèle prend alors la forme du modèle à retards échelonnés ci-dessous :
Yt b 0 a 0 X t a1 X t 1 a 2 X t 2 a h X t h ε t Nous disposons des données trimestrielles du chimique française.
tableau
3
concernant
l’industrie
Déterminer le nombre de décalages trimestriels qui semblent avoir un effet sur les dépenses d’investissement. TABLEAU 3. Dépenses d’investissement et profit
Date 1980:1 1980:2 1980:3 1980:4 1981:1 1981:2 1981:3 1981:4 1982:1 1982:2 1982:3 1982:4 1983:1 1983:2 1983:3 1983:4 1984:1 1984:2 1984:3 1984:4 1985:1 1985:2 1985:3 1985:4 1986:1 1986:2 1986:3 1986:4 1987:1 1987:2
INV 2072 2077 2078 2043 2062 2067 1964 1981 1914 1991 2129 2309 2614 2896 3058 3309 3446 3466 3435 3183 2697 2338 2140 2012 2071 2192 2240 2421 2639 2733 88
PROF 1660 1926 2181 1897 1695 1705 1731 2151 2556 3152 3763 3903 3912 3571 3199 3262 3476 2993 2262 2011 1511 1631 1990 1993 2520 2804 2919 3024 2725 2321
1987:3 1987:4 1988:1 1988:2 1988:3 1988:4 1989:1 1989:2 1989:3 1989:4 1990:1 1990:2 1990:3 1990:4
2721 2640 2513 2448 2429 2516 2534 2494 2596 2572 2601 2648 2840 2837
2131 2552 2234 2282 2533 2517 2772 2380 2568 2944 2629 3133 3449 3764
Corrigé du cas 2
Nous estimons le modèle à retards échelonnés pour divers valeurs de h retenons celle qui minimise les critères de Akaike et de Schwarz. Pour le retard 0 Instruction EVIEWS
Renter dans l’ordre :
inv c prof
Pour le retard 1 Instruction EVIEWS
Renter dans l’ordre :
inv c prof prof(-1)
Pour le retard 2 Instruction EVIEWS
Renter dans l’ordre :
inv c prof prof(-1) prof(-2)
Pour le retard 3 Instruction EVIEWS
Renter dans l’ordre :
inv c prof prof(-1) prof(-2) prof(-3)
etc… 89
et
Le tableau 4 reporte les valeurs prises par ces deux critères pour les valeurs de h allant de 1 à 10. Ces résultats nous conduisent à retenir un nombre de retards égal à 6. Le modèle à retards échelonnés comporte 6 retards : l’investissement des entreprises de ce secteur est fonction des profits réalisés sur les six derniers trimestres, soit un an et demi. L’estimation des paramètres par les MCO du modèle à retards échelonnés à 6 retards conduit aux résultats figurant dans le tableau 5. Il convient de noter que seul le coefficient du sixième retard est significativement différent de 0. TABLEAU 4 Résultats de la recherche du nombre de décalages optimal
Décalage 0 1 2 3 4 5 6 7 8 9 10
Akaike 14,88 14,42 13,97 13,48 13,18 12,93
Schwarz 14,96 14,55 14,14 13,69 13,44 13,23
12,78*
13,13*
12,83 12,91 12,98 13,05
13,22 13,35 13,47 13,59
TABLEAU 5 Estimation du modèle à retards échelonnés
Dependent Variable: INV Variable C PROF PROF(-1) PROF(-2) PROF(-3) PROF(-4) PROF(-5) PROF(-6) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic)
Coefficient 501.5414 -0.011389 0.061265 0.227569 0.167932 0.118734 0.000169
Std. Error 154.8486 0.081532 0.124906 0.119635 0.112997 0.127454 0.136907
t-Statistic 3.238915 -0.139687 0.490487 1.902194 1.486158 0.931580 0.001235
Prob. 0.0029 0.8898 0.6274 0.0668 0.1477 0.3590 0.9990
0.237174
0.084065
2.821310
0.0084
0.921953 0.903742 131.7973 521116.1 -234.9164 50.62600 0.000000
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Durbin-Watson stat
90
2567.553 424.8027 12.78507 13.12983 0.571584
Objectifs pédagogiques du chapitre 3
Lorsque vous aurez complété l’étude du chapitre 3, vous pourrez :
définir la stationnarité d’une variable ; déterminer l’ordre d’intégration d’une variable en utilisant les tests de stationnarité de Dickey-Fuller Augmenté et de Phillips-Perron ; tester l’hypothèse de cointégration en utilisant les procédures de Johansen et de Engle-Granger ; estimer les paramètres du modèle à correction d’erreur ; utiliser le modèle à correction d’erreur à des fins de prévision.
91
1. Introduction
Lorsqu’on travaille sur des séries temporelles, il convient de prendre garde à la stationnarité de celles-ci au cours du temps. Les modèles étudiés dans les chapitres 1 et 2, et en particulier la méthode des moindres carrés ordinaires, ne sont valables que si les séries temporelles sont stationnaires. Cet aspect de la méthode économétrique a été ignoré pendant longtemps avant de ressurgir au cours des dernières années. Il pose des problèmes redoutables dans la mesure où la plupart des séries économiques sont non stationnaires car elles sont tendancielles ou saisonnières. Face à ce problème, la théorie de la cointégration permet de préciser les conditions dans lesquelles il est légitime de travailler sur des séries non stationnaires. Les variables non stationnaires peuvent être combinées pour obtenir un modèle à correction d’erreur qui est une relation stable économiquement interprétable. Les termes non stationnaires s’interprètent comme les éléments d’un équilibre de long terme. 2. Tests de stationnarité 2.1 Stationnarité 2.1.1 Définition : Un processus stochastique
( t ) ( t h ) -indépendante du temps ;
Xt
t et h ,
est stationnaire si : la moyenne
est constante et
-- la variance est finie et indépendante du temps ; -- la fonction d’autocovariance temps
( h ) Cov (
t,
th
)
est indépendante du
Une série chronologique est donc stationnaire si elle est la réalisation d’un processus stationnaire. Ceci implique que la série ne comporte ni tendance, ni saisonnalité et plus généralement aucun facteur n’évoluant avec le temps. Une variable stationnaire est caractérisée par une moyenne et une variance constantes et a tendance à fluctuer autour de sa moyenne revenant régulièrement vers sa valeur d’équilibre de long terme. 2.1.2 Exemple de processus stationnaire
Un processus de bruit blanc
t
(suite de variables aléatoires équidistribuées et 2
mutuellement indépendantes) de loi normale N (0, représentation graphique est donnée dans la figure 1.
92
)
est
stationnaire.
Sa
4 3 2 1 0 -1 -2 -3 -4 25
50
75
100 EPS
125
150
175
200
M OY
FIGURE 1 Représentation graphique d’un bruit blanc normal centré et réduit
Nous pouvons remarquer cette série est bien centrée sur 0 et que les fluctuations semblent représentatives d’un bruit blanc. 2.2 Tests de stationnarité
Pour vérifier la stationnarité des séries, il faut pratiquer des tests de stationnarité ou de racine unitaire (Unit Root Test). Les tests de stationnarité les plus utilisés sont : le test de Dickey-Fuller augmenté (ADF,1981) et le test de Phillips-Perron (PP, 1988). Ces tests permettent de mettre en évidence le caractère stationnaire ou non d’une série temporelle par la détermination d’une tendance déterministe ou stochastique. Contrairement au test ADF qui prend uniquement la présence d’autocorrélations dans les séries, le test PP considère en plus l’hypothèse de présence d’une dimension hétérocédastique dans les séries. Les hypothèses nulles des tests ADF et PP sont celles de racine unité c’est à dire de non stationnarité. 2.2.1 Test de Dickey-Fuller Augmenté
Les hypothèses du test de Dickey-Fuller Augmenté sont :
H 0 :
le processus X est non stationnaire (X a une racine unité)
H 1 :
le processus X est stationnaire (X n’a pas une racine unité)
Pour effectuer le test, on compare la valeur de ADF (Augmented Dickey-Fuller Test Statistic) à celle de CV (Test Critical Value). La règle de décision est la suivante :
Si ADF est inférieure à CV, l’hypothèse de non stationnarité de la série est rejetée ; Si ADF est supérieure ou égale à CV, l’hypothèse de non stationnarité de la série n’est pas rejetée. 93
Sur les logiciels, il suffit seulement de comparer la valeur de la probabilité au seuil statistique alpha. Remarque 1:
La règle de décision est :
Si la valeur de la probabilité est supérieure au seuil alpha, non stationnarité n’est pas rejetée.
l’hypothèse de
Si la valeur de la probabilité est inférieure ou égale au seuil alpha, l’hypothèse de non stationnarité est rejetée. 2.2.2 Test de Phillips Perron
Ce test est construit sur une correction non paramétrique des statistiques de Dickey-Fuller pour prendre en compte les erreurs hétéroscédastiques. Pour exécuter le test, il est nécessaire de définir le nombre de retards l (troncature de NeweyWest) estimé en fonction du nombre d’observations n, l 4 n / 100 2 / 9 . Pour effectuer le test, on compare la valeur de PP (Phillips-Perron Test Statistic) à celle de CV (Test Critical Value). La règle de décision du test est identique à celle de la procédure de Dickey-Fuller Augmenté. Application 1. Tests de racine unité
On dispose pour le Sénégal et sur la période 1971 à 2007 de la série macroéconomique PIB. Tester la stationnarité de la série log(pib) en utilisant la méthode de Dickey-Fuller Augmenté. Nous employons la stratégie séquentielle des tests de racine unité. Nous estimons, en premier lieu, le modèle avec tendance et quand l’hypothèse nulle de ce coefficient n’est pas exclue, nous estimons le modèle avec constante seulement. Le test de Dickey-Fuller Augmenté conduit aux résultats suivants : Augmented Dickey-Fuller Unit Root Test on log(PIB)
Null Hypothesis: LOG(PIB) has a unit root Exogenous: Constant Lag Length: 0 (Automatic based on SIC, MAXLAG=9) Augmented Dickey-Fuller test statistic Test critical values:
t-Statistic Prob.* -2.081023 0.2530 1% level -3.600987 5% level -2.935001 10% level -2.605836
*MacKinnon (1996) one-sided p-values. La valeur de Prob (0,2530) est supérieure aux seuils statistiques conventionnels, l’hypothèse nulle n’est pas rejetée. La variable Log(PIB) est non stationnaire. On remarque aussi la statistique ADF (- 2,081023) est supérieure à CV pour tous les seuils. 94
3. Variables intégrées d’ordre d 3.1 Opérateurs décalage et différence 3.1.1 Opérateur décalage
L’opérateur décalage L est défini par :
Li X t X t i , i 0 t X t 1
On a : 3.1.2
2 et
t
t 2
Opérateur différence
On a
t
L’opérateur
t 1
t
LX t (1 )
t
t
1 L est appelé opérateur différence première. 2
L’opérateur
(1 L )2 est
appelé opérateur différence seconde.
3.2 Notion d’intégration 3.2.1 Intégration
On appelle variable intégrée d’ordre d une variable X t telle que :
Sa différence d-ième est stationnaire ; Après avoir stationnaire.
Notation :
t
été
I ( d )
différencié
d
fois,
elle
qui signifie que la variable
possède
Xt est
une
représentation
intégrée d’ordre d.
3.2.2 Quelques définitions
Définition 1 : Une variable stationnaire est dite intégrée d’ordre 0
I (0)
t
Définition 2 : Une variable est intégrée d’ordre 1 si sa différence première est stationnaire.
(1)
t
si 95
X t I(0 )
Définition 3 : Une variable est intégrée d’ordre 2 si sa différence seconde est stationnaire. t
I ( 2 )
si
2 X t I(0)
Remarque 2 : Dans la pratique, on a rarement un ordre d’intégration supérieur ou
égal à 3. 3.2.3 Exemple de processus non stationnaires
Une variable non stationnaire a une variance croissante dans le temps de sorte qu’elle ne converge nullement vers une valeur d’équilibre, il faudrait pour cela la différencier un certain nombre de fois selon son degré d’intégration. Exemple 1 : Soit le processus ARIMA(0,1,0) : ou encore
(1 L ) X t t
X t X t 1 t
Ce processus est dit DS (Differency Stationnary) car on le stationnarise par le filtre différence. Ce processus est intégré d’ordre 1 car sa différence première est le processus bruit blanc qui est stationnaire Le processus ARIMA(0,1,0) porte le nom de modèle de marche aléatoire (Random Walk Model). Il est très fréquemment utilisé pour analyser l’efficience des marchés financiers. Dans les processus de type DS, un choc à un instant donné se répercute à l’infini sur les valeurs futures de la série ; l’effet du choc est donc permanent et va en décroissant. Soit le processus marche aléatoire avec dérive (random walk with drift) défini par :
Xt 2 Xt 1 t où
t
est le processus bruit blanc normal
96
MARCAL 25
20
15
10
5
0
-5 25
50
75
100
125
FIGURE 2 Représentation graphique du processus :
150
175
200
Xt 2 Xt 1 t
Nous pouvons remarquer que cette série est non stationnaire, on remarque qu’elle a une tendance croissante. La représentation graphique de cette série différenciée est : 6 5 4 3 2 1 0 -1 -2 25
50
75
100
125
D(MARCAL)
150
175
200
MEAN
FIGURE 3 Graphique de la série différenciée
Cette série est bien stationnaire (on retrouve un processus de bruit blanc de moyenne 2 et de variance 1). Exemple 2 : Le processus
X t a bt t est non stationnaire on a E ( X t ) a bt . Ce processus est
car sa
moyenne dépend du temps, dit TS ( Trend Stationnary), il représente une non stationnarité de type déterministe. Dans ce type de modélisation, l’effet produit par un choc à un instant t est transitoire. Le modèle étant déterministe, la chronique retrouve son mouvement de long terme qui est ici la droite de tendance. On peut stationnariser ce processus TS en retranchant, de la valeur de X t en t,
la valeur estimée a b t où ordinaires des paramètres a et b. ˆ
ˆ
a , b sont ˆ
ˆ
97
les estimations des moindres carrés
En résumé, pour stationnariser un processus TS, la bonne méthode est celle des moindres carrés ; pour un processus DS il faut employer le filtre aux différences. Le choix d’un processus DS ou TS comme structure de la chronique n’est donc pas neutre. Application 2 : Détermination de l’ordre d’intégration
Reprenons la série relative au PIB du Sénégal sur la période 1971 à 2007. Déterminons l’ordre d’intégration de la série log(PIB) en utilisant le test de DickeyFuller Augmenté. Corrigé :
Nous avons vu que la variable log(PIB) est non stationnaire. Elle est non intégrée d’ordre 0. Le test ADF effectué sur la différence première de log(pib) conduit aux résultats suivants : Augmented Dickey-Fuller Unit Root Test on d(log(PIB))
Null Hypothesis: d(log(PIB)) has a unit root Exogenous: Constant Lag Length: 0 (Automatic based on SIC, MAXLAG=9) Augmented Dickey-Fuller test statistic Test critical values:
1% level 5% level 10% level
t-Statistic Prob.* -5.383965 0.0001 -3.605593 -2.936942 -2.606857
*MacKinnon (1996) one-sided p-values. La valeur de la probabilité critique est nulle, l’hypothèse nulle est rejetée pour tous les seuils statistiques conventionnels. La variable Log(PIB) est stationnaire en différence première, elle est donc intégrée d’ordre 1. On remarque aussi la valeur de ADF (- 5,383965) est inférieure à CV pour tous les seuils. 3.2.4 Propositions Proposition 1 : La somme d’une variable I(0) et d’une variable I(1) est I(1) Proposition 2 : Si
t
( d )
alors aX t b
I (d )
avec a et b non nuls
Proposition 3 : Toute combinaison linéaire de variables I(0) est I(0). Proposition 4 : Toute combinaison linéaire de variables I(d) est généralement I(d)
mais peut être d’un ordre d’intégration plus faible. combinaison linéaire de variables d’ordres d’intégration différents est généralement intégrée à l’ordre le plus élevé. Proposition
5 : Toute
98
4. Cointégration et modèle à correction d’erreur
L’analyse de la cointégration, présentée par Granger (1983) et Engle et Granger (1987), est considérée par beaucoup d’économistes comme un des concepts nouveaux les plus importants dans le domaine de l’économétrie et de l’analyse des séries temporelles. L’idée qu’une relation d’équilibre de long terme puisse être définie entre variables pourtant individuellement non stationnaires est à la base de la théorie de la cointégration. La théorie de la cointégration permet d’étudier des séries non stationnaires mais dont une combinaison linéaire est stationnaire. Elle permet ainsi de spécifier des relations stables à long terme tout en analysant conjointement la dynamique de court terme des variables considérées. 4.1 Le problème des régressions fallacieuses
La théorie de la cointégration a été introduite par Granger (1981) afin d’étudier des séries temporelles non stationnaires. Ainsi si on applique les méthodes habituelles de l’économétrie à des séries non stationnaires, plusieurs problèmes se posent dont le célèbre problème des régressions fallacieuses (spurious regressions) mis en avant par Granger et Newbold (1974). De façon heuristique, considérons deux séries temporelles
t
et Y t intégrées d’ordre
1 et sans lien entre elles. Si on effectue la régression Y t devrait avoir 0 . Granger et Newbold (1974) montrent que
t t , on
est significativement différent de zéro,
signifiant que t est une variable explicative de Y t , ce qui n’a aucun puisque, par hypothèse, les deux séries sont indépendantes.
sens
La non stationnarité a ainsi pour conséquence que les procédures d’inférence classique ne sont plus valables. Afin d’illustrer fallacieuse4.
cette
question fondamentale
donnons un exemple de
régression
Exemple : la régression de la population d’Afrique du Sud (POP) sur les dépenses de recherche-développement aux Etats Unis, en données annuelles 1971-1990 donne les résultats suivants :
POP t 2
0, 974
et
21698 ,7 111,58 RD t ( 59 , 44 )
( 26 , 40 )
W 0,30
où les chiffres entre parenthèses figurant sous les valeurs estimées sont les t de Student associés aux coefficients. Le lecteur intéressé par d’autres exemples de régression fallacieuses peut consulter le site internet de J.Gonzalo, Université Carlos III, Madrid. 4
99
Les dépenses de R&D aux Etats Unis ont un impact sur la population d’Afrique du Sud, ce qui n’a aucun sens. Cet exemple illustre une régression fallacieuse, c’est à dire dénuée de sens. Cela provient de la non stationnarité des différentes séries entrant en jeu dans les régressions. On note deux caractéristiques symptomatiques d’une régression fallacieuse : d’une part le coefficient de détermination est très élevé (supérieur à 0,90 dans notre exemple) et d’autre part, la valeur de la statistique de Durbin-Watson est faible. 4.2 Définition de la cointégration
Si
t
et Y t sont deux séries
I ( d ) , alors en général la combinaison linéaire
Z t :
Z t
Y t
t
( d ) .
est aussi
Cependant, il est possible que Z t ne soit pas I ( d ) mais I ( d b ) où b est un entier positif ( 0 b d ) . En d’autres termes, la variable Z t est intégrée d’un ordre inférieur à l’ordre d’intégration des deux variables considérées. Dans ce cas, t
et Y t sont dites cointégrées, ce que l’on note :
t , Y t CI d , b est le paramètre de cointégration et le vecteur 1, est le vecteur de cointégration. Le cas le plus étudié correspond à d b 1 . Ainsi, deux séries non stationnaires ( I (1)) sont cointégrées s’il existe une combinaison linéaire ( ( 0)) de ces séries. Sauf indication contraire, c’est à ce dernier phénomène que nous référons en employant le terme cointégration. L’idée sous-jacente est la suivante. A court terme, t et Y t peuvent avoir une évolution divergente (elles sont toutes les deux non stationnaires), mais elles vont évoluer ensemble à long terme. Il existe donc une relation stable à long terme entre
t
et Y t .
Cette relation est appelée relation de cointégration ou encore relation de long terme. Elle est donnée par Y t t soit ( Z t 0 ) . A long terme, les mouvements similaires de
t
et Y t ont tendance à se compenser de sorte à obtenir une série
stationnaire. Z t mesure l’ampleur du déséquilibre entre erreur d’équilibre. 100
t
et Y t et est appelée
La théorie de la cointégration est souvent utilisée en macroéconomie pour tester diverses hypothèses de parité du pouvoir d’achat, pour étudier la relation entre consommation et revenu, pour formuler des modèles de demande de monnaie, pour examiner des relations entre taux de change de divers pays, pour étudier les liens entre taux d’intérêt à court et long termes ou les relations entre les indices de bourses internationales, etc. Remarque 3 : Cette définition de la cointégration pour deux variables se généralise à
un nombre quelconque de séries, mais le vecteur de cointégration n’est plus unique. 4.3 Tests de cointégration
La présence d’une relation d’équilibre entre des variables est testée formellement à l’aide de procédures statistiques, dont les plus utilisées sont celles d’Engle et Granger (1987) et de Johansen (1988, 1991). Les hypothèses nulles des 2 tests de cointégration sont celles de la non cointégration. La méthode de Johansen est plus efficace que la stratégie en deux étapes de Engle et Granger lorsque l’échantillon est de petite taille et le nombre de variables élevé. 4.3.1 Test de Engle et Granger
Une condition nécessaire d’utilisation de ce test est que toutes les variables doivent être du même ordre d’intégration. Ce test est appelé test en deux étapes. Considérons une variable Y endogène et trois séries explicatives X1, X2 et X3 . Nous voulons tester l’hypothèse de cointégration en supposant que les variables log(Y), log( X 1 ) , log( X 2 ) et log( X 3 ) sont intégrées d’ordre 1. La stratégie en deux étapes de Engle et Granger est la suivante : Première étape : Estimation
de la relation de long terme
On estime par la méthode des moindres carrés ordinaires la relation de long terme :
Log(Y t ) 0 1 Log ( X 1t ) 2 Log ( X 2 t ) 3 Log ( X 3 t ) t Le résidu e t issu de cette régression est :
e t Log(Yt ) 0 1Log(X1t ) 2 Log(X 2t ) 3Log(X3t ) ˆ
ˆ
ˆ
ˆ
Seconde étape : Test de stationnarité sur les résidus du modèle de long terme
(relation statique) Pour que la relation de cointégration soit acceptée, le résidu e t doit être stationnaire. La stationnarité du résidu est testée à l’aide des tests de racine unité.
101
Ce test de cointégration est basé sur des résidus estimés et non sur des vraies valeurs observées. Afin d’interpréter les résultats, il convient d’utiliser les tables des valeurs critiques de Engle et Yoo (1987) ou de Mc Kinnon (1991)
Si la statistique ADF estimée est inférieure à la valeur tabulée au seuil alpha, l’hypothèse nulle de non stationnarité est rejetée. Les résidus de la relation statique sont stationnaires : les variables sont cointégrées. Si la statistique ADF estimée est supérieure ou égale à la valeur tabulée au seuil alpha. Les résidus de la relation statique ne sont pas stationnaires : les variables ne sont pas cointégrées. Application 3 : Test de cointégration
de Engle-Granger
Considérons les données relatives aux séries PIB et Importation du Sénégal. Les données sont annuelles et s’étalent sur la période 1962 à 1995. Nous considérons les séries exprimées en logarithme et notées respectivement LPIB et LIMP. Les séries LPIB et LIMP sont intégrées d’ordre 1. 1) Représenter graphiquement les séries LPIB et LIMP. 2) Tester l’hypothèse de cointégration des variables LPIB et LIMP en utilisant la méthode de Engle-Granger. Corrigé :
La figure 4 indique que les deux séries semblent exhiber une tendance commune à la hausse sur l’ensemble de la période. Ces deux séries sont non stationnaires et, du fait de leur apparente évolution similaire, il est légitime de s’intéresser à l’étude de la cointégration. 7.6
7.2
6.8
6.4
6.0
5.6 1965
1970
1975
1980
LOG (IM PO RT)
1985
1990
LOG (P IB )
GRAPHIQUE 4 Evolution des variables pib et imp (en logarithme)
102
1995
2) Le test de Engle-Granger effectué sur le logiciel Eviews7 donne les résultats suivants : Series: LIMPORT LPIB Sample (adjusted): 1962 1995 Included observations: 34 after adjustments Null hypothesis: Series are not cointegrated Cointegrating equation deterministics: C Automatic lags specification based on Schwarz criterion (maxlag=7) Dependent tau-statistic Prob.* z-statistic Prob.* LIMPORT
-3.798129
0.0281
-19.10696
0.0294
LPIB
-3.814065
0.0271
-18.58596
0.0343
*MacKinnon (1996) p-values. Les 2 probabilités sont inférieures à 5% : les variables LPIB et LIMP cointégrées.
sont
4.3.2 Test de cointégration de Johansen
Le test de Johansen peut être utilisé dans tous les cas de figures c’est à dire si les variables sont de même ordre d’intégration ou d’ordres d’intégration différents. Johansen (1988) propose des estimateurs du maximum de vraisemblance pour tester la cointégration des séries. Il effectue un test de rang de cointégration. La règle de décision est la suivante :
Si le rang de cointégration est égal à zéro, l’hypothèse nulle de non cointégration n’est pas rejetée, Si le rang de cointégraton est supérieur ou égal à un, l’hypothèse nulle de non cointégration est rejetée.
Application 4 : Test de cointégration
de Johansen
Considérons les données relatives aux séries M2, PIB et IPC du Sénégal. Les données sont annuelles et s’étalent sur la période 1971 à 2007. Nous considérons les séries exprimées en logarithme et notées respectivement LM2, LPIB et LIPC. Les séries LM2, LPIB et LIPC sont intégrées d’ordre 1. 1) Représenter graphiquement les séries LM2, LPIB et LIPC. 2) Tester l’hypothèse de cointégration des variables LM2, LPIB et LIPC en utilisant la méthode de Johansen.
103
Corrigé :
La figure 5 indique que les trois séries semblent exhiber une tendance commune à la hausse sur l’ensemble de la période. Ces trois séries sont non stationnaires et, du fait de leur apparente évolution similaire, il est légitime de s’intéresser à l’étude de la cointégration. 9
8
7
6
5
4
3 1975
1980
1985
LOG(M2)
1990
1995
LOG(P IB )
2000
2005
LOG(IPC)
GRAPHIQUE 5 Evolution des variables m2, pib et ipc (en logarithme)
2) Le test de Johansen conduit aux résultats suivants : Johansen cointegration test
Hypothesized : No. of CE(s) None * At most 1 * At most 2
Eigenvalue 0.678640 0.501019 0.177118
Trace Statistic 70.88630 31.15450 6.822968
5% CV 35.19275 20.26184 9.164546
Prob.** 0.0000 0.0011 0.1361
Trace test indicates 2 cointegrating eqn(s) at the 0.05 level
* denotes rejection of the hypothesis at the 0,05 level ** MacKinnon Haug-Michelis (1999) p-values Le rang de cointégration est 2 : les variables LM2, LPIB et LIPC sont cointégrées. Déterminons le rang de cointégration en comparant la statistique (Trace ) à CV (Critical Value) Comparaison de Trace Statistic et Critical Value La valeur 70,8863 est supérieure à 35,19275 La valeur 31,15450 est supérieure à 20,26184 La valeur 6,822968 est inférieure à 9,164546
104
Rang de cointégration 1 1 0 Rang = 1 + 1 + 0 = 2
4.4 Modèle à correction d’erreur
Le modèle à correction d’erreur présente une propriété remarquable qui a été démontrée par Granger en 1983. Un ensemble de variables cointégrées peut être mis sous forme d’un modèle à correction d’erreur dont toutes les variables sont stationnaires et dont les coefficients peuvent être estimés par les méthodes de l’économétrie classique sans risque de corrélations fortuites. Le résultat connu sous le nom de théorème de représentation de Granger, valide de façon générale la démarche du modèle à correction d’erreur pour une classe importante de variables. Il existe deux versions du modèle à correction d’erreur : le modèle en une étape de Hendry et le modèle en deux étapes de Engle et Granger. Considérons l’exemple précédent de la variable endogène Y et des trois séries explicatives X1 , X 2
log( 2 )
et
et X 3 . Nous supposons que les variables log(Y),
log( X 3 ) sont
log( 1 ) ,
cointégrées.
Modèle 1 : Modèle à la Hendr
Le modèle de Hendry est de la forme :
D(LY t ) 0 1 D (LX 1t ) 2 D (LX 2 t ) 3 D (LX 3t ) 4 LY t 1 5 LX 1 t 1 6 LX 2 t 1 7 LX 3 t 1 u t avec
LY Log (Y); LX 1 Log ( X 1 ); LX 2 Log ( X 2 ); LX 3 Log ( X 3 ) D est l’opérateur de différence première défini par :
D(X t ) X t X t 1
1, 2 et 3 représentent la dynamique de court terme et les coefficients , 5 6 et 7 caractérisent l’équilibre de long terme. Le coefficient 4 est le coefficient de correction d’erreur, il doit être inférieur à Les coefficients
l’unité et négatif. Le coefficient de correction d’erreur indique la vitesse d’ajustement de la variable endogène Y pour retourner à l’équilibre de long terme suite à un choc. Le coefficient
0
représente la constante du modèle.
Les élasticités de court terme sont :
Les élasticités de long terme sont :
,
1
2 et 3.
5 6 et 7 . , 4 4 4
105
Modèle 2 : Modèle à la Engle-Granger
Pour le modèle de Engle et Granger, on procède en deux étapes. Etape 1 : Estimation carrés ordinaires
Y t
de la relation de long terme par la méthode des moindres
a0 a1 ˆ
ˆ
X 1t a2 X 2t a3 X 3t et ˆ
ˆ
Etape 2 : Estimation de la relation du modèle dynamique (court terme) par la méthode des moindres carrés ordinaires
D(LY t ) β 0 β 1 D (LX 1t ) β 2 D (LX 2 t ) β 3 D (LX 3 t ) β 4 e t 1 ε t
β 4 est le coefficient de correction d’erreur, il doit être significativement négatif. 4.5 Conclusion
L’intérêt de la théorie de la cointégration est qu’elle fournit une méthode d’analyse des séries temporelles non stationnaires en évitant le problème des régressions fallacieuses (spurious regressions) mis en évidence par Granger et Newbold (1974). De plus, grâce aux modèles à correction d’erreur, la théorie de la cointégration permet de modéliser simultanément les dynamiques de long terme et de court terme des séries temporelles.
106
Partie 2 : Etude de cas sur le modèle à correction d’erreur et cointégration. Fonction de demande de monnaie du Sénégal
Enoncé de l’étude de cas
On dispose pour le Sénégal et sur la période 1971 à 2007, des séries macroéconomiques Masse monétaire (M2), Produit Intérieur Brut (PIB) et Indice des prix à la consommation (IPC). Nous disposons des données annuelles du tableau 1 de la page 20. 1) Déterminer le degré d’intégration des variables log(M2), log(PIB) et log(IPC) a) en utilisant le test de stationnarité de Dickey-Fuller Augmenté b) en utilisant le test de stationnarité de Phillips-Perron 2) Tester la cointégration des variables variables log(M2), log(PIB) et log(IPC) en utilisant le test de Johansen. 3) On se propose d’estimer le modèle à correction d’erreur à la Hendry suivant (estimation en une étape) :
D (Log(M2 t )) 0 1 D (Log(PIB t )) 2 D(Log(IPCt ) 3 Log(M2 t - 1) 4 Log(PIB t 1) 5Log(IPCt 1) ut D est l’opérateur de différence première défini par :
D Xt Xt Xt 1 a) Estimer par la méthode des moindres carrés ordinaires les paramètres du modèle à correction d’erreur (ECM) ; b) Donner une interprétation économique du coefficient de correction d’erreur β 3 ; Interpréter économiquement les élasticités de court et de long terme ; c) Effectuer les tests de significativité des variables explicatives (Test de Student) ; d) Tester la significativité globale du modèle à correction d’erreur (Test de Fisher) e) Tester l’hypothèse de normalité des erreurs du modèle à correction d’erreur (Test de Jarque-Bera) ; f) Tester l’homocédasticité des erreurs du modèle à correction d’erreur ; f.1 Test de White f.2 Test ARCH 107
g) Tester l’autocorrélation des erreurs du modèle à correction d’erreur (Test de Breusch-Godfrey) ; h) Tester l’hypothèse de spécification du modèle à correction d’erreur (Test de Ramsey) ; i) Tester la stabilité des coefficients du modèle à correction d’erreur i.1 Test de rupture de Chow i.2 Tests Cusum de Brown, Durbin et Evans 4) Estimer les paramètres du modèle à correction d’erreur à la Engle-Granger (estimation en deux étapes) 5) Prévoir la masse monétaire du Sénégal pour les années 2008 à 2012. Tableau 1. Données du Sénégal
Année 1971 1972 1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003
M2 38.0462 42.8330 52.2714 77.2570 86.1020 143.2139 130.9672 158.8335 161.1246 177.6901 216.9207 262.3346 272.9995 287.1151 300.1090 333.5651 332.8298 334.4922 368.9406 351.1785 371.6107 384.9504 336.5247 463.6893 499.5299 559.9946 580.3872 630.1709 714.0779 790.4259 905.1608 974.1287 1280.5926
PIB 248.4000 275.1000 279.7000 340.3000 408.5000 461.8000 486.1000 498.5000 585.2000 631.0000 673.6000 848.9000 944.9000 1021.200 1158.500 1303.300 1382.300 1483.300 1475.900 1525.300 1535.680 1578.700 1521.900 1864.900 2146.400 2349.600 2509.300 2716.500 2893.081 3114.000 3342.700 3467.096 3960.800 108
IPC 22.28010 23.64256 26.30735 30.67522 40.37267 40.83350 45.44180 47.00461 51.55280 56.04087 59.36686 69.66540 77.78000 86.93649 98.29693 104.3078 100.0000 98.17672 98.61751 98.93809 97.19495 97.19495 96.47365 127.4294 137.7279 141.5147 143.7790 145.4771 146.6570 147.7437 152.1475 155.7007 155.6488
2004 2005 2006 2007 2008 2009 2010 2011 2012
1445.8251 1565.2525 1745.2200 1971.9900 NA NA NA NA NA
4198.510 4563.290 4802.886 5227.585 5550.000 5890.000 6227.000 6565.000 6902.000
156.4270 159.0941 162.3925 171.9045 177.0000 181.0000 185.0000 189.0000 193.0000
La période 2008 à 2012 est utilisée à des fins de prévision. Les
variables
M2
et
PIB
sont
données
en
milliards
de
francs
CFA.
Corrigé de l’étude de cas 1) Détermination du degré d’intégration des variables du modèle
Nous voulons déterminer l’ordre d’intégration des variables. Cette étape est importante pour la suite. Nous utilisons différents tests de stationnarité : le test de racine unitaire de Dickey-Fuller (ADF) et le test de Philips-Perron (PP). Nous voulons savoir si les séries sont stationnaires (intégrées d’ordre 0) ou intégrées d’un ordre supérieur ou égal à 1. Nous employons la stratégie séquentielle des tests de racine unité. Nous estimons, en premier lieu, le modèle avec tendance et quand l’hypothèse nulle de ce coefficient n’est pas exclue, nous estimons le modèle avec constante seulement. a) Test de stationnarité de Dickey Fuller Augmenté
H 0 : Racine Unitaire (Non stationnaire) H 1 : Non Racine Unitaire (Stationnaire) ADF : ADF Test Statistic ( Test de Dickey Fuller Augmenté) CV : Critical Value (Valeur critique)
-- Si la valeur de ADF est supérieure ou égale à la valeur de CV (ou de manière équivalente si Prob est supérieure ou égale au seuil alpha) alors on accepte l’hypothèse H 0 : la série X est non stationnaire -- Si la valeur de ADF est inférieure à la valeur de CV (ou de manière équivalente si Prob est inférieure au seuil alpha) alors on accepte l’hypothèse H 1 : la série X est stationnaire
109
a1) Test ADF sur les variables en niveau Instruction EVIEWS
Taper ensuite le nom de la série . choisir Level ( le test est fait sur la variable en niveau) Augmented Dickey-Fuller Unit Root Test on log(M2)
Null Hypothesis: LOG(M2) has a unit root Exogenous: Constant, Linear Trend Lag Length: 0 (Automatic based on SIC, MAXLAG=9) t-Statistic Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level
Prob.*
-2.067561 0.5462 -4.226815 -3.536601 -3.200320
*MacKinnon (1996) one-sided p-values. La valeur de Prob (0,5462) est supérieure à 5% alors on ne rejette pas l’hypothèse H 0 : Log(M2) est non stationnaire en niveau. On remarque aussi que la statistique ADF (- 2,0677561) est supérieure à CV pour tous les seuils. on ne rejette pas l’hypothèse H 0 : Log(M2) est non stationnaire en niveau. Augmented Dickey-Fuller Unit Root Test on log(PIB)
Null Hypothesis: LOG(PIB) has a unit root Exogenous: Constant Lag Length: 0 (Automatic based on SIC, MAXLAG=9) t-Statistic Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level
Prob.*
-2.577253 0.1056 -3.596616 -2.933158 -2.604867
*MacKinnon (1996) one-sided p-values. La valeur de Prob (0,1056) est supérieure à 5%, l’hypothèse H 0 n’est pas rejetée. Log(PIB) est non stationnaire en niveau. On remarque aussi que la statistique ADF (- 2,577253) est supérieure à CV pour tous les seuils. L’hypothèse H 0 n’est pas rejetée.
110
Augmented Dickey-Fuller Unit Root Test on log(IPC)
Null Hypothesis: LOG(IPC) has a unit root Exogenous: Constant, Linear Trend Lag Length: 1 (Automatic based on SIC, MAXLAG=9) t-Statistic Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level
-2.629096 -4.205004 -3.526609 -3.194611
Prob.*
0.2703
*MacKinnon (1996) one-sided p-values. La valeur de Prob (0,2703) est supérieure à 5%, l’hypothèse H 0 n’est pas rejetée. log(IPC) est non stationnaire en niveau. On remarque aussi que la statistique ADF (- 2,629096) est supérieure à CV pour tous les seuils. l’hypothèse H 0 n’est pas rejetée. Log(IPC) est non stationnaire en niveau. Les résultats obtenus pour les variables en niveau indiquent que les séries log(m2), log(pib) et log(ipc) ne sont pas stationnaires au seuil de 5%. On effectue alors le test de Dickey Fuller Augmenté sur les variables en différence première. a2) Test ADF sur les variables en différence première Instruction EVIEWS
Taper ensuite le nom de la série . Dans la fenêtre Unit Root : choisir First Difference (le test est fait sur la variable en différence première) Augmented Dickey-Fuller Unit Root Test on D(log(M2))
Null Hypothesis: D(LOG(M2)) has a unit root Exogenous: Constant Lag Length: 0 (Automatic based on SIC, MAXLAG=9) t-Statistic Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level
Prob.*
-6.923104 0.0000 -3.626784 -2.945842 -2.611531
*MacKinnon (1996) one-sided p-values. Au niveau de 1%, D(log(M2)) est stationnaire car la probabilité est nulle. La série log(M2) est intégrée d’ordre un. On remarque aussi que la statistique ADF (- 6,923104) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée : Log(M2) est stationnaire en différence première. 111
Augmented Dickey-Fuller Unit Root Test on D(log(PIB))
Null Hypothesis: D(LOG(PIB)) has a unit root Exogenous: Constant, Linear Trend Lag Length: 0 (Automatic based on SIC, MAXLAG=9) t-Statistic Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level
Prob.*
-5.659552 0.0002 -4.198503 -3.523623 -3.192902
*MacKinnon (1996) one-sided p-values. Au niveau de 1%, D(log(PIB)) est stationnaire car la probabilité vaut 0,0002, soit 0,02 %. La série log(PIB) est intégrée d’ordre un. On remarque aussi que la statistique ADF (- 5,659552) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée. Log(PIB) est stationnaire en différence première. Augmented Dickey-Fuller Unit Root Test on D(log(IPC))
Null Hypothesis: D(LOG(IPC)) has a unit root Exogenous: Constant, Linear Trend Lag Length: 0 (Automatic based on SIC, MAXLAG=9) t-Statistic Augmented Dickey-Fuller test statistic Test critical values: 1% level 5% level 10% level
Prob.*
-5.270588 0.0006 -4.205004 -3.526609 -3.194611
*MacKinnon (1996) one-sided p-values. Au niveau de 1%, D(log(ipc)) est stationnaire car la probabilité vaut 0,0006, soit 0,06 %. La série log(ipc) est intégrée d’ordre un. On remarque aussi que la statistique ADF (- 5,270588) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée : log(IPC) est stationnaire en différence première.
112
b) Test de Phillips-Perron b1) Test de Phillips-Perron sur les variables en niveau Phillips-Perron Unit Root Test on log(m2)
Null Hypothesis: LOG(M2) has a unit root Exogenous: Constant, Linear Trend Bandwidth: 1 (Newey-West using Bartlett kernel) Adj. t-Stat Phillips-Perron test statistic Test critical values: 1% level 5% level 10% level
Prob.*
-2.010733 0.5765 -4.226815 -3.536601 -3.200320
*MacKinnon (1996) one-sided p-values. La variable log(m2) n’est pas stationnaire car la probabilité critique (0,5765) est supérieure à 5%. On remarque aussi que la statistique PP (- 2,010733) est supérieure à CV pour tous les seuils. Log(M2) est non stationnaire. Phillips-Perron Unit Root Test on log(pib)
Null Hypothesis: LOG(PIB) has a unit root Exogenous: Constant Bandwidth: 0 (Newey-West using Bartlett kernel) Adj. t-Stat Phillips-Perron test statistic Test critical values: 1% level 5% level 10% level
Prob.*
-2.577253 0.1056 -3.596616 -2.933158 -2.604867
*MacKinnon (1996) one-sided p-values. La variable log(pib) n’est pas stationnaire car la probabilité critique (0,1056) est supérieure à 5%. On remarque aussi que la statistique PP (- 2,577253) est supérieure à CV pour tous les seuils. Log(M2) est non stationnaire. Phillips-Perron Unit Root Test on log(ipc)
Null Hypothesis: LOG(IPC) has a unit root Exogenous: Constant, Linear Trend Bandwidth: 4 (Newey-West using Bartlett kernel) Adj. t-Stat Phillips-Perron test statistic Test critical values: 1% level 5% level 10% level *MacKinnon (1996) one-sided p-values. 113
Prob.*
-2.097364 0.5319 -4.198503 -3.523623 -3.192902
La variable log(ipc) est non stationnaire car la probabilité critique (0,5319) est supérieure à 5%. On remarque aussi que la statistique PP (- 2,097364) est supérieure à CV pour tous les seuils. log(IPC) est non stationnaire en niveau. b2) Test de Phillips-Perron sur les variables en différence première Phillips-Perron Unit Root Test on D(log(m2))
Null Hypothesis: D(LOG(M2)) has a unit root Exogenous: Constant Bandwidth: 3 (Newey-West using Bartlett kernel) Adj. t-Stat Phillips-Perron test statistic Test critical values: 1% level 5% level 10% level
Prob.*
-6.847517 0.0000 -3.626784 -2.945842 -2.611531
*MacKinnon (1996) one-sided p-values. Au niveau de 1%, D(log(M2)) est stationnaire car la probabilité est nulle. La série log(M2) est intégrée d’ordre un. On remarque aussi que la statistique PP (6,847517) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée : log(M2) est stationnaire en différence première. Phillips-Perron Unit Root Test on D(log(pib))
Null Hypothesis: D(LOG(PIB)) has a unit root Exogenous: Constant, Linear Trend Bandwidth: 0 (Newey-West using Bartlett kernel) Adj. t-Stat Phillips-Perron test statistic Test critical values: 1% level 5% level 10% level
Prob.*
-5.659552 0.0002 -4.198503 -3.523623 -3.192902
*MacKinnon (1996) one-sided p-values. Au niveau de 1%, D(log(pib)) est stationnaire car la probabilité est nulle. La série log(M2) est intégrée d’ordre un. On remarque aussi que la statistique PP (5,659552) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée. Log(PIB) est stationnaire en différence première.
114
Phillips-Perron Unit Root Test on D(log(IPC))
Null Hypothesis: D(LOG(IPC)) has a unit root Exogenous: Constant, Linear Trend Bandwidth: 2 (Newey-West using Bartlett kernel) Adj. t-Stat Phillips-Perron test statistic Test critical values: 1% level 5% level 10% level
Prob.*
-5.291242 0.0005 -4.205004 -3.526609 -3.194611
*MacKinnon (1996) one-sided p-values. Residual variance (no correction) HAC corrected variance (Bartlett kernel)
0.003787 0.003945
Au niveau de 1%, D(log(ipc)) est stationnaire car la probabilité est nulle. La série log(ipc) est intégrée d’ordre un. On remarque aussi que la statistique PP(5,291242) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée : log(IPC) est stationnaire en différence première. Les trois séries sont intégrées d’ordre 1. L’étape suivante consiste à examiner la présence éventuelle de relations de cointégration qui existent à long terme entre les variables. 2) Tests de cointégration de Johansen
H 0 : Les variables ne sont pas cointégrées (le rang de cointégration est nul)
H 1 : Les variables sont cointégrées (le rang de cointégration est supérieur ou égal à 1) -- On ne rejette pas l’hypothèse de cointégration si Trace Statistic est supérieur à Critical Value (ou de façon équivalente si la probabilité critique est inférieure au seuil alpha du test ) -- On rejette l’hypothèse de cointégration si Trace Statistic est inférieur ou égal à Critical Value (ou de façon équivalente si la probabilité critique est supérieure ou égale au seuil alpha du test ) Sur le logiciel EVIEWS, on dispose de cinq options. Les variables sont cointégrées si on ne rejette pas l’hypothèse de cointégration pour au moins une option. La sixième option (Summary) résume les 5 options.
115
Instruction EVIEWS < Cointegration Test> Saisir les noms des séries : log(m2) log(pib) log(ipc) Dans la fenêtre Johansen Cointegration Test Choisir l’option : No Deterministic trend in data et No Intercept or Trend in CE or Test VAR Choisir 1 pour décalage ( lag : 1 1 ) Sample (adjusted): 1973 2007 Included observations: 35 after adjustments Trend assumption: No deterministic trend Series: LOG(M2) LOG(PIB) LOG(IPC) Lags interval (in first differences): 1 to 1 Unrestricted Cointegration Rank Test (Trace) Hypothesized No. of CE(s)
Eigenvalue
Trace Statistic
None * At most 1 * At most 2
0.669304 0.499035 0.024776
63.80015 25.07072 0.878070
0.05 Critical Value
Prob.**
24.27596 0.0000 12.32090 0.0002 4.129906 0.4031
Trace test indicates 2 cointegrating eqn(s) at the 0.05 level Le rang de cointégration vaut 2. Les variables log(m2), log(pib) et log(ipc) sont cointégrées. Nous donnons les résultats obtenus avec l’option Summary Johansen Cointegration Test Summary Sample: 1970 2012 Included observations: 35 Series: LOG(M2) LOG(PIB) LOG(IPC) Lags interval: 1 to 1 Data Trend: Test Type Trace Max-Eig
None None Linear Linear Quadratic No Intercept Intercept Intercept Intercept Intercept No Trend No Trend No Trend Trend Trend 2
2
1
1
1
2
2
1
1
1
*Critical values based on MacKinnon-Haug-Michelis (1999) L’hypothèse de cointégration est acceptée pour les 5 options Les variables Log(M2), Log(PIB) et log(IPC) sont cointégrées au seuil de 5%.
116
3) Modèle à correction d’erreur 3.1 Modèle de Hendr : Estimation par les MCO en une seule étape
D (Log(M2t )) 0 1 D (Log(PIB t )) 2 D(log(IPCt ) 3 Log(M2 t - 1) 4 Log(PIB t 1) 5Log(IPCt 1) ut Instruction EVIEWS
Rentrer dans l’ordre : d(log(m2)) c d(log(pib)) d(log(ipc)) log(ipc(-1) )
log(m2(-1)) log(pib(-1))
Après l’estimation des paramètres par la méthode des MCO, on effectue le test de corrélation des erreurs de Breusch-Gofrey. Test de corrélation des erreurs de Breusch-Godfrey
H 0 : erreurs non corrélées H 1 : erreurs corrélées On ne rejette pas l’hypothèse de non corrélation des erreurs si la valeur de Probability est supérieure à 5 %. Instruction EVIEWS Taper 1 dans la fenêtre « Lag to include » Breusch-Godfrey Serial Correlation LM Test: F-statistic Obs*R-squared
16.72278 13.16674
Prob. F(1,29) Prob. Chi-Square(1)
0.0003 0.0003
Les erreurs du modèle à correction d’erreur sont corrélées car toutes les probabilités sont inférieures à 5%. Les erreurs sont corrélées, on utilise la méthode d’estimation de Cochrane Orcutt. Instruction EVIEWS
Rentrer dans l’ordre : d(log(m2)) c d(log(pib)) d(log(ipc)) log(ipc(-1) ) ar(1)
log(m2(-1)) log(pib(-1))
Les résultats de l’estimation du modèle à correction d’erreur carrés ordinaires sont donnés dans le tableau 2.
117
par les moindres
Tableau 2. Estimation des paramètres du modèle à correction d’erreur à la Hendry Dependent Variable: D(LOG(M2)) Method: Least Squares Sample (adjusted): 1973 2007 Included observations: 35 after adjustments Convergence achieved after 13 iterations Variable C D(LOG(PIB)) D(LOG(IPC)) LOG(M2(-1)) LOG(PIB(-1)) LOG(IPC(-1)) AR(1) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic)
Coefficient Std. Error
t-Statistic
-0.209248 1.623545 -0.470552 -0.134485 0.371736 -0.375793 -0.590469
0.147776 0.315070 0.276055 0.054562 0.075620 0.072335 0.143334
-1.415984 5.152967 -1.704558 -2.464815 4.915815 -5.195179 -4.119520
0.695976 0.630828 0.075747 0.160651 44.55482 10.68299 0.000004
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat
Prob. 0.1678
0.0000 0.0994 0.0201 0.0000 0.0000 0.0003
0.109414 0.124666 -2.145989 -1.834920 -2.038608 2.468552
b.1 Interprétation du coefficient de correction d’erreur
Le coefficient β 3 (force de rappel vers l’équilibre) est le coefficient de correction d’erreur. Il doit être négatif ; dans le cas contraire il convient de rejeter une spécification du type ECM (Modèle à Correction d’Erreur). En effet, le mécanisme de correction d’erreur (rattrapage qui permet de tendre vers la relation de long terme) irait alors en sens contraire et s’éloignerait de la cible de long terme. On constate que le coefficient associé à la force de rappel est négatif( 0,134 ) et significativement différent de zéro au seuil statistique de 3% . Il existe donc bien un mécanisme à correction d’erreur : à long terme les déséquilibres entre la masse monétaire, le produit intérieur brut et l’indice des prix à la consommation se compensent de sorte que les trois séries ont des évolutions similaires.
β3
représente la vitesse à laquelle tout déséquilibre entre les niveaux désiré et effectif de la masse monétaire est résorbé dans l’année qui suit tout choc.
ˆ 3 0,134 on arrive à ajuster 13,4% du déséquilibre entre le niveau désiré et effectif de la masse monétaire. 13,4% des effets d’un choc intervenu une année donnée est résorbé dans l’année qui suit tout choc. 118
Ainsi, les chocs sur la masse monétaire au Sénégal se corrigent-ils à 13,4% % par l’effet de « feed back ». En d’autres termes, un choc constaté au cours d’une année est entièrement résorbé au bout de sept années et 6 mois ( 1/ 0,134 = 7,5 années) b.2 Elasticités de court et de long terme b.2.1 Elasticités de court terme
-- L’élasticité de
ˆ1 1,623
court
terme
de la masse monétaire
par rapport au PIB est
A court terme, si le PIB du Sénégal augmente de 10%, alors la masse monétaire augmente de 16,3%. -- L’élasticité de court terme de la masse monétaire par rapport à l’indice des prix à la consommation est ˆ 2 0,47 A court terme, si l’indice des prix à la consommation augmente de 10%, alors la masse monétaire diminue de 4,7%. b.2.2 Elasticités de long terme
L’élasticité de long terme de la masse monétaire par rapport au PIB est :
ˆ 4 0,371 2,769 0,134 ˆ 3
A long terme, si le PIB du Sénégal augmente de 10%, alors la masse monétaire augmente de 27,69%. -- L’élasticité de long terme de la masse monétaire par rapport à l’indice des prix à la consommation est :
ˆ5 0,375 2,799 0,134 ˆ 3 A long terme, si l’indice des prix à la consommation augmente de 10%, alors la masse monétaire diminue de 27,99%. Pour les réponses des questions c) à i) relatives aux tests économétriques, nous renvoyons le lecteur au corrigé de l’étude de cas 1 du chapitre 1.
119
4) Estimation du modèle à correction d’erreur en deux étapes Etape 1 : estimation par les MCO de la relation de long terme
Log (M2 t ) aˆ bˆ Log (Pib t ) cˆ log( IPC t ) e t Etape 2 : estimation par les MCO de la relation du modèle dynamique (court terme)
D (Log(M2 t )) 0 1 D (Log(PIB t )) 2 D(log(IPCt ) 3 e t - 1 u t L’estimation des paramètres du modèle de Engle-Granger est donnée dans le tableau 3. Tableau 3. Estimation des paramètres du modèle à correction d’erreur à la EngleGranger Dependent Variable: D(LOG(M2)) Method: Least Squares Sample (adjusted): 1972 2007 Included observations: 36 after adjustments Variable
Coefficient Std. Error
t-Statistic
Prob.
C D(LOG(PIB)) D(LOG(IPC)) ERREURLT(-1)
0.008853 0.031491 1.278896 0.415099 -0.154379 0.334914
0.281123 3.080941 -0.460953
0.7804 0.0042 0.6480
-0.219527 0.105539
-2.080048
0.0456
R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic)
0.339236 0.277290 0.104465 0.349212 32.35894 5.476271 0.003746
Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat
0.109667 0.122882 -1.575497 -1.399550 -1.514087 2.424805
Le coefficient associé à la force de rappel est négatif et significativement différent de zéro au seuil de 5%. Il existe donc bien un mécanisme à correction d’erreur. Le modèle à correction d’erreur est valable. On peut effectuer tous les tests classiques sur ce modèle et ensuite l’utiliser à des fins de prévisions.
120
5) Prévision du modèle à correction d’erreur sur la période 2002 à 2004 (Modèle à la Hendry) a) Prévisions à un horizon de trois années
Année 2008 2009 2010 2011 2012
Masse monétaire 2013,26 2189,32 2367,38 2548,95 2732,36
b) Critères de prévision
MAPE = 8,54%
THEIL = 0,03
Le modèle ECM peut être utilisé à des fins de prévision Ceci est confirmé par l’examen des graphiques ci-dessous. c) Comparaison sur la période 1962 à 2004 des séries réelle et ajustée
INV : Série observée INVP¨REV : Série prévue 2,800
2,400
2,000
1,600
1,200
800
400
0 70
75
80
85
90 M2
121
95 M2F
00
05
10
d) Simulation du modèle .6 .4 .2 .0 .3 -.2 .2 .1 .0 -.1 -.2 1975
1980
1985
Residual
1990
1995
Actual
122
2000 Fitted
2005
Bibliographie
Bourbonnais R, (2007) « Econométrie : cours et exercices corrigés », Dunod.
Bresson G, Pirotte A, (1985) « Econométrie
des séries temporelles : théories et
applications», PUF. Doucouré F. B, (2013) « Introduction à l’économétrie : Cours et exercices corrigés »,
Editions ARIMA. Doucouré F. B, (2013) « Méthodes économétriques : Cours, Exercices corrigés et
Travaux Pratiques », Editions ARIMA. Doucouré F. B, (2013) « Statistiques et probabilités pour l’économie et la gestion:
Cours et exercices corrigés », Editions ARIMA.
Tome 1 : Statistique descriptive et calcul des probabilités. Tome 2 : Estimation et tests paramétriques et non paramétriques. Greene W. H, (1997) « Econometric Analysis », Londres, Prentice Hall.
Guerrien B, (1991) « Algèbre linéaire pour économistes », Economica.
Hamilton J, (1994)
« Time series analysis », Princeton University Press.
Pyndick R S, Rubinfeld D
L, (1991)
« Econometric Models
Forecasts », McGraw Hill.
123
and
Econometric