EUR OO-I NSTITUT D’ACTUARIAT JEAN DIEUDONNE - EURIA
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Frédéric LESCOAT Promotion 2002
Mémoire de fin d’études présenté en vue de l’obtention du titre d’Actuaire
Résumé Le calcul des risques de marché, et de l’adéquation de fonds propres sur ces risques, est actuellement en pleine mutation, en France comme à l’étranger. En effet, nombre d’établissements financiers tendent à abandonner le calcul par la méthode standard proposée par les autorités de réglementation, lui préférant des modèles internes, de type Value at Risk, agréés par ces mêmes autorités. L’objectif de ce mémoire est à la fois de comprendre l’intérêt de ces modèles et les progrès qu’ils apportent par -rapport à la méthode standard CAD, et d’étudier les conditions d’acceptation de ces modèles par les autorités de réglementation bancaire et financière. Après une présentation du contexte et des deux types de méthodologies en présence, nous comparons les mécanismes respectifs de la méthode standard et des principaux modèles internes. Ensuite, nous nous penchons sur les conditions dans lesquelles les autorités donnent leur agrément à l’utilisation par les établissements de ces modèles internes, et sur les raisons qui motivent le choix de certains paramètres destinés à normaliser. Mots Clés :
Value at Risk – Capital Adequacy Directive – facteurs de risque – modèles internes – risques de marché – réglementation – loi normale – variance/covariance – historique de cours – comparabilité.
Abstract The way of calculating market risks, and then capital adequacy on these risks, is nowadays facing great changes, in France but also abroad. Indeed, many financial companies tend to abandon the standard method proposed by the regulation authorities, and prefer use some Value at risk-based internal models, recognized by these authorities. The aim of this report is on one hand to understand the interest of such internal models and the progress they bring compared to the CAD standard method, and on the other hand tu study the conditions of their acceptance by the bank and financial regulation authorities. After a presentation of the context of this study, and of the two opposite methodologies, we compare here the respective mechanisms of the standard method and of the major internal models. Then we analyse the conditions in which authorities give their approval to companies for the use of these models, and the reasons that can explain the choice of some parameters used to normalize the way they are used.. Keywords :
Value at Risk – Capital Adequacy Directive – risk factors – internal models – market risks – settlements – gaussian law – variance/covariance – price historic – comparability.
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Remerciements
Je tiens à remercier toutes les personnes qui ont de près ou de loin participé à l’élaboration de ce mémoire, ou ont contribué à m’en inspirer l’idée.
Ainsi, je remercie tous les membres du département Risques de Marché du Crédit Mutuel de Bretagne pour m’avoir prêté leur concours tout au long de mon stage et de mes recherches ultérieures, accueillant favorablement mes diverses demandes de renseignements. Je tiens particulièrement à exprimer ma gratitude envers : - Monsieur André André Andro pour m’avoir proposé proposé ce stage et m’avoir suivi suivi tout au long des cinq mois passés au sein de son service, - Monsieur Patrick Patrick Bourdon pour avoir également suivi de près mes travaux sur la Value at Risk, mais aussi pour m’avoir permis de découvrir les autres facettes de la réglementation des risques de marché, - Messieurs Erwan Collec et Vincent Arnould pour avoir, parfois avec une patience notable, répondu aux diverses interrogations que j’ai pu leur soumettre tout au long de mon évolution à leurs côtés, et ainsi avoir facilité ma découverte de l’environnement des marchés financiers, ou du moins comblé certaines de mes lacunes dans ce domaine. Je tiens également à remercier tout le personnel de la salle des marchés du CMB dans son ensemble, pour sa gentillesse et sa patience à mon égard tout au long de mon stage. D’autre part, je remercie Monsieur Gérard Langlois, professeur à l’EURIA, avant tout pour les précieux renseignements qu’il a pu me fournir sur l’environnement réglementaire des risques de marché, mais aussi pour la documentation à laquelle il m’a permis d’accéder. Enfin, je ne peux oublier dans mes remerciements certains de mes camarades de promotion, dont l’aide et les conseils m’auront souvent été précieux. Ainsi, je remercie particulièrement pour leur contribution à ce travail messieurs Pierre Doré et Thomas Rousset, également étudiants à l’EURIA.
Mémoire de fin d’études - EURIA
-1-
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
TABLE DES MATIERES
Mémoire de fin d’études - EURIA
-2-
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Préambule : Du stage de fin d’études au mémoire….......................6 INTRODUCTION : ORIGINE ET CHOIX DU STAGE .......................................................... 7 I.
ETUDE COMPARATIVE DE DEUX METHODES DE CALCUL DE LA VAR .......... 8
II.
SUIVI DE LA MISE EN PLACE D’UN LOGICIEL DE CALCUL DE LA VAR ........ 10
III. ORIGINE DU CHOIX DE CE MEMOIRE..................................................................... 11 CONCLUSION ........................................................................................................................ 12
Introduction.......................................................................................14
Première partie : De la CAD à la VaR, présentation des deux méthodologies en présence................................................................17
I.
DEFINITION DU RISQUE DE MARCHE..................................................................... 18
II.
PROGRESSION HISTORIQUE DE LA REGLEMENTATION ................................... 19
III. LA CAPITAL ADEQUACY DIRECTIVE ; REGLES ET METHODE STANDARD.. 20 1. 2.
PERIMETRE D’APPLICATION ET MODALITES DEFINIES PAR LE REGLEMENT ............................. 21 LA METHODE STANDARD DE CALCUL DES RISQUES DE MARCHE ............................................. 22 Le risque de taux d’intérêt ............................................................................................................ 22 Le risque sur titres de propriété ................................................................................................... 23 Le risque de change...................................................................................................................... 24 Les risques optionnels .................................................................................................................. 24
IV. APPROCHE PAR MODELES INTERNES ET PROPOSITIONS DU COMITE DE BALE ....................................................................................................................................... 24 V.
LA VALUE AT RISK...................................................................................................... 26
VI. LES TROIS METHODES MAJEURES DE CALCUL DE LA VAR ............................ 29 1. 2.
L’ANALYSE HISTORIQUE .......................................................................................................... 29 LA METHODE DE VARIANCE/COVARIANCE ............................................................................... 30 Décomposition des actifs financiers ............................................................................................. 30 Répartition des flux financiers...................................................................................................... 30 Le calcul de la VaR....................................................................................................................... 31 3. LA METHODE PAR SIMULATION DE MONTE CARLO ................................................................. 32
Mémoire de fin d’études - EURIA
-3-
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Deuxième partie : Comparaison des mécanismes CAD et VaR....33
I.
LE CHOIX DES FACTEURS DE RISQUE.................................................................... 34 1. 2.
II.
PROBLEMATIQUE ...................................................................................................................... 34 LES CHOIX RESPECTIFS DE LA METHODE STANDARD ET DES MODELES INTERNES ................... 35 Le risque de taux d’intérêt ............................................................................................................ 36 Le risque de change...................................................................................................................... 37 Le risque sur actions..................................................................................................................... 38
LE CHOIX DES SCENARIOS........................................................................................ 38 1. 2.
LA METHODE STANDARD .......................................................................................................... 39 LES MODELES INTERNES ........................................................................................................... 40 Le choix de la loi normale ............................................................................................................ 40 La problématique de l’historique ................................................................................................. 44 3. BILAN ....................................................................................................................................... 45
III. LA MESURE DE L’IMPACT DES SCENARIOS SUR LA POSITION ....................... 46 1. 2. 3.
LES POSITIONS LINEAIRES ........................................................................................................ 46 LES POSITIONS PSEUDO-LINEAIRES .......................................................................................... 47 LES POSITIONS NON -LINEAIRES ................................................................................................ 49
IV. L’AGREGATION DES RESULTATS............................................................................ 52 1.
LA PRISE EN COMPTE DES CORRELATIONS ............................................................................... 52 Le point de vue de la méthode standard sur les corrélations ....................................................... 53 Les corrélations dans les modèles ................................................................................................ 54 2. LE CALCUL DU RISQUE GLOBAL ............................................................................................... 56
Mémoire de fin d’études - EURIA
-4-
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Troisième partie : Etude de la conformité des modèles internes aux critères d'acceptation par la Commission Bancaire...............59
I. RAPPELS SUR LA REGLEMENTATION SPECIFIQUE AUX MODELES INTERNES............................................................................................................................... 60 1. 2. 3. 4.
PRINCIPES ................................................................................................................................. 60 CRITERES QUALITATIFS DU SYSTEME DE GESTION DES RISQUES ............................................. 61 CRITERES QUANTITATIFS ET AUTRES EXIGENCES .................................................................... 62 LE CALCUL DES EXIGENCES EN FONDS PROPRES ...................................................................... 62 Modèle interne n'intégrant pas le risque spécifique ..................................................................... 63 Modèle interne intégrant le risque spécifique .............................................................................. 64
II. ANALYSE DES CRITERES QUANTITATIFS D’ACCEPTATION DES MODELES INTERNES............................................................................................................................... 64 1. 2.
LE SEUIL DE CONFIANCE A 99% ............................................................................................... 65 L’HORIZON DE PLACEMENT DE DIX JOURS ............................................................................... 68 Le phénomène de liquidité ............................................................................................................ 69 Les problèmes engendrés lors du calcul....................................................................................... 71 3. L’HISTORIQUE MINIMUM D’UN AN ........................................................................................... 73 Le choix de la longueur de l’historique........................................................................................ 74 La pondération éventuelle des données........................................................................................ 74 Le traitement des valeurs manquantes ......................................................................................... 76
III. COMPARABILITE DES DIFFERENTS MODELES .................................................... 79 1. 2.
LA METHODE STANDARD .......................................................................................................... 80 LES MODELES INTERNES ........................................................................................................... 81 Certains écarts dépendent de l’utilisateur.................................................................................... 81 D’autres écarts tiennent à la méthodologie.................................................................................. 82
Conclusion..........................................................................................85
Bibliographie......................................................................................88
Mémoire de fin d’études - EURIA
-5-
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
PREAMBULE : DU STAGE DE FIN D’ETUDES AU MEMOIRE…
Mémoire de fin d’études - EURIA
-6-
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Introduction : Origine et choix du stage Dans le cadre de la formation de l’EURo-Institut d’Actuariat (EURIA) de Brest, chaque étudiant est tenu d’effectuer, en début de troisième année, un stage en entreprise d’une durée comprise entre quatre et six mois. Ce stage doit en principe se dérouler en dehors des frontières de l’état français. Cependant, il est possible de voir cette contrainte levée dans certains cas de figure, et à certaines conditions, par la Direction de l’Institut. C’est ce qui s’est produit dans mon cas. Au cours de ma seconde année de formation, j’ai eu l’occasion de travailler, dans le cadre d’un bureau d’études, sur un sujet proposé par M. André Andro, responsable du département Risques de Marché au Crédit Mutuel de Bretagne (CMB). Il s’agissait d’étudier les trois méthodes de calcul de Value at Risk (ou VaR, notion définie par la suite) communément utilisées par les établissements de crédit, puis d’en faire ressortir les avantages et inconvénients. Au terme de ce travail, M. Andro a proposé de conserver l’un des quatre membres de notre bureau d’études, en tant que stagiaire, en vue de participer à la mise en place d’un outil de calcul des risques de marché au CMB. Désireux à la fois de développer mes connaissances sur un outil en pleine expansion (la VaR, donc) et d’assister à l’application concrète des notions découvertes tout au long de ce bureau d’études, j’ai donc décidé, après avoir obtenu l’agrément de M. Le Borgne, directeur de l’EURIA, d’accepter cette offre et d’effectuer mon stage de fin d’études, d’une durée totale de cinq mois, au sein du département Risques de Marché du CMB. L’objectif principal de ce stage était le suivi de la mise en place au sein de l’établissement d’un logiciel de calcul de la VaR. Dans cette optique, mon action devait se scinder en deux parties. En premier lieu, il m’était demandé d’effectuer, en coopération avec une autre stagiaire, un comparatif entre deux des méthodes de calcul, au niveau quantitatif et sous un aspect pratique, complétant en quelque sorte les résultats obtenus au cours du bureau d’études. Dans un deuxième temps, mon rôle devait être, après choix d’une de ces méthodes par la Direction des Risques, d’assister à sa mise en place, en particulier à travers l’analyse et la vérification des résultats du logiciel prévu à cet effet. Ce sont donc ces deux étapes majeures de mon stage que je me propose de présenter ici, avant de faire ressortir, dans une troisième partie, les liens entre ce stage et le sujet de ce mémoire et, partant, de fournir les raisons de ce choix. Je tiens cependant à apporter une précision préalable : ce rapport succinct étant principalement une forme d’introduction au sujet du mémoire, certaines des notions abordées ici ne seront bien évidemment définies que par la suite. Le lecteur ne doit donc pas s’étonner de rencontrer dans les quelques pages suivantes certains termes éventuellement inconnus et non explicités dans l’immédiat (nous avons déjà pu citer le cas de la Value at Risk ou VaR), cette manière de procéder étant bien évidemment volontaire et totalement arbitraire.
Mémoire de fin d’études - EURIA
-7-
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
I.
Etude comparative de deux méthodes de calcul de la VaR
Durant la première partie de ce stage, mon objectif a donc été de permettre à la Direction des Risques du CMB d’effectuer un choix entre deux méthodes préalablement envisagées. En l’occurrence, il s’agissait des méthodes dites de variance/covariance (ou méthode paramétrique) et d’analyse historique. Le principe de chacune, comme on l’a dit précédemment, sera explicité ultérieurement dans ce mémoire. Je me contenterai donc ici de préciser brièvement en quoi a consisté ma contribution à ce choix. L’idée de base de cette comparaison était de vérifier la cohérence des résultats obtenus par chacune des deux méthodologies. Pour cela, il convenait de les appliquer tour à tour à chacun des types d’instruments détenus par l’établissement au sein de son portefeuille de négociation. La première partie de ce travail a été, dans l’optique d’un gain de temps ultérieur, la mise en place de feuilles de calcul automatisées afin de pouvoir ensuite obtenir un résultat immédiat après la collecte des données nécessaires à chacun des calculs. Nous avons donc d’abord, dans l’environnement du tableur Excel, préparé un type de page de calcul propre à chacune des catégories d’instruments financiers à traiter, et ce pour chacune des deux méthodes envisagées. Cette première étape m’a par ailleurs permis de percevoir plus clairement et concrètement la manière dont la VaR s’appliquait à chaque type d’actif financier. Une fois ce travail accompli, aussi bien pour les produits de type actions que pour les instruments de taux et les produits optionnels sur taux et sur titres, en devise ou non, les premiers calculs véritables ont pu être effectués. Une autre étape préalable à ces calculs a cependant été nécessaire : le choix des facteurs de risque correspondant aux divers actifs du portefeuille. Bien que pouvant être relativement intuitif et rapide dans certains cas, ce choix n’en est pas moins un passage obligatoire et déterminant dans la suite des opérations, comme nous pourrons le voir par la suite. Une fois cette étape franchie, le calcul proprement dit a pu débuter. Dès les premières confrontations des résultats, des écarts sensibles ont été constatés. Afin de vérifier si ceux-ci n’étaient pas dus à des erreurs de calcul ou de modélisation, il convenait de déterminer l’origine de ces différences, parfois très importantes, entre les résultats obtenus de part et d’autre. Dans la majeure partie des cas, les facteurs en cause ont pu être identifiés. La conclusion a été que les différences obtenues lors de la phase de calcul provenaient principalement des méthodes elles-mêmes, que la cause en soit les hypothèses sur lesquelles repose chacune (en particulier la méthode de variance/covariance, aux hypothèses fortes et exigeantes) ou la méthodologie de calcul associée. Les causes de divergence principales détectées étaient :
•
une asymétrie de la distribution des rendements de l’instrument observé, qui avait pour conséquence un écart de résultats important au niveau des pertes ; écart qui n’aurait pas existé, vérification faite, si le calcul avait été effectué au niveau des gains ;
Mémoire de fin d’études - EURIA
-8-
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
•
des pertes réelles dans les régions extrêmes de la distribution souvent supérieures à celles envisagées par la méthode de variance/covariance ; une croissance continuelle des rendements de certains facteurs de risque (taux • TAG en particulier) sur la période d’observation considérée, ayant pour conséquence l’obtention d’un chiffre de VaR nul ou d’une faiblesse surprenante, par la méthode de l’analyse historique ; des résultats obtenus par la méthode de variance/covariance parfois proches de • ceux obtenus par l’intermédiaire d’un historique sans pondération des données, parfois au contraire plus proches de ceux obtenus par l’intermédiaire d’un historique de données pondérées. Lorsqu’on sait que la méthode de variance/covariance est basée principalement sur l’hypothèse de normalité des rendements et l’analyse historique davantage sur l’hypothèse de stationnarité de ceux-ci, l’origine de ces anomalies est aisément détectable. En effet, l’asymétrie, tout comme le phénomène de « queues épaisses » de certaines distributions, ne peut que contredire une hypothèse de normalité de celles-ci. Les autres anomalies constatées étaient visiblement à mettre à l’actif des faiblesses de modélisation de la méthode d’analyse historique et des interrogations que la méthodologie suscite encore, telle la pondération éventuelle des données. Les deux méthodes confrontées révélant chacune ses lacunes, il convenait donc, afin de les départager, de tester le bien-fondé de leur application aux divers facteurs de risque. La première donnée à tester s’imposait d’elle-même : il s’agissait d’étudier le caractère éventuellement gaussien des distributions des rendements de nos différents facteurs de risque. Pour cela, différents calculs et tests ont été imaginés et mis en place, allant de la simple confrontation de la densité de nos distributions avec celle de la loi normale, à différents tests de normalité (calcul des coefficients d’aplatissement et d’asymétrie, ainsi que du coefficient de corrélation des données, test de Kolmogorov, observation de la droite de Henry,…). Au final, force a été de constater que, dans de nombreux cas de figure, les facteurs de risque choisis pour les calculs voyaient la normalité de la distribution de leurs rendements mise en doute, voire rejetée purement et simplement par nos tests. Il convient d’ailleurs de noter que ce rejet affectait de manière générale tous les types d’instruments financiers étudiés. Nous n’étions donc pas en présence d’une unique catégorie à la normalité douteuse, ce phénomène touchant aussi bien les taux d’intérêt (Euribor et Pibor à maturités diverses, TAG,…) que les indices boursiers (CAC 40,…) ou les cours de change au comptant, quoique cette dernière catégorie ait semblé demeurer relativement proche de la normalité. L’hypothèse du caractère gaussien de la distribution des rendements, hypothèse majeure de la méthode de variance/covariance, se trouvait donc contredite. De la même manière, l’hypothèse de stationnarité de ces mêmes rendements, hypothèse cette fois nécessaire à l’application des deux méthodes, était mise en doute par certains phénomènes. En particulier, il s’avérait évident que des calculs basés sur cette hypothèse ne pourraient être appliqués en présence d’instruments dont les rendements étaient restés positifs sur toute la période d’observation retenue (ce qui était entre autres le cas du taux TAG et donc des instruments indexés sur ce taux). En effet, un tel phénomène impliquait, suivant l’hypothèse de stationnarité, l’impossibilité d’obtenir des rendements négatifs dans un proche avenir, d’où l’obtention d’un chiffre de
Mémoire de fin d’études - EURIA
-9-
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché VaR nul, alors qu’à l’évidence ces rendements finiraient tôt ou tard par redevenir négatifs (il est peu crédible d’envisager un taux éternellement croissant, nous avons d’ailleurs pu assister par la suite à l’inversion de cette tendance), créant ainsi des pertes non prévues par le modèle. Enfin, des zones d’ombre demeuraient quant à la méthodologie de mise en place de la méthode d’analyse historique. Ainsi, il était bien difficile d’effectuer un choix entre l’utilisation de données pondérées ou non. Le même type de problème se posait d’ailleurs concernant le choix de l’étendue de la période d’observation des données, donc de l’historique utilisé, ainsi que de l’horizon de calcul et du seuil de confiance à prendre en considération. Ces derniers sont certes imposés par les organes de réglementation bancaire et financière, mais comme nous pourrons le voir, la manière de les obtenir n’est pas encore clairement définie. Devant de telles faiblesses apparentes de la part de chacune des deux méthodes en présence, le choix de la Direction des Risques n’était donc pas aisé. Il s’est finalement porté sur la mise en place d’un calcul de la VaR par la méthode de variance/covariance. Certes, celle-ci semblait pourtant la plus contestée par les tests effectués, mais d’autres facteurs entraient en ligne de compte, telle la disponibilité à ce moment précis d’un outil de calcul approprié. De plus, les premiers calculs de VaR au CMB étant davantage destinés à un usage interne qu’au respect des exigences réglementaires, l’établissement pouvait encore envisager de changer ultérieurement de méthode de calcul, n’étant pas encore soumis au principe de permanence prôné par les autorités de tutelle. C’est donc vers le suivi de la mise en place d’un calcul de VaR par la méthode de variance/covariance que s’est orientée la deuxième partie de mon stage.
II.
Suivi de la mise en place d’un logiciel de calcul de la VaR
Une fois la méthode à mettre en place déterminée, une autre phase du travail a donc pu commencer. Un logiciel de gestion des opérations de marché était en cours d’installation au sein de l’établissement. L’un de ses modules étant justement consacré au calcul de la VaR, c’est donc aux résultats fournis par ce support informatique que je devais m’intéresser. Après un temps nécessaire à la prise de contact avec cet outil, j’ai pu rapidement entrer dans le vif du sujet. Mon rôle était alors de confronter aux résultats fournis par ce progiciel ceux que j’obtenais moi-même par l’exécution de la même méthodologie sous environnement Excel. Cependant, je me suis immédiatement heurté à un problème de taille : il allait me falloir conformer ma propre méthode de calcul à celle appliquée par l’outil informatique. En effet, si aucun problème ne se posait dans le cadre d’un calcul appliqué à des instruments « simples » tels que les actions ou les produits de taux, à taux fixe, ce n’était plus le cas dès lors que des taux variables étaient abordés. Car si les feuilles de calcul préétablies s’appliquaient fort bien à la méthode de manière générale, il était bien moins aisé d’y mettre en pratique nombre de cas particuliers. Ainsi, il a vite été évident que le logiciel en question traitait d’une manière différente chacun des types de taux variables existant, en particulier au niveau de la valorisation et de la répartition des flux.
Mémoire de fin d’études - EURIA
- 10 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Cette diversité de cas à traiter, cumulée à un important manque d’information concernant les différents cas de figure abordés et la manière dont était mis en œuvre le calcul dans chacun des cas, a accru considérablement la difficulté de la vérification des calculs, ainsi que le temps imparti à cette phase. La majeure partie de mon travail a donc consisté, à partir des résultats fournis par le logiciel instrument par instrument, à établir les différents cas particuliers traités et la manière dont ils l’étaient. Ce n’est qu’une fois chaque méthode particulière déterminée que j’ai pu, à partir de mes propres données de marché, mettre en œuvre le travail qui m’était imparti, et vérifier la cohérence des résultats affichés par le logiciel. Après avoir confirmé que tous les calculs instrument par instrument répondaient effectivement aux attentes de l’établissement, j’ai pu passer à des calculs de combinaisons d’instruments, afin de vérifier non-seulement les chiffres de VaR individuelle fournis pour chaque instrument, mais également l’agrégation de ceux-ci en vue d’obtenir une VaR globale. Cette fois, l’obstacle majeur rencontré a été d’aboutir à un paramétrage correct du logiciel, en particulier au niveau de la somme de facteurs de risque à considérer et de leur nature. Finalement, j’ai pu passer à des calculs de VaR sur des portefeuilles entiers, tenant compte de la diversité des catégories d’actifs contenus dans chacun, et donc de facteurs de risque à prendre en considération, avant d’aboutir à une validation de l’ensemble des calculs du logiciel, qui a mis fin à la fois à mon rôle au sein du département Risques de Marché et au temps imparti à mon stage. La seule étape à laquelle je n’ai pas été en mesure d’assister a donc été la première phase de calcul « en temps réel » de la VaR au CMB. En effet, le logiciel dans sa globalité étant tout au long de mon stage en phase d’installation, je n’ai pu travailler que sur des données figées au sein d’une base destinée à de tels tests, et donc à une date de calcul antérieure. Cependant, je pense avoir eu l’opportunité de suivre toutes les autres étapes de la mise en place de l’outil Value at Risk au sein de l’établissement. En particulier, j’ai eu l’occasion d’appliquer ce calcul à l’ensemble des types d’instruments financiers détenus par celui-ci ainsi que des combinaisons entre ces différentes catégories d’actifs. Si ce n’est le côté officiel de la chose, je ne pense donc pas avoir à déplorer de lacune particulière en ce domaine. Mieux, le manque d’informations concernant les calculs effectués par le logiciel, s’il s’est avéré regrettable voire handicapant sur l’instant, m’a d’un autre côté conduit à explorer toutes les manières possibles de valoriser la plupart des actifs et de leur appliquer une méthodologie Value at Risk, m’apportant ainsi une somme de connaissances non négligeable sur le sujet.
III.
Origine du choix de ce mémoire
Même si l’essentiel des différents travaux que j’ai eu à accomplir durant mon stage était basé sur les méthodes de calcul de la Value at Risk et leur mode de mise en place, je n’en ai pas moins eu l’occasion de tirer parti de cette période pour découvrir d’autres notions, au travers du rôle au sein du service des différentes personnes que j’ai pu y côtoyer tout au long de ces cinq mois.
Mémoire de fin d’études - EURIA
- 11 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Ainsi, au contact des opérateurs de la salle des marchés, j’ai pu me faire une idée plus précise de ce que représentait leur travail, et par-là même approfondir mes connaissances de nombreux produits financiers. De la même manière, étant constamment, durant la deuxième partie de mon stage, en lien avec les membres du Service Informatique chargés de la mise en place du logiciel, j’ai également eu un aperçu fort intéressant de l’étendue des calculs et rapports nécessités à la fois par les opérateurs, les analystes financiers et le personnel de la Gestion des Risques dans le cadre de leur activité professionnelle. Mais surtout, j’ai découvert, au contact des autres membres du service, une grande partie de ce qu’est l’environnement réglementaire de la gestion des risques de marché. En effet, la Value at Risk est un outil de calcul dont l’application aux risques de marché est en pleine expansion, et s’inscrit dans le respect de la réglementation nationale et internationale de l’adéquation des fonds propres. Ainsi, par souci de culture, j’ai pu m’intéresser aux autres facettes de cette même réglementation. Car si la VaR, et de fait les modèles qui s’en inspirent, semblent représenter en quelque sorte l’avenir du calcul d’adéquation des fonds propres aux risques de marché, une réglementation propre à ce domaine existe déjà. Peu à peu, j’ai donc découvert l’ensemble de la réglementation relative à la surveillance prudentielle de ces risques de marché, qu’il s’agisse du caractère qualitatif de celui-ci, au travers de la définition de l’assujettissement à cette réglementation, de la méthode standard appliquée avant l’apparition des modèles internes et leur mise en place, ou des critères d’acceptation de ces modèles par la Commission Bancaire. C’est pourquoi j’ai souhaité en savoir davantage sur le sujet, déterminer les raisons qui avaient conduit à une telle réglementation, et surtout ce qui avait motivé la mise en place de modèles internes de calcul des risques de marché, tels que celui que j’ai suivi. Le sujet de ce mémoire découle donc, fort logiquement, à la fois du thème sur lequel était axé mon stage, mais aussi de toutes les notions relativement nouvelles que j’ai pu découvrir durant cette période et que j’ai eu à cœur d’approfondir. Ce projet est donc né d’un souci d’approfondissement de ma culture personnelle dans un domaine qui m’attire beaucoup, en l’occurrence celui de la gestion des risques de marché. Cependant, ce mémoire est également destiné à compléter les informations, rares et souvent maigres, qu’il est possible de se procurer sur ce domaine de la réglementation bancaire et financière.
Conclusion Ce stage de fin d’études m’aura donc permis à la fois de compléter mes connaissances dans un domaine sur lequel j’avais déjà pu travailler au cours de ma seconde année d’études à l’EURIA, et qui m’a beaucoup intéressé. J’ai également eu l’occasion de compléter de manière satisfaisante ma connaissance des produits financiers, de la manière dont ils sont abordés, et des méthodes utilisées pour les valoriser. De plus, j’y ai acquis une autonomie non-négligeable, ayant effectué l’essentiel de mon travail de manière indépendante et sans bénéficier d’un suivi constant. Cela m’a permis de
Mémoire de fin d’études - EURIA
- 12 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché prendre nombre de décisions quant à l’orientation de mes travaux, et l’ordre et la manière dont ils devaient être exécutés. Enfin, et c’est peut-être ici l’essentiel, ce stage m’a permis de me découvrir et développer un intérêt pour le domaine de la réglementation des risques de marché, et a ainsi conduit au choix du thème de ce mémoire. Ayant pu aborder l’essentiel du point de vue mathématique et appliqué de ce domaine au cours de mes cinq mois de présence au CMB, cette étude me permet donc de compléter mes connaissances dans ce domaine, en abordant cette fois essentiellement le domaine réglementaire et qualitatif. Dans un même temps, ce document me semble à même d’apporter un complément à la littérature existant sur ce thème, du moins celle que j’ai pu me procurer personnellement.
Mémoire de fin d’études - EURIA
- 13 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
INTRODUCTION
Mémoire de fin d’études - EURIA
- 14 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
D epuis le début des années 1990, les institutions financières ont vu un accroissement considérable de leurs opérations de marché et, de fait, du risque inhérent à celles-ci. Or, au même titre que les autres risques auxquels sont soumis les établissements financiers, les risques de marché sont de nature à mettre en danger la pérennité de l’entreprise. Il était donc impératif de pouvoir les gérer de manière optimale. Pourtant, jusqu’alors, aucune réglementation spécifique n’existait dans ce domaine, le contrôle des risques de marché étant quasi-inexistant et n’apparaissant qu’à un niveau national. Peu à peu, la prise de conscience des risques encourus, amplifiée par la faillite de plusieurs établissements de taille (Metallgeselschaft en Allemagne, Barings en Grande-Bretagne,…) suite à une mauvaise gestion de ces risques, a démontré la nécessité d’un contrôle suivi et efficace de cette catégorie de risques. De fait, l’allocation de fonds propres est devenue une préoccupation majeure dans le secteur bancaire et financier, son objectif étant de couvrir la perte potentielle future par des fonds propres. Partant de ce constat de nécessité d’une réglementation clairement définie, les autorités de régulation ont peu à peu mis en place des normes de surveillance des différents risques menaçant les établissements de crédit et les entreprises d’investissement. Ainsi, après une première approche en 1988, principalement axée sur le risque de crédit, il faut attendre 1993 pour trouver enfin au niveau international des méthodes standardisées destinées au calcul des risques de marché. Les premières applications en terme de contrôle apparaissent via une directive européenne, puis en 1995 au travers de sa transposition en droit français. Ce règlement, cependant, fournissant une méthode standardisée de calcul de l’allocation de fonds propres, ne satisfait pas certains grands établissements. Ceux-ci, en effet, ont déjà de leur côté développé des modèles internes de calcul relativement élaborés, et les jugent supérieurs au modèle standard proposé par le régulateur. Sous leur pression, la réglementation évolue donc peu à peu jusqu’à autoriser l’usage de modèles internes de calcul du risque de marché, pour compléter voire remplacer la méthode standard. Depuis lors, l’usage de ces modèles internes, principalement basés sur la notion de Value at Risk, s’est largement développé, tendant à se généraliser à l’ensemble des établissements. Mais ce changement d’orientation dans la réglementation amène forcément à se poser certaines questions, en particulier sur le bien-fondé d’accorder aux établissements concernés une liberté de choix aussi grande, dans les méthodes de calcul, que celle qu’accordent les modèles internes. En effet, il convient de se demander tout d’abord en quoi la méthode standard proposée à l’origine se montrait insuffisante, et donc, de ce fait, quels sont les objectifs visés par l’adoption et l’utilisation de ces modèles.
Mémoire de fin d’études - EURIA
- 15 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Pour aller plus loin, il est possible de s’interroger sur leurs apports réels, tant en termes de précision que de fiabilité, et se poser certaines questions quant à leurs limites et aux critiques éventuelles à leur apporter. Enfin, afin de mieux cerner les implications de la nouvelle réglementation appliquée à ces modèles internes, il est également indispensable de l’étudier afin de déterminer, d’abord si les modèles les plus usités y sont bien conformes, et également si les hypothèses ou théories statistiques sur lesquelles elle est fondée sont acceptables, et le cas échéant dans quelle mesure. L’objectif majeur de cette étude est donc d’apporter, sinon une réponse, du moins un début de réponse à l’ensemble de ces interrogations. Pour ce faire, nous allons tenter d’obtenir un panorama complet au possible de toutes les caractéristiques et particularités, de la méthode standard d’une part et des modèles internes d’autre part. Ainsi, dans une première partie, nous présenterons les deux méthodologies en présence, bien que de manière encore relativement succincte, tout en rapportant la progression logique qui a conduit à la naissance de la première, puis à l’avènement de la seconde et à la transition de l’une à l’autre. Dans un second temps, nous nous attacherons à comparer de la manière la plus complète possible les deux méthodologies, en particulier du point de vue qualitatif, en présentant les principales différences de méthodologie notables et les implications de chacune. Enfin, l’objet de notre troisième portera essentiellement sur l’étude de la conformité des modèles internes aux critères conditionnant leur acceptation par la Commission Bancaire, principalement les critères quantitatifs, et du bien-fondé de ces critères. Nous en profiterons également pour nous pencher sur les vérifications et corrections éventuelles exigées par les organismes de contrôle afin de préserver une certaine norme dans le calcul des risques de marché, ainsi que sur l’interprétation qui peut être faite des résultats obtenus par l’utilisation de ces modèles, tant au niveau interne qu’entre les établissements. Précisons au préalable que, le champ d’étude étant relativement étendu, nous nous restreindrons, dans la majeure partie de ce document, au risque général de marché, espérant ainsi ne pas trop nous disperser.
Mémoire de fin d’études - EURIA
- 16 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
PREMIERE PARTIE : DE LA CAD A LA VAR, PRESENTATION DES DEUX METHODOLOGIES EN PRESENCE
Mémoire de fin d’études - EURIA
- 17 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
A vant d’entreprendre l’étude comparative des deux méthodologies de calcul associées à l’adéquation des fonds propres sur risques de marché, il est bien évidemment nécessaire de présenter celles-ci et d’en donner les principales lignes directrices. C’est cette présentation qui va faire l’objet de la première partie de ce document. Nous allons, dans les pages suivantes, tout d’abord revenir brièvement sur le cheminement chronologique qui a conduit à la réglementation actuelle. Par la suite, nous décrirons plus précisément les règles imposées par la Capital Adequacy Directive (CAD), base de cette réglementation, ainsi que la méthode forfaitaire de calcul qui y est associée. Puis, après avoir énoncé à titre indicatif les propositions formulées par le principal organe de la réglementation bancaire au niveau international quant à l’éventuelle prise en compte de modèles internes de calcul des risques de marché, nous nous attarderons sur la notion sur laquelle se base la quasitotalité des modèles utilisés à ce jour, à savoir la Value at Risk. Enfin, nous expliciterons les trois méthodes les plus couramment retenues dans le cadre du calcul de cette Value at Risk, qui sont également celles sur lesquelles nous nous baserons dans cette étude. Cependant, il peut être utile de préciser dans l’immédiat la notion de risque de marché telle qu’elle est communément définie par les établissements concernés, ainsi que la part de ces risques qui va être retenue dans cette étude.
I.
Définition du risque de marché
Le risque de marché est traditionnellement défini comme étant le risque de subir les conséquences défavorables de l’évolution d’un paramètre de marché (taux d’intérêt, taux de change, cours boursiers,...). La plupart des établissements se rejoignent donc sur cette définition :
“Market risk is the risk UBS faces as a result of adverse movements, in the value of foreign exchanges, commodities, equity market and interest rates positions” . (UBS) “Market risk refers to the risk that a change in the level of one or more market prices, rates, indices, volatilities, correlation or other market factors, such as liquidity will result in losses for a specified position or portfolio” . (Morgan Stanley Dean Witter & Co) “Market risk encompasses liquidity risk and price risk, both of which arise in the normal course of business of a global financial intermediary. Liquidity risk is the risk that some entity, in some location and in some currency, may be unable to meet a financial commitment to a customer, creditor or investor when due. Price risk is the risk to earnings that arises from changes in interest rates, foreign exchange rates, equity and commodity prices, and in their implied volatilities” . (Citigroup Inc.) Nous pouvons donc considérer le risque de marché comme étant le risque de perte auquel est exposée une position en raison d’une évolution défavorable de l’environnement de marché.
Mémoire de fin d’études - EURIA
- 18 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Ce risque se distingue des autres risques auxquels sont soumis les établissements financiers (risque de contrepartie, de règlement-livraison, de liquidité ou opérationnel). Comme nous avons déjà pu le souligner, nous nous attacherons principalement au risque général de marché, qui doit être distingué du risque spécifique de marché, davantage lié aux caractéristiques propres d’un titre donné. Le périmètre de l’étude étant à présent plus clairement défini, entrons maintenant dans notre sujet proprement dit, à travers la réglementation concernant ce risque de marché.
II.
Progression historique de la réglementation
Les premiers pas de la réglementation des risques sur opérations de marché datent de la fin des années 1980 avec, consécutivement à la crise d’octobre 1987 (le « jeudi noir » le Dow Jones chutait de 23% dans la journée), la signature du premier accord international dans ce domaine : l’accord de Bâle. Cet accord est le premier fruit des travaux de l’organe moteur de la réglementation bancaire au niveau international : le Comité de Bâle1. Le principe de base de cet accord est que la réglementation financière internationale à mettre en œuvre doit reposer sur les fonds propres. De fait, rapportés aux risques de perte encourus par un établissement, les fonds propres doivent obligatoirement couvrir un minimum prédéterminé de ces risques. Cependant, cet accord concerne spécifiquement le risque de crédit, défini comme le « risque de défaillance de la contrepartie ». Il n’y est fait, en réalité, qu’une allusion aux autres catégories de risques que sont le risque de placement, le risque de taux d’intérêt ou le risque de taux de change. Seul le risque de règlement-contrepartie est concerné, au travers des ratios internationaux de solvabilité (ratio Cooke adopté en 1988). Le Comité, à l’époque, se contente d’indiquer que cet accord sera suivi d’un autre portant cette fois sur les risques de marché et les risques de crédit. Il faut pourtant attendre 1993 pour voir apparaître les premières méthodes standardisées pour mesurer les risques de marché, mais celles-ci ne font encore l’objet d’aucune application en terme de contrôle. Egalement issues des travaux du Comité de Bâle, elles permettent cependant par la suite l’élaboration de nouvelles normes susceptibles de mieux appréhender les risques de marché. L’aboutissement en est, au niveau européen, la directive 93/6/CEE du Conseil de l’Union Européenne (15 mars 1993). Cette Capital Adequacy Directive (CAD) relative à l’adéquation des fonds propres aux risques de marché est ensuite transposée en droit français par le règlement 95.02 du Comité de la Réglementation Bancaire et Financière le 21 juillet 1995 et mise en application le 1er janvier 1996. Très proche de l’esprit de Bâle, elle sera modifiée par la suite pour tenir compte des règles adoptées au niveau international sous l’égide du Comité.
1
Nom communément attribué au Comité des Règles et Pratiques de Contrôle des Opérations Bancaires des pays du groupe des dix et du Luxembourg, créé en 1974 et dont le secrétariat est abrité par la Banque des Règlements Internationaux ou BRI, à Bâle (Suisse).
Mémoire de fin d’études - EURIA
- 19 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Cependant, cette directive, si elle prévoit des règles « standards », ne prévoit pas encore explicitement la possibilité pour les banques et les entreprises d’investissement de calculer leurs exigences de fonds propres sur la base de modèles internes, élaborés par les établissements eux-même, et susceptibles de se substituer aux méthodes standards. Cette approche « modèles internes » résultera, encore une fois, des travaux du Comité de Bâle. En avril 1993, soit un mois après l’adoption de la directive, le Comité de Bâle avait soumis à la profession pour consultation un document très proche du dispositif européen. Les banques avaient alors souligné que le système forfaitaire envisagé était à la fois lourd et imprécis et que les établissements disposaient d’ores et déjà, pour leur gestion interne, d’instruments sophistiqués permettant une meilleure appréhension du risque potentiel de perte maximale (« Value at Risk »). Aussi, les autorités de contrôle acceptèrent-elles d’étudier la possibilité de prendre en compte l’existence de ces modèles et leurs résultats. En avril 1995, le Comité des Gouverneurs acceptait la prise en compte des résultats des modèles internes, assortie toutefois d’un facteur multiplicateur. Tout ceci aboutissait à l’amendement de Bâle sur les modèles internes du 1 er janvier 1996 (« amendment to the capital accord to incorporate market risks »). Pour leur part, les autorités des états membres de l’Union Européenne décidèrent d’accepter à titre transitoire la solution proposée par le Comité de Bâle, tout en demandant que les modèles internes répondent à des critères qualitatifs et quantitatifs précis.
III.
La Capital Adequacy Directive ; règles et méthode standard
Nous mêlerons arbitrairement, dans cette présentation, la directive européenne sur l’adéquation des fonds propres aux risques de marché, qui est la « véritable » CAD, et le règlement 95.02 du Comité de la Réglementation Bancaire et Financière, qui représente sa transposition au droit français, ainsi que toutes les versions modifiées qui l’ont suivi. Il est d’ailleurs d’usage courant d’utiliser la dénomination CAD pour évoquer ce règlement, tant au niveau des règles qu’il met en place que de la méthode forfaitaire qu’il introduit. Dans un souci de simplification, nous nous autoriserons également cet amalgame par la suite. Ce règlement, qui adapte la surveillance prudentielle des établissements de crédit aux risques liés aux opérations de marché, doit être vu comme la réunion de deux parties bien distinctes : • le texte réglementaire en lui-même, d’abord, qui n’a pour autre objectif que de définir les conditions d’application du mode de calcul défini par la suite, tant au niveau du périmètre d’assujettissement qu’à celui des risques à prendre en compte, ou encore des modalités du suivi par la Commission Bancaire ; • les différentes annexes du document qui, quant à elles, définissent une méthode forfaitaire de calcul d’allocation de fonds propres et la manière dont elle sera appliquée à chaque type d’instruments. Etant donné que nous nous intéressons principalement à cette deuxième partie, c’est sur elle que nous nous attarderons ici. En ce qui concerne les modalités réglementaires d’application de la méthode, nous nous contenterons d’énumérer les principaux points abordés par le texte en question sans les préciser outre mesure.
Mémoire de fin d’études - EURIA
- 20 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Une précision préalable est nécessaire : la version du réglement présentée ici n’est pas la version originelle, mais la dernière correction de celle-ci, remontant à 1999.
1. Périmètre d’application et modalités définies par le règlement Voici les différents points abordés par la réglementation dans la définition des critères d’assujettissement à la CAD et de la manière dont elle doit être abordée :
Le périmètre d’assujettissement de la méthode, au travers de la définition du type d’établissements soumis au règlement (établissements de crédit, compagnies financières et entreprises d’investissement) et la manière dont la consolidation éventuelle doit être effectuée.
Le fait que ce règlement complète, mais ne remplace pas le règlement 91.05 modifié relatif au ratio de solvabilité. En effet, celui-ci doit toujours être respecté par les établissements concernés, les exigences de fonds propres sur risques de marché s’additionnant à celles précédemment existantes et liées à d’autres risques.
La définition des différents types de fonds propres pris en compte, y-compris une nouvelle catégorie introduite dans ce règlement : les fonds propres surcomplémentaires.
La liste des différents risques pris en compte par ce règlement, ceux-ci étant : • le risque de marché sur portefeuille de négociation, • le risque de change, • le risque de règlement-contrepartie, et • les grands risques le cas échéant. D’autre part, le document contient à titre indicatif une définition de la notion de portefeuille de négociation2.
La manière dont doivent être évaluées les positions de manière générale, en l’occurrence « quotidiennement au prix du marché ».
L’explicitation des notions de risque général et de risque spécifique, notions définissant deux types de risques à traiter d’une manière propre pour chacune des catégories précédemment énoncées.
Les modalités de communication à la Commission Bancaire tant de la manière d’application de la méthode que des résultats obtenus, dans le cadre de déclarations périodiques.
Une fois les principes d’application du calcul d’adéquation des fonds propre posés, le règlement, par l’intermédiaire de ses différentes annexes, définit la méthode forfaitaire qui devra (ou devait à l’origine) être appliquée par les établissements dans le cadre de ce calcul.
2
« Pour le calcul des risques de marché, le portefeuille de négociation est composé des éléments qui relèvent d’une intention de négociation, en vue de bénéficier de l’évolution favorable des cours, ou conclus en vue de financer ou de couvrir les éléments en question ».
Mémoire de fin d’études - EURIA
- 21 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Définissons donc à présent et plus en détails les principes majeurs de cette méthode.
2. La méthode standard de calcul des risques de marché Dans ce paragraphe, nous allons donner, pour chacun des types de risque pris en compte par la méthode, la manière dont celle-ci va traiter le problème et permettre d’obtenir une valeur correspondant à l’exigence de fonds propres liée à ce même risque. Cependant, il convient au préalable de définir la notion de « position nette » et la manière dont elle doit être abordée, cette notion étant utilisée dans le calcul de l’exigence de fonds propres de plusieurs des risques considérés ici. La position nette est définie par le règlement comme étant « le solde acheteur (ou position nette longue) ou vendeur (ou position nette courte) des opérations enregistrées par l’établissement sur chacun des titres ou instruments soumis au règlement, appartenant au portefeuille de négociation ». Les positions nettes sont converties, chaque jour, dans la monnaie utilisée pour établir les documents déclaratifs, sur la base du taux de change au comptant. Certains cas particuliers vont pouvoir être observés, tels les OPCVM dont la valorisation est relativement difficile, les obligations convertibles, mi-actions et mi-obligations, ou encore les produits dérivés, qui doivent quant à eux être convertis en positions équivalentes sur le sous jacent, en respectant certaines conditions. Nous pouvons à présent énoncer la manière dont la méthode recommande de calculer l’exigence de fonds propres sur chaque catégorie de risque. Ces catégories sont : le risque de taux d’intérêt, le risque sur titres de propriété, le risque de change, les risques optionnels, le risque de règlement-contrepartie, le risque sur produits de base, les grands risques. Cependant, les trois dernières catégories citées ici ne seront pas traitées dans cette étude, que ce soit parce qu’ils concernent davantage le risque spécifique de marché que le risque général (risque de règlement-contrepartie), à cause de la manière particulière dont ils sont évalués et leur caractère « marginal » vis-à-vis des autres risques de marché (risque sur produits de base) ou de par leur caractère exceptionnel et relevant davantage, nous le verrons, d’un type de contrôle complémentaire à celui évoqué ici (grands risques). Nous ne prendrons donc pas la peine de revenir sur la manière dont ces catégories doivent être envisagées.
Le risque de taux d’intérêt Pour les éléments soumis au risque de taux, c’est-à-dire les obligations, les titres de créance négociables et les autres instruments assimilés (les obligations convertibles sont traitées comme des titres de créance ou des titres de propriété en fonction de la manière dont elles se
Mémoire de fin d’études - EURIA
- 22 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché négocient), on calcule séparément un risque général, qui est lié à l’évolution des taux d’intérêt dans la devise concernée, et un risque spécifique, qui représente le risque lié à l’appréciation par le marché de l’émetteur de l’instrument (risque spécifique que nous ne prendrons pas en compte). La méthode agrège ensuite les résultats de ces deux calculs. Deux méthodes d’évaluation peuvent être utilisées au choix des établissements, dans le cadre du risque général :
la première méthode (dite « de l’échéancier ») est fondée sur un échéancier très détaillé où les titres de créances et les instruments dérivés sont répartis suivant leur durée restant à courir. Cet échéancier comprend trois zones, divisées en bandes, qui s’étalent de moins d’un mois à plus de vingt ans. Les positions ainsi ventilées et exprimées à leur valeur de marché sont pondérées par un coefficient qui tient compte de leur duration. La duration mesure la durée de vie moyenne des flux actualisés d’intérêt et de capital d’un titre de créance. Après ces opérations, les effets de la compensation sont partiellement pris en compte tant à l’intérieur de chaque bande qu’entre les trois zones. Finalement, l’exigence de fonds propres représente un pourcentage des positions compensées et des positions résiduelles, variable en fonction de chaque zone de durée ;
la seconde méthode (dite « de la duration ») est fondée sur la duration des flux liés aux instruments. L’établissement doit calculer la duration modifiée 3 de chaque titre de créance ou instrument. Les différents titres sont ensuite ventilés en trois zones dans le temps en fonction de la durée résiduelle du titre. Les positions dans chaque zone sont affectées d’un pourcentage qui représente la variation maximale de taux d’intérêt censée pouvoir intervenir dans un laps de temps si court que l’opérateur n’a pas le temps de se couvrir. Les positions ainsi pondérées sont ensuite compensées dans les mêmes conditions que celles de la première méthode et font l’objet d’exigences en fonds propres correspondantes. Schématiquement, cette méthode permet de regrouper des positions sur des éléments de bilan et de hors-bilan qui ont des durées de vie moyenne différentes, en trois zones temporelles, selon leur sensibilité moyenne, à des variations présumées de taux d’intérêt. Quelle que soit la méthode retenue, le calcul est effectué par devise, sans compensation entre les devises.
Le risque sur titres de propriété Pour les titres de propriété, c’est-à-dire les actions et les autres instruments assimilés (les actions prioritaires non convertibles sont assimilées à des titres de créance), compte tenu de leur nature particulière, on distingue également un risque général et un risque spécifique qui génèrent des exigences en fonds propres distinctes et qui sont additionnées.
3
Duration : moyenne arithmétique des périodes restant à vivre à un emprunt obligataire, moyenne pondérée par les flux (actualisés au taux du marché) de chacune de ses périodes. La duration est un instrument de gestion des portefeuilles obligataires : une anticipation de baisse des taux du marché conduit à acquérir des obligations à duration élevée (anticipation de plus-value) et une anticipation à la hausse des taux conduit à acheter des obligations à faible duration. Egalement connue sous le nom de « sensibilité ». La duration modifiée mesure la sensibilité du prix d’un titre de créance à la variation du taux d’intérêt, c’est-à-dire l’impact de la variation de 1% du taux d’intérêt sur le prix de cet actif, mesuré en nombre d’années.
Mémoire de fin d’études - EURIA
- 23 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Le risque général correspond au risque de variation du prix de l’action liée à l’évolution générale du marché. L’exigence de fonds propres est égale à 8% de la position nette globale de l’établissement. Ces calculs sont effectués distinctement par marché national.
Le risque de change Le risque de change est calculé sur l’ensemble du bilan et du hors-bilan, compte tenu de la franchise prévue pour la part de la position nette globale en devises qui n’excède pas 2% des fonds propres de l’établissement. L’établissement doit calculer dans chaque devise sa position longue nette (quand les créances excèdent les dettes) ou courte nette (dans le cas inverse). Certains éléments peuvent être exclus, tels que les opérations dont le risque de change est supporté par l’Etat ou les actifs durables et structurels. Ensuite, les positions courtes et longues nettes dans chaque devise sont converties au cours de change comptant de l’euro. Ces positions sont additionnées séparément pour fournir respectivement le total des positions nettes courtes et le total des positions nettes longues. Le plus élevé de ces deux chiffres constitue la position nette globale en devises de l’établissement. L’exigence de fonds propres est égale à 8% de la position nette globale qui excède 2% du total des fonds propres. Toutefois, cette exigence est minorée pour les devises qui, bien que n’appartenant pas à un état de l’Union Européenne, présentent des corrélations étroites avec l’euro (la liste en a été publiée par la Commission Bancaire). Pour déterminer l’exigence de fonds propres liée au risque de change, les établissements peuvent éventuellement, sous réserve de l’accord des autorités de contrôle, recourir à des techniques statistiques de simulation plutôt que de procéder comme ci-dessus.
Les risques optionnels Dans le cadre du calcul des exigences de fonds propres relatives à la couverture des portefeuilles d’options, les établissement ont le choix entre plusieurs méthodes. Nous n’allons cependant pas les définir ici, étant donné qu’elles le seront dans la seconde partie de ce mémoire.
IV. Approche par modèles internes et propositions du Comité de Bâle Comme nous avons déjà pu le dire, les premières prises en compte des modèles internes dans la réglementation sont le fruit des travaux du Comité de Bâle, et font suite aux demandes de nombreux établissement allant dans ce sens. En Avril 1993, le Comité produit un document (« The Supervisory Treatment of Market Risk »), fruit de recherches sur l'adéquation des fonds propres aux risques de marché. Ce document est alors transmis aux différents établissements concernés afin de recueillir un maximum de commentaires sur la question et sur les propositions énoncées. L'objectif final en est une étude de ces commentaires visant à aboutir à une version définitive émise par le comité, et tenant compte de l'avis de chacun des acteurs (institutions réglementaires et établissements soumis à ce contrôle).
Mémoire de fin d’études - EURIA
- 24 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Le principal point abordé dans ce document concerne la recherche d'une méthode standardisée répondant aux attentes de chacun. Cependant, quelques remarques s'élèvent à l'encontre de ce principe : les propositions émises par le Comité de Bâle ne sont pas suffisamment motivantes, car ne relevant pas assez précisément les risques, et ne reconnaissant pas les meilleures techniques de mesure de ceux-ci ; la méthode proposée ne tient pas suffisamment compte des corrélations (entre instruments comme entre marchés), ni de la diversification éventuelle des portefeuilles ; la méthode proposée n'est pas assez compatible avec certains des modèles internes existant déjà au sein des établissements bancaires et financiers. En fait, il est vrai que la gestion du risque par les banques s'est déjà bien développée depuis les premières propositions au début des années 1990. Leurs modèles internes donnent donc, selon elles, des mesures de risque de marché bien plus précises que le modèle standard proposé. Le Comité va donc devoir étudier la possibilité pour les établissements d'utiliser leurs modèles comme alternatives à la méthode standard. Pour ce faire, plusieurs enquêtes sont effectuées, dont la principale, en 1994, composée de tests proposés à plusieurs banques et portant sur un même portefeuille et sur le risque calculé pour celui-ci par les différents modèles internes pour diverses variations et fluctuations des marchés. En fin de compte, une méthode basée sur ces modèles est acceptée, conditionnée cependant par plusieurs critères d'acceptation, tant au niveau qualitatif que quantitatif. Les facteurs de risque doivent être clairement définis afin d'aboutir à une cohérence entre les différents établissements. De manière générale, ils doivent couvrir les taux d'intérêt, les taux de change, les prix des actions et des matières premières, ainsi que les volatilités relatives aux positions optionnelles. D'autre part, la "sophistication" des facteurs de risque utilisés doit correspondre à la nature et au niveau des risques pris. Ainsi, dans le cadre de la mesure de l'exposition aux taux d'intérêt, le Comité établit qu'un minimum de 6 bandes de maturités (représentant chacune un facteur de risque distinct) doit être utilisé pour les positions matérielles dans les différents marchés et devises. De plus, afin de conserver une certaine uniformité dans les résultats fournis par les différents modèles pour de mêmes positions, certains paramètres vont être spécifiés quant à l'utilisation des modèles :
La période de détention sur laquelle sont calculés les mouvements potentiels du portefeuille de négociation d'une banque. Dans ce cadre, le Comité a conclu que la période de détention utilisée pour mesurer la Value at Risk pour les risques de marché devrait être de deux semaines, c'est-à-dire dix jours ouvrés, supposant ainsi les positions de trading (de négociation) de la banque figées durant cet intervalle.
La période d'observation sur laquelle les mouvements historiques des prix sont observés et leurs volatilités et corrélations mesurées. Ici, la conclusion du Comité est qu'une contrainte doit effectivement être imposée aux choix d'horizons effectués par les banques. En l'occurrence, une longueur d'historique minimale d'un an devra être prise en considération dans le calcul.
Mémoire de fin d’études - EURIA
- 25 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Le niveau de confiance exigé pour les montants de pertes maximales potentielles. De manière globale, les seuils de confiance habituellement utilisés par les banques allaient de 90 à 99%. Dans un souci de prudence, le Comité a trouvé bon de conserver un niveau de confiance relativement élevé, d'où la spécification d'un seuil de confiance à 99%.
Des limites dans les méthodes d'agrégation. En effe t, les manières possibles de prendre en compte les éventualités de mouvements simultanés de différents facteurs de risque sont multiples, d'où un besoin de normalisation évident. Ainsi, les banques vont donc être autorisées à utiliser les corrélations qui leur semblent appropriées, avec une relative flexibilité, mais uniquement dans la mesure où le superviseur se déclare satisfait de la méthode de calcul utilisée. De plus, l'utilisation de ces corrélations ne sera permise qu'au sein d'une même catégorie de facteurs, et donc exclue dans le cas des compensations entre catégories (l'agrégation s'effectuant alors par simple somme).
La définition de la mesure des options et instruments de type optionnel. Dans ce cadre, il va être attendu des établissements que leurs modèles capturent le caractère non-linéaire du prix des options vis-à-vis de l'évolution des prix et taux des instruments sous-jacents. Au minimum, les modèles devront prendre en compte le comportement du prix des options par une approche de type approximation linéaire incluant le risque de sensibilité de second ordre (le gamma, par exemple, pour les options sur titres).
Le calcul de l'exigence en fonds propres. La confiance envers les calculs des modèles internes demeurant relativement modérée, un facteur multiplicatif semble devoir être introduit afin d'éviter toute sous-estimation du risque pris. Ce facteur multiplicatif est finalement défini comme devant être au minimum de 3, un supplément pouvant être ajouté à ce facteur en fonction aux performances ex-post des modèles. Ces différents paramètres seront analysés plus en profondeur et discutés dans les autres parties de cette étude, c’est pourquoi nous n’allons pas nous attarder davantage sur ceux-ci dans l’immédiat. Nous avons pu évoquer précédemment qu'une grande majorité des modèles proposés et utilisés par les établissements étaient de type "Value at Risk". Il est donc nécessaire de définir cette notion, d'autant que c'est sur ce type de modèles que reposera essentiellement la suite de cette étude. Présentons donc à présent cette notion majeure utilisée dans ce cadre de « modèles internes », la Value at Risk.
V.
La Value at Risk
La rentabilité d’un titre ou d’un portefeuille est souvent caractérisée par son espérance de rentabilité et sa volatilité (représentée par l’écart-type du portefeuille) : hypothèses de type Markowitz. La volatilité, exprimée en %, mesure l’incertitude de la valeur du portefeuille autour de son espérance de rentabilité (prise comme rentabilité moyenne). Le risque du portefeuille est donc mesuré par la dispersion des réalisations de la rentabilité, R, autour de sa valeur moyenne. Le risque afférent à un actif financier se définit donc comme l’écart-type de la distribution de cet actif.
Mémoire de fin d’études - EURIA
- 26 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Conceptuellement, la Value at Risk (VaR) est une notion très simple : l’idée est de résumer en un seul nombre l’ensemble des pertes potentielles que peut subir un portefeuille d’activités financières. Le but de la VaR est donc de donner une mesure unique et cohérente du risque. Elle est généralement définie de la manière suivante : « la VaR représente la perte potentielle supportée par le détenteur d’un portefeuille de positions, sur un certain horizon de placement et pour un seuil de probabilité donné, dans l’hypothèse d’une évolution du marché contraire aux anticipations du détenteur ». Considérons un actif dont la valeur à l’instant t est notée V t. La perte subie sur cet actif durant la période [s;t] est donc : Ls,t = Vs - Vt Notons que si Ls,t est positif, il s’agit réellement d’une perte. Dans le cas contraire, il s’agit d’un gain, donc d’un bénéfice. La seule hypothèse que l’on formule est que la valeur de cet actif évolue de manière stationnaire : la variable aléatoire Ls,t a une loi de probabilité qui ne dépend de l’intervalle où elle est calculée que par l’intermédiaire de la durée (t-s) de ce dernier. On remplacera dès lors l’intervalle [s ; t] par l’intervalle [0 ; t-s] et la variable L n’aura plus pour indice que la seule durée t de l’intervalle. On a donc, pour L t, la définition suivante : Lt = V0 - Vt La “Value at Risk” de l’actif en question pour la durée t et le niveau de probabilité q se définit comme un montant, noté VaR, tel que la perte encourue sur cet actif durant l’intervalle [0 ; t] ne dépassera VaR qu’avec une probabilité (1-q) : P[ Lt > VaR] = 1 – q
⇔
P[ Lt
≤ VaR] = q
Ainsi, la VaR correspond au quantile d’ordre c de la loi de probabilité de la variable aléatoire Lt (perte encourue = - la rentabilité du portefeuille sur un horizon T). En notant F L et f L , la fonction de répartition et la densité de la variable aléatoire L t, on retrouve la définition de la VaR :
Mémoire de fin d’études - EURIA
- 27 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché On voit que deux paramètres entrent dans la définition de la notion de la VaR : la durée t et la probabilité q. En pratique, on décide de fixer t une fois pour toutes (un jour, ou une semaine par exemple) et on calculera la VaR en fonction de q, ce qu’on notera VaR q si un risque de confusion est possible. Il est en effet possible de calculer la VaR pour plusieurs valeurs de q. Au niveau de ces paramètres, on l’a vu, le Comité de Bâle impose un niveau de confiance minimum, q, de 99% et un horizon de gestion, t, de 10 jours ouvrés, en supposant qu’aucune modification du portefeuille n’intervienne d’ici là et en prenant en compte dans les calculs l’ensemble des corrélations existant entre les variables fondamentales (essentiellement les taux de change et d’intérêt et les indices de marchés actions). Cependant, un autre horizon de placement important, dans une optique de contrôle interne, sera l’année, du fait de l’annualité des comptes. Remarques : -Il faut bien comprendre que la VaR n’est ni la perte à laquelle on peut s’attendre, ni la perte maximale qu’on risque de subir, mais un niveau de perte qui ne sera dépassé qu’avec un niveau de probabilité fixé, a priori, par l’utilisateur. - Le développement du cadre théorique se base sur les pertes des actifs. Dans la pratique, on considère la rentabilité des actifs :
R t =
V t −1 − V t Vt
Cette manière de procéder possède le double avantage de fournir les ordres de grandeur des différents facteurs pouvant intervenir dans l’évaluation d’un actif ou d’un portefeuille et de fournir une variable dont l’étude montre qu’elle peut posséder certaines propriétés distributionnelles (normalité, quasi-normalité pour la rentabilité des actions par exemple). Exemple : Considérons un horizon de temps t de 10 jours et un niveau de probabilité q de 99%. Dans le cas où la VaR de notre portefeuille est de 1.000.000 EUR, on en déduit alors que la perte sur 10 jours du portefeuille ne dépassera 1.000.000 EUR que dans 1% des évolutions possibles.
Il existe trois techniques « classiques » d’estimation de la VaR : • la méthode de l’analyse historique, • la méthode analytique ou de variance/covariance, et • la méthode par simulations de Monte-Carlo. Bien que chacune de ces trois méthodes ait ses spécificités, le principe général d’estimation de la VaR repose communément sur quatre étapes majeures : déterminer les facteurs de risque ; générer des évolutions possibles de ces facteurs de risque pour l’horizon de temps fixé, évolutions autrement appelées scénarios ; appliquer ces scénarii au portefeuille pour obtenir la distribution des valeurs possibles du portefeuille à l’issue de l’horizon de temps fixé ; sélectionner le quantile sur la distribution précédemment obtenue. Développons à présent plus en détail le principe propre à chacune des trois méthodes citées ci-dessus.
Mémoire de fin d’études - EURIA
- 28 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
VI.
Les trois méthodes majeures de calcul de la VaR
Dans cette section, nous allons présenter les trois méthodologies les plus fréquemment appliquées lors d’un calcul de Value at Risk. Le côté mathématique de chacune d’entre elles n’ayant qu’un intérêt limité dans le cadre de cette étude, nous nous restreindrons en grande partie à la description de la méthode elle-même, davantage qu’à ses sources et implications statistiques et probabilistes.
1. L’analyse historique Cette méthode est sûrement la plus intuitive et la plus simple à utiliser. Elle repose sur l’hypothèse forte que les mouvements passés des prix de marchés se reproduisent dans le futur et qu’on peut donc les extrapoler. La méthodologie se base essentiellement sur l’observation de la distribution de fréquence des pertes et profits ou rendements d’un ensemble d’instruments financiers regroupés en portefeuilles. Dans cette méthode, la distribution est obtenue, pour des séries chronologiques d’observations des prix de marché de chacun des instruments composant les portefeuilles, sur un intervalle de temps constant (par exemple 1 jour, 10 jours ou 1 mois). L’analyse statistique de la distribution empirique permet de dégager les paramètres de la distribution, paramètres de position comme la moyenne et paramètres de disposition comme les extrema, l’écart-type ou les quantiles. La VaR est un quantile de la distribution pour un seuil de confiance que l’on se fixera. Le premier percentile est, par exemple, une estimation du risque pour un seuil d’acceptation de 1%, c’est à dire un montant qui ne sera dépassé que dans 1% des observations. Cette méthode repose sur l’hypothèse de stationnarité des rentabilités des actifs : la distribution conjointe (théorique et inconnue) des variations de prix des différents facteurs de risque, pour l’horizon sur lequel on estime la VaR, est bien estimée par les observations de ces variations de prix sur l’historique considéré. Dans ce cas, la qualité des paramètres (moyennes, variances, covariances,...) de cette distribution est bien sûr également garantie. Elle consiste essentiellement en cinq étapes : déterminer les facteurs de risque ; déterminer la fonction valorisant l’instrument financier en fonction des facteurs de risque ; calculer les valeurs futures probables de tous les facteurs de risque à partir de leurs historiques ; calculer les scénarios probables de valeur future de l’instrument (ou du portefeuille) à partir des scénarii précédents ; déterminer les pertes de valorisation probables que peut subir l’instrument (ou le portefeuille).
Mémoire de fin d’études - EURIA
- 29 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
2. La méthode de variance/covariance La méthode d’estimation de la VaR par la matrice des variances/covariances estimée est, à ce jour, celle possédant la forme la plus achevée, du point de vue opérationnel, des techniques de calcul de la VaR. C’est elle qui a assuré la promotion du concept de Value at Risk. Cette méthode comprend essentiellement trois étapes : le relevé des facteurs de risque élémentaires en lesquels les actifs financiers du portefeuille peuvent être décomposés ; la répartition des flux financiers (ou cash-flows) associés à ces facteurs de risque élémentaires en des cash-flows plus simples correspondant à des échéances standard ; le calcul de la VaR. En outre, elle se base sur les hypothèses suivantes: hypothèse de stationnarité : les paramètres statistiques mesurés sur la distribution observée des variations de rendement sont de bonnes estimations de ces mêmes paramètres pour l'horizon sur lequel on estime la VaR ; hypothèse de normalité : la loi conjointe du rendement des différents actifs (ou facteurs de risque) est un vecteur gaussien et la variance du rendement des actifs évolue au cours du temps ; décomposition linéaire des actifs : le rendement des actifs dépend linéairement de celui des facteurs de risque. Revenons sur les trois étapes constituant cette méthode.
Décomposition des actifs financiers La première étape est la décomposition des différents constituants du portefeuille en flux élémentaires, chacun de ces flux étant sensible à un facteur unique de risque. Ainsi, pour des titres à revenus fixes (type obligation), les facteurs de risque seront les taux zéro-coupon. En effet, le prix d'une obligation procurant les revenus certains de montants V 1,...,VT aux temps t1,...,tT est donnée par : P = V1(1+r 1)-t1 + ... + V T(1+r T)-tT, où les r i sont les taux comptant zéro-coupon. Et on sait que la VaR (par l'hypothèse de normalité) se calcule comme dans le cas d'un modèle linéaire:
VaR = E [ R] + q
var[ R] .
Compte tenu des hypothèses admises par la méthode (linéarité et normalité), le calcul de la VaR se résume donc à la détermination de la variance du rendement du portefeuille grâce aux variances des rendements des flux élémentaires qui le composent (les cash flows) ainsi qu'à toutes les covariances prises deux à deux.
Répartition des flux financiers Cependant, la multitude d'échéances possibles (donc de flux financiers) rend la tâche insurmontable. C'est pourquoi cette méthode préconise d'effectuer l'opération dite de mapping qui consiste en une redistribution des flux financiers sur un ensemble limité et prédéterminé d'échéances standards. Mémoire de fin d’études - EURIA
- 30 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Ainsi, pour un flux correspondant à une échéance standard, aucun mapping n'est nécessaire. Par contre, s'il survient entre deux échéances standard, il convient de le répartir sur ses deux échéances voisines : l'une immédiatement supérieure, l'autre immédiatement inférieure. Considérons un flux de valeur actuelle V 0 et d'échéance t0. Ce flux doit être réparti sur les deux échéances standard t1 et t2 avec t1
le mapping élémentaire, qui suppose la conservation de la valeur actuelle (la somme actualisée à l’instant 0, donc le jour de calcul de la VaR, du flux initial est égale à la somme des valeurs actualisées des deux autres flux intervenant à des dates différentes) et de la duration (la duration de l’actif ayant un flux unique doit être égale à celle de l’actif équivalent ayant deux flux) ; le mapping selon RiskMetrics4, qui suppose également la conservation de la valeur actuelle, mais cette fois suppose constant le risque lié à l’opération (donc l’écart-type), afin de supprimer une éventuelle sous-estimation du risque initial pouvant être amenée par l’utilisation du coefficient de corrélation entre les deux flux.
Une fois le type de mapping souhaité choisi, une simple mise en équation permet d’obtenir le s montants respectifs des flux à attribuer aux échéances standard t1 et t2.
Le calcul de la VaR Une des raisons pour lesquelles la méthode de la matrice de variances-covariances procède à un mapping des positions élémentaires associées à un ensemble fini d'échéances standards est qu'il est impossible d'obtenir cette matrice pour l'ensemble des positions existantes. Les valeurs numériques nécessaires à cette méthode sont donc les évaluations des espérances et des variances des différents rendements des facteurs de risque (les échéances standards), ainsi que des covariances relatives aux couples correspondants. Pour cette méthode, les variances et les covariances sont estimées par les formules classiques de la statistique descriptive (en se basant sur un échantillon de T observations, relatives aux époques t-1,...,t-T). La méthode utilise un modèle qui donne plus de poids aux observations récentes, ce qui permet de mieux tenir compte des caractéristiques tendancielles du marché. De plus, cela limite la taille des données nécessaires au calcul. Lorsque les volatilités et corrélations de l’ensemble des facteurs de risque ont pu être calculées, le calcul de la VaR est rendu possible, d’abord par facteur de risque, puis sur le portefeuille complet, par agrégation des différents facteurs grâce à la matrice des corrélations correspondante.
4
Outil de calcul de la VaR, créé et commercialisé par JP Morgan, précurseur dans le domaine de la VaR. Ce modèle s’appuie essentiellement sur la méthode de variance/covariance. Nous pourrons par la suite citer quelques uns des choix de cet outil de calcul dans le cadre de notre étude.
Mémoire de fin d’études - EURIA
- 31 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
3. La méthode par simulation de Monte-Carlo La méthode d’estimation de la VaR par simulation de Monte-Carlo, s’appuie comme son nom l’indique sur la technique de simulation dite de « Monte-Carlo », qui est une méthode statistique généralement utilisée lorsqu’il est très difficile de déterminer une loi de probabilité uniquement par un raisonnement mathématique. Elle consiste en la « fabrication » de cette distribution à l’aide de la génération d’un grand nombre d’échantillons pseudo-aléatoires, extraits de cette distribution. Pour cela, il faut soit connaître un modèle théorique auquel se conforme cette distribution, ainsi que ses paramètres spécifiques (ce qu’on peut obtenir par estimation ou par tests statistiques), soit pouvoir expliciter cette distribution par suite d’observations ou de calculs sur des observations. Cette méthode est basée sur la simulation des facteurs de marché dont on se donne une loi de distribution a priori. Elle consiste en trois étapes majeures : utilisation des volatilités et corrélations estimées pour les instruments du portefeuille ; on produit ainsi un large nombre de scénarios de valeurs probables en accord avec les modèles de loi lognormale ; pour chaque scénario, on détermine une valeur de portefeuille probable ; on calcule les pertes probables engendrées par les différents scénarios. Cette méthode est très semblable à la méthode historique. La seule différence est que l’une des méthodes utilise les facteurs passés, tandis que l’autre utilise des facteurs simulés. De plus, la méthode de simulation de Monte-Carlo n’impose aucune taille d’échantillon. Remarques : -Cette méthode est très intéressante, puisqu’on peut calculer directement la VaR pour une période de détention de T jours même si les facteurs de marché correspondent à une période de un jour. -Cette méthode nécessite un ordinateur très performant car elle est coûteuse en temps de calcul. Elle est donc de ce fait encore très peu mise en pratique à l’heure actuelle. -Cette méthode demande un effort important de modélisation puisque celle-ci déterminera entièrement les trajectoires des facteurs de marché que l’on utilise pour le calcul de la VaR.
Nous avons pu, dans cette première partie, présenter, bien que de manière encore incomplète, les deux types de méthodologies sur lesquels va s’appuyer la suite de notre étude. Il est d’ores et déjà possible de noter une différence flagrante entre la méthode réglementaire standard et les modèles internes de type Value at Risk. En effet, alors que la première va fournir le montant de l’allocation de fonds propres requise en se basant sur des calculs utilisant des pourcentages fixes et forfaitaires, la seconde impose déjà son caractère autrement plus mathématique et appliqué, et peut intuitivement apparaître comme plus à même de refléter la réalité des marchés à un instant donné et de fournir un chiffre plus cohérent. Cependant, là n’est pas la seule différence entre les deux méthodes, et plusieurs autres caractéristiques vont permettre de les distinguer l’une de l’autre. C’est à cette distinction que nous allons à présent nous attacher.
Mémoire de fin d’études - EURIA
- 32 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
DEUXIEME PARTIE : COMPARAISON DES MECANISMES CAD ET VAR
Mémoire de fin d’études - EURIA
- 33 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
L a présentation des deux méthodologies « antagonistes » de cette étude dans la partie précédente a déjà permis de noter la différence d’optique résidant entre l’approche réglementaire et l’approche par les modèles internes de type Value at Risk. Ainsi, alors que l’approche réglementaire revient à : regrouper les actifs par classes, pondérer identiquement les risques pour tous les actifs d’une même classe, et pondérer arbitrairement les risques sur les compensations à la fois intraclasses et interclasses, l’approche par les modèles internes suivra les étapes : étude « actif par actif » (ou plus généralement facteur de risque par facteur de risque), évaluation statistique des risques sur chaque actif, agrégation (donc compensations implicites) de ces risques en tenant compte des corrélations. Cependant, même si les deux méthodologies sont indubitablement différentes, la marche à suivre revient souvent à la même succession d’étapes fondamentales, celles-ci étant : • le choix des facteurs de risque, • le choix des scénarios utilisés lors de la modélisation, • l’impact de ces scénarios et de leur manière d’utilisation sur les résultats obtenus, • l’agrégation de ces résultats. Il va donc être intéressant de confronter les deux points de vue, quant à la manière dont sont abordées et traitées chacune de ces étapes essentielles du calcul. C’est ce que nous allons développer dans cette partie.
I.
Le choix des facteurs de risque
1. Problématique Les facteurs de risque sont communément définis comme étant l’ensemble des facteurs susceptibles d’influer sur le cours ou la valeur d’un actif donné. Or, la théorie de l’efficience des marchés5 (hypothèse nécessaire à la modélisation) suppose que le prix d’un instrument synthétise toute l’information disponible. On comprend donc aisément que la mesure précise du risque suppose à la fois la connaissance exhaustive de cette information pour l’avenir et la maîtrise de la manière dont elle va se répercuter sur la valeur des positions. Il est donc primordial de connaître les constituants élémentaires de l’information à laquelle est sensible le portefeuille, c’est à dire les facteurs de risques. 5
Théorie selon laquelle toute information pouvant influer sur le prix d’un actif est disponible à tout moment et pour l’ensemble des opérateurs des marchés. En d’autres termes, les prix reflètent l’intégralité des informations disponibles.
Mémoire de fin d’études - EURIA
- 34 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Cependant, on se rend rapidement compte que le recensement complet de ces déterminants est une tâche insurmontable. Il va donc falloir, dans chaque tentative de mesure du risque, trouver un compromis entre les deux impératifs que sont la connaissance exhaustive des facteurs de risque et la restriction du nombre de ceux-ci permettant un calcul complet, c’est à dire entre la multiplication des facteurs et l’imprécision dans l’évaluation du risque. Ainsi, le problème va être de ramener les facteurs de risque à un nombre fini, puis de créer une relation déterministe entre les facteurs retenus et l’évolution de la valeur du portefeuille dans le futur. Cette étape du calcul va donc s’effectuer sous une triple contrainte : les facteurs de risque doivent être en nombre suffisant pour expliquer le plus intégralement possible les différentes variations du portefeuille, ils ne doivent cependant pas être trop nombreux, afin d’éviter des charges de calcul trop lourdes, ils doivent être modélisables. Notons que cette dernière restriction amène immédiatement à ne retenir que les facteurs observables et à rejeter ceux dont l’existence est ignorée à l’instant du calcul ou dont l’influence est inconnue (décisions politiques, évolutions réglementaires, OPE, OPA, évènements du 11 septembre 2002...). Cependant, il ne faut pas perdre de vue que le fait d’éliminer un facteur de risque, quel qu’il soit, revient à considérer que celui-ci n’a aucune influence sur la position. Cette seule remarque suffit à exprimer l’importance du choix des facteurs utilisés et ignorés lors des calculs.
2. Les choix respectifs de la méthode standard et des modèles internes Les catégories de risque communément prises en compte par la méthode standard sont au nombre de quatre ; il s’agit : du risque de taux d’intérêt, du risque de change, du risque sur actions, et du risque sur produits de base. Cependant, ainsi que nous l’avons déjà annoncé, nous écarterons volontairement cette catégorie de risque de notre étude, entre autres en raison du faible nombre d’établissements financiers intervenant sur ce marché. Jusqu’à présent, force est de constater que les modèles internes les plus utilisés par les établissements n’apportent aucune innovation à ce niveau et retiennent donc les mêmes catégories de risques. Ce phénomène est d’ailleurs évident, sachant que ces catégories sont imposées, également pour les modèles internes, par le règlement CRBF 95-02 modifié par le règlement 99-01 (annexe 7 de celui-ci). Le découpage de base étant le même dans les deux cas, nous pouvons donc nous intéresser plus précisément aux facteurs retenus, par la CAD et par les modèles, pour chacune de ces catégories.
Mémoire de fin d’études - EURIA
- 35 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Le risque de taux d’intérêt La réglementation a divisé cette catégorie en trois types de facteurs de risque, ceux-ci étant : la devise, la structure par termes de la courbe de taux, et les écarts de rendement inter-marchés. Revenons sur la prise en compte de chacun d’entre eux. La devise Dans la méthode réglementaire, la devise d’origine des opérations est considérée comme un facteur de risque à part entière. L’objectif est la prise en compte du fait que les taux d’intérêt évoluent de manière différenciée selon la devise dans laquelle ils sont libellés. Pour chacun des taux traités, la devise d’origine va donc devoir être considérée comme un facteur de risque particulier. De la même manière, pour pouvoir être reconnus par la Commission Bancaire, les modèles internes ont l’obligation de décomposer leurs calculs de risque de taux par devises. Ils doivent donc, à ce niveau, adopter les mêmes choix que la méthode CAD. La structure par termes de la courbe des taux Il est bien connu que les taux d’intérêt n’évoluent pas de la même manière selon leur maturité. Ainsi, la volatilité des taux n’est pas uniforme sur la totalité de la courbe. En effet, les taux à long terme peuvent varier différemment des taux à court terme. L’histoire a par exemple montré que les taux courts connaissent généralement des variations plus fortes que les taux longs. Il est donc important de pouvoir déformer la courbe de taux de manière différenciée selon les maturités. De ce fait, le règlement CRBF 95-02 décompose la courbe de taux en sept segments pour la méthode de l’échéancier et en trois pour celle de la duration. On peut d’ailleurs noter que, pour cette dernière méthode, la Commission Européenne n’a pas suivi les recommandations du Comité de Bâle qui préconise également sept segments. Parmi les modèles internes, le modèle RiskMetrics de JP Morgan est encore plus précis que ne l’exige la réglementation, puisqu’il retient quatorze bandes de maturité pour les principaux marchés de la zone Euro : -taux courts monétaires : quatre maturités de 1 à 12 mois, -taux des emprunts d’Etat : dix maturités de 2 à 30 ans, -taux de swaps : six maturités de 2 à 10 ans, qui se confondent avec celles du taux sans risque. Cette décomposition satisfait le découpage minimal imposé par le régulateur aux modèles internes, qui est de six zones pour les grandes devises.
Mémoire de fin d’études - EURIA
- 36 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Les écarts de rendement inter-marchés En dehors de la devise et de la maturité, d’autres différences existent entre les différents marchés, en ce qui concerne les rendements, en fonction notamment des catégories d’émetteurs et d’instruments. Ainsi, une courbe de taux ne peut être significative qu’en étant construite à partir d’observations réalisées sur des instruments de signature comparable. L’existence de spreads 6 de signature par rapport au taux sans risque se justifie pour rémunérer le risque de contrepartie et le risque de liquidité. D’autre part, l’observation du marché révèle que deux instruments de même signature et de même maturité peuvent offrir des rendements différents, ce pour diverses raisons. Ainsi, par exemple, les bons du Trésor et les Emprunts d’Etat révèlent un tel écart, bien qu’issus du même émetteur ; l’écart dans ce cas tient essentiellement à une différence de nature juridique7. La modification dans le temps de l’amplitude de ces spreads peut générer un risque non négligeable. La CAD standard ne prévoit pas de manière explicite ces facteurs de risque, ne fournissant aucune indication sur les courbes de taux à associer aux différents marchés. Cette simplification n’est pas sans conséquence : elle pourrait amener à considérer soit que les taux sont les mêmes sur tous ces marchés (ce qui est manifestement inexact), soit que le spread existant est constant (ce qui ne se vérifie pas non plus). En pratique, la plupart des établissements utilise des courbes différenciées pour valoriser leurs positions. En revanche, ce même règlement impose de manière explicite la prise en compte des catégories d’émetteurs et des types d’instruments dans les modèles éligibles à la CAD. Cette manière d’intégrer les spreads de signature dans le calcul du risque général de marché n’est pas sans entraîner certaines interrogations. En effet, il n’est pas illégitime de considérer que ces spreads relèvent davantage du risque de crédit. De plus, on peut constater que la couverture par future (contrat à terme) n’élimine pas ce risque.
Le risque de change Le facteur de risque associé par la réglementation à cette catégorie est le cours de chaque devise contre celui de la devise nationale. Le volume des opérations à terme sur ce marché peut amener à se demander s’il est préférable de retenir comme facteur de risque le prix au comptant, ou les différents prix à terme. Etant donné qu’en matière de change le cours à terme s’obtient par construction à partir du prix spot et des taux d’intérêt respectifs des deux devises considérées, le cours comptant semble pouvoir être considéré comme un facteur de risque suffisant, sous réserve toutefois de traiter par ailleurs le risque de taux afférent à l’opération à terme. 6
Le terme de spread est communément utilisé sur les marchés pour définir un écart. Dans la plupart des cas, cette notion sert à qualifier, sur un marché obligataire, l’écart entre le taux de référence (généralement taux des Emprunts d’Etat) et le taux d’un instrument donné, tenant compte de la nature de l’émetteur. 7 Les bons du trésor sont des titres du marché monétaire et ne font pas l’objet d’une cotation officielle, alors que les Emprunts d’Etat sont des valeurs mobilières cotées. Par ailleurs, certains investisseurs sont soumis à des contraintes de gestion réglementaires qui limitent leurs achats de titres non cotés. Ces différences justifient donc ces comportements distincts pour les taux des deux familles de titres.
Mémoire de fin d’études - EURIA
- 37 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Le risque sur actions Dans le cas des actions, le nombre important de paramètres susceptibles de faire varier le cours rend difficile leur recensement exhaustif. Il est donc convenu, de manière générale, de considérer que le facteur de risque se confond avec le titre lui-même. L’approche la plus rigoureuse consiste donc à recenser autant de facteurs de risque qu’il existe de titres en portefeuille. La CAD se contente de décomposer le calcul marché par marché. Elle est donc très peu précise sur ce point, cette manière de procéder revenant à considérer implicitement toute la cote d’un pays comme un seul et même facteur de risque. Pour des raisons évidentes de masse de calcul (taille de la matrice des corrélations), il est quasi-impossible, dans la méthode de variance/covariance, de considérer chaque prix d’action comme un facteur de risque à part entière. C’est pourquoi RiskMetrics procède d’une autre manière, considérant les principaux indices mondiaux comme des facteurs de risque distincts. A ce stade, l’approche est donc similaire à celle de la méthode standard, mais nous pourrons voir par la suite que l’utilisation du coefficient ß permet alors d’affiner le calcul. La Banque des Règlements Internationaux (BRI) se satisfait de cette approche. Cependant, elle propose une méthode plus précise qui consiste à décomposer le portefeuille global en sous-portefeuilles et à associer chacun d’entre eux à un indice sectoriel.
En fin de compte, le choix des facteurs de risque par les différentes méthodes, tant standard que de type Value at Risk, est une étape relativement normalisée par la réglementation, et qui de plus ne peut réellement apporter de véritable surprise, ce choix demeurant soumis aux impératifs (exhaustivité maximale et nombre raisonnable de facteurs à retenir) définis en début de paragraphe. Cependant, il est évident que la mise en évidence des facteurs de risque est rendue plus délicate par la complexité croissante des produits financiers.
II.
Le choix des scénarios
Une fois les facteurs de risque choisis et définis en fonction des contraintes énoncées ci-avant, l’étape suivante, dans chacune des deux méthodologies étudiées, va consister à déterminer un scénario d’évolution défavorable de ces paramètres dans le futur. Cependant ce choix va se trouver conditionné par l’objectif poursuivi. En effet, il convient de s’interroger préalablement sur la nature du résultat souhaité : s’agit-il de mesurer une perte courante dont la probabilité d’occurrence est relativement élevée et que l’établissement doit être en mesure d’absorber sans trop de dommages, ou alors une perte extrême susceptible de mettre sa survie en péril ? Afin de déterminer l’objectif visé dans les deux cas et la manière dont il peut être atteint, étudions séparément les choix de la méthode standard et des modèles internes.
Mémoire de fin d’études - EURIA
- 38 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
1. La méthode standard Un reproche souvent fait à l’encontre de la méthode standard est qu’elle conduit à des montants de pertes potentielles très supérieurs à ceux obtenus par les modèles internes communément mis en pratique par les établissements. Cependant, il faut tenir compte de l’objectif visé par la mise en place de cette méthode. Celle-ci, en effet, a été conçue par les autorités de tutelle dans un souci de maintien de la pérennité du système bancaire et de ses acteurs. La méthodologie CAD s’inscrit d’ailleurs dans la batterie des ratios « prudentiels » auxquels sont soumis les établissements de crédit. De ce fait, il n’est pas étonnant que les hypothèses sur lesquelles elle s’appuie se trouvent quelque part entre celles de la VaR classique et celles des scénarios catastrophes. Néanmoins, il est vrai que les hypothèses en question n’ont jusque là jamais fait l’objet d’une argumentation précise permettant de vérifier tant la justesse des hypothèses elles-même que le bien-fondé des résultats obtenus et la manière de les prendre en compte. D’autre part, il n’est pas absurde de penser que le principal objectif visé par l’introduction de cette méthode ait été la normalisation de la réglementation dans le domaine des risques de marché. De ce point de vue, nous pourrons constater que la méthode standard atteint forcément mieux cet objectif que ne le font des modèles internes différents suivant les établissements. Les variations des paramètres de marché retenus par la méthode standard présentent deux caractéristiques majeures : elles sont constantes dans l’espace et dans le temps. Concernant la constance dans l’espace, un scénario uniforme d’un pays à un autre présente l’avantage de maintenir une situation d’égalité concurrentielle. Certains pays pourraient être en effet tentés de favoriser leurs propres établissements en relâchant leurs exigences réglementaires. En revanche, cette pratique a l’inconvénient de ne pas prendre en compte le niveau de risque réel de chaque marché national puisqu’il considère implicitement que la volatilité des facteurs de risque est la même dans tous les pays, ce qui est manifestement faux. Pour ce qui est de la constance dans le temps, il faut noter que les variations imposées par Bâle ou Bruxelles n’ont pas évolué depuis 1995. Or la volatilité des paramètres de marché et leurs corrélations ne sont pas stables au fil des années. Il y a donc un risque non négligeable que les exigences de fonds propres soient trop élevées en période calme et trop faibles en période de fortes turbulences. En matière de risque de taux, le CRBF 95-02 impose son propre scénario de déformation des courbes. Il s’agit d’une translation. Dans la méthode de la duration, elle prend la forme suivante : -taux courts (jusqu’à 1 an) : 100 bp 8 -taux intermédiaires (de 1 à 4 ans) : 85 bp -taux longs (au-delà de 4 ans) : 70 bp
8
« bp » : basis point ou point de base. Unité traditionnellement utilisée au niveau de la variation des taux d’intérêt. Un point de base correspond à un « pourcent de pourcent ». Un taux de 3% augmenté d’un point de base correspondra donc à un taux de 3.01%.
Mémoire de fin d’études - EURIA
- 39 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché On notera que Bruxelles a simplifié la recommandation de Bâle qui prévoit une déformation moins heurtée (sept variations de taux allant de 60 à 100 bp). Cette recommandation n’a été suivie que dans l’une des méthodes de calcul du risque de taux proposées par la méthode standard, en l’occurrence celle de l’échéancier. Les autres déformations possibles de la courbe ne sont pas envisagées (torsion, pivotement,...). Or les résultats sont très dépendants du scénario pris en compte. Selon la structure de ses positions de taux, un établissement peut être plus ou moins affecté par tel ou tel scénario.
Exemple : Soit un portefeuille constitué de titres longs à taux fixe et refinancé à court terme et à taux variable (Euribor 3 mois). Dans le cas d’une baisse parallèle de la courbe de taux, l’investisseur est gagnant sur l’emploi et sur la ressource. Dans l’hypothèse d’un mouvement de pivot de la courbe (baisse des taux courts et hausse des taux longs par exemple), le gain sur le refinancement risque d’être neutralisé par la perte en capital sur l’actif.
En ce qui concerne le risque général de marché sur actions et le risque de change, la Commission Européenne demande implicitement aux établissements de s’assurer contre une évolution défavorable de leurs positions à hauteur de 8%. De la même manière que précédemment, il est nécessaire de s’interroger sur l’origine de ce chiffre forfaitaire de 8%, mais surtout sur le caractère constant de cette donnée depuis 1995. En fixant ces différentes hypothèses le régulateur ne donne aucune information sur leur probabilité d’occurrence. Ces scénarios perdent ainsi de leur pertinence en raison également de leur déconnexion de la réalité du moment.
2. Les modèles internes L’approche par les modèles internes est, bien évidemment, différente de celle de la méthode standard. La différence la plus notable est que ceux-ci ne fixent pas de scénarios a priori. Deux types d’approches cohabitent en fait dans les modèles. Le premier consiste à spécifier que la variation des paramètres de marché suit une loi de probabilité spécifique, tout le problème étant ensuite de déterminer laquelle (méthode de variance/covariance et méthode de Monte-Carlo). Le second est plus empirique puisqu’il ne fait aucune hypothèse sur la distribution théorique des rendements (méthode historique). Les critiques relatives aux modèles reposent généralement sur deux questions : le choix de la loi normale et les conséquences de ce choix, la problématique de l’historique.
Le choix de la loi normale Pour expliquer l’évolution de la valeur des positions dans l’avenir, la méthode de variance/covariance retient communément comme hypothèse la loi normale (ou loi de Laplace-Gauss). Cette dernière a l’avantage de présenter un certain nombre de propriétés mathématiques intéressantes, fondées sur l’espérance et la variance des rendements.
Mémoire de fin d’études - EURIA
- 40 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Loi normale (Loi de Laplace-Gauss) : Cette loi joue un rôle fondamental en probabilité et statistique mathématique ; elle constitue un modèle fréquemment utilisé dans divers domaines : répartition des erreurs de mesure autour de la vraie valeur,... Malgré son appellation, elle est cependant loin de décrire tous les phénomènes physiques et il faut se garder de considérer comme anormale une variable ne suivant pas la loi « normale ». Son rôle principal en statistique provient en réalité de ce qu'elle apparaît comme loi limite de caractéristiques liées à un échantillon de grande taille. Le Théorème Central Limite montre que dans certaines conditions la somme, et donc la moyenne, de variables indépendantes et de même loi, suit asymptotiquement une loi normale. X suit une loi normale de moyenne m et de variance σ², si sa densité est:
f ( x ) =
1 2πσ²
exp −
( x − m)² 2σ²
.
Par suite de la symétrie de f et comme l'intégrale de X converge, l’espérance de X est : E[X] = m. Avec le changement de variable aléatoire:
U=
X−m
σ
,
on trouve que la densité de U est:
f (U )= 1 exp −U ² . 2 2π U suit une loi normale centrée réduite, donc toute variable X de loi normale de moyenne m et de variance σ² se ramène simplement à la variable U par X = m + σU. Valeurs remarquables : -P[m-1,64σ < X < m+1,64σ] = 0,90. -P[m-1,96σ < X < m+1,96σ] = 0,95. -P[m-2,33σ < X < m+2,33σ] = 0,98 (ce qui correspond donc à un quantile de pertes de 99%). -P[m-3,09σ < X < m+3,09σ] = 0,998. Moments : Les moments existent pour tout ordre. Par suite de la symétrie, tous les moments d'ordre impair sont nuls. Les moments d'ordre pair sont de la forme:
(2k )! . µ = 2 k
k 2 k !
Additivité : Si X 1 et X2 sont des variables indépendantes suivant respectivement des lois N(m1,σ1) et N(m2,σ2), alors X1+X2 suit une loi N(m1+m2, ,σ1²+,σ2²).
Il s’agit visiblement d’une hypothèse forte. Cependant, les variations des facteurs de risque prévues par la loi normale sont contredites par la réalité des marchés. En effet, de nombreuses études ont été menées depuis le milieu des années 1960 9, visant à remettre en cause l’application de l’hypothèse de normalité aux instruments financiers. Ces études, menées tant sur les actions que sur les obligations, tirent des conclusions que l’on peut résumer aux observations suivantes :
•
9
La distribution des rendements des instruments financiers fait apparaître des queues épaisses (« fat tails »). Cette constatation revient à dire que les évènements les plus éloignés de la moyenne se produisent de manière plus fréquente que dans une distribution gaussienne. Cette indication est obtenue par le moment d’ordre 4 de la
En particulier par Mandelbrot et Fama.
Mémoire de fin d’études - EURIA
- 41 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché distribution étudiée, dénommé « kurtosis » ou coefficient d’aplatissement, et dont la position par rapport à celui d’une variable suivant une loi normale nous renseigne sur l’épaisseur des queues : 4 ( ( ) ) [ ] / σ > 3 ⇒ = − E X E X Distr . 4
Kurtosis
Présence de queues épaisses.
•
La distribution des rendements des instruments financiers met également en relief la présence d’un pic plus important autour de la moyenne. Joint au phénomène précédemment énoncé des queues épaisses, la présence de ce pic va permettre de mettre en évidence des distributions dites « leptokurtiques », fréquentes en finance.
•
La distribution des rendements fait en outre apparaître une asymétrie à gauche. Cette asymétrie sera décelée par le moment d’ordre 3 de la distribution, appelé « skewness » ou coefficient d’asymétrie, et dont le signe nous renseigne sur le sens de cette asymétrie. 3 ( ( ) ) [ ] / σ < 0 ⇒ = − E X E X Distr .
Skewness
3
Asymétrie à gauche..
Le tableau suivant (Feghali et Walter, mai 2000) retrace le cours de change USD/FRF de 1988 à 1998 et met en évidence ce phénomène de leptokurtisme.
Défaillance de la VaR gaussienne pour les grandes variations (USD/FRF)
Niveau de baisse (quantile Gauss) Nombre théorique de baisses Nombre de baisses observées Dépassement Taux de dépassement
99% -1,66% 25 40 15 60%
98,50% -1,55% 38 51 13 34%
98% -1,47% 50 59 9 18%
95% -1,18% 126 127 1 1%
Sur 2.522 jours de cotation, on s’attend, selon la loi normale, à trouver moins de 1% des données (soit moins de 25 baisses) inférieures à 1,66%. Or on observe 40 baisses de cette amplitude, soit un dépassement de 60%. Dans cet exemple, la loi normale est d’autant plus prise en défaut qu’on s’intéresse aux variations fortes. En effet, pour les baisses inférieures à 1,18%, le nombre observé est conforme à celui attendu : 127 contre 126. Cet exemple confirme bien l’existence de queues de distribution épaisses. Plusieurs évènements qui n’ont qu’une chance normale ont déjà pu être observés au cours de actions américaines en octobre 1987, la rupture l’effondrement des cours du cuivre en 1996, la plusieurs monnaies asiatiques en 1997.
sur un million de se produire selon la loi ces quinze dernières années : le krach des du mécanisme de taux de change en 1992, dévaluation du peso en 1994 puis celle de
Duffie et Pan (1997) ont étudié, de 1986 à 1996, la distribution des rendements journaliers de 17 indices boursiers, de 12 devises contre le dollar et de 3 produits de base. Pour chacune des séries, ils ont constaté l’existence de queues plus épaisses que celles de la loi normale.
Mémoire de fin d’études - EURIA
- 42 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché En pratique, les établissements qui calculent une limite ou une consommation de fonds propres basée sur un modèle gaussien sont certains de surestimer le risque en période normale et de le sous-estimer pendant les périodes exceptionnelles. Ils perdront donc, dans plus de cas que prévu, des sommes par définition inconnues, dans le trou noir des « fat tails ». Bien entendu, d’autres lois et modèles ont été proposés pour se substituer à la loi normale, visiblement peu adaptée dans un cadre de marchés financiers (distributions de Lévy, modèles de type GARCH10,...). Cependant, en pratique, la loi de Laplace-Gauss reste la plus fréquemment prise en compte. L’utilisation de cette hypothèse de normalité, malgré les critiques dont elle fait l’objet, repose en fait sur des arguments de facilité d’utilisation. En effet, il est par exemple facile de calculer la variance d’une combinaison des composantes d’un vecteur gaussien. Mais la principale raison pour laquelle d’autres lois ne sont pas substituées à la loi normale est que la résolution mathématique des co-variations des facteurs de risque est nettement plus complexe que dans le processus gaussien. La méthode de Monte-Carlo, quant à elle, ne suppose pas la connaissance des propriétés mathématiques de la loi de distribution des paramètres de marché. Elle peut donc s’appuyer a priori sur n’importe quelle loi. La technique utilisée consiste à reproduire, par un grand nombre de tirages aléatoires, la loi observée de manière empirique. La qualité des résultats dépendra donc naturellement de l’adéquation du scénario retenu avec la réalité. Cependant, cette méthode se caractérise par la nécessité de moyens de calcul énormes, nonseulement au niveau de la recherche de la loi sur laquelle appuyer la distribution, mais également par la suite lors des très nombreuses simulations effectuées. Ce problème de taille suffit, seul, à expliquer que son développement en pratique reste rare, mais pourrait connaître un regain d’intérêt dans l’avenir si les progrès de l’informatique le permettent. La troisième technique est plus empirique puisqu’elle ne fait aucune hypothèse sur la distribution théorique des facteurs de risque. La simulation historique mesure les variations relatives des facteurs observés sur la période historique choisie et les applique aux conditions de marché en vigueur pour obtenir la distribution de la valeur du portefeuille, puis le dernier quantile de cette distribution. Cette approche, comme celle de Monte-Carlo, peut capturer le caractère non-gaussien de la distribution. Cependant, cette méthode va être soumise à un autre type de problème, en l’occurence dans l’approche de l’historique utilisé comme source des données. Si les deux autres méthodologies dépendent également de l’historique de départ, son importance est encore plus grande dans le cadre de cette troisième méthode.
10
Une alternative à cette l’hypothèse de normalité des distributions consiste à modéliser l’évolution des cours par des processus stochastiques autorégressifs à variance conditionnelle de type ARCH, GARCH, EGARCH ou autres. Le principe de ces processus n’est pas d’étudier la distribution « standard » du processus, mais d’étudier sa variance conditionnellement à l’information disponible. L’idée consiste à dire que la volatilité à chaque instant dépend de la volatilité à différents instants du passé et des chocs également passés sur la rentabilité. Ce principe conduit à une réactivité de la volatilité aux chocs : elle croît lorsqu’un décalage vient d’avoir lieu mais cette modélisation implique également à travers les termes d’autorégressivité une certaine persistance de la volatilité, c’est-à-dire que les périodes de calme sur le marché tendent à suivre les périodes de calme alors que les lendemains de jours agités le sont aussi.
Mémoire de fin d’études - EURIA
- 43 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Penchons nous donc à présent sur les différentes questions qui se posent lors du choix et du traitement de l’historique.
La problématique de l’historique Nous venons de le dire, la plupart des méthodes de type Value at Risk s’appuient sur un historique de variation des facteurs de risque. Celui-ci n’est donc pas l’apanage de la seule méthode historique, même s’il y prend une importance encore plus grande. Toutes ces approches sont donc conditionnées par la période d’observation retenue. Pour éviter un problème d’autocorrélation des volatilités, il est essentiel que les périodes de l’historique soient disjointes. Cette contrainte rend la méthode historique difficilement applicable sur des horizons longs puisqu’elle conduit à remonter très loin dans le temps, à une époque difficilement comparable avec la période contemporaine. Par ailleurs, les modèles font implicitement l’hypothèse que toute l’information relative au risque figure dans les prix observés dans le passé. Si cette assertion a un sens pour les marchés liquides, elle est discutable pour les marchés incomplets. En effet, l’absence de prix pendant certaines périodes, ou le caractère non-significatif de ces prix, peut introduire un biais dans les méthodes basées sur un historique de cours. Pour être accepté par les autorités de tutelle, un modèle qui exploite un historique doit s’appuyer sur une période minimale de 12 mois. Ce minimum d’un an peut paraître insuffisant dans la mesure ou il n’inclut pas une gamme complète d’évènements sur les marchés. L’année retenue peut être relativement calme et ne comporter aucun élément exceptionnel ou au contraire être très agitée. Nous reviendrons sur le choix de ce paramètre dans la troisième partie de ce document. D’autre part, la volatilité est elle-même volatile. Ignorer ce constat revient à faire l’hypothèse de la stationnarité de la volatilité qui postule que le passé permet de prévoir l’avenir avec une faible marge d’erreur ou, en d’autres termes, que la volatilité historique est un bon estimateur de la volatilité future. Or on constate que tous les opérateurs sur options font la distinction entre les volatilités historique et implicite et utilisent précisément cette dernière pour évaluer leurs positions. Cette manière de faire traduit la confiance toute relative que le marché accorde à la volatilité historique quand il s’agit d’anticiper l’avenir. Nombreuses sont les situations où les volatilités réelle et implicite11 sont déconnectées : l’attente d’une nouvelle importante par exemple peut accroître fortement l’incertitude sur un prix ; à l’inverse la publication de cette information peut réduire significativement l’aléa et partant la volatilité future. Il va de soi que ce raisonnement trouve à s’appliquer à des produits autres que les options. Néanmoins, il faut savoir que la BRI interdit l’utilisation des volatilités implicites dans les modèles éligibles à la CAD. La raison invoquée par le régulateur est que ces volatilités ne sont pas pures. En effet elles sont utilisées comme variables d’ajustement par les opérateurs pour corriger les hypothèses simplificatrices des modèles.
11
Volatilité implicite : volatilité implicitement comprise dans l’évaluation du prix des options.
Mémoire de fin d’études - EURIA
- 44 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Exemple : 12 Dans le modèle de Black-Scholes , la première correction apportée vise à prendre en compte le caractère leptokurtique de la distribution des rendements qui est supposée lognormale par le modèle. Pour coter les option s fortement sous-évaluées par le modèle, les opérateurs introduisent donc une volatilité supérieure à celle des options à la monnaie (c’est-à-dire dont le prix d’exercice correspond à la valeur au comptant du sous-jacent) . Le second ajustement a pour but de corriger l’hypothèse de stationnarité de la volatilité dans le temps. La technique consiste à retenir des volatilités différentes selon les maturités, par analogie avec la structure par terme des taux d’intérêt.
Deux types de solutions ont été apportés pour tenter de résoudre les problèmes posés par les volatilités historiques. La première idée consiste à adapter la durée de la période d’observation à l’horizon de la volatilité. Certains auteurs estiment par exemple qu’une volatilité journalière doit être estimée à partir d’un historique d’un mois et en aucun cas sur une longue période. Une deuxième école propose, non plus d’intervenir sur la durée de la période d’observation, mais sur le poids de chacune des données. Le principe est d’accorder un poids plus important aux observations récentes qu’aux observations anciennes, l’hypothèse sous-jacente étant que les scénarios récents ont une probabilité d’occurence plus élevée. Ces solutions résolvent un problème « mécanique » de l’estimation des volatilités. En effet, la prise en compte d’une période d’observation constante (1 an par exemple) conduit à retirer chaque jour de la pile la donnée la plus ancienne pour la remplacer par la plus récente. Il en résulte que la modification de la volatilité de la période s’explique pour partie par une variation des conditions de marché et pour partie par un effet mécanique. La technique des pondérations dégressives permet une « sortie en douceur » des données les plus anciennes. Néanmoins, la BRI a émis des réserves sur cette façon de faire puisque la disparition progressive des données les plus anciennes peut s’analyser comme un raccourcissement de la période d’observation. Nous verrons dans la troisième partie de cette étude que le choix des périodes d’observation et des pondérations constitue un réglage relativement arbitraire qui peut conduire à des scénarios très différents.
3. Bilan Au bout du compte, qu’ils soient imposés de manière discrétionnaire, basés sur des lois de probabilité ou sur la reproduction du passé, les scénarios envisagés ne sont pas exempts de critiques. La vraie question est de savoir lequel est le plus pertinent à un moment donné. La méthode standard est muette sur le niveau de perte qu’elle se propose de couvrir. Correspond-il à un scénario courant, intermédiaire ou exceptionnel ? Les modèles ont l’avantage d’apporter deux précisions sur ce point. En effet, les scénarios sous-jacents sont assortis de deux indications relatives à la perte potentielle qui fait l’objet de la mesure :
12
Black & Scholes (modèle de -) : en 1973, F. Black et M. Scholes ont proposé un modèle d’évaluation des options. Ce modèle reprend les éléments constitutifs de la valeur d’une option : cours de l’actif sous-jacent, prix d’exercice, volatilité de l’actif, date d’exercice et taux d’actualisation. A ce jour, ce modèle est le plus utilisé dans les évaluations de prix des options.
Mémoire de fin d’études - EURIA
- 45 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
D’une part, un niveau de confiance donné quand au résultat (99% pour les modèles éligibles à la CAD, éventuellement moins dans le cadre de l’information financière). Pour mémoire, le seuil de 99% du régulateur, qui ne s’intéresse qu’aux pertes, correspond à un seuil de 98% pour le statisticien. D’autre part, un horizon du risque. Cette information est essentielle puisqu’elle précise la durée de détention des positions et donc d’exposition au risque. Par hypothèse, les positions ne peuvent être soldées dans le marché avant l’expiration de ce délai pour cause d’illiquidité. Le portefeuille est donc susceptible de subir une perte à hauteur des variations des facteurs de risque pendant cette période. Dans le cadre de la CAD, Bâle et Bruxelles imposent un horizon uniforme de 10 jours ouvrés, soit deux semaines.
Malgré une plus grande transparence et une plus grande rigueur apparente, cette approche n’est cependant pas exempte de critiques, comme nous pourrons le montrer par la suite.
Finalement, si les modèles internes sont bien plus explicites que la méthode réglementaire sur les scénarios utilisés et les hypothèses prises, cet avantage peut également se retourner contre eux. En effet, connaissant le contenu exact de la méthodologie de ces modèles, il est évidemment plus aisé d’en évaluer le bien-fondé, et donc d’émettre des critiques à leur encontre. Cependant, s’il est vrai que le recours à la loi normale peut sembler mal adapté, ou si les manières d’aborder un historique sont innombrables et peuvent donc amener à autant de résultats différents pour un même calcul, il n’en reste pas moins que de tels outils semblent plus adaptés aux changements constatés sur les marchés et qu’il est bien évidemment plus facile et logique de s’y fier plutôt qu’à une méthode forfaitaire dont la majeure partie des implications sont floues ou inconnues.
III.
La mesure de l’impact des scénarios sur la position
Une fois les facteurs de risque choisis et leurs scénarios de variation identifiés, reste à en définir l’incidence sur les positions de l’établissement. La question revient donc à établir une relation déterministe entre ces variations et la valeur du portefeuille. En d’autres termes, quelle est la « sensibilité » du portefeuille à ces variations ? Pour répondre à cette interrogation, il est nécessaire d’établir une distinction selon le degré de « linéarité » des positions relativement aux facteurs de risque. Ainsi, nous nous pencherons tour à tour sur le cas des positions linéaires, ou pouvant être considérées comme telles, puis sur les positions qualifiées de « pseudo-linéaires », et enfin sur les positions incontestablement non-linéaires.
1. Les positions linéaires Pour certains produits, il existe une relation linéaire entre la valeur valeur du facteur de risque et celle du portefeuille. Dans ces conditions, la variation de la valeur de la position est directement proportionnelle à celle du facteur de risque. L’exemple le plus explicite est celui du change. Si le dollar s’apprécie de +1% par rapport à l’Euro, la position globale USD contrevalorisée en euros variera très précisément de +1%.
Mémoire de fin d’études - EURIA
- 46 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Dans le cas du change, donc, aucun problème de modélisation n’apparaît et il est très aisé d’établir le lien entre la position et le facteur de risque retenu. Le raisonnement vaut également pour les actions sous réserve que chaque titre ait été considéré comme un facteur de risque à part entière. Dans le cas où le facteur de risque est un indice (le cas de figure le plus fréquemment retenu), l’égalité n’est plus respectée sauf si le portefeuille est une réplication parfaite de l’indice. Pour éviter d’avoir à gérer une matrice de corrélations trop importante, RiskMetrics a adopté un compromis. Le facteur de risque est un indice, mais le comportement de chaque valeur par rapport à cet indice est pris en compte via le coefficient bêta13. La méthode consiste à convertir chaque position élémentaire en équivalent bêta sur l’indice. Ces montants convertis peuvent ensuite être aditionnés pour donner des positions globales sur les différents indices14. Dans la méthode analytique, cette relation, directement inspirée du modèle de Sharpe, s’écrit : ∆r = β .∆ I +α + ∆ε avec :
∆r
: variation du cours de l’action,
β : sensibilité de l’action à l’indice, ∆ I : variation de l’indice, α : composante spécifique de la variation du cours de l’action, ε : bruit (distribué normalement par hypothèse). Il est connu qu’une diversification du portefeuille a pour effet de réduire la contribution de la composante spécifique α au risque global. Sous cette condition, le risque d’un portefeuille peut se ramener au risque de marché des titres qui le composent. Il n’en reste pas moins que l’estimation du risque par l’intermédiaire du β reste approximative puisque le calcul de ce coefficient est basé sur un historique.
2. Les positions pseudo-linéaires Nous avons énoncé précédemment que le CRBF 95-02, dans la méthode de la duration, décompose la courbe de taux en trois bandes de maturité (courte, moyenne et longue) auxquelles il fait subir trois déformations indépendantes (respectivement 100, 85 et 70 bp). Pour calculer l’impact de cette déformation sur le portefeuille, la méthode de la duration s’appuie sur l’indicateur de sensibilité. La méthode de l’échéancier fait de même, à la différence près qu’au lieu de calculer la sensibilité de chaque instrument, elle la déduit du niveau de coupon et de la maturité du titre. Les instruments à taux variable font l’objet d’un traitement particulier. Le règlement CRBF 95-02 prévoit que la sensibilité doit être calculée de la même manière que pour les titres à taux fixe en considérant que l’échéance de l’instrument est la date de la prochaine refixation du taux.
13
Indicateur obtenu par le rapport entre la covariance des rendements de l’actif considéré par rapport à celui du marché et la variance des rendements du marché. Le beta mesure la volatilité de l’actif comparativement à celle du marché et donc de l’indice national. 14 Cette méthode est équivalente à la conversion des options en « équivalent delta » sur le sous-jacent. Se reporter au traitement des positions non-linéaires.
Mémoire de fin d’études - EURIA
- 47 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché La méthode de calcul de l’exigence de fonds propres est la suivante : Perte potentielle = valeur de marché x sensibilité x variation de taux Cette méthode n’est pas parfaitement rigoureuse : dans un premier temps, l’utilisation de la sensibilité entraîne une approximation. La sensibilité est en effet un calcul de dérivée de premier ordre qui ne rend pas compte de l’accélération de la hausse du prix lorsque le taux baisse. Le delta 15 n’étant pas constant, le gamma n’est pas nul. L’erreur commise dans une approximation linéaire est d’autant plus forte que la variation de taux s’éloigne de zéro. L’application de l’indicateur de sensibilité à des variations de taux allant de 70 à 100 bp s’accompagne donc d’approximations significatives. En cas de baisse des taux, la hausse du prix sera sous-estimée. A l’inverse, l’impact d’une hausse des taux sur le prix sera surestimé. L’erreur pourrait être atténuée en faisant intervenir la dérivée de second ordre (indicateur gamma16) dans le calcul, mais la méthode standard ne prévoit ce développement que pour les produits optionnels. Par ailleurs, la méthode standard prend en considération les techniques de réduction du risque (swaps notamment) en autorisant la compensation des positions de sensibilité de sens opposé. Le fait de se retrouver en synthétique avec un delta nul ne signifie pourtant pas que le risque de taux a été définitivement neutralisé et qu’il n’y a plus lieu de mobiliser de fonds propres. En effet, la couverture d’une position longue par une position courte de sensibilité identique n’est pas toujours suffisante pour s’immuniser contre les évolutions de taux pour peu que les maturités des deux positions soient différentes.
Exemple : Considérons un portefeuille constitué d’un actif zéro-coupon à deux ans financé partiellement par une ressource à quatre ans, également zéro-coupon, et pour le solde par une ressource au jour le jour.
Taux actuariel = 5% Flux remboursement Maturité Valeur actuelle Sensibilité Sensibilité position Placement ZC 22 050 000,00 2 ans 20 000 000,00 1,9048 -380 952,38 Emprunt ZC -12 155 062,50 4 ans -10 000 000,00 3,8095 380 952,38 Emprunt EONIA -9 894 937,50 JJ -9 894 937,50 0,0000 0,00 TOTAL 0,00 105 062,50 0,00 La sensibilité globale étant nulle, ce montage peut donner à penser qu’il n’est pas exposé au risque de taux et que sa VaR est nulle. Il n’en est rien puisque une hausse de 100 bp du taux actuariel provoque une dégradation de la position longue qui n’est pas intégralement couverte par le gain sur la position courte.
Taux actuariel = 6% Flux remboursement Maturité Valeur actuelle Sensibilité Sensibilité position Placement ZC 22 050 000,00 2 ans 19 624 421,50 1,8868 -370 272,10 Emprunt ZC -12 155 062,50 4 ans -9 627 947,98 3,7736 363 318,79 Emprunt EONIA -9 894 937,50 JJ -9 894 937,50 0,0000 0,00 TOTAL 0,00 105 062,50 -6 953,31
15
Delta : pour une option, le coefficient « delta » mesure la variation de la prime (prix d’achat de l’option) par rapport à la variation du cours comptant de l’actif sous-jacent. 16 Gamma : pour une option, le coefficient gamma est le rapport entre la variation du delta et la variation unitaire de l’actif sous-jacent.
Mémoire de fin d’études - EURIA
- 48 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché On constate dans cet exemple que les positions se modifient de manière différenciée, pour des raisons de convexité. Certains gestionnaires, conscients de ce problème, couvrent leurs positions en duration 1 (sensibilité) et en duration 2 (convexité). On se rend donc compte que la méthode standard s’expose fortement à des critiques relatives à la sensibilté. Il est donc nécessaire de se demander si c’est également le cas des modèles internes. En fait, en ce qui concerne les modèles, la réponse à cette interrogation doit être nuancée en fonction de la technique utilisée. Les modèles peuvent être classés en deux familles : ceux basés sur une approche « sensibilité » qui estiment les variations du portefeuille à partir des variations des facteurs de risque. Cette technique présente l’avantage d’accélérer considérablement les calculs, mais elle s’expose aux mêmes critiques que la méthode standard. ceux qui procèdent à une réévaluation systématique des positions à partir des nouvelles valeurs des facteurs de risque, grâce à l’utilisation d’algorithmes de pricing. Seul ce deuxième groupe évite les problèmes liés à la convexité puisqu’il ne fait pas appel au calcul de dérivées.
Méthode de mesure de l'impact des scénarios selon les modèles Modèle Variance/Covariance Historique Monte Carlo
Méthode Sensibilité Sensibilité/Réévaluation Réévaluation
3. Les positions non-linéaires Cette catégorie regroupe essentiellement les options17 mais aussi tous les produits possédant une composante optionnelle parce que leur séquence de flux n’est pas figée (opérations à préavis, obligations convertibles,...). La non-linéarité signifie qu’une variation du sous-jacent (c’est-à-dire le facteur de risque considéré) ne va pas entraîner systématiquement une variation constante du prix de l’option. Alors que pour les produits linéaires le delta est stable, pour les options en revanche il ne l’est pas. L’impact d’une variation donnée du sous-jacent sur le portefeuille variera donc selon que l’option sera plus ou moins dans la monnaie 18. Le risque avec un gamma non nul est de voir soudainement la valeur de la position changer de manière importante. Pour cette raison, le delta doit être constamment recalculé dans le cadre d’une gestion de portefeuille en delta neutre. 17
Option : acheter une option sur un actif financier revient à détenir le droit, mais non l’obligation, d’acheter (option d’achat ou « call ») ou de vendre (option de vente ou « put ») à un prix d’exercice fixé une quantité standardisée de cet actif. Ce droit d’acheter ou de vendre peut être soit exerçable à tout moment jusqu’à une date d’échéance donnée (option dite à l’américaine), soit uniquement à cette date d’échéance (option dite à l’européenne). 18 « Dans la monnaie » (« in the money ») : sur le marché des options, on désigne ainsi des options dont la valeur intrinsèque est positive car leur prix d’exercice est inférieur au cours actuel du titre support pour une option d’achat et inférieur pour une option de vente. Cette notion s’oppose par définition à celle d’option « en-dehors de la monnaie » ou « out of the money ».
Mémoire de fin d’études - EURIA
- 49 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
La non-linéarité de ces instruments n’est pas sans conséquence. Dans le cas des produits linéaires, une variation gaussienne du facteur de risque entraîne une variation également normale de la valeur du portefeuille. Pour les produits non-linéaires, cette relation n’est plus vérifiée puisque l’impact de la variation n’est plus stable. Il en résulte que les variations de valeur du portefeuille ne peuvent plus être modélisées par les méthodes qui s’appuient exclusivement sur cette loi. La méthode standard étant fondamentalement basée sur la notion de sensibilité, il est impératif de trouver une manière de traiter ce problème. Pour cela, quatre méthodes sont proposées aux établissements. La première consiste à se reposer sur le calcul de risque effectué par la Chambre de Compensation19 dans le cadre de ses appels de couverture. Cette méthode déporte le problème de la mesure du risque chez le Compensateur. Elle présente l’inconvénient de ne pas être applicable aux options de gré à gré, notamment les caps et floors 20. Les deux méthodes les plus sophistiquées proposées par le règlement sont celles du « delta plus » et celle des scénarios. L’approche « delta plus » consiste dans un premier temps à convertir les positions optionnelles en positions équivalentes sur le sous-jacent. Cette technique présente un avantage évident : elle permet d’ajouter ces positions équivalentes aux positions fermes de taux, d’actions ou de change, et de les soumettre aux scénarios de variation habituels (méthode de l’échéancier ou de la duration pour les produits de taux par exemple). Toutefois, cette décomposition est assez délicate. Les options « européennes » sont traitées comme la combinaison d’une position à l’achat et d’une position à la vente selon les règles suivantes :
Décomposition des options européennes en positions "équivalent delta"
Achat de call Vente de call Achat de put Vente de put
Jusqu'à la date d'exercice Position courte Position longue Position longue Position courte
Jusqu'à l'échéance du sous-jacent Position longue Position courte Position courte Position longue
19
Chambre de compensation : Dans le cadre des marchés financiers, ce nom désigne l’entité juridique séparée ou département d’une bourse. Elle a pour fonction de centraliser les ordres, les règlements et d’assurer les fonctions de garantie financière. Son objet est de garantir la bonne fin des transactions, qu’elles soient réalisées en séance ou hors-séance. 20 Cap : contrat de gré à gré sur taux d’intérêt, offrant à son acheteur (contre paiement d’une prime) de se garantir sur une période donnée un taux plafond maximum. L’équivalent en terme de taux plancher minimum existe également et porte le nom de « floor ».
Mémoire de fin d’études - EURIA
- 50 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Exemple : Achat d’un call sur OAT 18685 5,50% 25/04/10 le 20 Avril 2001 Nominal : 10 millions d’euros, Maturité du call : 3 mois, Maturité de l’OAT : 9 ans, Cours OAT : 102,9% (coupon couru = 0), Delta du call : 0,20. La position optionnelle est décomposée de la manière suivante pour être intégrée dans les positions fermes : -un actif (position longue) sous forme d’obligations d’Etat de 2058000 euros (10M x 102,9% x 0,20) d’une maturité de 9 ans, -un emprunt (position courte) de 2058000 euros d’une maturité de 3 mois. Ensuite, les deux branches sont valorisées en utilisant des taux d’actualisation pertinents.
Pour les options « américaines », la jambe dont la maturité correspond à la date d’exercice est réputée avoir une valeur nulle. Tout se passe comme si l’option était exercée immédiatement. Toutefois, le delta étant susceptible de changer considérablement lorsque le sous-jacent varie, le régulateur reconnaît l’insuffisance de cette mesure. Ce calcul, correspondant à la méthode dite du « delta simple », va devoir être affiné. Des exigences de fonds propres supplémentaires sont donc requises pour couvrir les risques résiduels. La méthode fait intervenir un développement de Taylor de second ordre au travers du calcul du gamma de l’option qui mesure la vitesse d’évolution de la dérivée de premier ordre. Le gamma sera en toute logique calculé pour une variation du sous-jacent correspondant au scénario de la méthode standard. Pour une option de taux, la variation retenue sera celle de l’échéance de l’équivalent sous-jacent dans la méthode de l’échéancier ou de la duration. Pour une option sur action ou une option de change la variation sera de 8% (4% pour un couple de devises étroitement corrélées). Le risque gamma est : Risque gamma = 0.50 x gamma x (variation du sous-jacent)² Seuls seront retenus les décalages de valeur qui se révèlent systématiquement perdants pour l’établissement, à savoir les gammas négatifs. Un calcul supplémentaire de fonds propres est également prévu, dans la méthode du « delta plus », au titre du risque véga afin de tenir compte de la volatilité du sous-jacent : Risque véga = 0.25 x véga x volatilité implicite du sous-jacent. Dans le cas d’une variation importante du sous-jacent, ce calcul analytique peut conduire à des erreurs significatives. En effet, le développement de Taylor retenu s’arrête au second ordre (delta + gamma). En outre, le calcul ignore certaines variables susceptibles d’influer sur le prix de l’option, notamment le passage du temps (thêta) et le taux d’intérêt (rho). La deuxième approche proposée par Bruxelles dans la CAD standard évite l’écueil de l’instabilité de la sensibilité des options. Il s’agit de la méthode des scénarios qui est basée sur le principe de la réévaluation intégrale des positions. Les chocs programmés correspondent à nouveau à ceux de la méthode standard. S’agissant d’options, les scénarios doivent intégrer également une volatilité minimale de plus et moins
Mémoire de fin d’études - EURIA
- 51 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché 25%. Pour chacune des hypothèses de la matrice, le portefeuille est réévalué et la perte la plus élevée obtenue détermine la consommation de fonds propres pour le sous-jacent concerné. Cette dernière méthode peut paraître séduisante, mais souffre en pratique de deux inconvénients importants. D’une part, tous les scénarios sont placés sur le même plan et se voient attribuer une probabilité d’occurrence identique, alors que dans la réalité certains sont plus vraisemblables que d’autres. D’autre part, pour être rigoureux, il serait souhaitable que les volatilités implicites prises en compte varient selon le prix d’exercice et la maturité. La BRI ayant rejeté le calcul du risque sur options effectué à partir d’une méthode linéaire, JP Morgan a dû revoir son approche sur ce point. RiskMetrics propose à l’heure actuelle deux méthodes pour traiter les positions optionnelles. La première est basée sur une approximation delta-gamma très proche de la méthode standard de Bâle. Néanmoins, l’introduction du gamma dans le calcul de la variation de la valeur du portefeuille vient perturber le modèle gaussien en faisant apparaître une asymétrie dans la distribution des rendements. Une des propriétés de la loi normale, à savoir la symétrie autour de la moyenne, se trouve violée. Il n’est donc plus possible de calculer la VaR à 10 jours à 99% avec 2,33 écarts-types. La méthode delta-gamma va donc devoir rechercher un nombre d’écarts-types équivalent à 2,33 qui tiendra compte de l’asymétrie de la distribution. La seconde technique proposée par RiskMetrics est un renoncement à l’approche analytique qui caractérise pourtant la méthode. Il s’agit d’utiliser la simulation de MonteCarlo qui procède à une réévaluation systématique des positions sous chacun des scénarios générés.
IV.
L’agrégation des résultats
Nous avons pu percevoir dans l’étape précédente l’incidence de la variation isolée des facteurs de risque sur les positions. L’objectif final de chacune des méthodologies va consister à agréger ces résultats élémentaires en un montant unique.
1.
La prise en compte des corrélations
La théorie du portefeuille21 nous enseigne que la diversification des risques a pour conséquence de réduire le risque global. Or, à ce stade, le comportement conjoint des facteurs de risque a été ignoré. L’agrégation pure et simple des résultats obtenus précédemment est conservatrice et conduit à surestimer la consommation de fonds propres de manière évidente. Tout se passe comme si un choc négatif se produisait simultanément sur chacun des paramètres du marché.
21
Théorie du portefeuille : entre 1952 et 1959, H. Markowitz a construit un apport déterminant de la théorie financière, apport explicatif du comportement des investisseurs face au risque. Le raisonnement se fonde sur un ensemble d’hypothèses à partir desquelles la modélisation des comportements est possible (normalité des distributions des rendements des actifs, non-indépendance des variations de ces rendements les uns par rapport aux autres, aversion au risque de la part des investisseurs,...).
Mémoire de fin d’études - EURIA
- 52 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché L’indépendance des positions est un facteur de réduction du risque. Le risque global n’est égal à la somme des risques individuels que sous l’hypothèse d’une corrélation parfaite et défavorable entre tous les facteurs. La prise en considération des corrélations n’est cependant pas sans danger. Si elles sont sousestimées le risque est d’aboutir à une évaluation insuffisante de la perte potentielle.
Le point de vue de la méthode standard sur les corrélations Il est souvent reproché à la CAD d’être particulièrement conservatrice dans ce domaine. Contrairement à la méthode paramétrique, les corrélations n’apparaissent pas clairement dans la méthode standard. Une manière de les identifier consiste à analyser la façon dont sont agrégés les risques. Une addition des résultats sur des positions de même sens signifie une corrélation parfaite et défavorable. De même, l’autorisation de compenser les positions longues et courtes sur deux facteurs de risque différents revient à faire l’hypothèse que la perte sur une position est neutralisée par le gain sur l’autre position et, partant, que les deux facteurs de risque évoluent de la même manière. Certaines corrélations sont ignorées dans la méthode standard Les corrélations entre catégories de risque sont interdites dans la CAD standard. Les exigences de fonds propres au titre des risques de taux, de change, sur actions et sur produits de base s’ajoutent. A l’intérieur d’une même classe de risque, la reconnaissance des corrélations est loin d’être la règle. Ainsi par exemple pour le risque général de taux d’intérêt, le calcul doit être effectué par devise (la devise étant, nous l’avons vu, un facteur de risque à part entière au sein de cette classe). Les établissements ne sont donc pas autorisés à compenser leurs positions entre devises. De la même manière, les positions actions de sens opposé sur différents marchés nationaux ne peuvent être compensées. Ceci reste vrai même lorsque les deux positions concernent le même émetteur ou lorsque l’une des positions couvre l’autre. Les corrélations retenues par la méthode standard Au sein même d’un facteur de risque, le règlement fait le plus souvent l’hypothèse que la corrélation est parfaite et favorable. Nous avons déjà eu l’occasion de voir que pour les actions, dans la CAD standard, le seul facteur de risque est le marché national. A l’intérieur d’un même marché, le règlement va considérer que la corrélation est parfaite et favorable. Curieusement, on ne retrouve pas le même raisonnement au niveau du risque de taux d’intérêt. En effet, les positions de taux longues et courtes ne se neutralisent pas complètement à l’intérieur d’une même zone de maturité (chaque bande de maturité constitue un facteur de risque à part entière). Le règlement applique une exigence de fonds propres résiduelle sur le montant compensé (10% pour chaque fourchette dans la méthode de l’échéancier et 2% pour chaque zone dans la méthode de la duration). Le régulateur justifie ce calcul par le fait qu’un segment de la courbe de taux contient en réalité des points de maturités différentes, ce qui rend les compensations imparfaites.
Mémoire de fin d’études - EURIA
- 53 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Au sein d’une même catégorie de risque, la méthode standard autorise parfois la prise en compte de corrélations entre les facteurs de risque eux-mêmes. Ainsi, les positions correspondant aux différents segments de maturité de la courbe de taux (qui sont autant de facteurs de risque) sont considérées comme étant partiellement corrélées puisque le règlement autorise une compensation partielle entre les positions de sens opposé.
Compensation des positions nettes pondérées (méthode de la duration)
Compensation
Hypothèses sous-jacentes
Exigence de fonds propres sur les positions compensées
Au sein d'une même zone
Corrélation quasi-parfaite entre les positions longues et les positions courtes. La BRI reconnaît néanmoins l'existence d'un risque de base résiduel lié à la présence de maturités et d'instruments différents au sein de la zone.
2%
Entre zones contiguës
Corrélation moyenne La couverture devient plus hasardeuse en raison de maturités différentes : Zone 1 / zone2 : maturités de 0 à 4 ans Zone 2 / zone 3 : toutes maturités au-delà de 4 ans.
40%
Corrélation faible 150% Entre deux zones La probabilité que les taux des deux non contiguës zones évoluent de manière identique est Nota : Une corrélation parfaitement fortement réduite. défavorable aurait conduit à aditionner les deux risques et donc à retenir 100%+100%=200%.
Cette compensation a un sens dans les pays du G10 où les courbes de taux sont constituées de points relativement homogènes. En revanche, dans les pays émergents, les « courbes » de taux sont nettement plus hétérogènes en raison de la présence, pour une même maturité, d’instruments dont les taux sont très différents (séniorité variable, différences de spreads significatives). Dans ces pays l’exercice devient plus hasardeux. En matière de change, la Commission Bancaire reconnaît l’existence de quatre devises étroitement corrélées deux à deux : le dollar US et le dollar canadien d’une part, la livre sterling et la couronne norvégienne d’autre part.
Les corrélations dans les modèles L’un des apports majeurs de la méthode de variance/covariance réside, comme son nom l’indique, dans la prise en compte des corrélations entre les facteurs de risque.
Mémoire de fin d’études - EURIA
- 54 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché L’utilisation d’une matrice de corrélations n’est toutefois envisageable que si sa taille reste raisonnable. Or le nombre de covariances augmente avec le carré des facteurs de risque 22. Pour résoudre cette difficulté, la méthode paramétrique procède à une simplification grâce à une technique, le mapping, qui va avoir pour effet de réduire significativement ce nombre de flux. Dans un premier temps, les constituants du portefeuille sont décomposés en flux élémentaires, chacun d’eux étant sensible à un facteur unique de risque. Ces flux sont caractérisés par une devise, un montant et une date d’échéance. L’étape suivante nécessite la connaissance de la variance et de la covariance de ces flux deux à deux. Compte tenu du grand nombre de cashflows, le calcul des corrélations devient vite irréalisable. Pour cette raison les flux sont regroupés au sein d’échéances prédéterminées selon la technique dite du mapping. Par exemple, RiskMetrics utilise une grille de 14 maturités standards pour les taux d’intérêt. Lorsqu’un cash-flow coïncide avec une maturité standard aucun mapping n’est requis. Par contre lorsque son échéance est comprise entre deux dates prédéfinies, JP Morgan adopte une méthode de répartition entre les deux bornes qui assure : la conservation de la valeur actuelle, la conservation du risque, la conservation du signe. Une modification des conditions de marché nécessite donc un nouveau calcul du mapping. La conservation du risque est essentielle dans la méthode ; toutefois, elle entraîne une conséquence inattendue. En effet, la plus grande part du cash-flow est attribuée à l’échéance standard présentant la plus grande volatilité même si l’échéance réelle est proche de l’échéance standard ayant la volatilité la plus faible. S’agissant des actions, les positions sont assimilées à des positions sur les indices nationaux via les coefficients β individuels. Bien qu’il ne fasse pas apparaître les corrélations entre titres, ce modèle en tient compte indirectement par la liaison de chacun d’entre eux au même indice. La méthode historique ne se préoccupe pas de la mesure des corrélations entre les facteurs de risque puisque cette information est présumée figurer implicitement dans l’historique. Cette approche est fondée sur la théorie de l’efficience des marchés qui postule que les prix sont le reflet de toute l’information disponible dont notamment les corrélations. Malheureusement, en pratique, les marchés sont rarement parfaits. Alors que dans le cadre de la méthode standard la prise en compte des corrélations est très limitée, les modèles internes éligibles à la CAD sont autorisés, depuis le 1 er Janvier 2000, à intégrer les corrélations entre tous les facteurs, autant à l’intérieur d’une même catégorie de risque (actions, change, taux, produits de base) qu’entre ces catégories 23. Toutefois, rares sont les établissements à profiter de cette possibilité. De nombreuses banques n’ont qu’une utilisation partielle de la VaR et n’optimisent donc pas le jeu des corrélations.
22
Pour chaque facteur de risque supplémentaire, il est en effet nécessaire de calculer les covariances de celui-ci avec chacun des autres facteurs contenus dans la matrice. 23 Notons qu’en ceci, les autorités ont corrigé la réglementation CAD de 1999 telle que nous l’avons présentée en première partie, et selon laquelle il est interdit d’intégrer les corrélations entre catégories différentes au calcul de la VaR.
Mémoire de fin d’études - EURIA
- 55 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché En effet, 40% des établissements utilisent conjointement deux ou trois types de modèles qu’ils appliquent à des activités différentes. De fait, ils s’interdisent de profiter des corrélations susceptibles d’exister entre ces portefeuilles. De même, JP Morgan, conscient des limites de son modèle de base pour les positions non linéaires, propose la méthode de Monte-Carlo pour les options. Cette pratique pose le problème de l’agrégation des résultats entre les deux méthodes. En outre, l’estimation des corrélations est un exercice délicat en raison de leur instabilité dans le temps. Une des raisons de ce phénomène est l’autocorrélation des volatilités. L’histoire des marchés montre en effet que les périodes de forte volatilité succèdent aux périodes de forte volatilité, créant un emballement qui n’est pas correctement pris en compte par les corrélations historiques en raison de leur inertie. A défaut de pouvoir intégrer les volatilités implicites dans les modèles, des processus hétéroscédastiques de type GARCH permettent d’apporter une réponse à la question de l’autocorrélation en intégrant rapidement les turbulences du marché. L’inconvénient de cette dernière technique est qu’elle est naturellement incapable de prévoir le retour au calme qui est par contre intégré rapidement par la volatilité implicite. D’autre part, en période de crise, des marchés apparemment non corrélés le deviennent soudainement. Les crises monétaires sont en effet souvent contagieuses comme l’a démontré l’« effet Tequila ». Dans le sillage de la chute du peso en Décembre 1994, les taux d’intérêt mexicains ont flambé et le marché des actions s’est effondré. A tort ou à raison, les investisseurs ont fui les marchés qui présentaient des similitudes avec le marché mexicain, entraînant à la baisse les marchés actions brésilien et argentin dans un premier temps et thaïlandais et indonésien dans un second temps. Même le dollar américain a cédé du terrain par rapport au mark et au yen. En matière de taux, des ruptures de corrélations similaires peuvent se produire. Ainsi, par exemple, il existe une corrélation forte entre le rendement des obligations d’Etat et celui des obligations émises par les banques ou les émetteurs privés de renom. Aux Etats-Unis, les investisseurs font donc usage de cette stabilité historique des corrélations pour couvrir leurs positions de taux par des obligations du Trésor. Or, au cours de l’automne 1998, la défaillance de la Russie a provoqué une ruée massive vers les T-bonds (bons du Trésor) américains, entraînant une chute soudaine des rendements de ces titres et partant un élargissement des spreads. Bien évidemment, les établissements qui avaient misé sur la continuité des corrélations entre le taux sans risque et le taux des émissions privées ont subi de lourdes pertes non anticipées par les modèles. De la même manière, un tel mouvement de masse peut entraîner une inversion des corrélations traditionnellement négatives entre les taux longs et les indices boursiers. Dans ce cas de figure, les ventes massives d’actions s’accompagnent d’une chute de l’indice et des taux de rendement des titres d’Etat sur lesquels se reportent les investisseurs.
2.
Le calcul du risque global
Après avoir vu comment une mauvaise estimation des corrélations entre les facteurs de risque pouvait conduire à une surestimation ou au contraire à une sous-évaluation du risque de portefeuille, nous allons étudier brièvement comment se fait le passage des risques élémentaires au risque global. L’agrégation a-t-elle un sens ?
Mémoire de fin d’études - EURIA
- 56 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Les autorités de contrôle et les directions des banques ont toujours été à la recherche d’un chiffre capable de synthétiser l’intégralité des risques. La méthode standardisée du ratio CAD répond à cette attente puisque, au bout du compte, tous les risques (sur les portefeuilles bancaire et de négociation, tous facteurs de risque confondus) sont additionnés 24. Si on s’en tient au risque général de marché, cette phase ne va pas sans poser de question. L’agrégation des résultats repose sur le principe d’assimilation des risques. Tous les risques se retrouvent placés au même niveau. On peut se demander s’il est pertinent de fusionner au sein d’une mesure unique le risque sur une position ferme et celui sur une position optionnelle. Doit-on avoir la même lecture de l’exposition au risque d’une obligation et de celle de la vente d’une option à barrière activante, même en supposant résolue la question de la mesure de la sensibilité à la variation du facteur de risque ? Dans le premier cas, le risque est linéaire ; dans le second, il n’apparaît que dans le voisinage de la barrière. Le prix de l’option passe instantanément de zéro à un montant P dès que le seuil est franchi. On se retrouve donc en présence d’un delta infini (variation de la prime d’un montant P pour une variation infinitésimale du cours du sous-jacent). Comment agréger ce risque éventuellement inexistant aujourd’hui mais potentiellement élevé dans l’avenir avec le risque stable de l’obligation ? Dans le même ordre d’idée, peut-on assimiler le risque sur un portefeuille parfaitement liquide (OAT) et celui sur un portefeuille moins liquide (obligations du secteur privé ou devises exotiques par exemple) ? Un même montant de VaR sur les deux portefeuilles n’aura pas le même sens pour un opérateur. Dans le premier cas il aura la certitude de pouvoir déboucler sa position dans la journée alors que dans le second il devra peut-être attendre plusieurs semaines voire plusieurs mois, au risque de voir son portefeuille se dégrader un peu plus dans l’intervalle. Les modèles internes n’apportent finalement pas de solution nouvelle à ce problème puisqu’ils se caractérisent également par la production d’un chiffre unique.
En fin de compte, la comparaison de la méthode standard CAD et des modèles internes dans le calcul de l’allocation de fonds propres met en évidence certaines analogies. Le processus de modélisation du risque est le même. Visiblement, la méthode standard de la BRI a été conçue selon une méthode VaR. Les catégories de risque retenues sont également similaires. Les facteurs de risque sont relativement proches. De même, certaines insuffisances sont communes aux deux approches. Par contre, des différences notoires apparaissent dans le choix des scénarios, dans la mesure de l’impact de ceux-ci sur les positions (sensibilité opposée à une réévaluation intégrale pour certains modèles) et dans l’agrégation des pertes. Dans la méthode standard, la BRI impose une stabilité des scénarios d’évolution des facteurs de risque. Cette décision a pour conséquence que seul un changement de composition du 24
La déclaration réglementaire (Commission Bancaire, modèle 4009) fournit un niveau de détail qui permet de connaître la contribution de chaque facteur de risque.
Mémoire de fin d’études - EURIA
- 57 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché portefeuille peut faire varier la consommation de fonds propres. En revanche, les résultats issus des modèles présentent une sensibilité au comportement du marché dans le passé. Cette particularité permet aux modèles de mieux coller à la réalité mais elle entraîne un effet pervers mis en avant par le comité de Bâle. En raison de l’utilisation des mêmes historiques et des mêmes moteurs de calcul, la plupart des établissements constatent un accroissement simultané de leur VaR lorsque les marchés deviennent fébriles. D’autre part, une connaissance insuffisante des hypothèses sous-jacentes aux modèles peut induire un faux sentiment de sécurité et conduire les établissements à des investissements risqués.
Mémoire de fin d’études - EURIA
- 58 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
TROISIEME PARTIE : ETUDE DE LA CONFORMITE DES MODELES INTERNES AUX CRITERES D’ACCEPTATION PAR LA COMMISSION BANCAIRE
Mémoire de fin d’études - EURIA
- 59 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
L a confrontation des modèles internes avec la méthode standard de calcul de l’adéquation de fonds propres a permis, dans la partie précédente, de mettre en évidence à la fois les progrès apportés par la mise en place de tels modèles et les limites encore sensibles de ceuxci. Ainsi, nous avons pu constater que, même si certaines des critiques qui pouvaient être faites à l’encontre de la méthode CAD trouvent leur solution dans les méthodologies de type Value at Risk, cette modélisation est encore largement perfectible. Après avoir pu percevoir les objectifs visés par l’introduction de ces modèles, ainsi que leurs limites, penchons-nous sur la manière dont ils sont agréés par les autorités de tutelle. Nous avons en effet pu voir que la Commission Bancaire peut autoriser les établissements assujettis à utiliser leurs modèles internes pour calculer les exigences en fonds propres relatives au risque de taux, au risque sur titres de propriété, au risque de change et au risque sur produits de base, ainsi qu’aux risques optionnels qui leur sont attachés, si ces modèles répondent de manière suffisante à certaines conditions qualitatives et quantitatives. Il va donc être intéressant d’étudier la conformité des modèles à ces critères, ainsi que les fondements de ces critères eux-même, afin de déterminer l’origine des choix effectués par les autorités de tutelle. Nous allons tout d’abord rappeler l’ensemble des exigences réglementaires spécifiques aux modèles internes. Dans un second temps, nous nous intéresserons davantage aux tenants et aboutissants des critères quantitatifs de cette réglementations, afin de vérifier la raison du choix de ces paramètres ainsi que leur réelle adéquation aux réalités des marchés et à la nature même des modèles internes considérés. Enfin, nous terminerons par une brève étude de la comparabilité des résultats fournis par les modèles internes et aux explications des écarts éventuellement constatés.
I. Rappels sur la réglementation spécifique aux modèles internes
1. Principes Les établissements assujettis au contrôle prudentiel des risques de marché peuvent être autorisés à utiliser leur modèle interne en substitution des méthodes prévues par le règlement pour les risques de taux, sur titres de propriété, de change, sur produits de base, et les risques optionnels qui y sont attachés, ou en combinaison avec ces méthodes, pour le calcul des exigences en fonds propres. Pour les établissements ayant une activité significative de marché, et à l'exception de risques insignifiants à l'égard d'un facteur particulier, le recours à un modèle interne exige l'adoption d'un système intégré de mesure des risques, qui appréhende toutes les grandes catégories de facteurs (taux d'intérêt, cours de change, prix des titres de propriété et des produits de base, plus, dans chaque catégorie, volatilité des options correspondantes).
Mémoire de fin d’études - EURIA
- 60 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Toutefois, la Commission Bancaire peut autoriser l'utilisation des modèles pour une ou plusieurs catégories de facteurs de risque sous réserve du respect des conditions suivantes :
tous les critères définis dans l'annexe du règlement s'appliquent au modèle partiel,
les établissements ne peuvent plus, pour les risques évalués, revenir aux autres méthodes du règlement, à moins que cette autorité ne leur ait retiré son accord pour l'utilisation de leurs modèles,
le système de gestion des risques de l'établissement repose sur des principes sains et il est mis en œuvre de manière intègre,
l'établissement possède en nombre suffisant le personnel qualifié pour l'utilisation de modèles élaborés non seulement dans le domaine de la négociation, mais aussi dans ceux du contrôle des risques, du contrôle interne et du postmarché,
les modèles de l'établissement ont fait la preuve qu'ils mesurent les risques avec une précision raisonnable,
l'établissement effectue régulièrement des simulations de crise selon les modalités précisées par le règlement.
Outre ces normes générales, les établissements recourant à leurs modèles internes pour le calcul des exigences en fonds propres sont soumis aux exigences énoncées ci-dessous.
2. Critères qualitatifs du système de gestion des risques Le degré de conformité à ces critères peut conditionner le niveau du coefficient multiplicateur appliqué au calcul des exigences en fonds propres, coefficient que nous définirons par la suite. Les éléments suivants doivent au minimum être prévus :
l'existence d'une unité de contrôle des risques, responsable de la configuration et de l'exploitation du système de gestion des risques. Cette unité doit notamment établir et analyser des rapports quotidiens sur les résultats produits par les modèles ainsi qu'une évaluation de l'utilisation des limites de négociation. Elle doit être indépendante des unités de négociation et rendre compte directement à l'organe exécutif de l'établissement,
l'organe délibérant et l'organe exécutif doivent être activement associés au processus de contrôle des risques et le considérer comme un aspect essentiel de l'activité de l'établissement,
les rapports quotidiens préparés par l'unité de contrôle des risques doivent être revus par des membres de l'organe exécutif disposant de l'expertise et de l'autorité suffisantes pour exiger au besoin une réduction des positions prises,
Mémoire de fin d’études - EURIA
- 61 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
les modèles internes doivent être étroitement intégrés à la gestion journalière de ces risques. Leurs résultats doivent faire pleinement partie de son processus de planification de suivi et de contrôle du profil des risques de marché,
le système de mesure des risques doit être utilisé conjointement avec les limites opérationnelles, lesquelles doivent être cohérentes avec la modélisation des risques et bien comprises tant par les opérateurs que par les responsables,
un programme rigoureux de simulations de crise doit régulièrement compléter l'analyse des risques fondée sur les résultats quotidiens des modèles internes. Ses conclusions doivent être examinées par l'organe exécutif et prises en compte dans les politiques et les limites de risque. Lorsqu'elles font apparaître une vulnérabilité particulière à un ensemble donné de circonstances, des mesures appropriées doivent être prises rapidement pour réduire ces risques,
les établissements doivent disposer d'un programme de vérification du respect des règles et procédures internes relatives au fonctionnement du système de mesure des risques. Ce système fait l'objet d'une documentation décrivant les principes de base et le détail des techniques de mesure utilisées,
une analyse indépendante du système de mesure des risques doit être effectuée régulièrement dans le cadre du processus de contrôle interne de l'établissement. Elle doit porter à la fois sur les activités des unités de négociation et sur celles de l'unité indépendante de contrôle des risques.
3. Critères quantitatifs et autres exigences Les autres exigences suivantes doivent être satisfaites par l'établissement :
les facteurs de risque, c'est-à-dire les principaux paramètres de marché dont les variations sont considérées par l'établissement comme le plus à même d'affecter les valeurs de ses positions de négociation, doivent être choisis de manière appropriée par rapport à son niveau d'activité sur les divers marchés,
le modèle interne doit répondre à certains critères quantitatifs ; ceux-ci ayant déjà été énoncés dans la première partie de ce document (propositions du Comité de Bâle pour la prise en compte des modèles internes), et devant faire l’objet d’une étude dans cette troisième partie, nous ne prendrons pas la peine de les rappeler.
un dispositif de contrôle ex-post doit être mis en place, basé sur les données des 250 derniers jours ouvrables.
4. Le calcul des exigences en fonds propres En cas d'utilisation combinée d'un modèle interne et d'autres méthodes prévues par le règlement, les exigences en fonds propres calculées au moyen de chacune des méthodes sont agrégées par simple somme.
Mémoire de fin d’études - EURIA
- 62 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Modèle interne n'intégrant pas le risque spécifique Pour la partie couverte par le modèle interne, l'établissement est assujetti à une exigence en fonds propres équivalente au plus élevé des deux montants suivants : • la mesure de la valeur en risque totale du jour précédent, calculée selon les modalités définies dans l'annexe du règlement (modalités de la méthode CAD, déjà définies), • la moyenne des mesures quotidiennes de la valeur en risque totale au cours des soixante jours ouvrables précédents, à laquelle est appliqué un coefficient multiplicateur. Le coefficient multiplicateur est attribué à chaque établissement par la Commission Bancaire en fonction de la qualité de son système de gestion des risques, avec un minimum de 3, et majoré, le cas échéant, d'un facteur complémentaire variant entre 0 et 1, conformément au tableau suivant, en fonction du nombre des dépassements mis en évidence par le contrôle ex post ou « backtesting » :
Le backtesting : Il existe toute une panoplie de méthodes utilisées pour calculer la VaR. Bien qu'en pratique les banques utilisent souvent les mêmes méthodes, leurs variantes sont nombreuses. Le backtesting a pour but de tester la performance des modèles VaR utilisés. Principe du backtesting : Le backtesting consiste habituellement à comparer les pertes observées pendant une période passée donnée, aux estimations VaR correspondant à la même période. Dans sa forme la plus simple, la procédure calcule le pourcentage du nombre de fois où la VaR a sous-estimé les vraies pertes. Ce pourcentage est ensuite comparé au niveau de confiance utilisé : si le modèle prédit qu'1% des pertes sera supérieur à 1.000.000 EUR par jour, il n'est considéré comme correct que si les pertes sont supérieures à la VaR sur environ 1% des jours considérés. Si cela arrive par exemple sur 10% des jours, on devine facilement que la méthodologie doit être revue. Le facteur multiplicatif est compris entre 3 et 4 selon les résultats du backtesting. Un minimum de 3 est choisi pour compenser les éventuelles erreurs dues à l'implémentation du modèle (hypothèses simplificatrices, biais des données, erreurs numériques,...), une justification plus précise du choix de ce facteur pourra être fournie par la suite. Le Comité de Bâle a ainsi défini trois zones de couleurs (présentées dans le tableau suivant) où peuvent se situer les modèles VaR au niveau de confiance 99% d'après les résultats du backtesting.
Zone verte Zone jaune
Zone rouge
Nombre de pertes sous-estimées par la VaR 4 ou moins 5 6 7 8 9 10 ou plus
Facteur multiplicatif 3 3,4 3,5 3,65 3,75 3,85 4
Les établissements se trouvent donc face à un certain compromis: -S’ils utilisent des modèles peu performants, le risque de marché est sous-estimé; la VaR est certes faible, mais le facteur multiplicatif est plus élevé; les banques sont alors obligées de faire de plus grosses provisions, ceci les pénalise car elles disposent de moins de fonds pour leurs opérations. -S’ils s'astreignent à avoir des modèles très performants, ils doivent consacrer plus de ressources à leur élaboration.
Mémoire de fin d’études - EURIA
- 63 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Avantages et limites : Le principal avantage du backtesting reste sa simplicité de mise en œuvre. Cependant, il présente plusieurs limites. La composition du portefeuille change bien évidemment durant la période retenue pour le backtesting. Le portefeuille est dynamique dans le temps, alors que l'on compare les VaR calculées aux profits et pertes réalisées durant cette période. Il se pose un problème de non homogénéité des comparaisons parce que le modèle VaR peut se révéler performant pour une certaine composition du portefeuille, et moins performant pour une composition de nature différente.
Au cas où de nombreux dépassements révèleraient que le modèle n'est pas suffisamment précis, la Commission Bancaire peut ne plus reconnaître le modèle aux fins de calcul des exigences en fonds propres ou peut imposer des mesures appropriées afin qu'il soit rapidement amélioré. Afin de permettre à la Commission Bancaire de vérifier en permanence l'adéquation du facteur complémentaire, l'établissement informe sans délai et, en tout état de cause, dans les cinq jours ouvrables, le secrétariat général de la Commission Bancaire, des dépassements révélés par leur programme de contrôle ex post qui, en fonction du tableau donné plus haut, impliqueraient un relèvement du facteur complémentaire. Une exigence au titre du risque spécifique calculée selon les méthodes standard doit être ajoutée à l'exigence précédente.
Modèle interne intégrant le risque spécifique Si le modèle interne de l'établissement est reconnu par la Commission Bancaire aux fins du calcul des exigences en fonds propres pour risque spécifique, l'établissement augmente alors son exigence en fonds propres calculée selon le point précédent en la majorant : • soit du montant de la fraction de la VaR totale déterminée sur le portefeuille de négociation global de l'établissement correspondant au risque spécifique, • soit de la VaR totale des sous-portefeuilles de positions en titres de créance et de propriété qui contiennent du risque spécifique. Dans ce cas, l'identification de ces sous-portefeuilles devrait être clairement établie au départ et tout changement significatif ultérieur soumis à l'accord de la Commission Bancaire. Les contrôles ex post réalisés pour vérifier que le risque spécifique est pris en compte de manière adéquate peuvent être menés au niveau des seuls sous-portefeuilles qui contiennent un risque spécifique. La Commission Bancaire peut exonérer l'établissement de la majoration prévue ci-dessus si celui-ci fournit la preuve que son modèle appréhende également de manière adéquate le risque circonstanciel et le risque de défaillance de l'émetteur en ce qui concerne ses portefeuilles de négociation en titres de créance et en titres de propriété.
II. Analyse des critères quantitatifs d’acceptation des modèles internes Nous avons pu parcourir, dans la section précédente, les critères fixés par la Commission Bancaire et conditionnant l’autorisation de leur utilisation par les établissements.
Mémoire de fin d’études - EURIA
- 64 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché De manière générale, les critères qualitatifs énoncés ne sont en rien surprenants et découlent d’une simple logique d’exigence de moyens. Par contre, il est nécessaire de s’interroger quant à la signification de certains des critères quantitatifs imposés. Ceux-ci, rappelons-le, sont les suivants : la perte potentielle est calculée quotidiennement, le niveau de confiance unilatéral requis est de 99%, il est appliqué un choc instantané sur les prix correspondant à une période de détention de dix jours ouvrés, la période d’observation (échantillon historique) pour le calcul de la perte potentielle doit être au minimum d’un an, les établissements doivent mettre à jour leurs séries de données au moins une fois tous les trois mois, les établissements peuvent prendre en compte les corrélations empiriques entre tous les facteurs de risque sous réserve que le système de mesure de celles-ci soit fiable, appliqué de manière intègre et que la qualité des estimations soit suffisante, les modèles doivent appréhender avec précision les risques particuliers liés au caractère non linéaire du prix des options ou positions assimilées. Si les deux derniers critères n’amènent à se poser aucune question particulière, et de plus ont pu être abordés précédemment dans l’étude, ce n’est pas le cas des autres. En particulier, trois paramètres ici définis, et qui ont leur importance dans tout calcul par modèle interne, méritent particulièrement que l’on s’y attache. Il s’agit du seuil de confiance, fixé ici à 99%, de l’horizon de placement, fixé à 10 jours, et de la période d’observation, dont le régulateur précise uniquement qu’elle doit être supérieure à 1 an. Nous allons tenter de mieux comprendre le choix des autorités quant à ces trois paramètres. Ainsi, nous pourrons nous demander, pour chacun d’entre eux, d’abord ce qui a motivé ce choix, puis étudier les éventuels problèmes qu’ils sont susceptibles de générer dans la mise en oeuvre du calcul et les interrogations qu’ils peuvent provoquer chez le gestionnaire de risques. Enfin, nous tenterons de vérifier le bien fondé de ces différents choix.
1. Le seuil de confiance à 99% On a vu, dans la définition de la Value at Risk, que la VaR à un seuil p d’une position est le montant de la perte qui ne sera pas dépassé avec une probabilité p. La VaR traite d’évènements rares, c’est-à-dire qu’en pratique on considère les seuils de 95% et plus, en l’occurrence 99% pour ce qui est des contraintes réglementaires. Ainsi, le fait que la mesure par modèle interne doive représenter au moins 99% des risques signifie que la VaR ne doit être statistiquement dépassée que dans un cas sur 100. Considérons une position de 100 M€ sur un instrument financier. Si l’on suppose que le rendement de cet instrument sur une période donnée soit supérieure à –8% avec une probabilité de 99%, la VaR à 99% de la position sur la période est donc de 8% x 100 = 8 M€. C’est aussi le niveau de fonds propres nécessaire pour être assuré, avec une confiance de 99%, de ne pas faire faillite sur la période. Un élément clef de la politique des risques de marché d’une institution financière réside dans la définition (subjective) du seuil p. En effet, des différences mineures dans le choix de ce
Mémoire de fin d’études - EURIA
- 65 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché seuil peuvent conduire à des écarts importants en terme de capital à allouer. Par exemple, si les pertes sont distribuées suivant une loi normale, le montant de fonds propres exigé pour un seuil de confiance de 99,5% est supérieur d’environ 20% à celui requis pour un seuil de 98,5%. A ces niveaux de probabilité, la perception subjective que nous en avons est troublée. Selon l’angle considéré, les niveaux de confiance de 98,5% et 99,5% peuvent être tenus pour très proches à cause du faible écart qui les sépare, ou au contraire pour très différents parce que le premier a trois fois plus de chances d’être dépassé que le second. Comment, dans ce cas, bien appréhender le seuil de confiance p ? L’interprétation la plus immédiate de ce seuil est en terme de fréquence d’apparition d’un évènement : c’est la dialectique temps-rareté. La VaR au niveau p correspond à un évènement −1
qui survient en moyenne une fois toutes les (1− p ) périodes : c’est ce qu’on appelle la durée de retour du risque. Si l’on considère par exemple des variations sur des périodes de dix jours, toujours pour rester dans le cadre de la réglementation, on se rend compte que les VaR à 98,5%, 99% et 99,5% correspondent respectivement à des durées de retour de 2,7, 4 et 8 ans. Dans la perspective de scénarios de stress25, la durée de retour est une échelle toute indiquée pour « doser » l’intensité du scénario en fonction de l’appréciation des circonstances par la personne en charge du contrôle des risques de marché. Lorsque l’on désire connaître un quantile extrême d’un actif financier, on dispose, comme nous l’avons déjà vu, de deux approches classiques. La première consiste à postuler la loi des variations de l’actif, à en estimer les paramètres à partir d’un échantillon historique, puis à calculer le quantile qui nous intéresse. C’est le cas de la méthode paramétrique ou de variance/covariance. La seconde consiste à ordonner les variations de l’actif observées sur l’historique, puis à prélever celle qui correspond à la probabilité souhaitée (la troisième plus grande par exemple dans le cas d’un historique de 200 valeurs et pour un quantile à 1%). C’est le principe de la méthode historique. L’inconvénient majeur de la méthode paramétrique est que l’on ne connaît pas la vraie loi des variations de l’actif financier. Il est monnaie courante de représenter les variations des actions ou des taux de change par une loi normale. Or si cette représentation peut suffire pour de nombreuses applications financières, elle se révèle inadaptée en pratique pour appréhender les grandes variations.
Le manque d’adaptation de la loi normale pour les grandes variations : Une justification élégante et courante du recours à la loi « normale » en finance est le Théorème Central Limite. Celui-ci stipule que la somme d’un grand nombre de variables indépendamment identiquement distribuées, de variance finie converge vers une loi « normale ». Mais un point souvent oublié est que cette convergence n’est pas uniforme et n’est valable que dans une région centrée sur la moyenne, et dont l’étendue dépend du nombre de variables. Même si la loi des variables causales est « fine » (c’est-à-dire que tous les moments existent), l’approximation n’est valable qu’autour de n3/ 4 écartstypes de la moyenne.
25
Ou “stress-tests”, notion que nous définirons plus clairement par la suite.
Mémoire de fin d’études - EURIA
- 66 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Considérons un modèle macro-économique où les rentabilités sont décrites par l’évolution aléatoire d’une trentaine de facteurs économiques. On peut toujours les supposer indépendants : pour faciliter les calculs, on les supposera de même loi. D’après le Théorème Central Limite, l’approximation n’est valable qu’autour de 30
0,75
≈ 12,8 écarts-types de la moyenne. Ce rayon de validité peut être décomposé ainsi : ≈ 5,5 fois plus grand que l’écart-type initial, 0,25 ≈ 2,3 fois l’écart-type résultant. -donc l’approximation cesse d’être valide au-delà de 30 -l’écart-type de la loi « normale » résultante est
30
Or il s’agit du fractile d’ordre 1% de la loi « normale ». Suivant notre exemple, les VaR à 99% et au-delà sont donc hors du domaine de validité de l’approximation par la loi « normale ».
Si l’on souhaite continuer à utiliser l’approximation par la loi « normale », il est possible de le faire à condition de corriger l’estimation des quantiles par un facteur de prudence. C’est la voie adoptée par le Comité de Bâle, qui recommande de multiplier la VaR à 99% par un facteur 3. Nous pouvons en effet constater que le choix de ce facteur peut être expliqué par un souhait de correction d’une approximation gaussienne.
Le facteur multiplicateur 3 : A ce stade, le choix d'un facteur multiplicateur 3 pourrait paraître arbitraire. De plus, il y a plusieurs combinaisons d'horizon, de seuil de confiance et de facteur multiplicateur donnant la même masse de fonds propres. Vraisemblablement, le facteur multiplicateur tient compte d'une foule de risques additionnés non modélisés dans le calcul de la VaR. Ce qui est le cas lorsque l'on suppose que les rentabilités des facteurs de risque suivent une loi normale, alors que ce n'est pas le cas en général. Stahl (1997) justifie le choix de ce facteur multiplicateur en se basant sur l'inéquation de Tchebychev : Etant donnée une variable X de loi quelconque à variance finie, à combien d’écarts-types au plus se situe le quantile à 99% ? Soit F la fonction de répartition de X, dont l’espérance et l’écart-type sont µ et σ . Le théorème de BienayméTchebyshev énonce que :
P ( X − µ >k σ ) ≤ 1 2 k Si la loi est symétrique, alors :
P ( X ≤ µ + k σ ) = F ( µ + k σ ) ≥ 1 − 1 Soit F −1 la réciproque de
k 2
F . F −1(q) désignant ainsi le quantile d’ordre q . On a donc : F −1(1− 1 2 ) ≤ µ +k σ 2k 1− 1 2 = 99% ⇒ k ≈ 7,08 2k
En négligeant la tendance µ sur une période courte de détention, il faut donc se situer à 7 écarts-types, ou à 3 fois la VaR à 99% calculée avec une loi « normale » (7,08 / 2,33, où 2,33 représente le quantile à 1% de la loi « normale »). On montre de la même façon que pour une loi asymétrique, le facteur est 4,3. Cette explication théorique permet d’apporter un éclaircissement quant à ce choix d’un coefficient bien précis à appliquer aux résultats de chaque modèle interne.
Mémoire de fin d’études - EURIA
- 67 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Mais ce facteur de prudence est d’autant plus excessif que la loi étudiée est proche de la loi « normale ». En revanche, il y a un risque de sous-estimation de la VaR si la loi est asymétrique, ou si elle a une variance infinie. En tout état de cause, quel que soit son mérite, une correction par un facteur constant conduira à des niveaux de confiance effectifs différents pour différents actifs, ce qui ne permet pas des scénarios de stress cohérents, ni des calculs de fonds propres homogènes. Cependant, comme nous pourrons le constater plus loin, cette « correction » de l’hypothèse de normalité n’est pas la seule justification fournie par les autorités pour expliquer le choix de ce facteur. L’histoire récente nous donne la preuve de cette « incompatibilité » de la loi normale avec une éventuelle application aux grandes variations des valeurs des actifs financiers. En effet, si l’on suppose que les variations relatives du CAC sont distribuées suivant une loi normale avec une volatilité de 20%, l’ordre de grandeur de la durée de retour d’une variation mensuelle similaire à celle du mois d’octobre 1987 s’élève à cent mille ans, soit le temps qui s’est écoulé depuis l’apparition de l’homme de Neanderthal. De la même manière, une variation quotidienne d’une ampleur comparable à celle du « lundi noir » sur le CAC40 devrait en moyenne être observée au plus tous les quinze milliards d’années. En revanche, les conséquences des évènements de Septembre 2001 ne peuvent être analysés à titre comparatif ici, de tels évènements n’entrant pas réellement dans le cadre de la VaR proprement dite, censée s’appliquer aux conditions normales des marchés. En fin de compte, certaines interrogations restent posées quant à la pertinence de ce facteur de 99%. En effet, un établissement peut-il se contenter de connaître le montant minimum de fonds propres qu’il met en jeu deux à trois fois par an sans avoir véritablement d’indications quant à ce montant ? Qu’en est-il de la perte potentielle inconnue au-delà de la VaR ? Metelle en péril la survie de l’établissement ? Ne serait-il pas préférable d’inverser le raisonnement en se demandant à quel seuil de confiance correspond le niveau de perte maximal supportable par la banque ? La probabilité d’occurence de cette perte est-elle d’une fois tous les dix ans, tous les cent ans ou tous les mille ans ?
2. L’horizon de placement de dix jours En ce qui concerne l’horizon sur lequel est calculée la VaR, et pour lequel le régulateur impose la prise en compte d’une période de dix jours, plusieurs questions peuvent également se poser. En particulier, se pose la question de l’origine du choix d’une telle période et de ses éventuelles implications. D’autre part, il apparait également que le choix d’un horizon de placement de cette longueur ne va pas manquer de poser des problèmes, en particulier au niveau de la longueur de l’historique à prendre en compte, au moment du calcul effectif de la VaR. Ainsi, nous allons nous intéresser en premier lieu au phénomène de liquidité, vraisemblablement à l’origine du choix de cet horizon de dix jours, en nous penchant sur les conséquences de ce choix et sur son adéquation à la réalité des marchés. Ensuite, nous reviendrons sur les difficultés éventuellement engendrées par ce facteur lors du calcul, et sur les solutions proposées en vue de les contourner ou de les éliminer.
Mémoire de fin d’études - EURIA
- 68 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Le phénomène de liquidité Dans le cadre des récentes turbulences des marchés financiers, il est devenu plus évident que par le passé que la liquidité représente un risque significatif pour les investisseurs. Cependant, malgré son importance potentielle, la plupart des mesures de risque et des outils de management font encore défaut au niveau de sa prise en compte. En effet, la théorie financière suppose de manière générale la possibilité de se débarrasser instantanément de n’importe quelle quantité au prix du marché. Nous avons vu précédemment que, dans la méthode standard du CRBF 95-02, les scénarios de variation des facteurs de risque étaient figés et ne tenaient donc pas compte des conditions présentes du marché. Ce choix peut avoir pour conséquence une surestimation ou une sousévaluation de la perte potentielle selon que les marchés sont calmes ou agités. De la même manière, la méthode standard ignore partiellement le critère de liquidité. Dans le calcul du risque spécifique, que nous avons délibérément écarté, le risque d’illiquidité intervient dans les pondérations applicables aux émetteurs. La Commission Bancaire a publié une liste l iste des actions ac tions considérées comme « très liquides » qui se voient attribuer une pondération de 2% au lieu de 4%. Il s’agit des valeurs composant les principaux indices boursiers européens. De même, pour le risque spécifique de taux, le critère de liquidité est une des conditions permettant aux titres de bénéficier de la qualification d’« éligible » qui se traduit aussi par une pondération réduite variant de 0.25% à 1.60% (selon la maturité) au lieu de 8% pour les titres non liquides. En revanche, dans le calcul du risque général, il n’est fait aucune référence à la liquidité des instruments détenus. Le calcul est uniforme quel que soit le degré de liquidité des positions. La Value at Risk réglementaire ne résout pas cette difficulté. En effet, le comité de Bâle impose aux modèles internes un horizon de risque de dix jours. Dans ces conditions, le régulateur fait l’hypothèse que les positions en risque peuvent être liquidées pendant cette période. Ceci revient à dire que le modèle prend en compte le risque de liquidité, mais de manière constante. En réalité, la liquidité varie beaucoup entre les différents marchés et au cours du temps. Pour des positions sur des marchés peu ou pas liquides, la VaR standard devrait sérieusement prendre en compte la perte potentielle actuelle. Dans un tel contexte, une VaR corrigée du risque de liquidité pourrait aider les managers à mieux cerner le profil du risque en terme de réduction potentielle au cours du temps. L’outil VaR mesure la Value at Risk pour un pourcentage de la distribution correspondant aux deux ou trois pires périodes de négociation sur un an. C’est justement le plus souvent pendant et après de telles périodes d’extrême volatilité des prix que les marchés tendent à devenir non liquides. C’est donc précisément dans ces situations de marché que la liquidité, et la possibilité de réduire la VaR afin de protéger le capital de base, sont plus sollicitées que jamais. Si la liquidation des positions a un impact sur les prix de transaction, alors la VaR estimée est trop faible dès lors que la période sur laquelle elle a été calculée ne permet pas une liquidation correcte des positions. De ce fait, la Var telle qu’elle est généralement prise en compte néglige l’impact d’une liquidité insuffisante, précisément dans les circonstances où la liquidité a le plus d’importance, c’est-à-dire lorsque les positions doivent être liquidées parce que la volatilité des prix réduit les capacités d’anticipation du risque.
Mémoire de fin d’études - EURIA
- 69 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Le tableau suivant présente bien le phénomène de variabilité de la liquidité selon les instruments. Il fournit, pour chaque type d’actif, la période communément reconnue comme nécessaire à sa liquidation :
Matrice de risque liquidité/instruments/stratégie
Change sur principales devises Change sur devises exotiques Obligations d'Etat Obligations du secteur public Obligations du secteur privé Contrats futures
Négociation Investissement 24 H Variable (de 1 à 6 mois) 1 semaine Idem 24 H Idem 1 semaine Idem 1 mois Idem 24 H Idem
La VaR n’est donc pas, on le voit, conditionnée uniquement par la volatilité des prix. Elle l’est aussi par celle de la liquidité. L’importance du critère de liquidité varie en fait selon l’usage que fait la banque de la VaR. Soit la VaR est considérée uniquement comme une mesure de risque sur un portefeuille gelé que l’établissement conservera quoi qu’il arrive, et dans ce cas la prise en compte de la liquidité n’est pas essentielle ; soit la VaR est utilisée dans un système de limites, auquel cas il peut être nécessaire de céder ou de couvrir les positions et les conditions de liquidité du marché deviennent alors cruciales. L’horizon de dix jours devrait logiquement correspondre à une période conservatrice de liquidation. De ce point de vue, la VaR standard à 10 jours peut être interprétée comme la VaR de positions qui peuvent être liquidées avec une relative facilité dans un horizon maximal de dix jours ouvrables. La VaR reflète donc le risque de liquidité du marché jusqu’à un certain degré. Cependant, une manière plus appropriée d’intégrer le risque de liquidité du marché dans la VaR pourrait être de définir la période de détention sur laquelle elle est calculée sur la base de la relation entre la taille de la position et la liquidité du marché. En effet, pourquoi une position de change hautement liquide, pouvant être liquidée à tout moment de la journée, doitelle être évaluée sur le même horizon de VaR qu’une position en actions représentant une part relativement importante de tout le stock sous-jacent ? Ceci impliquerait cependant que la VaR soit calculée sur différents horizons de temps pour différentes positions de négociation. Un problème engendré par cette approche est que des positions de taille et de période de détention très différentes, corrélées négativement, pourraient en venir à se couvrir mutuellement. Cependant, il est clair qu'une petite position avec un horizon de liquidation important ne peut pas réellement être vue comme une couverture pour une imposante mais très liquide position. Un autre problème avec ce type d'ajustement est qu'il néglige la prise en compte de la volatilité de la liquidité. Selon une étude du cabinet Deloitte et Touche (Fraichot et Leurent, mai 2000), les établissements sont conscients des risques de perte liés aux problèmes de liquidité. La difficulté à intégrer la liquidité des marchés dans les modèles est une préoccupation majeure pour 50% des 200 banques interrogées dans le monde.
Mémoire de fin d’études - EURIA
- 70 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Dans le cadre d’un groupe de travail pilote 26, la BRI a demandé au deuxième trimestre 2000 à 44 établissements financiers situés dans 9 pays de corriger leur chiffre VaR en tenant compte de la liquidité du marché au moment du calcul (« liquidity adjusted VaR »). Pour ce qui est de la VaR à un jour, le résultat est en moyenne multiplié par cinq, les positions ne pouvant quasiment jamais être cédées intégralement sous 24 heures. En revanche pour la VaR à 10 jours, les résultats sont différents. Dans le cas des instruments à revenu fixe, la nouvelle VaR est généralement plus élevée. Par contre, pour les actions, la VaR corrigée de la liquidité est le plus souvent plus faible que la VaR standard. Idéalement, le choix d’un horizon de risque devrait donc faire intervenir la nature des instruments détenus, l’intensité de la négociation dont ils font l’objet, l’importance des positions à solder et le degré de liquidité du marché à la date du calcul. Peut-être un horizon de dix jours constitue-t-il une moyenne tous marchés confondus, mais il est clair qu’il pénalise les banques intervenant sur des marchés liquides. En ne donnant pas la possibilité aux établissements de choisir leur horizon du risque, le régulateur retombe dans les travers de la méthode standard.
Les problèmes engendrés lors du calcul La période de détention imposée par le Comité de Bâle dans la mesure de l’exigence de fonds propres associée à un portefeuille pose également un problème lors de la mise en oeuvre du calcul. Ce problème concerne particulièrement la longueur de l’historique à considérer. En effet, la prise en compte d’une période de détention de dix jours, nécessairement par intervalles disjoints pour des raisons de cohérence probabiliste (afin d’éviter un problème d’autocorrélation des données), implique de ne plus envisager de la même manière la taille de l’échantillon historique observé. Si l’on s’en tient à un historique d’un an, considérer des intervalles de 10 jours revient à obtenir dix fois moins de données à la base du calcul, c’est à dire pour un historique d’un an, de se limiter à un total de 25 valeurs. Une analyse historique non pondérée reviendrait alors à ne pouvoir obtenir une VaR d’un seuil de confiance supérieur à 96%. Inversement, si l’on souhaite maintenir l’équivalent d’un an d’historique, c’est à dire 250 valeurs, il faut pour cela considérer un historique de dix ans de longueur qui, outre le risque d’observer des valeurs plus qu’obsolètes, est on ne peut plus difficile à obtenir pour un grand nombre d’instruments, dont la première cotation ou évaluation ne remonte pas aussi loin dans le passé. Pour contourner ce problème, le Comité de Bâle conseille de convertir la VaR 1 jour à la VaR 10 jours par une opération dite de « scaling ». Le scaling consiste à multiplier la volatilité à 1 jour par T , T étant l’horizon considéré. Cette méthode soulève une certaine polémique quant à son application, et le débat sur l’adéquation du scaling s’intensifie sans pour autant faire ressortir un consensus clair.
26
Multidisciplinary Working Group on Enhanced Disclosure, Disclosure, Basel Committee on Banking Supervision, Final Report, avril 2001.
Mémoire de fin d’études - EURIA
- 71 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché En fait, trois méthodes différentes sont utilisées à l’heure actuelle pour la conversion de la volatilité 1 jour à une volatilité t jours.
La première, conseillée par RiskMetrics, est la fameuse règle «
T » qui consiste à
appliquer le coefficient multiplicatif T à la VaR à 1 jour. Cette méthode est appréciée principalement pour sa simplicité et sa très facile mise en oeuvre. Elle repose essentiellement sur une hypothèse de normalité et d’indépendance des accroissements des prix des actifs. Ces hypothèses sont souvent discutées, et ne s’appliquent pas à toutes les maturités.
L’alternative la plus fréquente à cette première méthode repose sur la théorie des valeurs extrêmes. Elle demande à estimer un coefficient α représentatif de l’épaisseur des queues de distribution. Par exemple, pour une loi de Student, α représente le nombre de degrés de liberté (ou l’exposant caractéristique) et pour un processus ARCH, α représente le nombre de moments finis de la distribution non conditionnée des innovations. Ce coefficient étant déterminé, il convient ensuite d’appliquer la règle 1 α
T T .
«
» qui consiste à passer de la VaR 1 jour à la VaR T jours en multipliant par
1 α
La dernière méthode consiste tout simplement à déterminer la matrice de variance/covariance des rendements à T jours. Cette approche nécessite un historique assez long des données et ne peut pas être appliqué à tous les horizons. Toutefois, elle permet d’obtenir la véritable matrice de variance/covariance historique. Reste alors le problème de l’adéquation du modèle à la maturité souhaitée.
Les articles rencontrés dans la littérature s’attachent plus particulièrement à tester la validité de la première approche et à développer la deuxième méthodologie au travers de modèles semi-paramétriques. Il n’y a pas de consensus arrêté sur la question. Diebold et Al testent la procédure de scaling sur des actifs soumis à une dynamique de type GARCH. Leur argumentation repose sur la formule de Drost-Nijman qui permet de corriger la volatilité à T jours à partir de celle obtenue à 1 jour, sous certaines conditions de régularité et pour des horizons suffisamment longs. Les deux principal es conclusions sont les suivantes :
pour un horizon supérieur à 10-15 jours, la volatilité n’est pas prévisible, autrement dit, les modèles à volatilité conditionnelle ne sont plus valables pour T>10 ;
dans tous les cas, le scaling amplifie les fluctuations de la volatilité ; même si en moyenne le coefficient
T peut sembler conservateur, le véritable rapport entre les
deux volatilités est souvent bien au-dessous ou bien au-dessus de
T .
Danielsson et De Vries proposent une autre approche fondée sur des résultats de la théorie des valeurs extrêmes. Ils émettent quelques réserves sur l’application de la méthode proposée par RiskMetrics pour un horizon de 10 jours, même si les conclusions ne s’appliquent pas uniquement au passage de la VaR 1 jour à la VaR 10 jours. C’est plus la méthode fondée sur l’unique estimation de la matrice de variance/covariance qui est remise en cause.
Mémoire de fin d’études - EURIA
- 72 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Les tests et simulations qu’ils ont effectués aboutissent aux conclusions suivantes :
RiskMetrics sous-estime la VaR à 1 jour par rapport à une méthode fondée sur la théorie des extrêmes surtout pour la mesure des risques rares (c’est-à-dire 0,05% et 0,005%). Nous notons ici que les résultats obtenus pour une VaR à 1% sont comparables pour les deux méthodes. Pour des prévisions à 10 jours, la méthode RiskMetrics basée sur le scaling sur-estime la VaR obtenue par la règle «
1 α
T
» (en moyenne, le coefficient α obtenu vaut 4,6).
Ces différents résultats ne font ressortir aucun consensus quant à l’application du coefficient
T . Les seules conclusions tirées soulignent que dans une approche purement RiskMetrics, le scaling n’est pas forcément conservateur (amplification des fluctuations) et qu’en le comparant à des méthodes plus fines, il peut s’avérer trop conservateur. Ainsi, aucune méthode proposée pour contourner le problème de longueur d’historique engendré par l’horizon de calcul de 10 jours ne semble parfaitement adaptée et à l’abri de toute critique. La question de la mise en oeuvre de cette période de détention dans la pratique, de la même manière que celle de l’adéquation de ce paramètre à la réalité des marchés, reste donc sans réponse.
3. L’historique minimum d’un an De la même manière que pour les paramètres abordés dans les paragraphes précédents, des interrogations ne peuvent manquer d’apparaître quant à la manière dont doit être traité l’historique des données disponible. Sur ce point, la réglementation est relativement floue, puisque imposant uniquement la prise en compte d’un historique d’une durée minimale d’un an. Encore une fois, ce choix n’est pas clairement justifié et il semblerait découler uniquement d’une volonté de prendre en compte des données suffisamment variées et révélatrices des fluctuations des marchés sur une période assez longue pour en être significative. Une liberté de choix relativement importante est donc, cette fois, laissée à la discrétion de chaque établissement. De plus, la manière dont cet historique doit être ensuite traité n’est aucunement définie par le règlement. Une fois encore, le gestionnaire des risques de marché va donc se retrouver devant plusieurs voies possibles. En effet, il va devoir en premier lieu choisir quelle longueur d’historique réellement prendre en compte. Ensuite, il va lui falloir décider d’éventuelles transformations à apporter à ses données afin de les traiter par la suite. Dans ce cadre, nous avons pu évoquer en particulier l’existence éventuelle d’une pondération de celles-ci. Enfin, il va également devoir apporter les corrections nécessaires à son historique, principalement au niveau de la complétion de celui-ci, l’absence ponctuelle de certaines données n’étant pas rare et pouvant découler de divers phénomènes. Ce sont ces trois principales étapes et interrogations préalables à l’usage effectif de l’historique que nous allons tenter d’analyser.
Mémoire de fin d’études - EURIA
- 73 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Le choix de la longueur de l’historique Nous avons déjà pu observer que certaines questions, telle celle des volatilités historiques, peuvent être réglées en agissant sur la longueur de l’historique considéré. Ainsi, nous avons vu que certains auteurs estiment, par exemple, qu’une volatilité journalière doit être estimée à partir d’un historique d’un mois et non sur une longue période. Cependant, la réglementation imposant un horizon de calcul de 10 jours, les données à considérer ne seraient pas des données journalières mais bimensuelles. Or, nous avons également pu voir que la manière la plus couramment utilisée pour contourner les problèmes liés à cette exigence de données à 10 jours consiste justement à se reporter à des données à un jour. Cette pratique supprime donc la plus grande adaptation des données à dix jours à un historique à un an. En fin de compte, ces techniques de passage de données « un jour » à des données « t jours » permettent donc de se rapporter, dans tous les cas, à des données journalières. Ceci n’a donc pas réellement d’influence sur le choix de la longueur de l’historique. Il est donc possible de supposer que ce choix va être effectué, par le gestionnaire des risques de marchés, uniquement en fonction des caractéristiques qu’il souhaite donner à son historique. En effet, dans le cas où son objectif est de calculer une VaR en tenant compte des fluctuations du marché survenues dans un passé relativement lointain, et susceptibles de se reproduire, il allongera sa période d’observation historique en conséquence. Si par contre son souhait est de se concentrer sur la conjoncture financière à la date de son calcul, il va restreindre au maximum sa période d’observation, se rapprochant ainsi de la borne d’un an fixée par la réglementation. Ainsi, ce critère minimisant la longueur de l’historique apparaît-il comme principalement destiné à empêcher les modèles internes de se concentrer exclusivement sur une courte période récente, et donc de tenir compte de fluctuations plus anciennes, et éventuellement de certains mouvements réputés suivre un cycle au moins annuel. Cependant, une alternative à cette minimisation est utilisée par nombre d’établissements, par l’intermédiaire du recours à une pondération des données.
La pondération éventuelle des données Nous avons déjà évoqué cette technique de pondération des données comme un autre moyen d’intervenir sur la durée de la période d’observation. Le principe de base est d’accorder un poids plus important aux observations récentes qu’aux observations anciennes. Ceci suppose implicitement que les scénarios récents ont la probabilité d’occurrence la plus élevée. Globalement, plusieurs facteurs de pondération, ou « decay factors » peuvent être choisis, de manière relativement arbitraire, selon la vitesse avec laquelle l’utilisateur souhaite voir disparaître l’influence des données anciennes.
Mémoire de fin d’études - EURIA
- 74 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Cependant, le facteur le plus répandu, et qui est entre autres celui que retient RiskMetrics, est un coefficient de pondération de 0,94 (en réalité, le système de JP Morgan utilise ce coefficient de 0 ,94 dans le cas du traitement de données journalières, mais va préférer un coefficient de 0,97 pour des données mensuelles, donnant ainsi davantage de poids aux mois « récents » ; ceci semble logique si l’on pense que des rendements mensuels font rapidement se rapporter à des données bien plus anciennes, et donc plus facilement obsolètes). La conséquence de l’utilisation de ce facteur de pondération est que, rapidement, certaines données n’ont quasiment plus de poids dans le calcul. A titre d’exemple, nous pouvons observer dans ce tableau, outre les formules utilisées pour le calcul des volatilités et corrélations à partir de données pondérées, une évaluation de la part des données qui est réellement prise en compte par le calcul (sources : RiskMetrics, Technical Document ).
Valeur calculée
Volatilité 1 jour
Expression
σ
2
=
Nombre de données utilisées
Nombre de données réellement prises en compte
0,94
550
75
0,94
550
75
0,97
550
150
0,97
550
150
2
λ σ 1,t t −1+(1−λ )r 1,t
1,t +1 t
Coefficient de pondération λ
2
σ + σ + σ
= 12, t +1 t
12,t 1 t
Corrélation 1 jour
ρ
Volatilité 1 mois
σ
=5.σ 11,t +1t
Corrélation 1 mois
ρ
= ρ 12,t +1t
1,t 1 t
2,t +1 t
1,t + 25 t
12, t + 25 t
Nous constatons ainsi qu’une large part des données sera ignorée de manière implicite par cette manière d’effectuer les calculs. En fait, pour un coefficient de pondération de 0,94, et pour un total de 550 données, les 75 dernières supporteront 99% du poids total attribué aux données, ce qui ne laisse planer aucun doute sur l’impact réel des plus anciennes... Ainsi, les utilisateurs de ce type de procédés vont pouvoir, avec l’agrément des autorités, utiliser un mode de calcul leur permettant de supprimer, ou peu s’en faut, des données antérieures à quelques mois, quand le règlement recommande expressément d’utiliser un historique d’une longueur minimale d’un an. Ceci ne manque pas de faire s’élever quelques interrogations sur la réelle conformité des modèles à la réglementation, étant donné que certains aspects de celle-ci peuvent permettre aux établissements d’en contourner d’autres.
Mémoire de fin d’études - EURIA
- 75 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Le traitement des valeurs manquantes Le problème majeur, et le plus souvent constaté, touchant aux données historiques utilisées dans le calcul de la VaR, qu’il s’agisse d’historiques de cours ou d’évaluations dans le cas de l’analyse historique, ou uniquement de corrélations et volatilités pour la méthode de variance/covariance, est celui des données manquantes. Dans les méthodes de calcul de la VaR précédemment exposées, il est implicitement supposé qu’il ne manque aucun prix. En pratique, cependant, le cas contraire est souvent observé. A cause de la fermeture de marchés à certains endroits, les prix quotidiens sont occasionnellement indisponibles pour des instruments individuels et certains pays. De plus, certaines occurrences telles que des évènements politiques ou sociaux significatifs et problèmes techniques peuvent également être à l’origine de tels troubles. Très souvent, les valeurs manquantes sont simplement remplacées par la valeur du jour (ouvré) précédent. C’est fréquemment le cas pour les données obtenues de vendeurs spécifiques (marchés de gré à gré). Une autre pratique fréquente a simplement consisté à exclure une date entière dont les données dans l’échantillon étaient manquantes. Cela a pour conséquence que des données valables sont écartées. Le simple fait qu’un marché soit fermé un certain jour ne devrait pas impliquer que les données d’autres pays sont inutiles. Un grand nombre de points de données manquantes, disjoints entre les marchés, risquerait de réduire la validité d’un processus de mesure du risque. Ne pas disposer de données de marché pour plusieurs jours consécutifs de l’historique, c’est perdre de l’information sur l’évolution de ces données durant cette période, donc perdre la corrélation entre les évolutions antérieures et postérieures à cette période, et, de ce fait, introduire une erreur au niveau du calcul de la VaR, en particulier de la VaR historique. Certaines techniques sont donc proposées en vue de parvenir à résoudre ce problème. Afin de mieux expliciter ce problème, nous avons choisi d’évoquer un cas précis : celui des données manquantes consécutives à la fermeture de plusieurs marchés américains du 11 au 14 septembre 2001. Bien évidemment, cet exemple ne peut prétendre avoir un caractère général, mais il reproduit, sur une période cependant plus longue, le phénomène relativement fréquent de données manquantes. De plus, l’analyse d’un tel exemple permet également de se pencher sur d’autres types de problèmes pouvant survenir au niveau des données dans de telles conditions. Durant cette période, certains marchés, principalement les marchés d’actions US et les titres à revenu fixe cotés principalement sur les marchés US, ont été fermés pendant quatre jours. Pendant ce même intervalle de temps, la plupart des marchés extérieurs aux Etats-Unis, ycompris ceux consacrés aux actifs internationaux traités en dollars US, sont restés ouverts. Simultanément, les rendements des actifs ont subi une fluctuation d’une magnitude très importante et des corrélations typiquement observées entre certaines classes d’actifs ont pu être affaiblies, voire inversées. L’impact de ce phénomène est relativement grand dans le cadre de la mesure du risque de marché. Le risque de crédit, quant à lui, est moins touché grâce à son horizon traditionnellement plus long. L’existence de valeurs manquantes n’est pas un problème nouveau pour les gestionnaires de risque. Les données pour une classe d’actifs particulière font souvent défaut pour un pays ou
Mémoire de fin d’études - EURIA
- 76 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché un petit nombre de pays durant certains congés et jours fériés. Le cas évoqué ici est atypique sur de nombreux côtés : Généralement, les données sont manquantes pour cause de congés pendant seulement un ou au plus deux jours. Dans le cas que nous traitons, certains marchés majeurs ont été fermés durant quatre jours ouvrés, ce qui représente un durée relativement importante. Il est inhabituel pour des congés de coïncider avec des changements radicaux de l’environnement financier. Généralement, les opérateurs ont plutôt tendance à clôturer leurs positions parce qu’ils prévoient d’être absents. D’où des rendements de large magnitude moins fréquents durant des congés, comme observé dans de nombreux pays, y-compris lorsque le volume de négociations est plus faible et les marchés réduits. Il n’existe malheureusement pas d’approche parfaite permettant de régler ce problème. Au contraire, plusieurs méthodes existent, chacune proposant sa manière de traiter les données de marché manquantes, et possédant évidemment chacune ses propres avantages et inconvénients.
Technique du maximum de vraisemblance : Dans cette méthode, les données manquantes sont comblées dans une base intermédiaire à la base historique, en calculant le maximum de vraisemblance de la prévision de rendement, étant donnés les rendements effectifs d’un groupe de marchés reliés et les corrélations historiques entre ces marchés. Par exemple, le rendement des actions US pour le 11 septembre peut être calculé en utilisant les rendements d’un ensemble de marchés d’actions, d’obligations et de devises de pays développés. En pratique, on utiliserait la valeur ajustée d’après une régression de séries chronologiques des rendements d’actions US sur les rendements sur d’autres marchés. L’avantage de cette technique est qu’elle est plus apte à prendre en compte le comportement attendu : un grand pic de volatilité dans le marché des actions US et une grande corrélation avec les indices des autres pays industrialisés. Son principal inconvénient est qu’elle ne force pas les niveaux des marchés fermés à rejoindre les valeurs obtenues quand ils réouvrent. Elle doit d’abord être considérée comme une mesure provisoire jusqu’à la réouverture des marchés.
Détermination à partir de la dernière observation : Une fois les marchés réouverts, il est nécessaire d’avoir recours à une technique qui permette de se reconnecter aux données de marché observées. Cette méthode le fait automatiquement. Dans cette approche, les rentabilités, par exemple pour l’indice S&P 500 (principal indice du marché actions US), seraient nulles pour les quatre jours ouvrés du 11 au 14 septembre, et d’une large magnitude le 17 septembre, jour de la réouverture des marchés. Les corrélations entre les marchés d’actions US et d’autres actifs seraient probablement diminuées par les importants rendements sur ces autres marchés, par rapport aux larges écarts constatés entre les rendements des actions US et ceux des autres marchés. L’avantage de cette technique est cette fois qu’elle ne tente pas d’inventer des données qui n’ont pas encore été observées. Elle pare également la nécessité de recalculer les données manquantes après la réouverture des marchés. Cependant, elle déplace le grand pic de volatilité dans le marché des actions US du 11 septembre au 17 septembre, réduisant ainsi les corrélations espérées hautement positives avec les marchés d’actions et hautement négatives avec les marchés obligataires.
Mémoire de fin d’études - EURIA
- 77 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Interpolation linéaire : Il est également possible de calculer les valeurs intermédiaires par une simple interpolation linéaire entre le 10 et le 17 septembre. Cette technique fait également peu d’hypothèses sur le comportement des marchés fermés. Il est vraisemblable, cependant, qu’elle réduise en pratique, et de manière peu réaliste, le pic de volatilité dans le marché US et fausse les corrélations. Chacune de ces approches est défendable, pour autant que les gestionnaires des risques de marché comprennent les distorsions de volatilités et corrélations qu’elles génèrent. Dans le même temps, aucune de ces approches statistiques ne garantit de générer des volatilités et corrélations qui pourraient sembler plausibles dans des conditions courantes. La VaR mesurée à partir de données corrigées en utilisant l’une de ces techniques verrait cependant diminué, vraisemblablement, son pouvoir prédicteur pour les pertes maximales du portefeuille. Après le 17 septembre, il est évident que les volatilités et corrélations sont rapidement ou graduellement redevenues semblables à des conditions « habituelles » de marché. Mais, en cas de crise persistante, la VaR n’aurait pas nécessairement regagné rapidement son pouvoir prédicteur. De ce fait, il semble préférable, dans de telles conditions, de s’appuyer davantage sur le stress testing que sur la VaR traditionnelle, tant pour la mesure du risque que pour le reporting. En effet, nous abordons ici des conditions dans lesquelles la VaR ne peut plus être considérée comme une mesure de risque valide et efficace. En effet, les conditions de marché suite aux évènements de septembre 2001 s’apparentent bien plus à une situation de crise et doivent donc être soumises à d’autres mesures de risque, telles que le calcul de « scénarios de crise » ou « stress testing ».
Le stress testing, un complément de la VaR : L'objectif du stress testing est d'évaluer la capacité du capital de la banque ou de l'institution financière à faire face aux grandes pertes potentielles. On se fait ainsi une idée de la vulnérabilité d'une position ou d'un portefeuille face à d'hypothétiques événements. Pour cela, on peut définir des scénarios éventuels et les expérimenter. Cette approche consiste à mesurer l'impact (sur la position) de scénarios particulièrement spécifiés, et intégrés dans un processus d'analyse. L'analyse de scénarios donne de précieux renseignements concernant les pertes que l'on pourrait faire si le marché suivait le scénario indiqué. Cependant, on ne sait rien sur sa probabilité d'occurrence. Cette méthode complète la VaR dans la mesure où la VaR ne nous dit pas combien on peut perdre si on est confronté à un scénario catastrophe (krach boursier de 1987 par exemple). L'analyse de scénarios comporte deux étapes : le choix des scénarios et l'évaluation de l eurs effets sur le portefeuille. Etape 1 : Le choix des scénarios : Il peut s'agir de la simple simulation de variations d'un ou plusieurs taux d'intérêt, taux de change, prix d'actions ou autres facteurs. Il peut également s'agir de la simulation d'un événement qui a réellement eu lieu (crise asiatique de 1997,...), ou d'événements en dehors du marché mais qui ont des répercussions dessus (virus dans le système informatique de la Bourse de New York, agression militaire de la Corée du Sud par la Corée du Nord,...). Etape 2 : L’évaluation de l’effet des scénarios : L'idée est d'examiner les sensibilités du portefeuille ou des positions aux variations (des facteurs de risque) induites par les scénarios. Cette évaluation assez simple dans certains cas, peut devenir très compliquée dès lors que le portefeuille comporte par exemple des options. Dans ce cas, il faut faire des approximations.
Mémoire de fin d’études - EURIA
- 78 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Avantage du stress-testing : Cette approche permet d'exhiber la vulnérabilité du portefeuille à certaines situations que la VaR ne prévoit pas forcément. Limites du stress-testing : La limite la plus évidente de cette analyse de scénarii est que l'on ne peut pas envisager tous les scénarii possibles. Il en existe une infinité. Un choix s'impose alors, et il s'avère souvent difficile à faire. Ainsi, un mauvais choix pourrait avoir des conséquences désastreuses, ou tel scénario, forcément subjectif, n'est pas nécessairement judicieux. En outre l'évaluation des effets des scénarii peut être très complexe.
Au final, cette étude de la conformité des modèles internes aux critères quantitatifs d’acceptation par la Commission Bancaire nous fournit des enseignements à plusieurs niveaux. En premier lieu, cette section nous permet de mieux comprendre l’origine de ces différents critères et du choix de la valeur des différents paramètres utilisés dans leur définition. Même si quelques points demeurent relativement flous, cette analyse nous permet d’y voir plus clair quant à cette partie de la réglementation. Nous avons également pu constater à quel point cette même réglementation demeure flexible, et parfois insuffisamment claire, dans la manière dont elle régule et cherche à normaliser l’utilisation des modèles internes. Enfin, nous avons pu également constater et souligner le manque de clarté des autorités dans le raisonnement qui a conduit au choix de certains des paramètres étudiés ici, et dans leur adéquation à la réalité des marchés. A présent, il peut être bon d’évaluer également, après avoir constaté que la lisibilité des résultats des modèles par rapport à la réglementation n’est pas toujours évidente, la manière dont ces mêmes résultats peuvent être comparés entre des établissements n’utilisant pas tous les mêmes modes de calcul.
III.
Comparabilité des différents modèles
Nous avons pu constater que, quelle que soit la démarche utilisée (méthode standard ou modèles internes), la mesure de la perte potentielle future pouvait s’écarter de la réalité en raison d’approximations successives : méconnaissance ou élimination volontaire de certains facteurs de risque, mauvaise anticipation du scénario d’évolution des paramètres de marché retenus, mesure inexacte de l’impact de ce scénario sur les positions individuelles, sous-estimation ou surévaluation des corrélations entre les facteurs de risque. Ceci nous amène donc à nous interroger sur la lecture qui peut être faite d’un montant de VaR. De même, nous avons pu vérifier que, même en tenant compte des critères qualitatifs imposés par les autorités de réglementation, une grande liberté reste accordée aux établissements, tant dans le choix de certains paramètres que dans la manière de traiter les données. Il est donc naturel de supposer que chaque établissement va mettre à profit cette liberté de décision pour conformer au maximum son propre modèle interne à la fois aux natures et quantités des actifs détenus dans son portefeuille de négociation, ainsi qu’à ses attentes quant à la mesure du risque.
Mémoire de fin d’études - EURIA
- 79 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Ceci laisse évidemment présager de larges différences entre les différentes manières de procéder et des écarts importants entre deux établissements pour le calcul de la VaR associée à un même actif ou à un même portefeuille, et donc de la quantité de fonds propres correspondante. Nous allons donc tenter d’analyser la comparabilité éventuelle qui peut être faite de différents calculs de Value at Risk par autant de procédés et d’établissements. Même si nous nous intéressons particulièrement au cas des modèles internes, il peut être intéressant de revenir tout d’abord sur le cas de la méthode standard étudiée précédemment.
1. La méthode standard Le ratio Cooke (1988), qui ne s’intéresse qu’au risque de crédit, autorise des comparaisons entre établissements en raison d’une méthode de calcul universelle. Par ailleurs, les différences entre les pondérations utilisées par le ratio de solvabilité européen et le ratio Cooke sont négligeables. Avec le ratio d’adéquation des fonds propres (CAD) qui intègre le risque de marché, l’exercice est plus délicat, même lorsque la méthode standard est appliquée. Les méthodes utilisées varient d’un point de vue géographique. Plusieurs pays utilisent une méthode qui applique une charge en capital aux positions longues et courtes sans possibilité de compensation (« comprehensive approach »). Aux Etats-Unis, la SEC (Securities and Exchange Commission) préconise une version améliorée de cette approche qui autorise une compensation des positions à hauteur de 15%. L’Union Européenne a retenu quant à elle une technique plus fine qui prend en compte des corrélations forfaitaires entre les facteurs de risque d’une même classe (« building block approach »). Par ailleurs, la Communauté Européenne n’a pas intégralement repris à son compte les recommandations du Comité de Bâle. A titre d’exemple, la BRI recommande sept hypothèses de variation de taux, tandis que Bruxelles en a retenu seulement trois dans la méthode de la duration. De même, la transposition de la directive européenne 96/6/CEE dans les droits nationaux a donné lieu à quelques différences de traitement mineures entre les pays de la zone Euro. Enfin, les établissements assujettis ont la possibilité d’utiliser des méthodes de complexité variable selon leur degré d’équipement en logiciel de calcul. On pourrait s’attendre à ce que le régulateur encourage les établissements à mettre en oeuvre les méthodes les plus sophistiquées en fixant un niveau d’exigence de fonds propres inversement proportionnel au degré de précision de la méthode utilisée. Cependant, les simulations montrent d’une part que les écarts inter-méthodes ne sont pas négligeables et d’autre part que ces différences ne sont pas toujours à l’avantage des méthodes les plus élaborées. Les écarts induits par les différentes méthodes rendent difficiles les comparaisons des consommations de fonds propres d’un établissement à un autre, d’autant que les banques ne fournissent généralement pas d’information sur leur choix dans le cadre de la méthode standard. On peut toutefois penser que les banques qui ont une activité de marché significative retiennent les méthodes les plus élaborées.
Mémoire de fin d’études - EURIA
- 80 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché En revanche, l’évolution des exigences de fonds propres dans le temps pour un même établissement conserve son sens : les méthodes retenues sont soumises au principe de permanence.
2. Les modèles internes La disparité des résultats constatée au sein de la méthode standard est au moins aussi marquée au niveau des modèles. Une étude publiée dans le Financial Analysts Journal (Styblo-Beder, 1996), soumet un portefeuille à plusieurs calculs de VaR en modifiant la méthode, la durée de la période d’observation et le seuil de confiance.
Composition du portefeuille : US Treasury strips + contrats et options sur S&P 500. Date du calcul : 25 mai 1995.
Comparaison des calculs de VaR
Méthode Variance/Covariance Historique 100 jours Historique 250 jours Monte Carlo (historique sur 10 ans)
1 jour 0,80 0,73 1,08 1,14
99% 10 jours 2,54 1,71 2,89 8,91
1 jour 0,57 0,48 0,74 0,89
95% 10 jours 1,80 1,24 2,56 3,21
On constate que les montants calculés varient dans des proportions significatives. Les différences de résultat peuvent s’analyser de la manière suivante :
Certains écarts dépendent de l’utilisateur Le niveau de confiance fixé par l’établissement a une influence directe sur le résultat. Il est naturel qu’une élévation du seuil de 95 à 99% se traduise par un accroissement de la VaR. Le rapport annuel du groupe Commerzbank pour l’exercice 1999 indiquait des VaR respectives de 30, 38 et 42 millions d’euros pour des intervalles de confiance de 95%, 97,5% et 99%. Intuitivement, on comprend également qu’un allongement de l’horizon du risque a pour conséquence d’augmenter la VaR. Une analogie peut être faite avec l’assurance (l’exigence de fonds propres résultant de la VaR est une forme d’assurance contre le risque) : il est plus coûteux de s’assurer pour une période de dix jours que pour un jour, la probabilité de sinistre augmentant avec le temps. Dans la méthode de variance/covariance, comme on l’a vu, cet effet temps est mesuré par la formule dite du scaling, évoquée plus haut : VaR n jours = VaR 1 jour x
Mémoire de fin d’études - EURIA
n
- 81 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Dans une communication sur la VaR, il est nécessaire de fournir ces deux paramètres. Or selon un sondage portant sur l’exercice 1999 pour un échantillon de 26 établissements de crédit : l’intervalle de confiance n’est pas indiqué dans deux cas (Crédit Lyonnais et Caisse d’Epargne), la durée de détention n’est pas connue pour cinq établissements (Caisse d’Epargne, Crédit Lyonnais, Lloyds TSB, BSCH et Crédit Suisse). Lorsqu’elles sont disponibles ces informations restent assez hétérogènes, rendant les comparaisons délicates. Dans 8 cas sur 24, le seuil de confiance est différent de 99%. L’horizon du risque, quant à lui, s’étend de 1 à 10 jours. Le comité de Bâle impose, rappelons le, des valeurs respectives de 99% et 10 jours pour les modèles éligibles à la CAD.
D’autres écarts tiennent à la méthodologie Les disparités précédentes s’expliquent par le fait que les établissements sont plus ou moins conservateurs dans leur mesure du risque. Elles résultent d’une décision et sont à considérer comme normales. En revanche, les écarts relatifs aux modèles utilisés sont plus ennuyeux. Ils traduisent des différences de prévisions dans des environnements et avec des portefeuilles identiques. Comme le montre le tableau précédent, le choix de la période d’observation pour la constitution de l’historique est crucial. Pour que cette décision soit neutre, il faudrait que le comportement des marchés soit stable dans le temps, ce qui est loin d’être le cas. Selon le sondage cité plus haut, les périodes d’observation retenues par les banques vont de 1 à 5 ans. Cette simple différence est de nature à faire varier significativement le niveau de la VaR d’un établissement à l’autre. Dans l’exemple, pour un seuil de confiance de 99% et une période de détention de 10 jours, la VaR augmente de 69% lorsqu’on passe d’une période d’observation de 100 jours à une période de 250 jours. Sur ce point, le Comité de Bâle n’a pas fixé de norme précise. Il se contente d’exiger une durée minimale d’un an. Un travail de comparaison analogue a été réalisé sur la base du facteur de risque pour les positions actions. La démarche a consisté à calculer la VaR sur trois portefeuilles investis en actions américaines du 31/03/1996 au 31/03/1998 en retenant quatre facteurs de risque différents . les actions elles-même, l’indice sectoriel de chaque valeur, l’indice Standard & Poors corrigé du bêta de chaque titre, l’indice Standard & Poors.
Portefeuille 1 : Portefeuille 2 : Portefeuille 3 :
position longue bien diversifiée de 12 valeurs du S&P ; position longue de 10 valeurs concentrées dans le secteur des hautes technologies ; même composition que le premier portefeuille avec 6 positions longues et 6 positions courtes.
Mémoire de fin d’études - EURIA
- 82 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Incidence du choix du facteur de risque sur la VaR d'un portefeuille actions : Facteur de risque Actions individuelles Indice sectoriel S&P corrigé du bêta S&P
Portefeuille 1 100 93 127 91
Portefeuille 2 100 87 77 51
Portefeuille 3 100 72 22 0
Le simple choix de facteurs de risque différents peut conduire à des résultats significativement divergents, même dans le cas de portefeuilles bien diversifiés. Le deuxième aspect de la réflexion concerne la méthode en elle-même. La simulation de T. Styblo Beder laisse apparaître des divergences non négligeables entre les techniques utilisées. Il est difficile de dissocier la part des écarts due aux méthodes de celle provenant des historiques. On peut toutefois penser qu’une partie de ces disparités peut être attribuée aux hypothèses sous-jacentes aux différentes méthodes (loi de distribution des rendements, degré de stationnarité des volatilités, technique de mesure des variations de valeur du portefeuille, méthode de prise en compte des corrélations,...). Indépendamment des choix de l’utilisateur, il existe donc un risque de modèle. Le Comité de Bâle a clairement évoqué ces difficultés en imposant un coefficient multiplicateur de 3 à l’exigence de fonds propres calculée par les modèles internes. Les justifications données par le Comité sont les suivantes : la distribution des facteurs de risque dans la réalité diffère généralement des simplifications statistiques des modèles (queues épaisses et asymétrie notamment) ; nous avons déjà pu évoquer cette explication précédemment, en précisant qu’elle n’était pas la seule raison fournie du choix de ce facteur, le passé n’est pas toujours une bonne estimation de l’avenir (par exemple les volatilités et les corrélations peuvent varier brutalement), la VaR est basée sur des positions de fin de journée et ne prend pas en compte les mouvements intra-day, les modèles ne peuvent pas capturer correctement les risques provenant d’évènements exceptionnels, de nombreux modèles utilisent des méthodes simplificatrices pour valoriser les positions, notamment lorsqu’il s’agit d’instruments complexes c omme les options.
Nous pouvons finalement, dans cette section, observer que si elle est à l’heure actuelle relativement normée et réglementée, l’utilisation par les établissements de modèles internes n’en reste pas moins imprécise ou floue sous certains aspects. En effet, nous avons pu constater tout au long de cette partie que la réglementation relative aux modèles internes a grandement gagné en précision et en détails depuis les premiers pas de ce type d’outils. Cette évolution est détectable au niveau du nombre important de critères et d’exigences diverses qui conditionnent l’acceptation des modèles de type Value at Risk par la Commission Bancaire.
Mémoire de fin d’études - EURIA
- 83 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché Ainsi, nous avons pu nous rendre compte que, d’abord du point de vue quantitatif et en terme d’exigence de moyens, les établissements tenant à utiliser des modèles internes se doivent de faire preuve de bonne volonté en mettant en place un système de contrôle et de suivi fiable, intègre et surtout rigoureux. De la même manière, l’étude des différents paramètres destinés à normaliser les calculs d’un point de vue quantitatif a également montré que des efforts sont également faits à ce niveau par les autorités pour rendre les différentes mesures aussi cohérentes et fiables que possible (entre autres en corrigeant les éventuels écarts de modélisation), et également comparables d’un établissement à un autre. Cependant, si cette volonté d’obtenir un meilleur contrôle de l’utilisation de ce type d’outils ne fait aucun doute, il est également indéniable que ce contrôle demeure encore largement perfectible. Sur ce point, nous avons surtout pu souligner les insuffisances notables de la définition de certains critères d’acceptation, particulièrement quantitatifs, qu’il s’agisse d’un manque de précision dans la justification du choix de ce paramètre lui-même, ou bien d’un apparent manque d’adéquation de celui-ci à certains éléments du marché, tels que le facteur de liquidité. D’autre part, il est également notable que, malgré la définition rigoureuse qui peut être faite de ces paramètres à l’heure actuelle, il n’en est pas toujours tenu compte dans les déclarations effectives des établissements, d’où un déficit évident, sinon de transparence, du moins de comparabilité entre les montants de fonds propres à allouer par des établissements différents. Au final, force est donc de constater que, d’une part, tous les modèles utilisés ne répondent pas exactement aux attentes et aux exigences des autorités et que, d’autre part, la réglementation dont elles découlent est encore vraisemblablement amenée à subir des modifications visant à la rendre plus précise et plus à même d’exercer un contrôle efficace du calcul par modèles internes.
Mémoire de fin d’études - EURIA
- 84 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
CONCLUSION
Mémoire de fin d’études - EURIA
- 85 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
C e mémoire apporte, en fin de compte, et fidèlement aux objectifs que nous nous étions fixés à l’origine, nombre d’éclaircissements quant à l’utilisation de modèles internes de calcul d’adéquation de fonds propres sur les risques de marché. Nous avons ainsi pu, tout au long de cette étude, donner un panorama aussi large que possible des apports de ces modèles internes, ainsi que de l’évolution qu’ils ont apporté à la prise en compte des risques de marché, comparativement à la méthode standard CAD précédemment imposée à tous les établissements par les autorités de réglementation bancaire et financière. Ainsi, nous avons constaté que le mérite majeur de ce type de méthodologie, relativement récent, était d’apporter à la fois une plus grande transparence au niveau du calcul et des hypothèses sous-jacentes, ainsi qu’une meilleure adéquation, du moins en apparence, aux diverses fluctuations des marchés dans le temps. En ceci, il est bien évident qu’ils s’avèrent bien plus adaptés qu’une méthode basée sur des coefficients constants, forfaitaires, et immuables dans le temps. De même, nous avons pu voir que la réglementation concernant ces mêmes modèles internes a considérablement évolué depuis ses origines, et est dorénavant plus à même de permettre un juste contrôle des résultats calculés par ce moyen par les établissements concernés. Cependant, il est apparu également évident tout au long de ce mémoire que les avancées dans ce domaine sont loin d’être terminées et que, tant du point de vue des méthodologies ellesmêmes que de la réglementation correspondante, des innovations et améliorations sont plus que prévisibles, et paraissent même indispensables. En effet, si les apports des méthodes de type Value at Risk sont indubitables, elles ne manquent cependant pas de laisser transparaître certaines limites et certains manques. Tout d’abord, le caractère plus évolué et plus adapté aux réalités des marchés, qui apparaît clairement lorsqu’on compare les modèles internes à la méthode standard CAD, peut également d’un certain point de vue être préjudiciable à ces modèles : si une plus grande transparence est un atout non négligeable, la contrepartie en est que les faiblesses, voire les erreurs de modélisation de ces modèles, n’en sont que plus faciles à percevoir, ce qui peut en fin de compte nuire à leur popularité, par rapport au flou indiscutable de la méthode standard. D’autre part, il est également clair que, si les méthodologies de type VaR représentent une avancée dans le domaine du calcul des risques, elles ne peuvent pourtant pas être considérées comme réellement et totalement abouties. Nous avons ainsi pu constater non seulement que les hypothèses et procédés mathématiques utilisés ne peuvent toujours être considérés comme satisfaisants, mais également que l’évolution actuelle des recherches statistiques entre autres tend à apporter des améliorations aux modélisations que nous avons pu étudier ici. Enfin, nous avons également eu l’occasion de souligner que la réglementation portant sur ce domaine de la gestion des risques ne peut être exempte de critiques. Celle-ci, effectivement, laisse une liberté de mouvement non-négligeable aux utilisateurs de modèles internes, leur permettant parfois de contourner certains points du règlement. De plus, certains des paramètres définis par les autorités, et visant justement à préserver une certaine homogénéité des résultats fournis par les divers établissements assujettis, se caractérisent par un manque de
Mémoire de fin d’études - EURIA
- 86 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché justification évident et devraient vraisemblablement être amenés à faire l’objet d’une nouvelle définition ultérieure.
Au final, nous pouvons donc considérer que, même si nous répondons à la plupart des questions qui pouvaient se poser dans ce domaine, certains points demeurent encore relativement obscurs et d’autres demandent à évoluer dans un avenir plus ou moins proche. Le calcul de l’adéquation de fonds propres sur risques de marché par des méthodes de type VaR semble donc représenter une étape dans ce domaine, et non un réel aboutissement. Cependant, il semble également vraisemblable que les méthodologies plus évoluées qui seront par la suite amenées à prendre la place de ces modèles prendront également leurs racines dans des modélisations de type Value at Risk. De plus, ce type de méthodologies semble également amené à s’appliquer à un éventail plus large que celui, relativement restreint, du risque général de marché. Ainsi, un nouveau règlement est actuellement en cours d’élaboration au sein du Comité de Bâle, cette fois destiné principalement au contrôle du risque de crédit. Ce document devrait entrer en vigueur en début 2005, et il est vraisemblable que les méthodes dérivées de la VaR puissent également tenir leur place dans ce type de calcul.
Mémoire de fin d’études - EURIA
- 87 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
BIBLIOGRAPHIE
Mémoire de fin d’études - EURIA
- 88 -
La VaR et les modèles internes dans la réglementation prudentielle des risques de marché
Ouvrages et articles de référence de ce mémoire : Aubry, Belkacem, 1998. Au-delà de la VaR, une nouvelle mesure de risque en gestion de portefeuille. Analyse financière. Basle Committe on Banking Supervision , 1995. An Internal Model-Based Approach to Market Risk Capital requirements . Bâle, Suisse. Basle Committe on Banking Supervision , 1995. Amendment to the Capital accord to Incorporate Market Risks . Bâle, Suisse. Basle Committe on Banking Supervision , 1995. Supervisory Frameworks for the Use of Backtesting in Conjunction with the Internal Approach to Market Risk Capital Requirement . Bâle, Suisse. Boulier, 1998. Value at Risk. Conférence , Crédit Mutuel de Bretagne, Brest. Boulier, Brabant, Dalaud, Dieu , 1997. Risques de marché : une vue de profil . Quants n°28. Bourdon, 2001. Allocation de fonds propres sur activités de marché : modèles internes vs méthode réglementaire . Institut des Techniques de Marché, Paris. Chesnay, Jondeau, 2000. Does correlation between stock returns really increase during turbulent period ? note d’étude et de recherche, Banque de France. Clermont Tonnerre (De), 1996. Panorama des méthodes de mesure des risques de marché et étude du cas particulier des options . Mémoire de fin d’études – EURIA. Confédération Nationale du Crédit Mutuel, 1999. Règlement du CRBF n° 95-02 relatif à la surveillance prudentielle des risques de marché . Note de présentation. Danielsson, De Vries , 1997. Value at Risk and Extreme Returns . Working Paper, London School of Economics, Londres, GB. Danielsson, De Vries, Hartmann, 1998. The Cost of the Conservatism : Extreme Returns, Value at Risk, and the Basel ‘Multiplicator Factor’ . Duffie, Pan, 1997. An Overview of Value at Risk . Journal of Derivatives, Spring, 7-48. Esch, Kieffer, Lopez. Value at Risk, vers un risk management moderne . Editions De Boeck Université. Feghali, Walter , mai 2000. Value at Risk : du modèle de risque au risque de modèle . Banque Magazine. Fraichot, Leurent, mai 2000. Bons résultats, mais peut mieux faire . Banque Magazine. Häberle, Persson , 2000. Incorporating Market Liquidity Constraints in Value at Risk . Banque et Marchés n°44. th Hull. Options, Futures and Other Derivatives , 4 edition.
Mémoire de fin d’études - EURIA
- 89 -