L’hypothèse d’efficience des marchés Marches aléatoire, matingale et transmission de l’information par les prix Philippe Bernard Décembre 2003
Table des matières 1 L’ “incarnation du chahut continu”
2
1.1 Le chartisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.2 Le démon de la chance . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2 La marche aléatoire des marchés
11
2.1 La fluctuation à l’équilibre . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2 Une modélisation simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3 Marche aléatoire et gestion passive
21
4 L’hypo L’hypoth thèse èse des des marc marché hés s e fficients
26
5 Information et équilibre
26
6 Efficiences faible et semi-forte des marchés
28
6.1 Efficience faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 6.2 Efficience semi-forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 7 Inform Information ation priv privée ée et l’hypoth l’hypothèse èse d’efficience forte
37
7.1 Variances des marchés et information . . . . . . . . . . . . . . . . . . . . . 38 7.2 L’énigme de la Value Line . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 7.3 Valeur de l’information des initiés . . . . . . . . . . . . . . . . . . . . . . . 43 8 La prévisibilité des cours
48
9 La difficulté de battre le marché
58
1
Table des matières 1 L’ “incarnation du chahut continu”
2
1.1 Le chartisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
1.2 Le démon de la chance . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2 La marche aléatoire des marchés
11
2.1 La fluctuation à l’équilibre . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.2 Une modélisation simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3 Marche aléatoire et gestion passive
21
4 L’hypo L’hypoth thèse èse des des marc marché hés s e fficients
26
5 Information et équilibre
26
6 Efficiences faible et semi-forte des marchés
28
6.1 Efficience faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 6.2 Efficience semi-forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 7 Inform Information ation priv privée ée et l’hypoth l’hypothèse èse d’efficience forte
37
7.1 Variances des marchés et information . . . . . . . . . . . . . . . . . . . . . 38 7.2 L’énigme de la Value Line . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 7.3 Valeur de l’information des initiés . . . . . . . . . . . . . . . . . . . . . . . 43 8 La prévisibilité des cours
48
9 La difficulté de battre le marché
58
1
Fig. 1 Alfred Cowles
1
L’ “in “inca carn rnat ation ion du cha chah hut con contin tinu” u” Alfred Cowles (1891-1984), membre d’une riche famille patricienne de Chicago,
commença à partir de 1926 à gérer les a ff aires aires financières de la famille et s’abonna à plusieurs services de conseils en investissement. Cependant, le coût élevé de ces abonnements l’incita à mesurer la performance des services. Aussi, commença-t-il en 1928 à suivre les 24 services les plus diff usés. usés. La crise de 1929 vint mettre en di fficulté ses finances. Aucun des services financiers auquel il était abonné n’avait prévu la crise. Cette erreur résultait-elle de la malchance flet fficacité ou était-elle le re fl e t de l’ine ffi c acité de la prévision fi nancièr nancièree ? Cowles débuta sa propre
enquête en 1931. Il n’hésita pas y investir une partie de la fortune familliale pour financer une nouvelle société, l’ Econometric Econometric Society Society , laquelle se proposait de développer les méthodes mathématiques et statistiques en économie. Il entra en contact avec l’un de ses principaux animateurs, un ancien condisciple de son père à Yale, l’inévitable Irving Fisher, et fonda avec lui ce qui allait devenir l’une des principales institutions de la recherche économique : la Cowles Commission . Mais, Cowles ne se contenta pas de ce rôle de bienfaiteur, il consacra également son propre temps. Il rassembla et exploita les données qu’il avait lui même rassemblé depuis 1928. Le premier résultat de son travail fut un article en juin 1933 dans Econometrica , la revue de l’Econometric Society . L’introduction de cet article le résume : “Are prices predictable ? It is doubtful.” (A. Cowles [Cow33]) [Cow33]) Dans cet article, Alfred Cowles n’analysait pas moins de 7500 recommendations des services
financiers,
de 3300 recommendations
des services d’information financière, toutes les transactions des compagnies d’assurance, sur 4 ans (janvier 1928 - juin 1932). Pour évaluer leurs performances, Cowles estima la
2
performance boursière qu’aurait eu un investisseur suivant leurs conseils et la compara à celle d’une sélection aléatoire des titres. Selon Cowles : “les performances de l’agence de prévision moyenne ont été inférieures à la moyenne des performances qui auraient pu être obtenues uniquement par chance 1 .” ([Cow33], cité par [Ber95] p. 40) Pire, il s’attaqua à une légende du chartisme : Hamilton.
1.1
Le chartisme
William Peter Hamilton avait été de 1903 à sa mort, en 1929, le rédacteur en chef du Wall Street Journal. A ce poste, il avait succédé à l’un des deux fondateurs de ce journal, Charles Dow (1851-1902), dont il avait épousé la théorie des marchés. Dans ses éditoriaux, de la fondation du journal en 1889 à sa mort en 1902, Dow n’avait cessé d’exprimer ses idées sur la Bourse et la prévision boursière. Selon lui : “Une personne qui regarde monter la marée et qui veut savoir exactement à quel niveau arrivera la marée plante un bâton dans le sable aux points atteints par les techniques montantes, jusqu’à ce que le bâton atteigne une position où les vagues n’arrivent pas et finalement reculent suffisamment, confirmant que la marée redescend.” “Cette méthode est fiable pour observer et déterminer le flux et le reflux des marées de la Bourse [...] Les vagues des prix, comme celles de la mer, ne reculent pas d’un seul coup quand elles ont atteint leur point le plus élevé. La force qui les met en mouvement contrôle graduellement les arrivées, et il faut attendre quelque temps avant de pouvoir a ffirmer que marée a vraimment atteint son maximum.” (C. Dow dans le Wall Street Journal, 1901, cité par [Ber95] p.31) Pour Dow et pour son héritier Hamilton, les cours sont “su ffisants en eux-mêmes” pour révéler tout ce qu’il y a à savoir sur la conjoncture économique pour révéler l’évolution future de la Bourse. Le chartisme dont ils furent les pionniers ont poursuivi et approfondi ces idées. Reposant sur la conviction qu’il existe à la fois des régularités dans l’évolution des cours et que les évolutions des évolutions passées de ceux-ci sont utiles pour prédire leurs évolutions futures, il repose sur l’utilisation de diff érents outils, notamment des moyennes mobiles ( figure 2), des lignes de résistance (ou de support) ( figure 3) et de figures 1
complexes.
Mis en italiques par nous.
3
prix moyenne mobile courte
signal de vente
moyenne mobile longue
signal d'achat
temps
Fig. 2 Les signaux d’achat et de vente engendrés par la comparaison des moyennes mobiles. La comparaison de moyennes mobiles di ff érents entre elles par la longueur des retards pris en compte est un outil essentiel de l’analyse chartiste. Comme par construction les moyennes mobiles les plus courtes sont plus in fluencées par les évolutions récentes des cours, elles ont pour propriété de fluctuer autour des moyennes longues. La convergence et la divergence des di ff érentes moyennes sont alors utilisées, comme le montre la
figure
2, comme des signaux d’achat et de vente des titres. Ainsi, lorsqu’une moyenne mobile courte initialement plus basse que la moyenne longue rejoint celle-ci, ceci constitue un signal d’achat du titre : l’évolution du titre est en e ff et alors anticipée être durablement à la hausse. Par contre, lorsque la moyenne mobile redescend au nivceau de la moyenne longue, ceci constitue un signal de vente du titre puisque l’évolution de celui-ci est alors durablement anticipée être à la baisse. Les lignes de résistance et de support sont un autre moyen de dé finir des signaux d’achat et de vente. Dans le cas d’une ligne de résistance, la méthode consiste alors, comme l’illustre la figure 3, à repérer une droite passant par deux maximums locaux des cours sans être provisoirement dépassée par une séquence de cours. Le prolongement de cette droite définit pour le chartiste l’ensemble des prix contre lequel le marché doit venir butter en l’absence de fortes pressions haussières. Aussi, comme sur la figure 3, le cours tend à nouveau vers la ligne de résistance, le comportement du cours devant cette barrière 4
prix
Ligne de résistance signal d'achat
temps
Fig. 3 Le principe de la ligne de résistance (ou de support). est un test déterminant la stratégie à suivre : si le cours vient à la franchir, ceci constitue un signal d’achat pour le chartiste. Le principe de la ligne de support est le même : la ligne est simplement déterminée par deux minima locaux et doit constituer au moins localement un plancher pour les cours. Lorsque le cours vient à franchir cette ligne de support, alors ceci atteste pour chartiste de la force baissière du marché et donc constitue un signal de vente. Ls figures complexes constituent d’autres outils d’analyse. Les principales sont les M, les W, les têtes et les épaules (et sa forme inversée). Comme la figure l’illustre, lorsque les cours des actifs les définissent, elles constituent des signaux d’achat (pour le W et “la tête et les épaules” inversée) ou des signaux de vente (pour le M et la “tête et les épaules”). L’analyse chartiste rencontre plusieurs di fficultés. D’une part, la reconnaissance précise des figures complexes n’est pas nécessairement un exercice aisé. D’autre part, la multiplication des outils augmente la probabilité que les signaux soient contradictoires. En fin, l’analyse chartiste est économe en raisonnements économiques. Ceci n’a pas empêché cependant l’utilisation fréquente du chartisme sur les marchés et d’y être crédités parfois de succès. Ainsi, plus heureux qu’Irving Fisher, Hamilton eut même le bonheur d’annoncer, le 21 octobre 1929, le retournement du marché dans un éditorial intitulé “The turn in the
5
La figure du W
La figure du M signal de vente
signal d'achat
La figure de la tête et des épaules signal de vente
Fig. 4 Les figures complexes du chartisme.
6
Fig. 5 L’analyse de l’action peugeot par le chartisme (décembre 2002 - novembre 2003).
7
Fig. 6 L’analyse de l’action Total par le chartisme (décembre 2002 - novembre 2003).
8
Fig. 7 Maurice G. Kendall tide”.2 Cela n’empêcha pas Alfred Cowles de s’attaquer à la légende en s’apuyant sur l’analyse de 255 éditoriaux de Hamilton publiés entre 1903 et 1929. Selon Cowles, un investisseur qui aurait suivi les recommendations de Hamilton entre 1903 et 1929 aurait vu son capital multiplié par 19. Mais un investisseur se contentant d’acheter l’indice en 1903 aurait vu le sien multiplié deux fois plus ! Après ce premier travail, pendant plus de 20 ans, Cowles continua d’évaluer l’e fficacité de la prévision financière en en publiant les résultats [CJ37] [Cow44] [Cow60].
1.2
Le démon de la chance
L’analyse de Cowles suscita peu de réactions chez les économistes. Ce furent des statisticiens qui, de fait, poursuivirent son analyse du marché boursier. Le premier d’entre eux fut Holbrook Working (1895-1985). Ce statisticien, appartenant à un institut de recherche agronomique - le Stanford Food Research Institute - non seulement fut l’un des premiers à relever le problème de l’ “identi fication” en économétrie, mais consacra de nombreux travaux au fonctionnement des marchés à terme. Dans un des premiers travaux [Wor34], il s’attacha notamment à caractériser les comportement des prix de ces marchés. Il remarqua que si en niveaux, on pouvait repérer des
fluctuations
présentant
des tendances identifiables et répétitives, par contre, en variations, les évolutions des prix semblaient totalement aléatoires. 2
Talent ou simple chance ? En faveur de cette dernière hypothèse, on peut noter qu’Hamilton avait
commis des éditoriaux similaires en janvier 1927, juin 1928, juillet 1928.
9
Vingt ans plus tard, un autre statisticien parvint aux mêmes conclusions. Maurice G. Kendall (1907-1983) était déjà l’un des statisticiens britanniques (et donc mondiaux) les plus réputés, auteur d’un ouvrage de référence en statistique [Ken43]. En 1953, il publia un article [Ken53] résumant une analyse statistique sur plusieurs séries de cours boursiers. Il y analysait 19 groupes d’actions britanniques di ff érentes sur la période 1928-38, comprenant des entreprises financières et des entreprises industrielles (chemin de fer, brasseries, pétrole, service public), mais également des moyennes hebdomadaires du prix du blé sur les marchés de Chicago sur la période 1883-1934 (en excluant la période 1915-20), du coton à la bourse de commerce de New York de 1816 à 1951. Comme Working, Kendall fut frappé par l’absence apparente de tendance des cours : “le schéma des événements dans les séries de prix est beaucoup moins systématiques qu’on ne le croit en général” ([Ken53], cité par [Ber95] p. 100) Selon lui, la mémoire du marché boursier était au plus d’une semaine. Comme le soulignera quelques années plus tard un astrophysicien éminent, M.F.M. Osborne [Osb59], les variations des prix des actions présentaient une “forte analogie avec l’ensemble des coordonnées d’un grand nombre de molécules”. La bourse semble “l’incarnation du chahut continu” [Osb62], la prévision des prix futurs impossible. Dans son commentaire sur l’évolution des 2287 variations hebdomadaires du prix de blé, Kendall résuma ainsi les leçons de son analyse statistique : “La série ressemble à une série “vagabonde”, presque comme si une fois par semaine le démon de la chance 3 piochait au hasard [la variation du prix] dans une population symétrique de dispersion constante et l’ajoutait au prix courant pour déterminer les prix de la semaine suivante.” ([Ken53], cité par [Ber95] p. 101) Malheureusement pour Kendall, le démon de la chance ne lui fut cependant pas favorable : lorsqu’il présenta ses résultats à se collègues de la très prestigieuse Royal Statistical Society , un tumulte de désapprobation l’accueillit sans doute par qu’ “[u]n tel nihilisme
semblait frapper la science en plein coeur.” (Paul Samuelson [Sam73]) 3
Souligné par nous.
10
Fig. 8 Paul A. Samuelson
2
La marche aléatoire des marchés
2.1
La
fluctuation
à l’équilibre
Le vacarme suscité par Kendall finit par atteindre le campus du MIT sur lequel règnait Paul Anthony Samuelson (1916-). Au début des années 50, Samuelson cherchait à exploiter son savoir faire d’économiste et s’était pris de passion pour les mécanismes boursiers. Moins par nécessité que par dé fi intellectuel, pour prouver comme jadis Thalès de Milet la valeur de son capital humain, il était à la recherche d’une méthode lui permettant de réaliser rapidement de substantielles plus-values boursières. Pour mettre toutes les chances de son côté, il s’était abonné à un service financier spécialisé sur le marché du warrant “The RHM warrant and low-price stock survey”. Lorsque le tumulte suscité par les résultats de Kendall arriva jusqu’à lui, Samuelson eut la saugrenue idée de prendre le contre-pied de l’opinion courante, d’y voir le triomphe des lois économiques : “Travaille de l’autre côté de la rue ! L’impossibilité de prévoir les prix futurs à partir de prix passés et courants est le signe non pas de l’échec des lois économiques, mais du triomphe de ces lois après que la concurrence ait fait de son mieux.” (correspondance de Samuelson avec P.L. Bernstein, cité dans [Ber95] p.120) Dans plusieurs papiers, [Sam57] et surtout dans l’article The proof that properly anticipated prices fl uctuate randomly [Sam65], Samuelson proposa un cadre théorique achevant
cette réconciliation. Dans celui-ci, les agents, neutres au risque, spéculent sur les titres sans cesse. Pour évaluer les titres, des “prix fantômes” 4 sont introduits. La concurrence 4
“des prix jamais vus, sur terre ou sur mer, en dehors des bibliothèques d’économie” (P.A. Samuelson)
11
impose alors qu’à l’équilibre le pro fit espéré des spéculateurs est nul. Mais ceci impose sous certaines hypothèses une imprévisibilité des évolutions futures :
“On pourrait s’attendre à ce que les agents de marché, qui poursuivent de manière avide et intelligente leur intérêt personnel, tiennent compte des événements futurs dont il est possible de voir, en un sens probabiliste, qu’ils projettent leur ombre devant eux. (Comme on dit des événements passés qu’ils projettent leur ombre derrière eux, il est possible de dire des événements futurs qu’ils projettent leur ombre devant eux)” ([Sam65], cité par [Ber95] p. 122) Chemin faisant, Samuelson contribua à redécouvrir la contribution du théorie tragique de la théorie
financière,
Louis Bachelier (1870-1946). Mathématicien français, disciple
d’Henri Poincaré, celui-ci avait choisi pour sujet de sa thèse Théorie de la Spéculation [Bac00] [Bac64] 5 un sujet (trop) original pour un mathématicien : le fonctionnement de la Bourse. Bien avant Cowles, Working, Kendall, Bachelier eut l’intuition que la dynamique des cours boursiers étaient régis par des évolutions aléatoires imprévisibles : “Les événements passés, les événéments présents, et même les événements futurs actualisés se reflètent dans les prix de marché, mais souvent ils ne présentent aucune relation apparente avec les variations de cours [...] Des causes artificielles interviennent également : le marché réagit à lui-même et la fluctuation actuelle est une fonction non seulement des flottements antérieures, mais aussi de l’état actuel. Ces fluctuations sont déterminées par un nombre in fini de facteurs; il est donc impossible de prétendre pouvoir les prévoir mathématiquement [...] [L]a dynamique du marché ne sera jamais une science exacte.” ([Bac00], introduction) Aussi, Bachelier eut l’idée de représenter les variations des cours par des variables aléatoires identiquement et indépendamment distribuées de moyenne nulle. Cinq ans avant Einstein, Bachelier introduisit donc la notion de processus brownien dont Norbert Wiener devait donner la formalisation complète en 1923. Une conséquence de cette formalisation est qu’ “[i]l semble que le marché, la collectivité des spéculateurs, à un instant donné , ne peut croire ni en une hausse ni en une baisse du marché, puisque, pour chaque prix coté, il y aura autant d’acheteurs que de vendeurs.” 5
Aux Etats-Unis, la thèse de Bachelier fut redécouverte accidentellement au début des années 50 par
Leonard Savage. Celui-ci fit par de sa découverte à de nombreux économistes américains, dont Samuelson. La thèse de Bachelier fut traduite en américain et reproduite dans l’ouvrage [Coo64] de 500 pages publié par Paul Cootner et reprenant, en plus de la thèse de Bachelier, les textes de Cowles, de Kendall, etc...
12
Fig. 9 Louis Bachelier (1870-1946) en 1888 Bachelier introduisait ainsi l’hypothèse que les cours boursiers suivent une marche aléatoire , i.e. l’hypothèse que les évolutions futures ne peuvent être prédites sur la base
des actions passées. Dans ce cadre, comme plus tard Samuelson, Bachelier détermina l’équilibre en imposant la nullité de “l’espérance mathématique du spéculateur”. Il développa les implications de sa modélisation pour la volatilité des marchés
financiers
et pour l’évaluation des op-
tions. Bien avant Black & Scholes (et leurs prédécesseurs des années 60), Bachelier proposa en eff et un modèle d’évaluation des options qu’il testa lui-même empiriquement sur les options portant sur les bonds d’Etat de la période 1894-98. Ce modèle de valorisation oublié a été l’objet d’une réestimation récente [SW94] reproduite sur les
figures
10, 11,
12, 13.6 L’hypothèse de la marche aléatoire des cours boursiers frappe de nullité l’analyse financière
en général, l’analyse chartiste en particulier puisque comme le souligne un de
ses plus fervents supporters, B. Malkiel : “Si l’on tire toutes ses implications logiques, elle implique qu’un singe aveugle jetant des fléchettes sur les pages financières d’un journal sélectionnerait un portefeuille qui ferait aussi bien que si celui-ci avait été soigneusement sélectionné par des experts.” ([Mal96] p. 24)
7
La marche aléatoire est d’ailleurs capable de répliquer qualitativement les
figures
du
chartisme comme le démontra Harry Roberts, un statisticien de la Graduate School of Business de l’Université de Chicago, en 1959 [Rob59]. Pour montrer la super ficialité des analyses chartistes, Roberts calibra en e ff et des roulettes en adoptant les hypothèses suivantes : (i) la variation d’une période à l’autre sera en moyenne de +0.5%; (ii) deux 6
Le titre utilité est le call portant sur l’action d’une entreprise américaine Digital Equipment. Cette
entreprise fut sélectionné en raison de son absence de versement de dividendes, ce qui facilitait l’estimation. La période est l’année 1989. 7 Que le lecteur se rassure, la sélection de portefeuille a été tentée. Pour conserver le mystère, les résultats ne seront dévoilés que plus tard.
13
Fig. 10 Le modèle de Bachelier, I
Fig. 11 Le modèle de Bachelier, II
14
Fig. 12 Les erreurs de surestimation du modèle de Bachelier
Fig. 13 Les erreurs comparées des modèles de Bachelier et de Black & Scholes
15
Fig. 14 Les évolutions du Dow Jones en 1956
Fig. 15 Simulation de Roberts en variation répliquant qualitativement les cours de l’année 1956
16
Fig. 16 Simulation de Roberts en niveau répliquant qualitativement les cours de l’année 1956 tiers des variation ariationss sont sont com comprise prisess entre entre -4.5% et +5.5% +5.5% ; (iii) le niveau niveau initial, initial, 450, des simulat simulations ions était le niveau niveau contempora contemporain in de l’indice l’indice Dow Jones ; (iv) (iv) un historique historique de 52 semaines était simulé. Les résultats des simulations obtenue par Roberts illustre la capacité des marches aléatoires à engendrer des évolutions qualitativement similaires à celles observées (figures 14 et 15, évolution en niveaux reproduite sur la figure 16). Comme le montre la figure 17, l’hypothèse de marché aléatoire est également capable de reproduire les figures favorites de l’analyse chartiste, comme la tête et les épaules. Chez Samuelson comme chez Bachelier, le marché est donc représenté comme un mécanisme s’ajustant quasi-instantanément : “Quand l’agent de change appelle pour dire “vite, “vite, vite, vite!” vite !” c’est c’est ridicule. ridicule. S’il était était certain certain que l’action l’action monte, monte, elle l’aurait l’aurait déjà fait.” (correspondance de Samuelson avec P.L. Bernstein, cité par [Ber95] p. 122) Si l’économie nomie est stationn stationnaire aire : “quel “quel gain peut attendre attendre un investi investisseu sseurr qui achète achète un actif actif ? La réponse réponse [...] est ... zéro ! Ou comme comme le dit Samuels Samuelson on : “Pas “Pas de choix choix faciles, faciles, pas de gains assurés.” La rentabilité excédentaire sera nulle en moyenne et sur le long terme. Sur des marchés aussi sauvagement concurrentiels que les marchés
financiers
et les marchés de
marchandises, battre les autres joueurs avec une quelconque régularité est un véritable défi. L’impossibilité de prévoir les prix spéculatifs est la preuve que ces prix sont leurs propres propres prévisions prévisions !” ([Ber95] ([Ber95] p. 122)
17
Fig. 17 Une simulation obtenue par Roberts répliquant la tête et les épaules des chartistes
Fig. 18 Evolution des variations des cours dans la simulation obtenue par Roberts répliquant la tête et les épaules des chartistes
18
ln(pt)
ln(u)
ln(p0) temps
ln(d)
Fig. 19 Un exemple de marche aléatoire des prix - l’évolution e ff ective ective est en trait plein, l’évolution potentielle non réalisée en pointillés.
2.2 2.2
Une Un e modé modélis lisat atio ion n sim simpl ple e
Une Une modéli modélisat sation ion simple simple des idées idées de Bac Bache helie lierr (et parti partiell ellem emen entt de celles celles de SaSamuelso muelson) n) dans un cadre cadre discret discret est la suivan suivante. te. L’économ L’économie ie com compren prend d T + 1 périodes t = 0, 1,...,T .8 Le cas simple présenté, notamment l’hypothèse de neutralité au risque, n’est pas une hypothèse très restrictive. Dès lors que le marché est complet (ou tout au moins dynamiquement complet), la neutralité au risque des préférences des investisseurs peut être relâchées. En e ff et, et, dans un tel cadre, il existe un unique système de prix d’états permettant de valoriser les actifs financiers et définissant une distribution de probabilité π dite 0
probabilité corrigée du risque. C’est notamment le cas si l’on suppose que le rendement (pt+1/pt ) résumé par la variable η peut prendre deux valeurs u et d avec des probabilités π et 1
e
− π. A chaque période t, les équations de valorisation de l’action considéré et de
l’actif certain s’écrivent :
(
1 = β u . (1 + r) + β d . (1 + r)
(1)
1 = β u .u + β d .d
et donc les solutions, les prix des états, s’écrivent : β u = 8 T
(u
−
r d u r , β d = d) (1 + r) (u d) (1 + r)
−
−
−
(2)
pouvant être arbitrairement grand. En faisant T tendre vers + , et en ajoutant certaines hypo-
∞
thèses pour que les limites des valeurs soient définies, on rejoint le cadre d’horizon infini de Samuelson et Bachelier.
19
Ces deux prix définissent les variables positives suivantes 9 : 0
πu =
r u
− d > 0, π −d
0
d
=
u u
lesquelles sont des probabilités puisque : 0
0
πu + πd =
r u
−r >0 −d
(3)
−d + u−r = 1 −d u−d
La martingale des prix (éq. (??)) s’écrit alors :
π .pt u + πd .pt d = u 1+r π .pt+1 (u) + πd .pt+1 (d) = u 1+r Eπ [pt+1 ] = 1+r 0
pt
0
0
0
e
0
e
e
où Eπ [.] est l’espérance calculée à l’aide des probabilités π . 0
0
Cette dernière approche par les marchés complets illustre le fait que la théorie de Bachelier combine plusieurs éléments qu’il convient de distinguer, dont notamment les deux suivants : l’hypothèse qu’à l’équilibre le profit d’arbitrage est nul, que le prix de chaque titre est nécessairement le reflet de sa valeur pour chaque investisseur ; l’hypothèse que le processus stochastique régissant les prix est une marche aléatoire. L’abandon de l’hypothèse de la marche aléatoire, i.e. que les chocs {θt }t≥1 sont distribués de manière identique et indépendante rendraient possible la prévision de l’évolution des prix ; notamment, celle-ci pourrait être inférée de la connaissance des prix passés. Mais tant que l’absence de profit d’arbitrage à l’équilibre est préservé, l’exploitation de cette information ne peut dégager un profit : les rendements anticipés corrigés du risque seront égalisés les uns aux autres. En e ff et, comme l’a souligné Samuelson en 1965, si la martingale des prix est observée : pt =
Eπ
0
[pt+1 |I t ] 1+r
e
(4)
où I t est l’ensemble des variables sur lesquelles on peut conditionner l’espérance, l’espérance du rendement net en excès du rendement certain est nul. Le rendement net (en 9
Necessairement, si les deux actifs sont détenus à l’équilibre, aucun n’est dominé par le rendement.
Par conséquent, on ne peut avoir ni r < d < u, ni r > u > d. En conséquence, nécessairement l’équilibre impose : 0
π =
r u
− d > 0, π −d 20
0
d
=
u u
−r > 0 −d
excès du rendement certain) est en e ff et : pt+1 pt
e e −− · ¸ − e − e · ¸ − e − e rt+1 =
1
r
(5)
Par conséquent, la manipulation de (4) donne : Eπ
0
[rt+1 |I t ] = Eπ
0
pt+1 pt pt
r |I t = 0
(6)
Par itération des espérances, on a également :
∀τ > 0, E
π
[rt+τ |I t ] = Eπ
0
pt+τ pt pt
0
r |I t = 0
(7)
Cette nullité des espérances de pro fit donne une des propriétés statistiques les intéressantes : si la martingale est véri fiée à l’équilibre alors il n’y a aucune autocorrélation du rendement net. En eff et t < t :
∀
0
cov (rt , rt+1 |I t ) =
Eπ
0
[(rt
=
Eπ
0
[rt rt+1 |I t ] puisque Eπ [rt |I t ] = Eπ [rt+1 |I t ] = 0
=
Eπ
0
[rt Eπ [rt+1 |I t ] |I t ]
=
Eπ
0
[rt ×0 |I t ]
ee
0
= 0
[rt |I t ]) (rt+1
[rt+1 |I t ]) |I t ]
e− e e − e ee e e e e e Eπ
0
Eπ
0
0
0
0
0
0
0
0
0
0
0
0
Bref, sur un tel marché, la bonne performance d’un gérant de portefeuille aujourd’hui ne signale pas une bonne performance pour demain. Cette absence de corrélation (ou sa faiblesse) fut évidemment l’une des premières relations testées par les économistes. Elle a également des conséquences importantes pour les styles de gestion souhaitables des funds.
3
Marche aléatoire et gestion passive Avant même que Samuelson ne donne en 1965 sa démonstration que “des prix cor-
rectement anticipés fluctuent de manière aléatoire”, cette vision avait largement acquis le droit de citer. En eff et, elle permet de réconcilier la relative e fficacité des gestions de portefeuille passive. Tout gérant de portefeuille, professionnel ou non, a toujours le choix entre deux types de stratégie. La première, la gestion active , est une gestion dynamique, en continue du contenu du portefeuille. Sans cesse, le gérant se tient prêt à remodeler son portefeuille, en sélectionnant de nouveaux titres, en ajustant les quantités des di ff érents titres. L’intérêt d’une 21
telle méthode est évidemment de pouvoir exploiter sans cesse exploiter les nouvelles information, i.e. à la fois les informations publiques qui arrivent “sur le marché” et les informations privés que délivrent par exemple l’analyse
financière
(chartisme, analyses
fondamentalistes, etc.). La seconde grande stratégie, la gestion passive , est bien résumé par “achat-conservation”. A la diff érence de la première, on ne cherche donc pas forcément ici à exploiter sans cesse les nouvelles informations arrivant sur le marché. Un exemple d’une telle stratégie passive est la stratégie indicielle, i.e. la stratégie consistant à s’acheter un portefeuille répliquant un indice boursier (par exemple le Standard & Poor’s Index 500 ou le Bekshire Index 5000) supposé représentatif du marché boursier. Ces stratégies indicielles qui se sont progressivement développés depuis le milieu des années 70 et portent aujourd’hui approximativement sur 40% des actifs des funds, permettent donc d’assurer une performance moyenne. Un intérêt subsidiaire de telles stratégies passives est d’être économe des frais de courtage 10 . Les coûts et avantages de ces deux stratégies dépendent largement du monde dans lequel nous sommes, i.e. : un monde à la Dow-Hamilton où l’analyse financière, voire le chartisme, permet de lire l’évolution prochaine de la bourse ou un monde à la Bachelier-Cowles-Samuelson où le démon du hasard emprêche l’analyse financière d’être une méthode de sélectionplus efficace qu’un lancer de fléchettes
sur une page financière.
Si cette dernière vision est une exécrable caricature 11 , nécessairement une gestion passive ne peut que donner de très mauvais résultats. Par contre, si elle est (su ffisamment) juste, comme le soulignait dès 1962, un partisan (pondéré) de la marché aléatoire, Paul Cootner [Coo62] : “Dans un tel monde, les seules variations de prix qui peuvent avoir lieu sont celles provoquées par de nouvelles informations. Comme il n’y a aucune de penser que l’arrivée d’information n’est pas aléatoire, les variations de prix d’une action d’une période à l’autre doivent nécessairement être aussi aléatoires, statistiquement indépendants les uns des autres. Le niveau des prix des 10
En fait ceci n’est vrai que pour celui achetant le produit financier répliquant l’indice. L’institution,
elle, subit souvent des frais relativement important car, pour répliquer l’indice, il lui faut réjuster en permanence son portefeuille en fonction de l’évolution des diff érents titres. 11 Nécessairement, toute théorie du monde concret est, en eff et, nécessairement une caricature de celuici, une carte à une certaine échelle. Comme toute carte à une échelle diff érente de 1 :1, toute théorie appliquée ne peut donc (et doit) ignorer une partie de la réalité.
22
actions, sous de telles conditions, décrivent ce que les statisticiens appellent une marche aléatoire, ce que les physisciens appelent un mouvement brownien. Dans l’ordre normal des choses, les prix [...] pourront sembler décrire des cycles qui n’en sont pas. De l’observation de séries de tels prix, rien ne peut être appris sur l’avenir. Acheter une action sur la base de tels signaux, de graphiques [chartistes] ne produira donc pas de meilleurs résultats que de sélectionner en tirant à pile ou face.” ([Coo62] p. 25) Si la marche aléatoire est une “bonne” hypothèse, une gestion passive fait donc aussi bien voire même mieux. Or, empiriquement, de nombreux travaux comparant les performances relatives des gestions passives et actives ont souvent montré que la première est loin d’être le désastre attendu. Au milieu des années 60, ces recherches empiriques testant la marche aléatoire reçurent une nouvelle impulsion grâce à Eugene Fama et à ses associés. Eugene Fama (1939-) fut un des premiers économistes (avec Sharpe) à utiliser massivement la modeste puissance d’un computer, un IBM 709. Il multiplia les études empiriques, les tests de la marche aléatoire et les rassembla dans sa thèse, dans un article de 70 pages [Fam65a], et dans un résumé [Fam65b] de celui-ci paru dans The Financial Analyst Journal au titre évocateur : Random walks in stock prices . Comme Samuelson avant lui,
Fama y défendait l’idée de l’imprévisibilité des cours comme conséquence de l’e fficacité du marché : “Si de nombreux analystes ont du talent pour ce genre de choses [...] ils contribuent à la réduction des écarts entre les prix observes et les valeurs intrinsèques et font que les prix observés, en moyenne, s’ajustent “instantanément” aux variations des valeurs intrinsèques [...] Bien que ces analystes sophistiqués puissent obtenir des rentabilités relativement élevées, ils donnent naissance à un marché sur lequel l’analyse fondamentale est une procédure plutôt inutile, aussi bien pour l’analyste moyen que pour l’investisseur moyen.” ([Fam65b]) A la conférence annuelle de l’ Institutional Investor de l’hiver 1968, confronté aux gestionnaires de portefeuille et aux chartistes, Fama [Fam68] réitéra sa position avec le succès que l’on imagine, thèse qu’il résuma encore pour le congrès annuel de l’American Finance Association : “Nous soutenons qu’il n’existe aucun résultat empirique tendant à in firmer l’hypothèse [d’efficience du marché] dans sa forme faible ou semi-forte [...] et
23
Fig. 20 Eugene Fama et Michaël Jensen Tab. 1 La performance relative des funds, 1985-94 cumulé annuel S&P’s 500 Index
+281,65% +14,33%
moyenne des
+214,80% +12.15% Equity Funds source : Malkiel (1996) p. 178 que les tests de sa forme forte n’ont produit que peu de résultats allant à l’encontre de cette hypothèse (en d’autres termes, l’accès privilégié à l’information sur les prix ne semble pas être un phénomène répandu dans la communauté financière).”
([Fam70])
A la fin des années 60, la thèse de la marche aléatoire avait acquis un crédit certain grâce aux nombreuses études de Fama et de ses associés. L’une des plus cités fut réalisée par Michaël Jensen [Jen68]. Portant sur 115 fonds communs de placement (FCP) sur la période 1955-64, utilisant le modèle du MEDAF pour tenir compte du risque des di ff érents portefeuilles, cette étude concluait qu’en moyenne sur dix ans, pour un niveau de risque donné, les clients des FCP auraient pu accroître leur richesse de 15% en se contentant d’acheter et de conserver un portefeuille largement diversi fié ; or, à peine 26 des 115 FCP avaient obtenu des performances supérieures. Sur la période récente, comme le montre le tableau 1, cette relative efficacité de la gestion passive fut encore constaté. Une des expériences les plus amusantes fut celle menée par le magazine économique américain Forbes de 1967 à 1984. Intrigués par les résultats des analyses académiques, les allusions à la sélection par les fléchettes, les rédacteurs décidèrent de pratiquer celle-ci en juin 1967 ! Accrochant la page financière du New York Times du jour, ils sélectionnèrent alors un portefeuille de 28000$ ... en jetant 28 fléchettes ! Pendant 17 ans, ce portefeuille 24
fut conservé, ses résultats suivis semaine après semaine. Après 17 ans, en 1984, lorqu’il fut réalisé, ce portefeuille valait alors 131 697.61$. Son taux de rendement annuel composé de 9.5% n’avait été surpassé que par un nombre très réduit de spécialistes. Au début des années 90, le Wall Street Journal réitéra l’expérience de la sélection par
fléchettes
selon des modalités diff érentes : chaque mois, quatre experts étaient sélectionnés et leurs sélections de titres étaient opposés à quatre sélections par fléchettes. D’après B. Malkiel qui eut accès à la totalité des résultats : “Au milieu des années 90, les experts étaient légèrement en tête. Cependant si la performance des portefeuilles étaient prolongés [au delà du mois considéré], alors les fléchettes revenaient légèrement en tête. Cela signi fiet-il que le poignet est plus e fficace que le cerveau ? Peut-être pas, mais je pense que les rédacteurs du Forbes soulevaient une très bonne question lorsqu’il écrivaient : “il semble qu’une combinaison de chance et de paresse bat le cerveau.” ([Mal96] p. 179) Ces résultats sont sans doute certains des plus intéressants éléments empiriques pour la thèse de la marche aléatoire car elle seule est capable de les rationaliser : “Si des investisseurs intelligents sont constamment à la recherche des bonnes valeurs, les vendant lorsqu’ils pensent qu’elles sont sur-évaluées et les achetant lorsqu’elles sont estimées sous-évaluées, le résultat de cette action des investisseurs intelligents sera que les prix des actions seront très vite alignés sur les valeurs escomptées justi fiées par leurs perpectives. Aussi, pour l’investisseur passif, qui ne cherche pas lui-même les situations sur- ou sous-évaluées, la structure des prix sera telle que pour lui un titre en vaudra un autre. Pour cet investisseur passif , la chance sera une aussi bonne méthode de sélection qu’une autre.” (P.A. Samuelson, [Sam67], cité par [Mal96] p. 190) Ils ont également conduit le même Samuelson à adopter une vue extrême sur l’utilité des analystes financiers dans le premier numéro du prestigieux Journal of Portfolio Management :
“l’observation des faits me fait pencher vers l’hypothèse selon laquelle les gérants de portefeuille devraient pour la plupart se retirer et essayer la plomberie, enseigner le grec ou aider à la production du PNB en travaillant comme cadres commerciaux.” ([Sam74])
25
4
L’hypothèse des marchés efficients
5
Information et équilibre Fama ne se contenta pas de multiplier les études empiriques. Il donna aussi une nou-
velle dénomination : l’ hypothèse d’e ffic ience marché (Efficient Market Hypothesis, EMH), et une nouvelle présentation. Avec l’accent est moins mis sur la nature du processus stochastique du marché que sur une autre propriété : la capacité (supposée) des prix du marché à re flé ter l’information disponible : “Dans un marché efficient, la concurrence entre de nombreux investisseurs intelligents conduit à une situation où, à tout instant, les prix e ff ectifs reflètent déjà les eff ets de l’information sur les événements passés et sur les événements susceptibles d’avoir lieu dans le futur. En d’autres mots, dans un marché efficient à tout instant le prix e ff ectif du titre sera une bonne estimation de sa valeur intrinsèque.” ([Fam65b]) 12 Entre les approches antérieurs (Cootner, Samuelson, Bachelier) et celle de Fama, un glissement s’est opéré : l’information a pris le pas sur les propriétés stochastiques des prix réduites à n’être qu’une conséquence. Aussi, dans son article fondamental de 1970, E ffic ient capital markets : a review of theory and empirical work [Fam70], Fama en vint
à proposer trois formes d’e fficience : la forme “faible” selon laquelle l’information contenue dans les prix de marché passés est complètement reflétée par les prix des actifs; la forme “semi-forte” selon laquelle toutes les informations publiques sont complètement pris en compte par les prix ; 12
Ou en termes plus imagés :
“L’efficience du marché est une description de la réaction des prix aux nouvelles informations. L’arrivée d’une nouvelle information sur un marché concurrentiel peut être comparée à l’arrivée d’une côtelette d’agneau au milieu d’un banc de piranhas aff âmés, les piranhas figurant les investisseurs. Au moment où la côtelette effleure la surface de l’eau, celle-ci est soudainement agitée par les piranhas qui dévore la viande. Très rapidement cependant, celle-ci disparaît, et la surface redevient paisible. Similairement, quand une nouvelle information atteint un marché concurrentiel, celui-ci est soudainement rempli du tumulte créé par les investisseurs qui, prenant en compte la nouvelle information, vendent et achètent les titres, causant un ajustement des prix. Une fois que celui-ci est réalisé, l’information est comme un os sans viande. Aucun rongement supplémentaire ne permettra d’obtenir plus de viande, et aucune analyse supplémentaire de la nouvelle n’apportera d’information supplémentaire exploitable avec profit.” (Robert C. Higgins [Hig92])
26
Fig. 21 Eugene Fama en 1965 enfin, la forme “forte” selon laquelle toutes les informations disponibles sont pris en compte par les prix. Chacune de ces formes “cible” une forme d’analyse ou d’information : la forme “faible” si elle est véri fiée aboutit à nier en eff et toute utilité aux analyses chartistes ; la forme “semi-forte” elle aboutit à remettre en cause l’e fficacité des analyses fondamentalistes évaluant la valeur des entreprises à partir de données publiques (comptables) sur les entreprises ou (macroéconomiques) sur leurs marchés. En fin, la forme “forte” vise le problème de l’importance de l’information privilégiée. Fama lui-même avait une vue essentiellement pragmatique de ces tests : “nous devons noter que ce que nous avons appeler le modèle des marchés efficients [...] est l’hypothèse que les prix des actifs à tout instant “re flète totalement” toute l’information disponible. Alors que nous allons défendre la thèse que le modèle se comporte relativement bien par rapport aux faits, il est évidemment une hypothèse nulle extrême. Et, comme les autres hypothèses nulles extrêmes, nous ne devons pas nous attendre à la voir totalement con firmée. Les catégories forme faible, forme semi-forte et forme forte ont essentiellement pour but de nous permettre de cerner le niveau d’informationoù l’hypothèse s’eff ondre.” ([Fam70] p. 23) Dans sa recension de 1970, Fama concluait qu’il n’y avait aucun élément important allant à l’encontre des formes faible et semi-forte, et seulement des éléments limités contre la forme forte. L’élément sans doute le plus en faveur de la forme forte est l’étude de Jensen [Jen68] déjà mentionnée des performances de 115 mutual funds sur la période 1955-64. L’absence de sur-performance des gérants des funds conduisait en e ff et Jensen à conclure : 27
“Bien que les résultats n’impliquent pas que la forme forte de l’hypothèse de la martingale soit véri fiée pour tous les investisseurs et à tout moment , ils donnent des éléments particulièrement forts à l’appui de cette hypothèse. On doit en eff et réaliser que ces analystes sont extrêment bien dotés. Au surplus, ils opèrent sur des marchés d’actifs tous les jours et ont de multiples contacts dans le monde des aff aires et les milieux financiers. Aussi, le fait qu’ils n’aient été apparemment incapable de prévoir su ffisamment précisément les rendements pour compenser leurs frais d’analyse financière et leurs coûts de transaction supplémentaires est un élément de preuve étonnant en faveur de la forme forte de l’hypothèse de martingale.” ([Jen68], cité par [Fam70] p. 48) De multiples tests ont depuis permis de mieux évaluer cette forme forte. Même si elle est sans doute plus résistante que l’on ne pourrait s’y attendre, elle n’est sans doute pas la forme d’efficience la mieux véri fiée empiriquement. Cepedant, cette forme “forte” d’e ffic ience est sans aucun doute la plus intéressante théoriquement car elle pose une énigme .
Comment l’information privée qu’ont les di ff érents traders ne pourrait pas leur donner un avantage sur les agents non informés ? Fama, lui-même, ne proposait pas de modélisation théorique expliquant cette transmission de l’information par le marché. Ce ne fut que progressivement, notamment sous l’impulsion de Robert Lucas (1937-), que l’on vit se développer des modélisations expliquant cette transmission de l’information par les prix. L’exemple simple qui suit permet d’en comprendre l’intuition.
Efficiences faible et semi-forte des marchés
6 6.1
Efficience faible
Les travaux sur le chartisme avait largement remis en question la possibilité de battre le marché en se basant sur les prix passés. L’examen dans les années 50 et 60 de la profitabilité des stratégies de filtre permis de confronter l’hypothèse d’e fficience faible des marchés. Comme l’illlustre la figure 22, la technique de filtre consiste à fixer une marge de fluctuation au delà de laquelle en cas de retournement le titre est soit acheté, soit vendu. Ainsi, sur la figure 22, le point A constitue un premier retournement du marché : au point B, la hausse cumulée du marché (depuis A) est égale au filtre et donc ceci cosntitue le signal d’achat des actions. Aux points C et D, le marché se remet provisoirement à 28
Log prix E x% F D C
signal d'achat
B
signal de vente
x%
A temps
Fig. 22 Un exemple d’application de la technique du filtre. baisser. Cependant, la baisse cumulée (jusqu’au retournement à la hausse) en chacun de ces points est inférieur au filtre : aussi on continue à détenir les titres achetés en A. Par contre, le retournement initié au point E est d’une ampleur su ffisante pour entraîner l’apparition d’un signal de vente au point F. Cet exemple illustre le principe de la stratégie de filtre. Celle-ci présuppose que les évolutions des cours des actions financiers sont suffisamment
persistants. Son principal désavantage est qu’elle conduit souvent à réajuster
les portefeuilles et donc à multiplier les coûts de transaction. Les études empiriques ont souligné l’importance de ceux-ci pour la pro fitabilité de relative de la stratégie de
filtre
relativement à une stratégie passive de “buy and hold”. Ainsi, dans une étude représentative, Cootner [1962] [Coo62] opposa, sur un échantillon comprenant 45 valeurs du NYSE sur la période 1956-60 (données hebdomadaires), une gestion passive “achat-conservation” à une stratégie traquant les cours à l’aide d’une moyenne mobile (sur 40 semaines) et avec un seuil soit nul soit de 5%. 13 Les résultats 13
Cette stratégie consiste donc à comparer au début de chaque semaine la valeur atteinte par le titre
durant la semaine précédente à sa valeur moyenne (calculée à l’aide de la moyenne mobile). Si la valeur eff ective est supérieure au seuil, par exemple est supérieure de 5% à la valeur moyenne, le titre est considéré comme surévalué et donc vendu. Si la valeur est inférieure de plus de 5%, la valeur est réputée sous-évaluée et donc achetée. Grâce à cette technique (sommaire), on espère exploiter tout écart entre le prix du titre et sa valeur fondamentale, supposée résumée par cette moyenne.
29
Tab. 2 Résultats de diff érentes stratégies de sélection de titres du NYSE sur la période 1956-60 (données hebdomadaires) rendement
transactions
moyen (%)
moyennes
brut
net
achat-conservation
10
10
2
Moyenne mobile (5%)
14
11
15.2
Moyenne mobile (0 %) 12 6 source : Cootner [1962]
40.6
obtenus illustre la di fficulté sur laquelle butent les stratégies actives, l’importance des commissions de courtage (di ff érence entre le brut et le net). A la même époque, l’économiste Sidney Alexander, initialement partisan des stratégies actives, concluait ainsi une série d’articles [Ale61] [Ale64] : “Les profits importants de l’article [Ale61] doivent être remplacés par des profits plus faibles. La question se posent encore de savoir si ces mêmes profits
ne pourraient pas être le résultat d’une marché au hasard. Mais je dois
confesser que le côté amusant de ce travail a quelque peu disparu.” “Je devrais conseiller à tout lecteur que seuls les résultats pratiques intéressent, et qui n’est pas pas un courtier en bourse et doit donc payer des commissions, de se tourner vers d’autres sources pour trouver une méthode qui batte la stratégie “achat-conservation”.” ([Ale64], cité par [Ber95] p. 112) La conclusion générale des analyses des stratégies de filtre, comme celles sur les stratégies inspirées par les chartistes, est donc plutôt en faveur de l’hypothsèe de l’e fficience faible des marchés. D’autres travaux ont tenté d’évaluer cette hypothèse en évaluant le degré d’auto-corrélation des rendements et la pertinence de la marche aléatoire. Sous l’hypothèse de marche aléatoire, connaissant le rendement moyen et la variance du marché, il est possible de calculer la distribution de runs, i.e. la distribution des rendements consécutifs allant dans le même sens. Ainsi Fama [1965] [Fam65b] a compté les runs de 30 actions du Dow Jones sur des observations portant sur un, quatre, neuf et seize jours. En moyenne, le hasard devrait produire une moyenne quotidienne de 760 runs alors qu’il en observé 735. De même aux autres horizons, les nombres observées sont très proches des nombres théoriques et les diff érences étaient trop faibles pour être exploitables. Econométriquement, la mise en évidence de l’auto-corrélation passe classiquement par 30
l’estimation d’équations du type : Rt = a + bRt−T + et
(8)
L’ordre de l’auto-corrélation est donnée par la valeur de T . Dès 1965, Fama dans son étude sur 60 actions de l’indice Dow Jones a mis en évidence une auto-corrélation positive du premier ordre des rendements quotidiens pour 23 titres, auto-corrélation signi ficative pour 11 titres avec des valeurs allant de
−0.123 à 0.118 (tableau 3). L’importance de
cette auto-corrélation n’était cependant pas économiquement signi ficative puisque elle était trop faible pour être économiquement exploitable d’après Fama. Dans les années 80, ces résultats plutôt favorables à la marche aléatoire ont été attaqués notamment par Lo & MacKinley [1988] [LM88] qui sur données hebdomadaires ont mis en évidence une auto-corrélation importante pour les portefeuilles equi-pondérés. Cependant, cette auto-corrélation disparaît pour les portefeuilles pondérés. A court-terme
l’auto-corrélation des rendements est donc su ffisamment faible pour apparaître conforme à l’efficience faible.
6.2
Efficience semi-forte
L’efficience semi-forte revient à poser des restrictions sur l’ajustement des prix lorsqu’une information publique arrive sur le marché. La figure 23 illustre les deux ajustements possibles : si les marchés n’intègrent pas parfaitement l’information publique alors, comme le montre (a), après la période d’annonce la dynamique des prix continue à être influencée par l’annonce et donc ne converge que lentement vers la valeur d’équilibre ; si par contre l’information est intégrée rapidement, alors, comme le montre (b), en l’absence d’arrivée d’autres informations, le prix est ajusté à sa valeur d’équilibre dès la période d’annonce. Diff érents travaux ont donc tenté de mettre en évidence cette dynamique des prix. Un travail pionnier et classique, utilisant la technique des événements, fut celui de Fama, Fisher, Jensen & Roll [1969] [FFJR70] sur la division des actions. Leur analyse portait donc sur 940 divisions d’actions sur la période 1927-59 sur le NYSE, dont certaines avaient connu durant l’année suivant la division des titres soit une augmentation, soit une diminution des dividendes. Pour évaluer le rendement en excès des titres, le modèle du MEDAF est utilisé. La variable observée est donc le résidu cumulé du rendement en excès, i.e. le rendement non expliqué par le MEDAF. Les résultats de Fama, Fisher, Jensen & Roll [1969] étaient triples : 31
Tab. 3 L’auto-corrélation des rendements
source : Fama [1970]
32
prix
(a) ajustement partiel après l'annonce
prix
(b) ajustement complet à la période d'annonce
valeur d'équilibre après l'annonce
période d'annonce
temps
période d'annonce
temps
Fig. 23 Les deux ajustements possibles des prix à une annonce. comme le montre la figure 24, le résidu moyen cumulé du titre après la division des titres est stable, conforme en celà à l’hypothèse que l’ajustement des prix est rapide ; la croissance du prix avant la division est a priori problématique car la division est a priori neutre ; ce mouvement à la hausse est interprétée par Fama, Fisher, Jensen & Roll [1969] comme la conséquence du fait que la division est en général associé à une bonne rentabilité à venir pour les actionnaires ; la croissance du titre selon eux révèle une information inférée par le marché ; si la nouvelle anticipée par le marché est confirmée alors le titre doit continuer à augmenter alors que si elle est contredite, le titre doit baisser de manière permanente ; la désagrégation des résultats révèle que ceci est bien le cas ( figure 25). D’autres études ont appliqué la méthode des événements à d’autres marchés, d’autres titres, d’autres périodes. Les conclusions sont en général conformes à celles de Fama, Fisher, Jensen & Roll [1969]. On peut également tenter de tester économétriquement l’hypothèse d’e fficience semiforte. La difficiculté de cette approche est alors de bien identi fier les informations publiques. Le travail de Roll [1984] [Rol84] est sans doute un des meilleurs travaux ayany adopté cette approche économétrique. 33
Fig. 24 Les ajustements des prix avant et après la division des actions. (source : Fama, Fisher, Jensen & Roll [1969])
Fig. 25 Les ajustements des prix avant et après la division des actions. (source : Fama, Fisher, Jensen & Roll [1969]) 34
Les marchés de futures sur le jus d’orange aux Etats-Unis sont essentiellement échangés par la Citrus Associates du New York Cotton Exchange. Sur la période analysée (octobre 1975 - décembre 1981,), environ 9 contrats étaient échangés, dont les livraisons à deux mois, en janvier, en mars, etc... La livraison la plus distance est à 17-18 mois. Un contrat portait sur 15000$ de jus d’orange standardisé par la concentration (le “degré bix”) et des “scores” minimaux pour la couleur, la saveur et les défauts. Les contrats les plus nombreux sont pour les échéances rapprochées, i.e. les contrats des échéances supérieures à 8 mois ne représentent que 10% des contrats d’échéance de 2 à 6 mois. Les contrats les plus courts sont extrêmement volatiles : ainsi le contrat expirant 16 novembre 1977 vit son prix passer dans les 15 dernières minutes de 1.30$ à 2.20$ par livre, soit un taux de rendement annualisé de 1.8 million de % ! L’intérêt du jus d’orange pour l’hypothèse semi-forte d’e fficience découle de plusieurs propriétés de sa production aux Etats-Unis : plus de 98% de la production est produite autour d’Orlando (Floride) le temps est un des paramètres essentiels de la production ; en raison de la concentration géographique, la météo pertinente est celle de la région d’Orlando ; la météo est mesurée de manière précise et cohérente par une agence fédérale, la National Weather Service du Department of Commerce ; seule une petite partie de la production est stockée et donc l’équilibre est peu susceptible d’être a ff ectée par d’autres paramètres ; l’off re est peu susceptible d’être variable étant donné qu’il faut de 5 à 15 ans pour faire pousser un arbre. Aussi, “le jus d’orange est un bon candidat pour une étude de l’interaction entre les prix et un déterminant exogène de la valeur, la météo.” (Roll [1984] [Rol84] p. 861) Les informations les plus intéressantes communiquées par l’U.S. Weather Service sont les prévisions à 36, 24, 12 heures portant sur la température (minimum, maximum) et la pluviométrie. L’hypothèse testée par Roll [1984] est donc que : “si le marché de futures sur le jus d’orange était un mécanisme efficient de traitement de l’information, il doit incorporé toutes les prévisions météorologique à court- et à long-terme. [...] Les prix des futures doivent incorporer, par conséquent, la part prévisibile de la météo. Seule l’erreur dans les prévisions doit être corrélée avec les évolutions contemporaines des prix.” ([Rol84] p. 869) Aussi, les régressions testées sont les suivantes : ln
µ¶ A F
= a + b−2 Rt−2 + b−1 Rt−1 + b0 Rt + b1 Rt+1 + b2 Rt+2 35
Tab. 4 Rendements journaliers et erreurs de prévision du max de température b−2 b−1 b0 b1 b2 36 heures 24 heures 12 heures
0.102
-0.0558
-0.0894
-0.0600
-0.490
(1.31)
(-0.624)
(-1.00)
(-0.673)
(-5.37)
0.0374
-0.0615
0.0224
0.585
-0.379
(0.461)
(-7.50)
(0.275)
(0.714)
(-4.71)
-0.0851
-0.0905
0.00691
0.0295
-0.191
(-1.23) (0.0936) (0.398) source : Roll (1984) p.870
(-2.62)
(-1.17)
où A est la température actuelle, F la prévision, Rt le rendement journalier équipondéré des deux contrats. Le ln(A/F ) est donc une mesure de l’erreur de prévision. Les résultats obtenus sont reportés dans le tableau ??, où les valeurs entre parenthèses sont les t de Student. Les seuls paramètres statistiquement signi ficatifs sont ceux de la période t + 2 : ceci est donc en contradiction avec l’hypothèse d’e fficacité semi-forte. Cette inefficience semble résider dans l’existence des prix-limites. En e ff et, les autorités de marché imposent des limites sur les mouvements des prix avant (après) 1979 : les prix ne peuvent évolués de plus de 5 (3) cents par livre par contrat, de plus de 750 (450) $ par contrat au dessus ou au dessous de la session précédente ; quand au moins 3 contrats mensuels ont été échangés à la clôture à la limite durant 3 jours successifs, la limite est portée provisoirement à 8 (5)%; sur les trois derniers jours des contrats, la limite d’évolution des cours est porté à 10%; si la limite est atteinte durant la session, une suspension de 15 minutes de la cotation de l’ensemble des contrats est alors respectée et la limite peut alors être augmentée de 10 points. Sur la période octobre 1975 - décembre 1981, 160 sessions (10%) de l’échantillon virent les prix mordre les limites. Aussi, l’ine fficacité du marché peut être la conséquence de ces dispositions institutionnelles. Pour éliminer cet e ff et, Roll a procédé à une réestimation de ses régressions en éliminant les 160 mouvements contraints. Comme le montre le tableau ??, il n’existe plus de relations signi ficatives entre les erreurs de prévision et les rendements futurs : “Ceci indique que la signi ficativité des coefficients décalés trouvés dans le ?? était la conséquence des règles de prix limites et non à d’autres sources d’e fficience infiormationnelle.” ([Rol84] p. 872) En l’absence de ces contraintes de microstructure, l’hypothèse d’e fficience informationnelle semi-forte est en général vérifiée. 36
Tab. 5 Rendements journaliers et erreurs de prévision du max de température avec correction des sessions contraintes b−2 b−1 36 heures 24 heures 12 heures
7
b0
b1
b2
0.0692
0.0671
-0.102
0.0449
-0.0341
(1.46)
(1.25)
(-2.31)
(1.01)
(-0.686)
0.0654
-0.00721
0.111
0.0234
-0.0545
(1.48)
(-1.65)
(-2.74)
(0.570)
(-1.33)
0.0518
0.0196
-0.0121
0.0482
-0.0368
(0.495) (-0.327) (1.30) source : Roll (1984) p.870
(-0.987)
(1.30)
Information privée et l’hypothèse d’efficience forte L’hypothèse d’efficience forte est l’hypothèse la plus audacieuse. Même les partisans
de l’efficience des marchés comme Eugène Fama ne pense naturellement pas qu’elle soit exactement vérifiée mais qu’elle constitue un benchmark par rapport auquel on peut
évaluer l’efficience des marchés.14 Tester l’hypothèse forte de l’e fficience pose de multiples problèmes. Le premier d’entre eux est évidemment celui de la mesure de l’information privée. Dans la littérature, essentiellement deux types d’information ont été indirectement évalués : celles des analystes financiers et celle des initiés, notamment des dirigeants et des actionnaires importants des
entreprises. Dans les deux cas, l’information est appréhendée via la mesure des performances ex post obtenues. Pour évaluer ces performances, il est nécessaire de les corriger du risque encouru. Aussi, l’évaluation de la performance en excès conduit à utiliser un modèle d’évaluation. Ceci est à l’origine du second problème de cette littérature : le test de l’efficience forte de l’efficience est nécessairement un test joint du modèle d’évaluation utilisé et de l’hypothèse d’e fficience. Si le test est négatif, logiquement soit le modèle soit l’hypothèse rejetée. Aussi, dès lors que le test est un test joint, se pose alors un problème d’interprétation des résultats. Les premiers tests de l’hypothèse de l’e fficience forte furent réalisées avec le modèle du MEDAF au cours de la seconde moitié des années 70. Ainsi, le travail pionnier sur l’information des initiés fut celui de Jaffe [1974] [Jaf74]. Ses résultats, obtenus avec le MEDAF, rejetaient l’hypothèse d’e fficience forte : selon lui, les 14
“One would not expect such an extreme model to be an exact description of the world, and it is
probably best viewed as a benchmark against which the importance of deviations from market e fficiency can be judged.” ([Fam70] p. 414)
37
marchés ne réagissaient que lentement aux informations publiques, et donc les outsiders pouvaient exploiter leur information même huit mois après que l’information soit devenue publique. Ces premiers résultats furent critiqués notamment par Seyhun [1986] [Sey86] : dans l’étude de Jaffe, en eff et les profits en excès viennent essentiellement des petites capitalisations ; or, le CAPM, à la diff érence d’(autres modèles de valorisation, est un outil peu efficace pour rendre compte de la valeur de ces titres. Le résultat de Jaffe [1974] peut donc apparaître beaucoup plus un résultat défavorable au MEDAF plus qu’à l’hypothèse d’efficience forte. Aussi, à la suite notamment du propre travail de Seyhun [1986], la remise en cause du CAPM conduisit donc montée du scepticisme sur la valeur du CAPM, cela conduisit à de nouveaux travaux recourant à des modèles d’évaluation factoriels et à des méthodes économétriques plus sophistiquées. Ces e ff orts de raffinement étant toujours un thème de recherche, il est équitable de conclure que si l’hypothèse d’efficience
forte a souvent été rejetée, les gains que l’information privée permet d’atteindre
apparaissent de plus en plus limités. La question de l’efficience forte pose évidemment le problème de l’importance de l’information privée sur les marchés. Diff érents travaux ont tenté de mettre en évidence l’importance de celle-ci, dont l’un des plus célèbres est celui de French & Roll [1986] [FR86].
7.1
Variances des marchés et information
Le point de départ de l’étude de French & Roll [1986] est l’observation que sur la période 1963-82 sur les actions ordinaires du NYSE et de l’AMEX listés par le CRSP, la variance des rendements des actions durant les périodes où les marchés sont ouverts est de 13 à 100 fois plus élevée que pendant les périodes où les marchés sont fermés (weekends, vacances). En eff et, les résultats (reportés dans le tableau 6) montre que les variances des périodes de congés, des weekends, ne sont généralement que “légèrement” supérieures à celle des jours d’ouverture. En supposant que la durée d’ouverture du marché est de six heures en moyenne et que l’auto-corrélation est négligeable (pour l’horizon retenu), ces diff érentes variances permettent d’obtenir la variance horaire du marché lorsqu’il est ouvert et sa variance lorsqu’il est fermé. En e ff et, sous ces hypothèses, la variance du weekend (comprenant le vendredi) devrait être : σ2w = 66σ2N + 6σ2N
38
Tab. 6 Ratios des volatilités à la variance des jours d’ouverture quintile quintile toutes les 2 3 4 le plus le plus actions petit important congés (2 jours) weekends congés et weekends
1.247
1.301
1.199 1.239 1.217
1.281
1.107
1.122
1.108 1.119 1.105
1.082
1.117
1.111
1.122 1.099 1.122
1.130
source : French & Roll (1986) p. 7 alors que celle d’un jour de semaine devrait être : σ2j = 18σ2N + 6σ2T Comme la variance du weekend est égale à 1.107 fois celle d’un jour habituel, alors la variance
¡
66σ2N + 6σ2T = 1.107 18σ2N + 6σ2T
¢
où σ2T est la variance horaire des heures d’ouverture, σ2N la variance horaire des heures où les marchés sont fermés. En résolvant, on trouve que la variance des heures ouvertes σ2T vérifie : 66 1.107 × 18 2 σ (1.107 1) × 6 N = 71. 766σ2N
σ2T =
−
−
De même, lorsque l’on applique la même méthode aux congés en milieu de semaine, on trouve; σ2T = 13.2σ2N ou pour les ponts : σ2T = 99.6σ2N Trois facteurs peuvent a priori expliquées cette di ff érence de variances : une diff érence dans la fréquence d’arrivée d’informations publiques ; l’arrivée de l’information privée et son exploitation durant les périodes d’ouverture des marchés ; 39
enfin, la plus grande variance peut être la conséquence des erreurs de pricing engendrés au cours des périodes de cotation. L’analyse des données empiriques, notamment de la variance des rendements des jours fériés, a conduit French & Roll [1986] à rejeter l’hypothèse de l’information privée. Pour départager les deux dernières hypothèses, l’autocorrélation des rendements a été étudiée : en eff et, les erreurs de pricing doivent, en raison des corrections qu’elles entraînent, se traduire par une auto-corrélation négative des rendements. De fait, les résultats économétriques font apparaître celle-ci mais elle est relativement faible. Aussi, l’estimation de French & Roll [1986] était que l’erreur de pricing n’expliquerait selon l’horizon retenu (la journée, la semaine, etc...) que de 4 à 12% de la variance. Ceci suggère évidemment que l’information privée est le facteur dominant de la di ff érence de variance observée. Anecdotiquement, de fait, durant la seconde moitié de 1968, les marchés boursiers durent fréquemment fermés le mercredi pour permettre aux courtiers et autres intervenants de solder complètement leur arriéré de travail administratif. Or, en conformité avec l’hypothèse de l’information privée, la volatilité des marchés se révéla très inférieure à la moyenne de la période 1963-82. Au total, donc le travail de French & Roll [1986] illustre l’importance potentielle de l’information privée pour l’animation des marchés financiers. Evidemment, au-delà du volume des transactions, l’information privée pose le problème du rendement en excès qu’elle confère.
7.2
L’énigme de la Value Line
L’un des premiers cas d’inefficience informationnelle forte portée à l’attention des économistes fut celui de la Value Line. La Value Line est sans doute une des plus importantes publications
financières
du
monde. Elle emploie plus de 200 employés et analyse plus de 1700 actions. Sa méthode consiste à ranger celles-ci toutes les semaines à l’aide d’un score de 1 à 5. Les actions appartenant à la classe 1 sont supposés être les actions les plus prometteuses pour les 12 mois à venir, les actions appartenant à la classe 5 à la catgorie la pire. Black [1973] [Bla73], dont le titre évocateur est “Yes, Virginia, there is hope : tests of the value line ranking system”, fut la première étude analysant la performance du classement de la value line. Utilisant le MEDAF pour corriger le rendement du risque, conformément à la méthode proposée par Jensen [1969] [Jen69], il évalua le rendement en excès d’un portefeuille long en actifs de la catégorie1, court en actif de la catégorie 40
Fig. 26 Les rendements cumulés de la Value Line, novembre 1965 - février 1978. (source : Copeland & Mayers [1982]) 5 à près de 20%!15 Après cette première étude célèbre de la Value Line, divers auteurs reprirent cette analyse en modi fiant les méthodes d’évaluation des rendements. Ainsi, Copeland & Mayers [1982] [CM82] analysèrent les performances de la Value Line sur la période allant de novembre 1965 à février 1978 ( figure 26). Utilisant le CAPM, ils ré-estimèrent les rendements en excès de la Value Line sur la période considérée. Comme auparavant Black, le MEDAF se révéla incapable d’expliquer (totalement) les variations du rendement en excès des di ff érentes catégories comme l’atteste les α non nuls du tableau 7. Les rendements en excès et le cumul du rendement en excès furent donc calculés en conséquence et sont reportés dans le tableau 8 et représentés sur la figure 27. Outre l’existence des rendements en excès, l’analyse de Copeland & Mayers [1982] mis en évidence : des valeurs des rendements en excès sensiblement inférieures à celles de Black ... ... qui découlent essentiellement des ventes des actifs de la catégorie 5 ; le gain au demeurant apparaît faible au point d’être annuler par un coût de transaction de 1%; cependant certaines stratégies peuvent dégager des profits nets, notamment celles consistant à allonger la période de détention à 6 mois en révisant à l’issue de la période en rachetant des actifs de la catégorie 1 et en vendant les 15
Les portefeuilles utilisés par Black étaient équi-pondérés et ré-équilibrés tous les mois.
41
Tab. 7 Benchmarks des diff érentes catégories 1 2 3 4 5 26 semaines α
0.000
0.0002
-0.000
-0.0003 -0.0007
β
1.0426
0.9552
0.8870
0.8815
1.0032
52 semaines α
-0.0003 -0.0001 -0.0001 -0.0002 -0.0007
β
1.0209 0.9472 0.8779 0.8778 1.0039 source : Copeland & Mayers (1982) p. 299
Tab. 8 Rendements en excès des di ff érentes catégories 1 2 3 4 5 26 semaines ACR
0.0152 0.0112 -0.0021 -0.0107 -0.0297
AR
0.0006 0.0004 -0.0001 -0.0004 -0.0011
52 semaines ACR
0.0033 0.0035 -0.0057 -0.0112 -0.0305
AR 0.0001 0.0001 -0.0002 -0.0004 -0.0012 source : Copeland & Mayers (1982) p. 301
Fig. 27 Les rendements en excès de la Value Line, novembre 1965 - février 1978. (source : Copeland & Mayers [1982]) 42
actifs de la catégorie 5. L’analyse de Stickel [1985] [Sti85] compléta cette analyse en utilisant la technique des événements. Son analyse mis en évidence que : la Value Line possèdait une information dont le marché ne disposait pas (e ff et d’annonce); les ajustements de prix prennaient en moyenne trois jours et étaient permanents ; les eff ets étaient importants essentiellement pour les petites capitalisations ; selon ses résultats, le passage du groupe 2 au groupe 1 est associé à un rendement supplémentaire au bout de 3 jours de 5.18% pour les plus petites capitalisations alors que le gain est de 0.7% pour les plus petites importantes capitalisations. Comme souvent dans la littérature, l’analyse des sources des ine fficiences conduit donc à cerner une catégorie de titres extrêmement spéci fique par leurs risques, leurs liquidités et leurs coûts de transaction.16 L’analyse financière apparaît donc pour certains titres susceptibles d’engendrer des rendements en excès positifs (mais relativement faibles). Ces résultats de la Value Line ne sont pas uniques. Liu, Smith & Syed [1990] [LSS90] ont trouvé des résultas similaires à Stickel [1985] portant sur les conseils de placement (et le rating) du Wall Street Journal.
7.3
Valeur de l’information des initiés
Le second cas important d’information privée analysé dans la littérature est celui des initiés. Aux Etats-Unis, depuis le Security and Exchange Act de 1934, renforcé par l’Insider Trading Sanctions Act de 1984 et l’Insider Trading and Securities Fraud Enforcement Act de 1988, les “corporate insiders” doivent dans un délai de 10 jours reporter à la SEC toute transaction portant sur les titres des entreprises dont ils sont les insiders. Parmi les Insiders les dispositions légales mentionnent les membres des conseils des directeurs ainsi que les actionnaires contrôlant plus de 10% du capital. Ces formulaires déposées à la SEC constituent une source d’information considérable (et rarement égalée dans les autres pays) sur lesquels diff érents études ont tenté d’évaluer les rendements en excès des initiés ou des transactions coïncidant à des transactions d’initiés. Dans cette littérature, outre le travail pionnier de Jaffe [1974] [Jaf74] déjà mentionné, sans doute le travail le plus de référence est celui de Seyhun [1986] [Sey86]. Son point de départ était de souligner certaines faiblesses des études antérieures : 16
Selon Hulbert [1990] (cité par Fama [1991] [Fam91]), au cours des années 80, ces gains de rende-
ment de la Value Line seraient devenus encore plus faibles.
43
Tab. 9 Transactions privilégiées selon les entreprises capitalisation des entreprises < 25 M$ 25 < < 50 50 < < 250 250 < < 1000 < 1000 toutes nombre d’entreprises valeurs des transactions nombre des transactions achats / ventes
104
68
173
267
157
769
152
182
1287
2990
6490
11 101
4141
3010
10552
23267
16178
59148
0.59
0.70
2.09
1.27 0.79 0.57 source : Seyhun (1986) p. 191
Tab. 10 Transactions privilégiées selon les types d’insiders officersPt. du bureau actionnaires officers directors directors des directeurs importants valeurs des transactions nombre des transactions
tous
806
1889
571
408
7427
11 101
21913
17486
6520
3400
9829
59148
source : Seyhun (1986) p. 191 l’estimation des rendements par excès par le CAPM néglige le facteur de rendement que constitue l’importance de la capitalisation [Ban81], [Rei81] ; les périodes où les transactions des insiders deviennent publiques sont difficiles à déterminer et sont généralement confondues avec celles des transactions; les relations entre les profits des insiders et la taille du spread sont peu étudiés alors qu’elles constituent un élément crucial des théories ( Glosten & Milgrom [1985] [GM85]) Les données exhaustives de Seyhun [1986] proviennent essentiellement de la SEC et comprennent environ 1.5 million de transactions réalisées entre 1973 et 1981. Après élimination des entreprises sur lesquelles on disposait de peu d’information, l’éhantillon
final
comprenait 769 entreprises. 58% des transactions d’initiés avaient lieu dans les entreprises les plus importantes ; les agents réalisant le plus fréquemment de telles transactions sont dans l’ordre les officers, les directeurs puis les actionnaires importants. Sur les ventes et les achats, les insiders réalisaient des rendements en excès positifs 44
Tab. 11 Rendements par excès cumulés des transactions des insiders, 1975-1981 période total achats ventes -100 / 0 -20 / 0 1 / 20 1 / 100 101 / 300 1 / 300
-2.3
-1.4
2.5
(-3.3)
(-2.1)
(4.0)
-1.3
-0.7
1.7
(-4.8)
(-2.4)
(6.2)
1.0
1.1
-0.9
(3.7)
(3.8)
(-3.3)
2.3
3.0
-1.7
(3.7)
(4.4)
(-2.7)
0.8
1.3
-0.5
(0.9)
(1.4)
(-0.6)
3.1
4.3
-2.2
(2.8) (3.7) (-2.0) source : Seyhun (1986) p. 198
et statistiquement signi ficatifs : à un horizon de 100 jours (par rapport au jour de transaction) la hausse est de 3.0% pour les achats, la baisse de 1.7% pour les ventes ; sur les 100 jours antérieurs, les évolutions sont inverses : les insiders apparaissent donc jouer des stratégies à contre. Par rapport aux résultats antérieurs ([Jaf74] notamment), les rendements en excès de Seyhun apparaissent modestes mais ils sont robustes aux benchmarks utilisés. Cependant, si le CAPM est utilisé, le rendement par excès augmente de manière significative (de 3.1 à 4.3% à un horizon de 300 jours). Le rendement par excès est décroissant de la taille de l’entreprise puisqu’à un horizon de 50 jours, le rendement en excès cumulé passait de 4.5% à 0.9% lorsque la taille de l’entreprise passait de moins de 25M$ àçn plus de 1 MM$. Si l’on analyse les rendements en excès en fonction du type de l’initié (o fficers, directors, officer-directors, chairmen of the board of directors, large shareholders), en moyenne les transactions des officers-directors sont plus informatives que les transactions des o fficers, les diff érences entre les transactions des types étant statistiquement signi ficatives au seuil de 5%. Par contre le volume des transactions n’a ff ecte pas le rendement en excès - ce qui contredit l’interprétation “informationnelle”. Cependant, lorsque les transactions sont importantes, la part des actionnaires importants est généralement également importante. Or, les actionnaires importants réalisent des transactions dégageant un rendement en excès faible voire nul. Les conclusions tirés par Seyhun étaient que : 45
Tab. 12 Rendements par excès cumulés des transactions des insiders, 1975-1981 publication réception période dans l’O ffic ial par la SEC Summary
1 / 20 1 / 50 1 / 100 1 / 300
0.5
0.3
(3.2)
(1.9)
0.8
0.7
(3.5)
(2.4)
1.4
1.2
(4.3)
(3.0)
1.9
1.1
(3.4) (1.7) source : Seyhun (1986) p. 208
l’information des insiders découle de leur implication dans la direction de l’entreprise ; la relation décroissante entre le rendement en excès et la taille est robuste; la part la plus importante des surprofits est réalisée sur les petites entreprises ; les insiders semblent déterminer le volume de leurs échanges en fonction de la qualité de leurs informations. Les résultats de la littérature sur les transactions des initiés semblent contredire l’hypothèse d’efficience ; cependant, la plupart des études empiriques font comme si l’information sur les transactions des insiders était disponible immédiatement. En fait, l’information contenu dans l’O ffic ial Summary (de la SEC) n’apparaît que 90 jours après pour 31% des transactions, 60 jours après dans 84% des transactions. Après recalage des rendements par excès sur la date de parution dans l’ O ffic ial Summary , les rendements en excès calculés par Seyhun devenaient encore plus faibles (de l’ordre de 1.1% à un horizon de 300 jours). Ainsi, la révélation de l’existence de transactions initiés semble conduire à une correction des rendements en excès des initiés, correction cohérente avec le fait que les marchés incorporent ce résultat et donc par là même, prive les initiés d’une partie substantielle de leurs avantages informationnels initiaux. Aussi même si l’analyse de Seyhun révèlait l’existence de rendements en excès, la faiblesse de ceux-ci et leurs localisations conduisait Seyhun à conclure dans les termes qui suivent :
46
Fig. 28 “Net of these trading costs, abnormal returns to outsiders following either the reporting day or the pub 2lication day are non-positive. [...] More selective trading rules also reveal no signi ficantly positive abnormal pro fits to ousiders net of the trading costs. This evidence is consistent with market e fficiency.” ([Sey86] p. 210) Récemment d’autres travaux ont revisités ce travail de référence à l’aide de nouvelles méthodes économétriques. Parmi eux figure la contribution de Eckbo & Smith [1998] [ES98]. Portant sur 18 000 échanges d’initiés sur l’Oslo Stock Exchange de janvier 1985 à décembre 1992, ce travail évalue les rendements en excès à l’aide d’une analyse factorielle sophistiquée. Les estimations des α de Jensen (contraints ou non), i.e. des rendements en excès, donnent des coe fficients de Jensen faibles et dont un seul est statistiquement significatifs au seuil de 5%. Comme on le voit donc, l’hypothèse d’e fficience forte n’est naturellement pas con firmée : l’information des analystes financiers ou des initiés leur permet de réaliser une surperformance. Cependant, l’ampleur de cette dernière semble limitée et transitoire. Aussi, même si la notion d’e fficience forte est statistiquement rejetée, elle demeure une référence incontournable pour évaluer les performances des agents et des méthodes d’analyse.
47
8
La prévisibilité des cours Le développement des notions de marche au hasard et d’e fficience des marchés s’étaient
réalisées au cours des années 60 et 70 dans un cadre financier dont l’horizon était court, i.e. inférieur à un an. Les résultats classiques alors obtenus étaient que l’auto-corrélation des rendements étaient à court-terme faible. Ainsi, Fama [1970] [Fam70] reportait les résultats du tableau 3 (page 32) pour un ensemble de 30 actions dont les rendements étaient successivement calculés sur 1 jour, 4 jours, 9 jours, 16 jours. Les nombres accompagnés d’une étoile sont les coefficients dont la valeur est di ff érente de 0 de plus de deux écarts-types.17 Comme on peut le remarquer, le nombre des coe fficients statistiquement diff érents de 0 est de 11 si la période est la journée, puis respectivement de 5, 2 et 1 si elle est de 4, 9 et 16 jours. Lorsque la période est de 1 jour, seuls 3 coe fficients sont à la fois statistiquement signi ficatifs et ont une valeur absolue supérieure à 1. Au maximum, lorsque la durée est de 4 jours, ce nombre atteint 5 (sur 30 titres) et au total, sur 120 coefficients calculés seuls 11 véri fient ces mêmes conditions. Aussi, les résultats de la littérature des années 60, 70 étaient généralement interprétés comme confortant pour l’essentiel la thèse sinon d’une marche aléatoire exacte, du moins d’un comportement très proche de cette référence. Cependant à partir du milieu des années 80, notamment sous l’impulsion de travaux de Lawrence Summers (suivis par ceux des inévitables Fama & French) l’attention se porta des rendements de court-terme à ceux de long-terme (de 1 à 10 ans disons). Sur la période 1926-1998, le rendement excédentaire des actions (relativement au rendement moyen des T-bills du Trésor américain) est de l’ordre de 8%. Certains économistes comme Jeremy Siegel, en ont tiré argument pour prôner la supériorité à l’horizon d’une ou de deux décennies (l’horizon de décision d’un ménage commençant à épargner vers 35 ans) de portefeuilles en actions. Cependant, même si l’on admet que la distribution des rendements des actions est stationnaire et identique de période à période, la performance historique des actions doit être relativisée. En e ff et, le rendement historique ne correspond pas nécessairement au rendement espéré. En supposant que sa distribution est normale, et que son écart-type annuel (noté σ) est égal à son écart-type historique, 17% annuellement sur le marché américain, alors l’écart-type du rendement annualisé sur T périodes, σ(T ), est décroissant de T : σ(T ) =
√ σ
T En supposant que la distribution est normale (et identique de période à période), alors 17
Et donc ces coefficients seraient significatifs au seuil de 5% si la distribution était normale.
48
Tab. 13 Ecart-type du rendement espéré en fonction de l’horizon fourchette des
√
horizon σ/ T (%)
rendements excédentaires (seuil de 5%)
5
7.6
[0.4, 15.6]
10
5.4
[2.6, 13.4]
25
3.8
[4.2, 11.8]
50 2.4 [5.6, 10.4] source : Cochrane [1997] Where is the market going ? l’intervalle de valeur centré autour de la valeur historique annuelle R auquel au seuil de 5% appartient le rendement théorique R(T ) sur T périodes est : Pr [R(T )
∈ [R − α, R + α]] ≥ 0.95 ⇒ α ≥ 2σ(T )
Comme σ(T ) est décroissant de T , la plage des valeurs possibles des rendements théoriques possibles est d’autant plus réduite que T est grand. Cependant comme le montre les calculs du tableau 13, la volatilité est telle que l’information que donne le rendement historique est faible : à un horizon de 5 ans, au seuil de con fiance de 5%, la fourchette du rendement que l’on peut obtenir est [0.4, 15.6] ; à 10 ans, cette fourchette est encore de plus de 10 points ([2.6, 13.4]) ; à 50 ans, le rendement moyen que l’on peut obtenir va de 5.6 à 10.4%. Ces résultats élémentaires soulignent donc la limite de l’argument de Siegel. Du moins si l’on retient l’hypothèse d’une distribution identique et indépendante. Aussi n’est-il pas surprenant que l’on se soit interrogé sur la possibilité qu’à long-terme les rendements des actifs financiers subissent des forces de rappel qui limitent fortement l’incertitude sur le rendement à attendre. Pour mettre en évidence ces mécanismes de correction, de mean-reverting , plusieurs techniques furent utilisées. La plus simple consiste simple à comparer les variances des rendements à court-terme (disons 1 an) aux rendements de moyen-terme (par exemple 5 ans) et de long-terme (10 ou 15 ans par exemple). Si les rendements suivaient une marche au harsard alors les variances à 10 ans, 15 ans devraient être simplement égales à 10 fois,
49
15 fois la variance de court-terme. Plus généralement les ratios de variance : σ2 (RT ) RV (t, T ) = T 2 σ (Rt) t où t est l’horizon de court-terme, T celui de long terme, T/t étant donc le nombre de courte-période composant la longue période. Si le rendement suit une marche aléatoire alors nécessairement RV (t, T ) = 1. Si par contre il subit un processus de correction le ramenant, en l’absence de choc à sa valeur de long-terme, alors RV (t, T ) < 1. Si par contre la dynamique des rendements est cumulative, un choc à la période t se répercutant sur les rendements futurs en s’ampli fiant alors RV (t, T ) > 1. Cette dynamique cumulative (momentum ) caractérise la dynamique de certains types d’actifs financiers à court-terme, notamment les petites capitalisations. 18 Cependant lorsque l’horizon dépasse l’année, la dynamique cumulative semble laisser place à des mécanismes de correction. L’une des premières études qui mis en évidence ce changement de structure fut celui de Poterba & Summers [1988] [PS88] où pour des valeurs du NYSE sur la période 1926-1985, l’auto-corrélation positive constatée pour des horizons inférieurs à l’année laisse place à de l’auto-corrélation négative à des horizons supérieurs (de 2 à 8 ans). Ces résultats confirmaient les résultats de l’étude économétrique de Fama & French [1988] [FF88]) obtenus sur un échantillon plus important. Le point de départ de la littérature est d’envisager que les prix (en log) des actifs sont déterminés par deux composantes : p(t) = q (t) + z(t) où : q t est la composante indépendante, i.e. la marche aléatoire autour d’un trend : q (t) = q (t
− 1) + µ + η(t)
avec µ est la dérive anticipée, η(t) est le bruit blanc; zt est la composante suivant le mécanisme de correction z(t) = φz(t
− 1) + ε(t)
où ε(t) est un bruit blanc, φ est légèrement inférieur à 1. 18
Lo & MacKinlay [1988] [LM88] ont ainsi repris les analyses antérieures de Fama des variances des
rendements à court-terme (2, 4, 8 et 16 semaines) sur la période 1962-1985 et pour le NYSE et l’AMEX. ont évalué et pour diff érentes catégories de titres. Les petites capitalisations y sont caractérisées par une auto-corrélation positive marquée.
50
A un horizon T , les rendements sont alors donnés par : r(t, t + T ) = p(t + T ) =
− p(t) [q (t + T ) − q (t)] + [z(t + T ) − z(t)]
Le coefficient d’auto-corrélation d’ordre T entre z(t +T ) z(t) et z(t) z(t T ) est donc :
− − − cov [z(t + T ) − z(t), z(t) − z(t − T )] ρ(T ) = σ [z(t + T ) − z(t)] 2
La covariance s’écrit : cov [z(t + T )
2
− z(t), z(t) − z(t − T )] = −σ (z) + 2cov(z(t + T ), z(t)) − cov(z(t), z(t + 2T ))
Si z(t) est stationnaire alors les covariances doivent approcher asymptotiquement 0 lorsque T
→ +∞.
Au dénominateur : σ2 [z(t + T )
2
− z(t)] = 2σ (z) − 2cov(z(r + T ), z(t))
et donc approche 2σ2(z) asymptotiquement. Par conséquent si z(t) est stationnaire alors asymptotiquement le coe fficient ρ(T ) doit approcher asymptotiquement suit un processus AR(1) alors : Et
[z(t + T )
−0.5. Lorsque z
T
− z(t)] = (φ − 1)z(t)
et la covariance s’écrit : cov [z(t + T )
− z(t), z(t) − z(t − T )]
= = =
2
−σ (z) + 2cov(z(t + T ), z(t)) − cov(z(t), z(t + 2T )) σ (z)(−1 + 2φ − φ ) σ (z)(1 − φ ) T
2
2T
T 2
2
Par conséquent si φ est proche de 1, alors lorsque T est proche de 0, la covariance est proche de 0 et elle approche lentement
−0.5.
Si l’on note β (T ) la droite de régression de r(t, t + T ) sur r(t, t T ), si les composantes
−
aléatoires et stationnaires ne sont pas corrélées alors : cov(r(t, t + T ), r(t T, t)) σ2 (r(t T, t)) ρ(T )σ2 (z(t + T ) z(t)) = 2 σ (z(t + T ) z(t)) + σ2(q (t + T
β (T ) =
−
−
51
−
−
− q (t))
Si la composante z(t) est inexistente, et donc si le rendement suit uniquement la marche aléatoire, alors : ρ(T ) = 0 = β (T ) = 0 Par contre si le prix ne possède aucune composante aléatoire alors β (T ) = ρ(T ) et donc approche
−0.5 asymptotiquement : lim
T →+∞
β (T ) =
−0.5
Ces résultats permettent donc d’évaluer la nature du processus que suit le rendement à partir des valeurs empiriques. Sur la période 1926-1985, les résultats de Fama & French [1988] font apparaître au niveau des industries une auto-corrélation négative assez forte jusqu’à 5 ans et statistiquement signi ficative au seuil de 5% comme le montre le tableau 14 et la figure 29. L’autocorrélation quasi-nulles pour les horizons courts devient progressivement signi ficativement négatives à plus long terme (-0.25 à -0.4 pour les rendements à 3 ou 5 ans). L’auto-corrélatiion a fonc une forme en U inversé en fonction de l’horizon : elle augmente tout d’abord à court-terme avant de devenir négative. Cette structure se retrouve dans d’autres pays : ainsi pour la France, Hamon & Jacquillat [1992] [HJ92] ont trouvé la même structure sur le marché français des actions : les coe fficients de corrélation des rendements mensuels des indices pondérés et équipondérés des actions françaises sont tout d’abord positifs les trois premiers retards, puis atteignent un minimum de -0.9 au bout de 36 moins avant revenir à 0 au bout de 60 mois. Cependant il faut noter que ces résultats sont fragiles. D’une part, le nombre de données devient relativement faible dès lors que l’on se donne des périodes d’observation de plus de cinq ans. D’autre part, les analyses sur données américaines ont révélé l’importance de la période de la Grande Dépression. Ainsi, Fama & French révèle également que la période 1926-1941 pèse lourdement dans ce résultat comme l’illustre la figure 30 et le tableau 15 : la valeur absolue des coe fficients tend en moyenne à devenir plus faible et leur significativité devient beaucoup plus faible. Cependant l’analyse de Fama & French révèle également que la période 1926-1941 semble essentielle pour ce résultat comme l’illustre la figure 30 et le tableau 15. Ces résultats fragiles mais encourageants ont conduits de nombreux économistes à tenter à nouveau de prévoir les rendements des actifs
financiers.
Mais cette fois leurs
eff orts se sont portés sur les rendements de long-terme. Ces travaux ont notamment tenté de prévoir les rendements futurs de long-terme par l’observation de facteurs, i.e. de variables économiques ou financières comme : 52
Tab. 14 Les coefficients beta(T) corrigés obtenus au niveau des industries sur la période 1926-85. (source : Fama French [1988]) Vente au détail Automobile Construction Finance Chimie Industrie des métaux Industrie minière Industrie pétrolière Moyenne
1 -0,2 -0,05 -0,01 -0,01 -0,04 -0,08 -0,09 -0,02 -0,03
2 -0,14 -0,22 -0,13 -0,17 -0,33* -0,27* -0,29* -0,23 -0,2
3 -0,18 -0,36* -0,27 -0,26 -0,43* -0,36* -0,37* -0,29 -0,3
4 -0,12 -0,42* -0,41* -0,25 -0,38* -0,36* -0,44* -0,42* -0,34
5 -0,13 -0,35* -0,42* -0,15 -0,37* -0,35* -0,48* -0,40* -0,32
6 -0,06 -0,13 -0,21 0,07 -0,19 -0,17 -0,28* -0,2 -0,14
8 -0,09 -0,04 0,16 0,22 0,05 0,18 0,02 0,17 0,02
10 -0,02 -0,02 0,24 0,35 0,13 0,28 0,08 0,27 0,08
source : Fama & French * indique que la pente est diff érente de 0 d’au moins deux écarts-types.
beta(T) 0,4 0,3 0,2 0,1 0 -0,1
1
2
3
4
5
6
8
10
-0,2 -0,3 -0,4 -0,5 -0,6 Vente au détail Construction Chimie Industrie minière Moyenne
Automobile Finance Industrie des métaux Industrie pétrolière
Fig. 29 Les coefficients β (T ) corrigés obtenus au niveau des industries sur la période 1926-85. (source : Fama & French [1988]) 53
Tab. 15 Les coefficients beta(T) corrigés obtenus au niveau des industries sur la période 1941-85. (source : Fama French [1988]) Vente au détail Automobile Construction Finance Chimie Industrie des métaux Industrie minière Industrie pétrolière Moyenne
1 0,00 -0,03 -0,03 -0,01 -0,22 -0,16 -0,15 -0,14 -0,05
2 -0,15 -0,30 -0,17 -0,04 -0,41* -0,20 -0,3* -0,21 -0,19
3 -0,13 -0,30 -0,15 0,00 -0,22 -0,12 -0,31 -0,16 -0,16
4 -0,09 -0,22 -0,16 0,00 -0,09 -0,06 -0,33 -0,20 -0,13
5 -0,16 -0,17 -0,16 0,02 -0,06 -0,05 -0,39* -0,16 -0,14
6 -0,15 -0,10 -0,09 0,11 -0,05 0,01 -0,32 -0,12 -0,09
8 -0,16 -0,07 0,15 0,30 0,05 0,25 -0,06 0,13 0,01
source : Fama & French * indique que la pente est diff érente de 0 d’au moins deux écarts-types
0,4 0,3 0,2 0,1 0 -0,1
1
2
3
4
5
6
8
-0,2 -0,3 -0,4 -0,5 Vente au détail
Automobile
Construction
Finance
Chimie
Industrie des métaux
Industrie minière
Industrie pétrolière
Moyenne
Fig. 30 Les coefficients β (T ) corrigés obtenus au niveau des industries sur la période 1941-85. (source : Fama & French [1988]) 54
0,05 0 -0,05
1
2
3
4
5
6
8
-0,1 -0,15
1926-85
-0,2
1941-85
-0,25 -0,3 -0,35 -0,4
Fig. 31 Les coefficients β (T ) corrigés obtenus en moyenne au niveau des industries sur les périodes 1926-85 et 1941-85. (source : Fama & French [1988])
55
le ratio des prix aux dividendes (PDR - price dividend ratios) ; le ratio des prix aux résultats (bénéfices comptables) des entreprises (PER - price earning ratios) ; la structure par terme des taux d’intérêt (TERM) mesurée couramment par la différence entre le taux long des titres obligataires d’Etat moins le taux court des bons de l’Etat; le risque de défaillance des entreprises privées (DEFAULT) mesuré par la diff érence entre le taux d’intérêt des titres obmigataires des entreprises dont le rating est (relativement) mauvais (par exemple Aaa) moins le taux d’intérêt des entreprises dont le rating est le meilleur (AAA). Certains de ces facteurs se sont révélés étonnament e fficaces. Ainsi, Cochrane [1997] [Coc97] a tenté d’expliquer sur la période 1947-1996 les rendements excédentaires par le PDR. La régression estimée a donc été :
e
Rt→t+k = a + b(P t/Dt ) + εt→t+k
e
où k est l’horizon choisie. Les résultats obtenus sont reproduits dans le tableau 16. A un an, la capacité d’expliquer les rendements demeure modeste puisque le R2 est “seulement” de 0.15.19 Cependant, on peut remarquer que la valeur du coe fficient b diff ère de 0 de plus de deux écart-types et donc apparaît statistiquement signi ficatifs. Surtout, plus l’horizon s’allonge, plus le R2 augmente et plus la “signi ficativité statistique” augmente. A 5 ans, la régression “expliquerait” jusqu’à 60% des rendements excédentaires constatées sur la période 1947-1996 (aux Etats-Unis) et le coe fficient diff ère de 0 par près de 6 écart-types ! D’autres variables se sont également révélées très performantes pour prédire les rendements (Fama & French [1989] [FF89]) : 19
Il faut d’ailleurs souligner que même des R2 ridicules ne sont pas négligeables pour des gérants. Ainsi,
sur ses données, Cochrane [2001] observe qu’en annuel l’écart-type est pour les titres les plus volatiles
√
de l’ordre de 40% (soit 40%/ 12 = 12% en mensuel) tandis que le rendement des déciles extrêmes est égal à 1.76 fois le rendement moyen. Supposons donc que l’on obtienne dans une régression des rendements un médiocre R2 = 1/4%, alors l’écart-type explicable économétriquement est
√ 0.0025 × 12% = 0.6%. La
sélection des titres à l’achat ou à la vente (à partir de la régression) devrait permettre d’augmenter le rendement moyen de 0.6% × 1.76 = 1%. Aussi, en vendant les titres désignés comme les moins performants et en achetant les titres désignés comme les plus performants, on devrait donc être à même d’augmenter de 2% (2 × 1%) par rapport à une stratégie passive donnant le rendement excédentaire moyen. Evidemment,
il se peut aussi que les titres très volatiles le soit parce que leurs marchés soient peu liquides et donc que les coûts de transaction qu’ils supportent soient importants. La profitabilité définitive de cette stratégie peut donc être questionnée (Carhart [1997] [Car97], Mosqkowitz & Grinblatt [1999] [MG99]).
56
Tab. 16 La prévisibilité des rendements Rt→t+k = a + b(P t /Dt) horizon
b
σ(b)
R2
1
5.3
2.0
0.15
2
10.0
3.1
0.23
3
15.0
4.0
0.37
5 33.0 5.8 0.60 source : Cochrane [1997] ainsi le PER et le risque de défaillance (DEFAULT) se sont révélées également efficace à un horizon de 5 ans; la structure par terme est également efficace mais à un horizon plus court (de l’ordre de un an). L’efficacité apparente des facteurs à prévoir les rendements à un horizon de cinq ans pose pour les économistes le problème des mécanismes économiques sous-jascents à ces résultats économétriques, et notamment de leur compatibilité avec l’hypothèse d’e fficience des marchés. La prévisibilité des rendements à long-terme ne traduit-elle pas en e ff et une anomalie des marchés, l’existence d’opportunités de pro fits incompatible avec les représentations traditionnelles de l’équilibre des marchés ? Les réponses à ces questions ne font actuellement pas l’unanimité. Notamment parce que les conclusions que l’on peut tirer des travaux empiriques sont limitées par la qualité des données, notamment le biais de survie (Goetzman & Jorion [1995] [GJ95]). Celui-ci découle du fait que les données
utilisées dans les travaux empiriques ne prennent souvent en compte que celles des entreprises et des marchés ayant fonctionnés tout au long des périodes utilisées. Ainsi, les travaux sur le performances des mutual funds américains sur une, deux ou trois décennies, ne prennent en compte que celles des funds n’ayant pas cessé leurs activités. La di ff érence diff érence est en général très importante : ainsi sur les 358 funds existants en 1970, seuls 155 fonctionnaient en 2001. Les études empiriques sur l’ampleur du biais ainsi introduit l’estime compris en général égal à 0.5 et 1%, voire 1.5% : ainsi aux USA il a été estimé à 1.4% par Malkiel [1995] [Mal95], de 0.9% pour Elton, Gruber & Black [1993] [EGDH93] ; en France selon Bergeruc [1999] il serait de 0.55% et de 1.2% selon Aftalion [2001] [Aft01]. Le biais de survie n’est donc pas négligeable. La prévisibilité des cours à long-terme par certains facteurs pourraient alors selon certains être sa conséquence : certains facteurs 57
pourraient en eff et être de bons prédicteurs de son importance. Evidemment si ceci était vrai, les résultats obtenus témoigneraient donc plus des limites des données disponibles que de l’existence d’opportunités pro fitables sur les marchés. Une autre possibilité rend également compatible la prévisibilité des rendements et l’hypothèse d’efficience. Les rendements seraient en eff et caractérisés par des macénismes de correction à long-terme rendant leurs prévisions possibles. Cependant, lorsque par exemple un titre connaît une sous-performance importante, celle-ci non seulement rendrait probable sa correction progressive mais elle fragiliserait la situation financière de l’entreprise et rendrait donc aussi le titre plus risquée. Le rendement excédentaire important que l’on obtiendrait alors lors du rétablissement de l’entreprise serait donc essentiellement la rémunération de ce risque supplémentaire. Corrigé du risque de défaillance, le rendement ne serait donc pas anormal. Il est encore trop pour départager ces diff érentes conjectures. Mais évidemment la prévisibilité des rendements, qu’elle traduise ou non l’existence d’opportunités pro fitables, est importante pour les gérants de portefeuille. Comme le montre en e ff et la figure 32, historiquement en eff et, des facteurs comme le PDR et le PER sont en e ff et des variables qui ont évolué lentement, cycliquement, avec des minima et des maxima stables. Les PDR sur le marché américain sont restés en e ff et compris entre 20 et 40, les PER entre 10 et 20, les seuls périodes de franchissement de ces seuils ayant correspondus à des périodes de sous-évaluation des marchés ( fin des années, après la crise de 1974) ou des périodes de sur-évaluation (fin des années 60 et fin des années 90). L’utilisation de ces facteurs historiquement caractérisés par un ajustement lent (et des résultats économétriques) sur la période 1947-96 aurait permis de prévoir à cinq ans de manière relativement e fficace l’évolution des rendements ( figure 33). Ceci n’assure pas nécessairement évidemment que tel sera le cas dans le futur : l’histoire de la finance est en eff et pleine de recettes empiriques qui après s’être avérée très e fficace sur données historiques, se sont révélées décevantes dès que l’on a tenté de les exploiter sur les marchés. D’ailleurs, la figure 34 qui présente les relations entre les PDR et les rendements en excès soulignent cependant qu’en 1995 et 1996 le modèle rendait assez mal compte des rendements du marché.
9
La difficulté de battre le marché L’hypothèse d’efficience du marché est une conjecture qui a permis d’organiser l’en-
semble des travaux empiriques et théoriques en finance au cours des 40 dernières années. De ce point de vue, elle s’est révélée une hypothèse extrêmement stimulante. Comme aime 58
Fig. 32 L’évolution du PER du S&P 500 Index et du PDR du portefeuille pondéré du NYSE. (source : Cochrane [1997])
prévision sur échantillon rendements effectifs prévision hors échantillon
Fig. 33 Les valeurs prévues (à l’aide du PDR) et e ff ectives du rendement en excès à 5 ans du portefeuille pondéré du NYSE. (source : Cochrane [1997]) 59
prix / dividendes
Fig. 34 La relation entre le PDR et le rendement en excès. (source : Cochrane [1997]) à le rappeler Fama, toute théorie scientifique appliquée, on ne peut espérer qu’elle soit parfaitement vérifiée. Une théorie appliquée est en eff et comme une carte géographique : sauf à être l’échelle 1/1, elle oublie nécessairement certains détails et est donc fausse; en même temps, une théorie à l’échelle 1/1 est trop complexe pour être utile (sans même discuter de sa faisabilité). Par conséquent, la bonne théorie comme la bonne carte géographique dépend du problème posé et est un subtil équilibre entre pouvoir explicatif et simplicité. Il n’est donc pas surprenant qu’à la fois hypothèse d’e fficience soit rejetée (notamment sous sa forme forte) et qu’elle continue de demeurer une référence incontournable. Au demeurant, elle demeure le seul cadre pouvant pourquoi il est si dur de battre le marché de manière persistante. Comme on l’a vu en e ff et, la littérature sur les initiés n’a donné en eff et que des évaluations faibles des sur-performances (moyennes) 20 des initiés. Enfin, la performance des gérants des mutual funds est également confondante. Comme le montre la figure 35, sur la période 1970-2001, seuls 22% des mutual funds (survivants) eurent une performance supérieure de plus de 1% du celui du marché, seuls 5% eurent une performance qui dépassa de 2% la moyenne du marché. Ces résultats 20
Evidemment le fait que sur plusieurs milliers de transactions, le rendement excédentaire soit très
faible n’invalide pas le fait que sur quelques transactions exceptionnelles (et défrayant la chronique) des gains substantiels soient réalisés.
60
40 34
35
29
28
30 25
21 20 15
17 13 11
10 3
5
1
1
0
-4
ns oi m et
-3
-2
-1
-1 0/
+1 0/
1
2
3 4
lus p et
Fig. 35 Les rendements moyens sur la période 1970-2001 des mutual funds (survivants) américains.
61
Tab. 17 Styles et performances des funds au 30 juin 2000 sur une période de 10 ans Growth
Large Cap.
102 funds S&P500 Growth
63 funds Mid. Cap. Russel Mid. Cap. Growth 33 funds Small Cap. Russell 2000 Growth
Blend
Value
rend. 17,89
126 funds
rend. 15,6
19,92
S&P 500
17,55
18,14
36 funds Russell midcap
14,1
19,52 17,12 13,01
22 funds S&P500 Growth
16,29 12,99 13,73
129 funds S&P500 Value 48 funds Russell midcap value 23 funds Russell 2000 value
rend. 13,37 14,7 12,77 13,96 11,74 12,91
source : Malkiel (2003) peuvent également être désagréger pour faire apparaître l’impact des styles de gestion. Aux Etats-Unis, le Morningstar, Inc. positionne ainsi les funds par la nature des titres sélectionnés principalement par les funds, en distinguant deux dimensions : l’importance donnée aux petites ou aux grandes capitalisations ; dans la classification du Morningstar, on distingue ainsi trois niveaux de capitalisations ; le poids accordé aux valeurs de croissance (growth stocks) relativement aux valeurs de rendement (value stocks)21 ; le Morningstar retient trois types d’actions : les growth stocks, les value stocks, et les blend stocks (intermédiaires entre les deux). La grille de lecture du Morningstar est donc de classer les funds en 9 catégories (voir figure 17). Comme l’a véri fié
Malkiel [2003] [Mal03], la décomposition de la population
des funds américains sur la période 1970-2001 en fonction des styles ne modi fie guère la piètre performance des funds (tableau 17). La comparaison de ceux-ci et des indices correspondants aux diff érents styles de titres fait clairement apparaître que dans 8 cas sur 9 l’indice (= “le marché”) bat les gestionnaires de funds. Il est au surplus révélateur que le seul style où les spéciaistes semblent tirer leurs épingles du jeu est celle des titres qui sont à la fois des valeurs de croissance et des petites capitalisations. Cette difficulté à battre le marché se double d’autre part d’une di fficulté pour les spécialistes à rester durablement les meilleurs. En e ff et, par exemple, sur les années 70-80, les 20 meilleurs fonds des années 70 n’ont dans 3 cas sur 4 pas réussi à rester dans les 50 premiers au cours de la décennie suivante. Au niveau de leur performance, alors que ces 21
Les values stocks sont des actions dont les dividendes sont importants mais connaissent une croissance
faible. Inversement pour les growth stocks, les dividendes sont faibles mais les perspectives de gain en capital ou de croissance des dividendes sont importantes.
62
Tab. 18 Evolution du classement des funds, 1970-80 et 1980-90 classement classement décennie
décennie
1970s
1980-90
Twentieth Century Growth
1
176
Templeton Associates
2
126
Quasar Associates
3
186
44 Wall Street
4
309
Pioneer II
5
136
Twentieth Century Select
6
20
Security Ultra
7
296
Mutual Shares Corp.
8
35
Charter Fund
9
119
Magellan Fund
10
1
Over-the-Counter Securities
11
242
American Capital Growth
12
239
American Capital Venture
13
161
Putnam Voyager
14
161
*
Janus Fund
15
78
*
Weingarten Equity
16
36
Hartwell Leverage Fund
17
259
Pace Fund
18
60
Acorn Fund
19
172
Stein Roe Special Fund
20
57
20 meilleurs funds
+19.0%
+11.1%
funds
+10.4%
+11.7%
* * *
* *
rendement moy. ann. :
nombre des funds 177 source : Malkiel (1996) p. 183
63
309
Tab. 19 Performances des 20 funds les plus performants sur la période 1990-94 au cours de la seconde partie des 90s
Oppenheimer Main St. Growth & Incom CGM Capital Development PBHG Growth American Cent Ultra Inv. Kaufman Berger Growth AIM Constellation A Fidelity Blue Chip Growth Parnassus Fidelity Adv. Equity Growth Instl Chase Vista Capital Growth A MainStay Capital Apprec. Fidelity Contrafund Westcore Midco Growth INVESCO Dynamics Van Kampen Emerg. Growth A Bandywine Fidelity Destiny II Delaware Trend A Chase Vista Growth and Income
1990-94 rang rend. moyen 1 25,03 2 24,76 3 24,37 4 23,05 5 22,36 6 21,25 7 19,99 8 19,77 9 19,50 10 19,49 11 19,32 12 19,19 13 19,01 14 18,87 15 18,22 16 17,78 17 17,60 18 17,14 19 16,94 20 16,79
Moyenne des 20 funds Moyenne de l'ensemble des funds S&P 500 Nbre des funds
20,02 10,37 10,85 283
source : Malkiel (2003)
64
1995-99 rang rend. moyen 129 24,27 134 24,09 261 15,43 21 33,78 210 19,92 53 29,28 183 22,05 105 25,32 275 11,45 54 29,01 245 17,66 31 31,32 150 23,59 233 18,40 61 28,26 56 28,87 236 18,15 4 39,06 170 22,54 224 19,30 24,09 23,83 26,17 283
winners des 70s avait une rentabilité moyenne de 19,0% très supérieure à la moyenne des
funds 10.4%, leur rentabilité moyenne durant la décennie des années 80 est devenu légèrement inférieure à la moyenne (11.1% contre 11.7%) (tableau 18). Au cours de la décennie des années 90, le même phénomène a été observée (tableau 19) : les funds performants au cours de la première moitié de cette décennie sont retombés dans le classement au cours de la seconde moitié des années 90 ; le rendement qui était initialement du double dela moyenne des funds et du marché est devenu légèrement inférieur au cours des années 1995-99. Le message initial de Samuelson, Fama sur la difficulté de battre le marché demeure donc, même si les marchés ne sont sans doute pas informationnellement e fficace à 100%. Même s’il est donc possible pour certains de battre le marché durablement (comme Peter Lynch pour le Magellan Fund, ou Warren Buffet pour Berkshire Hathaway), les exemples sont peu nombreux et rarement leurs succès ont pu être reproduits par d’autre que d’eux, y compris par les lecteurs des best sellers supposés contenir leurs secrets. Mais il n’est pas nécessaire d’espérer pour entreprendre...
Références [Aft01]
F. Aftalion, (2001). Les performances des OPCVM actions françaises. Banque et Marchés , pages 616, mai-juin 2001.
[Ale61]
S. Alexander, (1961). Price movements in speculative markets : trends or random walks. Industrial Management Review , May 1961.
[Ale64]
S. Alexander, (1964). Price movements in speculative markets : trends or random walks, no. 2. Industrial Management Review , 5(2), Spring 1964.
[Bac00]
L. Bachelier, (1900). Théorie de la Spéculation . Gauthier-Villars, Paris, 1900.
[Bac64]
L. Bachelier, (1900). Theory of speculation. In P. Cootner, editor, The Random Character of Stock Prices . MIT Press, Cambridge, MA., 1964.
[Ban81]
R. Banz, (1981. The relationship between return and market value of common stocks. Journal of Financial Economics , 9 :318, March 1981.
[Ber95]
P.L. Bernstein, (1995). Des idées capitales . Finance. PUF, Paris, 1995. Traduction de "Capital ideas - the improbable origins of modern Wall Street" (1992).
[Bla73]
F. Black, (1973). Yes, virginia, there is hope : tests of the value line ranking system. Financial Analysts Journal , 29, September-October 1973. 65
[Car97]
M. Carhart, (1997). On persistence in mutual fund performance. Journal of Finance , 52 :5782, 1997.
[CJ37]
A. Cowles and H. Jones, (1937). Some a posteriori probabilitiesin stock market action. Econometrica , 5 :280, July 1937.
[CM82]
T. Copeland and D. Mayers, (1982). The value line enigma (1965-1978) - a case study of performance evaluation issues. Journal of Financial Economics , 10 :289321, 1982.
[Coc97]
J. Cochrane, (1997). Where is the market going ? uncertain facts and novel theories. Economic Perspectives , 21(6), November-December 1997.
[Coo62]
P. Cootner, (1962). Stock prices : random vs. systematic changes. Industrial Management Review , pages 2445, Spring 1962.
[Coo64]
P.H. Cootner, (1964). The random character of stock prices . MIT Press, Cambridge, MA., 1964.
[Cow33]
A. Cowles, (1933). Can stock market forecasters forecast? Econometrica , 1 :30924, July 1933.
[Cow44]
A. Cowles, (1944). Stock market forecasting. Econometrica , 12(3-4) :20614, July-October 1944.
[Cow60]
A. Cowles, (1960). Revision of previous conclusions regarding stock price behavior. Econometrica , 28(4) :90915, October 1960.
[EGDH93] E.J. Elton, M. Gruber, S. Das, and M. Hklarka, (1993). E fficiency with costly information : a reinterpretation of evidence from managed portfolios. Review of Financial Studies , 6(1) :122, 1993.
[ES98]
B.E. Eckbo and D.C. Smith, (1998). The conditional performance of insider trades. Journal of Finance , 53 :46798, 1998.
[Fam65a] E. Fama, (1965). The behavior of stock prices. Journal of Business , 37 :34105, January 1965. [Fam65b] E. Fama, (1965). Random walks in stock prices. Financial Analysts Journal , pages 5559, September-October 1965. [Fam68]
E. Fama, (1968). What ’random walks’ really means. Institutional Investor , pages 3840, April 1968.
[Fam70]
E. Fama, (1970). Efficient capital markets : a review of theory and empirical work. Journal of Finance , May 1970. 66
[Fam91]
E. Fama, (1991). Efficient capital markets : Ii. Journal of Finance , 46 :1575 1617, 1991.
[FF88]
E. Fama and K French, (1988). Permanent and temporary components of stock prices. Journal of Political Economy , April 1988.
[FF89]
E. Fama and K. French, (1989). Business conditions and expected returns on stocks and bonds. Journal of Financial Economics , 25 :2349, 1989.
[FFJR70] E. Fama, L. Fisher, M.C. Jensen, and R. Roll, (1969). The adjustment of stock prices to new information. International Economic Review , February 1970. [FR86]
K. French and R. Roll, (1986). Stock return variances. Journal of Financial Economics , September 1986.
[GJ95]
W.N. Goetzman and Ph. Jorion, (1995). A longer look at dividend yields. Journal of Business , 483-508 :68, 1995.
[GM85]
L. Glosten and P. Milgrom, (1985). Bid, ask, and transaction prices in a specialist market with heterogenously informed traders. Journal of Financial Economics , 14 :71100, 1985.
[Hig92]
R. Higgins, (1992). Analysis for Financial Analysis . 3eme edition, 1992.
[HJ92]
J. Hamon and B. Jacquillat, (1992). Le marché français des actions . PUF, Paris, 1992.
[Jaf74]
J. Jaff e, (1974). Special information and insider trading. Journal of Business , 47 :41028, 1974.
[Jen68]
M.C. Jensen, (1968). The performance of mutual funds in the period 1945-64. Journal of Finance , 23 :32347, 1968.
[Jen69]
M.C. Jensen, (1969). Risk, the pricing of capital assets, and the evaluation of invest ;ent portfolio. Journal of Business , April 1969.
[Ken43]
M.G. Kendall, (1943). The advanced theory of statistics . Griffin, London, 1943.
[Ken53]
M. Kendall, (1953). The analysis of time series - part i : prices. Journal of the Royal Statiscal Society , 96 :1125, 1953.
[LM88]
A. Lo and A.C. MacKinlay. Stock market prices do not follow random walks. Review of Financial Studies , Spring 1988.
[LSS90]
P. Liu, S. Smith, and A. Syed, (1990). Security price reaction to the wall street journal’s securities recommendations. Journal of Financial and Quantitative Analysis , 25 :399410, 1990.
67
[Mal95]
B. Malkiel, (1995). Returns from investing in equity mutual funds 1971 to 1991. Journal of Finance , 50(2) :54972, June 1995.
[Mal96]
B.G. Malkiel, (1996). A random walk down wall Street . W.W. Norton & Compagny, New York, 6 ème edition, 1996.
[Mal03]
B. Malkiel, (2003). Passive investment strategies and e fficient markets. European Financial Management , 9(1) :110, 2003.
[MG99]
T. Moskowitz and M. Grinblatt, (1999). Tax loss selling and return autocorrelation : new evidence. working paper, CRSP, University of Chicago, 1999.
[Osb59]
M.F.M. Osborne, (1959). Brownian motion in the stock market. Operations Research , 7 :14573, March-April 1959.
[Osb62]
M.F.M. Osborne, (1962). Periodic structure in the brownian movement of stock prices. Operation Research , 10 :24579, May-June 1962.
[PS88]
J. Poterba and L. Summers, (1988). Mean reversion in stock prices : evidence and implications. Journal of Financial Economics , 22 :2759, 1988.
[Rei81]
M. Reinganum, (1981). Misspeci fications of capital asset pricing : empirical anomalies based on earnings yields and market values. Journal of Financial Economics , 9 :1946, 1981.
[Rob59]
H. Roberts, (1959). Stock market ’patterns’ and financial analysis : methodological suggestions. Journal of Finance , 14(1) :110, March 1959.
[Rol84]
R. Roll, (1984). Orange juice and weather. American Economic Review , 74, December 1984.
[Sam57]
P.A. Samuelson, (1957). Intertemporal price equilibrium : a prologue to the theory of speculation. Weltwirtschaftliches Archiv , December 1957.
[Sam65]
P.A. Samuelson, (1965). Proof that properly anticipated prices fluctuate randomly. Industrial Management Review , Spring 1965.
[Sam67]
P.A. Samuelson, (1967). Statement before committee on banking and currency. US Senate, re mutual fund legislation of 1967, August 1967.
[Sam73]
P.A. Samuelson, (1973). Mathematics of speculative price. SIAM Review , 15 :142, 1973.
[Sam74]
P.A. Samuelson, (1974). Challenge to judgment. Journal of Portfolio Management , 1 :1719, Fall 1974.
68