Vous êtes sur la page 1sur 70

L’hypothèse d’efficience des marchés

Marches aléatoire, matingale et transmission de


l’information par les prix

Philippe Bernard

Décembre 2003
Table des matières
1 L’ “incarnation du chahut continu” 2
1.1 Le chartisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Le démon de la chance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 La marche aléatoire des marchés 11


2.1 La fluctuation à l’équilibre . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Une modélisation simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3 Marche aléatoire et gestion passive 21

4 L’hypothèse des marchés efficients 26

5 Information et équilibre 26

6 Efficiences faible et semi-forte des marchés 28


6.1 Efficience faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
6.2 Efficience semi-forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

7 Information privée et l’hypothèse d’efficience forte 37


7.1 Variances des marchés et information . . . . . . . . . . . . . . . . . . . . . 38
7.2 L’énigme de la Value Line . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
7.3 Valeur de l’information des initiés . . . . . . . . . . . . . . . . . . . . . . . 43

8 La prévisibilité des cours 48

9 La difficulté de battre le marché 58

1
Fig. 1 — Alfred Cowles

1 L’ “incarnation du chahut continu”


Alfred Cowles (1891-1984), membre d’une riche famille patricienne de Chicago,
commença à partir de 1926 à gérer les affaires financières de la famille et s’abonna à plu-
sieurs services de conseils en investissement. Cependant, le coût élevé de ces abonnements
l’incita à mesurer la performance des services. Aussi, commença-t-il en 1928 à suivre les
24 services les plus diffusés.
La crise de 1929 vint mettre en difficulté ses finances. Aucun des services financiers
auquel il était abonné n’avait prévu la crise. Cette erreur résultait-elle de la malchance
ou était-elle le reflet de l’inefficacité de la prévision financière ? Cowles débuta sa propre
enquête en 1931. Il n’hésita pas y investir une partie de la fortune familliale pour financer
une nouvelle société, l’Econometric Society, laquelle se proposait de développer les mé-
thodes mathématiques et statistiques en économie. Il entra en contact avec l’un de ses
principaux animateurs, un ancien condisciple de son père à Yale, l’inévitable Irving Fi-
sher, et fonda avec lui ce qui allait devenir l’une des principales institutions de la recherche
économique : la Cowles Commission. Mais, Cowles ne se contenta pas de ce rôle de bien-
faiteur, il consacra également son propre temps. Il rassembla et exploita les données qu’il
avait lui même rassemblé depuis 1928.
Le premier résultat de son travail fut un article en juin 1933 dans Econometrica, la
revue de l’Econometric Society. L’introduction de cet article le résume : “Are prices pre-
dictable ? It is doubtful.” (A. Cowles [Cow33]) Dans cet article, Alfred Cowles n’analysait
pas moins de 7500 recommendations des services financiers, de 3300 recommendations
des services d’information financière, toutes les transactions des compagnies d’assurance,
sur 4 ans (janvier 1928 - juin 1932). Pour évaluer leurs performances, Cowles estima la

2
performance boursière qu’aurait eu un investisseur suivant leurs conseils et la compara à
celle d’une sélection aléatoire des titres. Selon Cowles : “les performances de l’agence de
prévision moyenne ont été inférieures à la moyenne des performances qui auraient pu être
obtenues uniquement par chance 1 .” ([Cow33], cité par [Ber95] p. 40) Pire, il s’attaqua à
une légende du chartisme : Hamilton.

1.1 Le chartisme
William Peter Hamilton avait été de 1903 à sa mort, en 1929, le rédacteur en chef du
Wall Street Journal. A ce poste, il avait succédé à l’un des deux fondateurs de ce journal,
Charles Dow (1851-1902), dont il avait épousé la théorie des marchés. Dans ses éditoriaux,
de la fondation du journal en 1889 à sa mort en 1902, Dow n’avait cessé d’exprimer ses
idées sur la Bourse et la prévision boursière. Selon lui :

“Une personne qui regarde monter la marée et qui veut savoir exactement à
quel niveau arrivera la marée plante un bâton dans le sable aux points atteints
par les techniques montantes, jusqu’à ce que le bâton atteigne une position où
les vagues n’arrivent pas et finalement reculent suffisamment, confirmant que
la marée redescend.”
“Cette méthode est fiable pour observer et déterminer le flux et le reflux
des marées de la Bourse [...] Les vagues des prix, comme celles de la mer, ne
reculent pas d’un seul coup quand elles ont atteint leur point le plus élevé.
La force qui les met en mouvement contrôle graduellement les arrivées, et il
faut attendre quelque temps avant de pouvoir affirmer que marée a vraimment
atteint son maximum.” (C. Dow dans le Wall Street Journal, 1901, cité par
[Ber95] p.31)

Pour Dow et pour son héritier Hamilton, les cours sont “suffisants en eux-mêmes” pour
révéler tout ce qu’il y a à savoir sur la conjoncture économique pour révéler l’évolution
future de la Bourse. Le chartisme dont ils furent les pionniers ont poursuivi et approfondi
ces idées. Reposant sur la conviction qu’il existe à la fois des régularités dans l’évolution
des cours et que les évolutions des évolutions passées de ceux-ci sont utiles pour prédire
leurs évolutions futures, il repose sur l’utilisation de différents outils, notamment des
moyennes mobiles (figure 2), des lignes de résistance (ou de support) (figure 3) et de
figures complexes.
1
Mis en italiques par nous.

3
prix
moyenne mobile
courte signal moyenne mobile
de vente longue

signal
d'achat

temps

Fig. 2 — Les signaux d’achat et de vente engendrés par la comparaison des moyennes
mobiles.

La comparaison de moyennes mobiles différents entre elles par la longueur des retards
pris en compte est un outil essentiel de l’analyse chartiste. Comme par construction les
moyennes mobiles les plus courtes sont plus influencées par les évolutions récentes des
cours, elles ont pour propriété de fluctuer autour des moyennes longues. La convergence
et la divergence des différentes moyennes sont alors utilisées, comme le montre la figure
2, comme des signaux d’achat et de vente des titres. Ainsi, lorsqu’une moyenne mobile
courte initialement plus basse que la moyenne longue rejoint celle-ci, ceci constitue un
signal d’achat du titre : l’évolution du titre est en effet alors anticipée être durablement
à la hausse. Par contre, lorsque la moyenne mobile redescend au nivceau de la moyenne
longue, ceci constitue un signal de vente du titre puisque l’évolution de celui-ci est alors
durablement anticipée être à la baisse.
Les lignes de résistance et de support sont un autre moyen de définir des signaux
d’achat et de vente. Dans le cas d’une ligne de résistance, la méthode consiste alors,
comme l’illustre la figure 3, à repérer une droite passant par deux maximums locaux des
cours sans être provisoirement dépassée par une séquence de cours. Le prolongement de
cette droite définit pour le chartiste l’ensemble des prix contre lequel le marché doit venir
butter en l’absence de fortes pressions haussières. Aussi, comme sur la figure 3, le cours
tend à nouveau vers la ligne de résistance, le comportement du cours devant cette barrière

4
prix

Ligne de
résistance

signal
d'achat

temps

Fig. 3 — Le principe de la ligne de résistance (ou de support).

est un test déterminant la stratégie à suivre : si le cours vient à la franchir, ceci constitue
un signal d’achat pour le chartiste. Le principe de la ligne de support est le même : la
ligne est simplement déterminée par deux minima locaux et doit constituer au moins
localement un plancher pour les cours. Lorsque le cours vient à franchir cette ligne de
support, alors ceci atteste pour chartiste de la force baissière du marché et donc constitue
un signal de vente.
Ls figures complexes constituent d’autres outils d’analyse. Les principales sont les M,
les W, les têtes et les épaules (et sa forme inversée). Comme la figure l’illustre, lorsque les
cours des actifs les définissent, elles constituent des signaux d’achat (pour le W et “la tête
et les épaules” inversée) ou des signaux de vente (pour le M et la “tête et les épaules”).
L’analyse chartiste rencontre plusieurs difficultés. D’une part, la reconnaissance précise
des figures complexes n’est pas nécessairement un exercice aisé. D’autre part, la multi-
plication des outils augmente la probabilité que les signaux soient contradictoires. Enfin,
l’analyse chartiste est économe en raisonnements économiques. Ceci n’a pas empêché ce-
pendant l’utilisation fréquente du chartisme sur les marchés et d’y être crédités parfois de
succès.
Ainsi, plus heureux qu’Irving Fisher, Hamilton eut même le bonheur d’annoncer, le
21 octobre 1929, le retournement du marché dans un éditorial intitulé “The turn in the

5
La figure du M La figure du W
signal de vente

signal d'achat

La figure de la tête et des épaules


signal de vente

Fig. 4 — Les figures complexes du chartisme.

6
Fig. 5 — L’analyse de l’action peugeot par le chartisme (décembre 2002 - novembre 2003).

7
Fig. 6 — L’analyse de l’action Total par le chartisme (décembre 2002 - novembre 2003).

8
Fig. 7 — Maurice G. Kendall

tide”.2
Cela n’empêcha pas Alfred Cowles de s’attaquer à la légende en s’apuyant sur l’analyse
de 255 éditoriaux de Hamilton publiés entre 1903 et 1929. Selon Cowles, un investisseur
qui aurait suivi les recommendations de Hamilton entre 1903 et 1929 aurait vu son capital
multiplié par 19. Mais un investisseur se contentant d’acheter l’indice en 1903 aurait vu
le sien multiplié deux fois plus !
Après ce premier travail, pendant plus de 20 ans, Cowles continua d’évaluer l’efficacité
de la prévision financière en en publiant les résultats [CJ37] [Cow44] [Cow60].

1.2 Le démon de la chance


L’analyse de Cowles suscita peu de réactions chez les économistes. Ce furent des sta-
tisticiens qui, de fait, poursuivirent son analyse du marché boursier. Le premier d’entre
eux fut Holbrook Working (1895-1985). Ce statisticien, appartenant à un institut
de recherche agronomique - le Stanford Food Research Institute - non seulement fut l’un
des premiers à relever le problème de l’ “identification” en économétrie, mais consacra
de nombreux travaux au fonctionnement des marchés à terme. Dans un des premiers tra-
vaux [Wor34], il s’attacha notamment à caractériser les comportement des prix de ces
marchés. Il remarqua que si en niveaux, on pouvait repérer des fluctuations présentant
des tendances identifiables et répétitives, par contre, en variations, les évolutions des prix
semblaient totalement aléatoires.
2
Talent ou simple chance ? En faveur de cette dernière hypothèse, on peut noter qu’Hamilton avait
commis des éditoriaux similaires en janvier 1927, juin 1928, juillet 1928.

9
Vingt ans plus tard, un autre statisticien parvint aux mêmes conclusions. Maurice G.
Kendall (1907-1983) était déjà l’un des statisticiens britanniques (et donc mondiaux) les
plus réputés, auteur d’un ouvrage de référence en statistique [Ken43]. En 1953, il publia
un article [Ken53] résumant une analyse statistique sur plusieurs séries de cours boursiers.
Il y analysait 19 groupes d’actions britanniques différentes sur la période 1928-38, compre-
nant des entreprises financières et des entreprises industrielles (chemin de fer, brasseries,
pétrole, service public), mais également des moyennes hebdomadaires du prix du blé sur
les marchés de Chicago sur la période 1883-1934 (en excluant la période 1915-20), du
coton à la bourse de commerce de New York de 1816 à 1951. Comme Working, Kendall
fut frappé par l’absence apparente de tendance des cours : “le schéma des événements
dans les séries de prix est beaucoup moins systématiques qu’on ne le croit en général”
([Ken53], cité par [Ber95] p. 100) Selon lui, la mémoire du marché boursier était au plus
d’une semaine. Comme le soulignera quelques années plus tard un astrophysicien émi-
nent, M.F.M. Osborne [Osb59], les variations des prix des actions présentaient une “forte
analogie avec l’ensemble des coordonnées d’un grand nombre de molécules”. La bourse
semble “l’incarnation du chahut continu” [Osb62], la prévision des prix futurs impossible.
Dans son commentaire sur l’évolution des 2287 variations hebdomadaires du prix de blé,
Kendall résuma ainsi les leçons de son analyse statistique :

“La série ressemble à une série “vagabonde”, presque comme si une fois
par semaine le démon de la chance 3 piochait au hasard [la variation du prix]
dans une population symétrique de dispersion constante et l’ajoutait au prix
courant pour déterminer les prix de la semaine suivante.” ([Ken53], cité par
[Ber95] p. 101)

Malheureusement pour Kendall, le démon de la chance ne lui fut cependant pas favo-
rable : lorsqu’il présenta ses résultats à se collègues de la très prestigieuse Royal Statistical
Society, un tumulte de désapprobation l’accueillit sans doute par qu’ “[u]n tel nihilisme
semblait frapper la science en plein coeur.” (Paul Samuelson [Sam73])
3
Souligné par nous.

10
Fig. 8 — Paul A. Samuelson

2 La marche aléatoire des marchés

2.1 La fluctuation à l’équilibre


Le vacarme suscité par Kendall finit par atteindre le campus du MIT sur lequel règnait
Paul Anthony Samuelson (1916-).
Au début des années 50, Samuelson cherchait à exploiter son savoir faire d’économiste
et s’était pris de passion pour les mécanismes boursiers. Moins par nécessité que par défi
intellectuel, pour prouver comme jadis Thalès de Milet la valeur de son capital humain, il
était à la recherche d’une méthode lui permettant de réaliser rapidement de substantielles
plus-values boursières. Pour mettre toutes les chances de son côté, il s’était abonné à un
service financier spécialisé sur le marché du warrant “The RHM warrant and low-price
stock survey”.
Lorsque le tumulte suscité par les résultats de Kendall arriva jusqu’à lui, Samuelson
eut la saugrenue idée de prendre le contre-pied de l’opinion courante, d’y voir le triomphe
des lois économiques : “Travaille de l’autre côté de la rue ! L’impossibilité de prévoir
les prix futurs à partir de prix passés et courants est le signe non pas de l’échec des lois
économiques, mais du triomphe de ces lois après que la concurrence ait fait de son mieux.”
(correspondance de Samuelson avec P.L. Bernstein, cité dans [Ber95] p.120)
Dans plusieurs papiers, [Sam57] et surtout dans l’article The proof that properly antici-
pated prices fluctuate randomly [Sam65], Samuelson proposa un cadre théorique achevant
cette réconciliation. Dans celui-ci, les agents, neutres au risque, spéculent sur les titres
sans cesse. Pour évaluer les titres, des “prix fantômes”4 sont introduits. La concurrence
4
“des prix jamais vus, sur terre ou sur mer, en dehors des bibliothèques d’économie” (P.A. Samuelson)

11
impose alors qu’à l’équilibre le profit espéré des spéculateurs est nul. Mais ceci impose
sous certaines hypothèses une imprévisibilité des évolutions futures :

“On pourrait s’attendre à ce que les agents de marché, qui poursuivent


de manière avide et intelligente leur intérêt personnel, tiennent compte des
événements futurs dont il est possible de voir, en un sens probabiliste, qu’ils
projettent leur ombre devant eux. (Comme on dit des événements passés qu’ils
projettent leur ombre derrière eux, il est possible de dire des événements futurs
qu’ils projettent leur ombre devant eux)” ([Sam65], cité par [Ber95] p. 122)

Chemin faisant, Samuelson contribua à redécouvrir la contribution du théorie tragique


de la théorie financière, Louis Bachelier (1870-1946). Mathématicien français, disciple
d’Henri Poincaré, celui-ci avait choisi pour sujet de sa thèse Théorie de la Spéculation
[Bac00] [Bac64] 5 un sujet (trop) original pour un mathématicien : le fonctionnement de la
Bourse. Bien avant Cowles, Working, Kendall, Bachelier eut l’intuition que la dynamique
des cours boursiers étaient régis par des évolutions aléatoires imprévisibles :

“Les événements passés, les événéments présents, et même les événements


futurs actualisés se reflètent dans les prix de marché, mais souvent ils ne pré-
sentent aucune relation apparente avec les variations de cours [...] Des causes
artificielles interviennent également : le marché réagit à lui-même et la fluctua-
tion actuelle est une fonction non seulement des flottements antérieures, mais
aussi de l’état actuel. Ces fluctuations sont déterminées par un nombre infini
de facteurs ; il est donc impossible de prétendre pouvoir les prévoir mathéma-
tiquement [...] [L]a dynamique du marché ne sera jamais une science exacte.”
([Bac00], introduction)

Aussi, Bachelier eut l’idée de représenter les variations des cours par des variables
aléatoires identiquement et indépendamment distribuées de moyenne nulle. Cinq ans avant
Einstein, Bachelier introduisit donc la notion de processus brownien dont Norbert Wiener
devait donner la formalisation complète en 1923. Une conséquence de cette formalisation
est qu’ “[i]l semble que le marché, la collectivité des spéculateurs, à un instant donné, ne
peut croire ni en une hausse ni en une baisse du marché, puisque, pour chaque prix coté,
il y aura autant d’acheteurs que de vendeurs.”
5
Aux Etats-Unis, la thèse de Bachelier fut redécouverte accidentellement au début des années 50 par
Leonard Savage. Celui-ci fit par de sa découverte à de nombreux économistes américains, dont Samuelson.
La thèse de Bachelier fut traduite en américain et reproduite dans l’ouvrage [Coo64] de 500 pages publié
par Paul Cootner et reprenant, en plus de la thèse de Bachelier, les textes de Cowles, de Kendall, etc...

12
Fig. 9 — Louis Bachelier (1870-1946) en 1888

Bachelier introduisait ainsi l’hypothèse que les cours boursiers suivent une marche
aléatoire, i.e. l’hypothèse que les évolutions futures ne peuvent être prédites sur la base
des actions passées.
Dans ce cadre, comme plus tard Samuelson, Bachelier détermina l’équilibre en impo-
sant la nullité de “l’espérance mathématique du spéculateur”. Il développa les implications
de sa modélisation pour la volatilité des marchés financiers et pour l’évaluation des op-
tions. Bien avant Black & Scholes (et leurs prédécesseurs des années 60), Bachelier proposa
en effet un modèle d’évaluation des options qu’il testa lui-même empiriquement sur les
options portant sur les bonds d’Etat de la période 1894-98. Ce modèle de valorisation
oublié a été l’objet d’une réestimation récente [SW94] reproduite sur les figures 10, 11,
12, 13.6
L’hypothèse de la marche aléatoire des cours boursiers frappe de nullité l’analyse
financière en général, l’analyse chartiste en particulier puisque comme le souligne un de
ses plus fervents supporters, B. Malkiel : “Si l’on tire toutes ses implications logiques, elle
implique qu’un singe aveugle jetant des fléchettes sur les pages financières d’un journal
sélectionnerait un portefeuille qui ferait aussi bien que si celui-ci avait été soigneusement
7
sélectionné par des experts.” ([Mal96] p. 24)
La marche aléatoire est d’ailleurs capable de répliquer qualitativement les figures du
chartisme comme le démontra Harry Roberts, un statisticien de la Graduate School of
Business de l’Université de Chicago, en 1959 [Rob59]. Pour montrer la superficialité des
analyses chartistes, Roberts calibra en effet des roulettes en adoptant les hypothèses sui-
vantes : (i) la variation d’une période à l’autre sera en moyenne de +0.5% ; (ii) deux
6
Le titre utilité est le call portant sur l’action d’une entreprise américaine Digital Equipment. Cette
entreprise fut sélectionné en raison de son absence de versement de dividendes, ce qui facilitait l’estimation.
La période est l’année 1989.
7
Que le lecteur se rassure, la sélection de portefeuille a été tentée. Pour conserver le mystère, les
résultats ne seront dévoilés que plus tard.

13
Fig. 10 — Le modèle de Bachelier, I

Fig. 11 — Le modèle de Bachelier, II

14
Fig. 12 — Les erreurs de surestimation du modèle de Bachelier

Fig. 13 — Les erreurs comparées des modèles de Bachelier et de Black & Scholes

15
Fig. 14 — Les évolutions du Dow Jones en 1956

Fig. 15 — Simulation de Roberts en variation répliquant qualitativement les cours de


l’année 1956

16
Fig. 16 — Simulation de Roberts en niveau répliquant qualitativement les cours de l’année
1956

tiers des variations sont comprises entre -4.5% et +5.5% ; (iii) le niveau initial, 450, des
simulations était le niveau contemporain de l’indice Dow Jones ; (iv) un historique de 52
semaines était simulé. Les résultats des simulations obtenue par Roberts illustre la capa-
cité des marches aléatoires à engendrer des évolutions qualitativement similaires à celles
observées (figures 14 et 15, évolution en niveaux reproduite sur la figure 16).
Comme le montre la figure 17, l’hypothèse de marché aléatoire est également capable
de reproduire les figures favorites de l’analyse chartiste, comme la tête et les épaules.
Chez Samuelson comme chez Bachelier, le marché est donc représenté comme un mé-
canisme s’ajustant quasi-instantanément : “Quand l’agent de change appelle pour dire
“vite, vite, vite !” c’est ridicule. S’il était certain que l’action monte, elle l’aurait déjà
fait.” (correspondance de Samuelson avec P.L. Bernstein, cité par [Ber95] p. 122) Si l’éco-
nomie est stationnaire : “quel gain peut attendre un investisseur qui achète un actif ? La
réponse [...] est ... zéro ! Ou comme le dit Samuelson : “Pas de choix faciles, pas de gains
assurés.” La rentabilité excédentaire sera nulle en moyenne et sur le long terme. Sur des
marchés aussi sauvagement concurrentiels que les marchés financiers et les marchés de
marchandises, battre les autres joueurs avec une quelconque régularité est un véritable
défi. L’impossibilité de prévoir les prix spéculatifs est la preuve que ces prix sont leurs
propres prévisions !” ([Ber95] p. 122)

17
Fig. 17 — Une simulation obtenue par Roberts répliquant la tête et les épaules des char-
tistes

Fig. 18 — Evolution des variations des cours dans la simulation obtenue par Roberts
répliquant la tête et les épaules des chartistes

18
ln(pt)

ln(u)

ln(p0)
temps
ln(d)

Fig. 19 — Un exemple de marche aléatoire des prix - l’évolution effective est en trait plein,
l’évolution potentielle non réalisée en pointillés.

2.2 Une modélisation simple


Une modélisation simple des idées de Bachelier (et partiellement de celles de Sa-
muelson) dans un cadre discret est la suivante. L’économie comprend T + 1 périodes
t = 0, 1, ..., T .8
Le cas simple présenté, notamment l’hypothèse de neutralité au risque, n’est pas une
hypothèse très restrictive. Dès lors que le marché est complet (ou tout au moins dyna-
miquement complet), la neutralité au risque des préférences des investisseurs peut être
relâchées. En effet, dans un tel cadre, il existe un unique système de prix d’états permet-
tant de valoriser les actifs financiers et définissant une distribution de probabilité π 0 dite
probabilité corrigée du risque. C’est notamment le cas si l’on suppose que le rendement
(pt+1 /pt ) résumé par la variable e
η peut prendre deux valeurs u et d avec des probabilités
π et 1 − π. A chaque période t, les équations de valorisation de l’action considéré et de
l’actif certain s’écrivent :
(
1 = β u . (1 + r) + β d . (1 + r)
(1)
1 = β u .u + β d .d

et donc les solutions, les prix des états, s’écrivent :


r−d u−r
βu = , βd = (2)
(u − d) (1 + r) (u − d) (1 + r)
8
T pouvant être arbitrairement grand. En faisant T tendre vers +∞, et en ajoutant certaines hypo-
thèses pour que les limites des valeurs soient définies, on rejoint le cadre d’horizon infini de Samuelson et
Bachelier.

19
Ces deux prix définissent les variables positives suivantes9 :
r−d u−r
π0u = > 0, π 0d = >0 (3)
u−d u−d
lesquelles sont des probabilités puisque :
r−d u−r
π 0u + π 0d = + =1
u−d u−d
La martingale des prix (éq. (??)) s’écrit alors :
π 0u .pt u + π 0d .pt d
pt =
1+r
0
π u .ept+1 (u) + π0d .e pt+1 (d)
=
1+r
Eπ0 [e pt+1 ]
=
1+r
où Eπ0 [.] est l’espérance calculée à l’aide des probabilités π0 .
Cette dernière approche par les marchés complets illustre le fait que la théorie de
Bachelier combine plusieurs éléments qu’il convient de distinguer, dont notamment les
deux suivants :
— l’hypothèse qu’à l’équilibre le profit d’arbitrage est nul, que le prix de chaque titre
est nécessairement le reflet de sa valeur pour chaque investisseur ;
— l’hypothèse que le processus stochastique régissant les prix est une marche aléatoire.
L’abandon de l’hypothèse de la marche aléatoire, i.e. que les chocs {θt }t≥1 sont distri-
bués de manière identique et indépendante rendraient possible la prévision de l’évolution
des prix ; notamment, celle-ci pourrait être inférée de la connaissance des prix passés.
Mais tant que l’absence de profit d’arbitrage à l’équilibre est préservé, l’exploitation de
cette information ne peut dégager un profit : les rendements anticipés corrigés du risque
seront égalisés les uns aux autres. En effet, comme l’a souligné Samuelson en 1965, si la
martingale des prix est observée :
pt+1 |It ]
Eπ0 [e
pt = (4)
1+r
où It est l’ensemble des variables sur lesquelles on peut conditionner l’espérance, l’espé-
rance du rendement net en excès du rendement certain est nul. Le rendement net (en
9
Necessairement, si les deux actifs sont détenus à l’équilibre, aucun n’est dominé par le rendement.
Par conséquent, on ne peut avoir ni r < d < u, ni r > u > d. En conséquence, nécessairement l’équilibre
impose :
r−d u−r
π0 = > 0, π 0d = >0
u−d u−d

20
excès du rendement certain) est en effet :
pet+1
ret+1 = −1−r (5)
pt
Par conséquent, la manipulation de (4) donne :
· ¸
pet+1 − pt
rt+1 |It ] = Eπ0
Eπ0 [e − r |It = 0 (6)
pt
Par itération des espérances, on a également :
· ¸
pet+τ − pt
∀τ > 0, Eπ0 [e
rt+τ |It ] = Eπ0 − r |It = 0 (7)
pt
Cette nullité des espérances de profit donne une des propriétés statistiques les intéres-
santes : si la martingale est vérifiée à l’équilibre alors il n’y a aucune autocorrélation du
rendement net. En effet ∀t0 < t :

rt , ret+1 |It0 ) = Eπ0 [(e


cov (e rt − Eπ0 [e
rt |It0 ]) (e rt+1 |It0 ]) |It0 ]
rt+1 − Eπ0 [e
rt ret+1 |It0 ] puisque Eπ0 [e
= Eπ0 [e rt |It0 ] = Eπ0 [e
rt+1 |It0 ] = 0
= Eπ0 [e rt+1 |It ] |It0 ]
rt Eπ0 [e
rt ×0 |It0 ]
= Eπ0 [e
= 0

Bref, sur un tel marché, la bonne performance d’un gérant de portefeuille aujourd’hui
ne signale pas une bonne performance pour demain. Cette absence de corrélation (ou sa
faiblesse) fut évidemment l’une des premières relations testées par les économistes. Elle a
également des conséquences importantes pour les styles de gestion souhaitables des funds.

3 Marche aléatoire et gestion passive


Avant même que Samuelson ne donne en 1965 sa démonstration que “des prix cor-
rectement anticipés fluctuent de manière aléatoire”, cette vision avait largement acquis
le droit de citer. En effet, elle permet de réconcilier la relative efficacité des gestions de
portefeuille passive.
Tout gérant de portefeuille, professionnel ou non, a toujours le choix entre deux types
de stratégie.
La première, la gestion active, est une gestion dynamique, en continue du contenu du
portefeuille. Sans cesse, le gérant se tient prêt à remodeler son portefeuille, en sélection-
nant de nouveaux titres, en ajustant les quantités des différents titres. L’intérêt d’une

21
telle méthode est évidemment de pouvoir exploiter sans cesse exploiter les nouvelles in-
formation, i.e. à la fois les informations publiques qui arrivent “sur le marché” et les
informations privés que délivrent par exemple l’analyse financière (chartisme, analyses
fondamentalistes, etc.).
La seconde grande stratégie, la gestion passive, est bien résumé par “achat-conservation”.
A la différence de la première, on ne cherche donc pas forcément ici à exploiter sans cesse
les nouvelles informations arrivant sur le marché. Un exemple d’une telle stratégie passive
est la stratégie indicielle, i.e. la stratégie consistant à s’acheter un portefeuille répliquant
un indice boursier (par exemple le Standard & Poor’s Index 500 ou le Bekshire Index 5000)
supposé représentatif du marché boursier. Ces stratégies indicielles qui se sont progressive-
ment développés depuis le milieu des années 70 et portent aujourd’hui approximativement
sur 40% des actifs des funds, permettent donc d’assurer une performance moyenne. Un
intérêt subsidiaire de telles stratégies passives est d’être économe des frais de courtage10 .
Les coûts et avantages de ces deux stratégies dépendent largement du monde dans
lequel nous sommes, i.e. :
— un monde à la Dow-Hamilton où l’analyse financière, voire le chartisme, permet de
lire l’évolution prochaine de la bourse
— ou un monde à la Bachelier-Cowles-Samuelson où le démon du hasard emprêche
l’analyse financière d’être une méthode de sélectionplus efficace qu’un lancer de
fléchettes sur une page financière.
Si cette dernière vision est une exécrable caricature11 , nécessairement une gestion
passive ne peut que donner de très mauvais résultats. Par contre, si elle est (suffisamment)
juste, comme le soulignait dès 1962, un partisan (pondéré) de la marché aléatoire, Paul
Cootner [Coo62] :

“Dans un tel monde, les seules variations de prix qui peuvent avoir lieu
sont celles provoquées par de nouvelles informations. Comme il n’y a aucune
de penser que l’arrivée d’information n’est pas aléatoire, les variations de prix
d’une action d’une période à l’autre doivent nécessairement être aussi aléa-
toires, statistiquement indépendants les uns des autres. Le niveau des prix des
10
En fait ceci n’est vrai que pour celui achetant le produit financier répliquant l’indice. L’institution,
elle, subit souvent des frais relativement important car, pour répliquer l’indice, il lui faut réjuster en
permanence son portefeuille en fonction de l’évolution des différents titres.
11
Nécessairement, toute théorie du monde concret est, en effet, nécessairement une caricature de celui-
ci, une carte à une certaine échelle. Comme toute carte à une échelle différente de 1 :1, toute théorie
appliquée ne peut donc (et doit) ignorer une partie de la réalité.

22
actions, sous de telles conditions, décrivent ce que les statisticiens appellent
une marche aléatoire, ce que les physisciens appelent un mouvement brow-
nien. Dans l’ordre normal des choses, les prix [...] pourront sembler décrire
des cycles qui n’en sont pas. De l’observation de séries de tels prix, rien ne
peut être appris sur l’avenir. Acheter une action sur la base de tels signaux,
de graphiques [chartistes] ne produira donc pas de meilleurs résultats que de
sélectionner en tirant à pile ou face.” ([Coo62] p. 25)

Si la marche aléatoire est une “bonne” hypothèse, une gestion passive fait donc aussi
bien voire même mieux. Or, empiriquement, de nombreux travaux comparant les perfor-
mances relatives des gestions passives et actives ont souvent montré que la première est
loin d’être le désastre attendu.
Au milieu des années 60, ces recherches empiriques testant la marche aléatoire reçurent
une nouvelle impulsion grâce à Eugene Fama et à ses associés.
Eugene Fama (1939-) fut un des premiers économistes (avec Sharpe) à utiliser massi-
vement la modeste puissance d’un computer, un IBM 709. Il multiplia les études empi-
riques, les tests de la marche aléatoire et les rassembla dans sa thèse, dans un article de 70
pages [Fam65a], et dans un résumé [Fam65b] de celui-ci paru dans The Financial Analyst
Journal au titre évocateur : Random walks in stock prices. Comme Samuelson avant lui,
Fama y défendait l’idée de l’imprévisibilité des cours comme conséquence de l’efficacité
du marché :

“Si de nombreux analystes ont du talent pour ce genre de choses [...] ils
contribuent à la réduction des écarts entre les prix observes et les valeurs intrin-
sèques et font que les prix observés, en moyenne, s’ajustent “instantanément”
aux variations des valeurs intrinsèques [...] Bien que ces analystes sophistiqués
puissent obtenir des rentabilités relativement élevées, ils donnent naissance à
un marché sur lequel l’analyse fondamentale est une procédure plutôt inutile,
aussi bien pour l’analyste moyen que pour l’investisseur moyen.” ([Fam65b])

A la conférence annuelle de l’Institutional Investor de l’hiver 1968, confronté aux


gestionnaires de portefeuille et aux chartistes, Fama [Fam68] réitéra sa position avec le
succès que l’on imagine, thèse qu’il résuma encore pour le congrès annuel de l’American
Finance Association :

“Nous soutenons qu’il n’existe aucun résultat empirique tendant à infirmer


l’hypothèse [d’efficience du marché] dans sa forme faible ou semi-forte [...] et

23
Fig. 20 — Eugene Fama et Michaël Jensen

Tab. 1 — La performance relative des funds, 1985-94


cumulé annuel
S&P’s
+281,65% +14,33%
500 Index
moyenne des
+214,80% +12.15%
Equity Funds
source : Malkiel (1996) p. 178

que les tests de sa forme forte n’ont produit que peu de résultats allant à l’en-
contre de cette hypothèse (en d’autres termes, l’accès privilégié à l’information
sur les prix ne semble pas être un phénomène répandu dans la communauté
financière).” ([Fam70])

A la fin des années 60, la thèse de la marche aléatoire avait acquis un crédit certain
grâce aux nombreuses études de Fama et de ses associés. L’une des plus cités fut réalisée
par Michaël Jensen [Jen68]. Portant sur 115 fonds communs de placement (FCP) sur la
période 1955-64, utilisant le modèle du MEDAF pour tenir compte du risque des différents
portefeuilles, cette étude concluait qu’en moyenne sur dix ans, pour un niveau de risque
donné, les clients des FCP auraient pu accroître leur richesse de 15% en se contentant
d’acheter et de conserver un portefeuille largement diversifié ; or, à peine 26 des 115 FCP
avaient obtenu des performances supérieures. Sur la période récente, comme le montre le
tableau 1, cette relative efficacité de la gestion passive fut encore constaté.
Une des expériences les plus amusantes fut celle menée par le magazine économique
américain Forbes de 1967 à 1984. Intrigués par les résultats des analyses académiques, les
allusions à la sélection par les fléchettes, les rédacteurs décidèrent de pratiquer celle-ci en
juin 1967 ! Accrochant la page financière du New York Times du jour, ils sélectionnèrent
alors un portefeuille de 28000$ ... en jetant 28 fléchettes ! Pendant 17 ans, ce portefeuille

24
fut conservé, ses résultats suivis semaine après semaine. Après 17 ans, en 1984, lorqu’il fut
réalisé, ce portefeuille valait alors 131 697.61$. Son taux de rendement annuel composé
de 9.5% n’avait été surpassé que par un nombre très réduit de spécialistes. Au début
des années 90, le Wall Street Journal réitéra l’expérience de la sélection par fléchettes
selon des modalités différentes : chaque mois, quatre experts étaient sélectionnés et leurs
sélections de titres étaient opposés à quatre sélections par fléchettes. D’après B. Malkiel
qui eut accès à la totalité des résultats : “Au milieu des années 90, les experts étaient
légèrement en tête. Cependant si la performance des portefeuilles étaient prolongés [au
delà du mois considéré], alors les fléchettes revenaient légèrement en tête. Cela signifie-
t-il que le poignet est plus efficace que le cerveau ? Peut-être pas, mais je pense que les
rédacteurs du Forbes soulevaient une très bonne question lorsqu’il écrivaient : “il semble
qu’une combinaison de chance et de paresse bat le cerveau.” ([Mal96] p. 179)
Ces résultats sont sans doute certains des plus intéressants éléments empiriques pour
la thèse de la marche aléatoire car elle seule est capable de les rationaliser :

“Si des investisseurs intelligents sont constamment à la recherche des bonnes


valeurs, les vendant lorsqu’ils pensent qu’elles sont sur-évaluées et les achetant
lorsqu’elles sont estimées sous-évaluées, le résultat de cette action des inves-
tisseurs intelligents sera que les prix des actions seront très vite alignés sur
les valeurs escomptées justifiées par leurs perpectives. Aussi, pour l’investis-
seur passif, qui ne cherche pas lui-même les situations sur- ou sous-évaluées,
la structure des prix sera telle que pour lui un titre en vaudra un autre. Pour
cet investisseur passif , la chance sera une aussi bonne méthode de sélection
qu’une autre.” (P.A. Samuelson, [Sam67], cité par [Mal96] p. 190)

Ils ont également conduit le même Samuelson à adopter une vue extrême sur l’uti-
lité des analystes financiers dans le premier numéro du prestigieux Journal of Portfolio
Management :

“l’observation des faits me fait pencher vers l’hypothèse selon laquelle les
gérants de portefeuille devraient pour la plupart se retirer et essayer la plom-
berie, enseigner le grec ou aider à la production du PNB en travaillant comme
cadres commerciaux.” ([Sam74])

25
4 L’hypothèse des marchés efficients

5 Information et équilibre
Fama ne se contenta pas de multiplier les études empiriques. Il donna aussi une nou-
velle dénomination : l’hypothèse d’efficience marché (Efficient Market Hypothesis, EMH),
et une nouvelle présentation. Avec l’accent est moins mis sur la nature du processus sto-
chastique du marché que sur une autre propriété : la capacité (supposée) des prix du
marché à refléter l’information disponible :

“Dans un marché efficient, la concurrence entre de nombreux investisseurs


intelligents conduit à une situation où, à tout instant, les prix effectifs reflètent
déjà les effets de l’information sur les événements passés et sur les événements
susceptibles d’avoir lieu dans le futur. En d’autres mots, dans un marché
efficient à tout instant le prix effectif du titre sera une bonne estimation de sa
valeur intrinsèque.” ([Fam65b])12

Entre les approches antérieurs (Cootner, Samuelson, Bachelier) et celle de Fama, un


glissement s’est opéré : l’information a pris le pas sur les propriétés stochastiques des
prix réduites à n’être qu’une conséquence. Aussi, dans son article fondamental de 1970,
Efficient capital markets : a review of theory and empirical work [Fam70], Fama en vint
à proposer trois formes d’efficience :
— la forme “faible” selon laquelle l’information contenue dans les prix de marché passés
est complètement reflétée par les prix des actifs ;
— la forme “semi-forte” selon laquelle toutes les informations publiques sont complè-
tement pris en compte par les prix ;
12
Ou en termes plus imagés :
“L’efficience du marché est une description de la réaction des prix aux nouvelles informations. L’arrivée
d’une nouvelle information sur un marché concurrentiel peut être comparée à l’arrivée d’une côtelette
d’agneau au milieu d’un banc de piranhas affâmés, les piranhas figurant les investisseurs. Au moment
où la côtelette effleure la surface de l’eau, celle-ci est soudainement agitée par les piranhas qui dévore
la viande. Très rapidement cependant, celle-ci disparaît, et la surface redevient paisible. Similairement,
quand une nouvelle information atteint un marché concurrentiel, celui-ci est soudainement rempli du
tumulte créé par les investisseurs qui, prenant en compte la nouvelle information, vendent et achètent les
titres, causant un ajustement des prix. Une fois que celui-ci est réalisé, l’information est comme un os
sans viande. Aucun rongement supplémentaire ne permettra d’obtenir plus de viande, et aucune analyse
supplémentaire de la nouvelle n’apportera d’information supplémentaire exploitable avec profit.” (Robert
C. Higgins [Hig92])

26
Fig. 21 — Eugene Fama en 1965

— enfin, la forme “forte” selon laquelle toutes les informations disponibles sont pris en
compte par les prix.
Chacune de ces formes “cible” une forme d’analyse ou d’information : la forme “fai-
ble” si elle est vérifiée aboutit à nier en effet toute utilité aux analyses chartistes ; la
forme “semi-forte” elle aboutit à remettre en cause l’efficacité des analyses fondamenta-
listes évaluant la valeur des entreprises à partir de données publiques (comptables) sur
les entreprises ou (macroéconomiques) sur leurs marchés. Enfin, la forme “forte” vise le
problème de l’importance de l’information privilégiée.
Fama lui-même avait une vue essentiellement pragmatique de ces tests :

“nous devons noter que ce que nous avons appeler le modèle des marchés
efficients [...] est l’hypothèse que les prix des actifs à tout instant “reflète tota-
lement” toute l’information disponible. Alors que nous allons défendre la thèse
que le modèle se comporte relativement bien par rapport aux faits, il est évi-
demment une hypothèse nulle extrême. Et, comme les autres hypothèses nulles
extrêmes, nous ne devons pas nous attendre à la voir totalement confirmée.
Les catégories forme faible, forme semi-forte et forme forte ont essentiellement
pour but de nous permettre de cerner le niveau d’informationoù l’hypothèse
s’effondre.” ([Fam70] p. 23)

Dans sa recension de 1970, Fama concluait qu’il n’y avait aucun élément important
allant à l’encontre des formes faible et semi-forte, et seulement des éléments limités contre
la forme forte. L’élément sans doute le plus en faveur de la forme forte est l’étude de Jensen
[Jen68] déjà mentionnée des performances de 115 mutual funds sur la période 1955-64.
L’absence de sur-performance des gérants des funds conduisait en effet Jensen à conclure :

27
“Bien que les résultats n’impliquent pas que la forme forte de l’hypothèse
de la martingale soit vérifiée pour tous les investisseurs et à tout moment, ils
donnent des éléments particulièrement forts à l’appui de cette hypothèse. On
doit en effet réaliser que ces analystes sont extrêment bien dotés. Au surplus, ils
opèrent sur des marchés d’actifs tous les jours et ont de multiples contacts dans
le monde des affaires et les milieux financiers. Aussi, le fait qu’ils n’aient été
apparemment incapable de prévoir suffisamment précisément les rendements
pour compenser leurs frais d’analyse financière et leurs coûts de transaction
supplémentaires est un élément de preuve étonnant en faveur de la forme forte
de l’hypothèse de martingale.” ([Jen68], cité par [Fam70] p. 48)

De multiples tests ont depuis permis de mieux évaluer cette forme forte. Même si
elle est sans doute plus résistante que l’on ne pourrait s’y attendre, elle n’est sans doute
pas la forme d’efficience la mieux vérifiée empiriquement. Cepedant, cette forme “forte”
d’efficience est sans aucun doute la plus intéressante théoriquement car elle pose une
énigme.
Comment l’information privée qu’ont les différents traders ne pourrait pas leur donner
un avantage sur les agents non informés ? Fama, lui-même, ne proposait pas de modéli-
sation théorique expliquant cette transmission de l’information par le marché. Ce ne fut
que progressivement, notamment sous l’impulsion de Robert Lucas (1937-), que l’on vit se
développer des modélisations expliquant cette transmission de l’information par les prix.
L’exemple simple qui suit permet d’en comprendre l’intuition.

6 Efficiences faible et semi-forte des marchés

6.1 Efficience faible


Les travaux sur le chartisme avait largement remis en question la possibilité de battre
le marché en se basant sur les prix passés. L’examen dans les années 50 et 60 de la
profitabilité des stratégies de filtre permis de confronter l’hypothèse d’efficience faible des
marchés.
Comme l’illlustre la figure 22, la technique de filtre consiste à fixer une marge de fluc-
tuation au delà de laquelle en cas de retournement le titre est soit acheté, soit vendu.
Ainsi, sur la figure 22, le point A constitue un premier retournement du marché : au
point B, la hausse cumulée du marché (depuis A) est égale au filtre et donc ceci cosntitue
le signal d’achat des actions. Aux points C et D, le marché se remet provisoirement à

28
Log prix

E
x%
F
D signal
de vente
C
signal
d'achat

B x%
A

temps

Fig. 22 — Un exemple d’application de la technique du filtre.

baisser. Cependant, la baisse cumulée (jusqu’au retournement à la hausse) en chacun de


ces points est inférieur au filtre : aussi on continue à détenir les titres achetés en A. Par
contre, le retournement initié au point E est d’une ampleur suffisante pour entraîner l’ap-
parition d’un signal de vente au point F. Cet exemple illustre le principe de la stratégie
de filtre. Celle-ci présuppose que les évolutions des cours des actions financiers sont suf-
fisamment persistants. Son principal désavantage est qu’elle conduit souvent à réajuster
les portefeuilles et donc à multiplier les coûts de transaction. Les études empiriques ont
souligné l’importance de ceux-ci pour la profitabilité de relative de la stratégie de filtre
relativement à une stratégie passive de “buy and hold”.
Ainsi, dans une étude représentative, Cootner [1962] [Coo62] opposa, sur un échan-
tillon comprenant 45 valeurs du NYSE sur la période 1956-60 (données hebdomadaires),
une gestion passive “achat-conservation” à une stratégie traquant les cours à l’aide d’une
moyenne mobile (sur 40 semaines) et avec un seuil soit nul soit de 5%.13 Les résultats
13
Cette stratégie consiste donc à comparer au début de chaque semaine la valeur atteinte par le titre
durant la semaine précédente à sa valeur moyenne (calculée à l’aide de la moyenne mobile). Si la valeur
effective est supérieure au seuil, par exemple est supérieure de 5% à la valeur moyenne, le titre est
considéré comme surévalué et donc vendu. Si la valeur est inférieure de plus de 5%, la valeur est réputée
sous-évaluée et donc achetée. Grâce à cette technique (sommaire), on espère exploiter tout écart entre le
prix du titre et sa valeur fondamentale, supposée résumée par cette moyenne.

29
Tab. 2 — Résultats de différentes stratégies de sélection de titres du NYSE sur la période
1956-60 (données hebdomadaires)
rendement transactions
moyen (%) moyennes
brut net
achat-conservation 10 10 2
Moyenne mobile (5%) 14 11 15.2
Moyenne mobile (0 %) 12 6 40.6
source : Cootner [1962]

obtenus illustre la difficulté sur laquelle butent les stratégies actives, l’importance des
commissions de courtage (différence entre le brut et le net).
A la même époque, l’économiste Sidney Alexander, initialement partisan des stratégies
actives, concluait ainsi une série d’articles [Ale61] [Ale64] :

“Les profits importants de l’article [Ale61] doivent être remplacés par des
profits plus faibles. La question se posent encore de savoir si ces mêmes pro-
fits ne pourraient pas être le résultat d’une marché au hasard. Mais je dois
confesser que le côté amusant de ce travail a quelque peu disparu.”
“Je devrais conseiller à tout lecteur que seuls les résultats pratiques in-
téressent, et qui n’est pas pas un courtier en bourse et doit donc payer des
commissions, de se tourner vers d’autres sources pour trouver une méthode
qui batte la stratégie “achat-conservation”.” ([Ale64], cité par [Ber95] p. 112)

La conclusion générale des analyses des stratégies de filtre, comme celles sur les stra-
tégies inspirées par les chartistes, est donc plutôt en faveur de l’hypothsèe de l’efficience
faible des marchés. D’autres travaux ont tenté d’évaluer cette hypothèse en évaluant le
degré d’auto-corrélation des rendements et la pertinence de la marche aléatoire.
Sous l’hypothèse de marche aléatoire, connaissant le rendement moyen et la variance du
marché, il est possible de calculer la distribution de runs, i.e. la distribution des rendements
consécutifs allant dans le même sens. Ainsi Fama [1965] [Fam65b] a compté les runs de
30 actions du Dow Jones sur des observations portant sur un, quatre, neuf et seize jours.
En moyenne, le hasard devrait produire une moyenne quotidienne de 760 runs alors qu’il
en observé 735. De même aux autres horizons, les nombres observées sont très proches
des nombres théoriques et les différences étaient trop faibles pour être exploitables.
Econométriquement, la mise en évidence de l’auto-corrélation passe classiquement par

30
l’estimation d’équations du type :

Rt = a + bRt−T + et (8)

L’ordre de l’auto-corrélation est donnée par la valeur de T . Dès 1965, Fama dans son
étude sur 60 actions de l’indice Dow Jones a mis en évidence une auto-corrélation positive
du premier ordre des rendements quotidiens pour 23 titres, auto-corrélation significative
pour 11 titres avec des valeurs allant de −0.123 à 0.118 (tableau 3). L’importance de
cette auto-corrélation n’était cependant pas économiquement significative puisque elle
était trop faible pour être économiquement exploitable d’après Fama.
Dans les années 80, ces résultats plutôt favorables à la marche aléatoire ont été atta-
qués notamment par Lo & MacKinley [1988] [LM88] qui sur données hebdomadaires
ont mis en évidence une auto-corrélation importante pour les portefeuilles equi-pondérés.
Cependant, cette auto-corrélation disparaît pour les portefeuilles pondérés. A court-terme
l’auto-corrélation des rendements est donc suffisamment faible pour apparaître conforme
à l’efficience faible.

6.2 Efficience semi-forte


L’efficience semi-forte revient à poser des restrictions sur l’ajustement des prix lors-
qu’une information publique arrive sur le marché. La figure 23 illustre les deux ajustements
possibles :
— si les marchés n’intègrent pas parfaitement l’information publique alors, comme
le montre (a), après la période d’annonce la dynamique des prix continue à être
influencée par l’annonce et donc ne converge que lentement vers la valeur d’équilibre ;
— si par contre l’information est intégrée rapidement, alors, comme le montre (b), en
l’absence d’arrivée d’autres informations, le prix est ajusté à sa valeur d’équilibre
dès la période d’annonce.
Différents travaux ont donc tenté de mettre en évidence cette dynamique des prix. Un
travail pionnier et classique, utilisant la technique des événements, fut celui de Fama,
Fisher, Jensen & Roll [1969] [FFJR70] sur la division des actions.
Leur analyse portait donc sur 940 divisions d’actions sur la période 1927-59 sur le
NYSE, dont certaines avaient connu durant l’année suivant la division des titres soit une
augmentation, soit une diminution des dividendes. Pour évaluer le rendement en excès des
titres, le modèle du MEDAF est utilisé. La variable observée est donc le résidu cumulé
du rendement en excès, i.e. le rendement non expliqué par le MEDAF. Les résultats de
Fama, Fisher, Jensen & Roll [1969] étaient triples :

31
Tab. 3 — L’auto-corrélation des rendements

source : Fama [1970]

32
(a) ajustement partiel (b) ajustement complet
prix après l'annonce prix à la période d'annonce

valeur d'équilibre après l'annonce

période période
d'annonce temps temps
d'annonce

Fig. 23 — Les deux ajustements possibles des prix à une annonce.

— comme le montre la figure 24, le résidu moyen cumulé du titre après la division des
titres est stable, conforme en celà à l’hypothèse que l’ajustement des prix est rapide ;
— la croissance du prix avant la division est a priori problématique car la division est
a priori neutre ; ce mouvement à la hausse est interprétée par Fama, Fisher, Jensen
& Roll [1969] comme la conséquence du fait que la division est en général associé à
une bonne rentabilité à venir pour les actionnaires ; la croissance du titre selon eux
révèle une information inférée par le marché ;
— si la nouvelle anticipée par le marché est confirmée alors le titre doit continuer à aug-
menter alors que si elle est contredite, le titre doit baisser de manière permanente ;
la désagrégation des résultats révèle que ceci est bien le cas (figure 25).
D’autres études ont appliqué la méthode des événements à d’autres marchés, d’autres
titres, d’autres périodes. Les conclusions sont en général conformes à celles de Fama,
Fisher, Jensen & Roll [1969].
On peut également tenter de tester économétriquement l’hypothèse d’efficience semi-
forte. La difficiculté de cette approche est alors de bien identifier les informations pu-
bliques. Le travail de Roll [1984] [Rol84] est sans doute un des meilleurs travaux ayany
adopté cette approche économétrique.

33
Fig. 24 — Les ajustements des prix avant et après la division des actions. (source : Fama,
Fisher, Jensen & Roll [1969])

Fig. 25 — Les ajustements des prix avant et après la division des actions. (source : Fama,
Fisher, Jensen & Roll [1969])

34
Les marchés de futures sur le jus d’orange aux Etats-Unis sont essentiellement échangés
par la Citrus Associates du New York Cotton Exchange. Sur la période analysée (octobre
1975 - décembre 1981,), environ 9 contrats étaient échangés, dont les livraisons à deux
mois, en janvier, en mars, etc... La livraison la plus distance est à 17-18 mois. Un contrat
portait sur 15000$ de jus d’orange standardisé par la concentration (le “degré bix”) et
des “scores” minimaux pour la couleur, la saveur et les défauts. Les contrats les plus
nombreux sont pour les échéances rapprochées, i.e. les contrats des échéances supérieures
à 8 mois ne représentent que 10% des contrats d’échéance de 2 à 6 mois. Les contrats les
plus courts sont extrêmement volatiles : ainsi le contrat expirant 16 novembre 1977 vit
son prix passer dans les 15 dernières minutes de 1.30$ à 2.20$ par livre, soit un taux de
rendement annualisé de 1.8 million de % !
L’intérêt du jus d’orange pour l’hypothèse semi-forte d’efficience découle de plusieurs
propriétés de sa production aux Etats-Unis :
— plus de 98% de la production est produite autour d’Orlando (Floride)
— le temps est un des paramètres essentiels de la production ; en raison de la concen-
tration géographique, la météo pertinente est celle de la région d’Orlando ;
— la météo est mesurée de manière précise et cohérente par une agence fédérale, la
National Weather Service du Department of Commerce ;
— seule une petite partie de la production est stockée et donc l’équilibre est peu sus-
ceptible d’être affectée par d’autres paramètres ;
— l’offre est peu susceptible d’être variable étant donné qu’il faut de 5 à 15 ans pour
faire pousser un arbre.
Aussi, “le jus d’orange est un bon candidat pour une étude de l’interaction entre les
prix et un déterminant exogène de la valeur, la météo.” (Roll [1984] [Rol84] p. 861)
Les informations les plus intéressantes communiquées par l’U.S. Weather Service sont
les prévisions à 36, 24, 12 heures portant sur la température (minimum, maximum) et la
pluviométrie.
L’hypothèse testée par Roll [1984] est donc que : “si le marché de futures sur le
jus d’orange était un mécanisme efficient de traitement de l’information, il doit incorporé
toutes les prévisions météorologique à court- et à long-terme. [...] Les prix des futures
doivent incorporer, par conséquent, la part prévisibile de la météo. Seule l’erreur dans les
prévisions doit être corrélée avec les évolutions contemporaines des prix.” ([Rol84] p. 869)
Aussi, les régressions testées sont les suivantes :
µ ¶
A
ln = a + b−2 Rt−2 + b−1 Rt−1 + b0 Rt + b1 Rt+1 + b2 Rt+2
F

35
Tab. 4 — Rendements journaliers et erreurs de prévision du max de température
b−2 b−1 b0 b1 b2
0.102 -0.0558 -0.0894 -0.0600 -0.490
36 heures
(1.31) (-0.624) (-1.00) (-0.673) (-5.37)
0.0374 -0.0615 0.0224 0.585 -0.379
24 heures
(0.461) (-7.50) (0.275) (0.714) (-4.71)
-0.0851 -0.0905 0.00691 0.0295 -0.191
12 heures
(-1.17) (-1.23) (0.0936) (0.398) (-2.62)
source : Roll (1984) p.870

où A est la température actuelle, F la prévision, Rt le rendement journalier équipondéré


des deux contrats. Le ln(A/F ) est donc une mesure de l’erreur de prévision.
Les résultats obtenus sont reportés dans le tableau ??, où les valeurs entre parenthèses
sont les t de Student. Les seuls paramètres statistiquement significatifs sont ceux de la
période t + 2 : ceci est donc en contradiction avec l’hypothèse d’efficacité semi-forte.
Cette inefficience semble résider dans l’existence des prix-limites. En effet, les autorités
de marché imposent des limites sur les mouvements des prix avant (après) 1979 :
— les prix ne peuvent évolués de plus de 5 (3) cents par livre par contrat, de plus de
750 (450) $ par contrat au dessus ou au dessous de la session précédente ;
— quand au moins 3 contrats mensuels ont été échangés à la clôture à la limite durant
3 jours successifs, la limite est portée provisoirement à 8 (5)% ;
— sur les trois derniers jours des contrats, la limite d’évolution des cours est porté à
10% ; si la limite est atteinte durant la session, une suspension de 15 minutes de la
cotation de l’ensemble des contrats est alors respectée et la limite peut alors être
augmentée de 10 points.
Sur la période octobre 1975 - décembre 1981, 160 sessions (10%) de l’échantillon virent
les prix mordre les limites. Aussi, l’inefficacité du marché peut être la conséquence de ces
dispositions institutionnelles. Pour éliminer cet effet, Roll a procédé à une réestimation
de ses régressions en éliminant les 160 mouvements contraints.
Comme le montre le tableau ??, il n’existe plus de relations significatives entre les
erreurs de prévision et les rendements futurs : “Ceci indique que la significativité des
coefficients décalés trouvés dans le ?? était la conséquence des règles de prix limites et
non à d’autres sources d’efficience infiormationnelle.” ([Rol84] p. 872) En l’absence de ces
contraintes de microstructure, l’hypothèse d’efficience informationnelle semi-forte est en
général vérifiée.

36
Tab. 5 — Rendements journaliers et erreurs de prévision du max de température avec
correction des sessions contraintes
b−2 b−1 b0 b1 b2
0.0692 0.0671 -0.102 0.0449 -0.0341
36 heures
(1.46) (1.25) (-2.31) (1.01) (-0.686)
0.0654 -0.00721 0.111 0.0234 -0.0545
24 heures
(1.48) (-1.65) (-2.74) (0.570) (-1.33)
0.0518 0.0196 -0.0121 0.0482 -0.0368
12 heures
(1.30) (0.495) (-0.327) (1.30) (-0.987)
source : Roll (1984) p.870

7 Information privée et l’hypothèse d’efficience forte


L’hypothèse d’efficience forte est l’hypothèse la plus audacieuse. Même les partisans
de l’efficience des marchés comme Eugène Fama ne pense naturellement pas qu’elle soit
exactement vérifiée mais qu’elle constitue un benchmark par rapport auquel on peut
évaluer l’efficience des marchés.14
Tester l’hypothèse forte de l’efficience pose de multiples problèmes. Le premier d’entre
eux est évidemment celui de la mesure de l’information privée. Dans la littérature, essen-
tiellement deux types d’information ont été indirectement évalués : celles des analystes
financiers et celle des initiés, notamment des dirigeants et des actionnaires importants des
entreprises. Dans les deux cas, l’information est appréhendée via la mesure des perfor-
mances ex post obtenues. Pour évaluer ces performances, il est nécessaire de les corriger
du risque encouru. Aussi, l’évaluation de la performance en excès conduit à utiliser un
modèle d’évaluation. Ceci est à l’origine du second problème de cette littérature : le test
de l’efficience forte de l’efficience est nécessairement un test joint du modèle d’évaluation
utilisé et de l’hypothèse d’efficience. Si le test est négatif, logiquement soit le modèle soit
l’hypothèse rejetée. Aussi, dès lors que le test est un test joint, se pose alors un problème
d’interprétation des résultats. Les premiers tests de l’hypothèse de l’efficience forte furent
réalisées avec le modèle du MEDAF au cours de la seconde moitié des années 70. Ainsi,
le travail pionnier sur l’information des initiés fut celui de Jaffe [1974] [Jaf74]. Ses ré-
sultats, obtenus avec le MEDAF, rejetaient l’hypothèse d’efficience forte : selon lui, les
14
“One would not expect such an extreme model to be an exact description of the world, and it is
probably best viewed as a benchmark against which the importance of deviations from market efficiency
can be judged.” ([Fam70] p. 414)

37
marchés ne réagissaient que lentement aux informations publiques, et donc les outsiders
pouvaient exploiter leur information même huit mois après que l’information soit devenue
publique. Ces premiers résultats furent critiqués notamment par Seyhun [1986] [Sey86] :
dans l’étude de Jaffe, en effet les profits en excès viennent essentiellement des petites
capitalisations ; or, le CAPM, à la différence d’(autres modèles de valorisation, est un
outil peu efficace pour rendre compte de la valeur de ces titres. Le résultat de Jaffe
[1974] peut donc apparaître beaucoup plus un résultat défavorable au MEDAF plus qu’à
l’hypothèse d’efficience forte. Aussi, à la suite notamment du propre travail de Seyhun
[1986], la remise en cause du CAPM conduisit donc montée du scepticisme sur la valeur
du CAPM, cela conduisit à de nouveaux travaux recourant à des modèles d’évaluation
factoriels et à des méthodes économétriques plus sophistiquées. Ces efforts de raffinement
étant toujours un thème de recherche, il est équitable de conclure que si l’hypothèse d’ef-
ficience forte a souvent été rejetée, les gains que l’information privée permet d’atteindre
apparaissent de plus en plus limités.
La question de l’efficience forte pose évidemment le problème de l’importance de l’in-
formation privée sur les marchés. Différents travaux ont tenté de mettre en évidence
l’importance de celle-ci, dont l’un des plus célèbres est celui de French & Roll [1986]
[FR86].

7.1 Variances des marchés et information


Le point de départ de l’étude de French & Roll [1986] est l’observation que sur la
période 1963-82 sur les actions ordinaires du NYSE et de l’AMEX listés par le CRSP, la
variance des rendements des actions durant les périodes où les marchés sont ouverts est de
13 à 100 fois plus élevée que pendant les périodes où les marchés sont fermés (weekends,
vacances). En effet, les résultats (reportés dans le tableau 6) montre que les variances
des périodes de congés, des weekends, ne sont généralement que “légèrement” supérieures
à celle des jours d’ouverture. En supposant que la durée d’ouverture du marché est de
six heures en moyenne et que l’auto-corrélation est négligeable (pour l’horizon retenu),
ces différentes variances permettent d’obtenir la variance horaire du marché lorsqu’il est
ouvert et sa variance lorsqu’il est fermé. En effet, sous ces hypothèses, la variance du
weekend (comprenant le vendredi) devrait être :

σ2w = 66σ 2N + 6σ 2N

38
Tab. 6 — Ratios des volatilités à la variance des jours d’ouverture
quintile quintile
toutes les
le plus 2 3 4 le plus
actions
petit important
congés
1.247 1.301 1.199 1.239 1.217 1.281
(2 jours)
weekends 1.107 1.122 1.108 1.119 1.105 1.082
congés et
1.117 1.111 1.122 1.099 1.122 1.130
weekends
source : French & Roll (1986) p. 7

alors que celle d’un jour de semaine devrait être :

σ 2j = 18σ 2N + 6σ 2T

Comme la variance du weekend est égale à 1.107 fois celle d’un jour habituel, alors la
variance

¡ ¢
66σ2N + 6σ 2T = 1.107 18σ 2N + 6σ 2T

où σ 2T est la variance horaire des heures d’ouverture, σ 2N la variance horaire des heures où
les marchés sont fermés. En résolvant, on trouve que la variance des heures ouvertes σ 2T
vérifie :
66 − 1.107 × 18 2
σ 2T = σ
(1.107 − 1) × 6 N
= 71. 766σ 2N

De même, lorsque l’on applique la même méthode aux congés en milieu de semaine, on
trouve ;
σ 2T = 13.2σ2N

ou pour les ponts :


σ 2T = 99.6σ2N

Trois facteurs peuvent a priori expliquées cette différence de variances :


— une différence dans la fréquence d’arrivée d’informations publiques ;
— l’arrivée de l’information privée et son exploitation durant les périodes d’ouverture
des marchés ;

39
— enfin, la plus grande variance peut être la conséquence des erreurs de pricing engen-
drés au cours des périodes de cotation.
L’analyse des données empiriques, notamment de la variance des rendements des jours
fériés, a conduit French & Roll [1986] à rejeter l’hypothèse de l’information privée.
Pour départager les deux dernières hypothèses, l’autocorrélation des rendements a été étu-
diée : en effet, les erreurs de pricing doivent, en raison des corrections qu’elles entraînent,
se traduire par une auto-corrélation négative des rendements. De fait, les résultats éco-
nométriques font apparaître celle-ci mais elle est relativement faible. Aussi, l’estimation
de French & Roll [1986] était que l’erreur de pricing n’expliquerait selon l’horizon retenu
(la journée, la semaine, etc...) que de 4 à 12% de la variance. Ceci suggère évidemment
que l’information privée est le facteur dominant de la différence de variance observée.
Anecdotiquement, de fait, durant la seconde moitié de 1968, les marchés boursiers durent
fréquemment fermés le mercredi pour permettre aux courtiers et autres intervenants de
solder complètement leur arriéré de travail administratif. Or, en conformité avec l’hy-
pothèse de l’information privée, la volatilité des marchés se révéla très inférieure à la
moyenne de la période 1963-82.
Au total, donc le travail de French & Roll [1986] illustre l’importance potentielle
de l’information privée pour l’animation des marchés financiers. Evidemment, au-delà du
volume des transactions, l’information privée pose le problème du rendement en excès
qu’elle confère.

7.2 L’énigme de la Value Line


L’un des premiers cas d’inefficience informationnelle forte portée à l’attention des
économistes fut celui de la Value Line.
La Value Line est sans doute une des plus importantes publications financières du
monde. Elle emploie plus de 200 employés et analyse plus de 1700 actions. Sa méthode
consiste à ranger celles-ci toutes les semaines à l’aide d’un score de 1 à 5. Les actions
appartenant à la classe 1 sont supposés être les actions les plus prometteuses pour les 12
mois à venir, les actions appartenant à la classe 5 à la catgorie la pire.
Black [1973] [Bla73], dont le titre évocateur est “Yes, Virginia, there is hope : tests
of the value line ranking system”, fut la première étude analysant la performance du
classement de la value line. Utilisant le MEDAF pour corriger le rendement du risque,
conformément à la méthode proposée par Jensen [1969] [Jen69], il évalua le rendement
en excès d’un portefeuille long en actifs de la catégorie1, court en actif de la catégorie

40
Fig. 26 — Les rendements cumulés de la Value Line, novembre 1965 - février 1978. (source :
Copeland & Mayers [1982])

5 à près de 20% !15 Après cette première étude célèbre de la Value Line, divers auteurs
reprirent cette analyse en modifiant les méthodes d’évaluation des rendements. Ainsi,
Copeland & Mayers [1982] [CM82] analysèrent les performances de la Value Line sur
la période allant de novembre 1965 à février 1978 (figure 26).
Utilisant le CAPM, ils ré-estimèrent les rendements en excès de la Value Line sur la
période considérée. Comme auparavant Black, le MEDAF se révéla incapable d’expliquer
(totalement) les variations du rendement en excès des différentes catégories comme l’at-
teste les α non nuls du tableau 7. Les rendements en excès et le cumul du rendement en
excès furent donc calculés en conséquence et sont reportés dans le tableau 8 et représentés
sur la figure 27.
Outre l’existence des rendements en excès, l’analyse de Copeland & Mayers [1982]
mis en évidence :
— des valeurs des rendements en excès sensiblement inférieures à celles de Black ...
— ... qui découlent essentiellement des ventes des actifs de la catégorie 5 ;
— le gain au demeurant apparaît faible au point d’être annuler par un coût de tran-
saction de 1% ; cependant certaines stratégies peuvent dégager des profits nets,
notamment celles consistant à allonger la période de détention à 6 mois en révisant
à l’issue de la période en rachetant des actifs de la catégorie 1 et en vendant les
15
Les portefeuilles utilisés par Black étaient équi-pondérés et ré-équilibrés tous les mois.

41
Tab. 7 — Benchmarks des différentes catégories
1 2 3 4 5
26 semaines
α 0.000 0.0002 -0.000 -0.0003 -0.0007
β 1.0426 0.9552 0.8870 0.8815 1.0032
52 semaines
α -0.0003 -0.0001 -0.0001 -0.0002 -0.0007
β 1.0209 0.9472 0.8779 0.8778 1.0039
source : Copeland & Mayers (1982) p. 299

Tab. 8 — Rendements en excès des différentes catégories


1 2 3 4 5
26 semaines
ACR 0.0152 0.0112 -0.0021 -0.0107 -0.0297
AR 0.0006 0.0004 -0.0001 -0.0004 -0.0011
52 semaines
ACR 0.0033 0.0035 -0.0057 -0.0112 -0.0305
AR 0.0001 0.0001 -0.0002 -0.0004 -0.0012
source : Copeland & Mayers (1982) p. 301

Fig. 27 — Les rendements en excès de la Value Line, novembre 1965 - février 1978. (source :
Copeland & Mayers [1982])

42
actifs de la catégorie 5.
L’analyse de Stickel [1985] [Sti85] compléta cette analyse en utilisant la technique
des événements. Son analyse mis en évidence que :
— la Value Line possèdait une information dont le marché ne disposait pas (effet d’an-
nonce) ;
— les ajustements de prix prennaient en moyenne trois jours et étaient permanents ;
— les effets étaient importants essentiellement pour les petites capitalisations ; selon
ses résultats, le passage du groupe 2 au groupe 1 est associé à un rendement sup-
plémentaire au bout de 3 jours de 5.18% pour les plus petites capitalisations alors
que le gain est de 0.7% pour les plus petites importantes capitalisations.
Comme souvent dans la littérature, l’analyse des sources des inefficiences conduit donc
à cerner une catégorie de titres extrêmement spécifique par leurs risques, leurs liquidités
et leurs coûts de transaction.16 L’analyse financière apparaît donc pour certains titres
susceptibles d’engendrer des rendements en excès positifs (mais relativement faibles). Ces
résultats de la Value Line ne sont pas uniques. Liu, Smith & Syed [1990] [LSS90] ont
trouvé des résultas similaires à Stickel [1985] portant sur les conseils de placement (et
le rating) du Wall Street Journal.

7.3 Valeur de l’information des initiés


Le second cas important d’information privée analysé dans la littérature est celui des
initiés. Aux Etats-Unis, depuis le Security and Exchange Act de 1934, renforcé par l’Insider
Trading Sanctions Act de 1984 et l’Insider Trading and Securities Fraud Enforcement Act
de 1988, les “corporate insiders” doivent dans un délai de 10 jours reporter à la SEC
toute transaction portant sur les titres des entreprises dont ils sont les insiders. Parmi
les Insiders les dispositions légales mentionnent les membres des conseils des directeurs
ainsi que les actionnaires contrôlant plus de 10% du capital. Ces formulaires déposées à
la SEC constituent une source d’information considérable (et rarement égalée dans les
autres pays) sur lesquels différents études ont tenté d’évaluer les rendements en excès des
initiés ou des transactions coïncidant à des transactions d’initiés.
Dans cette littérature, outre le travail pionnier de Jaffe [1974] [Jaf74] déjà mentionné,
sans doute le travail le plus de référence est celui de Seyhun [1986] [Sey86].
Son point de départ était de souligner certaines faiblesses des études antérieures :
16
Selon Hulbert [1990] (cité par Fama [1991] [Fam91]), au cours des années 80, ces gains de rende-
ment de la Value Line seraient devenus encore plus faibles.

43
Tab. 9 — Transactions privilégiées selon les entreprises
capitalisation des entreprises
< 25 M$ 25 < < 50 50 < < 250 250 < < 1000 < 1000 toutes
nombre
104 68 173 267 157 769
d’entreprises
valeurs des
152 182 1287 2990 6490 11 101
transactions
nombre des
4141 3010 10552 23267 16178 59148
transactions
achats / ventes 2.09 1.27 0.79 0.57 0.59 0.70
source : Seyhun (1986) p. 191

Tab. 10 — Transactions privilégiées selon les types d’insiders


officers- Pt. du bureau actionnaires
officers directors tous
directors des directeurs importants
valeurs des
806 1889 571 408 7427 11 101
transactions
nombre des
21913 17486 6520 3400 9829 59148
transactions
source : Seyhun (1986) p. 191

— l’estimation des rendements par excès par le CAPM néglige le facteur de rendement
que constitue l’importance de la capitalisation [Ban81], [Rei81] ;
— les périodes où les transactions des insiders deviennent publiques sont difficiles à
déterminer et sont généralement confondues avec celles des transactions ;
— les relations entre les profits des insiders et la taille du spread sont peu étudiés alors
qu’elles constituent un élément crucial des théories (Glosten & Milgrom [1985]
[GM85])
Les données exhaustives de Seyhun [1986] proviennent essentiellement de la SEC et
comprennent environ 1.5 million de transactions réalisées entre 1973 et 1981. Après élimi-
nation des entreprises sur lesquelles on disposait de peu d’information, l’éhantillon final
comprenait 769 entreprises. 58% des transactions d’initiés avaient lieu dans les entreprises
les plus importantes ; les agents réalisant le plus fréquemment de telles transactions sont
dans l’ordre les officers, les directeurs puis les actionnaires importants.
Sur les ventes et les achats, les insiders réalisaient des rendements en excès positifs

44
Tab. 11 — Rendements par excès cumulés des transactions des insiders, 1975-1981
période total achats ventes
-2.3 -1.4 2.5
-100 / 0
(-3.3) (-2.1) (4.0)
-1.3 -0.7 1.7
-20 / 0
(-4.8) (-2.4) (6.2)
1.0 1.1 -0.9
1 / 20
(3.7) (3.8) (-3.3)
2.3 3.0 -1.7
1 / 100
(3.7) (4.4) (-2.7)
0.8 1.3 -0.5
101 / 300
(0.9) (1.4) (-0.6)
3.1 4.3 -2.2
1 / 300
(2.8) (3.7) (-2.0)
source : Seyhun (1986) p. 198

et statistiquement significatifs : à un horizon de 100 jours (par rapport au jour de tran-


saction) la hausse est de 3.0% pour les achats, la baisse de 1.7% pour les ventes ; sur les
100 jours antérieurs, les évolutions sont inverses : les insiders apparaissent donc jouer des
stratégies à contre. Par rapport aux résultats antérieurs ([Jaf74] notamment), les rende-
ments en excès de Seyhun apparaissent modestes mais ils sont robustes aux benchmarks
utilisés. Cependant, si le CAPM est utilisé, le rendement par excès augmente de manière
significative (de 3.1 à 4.3% à un horizon de 300 jours).
Le rendement par excès est décroissant de la taille de l’entreprise puisqu’à un horizon
de 50 jours, le rendement en excès cumulé passait de 4.5% à 0.9% lorsque la taille de
l’entreprise passait de moins de 25M$ àçn plus de 1 MM$.
Si l’on analyse les rendements en excès en fonction du type de l’initié (officers, directors,
officer-directors, chairmen of the board of directors, large shareholders), en moyenne les
transactions des officers-directors sont plus informatives que les transactions des officers,
les différences entre les transactions des types étant statistiquement significatives au seuil
de 5%. Par contre le volume des transactions n’affecte pas le rendement en excès - ce
qui contredit l’interprétation “informationnelle”. Cependant, lorsque les transactions sont
importantes, la part des actionnaires importants est généralement également importante.
Or, les actionnaires importants réalisent des transactions dégageant un rendement en
excès faible voire nul. Les conclusions tirés par Seyhun étaient que :

45
Tab. 12 — Rendements par excès cumulés des transactions des insiders, 1975-1981
publication
réception
période dans l’Official
par la SEC
Summary
0.5 0.3
1 / 20
(3.2) (1.9)
0.8 0.7
1 / 50
(3.5) (2.4)
1.4 1.2
1 / 100
(4.3) (3.0)
1.9 1.1
1 / 300
(3.4) (1.7)
source : Seyhun (1986) p. 208

— l’information des insiders découle de leur implication dans la direction de l’entre-


prise ;
— la relation décroissante entre le rendement en excès et la taille est robuste ; la part
la plus importante des surprofits est réalisée sur les petites entreprises ;
— les insiders semblent déterminer le volume de leurs échanges en fonction de la qualité
de leurs informations.
Les résultats de la littérature sur les transactions des initiés semblent contredire l’hypo-
thèse d’efficience ; cependant, la plupart des études empiriques font comme si l’information
sur les transactions des insiders était disponible immédiatement. En fait, l’information
contenu dans l’Official Summary (de la SEC) n’apparaît que 90 jours après pour 31% des
transactions, 60 jours après dans 84% des transactions. Après recalage des rendements par
excès sur la date de parution dans l’Official Summary, les rendements en excès calculés
par Seyhun devenaient encore plus faibles (de l’ordre de 1.1% à un horizon de 300 jours).
Ainsi, la révélation de l’existence de transactions initiés semble conduire à une correction
des rendements en excès des initiés, correction cohérente avec le fait que les marchés in-
corporent ce résultat et donc par là même, prive les initiés d’une partie substantielle de
leurs avantages informationnels initiaux.
Aussi même si l’analyse de Seyhun révèlait l’existence de rendements en excès, la
faiblesse de ceux-ci et leurs localisations conduisait Seyhun à conclure dans les termes qui
suivent :

46
Fig. 28 —

“Net of these trading costs, abnormal returns to outsiders following either


the reporting day or the pub2 lication day are non-positive. [...] More selective
trading rules also reveal no significantly positive abnormal profits to ousiders
net of the trading costs. This evidence is consistent with market efficiency.”
([Sey86] p. 210)

Récemment d’autres travaux ont revisités ce travail de référence à l’aide de nouvelles


méthodes économétriques. Parmi eux figure la contribution de Eckbo & Smith [1998]
[ES98]. Portant sur 18 000 échanges d’initiés sur l’Oslo Stock Exchange de janvier 1985 à
décembre 1992, ce travail évalue les rendements en excès à l’aide d’une analyse factorielle
sophistiquée. Les estimations des α de Jensen (contraints ou non), i.e. des rendements
en excès, donnent des coefficients de Jensen faibles et dont un seul est statistiquement
significatifs au seuil de 5%.
Comme on le voit donc, l’hypothèse d’efficience forte n’est naturellement pas confir-
mée : l’information des analystes financiers ou des initiés leur permet de réaliser une sur-
performance. Cependant, l’ampleur de cette dernière semble limitée et transitoire. Aussi,
même si la notion d’efficience forte est statistiquement rejetée, elle demeure une référence
incontournable pour évaluer les performances des agents et des méthodes d’analyse.

47
8 La prévisibilité des cours
Le développement des notions de marche au hasard et d’efficience des marchés s’étaient
réalisées au cours des années 60 et 70 dans un cadre financier dont l’horizon était court,
i.e. inférieur à un an. Les résultats classiques alors obtenus étaient que l’auto-corrélation
des rendements étaient à court-terme faible. Ainsi, Fama [1970] [Fam70] reportait les
résultats du tableau 3 (page 32) pour un ensemble de 30 actions dont les rendements
étaient successivement calculés sur 1 jour, 4 jours, 9 jours, 16 jours. Les nombres accom-
pagnés d’une étoile sont les coefficients dont la valeur est différente de 0 de plus de deux
écarts-types.17 Comme on peut le remarquer, le nombre des coefficients statistiquement
différents de 0 est de 11 si la période est la journée, puis respectivement de 5, 2 et 1 si
elle est de 4, 9 et 16 jours. Lorsque la période est de 1 jour, seuls 3 coefficients sont à
la fois statistiquement significatifs et ont une valeur absolue supérieure à 1. Au maxi-
mum, lorsque la durée est de 4 jours, ce nombre atteint 5 (sur 30 titres) et au total, sur
120 coefficients calculés seuls 11 vérifient ces mêmes conditions. Aussi, les résultats de
la littérature des années 60, 70 étaient généralement interprétés comme confortant pour
l’essentiel la thèse sinon d’une marche aléatoire exacte, du moins d’un comportement très
proche de cette référence. Cependant à partir du milieu des années 80, notamment sous
l’impulsion de travaux de Lawrence Summers (suivis par ceux des inévitables Fama
& French) l’attention se porta des rendements de court-terme à ceux de long-terme (de
1 à 10 ans disons).
Sur la période 1926-1998, le rendement excédentaire des actions (relativement au ren-
dement moyen des T-bills du Trésor américain) est de l’ordre de 8%. Certains économistes
comme Jeremy Siegel, en ont tiré argument pour prôner la supériorité à l’horizon d’une
ou de deux décennies (l’horizon de décision d’un ménage commençant à épargner vers 35
ans) de portefeuilles en actions. Cependant, même si l’on admet que la distribution des
rendements des actions est stationnaire et identique de période à période, la performance
historique des actions doit être relativisée. En effet, le rendement historique ne correspond
pas nécessairement au rendement espéré. En supposant que sa distribution est normale, et
que son écart-type annuel (noté σ) est égal à son écart-type historique, 17% annuellement
sur le marché américain, alors l’écart-type du rendement annualisé sur T périodes, σ(T ),
est décroissant de T :
σ
σ(T ) = √
T
En supposant que la distribution est normale (et identique de période à période), alors
17
Et donc ces coefficients seraient significatifs au seuil de 5% si la distribution était normale.

48
Tab. 13 — Ecart-type du rendement espéré en fonction de l’horizon
fourchette des
√ rendements
horizon σ/ T (%)
excédentaires
(seuil de 5%)
5 7.6 [0.4, 15.6]
10 5.4 [2.6, 13.4]
25 3.8 [4.2, 11.8]
50 2.4 [5.6, 10.4]
source : Cochrane [1997] Where is the market going ?

l’intervalle de valeur centré autour de la valeur historique annuelle R auquel au seuil de


5% appartient le rendement théorique R(T ) sur T périodes est :

Pr [R(T ) ∈ [R − α, R + α]] ≥ 0.95 ⇒ α ≥ 2σ(T )

Comme σ(T ) est décroissant de T , la plage des valeurs possibles des rendements théoriques
possibles est d’autant plus réduite que T est grand. Cependant comme le montre les calculs
du tableau 13, la volatilité est telle que l’information que donne le rendement historique
est faible :
— à un horizon de 5 ans, au seuil de confiance de 5%, la fourchette du rendement que
l’on peut obtenir est [0.4, 15.6] ;
— à 10 ans, cette fourchette est encore de plus de 10 points ([2.6, 13.4]) ;
— à 50 ans, le rendement moyen que l’on peut obtenir va de 5.6 à 10.4%.
Ces résultats élémentaires soulignent donc la limite de l’argument de Siegel. Du moins
si l’on retient l’hypothèse d’une distribution identique et indépendante. Aussi n’est-il pas
surprenant que l’on se soit interrogé sur la possibilité qu’à long-terme les rendements des
actifs financiers subissent des forces de rappel qui limitent fortement l’incertitude sur le
rendement à attendre.
Pour mettre en évidence ces mécanismes de correction, de mean-reverting, plusieurs
techniques furent utilisées. La plus simple consiste simple à comparer les variances des
rendements à court-terme (disons 1 an) aux rendements de moyen-terme (par exemple 5
ans) et de long-terme (10 ou 15 ans par exemple). Si les rendements suivaient une marche
au harsard alors les variances à 10 ans, 15 ans devraient être simplement égales à 10 fois,

49
15 fois la variance de court-terme. Plus généralement les ratios de variance :
σ 2 (RT )
RV (t, T ) = T 2
t
σ (Rt )

où t est l’horizon de court-terme, T celui de long terme, T /t étant donc le nombre de


courte-période composant la longue période. Si le rendement suit une marche aléatoire
alors nécessairement RV (t, T ) = 1. Si par contre il subit un processus de correction le
ramenant, en l’absence de choc à sa valeur de long-terme, alors RV (t, T ) < 1. Si par
contre la dynamique des rendements est cumulative, un choc à la période t se répercutant
sur les rendements futurs en s’amplifiant alors RV (t, T ) > 1. Cette dynamique cumulative
(momentum) caractérise la dynamique de certains types d’actifs financiers à court-terme,
notamment les petites capitalisations.18
Cependant lorsque l’horizon dépasse l’année, la dynamique cumulative semble laisser
place à des mécanismes de correction. L’une des premières études qui mis en évidence ce
changement de structure fut celui de Poterba & Summers [1988] [PS88] où pour des
valeurs du NYSE sur la période 1926-1985, l’auto-corrélation positive constatée pour des
horizons inférieurs à l’année laisse place à de l’auto-corrélation négative à des horizons
supérieurs (de 2 à 8 ans). Ces résultats confirmaient les résultats de l’étude économétrique
de Fama & French [1988] [FF88]) obtenus sur un échantillon plus important.
Le point de départ de la littérature est d’envisager que les prix (en log) des actifs sont
déterminés par deux composantes :

p(t) = q(t) + z(t)

où :
— qt est la composante indépendante, i.e. la marche aléatoire autour d’un trend :

q(t) = q(t − 1) + µ + η(t)

avec µ est la dérive anticipée, η(t) est le bruit blanc ;


— zt est la composante suivant le mécanisme de correction

z(t) = φz(t − 1) + ε(t)

où ε(t) est un bruit blanc, φ est légèrement inférieur à 1.


18
Lo & MacKinlay [1988] [LM88] ont ainsi repris les analyses antérieures de Fama des variances des
rendements à court-terme (2, 4, 8 et 16 semaines) sur la période 1962-1985 et pour le NYSE et l’AMEX.
ont évalué et pour différentes catégories de titres. Les petites capitalisations y sont caractérisées par une
auto-corrélation positive marquée.

50
A un horizon T , les rendements sont alors donnés par :

r(t, t + T ) = p(t + T ) − p(t)


= [q(t + T ) − q(t)] + [z(t + T ) − z(t)]

Le coefficient d’auto-corrélation d’ordre T entre z(t +T ) − z(t) et z(t) − z(t − T ) est donc :

cov [z(t + T ) − z(t), z(t) − z(t − T )]


ρ(T ) =
σ 2 [z(t + T ) − z(t)]

La covariance s’écrit :

cov [z(t + T ) − z(t), z(t) − z(t − T )] = −σ 2 (z) + 2cov(z(t + T ), z(t)) − cov(z(t), z(t + 2T ))

Si z(t) est stationnaire alors les covariances doivent approcher asymptotiquement 0 lorsque
T → +∞.
Au dénominateur :

σ2 [z(t + T ) − z(t)] = 2σ 2 (z) − 2cov(z(r + T ), z(t))

et donc approche 2σ 2 (z) asymptotiquement. Par conséquent si z(t) est stationnaire alors
asymptotiquement le coefficient ρ(T ) doit approcher asymptotiquement −0.5. Lorsque z
suit un processus AR(1) alors :

Et [z(t + T ) − z(t)] = (φT − 1)z(t)

et la covariance s’écrit :

cov [z(t + T ) − z(t), z(t) − z(t − T )] = −σ 2 (z) + 2cov(z(t + T ), z(t)) − cov(z(t), z(t + 2T ))
= σ 2 (z)(−1 + 2φT − φ2T )
= σ 2 (z)(1 − φT )2

Par conséquent si φ est proche de 1, alors lorsque T est proche de 0, la covariance est
proche de 0 et elle approche lentement −0.5.
Si l’on note β(T ) la droite de régression de r(t, t + T ) sur r(t, t − T ), si les composantes
aléatoires et stationnaires ne sont pas corrélées alors :

cov(r(t, t + T ), r(t − T, t))


β(T ) =
σ 2 (r(t − T, t))
ρ(T )σ 2 (z(t + T ) − z(t))
=
σ 2 (z(t + T ) − z(t)) + σ 2 (q(t + T − q(t))

51
Si la composante z(t) est inexistente, et donc si le rendement suit uniquement la marche
aléatoire, alors :
ρ(T ) = 0 = β(T ) = 0
Par contre si le prix ne possède aucune composante aléatoire alors β(T ) = ρ(T ) et donc
approche −0.5 asymptotiquement :

lim β(T ) = −0.5


T →+∞

Ces résultats permettent donc d’évaluer la nature du processus que suit le rendement à
partir des valeurs empiriques.
Sur la période 1926-1985, les résultats de Fama & French [1988] font apparaître
au niveau des industries une auto-corrélation négative assez forte jusqu’à 5 ans et sta-
tistiquement significative au seuil de 5% comme le montre le tableau 14 et la figure 29.
L’autocorrélation quasi-nulles pour les horizons courts devient progressivement significa-
tivement négatives à plus long terme (-0.25 à -0.4 pour les rendements à 3 ou 5 ans).
L’auto-corrélatiion a fonc une forme en U inversé en fonction de l’horizon : elle augmente
tout d’abord à court-terme avant de devenir négative. Cette structure se retrouve dans
d’autres pays : ainsi pour la France, Hamon & Jacquillat [1992] [HJ92] ont trouvé
la même structure sur le marché français des actions : les coefficients de corrélation des
rendements mensuels des indices pondérés et équipondérés des actions françaises sont tout
d’abord positifs les trois premiers retards, puis atteignent un minimum de -0.9 au bout
de 36 moins avant revenir à 0 au bout de 60 mois.
Cependant il faut noter que ces résultats sont fragiles. D’une part, le nombre de don-
nées devient relativement faible dès lors que l’on se donne des périodes d’observation de
plus de cinq ans. D’autre part, les analyses sur données américaines ont révélé l’impor-
tance de la période de la Grande Dépression. Ainsi, Fama & French révèle également
que la période 1926-1941 pèse lourdement dans ce résultat comme l’illustre la figure 30 et
le tableau 15 : la valeur absolue des coefficients tend en moyenne à devenir plus faible et
leur significativité devient beaucoup plus faible.
Cependant l’analyse de Fama & French révèle également que la période 1926-1941
semble essentielle pour ce résultat comme l’illustre la figure 30 et le tableau 15.
Ces résultats fragiles mais encourageants ont conduits de nombreux économistes à
tenter à nouveau de prévoir les rendements des actifs financiers. Mais cette fois leurs
efforts se sont portés sur les rendements de long-terme.
Ces travaux ont notamment tenté de prévoir les rendements futurs de long-terme par
l’observation de facteurs, i.e. de variables économiques ou financières comme :

52
Tab. 14 — Les coefficients beta(T) corrigés obtenus au niveau des industries sur la période
1926-85. (source : Fama French [1988])
1 2 3 4 5 6 8 10
Vente au détail -0,2 -0,14 -0,18 -0,12 -0,13 -0,06 -0,09 -0,02
Automobile -0,05 -0,22 -0,36* -0,42* -0,35* -0,13 -0,04 -0,02
Construction -0,01 -0,13 -0,27 -0,41* -0,42* -0,21 0,16 0,24
Finance -0,01 -0,17 -0,26 -0,25 -0,15 0,07 0,22 0,35
Chimie -0,04 -0,33* -0,43* -0,38* -0,37* -0,19 0,05 0,13
Industrie des métaux -0,08 -0,27* -0,36* -0,36* -0,35* -0,17 0,18 0,28
Industrie minière -0,09 -0,29* -0,37* -0,44* -0,48* -0,28* 0,02 0,08
Industrie pétrolière -0,02 -0,23 -0,29 -0,42* -0,40* -0,2 0,17 0,27
Moyenne -0,03 -0,2 -0,3 -0,34 -0,32 -0,14 0,02 0,08
source : Fama & French
* indique que la pente est différente de 0 d’au moins deux écarts-types.

beta(T)

0,4
0,3
0,2
0,1
0
-0,1 1 2 3 4 5 6 8 10
-0,2
-0,3
-0,4
-0,5
-0,6

Vente au détail Automobile


Construction Finance
Chimie Industrie des métaux
Industrie minière Industrie pétrolière
Moyenne

Fig. 29 — Les coefficients β(T ) corrigés obtenus au niveau des industries sur la période
1926-85. (source : Fama & French [1988])

53
Tab. 15 — Les coefficients beta(T) corrigés obtenus au niveau des industries sur la période
1941-85. (source : Fama French [1988])
1 2 3 4 5 6 8
Vente au détail 0,00 -0,15 -0,13 -0,09 -0,16 -0,15 -0,16
Automobile -0,03 -0,30 -0,30 -0,22 -0,17 -0,10 -0,07
Construction -0,03 -0,17 -0,15 -0,16 -0,16 -0,09 0,15
Finance -0,01 -0,04 0,00 0,00 0,02 0,11 0,30
Chimie -0,22 -0,41* -0,22 -0,09 -0,06 -0,05 0,05
Industrie des métaux -0,16 -0,20 -0,12 -0,06 -0,05 0,01 0,25
Industrie minière -0,15 -0,3* -0,31 -0,33 -0,39* -0,32 -0,06
Industrie pétrolière -0,14 -0,21 -0,16 -0,20 -0,16 -0,12 0,13
Moyenne -0,05 -0,19 -0,16 -0,13 -0,14 -0,09 0,01
source : Fama & French
* indique que la pente est différente de 0 d’au moins deux écarts-types

0,4

0,3

0,2

0,1

0
1 2 3 4 5 6 8
-0,1

-0,2

-0,3

-0,4

-0,5

Vente au détail Automobile Construction


Finance Chimie Industrie des métaux
Industrie minière Industrie pétrolière Moyenne

Fig. 30 — Les coefficients β(T ) corrigés obtenus au niveau des industries sur la période
1941-85. (source : Fama & French [1988])

54
0,05
0
-0,05 1 2 3 4 5 6 8

-0,1
-0,15 1926-85
-0,2 1941-85
-0,25
-0,3
-0,35
-0,4

Fig. 31 — Les coefficients β(T ) corrigés obtenus en moyenne au niveau des industries sur
les périodes 1926-85 et 1941-85. (source : Fama & French [1988])

55
— le ratio des prix aux dividendes (PDR - price dividend ratios) ;
— le ratio des prix aux résultats (bénéfices comptables) des entreprises (PER - price
earning ratios) ;
— la structure par terme des taux d’intérêt (TERM) mesurée couramment par la dif-
férence entre le taux long des titres obligataires d’Etat moins le taux court des bons
de l’Etat ;
— le risque de défaillance des entreprises privées (DEFAULT) mesuré par la différence
entre le taux d’intérêt des titres obmigataires des entreprises dont le rating est
(relativement) mauvais (par exemple Aaa) moins le taux d’intérêt des entreprises
dont le rating est le meilleur (AAA).
Certains de ces facteurs se sont révélés étonnament efficaces. Ainsi, Cochrane [1997]
[Coc97] a tenté d’expliquer sur la période 1947-1996 les rendements excédentaires par le
PDR. La régression estimée a donc été :

et→t+k = a + b(Pt /Dt ) + e


R εt→t+k

où k est l’horizon choisie. Les résultats obtenus sont reproduits dans le tableau 16. A un
an, la capacité d’expliquer les rendements demeure modeste puisque le R2 est “seulement”
de 0.15.19 Cependant, on peut remarquer que la valeur du coefficient b diffère de 0 de plus
de deux écart-types et donc apparaît statistiquement significatifs. Surtout, plus l’horizon
s’allonge, plus le R2 augmente et plus la “significativité statistique” augmente. A 5 ans,
la régression “expliquerait” jusqu’à 60% des rendements excédentaires constatées sur la
période 1947-1996 (aux Etats-Unis) et le coefficient diffère de 0 par près de 6 écart-types !
D’autres variables se sont également révélées très performantes pour prédire les ren-
dements (Fama & French [1989] [FF89]) :
19
Il faut d’ailleurs souligner que même des R2 ridicules ne sont pas négligeables pour des gérants. Ainsi,
sur ses données, Cochrane [2001] observe qu’en annuel l’écart-type est pour les titres les plus volatiles

de l’ordre de 40% (soit 40%/ 12 = 12% en mensuel) tandis que le rendement des déciles extrêmes est égal
à 1.76 fois le rendement moyen. Supposons donc que l’on obtienne dans une régression des rendements

un médiocre R2 = 1/4%, alors l’écart-type explicable économétriquement est 0.0025 × 12% = 0.6%. La
sélection des titres à l’achat ou à la vente (à partir de la régression) devrait permettre d’augmenter le
rendement moyen de 0.6%×1.76 = 1%. Aussi, en vendant les titres désignés comme les moins performants
et en achetant les titres désignés comme les plus performants, on devrait donc être à même d’augmenter de
2% (2 × 1%) par rapport à une stratégie passive donnant le rendement excédentaire moyen. Evidemment,
il se peut aussi que les titres très volatiles le soit parce que leurs marchés soient peu liquides et donc que
les coûts de transaction qu’ils supportent soient importants. La profitabilité définitive de cette stratégie
peut donc être questionnée (Carhart [1997] [Car97], Mosqkowitz & Grinblatt [1999] [MG99]).

56
Tab. 16 — La prévisibilité des rendements
Rt→t+k = a + b(Pt /Dt )
horizon b σ(b) R2
1 5.3 2.0 0.15
2 10.0 3.1 0.23
3 15.0 4.0 0.37
5 33.0 5.8 0.60
source : Cochrane [1997]

— ainsi le PER et le risque de défaillance (DEFAULT) se sont révélées également


efficace à un horizon de 5 ans ;
— la structure par terme est également efficace mais à un horizon plus court (de l’ordre
de un an).
L’efficacité apparente des facteurs à prévoir les rendements à un horizon de cinq ans
pose pour les économistes le problème des mécanismes économiques sous-jascents à ces
résultats économétriques, et notamment de leur compatibilité avec l’hypothèse d’efficience
des marchés. La prévisibilité des rendements à long-terme ne traduit-elle pas en effet une
anomalie des marchés, l’existence d’opportunités de profits incompatible avec les repré-
sentations traditionnelles de l’équilibre des marchés ? Les réponses à ces questions ne font
actuellement pas l’unanimité. Notamment parce que les conclusions que l’on peut tirer
des travaux empiriques sont limitées par la qualité des données, notamment le biais de
survie (Goetzman & Jorion [1995] [GJ95]). Celui-ci découle du fait que les données
utilisées dans les travaux empiriques ne prennent souvent en compte que celles des en-
treprises et des marchés ayant fonctionnés tout au long des périodes utilisées. Ainsi, les
travaux sur le performances des mutual funds américains sur une, deux ou trois décennies,
ne prennent en compte que celles des funds n’ayant pas cessé leurs activités. La différence
différence est en général très importante : ainsi sur les 358 funds existants en 1970, seuls
155 fonctionnaient en 2001. Les études empiriques sur l’ampleur du biais ainsi introduit
l’estime compris en général égal à 0.5 et 1%, voire 1.5% :
— ainsi aux USA il a été estimé à 1.4% par Malkiel [1995] [Mal95], de 0.9% pour
Elton, Gruber & Black [1993] [EGDH93] ;
— en France selon Bergeruc [1999] il serait de 0.55% et de 1.2% selon Aftalion
[2001] [Aft01].
Le biais de survie n’est donc pas négligeable. La prévisibilité des cours à long-terme
par certains facteurs pourraient alors selon certains être sa conséquence : certains facteurs

57
pourraient en effet être de bons prédicteurs de son importance. Evidemment si ceci était
vrai, les résultats obtenus témoigneraient donc plus des limites des données disponibles
que de l’existence d’opportunités profitables sur les marchés.
Une autre possibilité rend également compatible la prévisibilité des rendements et l’hy-
pothèse d’efficience. Les rendements seraient en effet caractérisés par des macénismes de
correction à long-terme rendant leurs prévisions possibles. Cependant, lorsque par exemple
un titre connaît une sous-performance importante, celle-ci non seulement rendrait pro-
bable sa correction progressive mais elle fragiliserait la situation financière de l’entreprise
et rendrait donc aussi le titre plus risquée. Le rendement excédentaire important que l’on
obtiendrait alors lors du rétablissement de l’entreprise serait donc essentiellement la ré-
munération de ce risque supplémentaire. Corrigé du risque de défaillance, le rendement
ne serait donc pas anormal.
Il est encore trop pour départager ces différentes conjectures. Mais évidemment la
prévisibilité des rendements, qu’elle traduise ou non l’existence d’opportunités profitables,
est importante pour les gérants de portefeuille. Comme le montre en effet la figure 32,
historiquement en effet, des facteurs comme le PDR et le PER sont en effet des variables
qui ont évolué lentement, cycliquement, avec des minima et des maxima stables. Les PDR
sur le marché américain sont restés en effet compris entre 20 et 40, les PER entre 10 et
20, les seuls périodes de franchissement de ces seuils ayant correspondus à des périodes
de sous-évaluation des marchés (fin des années, après la crise de 1974) ou des périodes
de sur-évaluation (fin des années 60 et fin des années 90). L’utilisation de ces facteurs
historiquement caractérisés par un ajustement lent (et des résultats économétriques) sur
la période 1947-96 aurait permis de prévoir à cinq ans de manière relativement efficace
l’évolution des rendements (figure 33). Ceci n’assure pas nécessairement évidemment que
tel sera le cas dans le futur : l’histoire de la finance est en effet pleine de recettes empiriques
qui après s’être avérée très efficace sur données historiques, se sont révélées décevantes
dès que l’on a tenté de les exploiter sur les marchés. D’ailleurs, la figure 34 qui présente
les relations entre les PDR et les rendements en excès soulignent cependant qu’en 1995 et
1996 le modèle rendait assez mal compte des rendements du marché.

9 La difficulté de battre le marché


L’hypothèse d’efficience du marché est une conjecture qui a permis d’organiser l’en-
semble des travaux empiriques et théoriques en finance au cours des 40 dernières années.
De ce point de vue, elle s’est révélée une hypothèse extrêmement stimulante. Comme aime

58
Fig. 32 — L’évolution du PER du S&P 500 Index et du PDR du portefeuille pondéré du
NYSE. (source : Cochrane [1997])

prévision sur échantillon


rendements effectifs
prévision hors échantillon

Fig. 33 — Les valeurs prévues (à l’aide du PDR) et effectives du rendement en excès à 5


ans du portefeuille pondéré du NYSE. (source : Cochrane [1997])

59
prix / dividendes

Fig. 34 — La relation entre le PDR et le rendement en excès. (source : Cochrane [1997])

à le rappeler Fama, toute théorie scientifique appliquée, on ne peut espérer qu’elle soit
parfaitement vérifiée. Une théorie appliquée est en effet comme une carte géographique :
sauf à être l’échelle 1/1, elle oublie nécessairement certains détails et est donc fausse ; en
même temps, une théorie à l’échelle 1/1 est trop complexe pour être utile (sans même
discuter de sa faisabilité). Par conséquent, la bonne théorie comme la bonne carte géo-
graphique dépend du problème posé et est un subtil équilibre entre pouvoir explicatif
et simplicité. Il n’est donc pas surprenant qu’à la fois hypothèse d’efficience soit rejetée
(notamment sous sa forme forte) et qu’elle continue de demeurer une référence incontour-
nable. Au demeurant, elle demeure le seul cadre pouvant pourquoi il est si dur de battre le
marché de manière persistante. Comme on l’a vu en effet, la littérature sur les initiés n’a
donné en effet que des évaluations faibles des sur-performances (moyennes)20 des initiés.
Enfin, la performance des gérants des mutual funds est également confondante.
Comme le montre la figure 35, sur la période 1970-2001, seuls 22% des mutual funds
(survivants) eurent une performance supérieure de plus de 1% du celui du marché, seuls
5% eurent une performance qui dépassa de 2% la moyenne du marché. Ces résultats
20
Evidemment le fait que sur plusieurs milliers de transactions, le rendement excédentaire soit très
faible n’invalide pas le fait que sur quelques transactions exceptionnelles (et défrayant la chronique) des
gains substantiels soient réalisés.

60
40

34
35

29
30 28

25
21
20 17

15 13
11
10

5 3
1 1
0
1

3
-3

-2

-1

-1

+1

s
ins

plu
0/

0/
mo

et
et

4
-4

Fig. 35 — Les rendements moyens sur la période 1970-2001 des mutual funds (survivants)
américains.

61
Tab. 17 — Styles et performances des funds au 30 juin 2000 sur une période de 10 ans
Growth Blend Value
rend. rend. rend.
102 funds 17,89 126 funds 15,6 129 funds 13,37
Large Cap. S&P500 S&P500
19,92 S&P 500 17,55 14,7
Growth Value

63 funds 18,14 36 funds 14,1 48 funds 12,77


Mid. Cap. Russel Mid. Russell mid- Russell mid-
19,52 16,29 13,96
Cap. Growth cap cap value

33 funds 17,12 22 funds 12,99 23 funds 11,74


Small Cap. Russell 2000 S&P500 Russell 2000
13,01 13,73 12,91
Growth Growth value

source : Malkiel (2003)

peuvent également être désagréger pour faire apparaître l’impact des styles de gestion.
Aux Etats-Unis, le Morningstar, Inc. positionne ainsi les funds par la nature des titres
sélectionnés principalement par les funds, en distinguant deux dimensions :
— l’importance donnée aux petites ou aux grandes capitalisations ; dans la classification
du Morningstar, on distingue ainsi trois niveaux de capitalisations ;
— le poids accordé aux valeurs de croissance (growth stocks) relativement aux valeurs
de rendement (value stocks)21 ; le Morningstar retient trois types d’actions : les
growth stocks, les value stocks, et les blend stocks (intermédiaires entre les deux).
La grille de lecture du Morningstar est donc de classer les funds en 9 catégories (voir
figure 17). Comme l’a vérifié Malkiel [2003] [Mal03], la décomposition de la population
des funds américains sur la période 1970-2001 en fonction des styles ne modifie guère
la piètre performance des funds (tableau 17). La comparaison de ceux-ci et des indices
correspondants aux différents styles de titres fait clairement apparaître que dans 8 cas sur
9 l’indice (= “le marché”) bat les gestionnaires de funds. Il est au surplus révélateur que
le seul style où les spéciaistes semblent tirer leurs épingles du jeu est celle des titres qui
sont à la fois des valeurs de croissance et des petites capitalisations.
Cette difficulté à battre le marché se double d’autre part d’une difficulté pour les spé-
cialistes à rester durablement les meilleurs. En effet, par exemple, sur les années 70-80,
les 20 meilleurs fonds des années 70 n’ont dans 3 cas sur 4 pas réussi à rester dans les 50
premiers au cours de la décennie suivante. Au niveau de leur performance, alors que ces
21
Les values stocks sont des actions dont les dividendes sont importants mais connaissent une croissance
faible. Inversement pour les growth stocks, les dividendes sont faibles mais les perspectives de gain en
capital ou de croissance des dividendes sont importantes.

62
Tab. 18 — Evolution du classement des funds, 1970-80 et 1980-90
classement classement
décennie décennie
1970s 1980-90
Twentieth Century Growth 1 176
Templeton Associates 2 126
Quasar Associates 3 186
44 Wall Street 4 309
Pioneer II 5 136
* Twentieth Century Select 6 20
Security Ultra 7 296
* Mutual Shares Corp. 8 35
Charter Fund 9 119
* Magellan Fund 10 1
Over-the-Counter Securities 11 242
American Capital Growth 12 239
American Capital Venture 13 161
Putnam Voyager 14 161
* Janus Fund 15 78
* Weingarten Equity 16 36
Hartwell Leverage Fund 17 259
* Pace Fund 18 60
Acorn Fund 19 172
* Stein Roe Special Fund 20 57

rendement moy. ann. :


20 meilleurs funds +19.0% +11.1%
funds +10.4% +11.7%

nombre des funds 177 309


source : Malkiel (1996) p. 183

63
Tab. 19 — Performances des 20 funds les plus performants sur la période 1990-94 au cours
de la seconde partie des 90s
1990-94 1995-99
rang rend. moyen rang rend. moyen
Oppenheimer Main St. Growth & Income 1 25,03 129 24,27
CGM Capital Development 2 24,76 134 24,09
PBHG Growth 3 24,37 261 15,43
American Cent Ultra Inv. 4 23,05 21 33,78
Kaufman 5 22,36 210 19,92
Berger Growth 6 21,25 53 29,28
AIM Constellation A 7 19,99 183 22,05
Fidelity Blue Chip Growth 8 19,77 105 25,32
Parnassus 9 19,50 275 11,45
Fidelity Adv. Equity Growth Instl 10 19,49 54 29,01
Chase Vista Capital Growth A 11 19,32 245 17,66
MainStay Capital Apprec. 12 19,19 31 31,32
Fidelity Contrafund 13 19,01 150 23,59
Westcore Midco Growth 14 18,87 233 18,40
INVESCO Dynamics 15 18,22 61 28,26
Van Kampen Emerg. Growth A 16 17,78 56 28,87
Bandywine 17 17,60 236 18,15
Fidelity Destiny II 18 17,14 4 39,06
Delaware Trend A 19 16,94 170 22,54
Chase Vista Growth and Income 20 16,79 224 19,30

Moyenne des 20 funds 20,02 24,09


Moyenne de l'ensemble des funds 10,37 23,83
S&P 500 10,85 26,17
Nbre des funds 283 283

source : Malkiel (2003)

64
winners des 70s avait une rentabilité moyenne de 19,0% très supérieure à la moyenne des
funds 10.4%, leur rentabilité moyenne durant la décennie des années 80 est devenu légère-
ment inférieure à la moyenne (11.1% contre 11.7%) (tableau 18). Au cours de la décennie
des années 90, le même phénomène a été observée (tableau 19) : les funds performants
au cours de la première moitié de cette décennie sont retombés dans le classement au
cours de la seconde moitié des années 90 ; le rendement qui était initialement du double
dela moyenne des funds et du marché est devenu légèrement inférieur au cours des années
1995-99. Le message initial de Samuelson, Fama sur la difficulté de battre le marché
demeure donc, même si les marchés ne sont sans doute pas informationnellement efficace à
100%. Même s’il est donc possible pour certains de battre le marché durablement (comme
Peter Lynch pour le Magellan Fund, ou Warren Buffet pour Berkshire Ha-
thaway), les exemples sont peu nombreux et rarement leurs succès ont pu être reproduits
par d’autre que d’eux, y compris par les lecteurs des best sellers supposés contenir leurs
secrets. Mais il n’est pas nécessaire d’espérer pour entreprendre...

Références
[Aft01] F. Aftalion, (2001). Les performances des OPCVM actions françaises. Banque
et Marchés, pages 6—16, mai-juin 2001.
[Ale61] S. Alexander, (1961). Price movements in speculative markets : trends or
random walks. Industrial Management Review, May 1961.
[Ale64] S. Alexander, (1964). Price movements in speculative markets : trends or
random walks, no. 2. Industrial Management Review, 5(2), Spring 1964.
[Bac00] L. Bachelier, (1900). Théorie de la Spéculation. Gauthier-Villars, Paris, 1900.
[Bac64] L. Bachelier, (1900). Theory of speculation. In P. Cootner, editor, The Random
Character of Stock Prices. MIT Press, Cambridge, MA., 1964.
[Ban81] R. Banz, (1981. The relationship between return and market value of common
stocks. Journal of Financial Economics, 9 :3—18, March 1981.
[Ber95] P.L. Bernstein, (1995). Des idées capitales. Finance. PUF, Paris, 1995. Tra-
duction de "Capital ideas - the improbable origins of modern Wall Street"
(1992).
[Bla73] F. Black, (1973). Yes, virginia, there is hope : tests of the value line ranking
system. Financial Analysts Journal, 29, September-October 1973.

65
[Car97] M. Carhart, (1997). On persistence in mutual fund performance. Journal of
Finance, 52 :57—82, 1997.
[CJ37] A. Cowles and H. Jones, (1937). Some a posteriori probabilitiesin stock market
action. Econometrica, 5 :280—, July 1937.
[CM82] T. Copeland and D. Mayers, (1982). The value line enigma (1965-1978) - a
case study of performance evaluation issues. Journal of Financial Economics,
10 :289—321, 1982.
[Coc97] J. Cochrane, (1997). Where is the market going ? uncertain facts and novel
theories. Economic Perspectives, 21(6), November-December 1997.
[Coo62] P. Cootner, (1962). Stock prices : random vs. systematic changes. Industrial
Management Review, pages 24—45, Spring 1962.
[Coo64] P.H. Cootner, (1964). The random character of stock prices. MIT Press,
Cambridge, MA., 1964.
[Cow33] A. Cowles, (1933). Can stock market forecasters forecast ? Econometrica,
1 :309—24, July 1933.
[Cow44] A. Cowles, (1944). Stock market forecasting. Econometrica, 12(3-4) :206—14,
July-October 1944.
[Cow60] A. Cowles, (1960). Revision of previous conclusions regarding stock price
behavior. Econometrica, 28(4) :909—15, October 1960.
[EGDH93] E.J. Elton, M. Gruber, S. Das, and M. Hklarka, (1993). Efficiency with costly
information : a reinterpretation of evidence from managed portfolios. Review
of Financial Studies, 6(1) :1—22, 1993.
[ES98] B.E. Eckbo and D.C. Smith, (1998). The conditional performance of insider
trades. Journal of Finance, 53 :467—98, 1998.
[Fam65a] E. Fama, (1965). The behavior of stock prices. Journal of Business, 37 :34—105,
January 1965.
[Fam65b] E. Fama, (1965). Random walks in stock prices. Financial Analysts Journal,
pages 55—59, September-October 1965.
[Fam68] E. Fama, (1968). What ’random walks’ really means. Institutional Investor,
pages 38—40, April 1968.
[Fam70] E. Fama, (1970). Efficient capital markets : a review of theory and empirical
work. Journal of Finance, May 1970.

66
[Fam91] E. Fama, (1991). Efficient capital markets : Ii. Journal of Finance, 46 :1575—
1617, 1991.
[FF88] E. Fama and K French, (1988). Permanent and temporary components of
stock prices. Journal of Political Economy, April 1988.
[FF89] E. Fama and K. French, (1989). Business conditions and expected returns on
stocks and bonds. Journal of Financial Economics, 25 :23—49, 1989.
[FFJR70] E. Fama, L. Fisher, M.C. Jensen, and R. Roll, (1969). The adjustment of stock
prices to new information. International Economic Review, February 1970.
[FR86] K. French and R. Roll, (1986). Stock return variances. Journal of Financial
Economics, September 1986.
[GJ95] W.N. Goetzman and Ph. Jorion, (1995). A longer look at dividend yields.
Journal of Business, 483-508 :68, 1995.
[GM85] L. Glosten and P. Milgrom, (1985). Bid, ask, and transaction prices in a
specialist market with heterogenously informed traders. Journal of Financial
Economics, 14 :71—100, 1985.
[Hig92] R. Higgins, (1992). Analysis for Financial Analysis. 3eme edition, 1992.
[HJ92] J. Hamon and B. Jacquillat, (1992). Le marché français des actions. PUF,
Paris, 1992.
[Jaf74] J. Jaffe, (1974). Special information and insider trading. Journal of Business,
47 :410—28, 1974.
[Jen68] M.C. Jensen, (1968). The performance of mutual funds in the period 1945-64.
Journal of Finance, 23 :323—47, 1968.
[Jen69] M.C. Jensen, (1969). Risk, the pricing of capital assets, and the evaluation of
invest ;ent portfolio. Journal of Business, April 1969.
[Ken43] M.G. Kendall, (1943). The advanced theory of statistics. Griffin, London,
1943.
[Ken53] M. Kendall, (1953). The analysis of time series - part i : prices. Journal of
the Royal Statiscal Society, 96 :11—25, 1953.
[LM88] A. Lo and A.C. MacKinlay. Stock market prices do not follow random walks.
Review of Financial Studies, Spring 1988.
[LSS90] P. Liu, S. Smith, and A. Syed, (1990). Security price reaction to the wall street
journal’s securities recommendations. Journal of Financial and Quantitative
Analysis, 25 :399—410, 1990.

67
[Mal95] B. Malkiel, (1995). Returns from investing in equity mutual funds 1971 to
1991. Journal of Finance, 50(2) :549—72, June 1995.
[Mal96] B.G. Malkiel, (1996). A random walk down wall Street. W.W. Norton &
Compagny, New York, 6 ème edition, 1996.
[Mal03] B. Malkiel, (2003). Passive investment strategies and efficient markets. Euro-
pean Financial Management, 9(1) :1—10, 2003.
[MG99] T. Moskowitz and M. Grinblatt, (1999). Tax loss selling and return autocor-
relation : new evidence. working paper, CRSP, University of Chicago, 1999.
[Osb59] M.F.M. Osborne, (1959). Brownian motion in the stock market. Operations
Research, 7 :145—73, March-April 1959.
[Osb62] M.F.M. Osborne, (1962). Periodic structure in the brownian movement of
stock prices. Operation Research, 10 :245—79, May-June 1962.
[PS88] J. Poterba and L. Summers, (1988). Mean reversion in stock prices : evidence
and implications. Journal of Financial Economics, 22 :27—59, 1988.
[Rei81] M. Reinganum, (1981). Misspecifications of capital asset pricing : empirical
anomalies based on earnings yields and market values. Journal of Financial
Economics, 9 :19—46, 1981.
[Rob59] H. Roberts, (1959). Stock market ’patterns’ and financial analysis : methodo-
logical suggestions. Journal of Finance, 14(1) :1—10, March 1959.
[Rol84] R. Roll, (1984). Orange juice and weather. American Economic Review, 74,
December 1984.
[Sam57] P.A. Samuelson, (1957). Intertemporal price equilibrium : a prologue to the
theory of speculation. Weltwirtschaftliches Archiv, December 1957.
[Sam65] P.A. Samuelson, (1965). Proof that properly anticipated prices fluctuate ran-
domly. Industrial Management Review, Spring 1965.
[Sam67] P.A. Samuelson, (1967). Statement before committee on banking and currency.
US Senate, re mutual fund legislation of 1967, August 1967.
[Sam73] P.A. Samuelson, (1973). Mathematics of speculative price. SIAM Review,
15 :1—42, 1973.
[Sam74] P.A. Samuelson, (1974). Challenge to judgment. Journal of Portfolio Mana-
gement, 1 :17—19, Fall 1974.

68
[Sey86] N. Seyhun, (1986). Insiders’ profits, costs of trading, and market efficiency.
Journal of Financial Economics, 16 :189—212, 1986.
[Sti85] S.E. Stickel, (1985). The effect of value line investment survey rank changes
on common stock prices. Journal of Financial Economics, 14 :121—144, 1985.
[SW94] E.J. Sullivan and T. Weithers, (1994). The history and development of the op-
tion pricing formula. Research of Economic Thought and Methodology, 12 :31—
43, 1994.
[Wor34] H. Working, (1934). A random difference series for use in the analysis of time
series. Journal of the American Statistical Association, 29 :11—24, march 1934.

69

Vous aimerez peut-être aussi