Vous êtes sur la page 1sur 54

La théorie financière : un survol théorique

Othman GAGA Gaga.othman@gmail.com

Avertissement:

Le présent document est un passage du mémoire : « la Théorie financière : entre cœur et périphérie – une approche par la régression quantile » qui a été soutenu en vue de l’obtention du Master de recherche en Finance Appliquée délivré par l’Université Cadi Ayyad de Marrakech. En cela, la diffusion de ce document se fait dans le respect du droit d’auteur. L’utilisation totale ou partielle du document à des fins pédagogiques et non commerciales est admise à condition de citer l’auteur.

Tables des matières :

Introduction :

1

Chapitre 1 :

Les agents économiques en théorie financière : l’homo-economicus face aux biais

 

4

1. La théorie de la finance moderne : le paradigme

4

a) Les hypothèses de l’efficience des marchés :

4

b) De l’analyse moyenne-variance au modèle d’équilibre des actifs financiers :

7

(i)

L’analyse moyenne-variance :

7

(ii)

Le modèle d’équilibre des actifs financiers :

9

c) Le modèle d’évaluation par arbitrage :

12

2. La finance comportementale :

14

a) la limite à l’arbitrage :

14

b) Biais Psychologiques :

17

(i)

Formation des jugements :

18

(ii)

Préférences et anticipations :

20

Chapitre 2 :

Implications de l’hétérogénéité des anticipations sur la formation des prix

24

1. Hétérogénéité des anticipations :

24

a) Asymétrie d’information et formation des comportements :

24

(i)

L’HEM : une

24

(ii)

le Herding dans les marchés financiers : une approche

26

(1)

Cascade informationnelle :

26

(2)

Le herding basé sur la compensation :

29

b) L’hétérogénéité des anticipations liée à l’irrationalité :

30

(i)

La théorie du feedback :

30

(ii)

Le marché en situation de sous-réaction et de sur-réaction :

32

2. La riposte de l’HEM : entre modèle multifactoriel et suspicion

35

a) Le modèle de Fama-French :

35

(i)

Genèse et présentation du modèle :

35

(ii)

Interprétation des facteurs de risque et limites du modèle :

37

b) Suspicions méthodologiques : quand les anomalies deviennent

40

Bibliographie

44

Liste des figures :

Figure 1 Choix du portefeuille efficient qui maximise la fonction d'utilité

7

Figure 2 Transformation de la frontière efficiente en présence de l'actif sans risque

8

Figure 3 La droite CML et la droite SML

10

Figure 4 Schéma Méthodologique des tests empiriques de l'HEM

12

Figure 5 Pondération des probabilités et la fonction de valeur

21

Figure 6 Situation de sous-réaction suite à une nouvelle information

33

Figure 7 Situation de sur-réaction de la part des marchés

34

Figure 8 Schéma méthodologique des tests des anomalies

42

Introduction :

Plus que toute autre discipline économique, l’économie financière est, probablement, celle qui noue la relation la plus forte avec les agents économiques, dans la personne des investisseurs, d’une part et les institutions, régissant les marchés financiers, d’autre part. En effet, la théorie financière fournit, aux premiers, les directives en matières d’investissement tandis qu’elle offre, aux secondes, les principales orientations en vue d’établir des politiques ad hoc. L’implication majeure de cette relation réside dans le rapprochement entre la théorie et la réalité. En cela, l’analyse économico-financière, aussi normative soit-elle, n’a de valeur que si elle est validée empiriquement par les données. La théorie financière la plus imposante est celle de l’efficience des marchés (Fama, 1965 ; Samuelson, 1965). Celle-ci peut être perçue comme étant une application de la pensée néoclassique aux marchés financiers. Sur cette base repose les principaux modèles, dits rationnels, d’évaluation des actifs financiers tels que le modèle d’équilibre des actifs financiers (Sharpe, 1965, Lintner, 1965) et le modèle d’évaluation par arbitrage (Ross, 1976). L’ensemble de ces travaux constitue un corpus plus connu sous le nom de la théorie de la finance moderne(ci-après TFM). Cette dernière constitue la cœur de la théorie financière.

La TFM est une approche normative, s’inscrivant dans la tradition de l’école néoclassique, qui consiste à privilégier l’analyse des marchés en situation d’équilibre. En cela, l’explication et la modélisation des répercussions des interactions des différents agents économiques, opérant dans des marchés complexes, se trouvent sacrifiées sous l’autel de l’homogénéisation des anticipations. le but étant de faire prévaloir l’analyse du marché. Cette conception des marchés financiers a permis plusieurs avancées aussi bien sur le plan théorique que sur le plan pratique. En effet, le risque est devenu mesurable avec les travaux de Markowitz (1952, 1958). La valeur d’équilibre des actifs est devenu calculable 1 . Plus encore, la relation entre rentabilité et risque est devenue tangible.

Cela étant dit, les récents développements qu’ont connus les marchés financiers, tels que le renforcement de la liquidité, l’élargissement des produits financiers (produits dérivés, marché de change…) et, surtout, la fréquence alarmante des crises financières, ont mis à mal la place occupée par la TFM. En effet, entre crises boursières et rentabilités anormales, les

1 Modèles cités ci-haut.

1

prescriptions de la TFM ne semblent plus trouver un écho dans la réalité. Cet état de fait a induit une tollé de critiques, principalement en dehors du cercle académique, concluant, à tort ou à raison, la défaillance de la théorie financière.

D’un autre côté, maints travaux ont pris comme point de départ le relâchement de certaines hypothèses de la TFM afin d’étudier le comportement des marchés. Ces travaux portent notamment sur le manque de rationalité des investisseurs et l’asymétrie de l’information. Citons à titre d’exemple la théorie de la finance comportementale qui est considérée comme étant le principal rival de la TFM. Contrairement à cette dernière, ces travaux constituent la périphérie de la théorie financière. L’objectif de la périphérie réside dans l’explication des sous-problèmes. En d’autres termes, le but est d’expliquer certaines situations et événements isolés en s’appuyant sur l’interaction des agents. En effet, la principale conclusion de ces travaux est que l’absence d’une des hypothèses de la TFM conduit probablement à des anticipations hétérogènes et par voie de conséquence à un déséquilibre quasi-structurel des marchés.

Par ailleurs, la méthodologie adoptée par la périphérie est positive. Ce choix méthodologique empêche toute extrapolation à une généralisation des prescriptions de la périphérie à l’ensemble du marché. De surcroît, le lien entre la périphérie et la réalité est très dur à établir. En effet, les théories périphériques expliquent les phénomènes financiers de façon isolée, et ainsi les détecter à travers les données disponibles est une tâche ardue.

Alors, pourquoi parle-t-on encore de la périphérie ? l’une des principales raisons est que celle- ci explique certains aspects qui ont été longtemps éludé par la TFM. D’une autre part, les difficultés éprouvées par cette dernière constitue le fer de lance de la périphérie. Par difficultés, nous entendons la présence notoire des anomalies (i.e. rentabilités anormales qui ne sont pas justifiées par le risque) et certaines crises telles que les bulles spéculatives . En effet, ces phénomènes ne trouvent pratiquement aucune justification tangible de la part du cœur de la théorie financière. Certaines explications telles que le modèle multifactoriel de Fama-French (Fama et French, 1993), partant d’une logique inductive, attribuent la présence des anomalies comme étant des facteurs de risque. Cela dit, cette proposition a causé un débat houleux aussi bien de la part du cœur que de la périphérie.

Cependant, il convient de noter que les explications de ces phénomènes, provenant de la périphérie, demeurent purement hypothétiques en raison de l’absence de lien tangible entre les volets théoriques et empiriques de la périphérie. C’est d’ailleurs pour cette raison que le

2

présent document n’analysera que très brièvement les travaux liés aux anomalies, et ce principalement pour deux raisons. La première est due à une large documentation concernant ces phénomènes. La seconde est due au fait que ces phénomènes ne peuvent être liés ni au renforcement de la périphérie ni à la défaillance du cœur de la théorie financière.

En fait, ce modeste travail se propose de privilégier un débat théorique mettant en relief les principales conclusions du cœur et de la périphérie en mettant l’accent sur la dynamique pouvant exister entre les agents. Le but étant de dresser, en premier lieu, un état des lieux des principaux résultats de la périphérie. En second lieu, le présent mémoire présentera les difficultés empiriques des théories périphériques ainsi que les critiques adressées à ces théories de la part des tenants de la TFM.

3

Chapitre 1 : Les agents économiques en théorie financière : l’homo- economicus face aux biais psychologiques.

Ce premier chapitre a pour finalité la présentation du rôle de l’agent économique dans la

théorie financière. A cet effet, nous allons passer en revue les principales évolutions de cette

dernière en passant de la théorie de la finance moderne à la finance comportementale.

Toutefois, il est à souligner que certains concepts ne seront traités que brièvement en vue de

ne pas encombrer ledit chapitre. Cela dit, chaque concept traité sera lié à une référence pour

de plus amples explications. De surcroît, certaines notions importantes seront accompagnées

d’un encadré disponible dans les annexes.

La section 1 abordera les principaux développements de la finance moderne alors que la

section 2 s’attèlera sur les rouages de la finance comportementale.

1. La théorie de la finance moderne : le paradigme

a) Les hypothèses de l’efficience des marchés :

La théorie d’efficience (notée HEM ci-après) a façonné la théorie financière tant par ses

multiples implications que par ses vastes ramifications, au point de s’élever au rang de

dogme. En vue de mieux cerner cette notion, il convient d’énoncer les hypothèses sur

lesquelles elle repose :

H1 : les marchés sont sans frictions (absence des coûts de transaction) ;

H2 : l’information est gratuite et est connue par la totalité des agents ;

H3 : les agents sont tous d’accord sur l’implication de l’information actuelle ( ) à la

fois sur les prix actuels ( ) et sur la distributions des prix futurs ( ).

Force est de constater que ces hypothèses sont, pour le moins, restrictives. Toutefois, les

partisans de l’HEM avancent qu’elles sont, certes, suffisantes mais pas nécessaires. Ainsi

Fama (1970) écrivait-il : « …Mais un marché sans friction où l’information est disponible

gratuitement et où les investisseurs s’accordent sur son implication n’est pas une description

réaliste des marchés. Heureusement, ces conditions sont suffisantes mais pas nécessaires… »

Sous la lumière de ces hypothèses, les marché reflètent totalement et correctement l’ensemble

des informations pertinentes à la détermination des prix des actifs (Fama, 1965). De façon

plus formelle, les prix suivent une martingale (Samuelson,1965). Bien que d’autres

4

économistes tels que Fama (1965) aient proposé le modèle de marche aléatoire, la martingale demeure le modèle qui se plie le plus à la définition présentée ci-haut. Formellement, elle s’énonce comme suit :

(1.1)

L’équation (1.1) signifie que les prix futurs ( évoluent suivant un processus aléatoire. Ces derniers peuvent prendre n’importe quelle forme hormis celle engendrée par l’anticipation conditionnelle sur l’information actuellement disponible ( ). De façon plus simple, en se basant sur l’information disponible à l’instant t, les agents sont incapables de prévoir l’évolution des prix futurs. En effet :

Ainsi, la martingale suppose que l’investissement des agents s’apparente à un jeu équitable « fair game » (les gains et pertes espérés sont nuls). Il s’en suit que l’évolution des rentabilités est aussi aléatoire et ne peut être prédite par l’information disponible. Cette notion de l’efficience est qualifiée d’efficience informationnelle.

La définition de l’HEM peut, de prime abord, paraitre audible et concise, cependant elle ne laisse pas moins entretenir une certaine ambigüité. En effet, deux passages méritent de plus amples explications à savoir : « reflètent totalement et correctement » et « l’ensemble des informations pertinentes ».

Le premier passage renvoie à la vitesse (totalement) et la manière (correctement) avec lesquelles les prix incorporent l’information. Plus concrètement, c’est aux agents qu’incombe la mission de refléter totalement et correctement l’ensemble des informations. En effet, suite à l’arrivée d’une nouvelle information, l’agent révise correctement ses connaissances en se basant sur la loi de Bayes. Dans une telle optique, il est doté d’une capacité cognitive illimitée à traiter une quantité infinie d’informations, lui permettant ainsi de résoudre les problèmes les plus complexes. En cela, l’agent traite tous les états de la nature (totalement) en leur assignant des probabilités conformes à des préférences normatives. D’une manière plus explicite, il utilise la fonction d’utilité espérée (ci-après UE) de Von Neumann-Morgenstern (1944) si la distribution de probabilité est connue. Si elle ne l’est pas, il utilise la fonction d’utilité espérée subjective (ci-après UES) de Savage (1954). Plus formellement, l’agent doit maximiser, la fonction suivante :

5

(1.2)

Effectivement, pour chaque état de la nature l’agent assigne un degré d’utilité

(préférences normatives) et une probabilité

comment peut-on identifier cette dernière ? cette question nous mène au deuxième passage de la définition.

appartenant à une distribution. Cependant,

En effet, connaître toute l’information n’est qu’un préalable. L’agent ne doit retenir que l’ensemble des informations pertinentes en vue de former ses anticipations. la question qui se pose concerne justement le contenu desdites informations. Une première réponse nous vient de la théorie des anticipations rationnelles (Muth, 1961). Une anticipation rationnelle est celle qui satisfait l’égalité suivante :

(1.3)

L’équation (1.3) signifie tout simplement que l’anticipation de l’agent ( ) doit être égale à l’anticipation optimale ( ). Cette dernière est atteinte quand l’investisseur procède non seulement à l’analyse de l’ensemble de l’information disponible mais aussi, et surtout, en faisant le lien entre ces informations et le modèle régissant l’évolution de la variable anticipée. La théorie des anticipations rationnelles suggère que l’agent doit connaître le modèle de fonctionnement de l’économie 2 . Dans des termes plus précis, la fonction UES doit égaliser celle de l’UE. Ainsi, l’agent assigne des probabilités provenant de la véritable distribution qui régit la variable anticipée. l’HEM se base sur cette préposition en fournissant, toutefois, une réponse aussi évasive que la précédente. En effet, les informations pertinentes d’un actif sont les informations d’ordre économique et politique afférentes à l’entreprise , à son secteur et/ou l’économie (voire les économies) où elle opère (Fama, 1965).

En regroupant les deux passages de la définition, un marché efficient est un marché atomique qui contient un très grand nombre d’agents homogènes qui appliquent la loi de Bayes pour formuler leurs connaissances et ayant des préférences compatibles avec la fonction d’utilité de Von Neumann-Morgenstern. En ce faisant, les prix reflètent la valeur fondamentale des actifs. Autrement dit, les prix sont à leur juste valeur.

Dans un plan théorique, l’HEM présente une certaine solidité. Cependant, l’estimation de celle-ci, en pratique, est impossible. Cette impossibilité découle principalement de

2 Ibid.

6

l’explication évasive de « l’ensemble des informations pertinentes ». Pour palier à ce

problème, plusieurs économistes ont essayé de délimiter le champ desdites informations en

proposant des modèles testables servant, par la même occasion, d’extensions à l’HEM.

b) De l’analyse moyenne-variance au modèle d’équilibre des actifs financiers :

(i) L’analyse moyenne-variance :

Markowitz (1952,1958) 3 est l’un des premiers économistes à présenter formellement un

modèle de sélection de portefeuille. Ce dernier offre aux investisseurs deux critères de

décision. Lesquels sont la moyenne et la variance (ou l’écart-type). Le premier critère décrit la

rentabilité espérée tandis que le second décrit le risque. D’où le nom de l’analyse moyenne-

variance.

Figure 1 Choix du portefeuille efficient qui maximise la fonction d'utilité Frontière efficiente Courbes
Figure 1 Choix du portefeuille efficient
qui maximise la fonction d'utilité
Frontière efficiente
Courbes d’indifférence
Portefeuille optimal

Dans une optique de moyenne-variance, l’agent fait face à un problème d’optimisation qui

peut être formulé par deux façons. La première consiste à minimiser le risque (variance) pour

un niveau de rentabilité espérée (moyenne) donné. la seconde, quant à elle, consiste, à

maximiser la rentabilité espérée pour un niveau de risque donné. Il est important ici de noter

que ces deux dernières mesures ne sont pas calculées à partir des données historiques mais

sont anticipées rationnellement de la part des agents. Ainsi, la frontière des portefeuilles

minimisant le risque se dessine au fur et à mesure que l’investisseur se déplace d’un niveau de

rentabilité à un autre. Celle-ci est appelée frontière efficiente.

3 Notons ici que le modèle de Markowitz précède l’HEM. Cependant, la présentation de ce modèle est une étape incontournable à la présentation du MEDAF.

7

D’après la figure 1, l’investisseur n’aura pas intérêt à investir dans un portefeuille se situant au-dessous de la frontière efficiente. Le portefeuille optimal à choisir est celui qui appartient à ladite frontière et qui satisfait la condition de tangence avec la courbe d’indifférence de l’investisseur. En somme, le modèle moyenne variance n’indique que l’ensemble de portefeuilles rationnels. Le choix du portefeuille optimal revient à l’investisseur. De ce fait, cette analyse revêt un aspect purement microéconomique.

Sharpe (1964, 1965) et Lintner (1965) ont travaillé indépendamment sur l’agrégation des travaux de Markowitz pour aboutir à un modèle plus général. En effet, l’objectif était de trouver une solution où les agents concordent à choisir le même portefeuille optimal (H3 de l’HEM). Ainsi, en formulant des hypothèses additionnelles et en ajoutant au marché un actif sans risque, le modèle d’équilibre des actifs financiers (MEDAF ci-après) est né.

Figure 2 Transformation de la frontière efficiente en présence de l'actif sans risque

Figure 1.2.a Lignes d’investissement M B A Frontière efficiente des actifs risqués
Figure 1.2.a
Lignes
d’investissement
M
B
A
Frontière efficiente des actifs
risqués
Figure 1.2.b Zone d’emprunt Zone de prêt P M Nouvelle frontière E efficiente Frontière efficiente
Figure 1.2.b
Zone d’emprunt
Zone de prêt
P
M
Nouvelle frontière
E
efficiente
Frontière efficiente
des actifs risqués

Désormais, l’investisseur a le choix d’allouer son argent entre les actifs risqués et l’actif sans risque ( ). Ce dernier est caractérisé par des flux futurs connus et une variance nulle. La présence d’un tel actif permet à l’investisseur de le combiner linéairement (ligne d’investissement) avec des portefeuilles risqués. En procédant à ce type de combinaisons, le choix optimal consiste à choisir le portefeuille qui fournit la ligne d’investissement qui satisfait la condition de tangence avec la frontière efficiente des actifs risqués (le portefeuille M dans figure 2.a. Un tel portefeuille est appelé « portefeuille du marché ».

Cependant même si la rationalité dicte aux investisseurs le choix du portefeuille qui vérifie la condition de tangence, Le positionnement de l’investissement sur la ligne sera guidé par leurs

8

préférences (figure 2.b). Le théorème de séparation (Tobin, 1958) nous donne de plus amples

explications. En effet, en présence d’un actif sans risque, tout investisseur rationnel doit

impérativement faire deux décisions. La première, appelée décision d’investissement, lui dicte

de choisir la ligne d’investissement qui satisfait la condition de tangence. La seconde décision

consiste à positionner l’investissement sur la ligne optimale eu égard aux préférences

normatives de chaque investisseur. Elle est appelée décision financière.

(ii) Le modèle d’équilibre des actifs financiers :

En supposant la gratuité de l’information (H2 de l’HEM), l’absence de friction (H1 de

l’HEM) ainsi que l’atomicité des agents, le MEDAF devient une agrégation naturelle des

choix d’investissement des agents 4 . Bien évidemment, cette agrégation est conditionnée par

l’homogénéité des anticipations (H3 de l’HEM). De façon plus spécifique, tous les agents

anticipent les mêmes moyennes et variances inhérentes à chaque actif. De surcroît, ces

dernières doivent provenir des véritables distributions qui les régissent (UES=UE). Sans cette

condition, le MEDAF serait plus compliqué et presque inutilisable.

Dans sa forme théorique le MEDAF s’écrit comme suit :

(1.4)

L’équation (1.4) signifie que la rentabilité espérée d’un actif ou d’un portefeuille ( ) est

égale à l’actif sans risque ( plus la prime de marché multipliée par un coefficient

( ). Le risque est scindé en deux catégories. La première renvoie à un risque spécifique qui

est non rémunéré puisque l’investisseur peut l’éliminer en investissant dans le portefeuille M

(décision d’investissement). La deuxième renseigne sur le risque systématique qui est

rémunéré par beta . Ce dernier mesure la part de volatilité de la rentabilité de l’actif associée

avec la variabilité de la rentabilité .

4 Etant donné que tous les agents choisiront le portefeuille M, les investissement rationnels appartiennent à la droite qui lie ce dernier avec l’actif sans risque. Cette droite est appelée Capital Market Line CML (figure 1.3.a)

9

Figure 3 La droite CML et la droite SML

Figure 3.a CML M
Figure 3.a
CML
M

Figure 3.b

Actifs sous-évalués A B Actifs surévalués
Actifs sous-évalués
A
B
Actifs
surévalués

En équilibre, les rentabilités des actifs doivent former une droite appelée Security Market

Line (SML), comme le montre la figure 3.b. En effet, si la rentabilité passe en dessus (sous-

évaluation) ou en dessous (surévaluation) de la SML, les agents achèteront les actifs sous-

évalués ( actif A, figure 3.b) et vendront les actifs surévalués (actif B, figure 3.b). L’action

collective des investisseurs aboutira à un nouvel équilibre.

Contrairement à l’HEM, le MEDAF peut être testé en pratique. Sa forme empirique est la

suivante:

(1.5)

est un terme d’erreur qui est supposé satisfaire les conditions suivantes :

= 0

= 0

, appelé alpha de Jensen, mesure la distance entre la rentabilité en équilibre est la

rentabilité observée ( ). Outre l’ajout d’alpha dans l’équation (1.5), Il est important de

souligner qu’il existe une très grande différence entre cette dernière et l’équation (1.4). En

effet, est la rentabilité espérée tandis que est la rentabilité historique. Ajoutons à cela le

fait que est souvent exprimé en termes d’indices boursiers qui sont loin de représenter la

rentabilité espérée du marché ( ). Tout cela ne fait de l’équation (1.5) qu’une simple

approximation de la formule théorique du MEDAF.

10

Quoi qu’il en soit, la forme empirique du MEDAF permettaient aux économistes de tester l’équilibre sur les marchés financiers, et par déduction l’HEM. Les méthodes les plus utilisées consistent à étudier la signification d’alpha (Jensen, 1968), la stabilité de beta (Roenfeldt, Greipentorg et Palfman, 1978 ; Carpenter et Upton, 1981) et la linéarité entre la rentabilité et le risque (Sharpe et Cooper, 1972 ; Black Jensen et Scholes, 1972 ; Fama et MacBeth, 1973).

Les premiers tests effectués étaient plutôt en faveur du MEDAF 5 . Cependant, vers la fin des années soixante-dix, des articles fusait tout azimuts en fustigeant ce dernier de critiques. En effet, d’autres variables prédisaient la rentabilité. De surcroît, la rentabilité présentaient certaines irrégularités. Ces critiques forment ce que l’on appelle «anomalies». Dans une optique financière, une anomalie est toute rentabilité anormale qui n’est pas justifiée par la rentabilité ajustée par le risque et qui indique l’inefficience des marchés et/ou une inadéquation du modèle d’évaluation d’actif (en l’occurrence le MEDAF). Toutefois, il est nécessaire de s’arrêter sur la méthodologie empirique de ces travaux. Le schéma méthodologique peut être résumé dans la figure 4.

Cette méthodologie n’est pas exempte de toute critique. En effet, tester l’HEM, suppose faire le test de deux hypothèses indissociables. la première concerne le modèle d’évaluation tandis que la seconde concerne l’HEM, entrant ainsi dans un cercle vicieux. Les résultats issus de cette méthodologie ne peuvent être imputés à l’HEM puisqu’elle est testée conjointement avec un modèle d’évaluation. Cet état de fait est communément appelé le problème des hypothèses jointes (Fama, 1970).

Ces anomalies ont scindé les partisans de l’HEM en deux clans. Ceux qui rejettent totalement la validité empirique des anomalies (MacKinlay, 1995 ; Shwertz, 2003) et ceux qui imputent l’existence de celles-ci au MEDAF et non à l’HEM (Fama et French, 1992, 1993 ; Ross, 1976a, 1976b). Ces derniers ont préféré de jeter le discrédit sur le MEDAF et ont essayé d’apporter de nouveaux modèles en vue de mieux expliquer la rentabilité.

5 Ibid.

11

Figure 4 Schéma Méthodologique des tests empiriques de l'HEM

MEDAF

Ensemble des informations

empiriques de l'HEM MEDAF Ensemble des informations Critères de l’efficience Hypothèses Résultats Tests
Critères de l’efficience
Critères de l’efficience
Hypothèses
Hypothèses
Résultats Tests
Résultats
Tests

Rejeter l’hypothèse nulle:

inefficience

Ne pas rejeter l’hypothèse nulle :

efficience

c) Le modèle d’évaluation par arbitrage :

L’arbitrage peut être dépeint comme étant une application de la loi du prix unique aux marchés financiers. Cela suppose qu’un actif dispose d’un substitut parfait. Ce dernier, peut être un autre actif ou un portefeuille présentant les mêmes rentabilités futures pour tous les états de la nature.

Si cet actif diverge de son substitut (rentabilité anormale), les investisseurs rationnels auront une opportunité de gain immédiate et illimitée sans engendrer le moindre coût et sans prendre le moindre risque. Cette opportunité est appelée opportunité d’arbitrage, laquelle consiste à vendre le plus cher et à acheter le moins cher. Etant donnée l’atomicité des agents, l’action collective de ces derniers ramènera les prix à leur niveau fondamental. Dans un tel contexte, l’absence d’arbitrage est un signe d’équilibre et d’efficience des marchés.

Ainsi, pour que l’absence d’arbitrage ait lieu, le marché doit être sans friction et contenir un certain nombre d’agents qui préfèrent plus de richesse à moins de richesse (préférences normatives) et pour lesquels un portefeuille optimal peut être construit.

Plus formellement, l’arbitrage peut être schématisé de la façon suivante :

12

Investissement initial nul :

détenue pour chaque actif.

L’arbitrage est sans risque :

est la valeur monétaire

pour chaque état de la nature.

Il s’en suit, que l’absence d’arbitrage se traduit par : pour chaque état de la nature. C’est sur cette base que Ross (1976a,1976b) a établit le modèle d’évaluation par arbitrage (APT, ci-après).

L’APT est formulé comme suit :

(1.6)

Où F représente le nombre de facteurs expliquant la rentabilité, est le terme d’erreur. A

l’instar du MEDAF, l’ATP suppose deux types de risques :

Risque systématique : associé avec la variation des facteurs

Risque spécifique : associé avec le terme d’erreur.

Les conditions de l’APT sont similaires à celles de l’arbitrage :

Investissement initial nul.

L’absence de risque suppose l’annulation des risques systématique et spécifique :

o

Elimination du risque systématique :

o

Elimination du risque spécifique :

, cette condition

nécessite que

En équilibre (absence d’arbitrage), les conditions ci-haut transforment l’équation (1.6) en 6 :

Si ces conditions sont respectées, l’APT devient :

(1.7)

Où et sont des primes de risque disposant de la même valeur pour chaque actif. Remarquons que l’APT n’ a pas hérité de la simplicité du MEDAF. En effet, l’application en pratique de ce modèle est très complexe. Si c’est une tâche faisable pour les académiciens,

6 Selon l’APT, la rentabilité en équilibre doit-être nulle.

13

c’est une autre paire de manche pour les praticiens qui n’ont ni l’expertise ni le temps pour le

faire.

Par ailleurs, la condition de l’élimination du risque spécifique constitue le talon d’Achille de

l’APT. En effet, force est de constater qu’il est très rare de trouver une série financière

disposant d’un terme d’erreur ayant une moyenne nulle. En cela, l’équation (1.7) ne tient qu’à

une approximation.

Les problèmes de complexité et d’exactitude ne doivent pas faire oublier un tout autre

problème qui fait défaut à l’APT. En effet, si la rentabilité est représentée par un nombre de

facteurs K, l’APT reste muet sur ce que ces facteurs peuvent représenter. Rappelons que l’une

des fonctions principales des modèles d’évaluation rationnels est de délimiter le champ des

informations pertinentes. Malheureusement, l’APT a émis plus de zones d’ombre qu’il en a

dissipé, et par voie de conséquence, il n’a pas été en mesure de détrôner le MEDAF.

2. La finance comportementale : l’antithèse.

La finance comportementale est une discipline qui prône l’analyse de l’agent économique

sous un nouvel ongle. Désormais, ce dernier est soumis à des biais psychologiques lui

empêchant d’appliquer correctement la loi de Bayes et/ou de dresser des préférences

normatives. Telle est la définition que l’on donnera au terme « irrationnel » qui sera utilisé de

façon récurrente lors de cette section. Cette discipline est constituée de deux pans : la limite à

l’arbitrage ainsi que les biais psychologiques.

a) la limite à l’arbitrage :

La présence d’agents irrationnels n’a pas été totalement occultée par l’HEM. Cependant,

selon cette dernière, leur influence sur la formation des prix est insignifiante. Cette

proposition revient à Friedman (1953) qui considérait que si les agents irrationnels arrivent à

faire dévier le prix d’un actif de ses fondamentaux, le prix dudit actif divergerait de son

substitut. Ainsi, une opportunité d’arbitrage est créée. Cette dernière serait immédiatement

saisie par les agents rationnels. Etant donné que ces derniers ne peuvent influencer les prix en

raison de leur atomicité, leur action collective ramènerait le prix de l’actif à sa valeur

fondamentale. De ce fait, l’absence d’opportunité d’arbitrage, appelée aussi « no free lunch »,

est considéré comme étant une situation d’équilibre et d’efficience des marchés.

Toutefois, la finance comportementale ne voit pas les choses du même œil. Si l’efficience des

marchés implique l’absence d’opportunité d’arbitrage, l’inverse n’est pas vrai. Pour mettre au

claire cette idée, nous nous baserons sur la proposition de Friedman : « les agents qui

14

investissent sur la base du bruit perdront leur argent au profit des arbitragistes, menant ainsi à une diminution aussi bien de leur richesse que de leur effet sur la demande » 7 écrivait-il.

Supposons qu’il existe deux types d’investisseurs. Les premiers forment des anticipations rationnelles et sont appelés arbitragistes. Les seconds, quant à eux, manquent de rationalité. Par conséquent, leur demande est affectée par des décisions qui ne sont pas justifiées par les informations pertinentes . Ils sont appelés « noise traders ».

Il s’en suit qu’avec l’existence de ces deux catégories, le prix ne pourra plus être identique à la valeur fondamentale. Désormais, le processus de formation des prix est constitué non seulement par cette dernière mais aussi par du bruit « noise » (Kyle, 1985 ; Black, 1986). La première composante est injectée par les agents rationnels alors que la seconde est injectée par les agents irrationnels (d’où le nom noise traders).

Pour qu’un arbitrage ait lieu, les arbitragistes doivent être neutre vis-à-vis du risque et disposer d’une demande parfaitement élastique pour l’actif mal-évalué au niveau du prix de son substitut. Ces deux conditions supposent la présence d’un substitut parfait. En présence d’un tel substitut, l’opportunité d’arbitrage n’engendre ni coût ni risque.

Les partisans de la finance comportementale estiment qu’en réalité cet arbitrage est à la fois couteux et risqué. Effectivement, certains actifs tels que les actions et les obligations ne disposent pas d’un substitut parfait. Cet état de fait ôte les arbitragistes de leur couverture. A titre d’illustration, si l’actif est inférieur à sa valeur fondamentale, la logique d’arbitrage voudrait que les agents achètent ledit actif et vendent à découvert son substitut. Ainsi, même si le prix de l’actif baisse encore plus à court terme, l’agent sera immunisé. Seulement, s’il n’existe pas de substitut parfait, les agents ne seront plus immunisés et devront supporter un risque lié à l’imperfection du substitut. Un tel risque est dit risque fondamental (Shleifer et Summers ,1990). En cela, les arbitragistes seront averses au risque et leur demande ne sera plus parfaitement élastique 8 .

En insérant les coûts de transactions dans notre analyse, le processus d’arbitrage devient couteux et plus risqué même si un substitut parfait existe. Effectivement, la vente à découvert engendre un coût. Si les prix divergent de leur substitut pour une longue période, les coûts de la vente à découvert pourraient être plus élevés que le profit de l’arbitrage lui-même. Par

7 Ibid.

8 Pour que la demande ne soit plus élastique, le nombre des arbitragistes doit être fini.

15

conséquent, les arbitragistes seront dans l’obligation de solder leur positions avant même que les prix reviennent à leur fondamentaux. Ce risque porte le nom de « Horizon risk » (Abreu et Breunnermeier, 2002).

Implicitement, les deux types de risque précités s’appuient principalement sur l’imprévisibilité de la demande des noise traders. En effet, même si l’influence de ces derniers sur les prix est grande, leur demande demeure imprévisible et difficilement détectable (Shiller, 1984 ; Summers, 1986). Ainsi, l’arbitrage comporte un risque supplémentaire lié aux noise traders (Delong et al, 1990).

En effet, même si les arbitragistes arrivent à détecter une opportunité d’arbitrage, il se peut que ces derniers ne la saisissent pas. Ne pouvant pas prévoir la demande des noise traders, les arbitragistes seront moins enclins à les contrattaquer vu que leurs positions pourraient engendrer un coût et des pertes à court et à moyen terme. En effet, cette constatation est renforcée davantage quand les investisseurs institutionnels jouent le rôle d’arbitragistes.

Shliefer et Vishny (1997) avancent que l’arbitrage défini par Friedman n’est vrai qu’en état de virtualité, pour reprendre leurs mots c’est un arbitrage de « manuel » : « les millions de petits traders [référence à l’atomicité des agents] ne sont pas ceux qui disposent des connaissances et des informations nécessaires pour effectuer un arbitrage » 9

Plus explicitement, l’arbitrage est un apanage réservé à un cercle réduit d’investisseurs hautement spécialisés. Ces derniers sont, pour la plupart, des gestionnaires de portefeuilles. Autrement dit, ils utilisent l’argent de leurs clients pour effectuer un arbitrage 10 . De là nait un conflit agent/principal que Shliefer et Vishny appellent la séparation entre le cerveau et le capital.

Les clients des arbitragistes jugent ces derniers à partir de leurs performances passées. C’est un acte tout à fait rationnel puisqu’ils ne peuvent inférer l’habilité des arbitragistes qu’à partir de cette information. Supposons que les prix entament une chute par rapport à leurs fondamentaux, les arbitragistes disposeront, à priori, d’une opportunité d’arbitrage menant à un profit certain quand les prix reviendront à leur fondamentaux. Entre-temps, leurs portefeuilles accuseront une perte (en raison de la baisse des prix), la seule chose que leurs clients déduiront est que les arbitragistes perdent de l’argent. De ce fait, ils retireront leurs

9 Ibid. 10 L’analyse qui suit suppose que les arbitragistes sont tous des gestionnaires de portefeuilles.

16

argents de ce fonds. Afin d’éviter un retrait massif, les arbitragistes seront forcés

d’abandonner leurs positions, laissant ainsi l’opportunité d’arbitrage inexploitée. Notons ici

que l’hypothèse de base est que les arbitragistes utilisent l’argent de leurs clients en vue

d’effectuer un arbitrage. Cette hypothèse est très raisonnable puisque la majorité des bourses

interdisent aux gestionnaires de fonds de vendre à découvert (Barberis et Thaler, 2003).

En somme, si l’influence des noises traders persistent, il y’aurait une forte chance que les prix

divergent de leurs fondamentaux pour une longue période. En effet, en cas d’atomicité des

agents, l’arbitrage est couteux et risqué. Il le devient encore plus quand le groupe

d’arbitragistes ne contient plus que les gestionnaires de fonds. Cet état de fait porte le nom de

la limite à l’arbitrage.

Même si la limite à l’arbitrage semble réaliste, elle demeure conditionnée par une hypothèse

qui a trait aux comportements des noise traders. Si ces derniers agissent d’une manière

aléatoire, leurs actions s’annuleront mutuellement. Pour que leurs influences persistent, il faut

que leur actions soient corrélées. Autrement dit, les noise traders devront faire pratiquement

les mêmes erreurs. C’est justement sur ce point que s’attèle le deuxième pan de la finance

comportementale à savoir les biais psychologiques.

b) Biais Psychologiques :

La majorité des décisions financières est prise dans un climat où règne un grand degré

d’incertitude. Dans un cadre rationnel, l’agent doit envisager, exhaustivement, toutes les

alternatives possibles et choisir, parmi elles, celle qui maximise ses intérêts. Toutefois, l’être

humain ne dispose pas d’une capacité cognitive capable de résoudre un tel problème.

Miller (1954) a trouvé que la capacité humaine à traiter les informations ne dépasse guère le

chiffre sept plus ou moins deux. Autrement dit, le cerveau humain ne peut traiter qu’un

nombre réduit d’informations allant de 5 à 9 seulement. De surcroît, la capacité humaine à

effectuer des tâches de façon simultanée est très réduite (Kahneman, 1973). En somme, la

capacité cognitive, requise pour résoudre des problèmes de prise de décision complexes,

excèdent largement la capacité cognitive humaine. Pour remédier à cela, les agents utilisent

des méthodes heuristiques (Tversky et Kahneman, 1974) qui sont loin de satisfaire la loi de

Bayes.

L’un des exemples marquants est la construction de portefeuille. Construire un portefeuille

exige de traiter non seulement l’ensemble des actifs de façon isolée mais d’examiner aussi

17

l’interaction qui peut exister entre eux (coefficient de corrélations). Baltussen et Post (2007)

ont trouvé que les investisseurs utilisent des méthodes heuristiques qui ne tiennent compte que

des distributions marginales des actifs. De surcroît, les investisseurs se focalisent sur la

fluctuation individuelle des actifs qu’ils détiennent tout en négligeant la fluctuation globale de

leurs portefeuilles. Une telle action mène souvent à des portefeuilles sous-optimaux qui se

situent en dessous de la frontière efficiente (Baltussen et Post, 2007 ; Barberis et Huang,

2003).

Ainsi, l’étude de ces méthodes heuristiques revêt une importance capitale en vue de voir

comment les erreurs individuels des agents tendent à converger.

(i) Formation des jugements :

L’une des étapes préalables à la formation des anticipations est la formation des jugements.

Celle-ci implique, dans un contexte de rationalité, l’usage de la loi de Bayes. Plusieurs

expériences, relevant du domaine de la psychologie et de l’économie expérimentale, ont

montré que les gens n’arrivent pas à appliquer correctement ladite loi.

L’une des principales raisons est causée par l’image que les gens ont d’eux-mêmes. En effet,

ils ont souvent tendance à surestimer leurs jugements menant ainsi à plusieurs biais altérant

leurs décisions. En effet, parmi ces biais il y a tout d’abord le biais d’ « optimisme ».

Weinstein (1980) a trouvé que plus de 90% des enquêtés estiment qu’ils sont au-dessus de la

moyenne dans des domaines tels que les talents de conducteur, la capacité de s’entendre avec

des inconnus et le sens d’humour. De surcroît, Buehler Griffin et Ross (1994) ont montré que

la plupart des gens sous-estiment le temps d’accomplissement d’une tâche.

Un autre biais qui va de pair avec l’ «optimisme» est la « surconfiance ».effectivement, quand

il s’agit d’estimer des quantités (p. ex. le taux de croissance des dividendes), les gens

élaborent des intervalles de confiance trop étroits. Selon une étude conduite par Alpert et

Raiffa (1982), l’intervalle de confiance de 98% dressé par les enquêtés ne contenaient que

60% des valeurs justes.

De surcroît, la manière, dont les alternatives sont présentées, jouent un rôle prépondérant dans

la prise de décision. Les gens traitent les informations telles qu’elles sont présentées. De façon

plus précise, ils n’utilisent que l’information qui est explicitement offerte à eux. Ce

phénomène est appelé inertie cognitive (Slovic, 1972). A cela s’ajoute le concept de

comptabilité mentale (Kahneman et Tversky, 1981 ; Kahneman et Lovallo, 1993 ; Thaler,

18

2000). Cette dernière se manifeste par le biais de la séparation des décisions. En effet, les gens ont tendance à élaborer des tranches de décisions. A titre illustratif, le budget familial est subdivisé en sous-catégories : « budget du ménage », « budget des loisirs », « budget

Cette manière d’allocation tend à éluder l’interaction mutuelle des

alternatives de décision. En cela, les décisions prises, dans ce cadre, se situent en-deçà de la

décision optimale (Thaler, 1999).

d’investissements » etc

En somme, la façon avec laquelle les gens traitent les alternatives qui s’offrent à eux se prête très mal aux prescriptions rationnelles de la théorie de la finance moderne. Dans une telle optique, la loi de Bayes se trouve bafouer. Kahneman et Tversky (1974) ont montré que quand les gens essaient de déterminer la probabilité qu’un événement A est généré par un modèle B, ou qu’un objet A appartient un à une classe B, ils ont recours à une méthode heuristique appelée « représentativité ». cette dernière consiste à évaluer la probabilité en se basant sur le degré avec lequel A reflète les caractéristiques de B, menant ainsi à un biais appelé « négligence du taux de base ».

Un autre biais, et non des moindres, surgit quand on utilise la méthode de représentativité. Ce dernier concerne la taille de l’échantillon. En effet, Le jet d’une pièce de monnaie six fois donnant trois piles et trois faces est moins représentatif que le jet de la même pièce 1000 fois donnant 500 piles et 500 faces. Toutefois, la plupart des gens vont trouver que ces deux dernières expériences sont aussi informatives l’une que l’autre.

Ce biais est très important dans un contexte financier. Effectivement, des investisseurs soumis à un tel biais auront tendance à considérer un analyste, qui a fait quatre bonnes recommandations successives, comme un analyste compétent (Barberis et Thaler, 2003). Ce biais est souvent appelé « la loi des petits nombres » (Rabin, 2002).

Contrairement à la méthode de représentativité, la méthode de conservatisme (Edwards, 1968) consiste à surpondérer le taux de base. Même si ces méthodes paraissent aux antipodes, elles peuvent très bien cohabiter chez la même personne. En effet, si les données à inférer sont représentatives du modèle qui les génèrent, les agents opteront pour la méthode de représentativité. Si par contre, les données sont peu représentatives, les agents se fieront davantage à leur connaissances antérieures en optant pour la méthode de conservatisme.

La question intéressante est de savoir si les agents éluderont ces biais avec l’expérience. De surcroît, on pourrait croire que certains agents dotés d’une grande expertise tels que les traders

19

sont loin de subir de tels biais. Camerer et Hogarth (1999) se sont attelés sur cette question.

Leur travail montre que même en connaissant ces biais psychologiques, les agents retombent

souvent dans la même erreur. Plus encore, les traders expérimentés sont les agents qui

exhibent le plus le biais de surconfiance. En somme, avec le temps, les agents peuvent réduire

l’effet des biais psychologiques, par contre ils ne peuvent guère l’éradiquer totalement. Ainsi,

la persistance des erreurs de jugement exerce un effet non négligeable sur la formation des

anticipations.

(ii) Préférences et anticipations :

La théorie de la finance moderne se base essentiellement sur la fonction d’utilité espérée de

Von Neumann-Morgenstern. Pour que les agents appliquent correctement la fonction UE, ces

derniers doivent impérativement dresser des préférences satisfaisant des axiomes normatifs

(i.e. la complétude, transitivité, continuité et l’indépendance). Cependant, maints travaux

expérimentaux ont montré que les agents transgressent ces axiomes de plein fouet.

Il est à signaler que l’UE demeure une bonne approximation de la façon avec laquelle les

agents évaluent les alternatives de décision. Toutefois, les partisans de la finance

comportementale argumentent que la violation de l’UE prend une place prépondérante dans

l’explication de certains phénomènes financiers (Barberis et Thaler, 2003). En cela, à une

fonction UE normative répond une théorie prospective positive (Kahneman et Tversky, 1979,

1992).

La théorie prospective a connu un essor considérable ces dernières années. En effet, elle est

considérée comme la meilleure théorie descriptive des décisions dans un climat de risque.

D’ailleurs, Tversky et Kahneman (1986) argumentent que l’approche normative est vouée à

l’échec parce que les gens font fréquemment des choix qui sont impossibles à justifier dans

une optique normative.

Cette théorie est formulée pour des loteries avec au moins un résultat non-nul sous la forme

suivante :

Ce couple est lit de la façon suivante : « obtenir le résultat x avec une probabilité p ou bien le

. Face à ces alternatives, les

résultat y avec une probabilité q » avec

agents font appel à la fonction suivante pour effectuer leur choix :

ou

20

est une fonction de pondération de la probabilité tandis que valeur assignée pour chaque résultat.

(1.8)

est une fonction de

La théorie prospective présente l’utilité sous forme de gains et pertes au lieu de la richesse finale. Cette idée n’est pas très récente puisque Markowitz (1952) l’a utilisé dans le modèle de moyenne-variance. Cela dit, en relaxant les axiomes normatifs, Kahneman et Tversky ont trouvé des remarques fort intéressantes, ce que montre la figure 5.

Décision de Pondération :

Figure 5 Pondération des probabilités et la fonction de valeur

Valeurs Pertes
Valeurs
Pertes

Gains

1

0.5

0

0.5 1
0.5
1

Probabilité déclarée : p

La figure 5.a présente l’allure de la fonction de valeur . D’une part, Cette dernière est concave dans le domaine des gains, cela signifie que les agents sont averses au risque concernant les gains. D’autre part, elle est convexe dans le domaine des pertes montrant ainsi un penchant pour le risque s’agissant des pertes. Il est à noter aussi que cette courbe présente un nœud (kink) à l’origine. Cet état de fait met en relief une plus grande sensibilité en cas de pertes qu’en cas de gains, ceci est plus connu sous le nom d’ « aversion aux pertes ».

La figure 5.b, quant à elle, présente l’allure de la fonction de pondération des probabilités . En effet, cette fonction n’est pas linéaire. Ainsi, les petites probabilités sont surpondérées ( ). Cela signifie qu’une augmentation absolue de 0,01 à 0,02 est perçue comme étant supérieure à une augmentation absolue de 0,3 à 0,1, ceci est appelé « l’effet possibilité ». De surcroît, le passage de 1 à 0,99 reçoit plus d’importance qu’un passage au sein des probabilités modérées (p. ex. de 0,31 à 0,3), ceci porte le nom de « l’effet certitude ».

21

En regroupant les deux caractéristique de et de , la concavité de la première fonctionne dans le domaine des gains engendre une aversion au risque ; cependant au niveau des probabilités faibles la surpondération de la deuxième fonction l’emporte conduisant ainsi à un penchant considérable pour le risque. Ainsi, les agents ont tendance à être averses au risque dans le domaine des gains à l’exception des gains affichant des faibles probabilités. Similairement, les agents disposent d’un penchant pour le risque au niveau du domaine de pertes en raison de la convexité de tout en étant averse au risque pour les pertes ayant une faible probabilité de se produire en raison de la surpondération de .

Kahneman et Tversky (1992) ont développé une généralisation de cette théorie qui porte le nom de la théorie prospective cumulative (ci-après TPC). Elle s’énonce comme suit :

Avec :

Et :

(1.9)

et sont respectivement les fonctions de pondérations des probabilités dans les domaines des pertes et des gains. est le paramètre d’aversion au pertes, d’après les estimations de Kahneman et Tversky (1992) ce paramètre se situe aux alentours de 2.

La TPC capture certaines anomalies cités dans la section précédente. Premièrement, elle capture comment la façon avec laquelle les alternatives sont présentées affecte le choix des agents (méthodes de conservatisme et de représentativité). En effet, 30 à 40% changent leur avis en fonction de la présentation du problème auquel ils font face (Barberis et Thaler, 2003). Deuxièmement, elle capture aussi la manière avec laquelle les agents réagissent à ces problèmes (comptabilité mentale). Si les agents utilisent la comptabilité mentale, ils considéreront les alternatives de façon isolée.

22

Par ailleurs, la TP et la TPC évoluent dans un cadre où les probabilités sont connues. Si ces probabilités sont inconnues, la logique rationnelle préconise l’usage de la UES de Savage (1954). Ellsberg (1961) a démontré que les agents sont mal à l’aise dans les situations où les probabilités sont inconnues. En effet, ce phénomène est connu sous le nom d’ « aversion à l’ambiguïté ». Heath et Tversky (1991) affirment qu’en pratique, l’aversion à l’ambiguïté est conditionnée par la compétence dont l’agent croit disposer. Si l’agent pense être incompétent concernant l’évaluation d’une distribution de probabilité, il décidera soit d’éviter l’alternative afférente à cette distribution, soit de suivre d’autres agents qu’il croit compétents (Tversky et Fox, 1995). En revanche, si l’agent estime qu’il est compétent, un effet opposé à l’aversion au risque aura lieu. Il est appelé « préférence pour le familier » (Barberis et Thaler, 2003). La notion de compétence aura une importance majeure dans le développement du chapitre suivant.

Synthèse :

A travers ce chapitre, nous avons présenté comment le rôle de l’agent économique a évolué au sein de la théorie financière. En effet, la théorie de la finance moderne et à sa tête l’HEM ne donne à l’agent qu’un rôle minime. En revanche, la finance comportementale place le comportement de celui-ci ainsi que ses singularités au cœur de ses intérêts. Ainsi, l’homo- economicus semble céder le pas à l’homo-sapiens.

Toutefois, il est important de souligner que la finance comportementale puise sa force essentiellement des anomalies présentes sur le marché. Or, celles-ci ne peuvent guère être utilisées comme arguments en vue de réfuter l’HEM. Effectivement, le champ des informations pertinentes constitue un rempart insurmontable protégeant l’HEM de toute critique sur le plan empirique.

Même si l’HEM demeure irréfutable, il est permis de douter de ses implications théoriques et plus particulièrement l’homogénéité des anticipations. En effet, le prochain chapitre sera dédié aux travaux qui ont traité de l’hétérogénéité des anticipations ainsi que de ses implications sur les marchés boursiers.

23

Chapitre 2 : Implications de l’hétérogénéité des anticipations sur la formation des prix.

Lors du dernier chapitre, nous avons présenté la place occupée par les agents dans les deux

courants majeurs en théorie financière. Le présent chapitre pousse le débat encore plus loin en

exposant les principaux travaux qui ont mis en exergue l’interaction entre des agents émettant

des anticipations différentes.

Pour ce faire, une redéfinition de l’HEM s’impose avec acuité. Une fois la redéfinition faite,

nous allons présenter l’hétérogénéité des anticipations liée, dans un premier temps, à

l’asymétrie de l’information puis celle liée à l’irrationalité d’une partie des agents. Afin de

maintenir l’objectivité du présent chapitre, nous allons aussi présenter la riposte des partisans

de l’HEM. Celle-ci peut être scindée, elle-aussi, en deux catégories. La première prône une

rationalisation des anomalies via des modèles multifactoriels tandis que la seconde réfute, sur

un plan plutôt méthodologique, l’existence des anomalies. Rappelons que ces dernières

constituent le fer de lance de la finance comportementale. Porter atteinte aux anomalies

revient donc à limiter cruellement les arguments de la finance comportementale.

Ainsi, la première section présentera l’hétérogénéité des anticipations sous ses deux formes.

La seconde section, quant à elle, abordera plutôt les tentatives de rationalisation et les

critiques envers les anomalies.

1. Hétérogénéité des anticipations :

a) Asymétrie d’information et formation des comportements :

(i) L’HEM : une redéfinition.

Lors du chapitre précédent, la répartition de l’information parmi les investisseurs étaient

considérée comme étant équitable, exogène et surtout indépendante du processus de formation

des prix. C’est justement sur cette base que les modèles rationnels s’appuient. Cela dit, une

répartition équitable de l’information suppose que cette dernière soit gratuite.

En effet, si l’information est onéreuse, tout agent rationnel ne va l’acquérir que si son coût

marginal équivaut au bénéfice marginal de son acquisition. De surcroît, si les actions des

agents informés sont parfaitement reflétées par les prix, l’inférence de l’information à travers

les prix est possible. Ainsi, les agents non informés bénéficieront de l’information sans

l’acquérir. En ce faisant, aucun investisseur n’est incité à acquérir l’information et au final le

24

prix ne reflétera que du bruit. Cet état de fait porte le nom du paradoxe de Grossman-Stiglitz (Grossman et Stiglitz, 1980).

Ainsi, si les prix reflètent l’information, aucun agent n’est incité à l’acquérir. En revanche, si les prix ne la reflètent pas, son acquisition devient bénéfique. L’implication majeure du paradoxe de Grossman-Stiglitz est de mettre en relief la prépondérance de l’asymétrie d’information au sein des marchés financiers. En vue de contrecarrer ce paradoxe, Fama (1991) a proposé diverses formes d’efficience en définissant trois ensembles d’informations, à savoir :

La forme faible consiste à tester l’efficience des actifs en considérant les informations historiques (cours antérieurs et présents) comme étant l’unique composante de l’ensemble d’information disponible aux agents.

La forme semi-forte, quant à elle, suggère de tester l’efficience à partir de l’ensemble de l’information publique. L’inconvénient avec cette forme réside dans la difficulté, voire l’impossibilité, à rassembler la totalité de l’information publique.

La forme forte englobe toute l’information disponible y compris les informations privilégiées des insiders (actionnaires majoritaires, PDG et délits d’initié …)

Le test d’efficience sous ces formes consiste à examiner si l’ensemble des informations associé pour chaque forme permet de réaliser des profits anormaux. Si ces derniers ne sont pas vérifiés, l’hypothèse d’efficience sous la forme considérée n’est pas rejetée. Toutefois, cette méthodologie est limité sur deux plans. Le premier est d’ordre théorique, comme on l’a vu lors de la section dédiée à la limite à l’arbitrage, l’absence des profits anormaux n’implique pas l’efficience des marchés. Le deuxième, quant à lui, est plutôt d’ordre empirique car même en spécifiant l’ensemble d’information, la conduction de ces tests suppose l’association d’un modèle aux ensembles de l’information. D’où le problème des hypothèses jointes proposé par Fama lui-même.

Quand l’information n’est pas gratuite, l’asymétrie d’information sévit inexorablement dans les marchés financiers. Cela va sans dire que les comportements des agents se trouvent influencés en cas d’asymétrie. D’ailleurs, Van Nieuwerburgh et Veldkamp (2010) ont démontré sur un plan microéconomique que l’acquisition de l’information mène souvent à une sous-diversification. Plus précisément, quand les agents choisissent quelle information

25

acquérir avant d’investir, leurs portefeuilles est souvent sous-diversifié. Il est donc

indispensable d’étudier le comportement des agents dans un tel cadre.

(ii) le Herding dans les marchés financiers : une approche rationaliste.

Le herding vient du mot « herd » qui signifie troupeau en anglais. Au-delà de son appellation

péjorative, un tel comportement suppose que la décision d’un agent est influencée par les

décisions des autres agents qui l’ont précédé. Le mot herding a été proposé pour la première

fois par Banerjee (1992) ; Bikhchandani , Hirshleifer et Welsh (1992).

Un agent entre dans une situation de herding quand sa décision lui dicte d’investir sans

connaître les décisions des autres agents ; mais ne suit pas sa propre décision quand il

découvre que les agents qui l’ont précédé ont décidé de ne pas investir, et vice-versa. Ainsi,

quand un agent imite les autres, il décide de ne pas utiliser l’information dont il dispose.

Comme nous allons le voir cette décision peut être rationnelle, le herding rationnel peut se

manifester dans les marchés financiers sous deux formes à savoir : la cascade

informationnelle, et le herding basé sur la compensation.

(1)

Cascade informationnelle :

Les travaux des auteurs précités portent sur des opportunités d’investissement qui supposent

la constance des prix. Or, dans un contexte financier, le prix est la seule courroie de

transmission de l’information. En cela, leurs résultats ne peuvent guère être transposés aux

marchés financiers. La première application du herding aux marchés financiers revient à

Avery et Zemsky (1998).

Bien évidemment, une cascade informationnelle ne peut jamais se produire dans un marché

efficient aux sens fort. En effet, quand les prix reflètent l’ensemble des informations (y

compris les actions des agents précédents), les agents seront indifférents à acheter ou vendre

un actif.

Avery et Zemsky (1998) ont ajouté une autre dimension à l’incertitude concernant la

pertinence de l’information détenue par les agents. Supposons que le marché est scindé en

deux groupes. Le premier «H» contient des agents détenant des informations privées

pertinentes (p H proche de 1) tandis que le second «L» contient des agents détenant des

informations privées contenant du bruit (p L proche de 0.5). A cela s’ajoute le fait qu’aucun

des agents ne sait vers où penche la majorité. Autrement dit, la proportion de chaque groupe

est inconnue. Dans un tel cadre, même si le marché est efficient au sens semi-fort, dans la

26

mesure où les prix incorporent la totalité de l’ensemble de l’information publique, une cascade informationnelle peut se déclencher à tout moment.

A titre illustratif supposons un jeu à information incomplète 11 . Ce jeu concerne un groupe

hétérogène de joueurs qui font face à la même situation à savoir la décision d’investir ou non

dans un actif. Plus formellement, les joueurs ont le choix entre deux décisions :

Si

cela signifie que le signal observé par le joueur i est un bon signal et donc celui-ci va

investir :

. Et inversement, quand le signal inféré est mauvais (

), le joueur i ne

va

pas investir :

.

Supposons aussi que les joueurs peuvent appartenir aux groupes H et L. De surcroît, les joueurs appartenant au premier groupe forment la majorité, cependant cette information est inconnue. Ajoutons aussi que la bonne décision à faire consiste à ne pas investir. Cela dit, le joueur i ne peut inférer l’information détenue par les autres qu’à travers le prix de l’actif. Le premier joueur à investir se base uniquement sur l’information qu’il détient alors que les autres qui le succèdent se baseront tant sur l’information dont ils disposent que sur les décisions des joueurs antérieurs. De surcroît, tous les investisseurs sont rationnels dans la mesure où ils appliquent correctement la loi de Bayes. Pour le premier joueur, la loi de Bayes s’énonce comme suit :

Pour les joueurs ultérieurs, elle devient :

Avec

(2.1)

(2.2)

Supposons que les deux premiers joueurs à investir appartiennent au groupe L et les troisième et quatrième joueurs appartiennent au groupe H. Selon l’équation (2.1), le premier joueur va

11 Cet exemple est inspiré de l’article de Bikhchandani et Sharma (2001)

27

suivre son signal et investir. Ensuite, le deuxième joueur va investir à son tour puisque son signal, bien qu’il soit incorrect, est renforcé par l’équation (2.2). En appliquant la loi de Bayes (équation (2.2)), le troisième joueur va faire fi de son signal et investira. En effet, le signal de ce dernier est annulé par le signal d’un des premiers joueurs. En consultant le prix de l’actif, le quatrième joueur appartenant aussi au groupe H conclut que les premiers joueurs (y compris le troisième) ont un signal positif à l’égard dudit actif, et investira à son tour. Ainsi, une cascade informationnelle se déclenche. En présence de cette dernière, l’information détenue par les joueurs n’est plus incorporée dans les prix.

Il est à souligner que les cascades informationnelles sont de nature idiosyncratique et se détruisent très vite. Elles sont idiosyncratiques dans le sens où des événements aléatoires combinés avec les décisions des premiers agents déterminent le comportement des agents qui vont suivre. D’ailleurs à travers l’exemple, nous avons vu comment une minorité, ayant tort, a pu dévier la décision de la majorité ayant raison. Cela dit, les cascades informationnelles se détruisent vite car, avec l’avènement d’une nouvelle information publique, les agents vont se rendre compte de leur erreur. Dans l’exemple précédent, la cascade informationnelle entraine dans un premier temps une hausse des prix due à la forte demande des agents. Cela dit, quand elle se détruit, les agents vont vendre massivement l’actif, conduisant ainsi à une baisse des prix. D’où un excès de volatilité qui n’est pas lié aux fondamentaux de l’actif.

En somme, quand le marché est efficient au sens fort (l’incertitude est liée uniquement à l’investissement) une cascade informationnelle ne peut pas se produire. Cependant, quand le marché souffre d’une asymétrie d’information (efficience aux sens semi-fort et faible), ces dernières peuvent sévir à n’importe quel moment même si tous les investisseurs sont rationnels.

Il est à signaler que les agents jouent un rôle non négligeable concernant cette asymétrie. En effet, les actions des agents tendent vers un équilibre de Nash dans le sens où le herding peut être inefficient comme le cas de l’exemple. Si les joueurs étaient altruistes alors l’équilibre serait Pareto-optimal. Formellement, si les agents doivent maximiser non seulement leur utilité mais aussi celles des autres agents, alors les prix reflèteront toute l’information. Revenons au troisième joueur, si ce dernier est altruiste il devra faire part de l’information dont il dispose aux autres. La seule façon de le faire est de ne pas investir, en cela le

28

quatrième investisseur en appliquant la loi de Bayes serait indifférent à investir ou non 12 . Et s’il est altruiste à son tour, il décidera de ne pas investir. Ainsi, l’asymétrie d’information est due en grande partie à l’ « égoïsme » des agents.

Toutefois, la détection d’un tel herding au niveau empirique est très dure. En effet, le premier problème qui se pose est la détection entre un véritable herding et un herding fallacieux. Ce dernier est caractérisé par un groupement des anticipations mais suite à une information partagée par tous les agents. Dans un tel cadre, ces derniers ne s’imitent pas entre eux, mais effectuent le choix le plus rationnel à faire.

(2)

Le herding basé sur la compensation :

Ce deuxième type de herding rationnel est dû aussi à l’asymétrie d’information, mais cette fois-ci d’une autre nature. En effet, le herding basé sur la compensation (Maug et Naik, 1996 ; Admati et Pfleider, 1997) est lié à un problème d’agence confrontant un gestionnaire de fonds (agent) à son employeur (principal). Etant donné que le dernier n’est pas sûr de la compétence du premier, le principal embauche l’agent sous les termes d’un contrat. Ce dernier stipule que la performance de l’agent doit être au moins égale à un benchmark. Lequel peut être la performance d’autres gestionnaires de fonds ou d’un indexe. Ainsi, l’agent est incité à imité le benchmark menant ainsi au herding.

Plus formellement, la fonction d’utilité de l’agent peut être formulée comme suit :

(2.3)

Où et sont respectivement la rentabilité et le risque du portefeuille tandis que mesure le degré d’aversion au risque. est la rentabilité du benchmark. La fonction est une fonction hybride qui peut être une fonction de profit si l’agent surperforme le benchmark comme elle peut être une fonction de coût si l’agent fait moins que le benchmark. La concavité de cette fonction implique une asymétrie imposant à l’agent de fournir plus d’effort en vue de rester le plus près possible du benchmark. Dans une telle optique, ce régime de compensation éloigne l’agent du principe de diversification, menant ainsi à des portefeuilles souvent inefficients (Brennan, 1993 ; Roll, 1992).

Maug et Naik (1996) ont focalisé leur analyse à un seul actif risqué, leur résultat ont aboutit à conclure que ce type de compensation mène à un herding efficient éludant, de surcroît, les

12 Les actions favorables des deux premiers joueurs seront annulées par les actions du troisième et quatrième joueurs.

29

problèmes afférents à la sélection adverse et au hasard moral. Toutefois Admati et Pfleider

(1997) ont élargit l’analyse à plusieurs actifs risqués et ont trouvé que le herding basé sur la

compensation est inefficient et ne permet pas de surmonter les problèmes d’hasard moral et de

sélection adverse.

D’un point de vue empirique, Lakonishok, Shleifer et Vishny (1992) ont établit une mesure de

herding (ci-après LSV). Celle-ci consiste à étudier la tendance moyenne d’un groupe

homogène de gestionnaires de fonds à acheter ou à vendre certains actifs par rapport à ce

qu’ils pouvaient décider s’ils agissaient indépendamment. Cependant, la mesure LSV présente

un certain nombre de limites. La première est liée à la distinction entre herding

intentionnel/fallacieux. En effet, LSV mesure réellement la corrélation des décisions des

gestionnaires de fonds. Si le herding entraine une corrélation, l’inverse n’est pas vrai. De plus,

les gestionnaires peuvent appartenir à des fonds dont les objectifs sont divergents. Ainsi,

construire un groupe de gestionnaires homogène devient une tâche ardue.

En somme, même si le marché est efficient aux sens semi-fort et faible, l’hétérogénéité des

anticipations peut avoir lieu. En effet, quand les informations privées ne sont pas incorporées

dans le processus de formation des prix, l’asymétrie d’information sévit inexorablement. Cette

asymétrie conduit les agents (investisseurs individuels et institutionnels) à faire des décisions

qui ne sont pas optimales aux yeux de l’HEM. Bien évidemment, les agents, en pratiquant le

herding, alimentent davantage l’asymétrie d’information. Cela dit, avec l’avènement d’une

nouvelle information publique, les groupements d’anticipations liés au herding peuvent se

détruire assez vite. D’où le caractère éphémère du herding rationnel.

b) L’hétérogénéité des anticipations liée à l’irrationalité :

Si le herding rationnel est éphémère, celui proposé par la thèse comportementale est plus

structurel. En effet, en s’appuyant sur la limite à l’arbitrage, la finance comportementale

suggère que le herding peut être de longue durée. Nous allons présenter les théories

comportementales les plus abouties concernant ce sujet à savoir : la théorie du feedback

positive et les situations de sur-réaction et de sous-réaction des marchés.

(i) La théorie du feedback :

La théorie du feedback a été longtemps en dehors des discussions académiques. Ce n’est

qu’avec la réapparition des bulles spéculatives notamment celles qu’ont connu les Etats-Unis

(bulle internet) et le Japon que cette théorie est revenue à l’ordre du jour. Cela dit, cette

théorie reste mitigée en raison du manque de cohésion de ses arguments.

30

Selon la théorie du feedback, les bulles se déclenchent quand les prix de certains actifs augmentent faisant le succès de certains investisseurs (Shiller, 2003). Ce succès suscite une attraction de ces actifs qui est amplifiée aussi bien par le bouche-à-oreille que par les médias. Ainsi, bon nombre d’investisseurs, mus par des biais psychologiques tels que la surconfiance et les biais afférents à la représentativité, investissent dans ces actifs sur la seule base que les prix vont augmenter encore plus. Et donc, un premier feedback est crée. Quand le feedback entame plusieurs boucles, une bulle spéculative se déclenche. En ce faisant, l’évolution des prix est régie uniquement par le fait que les investisseurs anticipent que ces derniers vont augmenter encore plus. Ainsi, plus aucune information n’est incorporée par les prix. Bien évidemment, cette situation n’est pas soutenable et la bulle implosera menant ainsi à un krach boursier qui peut être totalement indépendant des fondamentaux des actifs.

Greenwood et Nagel (2009) ont étudié la composition des portefeuilles des gestionnaires de fonds durant la période de la bulle internet en segmentant les gestionnaires en deux catégories. La première contenant des gestionnaires seniors expérimentés alors que la seconde renferme des jeunes gestionnaires inexpérimentés. Leurs résultats ont montré que la deuxième catégorie est celle qui a investit le plus dans les actifs technologiques et ce lors de l’apogée de la bulle. Les gestionnaires expérimentés, quant à eux, ont très peu investi. Ainsi, l’inexpérience peut être aussi un facteur conduisant à la constitution des bulles.

Il est à souligner que les agents rationnels peuvent contribuer aussi à la formation des bulles (Barberis et Thaler, 2003). Sachant pertinemment que cette évolution est insoutenable, les agents rationnels au lieu de contrattaquer en effectuant des arbitrages, achètent eux-aussi ces actifs, au tout début de la formation de la bulle, et les revendent ensuite aux agents irrationnels. Ainsi, une autre dimension s’ajoute à la limite à l’arbitrage. Cependant, il convient de noter que cette assertion demeure subjective et ne peut être vérifiée empiriquement.

Une autre explication du rôle des agents rationnels concernant les bulles spéculatives est fournie par Cheng, Hong et Stein (2002). Ces derniers associent l’inertie des agents rationnels aux restrictions légales sur la vente à découvert. En effet, quand une bulle spéculative se déclenche, l’hétérogénéité des anticipations se scindent principalement en deux groupes. Les premiers (agents irrationnels) y sont favorables et font preuve d’optimisme tandis que les seconds (agents rationnels) s’y opposent et portent un jugement plutôt pessimiste.

31

Cela dit, quand la vente à découvert est interdite, les agents rationnels ne sont plus en mesure

de contrattaquer la formation des bulles puisqu’un tel arbitrage devient risqué et coûteux.

Ainsi, le marché n’incorpore que le jugement optimiste des agents irrationnels. De surcroît,

plus les anticipations sont hétérogènes et plus le marché évaluera les actifs sur la base des

jugements des agents irrationnels. En se basant sur un questionnaire, Barsky (2009) a étudié

de plus près cette question, en l’appliquant à la bulle japonaise. Ses conclusions étaient en

faveur de cette théorie.

A l’instar du herding rationnel, la détermination des bulles spéculatives est une tâche ardue

sur le plan empirique. Déterminer le motif des investissements des agents est presque

impossible. Ajoutons à cela le manque de données dû à la confidentialité, les économistes se

sont tournés vers d’autres méthodes telles que les questionnaires et l’économie expérimentale.

Cela dit, une théorie comportementaliste s’est penchée sur l’explication de l’hétérogénéité des

anticipations en se basant sur des résultats empiriques plus ou moins tangibles à savoir les

anomalies. Cette théorie fera l’objet de la section suivante.

(ii) Le marché en situation de sous-réaction et de sur-réaction :

Les anomalies observées en finance, concernant la taille (Banz, 1981), l’effet de levier

(Bhandari, 1988), la valeur comptable (Stattman, 1980 ; Rosenberg, Reid et Lanstein, 1985) et

le ratio bénéfice/prix (Basu, 1983), présentent des irrégularités qui rendent les rentabilités

prévisibles. Comme nous avons vu lors du dernier chapitre, ces irrégularités peuvent

renseigner soit sur l’inefficience des marchés soit sur l’inadéquation du MEDAF. Lors de

cette partie nous nous focaliserons sur la première proposition.

Dans une approche comportementaliste, les anomalies ont principalement deux implications

sur les marchés financiers. La première observée à court terme, concerne la présence d’une

auto-corrélation positive des rentabilités (Culter, Poterba et Summers, 1991). En d’autres

termes, les rentabilités passées expliquent les rentabilités futures dans le court-terme,

renseignant ainsi sur une sous-réaction du marché. Jegadeesh et Titman (1993) ont trouvé que

les stratégies momentum, consistant à acheter les actions ayant une bonne performance et à

vendre celles ayant affiché une mauvaise performance durant les trois derniers mois,

permettent aux investisseurs de réaliser des profits anormaux dans les 3 à 12 mois qui suivent.

Selon Barberis, Shleifer et Vishny (1998) la sous-réaction des marchés est attribuée au biais

de conservatisme. Si les agents sont affectés par ce biais alors les prix s’ajusteront aux

32

nouvelles informations de façon graduelle. Entretemps, les stratégies momentum seront bénéfiques.

Figure 6 Situation de sous-réaction suite à une nouvelle information

Période de sous- réaction Nouvel Ancien équilibre équilibre
Période de sous-
réaction
Nouvel
Ancien
équilibre
équilibre

Arrivée d’une nouvelle information

Entre t 0 et t 3 , les rentabilités deviennent auto-corrélées positivement. Dans cet intervalle, une augmentation du prix en t 1 engendre une augmentation du prix en t 2

La deuxième implication des anomalies est observée à long-terme. En effet, les rentabilités passées et futures deviennent corrélées négativement (voire la figure 7). En cela, les actions qui ont réalisé les rentabilités les plus faibles (élevées) durant les cinq dernières années ont tendance à réaliser des rentabilités élevées (faibles) durant les cinq prochaines années (DeBondt et Thaler, 1985). La sur-réaction des marchés est due aux biais liés à la méthode heuristique de représentativité. En effet, certains investisseurs, utilisant cette méthode, ont tendance à extrapoler trop loin les données historiques. Leur stratégie d’investissement est qualifiée de naïve (Lakonishok, Shleifer et Vishny, 1994). Dans un tel contexte, certaines stratégies deviennent profitables. Celles-ci consistent à vendre les actions ayant réalisé des rentabilités historiques élevées et à acheter celles qui ont réalisé de faibles rentabilités dans le passé. Cette stratégie est qualifiée, quant à elle, de contrariante 13 .

13 Ibid.

33

Figure 7 Situation de sur-réaction de la part des marchés Période de sur- réaction Ancien
Figure 7 Situation de sur-réaction de la part des
marchés
Période de sur-
réaction
Ancien
Nouvel
équilibre
équilibre

Les rentabilités passées (de t -1 à t 0 ) sont corrélées négativement avec les rentabilités allant de t 0 à t +1

Hong et Stein (1999) ont élaboré un modèle traitant un marché sur lequel il existe deux types d’investisseurs. Ces derniers ne peuvent traiter qu’un sous-ensemble de l’information publique disponible. Les investisseurs, appartenant au premier groupe, se fondent uniquement sur l’information dont ils disposent sans tenir compte des prix présents et passés. Il sont appelés « newswatchers » (ci-après NW). Les NW peuvent s’apparenter aux investisseurs qui se basent sur l’analyse fondamentale. En effet, ce type d’analyse se focalise d’avantage sur l’anticipation des cours futurs en se basant sur des informations n’ayant pas trait aux séquences historiques des cours. En revanche, les investisseurs du second groupe utilisent les prix historiques comme unique source d’information. En effet, les informations liées aux fondamentaux ne sont pas prises en compte. Ces investisseurs sont appelés « momentum traders » (ci-après MT). Là aussi, les MT peuvent être apparentés aux analystes chartistes. Ces derniers ne font confiance qu’aux séquences historiques des cours sans se baser sur les informations pouvant toucher les fondamentaux où les informations spécifiques des actifs. Par ailleurs, Il est à souligner que les NW et les MT sont dotés d’une rationalité limitée.

Quand les NW sont les seuls investisseurs sur le marché, le prix s’ajuste graduellement aux nouvelles informations (sous-réaction du marché). Ainsi, les stratégies momentum sont profitables. Les MT ont alors tout intérêt à entrer dans le marché. Une conclusion hâtive pourrait suggérer que les MT, en effectuant les stratégies momentum, feront revenir les prix à leur juste valeur. Toutefois, selon Hong et Stein cette conclusion est peu probable.

En effet, la demande des premiers MT fera augmenter les prix, exerçant ainsi une externalité négative sur les MT qui vont suivre. Il est à rappeler que la seule information à la disposition des MT est la séquence des prix historiques. Ainsi, une augmentation des prix est inférée

34

comme étant synonyme de l’arrivée d’une bonne nouvelle. Cependant, l’augmentation des

prix peut être due aussi à la demande des premiers MT à investir. Ajoutons à cela le fait que

les MT ultérieurs ne savent pas s’ils figurent parmi les premiers où les derniers de leur

groupe, ils investiront à leur tour sur la base de l’externalité des premiers MT. Cela a pour

effet une augmentation excessive des prix. Ne pouvant augmenter indéfiniment, les prix

baisseront menant ainsi à une sur-réaction du marché. En somme, l’hétérogénéité des agents

peut vraisemblablement mener au passage d’une situation de sous-réaction à une situation de

sur-réaction de la part des marchés.

Même si la théorie avancée par Hong et Stein semble convaincante, les suspicions planent

autour de la validité des anomalies qui forment le socle de leur théorie. En effet, deux

questions sont à poser. La première question est intimement liée au problème des hypothèses

jointes. En effet, si les anomalies sont dues uniquement à l’insuffisance du MEDAF, il se

pourrait bien qu’elles soient des facteurs de risques non compris par le MEDAF. La deuxième

question, plus radicale, soupçonne la validité empirique et méthodologique des travaux

portant sur les anomalies. En d’autres termes, ces dernières peuvent être inexistantes en

réalité.

En vue de répondre à ces questions, nous allons présenter lors de la deuxième partie de ce

chapitre les réponses fournies par les partisans de l’HEM.

2. La riposte de l’HEM : entre modèle multifactoriel et suspicion

méthodologique.

a) Le modèle de Fama-French :

(i) Genèse et présentation du modèle :

un modèle multifactoriel qui préconise

l’explication de la rentabilité par le biais de trois facteurs. La singularité de ce modèle est

qu’il donne aux anomalies un aspect rationnel. De façon plus spécifique, les anomalies,

Le

modèle

Fama-French

(ci-après

MFF)

est

engendrant des profits anormaux, existent bel et bien. Cela dit, leur existence ne peut être en

aucun cas considérée comme une limite de l’HEM. Bien au contraire, elles sont considérées

comme étant fondamentalement risquées.

Ainsi, MFF se veut une relève du MEDAF. A ce titre, Fama et French (1992) ont procédé à

des tests empiriques afin de mettre le lien entre la rentabilité et quatre variables capturant les

anomalies les plus notables : la taille mesurée par la capitalisation flottante, le ratio

bénéfice/cours, le levier d’endettement, le ratio de la valeur comptable/valeur de marché (ci-

35

après BE/ME) ainsi que le beta du MEDAF. Leur étude a porté sur les actions de la New York Stock Exchange (NYSE), de l’American Stock Exchange (AMEX) et du NASDAQ pour une période allant de 1963 à 1990.

Dans un premier temps, les auteurs ont conduit des tests uni-variés. Autrement dit, ils ont effectué des régressions linéaires simples en vue d’expliquer la rentabilité par chaque variable. Les résultats de ces tests ont montré que toutes les variables étaient statistiquement significatives hormis le bêta.

Dans un deuxième temps, ils ont réalisé un test multi-varié en régressant la rentabilité par rapport aux cinq variables. Les variables inhérentes à la taille et à la BE/ME ont vu leur effet se fortifier avec l’inclusion des autres variables. Plus encore, ces deux variables semblent absorber l’effet de levier ainsi que le ratio bénéfice/cours. Ces résultats ont poussé Fama et French (1993) de proposer le FFM sous la forme suivante:

(2.4)

est l’excès de rentabilité de l’actif i à l’instant t.

marché. Notons ici que l’on ne parle plus du portefeuille du marché mais uniquement d’un indexe représentatif de l’échantillon . est le terme d’erreur qui mesure le risque

spécifique de l’actif i.

est la prime de

La variable SMB « SMALL MINUS BIG 14 » est une prime de taille tandis que la variable HML « High Minus Low 15 » est une prime de valeur. En effet, Fama et French ont préféré exprimer ces primes sous forme de portefeuilles mimétiques. Ainsi, les facteurs taille et valeur sont exprimés tacitement dans le modèle. SMB est un portefeuille mesurant la différence entre la rentabilité des actions à petite capitalisation (SMALL) et celles à grande capitalisation (BIG). Cette différence est supposée être positive vu que les petites capitalisations sont plus risquées que celle disposant d’une grande taille. De façon similaire, HML est un portefeuille mesurant la différence entre la rentabilité des actions à ratio BE/ME élevé (High), appelées aussi actions de valeur, et celle des actions à ratio BE/ME faible appelées actions de

14 Petit moins grand

15 Elevé moins faible

36

croissance (Low). Là aussi, cette différence doit être positive car les actions de valeur sont

plus risquées que celles de croissance 16 .

La prime de marché, quant à elle, n’a qu’un rôle secondaire dans l’explication de la

rentabilité. Effectivement, le rôle du marché se cantonne à faire le lien entre l’actif sans risque

et HML et SMB. D’après les résultats de Fama et French (1993), l’inclusion des deux

portefeuilles stabilisent le coefficient de la prime de marché autour de 1. Ainsi, les principales

explications de la rentabilité proviennent de HML et SMB.

Par ailleurs, le MFF se base sur une supposition selon laquelle tous les agents sont rationnels

(au sens de l’HEM). Dans une telle optique, les variables taille et BE/ME devraient être

interprétées comme étant des proxys capturant la sensibilité de la variation de la rentabilité à

l’égard d’un ensemble de facteurs de risques communs. De façon plus simple, ces variables

expriment une prime de rentabilité liée à des risques systématiques et donc non diversifiables.

L’argument avancé par Fama et French est de nature exclusivement empirique. En effet,

concernant les actions américaines de 1963 à 1990, les coefficients ainsi que les R² montrent

un lien solide entre la rentabilité et SMB et HML. De surcroît, l’alpha, non-significatif et très

proche de zéro, traduit une bonne spécification du MFF par rapport au MEDAF.

D’un point de vue empirique, FFM présente une certaine solidité. En effet, FFM explique

mieux que le MEDAF la variabilité de la rentabilité aux Etats-Unis (Fama et French, 1993),

au Japon (Fama et French, 1998) en Allemagne, Grande Bretagne et en France (Malin et

Veeraraghavan, 2004).

(ii) Interprétation des facteurs de risque et limites du modèle :

La robustesse empirique du MFF ne doit pas faire oublier un problème majeur concernant ce

modèle. En effet, ce dernier suppose que les primes de taille et de valeur sont des facteurs de

risque sous toile de fond d’efficience et de rationalité. Si tel est le cas, quelle signification

économique doit-on attribuer à ces deux facteurs ?

Une explication intuitive consiste à considérer les actions à petite capitalisation et celle de

valeur comme étant fondamentalement risquées. Cela signifie que les agents, étant rationnels,

vont détenir ces actions en contrepartie d’une rentabilité supérieure étant donné la relation

positive entre le risque et la rentabilité. Ainsi, les profits liés à la taille et à la valeur ne sont

pas anormaux mais plutôt fondamentaux.

16 Voir la page ??; pour plus d’explication concernant le calcul des deux portefeuilles.

37

Toutefois, pour que cette explication soit confirmée, un lien doit être établit entre ces variables et l’économie. Sans cela, le MFF n’a plus aucun sens. Une première tentative d’explication concerne le lien entre les facteurs expliquant les bénéfices (dividendes, chiffre d’affaires…) et les facteurs expliquant la rentabilité. En se basant sur le fait que les seconds facteurs reflètent les premiers, Fama et French (1995) ont essayé de définir la taille et le ratio BE/ME comme étant des indicateurs de bénéfices. A travers des tests empiriques, ils ont pu faire le lien entre la part expliquée du bénéfice et celle de la rentabilité par le marché et la taille. Toutefois, ce lien n’a pas pu être démontré pour le ratio BE/ME. La raison en est l’incorporation du bruit dans la mesure des chocs des prévisions des bénéfices 17 . Malheureusement, même si le lien bénéfice/rentabilité a été démontré concernant le marché et la taille, la raison économique qui motive ce lien reste toujours inexpliquée.

D’autres auteurs ont tenté de revêtir le MFF d’un aspect théorique. Ces tentatives sont, pour le moins, atypiques en théorie financière, vu que l’on pose tout d’abord la conclusion et l’on cherche ensuite son explication. En effet, le point de départ consiste à identifier les actions de valeur (ratio BE/ME élevé) comme étant souffrantes d’une détresse financière et les actions de croissance (ratio BE/ME faible) comme étant des firmes affichant une bonne santé financière (Chan et Chen, 1991). D’une autre part, les actions à petite capitalisation sont considérées comme étant économiquement fragiles tandis que les grandes capitalisation sont perçues comme étant des firmes solides sur le plan économique (Fama et French, 1995). En bref, la taille (capitalisation boursière) renseigne sur une détresse économique tandis que la valeur (ratio BE/ME) renvoi à une détresse financière.

Ainsi, HML et SMB renseignent sur une détresse relative. En effet, les firmes, réalisant des bénéfices faibles, disposent d’un ratio BE/ME élevé ainsi que d’un coefficient positif concernant HML ( ). Et inversement, les actions, affichant des bénéfices élevé disposent, d’un ratio BE/ME faible. Par conséquent, le coefficient pour ces firmes est négatif. Similairement, les firmes de petite taille, caractérisées par une petite capitalisation, disposent d’un coefficient relatif à SMB ( ) positif alors que les grandes capitalisations ont un coefficient négatif.

Xing et Vassalou (2004) ont fait lien entre le facteur SMB au risque de défaut en utilisant le modèle de Merton. D’une autre part, Li, Xing et Vassalou (2000) ont investigué le lien entre les informations inhérentes à l’évolution du PIB et les facteurs HML et SMB pour dix pays.

17 Ibid.

38

Kelly (2003), en se basant sur 18 pays, suggère que les facteurs du MFF contiennent une information à propos de l’inflation et de la croissance. En effet, SMB est corrélé négativement avec l’inflation et positivement avec la croissance du PIB. D’une autre part, HML est corrélé positivement avec la croissance mais n’a aucun lien avec l’inflation. De plus, Campbell, Hilsher et Szilagyi (2008) se sont basés sur la détresse financière des entreprises. Selon ces auteurs, leurs conclusions suggèrent que les entreprises en détresse financière délivrent une rentabilité anormale qui peut de surcroît être la locomotive du pouvoir explicatif du MFF.

Cela dit, il convient de noter que ces travaux affrontent deux limites. L’un d’ordre méthodologique : la nature des tests conduits sont questionnables, alors que l’autre concernent une ambiguïté de finalité. En effet, si un lien entre une quelconque variable macroéconomique et les facteurs est établit, l’effet de cette variable sur les facteurs restent imprécis dans le sens où son effet ne peut être départagé entre les deux facteurs. De surcroît, la pérennité de ce lien n’a pas pu être vérifiée.

Le fait que le FFM est dénué de tout aspect théorique, le rend une proie facile aux critiques. Effectivement, le succès empirique du modèle n’a pas pu rassembler l’unanimité des partisans de l’HEM et encore moins des comportementalistes. Daniel et Titman (1997) ont avancé que les facteurs HML et SMB peuvent être liés aussi bien aux fondamentaux des entreprises qu’à l’irrationalité des agents.

Plus encore, Arnott, Markowitz et al. (2007) ont montré que les effets valeur et taille ne capturent que le bruit incorporé dans le processus de formation des prix. En effet, quand le bruit sévit sur le prix d’un actif, sa rentabilité anticipée conditionnée par le prix ou par le ratio prix/dividende baisse avec ces deux indicateurs. Cela dit, les rentabilités élevées des ces actifs ne sont nullement dues à un risque systématique mais plutôt au bruit qui révise les prix et/ou les ratios prix/dividendes des actifs à la baisse. Autrement dit, les rentabilités des actifs, particulièrement ceux à petite capitalisation et à ratio BE/ME élevé, engendrent des rentabilités élevées parce qu’ils sont sous-évalués. Selon Arnott, Markowitz et al. 18 l’hypothèse rationnelle préconisée par Fama et French est à proscrire.

Une autre implication importante concerne le fonctionnement du marché en présence d’un

bruit négatif.

plus tributaire uniquement du bêta mais aussi de la volatilité idiosyncratique ainsi que de la

En effet, dans une telle situation la rentabilité espérée inconditionnelle n’est

18 Ibid.

39

volatilité du bruit. En d’autres termes, le risque spécifique, ou une partie du moins, peut être

non diversifiable.

D’autres travaux ont tenté de peaufiner ou de rivaliser avec le MFF, en offrant, toutefois, des

modèles qui s’inscrivent dans la même veine que ce dernier. A titre d’exemple, Carhart

(1997) a ajouté une variable au MFF à savoir la variable « Winners Minus Loosers » WML en

vue de tenir compte du momentum. D’un autre côté, Chen, Novy-Marx et Zhang (2010) ont

établit un modèle multifactoriel, assez similaire au MFF, qui comporte la prime du marché et

deux autres variables. La première, appelée « Low Minus High » LMH, tenant compte d’un

facteur d’investissement. La seconde, appelée « High Minus Low » HML, renseigne, quant à

elle, sur la rentabilité sur les actifs. Selon eux, leur modèle est nettement supérieur au MFF.

Toutefois, il est important de signaler que même si ces modèles surpassent le MFF sur le plan

empirique, ils n’ont pas pu combler le déficit théorique. En effet, tant qu’une interprétation

économique n’est pas attribuée aux différents facteurs, l’usage du MFF, ainsi que de ses

extensions, demeure pernicieux.

En cela, force est de constater que le MFF reste, pour l’instant, un modèle purement

heuristique. A cet égard, les critiques se sont abattues sur le MFF sur tous les fronts allant des

partisans de l’HEM jusqu’aux financiers comportementalistes. Les principaux critiques

provenant des partisans de l’HEM sont présentées dans la sous-section suivante.

b) Suspicions méthodologiques : quand les anomalies deviennent artéfacts.

Les auteurs, qui doutent de l’honnêteté empirique des travaux sur les anomalies, constituent

l’aile dure de l’HEM. En effet, ces auteurs se sont farouchement opposés tant envers les

comportementalistes qu’envers le MFF. Selon les opposants aux anomalies, celles-ci

disparaissent, se renversent ou s’atténuent dès que la littérature qui les documente soit

publiée. Cet état de fait mène à faire deux conclusions. La première questionne directement la

validité statistique des anomalies. En effet, ces dernières peuvent être le fruit d’une simple

aberration statistique. En revanche, la deuxième suggère qu’il se peut que ces anomalies

existent ; mais dès qu’elles deviennent connues, les investisseurs s’emparent de ces

opportunités menant ainsi à leur disparition.

Les fervents défenseurs de l’HEM suggèrent que certains auteurs ont été tellement emportés

par la frénésie de la « quête des anomalies », qu’ils se sont focalisés exclusivement sur la

recherche de résultats surprenants. De surcroît, les tests ultérieurs de ces anomalies

concernent des échantillons qui présentent les mêmes caractéristiques que celles des premiers

40

articles qui les ont trouvés. Ainsi, ce processus peut mener vraisemblablement à des résultats erronés.

En effet, Lo et MacKinlay (1990) ont avancé le phénomène du data-snooping selon lequel les tests effectués de telle manière ne peuvent guère être généralisés. Plus particulièrement, les tests des anomalies, souffrant du biais du data-snooping, sont ceux qui répliquent les mêmes conditions de l’article de référence traitant de l’anomalie. En effet, en reprenant les mêmes conditions de l’article de référence, le test ne peut être qu’en faveur de l’anomalie. La figure 8 montre le schéma méthodologique général de ces tests. Ces derniers sont influencés particulièrement par la période, le marché ou le segment (un secteur ou une catégorie d’actions) étudiés et l’horizon (quotidien, mensuel, trimestriel…). Bref, le data-snooping met l’accent sur le fait d’apprivoiser les données de telle sorte à ce que le test aboutisse au résultat escompté par l’auteur.

Une solution à ce problème consiste à tester l’anomalie en question sur une base neutre et indépendante. Pour ce faire, l’auteur doit effectuer son test sur d’autres marchés ou bien sur des dates et/ou des horizons différents que ceux utilisées par l’article de référence. Cela dit, il est important de souligner que le data-snooping est une arme à double tranchant. En effet, tester les anomalies dans le seul but de les réfuter peut mener à choisir des données ayant des caractéristiques totalement opposées à celles trouvées par l’article de référence. Ainsi, les données sont domptées de la même façon que les partisans des anomalies. La conséquence de ces travaux, d’un côté comme de l’autre, est très dangereuse dans le sens où l’avancée de la science économique est sacrifiée sous l’autel des jugements d’opinions.

41

Figure 8 Schéma méthodologique des tests des anomalies

Définition de la période Choix du marché ou d’un segment Définition de l’horizon Critères de
Définition de la période
Choix du marché ou d’un segment
Définition de l’horizon
Critères de l’anomalie

Hypothèses

Résultats

Tests
Tests
Critères de l’anomalie Hypothèses Résultats Tests Rejeter l’hypothèse de l’anomalie Ne pas rejeter
Critères de l’anomalie Hypothèses Résultats Tests Rejeter l’hypothèse de l’anomalie Ne pas rejeter

Rejeter l’hypothèse de l’anomalie

Ne pas rejeter l’hypothèse de l’anomalie

Par ailleurs, si l’existence des anomalies est permise, alors les investisseurs individuels et institutionnels saisiront l’opportunité de les corriger par le biais de l’arbitrage (Mackinlay, 1995). A titre d’exemple, Schwert (2003) a étudié l’évolution des anomalies après que la littérature les documentant soit apparue. Ses résultats étayaient la thèse de la disparition post- publication. Ses travaux ont porté sur les anomalies les plus connues à savoir les effets taille, valeur, week-end et janvier. Ainsi, l’existence des anomalies ne peut être qu’éphémère, et donc l’HEM prévaut à long-terme sur les marchés financiers. Toutefois, outre la limite à l’arbitrage, cette conclusion avoue à demi-mot que les agents ne sont pas totalement rationnels. En effet, si les investisseurs sont rationnels au sens de l’HEM, ils doivent, dès le départ, connaître ces anomalies et les neutraliser. De surcroît, si les investisseurs n’agissent sur les anomalies qu’après leur découverte par le cercle académique, celles-ci peuvent disparaître. Cependant, rien n’empêche, dans ce cas, d’autres anomalies de se former. Par conséquent, celles-ci ne vont être neutralisées qu’après leur découverte par les économistes. Et donc, le déséquilibre peut être structurel.

42

En somme, les arguments des opposants aux anomalies comportent un certain degré de subjectivité. Cela dit, leurs travaux renseignent sur une implication clef qui fera sans doute avancer la science économique. Laquelle consiste à porter l’analyse des anomalies à un niveau ex-ante. En effet, la quasi-totalité des travaux portant sur les anomalies ont été réalisés à un niveau ex-post. Comme nous avons pu le voir cette analyse est limitée et suscite bon nombre de critiques. D’ailleurs, l’une des principales limites du MFF est que tous les efforts, qui ont été déployés, se sont cantonnés à un niveau ex-post contrairement au MEDAF. En effet, les tentatives de certains auteurs qui ont pu mettre le lien entre les facteurs du MFF et certaines variables macroéconomiques ont été vaines. La raison est simple, en effet, tant que les canaux de transmissions entre ces variables et les facteurs n’a pas été établit ex-ante, le MFF demeurera une méthode heuristique.

Post et van Vliet (2007) ont testé le MFF et le modèle à quatre facteurs de Carhart durant la période pré-1963 en vue de tester le biais du data-snooping. Leurs résultats suggèrent que les bonnes performances de ces modèles multifactoriels dépendent largement de la période post- 1963. Plus précisément, la taille perd son habilité en matière d’explication de la rentabilité durant la période précédant l’année 1963. Ces résultats ont mené les auteurs à conclure que ces modèles peuvent être liés soit au biais du data-snooping soit à des raisons autres que le risque. Ces dernières ont trait particulièrement à la liquidité et aux coûts de transactions. En effet, plus la taille d’une entreprise est petite et plus les coûts de transactions qu’elles engendrent sont élevés.

Synthèse :

A travers ce chapitre, nous avons pu voir, lors de la première section, les principales implications de l’hétérogénéité des anticipations sur un plan théorique. La deuxième section, quant à elle, nous a permis de voir la limite des études empiriques.

Concernant le herding rationnel, sa validation empirique demeure une tâche ardue vu le manque de données et la difficulté de séparer entre le herding réel et fallacieux. D’une autre part, l’hétérogénéité des anticipations liées à l’irrationalité d’une partie des agents se base essentiellement sur les anomalies présentes sur le marché. Comme on l’avait vu, le test des anomalies peut laisser à désirer. Ainsi, au problème des hypothèses jointes s’ajoute le biais du data-snooping.

43

Bibliographie

Abreu, D., & Brunnermeier M. (2002). Synchronization Risk and Delayed Arbitrage. Journal of Financial Economics, 66(2-3), 341-360.

Admati, A., & Pfleiderer, P. (1997). Does it All Add Up? Benchmarks and the Compensation of Active Portfolio Managers. Journal of Business, 70(3), 32350.

Alpert, M., & Raiffa, H. (1982). A Progress Report on the Training of Probability Assessors. In : D. Kahneman, P. Solvic & A. Tversky (eds.) Judgment Under Uncertainty : Heuristics and Biases (pp- 294-305). Cambridge : Cambridge University Press.

Arnott, R., Hsu, J., Liu, J., & Markowitz, H. Does Noise Create the Size and Value Effects ?. Working Paper, Retrieved from : http://papers.ssrn.com/sol3/papers.cfm?abstract_id=936272

Avery, C., & Zemsky, P. (1998). Multidimensional Uncertainty and Herd Behavior in Financial Markets. American Economic Review, 88(4), 72448.

Bai, J. (1995). Least Absolute Deviation Estimation of A Shift. Econometric Theory, 11(3), 403436.

Baltussen, G., & Post, G.T. (2007). Irrational Diversification. Working Paper, Retrieved from :

Banerjee, A. (1992). A Simple Model of Herd Behavior. Quarterly Journal of Economics, 107(3) 797

818.

Banz, R.W. (1981). The Relationship Between Return and Market Value of Common Stocks. Journal of Financial Economics, 9(1), 103-126.

Barberis, N., & Huang, M. (2008). Stock as a Lotteries : the Implication of Probability Weighting for Security Prices. American Economic Review, 98(5), 2066-2100.

Barberis, N., & Thaler, R. (2003). A Survey of Behavioral Finance. In : G.M. Constantinides & M. Harris & R. M. Stulz (ed.) Handbook of the Economics of Finance (pp 1053-1128). Amsterdam :

Elsevier.

Barberis, N., Shleifer, A., & Vishny, R.W. (1998). A Model of Investor Sentiment .Journal of Financial Economics, 49(3), 307-343.

Barsky, R.B. (2009). The Japanese Bubble: A 'Heterogeneous' Approach. NBER Working Paper No. 15052. Cambridge, MA : NBER.

Basu, S. (1983). The Relationship Between Earnings Yield, Market Value, and Return for NYSE Common Stocks : Further Evidence. Journal of Financial Economic, 12(1), 129-156.

Baur, D.G., & Schulze, N. (2009). Financial Market Stability A Test. Journal of International Financial Markets, Institutions and Money, 19(3), 506-519.

Baur, D.G., & Schulze, N. (2010). The Risk of Beta Investor Learning and Prospect Theory. Paper presented at the Finance and Corporate Governance Conference, Australia.

Bhandari, L.C. (1988). Debt/Equity Ratio and Expected Common Stock Returns : Empirical Evidence. Journal of Finance, 43(2), 507-528.

44

Bikhchandani, S., Hirshleifer, D., & Welch, I. (1992). A Theory of Fads, Fashion, Custom and Cultural Change as Informational Cascades. Journal of Political Economy, 100(5), 9921026.

Black, F. (1986). Noise. Journal of Finance, 41(3), 529-543.

Black, F., Jensen, M., & Scholes, M. (1972). The Capital Asset Pricing Model : Some Empirical Tests. In M. Jensen (Ed.) Studies in the Theory of Capital Markets (pp. 1085-1094). New York, NY:

Praeger.

Blaug, M. (1992). The Methodology of Economics : or how Economists Explain. Cambridge University Press.

Brennan, M. (1993). Agency and Asset Prices. Finance Working Paper No. 6-93, Los Angeles, CA :

UCLA.

Buehler, R., Griffin, D., & Ross, M. (1994). Exploring the Planning Fallacy : Why People Underestimate Their Task Completion Times. Journal of Personality and Social Psychology, 67(3),

366-381.

Caballero, R.J. (2010). Macroeconomics after the Crisis: Time to Deal with the Pretense-of- Knowledge Syndrome. NBER Working Paper No. 16429. Cambridge, MA : NBER.

Camerer, C., & Hogarth, R. (1999). The Effects of Financial Incentives in Experiments: A Review and Capital-Labor Production Framework. Journal of Risk and Uncertainty, 19(1-3), 7-42.

Campbell, J.Y,

63(6), 2899-2939.

Hilscher, J., & Szilagyi, J. (2008). In Search of Distress Risk. Journal of finance,

Carhart, M.M. (1997). On Persistence in Mutual Fund Performance. Journal of Finance, 52(1), 57-82.

Carpenter, M.D., & Upton, D.E. (1981). Trading Volume and Beta Stability. Journal of Portfolio Management, 7(2), 60-64.

Chan, K.C, & Chen, N. (1991). Structural and Return Characteristics of Small and Large Firms. Journal of Finance, 46(4), 1467-1484.

Chen, J., Hong, H., & Stein, J.C. (2002). Breadth of Ownership and Stock Returns. Journal of Financial Economics, 66(2),171-205.

Chen, L., & Novy-Marx, R., & Zhang, L. (2010). An Alternative Three-Factor Model. Working Paper, Retrieved from :http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1418117

Chen, M.Y., Kuan C.M. (2001). Testing Parameter Constancy in Models with Infinite Variance Errors. Economics Letters, 72, 11-18.

Cutler, D.M., Poterba, J.M., & Summers, L.H. (1991). What Moves Stock Prices?. Journal of Portfolio Management, 15(3), 4-12.

Daniel, T., & Titman, S. (1997). Evidence on the Characteristics of Cross Sectional Variation in Stock Returns. Journal of finance, 52(1), 1-33.

DeBondt, W.F.M., & Thaler, R. (1985). Does the Stock Market Overreact?. Journal of Finance, 40(3),

793-805.

45

DeLong, J.B., Shleifer, A., Summers, L., & Waldman, R. (1990). Noise Trader Risk in Financial Markets. Journal of Political Economy, 98(4), 703-738.

Edwards, W. (1968). Conservatism in Human Information Processing. In : B. Kleinmutz (ed.) Formal Representation of Human Judgment (pp. 17-52). New York, NY : Wiley.

Ellsberg, D. (1961). Risk, Ambiguity, and the Savage Axioms. Quarterly Journal of Economics 75(4),

643−69.

Fama, E.F,

French, K.R,

&

Davis, J. (2000). Characteristics, Covariances and Average Returns

1929–1997. Journal of Finance, 55(1), 389−406.

Fama, E.F, French, K.R. (2004). The Capital Asset Pricing Model: Theory and Evidence. Journal of Economic Perspectives, 18(3), 25-40.

Fama, E.F,

French, K.R. (2006). The Value Premium and the CAPM. Journal of Finance, 61(5),

2163-2185.

Fama, E.F, & French, K.R (1995). Size and Book-to-Market Factors in Earnings and Returns. Journal of Finance. 50(1), 131-155.

Fama, E.F, & French, K.R (1996). Multifactor Explanations for Asset Pricing Anomalies. Journal of Finance, 51(1), 55-84.

Fama, E.F, & French, K.R (1998). Value Vs. Growth: The International Evidence. Journal of Finance, 53(6), 1975−1999.

Fama, E.F, & French, K.R (2001). Disappearing Dividends: Changing Firm Characteristics or Lower Propensity to Pay?. Journal of Financial Economics; 60(1), 3−43.

Fama, E.F, & French, K.R. (1992). The Cross-Section of Expected Stock Returns. Journal of Finance, 47(2), 427−465.

Fama, E.F, & French, K.R. (1993). Common risk factors in the returns of bonds and stocks. Journal of Financial Economics, 33, 3−56.

Fama, E.F. (1965). The Behavior of Stock-Market Prices. Journal of Business, 38(1), 34-105.

Fama, E.F. (1970). Efficient Capital Markets : A Review of Theory and Empirical Work. Journal of Finance, 25(2), 383-417.

Fama, E.F. (1991). Efficient Capital Markets: II. Journal of Finance. 96(5), 15751617.

Fama, E.F. (1998). Market Efficiency, Long-Term Returns and Behavioral Finance. Journal of Financial Economics, 49(3), 283−307.

Fama, E.F., & MacBeth, J. (1973). Risk, Return and Equilibrium : Empirical Tests. Journal of Political Economy, 81(3), 607-636.

Fox, C., & Tversky, A. (1995). Ambiguity Aversion and Comparative Ignorance. Quarterly Journal of Economics 110:585−603.

Friedman, M. (1953). The Case for Flexible Exchange Rates. In: Essays in Positive Economics (pp. 157-203). Chicago, IL : Chicago University Press.

46

Greenwood, R., & Nagel, S. (2009). Inexperienced Investors and Bubbles. Journal of Financial Economics, 93(2), 239-258.

Grossman, S.J., & Stiglitz, J. (1980). On the Impossibility of Informationally Efficient Markets. American Economic Review 70 (3), 393408.

Gujarati, D. (2004). Basic Econometrics. New York : NY. McGraw-Hill.

Hao, L., & Naiman, D.Q. (2007). Quantile Regression ( Quantitative Application in the Social Sciences). Thousand Oaks, CA : Sage.

Heath, C., & Tversky, A. (1991). Preference And Belief: Ambiguity and Competence in Choice Under Uncertainty. Journal of Risk and Uncertainty 4(1),5−28.

Hohl, K. (2009). Beyond the Average Case: The Mean Focus Fallacy of Standard Linear Regression and the Use of Quantile Regression for the Social Sciences. London School of Economics Working Paper.

Homsud, N., Wasunsakul, J., & Joongpong, J. (2009). A Study of Fama and French Three Factors Model And Capital Asset Pricing Model in the Stock Exchange of Thailand. International Research Journal of Finance and Economics, 25(3), 31-40.

Hong, H., & Stein, J.C. (1999). A Unified Theory Of Underreaction, Momentum Trading, And Overreaction In Asset Markets. Journal of Finance, 54(6), 2143-2184.

Jegadeesh, N., & Titman, S. (1993). Returns to Buying Winners and Selling Losers: Implications for Stock Market Efficiency. Journal of Finance, 48(1), 65-91.

Jensen, M.C. (1968). The Performance of Mutual Funds in the Period 1945-1965. Journal of Finance, 23(2), 389-416.

Kahneman, D. (1973). Attention and Effort. Englewood Cliffs, NJ : Prentice Hall.

Kahneman, D., & Lovallo, D. (1993). Timid Choices and Bold Forecasts : A Cognitive Perspective On Risk Taking. Management Science, 39(1), 17-31.

Kahneman, D., & Tversky, A., (1974). On The Psychology of Prediction. Psychological Review, 80(5), 237-251.

Kahneman, D., & Tversky, A., (1979). Prospect Theory: An Analysis of Decision Under Risk. Econometrica 47(2), 263-291.

Kelly, P.J. (2003). Real and Inflationary Macroeconomic Risk in the Fama and French Size and Book- to-Market Portfolios. Working paper , University of South Florida .

Koenker, R. (2000). Galton, Edgeworth, Frisch, and Prospects for Quantile Regression in Econometrics. Journal of Econometrics, 95(2), 347374.

Koenker, R. (2005). Quantile Regression. New York : NY, Cambridge University Press.

Koenker, R., & Bassett G. (1978). Regression Quantiles. Econometrica, 42(1), 33-50.

Koenker, R., & d’Orey V.

393.

(1987). Computing Regression Quantiles. Applied Statistics, 36(3) 383–

47

Koenker, R., & Park B.J. (1996). An Interior Point Algorithm for Nonlinear Quantile Regression. Journal of Econometrics, 71(1), 265283.

Kothari, S.P., Shanken, J., & Sloan, R.G. (1995). Another Look at the Cross-Section of Expected Stock Returns. Journal of Finance, 50(2), 185-224.

Kyle, A.S. (1985). Continuous Auctions and Insider Trading. Econometrica, 53(6), 1315-1335.

Lakonishok, J., Shleifer, A., & and Vishny, R.W. (1992). The Impact of Institutional Trading on Stock Prices. Journal of Financial Economics, 32(1), 2343.

Lakonishok, J., Shleifer, A., & and Vishny, R.W. (1994). Contrarian Investment, Extrapolation and Risk. Journal of Finance, 49(5), 1541-1578.

Li, Q., Vassalou, M., & Xing, Y. (2000). An Investment-Growth Asset Pricing Model. Working paper. New York, NY : Columbia University.

Lintner, J. (1965). The Valuation of Risk Assets and the Selection of Risky Investments in Stock Portfolios and Capital Budgets. Review of Economics and Statistics, 47(1), 13-37.

Lo, A.W., & MacKinlay, D.C. (1990). Data-Snooping Biases in Tests of Financial Asset Pricing Models. Review of Financial Studies, 3(3), 431-467.

MacKinlay, A.C. (1995). Multifactors Models do not Explain Deviations from the CAPM. Journal of Financial Economics, 38(1), 3-28.

Malin, M., & Veeraraghavan, M. (2004). On the Robustness of Fama and French Multifactor Model:

Evidence from France, Germany and United Kingdom. International Journal of Business and Economics, 3(2), 155-176.

Maris, G. (2009). Application of the Fama and French Three-Factor-Model to the Greek Stock Market. University of Macedonia Working Paper No.2309.

Markowitz, H. (1952). The Utility of Wealth. Journal Of Political Economy, 60, 151-158.

Markowitz, H. (1958). Portfolio Selection : Efficient Diversification of Investments. New York, NY:

Wiley.

Maug, E., & Naik, N. (1996). Herding and Delegated Portfolio Management: The Impact of Relative Performance Evaluation on Asset Allocation. IFA Working Paper No. 223-96. London : London Business School.

Miller, G.A. (1956). The Magical Number Seven Plus or Minus Two : Some Limits in Our Capacity for Processing Information. Psychological Review, 63(2), 81-97.

Muth, J.F. (1961). Rational Expectations and the Theory of Price Movements. Econometrica, 29(3),

315-335.

Post, T., & van Vliet, P. (2007). Downside Risk and Asset Pricing. Journal of Banking and Finance, 30(3), 823-849.

Rabin, M. (2002). Inference by Believers in the Law of Small Numbers. Quarterly Journal of Economics, 117(3), 775-816.

Roenfeldt, R.L., Greipentorg, G.L., & Palfman, C.C., (1978). Further Evidence on the Stationarity of Beta Coefficients. Journal of Financial and Quantitative Analysis, 13(1), 117-121.

48

Roll, R. (1992). A Mean/Variance Analysis of Tracking Error. Journal of Portfolio Management, 18(4), 1322.

Rosenberg, B., Reid, K., & Lanstein, R. (1985). Persuasive Evidence of Market Inefficiency. Journal of Portfolio Management, 11(3), 9-17.

Ross, S.A. (1976). The Arbitrage Theory of Capital Asset Pricing. Journal of Economic Theory, 13(3),

341-360.

Samuelson, P.A. (1965). Proof That Properly Anticipated Prices Fluctuate Randomly. Industrial Management Review, 6(2), 41-49.

Savage, L. (1964). The Foundation of Statistics. New York, NY: Wiley.

Schwert, G.W. (2003). Anomalies and Market Efficiency. In : G.M. Constantinides & M. Harris & R. M. Stulz (ed.) Handbook of the Economics of Finance (pp 939-974). Amsterdam : Elsevier.

Sharpe, W.F. (1964). Capital Asset Prices : a Theory of Market Equilibrium Under Conditions of Risk. Journal of Finance, 19(3), 425-442.

Sharpe, W.F., & Cooper, G.M. (1972). Risk-Returns Classes of New York Stock Exchange Common Stocks : 1931-1967. Financial Analysis Journal, 28(2), 46-54.

Shiller, R. (1984). Stock Prices and Social Dynamics. Brookings Papers on Economic Activity, 2, 457-

498.

Shiller, R.J. (2000). Measuring Bubble Expectations and Investor Confidence. Journal of Psychology and Financial Markets 1(1), 4960.

Shiller, R.J. (2003). From Efficient Markets Theory to Behavioral Finance. The Journal of Economic Perspectives, 17(1), 83-104.

Shleifer, A., & Summers, L. (1990). The Noise Trader Approach to Finance. Journal of Economic Perspective, 4(2), 19-33.

Shleifer, A., & Vishny, R. (1997). The Limits of Arbitrage. Journal of Finance, 52(1) ,53-55.

Stattman, D. (1980). Book Values and Stock Returns. The Chicago MBA : A Journal of Selected Papers, 4, 25-45.

Summers, L. (1986). Does the Stock Market Rationally Reflect Fundamental Values ?. Journal of Finance, 41(3), 591-601.

Thaler, R.H. (1999). Mental Accounting Matters. Journal Of Behavioral Decision Making, 12(3), 183-

206.

Tobin, J. (1958). Liquidity Preference as Behavior Towards Risk. Review of Economic Studies, 25(1),

65-68.

Tversky, A., & Kahneman, D. (1986). Rational Choice and the Framing of Decisions. Journal of Business 59(4), 251−278.

Tversky, A., & Kahneman, D. (1992). Advances in Prospect Theory: Cumulative Representation of Uncertainty. Journal of Risk and Uncertainty 5(4), 297−323.

Van Nieuwerburgh, S., & Veldkamp, L. (2010). Information Acquisition and Under-Diversification. Review of Economic Studies, 77(2), 779-805.

49

Vassalou, M., & Xing, Y. (2004). Default Risk in Equity Returns. Journal of Finance, 59(2), 831-868.

von Hayek, F.A. (1974). The Pretence of Knowledge. Prize Lecture, The Sveriges Riksbank Prize in Economic Sciences in Memory of Alfred Nobel.

von Neumann, G., & Morgenstern, O. (1944). Theory of Games and Economic Behavior. Princeton University Press.

Weinstein, N. (1980). Unrealistic Optimism About Future Life Events. Journal of Business, 39(5),

806-820.

50