Vous êtes sur la page 1sur 61

Harry M.

Markowitz: Les fondations de la théorie moderne du portefeuille


Harry Max Markowitz est né le 24 août 1927 à Chicago, de parents propriétaires
d’une petite épicerie. Il a reçu le prix Nobel d'économie en 1990 « pour avoir
développé la théorie du choix des portefeuilles pour le placement des fortunes ».
En deuxième cycle en économie à l’université de Chicago, Markowitz s’intéressait à
« l’économie de l’incertain », et aux cours de son professeur Koopman sur l’efficience
et l’analyse des portefeuilles efficients.
Durant les années 1955-1956, il a été invité à devenir l’un des membres étudiants de
la Fondation Cowles pour la recherche en économie.
Quand il a quitté l’université de Chicago, il a rejoint la société Rand, qui est
considérée comme un laboratoire d’études au service de la décision politique et
économique. C’est là où Markowitz a appris les techniques d’optimisation.
A l’âge de 53 ans, à la rentrée de 1980, Markowitz enseigne pendant deux années
universitaires à l’université de Rutgers, puis au Collège Baruch à New York de 1982 à
1993.
En 1989, il reçoit le prix Von Neumann de théorie de la recherche opérationnelle pour
ses travaux informatiques et principalement pour Simscript.
En 1990, il reçoit le prix Nobel d’économie pour avoir inventé la finance moderne. Il
reçoit ce prix avec son ancien doctorant, William Sharpe et Merton Miller.
Un jour, lorsqu’il a fini la lecture d’un ouvrage d’analyse financière de John Burr
Williams : The Theory of Investment Value (1938), Markowitz a réalisé que le
raisonnement mené par l’auteur ne semblait pas logique. Les flux futurs d’un actif ne
peuvent pas être certains, car on ne peut prevoir tous les facteurs pouvant influencer,
positivement ou négativement, la valeur d’un actif. Pour dire les choses autrement,
Markowitz a été certain que les rendements d’une entreprise, ses recettes et ses
dépenses sont incertains, ils sont soumis à de nombreuses influences. C’est bien cette
incertitude qui fait que les actions sont risquées. C’est à partir de ce raisonnement que
Markowitz a introduit la notion du « risque » dans les analyses techniques boursières.
Le modèle de Markowitz
En 1952, Markowitz a introduit une nouvelle approche pour gérer les portefeuilles sur
les marchés. En effet, l’idée de base consistait à déterminer une méthode
d’optimisation du portefeuille, soit en optant pour la maximisation de la rentabilité
sous des contraintes de risque, soit pour la minimisation du risque pour un niveau de
rentabilité souhaité. Autrement dit, il ne convient pas de prendre seulement en compte
la rentabilité espérée dans la construction d’un portefeuille optimal, que l’on appelle «
portefeuille efficient », mais également le risque de ce portefeuille. Ainsi, « le
portefeuille efficient » est celui qui donne la rentabilité maximale pour un niveau de
risque donné.

En effet, pour construire un portefeuille optimal, il faut assimiler, au préalable, les


actifs a des variables aléatoires qui suivent une loi normale. Le choix de cette dernière
s’explique par le fait qu’elle soit facile à manipuler, et qu’elle s’applique à des
phénomènes variés et différents les uns des autres.
-Rentabilité et risque :
Comme il est déjà mentionné, le choix de la loi normale présente un certain nombre
d’avantages, notamment dans l’explication de l’évolution du cours de l’action, ainsi
qu’elle permet de mesurer sa rentabilité et le risque qui lui est lié, et ce à travers sa
représentation graphique, que l’on appelle « courbe en cloche », qui représente la
moyenne arithmétique et l’écart-type des valeurs des observations.
- La moyenne arithmétique représente la « tendance centrale », c’est-à-dire la valeur
la plus fréquente.
- L’écart-type représente la « dispersion » des résultats autour de la tendance centrale,
c’est-à-dire le nombre de fois ou une valeur différente de la valeur la plus fréquente
est obtenue.
Dans ce modèle, la tendance centrale renvoie à la rentabilité espérée, c’est-à-dire le
nombre de fois ou la rentabilité que l’on souhaite générer est obtenue, tandis que la
dispersion des résultats renvoie au risque, c’est-à-dire le nombre de fois où l’on
n’obtient pas la rentabilité espérée.
- L’approche espérance-variance :
A l’origine, le choix rationnel du portefeuille efficient se déterminait par la fonction
d’utilité qui traduit les préférences des investisseurs selon leur richesse et leur niveau
de risque. Ainsi, la fonction d’utilité est représentée par une courbe d’indifférence sur
la base de la relation rentabilité-risque. La fonction d’utilité est croissante avec la
richesse, puisque l’on vise toujours à devenir plus riche, et varie dans le même sens
avec la rentabilité, et dans le sens inverse avec le risque.
En effet, à cause de la complexité des calculs basés sur les fonctions d’utilité pour la
détermination du choix optimal, Markowitz a opté pour la simplification du choix
dans l’incertain de l’investisseur en mesurant le risque qui affecte la richesse par sa
variance. Ainsi, l’investisseur se base sur deux éléments lors du choix du portefeuille
optimal : l’espérance de sa richesse, qu’il souhaite maximiser, et qui s’obtient par la
moyenne des rentabilités possibles pondérées par leurs possibilités de réalisation, et la
variance, qu’il souhaite minimiser.
Optimisation d’un portefeuille
L’idée sur laquelle se base l’optimisation d’un portefeuille, ou bien la construction
d’un portefeuille efficient, est que l’investisseur ne doit pas se baser uniquement sur la
rentabilité espérée d’une action, mais plutôt sur le couple rentabilité-risque. Ainsi,
pour évaluer le risque global d’un portefeuille, il faut se fonder sur les volatilités des
valeurs qui le composent. Pour dire les choses autrement, il faut déterminer la
corrélation entre les rentabilités des différents actifs qui le composent, d’où la notion
de covariance.

- La diversification
Comme il est déjà dit, le risque global d’un portefeuille se mesure par l’écart-type
gaussien des rentabilités successives des actifs qui le composent. Naturellement, le
premier objectif d’un investisseur est de maximiser sa rentabilité tout en minimisant
son risque. Pour ce faire, il faut qu’il y ait une faible corrélation entre ces actifs. En
d’autres termes, il faut diversifier le portefeuille de façon à ce que l’ajout d’une action
à forte volatilité n’augmente pas le risque global du portefeuille. La diversification du
portefeuille vise, donc, à minimiser le risque global. Cela correspond à l’expression
de Markowitz qui dit que « le risque total d’un groupe de titres différents est inférieur
à la somme des risques de ces titres individuels », autrement dit, ne pas mettre tous
ses œufs dans le même panier.
En effet, Markowitz a introduit une nouvelle notion à sa théorie pour la construction
d’un portefeuille optimal : « la loi de la covariance moyenne ». Cette dernière stipule
que le risque global d’un portefeuille est la somme de la variance moyenne des titres
qui le composent divisée par le nombre de titres, et la covariance moyenne des titres
multipliée par [(N−1) / N], (avec N : le nombre d’actions du portefeuille).
En effet, la diversification permet de réduire le risque global du portefeuille,
c’est-à-dire le risque lié à une forte volatilité. Ainsi, plus le portefeuille est bien
diversifie, plus la volatilité est moins forte. En d’autres termes, la diversification
permet de réduire le risque spécifique d’un actif. Toutefois, la diversification ne peut
en aucun cas diminuer le risque systématique relatif au marché boursier comme, par
exemple, le cas d’un krach boursier où le marché devient illiquide, d’où la baisse des
cours des actifs.

William F. Sharp: Les outils fondamentaux de la gestion moderne de portefeuille


Né le 16 juin 1934 à Boston. Il commence des études scientifiques, mais se réoriente
très vite vers la gestion des entreprises puis vers l’économie, à l’Université de Los
Angeles. Deux professeurs exercent alors une influence profonde sur sa carrière : Fred
Weston qui, le premier, l’a introduit aux travaux de Harry Markowitz, et Armen
Alchian, président de son jury de thèse. Après une courte période militaire, il rejoint
la Rand Corporation, en 1956, en
tant qu’économiste et commence à travailler avec Harry Markowitz sur un modèle
simplifié d’analyse de portefeuille. Il a travaillé sur la théorie financière. Son ratio de
Sharpe permet de mesurer la rentabilité d'un portefeuille au regard du risque pris.
Tout au long de sa carrière, il a réalisé plusieurs recherches lui permettant ainsi d’être
l’un des fondateurs de la théorie financière. Il a crée l’entreprise FNGN pour pratiquer
sa nouvelle technologie moderne en utilisant ses théorie financières dans des
scenarios dans la réalité. Ainsi il a une entreprise de consultation avec son nom dont il
fréquente souvent et donne plus d’importance après sa
retraite de l’enseignement.
Selon Sharpe et d’autres auteurs tels que Markowitz: «les théories des choix de
portefeuille montrent des investisseurs qui choisissent un actif plutôt qu’un autre, qui
arbitrent prudemment entre risque et rentabilité attendue,et qui constituent des
combinaisons optimales d’actifs appelées portefeuilles efficients ».
Markowitz a proposé un processus de sélection de portefeuille en trois temps :
Estimation de la probabilité des performances futures de chaque titre, analyse de ces
estimations afin de
déterminer un ensemble de portefeuilles efficaces et sélection à l’intérieur de cet
ensemble des portefeuilles correspondant le mieux aux préférences des investisseurs.
Donc on voit ici le tour de Sharpe qui a élargit les travaux de Markowitz sur la
deuxième étape du processus de sélection de portefeuille : l’analyse de portefeuille.
Sa démarche vise à
alléger la procédure de détermination de la frontière efficiente.

La solution que Sharpe apporte au problème d’utilisation du modèle de sélection de


portefeuille réside dans son modèle diagonal. Les avantages de ce modèle se voient
dans sa simplicité et la prise en compte d’un grand nombre d’interrelation entre les
titres. Donc Sharpe a pensé à la possibilité d’approfondir ses recherches pour réaliser
un équilibre. C’est ce qui le conduira à l’élaboration du MEDAF.
Au début il existait un équilibre partiel en se basant sur un modèle simplifié d’analyse
de portefeuille c’est pour cette raison que Sharpe cherche l’équilibre général en
modernisant les méthodes d’analyse.
La caractéristique principale de son modèle diagonal réside dans l’hypothèse que la
rentabilité des différents titres dépend principalement d’un facteur sous-jacent,
uniquement par des
relations courantes. La rentabilité de chacun des titres est déterminée par des facteurs
aléatoires et cet élément extérieur seul.
Même si le programme diagonal aide à réduire le temps de calcul, il existe quelques
analyses dont le coût est assez important qu’on ne peut pas le négliger, donc Sharpe a
limité les calculs
à ceux qui sont essentiels pour la sélection finale du portefeuille. Donc le programme
diagonal restreint les calculs à ceux qui sont nécessaires pour déterminer l’ensemble
final des portefeuilles efficaces.

L’approfondissement de ces premiers travaux a conduit Sharpe à la


détermination d’un équilibre général et à l’élaboration du modèle d’équilibre des
actifs financiers qui représente la contribution majeure à la théorie financière, et c’est
pour cela que
ses idées représentent des fondements de la théorie financière.
Sharpe a constaté au début des années 60 que les investisseurs achètent les ac tifs
risqués dans le cas où la rentabilité est supérieure au taux sans risque.
Prime de risque représente l’écart entre rentabilité attendue des actifs risqués et le
taux sans risque. Le taux de risque est le taux d’intérêt d’un emprunteur sûr, dont la
rentabilité est certaine sur une période donnée.
Selon Treynor, prime de risque par action est proportionnelle à la covariance de
l’investissement avec la valeur totale de tous les investissements dans le marché.
Alors que Sharpe considère l’influence du risque sur l’évolution de tous les actifs qui
constituent le marché à un moment donné.
L’absence d’une théorie pour donner une signification réelle à la relation entre prix
d’un actif individuel et son risque. Ainsi les rentabilités sont liées par le biais d’une
relation commune
avec un facteur sous-jacent de base.
Donc, un investisseur devra s’intéresser uniquement à la contribution de chaque actif
individuel au risque de l’ensemble de son portefeuille et à l’élaboration d’une théorie
des prix
actifs à l’équilibre du marché dans des conditions de risque qui constitue l’apport
majeur à la théorie financière de la 60 décennie.

Merton H. Miller: Le raisonnement d’arbitrage et la séparation des décisions


d’investissement et de financement
Bibliographie :
Merton Miller : (1923- 2000)
Merton Miller est un économiste et professeur de finance américain né le 16 mai 1923
à Boston, Massachussetts. Il obtint son Bachelor (A.B.) en économie de l’Université
Harvard en 1944. Et pendant six années, de 1943 à 1949, il travailla comme
économiste dans l’administration américaine successivement à la direction du Trésor
américain et à la Federal Reserve Bank, avant d’entreprendre ses études doctorales en
économie à la John Hopkins University dont il fut diplômé en 1952. Il fut enseignant
au Carnegie Institute of Technology dès 1953 et publie cinq ans plus tard avec Franco
Modigliani leur travail concernant le domaine de la théorie des finances
En 1961, Merton Miller rejoignit la Graduate School of Business de l’Université de
Chicago en tant que professeur d’économie et de finance. Cette business school devint
son port d’attache pour quarante ans. En 1990, il reçut le prix Nobel d’économie.
Franco Modigliani : (1918-2003) Franco Modigliani, est un grand économiste
italo-américain né le 18 juin 1918 à Rome.
Après avoir obtenu ses diplômes en économie à l'Université catholique du
Sacré-Cœur, il quitte son pays et immigre aux Etats-Unis en 1939 pour fuir la
persécution du régime fasciste. Il obtient son doctorat à la New School for Social
Research de New York en 1944 et prend la nationalité américaine en 1946. En 1948,
il est nommé au département d'économie politique de l'Université de Chicago et
rejoint la prestigieuse Cowles Commission for Research in Economics. Il y côtoie des
économistes de premier plan tels que Marschak, Koopmans, Arrow ou Simon. Il
enseigne l'économie et la finance dans d'autres universités américaines, dont
l'université Carnegie-Mellon et la MIT (Massachusetts Institute of Technology).
Modigliani est surtout connu pour ses travaux avec Richard Brumberg sur le cycle de
vie dans sa théorie sur l'épargne et ses travaux avec Merton Miller sur la finance
d'entreprise,notamment sur la neutralité de la structure financière sur le résultat par
action.
Président de l'American Economic Association en 1976, il reçoit le prix Nobel
d’économie en 1985 pour ses travaux sur le comportement d'épargne des ménages et
le théorème Modigliani-Miller sur les marchés financiers.
Travaux académiques :
1. La structure de financement des entreprises :
La thèse principale de Modigliani et Miller (1958) postule l’indépendance de la
structure financière, qui est mesurée par son levier financier (dettes financières / fonds
propres) et la valeur de la firme. En d’autres termes, la valeur de la firme serait
indépendante de son endettement donc de sa politique de financement. La
démonstration de cette thèse repose sur
un certains nombre d’hypothèse :
Les marchés sont parfait et efficient, ce qui signifie entre autres, que les taux de
prêt et d’emprunt identiques, et que l’information est transparente (tous les agents
dispose de la même information au même moment sans aucun décalage).
Un monde sans fiscalité ; une absence de l’impôt, des coûts de transactions et de
faillite.
Ainsi, La contribution de M&M à la question du coût du capital s’est effectuée
principalement en deux temps : tout d’abord dans un monde sans impôt (Modigliani et
Miller, 1958) et ensuite en considérant l’impact de la fiscalité de la firme (Modigliani
et Miller, 1963).
L’impact de la dette sur la valeur de la firme dans un monde sans impôt :
Lorsque Modigliani et Miller publièrent leur article séminal de 1958 sur le coût du
capital des entreprises et la théorie de l’investissement, ils déclenchèrent une véritable
révolution dans le monde académique et professionnel de la finance. Leur article
démontrait - certes dans un cadre théorique restrictif - que la valeur de marché de la
firme était indépendante de son niveau d’endettement et que, par conséquent, son coût
du capital était constant. La logique utilisée par M&M est en réalité d’une grande
simplicité. Elle repose sur l’idée que si une firme retire un avantage (valorisation plus
élevée et coût moyen pondéré du capital (CMP) plus faible) de l’endettement, cet
avantage doit pouvoir être répliqué par un investisseur qui s’endetterait directement
auprès du marché. Ainsi, grâce à cet « home made leverage » et au processus
d’arbitrage, la valeur des firmes ne se distinguant que par leur structure de
financement doit être égale à celle des non endettées. La démonstration nécessite des
marchés financiers parfaits ; notamment la capacité des investisseurs à emprunter au
même taux d’intérêt que les entreprises et une absence totale de fiscalité tant sur les
bénéfices que sur les revenus des investisseurs.

Ainsi ;

CMP = FP/Vi*Cfp + D/Vi*Cd


Où le Cfp = Ra + (Ra-Cd)*D/FP

FP : Fonds propres
Vi : valeur totale (dettes + capitaux propres)
Cfp : Coût des fonds propres
D : Dettes financière
Cd : Coût des dettes
Ra: Rentabilité d’actifs
Exemple :
Soit deux sociétés A et B ayant les structures financières suivantes :
A : FP = 70% et D = 30% / B : FP = 50% et D = 50%
Avec un CD = 9% et un Ra = 15%
CFP A = 15 + (15 – 9)* 0.3/0.7 = 17,57% et CMP A = 0.7/1 * 17,57% + 0.3/1 * 9% =
15%
CFP B = 15 + (15 – 9)* 0.5/0.5 = 21% et CMP B = 0.5/1 * 21% + 0.5/1 * 9% = 15%

L’impact de la dette sur la valeur de la firme soumise à l’impôt des sociétés :


À la suite des nombreuses critiques et discussions académiques (notamment de la part
des partisans du courant classique) déclenchées par leur proposition sur la neutralité
de l’endettement sur la valeur de la firme dans un monde sans impôt, M&M se
résolurent en 1963 à affiner leur résultat en introduisant la fiscalité dans leur
raisonnement. En effet,l’argument principal de la neutralité de la structure financière
sur la valeur de la firme réside dans le fait qu’il n’y a pas d’avantage à ce que
l’entreprise recoure à l’emprunt si les investisseurs peuvent s’endetter dans les mêmes
conditions que celle-ci. Si les conditions d’emprunt sont plus avantageuses pour la
firme que pour les investisseurs, du fait de la déductibilité des charges financières de
l’impôt, il est clair que la firme endettée bénéficiera de cet avantage et verra sa valeur
augmentée d’autant. Une autre façon de présenter ce résultat est de dire que si la dette
bénéficie d’un avantage fiscal par rapport aux fonds propres, étant
donné que dans un monde sans impôt la valeur de la firme est indépendante de son
mode de
financement, la firme endettée aura une valeur supérieure à celle qui n’a pas (ou a
moins) de
dette. Ainsi ;

Vl = Vu + valeur actuelle (d’économie d’impôt)

Soit Vl : Valeur de l’entreprise endettée


Vu : Valeur de la firme non endetté
Va : le montant de l’endettement * le taux d’imposition
CMP = FP/Vi*Cfp + D/Vi*Cd * (1-t/IS)

Cfp = Ra + (Ra-Cd)*D/FP*(1-t/IS)

Au total, dans un monde où seules les entreprises ont la faculté de bénéficier de la


déductibilité des charges financières de leur revenu imposable, il apparaît que la
bonne stratégie financière consiste à profiter au maximum de cet avantage en
n’hésitant pas à les financer avec des dettes. À la limite, pourquoi pas un endettement
à 99 % pour faire le plein des avantages fiscaux ? La réponse se trouve, entre autres,
dans le risque de faillite qu’une telle politique ne manquerait pas d’entraîner. Or, une
des hypothèses de M&M est l’absence de risque de faillite.
2. La politique de dividende :
Comme nous l’avons déjà vu, les contributions de Modigliani et Miller ont
véritablement révolutionné l'analyse de l'impact des modes de financement sur la
valeur de l'entreprise.
Un de leurs apports tout aussi important et déterminant est en matière de dividende,
qui est une autre décision financière majeure puisqu'elle concerne la forme que la
rémunération des actionnaires doit prendre.
À la fin des années (19)50, nombreux sont ceux qui pensaient que le prix des actions,
et par conséquent la valeur de la firme, dépendaient du montant des dividendes servis
aux actionnaires. Cette position était renforcée par les enseignements de la finance
classique, jusqu’en 1961 où Miller et Modigliani expliquèrent que cette conclusion
était erronée. Ils démontrèrent qu'il en allait des dividendes comme du financement :
sur un marché parfait, la simple manipulation de variables liées au financement ne
crée pas de valeur. M&M reconnaissent que la valeur de l’action est égale à la valeur
actuelle des dividendes qu’elle servira. Ils admettent donc qu’un accroissement des
dividendes peut entraîner une augmentation de la valeur de l’action, mais il faut que
cet accroissement du dividende trouve sa justification dans une amélioration de la
capacité bénéficiaire de l’entreprise. Autrement dit, dans ce cas, ce n’est pas le
dividende en tant que tel qui affecte la valeur de l’entreprise.
La thèse de la neutralité des dividendes sur la valeur de
l'entreprise :
Pour isoler l'impact des seuls dividendes sur la valeur de l'entreprise, M&M supposent
que les politiques d'investissement et de financement de l'entreprise sont fixées et
qu'elles ne sauraient être affectées par la décision de distribution des bénéfices.
M&M posent donc le problème en ces termes : pour une structure financière et pour
un montant d’investissements donnés, peut-on modifier la valeur de l’entreprise en
manipulant les dividendes ? La réponse à cette question est, bien évidemment,
négative puisque, dans ce contexte, tout euro de dividende qui aurait pu permettre
d’autofinancer l’investissement doit être compensé par un euro de fonds propres levé
sur le marché financier.
Ils développent leur argumentaire de la manière suivante dans un monde sans impôt.
Une entreprise, qui dispose de suffisamment d'opportunités d'investissement pour
réinvestir tout l'autofinancement qu'elle a dégagé, peut néanmoins distribuer tout ou
partie de cet autofinancement sous forme de dividendes. Afin de réaliser son
programme d'investissement, elle doit alors faire appel au marché financier pour
récupérer ce qu’elle a distribué, ainsi et pour que cette décision ne modifie pas sa
structure financière, l’entreprise ne doit pas recourir à l’emprunt. Il faut donc qu’elle
réalise une augmentation de capital et émette des actions nouvelles. Par conséquent, la
distribution de dividendes l’amène à donner aux actionnaires d'une main, sous forme
de dividendes, ce qu'elle reprendra de l'autre, sous forme d'augmentation de capital. Il
s'agit là d'une « opération blanche », qui ne peut pas affecter la valeur de l'entreprise.
M&M concluent donc que la valeur de l'entreprise est totalement indépendante de sa
politique de dividende (elle ne dépend que de la rentabilité de ses investissements) et
qu’il n'est pas utile de préconiser quoi que ce soit aux responsables financiers en la
matière. En d’autres termes, la distribution de dividendes n’est qu’une opération de
répartition et qu’en conséquence une telle décision ne peut être créatrice de
valeur.

Eugene F. Fama: L’efficience informationnelle des marchés financiers

Eugene F. Fama, entièrement Eugene Francis Fama né le 14 février 1939 à Boston,


Massachusetts, États-Unis. Économiste américain et professeur de finance à la Booth
School of Business de l’Université de Chicago. Il est professeur dans cette université
depuis 1963 où il a obtenu en 1964, sa thèse de doctorat. Il a occupé aussi plusieurs
postes académiques et professionnels, À savoir : poste de professeur invité à l’EIASM
de Bruxelles en 1975-1976, et président du CRSP dans l’Université de Chicago, ainsi
il était également un membre du conseil d’administration et directeur de la recherche
à DFA. Fama est un auteur très productif, sa bibliographie est très riche en plusieurs
articles scientifiques, 2 ouvrages2 et autres travaux de recherche. Grâce à cette
intensité de travail, il a reçu en 2013 le prix de la banque de suède en sciences
économiques pour sa contribution au développement de l'hypothèse d'efficience du
marché et à l'analyse empirique des prix des actifs dont il montre qu’il est très difficile
de prévoir les fluctuations des prix des actifs à court terme, car les marchés intègrent
très rapidement les nouvelles informations pertinentes pour les prix. Sa thèse se voit
largement utilisée dans le domaine de la finance pour décrire le fonctionnement des
marchés financiers.
Arrivant à K. French, il est un économiste américain né le 10 mars 1954. Il est
professeur de finance à la Tuck School of Business du Dartmouth College. Il est
souvent connu pour son travail avec Eugène Fama sur l'évaluation des actifs. Il est le
coauteur privilégié de Fama puisqu’ils ont 41 publications en commun, citées plus de
80 000 fois selon Google Scholar.
Ensemble, ils ont mené des travaux remettant en cause le modèle d'évaluation des
actifs financiers (MEDAF) et développé le modèle Fama-French à trois facteurs.
Les travaux de Fama se distinguent par des recherches fortement empiriques qui se
sont basées bien sûr, sur les observations issues des différents développements
théoriques. L’un des facteurs de l’essor de ces travaux, voire des recherches de la
finance en général, était que les États-Unis donnaient une grande importance quant
aux recherches empiriques.

Les travaux de Fama sont regroupés dans l’ouvrage « Les Grands Auteurs de la
Finance », en trois sections :
La modélisation de la relation Rentabilité/Risque ;
L’efficience informationnelle ;
Les décisions de gestion.
I- LA MODÉLISATION DE LA RELATION RENTABILITÉ RISQUE :
Fama a été amené pour comprendre la relation entre le couple rentabilité risque, à
produire un bon nombre de travaux sur le modèle d’évaluation des actifs financiers
(MEDAF). Ensuite,
il a proposé avec French, le modèle à trois facteurs. Ces deux modèles sont
continuellement présentés ci-après.

1) Le MEDAF :
Fama fait une démonstration de la relation de linéarité pour n’importe quel
portefeuille dominant entre son risque systématique (β) et la rentabilité espérée (E
(RM)). Le fameux
apport de Fama est certainement la méthodologie de test du MEDAF en coupe
instantanée,où il examine le cas d’un investisseur dont les choix ne se limitent pas à
une seule période.
Fama et Schwert exposent un thème modifié du MEDAF pour tenir compte d’un actif
dit non négociable : le « capital humain », et présentent un test sur des données de
l’économie des
États-Unis.
Le taux de rentabilité sur le « capital humain » est faiblement corrélé avec la
rentabilité des actions, ce qui signifie que le fait de prendre en compte les salaires par
exemple, n’améliore pas la capacité de l’explication du MEDAF. Ce modèle a été
étendu
théoriquement par Fama en 1970.
2) Le modèle à trois facteurs :
Le modèle Fama-French à trois facteurs est une explication empirique du rendement
attendu d’un actif financier. Les appréciations effectuées par Fama et French montrent
que le modèle arrive à expliquer une grande partie (environ 90 %) de la variation du
rendement mensuel des actions des bourses du NYSE, AMEX et NASDAQ. Ces deux
auteurs ont constaté que les entreprises de croissance sont moins risquées que les
valeurs de substance (ou de rendement).
II- L’EFFICIENCE INFORMATIONNELLE :
Arrivant à la deuxième section, il ressort que le concept de Fama de l’efficience n’a
pas vraiment évolué depuis le début des années soixante, puisque la plupart des
auteurs s’intéressant à la problématique de l’efficience renvoient à Fama la définition
classique : un marché dans lequel les cours « reflètent complètement » l’information
disponible est dit efficient.
1) Efficience et rational pricing :
En plus de détail, Fama attribue le caractère efficient (informationnellement) au
marché, où une prévision profitable est impossible pour quiconque. Réellement au
sens de Fama, on peut
faire des prévisions mais de manière non profitable. Par ailleurs, mener un test
d’efficience est une action véritablement délicate, vue la diversité des hypothèses
prises en comptes dans
l’expérience de ce test. Ces points-là sont contenus dans la valeur fondamentale des
cours, le caractère de la prévision (profitable ou non) et la diversité des hypothèses.
a) Les cours et la valeur fondamentale
La valeur fondamentale et les cours sont déterminés par deux aspects : la répartition
de l’information parmi les investisseurs ; la capacité du marché à agréger les
informations individuelles et à produire des cours les reflétant.
Fama explique que dans un contexte d’un marché quelconque (exclusion du
monopole), un désaccord sur l’interprétation d’une information ne remet pas en cause
l’efficience, à condition que les investisseurs ne bénéficient pas d’un avantage
informationnel.
Pour Fama, dans un marché efficient, les cours varieront de manière aléatoire autour
de leur« valeur fondamentale ». Le coût de l’information et les conditions de diffusion
(incertitude et
informations imprécises) engendrent des écarts entre la valeur fondamentale et les
cours.
b) La prévision de la profitabilité :
Pour Fama, les anomalies de long terme ne permettent pas de falsifier l’hypothèse
d’efficience, car les surévaluations sont aussi fréquentes que les sous-évaluations.
Le fait de ne pouvoir prévoir de manière profitable les cours futurs ne pourrait être
totalement satisfaisant, puisque des écarts d’évaluation importants, engendraient une
baisse de l’efficience allocationnelle et de la performance du marché. → C’est le
contraire pour Fama.
c) Les hypothèses jointes et les tests empiriques de l’efficience :
Un test de l’hypothèse d’efficience doit être mené à l’aide d’une autre hypothèse
jointe qui porte sur le modèle d’équilibre. Les recherches sur l’efficience
informationnelle et celles sur les déterminants des taux de rentabilité sont contenues
dans le travail scientifique de Fama,intitulé « Two pillars of asset pricing »
Le test de volatilité stipule que sur un marché efficient, la variance des prix de l’actif
doit être bornée par une valeur théorique qui ne dépend que de la variabilité des
déterminants fondamentaux du prix. Shiller (1981).

III- DÉCISIONS DE GESTION :


Les travaux de Fama concernant cette section traitent des décisions de distribution,
d’investissement et de financement. L’auteur est connu par sa grande contribution en
théorie
des organisations.
1) Décisions de distribution :
La politique de distribution des entreprises est apparemment rigide, ainsi que le taux
de distribution cible est supposé défini par rapport au bénéfice net. L’ajustement du
niveau actuel de distribution au niveau espéré se fait de façon graduelle. L’innovation
du modèle de Fama et Babiak est de supposer un ajustement total du niveau de
distribution par rapport à la
composante anticipée du bénéfice et seulement partiel par rapport à la composante
non anticipée. L’intérêt du modèle est lié à la qualité des ajustements obtenus.
En 2001, Fama et French montrent que le pourcentage d’entreprises américaines
cotées qui versent un dividende est passé de 65,5 % en 1978 à 20,7 % en 1998. Cette
baisse est expliquée par l’augmentation de la proportion des TPE et d’entreprises
déficitaire (donc pas de
distribution de dividendes). C’est en fait une baisse de la propension à distribuer qui
est observée au niveau de toutes les entreprises cotées.
Fama et French mettent en évidence plusieurs raisons, et parmi ces raisons : une
évolution des possibilités de contrôle des
dirigeants par les actionnaires qui rendrait moins impérieux le recours au dividende
dans la résolution des conflits d’agence.
2) Décision d’investissement :
Fama et Miller précisent que, sous l’hypothèse d’un marché concurrentiel, la
satisfaction des actionnaires exige des décisions d’investissement et de financement
qui maximisent la valeur
de marché de l’entreprise. Il y a ainsi une hétérogénéité entre les bienveillances des
actionnaires et la décision d’investissement de la firme.
3) Décision de financement :
Fama et French soulignent que l’effet d’information domine dans la connexion entre
le dividende et la valeur de l’entreprise comme entre le levier et la valeur de la firme.
Ces deux auteurs montrent que sur la période 1965-1997 sur les marchés américains,
les entreprises les plus profitables sont également les moins endettées, ce qui confirme
la théorie
des choix de financement hiérarchiques.
(Pecking order). Plus les entreprises investissent le plus, moins la distribution est
importante, autrement dit, c’est l’endettement qui sert d’une variable d’ajustement et
non pas les dividendes.

Stephen A. Ross: Le principe d’arbitrage au cœur de l’évaluation des actifs financiers


Stephan Ross est un professeur américain de l’économie et de la finance à la MIT
Sloan School of Management. Stephen Alan Ross est né le 3 février 1944 à Boston et
a grandi à Brookline, dans le Massachusetts. Il est diplômé du California Institute of
Technology, où il s'est spécialisé en physique. Il a ensuite obtenu un doctorat en
économie à l’Université de Harvard. Avant de rejoindre le M.I.T. en tant que
professeur, il a enseigné à la Wharton School de l’Université de Pennsylvanie et à
l’Université de Yale. Il a reçu de nombreux prix pour ses travaux, parmi ces derniers :
prix de Deutcshe bank en économie financière, le prix de Ounassis en 2012, ainsi que
le prix de Jean Jacques Laffont en 2007.
Il a été directeur de l’American association finance, éditeur des grandes revues
économiques, ila été conseiller auprès du Trésor Américain.
Il a aussi créé plusieurs sociétés financières Roll & Ross Asset management Corp qui
est spécialisé dans la gestion quantitative du portefeuille Ross Jeffrey & Antle
Il est également le théoricien fondateur du domaine de l’économie financière ainsi
qu’il est connu par ces travaux portant sur le développement de la théorie d’arbitrage.
Cette théorie été développée en 1976, explique comment des facteurs économiques
puissants tels que l'inflation ou les hausses des taux d'intérêt peuvent influer sur le
prix d'un actif. À la base, la théorie offre un cadre d'analyse des risques et des
rendements sur les marchés financiers. Le professeur Ross a également exploré les
mystères du marché boursier et de ses risques inhérents, il a inventé le terme théorie
de l'agence, qui a joué un rôle déterminant en finance et en économie. À l'aide de cette
théorie, il a expliqué comment, par le biais de la gouvernance, les entreprises peuvent
aligner les mesures incitatives destinées aux gestionnaires sur celles destinées aux
employés de base. Il est également à l'origine de l’appellation du modèle binomial
pour la fixation du prix des options d'achat d'actions. Le professeur Ross a permis de
guider, à travers ses interventions des théories complexes affinées dans le monde
universitaire afin de les appliquer à Wall Street, où elles pourraient servir à résoudre
des problèmes pratiques. Ses contributions au secteur financier lui ont valu le prix
Deutsche Bank en économie financière en 2015. D’après ses collègues, le professeur
Ross tenait avant tout à bien faire ses recherches, même si cela impliquait de mettre à
jour ou de modifier ses modèles pour les améliorer. Le professeur Ross a également
fondé plusieurs entreprises, notamment Ross, Jeffrey & Antle, une société de conseil
en investissements à Darien, dans le Connecticut, spécialisée dans l'utilisation
d'options pour renforcer la performance de portefeuilles institutionnels. Il a été
également conseiller auprès d'organismes gouvernementaux, notamment l'Internal
Revenue Service, le Département du commerce et le Trésor. Il a été président de
l'American Finance Association en 1988 et, à un moment donné, président du comité
consultatif d'American Express.
Le professeur Ross est décédé le 3 mars 2017 à son domicile à Old Lyme,
Connecticut. Il avait 73 ans.
La théorie des signaux en finance de l’entreprise 1977 :
L’idée de base de cette théorie est que les dirigeants possèdent des informations
privilégiées, alors qu’il est supposé que les investisseurs disposent d’une information
pure et parfaite sur l’activité de l’entreprise. Donc, l’information de la qualité de
l’entreprise est transmise à travers la structure financière choisie par les dirigeants,
tenant compte de certaines modalités de leurs rémunérations.
Selon Ross, les dirigeants ont un accès privilégié à l’information sur les flux futurs
anticipés, et donc doivent émettre des signaux sans ambiguïté sur les perspectives de
l’entreprise.
Cette approche se base sur la clarté du signal ainsi que sur l’efficacité du système de
rémunération et de sanction afin de ne pas mentir, et donner un signal erroné, par les
dirigeants, sur la bonne qualité de l’entreprise.

Le modèle APT (Arbitrage Pricing Theory) :


Le modèle d’évaluation par arbitrage a été conçu à l’origine par Ross en 1976, comme
une alternative au modèle d’équilibre des actifs financiers (MEDAF). Ross a tenté de
mettre en place un modèle d’évaluation des actifs financiers dans lequel le portefeuille
du marché n’intervient pas, et de façon plus générale, qui n’est pas basé sur l’équilibre
des actifs financiers.
Le modèle Ross repose essentiellement sur l’hypothèse selon laquelle un modèle
statistique, appelé modèle factoriel, décrit les rentabilités des actifs financiers. Cette
dernière hypothèse indique en particulier que plusieurs facteurs économiques, disons
K, influencent l’ensemble des rentabilités des actifs financiers.
Se fondant dans un premier lieu sur cette hypothèse, et en second lieu sur le fait qu’il
existe un grand nombre d’actifs financiers, ainsi sur le principe d’arbitrage qui est une
application de la loi du prix unique selon laquelle deux biens identiques, ici des actifs
financiers, doivent avoir le même prix, Ross en déduit la relation d’évaluation du
modèle d’arbitrage.
Cette relation indique qu’il existe un lien ou bien une relation linéaire entre la
rentabilité espérée d’un actif et les coefficients de sensibilité de cet actif aux différents
facteurs communs influençant l’ensemble des actifs financiers.

Fischer S. Black etMyron S. Scholes: L’évaluation des actifs conditionnels


FISHER BLACK
Né en (1938-1995), Black, reçoit une formation en mathématiques à l’Université de
Harvard, d’abord en vue d’un diplôme de Bachelor (licence) en 1959 puis d’un
doctorat (Ph.D) en 1964.
Bien que mentionné en physique son Bachelor est tourné vers la mathématique et la
psychologie. Ces prémisses l’orientent vers l’étude du raisonnement humain et de la
décision et, tout naturellement, il suit des cours et des séminaires doctoraux en
recherche opérationnelle, la discipline reine de l’époque par laquelle sont passés
nombre de grands économistes et la
plupart des prix Nobel d’économie. L’arrivée des ordinateurs vers 1960 suscite
l’apparition d’une nouvelle discipline, l’intelligence artificielle, et Black présente sa
thèse en 1964 sous le titre « Un système déductif de réponses à des questions ». Il
s’intéresse fortement en particulier aux modèles d’équilibre des économistes et
cherche à en voir la traduction sur les marchés financiers.
Vers 1968, il commence à réfléchir au problème de l’évaluation des warrants à partir
de développements effectués par Jack Treynor sur l’évaluation d’un flux de
cash-flows en temps continu.
La contribution principale de Fischer Black qui demeure dans l’histoire de la finance
et qui lui a valu citation lors de l’attribution du Nobel 1997, est constituée par la
formule qu’il a établie en association avec Myron Scholes. Mais outre cette
contribution, Black a laissé à la communauté financière quelques autres textes
importants qui révèlent un esprit original, éclectique, capable de poser et de discuter à
la fois des questions de pure théorie et des problèmes d’applications.
Myron Scholes, de nationalité américaine, est né au Canada à Timmins dans l’État de
l’Ontario,le 1er juillet 1941. Pendant la crise de 1929, son père avait ouvert un cabinet
dentaire dans cette région riche en mines d’or.
Ce sont ses parents qui, très tôt, lui donnent le goût pour l’économie financière. Sa
mère qui adorait les affaires, ne cesse de lui répéter que son avenir est tout tracé, dans
l’entreprise d’édition d’un de ses oncles. Dès la fin de ses études secondaires, il
boursicote et devient obnubilé par les causes des fluctuations des prix des actions,
mais ses recherches sont vaines malgré la lecture qu’il entreprend de nombreux
ouvrages consacrés aux secrets des placements rentables, comme il en existait déjà
beaucoup à cette époque en Amérique du Nord. Il s’inscrit à l’Université de
McMaster pour entreprendre ses études de Bachelor of Arts, Avec une majeure en
économie, dont il sort diplômer en 1962. Dès cette époque et sur la recommandation
d’un de ses professeurs, il se plonge dans les travaux de George Stigler et Milton
Friedman, futurs prix Nobel d’économie. Au lieu de poursuivre ses études, il décide
de se conformer aux souhaits de sa mère, et de rejoindre son oncle dans les affaires,
tout en suivant en parallèle des cours à la prestigieuse Université de Chicago.

MYRON SCHOLES:
Myron Scholes est nommé, en 1970, professeur assistant au département finance de la
Sloan Scholes of Management du MIT, où il fait rapidement la connaissance de
Fischer Black, alors consultant chez Arthur D. Little à Cambridge. Ensemble, ils se
lancent dans une fructueuse collaboration sur de très nombreux sujets, dont la
fameuse formule d’évaluation des options.
Robert Merton rejoint leur groupe au MIT et tous les trois s’intéressent aux
déterminants du prix des actifs financiers et à l’évaluation des options, des produits
dérivés et à l’extension de celle-ci aux instruments de financement par Dette des
entreprises. En 1972, Fischer Black est nommé professeur à Chicago et Myron
Scholes le suit.
À partir de 1973, Scholes s’investit totalement dans le CRSP, qui développe une vaste
base de données boursières historiques américaines, où il fait fructifier ses
compétences informatiques et dirige de nombreuses recherches, qui feront de Myron
Scholes l’un des chercheurs empiriques les plus prolifiques de son temps.
Le résultat le plus important et le plus connu des travaux de Black est l’établissement
d’une formule d’évaluation d’une option d’achat (européenne, c’est-à-dire ne donnant
lieu à exercice qu’à l’échéance). Elle est présentée dans un article écrit avec Myron
Scholes (Black et Scholes,1973) dans le Journal of Political Economy. Cette revue
n’était pas tournée vers la formalisation mathématique rigoureuse des modèles
économiques.
Il faut cependant mentionner que les auteurs ne partaient pas de rien. Un travail
préparatoire avait été accompli par Black lui-même, qui s’était plongé dans la
littérature des options (ou plutôt des warrants) dès 1965. En effet, la recherche d’une
évaluation des warrants avait été très active dans les années soixante et plusieurs
auteurs avaient abouti à des formules.
Celle que Sprenkle (1961) avait établie dans sa dissertation doctorale à Yale était
presque identique à celle de Black et Scholes, mais elle comportait un paramètre
inconnu difficile à évaluer et qui la rendait pratiquement inutilisable.
L’incontournable Samuelson (prix Nobel d’économie en 1970) avait lui-même
produit une théorie des warrants aboutissant à une formule
semblable et, déjà, il s’appuyait pour cela sur une annexe mathématique écrite par
Henry McKean, alors professeur au MIT puis professeur à l’Institut Courant de
l’Université de New York ; cette annexe s’intitulait A Free Boundary Problem for the
Heat Equation...
La limite de ces approches lui semblait tenir à la recherche d’une formule par
application d’une technique basée sur l’actualisation (la valeur actuelle nette) qui
demandait l’estimation d’un taux d’actualisation inconnu et qui supposait la
connaissance de l’espérance de rentabilité du titre sous-jacent.
L’idée-clé pour Black (il la tenait de Jack Treynor) fut de décider que la formule du
prix d’un warrant ne devait dépendre que du prix du sous-jacent observé à l’instant de
l’évaluation, du délai d’éloignement de la maturité, et d’autres facteurs observables à
cet instant.
Un warrant est un produit dérivé, généralement émis par les banques. Ce produit
possède un effet de levier qui donne à l'investisseur la possibilité d'avoir des gains
élevés mais en augmentant fortement le risque.

En effet, l'effet de levier augmente la sensibilité aux variations


du sous-jacent (du cours d'un actif). L'investisseur achetant un warrant, possède le
droit,sans obligation d'acheter ou de vendre une quantité prédéfinie d'un actif à un
prix fixé à l'avance (Prix d'exercice ou "strike"), à tout moment ou à une date
d'échéance (prédéfinie). En effet alors qu'on peut se séparer d'un warrant américain à
tout moment, on ne se sépare du warrant européen qu'à l'échéance du contrat. Le
fonctionnement du warrant est presque similaire à celui des options.
Mais dans ces travaux préparatoires, Black ne mettait pas en avant directement la
notion d’arbitrage. Il postulait une volatilité constante de la rentabilité du sous-jacent
(distribution log-normale sur le prix). Son raisonnement consistait à appliquer à
chaque instant le CAPM (Capital Asset Pricing Model) pour établir une liaison (une
équation différentielle) entre le taux de rentabilité du warrant, le temps et le prix du
sous-jacent. Le taux sans risque apparaissait ainsi au travers du CAPM. Mais Black ne
sut pas résoudre l’équation.
Cette équation a fait disparaitre la distinction classique entre risque systématique
(rentabilité) et risque spécifique (propre au titre). Le prix du warrant ne dépendait que
du risque total
(volatilité) et pas de l’espérance de rentabilité du sous-jacent, le risque spécifique ne
pouvait donc pas entrer en jeu dans la définition de la prime de risque des actions car
il était diversifiable.
Ceci pouvait aussi paraître très surprenant à cette époque : cela signifiait qu’il ne fait
aucune différence d’avoir en main un warrant sur une action à haute rentabilité (donc
à fort risque
systématique) ou sur une action à faible rentabilité (donc à faible risque
systématique).
La rencontre entre Fischer Black et Myron Scholes intervint en 1969. Scholes était
professeur au MIT et Black opérait près de Boston dans son cabinet de consultants.
Ayant tous deux
travaillé auparavant sur les warrants, ils décidèrent de partager leurs réflexions.
L’équation différentielle était donc connue des auteurs comme on l’a mentionné, mais
Black et Scholes ne partirent pas de cette équation pour établir la formule. Puisque le
prix de l’option semblait indépendant du risque systématique, ils se demandèrent ce
qui se passait avec un sous-jacent, certes volatil, mais sans risque systématique (son
bêta est donc nul et sa rentabilité égale
au taux sans risque).

L’option étant (localement) quasi parfaitement corrélée avec le sous-jacent, le taux de


rentabilité de l’option devait être le taux sans risque et c’est celui-ci qu’il fallait
injecter dans la formule de Sprenkle comme taux d’actualisation des deux actifs. Cette
idée fut leur eurêka.
Celui-ci vint sur le devant de la scène après que Black et Scholes eurent longuement
discuté avec Robert Merton qui recherchait aussi une formule d’évaluation des
options. Ce fut lui qui
suggéra que l’on pouvait établir un portefeuille d’arbitrage (quasiment sans risque et
sans mise de fonds) à condition de le réajuster de façon continuelle (il fallait donc
négliger les coûts de
transaction) et que cet arbitrage conduisait à l’équation différentielle.
Sur le plan théorique, Myron Scholes est, bien entendu, et avant tout connu pour le
développement de ce dernier, le modèle d’évaluation des Options, qu’il a inventé en
collaboration avec Fischer Black et parallèlement à Robert Merton et qui constitue
l’une des avancées les plus spectaculaires de l’économie financière des vingt
dernières années.
Ce modèle se caractérise par une formule qui est une équation différentielle et qui est
à la base du premier titre donné par les auteurs à leur travail « A Theoretical
Valuation Formula for
Options, Warrants and other Securities ». Soumis pour publication en octobre 1970 et
d’abord rejeté par le Journal of Political Economy, celui-ci devait finalement
l’accepter, près de troisans plus tard seulement sous son titre définitif « The Pricing of
Options and Corporate
Liabilities ».
L’intuition économique à la base de cette formule est simple. Supposons qu’il existe
une
formule qui dit que la valeur d’une option d’achat dépend du prix de l’action support
du contrat
d’option, de la volatilité de l’action, du prix d’exercice du contrat et de sa date
d’échéance, et
du taux d’intérêt. Une telle formule permet de déterminer, entre autres, de combien le
prix de
l’option change lorsque se produit une légère modification du prix du support pendant
un court
intervalle de temps. Il est alors possible de créer une position couverte sans risque en
vendant
deux contrats d’options et en achetant une action support au contrat d’option. Au fur
et à mesure
que le prix de l’action support se modifie et que l’option se rapproche de son
échéance, le ratio
du nombre d’options et d’actions nécessaire pour maintenir sans risque la position se
modifie.
Pour rester dans un état de couverture parfaite, il faut alors modifier, soit le nombre
d’actions,
soit le nombre d’options, soit les deux. Comme cette position est sans risque, elle ne
peut
rapporter dans des marchés à l’équilibre que le taux sans risque. Ce seul principe
aboutit à la
formule d’évaluation des options de Black et Scholes. De fait, il n’existe qu’une seule
formule
pour la valeur d’une option qui a pour propriété que la rentabilité d’une position
couverte en
options et en actions est toujours égale au taux sans risque. Le même raisonnement
s’applique
pour une couverture renversée – achat d’options et vente à découvert d’actions
support ou même
pour un écart vertical en options. En fait, on aboutit à la même formule sans
couverture, en
construisant une position acheteur en actions et une position acheteur en options
d’achat de telle
sorte que les variations de valeur des deux soient semblables pour une faible variation
du prix de l’action.
Black & Scholes démontrent qu'il est possible de prendre position sur les options sans
tenir compte, notamment, de la rentabilité de l'action. Le prix de l'option dépend du
prix du sous-jacent et du temps. L'idée est d'utiliser ce résultat pour constituer un
portefeuille financier qui sera dit "sans risque". Pour constituer un portefeuille qui
demeure sans risque, il est nécessaire
de réajuster sa composition en permanence, car à mesure que le prix de l'action varie
et que l'échéance de l'option s'approche le "Delta" (mesure de la sensibilité d'une
option aux variations
du cours du sous-jacent) se modifie. Le rendement du portefeuille ainsi immunisé
contre le risque, doit être égal à celui d'un actif sans risque (identifiable à un bon du
Trésor, autrementdit une obligation d'Etat). Dans le cas inverse, les investisseurs
profiteraient de la différence de
taux pour réaliser un arbitrage.

-L’étude empirique de 1972:


Black et Scholes utilisèrent leur formule à deux fins : l’une pour tenter de gagner un
peu d’argent, mais ils en furent pour leur mise en raison de diverses imperfections des
marchés d’options qu’ils ne surent identifier (ce qui arrive classiquement aux
économistes, souvent sujets au biais de surconfiance bien connu des psychologues) et
l’autre pour tester sa validité par une étude empirique (Black et Scholes, 1972).
-Le CAPM et l’efficience des marchés :
Les travaux de Black les plus cités dans les années soixante-dix portaient sur le
CAPM et les théories de l’efficience. Les deux thèmes sont d’ailleurs très liés puisque
le comportement passif
de diversification qui est à la source du CAPM n’a de sens que dans un marché
efficient et tout test du CAPM peut être vu comme un test d’efficience (un marché
inefficient fait échouer un
test du CAPM ; il s’agit d’hypothèses liées).
Sur le CAPM les titres à faible bêta semblent offrir une performance meilleure que les
titres à fort bêta, après correction du risque. Cherchant alors à expliquer cette
anomalie, il corrige le
CAPM en faisant l’hypothèse qu’il existe des restrictions sur la possibilité
d’emprunter (pour investir en titres risqués, car il faut alors offrir des garanties via des
appels de marges par
exemple) et il montre que cela peut expliquer l’anomalie.
Cette version du CAPM, souvent désignée comme le modèle SLB (Sharpe, Lintner et
Black) est fréquemment citée dans la littérature subséquente et en particulier par Fama
et French dans
leurs travaux des années 1990. Black publiera d’autres travaux en relation avec le
CAPM sur l’efficience des marchés. Celle-ci est généralement mal accueillie par les
praticiens puisqu’elle
ne leur reconnaît aucune efficacité dans la gestion active des portefeuilles. Parmi ces
textes, une mention spéciale peut être attribuée à un article écrit en collaboration
encore avec Myron
Scholes (Black et Scholes, 1974). La théorie financière nous dit que chaque
investisseur va détenir un portefeuille composé de deux actifs seulement : l’actif sans
risque d’une part, le
portefeuille de marché de l’autre. Ceci suggère aux sociétés financières de créer des
fonds mutuels (des SICAV) qui répliquent ce portefeuille de marché. Dans ce papier,
les auteurs
entendent montrer et discuter les obstacles rencontrés dans un tel projet. Ils sont de
plusieurs ordres : institutionnels, réglementaires, fiscaux, managériaux et
organisationnels. Il s’ensuit que le coût d’innovation d’un tel produit financier est plus
élevé qu’il n’y paraît à première vue.
Mais Black et Scholes paraissent optimistes et voient cette création comme inévitable.

D’une certaine manière, près de quarante ans plus tard, le succès des fonds trackers
(Exchange Traded Funds ou ETF) dans le monde, qui, comme leur nom l’indique, ne
cherchent pas à battre l’indice, mais simplement à le suivre, valide leur prédiction.
Il est intéressant de noter aussi dans cet article l’introduction de différents types
d’acteurs sur les marchés. À côté des investisseurs rationnels qui croient à l’efficience
et suivent les prescriptions de la théorie, il faut introduire les joueurs (gamblers) qui
aiment l’investissement risqué, les « allumés » (fools) qui croient opérer sur la base
d’informations pertinentes et qui ne font que produire d’inutiles transactions.
-Fonds et gestion de portefeuilles:
Ayant commencé sa carrière de financier confronté à des problèmes de mesure de
performance,Black restera en contact avec ce domaine de la recherche durant toute sa
carrière. Entre 1970 et
1995, il produit des dizaines d’articles et notes sur la gestion des portefeuilles. On a
cité précédemment l’article écrit avec Scholes (Black et Scholes, 1974) et dans lequel
ils examinent
la possibilité d’un fonds appliquant les préceptes de la théorie financière (mixage d’un
actif sans risque et du portefeuille de marché et gestion passive).
De façon récurrente, Black étudie les impératifs que l’efficience postulée des marchés
fait peser sur les gestionnaires de fonds et s’interroge fréquemment sur les minces
possibilités de battre
le marché. Pourtant, les gestionnaires se montrent assez systématiquement
sur-confiants dans leur habileté à battre le marché. Black s’est interrogé à plusieurs
reprises sur cet excès de trading (cf. son discours de président de l’AFA, de 1993,
évoqué précédemment). Mais son expérience pratique l’amènera à ne pas rejeter de
façon définitive la possibilité de stratégies
d’investissement actives selon des modalités plus élaborées.
Dans la veine de ces préoccupations, il faut signaler aussi le regard qu’a porté Black
sur l’information comptable, qui est la principale source d’information sur laquelle les
analystes
fondent leurs anticipations et dispensent leurs recommandations aux gestionnaires.
-Portefeuille international et couverture des risques de change:
Black s’intéresse aussi à la théorie de l’investissement transfrontière et à la couverture
des risques liés à la fluctuation relative des monnaies dans les portefeuilles
internationalement
diversifiés.
Il démontre une propriété de couverture appelée universal hedging (chaque
investisseur couvre chacun de ses investissements dans les différentes monnaies dans
la même proportion).

Et il formalise le problème de l’investisseur qui minimise un risque total sous


contrainte d’une espérance de rentabilité et, écrivant les conditions de maximisation
sous contrainte, il rétablit
et discute le « paradoxe de Siegel » selon lequel les investisseurs ne considèrent pas le
risque de change comme un risque nuisible qu’il faut couvrir à 100 %, mais comme
un risque susceptible de procurer un excès de rentabilité, comme n’importe quel titre.

Robert C. Merton: L’introduction du temps continu dans la théorie financière


moderne
Robert C. Merton, né le 31 juillet 1944 à New York, après avoir obtenu son
baccalauréat en mathématiques pour l’ingénieur à Colombia en 1966,et son Master en
mathématiques appliquées à California en 1967. Il a commencé sa carrière
universitaire à la
MIT Sloan School of Management, où il est successivement professeur assistant
(1970-1973), puis professeur jusqu’en 1988.
C’est un économiste américain connu pour avoir appliqué les mathématiques
aléatoires en temps continu, il a fait une thèse d’économie au MIT sous la direction de
Paul Samuelson. Il a été
professeur au même MIT et plus tard à Harvard.
Il a reçu avec Myron Scholes le prix Nobel en 1997 pour sa participation à la
conception du modèle de Black et Scholes de valorisation des options. Il est le fils du
sociologue Robert King
Merton. En 2010, Robert reçoit la médaille Kolmogorov pour son travail sur la
finance. Il a été le premier à publier un article développant l’aspect mathématique
d’un modèle d’évaluation
d’option en citant les travaux de Fischer Black et de Myron Scholes. Ceux-ci publiés
en 1973, se fondent sur les développements de théoriciens comme Paul Samuelson.
Les apports de l’auteur:

- La valorisation des options


En finance, une option est un produit dérivé qui établit un contrat entre un acheteur et
un vendeur. L’acheteur de l’option obtient le droit et non pas l’obligation, d’acheter
(call) ou ventre (put) un sous-jacent à un prix à l’avance (Strike), pendant un temps
donné à une date fixée.
Cette théorie repose sur l’hypothèse d’un marché du capital parfait c’est-à-dire un
marché efficient où tous les acteurs peuvent agir en fonction de la même information
connue de tous,autrement dit, un marché où la concurrence est parfait entre chaque
acteur composant. Ainsi sur la rationalité des intervenants ou cotation continue des
actifs.
L’apport des modèles de Black-Scholes-Merton en 1973 a permis l’évaluation des
actifs les plus simples aux plus complexes dans un cadre unifié.
Cette évaluation est établie en fonction du prix de son actif sous-jacent, cette
valorisation est fait sous un modèle d’équilibre partiel qui suppose que l’action ou
bien le sous-jacent est bien
évalué. Mais cette évaluation dépend de plusieurs conditions idéales de
fonctionnement de marché financiers. Ces conditions sont supposées vérifiées sous
l’hypothèse de marché efficient
ou bien parfait.
- Evaluation du risque des dettes
La théorie des actifs contingents combine les enseignements de la théorie dynamique
du portefeuille avec ceux de la théorie des options. Elle constitue l’un des outils
privilégiés de la
finance moderne, et peut être appliquée à des sujets très divers dont par exemple la
finance d’entreprise et la finance bancaire.
L’application au risque de défaut des titres financiers de l’entreprise a étendu
l’analyse développée par Black et Scholes et a évalué des dettes à l’aide des mêmes
hypothèses. Grâce
aux nouveaux outils présentés, Merton renouvelle complètement l’approche liée au
risque de défaut, approfondit son analyse et réussit à quantifier explicitement les
primes de risque.
Merton définit la structure des primes de défaut en fonction de diverses échéances.
Pour une maturité donnée, la prime de risque dépend seulement de deux variables :
1.la volatilité associée aux actifs de la firme (son niveau de risque des affaires)
2.le ratio de la valeur présente d’une dette équivalente sans risque à la valeur des
actifs de la firme.
Joseph E. Stiglitz: L’introduction du paradigme informationnel en finance
Joseph Stiglitz, né le 9 février 1943 à Gary, est un économiste américain. Il reçoit
en 2001 le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred
Nobel, pour un travail commun avec George Akerlof et Michael Spence. Il est l’un
des fondateurs et des représentants les plus connus du « nouveau keynésianisme ». Il
acquiert sa notoriété populaire à la suite de ses violentes critiques envers le FMI et
la Banque mondiale, émises peu après son départ de la Banque mondiale en 2000,
alors qu’il y est économiste en chef.
Après sa licence au Amherst College, il obtient une bourse pour préparer son doctorat
(1967) au Massachusetts Institute of Technology (M.I.T.).

Ses projets de recherche intéressent plusieurs fondations qui financent ses travaux en
même temps qu’il enseigne la
politique économique au All Souls College d’Oxford. Il obtient un poste de
professeur-assistant (1966-1967) à l’université de Yale.
D’abord professeur associé, c’est à l’âge inhabituel de 27 ans qu’il devient titulaire de
son poste (1970-1974). Il va continuer sa carrière en étant successivement professeur
à Stanford (1974-1976), Oxford ((1976-1979) et Princeton (1979-1988). Il reçoit, en
1979, la médaille John Bates CLARK (délivrée par l’American Economic Association
pour récompenser le meilleur économiste américain de moins de 60 ans).
En 1988, il revient à Stanford. En 1993, il devient le président du Conseil des
consultants économiques du président Bill CLINTON. De 1997 à 1999, il est
économiste en chef de la Banque mondiale.
Depuis 1999, il est professeur à la Columbia Business School, à New York. Ancien
conseiller à la Maison blanche sous l’administration Clinton, Joseph Stiglitz a
récemment exercé à la Banque Mondiale au redoutable poste d’économiste en chef. Il
a quitté ses fonctions en novembre 1999, officiellement pour se consacrer à
l’enseignement.
L’Américain Joseph Stiglitz, remis conjointement à deux de ses compatriotes, pour
des recherches sur le poids de l’information des individus dans les processus
économiques.
Les trois lauréats du prix de sciences économiques à la mémoire d’Alfred Nobel,
Joseph Stiglitz (58 ans), George Akerlof (61 ans) et Michael Spence (58 ans), ont été
récompensés pour leurs travaux sur les marchés avec asymétrie d’information
c’est-à-dire sur les différences d’informations détenues par certains agents
économiques par rapport à leurs contreparties.
Entre-temps, Stiglitz s’impose comme étant un grand théoricien et fait siens des sujets
comme les causes et conséquences des inégalités, la persistance du chômage, la
fréquence des crises financières. Cependant, Joseph Stiglitz oriente plus son attention
vers l’asymétrie d’information. Un thème qui fera de lui un des fondateurs de
l’économie de l’information.
-La genèse d’une pensée:
La genèse de la pensée de Stiglitz s’enracine dans une analyse fine de questions
économiques étudiées lors d’un séjour au Kenya, de 1969 à1971, alors qu’il était tout
jeune professeur visitant à l’Université de Nairobi, et auxquelles le modèle
néoclassique ne lui semblait pas apporter de réponse satisfaisante.
Accueilli par l’Institute for Development Studies, Stiglitz démarre un projet de
recherche sur l’analyse du métayage.
Remarquant que, dans la relation entre le propriétaire du champ et le métayer, il existe
une asymétrie d’information portant sur le niveau d’effort déployé par le métayer
génératrice d’un aléa moral, il développe un modèle principal-agent qui conclut que le
contrat de métayage est la combinaison d’un contrat de location et d’un contrat
d’assurance par lequel le propriétaire accorde un rabais au métayer en cas de récolte
faible. La part de contrat d’assurance intégrée au contrat de métayage vient suppléer
dans le contexte d’un pays en développement l’impossibilité d’assurer le risque de
fluctuation. Des récoltes, ce qui l’amène alors à s’interroger sur les raisons fondant
l’absence ou les échecs de marchés.
Asymétrie d’information, antisélection, aléa moral, incitations, échecs ou
dysfonctionnements de marchés, tels sont les concepts qui seront au cœur des
recherches de Stiglitz, qui le conduiront à développer un paradigme alternatif au
modèle néoclassique 1 et qui aboutiront à ce qu’il soit distingué en 2001, en même
temps que George Akerlof et Michaël Spence, par le jury du Prix de la Banque de
Suède en sciences économiques en mémoire d’Alfred Nobel.
-Le paradigme informationnel:
Le paradigme informationnel a modifié en profondeur les résultats acquis de la
finance moderne. Alors que la structure financière était supposée ne pas avoir
d’impact sur la valeur de la firme, les décisions financières (dividendes, choix de
structure financière, choix de modalités contractuelles) sont prises par des agents
économiques informés, conscients qu’elles seront aussi interprétées par d’autres
acteurs du marché, moins
informés, et ont une incidence, dès lors, sur la valeur de la firme. Alors que
l’hypothèse d’information parfaite aboutit à ce que la frontière des portefeuilles
efficients soit la même pour tous les acteurs du marché financier, l’invalidation de
cette hypothèse détruit le modèle d’évaluation des actifs financiers.
La richesse du paradigme informationnel construit par Stiglitz se mesure à l’aune de
l’importance de ces remises en cause et de ces questionnements. Avec Stiglitz et ses
coauteurs émergent les concepts (anti-sélection, aléa moral, échecs de marché,
rationnement) qui participeront à la construction d’un paradigme nouveau.
Par l’analyse qu’il développe du marché de l’assurance et celui du crédit, Stiglitz
apporte des contributions majeures à la finance. Il démontrera, dans la lignée des
travaux d’Akerlof, que des marchés à forte asymétrie d’information fonctionnent mal,
voire ne fonctionnent pas. Il sera à l’origine de la compréhension des déséquilibres sur
un marché du crédit caractérisé par une trop forte asymétrie d’information. Ces
déséquilibres ne sont pas temporaires, fruits de chocs externes qui, en se résorbant,
s’accompagneraient d’un rééquilibrage validant la loi de l’offre et de la demande.
Stiglitz montre ainsi que la loi de l’offre et de la demande peut être durablement
invalidée et que l’équilibre qui en résulte est paradoxalement un déséquilibre
persistant. Sur le marché de l’assurance, Stiglitz montrera que les assureurs peuvent
extraire de l’information en offrant des contrats séparant, associant par exemple un
certain niveau de franchise à la prime d’assurance, et structurés de telle manière que
le choix d’un contrat donné dans un menu révèle à l’assureur l’information utile pour
une tarification actuariellement équitable du contrat.
-L’asymétrie d’information:
Avant l’avènement de modèles d’informations imparfaites et asymétriques, les
néoclassiques traditionnels prétendaient que les marchés sont efficaces, mais cette
efficacité était limitée par certaines défaillances du marché connues et étudiées. Des
travaux plus récents réalisés par Stiglitz et d’autres économistes 4 remirent en cause
cette affirmation, afin d’avancer que l’efficacité des marchés n’est qu’exception et
non commune situation.
L’asymétrie d’information permet d’analyser des comportements et des situations
courantes de l’économie de marché. Le plus clair du temps, on constate que sur un
marché, un des deux acteurs dispose d’une meilleure information, il en sait plus que
l’autre sur les conditions de l’échange (qualité du produit, travail fourni…). Cela peut
mener à des abus de position, des problèmes d’anti-sélection et des risques moraux.
L’asymétrie d’information vient totalement contredire le modèle de la concurrence
pure et parfaite (CPP). Effectivement, dans le modèle de la CPP, nous émettons
l’hypothèse que les agents économiques sont parfaitement informés (qualité des biens
/ des travailleurs, prix ainsi de suite). Or, sur les marchés réels, que ce soit le marché
du travail,le marché des biens ou encore le marché des services, l’information est
imparfaite. Des individus rationnels qui maximisent leur utilité, sont donc prêts à
avoir des comportements opportunistes qui risquent de compromettre le
fonctionnement efficace du marché.
En effet, on peut distinguer deux situations d’information asymétrique : d’une part
l’anti sélection, appelée aussi sélection adverse, où le marché est perturbé par le fait
qu’une partie connaît mieux les caractéristiques du bien échangé au moment de la
signature du contrat et d’autre part, l’aléa moral qui est une situation dans laquelle une
des parties ne peut contrôler l’action de l’autre partie.
Richard Roll: La critique du modèle d’équilibre des actifs financiers
RICHARD ROLL: Biographie.
Richard Roll ,né le 31 octobre 1939, est un économiste américain, principalement
connu pour ses travaux sur la théorie des portefeuilles et la tarification des actifs, à la
fois théoriques et empiriques.
Il a obtenu son baccalauréat en génie aéronautique de l'Université Auburn en 1961 et
son M.B.A en 1963 à l'Université de Washington alors qu'il travaillait pour Boeing à
Seattle (Washington). En 1968, il a obtenu son doctorat. de la Graduate School of
Business de l’Université de Chicago en économie, finance et statistiques.
Son doctorat «Le comportement des taux d’intérêt:
application du modèle de marché efficace aux bons du
Trésor américains», a remporté le prix Irving Fisher du
meilleur mémoire américain en économie en 1968.
L’un des fondateurs des études d’événements (Fama et al., 1969), Roll a co-écrit la
première étude sur les événements qui visait à analyser la manière dont les cours des
actions réagissaient à un événement en 1969 en utilisant les données de prix de la
nouvelle base de données CRSP disponible. Roll a co-écrit des articles importants
avec Stephen Ross, Eugene Fama, Michael Jensen et Kenneth French.
Roll a occupé le poste de professeur adjoint à l'Université Carnegie-Mellon en 1968, a
été professeur à l'Institut européen des hautes études en gestion en 1973 et au Centre
d'enseignement supérieur des affaires en 1975. En 1976, Roll a rejoint la faculté
d'UCLA où il reste titulaire de la chaire Alumni du Japon, professeur de finance. En
1987, Roll a été élu président de l’American Finance Association. Il a publié plus de
80 articles
professionnels.
Parmi ses meilleurs articles, on trouve:
- “A Critique of the Asset Pricing Theory’s Tests”, (Roll, 1977),
- “Orange Juice and Weather” (Roll, 1984).
- “The Hubris Hypothesis of Corporate Takeovers” (Roll, 1986)

La Critique du MEDAF
Appelé « Capital Asset-Pricing Model» le modèle d'équilibre des actifs
financiers(MEDAF) de Sharpe (1964), Lintner (1965), Mossi (1966) et Black (1972)
est l'un des résultats centraux de la théorie financière moderne il constitue l'un des
paradigmes
dominants de la finance moderne depuis sa validation empirique par Black, Jensen et
Scholes (1972) et par Famad et Macbeth (1973). Ce modèle est incontestablement le
modèle d'évaluation le plus connu et utilisé menant à une conclusion facilement
compréhensive, à savoir la rentabilité moyenne d'un actif financier est d'autant plus
importante que le bêta est élevé. Il existe donc une relation linéaire entre les
rentabilités espérées excédentaires (par rapport au taux sans risque) de chaque titre et
la rentabilité
espérée excédentaire du marché. Ce portefeuille du marché dont la construction relève
des modèles de décision de portefeuille a pour représentation approximative, l'indice
boursier. Le MEDAF est un Modèle qui explique les taux de rentabilité des différents
actifs, en fonction de leur risque.
Le modèle d'évaluation des actifs financiers MEDAF.
Les critiques adressées au MEDAF
Le modèle pose des hypothèses trop simples (possibilité d'investir et d'emprunter au
taux sans risque ; existence d'actifs uniquement financiers ; fiscalité homogène entre
actifs ;
pas de coûts de transaction...)

Il est difficile, voire impossible, de déterminer le « vrai » portefeuille de marché i.e.


celui qui contient tous les actifs risqués (actions, obligations, matières premières,
immobilier,
capital humain, etc.)
Il existerait plusieurs Betas pour une valeur, chacun rendant compte de la sensibilité à
un facteur macroéconomique (principe de l 'Arbitrage Pricing Theory)
Mais le raisonnement fondamental tient toujours : les primes de risque sur les titres
dépendent de risques systématiques supportés par tous
La Critique de ROLL:
La critique se résume de la façon suivante : la validation du MEDAF repose sur
l'identification du portefeuille de marché. Ceci doit contenir tous les titres possibles, y
compris les valeurs immobilières, le capital humain, etc. Le vrai portefeuille de
marché n'est pas observable.Et il est d'ailleurs presqu'impossible de trouver un
portefeuille qui soit une bonne approximation au portefeuille de marché. Si on réussit
a trouver un portefeuille qui est dans le vrai EVM, il existe forcement une relation
linéaire entre le rendement espéré des titres et leurs facteurs beta calculés par rapport
a ce portefeuille.Donc, la théorie est tautologique.
Le MEDAF peut être automatiquement vérifié; Si on choisit comme portefeuille de
marché, un portefeuille efficient, en établissant le résultat théorique, on se rend
compte qu’il est toujours parfaitement vérifié si l’on utilise le portefeuille tangent.
On ne peut donc tester que l’efficience de l’indice S&P500.
la validation apparente de l'hypothèse de linéarité par les tests des années 70, n'est
qu'une conséquence mathématique plus que toute autre chose. En effet, si le
portefeuille figurant dans la spécification du MÉDAF, est choisi sur la vraie frontière
moyenne-variance efficiente (qui peut être estimée), alors il existe déjà par
construction, nonobstant toute considération d'ordre statistique, une relation linéaire
entre le rendement espéré des titres et leur coefficients du combinaison linéaire
estimé.
Roll (1977) a prouvé le caractère non testable des implications théoriques du MEDAF.
Il a mit en évidence deux difficultés importantes :
Observabilité du portefeuille:
la validation du MEDAF repose sur l'identification du portefeuille de marché. Ceci
doit contenir tous les titres possibles, y compris les valeurs immobilières, le capital
humain, etc. ROLL a remarqué que Le portefeuille Du marché n'est ni observable, ni
approximable; Le vrai portefeuille de marché n'est pas observable.
Il est d'ailleurs presque impossible de trouver un portefeuille qui soit une bonne
approximation au portefeuille de marché. en guise d`exemple aux US, 1/3 des actifs
tangibles propriété d’entreprises, 1/3 des actifs des entreprises est financé par des
actions. On utilise des approximations : indice S&P500, CAC40 Le modèle peut
n’être pas vérifié parce que l’approximation du portefeuille de marché par un indice
est mauvaise.
Tautologie du model du MEDAF:
Avec:
rA et rB sont les taux de rentabilité moyens de deux
portefeuilles efficients quelconques.
Bj sont les coefficients de la combinaison linéaire.
rj est le taux de rentabilité moyen de tout actif j.
Le résultat doit être compris ex post et suppose deux hypothèses relativement faibles:
le taux de rentabilité de tout actif financier est une combinaison linéaire de deux
portefeuilles quelconques pour autant qu’ils se situent sur la frontière efficiente.
Richard Roll indique que, si nous régressons les taux de rentabilité d’un actif financier
donné sur deux portefeuilles d’actifs risqués et si le R2 obtenu est différent de
100 %,cela prouve juste que les deux portefeuilles (ou au moins un des deux) ne sont
pas efficients ex post.
Cela conduit à une critique radicale des résultats des tests empiriques du MEDAF.
Campbell R. Harvey: Les problèmes empiriques rencontrés par les modèles
d’évaluation des actifs financiers dans un cadre national et international
Campbell Russell " Cam " Harvey (né le 23 juin 1958) est un économiste canadien,
connu pour ses travaux sur la répartition de l'actif avec l'évolution du risque et des
primes de risque et sur le problème de la distinction entre chance et compétences en
gestion de placements.
Il est actuellement professeur de commercel international J. Paul Sticht à la Fuqua
School of Business de la Duke University, à Durham, en Caroline du Nord, ainsi que
chercheur associé au National Bureau of Economic Research de Cambridge, MA. Il
est également chercheur.
Associé à l'Institut d'études sur l'intégration internationale
du Trinity College à Dublin et chercheur invité à
L’Université d'Oxford. Il a été président de 2016 de l'American Finance Association.

Sheridan Titman: L’identification de l’effet momentum, un pas important vers


la finance comportementale
Les marchés émergents:
À partir des années quatre-vingt, l’apparition de nouveaux marchés financiers a offert
des opportunités d’investissement inhabituelles. Campbell Harvey et ses coauteurs ont
étudié l’impact de la libéralisation sur la rentabilité, le coût du capital, la croissance
économique et sa volatilité, ainsi que la relation rentabilité-liquidité. Ils ont aussi
examiné quels changements de réglementation sont effectifs et à quelle vitesse ils le
deviennent.
Après avoir identifié la date des libéralisations financières, Bekaert et al.(2001)
examinent l’influence des libéralisations en contrôlant des effets de variables
macroéconomiques et financières. Ils trouvent que les libéralisations sont associées à
la croissance économique réelle, les effets étant plus marqués dans les pays où le
niveau d’éducation est élevé. Cependant, comme l’illustrent Bekaert et al. (2002a), les
effets de la libéralisation ne sont pas immédiats, ce qui illustre le décalage entre la
libéralisation et
l’intégration.
Il est communément admis que la baisse des taux d’intérêt américains a contribué à
accroître
les flux de capitaux vers les pays émergents. Bekaert étudie, à l’aide d’un modèle
VAR (vector autoregression), la façon dont les chocs sur ces flux affectent le coût du
capital. Après
la libéralisation, les flux liés aux actions augmentent de 1,4 % relativement à la
capitalisation boursière. Initialement, la rentabilité augmente (pression sur les prix),
puis décroît, sans
disparaître complètement. La dynamique de la transition (avant/après la libéralisation)
suggère que les capitaux quittent un pays plus vite qu’ils n’y sont entrés, ce qui
explique le
déroulement des crises récentes en Amérique latine et en Asie.

-Volatilité des portefeuilles:


Les études empiriques assimilent souvent les options cotées à des options
européennes payant des dividendes en continu. Harvey et Whaley (1991, 1992)
étudient l’effet de ces approximations sur la valorisation des options sur l’indice
SP100 qui sont des options
américaines payant des dividendes à intervalles discrets. Ils trouvent que les
changements de volatilité implicite sont corrélés, car les prix d’option et la valeur de
l’indice ne sont pas synchrones. La corrélation sérielle est induite par le bid/ask
spread dans le cas où une seule option est utilisée pour estimer la volatilité implicite.
Ces effets conjugués conduisent à des corrélations négatives entre les variations de
volatilité implicite estimées à partir de puts et de
calls. L’hypothèse selon laquelle les variations de volatilité sont imprévisibles est
rejetée.
Néanmoins, alors que le modèle statistique fournit des prévisions précises, Harvey et
Whaley ne parviennent pas à les utiliser afin de construire des stratégies profitables
une fois les coûts
de transaction déduits. Ces résultats sont compatibles avec l’efficience des marchés.
Comment la volatilité est-elle affectée par une cotation continue vingt-quatre heures
sur vingt-quatre ? À partir de données de transaction provenant de contrats futures
cotés sur le Chicago Mercantile Exchange et sur le London International Financial
Future Exchange, Harvey et Huang montrent que la volatilité des taux de change est
aussi plus grande durant les heures
d’ouverture des marchés. Ces conclusions rejoignent celles de French et Roll (1986)
sur le marché des actions. L’analyse journalière et intra-journalière révèle que les
accroissements de
volatilité coïncident avec la communication des nouvelles macroéconomiques
américaines.
StewartC.Myer: L’interaction entre décisions d’investissement et de financement
Biographie
Stewart Clay Myers est un professeur d'économie financière à la MIT Sloan School of
Management, ancien président de l'American Finance Association.
Le professeur Myers a conseillé de grandes entreprises dans le domaine des fusions et
acquisitions, des décisions d'investissement, du financement, de la mesure du coût du
capital et de l'évaluation. Il a comparu en tant que témoin expert dans d'importantes
affaires et procédures réglementaires, notamment sur le coût du capital,l'évaluation de
la rentabilité et de la valeur, les fondements économiques et la conception de la
réglementation du taux de rendement, la propriété intellectuelle, la détermination des
dommages et les questions fiscales. Ses travaux couvrent un large éventail
d’industries, notamment les oléoducs, les télécommunications, les
logiciels, les chemins de fer, les produits pharmaceutiques, les
assurances et les banques.

MYERS ET LA THÉORIE DU COMPROMIS


D’après la théorie du compromis, la valeur de l’entreprise endettée estla somme de la
valeur de l’entreprise non endettée à laquelle il faut ajoutée la valeur actuelle des
économies fiscales et soustraire la valeur actuelle des coûts de difficultés financières :
V = Vu + VAEF – VA (cdf)
Vu : valeur de l’entreprise non endettée.
VAEF : valeur actuelle des économies fiscales.
VA (cdf) : valeur actuelle des coûts de difficultés financière.
La possibilité de déduire les charges financières du résultat imposable augmente les
flux de trésorerie dispo-nibles du montant de l’économie d’impôt réalisée. Les
entreprises ont alors intérêt à s’endetter le plus possible.
-La théorie du financement hiérarchique:
En l’absence d’asymétrie d’information, une firme devrait adopter tout projet
d’investissement dont la valeur actuelle nette est positive, quelle que soit la manière
dont elle entend financer ce projet. En revanche, il peut y avoir sous-investissement si
les dirigeants de la firme, agissant dans l’intérêt des anciens actionnaires qui ne
souscrivent pas aux actions nouvelles émises, disposent d’informations
supplémentaires sur les opportunités d’investissement. Supposons deux états de la
nature possibles correspon-dant à des informations favorables d’une part,défavorables
d’autre part. Si les dirigeants disposent d’informations favorables telles que l’action
s’avère aujourd’hui sous-évaluée sur le marché, ils se trouvent confrontés à un
dilemme.
Michael C. Jensen: La théorie positive de l’agence appliquée à la finance et à la
gouvernance
Biographie :
Né en 1939, de nationalité américaine. Michael Cole Jensen a fait ses études à
l’Université de Chicago, obtenant successivement un MBA en Finance en 1964 puis
un doctorat en économie, finance
et comptabilité en 1968. La variété de ses préoccupations en matière de recherche se
retrouve dans celle des enseignements qu’il a dispensés puisqu’au cours de sa carrière
il a non seulement enseigné dans les domaines de la finance d’entreprise et des
marchés financiers, mais également en économie,en comptabilité, en théorie du
contrôle et des organisations et en politique générale.

Loin du profil-type de l’économiste financier, souvent associé aux chercheurs en


finance, Jensen s’inscrit donc dans une démarche « gestionnaire », caractérisée
notamment par deux préoccupations : (1) la non-séparation des dimensions
financières des autres dimensions de l’organisation
(2) un souci permanent que ses travaux soient en prise directe avec le monde des
affaires, tant du point de vue explicatif que
prescriptif. Au-delà de ses activités d’enseignement, de recherche et de consultation,
Jensen a également assumé des fonctions administratives et d’expertise, notamment
d’administrateur au sein de conseils d’administration d’entreprises, d’organisations
publiques et d’associations académiques ou d’expert judiciaire auprès de différents
tribunaux. Plus particulièrement, il a été Président de l’American Finance Association
et a fondé le Journal of Financial Economics, le Journal of Financial
Abstracts ainsi que les réseaux « Financial Economics Network » et « Economics
Research Network», bien connus des chercheurs en finance et en économie. Quelle
que soient l’importance de ses
activités de gestionnaire de la recherche et son implication dans le monde des affaires
– il a été désigné comme l’une des 25 personnes les plus fascinantes du monde des
affaires en 1990 par le magazine
Fortune.
Les travaux qui sont liés à la finance organisationnelle et qui s’inscrivent dans le
projet plus global de développement d’une théorie des organisations, la « théorie
positive de l’agence » (désormais la TPA),constituent un programme de recherche
original à part entière, qui a fortement influencé nonseulement la finance, mais
également la recherche en stratégie, en économie des organisations, en droit, en
comptabilité, en contrôle de gestion et en gestion des ressources humaines. Au-delà
des
apports de Jensen à la construction d’une théorie de la finance et, plus généralement,
d’une théorie des organisations, on ne peut faire abstraction, dans cette présentation,
des aspects idéologiques et méthodologiques de son œuvre dont les retombées,
notamment normatives, tant pour la recherche que pour la pratique, ne peuvent être
passées sous silence. Ainsi, la diffusion du critère de la valeur
actionnariale comme objectif de gestion trouve en partie son origine dans les écrits
normatifs de Jensen, même si celui-ci prône aujourd’hui, en raison des récentes crises
financières, l’adoption d’un objectif plus large de création de « valeur de marché de la
firme sur le long terme ».

Apports:
1) Le chercheur en finance de marché :
L’orientation initiale, en finance de marché, des travaux de Jensen a été très fortement
influencée par la réalisation de sa thèse5 « Risk, the Pricing of Capital Assets, and the
Evaluation of Investment Portfolios », soutenue en 1967, sous la direction de Eugene
Fama, à l’Université de Chicago. Cette thèse vise à construire un modèle d’évaluation
des actifs financiers, à préciser et à tester l’hypothèse d’efficience des marchés
financiers et à proposer des outils de gestion aux gérants de portefeuille.
NB: les contributions exclusivement attribuables à Jensen, dans ce champ de la
recherche financière, peuvent cependant être considérées comme secondaires
comparativement aux apports fondateurs des pionniers précités.
Les contributions potées par Jensen s’inscrivent principalement dans les trois axes
évoqués : la théorie de l’évaluation des actifs, la théorie de l’efficience
informationnelle et la mesure de performance des portefeuilles.
1.1. La contribution à la théorie de l’évaluation des actifs financiers :
La thèse de Jensen (Jensen, 1969), même si elle avait pour objectif de proposer un
modèle d’évaluation de la performance des portefeuilles composés d’actifs risqués,
comportait également des
développements originaux portant sur la construction du modèle même d’évaluation
et la notion d’efficience. En particulier, sur le premier point, Jensen proposait une
extension du Modèle d’équilibre des actifs financiers - MEDAF (traduction
approximative de CAPM, le Capital Asset Pricing Model
proposé par Sharpe et Lintner) dans un cadre multi périodique. Dans cette extension,
les horizons des investisseurs étaient hétérogènes et les transactions supposées se faire
en continu. Toutefois, lacontribution la plus connue de Jensen à la théorie de
l’évaluation est le travail qu’il a réalisé avec
Black et Scholes et qui a servi, comme référence en matière de conduite de tests
empiriques du MEDAF pendant plusieurs années, jusqu’à la critique dévastatrice
publiée par Roll (1977).
Cependant, leur objectif était de présenter des tests de MEDAF échappant aux
critiques adressées aux tests existants et prenants mieux en compte, notamment, la
structure réelle des taux de rentabilité des actifs financiers.
Le travail réalisé, de nature économétrique, visait en particulier à réduire les effets des
nombreux biais statistiques qui s’opposaient à un véritable test du modèle théorique.
Sans entrer dans le détail des procédures utilisées, nous précisons que les tests avaient
porté sur les taux de rentabilité mensuels de
1952 titres, sur une période de 35 ans. Les résultats conduisaient à rejeter le MEDAF:
l’explication de ces résultats, proposée par les auteurs, était liée à une mauvaise
spécification théorique du modèle théorique (non-existence de la possibilité
d’emprunter au taux sans risque, absence de prise en compte de certains types d’actifs,
traitement fiscal différent des dividendes et des plus-values). Même si le caractère
testable du MEDAF a été fortement contesté, les solutions proposées pour remédier à
certains biais restent d’actualité et sont toujours retenues dans de nombreuses études
empiriques.
1.2. La théorie de l’efficience informationnelle :
La théorie de l’efficience informationnelle, selon laquelle les cours des titres
financiers reflètent l’ensemble d’information disponible et pertinente pour la décision
d’investissement, a été au cœur de la révolution financière de la fin des années 60.
Rappelons que si cette théorie est vérifiée, les cours boursiers suivent un
cheminement aléatoire. Dans ce cas, les efforts consacrés à la prévision boursière sont
inutiles puisque les cours n’évoluent que par la survenance d’événements
imprévisibles. Elle conduit également à contester la possibilité pour les gérants de
portefeuille de battre les performances du marché, une fois pris en compte les coûts
d’information et de gestion. Sur le plan de la définition, Jensen a apporté de
nombreuses précisions au concept d’efficience en liaison avec le MEDAF et, il l’a
clarifié sur le plan opérationnel, en précisant que sa mesure devait être faite après
prise en compte des coûts de gestion et de transaction stricto sensu supportés par les
gérants. La définition explicite qu’il en pose se fonde sur l’impossibilité de réaliser un
profit d’arbitrage en tenant compte de ces coûts.
Les tests qu’il a effectués (Jensen, 1968) sur un échantillon de 115 fonds mutuels
américains sur la période 1945-1964 montrent qu’après prise en compte des coûts de
gestion et de transaction, les performances réalisées sont inférieures à celles qui
seraient obtenues par une simple stratégie passive
d’achat-détention. Les travaux de Jensen sur la théorie de l’efficience ne se sont pas
cependant limités à cette contribution. Il a également effectué un autre test de
l’efficience des marchés, sous sa forme faible, en apportant une preuve
supplémentaire de l’incapacité de l’analyse technique, à constituer un outil permettant
de battre le marché. Toutefois, l’apport le plus important qu’il a réalisé en ce domaine
est de nature instrumentale et est constitué par l’invention de la « méthode des études
d’événements » (event studies) afin de tester l’efficience des marchés. Cette méthode
a été utilisée pour la premièrefois dans un article collectif, qui visait à proposer un
nouveau test de l’efficience des marchés en étudiant le mode d’ajustement des cours
boursiers lors de l’arrivée d’une nouvelle information. Dans
l’article considéré cette nouvelle information était constituée par les divisions
d’actions. La méthode des études d’événements permet de proposer une mesure de la
réaction du marché, en évaluant le comportement anormal de ce dernier, à travers
l’évolution des taux de rentabilité. Les conclusions de
l’étude étaient favorables à l’hypothèse d’efficience, dans la mesure où elles
montraient que les cours s’ajustaient très rapidement à la nouvelle information.
1.3. La mesure de performance des portefeuilles :
La préoccupation pragmatique, souvent présente dans l’œuvre de Jensen, l’a conduit à
centrer sa thèse sur l’évaluation de la performance des portefeuilles. La mesure de
performance proposée, repose directement sur le MEDAF et la théorie de l’efficience
des marchés. Elle permet de juger de la capacité des gérants à prévoir les prix des
actifs financiers et à réaliser, ex post, une performance supérieure à celle prédite par le
MEDAF. Le travail de Jensen a permis également de préciser le lien unissant les
notions de performance et d’efficience. Ce premier travail sur la mesure de la
performance des fonds a été poursuivi dans l’objectif d’analyser plus précisément la
performance des gérants en
séparant les deux principales dimensions de la gestion: la capacité de prédiction et
l’aptitude à sélectionner les titres les plus performants (le stock picking).
2) Le chercheur en finance d’entreprise et en gouvernance :
Si les premiers travaux de Jensen étaient situés dans le champ de la finance de marché,
ses principaux apports relèvent de la finance d’entreprise. Dans ce domaine, ses
premières contributions
s’inscrivaient dans le paradigme économico-financier traditionnel, et visaient à
développer les implications du MEDAF, pour élaborer des critères normatifs de choix
d’investissement. Dans l’article
copublié avec Meckling en 1976, se trouvent les fondements du paradigme que
constitue la TPA, qui allait profondément modifier la façon d’analyser les problèmes
en finance d’entreprise et, plus
généralement, dans le champ de l’économie des organisations et des sciences de
gestion.
Avant de décrire les principaux apports faits par Jensen à la compréhension des
décisions financières des entreprises, resituons tout d’abord la place de la finance dans
le projet de recherche très ambitieux
qu’il a formulé conjointement avec Meckling.
2.1. La finance vue sous l’angle de la théorie des organisations :
L’article de 1976, s’inscrivait dans un projet beaucoup plus large: créer une théorie du
comportement des organisations reposant sur l’hypothèse de rationalité des acteurs,
notamment des dirigeants fondée à l’origine sur la théorie des droits de propriété, et
sur la notion de relation d’agence empruntée àl’approche principal-agent. Cette
théorie se veut une théorie de la coordination et du contrôle au sein des organisations,
centrée sur les dirigeants. Elle s’applique, en particulier, à l’architecture
organisationnelle et à la gouvernance des entreprises. Cette théorie s’est enrichie au
cours des années, de telle sorte qu’aujourd’hui Jensen présente la TPA comme une
théorie « intégrée » des organisations visant à réunir deux courants de recherche
distincts : (1) la recherche de tradition économique, centrée sur le fonctionnement des
marchés, (2) celle associée aux champs de la psychologie, de la sociologie,
du comportement organisationnel, de l’anthropologie et de la biologie, dont l’objectif
est d’expliquer le comportement humain, tant sur le plan individuel que social.
2.2. Les apports à la finance d’entreprise :
Le projet d’inscrire la finance dans le cadre de la théorie des organisations allait
conduire à accorder une place centrale à la notion de gouvernance des dirigeants, pour
étudier les décisions financières. Si le problème canonique de la « corporate
governance » est lié au fait que les dirigeants, dans les entreprises managériales(c à d
les grandes firmes les dirigeants ne détiennent pas une part significative du capital),
réalisaient une performance inférieure du point de vue des actionnaires, il revenait
cependant à Jensen et Meckling d’imposer le cadre de la gouvernance pour analyser
les problèmes financiers. L’article de 1976, en est la plus belle illustration. Dans ce
dernier Jensen et Meckling,partent d’une situation où le dirigeant est le seul
propriétaire. En introduisant successivement les coûts d’agence liés au financement
par fonds propres externes, puis ceux associés à la dette financière, ils parviennent à
expliquer la structure de financement (dette contre fonds propres) où plutôt, la
structure de « propriété», opposant les propriétaires internes (les managers) aux
investisseurs externes (actionnaires non-dirigeants et créanciers financiers) qui ne
jouant pas de rôle direct dans la gestion.
Jensen a resitué le rôle du marché des prises de contrôle à l’intérieur de la grille de la
gouvernance.
Le marché des prises de contrôle s’analyse ainsi comme un mécanisme permettant de
mieux discipliner les dirigeants de sorte qu’ils utilisent au mieux les ressources de
l’entreprise et créent le maximum de valeur. Cette attention privilégiée portée aux
prises de contrôle allait également se retrouver au centred’un des plus célèbres articles
écrits par Jensen (1986 a), dont l’influence allait également être très importante, dans
la mesure où il donnait naissance à la théorie du « Free Cash-Flow » qui veut dire
des fonds excédant le montant nécessaire pour financer l’ensemble des projets
rentables, Ces fonds leur permettent de disposer d’une marge de manœuvre
supplémentaire en n’étant pas obligés de se
soumettre au contrôle des investisseurs externes pour se financer. Cette politique de
croissance est également favorable à l’ensemble des salariés dans la mesure où elle
facilite les promotions : Il y a
donc conflit d’intérêts entre, d’une part, les dirigeants ou, plus généralement
l’ensemble des salariés,d’autre part, les actionnaires. Vue que les dirigeant sont
réticent à verser les fonds ‘’ les free cash-flow’’ aux investisseurs, il est donc
impératif de trouver une autre solution pour se financer qui est le financement par
endettement la discipline par la dette est plus efficace dans la mesure où les créanciers,
si le service de la dette n’est pas honoré, peuvent exiger la mise en règlement
judiciaire de la société.
3) Le chercheur en théorie des organisations :
Le domaine de la finance ne constitue cependant qu’un des nombreux champs
d’investigation de la TPA. Or, cette dernière, cherche notamment à expliquer
l’architecture organisationnelle interne et la répartition des activités économiques et
sociales entre les différentes formes organisationnelles.
3.1. L’architecture organisationnelle :
Jensen et Meckling (1992) proposent une théorie de l’architecture organisationnelle
fondée sur l’allocation des droits décisionnels à l’intérieur des organisations en vue de
permettre une utilisation
optimale de la connaissance. Au sein des organisations, cette allocation intervient via
la politique organisationnelle. Les droits sont répartis par les dirigeants (cette
répartition est faite par des arbitrages managériaux effectués entre les coûts liés à une
mauvaise utilisation de la connaissance spécifique et
les coûts d’agence associés aux conflits d’intérêts) et leur respect est garanti par les
systèmes incitatifs et de contrôle également mis en place par la hiérarchie, en tenant
compte de la nature de
l’environnement institutionnel. La théorie de l’architecture organisationnelle s’articule
ainsi autour de deux dimensions qui constituent la base de la « taxinomie » centrale de
la TPA : (1) l’allocation des droits décisionnels à l’intérieur de l’organisation ; (2) la
conception du système de contrôle, La cohérence et la complémentarité entre ces
dimensions sont censées déterminer le niveau d’efficience organisationnelle.
3.2. La répartition des formes organisationnelles :
Fama et Jensen proposent de s’appuyer également sur le rôle central de la
connaissance spécifique et la minimisation des coûts d’agence pour expliquer la
répartition des activités économiques et sociales entre les différentes formes
organisationnelles.
4) L’idéologue et le méthodologue :
Concernant l’idéologie : Jensen insistait fortement sur le caractère instrumentaliste
des théories. Une bonne théorie est une théorie qui permet aux dirigeants de prendre
de meilleures décisions, de créer davantage de valeur : « The choice among
competing theories will be based on which is expected to yield the highest value of
objective function when used for decision making ».
Pour la méthodologie : même si, dans ses travaux consacrés à la finance de marché, il
avait déjà fait un apport important en élaborant la méthode des études d’événements,
Jensen, à travers la TPA, a su également proposer une méthode de recherche originale
dans le champ de la finance et de l’économie organisationnelle, en prônant le recours
aux études cliniques comme mode de recherche à part entière.
Il s’agit d’un des aspects qui séparent le plus profondément la TPA d’une part, de la
théorie principal-agent fondée exclusivement sur la modélisation quantitative, d’autre
part, des approches économétriques traditionnelles. Il insistait également sur la nature
analytique mais non mathématique de la modélisation dans la TPA et sur les variables
considérées comme centrales, différentes de celles de la théorie principal-agent.
René M. Stulz: Latitude managériale et politique financière
BIOGRAPHIE:
René M. Stulz, né le 31 juillet 1944 à New York, qui, après avoir obtenue une licence
en sciences économiques à l’Université de Neuchâtel (Suisse) en 1975, il fait un
séjour d’études d’une année à la London School of Economics dans une optique
d’échange académique.
Toute de suite après il entame un doctorat d’économie au prestigieux Massachusetts
Institute of Technology (MIT) qu’il complète en 1980.
S’ensuit sa carrière universitaire en tant que professeur assistant en finance et en
économie à l’Université de Rochester de 1980 à 1983. Il prend ensuite un poste de
professeur associé à Ohio State University qu’il occupe pendant deux ans avant de
devenir professeur de finance dans cette même université et d’y occuper différentes
postes de responsabilité, comme Everett D. Reese
Chair of Banking and Monetary Economics. Il est également, depuis 1995, directeur
du Dice Center for Research in Financial Economics de cette université. Tout au long
de sa carrière académique, il a aussi été professeur-visitant dans les universités les
plus prestigieuses comme le MIT, l’Université
de Chicago et la Harvard Business School.
Ensuite, au bénéfice d’une bourse du Fonds national suisse de la recherche
scientifique, René Stulz est parti parfaire sa formation à la London School of
Economies en tant que visiting graduate student.
Si, depuis 1985, il est rattaché à l’Ohio State University en tant que professeur de
finances, il a parallèlement transité par diverses universités de haute qualité. Ainsi, il a
enseigné aux universités de Rochester, de Chicago, au Massachusetts Institute of
Technology et bien qu’étant toujours rattaché à l’Ohio State University, il a enseigné
l’an dernier à la Business School of Harvard University.
En parallèle à ce parcours académique prestigieux, René M. Stulz dispense depuis un
bon nombre d’années de nombreux séminaires en Europe et participe en Suisse à
l’école doctorale d’économie politique construite alors par la Banque nationale suisse
qui siège traditionnellement à Gerzensee. Il est à noter qu’il agit toujours en tant que
consultant dans de nombreuses sociétés américaines.
N’étant pas une fin, René M. Stulz ne se contente pas d’être un enseignant et poursuit
sa quête de la recherche du savoir d’où le fait qu’il est l’auteur de nombreuses
publications scientifiques et économiques dans de nombreux thèmes.
Jusqu’ici, l’auteur a publié une centaine d’ouvrages et articles dans le domaine de la
finance internationale qui lui a assuré une renommée mondiale dans ces domaines.
Il est en effet considéré au niveau scientifique et pratique comme un des meilleurs
spécialistes des produits dérivés. Sans avancer des spécificités, on se contentera de
mentionner que les travaux de René M. Stulz concernent une variété de domaines de
la finance avec une préférence pour la finance internationale (évaluation d’actifs dans
un cadre international, taux de change,
propagation des informations à travers les différents marchés internationaux).
Le sujet de la finance d’entreprise est aussi extrêmement présente, qu’il s’agisse des
questions liées à la structure du pouvoir à l’intérieur des firmes ou de la manière de
gérer les risques de l’entreprise (risque de change, risque de taux, fluctuations des
matières premières, etc ...).

Douglas W. Diamond: L’analyse contractuelle de l’intermédiation financière


DOUGLAS est né en 1953. Actuellement il est professeur de finance à la Booth
School of Business de l’Université de Chicago. Il est spécialisé dans l’étude de
l’intermédiation financière, des crises financières et de la liquidité. Il est unancien
président de l'American Finance Association. Diamond est surtout connu pour ses
travaux sur les crises financières et les opérations bancaires. Il fonde la majorité de
ses résultats sur la théorie de jeux non coopératifs en recourant à l’équilibre de
NASH.
Le début de sa carrière a été marqué par deux articles coécrit avec Verrecchia, qui
traitent les prix d’équilibre sur un marché financier en présence d’une information
privée. Ils mentionnent que la révélation d’information visant à réduire l’asymétrie
d’information sur le marché financier permet aussi à abaisser les coûts de capital.
Son article le plus marquant est certainement celui de 1984 sur la surveillance
déléguée qui traite de l’efficacité du modèle économique des banques.
Douglas a montré que le financement intermédié possède un avantage sur le
financement direct. Ainsi il rajoute que la banque apparaît comme le meilleur
intermédiaire pour assurer le financement d’un crédit puisque cette dernière produit
des informations sur la qualité de l’emprunteur et lui surveille efficacement.
La préoccupation ultime de Douglas est de comprendre comment éviter les ruées
bancaires. Ces derniers sont le résultat des retraits massifs des déposants, qui
anticipent que la banque fera faillite. Par conséquent la banque liquide ses actifs pour
faire face à ces retraits. La transmission de cette panique vers une multitude
d’établissement conduit à une perturbation du système monétaire muni d’une
réduction de production.
En vue d’éviter cette situation catastrophique. Douglass avait proposé une solution
fondée sur une théorie dénommée [théorie des jeux non coopératifs].

Puisque le comportement des déposants vis-à-vis le retrait de leurs fonds est inconnu
(peut être une consommation rapide ou retardée), seuls les déposants qui détiennent
cette information. La limitation des retraits excessifs se fait par La rédaction d’un
contrat bancaire (aucune des parties ne peut prendre une décision unilatérale). D’une
autre part, l’assurance des dépôts suppose qu’un gouvernement est toujours apte à
lever les taxes nécessaires pour financer les demandes de liquidité. Ce qui permet de
sauvegarder la richesse de chacun en évitant les ruées bancaires.
Les conclusions économiques importantes à retenir de ce travail sont les suivantes : •
les banques qui reçoivent des dépôts et accordent des crédits présentent un modèle
économique efficace pour partager le risque entre les différents agents qui
consomment aléatoirement à différentes périodes.
Deuxièmement il existe un équilibre indésirable où l’ensemble des agents retirent
leurs dépôts conduisant ainsi à une ruée bancaire, même si certains d’entre eux
préféreraient conserver l’argent sur leurs comptes s’ils n’étaient par concernés par une
faillite possible de la banque. Troisièmement les ruées bancaires créent des problèmes
économiques considérables, car des banques saines peuvent faire faillite causant le
remboursement anticipé des crédits et l’arrêt de production des actifs illiquides.
Douglas a souligné que la banque est lancée dans une variété de services, mais elle
occupe trois rôles qualifies essentiels : Service Actif – Service Passif -Service de
Transformation. La combinaison de ces trois services permet de maîtriser le risque
des ruées bancaires.

Oliver Hart: La finance vue à travers la théorie des contrats incomplets


Olivier Hart, est né en 1948 à Londres. Il est de nationalité américano-britannique.
Il a commencé son cursus universitaire par l’étude des mathématiques au King's
College de Cambridge,là où il a pris sa licence en 1969, pour ensuite se spécialiser
dans le domaine des sciences économiques à l'Université de Warwick. Il a obtenu
son doctorat à l’université de Princeton en 1974.
il a successivement occupé des postes de chercheur au Churchill College
(Cambridge)en 1975, de Professeur à la London School of Economics and Political
Science et au Massachusetts Institute of Technology. Il enseigne depuis 1993 à
l'Université de Harvard, poste qu’il occupe actuellement.
Hart est célèbre par ses travaux qui ont impacté la transformation de la pensée
économique et financière, ses premiers travaux en 1975, se fondent sur l’étude des
équilibres à anticipations rationnelles lorsque les marchés financiers sont incomplets,
ce cadre d’analyse lui permettra par la suite de focaliser ses recherches sur la théorie
de la firme, la théorie des contrats (dont il est célèbre) la finance d’entreprise,et
récemment la réglementation financière Grace à ces contributions, Hart réalise
d’importantes influences dans la compréhension de la structure financière, en
impactant surtout l’incomplétude et la
structure des contrats. Hart récolte le fruit de ses recherches dans ces différents
théories en obtenant avec Bengt Holmström, originaire de Finlande (fondateur de la
théorie moderne de l’agence) le prix Nobel en 2016.

1-Contrats et Firmes :
Le cadre de réflexion de Hart pour la théorie de la firme a commencé par la critique
de la pensée néoclassique qui considère la firme comme une boite noire dans un
marché financier libre de toute transaction, avec une vision qui exclut tout conflit
d’intérêts et qui manque de tout aspect de la gestion interne de l’entreprise, telles que
les décisions de rémunération, ou de financement de ses activités, mais aussi la nature
des contrats entre les parties prenantes de la firme soit interne ou bien externe.
C’est avec Coase en 1937, qu’on a remis en cause la théorie néoclassique avec la mise
en œuvre d’une théorie de la firme basée sur les couts de transaction, mais ce
développement reste limité, car il ne donne pas une explication satisfaisante sur la
différence entre les couts des transactions réalisés au sein de l’entreprise ou

Par l’intermédiation du marché qui nécessite l’élaboration d’un contrat entre les
parties prenantes.
Williamson en 1971, vient pour approfondir ses recherches pour améliorer la théorie
de la firme, en étudiant la relation entre les deux parties prenantes de l’investissement,
qui rédigent un contrat à long terme, d’ailleurs elle peut être rigide à toute
renégociation par la suite. Williamson, pour résoudre ce problème dit « hold-up »,
favorise l’investissement au sein de l’entreprise par l’internalisation des taches
nécessaires à
l’activité de l’entreprise et que la négociation sera remplacée par l’autorité. La théorie
de Williamson en s’appuyant sur l’incomplétude des contrats va réaliser d’importante
avancée dans la théorie de la firme, et va constituer une base de recherche pour
l’économiste mathématicien O. Hart.
Avant de présenter l’apport de Hart sur la théorie de la firme, il faut d’abord
s’appuyer sur ses apports concernant l’incomplétude des contrats.
a. Contrats incomplets :
On procède à la signature d’un contrat à long terme entre les parties prenantes
concernées, à travers une situation présente, cependant dans un cadre qualifié de long
terme et d’incertain, on ne peut pas prévoir les circonstances futures ni les conditions
particulières de la production de ce projet, ce fait, rédiger un contrat complet qui
prend en considération toutes les contingences futures devient difficile. Les parties
prenantes peuvent renoncer à cet investissement à cause de ce problème, et ça peut
créer un sous-investissement. En lus de ça, même en prévoyant la situation future du
contrat, on ne peut pas parfaitement estimer les couts engendrés de cet investissement
de manière complète dans le contrat. Hart et Moore en 1998 montrent que lorsque le
contrat ne peut être renégocié, des contrats complexes avec l’introduction des
messages entre les parties prenantes n’améliorent pas leur investissement.
Pourtant Maskin et Tirole en 1999 contestent à la pensée de Hart en proclamant que
même si les circonstances futures ne peuvent pas être déterminées, la capacité des
parties prenantes à déterminer leur profit donne au contrat un caractère complet. Hart
et Moore répondent dans la même année, que ce constat, n’est pas valide lorsque les
parties contractantes ne peuvent pas renégocier le contrat.
Toutes ces observations se sont basées sur l’hypothèse que les acteurs sont rationnels.
Plus récemment, la pensée de Hart relâche cette hypothèse, et utilise les aspects de
l’économie comportementale des agents pour étudier les contrats incomplets.
Hart et Moore incitent les parties contractantes de signer des contrats incomplets afin
d’éviter les mauvaises surprises dans le futur.
Grâce aux travaux des deux chercheurs, "nous avons maintenant les outils pour
analyser non seulement les termes financiers des contrats, mais aussi l'allocation
contractuelle des droits de contrôle, des droits de propriété, et des droits de décision
entre les parties.
La théorie des contrats incomplets a un rôle inédit sur la pensée économique, elle
constitue jusqu’aujourd’hui un débat acharné entre les théoriciens, elle a permis
d’expliquer la structure de propriété optimale d’une entreprise, la nécessité de
contrôler les dirigeants et les inciter à prendre des initiatives.
b.théorie de la firme :
Comme nous avons vu ci-dessus, les deux théoriciens Williamson et Coase, remettent
en cause la pensée néoclassique de la firme et celle des contrats complets, mais ils
laissent plusieurs aspects sans réponse dont la source d’autorité et les couts de
l’intégration d’un investissement.
Crossman et Hart viennent en 1986 pour étudier ces deux aspects, en expliquant que
le droit de propriété d’un bien ou investissement revient à la partie prenante qui
détient un contrôle résiduel lors de la signature d’un contrat incomplet, c’est-à-dire un
contrôle qui porte sur des décisions non spécifiées dans ledit contrat. Crossman et
Hart montrent que la source de l’autorité dans un contrat découle de la propriété du
bien ou d’investissement qui fait objet du contrat. Donc une entreprise peut au lieu de
secontracter pour un investissement, essayer de l’intégrer dans son patrimoine
physique interne pour garantir son contrôle.
2- La finance d’entreprise :
Les travaux de Hart dans la finance d’entreprise a permis de mieux comprendre les
contrats d’endettement et leur impact sur l’activité au sein de l’entreprise, ainsi que
l’allocation des droits de contrôle et la prise de contrôle des entreprises.
a. Contrats de dettes :
Hart et Crossman ont focalisé leurs études sur les contrats de dettes et leurs influences
sur la gestion et les décisions des dirigeants. Ils modélisent l‘idée que l’endettement
peut permettre à des dirigeants d’exercer une discipline et une autorité sur les
dirigeants, en s’assurant que l’activité de l’entreprise va permettre sa solvabilité. Dans
le cadre des contrats de dettes incomplets, c’est-à-dire qu’ils ne permettent pas de
savoir le les contingences futures du profit.
Hart et Moore développent une théorie d’allocation optimale de la structure financière
de l’entreprise, notamment l’allocation entre les dettes à court et à long terme. Ils
proposent aussi une théorie d’une structure financière basée sur la limitation des
dettes à court terme et favoriser les dettes à long terme pour inciter les dirigeants à
mieux gérer les firmes pour le profit des actionnaires.
b. Allocation contingente entre des droits de propriété, contrats financiers et loi sur les
faillites :
Hart développe avec son étudiant Bolton l’importance de l’allocation contingente des
droits de contrôle en mettant en place une théorie pour combattre les situations de
faillites, en partant de l’idée de convertir les dettes en actions ou en options d’achat
d’actions et de revendre ces actions après déduction de dettes, selon Hart, ce
processus est efficace rapide et encourage les dirigeants à tenir des risques et
maximiser la valeur de l’entreprise.
c.Prises de contrôle et droits de vote des actionnaires :
Généralement dans une société où le capital est dispersé entre plusieurs actionnaires
qui détiennent tous des droits de vote et de contrôle du dirigeant, se pose le problème
de manque de gouvernance de ces actionnaires, les actionnaires minoritaires comme
majoritaire ne souhaitent pas prendre la responsabilité du contrôle. Face à cette
situation, un acheteur potentiel va prendre ce droit de contrôle, et en améliorant le
contrôle de gestion de l’entreprise ainsi que sa performance, il peut revendre ses
actions à un prix plus élevé que celui de l’achat.
Cependant pour Crossman et Hart, ce cas est valide que si cet acheteur devient un
actionnaire majoritaire, c’est-à-dire il doit acquérir en moins la moitié des actions de
l’entreprise.
Le résultat de Crossman et Hart repose sur deux hypothèses :
- Les actionnaires connaissent les capacités et les stratégies du dirigeant.
- L’actionnariat est dispersé.
Les résultats obtenus de leur recherche montrent que la présence d’un actionnaire
important augmente la valeur de la firme. Si un actionnaire est majoritaire, il va
vouloir contrôler seul le dirigeant, ce qui peut donner un effet facilitant le contrôle
dans l’entreprise
d.Droits de contrôle et allocation des revenus :
La relation entre le droit de contrôle exprimé par les droits de votes, et l’allocation des
revenus de ces actions semble être complexe. Généralement, un droit de vote est
attribué à chaque action, on trouve des cas particuliers où les entreprises ne donnent
aucun droit de vote ou donnent un double vote par action. Dans le cas où le capital de
l’entreprise est dispersé, la répartition d’un droit de vote par action serait optimale,
mais dans le cas où le capital est concentré dans les mains d’un ou deux dirigeants,les
actionnaires sans droit de vote ne vont pas être intéressés que par la valeur de la firme.
Donc la règle d’un droit de vote par action n’est pas toujours optimale.
3- Réglementation et intermédiation :
Les répercussions de la théorie des contrats incomplets, vont jusqu’à la sphère
publique et la réglementation financière.
a. Privatisation des services :
La problématique soulevée dans la théorie de Hart concernant la privatisation
d’entreprises et de services étatiques est la suivante : Est-il préférable qu’un service.
soit fourni par une entreprise privée ou publique ?
Hart et Al. Donnent l’exemple de l’Etat et la prison ; L’Etat peut offrir à une
entreprise privée la mission de la gestion d’une prison et fixer par contrat les services
que cette entreprise doit fournir, bien que ce contrat est de nature incomplète, car les
couts et les bénéfices de la privatisation peuvent varier ; l’entreprise peut par exemple
décider d’engager des cadres et des gardes moins qualifiés que ceux désirés par l’Etat.
Pour Hart, la privatisation de certains services par l’Etat est une mauvaise solution,
car elle diminue leur qualité.
b.Réglementation financière :
Grâce à la crise de « Surprimes » de 2008, Hart s’est focalisé dans sa recherche sur la
réglementation financière, cette dernière est pour lui difficile à justifier que d’autres
types de réglementations, il part de la critique de la réglementation Sarbanes-Oxley
mise en place en 2002 en Etats-Unis, que ses arguments ne sont pas pertinents, car
cette réglementation était due juste à une pression politique provisoire dans les
Etats-Unis.
Hart et Zingales proposent un mécanisme basé sur le prix des Credit Default Swap
(CDS), sont des produits dérivés de crédit qui jouent le rôle d’assurance. Ils
permettent de se protéger contre le non remboursement d’une dette à long terme, ainsi
ils appréhendent le risque de faillite de la banque de manière plus adéquate. Cet agent
qui constitue le cœur du circuit économique.
Luigi Zingales: Une vision partenariale, politique et sociale de la gouvernance
Parmi les préoccupations majeures de l’auteur ZINGALES c’est le domaine de la
gouvernance des entreprises à travers sa thèse, ou on trouve que ce penseur a
contribué significativement dans ce domaine par la mise en œuvre de plusieurs
réflexions relatives à la
structure financière et les contraintes financières des firmes, le rôle du financement
dans la croissance, la décision d’introduction en bours., ainsi qu’il a développé une
réflexion politique sur le rôle des institutions et les évolutions de capitalisme.
ZINGALES a apporté une pensée novatrice dans deux domaines, le premier
synthétise ses apports à la compréhension de la gouvernance d’entreprise, le second
présente ses réflexions
sur le système financier et e capitalisme.
1. Le chercheur en gouvernance et en finance d’entreprise :
Cet auteur a apporté des nouvelles réflexions qui sont liées à la finance d’entreprise,
parmi ses contributions au niveau de cette discipline est celle de dépasser le modèle
centré sur la relation
entre actionnaires et dirigeants, mais il a traité aussi des questionnements liés aux
décisions financières de la firme.
Ces réflexions menées par ZINGALES sont présentées comme suit :
1.1 Un modèle partenarial de la gouvernance des entreprises :
Le modèle théorique proposé par ZINGALES s’inscrit dans une trajectoire de travaux
consacrés à l’entreprise managériale, contrairement aux travaux des autres auteurs qui
restent
trop centrés sur la relation entre actionnaires et dirigeants.
-Trois nouveaux facteurs impliquent de dépasser ce cadre :
Le déplacement des sources de rentes qui sont désormais plus fortement reliées au
capital humain et à l’innovation qu’aux actifs physiques et à l’intégration verticale.
L’émergence de nouvelles formes organisationnelles qui en découlent.
La prise en compte de nouveaux éléments dans les travaux de recherche en théorie
des organisations et en finance et gouvernance.
Dans cette perspective, ces travaux ont porté essentiellement sur l’origine de la rente
organisationnelle générée et à sa répartition entre les facteurs contribuant à la
formation de cette rente, ainsi que l’approche partenariale trouve son origine dans la
représentation de la firme comme équipe de facteurs de production dont la
combinaison est à l’origine de la rente organisationnelle.
Dans cette vision de la firme, le capital humain joue un rôle central contrairement aux
approches antérieures fondées essentiellement sur le capital physique, ce qui lui a
conduit à promouvoir un système de gouvernance partenariale qui intègre un système
de pouvoir qui va intégrer sa vision de la transformation des firmes en répertoires
d’investissement spécifiques qui restent cependant inscrite dans le paradigme
contractuel.

1.2 La politique d’investissement et de financement dans ce modèle partenarial :


D’une part on constate que l’investissement est dit spécifique en raison de son
caractère durable et intransférable, ainsi que l’entreprise devient un répertoire
d’investissement spécifiques à même de constituer un capital organisationnel créateur
de valeur.
La réalisation de ces investissements spécifiques implique un cadre incitatif lié au
partage de la rente, en plus la firme cherche à acquérir des investissements spécifiques
pour assurer son développement, voire sa pérennité.
D’une autre part, les sources de financement mobilisées doivent intégrer ces logiques
spécifiques de création et de répartition de la valeur, dans la mobilisation des
ressources de financement et compte tenu de la nature des investissements,
ZINGALES légitime le recours aux fonds propres.
1.3 Un regard nouveau sur des questions classiques de finance d’entreprise :
Dans cette partie, l’auteur focalise ses études empiriques sur la structure financière de
l’entreprise, ou il a montré que l’endettement des entreprises est similaire entre les
pays du G7 et que les différences qui existent ne peuvent être attribuées à des effets
institutionnelles, ainsi qu’il a précisé que la décision d’introduction en bourse est
considérée comme un choix qui peut modifier de manière considérable l’actionnariat
de l’entreprise et donc les droits de contrôle et les droits sur les cash-flows, c’est pour
ca certaines entreprises s’introduisent en bourse et d’autres pas.

2. Un regard critique sur le système financier et les dérives du capitalisme.


Après la crise financière de 2008, ses apports apparaissent là encore comme
précurseurs dans la compréhension des dérives du système financier.
2.1 Une dérive vers un capitalisme de connivence :
Le capitalisme est considéré par ZINGALES comme la source d’innovation et de
croissance, mais ZINGALES développe la thèse que les économies les plus
développées sont en train de sombrer dans un capitalisme de connivence qui a pour
objectif principal
de maintenir le pouvoir et de servir les intérêts privés de quelques privilégies.

Cette réflexion sur le capitalisme de connivence prend sa source dans l’article de


ZINGALES dans lequel les auteurs proposent une théorie politique explicative du
développement financier d’un pays à travers la notion de groupe d’intérêts, son idée
centrale est que le levier essentiel de développement financier est lié à l’ouverture
internationale du pays, la conclusion de cet auteur est que les institutions politiques
ont un rôle crucial à jouer pour faciliter le développement financier en permettant de
dépasser les intérêts de certains groupes privés.
Globalement, cette thèse peut se résumer en quatre arguments :
Les marchés libres sont la forme d’organisation économique la plus efficiente
Les marchés libres ne peuvent durablement exister que si les institutions politiques
mettant en place les structures et les règles nécessaires pour les défendre
Cependant, les politiques sont sous l’influence des intérêts privés des grandes
firmes en place
Celle-ci exercent leur influence de telle sorte que leur position soit préservée, en
limitant la liberté des marchés qui avait initialement permit leur ascension
Ainsi que ZINGALES vise à protéger le capitalisme et limiter le pouvoir des firmes
par l’ouverture des frontières aux flux commerciaux et financiers.
Dans son second livre, l’auteur intègre la notion de capitalisme de connivence qui
désigne le système économique ou le succès dépend des relations étroites entretenues
entre les entreprises et le pouvoir politique.
2.2 Crise de confiance et crise financière : une perte de confiance dans le système
financier
La confiance des individus sur le système financier et les gouvernements a un effet
positif sur la décision des investisseurs concernant l’achat des actions et des actifs
risqués, alors que
cette confiance comme à se diminuer au cours des dernières décennies à cause des
fraudes et le manque de fiabilité de l’information communiquée, or la confiance est un
puissant déterminant de l’investissement.
Le capitalisme de connivence s’est étendu et a conduit à une perte de confiance dans
le système à cause :
*Un manque de supervision de la part des autorités de régulation
*La cupidité des dirigeants associé à une gouvernance relâchée
De plus, ZINGALES propose des alternatives ou le rôle du régulateur est de créer les
conditions pour que le marché fonctionne correctement, notamment dans son rôle de
diffusion de l’information.

Richard Thaler: De l’homo œconomicus à l’homo sapiens : l’introduction de la


dimension comportementale en finance
Richard H. Thaler, né le 12 septembre 1945 à East Orange (New
Jersey), est un économiste américain, connu surtout comme théoricien de la finance
comportementale ; Il passe tout d’abord un Bachelor à la Case Western Reserve
University en 1967, avant de poursuivre ses études à l’Université de Rochester où il
obtiendra un master en 1970 et un PhD, en 1974 ; Sa thèse est dirigée par Sherwin
Rosen et s’intitule The Value of Saving a Life : A Market Estimate. Pendant ces
années de thèse, Thaler commence à noter
toutes les anomalies qu’il observe dans la vie de tous les jours, anomalies qui sont
autant de sujets d’investigation potentiels, et pour certaines, de futurs thèmes
d’articles ou d’ouvrages.
Lors d’une conférence à Monterrey en Californie, il fait la connaissance de Baruch
Fischoff, docteur en psychologie de l’Université de Tel Aviv.
C’est par Fischoff que Thaler entend pour la première fois parler de Daniel Kahneman
et Amos Tversky qui vont devenir ses mentors, puis ses coauteurs à diverses
occasions.
Il rencontre les deux chercheurs pour la première fois en 1977 à Stanford, et cette
rencontre influera sur ses recherches tout au long de sa carrière. En effet, Kahneman
et Tversky le confortent dans l’idée qu’il faut faire de la recherche en économie avec
des homos sapiens évoluant dans le monde réel, plutôt qu’avec les
homos-oeconomicus imaginaires des modèles
économiques classiques.
Thaler occupe ensuite un poste à l’Université Cornell jusqu’au milieu des années
1990. Il passe l’année académique 1994-1995 au MIT pour des raisons qui ne sont pas
uniquement scientifiques puisque sa future épouse y est aussi cette année-là, au
département de marketing.
Ils sont tous deux recrutés l’année suivante à l’University of Chicago Business School,
qui deviendra, un peu plus tard, la Booth School of Business. De manière imagée, on
peut dire que Thaler se jette dans la gueule du loup en devenant professeur à Chicago,
car la Booth School of Business héberge Eugène Fama et Merton Miller qui figure
parmi les plus ardents défenseurs de l’hypothèse d’efficience des marchés. Toutefois,
Thaler n’est pas embauché par le département de finance, mais par celui de
Behavioral Science. L’intitulé exact de son posteactuel est d’ailleurs Charles R.
Walgreen Distinguished Service Professor of Economics and
Behavioral Science. Dans le cadre de ce poste, il devient directeur du Center for
Decision Research et le restera pendant de nombreuses années. Il est simultanément
chercheur associé au NBER (National Bureau of Economic Research) et codirige avec
Robert Shiller le Behavioral Economics Project financé par la Russell Sage
Foundation. Ce projet permettra un développement très important de l’économie
comportementale en mettant en lumière, par l’organisation de workshops réguliers,
des travaux qui auraient sans doute eu beaucoup de difficultés à obtenir la
reconnaissance qu’ils méritent. Au début des années 2000, Thaler commence à
travailler avec Shlomo Benartzi sur les problèmes d’architecture des choix. En expert
de l’économie comportementale, il sait que les décisions des individus sont fortement
influencées par la façon dont l’éventail des choix est présenté. Les travaux sur ce
thème donnent lieu en 2008 à un ouvrage coécrit avec Cass Sunstein, intitulé Nudge.
Ce livre devient très vite un best-seller. L’apport le plus significatif de cette approche
pour la finance est le programme Save More Tomorrow qui suggère des moyens
simples et efficaces d’augmenter l’épargne-retraite des Américains à l’aide des
apports de l’économie comportementale.
Ce programme rencontre un grand succès dans de nombreuses entreprises américaines
et s’exporte maintenant dans d’autres pays. Thaler est aussi membre de l’American
Academy of Arts and Sciences, il a été Fellow de l’American Finance Association et
de l’Econometric Society. Enfin, il a été président de l’American Economic
Association en 2015.

I. La finance comportementale :
Nous avons choisi de porter notre attention sur l’explication psychologique des
marchés financiers, souvent appelée finance comportementale, non parce que cette
théorie rencontre un intérêt étonnant chez les financiers, qu’elle fait l’objet d’un
nombre croissant de publications dans les revues de premier rang, qu’elle a été
propulsée au-devant de la scène par l’éclatement de la bulle Internet en 2000, ou
encore qu’elle a définitivement acquis ses lettres de noblesses par l’attribution du prix
nobel d’économie, lundi 9 octobre, à l’Américain Richard H. Thaler,de l’université de
Chicago, pour ses travaux sur les mécanismes psychologiques et sociaux à l’œuvre
dans les décisions des consommateurs ou des investisseurs, l’attribution à toucher
d’autres économiste telle que Daniel Kahneman et Vernon Smith en 2002 pour leurs
travaux dans ce domaine, mais parce que la finance comportementale est bien plus
qu’une théorie alternative à la finance classique. C’est une façon révolutionnaire
d’appréhender le processus décisionnel que tout humain doit constamment effectuer.
Conçue à l’origine pour
fournir une meilleure explication des marchés financiers, l’approche comportementale
a en réalité un potentiel insoupçonnable. L’étude de Thaler porte principalement sur le
comportement des investisseurs lors de leurs prises de décisions.
Richard H. Thaler a montré comment certaines caractéristiques humaines, comme les
limites de la rationalité et les préférences sociales, « affectent systématiquement les
décisions individuelles et les orientations des marchés », tout en illustrant combien
l’aversion aux pertes peut expliquer pourquoi les individus accordent une plus grande
valeur à une chose s’ils la possèdent que s’ils ne la possèdent pas, un phénomène
appelé ‘ l’aversion à la dépossession ’.
Chose importante c’est que Thaler a notamment théorisé le concept de comptabilité
mentale expliquant la façon dont les individus simplifient la prise de décision en
matière financière, en créant des cases séparées dans leur tête, en se concentrant sur
l’impact de chaque décision individuelle plutôt que sur l’effet global.

Robert J. Shiller: L’exubérance irrationnelle des marchés


Robert James Shiller dit Bob Shiller (né à Détroit dans le Michigan ,le 29 mars 1946)
est économiste, universitaire, et écrivain à succès américain. Il est professeur
d'économie à l'Université Yale et membre du centre international pour la finance de
cette même université. Robert Shiller a également été un chercheur associé au Bureau
national de recherche économique(NBER) depuis 1980, vice-président de
l'association américaine d'économie en 2005 et le président de l'Eastern Economic
Association en 2006-2007. Il est également le fondateur et le chef économiste de la
société MacroMarkets LLC.
Robert Shiller est souvent considéré comme l'un des cent économistes les plus
influents au monde. Ses travaux sur les prix des actifs lui ont valu le Prix de la
Banque de Suède en sciences économiques pour 2013.
Robert Shiller a une licence en lettres (B.A.) de l'université du Michigan en 1967. Il
obtient un master en science en 1968 et un doctorat de l'Institut des technologies de
Massachusetts en 1972. Enseignant à l'université Yale depuis 1982, professeur à la
Wharton School et à l'université de Pennsylvanie et du Minnesota, il a souvent donné
des cours à la London School of Economics.
Ses écrits traitent de multiples aspects économiques, de la finance comportementale à
l'immobilier, jusqu'à la gestion des risques. Il a co-organisé des colloques de la NBER
sur la finance comportementale avec Richard Thaler, depuis 1991. Le livre Macro
Markets a gagné le premier prix annuel Paul A. Samuelson, de la fondation Carnegie
pour la promotion de l'enseignement. Il publie une rubrique régulière au niveau du
Syndicate Project.
En 1981, Robert Shiller a mis en lumière les limites de la "théorie des marchés
efficients", à l'époque dominante chez les économistes, par un article dans la Revue
d'économie
américaine, intitulé « La volatilité du prix des actions peut-elle être justifiée par des
changements majeurs au niveau des dividendes ? ». Ainsi, il fait remarquer que les
investisseurs, dans un marché d'actions rationnel, estimeraient leur prix à l'aide des
futurs dividendes espérés, en appliquant une décote par rapport aux valeurs actuelles.
Il a parallèlement examiné la performance du marché boursier depuis les années 1920,
et estimé les dividendes futurs et les pourcentages de décote susceptibles de justifier
le large spectre de variations historiques observée. Shiller a conclu que la volatilité du
marché boursier était trop grande pour s'expliquer de manière plausible par une vision
rationnelle du futur. Il utilise les indicateurs classiques, en les corrélant, comme le
Price Earning Ratio et le taux d'intérêt.
Ses recherches ont suscité un intérêt croissant à mesure que des stratégies financières
à très court terme s'installaient sur les marchés boursiers. L'école de la finance
comportementale avait déjà gagné en crédibilité à la suite du krach boursier d'octobre
1987.
Les travaux académiques de Shiller comportent des sondages qui demandent aux
investisseurs et aux traders les raisons qui ont motivé leurs transactions. Les résultats
renforcent l'hypothèse que les décisions ont été majoritairement suscitées par des
émotions, au lieu d'un calcul rationnel. La majeure partie des données issues de ces
sondages, collectée depuis 1989, est disponible dans le projet sur le comportement de
l'investisseur mené par l'université Yale.
L'immobilier intéresse aussi Robert Schiller, qui est le père du célèbre "indice Shiller
et Case". En 1991, il fonde Case Shiller Weiss avec les économistes Karl Case et
Allan Weiss.
L'entreprise produit des indices basés sur l'évolution des prix de ventes de biens
immobiliers de manière à étudier leurs variations. L'indice a été développé par Shiller
et Case lorsque ce
dernier étudiait le boom insoutenable des prix immobiliers à Boston, et Shiller analyse
les aspects comportementaux lors des bulles spéculatives.

2) Synthèse du passage :
Travaux sur la remise en cause de l’efficience des marchés :
Malgré l’obtention de son prix Nobel en économie la même année qu’Eugene Fama
en 2013 ; Robert Shiller a une vision carrément différente que ce dernier en ce qui
concerne l’efficience des marchés.
Car, au contraire de ce que dit Fama, Shiller montre que les prix des actifs financiers
dévient systématiquement de la valeur fondamentale découlant des bénéfices futurs
anticipés.
Son premier papier sur la question, sorti en 1979 dans le Journal of Political Economy,
concerne le marché obligataire. Les résultats empiriques de ce papier mettent à mal
les modèles explicatifs de la structure à terme des taux d’intérêt fondés sur les
anticipations
rationnelles en montrant que la volatilité observée sur ce marché est bien supérieure à
ce que prédisent les modèles.
Shiller continuent de remettre en cause l’efficience en s’intéressant des marchés
d’actions en s’intéressant aux calculs des valeurs espérées des dividendes avec leur
valeurs réels ;
c’est la qu’il constate que la variance de l’indice est bien supérieur a celle de
l’espérance des dividendes espérés.
En 1987, Shiller retestent les modèles d’anticipations rationnelles à nouveau sur les
actions et obligation mais cette fois en utilisant un modèle de cointegration ; Les
résultats obtenus sont conformes à ceux de Shiller obtenus en 1979.
Cette volatilité excessive observée sur les marchés d’actions et sur les marchés
d’obligations est considérée par Shiller comme la preuve empirique de l’inefficience
des marchés.

Apports à la finance comportementale et aux bulles spéculatives :


Les travaux de Shiller sur les bulles spéculatives ont été exposés principalement dans
les éditions successives de son ouvrage à succès Irrational Exuberance. À ce jour,
trois éditions
ont été publiées en 2000, 2005 et 2015. La popularité de ce livre est en partie liée au
contexte entourant la publication de la première édition. Dans la préface, Shiller met
en garde contre l’existence d’une bulle spéculative sur les valeurs technologiques et y
décrit ce qui va se passer dans les mois à venir. L’éclatement de la bulle internet peu
après la publication du livre révèle la pertinence de son analyse.
D’après Shiller, ces bulles spéculatives peuvent être analysés selon 3 facteurs qui
contribuent a leurs développements, à savoir : Les facteurs structurels-Les facteurs
culturels-Les facteurs psychologiques.
*Facteurs structurels :
Ces facteurs là qualifient les facteurs qui accélèrent les bulles spéculatives et non pas
les facteurs qui les crées. La liste des facteurs structurels mis en évidence par Shiller
comprend deux catégories. La première catégorie regroupe l’ensemble des facteurs
structurant l’économie, par exemple l’internet qui a totalement restructuré le domaine.
La seconde catégorie inclut des facteurs qui, bien que moins fondamentaux, peuvent
prendre de l’importance par la façon dont ils sont perçus par le public, par exemple on
retrouve les nouveaux médias émergents dans les années 80 et 90 qui renforcent
l’information boursière dans la radio et TV.
Tous ces facteurs structurels sont de nature à « apprivoiser » les épargnants, à leur
faire croire que les marchés d’actions sont finalement assez peu risqués, ainsi qu’à
instiller l’idée
que l’investissement en actions est le seul moyen de se constituer une retraite correcte.
*Facteurs culturels:
Shiller étudie aussi les facteurs culturels qui ont eux aussi un rôle important et
favorise le développement des bulles.
Parmi ses facteurs culturels, on retrouve le plus important d’entre eux a mes yeux qui
est « La nouvelle ère ». La logique est assez basique. Quand l’augmentation des prix
commence
à être perçue comme excessive par un certain nombre d’intervenants au regard des
références passées, le concept de nouvelle ère ou de nouvelle économie est pratique
puisqu’il signifie que les références au passé ne sont plus pertinentes, et donc
démodés et qu’il faut les actualisés ; cela est facteur culturels très pratique qui
influence grandement la
perception du changement.
Ces facteurs culturels sont aussi de nature à faire émerger des biais psychologiques et
des comportements grégaires.

*Facteurs psychologiques:
Shiller consacre deux chapitres de la dernière édition de son ouvrage « Irrational
Exuberance » (2015) aux facteurs explicatifs des bulles spéculatives qui sont d’ordre
psychologique ou social. Il est difficile de rendre compte de toute la profondeur de
l’analyse de Shiller en quelques lignes. Nous allons donc nous focaliser sur les
éléments les plus significatifs et/ou les plus originaux de l’approche de Shiller.
Les 2 facteurs psychologiques les plus important selon Shiller sont : Le phénomène
d’ancrage et le comportement moutonnier des investisseurs qui veut dire la tendance
d’imitation entre
investisseurs et donc le choix des mêmes investissements et actions ce qui est un
facteur psychologiques très important.

Vision sociétale de la finance :


Plus récemment, les réflexions de Shiller se sont portées sur la question fondamentale
du rôle de la finance dans le bien-être social. En 2012, il publie l’ouvrage Finance and
the Good Society, qui a de quoi surprendre et qui illustre, une fois encore, les
aptitudes de son auteur à sortir des sentiers battus. En effet, écrit peu de temps après la
crise financière de 2007 par un auteur connu pour ses thèses sur l’irrationalité des
marchés financiers, on aurait pu s’attendre à ce que cet ouvrage soit porteur de
nouvelles critiques de la vision néoclassique des marchés financiers. Bien au contraire,
Finance and the Good Society constitue une célébration de la « beauté authentique »
de la finance et Shiller y encourage les jeunes étudiants à embrasser des carrières dans
l’assurance ou sur les marchés dérivés.
Shiller propose plusieurs propositions pour améliorer le bien-être et la situation de la
société au niveau financier et aussi au niveau immobilier ; par exemple, la possibilité
pour les Etats d’émettre des parts de leur économie au lieu d’obligations ce qui
bénéficieraient plus aux citoyens, ou encore la création de retraites indexés selon un
indicateur de la solvabilité des ménages ce qui serait plus équitable.
Il termine avec un point important : selon lui, la source de bonheur n’est pas juste la
richesse, mais aussi et principalement la reconnaissance sociale.
Donc les financiers devraient obligatoirement, pour leur intérêt et l’intérêt de la
société, équilibrés entre recherche de profit et conscience sociale.
Contribution en Finance Immobilière :
En plus de son travail concernant les marchés financiers, Shiller s’intéresse aussi à
l’étude des prix immobiliers et le domaine immobilier en général. Il s’intéresse
principalement aux sujets suivants : Les indices immobiliers-Les produits de finance
immobilière-Les dynamiques des prix de logement.

Andrei Shleifer: De l’inefficience des marchés à la théorie de l’origine légale des


systèmes de gouvernance

Biographie:
Andrei Shleifer d’une nationalité américaine, est né en 1961, dans l’ancienne Union
Soviétique. Ses parents étaient tous deux ingénieurs. Il émigra à Rochester aux
États-Unis en 1976. Il commença son cursus universitaire par un Bachelor of Arts en
mathématiques, obtenu à l’Université de Harvard en 1982, études au cours desquelles
il se lia d’amitié avec Bradford
DeLong, l’économiste financier bien connu, et assista à l’occasion, dans certains
travaux,Lawrence Summers futur secrétaire d’État au Trésor, alors
professeur-assistant au MIT, et qui jouera, ultérieurement, un rôle important dans la
carrière de Shleifer.
Ayant pris goût à l’économie, en particulier à travers les cours de macroéconomie
dispensés par Olivier Blanchard à Harvard, Shleifer abandonna les études de
mathématiques pour faire
une thèse en macroéconomie au MIT sous la direction de Peter Diamond (prix Nobel
d’économie en 2010). Sa thèse, soutenue en 1986, porta sur le thème The Business
Cycle and the Stock Market (Le cycle d’affaires et la bourse).
Sa carrière universitaire allait débuter par un poste de professeur-assistant en
économie à l’Université de Princeton (1986-1987).
Il quitta Princeton pour l’Université de Chicago, où il fut successivement
professeur-assistant en finance et en économie d’entreprise à la Graduate School of
Business de 1987 à 1989, puis professeur de 1989 à 1990. Lors de son séjour à
Chicago, il collabora étroitement avec Kevin Murphy et Robert Vishny, avec lesquels
il allait cosigner ultérieurement de nombreuses publications. En 1991, il allait
rejoindre l’Université
de Harvard comme professeur d’économie. Il poursuit actuellement ses activités
d’enseignement et de recherche dans cette même université.
Au-delà de ses activités universitaires, Andrei Shleifer a également été, de 1991 à
1997, conseiller auprès du président de la Russie Boris Yeltsin, dans le cadre d’une
équipe déléguée
par l’Université de Harvard et mandatée par le gouvernement américain pour aider au
développement de la Russie. Il intervint notamment auprès du vice-premier ministre
Anatoli Tchoubaïs, responsable des privatisations.
Enfin, Shleifer a fondé, en 1994, avec Josef Lakonishok, de l’Université de l’Illinois
et de Robert Vishny de l’Université de Chicago, un fonds d’investissement à Chicago,
LSV Asset Management, à destination des investisseurs institutionnels. Il a, par la
suite, cédé les parts qu’il détenait dans ce fonds.

Introduction :
L’auteur a élaborer des apports en matière de macrogouvernance, qui traitent des
différences entre systèmes nationaux et qui ont le plus contribué à la notoriété de
Shleifer, sont directement issus de ce questionnement.
L’autre grande catégorie d’apports s’appuie sur les travaux consacrés à l’inefficience
des marchés financiers en liaison avec la finance comportementale.

L’INEFFICIENCE DES MARCHES FINANCIERS :


Cette approche pose l’hypothèse qu’il existe une catégorie spécifique
d’investisseurs,« les noise traders ». Ces investisseurs interviennent, au moins pour
partie, sur la base de motifs autres que les nouvelles informations susceptibles
d’affecter les valeurs
fondamentales des actifs risqués. Ces motifs sont considérés comme irrationnels au vu
de la rationalité financière traditionnelle. Cette classe particulière d’investisseurs
s’oppose à celle des investisseurs purement rationnels. En ajoutant des hypothèses sur
les limites de l’arbitrage pratiqué par les investisseurs rationnels, à même de justifier
la survie des noise traders, Shleifer propose différents modèles permettant d’expliquer
un certain nombre d’anomalies. Ce faisant, il ouvre la voie à l’introduction de facteurs
psychologiques et institutionnels pour expliquer l’inefficience des marchés.
Les investisseurs rationnels anticipent correctement les distributions de probabilités
sur la composante risquée de leurs portefeuilles. Inversement, les noise traders
commettent des erreurs et ont tendance à mal évaluer – souvent à surévaluer – la
rentabilité anticipée des actifs risqués. Les investisseurs rationnels cherchent à
exploiter en leur faveur les erreurs commises par les noise traders au moyen
d’opérations d’arbitrage. Dans les approches traditionnelles, ces opérations sont
supposées entraîner à terme la disparition des noise traders en raison des pertes qu’ils
subissent. Elles sont également censées faire converger les cours vers les valeurs
fondamentales, assurant ainsi l’efficience des marchés. Tel n’est pas le cas dans ce
modèle, en raison des obstacles qui nuisent à l’efficacité des opérations d’arbitrage.
LA GOUVERNANCE DES ENTREPRISES :
-Les apports dans le domaine de la micro gouvernance :
Les travaux dans ce domaine se présentent comme plusieurs tentatives pour réévaluer
l’efficacité de certains mécanismes de gouvernance.
L’efficacité de la gouvernance dépend de la résistance que lui oppose le dirigeant et
du coût de son remplacement pour les actionnaires. Shleifer allait traiter cette
importante question en
introduisant l’hypothèse d’enracinement (entrenchment hypothesis) selon laquelle les
dirigeants cherchent à s’enraciner pour mieux se protéger. Enfin, la politique
d’endettement, par exemple, dans la théorie du Free Cash-Flow est censée jouer un
rôle disciplinaire
important. Shleifer allait reconsidérer ce rôle en tenant compte des valeurs de
liquidation des actifs.
Un des apports les plus importants de Shleifer et Vishny (1986) est d’avoir montré
que la présence d’actionnaires importants dans l’actionnariat permettait de résoudre le
paradoxe mis
en évidence par Grossman et Hart (1980), concernant la justification même des prises
de
contrôle hostiles. L’argumentation avancée est la suivante. Les actionnaires actuels,
face à une telle offre de prise de contrôle, prennent conscience de la valeur réelle de
l’entreprise et
n’acceptent de céder leurs actions que si le prix proposé est ajusté pour tenir compte
du potentiel d’amélioration de la valeur ; ils profitent ainsi de l’opération, en
passagers clandestins, sans subir de coûts. Comme l’initiateur de la prise de contrôle
devra supporter les coûts de l’opération, puis les coûts de surveillance du dirigeant,
s’il acquiert le contrôle de la firme, il ne le fera que s’il réalise par ailleurs un gain
permettant au moins de compenser ces coûts. Or, ce gain ne peut intervenir que s’il
détient préalablement une part suffisante des actions de la firme de façon à pouvoir
s’approprier une partie de la valeur créée.

Autrement dit, seul un actionnaire important de la firme, avant la prise de contrôle,


peut avoir intérêt à déclencher une offre de prise de contrôle, ce qui est incompatible
avec un capital totalement
dilué. Selon cette logique, les firmes managériales ne devraient donc pas faire l’objet
de prises de contrôle hostiles.
Plus récemment, Shleifer et Vishny (2003) proposent une explication des vagues de
fusions et d’acquisitions s’inscrivant dans le courant de la finance comportementale et
supposant l’inefficience des marchés financiers. Dans cette perspective, les prises de
contrôle ne sont pas vues comme un outil permettant de discipliner les dirigeants de
firmes sous performantes, conformément à l’approche de la gouvernance disciplinaire,
mais comme un levier permettant de profiter d’erreurs d’évaluation. L’existence
d’une telle motivation fournit indirectement une raison supplémentaire de contester
l’interprétation des prises de contrôle comme mécanisme efficace de gouvernance.
-Les apports dans le domaine de la macro gouvernance :
Shleifer et Vishny (1997) opposent deux solutions principales pour protéger les
investisseurs contre l’opportunisme des dirigeants. La première privilégie la voie
juridique. La protection
assurée dépend alors de la volonté du législateur et est conçue indépendamment des
caractéristiques spécifiques de l’investisseur, notamment de son importance. L’autre
solution consiste à agir sur la structure de propriété de la firme en s’appuyant sur les
actionnaires importants pour assurer la discipline des dirigeants, ce rôle étant
rémunéré plus ou moins directement. Si cette deuxième solution permet, en principe,
de réduire les coûts d’agence,elle comporte un inconvénient majeur : les actionnaires
dominants se retrouvent en position
d’abuser de leur pouvoir et de spolier les petits porteurs. Il faut donc arbitrer entre les
deux solutions ; une protection légale de qualité permet de moins solliciter la
concentration de
l’actionnariat pour discipliner les dirigeants. En conséquence, les sociétés encadrées
par des systèmes nationaux de gouvernance (SNG) offrant une meilleure protection
légale aux investisseurs devraient avoir un actionnariat moins concentré.
L’argument de la qualité de la protection juridique offerte aux investisseurs financiers
est au cœur de la théorie de la macrogouvernance ou théorie des systèmes nationaux
de gouvernance proposée par Shleifer.

Dans cette perspective, l’essentiel des différences entre SNG trouve leur origine dans
les systèmes juridiques nationaux qui fixent les obligations légales des dirigeants
vis-à-vis des apporteurs de capitaux et régissent les conditions de leur exercice à
travers le fonctionnement des tribunaux et la capacité à faire exécuter les jugements
rendus.
L’intensité de la discipline exercée sur les dirigeants dépend prioritairement de la
qualité du système légal et cette qualité est une condition préalable pour assurer le
financement des
entreprises et le développement de l’économie. Cette perspective est à l’origine de
l’approche juridico-financière de la gouvernance – le courant Law and Finance – ou
théorie de l’origine
légale des SNG.

Jeremy C. Stein: La prise en compte des interactions des acteurs sur le marché
dans la finance comportementale

Notice biographique :
Jeremy Chaim Stein né le 17 Octobre 1960, il a obtenu une licence en économie en
1983 de l’Université de Princeton, en 1986 il a obtenu son doctorat en économie du
MIT. Il
commence sa carrière dans le secteur privé au sein de la banque Goldman Sachs avant
de se lancer au terme d’une année dans une carrière universitaire comme
professeur-assistant à
l’Université de Harvard. Ensuite il est devenu professeur au MIT (Sloan School of
Management) pendant 10ans et finit par occuper le poste de professeur de
management
(J.C. Penney Professor of Management) En 2000, il décide de revenir à l’Université
de Harvard où il est actuellement professeur de sciences économiques. Il enseigne à
tous les niveaux avec une préférence pour le programme de PhD et occupe un siège
au sein du conseil d’administration de l’entreprise Harvard Management Company.
En décembre 2011, Barack Obama a annoncé qu'il envisageait de nommer Jeremy C.
Stein sur le poste d’un des sept membres de la Réserve fédérale américaine. Cette
nomination a
été confirmée en mai 2012, Jeremy C. Stein reste membre du Federal Reserve Board
(FED) jusqu’en avril 2014. Il retrouve ensuite son poste à l’Université de Harvard.
Ces deux années
à la Banque centrale américaine l’ont influencé et incité à poursuivre des recherches
dans le domaine de la régulation financière et de la politique monétaire.
Jeremy C. Stein a été coéditeur des revues suivantes, Quarterly Journal of Economics
etJournal of Economic Perspectives. Il est membre de l’Académie américaine des arts
et des
sciences et chercheur associé au NBER (National Bureau of Economic Research). En
2008, il a été président de l’AFA (American Finance Association) et, en 2009, il a
servi comme
conseiller au Secrétaire du Trésor américain et fait partie du Conseil économique
national.
Il a orienté ses recherches essentiellement dans trois domaines : la finance
comportementale et l’efficience des marchés ; la politique financière des entreprises ;
la politique monétaire et la régulation financière. Qui mettent l’accent à la fois sur le
comportement des agents et leurs interactions. C’est l’apport essentiel de Jeremy C.
Stein à la recherche en finance.
Ces trois domaines représentent les différentes périodes de la carrière de Jeremy C.
Stein.
Alors on va traiter dans un premier temps l’analyse du comportement des
investisseurs sur les marchés, dans un deuxième temps l’analyse du comportement des
dirigeants en termes de politique financière des entreprises, et dans un troisième
temps l’analyse du comportement des institutions financières et des marchés.

1. LA CONTRIBUTION DE STEIN À L’ANALYSE DU


COMPORTEMENT DES INVESTISSEURS

Les premiers articles de recherche empirique ont battue en brèche la théorie


financière,pour montrer qu’il y a des anomalies sur le marché financier. Schwert a
regroupé ces
anomalies en trois catégories : Les premières anomalies comparent les rentabilités des
actifs en coupe transversale et mettent en évidence certaines irrégularités empiriques
observables
sur le marché (data-snooping, effet taille, effet valeur).

Les suivantes font plutôt apparaître des anomalies en série temporelle (anomalies
calendaires, momentum, taux d’intérêt à
court terme et inflation, rendement en dividende, renversement de tendance, dérive
des taux de rentabilité à long terme après une annonce d’information publique). Les
dernières
anomalies sont liées aux comportements de groupes d’investisseurs (individuels,
fonds fermés, investisseurs institutionnels, etc.). Selon ces études, les taux de
rentabilité peuvent être prévisible sans risque supplémentaire ce qui peut générer des
opportunités d’arbitrage.
Ce dernier est une pratique qui consiste à acheter un actif et en vendre simultanément
un autre, afin de profiter d’une incohérence de prix entre les deux et générer un profit
certain.
Par contre Fama a souligné l’existence de facteurs de risque supplémentaires Hong et
Stein soulignent qu’il existe des limites à l’arbitrage qui sont liés à des frictions de
marché (coûts de transaction), des contraintes de liquidités ou des contraintes
institutionnelles (interdiction de vendre à découvert) et au comportement des
investisseurs.
Alors les chercheurs essayent de montrer l’origine de ces anomalies en mettant
l’accent sur le comportement de certains agents économiques, comportement qui ne
serait pas
totalement rationnel.
L’apport essentiel de la recherche de Stein repose sur deux éléments : D’abord, il a
rapidement compris que si les chercheurs souhaitaient faire perdurer le courant de la
finance comportementale, ils devaient se doter d’un cadre théorique général
permettant
d’expliquer tous les phénomènes de marché. Ensuite, il a également saisi (c’est
l’apport essentiel de Stein à la finance comportementale) que sur les marchés
financiers, il n’y avait
pas un seul agent représentatif ayant un ou plusieurs biais cognitif (biais
psychologiques qui
représentent façon rapide de prendre des décisions) , mais une pluralité d’acteurs en
interaction avec une rationalité plus ou moins forte allant d’investisseurs naïfs
incapables
d’inférer l’information jusqu’à des gérants de fonds pratiquant l’arbitrage dans les
limites du possible.
1.1. Une approche comportementale des marchés financiers
De nombreuses études ont mis en évidence les anomalies des rendements basées sur
les
stratégies de transaction élaborées sur les marchés financiers. Le modèle de Hong et
Stein
(1999) montre l’effet momentum et à l’effet de renversement de tendance à long
terme.
«effet Momentum» ou de continuation des rentabilités, se définit comme la tendance
des titres ayant enregistré une bonne (une mauvaise) performance par le passé à
enregistrer une bonne (mauvaise) performance dans le futur sur un horizon de trois à
douze mois. Les premiers à avoir mis en évidence cet effet sont Bernard et Thomas.
« L’effet de renversement de tendance à long terme » a été établit par DeBondt et
Thaler qu’ils ont montré que les rentabilités des titres ont tendance à s’inverser sur des
périodes
d’étude longues (à un horizon de cinq ans), et par conséquent les lauréats passés ont
tendance à devenir des futurs perdants de 25% en moyenne.
Hong et Stein divisent les investisseurs dans le marché financier en deux catégories
qui ne sont pas entièrement rationnels :
les newswatchers ceux qui négocient exclusivement sur la base de l'information
privée relative aux données fondamentales des titres sans prendre en compte tout
l’environnement informationnel. Ils se focalisent sur l’information imparfaite qu’ils
ont reçue alors ils ne sont pas complètement rationnels.
Hong et al ont trouvé une justification de ce phénomène , en effet les investisseurs
font face à une grande quantité d’information qu’ils ne parviennent pas à digérer. Ils
se focalisent sur une petite partie de l’information.
Les momentum traders ceux qui se basent uniquement sur l'évolution récente des prix.
Ils interviennent sur le marché avec des contraintes de rationalité et deréglementation.
Hong et Stein (1999) font l’hypothèse qu’ils exploitent la sous-réaction du marché,
mais en ayant des stratégies d’arbitrage simple fondées seulement sur la variation
des prix passés. Les news watchers rentrent dans le marché en observant une
augmentation des prix sur la base d’une information positive, par contre les
momentum traders vont pénétrer le marché en observant un accroissement des
prix,cette augmentation du prix pour eux représente une conséquence d’une
augmentation de demande.
1.2. L’effet des interactions sociales sur les marchés financiers
L’interaction entre les investisseurs peut prendre différentes formes, soit sur les
marchés directement via les transactions soit via le bouche-à-oreille. L’interaction sur
les marchés peut prendre la forme de mimétisme (l’imitation) des
investisseurs. Froot et al. montrent que les spéculateurs de court terme échangent sur
la base d’une information privée. D’autres suivent ces spéculateurs et déduisent la
même information à partir des prix. Alors les premiers spéculateurs qui vont échanger
peuvent profiter de leurs gains lorsque l’information est complètement intégrée dans
les prix. Cela peut donner des inefficiences car les spéculateurs de court terme se
focalisent sur un ensemble réduit d’informations qu’ils ont déduit à partir des prix.
Pour l’interaction via le bouche-à-oreille peut avoir un effet bénéfique sur les marchés
car elle peut favoriser la participation au marché. Hong et al. ont testé ce modèle
grâce à une
base de donnée du plan santé et retraite, ils prouvent que le voisinage incite les
individus à investir dans les marchés financiers. Stein à son tour a montré à travers
d’un modèle fondé
sur la conversation entre des compétiteurs, que les agents ont intérêt à communiquer
de manière honnête, et à ne pas mentir pour ne pas élaborer ensuite des arguments sur
la base
de mensonges.

1.3 L’explication des krachs boursiers à partir du


sentiment des investisseurs
Le terme krach boursier désigne dans la pratique une chute soudaine et violente des
marchés d'actions touchant une ou plusieurs places financières.
Pour expliquer la formation du volume de transaction, Baker et Stein ont posé un
modèle qui repose sur l’interaction entre investisseurs surconfiants et investisseurs
informés. On posant
deux hypothèses : la contrainte sur les ventes à découvert et la surconfiance de
certains investisseurs.
Les investisseurs surconfiants attachent trop d’importance à leur information privée.
Ainsi,en décidant de prendre des positions acheteuses, ils vont entraîner une
augmentation de transaction ce qui va provoquer une hausse des prix. Les
investisseurs informés peuvent intervenir, éventuellement, pour corriger les effets de
sur ou sous-réaction.
Dans ce modèle, la liquidité traduit le sentiment des investisseurs irrationnels.
Ensuite pour expliquer à la fois les variations de volume de transactions et les
mouvements
de prix sur les marchés, Hong et Stein s’appuient sur l’hypothèse d’irrationalité de
certains investisseurs.
Selon leur modèle, l’investisseurs pessimiste s’il reçoit une information pessimiste
sous la contrainte de vendre à découvert, il préfère de rester en dehors du marché et ne
prend pas
part aux transactions. S’il ne participe pas au marché, son information ne sera pas
incorporée dans les prix, ce qui risque de porter les prix vers le haut.
Et si l’investisseur reçoit une information pessimiste, il reste donc en dehors du
marché, il achète les titres. Alors son information sera incorporée dans les prix.

2. LA CONTRIBUTION À L’ANALYSE DU COMPORTEMENT

DES ENTREPRISES

La deuxième partie de la recherche de Stein porte sur la politique financière des


entreprises.
Dans le cas où il n’y a pas de contrainte sur les fonds disponibles, cette politique ne
pose pas de problème car les entreprises sont capables de financer leurs projets
d’investissement. Par
contre dans le cas contraire, c'est-à-dire en situation d’une rareté des ressources, cela
peut avoir un impact sur la politique financière de l’entreprise.
Stein pose la question de l’efficience allocationnelle en interne et en externe de
l’entreprise.
En effet, dans quelle mesure les fonds sont attribués aux emplois les plus productifs.
Modigliani et Miller a imaginé un monde parfait sans frictions, avec une parfaite
substitution entre le financement interne et le financement externe des entreprises, et
de meilleures
opportunités d’investissement. Mais dans le monde réel, il existe de nombreuses
imperfections, c’est ce que Stein essaye d’analyser en montrant leur impact sur les
décisions d’investissement et de financement des entreprises.

2.1. L’effet des frictions sur les décisions financières des


entreprises
Selon le modèle développé par Myers et Majluf , Stein a souligné l’impact de la
sélection adverse sur le niveau d’investissement (ou de sous-investissement) des
entreprises. En effet l’asymétrie de l’information entre les dirigeants et les
investisseurs qui décrit une situation dans laquelle tous les participants à un marché ne
disposent pas de la même information, peut inciter les entreprises à émettre des titres
lorsqu’ils sont surévalués pour augmenter leurs fonds. Mais le marché interprète cette
opération comme un mauvais signal et sanctionne l’entreprise émettrice. Les
entreprises risquent de se dénoncer d’un investissement rentable. Le financement par
la dette ne représente pas une solution
satisfaisante car les entreprises peuvent subir des situations du rationnement du crédit
ainsi que le surendettement.

Pour résoudre le problème de la sélection adverse, Stein propose aux entreprises


l’émission des obligations convertibles et la gestion des risques, Cela permet aux
entreprises de renforcer leur capital et limiter le risque de faillite associé à
l’endettement.

2.2. L’impact des conflits d’agence sur les décisions financières des entreprises

Les conflits d’agence entre les dirigeants et les investisseurs peuvent être liés à la
divergence de leurs intérêts et peuvent aussi conduire les dirigeants à surinvestir ou
sous-investir dans certaines situations. Stein à identifier ces situations :
Premièrement, les dirigeants peuvent souhaiter construire des empires industriels,
commerciaux ou financiers en surinvestissant pour le but de diversifier les risques. Et
les actionnaires ne sont pas toujours d’accord avec ce genre de stratégie.
Deuxièmement, les dirigeants peuvent aussi chercher une vie sans risque
Troisièmement, les dirigeants peuvent développer une stratégie myope, ce qui peut les
conduire à sous-investir. Selon Stein, les dirigeants parfois ont ont une vision
court-termiste de l’entreprise, cette stratégie consiste à gonfler artificiellement le
résultat trimestriel à court terme au détriment de la valeur de long terme à travers la
réduction des charges. Ça peut être incohérent avec les objectifs des actionnaires.
Stein montre, cependant, que le
comportement myope des dirigeants peut appauvrir les actionnaires sur le long terme.

2.3. L’analyse des décisions financières au regard du comportement des dirigeants et


des investisseurs
Scharfstein et Stein développent un modèle de comportement moutonnier dans lequel
le dirigeant ne fait qu’imiter les décisions d’investissement des autres entreprises et ne
pas se baser sur leurs informations privées. Et ça signifie que les dirigeants sont
irrationnels.
Scharfstein et Stein (1990) proposent aussi un modèle fondé sur la psychologie de
groupe, en effet, un dirigeant qui a toujours intérêt à investir dans des projets qui sont
proches des
préoccupations des autres entreprises du même secteur, même si cela ne correspond
pas à l’information qu’il a reçue. Si le projet échoue l’échec sera collectif et ça ne va
pas entamer sa réputation. Les dirigeants peuvent décider de ne pas agir en fonction
de leur information privée et publique, et de leurs propres anticipations de peur
d’entamer leur réputation.
Stein propose un nouvel estimateur de l’estimateur de rentabilité qui tient compte des
erreurs d’anticipation des investisseurs, Dans le cas où l’entreprise subit des
contraintes financières et que les dirigeants ont une vision de court terme.

3 LA CONTRIBUTION À L’ANALYSE DU COMPORTEMENT DES


INSTITUTIONS FINANCIÈRES
La troisième partie de la recherche de Stein porte sur la politique monétaire des
banques centrales, elle est analysée sous deux angles différents : d’une part, ses
canaux de transmission ; d’autre part, la stabilité des marchés financiers. Stein tente
de comprendre comment les banques centrales peuvent influer sur le niveau des
taux d’intérêt dans leur lutte contre l’inflation, il met en évidence l’offre de crédit.
Stein s’intéresse aussi à la manière dont l’action publique peut et doit être mise en
œuvre pour préserver la stabilité du système financier. Il met également l’accent sur le
rôle que doivent avoir les banques centrales dans la préservation de la stabilité des
marchés financiers.
Son analyse est fondée sur l’observation des causes de la crise financière de 2007,
notamment à travers le développement des marchés dérivés.

3.1. Les canaux de transmission de la politique monétaire

Kashyap et al. mettent en évidence l’offre de crédit comme canal de transmission de


la politique monétaire. Ils montrent qu’une politique monétaire restrictive entraine un
changement dans les sources de financement externes de la firme. En effet, dans
le cas où l’économie est en croissance trop rapide et l'inflation en hausse, une banque
centrale peut prendre des mesures pour refroidir l'économie en augmentant
les taux d'intérêt à court terme, ce qui donne une politique monétaire restrictive.
Alors le financement externe, en particulier l’émission de billets de trésorerie,
augmente alors que le recours au crédit diminue. De plus, les crédits bancaires ne sont
pas parfaitement substituables aux émissions de titres pour financer les projets
d’investissement.
Stein propose un propose un cadre théorique général de gestion actif-passif des
banques qui permet de mettre en avant, dans un cadre microéconomique, le fait que la
Réserve fédérale, et plus généralement les banques centrales, peuvent tirer profit des
frictions existant entre les établissements bancaires afin de jouer sur les niveaux des
taux et ainsi sur les emprunteurs se finançant, soit directement par les marchés,soit
auprès des établissements de crédit.
Stein et Hanson soulignent qu’un changement de politique monétaire a un effet sur les
taux anticipés à des horizons longs. En effet, un changement de politique monétaire
induit en fait une modification de la composition de la prime de risque liée à l’horizon
et non un changement d’anticipation des investisseurs. La baisse des taux courts tend
à augmenter la demande des investisseurs pour des obligations à long terme,
provoquant une pression à la baisse sur les taux longs. La politique monétaire se
transmet davantage par l’horizon d’investissement des investisseurs que par les
changements d’anticipation. Contrairement aux modèles macroéconomiques
néokeynésiens, la politique monétaire ne peut pas avoir d’impact sur les taux réels
au-delà d’un horizon plus long auquel tous les prix de l’économie peuvent s’ajuster.

3.2. Stabilisation et régulation des marchés financiers


Stein a consacré ses recherches à l’étude de deux marchés différents : celui celui des
banques commerciales traditionnelles et celui des shadow banks ( la finance de
l’ombre) Il s'agit en fait de tous les intermédiaires financiers qui sont en dehors du
système bancaire traditionnel, et qui participent au financement de l'économie
mondiale.
Hanson et al. a fait une comparaison entre les activités de ces deux types de banque.
Ces activités donne lieu à une création de monnaie ou de « quasi-monnaie » avec
différentes stratégies. D’une part, les banques commerciales traditionnelles disposent
de sources de financement stables et créent de la monnaie en ayant comme collatéraux
des actifs plutôt illiquides à rendement fixe et comptent sur des dépôts et des capitaux
propres relativement onéreux : les déposants sont rassurés, dans la mesure où ils ne
sont guère soumis aux fluctuations observées de la valeur de marché des banques.
D’autre part, les shadow banks créent de la « quasi-monnaie » en donnant à leurs
investisseurs une option de sortie rapide impliquant une liquidation rapide des actifs.
Selon Hanson et al. (2015), les banques traditionnelles disposent d’un avantage
comparatif à détenir des actifs à rendement fixe,caractérisés par un risque réduit, alors
que les shadow banks détiennent des actifs relativement liquides.

Les banques centrales se trouvent confrontées devant plusieurs problèmes notamment


la création de monnaie excessive, selon Stein la création monétaire d’une part se fait
essentiellement par les institutions financières, la banque centrale intervient
notamment à travers les politiques d’open market pour la régulation de la création
monétaire.
D’autre part, le shadow banking crée une partie importante de la monnaie, en réalisant
des prêts à long terme en se refinançant à court terme sur les marchés, lorsque ces
derniers connaissent une crise, le seul moyen pour les shadow banks d’honorer leurs
engagements est de vendre « au rabais » leurs actifs, créant ainsi une externalité
négative : elles payent une dette à court terme à bas coût et ne paient pas les
conséquences financières importantes de cette vente « au rabais ». alors la banque
centrale doit intervenir pour ne pas avoir une création de monnaie excessive. Kashyap
et Stein ont montré que les banques centrale disposent de deux outils pour résoudre ce
problème, soit en réduisant la quantité de réserves dans le système, soit en augmentant
le coût de celles-ci.
Les activités de prêt des banques étrangères dans une autre monnaie que leur monnaie
domestique représentent aussi une source de création de monnaie. Dans Ivashina et al.
Stein s’intéresse au cas particulier des prêts en dollars des banques européennes. Les
auteurs montrent que lors de la crise des dettes de souveraines en Europe , les banques
européennes ont réduit le montant de leurs prêts libellés en dollars, cela signifie que
les montants des prêts libellés en dollar qui ont été plus affectés que les prêts libellés
en euros.
Stein explique cela par le fait que les banques européennes comptent sur des sources
de financement non assurées et relativement accessibles pour financer leurs prêts en
dollar alors que les prêts en euros sont couverts par des dépôts soumis à la crise.

3.3 Régulation de l’information financière sur les taux


d’intérêt Duffie et Stein rendent compte de conclusions mettent en avant les grands
principes nécessaires à l’établissement d’un taux référence IBOR (LIBOR, mais aussi
EURIBOR ou encore TIBOR).
Premièrement, ces taux de référence ne doivent pas être basés sur le jugement des
acteurs du marché, mais plutôt sur les transactions réelles. Deuxièmement, des taux de
référence alternatifs doivent être encouragés, compte tenu de l’évolution des marchés.
Ainsi, à l’origine, les IBORs ont été mis en place afin de mesurer le coût moyen
d’emprunt des banques, et permettaient de mettre en avant la prime liée au risque de
crédit.
Les risques de manupulation sont réduits grâce à l’élargissement des taux de
références.