Vous êtes sur la page 1sur 101

Fiches de lecture :

Les apports des grands


auteurs en Finance

Réalisé par : ADERNI ISMAIL


Année universitaire : 2019/2020

1
Les fondations de la theorie moderne du
portefeuille : Harry M. Markowitz
 BIOGRAPHIE

Harry Max Markowitz est né le 24 août 1927 à Chicago, de parents propriétaires d’une petite
épicerie. Il a reçu le prix Nobel d'économie en 1990 « pour avoir développé la théorie du choix
des portefeuilles pour le placement des fortunes ». En deuxième cycle en économie à l’université
de Chicago, Markowitz s’intéressait à « l’économie de l’incertain », et aux cours de son
professeur Koopman sur l’efficience et l’analyse des portefeuilles efficients.

Durant les années 1955-1956, il a été invité à devenir l’un des membres étudiants de la
Fondation Cowles pour la recherche en économie. Quand il a quitté l’université de Chicago, il a
rejoint la société Rand, qui est considérée comme un laboratoire d’études au service de la
décision politique et économique. C’est là où Markowitz a appris les techniques d’optimisation.

A l’âge de 53 ans, à la rentrée de 1980, Markowitz enseigne pendant deux années universitaires à
l’université de Rutgers, puis au Collège Baruch à New York de 1982 à 1993.

En 1989, il reçoit le prix Von Neumann de théorie de la recherche opérationnelle pour ses
travaux informatiques et principalement pour Simscript. En 1990, il reçoit le prix Nobel
d’économie pour avoir inventé la finance moderne. Il reçoit ce prix avec son ancien doctorant,
William Sharpe et Merton Miller.

Un jour, lorsqu’il a fini la lecture d’un ouvrage d’analyse financière de John Burr Williams : The
Theory of Investment Value (1938), Markowitz a réalisé que le raisonnement mené par l’auteur
ne semblait pas logique. Les flux futurs d’un actif ne peuvent pas être certains, car on ne peut
prevoir tous les facteurs pouvant influencer, positivement ou négativement, la valeur d’un actif.
Pour dire les choses autrement, Markowitz a été certain que les rendements d’une entreprise, ses
recettes et ses dépenses sont incertains, ils sont soumis à de nombreuses influences. C’est bien
cette incertitude qui fait que les actions sont risquées. C’est à partir de ce raisonnement que
Markowitz a introduit la notion du « risque » dans les analyses techniques boursières.

2
Lors de sa lecture du manuel d’analyse financière de John Burr William (1938) « the theory of
investment value », Harry Markowitz s’est interrogé sur le raisonnement de cet auteur.
Cependant, l’analyse se base sur la certitude des flux futurs de l’entreprise alors que qu’ils sont
incertains et donc « risqués ». En effet, Markowitz suppose qu’un actif financier est une
variable aléatoire qu’on peut mesurer son risque par l’écart type et par la suite on peut avoir un
portefeuille optimal ou « portefeuille efficient » dont la rentabilité maximale avec le moindre
risque.

Le modèle de Markowitz

En 1952, Markowitz a introduit une nouvelle approche pour gérer les portefeuilles sur les
marchés. En effet, l’idée de base consistait à déterminer une méthode d’optimisation du
portefeuille, soit en optant pour la maximisation de la rentabilité sous des contraintes de risque,
soit pour la minimisation du risque pour un niveau de rentabilité souhaité. Autrement dit, il ne
convient pas de prendre seulement en compte la rentabilité espérée dans la construction d’un
portefeuille optimal, que l’on appelle « portefeuille efficient », mais également le risque de ce
portefeuille. Ainsi, « le portefeuille efficient » est celui qui donne la rentabilité maximale pour
un niveau de risque donné.

En effet, pour construire un portefeuille optimal, il faut assimiler, au préalable, les actifs a des
variables aléatoires qui suivent une loi normale. Le choix de cette dernière s’explique par le fait
qu’elle soit facile à manipuler, et qu’elle s’applique à des phénomènes variés et différents les uns
des autres.

 Rentabilité et risque

Comme il est déjà mentionné, le choix de la loi normale présente un certain nombre d’avantages,
notamment dans l’explication de l’évolution du cours de l’action, ainsi qu’elle permet de mesurer
sa rentabilité et le risque qui lui est lié, et ce à travers sa représentation graphique, que l’on
appelle « courbe en cloche », qui représente la moyenne arithmétique et l’écart-type des valeurs
des observations.

3
 La moyenne arithmétique représente la « tendance centrale », c’est-à-dire la valeur la plus
fréquente.
 L’écart-type représente la « dispersion » des résultats autour de la tendance centrale,
c’est-à-dire le nombre de fois ou une valeur différente de la valeur la plus fréquente est
obtenue.

Dans ce modèle, la tendance centrale renvoie à la rentabilité espérée, c’est-à-dire le nombre de


fois ou la rentabilité que l’on souhaite générer est obtenue, tandis que la dispersion des résultats
renvoie au risque, c’est-à-dire le nombre de fois où l’on n’obtient pas la rentabilité espérée.

o La rentabilité

A la différence du rendement, qui ne représente que les revenus du capital investi (c’est-à-dire
les dividendes), la rentabilité d’une action comprend à la fois les dividendes qu’elle rapporte et la
plus-value (ou moins-value) éventuelle prélevée lors de la revente de l’action.

Pour Markowitz, le choix d’un investisseur ne se fait pas sur la base du cours de l’action, qui
peut varier sans que la valeur de l’entreprise change, mais plutôt sur la base de sa rentabilité qui
s’obtient par la formule suivante :

Rentabilité (i) = [Cours (i)t – Cours (i)t-1 + Dividendes (i)t] / Cours (i)t-1

Avec :

i : l’action (ou l’actif) i

t : le jour, la semaine, le mois, l’année...

o Le risque

Sur un marché incertain, la détention d’actifs financier peut générer des gains comme elle peut
rapporter des pertes. Ainsi, l’incertitude relative à l’évolution du cours d’un actif représente, pour
un investisseur, une espérance de gains ou un risque de perte. Le risque peut donc être défini
comme une perte financière potentielle relative à la détention d’actifs financiers. Il s’obtient par
l’écart-type gaussien des rentabilités successives des actifs, correspondant aux variations
boursières.

4
En effet, il existe deux types de risque :

Un risque spécifique : relatif à l’activité d’exploitation de l’entreprise et à son mode de gestion,


et indépendant de l’influence des évolutions du marché financier.

Un risque systématique : relatif à la volatilité des cours boursiers, c’est-à-dire la sensibilité d’une
action aux évolutions du marché boursier.

 L’approche espérance-variance

A l’origine, le choix rationnel du portefeuille efficient se déterminait par la fonction d’utilité qui
traduit les préférences des investisseurs selon leur richesse et leur niveau de risque. Ainsi, la
fonction d’utilité est représentée par une courbe d’indifférence sur la base de la relation
rentabilité-risque. La fonction d’utilité est croissante avec la richesse, puisque l’on vise toujours
à devenir plus riche, et varie dans le même sens avec la rentabilité, et dans le sens inverse avec le
risque.

En effet, à cause de la complexité des calculs basés sur les fonctions d’utilité pour la
détermination du choix optimal, Markowitz a opté pour la simplification du choix dans
l’incertain de l’investisseur en mesurant le risque qui affecte la richesse par sa variance. Ainsi,
l’investisseur se base sur deux éléments lors du choix du portefeuille optimal : l’espérance de sa
richesse, qu’il souhaite maximiser, et qui s’obtient par la moyenne des rentabilités possibles
pondérées par leurs possibilités de réalisation, et la variance, qu’il souhaite minimiser.

 Portefeuille optimale

L’idée sur laquelle se base l’optimisation d’un portefeuille, ou bien la construction d’un
portefeuille efficient, est que l’investisseur ne doit pas se baser uniquement sur la rentabilité
espérée d’une action, mais plutôt sur le couple rentabilité-risque. Ainsi, pour évaluer le risque
global d’un portefeuille, il faut se fonder sur les volatilités des valeurs qui le composent. Pour
dire les choses autrement, il faut déterminer la corrélation entre les rentabilités des différents
actifs qui le composent, d’où la notion de covariance.

 La diversification du portefeuille

5
Comme il est déjà dit, le risque global d’un portefeuille se mesure par l’écart-type gaussien des
rentabilités successives des actifs qui le composent. Naturellement, le premier objectif d’un
investisseur est de maximiser sa rentabilité tout en minimisant son risque. Pour ce faire, il faut
qu’il y ait une faible corrélation entre ces actifs. En d’autres termes, il faut diversifier le
portefeuille de façon à ce que l’ajout d’une action à forte volatilité n’augmente pas le risque
global du portefeuille. La diversification du portefeuille vise, donc, à minimiser le risque global.
Cela correspond à l’expression de Markowitz qui dit que « le risque total d’un groupe de titres
différents est inférieur à la somme des risques de ces titres individuels », autrement dit, ne pas
mettre tous ses œufs dans le même panier.

En effet, Markowitz a introduit une nouvelle notion à sa théorie pour la construction d’un
portefeuille optimal : « la loi de la covariance moyenne ». Cette dernière stipule que le risque
global d’un portefeuille est la somme de la variance moyenne des titres qui le composent divisée
par le nombre de titres, et la covariance moyenne des titres multipliée par [(N−1) / N], (avec N :
le nombre d’actions du portefeuille).

En effet, la diversification permet de réduire le risque global du portefeuille, c’est-à-dire le risque


lié à une forte volatilité. Ainsi, plus le portefeuille est bien diversifie, plus la volatilité est moins
forte. En d’autres termes, la diversification permet de réduire le risque spécifique d’un actif.
Toutefois, la diversification ne peut en aucun cas diminuer le risque systématique relatif au
marché boursier comme, par exemple, le cas d’un krach boursier où le marché devient illiquide,
d’où la baisse des cours des actifs.

 La frontière efficiente

La frontière efficiente représente l’ensemble de tous les portefeuilles optimaux possibles, c’est-à-
dire elle renvoie au point au niveau duquel il n’y aurait pas une rentabilité plus importante et un
risque plus faible. Ainsi, la frontière efficiente se détermine par une représentation graphique du
couple rentabilité-risque pour chaque portefeuille d’actifs.

En effet, lorsque l’on représente graphiquement chaque action, composant un portefeuille,


caractérisée par sa rentabilité et son risque, on obtient le schéma suivant :

6
Ce schéma représente l’ensemble des portefeuilles disponibles. La ligne PMin-PMax forme la
frontière efficiente, c’est-à-dire les portefeuilles optimaux. Les crois représentent les actions
individuelles. Les autres portefeuilles sont « dominés » par les autres situant sur la frontière
efficiente, que l’on doit rejeter.

Le portefeuille PMax présente la plus grande rentabilité et le plus grand risque. A l’opposé, le
portefeuille PMin présente la plus faible rentabilité et le plus faible risque. La ligne PMin
représente l’ensemble des portefeuilles qui sont disqualifiés, puisqu’il y a des portefeuilles qui
sont moins risqués pour le même niveau de rentabilité. Ainsi, le portefeuille B et le portefeuille
B’ ont le même niveau de risque, par contre ils n’ont pas le même niveau de rentabilité,
l’investisseur va donc choisir celui qui le plus rentable, c’est-à-dire B. De même, entre le
portefeuille C et le portefeuille B’, l’investisseur va choisir celui qui est le moins risqué, c’est-à-
dire C, puisqu’ils présentent le même niveau de rentabilité.

7
Les outils fondamentaux de la gestion
moderne de portefeuille : William F. Sharpe
 BIOGRAPHIE

Né le 16 juin 1934 à Boston. Il commence des études scientifiques, mais se réoriente très vite
vers la gestion des entreprises puis vers l’économie, à l’Université de Los Angeles. Deux
professeurs exercent alors une influence profonde sur sa carrière : Fred Weston qui, le premier,
l’a introduit aux travaux de Harry Markowitz, et Armen Alchian, président de son jury de thèse.
Après une courte période militaire, il rejoint la Rand Corporation, en 1956, en tant
qu’économiste et commence à travailler avec Harry Markowitz sur un modèle simplifié
d’analyse de portefeuille. Il a travaillé sur la théorie financière. Son ratio de Sharpe permet de
mesurer la rentabilité d'un portefeuille au regard du risque pris. Tout au long de sa carrière, il a
réalisé plusieurs recherches lui permettant ainsi d’être l’un des fondateurs de la théorie
financière. Il a créé l’entreprise FNGN pour pratiquer sa nouvelle technologie moderne en
utilisant ses théories financières dans des scenarios dans la réalité. Ainsi il a une entreprise de
consultation avec son nom dont il fréquente souvent et donne plus d’importance après sa retraite
de l’enseignement.

Contrairement à Samuelson (1965) et à Fama (1968), Markowitz (1952), Tobin (1958) et Sharpe
décrivent des investisseurs maîtres de leur destin comme le note très justement Bernstein (1995,
p. 189) : « les théories des choix de portefeuille montrent des investisseurs qui choisissent un
actif plutôt qu’un autre, qui arbitrent prudemment entre risque et rentabilité attendue, et qui
constituent des combinaisons optimales d’actifs appelées portefeuilles efficients »

Etant donné que William Sharpe a travaillé avec Markewitz sur un modèle simplifié d’analyse
de portefeuille, il a élargi à son tour les travaux de Markowitz sur la deuxième étape du
processus de sélection de portefeuille : l’analyse de portefeuille. Sa démarche vise à alléger la
procédure de détermination de la frontière efficiente.

8
En effet, puisque la simplicité se trouve au cœur de cette analyse, William Sharpe apporte une
solution au problème d’utilisation du modèle de sélection de portefeuille en développant son
modèle diagonal.

Les avantages de ce modèle se voient dans sa simplicité et la prise en compte d’un grand nombre
d’interrelation entre les titres. Donc Sharpe a pensé à la possibilité d’approfondir ses recherches
pour réaliser un équilibre. C’est ce qui le conduira à l’élaboration du MEDAF.

La caractéristique principale de son modèle diagonal réside dans l’hypothèse que la rentabilité
des différents titres dépend principalement d’un facteur sous-jacent, uniquement par des relations
courantes. La rentabilité de chacun des titres est déterminée par des facteurs aléatoires et cet
élément extérieur seul.

Même si le programme diagonal aide à réduire le temps de calcul, il existe quelques analyses
dont le coût est assez important qu’on ne peut pas le négliger, donc Sharpe a limité les calculs à
ceux qui sont essentiels pour la sélection finale du portefeuille. Donc le programme diagonal
restreint les calculs à ceux qui sont nécessaires pour déterminer l’ensemble final des portefeuilles
efficaces.

Afin de tester la fiabilité du programme diagonal en ce qui concerne sa capacité à résumer les
informations de la performance des titres, une expérience a été effectuée :

Choix de vingt titres au hasard sur le New York Stock Exchange et leurs performances sur la
période 1940-1951 avec deux ensembles de données :

 la moyenne des rentabilités, les variances et covariances des rentabilités réalisées sur la
période ;
 les paramètres du programme diagonal, estimés par les techniques de régression à partir
des performances des titres durant la période.

Puis une analyse de portefeuille est menée sur chaque ensemble de données. Il apparut que les
soixante-deux paramètres du modèle diagonal sont capables de saisir une part très importante de
l’information contenue dans l’ensemble complet des 230 relations historiques. Un test
supplémentaire, effectué sur un nouvel ensemble de vingt titres, donna des résultats similaires.

9
Par conséquent, Sharpe remarque alors que « même si ces résultats sont trop fragmentaires pour
être considérés comme concluants... ils suggèrent que le modèle diagonal peut être capable de
représenter assez bien les relations existant entre les titres et par la suite que la valeur des
analyses de portefeuille fondées sur ce modèle excède leur coût. Pour ces raisons, ce dernier
apparaît être un excellent choix pour les premières applications pratiques de la technique de
Markowitz ».

Sharpe a constaté au début des années 60 que les investisseurs achètent les actifs risqués dans le
cas où la rentabilité est supérieure au taux sans risque.

Selon Treynor, prime de risque par action est proportionnelle à la covariance de l’investissement
avec la valeur totale de tous les investissements dans le marché. Alors que Sharpe considère
l’influence du risque sur l’évolution de tous les actifs qui constituent le marché à un moment
donné.

L’absence d’une théorie pour donner une signification réelle à la relation entre prix d’un actif
individuel et son risque, Ainsi les rentabilités sont liées par le biais d’une relation commune avec
un facteur sous-jacent de base.

Donc, un investisseur devra s’intéresser uniquement à la contribution de chaque actif individuel


au risque de l’ensemble de son portefeuille et à l’élaboration d’une théorie des prix actifs à
l’équilibre du marché dans des conditions de risque qui constitue l’apport majeur à la théorie
financière de la décennie soixante.

Sharpe propose :

 La construction de la droite de marché (Capital market line) : tout investisseur a la


possibilité de prêter et d’emprunter au taux sans risque. L’investisseur rationnel se place
(son portefeuille) sur la droite partant du point de risque nul et de rentabilité = taux sans
risque (Rf) en passant par le point de tangence avec la frontière efficiente. Donc une
rentabilité supérieure due au risque supplémentaire.

Ep = Rf + (Em-Rf)/ δm * δp

Δm: Mesure du risque du marché

10
Δp: Mesure du risque du portefeuille

(Em-Rf): espérance de rentabilité du portefeuille du marché (Prime de risque du marché)

Ep: espérance de rentabilité du portefeuille P

 Relation permettant d’évaluer le prix d’équilibre d’un actif financier (Security


market line)

(Ei – Rf) = (Em – Rf)* δiM/ δM2

La droite de marché : Le rendement d’un portefeuille efficient est une fonction linéaire de son
risque total.

 Détermination de la relation entre le rendement d’un actif quelconque et celui du


marché.

Méthode des moindres carrés = Droite caractéristique d’un titre

Risque de tout titre :

 Risque systématique du portefeuille qui est lié au portefeuille du marché et qui est
non diversifiable.
 Risque spécifique au portefeuille qui peut être éliminé par la diversification.

Dans le cas de portefeuille efficient : Risque total = Risque systématique, ainsi les rendements
des titres sont en fonction de plusieurs facteurs.

Sharpe a fait une étude dont il a constaté que les actions sont plus rentables que les bons de trésor
ainsi que les obligations à long terme mais le montant est inférieur à celui des actions.

Une nouvelle théorie s’est développée par Ross APT (arbitrage pricing theory) ou évaluation par
arbitrage, qui suppose que tout titre i a un rendement qui est précisé selon une fonction linéaire
de m facteurs.

Alors que le MEDAF ne considère qu’un seul facteur commun pour l’ensemble des titres.

APT est un cas particulier.

11
Le MEDAF est une théorie de maximisation d’utilité de chaque investisseur. Ainsi montre qu’un
investisseur rationnel doit détenir une combinaison d’actifs sans risque et du portefeuille de
marché. Avec un apport essentiel qui est la détermination d’une prime de risque liée à tout actif
risqué, aussi l’explication de cette prime de risque par la seule composante systématique du
risque de portefeuille. Afin d’estimer la rentabilité et le risque futur d’un portefeuille, il est
nécessaire de disposer de sa juste évaluation. Le MEDAF s’applique à tous les actifs et
notamment les obligations.

Le MEDAF qui est difficile à tester, se base sur la notion mathématique de taux de rentabilité
anticipé. Donc la question qui se pose est quelles sont les anticipations à utiliser lors de
l’application du modèle.

Puisque les investisseurs ont des anticipations plus optimistes sur les conséquences de leurs
décisions que les extérieurs. En effet, le MEDAF repose sur la rationalité des investisseurs et
l’efficience du marché.

Pour FAMA et FRENCH, un modèle a plusieurs facteurs tel que l’APT de Ross et non pas un
seul comme MEDAF. (La mort du bêta)

En 1998, Sharpe argumente ses recherches et estime que MEDAF et bêta ne sont pas morts.
Donc, MEDAF était et reste une théorie d’équilibre.

Les rendements espérés plus élevés vont avec les risques plus élevés et donc possibilité de
réaliser des performances médiocres dans les mauvaises périodes.

Avec l’évolution, il inclue aujourd’hui d’autres facteurs tels que les dividendes.

Modèle trifactoriel de Fama et French : bêta est moins déterminant que la capitalisation boursière
(Book to market value).

Sharpe dit que les chercheurs ont tendances à surestimer leur étude empirique particulières.

L’application du ratio repose sur des hypothèses sous-jacentes :

o Un unique portefeuille risqué ne peut être comparé à la fois qu’à un unique


portefeuille sans risque.

12
o Aversion totale au risque de la part de l’investisseur.
o Distribution selon une loi normale des rendements dans le cadre moyenne-
variance.

Sharpe mentionne que Fama et French utilisent des rendements moyens réalisés et non pas
espérés, et selon lui les résultats d’une étude empirique sont contingents d’une période, d’un pays
ou d’un compartiment de marché. Dans les données, il est difficile de trouver une relation
significative statistiquement entre les bêtas mesurés et les rendements moyens des actions
individuelles sur un marché donné. Il est facile de construire un modèle de marché parfaitement
efficient dans lequel ce phénomène pourrait se produire quel que soit la période. Donc la
situation optimale implique une théorie construite logiquement et avec prudence pour qu’elle soit
compatible avec les données. Sharpe dit que le modèle tri factoriel n’est pas incohérent avec le
MEDAF.

APT : peu de facteurs suscitent des corrélations, rendement espéré d’un titre doit être en fonction
de son exposition à ses facteurs. L’APT est plus puissant, il pose des hypothèses fortes
concernant le processus de production des rendements, mais il est faible par le fait qu’il y a peu
de choses dites sur le rendement espéré. On constate que Sharpe donne plus d’importance aux
rendements espérés.

 L’évaluation des performances des portefeuilles :

Traditionnellement la mesure de la performance des portefeuilles se fait selon la moyenne


variance issue du MEDAF donc à l’aide de 2 composantes : La rentabilité et le risque.

Teynor en 196 propose une mesure sous forme de ratio.

Tp = (Rb-Rf)/ βb

Avec (Rb-Rf) : prime de risque et βb : risque systématique du portefeuille.

Alors que le ratio de Sharpe (1966), indique le différentiel de rendement espéré par unité de
risque associé au différentiel de rendement. Sharpe et Treynor ont défini des ratios proches, mais
celui de Sharpe analyse par rapport au risque total du différentiel de rendement et pas sur le bêta

13
rapport systématique. Un ratio de Sharpe négatif signifie que le portefeuille fait moins bien que
le taux sans risque. Les résultats historiques ont au moins un pouvoir prédictif.

Pour maximiser le contenu de Sharpe, il est souhaitable de mesurer les risques et les rendements
en utilisant des périodes courtes.

Pour bien mesurer l’apport de Sharpe, il faut approfondir 2 points : Le portefeuille de référence
retenu et l’indépendance d’échelle.

 Le choix du portefeuille de référence :

Benchmark : l’’écart-type attendu ou différentiel de rendement est souvent assimilé à la volatilité


des rendements du portefeuille à évaluer.

Donc le portefeuille de référence est l’actif sans risque, car sans écart-type est nul.

Alors l’écart-type attendu de d est égal à celui de b (portefeuille à évaluer). Le portefeuille de


référence doit être l’actif sans risque.

Dans un autre cas, le ratio de Sharpe détermine l’intérêt ou non d’un investissement dans un
portefeuille X, par rapport à un investissement similaire (proche des attentes de l’investisseur).

Pour un portefeuille plus performant il faut avoir un ratio élevé.

 Indépendance d’échelle :

Sharpe utilise une analyse de style pour sélectionner un ensemble d’actifs avec un style similaire
à celui de fonds. Dans les applications où le ratio représente le paiement d’une unité
d’investissement dans le fonds financé par emprunt. Pour Sharpe l’indépendance d’échelle est
plus qu’un objet mathématique, c’est la clé pour comprendre pourquoi le ratio de Sharpe peut
procurer une statistique efficiente dans une stratégie d’investissement zéro. Le ratio de Sharpe est
utilisé pour mesurer le rendement espéré par unité de risque pour une stratégie d’investissement
zéro. La différence entre les rendements sur deux actifs d’investissement représente le résultat
d’une telle stratégie.

 Analyse du mode de management :

14
C’est l’utilisation d’un programme quadratique pour déterminer le sensibilité du fonds aux
rentabilités des différentes classes d’actifs. Son objectif est de sélectionner le mode (ensemble
d’actifs explicatifs) qui minimise la variance de cette différence.

Cette différence appelée Tracking error du fonds. Cette analyse fournit des informations
pertinentes sur le gérant des fonds, car selon ça, il est possible de déterminer la combinaison
(implicite) de l’actif de l’épargnant.

Ce qui revient à dire que l'investisseur a intérêt à tout placer sur le titre qui a le plus fort
rendement actualisé ,chose qui a était rectifier suivant le modèle de Sharpe qui a prouvé que le
risque d’un portefeuille bien diversifier est constitué principalement du risque de marché donc
les investisseurs diversifient leurs portefeuilles parce que le risque les préoccupe tout autant que
les rendements.

Ce qu’il faut savoir, c’est qu’en détenant plusieurs actifs dans un portefeuille, on parvient à faire
chuter et à terme à faire disparaître le risque spécifique à chaque société. Toutefois, le risque
systématique affectant tous les actifs d’une manière égale, il ne peut pas être diversifié. Donc la
diversification permet de faire disparaître une partie du risque, mais pas le risque en entier. Les
critères d’efficacité (ratio de Sharpe) ou de risque baser calcul de beta s’avère insuffisante pour
la construction d’un portefeuille efficient, du fait que la diversification peut être parfois illusoire
si la sélection est effectuer exclusivement sur cette base, aussi parce qu’elle n'est bien sûr
d'aucun secours si tous les titres s'effondrent ensemble. Le modèle d’évaluation de classes
d’actifs de Sharpe est une aide à la prise de décision dans le choix d’investissement.

En ce qui concerne la recherche théorique, William F. Sharpe publie en 1964 un article qui
définit les conditions d’équilibre d’un« marché efficient » d’actifs financiers, c’est-à-dire d’un
marché où des investisseurs rationnels décident de leurs transactions en se conformant aux
principes de diversification « efficiente » des placements définis par Markowitz. Modèle
d’équilibre des actifs financiers(MEDAF) est le point principal de l’étude Sharpe, qui lui vaudra
le prix Nobel en 1990.

15
Certes, la mise en place du modèle de marché par W. Sharpe constitue le premier pas dans la
gestion de portefeuille, du fait de la simplicité de sa mise en œuvre et que les études empiriques
ont montrées sa validité, mais il subit des insuffisances comme tout modèle théorique.

Le raisonnement d’arbitrage et la se paration des


decisions d’investissement et de financement :
Merton H. Miller & Franco Modigliani
 BIOGRAPHIE

Merton Miller (1923- 2000) :


Merton Miller est un économiste et professeur de finance américain né le 16 mai 1923 à Boston,
Massachussetts. Il obtient son Bachelor (A.B.) en économie de l’Université Harvard en 1944. Et
pendant six années, de 1943 à 1949, il travailla comme économiste dans l’administration
américaine successivement à la direction du Trésor américain et à la Federal Reserve Bank,
avant d’entreprendre ses études doctorales en économie à la John Hopkins University dont il fut
diplômé en 1952. Il fut enseignant au Carnegie Institute of Technology dès 1953 et publie cinq
ans plus tard avec Franco Modigliani leur travail concernant le domaine de la théorie des
finances.
En 1961, Merton Miller rejoignit la Graduate School of Business de l’Université de Chicago en
tant que professeur d’économie et de finance. Ce business school devint son port d’attache pour
quarante ans. En 1990, il reçut le prix Nobel d’économie.

Franco Modigliani : (1918-2003)


Franco Modigliani, est un grand économiste italo-américain né le 18 juin 1918 à Rome.
Après avoir obtenu ses diplômes en économie à l'Université catholique du Sacré-Coeur, il quitte
son pays et immigre aux Etats-Unis en 1939 pour fuir la persécution du régime fasciste. Il obtient
son doctorat à la New School for Social Research de New York en 1944 et prend la nationalité

16
américaine en 1946. En 1948, il est nommé au département d'économie politique de l'Université
de Chicago et rejoint la prestigieuse Cowles Commission for Research in Economics. Il y côtoie
des économistes de premier plan tels que Marschak, Koopmans, Arrow ou Simon. Il enseigne
l'économie et la finance dans d'autres universités américaines, dont l'université Carnegie-Mellon
et la MIT (Massachusetts Institute of Technology).
Modigliani est surtout connu pour ses travaux avec Richard Brumberg sur le cycle de vie dans sa
théorie sur l'épargne et ses travaux avec Merton Miller sur la finance d'entreprise, notamment sur
la neutralité de la structure financière sur le résultat par action. Président de l'American
Economic Association en 1976, il reçoit le prix Nobel d’économie en 1985 pour ses travaux sur
le comportement d'épargne des ménages et le théorème Modigliani-Miller sur les marchés
financiers.

 La structure de financement des entreprises :

La thèse principale de Modigliani et Miller (1958) postule l’indépendance de la structure


financière, qui est mesurée par son levier financier (dettes financières / fonds propres) et la
valeur de la firme. En d’autres termes, la valeur de la firme serait indépendante de son
endettement donc de sa politique de financement. La démonstration de cette thèse repose sur un
certain nombre d’hypothèse :
 Les marchés sont parfait et efficient, ce qui signifie entre autres, que les taux de prêt et
d’emprunt identiques, et que l’information est transparente (tous les agents dispose de la
même information au même moment sans aucun décalage).

 Un monde sans fiscalité ; une absence de l’impôt, des coûts de transactions et de faillite.

Ainsi, La contribution de M&M à la question du coût du capital s’est effectuée principalement en


deux temps : tout d’abord dans un monde sans impôt (Modigliani et Miller, 1958) et ensuite en
considérant l’impact de la fiscalité de la firme (Modigliani et Miller, 1963).

17
 L’impact de la dette sur la valeur de la firme dans un monde sans
impôt :

Lorsque Modigliani et Miller publièrent leur article séminal de 1958 sur le coût du capital des
entreprises et la théorie de l’investissement, ils déclenchèrent une véritable révolution dans le
monde académique et professionnel de la finance. Leur article démontrait - certes dans un cadre
théorique restrictif - que la valeur de marché de la firme était indépendante de son niveau
d’endettement et que, par conséquent, son coût du capital était constant. La logique utilisée par
M&M est en réalité d’une grande simplicité. Elle repose sur l’idée que si une firme retire un
avantage (valorisation plus élevée et coût moyen pondéré du capital (CMP) plus faible) de
l’endettement, cet avantage doit pouvoir être répliqué par un investisseur qui s’endetterait
directement auprès du marché. Ainsi, grâce à cet « home made leverage » et au processus
d’arbitrage, la valeur des firmes ne se distinguant que par leur structure de financement doit être
égale à celle des non endettées. La démonstration nécessite des marchés financiers parfaits ;
notamment la capacité des investisseurs à emprunter au même taux d’intérêt que les entreprises
et une absence totale de fiscalité tant sur les bénéfices que sur les revenus des investisseurs.
Ainsi :

CMP = FP/Vi*Cfp + D/Vi*Cd

Où le Cfp = Ra + (Ra-Cd)*D/FP

FP : Fonds propres
Vi : valeur totale (dettes + capitaux propres)
Cfp : Coût des fonds propres
D : Dettes financière
Cd : Coût des dettes
Ra: Rentabilité d’actifs

18
 L’impact de la dette sur la valeur de la firme soumise à l’impôt
des sociétés :

À la suite des nombreuses critiques et discussions académiques (notamment de la part des


partisans du courant classique) déclenchées par leur proposition sur la neutralité de l’endettement
sur la valeur de la firme dans un monde sans impôt, M&M se résolurent en 1963 à affiner leur
résultat en introduisant la fiscalité dans leur raisonnement. En effet, l’argument principal de la
neutralité de la structure financière sur la valeur de la firme réside dans le fait qu’il n’y a pas
d’avantage à ce que l’entreprise recoure à l’emprunt si les investisseurs peuvent s’endetter dans
les mêmes conditions que celle-ci. Si les conditions d’emprunt sont plus avantageuses pour la
firme que pour les investisseurs, du fait de la déductibilité des charges financières de l’impôt, il
est clair que la firme endettée bénéficiera de cet avantage et verra sa valeur augmentée d’autant.
Une autre façon de présenter ce résultat est de dire que si la dette bénéficie d’un avantage fiscal
par rapport aux fonds propres, étant donné que dans un monde sans impôt la valeur de la firme
est indépendante de son mode de financement, la firme endettée aura une valeur supérieure à
celle qui n’a pas (ou a moins) de dette. Ainsi :
 Vl = Vu + valeur actuelle (d’économie d’impôt)
 Soit Vl : Valeur de l’entreprise endettée
 Vu : Valeur de la firme non endetté
 Va : le montant de l’endettement * le taux d’imposition
 CMP = FP/Vi*Cfp + D/Vi*Cd * (1-t/IS)
 Cfp = Ra + (Ra-Cd)*D/FP*(1-t/IS)

Au total, dans un monde où seules les entreprises ont la faculté de bénéficier de la déductibilité
des charges financières de leur revenu imposable, il apparaît que la bonne stratégie financière
consiste à profiter au maximum de cet avantage en n’hésitant pas à les financer avec des dettes.
À la limite, pourquoi pas un endettement à 99 % pour faire le plein des avantages fiscaux ? La
réponse se trouve, entre autres, dans le risque de faillite qu’une telle politique ne manquerait pas
d’entraîner. Or, une des hypothèses de M&M est l’absence de risque de faillite.

19
 La politique de dividende :

Comme nous l’avons déjà vu, les contributions de Modigliani et Miller ont véritablement
révolutionné l'analyse de l'impact des modes de financement sur la valeur de l'entreprise.
Un de leurs apports tout aussi important et déterminant est en matière de dividende, qui est une
autre décision financière majeure puisqu'elle concerne la forme que la rémunération des
actionnaires doit prendre.
À la fin des années (1950), nombreux sont ceux qui pensaient que le prix des actions, et par
conséquent la valeur de la firme, dépendaient du montant des dividendes servis aux actionnaires.
Cette position était renforcée par les enseignements de la finance classique, jusqu’en 1961 où
Miller et Modigliani expliquèrent que cette conclusion était erronée. Ils démontrèrent qu'il en
allait des dividendes comme du financement : sur un marché parfait, la simple manipulation de
variables liées au financement ne crée pas de valeur. M&M reconnaissent que la valeur de
l’action est égale à la valeur actuelle des dividendes qu’elle servira. Ils admettent donc qu’un
accroissement des dividendes peut entraîner une augmentation de la valeur de l’action, mais il
faut que cet accroissement du dividende trouve sa justification dans une amélioration de la
capacité bénéficiaire de l’entreprise. Autrement dit, dans ce cas, ce n’est pas le dividende en tant
que tel qui affecte la valeur de l’entreprise.

 La thèse de la neutralité des dividendes sur la valeur de


l'entreprise :

Pour isoler l'impact des seuls dividendes sur la valeur de l'entreprise, M&M supposent que les
politiques d'investissement et de financement de l'entreprise sont fixées et qu'elles ne sauraient
être affectées par la décision de distribution des bénéfices.
M&M posent donc le problème en ces termes : pour une structure financière et pour un montant
d’investissements donnés, peut-on modifier la valeur de l’entreprise en manipulant les
dividendes ? La réponse à cette question est, bien évidemment, négative puisque, dans ce

20
contexte, tout euro de dividende qui aurait pu permettre d’autofinancer l’investissement doit être
compensé par un euro de fonds propres levé sur le marché financier.
Ils développent leur argumentaire de la manière suivante dans un monde sans impôt. Une
entreprise, qui dispose de suffisamment d'opportunités d'investissement pour réinvestir tout
l'autofinancement qu'elle a dégagé, peut néanmoins distribuer tout ou partie de cet
autofinancement sous forme de dividendes. Afin de réaliser son programme d'investissement,
elle doit alors faire appel au marché financier pour récupérer ce qu’elle a distribué, ainsi et pour
que cette décision ne modifie pas sa structure financière, l’entreprise ne doit pas recourir à
l’emprunt. Il faut donc qu’elle réalise une augmentation de capital et émette des actions
nouvelles. Par conséquent, la distribution de dividendes l’amène à donner aux actionnaires d'une
main, sous forme de dividendes, ce qu'elle reprendra de l'autre, sous forme d'augmentation de
capital. Il s'agit là d'une « opération blanche », qui ne peut pas affecter la valeur de l'entreprise.
M&M concluent donc que la valeur de l'entreprise est totalement indépendante de sa politique de
dividende (elle ne dépend que de la rentabilité de ses investissements) et qu’il n'est pas utile de
préconiser quoi que ce soit aux responsables financiers en la matière. En d’autres termes, la
distribution de dividendes n’est qu’une opération de répartition et qu’en conséquence une telle
décision ne peut être créatrice de valeur.

21
L’efficience informationnelle des marches
financiers : Eugene F. Fama & K. French
 BIOGRAPHIE

Eugene F. Fama, entièrement Eugene Francis Fama né le 14 février 1939 à Boston,


Massachusetts, États-Unis. Économiste américain et professeur de finance à la Booth School of
Business de l’Université de Chicago. Il est professeur dans cette université depuis 1963 où il a
obtenu en 1964, sa thèse de doctorat. Il a occupé aussi plusieurs postes académiques et
professionnels, À savoir : poste de professeur invité à l’EIASM de Bruxelles en 1975-1976, et
président du CRSP dans l’Université de Chicago, ainsi il était également un membre du conseil
d’administration et directeur de la recherche à DFA. Fama est un auteur très productif, sa
bibliographie est très riche en plusieurs articles scientifiques, 2 ouvrages2 et autres travaux de
recherche. Grâce à cette intensité de travail, il a reçu en 2013 le prix de la banque de suède en
sciences économiques pour sa contribution au développement de l'hypothèse d'efficience du
marché et à l'analyse empirique des prix des actifs dont il montre qu’il est très difficile de prévoir
les fluctuations des prix des actifs à court terme, car les marchés intègrent très rapidement les

22
nouvelles informations pertinentes pour les prix. Sa thèse se voit largement utilisée dans le
domaine de la finance pour décrire le fonctionnement des marchés financiers.
Arrivant à K. French, il est un économiste américain né le 10 mars 1954. Il est professeur de
finance à la Tuck School of Business du Dartmouth College. Il est souvent connu pour son
travail avec Eugène Fama sur l'évaluation des actifs. Il est le coauteur privilégié de Fama
puisqu’ils ont 41 publications en commun, citées plus de 80 000 fois selon Google Scholar.
Ensemble, ils ont mené des travaux remettant en cause le modèle d'évaluation des actifs
financiers (MEDAF) et développé le modèle Fama-French à trois facteurs.
Les travaux de Fama se distinguent par des recherches fortement empiriques qui se sont basées
bien sûr, sur les observations issues des différents développements théoriques. L’un des facteurs
de l’essor de ces travaux, voire des recherches de la finance en général, était que les États-Unis
donnaient une grande importance quant aux recherches empiriques.

Efficient Capital Markets : a Review of Theory and Empirical Works 1970 / The theory of
finance 1972
Les travaux de Fama sont regroupés dans l’ouvrage « Les Grands Auteurs de la Finance », en
trois sections :
 La modélisation de la relation Rentabilité/Risque ;
 L’efficience informationnelle ;
 Les décisions de gestion.

 LA MODÉLISATION DE LA RELATION RENTABILITÉ


RISQUE :

Fama a été amené pour comprendre la relation entre le couple rentabilité risque, à produire un
bon nombre de travaux sur le modèle d’évaluation des actifs financiers (MEDAF). Ensuite, il a
proposé avec French, le modèle à trois facteurs. Ces deux modèles sont continuellement
présentés ci-après.
1) Le MEDAF :

23
Fama fait une démonstration de la relation de linéarité pour n’importe quel portefeuille dominant
entre son risque systématique (β) et la rentabilité espérée (E (RM)). Le fameuxapport de Fama
est certainement la méthodologie de test du MEDAF en coupe instantanée,où il examine le cas
d’un investisseur dont les choix ne se limitent pas à une seule période.
Fama et Schwert exposent un thème modifié du MEDAF pour tenir compte d’un actif dit
nonnégociable : le « capital humain », et présentent un test sur des données de l’économie des
États-Unis. Le taux de rentabilité sur le « capital humain » est faiblement corrélé avec la
rentabilité des actions, ce qui signifie que le fait de prendre en compte les salaires par exemple,
n’améliore pas la capacité de l’explication du MEDAF. Ce modèle a été étendu théoriquement
par Fama en 19703
2) Le modèle à trois facteurs :
Le modèle Fama-French à trois facteurs est une explication empirique du rendement attendu
d’un actif financier. Les appréciations effectuées par Fama et French montrent que le modèle
arrive à expliquer une grande partie (environ 90 %) de la variation du rendement mensuel des
actions des bourses du NYSE, AMEX et NASDAQ. Ces deux auteurs ont constaté que les
entreprises de croissance sont moins risquées que les valeurs de substance (ou de rendement) et
que celles de petite taille sont plus risquées que les entreprises à fort capital. En effet, les
entreprises les plus rentables sont les entreprises les plus risquées.
N.B : Pour Fama et French, le MEDAF ne permet pas d’expliquer les différences de rentabilité
observées. Le risque ne peut être réduit à un facteur unique et commun à tous les titres.
Pour Fama et French, une capitalisation boursière faible signifie le plus souvent des risques plus
élevés pour l'investisseur. Plus une entreprise est de petite taille, plus ses chances d’être
défaillante, sont élevées. Encore, plus un titre est risqué, plus la rentabilité exigée par les
actionnaires est élevée. → Effet Taille. L'effet Taille est l'anomalie la plus traitée dans le
domaine de la finance tout autant par les praticiens que par les théoriciens.

Le bêta classique des titres garde son utilité pour estimer la sensibilité au facteur commun qui est
l’un des trois facteurs : « le bêta n’est pas mort, mais le MEDAF lui l’est » disait E.fama dans un
interview par Jonathan Burton (2000)
Valeur comptable / valeur de marché

24
Toutefois, Fama et French ont mis en place le ratio Book-To-Market (BE/ME). Ce ratio permet
de rapporter la valeur comptable de l'action d'une société à sa valeur de marché. Il permet en
outre d'apprécier le niveau de valorisation élevé, ou non, d'une action. Le ratio BE/ME est un
indicateur de profitabilité plus crédible que la taille.
Constat :
↗ De la valeur du ratio BE/ME (valeur de substance) → ↘ niveau de bénéfice postérieur
↘ De la valeur du ratio BE/ME (valeur de croissance) → ↗ valeur de profitabilité.

Ultérieurement, Fama et French ajoute deux autres facteurs en prenant compte de l’effet
Momentum en raison que le marché englobe plusieurs variables (variables de pente de la courbe
des taux d’intérêt, prime de défaut...). Effectivement, l’addition d’un Facteur Investissement qui
prend en considération le taux de croissance des actifs, ainsi qu’un
Facteur Profitabilité pour donner une version à cinq facteurs qui permet certaines améliorations
marginales (Fama et French, 2017).

 L’EFFICIENCE INFORMATIONNELLE :

Arrivant à la deuxième section, il ressort que le concept de Fama de l’efficience n’a pas vraiment
évolué depuis le début des années soixante, puisque la plupart des auteurs s’intéressant à la
problématique de l’efficience renvoient à Fama la définition classique : un marché dans lequel
les cours « reflètent complètement » l’information disponible est dit efficient.
 Efficience et rational pricing : En plus de détail, Fama attribue le caractère efficient
(informationnellement) au marché, où une prévision profitable est impossible pour
quiconque. Réellement au sens de Fama, on peut faire des prévisions mais de manière
non profitable. Par ailleurs, mener un test d’efficience est une action véritablement
délicate, vue la diversité des hypothèses prises en comptes dans l’expérience de ce test.
Ces points-là sont contenus dans la valeur fondamentale des cours, le caractère de la
prévision (profitable ou non) et la diversité des hypothèses.
 Les cours et la valeur fondamentale : La valeur fondamentale et les cours sont déterminés
par deux aspects : la répartition de l’information parmi les investisseurs ; la capacité du
marché à agréger les informations individuelles et à produire des cours les reflétant. Fama
explique que dans un contexte d’un marché quelconque (exclusion du monopole), un

25
désaccord sur l’interprétation d’une information ne remet pas en cause l’efficience, à
condition que les investisseurs ne bénéficient pas d’un avantage informationnel. Pour
Fama, dans un marché efficient, les cours varieront de manière aléatoire autour de leur
«valeur fondamentale ». Le coût de l’information et les conditions de diffusion
(incertitude et informations imprécises) engendrent des écarts entre la valeur
fondamentale et les cours.
 La prévision de la profitabilité : Pour Fama, les anomalies de long terme ne permettent
pas de falsifier l’hypothèse d’efficience, car les surévaluations sont aussi fréquentes que
les sous-évaluations. Le fait de ne pouvoir prévoir de manière profitable les cours futurs
ne pourrait être totalement satisfaisant, puisque des écarts d’évaluation importants,
engendraient une baisse de l’efficience allocationnelle et de la performance du marché.
→ C’est le contraire pour Fama.
 Les hypothèses jointes et les tests empiriques de l’efficience : Un test de l’hypothèse
d’efficience doit être mené à l’aide d’une autre hypothèse jointe qui porte sur le modèle
d’équilibre. Les recherches sur l’efficience informationnelle et celles sur les déterminants
des taux de rentabilité sont contenues dans le travail scientifique de Fama, intitulé « Two
pillars of asset pricing » Le test de volatilité stipule que sur un marché efficient, la
variance des prix de l’actif doit être bornée par une valeur théorique qui ne dépend que de
la variabilité des déterminants fondamentaux du prix. Shiller (1981)

 DÉCISIONS DE GESTION :

Les travaux de Fama concernant cette section traitent des décisions de distribution,
d’investissement et de financement. L’auteur est connu par sa grande contribution en théorie des
organisations.
1- Décisions de distribution : La politique de distribution des entreprises est apparemment
rigide, ainsi que le taux de distribution cible est supposé défini par rapport au bénéfice
net. L’ajustement du niveau actuel de distribution au niveau espéré se fait de façon
graduelle. L’innovation du modèle de

26
Fama et Babiak est de supposer un ajustement total du niveau de distribution par rapport à la
composante anticipée du bénéfice et seulement partiel par rapport à la composante non anticipée.
L’intérêt du modèle est lié à la qualité des ajustements obtenus.
En 2001, Fama et French montrent que le pourcentage d’entreprises américaines cotées qui
versent un dividende est passé de 65,5 % en 1978 à 20,7 % en 1998. Cette baisse est expliquée
par l’augmentation de la proportion des TPE et d’entreprises déficitaire (donc pas de distribution
de dividendes). C’est en fait une baisse de la propension à distribuer qui est observée au niveau
de toutes les entreprises cotées. Fama et French mettent en évidence plusieurs raisons, et parmi
ces raisons : une évolution des possibilités de contrôle des dirigeants par les actionnaires qui
rendrait moins impérieux le recours au dividende dans la résolution des conflits d’agence.
2- Décision d’investissement : Fama et Miller précisent que, sous l’hypothèse d’un marché
concurrentiel, la satisfaction des actionnaires exige des décisions d’investissement et de
financement qui maximisent la valeur de marché de l’entreprise. Il y a ainsi une
hétérogénéité entre les bienveillances des actionnaires et la décision d’investissement de
la firme.
3- Décision de financement :Fama et French soulignent que l’effet d’information domine
dans la connexion entre le dividende et la valeur de l’entreprise comme entre le levier et
la valeur de la firme. Ces deux auteurs montrent que sur la période 1965-1997 sur les
marchés américains, les entreprises les plus profitables sont également les moins
endettées, ce qui confirme la théorie des choix de financement hiérarchiques .Plus les
entreprises investissent le plus, moins la distribution est importante, autrement dit, c’est
l’endettement qui sert d’une variable d’ajustement et non pas les dividendes. En 1984, S.
Myers a proposé sa théorie du pecking order. Selon cette théorie, les entreprises ont des
priorités dans le choix des sources de financement. Ainsi elles privilégieront par ordre
prioritaire : l’autofinancement puis l’endettement externe.

27
LE MODELE D’ARBITRAGE AU CŒUR DE
L’EVALUATION DE L’ACTIF FINANCIER :
STEPHAN ROSS
 BIOGRAPHIE

Stephan Ross est un professeur américain de l’économie et de la finance à la MIT Sloan School
of Management. Stephen Alan Ross est né le 3 février 1944 à Boston et a grandi à Brookline,
dans le Massachusetts. Il est diplômé du California Institute of Technology, où il s’est spécialisé
en physique. Il a ensuite obtenu un doctorat en économie à l’Université de Harvard. Avant de
rejoindre le M.I.T. en tant que professeur, il a enseigné à la Wharton School de l’Université de
Pennsylvanie et à l’Université de Yale. Il a reçu de nombreux prix pour ses travaux, parmi ces
derniers : prix de Deutcshe bank en économie financière, le prix de Ounassis en 2012, ainsi que
le prix de Jean Jacques Laffont en 2007. Il a été directeur de l’American association finance,
éditeur des grandes revues économiques, il a été conseillé auprès du Trésor Américain. Il a aussi

28
créé plusieurs sociétés financières Roll & amp; Ross Asset management Corp qui est spécialisé
dans la gestion quantitative du portefeuille Ross Jeffrey & amp; Antle Il est également le
théoricien fondateur du domaine de l’économie financière ainsi qu’il est connu par ces travaux
portant sur le développement de la théorie d’arbitrage. Cette théorie été développée en 1976,
explique comment des facteurs économiques puissants tels que l’inflation ou les hausses des taux
d’intérêt peuvent influer sur le prix d’un actif. À la base, la théorie offre un cadre d’analyse des
risques et des rendements sur les marchés financiers. Le professeur Ross a également exploré les
mystères du marché boursier et de ses risques inhérents, il a inventé le terme théorie de l’agence,
qui a joué un rôle déterminant en finance et en économie. À l’aide de cette théorie, il a expliqué
comment, par le biais de la gouvernance, les entreprises peuvent aligner les mesures incitatives
destinées aux gestionnaires sur celles destinées aux employés de base. Il est également à
l'origine de l’appellation du modèle binomial pour la fixation du prix des options d’achat
d’actions. Le professeur Ross a permis de guider, à travers ses interventions des théories
complexes affinées dans le monde universitaire afin de les appliquer à Wall Street, où elles
pourraient servir à résoudre des problèmes pratiques. Ses contributions au secteur financier lui
ont valu le prix Deutsche Bank en économie financière en 2015. D’après ses collègues, le
professeur Ross tenait avant tout à bien faire ses recherches, même si cela impliquait de mettre à
jour ou de modifier ses modèles pour les améliorer. Le professeur Ross a également fondé
plusieurs entreprises, notamment Ross, Jeffrey & Antle, une société de conseil en
investissements à Darien, dans le Connecticut, spécialisée dans l’utilisation d’options pour
renforcer la performance de portefeuilles institutionnels. Il a été également conseiller auprès
d’organismes gouvernementaux, notamment l’Internal Revenue Service, le Département du
commerce et le Trésor. Il a été président de l’American Finance Association en 1988 et, à un
moment donné, président du comité consultatif d’American Express. Le professeur Ross est
décédé le 3 mars 2017 à son domicile à Old Lyme, Connecticut. Il avait 73 ans.

 La théorie des signaux en finance de l’entreprise 1977 :

L’idée de base de cette théorie est que les dirigeants possèdent des informations privilégiées,
alors qu’il est supposé que les investisseurs disposent d’une information pure et parfaite sur
l’activité de l’entreprise. Donc, l’information de la qualité de l’entreprise est transmise à travers

29
la structure financière choisie par les dirigeants, tenant compte de certaines modalités de leurs
rémunérations. Selon Ross, les dirigeants ont un accès privilégié à l’information sur les flux
futurs anticipés, et donc doivent émettre des signaux sans ambiguïté sur les perspectives de
l’entreprise. Cette approche se base sur la clarté du signal ainsi que sur l’efficacité du système de
rémunération et de sanction afin de ne pas mentir, et donner un signal erroné, par les dirigeants,
sur la bonne qualité de l’entreprise.

 Le modèle APT (Arbitrage Pricing Theory) :

Le modèle d’évaluation par arbitrage a été conçu à l’origine par Ross en 1976, comme une
alternative au modèle d’équilibre des actifs financiers (MEDAF). Ross a tenté de mettre en place
un modèle d’évaluation des actifs financiers dans lequel le portefeuille du marché n’intervient
pas, et de façon plus générale, qui n’est pas basé sur l’équilibre des actifs financiers. Le modèle
Ross repose essentiellement sur l’hypothèse selon laquelle un modèle statistique, appelé modèle
factoriel, décrit les rentabilités des actifs financiers. Cette dernière hypothèse indique en
particulier que plusieurs facteurs économiques, disons K, influencent l’ensemble des rentabilités
des actifs financiers. Se fondant dans un premier lieu sur cette hypothèse, et en second lieu sur le
fait qu’il existe un grand nombre d’actifs financiers, ainsi sur le principe d’arbitrage qui est une
application de la loi du prix unique selon laquelle deux biens identiques, ici des actifs financiers,
doivent avoir le même prix, Ross en déduit la relation d’évaluation du modèle d’arbitrage. Cette
relation indique qu’il existe un lien ou bien une relation linéaire entre la rentabilité espérée d’un
actif et les coefficients de sensibilité de cet actif aux différents facteurs communs influençant
l’ensemble des actifs financiers. La rentabilité des actifs financiers est influencée par des facteurs
qui peuvent être classées en deux grandes catégories :

 Ceux qui affectent l’ensemble des actifs appelés facteurs communs ou systématiques ;
 Ceux qui affectent seulement un ou plusieurs actifs (entreprise, secteur ou industrie),
appelés facteurs spécifiques ;

Selon le comportement de ces facteurs, la rentabilité réalisée des actifs est plus ou moins élevée.

Les investisseurs font également des prévisions sur le comportement des facteurs, et ce qu’ils ont
anticipé sur le comportement des facteurs est intégré dans la rentabilité anticipée de l’actif

30
considéré. En revanche, les événements non anticipés se traduisent par des comportements no
prévus des facteurs et affectent la rentabilité constatée (ex-post). La rentabilité constatée d’un
actif est égale à la rentabilité anticipée de l’actif plus la rentabilité non anticipée. Cette rentabilité
non anticipée peut être décomposée en deux parties :

 Une partie due aux mouvements non prévus des facteurs communs.
 L’autre partie due aux mouvements non prévus du facteur spécifique.

Ceci constitue l’hypothèse de base du modèle d’évaluation par arbitrage. De façon plus formelle,
cette hypothèse s’écrit en supposant qu’il y a K facteurs F influençant la rentabilité d’une action
de la façon suivante :

Rit : rentabilité constatée (ex-post) en t de l’actif i calculée sur la période t-1, t.

Ei : rentabilité anticipée de l’actif i.

bi1 : coefficient de sensibilité de l’actif i au facteur 1 ou mesure du risque 1 supporté.

b ik : coefficient de sensibilité de l’actif i au facteur K ou mesure du risque K supporté

f 1t : la valeur prise par le facteur 1 en t.

f kt : la valeur prise par le facteur K en t.

∑ it : la rentabilité non anticipée due au facteur spécifique en t.

Cette hypothèse au modèle d’arbitrage ce qu’est l’hypothèse de normalité des rentabilités des
actifs financiers au modèle d’équilibre des actifs financiers (MEDAF). La relation d’évaluation
des actifs financiers indique que la rentabilité anticipée d’un actif est égale à la rentabilité de

31
l’actif sans risque plus une prime de risque fonction des coefficients de sensibilité de l’actif i aux
différents facteurs communs.

Il existe une relation proche entre le modèle d’arbitrage et le MEDAF, les seules différentes sont
que :

 Dans le MEDAF, il y a une seule prime de risque, car il y a une unique source de risque,
celui du risque associé au portefeuille de marché, tandis que, dans le modèle d’arbitrage,
il y a plusieurs primes de risques, car il y’a plusieurs sources de risque, notamment les
risques associés aux différents facteurs communs.
 Dans le modèle d’évaluation par arbitrage, le portefeuille de marché n’a pas de rôle
particulier.

Trois étapes essentielles doivent être réalisées afin de calculer le rendement espéré :

 Identifier les facteurs qui influencent le rendement de l’actif :

Les facteurs ne sont pas spécifiés dans la théorie de Ross, ils sont déterminés
empiriquement au cas par cas et doivent obéir à certaines règles spécifiques :
Leur impact sur les prix de l’actif se manifeste dans des mouvements inattendus de ces
derniers.
L’influence de ces facteurs devrait être non-diversifiable, c’est-à-dire plus globale que
spécifiques à une seule entreprise.
Des informations précises et datées doivent être disponibles sur ces facteurs.

La relation entre ces facteurs et l’actif devrait pouvoir être prouvée sur des bases
économiques. On évite par cela tous les facteurs farfelus du type position des astres
dans le ciel.

Les facteurs macro-économiques : la variation du PIB d’un Etat, variation de l’inflation,


variation des prix de matières premières, variation du risque de crédit.

32
 Mesurer l’impact de ces facteurs sur l’actif (Beta)

A travers notamment une régression linéaire des rendements passés de l'actif par rapport à

L’évolution des facteurs choisis.

 Estimer la valeur de la prime de risque associée à ces facteurs

Cette dernière est égale à la différence entre le rendement apporté par le facteur à l'actif
dans le modèle et le rendement de l'actif sans risque.

 Les avantages du modèle d’arbitrage par rapport au MEDAF sont :

 Le modèle d’arbitrage utilise le concept d’arbitrage moins contraignant que le modèle


d’équilibre.
 Les hypothèses faites soit sur les rentabilités des actifs financiers, soit sur les foncions
d’utilité des individus sont beaucoup moins fortes.
 Le portefeuille du marché n’apparait pas et, par conséquent, que les problèmes de
testabilités du MEDAF lié au portefeuille du marché n’existent pas avec le modèle
d’évaluation par arbitrage.

L’evaluation des actifs conditionnels :


FISHER BLACK et MYRON SCHOLES
 BIOGRAPHIE

Robert C. Merton et Myron S. Scholes ont développé, en collaboration avec le regretté Fischer
Black, une formule novatrice pour l'évaluation des stock-options. Leur méthodologie a ouvert la
voie à des évaluations économiques dans de nombreux domaines. Il a également généré de
nouveaux types d'instruments financiers et facilité une gestion plus efficace des risques dans la

33
société. S’il faut citer des financiers auxquels on doit la mathématisation de la discipline dans le
dernier quart de siècle, les noms de Black, Scholes et Merton viennent en premier rang, car leurs
articles pionniers sur la valorisation des options constituent la racine d’une ramification de
travaux dont le caractère mathématique n’a cessé de s’affirmer ensuite. Certes, les auteurs
précités ne sont pas les premiers à avoir utilisé les mathématiques pour formaliser les
mécanismes financiers, mais ce n’est qu’avec Black, Scholes et Merton que la littérature a pris
un essor considérable et a attiré l’intérêt d’un grand nombre de mathématiciens.

FISHER BLACK

Né en (1938-1995), Black, reçoit une formation en mathématiques à l’Université de Harvard,


d’abord en vue d’un diplôme de Bachelor (licence) en 1959 puis d’un doctorat (Ph.D) en 1964.
Bien que mentionné en physique son Bachelor est tourné vers la mathématique et la psychologie.
Ces prémisses l’orientent vers l’étude du raisonnement humain et de la décision et, tout
naturellement, il suit des cours et des séminaires doctoraux en recherche opérationnelle, la
discipline reine de l’époque par laquelle sont passés nombre de grands économistes et la plupart
des prix Nobel d’économie. L’arrivée des ordinateurs vers 1960 suscite l’apparition d’une
nouvelle discipline, l’intelligence artificielle, et Black présente sa thèse en 1964 sous le titre «
Un système déductif de réponses à des questions ». Il s’intéresse fortement en particulier aux
modèles d’équilibre des économistes et cherche à en voir la traduction sur les marchés financiers.

Vers 1968, il commence à réfléchir au problème de l’évaluation des warrants à partir de


développements effectués par Jack Treynor sur l’évaluation d’un flux de cash-flows en temps
continu. La contribution principale de Fischer Black qui demeure dans l’histoire de la finance et
qui lui a valu citation lors de l’attribution du Nobel 1997, est constituée par la formule qu’il a
établie en association avec Myron Scholes. Mais outre cette contribution, Black a laissé à la
communauté financière quelques autres textes importants qui révèlent un esprit original,
éclectique, capable de poser et de discuter à la fois des questions de pure théorie et des
problèmes d’applications.

Myron Scholes, de nationalité américaine, est né au Canada à Timmins dans l’État de l’Ontario,
le 1er juillet 1941. Pendant la crise de 1929, son père avait ouvert un cabinet dentaire dans cette
région riche en mines d’or.

34
Ce sont ses parents qui, très tôt, lui donnent le goût pour l’économie financière. Sa mère qui
adorait les affaires, ne cesse de lui répéter que son avenir est tout tracé, dans l’entreprise
d’édition d’un de ses oncles. Dès la fin de ses études secondaires, il boursicote et devient
obnubilé par les causes des fluctuations des prix des actions, mais ses recherches sont vaines
malgré la lecture qu’il entreprend de nombreux ouvrages consacrés aux secrets des placements
rentables, comme il en existait déjà beaucoup à cette époque en Amérique du Nord. Il s’inscrit à
l’Université de McMaster pour entreprendre ses études de Bachelor of Arts, Avec une majeure
en économie, dont il sort diplômer en 1962. Dès cette époque et sur la recommandation d’un de
ses professeurs, il se plonge dans les travaux de George Stigler et Milton Friedman, futurs prix
Nobel d’économie. Au lieu de poursuivre ses études, il décide de se conformer aux souhaits de sa
mère, et de rejoindre son oncle dans les affaires, tout en suivant en parallèle des cours à la
prestigieuse Université de Chicago.

MYRON SCHOLES

Myron Scholes est nommé, en 1970, professeur assistant au département finance de la Sloan
Scholes of Management du MIT, où il fait rapidement la connaissance de Fischer Black, alors
consultant chez Arthur D. Little à Cambridge. Ensemble, ils se lancent dans une fructueuse
collaboration sur de très nombreux sujets, dont la fameuse formule d’évaluation des options.
Robert Merton rejoint leur groupe au MIT et tous les trois s’intéressent aux déterminants du prix
des actifs financiers et à l’évaluation des options, des produits dérivés et à l’extension de celle-ci
aux instruments de financement par Dette des entreprises. En 1972, Fischer Black est nommé
professeur à Chicago et Myron Scholes le suit. À partir de 1973, Scholes s’investit totalement
dans le CRSP, qui développe une vaste base de données boursières historiques américaines, où il
fait fructifier ses compétences informatiques et dirige de nombreuses recherches, qui feront de
Myron Scholes l’un des chercheurs empiriques les plus prolifiques de son temps.

 LES TRAVAUX SUR LES OPTIONS :

Le résultat le plus important et le plus connu des travaux de Black est l’établissement d’une
formule d’évaluation d’une option d’achat (européenne, c’est-à-dire ne donnant lieu à exercice
qu’à l’échéance). Elle est présentée dans un article écrit avec Myron Scholes (Black et Scholes,

35
1973) dans le Journal of Political Economy. Cette revue n’était pas tournée vers la formalisation
mathématique rigoureuse des modèles économiques. Il faut cependant mentionner que les
auteurs ne partaient pas de rien. Un travail préparatoire avait été accompli par Black lui-même,
qui s’était plongé dans la littérature des options (ou plutôt des warrants) dès 1965. En effet, la
recherche d’une évaluation des warrants avait été très active dans les années soixante et plusieurs
auteurs avaient abouti à des formules.

Celle que Sprenkle (1961) avait établie dans sa dissertation doctorale à Yale était presque
identique à celle de Black et Scholes, mais elle comportait un paramètre inconnu difficile à
évaluer et qui la rendait pratiquement inutilisable. L’incontournable Samuelson (prix Nobel
d’économie en 1970) avait lui-même produit une théorie des warrants aboutissant à une formule
semblable et, déjà, il s’appuyait pour cela sur une annexe mathématique écrite par Henry
McKean, alors professeur au MIT puis professeur à l’Institut Courant de l’Université de New
York ; cette annexe s’intitulait A Free Boundary Problem for the Heat Equation...

La limite de ces approches lui semblait tenir à la recherche d’une formule par application d’une
technique basée sur l’actualisation (la valeur actuelle nette) qui demandait l’estimation d’un taux
d’actualisation inconnu et qui supposait la connaissance de l’espérance de rentabilité du titre
sous-jacent.

L’idée-clé pour Black (il la tenait de Jack Treynor) fut de décider que la formule du prix d’un
warrant ne devait dépendre que du prix du sous-jacent observé à l’instant de l’évaluation, du
délai d’éloignement de la maturité, et d’autres facteurs observables à cet instant. Un warrant est
un produit dérivé, généralement émis par les banques. Ce produit possède un effet de levier qui
donne à l'investisseur la possibilité d'avoir des gains élevés mais en augmentant fortement le
risque. En effet, l'effet de levier augmente la sensibilité aux variations du sous-jacent (du cours
d'un actif). L'investisseur achetant un warrant, possède le droit, sans obligation d'acheter ou de
vendre une quantité prédéfinie d'un actif à un prix fixé à l'avance (Prix d'exercice ou "strike"), à
tout moment ou à une date d'échéance (prédéfinie). En effet alors qu'on peut se séparer d'un
warrant américain à tout moment, on ne se sépare du warrant européen qu'à l'échéance du
contrat. Le fonctionnement du warrant est presque similaire à celui des options.

36
Mais dans ces travaux préparatoires, Black ne mettait pas en avant directement la notion
d’arbitrage. Il postulait une volatilité constante de la rentabilité du sous-jacent (distribution log-
normale sur le prix). Son raisonnement consistait à appliquer à chaque instant le CAPM (Capital
Asset Pricing Model) pour établir une liaison (une équation différentielle) entre le taux de
rentabilité du warrant, le temps et le prix du sous-jacent. Le taux sans risque apparaissait ainsi au
travers du CAPM. Mais Black ne sut pas résoudre l’équation. Cette équation a fait disparaitre la
distinction classique entre risque systématique (rentabilité) et risque spécifique (propre au titre).
Le prix du warrant ne dépendait que du risque total (volatilité) et pas de l’espérance de rentabilité
du sous-jacent, le risque spécifique ne pouvait donc pas entrer en jeu dans la définition de la
prime de risque des actions car il était diversifiable.

Ceci pouvait aussi paraître très surprenant à cette époque : cela signifiait qu’il ne fait aucune
différence d’avoir en main un warrant sur une action à haute rentabilité (donc à fort risque
systématique) ou sur une action à faible rentabilité (donc à faible risque systématique).

La rencontre entre Fischer Black et Myron Scholes intervint en 1969. Scholes était professeur au
MIT et Black opérait près de Boston dans son cabinet de consultants. Ayant tous deux travaillé
auparavant sur les warrants, ils décidèrent de partager leurs réflexions.

L’équation différentielle était donc connue des auteurs comme on l’a mentionné, mais Black et
Scholes ne partirent pas de cette équation pour établir la formule. Puisque le prix de l’option
semblait indépendant du risque systématique, ils se demandèrent ce qui se passait avec un sous-
jacent, certes volatil, mais sans risque systématique (son bêta est donc nul et sa rentabilité égale
au taux sans risque). L’option étant (localement) quasi parfaitement corrélée avec le sous- jacent,
le taux de rentabilité de l’option devait être le taux sans risque et c’est celui-ci qu’il fallait
injecter dans la formule de Sprenkle comme taux d’actualisation des deux actifs. Cette idée fut
leur eurêka. Celui-ci vint sur le devant de la scène après que Black et Scholes eurent longuement
discuté avec Robert Merton qui recherchait aussi une formule d’évaluation des options. Ce fut lui
qui suggéra que l’on pouvait établir un portefeuille d’arbitrage (quasiment sans risque et sans
mise de fonds) à condition de le réajuster de façon continuelle (il fallait donc négliger les coûts
de transaction) et que cet arbitrage conduisait à l’équation différentielle.

37
Sur le plan théorique, Myron Scholes est, bien entendu, et avant tout connu pour le
développement de ce dernier, le modèle d’évaluation des Options, qu’il a inventé en
collaboration avec Fischer Black et parallèlement à Robert Merton et qui constitue l’une des
avancées les plus spectaculaires de l’économie financière des vingt dernières années. Ce modèle
se caractérise par une formule qui est une équation différentielle et qui est à la base du premier
titre donné par les auteurs à leur travail « A Theoretical Valuation Formula for Options, Warrants
and other Securities ». Soumis pour publication en octobre 1970 et d’abord rejeté par le Journal
of Political Economy, celui-ci devait finalement l’accepter, près de trois ans plus tard seulement
sous son titre définitif « The Pricing of Options and Corporate Liabilities ».

L’intuition économique à la base de cette formule est simple. Supposons qu’il existe une formule
qui dit que la valeur d’une option d’achat dépend du prix de l’action support du contrat d’option,
de la volatilité de l’action, du prix d’exercice du contrat et de sa date d’échéance, et du taux
d’intérêt. Une telle formule permet de déterminer, entre autres, de combien le prix de l’option
change lorsque se produit une légère modification du prix du support pendant un court intervalle
de temps. Il est alors possible de créer une position couverte sans risque en vendant deux contrats
d’options et en achetant une action support au contrat d’option. Au fur et à mesure que le prix de
l’action support se modifie et que l’option se rapproche de son échéance, le ratio du nombre
d’options et d’actions nécessaire pour maintenir sans risque la position se modifie. Pour rester
dans un état de couverture parfaite, il faut alors modifier, soit le nombre d’actions, soit le nombre
d’options, soit les deux. Comme cette position est sans risque, elle ne peut rapporter dans des
marchés à l’équilibre que le taux sans risque. Ce seul principe aboutit à la formule d’évaluation
des options de Black et Scholes. De fait, il n’existe qu’une seule formule pour la valeur d’une
option qui a pour propriété que la rentabilité d’une position couverte en options et en actions est
toujours égale au taux sans risque. Le même raisonnement s’applique pour une couverture
renversée – achat d’options et vente à découvert d’actions support ou même pour un écart
vertical en options. En fait, on aboutit à la même formule sans couverture, en construisant une
position acheteur en actions et une position acheteur en options d’achat de telle sorte que les
variations de valeur des deux soient semblables pour une faible variation du prix de l’action.

Black & Scholes démontrent qu'il est possible de prendre position sur les options sans tenir
compte, notamment, de la rentabilité de l'action. Le prix de l'option dépend du prix du sous-

38
jacent et du temps. L'idée est d'utiliser ce résultat pour constituer un portefeuille financier qui
sera dit "sans risque". Pour constituer un portefeuille qui demeure sans risque, il est nécessaire de
réajuster sa composition en permanence, car à mesure que le prix de l'action varie et que
l'échéance de l'option s'approche le "Delta" (mesure de la sensibilité d'une option aux variations
du cours du sous-jacent) se modifie. Le rendement du portefeuille ainsi immunisé contre le
risque, doit être égal à celui d'un actif sans risque (identifiable à un bon du Trésor, autrement dit
une obligation d'Etat). Dans le cas inverse, les investisseurs profiteraient de la différence de taux
pour réaliser un arbitrage.

 L’article fondateur de 1973

On détaille ici les étapes de l’article de 1973. Pour suivre le raisonnement, il faut d’abord se
donner une idée intuitive de la valeur d’une option. Pour former cette intuition, considérons
l’option d’achat (call) d’une action dont le prix évolue aléatoirement dans le temps. Le prix
d’exercice est de 100 € et l’échéance de l’option est au 31 décembre. Plaçons-nous à une date
quelconque, par exemple le 15 décembre.

Supposons que le cours de l’action aujourd’hui est de 70 €. L’option est donc fortement en
dehors de la monnaie. Mais a-t-elle une valeur ? Oui si l’on envisage qu’il soit encore possible
que, partant du prix actuel de 70 €, l’action finisse à plus de 100 € au 31/12. L’option ne vaut
rien si l’on considère quasi impossible que l’action remonte à ce niveau en quinze jours. De quoi
dépend cette probabilité ?

Essentiellement de la façon dont évolue habituellement ce prix, et plus précisément de sa


volatilité : si le prix de cette action est jugé peu volatil, il ne pourra s’écarter beaucoup de 70 €
d’ici l’échéance. S’il est fortement volatil au contraire, il a des chances de faire repasser l’option
dans la monnaie selon la terminologie consacrée. Si on se place à présent au 15 octobre au lieu
du 15 décembre, une volatilité faible n’exclut pas maintenant de repasser dans la monnaie en
raison de l’allongement de temps restant jusqu’à l’échéance. Ainsi, il apparaît que la valeur
d’une option doit dépendre à la fois du temps restant avant maturité et de la volatilité du sous-
jacent.

1- Outil préalable :

39
Le calcul différentiel dans le cas d’une trajectoire continue stochastique

Afin de mieux appréhender la construction de Black et Scholes On fait simplement appel aux
connaissances les plus classiques relatives aux variables aléatoires et à la familiarité du lecteur
avec la notion de limite lorsqu’on fait tendre une grandeur vers zéro.

Le modèle de Black et Scholes : chaque variation ΔS est indépendante de celle qui précède et est
générée par la même loi normale du saut unitaire de moyenne nulle et de variance (écart type au
carré).

La relation différentielle :

La limite différentielle :

40
2- L’argument central de Black et Scholes : l’arbitrage

La construction de la formule de Black et Scholes repose sur l’argument d’arbitrage initialement


suggéré par Merton. C’est dans cet argument que réside l’originalité de la construction, car tous
les développements subséquents de la théorie des options se sont construits sur la méthode de
l’arbitrage. Un arbitrage est une opération qui permet de générer un revenu sans mise de fonds et
sans risque. Si une telle opération est possible, l’exploitation que vont en faire des investisseurs
rationnels va modifier les valeurs de marché (par modification des offres ou des demandes)
jusqu’à ce que cette opportunité d’arbitrage disparaisse. La formule de Black et Scholes est une
formule d’équilibre qui est obtenue lorsque disparaissent les opportunités d’arbitrage.

Mais il faut considérer deux types d’arbitrage :

a- l’arbitrage parfait qui génère un revenu sans mise de fonds et sans risque.
b- l’arbitrage imparfait qui laisse subsister un risque, mais qui peut être rendu arbitrairement
faible d’une part en réduisant la durée d’exécution de l’arbitrage et d’autre part, en
composant un portefeuille d’un grand nombre de risques indépendants.

3- Établissement de l’équation différentielle et de sa solution

L’entrée du raisonnement de la recherche de la valeur d’un call consiste à poser qu’il doit exister
une formule déterministe C(S,t) qui relie à l’instant t cette valeur au prix courant St d’un actif (le
sous-jacent).

L’observation des données sur options et warrants, complétée par l’intuition, permet de se faire
une première idée de la forme de la relation C(S,t).

CT= (0, ST− K)

Si la valeur du sous-jacent croît, la valeur de l’option croît aussi, toutes choses égales et a pour
asymptote la droite C = S − K. La formule C(S,t) est donc toujours croissante avec deux
asymptotes.

41
Il faut donc distinguer entre options américaines (pouvant être exercées à tout moment) et
options européennes (exercice à maturité seulement). Si l’option est américaine et si à un certain
moment le prix C de l’option est inférieur à l’écart entre le prix du sous-jacent S et le prix
d’exercice K, il existe un arbitrage immédiat : acheter l’option au prix C, l’exercer et recueillir
S − K avec un bénéfice immédiat de S − K − C. Donc le prix d’une option américaine ne peut
descendre en dessous de la forme bilinéaire MAX(0, ST − K). Par contre, si l’option est
européenne, alors on ne peut rien dire à ce stade.

Black et Scholes considèrent alors à l’instant t un portefeuille, composé d’une unité de l’actif
sous-jacent au prix St, (position dite « longue » par les financiers) et d’un nombre de calls égal à
1/C’S, vendus à découvert, c’est-à-dire en position courte. Sa valeur est :

La variation de valeur du portefeuille entre les deux dates est :

Si la recomposition du portefeuille s’effectue de façon continue comme on l’a dit, alors à la


limite la variation différentielle du portefeuille est sans risque et s’écrit :

Ou après simplification :

42
Il s’agit là de l’équation différentielle à laquelle aboutissent Black et Scholes (1973, p. 643,
formule 7).

Condition :

La formule solution de l’équation qui donne le prix de l’option, devenue classique à présent :

Avec :

• T − t le temps restant à courir à jusqu’à la maturité ;

• K le prix d’exercice ;

• r le taux sans risque ;

• la volatilité du sous-jacent.

43
Le prix du call européen c’est une fonction croissante du prix courant de l'actif sous-jacent S, de
sa volatilité future σ, du taux d'intérêt sans risque r et de la durée de vie de l'option T, et une
fonction décroissante du prix d'exercice K. Les termes font intervenir la fonction de répartition
de la loi statistique normale N. Enfin, la sensibilité du prix de l'option aux variations de prix de
l'actif sous-jacent (autrement dit le delta) est égale à N(d).

La formule de Black & Scholes est remarquable dans la mesure où tous les paramètres qui y
figurent, à l'exception de la volatilité future, sont parfaitement connus. Contrairement aux
approches précédentes, le prix de l'option ne dépend pas des préférences des agents. Alors
qu'auparavant les opérateurs se limitaient à prendre position une fois pour toute et attendre que
l'option arrive à l'échéance en se fondant sur les anticipations de prix, leur logique est désormais
très différente. En effet, cela renvoie maintenant à une logique de couverture où le vendeur de
l'option va acheter la quantité d'actif nécessaire pour maintenir un portefeuille insensible à la
hausse ou à la baisse du prix de l'actif sous-jacent. Cette pratique s'appelle la "gestion dynamique
en delta neutre". Par conséquent, l'apport majeur de Black & Scholes est moins d'avoir établi une
nouvelle formule d'évaluation que d'avoir proposé une nouvelle méthode de gestion des risques.
En effet, cette formule est davantage utilisée pour estimer les paramètres nécessaires à la
couverture d'un portefeuille que pour déterminer le prix des options.

L'apport de leurs travaux ne se limite pas à leur contribution en matière d'évaluation des actifs.
En effet, leur apport a également été utilisé pour déterminer des contrats financiers optimaux,
pour évaluer le risque de faillite d'une entreprise ou pour définir les clauses de certains contrats

D’assurance. Leur démarche est également à l'origine de la théorie des options réelles qui a
renouvelé la théorie des choix en avenir incertain en mettant en avant l'importance économique
de la flexibilité d'une politique d'investissement.

44
Grâce à des mathématiques plus puissantes aujourd’hui, la dérivation de la formule de Black et
Scholes apparaît presque triviale. Mais il faut avoir pour cela étudié les théorèmes de Girsanov et
de Feynman Kac qui permettent d’exprimer la solution d’équations différentielles du type de
celle établie par Black et Scholes sous forme d’espérance mathématique. On rentre donc ici dans
un domaine réservé aux mathématiciens.

 L’étude empirique de 1972

Black et Scholes utilisèrent leur formule à deux fins : l’une pour tenter de gagner un peu
d’argent, mais ils en furent pour leur mise en raison de diverses imperfections des marchés
d’options qu’ils ne surent identifier (ce qui arrive classiquement aux économistes, souvent sujets
au biais de surconfiance bien connu des psychologues) et l’autre pour tester sa validité par une
étude empirique (Black et Scholes, 1972).

 LES AUTRES CONTRIBUTIONS DE FISCHER BLACK


1- Le CAPM et l’efficience des marchés.

Les travaux de Black les plus cités dans les années soixante-dix portaient sur le CAPM et les
théories de l’efficience. Les deux thèmes sont d’ailleurs très liés puisque le comportement passif
de diversification qui est à la source du CAPM n’a de sens que dans un marché efficient et tout
test du CAPM peut être vu comme un test d’efficience (un marché inefficient fait échouer un test
du CAPM ; il s’agit d’hypothèses liées).

45
Sur le CAPM les titres à faible bêta semblent offrir une performance meilleure que les titres à
fort bêta, après correction du risque. Cherchant alors à expliquer cette anomalie, il corrige le
CAPM en faisant l’hypothèse qu’il existe des restrictions sur la possibilité d’emprunter (pour
investir en titres risqués, car il faut alors offrir des garanties via des appels de marges par
exemple) et il montre que cela peut expliquer l’anomalie.

Cette version du CAPM, souvent désignée comme le modèle SLB (Sharpe, Lintner et Black) est
fréquemment citée dans la littérature subséquente et en particulier par Fama et French dans leurs
travaux des années 1990. Black publiera d’autres travaux en relation avec le CAPM sur
l’efficience des marchés. Celle-ci est généralement mal accueillie par les praticiens puisqu’elle
ne leur reconnaît aucune efficacité dans la gestion active des portefeuilles. Parmi ces textes, une
mention spéciale peut être attribuée à un article écrit en collaboration encore avec Myron Scholes
(Black et Scholes, 1974a). La théorie financière nous dit que chaque investisseur va détenir un
portefeuille composé de deux actifs seulement : l’actif sans risque d’une part, le portefeuille de
marché de l’autre. Ceci suggère aux sociétés financières de créer des fonds mutuels (des SICAV)
qui répliquent ce portefeuille de marché. Dans ce papier, les auteurs entendent montrer et
discuter les obstacles rencontrés dans un tel projet. Ils sont de plusieurs ordres : institutionnels,
réglementaires, fiscaux, managériaux et organisationnels. Il s’ensuit que le coût d’innovation
d’un tel produit financier est plus élevé qu’il n’y paraît à première vue. Mais Black et Scholes
paraissent optimistes et voient cette création comme inévitable. D’une certaine manière, près de
quarante ans plus tard, le succès des fonds trackers (Exchange Traded Funds ou ETF) dans le
monde, qui, comme leur nom l’indique, ne cherchent pas à battre l’indice, mais simplement à le
suivre, valide leur prédiction.

Il est intéressant de noter aussi dans cet article l’introduction de différents types d’acteurs sur les
marchés. À côté des investisseurs rationnels qui croient à l’efficience et suivent les prescriptions
de la théorie, il faut introduire les joueurs (gamblers) qui aiment l’investissement risqué per se,
les « allumés » (fools) qui croient opérer sur la base d’informations pertinentes et qui ne font que
produire d’inutiles transactions.

2- Fonds et gestion de portefeuilles

46
Ayant commencé sa carrière de financier confronté à des problèmes de mesure de performance,
Black restera en contact avec ce domaine de la recherche durant toute sa carrière. Entre 1970 et
1995, il produit des dizaines d’articles et notes sur la gestion des portefeuilles. On a cité
précédemment l’article écrit avec Scholes (Black et Scholes, 1974a) et dans lequel ils examinent
la possibilité d’un fonds appliquant les préceptes de la théorie financière (mixage d’un actif sans
risque et du portefeuille de marché et gestion passive).

De façon récurrente, Black étudie les impératifs que l’efficience postulée des marchés fait peser
sur les gestionnaires de fonds et s’interroge fréquemment sur les minces possibilités de battre le
marché. Pourtant, les gestionnaires se montrent assez systématiquement sur-confiants dans leur
habileté à battre le marché. Black s’est interrogé à plusieurs reprises sur cet excès de trading (cf.
son discours de président de l’AFA, de 1993, évoqué précédemment). Mais son expérience
pratique l’amènera à ne pas rejeter de façon définitive la possibilité de stratégies
d’investissement actives selon des modalités plus élaborées.

Dans la veine de ces préoccupations, il faut signaler aussi le regard qu’a porté Black sur
l’information comptable, qui est la principale source d’information sur laquelle les analystes
fondent leurs anticipations et dispensent leurs recommandations aux gestionnaires.

3- Portefeuille international et couverture des risques de change

Black s’intéresse aussi à la théorie de l’investissement transfrontière et à la couverture des


risques liés à la fluctuation relative des monnaies dans les portefeuilles internationalement
diversifiés.

Il démontre une propriété de couverture appelée universal hedging (chaque investisseur couvre
chacun de ses investissements dans les différentes monnaies dans la même proportion). Et il
formalise le problème de l’investisseur qui minimise un risque total sous contrainte d’une
espérance de rentabilité et, écrivant les conditions de maximisation sous contrainte, il rétablit et
discute le « paradoxe de Siegel » selon lequel les investisseurs ne considèrent pas le risque de
change comme un risque nuisible qu’il faut couvrir à 100 %, mais comme un risque susceptible
de procurer un excès de rentabilité, comme n’importe quel titre.

47
L’introduction du temps continu dans la theorie
financiere moderne : Robert C. Merton
 BIOGRAPHIE

Merton, de nationalité américaine, est né le 31 juillet 1944 à New York. Après avoir obtenu un
Bachelor of science (en mathématiques pour l’ingénieur) à Columbia University, en 1966 et un
Master of science (en mathématiques appliquées) à California Institute of Technology, en 1967,
il obtient un Ph.D en économie au Massachusetts Institute of Technology, en 1970, sous la
direction de Paul Samuelson.
Il commence sa carrière universitaire à la MIT Sloan School of Management, où il est
successivement Assistant Professor (1970-1973), Associate Professor (1973-1974), puis
Professor jusqu’en 1988. Il est alors recruté par la Graduate School of Business Administration
de l’Université de Harvard où il occupe successivement la chaire de George Fisher Baker
Professor of Business Administration de 1988 à 1998, puis celle de John and Natty McArthur
University Professor, de 1998 à 2010. Depuis 2010, il est professeur émérite dans cette même
université tout en étant, par ailleurs, School of Management Distinguished Professor of Finance
à la Sloan School of Management du MIT.
Au-delà du prix Nobel d’économie qui lui a été décerné en 1997, Merton a reçu de nombreuses
distinctions au cours de sa carrière, en particulier six doctorats honoris causa et il a été président
de l’Association américaine de finance en 1986. Il a également assuré de nombreuses fonctions
éditoriales dans les revues de finance les plus prestigieuses notamment le Journal of Finance, le
Journal of Financial Economics et la Review of Financial Studies.

 Les apports de l’auteur


1- La valorisation des options
En finance, une option est un produit dérivé qui établit un contrat entre un acheteur et un
vendeur. L’acheteur de l’option obtient le droit et non pas l’obligation, d’acheter (call) ou ventre
(put) un sous-jacent à un prix à l’avance (Strike), pendant un temps donné à une date fixée.
 Le type d’option

48
Le principal avantage d’une option Américaine est qu’elle peut être exercée à n’importe quel
moment entre la date initiale et date d’échéance au contraire une O européenne.
Cette théorie repose sur l’hypothèse d’un marché du capital parfait c’est-à-dire un Marché
efficient où tous les acteurs peuvent agir en fonction de la même information connue de tous,
autrement dit, un marché où la concurrence est parfait entre chaque acteur composant.
Ainsi, sur la rationalité des intervenants ou cotation continue des actifs. L’apport des modèles de
Black-Scholes-Merton en 1973 a permis l’évaluation des actifs les plus simples aux plus
complexes dans un cadre unifié. Cette évaluation est établie en fonction du prix de son actif
sous-jacent, cette valorisation est fait sous un modèle d’équilibre partiel qui suppose que l’action
ou bien le sous-jacent est bien évalué. Mais cette évaluation dépend de plusieurs conditions
idéales de fonctionnement de marchés financiers. Ces conditions sont supposées vérifiés sous
l’hypothèse de marché efficient ou bien parfait.
 Conditions du modèle
Rendement normaux : les équations de la valorisation :
S = Prix actuel de l’action.
K = Prix d’exercice de l’option.
T = Temps restant avant l’expiration de l’option, en pourcentage d’une année.
r = Taux d’intérêt sans risque.
σ = volatilité implicite du prix de l’action.
N(x) = Fonction de répartition de la loi normale.
- Options de type européen
- Aucun dividende
- Marchés efficients
- Aucune commission ni impôt
- Invariabilité du taux d’intérêt et de la volatilité.
▪ Le CALL confère le droit d’acheter le sous-jacent au prix d’exercice.
▪ Le PUT confère le droit de vendre le sous-jacent au prix d’exercice.
Cette formule repose sur certain nombre de conditions :
❖ Le prix de l’actif sous-jacent « St » suit un mouvement brownien Zs géométrique avec une
volatilité σ constante.

49
❖ Il n y a pas d’opportunités d’arbitrage
❖ Le temps est une fonction continue
❖ Il est possible d’effectuer des ventes à découvert
❖ Taux d’intérêt sans risque connu à l’avance
❖ Aucun coût de transaction à l’achat ou la vente d’option ou d’action
❖ Aucune distribution de dividende
Mouvement brownien :
Processus de Wiener est une description mathématique du mouvement aléatoire d’une grosse
particule immergée dans un fluide et qui n’est pas soumise à aucune autre interaction que des
chocs.
 Les extensions de ce modèle faites par Merton :
Merton a montré que la valeur d’une option de vente américaine est plus élevée que celle d’une
option de vente européenne car il est parfois avantageux d’exercer une option de vente avant
l’échéance.

 Evaluation du risque des dettes

La théorie des actifs contingents combine les enseignements de la théorie dynamique du


portefeuille avec ceux de la théorie des options. Elle constitue l’un des outils privilégiés de la
finance moderne, et peut être appliquée à des sujets très divers dont par exemple la finance
d’entreprise et la finance bancaire. L’application au risque de défaut des titres financiers de
l’entreprise a étendu l’analyse développée par Black et Scholes et a évalué des dettes à l’aide des
mêmes hypothèses. Grâce aux nouveaux outils présentés, Merton renouvelle complètement
l’approche liée au risque de défaut, approfondit son analyse et réussit à quantifier explicitement
les primes de risque.
Merton définit la structure des primes de défaut en fonction de diverses échéances. Pour une
maturité donnée, la prime de risque dépend seulement de deux variables :
 la volatilité associée aux actifs de la firme (son niveau de risque des affaires)
 le ratio de la valeur présente d’une dette équivalente sans risque à la valeur des actifs de
la firme.

 L’efficience et la gestion de portefeuille :

50
Même si l’apport central de Merton concerne la théorie des options et ses applications, il n’a pu
laisser de côté des débats aussi fondamentaux que l’efficience des marchés ou la gestion de
portefeuille. Il est donc intervenu pour défendre la notion d’efficience.
Merton introduit une hypothèse d’information incomplète pour tester son impact sur le système
de prix. Il considère un environnement dans lequel chaque investisseur connaît l’information
requise sur un groupe bien identifié d’actions. Pour construire son portefeuille, l’investisseur ne
va se fier qu’aux actions sur lesquelles il possède de l’information.
La conclusion est que les actions des entreprises les moins connues et à base actionnariale faible
peuvent enregistrer des rentabilités espérées plus élevées que dans un modèle à information
complète. Merton considère un modèle simple dans lequel on compare deux marchés. Le résultat
Principal de son analyse : la rentabilité obtenues à l’aide d’une stratégie réussie de market timing
s’apparente à celle réalisés à partir d’investissements dans des options, dont les prix d’achat
seraient moindres que leur vraie valeur.

51
L’introduction du paradigme informationnel
en finance : Joseph E. Stiglitz
 BIOGRAPHIE

Joseph Stiglitz, né le 9 février 1943 à Gary, est un économiste américain. . Il est l’un des
fondateurs et des représentants les plus connus du « nouveau keynésianisme ». Il a reçu, en 1979,
la médaille John Bates CLARK pour récompenser le meilleur économiste américain de moins de
60 ans. Et le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel
en 2001, pour un travail commun avec George Akerlof et Michael Spence, pour leurs travaux sur
les marchés avec asymétrie d’information.
Entre-temps, Stiglitz s’impose comme étant un grand théoricien et fait siens des sujets comme
les causes et conséquences des inégalités, la persistance du chômage, la fréquence des crises
financières. Cependant, Joseph Stiglitz oriente plus son attention vers l’asymétrie d’information.
Un thème qui fera de lui un des fondateurs de l’économie de l’information.
D’un curriculum vitae actualisé à la date de novembre 2015 et déjà long de 75 pages, on extrait
une liste impressionnante de 682 articles publiés dans des revues, pour beaucoup prestigieuses,
depuis 1966, soit une moyenne annuelle supérieure à treize articles. Parmi les supports éditoriaux
privilégiés par Stiglitz, on trouve American Economic Review, Econometrica, Journal of
Economic Theory, Review of Economic Studies, Quarterly Journal of Economics, Economic
Journal, Journal of Public Economics, Journal of Finance, Bell Journal of Economics, Journal of

52
Money, Credit and Banking, Journal of Development Economics, Oxford Economic Papers,
Journal of Economic Perspectives. Les revues économiques généralistes les plus prestigieuses
sont les occurrences les plus fréquentes dans la liste impressionnante de ses publications
LES TRAVAUX

 DU PARADIGME DE L’ÉQUILIBRE CONCURRENTIEL À


CELUI DE L’INFORMATION

Par l’analyse qu’il développe de ces deux derniers marchés, Stiglitz apporte des contributions
majeures à la finance. Il démontrera, dans la lignée des travaux d’Akerlof, que des marchés à
forte asymétrie d’information fonctionnent mal, voire ne fonctionnent pas toujours au Kenya et à
la même époque, Stiglitz démarre un autre projet de recherche sur l’analyse du métayage.
Remarquant que, dans la relation entre le propriétaire du champ et le métayer, il existe une
asymétrie d’information portant sur le niveau d’effort déployé par le métayer génératrice d’un
aléa moral, il développe un modèle principal-agent qui conclut que le contrat de métayage est la
combinaison d’un contrat de location et d’un contrat d’assurance par lequel le propriétaire
accorde un rabais au métayer en cas de récolte faible. La part de contrat d’assurance intégrée au
contrat de métayage vient suppléer dans le contexte d’un pays en développement l’impossibilité
d’assurer le risque de fluctuation des récoltes, ce qui l’amène alors à s’interroger sur les raisons
fondant l’absence ou les échecs de marché. Les piliers du paradigme informationnel sont au
nombre de quatre.
1) Une invalidation du caractère général de la loi de l’offre et de la demande.
2) Une invalidation du caractère général de la loi du prix unique.
3) Une invalidation de la loi de tarification au coût marginal.
4) Une critique sévère de l’hypothèse d’efficience des marchés.
Ensuite, les marchés, et ceci vaut évidemment pour les marchés financiers au sens large, quand
ils sont caractérisés par une trop forte asymétrie d’information, peuvent dysfonctionner fortement
ou même ne pas exister. C’est là une conclusion qui avait déjà été montrée par Akerlof (1970)
sur la base d’une analyse du marché des voitures d’occasion. Quand le prix offert pour un
véhicule d’occasion est un prix « mélangeant », c’est-à-dire un prix reflétant la qualité moyenne
des véhicules proposés, les propriétaires des véhicules offerts de meilleure qualité se retirent du

53
marché, et cette anticipation par les demandeurs, à son tour, induit une réévaluation à la baisse
du prix mélangeant offert, générant elle-même un effet d’antisélection plus important, jusqu’à
éventuelle complète disparition du marché. Cette conclusion obtenue pour le marché des
véhicules d’occasion tient évidemment pour tous les marchés à forte asymétrie d’information et
donc pour les marchés financiers, d’où la nécessité de prévoir des mécanismes de résolution des
asymétries d’information, et préalablement, d’identifier les sources des imperfections
d’information.
Définition : L'asymétrie d'information décrit une situation dans laquelle tous les
participants à un marché ne disposent pas de la même information. C'est une imperfection du
marché qui peut aboutir à une sélection adverse ou à un aléa moral.
Il a donné l’exemple par les banques , une fois ces derniers accordent des crédits , Ils
vont acquérir jusqu’au terme du contrat une information privilégiée sur son débiteur, que n’ont
pas les concurrents de la banque en place , ce qui limite la mobilité financière de l’entreprise, la
banque créditrice acquiert un monopole informationnel sur son client qui limite le jeu de la
concurrence, selon Stiglitz il existe deux types d’imperfection des imperfections d’information et
des imperfections de concurrence,
Le marché de l’assurance est un marché caractérisé par une forte asymétrie d’information
entre assureurs et assurés, Stiglitz a supposé que La compagnie d’assurance a la possibilité
d’offrir simultanément deux types de contrats ainsi structurés : un contrat associant une prime
faible et une franchise forte, et un contrat associant une prime forte assortie d’une franchise
faible, Les individus qui se savent peu risqués n’ont aucune chance à choisir le premier contrat,
car ils connaissent leur probabilité de sinistre, qu’ils estiment faible.

 APPLICATIONS AU FINANCEMENT DES ENTREPRISES

Le marché du crédit regroupe, au sens le plus large du terme, l'ensemble des marchés de dettes
qui mettent en relation les emprunteurs et les prêteurs. Le marché du crédit fait donc référence à
la fois au marché du crédit bancaire, mais aussi, aux titres de créances émis sur les marchés des
titres de créances négociables ou sur les marchés obligataires.
EX considérant un marché du crédit bancaire caractérisé par une asymétrie d’information et des
banques offrant un taux d’intérêt unique

54
Dans une situation où la demande de crédit est supérieure à l’offre, une banque peut être tentée
d’augmenter son taux d’intérêt ainsi que la loi de l’offre et de la demande le suggère. Si elle
procède ainsi, elle générera trois types d’effets :
pour les firmes qui pourront rembourser le prêt, la banque percevra des produits financiers plus
élevés ce qui est positif pour elle certaines des firmes de meilleure qualité quitteront la banque,
car celle-ci leur faisait déjà payer un taux injustement élevé 3 certaines des firmes vont
compenser cette hausse des taux par le choix de projets d’investissement plus risqués que ceux
qu’ils envisageaient initialement ; cet aléa moral est la source d’un effet à nouveau négatif pour
la banque puisque la probabilité de défaut sur les prêts consentis sera alors plus élevée
Finalement, la banque décidera ou non d’augmenter son taux d’intérêt en évaluant les trois effets
précités.
S’étant intéressé au rationnement du crédit, Stiglitz s’interroge ensuite sur les raisons qui
motivent un si faible recours au financement par fonds propres et lie ce constat à l’existence
d’asymétries informationnelles. Stiglitz avait très vite remarqué que les actions des agents
économiques véhiculent de l’information. Ainsi, la volonté des administrateurs d’une firme de
vendre des actions à un prix donné révèle au marché que, du point de vue des premiers, ce prix
est intéressant. Ceci expliquerait la faible propension des firmes à émettre des actions.

 Finance, gouvernance, et organisation des entreprises.

Stiglitz réfute le théorème d’indépendance entre décisions d’investissement et choix de


financement en s’appuyant sur l’existence de coûts de faillite, apres queleaue annees Stiglitz et
Grossman contestent le principe de maximisation de la valeur comme objectif consensuel de la
firme
Nalebuff et Stiglitz ont pu observer que la rémunération des managers peut inclure une
part fondée sur la performance relative du manager par rapport à un groupe de managers
concurrents, ils montrent que ce système particulier d’incitation est adapté à des situations
caractérisées par
1) l’impossibilité d’observer sans coût l’effort déployé par le manager,
2) une relation stochastique entre le niveau d’effort du manager et la performance induite par cet
effort,
3) une corrélation entre les relations effort/performance des différentes firmes

55
Sah et Stiglitz modélisent des organisations qui diffèrent selon la nature des erreurs de jugement
qu’elles font. Deux types d’erreurs sont considérés : retenir un mauvais projet d’investissement
ou rejeter un bon projet d’investissement, de même, et selon les deux auteurs ils existent deux
types d’organisation, ceux où la prise de décision est centralisée; et des polyarchies
décentralisées au sein desquelles les centres de décision sont indépendants et éventuellement en
concurrence.

La critique du modele d’equilibre des


actifs financiers: Richard Roll
 Biographie

Richard Roll, né le 31 octobre 1939, est un économiste américain, principalement connu pour ses
travaux sur la théorie des portefeuilles et la tarification des actifs, à la fois théoriques et
empiriques. Il a obtenu son baccalauréat en génie aéronautique de l'Université Auburn en 1961 et
son M.B.A en 1963 à l'Université de Washington alors qu'il travaillait pour Boeing à Seattle
(Washington). En 1968, il a obtenu son doctorat de la Graduate School of Business de
l’Université de Chicago en économie, finance et statistiques. Son doctorat «Le comportement des
taux d’intérêt: application du modèle de marché efficace aux bons du Trésor américains», a
remporté le prix Irving Fisher du meilleur mémoire américain en économie en 1968. L’un des
fondateurs des études d’événements (Fama et al., 1969), Roll a co-écrit la première étude sur les
événements qui visait à analyser la manière dont les cours des actions réagissaient à un
événement en 1969 en utilisant les données de prix de la nouvelle base de données CRSP
disponible. Roll a co-écrit des articles importants avec Stephen Ross, Eugene Fama, Michael
Jensen et Kenneth French. Roll a occupé le poste de professeur adjoint à l'Université Carnegie-
Mellon en 1968, a été professeur à l'Institut européen des hautes études en gestion en 1973 et au
Centre d'enseignement supérieur des affaires en 1975. En 1976, Roll a rejoint la faculté d'UCLA

56
où il reste titulaire de la chaire Alumni du Japon, professeur de finance. En 1987, Roll a été élu
président de l’American Finance Association. Il a publié plus de 80 articles professionnels.

Parmi ses meilleurs articles, on trouve:

- “A Critique of the Asset Pricing Theory’s Tests”, (Roll, 1977),

- “Orange Juice and Weather” (Roll, 1984).

- “The Hubris Hypothesis of Corporate Takeovers” (Roll, 1986).

 La Critique du MEDAF

 Le modèle d'évaluation des actifs financiers MEDAF

Appelé « Capital Asset-Pricing Model» le modèle d'équilibre des actifs financiers (MEDAF) de
Sharpe (1964), Lintner (1965), Mossi (1966) et Black (1972) est l'un des résultats centraux de la
théorie financière moderne il constitue l'un des paradigmes dominants de la finance moderne
depuis sa validation empirique par Black, Jensen et Scholes (1972) et par Famad et Macbeth
(1973). Ce modèle est incontestablement le modèle d'évaluation le plus connu et utilisé menant à
une conclusion facilement compréhensive, à savoir la rentabilité moyenne d'un actif financier est
d'autant plus importante que le bêta est élevé. Il existe donc une relation linéaire entre les
rentabilités espérées excédentaires (par rapport au taux sans risque) de chaque titre et la
rentabilité espérée excédentaire du marché. Ce portefeuille du marché dont la construction relève
des modèles de décision de portefeuille a pour représentation approximative, l'indice boursier. Le
MEDAF est un Modèle qui explique les taux de rentabilité des différents actifs, en fonction de
leur risque.

 Les critiques adressées au MEDAF.

Le modèle pose des hypothèses trop simples (possibilité d'investir et d'emprunter au taux sans
risque ; existence d'actifs uniquement financiers ; fiscalité homogène entre actifs ; pas de coûts
de transaction...). Il est difficile, voire impossible, de déterminer le « vrai » portefeuille de
marché i.e. celui qui contient tous les actifs risqués (actions, obligations, matières premières,

57
immobilier, capital humain, etc.). Il existerait plusieurs Betas pour une valeur, chacun rendant
compte de la sensibilité à un facteur macroéconomique (principe de l'Arbitrage Pricing Theory)
Mais le raisonnement fondamental tient toujours : les primes de risque sur les titres dépendent de
risques systématiques supportés par tous.

 La Critique de ROLL:

La critique se résume de la façon suivante : la validation du MEDAF repose sur l'identification


du portefeuille de marché. Ceci doit contenir tous les titres possibles, y compris les valeurs
immobilières, le capital humain, etc. Le vrai portefeuille de marché n'est pas observable. Et il est
d'ailleurs presqu'impossible de trouver un portefeuille qui soit une bonne approximation au
portefeuille de marché. Si on réussit à trouver un portefeuille qui est dans le vrai EVM, il existe
forcement une relation linéaire entre le rendement espéré des titres et leurs facteurs beta calculés
par rapport à ce portefeuille. Donc, la théorie est tautologique.

Roll (1977) a prouvé le caractère non testable des implications théoriques du MEDAF. Il a mis
en évidence deux difficultés importantes :

 Observabilité du portefeuille:

La validation du MEDAF repose sur l'identification du portefeuille de marché. Ceci doit contenir
tous les titres possibles, y compris les valeurs immobilières, le capital humain, etc. ROLL a
remarqué que Le portefeuille Du marché n'est ni observable, ni approximable; Le vrai
portefeuille de marché n'est pas observable. Il est d'ailleurs presque impossible de trouver un
portefeuille qui soit une bonne approximation au portefeuille de marché. en guise d`exemple aux
US, 1/3 des actifs tangibles propriété d’entreprises, 1/3 des actifs des entreprises est financé par
des actions. On utilise des approximations : indice S&P500, CAC40 Le modèle peut n’être pas
vérifié parce que l’approximation du portefeuille de marché par un indice est mauvaise.

 Tautologie du model du MEDAF:

Le MEDAF peut être automatiquement vérifié; Si on choisit comme portefeuille de marché, un


portefeuille efficient, en établissant le résultat théorique, on se rend compte qu’il est toujours
parfaitement vérifié si l’on utilise le portefeuille tangent. On ne peut donc tester que l’efficience
de l’indice S&P500. la validation apparente de l'hypothèse de linéarité par les tests des années

58
70, n'est qu'une conséquence mathématique plus que toute autre chose. En effet, si le portefeuille
figurant dans la spécification du MÉDAF, est choisi sur la vraie frontière moyenne-variance
efficiente (qui peut être estimée), alors il existe déjà par construction, nonobstant toute
considération d'ordre statistique, une relation linéaire entre le rendement espéré des titres et leurs
coefficients de la combinaison linéaire estimée.

Avec:

- rA et rB sont les taux de rentabilité moyens de deux portefeuilles efficients quelconques.


- Bj sont les coefficients de la combinaison linéaire.
- rj est le taux de rentabilité moyen de tout actif j.

Le résultat doit être compris ex post et suppose deux hypothèses relativement faibles: le taux de
rentabilité de tout actif financier est une combinaison linéaire de deux portefeuilles quelconques
pour autant qu’ils se situent sur la frontière efficiente.

Richard Roll indique que, si nous régressons les taux de rentabilité d’un actif financier donné sur
deux portefeuilles d’actifs risqués et si le R2 obtenu est différent de 100 %, cela prouve juste que
les deux portefeuilles (ou au moins un des deux) ne sont pas efficients ex post.

Cela conduit à une critique radicale des résultats des tests empiriques du MEDAF.

Pour conclure, La critique de Roll (1977), loin de mettre au rancart le MÉDAF, a donné lieu à un
débat autour des stratégies de sa validation empirique. Entre autres, Stambaugh ( 1982) et
Shanken (1987) ont joué un rôle déterminant dans l'émergence d'une nouvelle génération de tests
unifactoriels. Le premier a montré que la précision des tests est peu sensible au choix du
portefeuille représentatif, car la volatilité du prix des catégories d'actifs admissibles dans ce
dernier est largement dominée par celle des actions. Shanken (1987) consolide cet argument en
indiquant que l'erreur d'approximation du portefeuille de marché est une fonction décroissante du
degré de corrélation entre celui-ci et le portefeuille figurant. Suivant une approche bayésienne
qui suppose une forte corrélation, il teste le MÉDAF en estimant la probabilité du portefeuille de

59
tangence d'être non efficient. Dans l'esprit de ces travaux, Gibbons, Ross et Shanken (1989) un
cadre méthodologique de référence.

La théorie du MEDAF reste un modèle extensivement utilisé par les gérants de portefeuilles à
travers le monde. Et il continue toujours à être utilisé faute d’alternative.

Les problemes empiriques rencontres


par les modeles d’evaluation des actifs
financiers dans un cadre national et
international : Campbell R. Harvey
 Biographie

Campbell Russell " Cam " Harvey (né le 23 juin 1958) est un économiste canadien, connu pour
ses travaux sur la répartition de l'actif avec l'évolution du risque et des primes de risque et sur le
problème de la distinction entre chance et compétences en gestion de placements. Il est
actuellement professeur de commerce international J. Paul Sticht à la Fuqua School of Business
de la Duke University, à Durham, en Caroline du Nord, ainsi que chercheur associé au National
Bureau of Economic Research de Cambridge, MA. Il est également chercheur Associé à l'Institut
d'études sur l'intégration internationale du Trinity College à Dublin et chercheur invité à
L’Université d'Oxford. Il a été président de 2016 de l'American Finance Association.

Il a obtenu son diplôme de premier cycle en économie et en sciences politiques du Trinity


College de l'Université de Toronto en 1981 et son MBA de l'Université York de Toronto en
1983. Ses travaux de doctorat ont été réalisés à la Booth School of Business de l'Université de
Chicago . Ses directeurs de doctorat étaient Eugene Fama , Merton Miller , Robert Stambaugh,

60
Wayne Ferson, Shmuel Kandel et Lars Hansen. Son doctorat de 1986 Cette thèse explore le
concept selon lequel la structure par terme des taux d’intérêt (différence entre les taux d’intérêt à
long terme et les taux à court terme) pourrait prédire le cycle économique américain. Sa thèse a
été publiée dans le Journal of Financial Economics en 1988. Ce travail a ensuite été développé et
publié dans le Financial Analysts Journal en 1989.

 Les tests du CAPM revisités

Au tournant des années quatre-vingt, il est apparu que les rentabilités des actions et leurs
covariances changeaient au cours du temps. La question était de savoir si ces variations
provenaient d’inefficiences ou si, au contraire, elles résultaient d’un changement du risque ou du
prix de ce dernier. De nombreux chercheurs ont alors testé le CAPM dans un cadre conditionnel
en modélisant, soit les rentabilités, soit les covariances. Harvey (1989) considère les deux
simultanément

Dans ce contexte, Ferson et Harvey cherchent à déterminer si ce sont les expositions au risque ou
bien les primes de risque qui changent au cours du temps. Ils estiment un modèle d’évaluation
multifactoriel similaire à celui de Chen et al. Les coefficients bêtas, estimés en pas glissant,
mesurent l’exposition au marché des actions, à l’inflation non anticipée, aux dépenses de
consommation et au taux d’intérêt. Ces bêtas sont régressés en coupe instantanée afin de
déterminer la prime de risque associée à chaque source de risque. Ces primes de risque sont
expliquées par les instruments décrits dans le paragraphe précédent. Au niveau d’un portefeuille,
les primes de risque changent beaucoup plus que les bêtas. Ces résultats sont ensuite étendus aux
marchés étrangers par Ferson et Harvey (1993). Ils montrent que les bêtas conditionnels des
marchés nationaux dépendent de variables locales alors que le risque global dépend de variables
globales. Ce modèle explique l’essentiel de la prévisibilité pour plusieurs pays, principalement

61
en raison de la variation temporelle de la prime de risque global. En proposant leur modèle
empirique d’évaluation d’actions, Fama et French, ouvrent la boîte de Pandore. Ce modèle pose
trois problèmes essentiels : 1) que représentent les facteurs ? ; 2) combien de facteurs sont
pertinents ? ; 3) explique-t-il la dispersion des rentabilités ? Ferson et Harvey (1999) régressent
la rentabilité de vingt-cinq portefeuilles en coupe instantanée sur les bêtas du modèle FF. Ils
estiment également la rentabilité du portefeuille à l’aide des instruments déjà utilisés et prévoient
la rentabilité pour la période suivante. Lorsque les bêtas et la rentabilité prévue sont introduits
comme variables explicatives de la rentabilité des vingt-cinq portefeuilles, la rentabilité prévue
explique la dispersion des rentabilités réalisées alors que les bêtas de FF n’expliquent rien. Ces
résultats s’appliquent aussi au modèle à quatre facteurs d’Elton et al. (1995). Notons cependant
que la prévisibilité des primes de risque, et de la prime de marché en particulier, n’est pas très
bonne lorsqu’on utilise un modèle linéaire (Goyal et Welch, 2008). Elle est significativement
améliorée avec une combinaison de modèles (Rapach et al., 2010). Combinée à une méthode
assurant une meilleure prévision des primes de risque, l’approche de Ferson et Harvey (1999)
pourrait être utilisée pour falsifier les nouveaux facteurs qui sont apparus depuis 1992. Notons,
malgré tout, que le modèle de FF n’a rien perdu de sa popularité.

 Les actifs financiers et la consommation

Les économistes ont cherché à expliquer la rentabilité espérée des actifs par la croissance de la
consommation. Ils se placent dans un cadre multi-périodique à agent représentatif dont l’utilité
inter-temporelle est séparable par rapport au temps (par exemple, Rubinstein, 1976 ; Lucas,
1978; Breeden, 1979). En effet, la richesse n’importe que par la consommation qu’elle autorise
(Cochrane, 2009, p. 157). Pour l’agent représentatif, tout actif financier obéit à la relation
suivante :

Où Ri, t+1représente la rentabilité de l’actif i sur la période [t, t + 1] et mt+1 le facteur


d’actualisation stochastique. Si l’aversion relative vis-à-vis du risque est constante, la rentabilité
d’un actif financier et la croissance de la consommation sont liées par la relation suivante :

62
Où Ωt représente l’ensemble des informations disponibles au temps t, ct la consommation en t, γ
l’aversion relative vis-à-vis du risque, et le facteur d’actualisation subjectif (Hansen et Singleton,
1983) Harvey (1988) utilise les taux d’intérêt en t, pour un horizon j, afin de prévoir la
croissance future de la consommation. Partant de l’équation. Harvey (1988) utilise les taux
d’intérêt en t, pour un horizon j, afin de prévoir la croissance future de la consommation. Partant
de l’équation :

IL existe différentes variantes empiriques du Consumption based Capital Asset Pricing Model
(CCAPM), mais elles n’expliquent pas de manière satisfaisante la rentabilité des actifs. En
particulier, Mehra et Prescott (1985) montrent que le modèle conduit à une forte surestimation de
l’aversion relative vis-à-vis du risque. Deux approches ont été suivies afin de réconcilier ce
modèle avec les faits. La première, théorique, consiste à modifier la fonction d’utilité alors que la
seconde, initiée par Ferson et Harvey (1992), est empirique. Comme ils le remarquent, les
statistiques officielles de la consommation agrégée (National Income and Product Accounts-
NIPA) donnent une série chronologique trop lisse, car corrigée des variations saisonnières.
Partant de données non ajustées, ils rejettent les modèles où l’utilité est caractérisée par des
préférences séparables dans le temps. Un modèle utilisant des données brutes et des préférences
non séparables, avec des effets saisonniers, donne les meilleurs résultats. Les paramètres estimés
impliquent une forme de persistance des habitudes de consommation.

 Les marchés émergents

À partir des années quatre-vingt, l’apparition de nouveaux marchés financiers a offert des
opportunités d’investissement inhabituelles (voir aussi la section 3). Campbell Harvey et ses
coauteurs ont étudié l’impact de la libéralisation sur la rentabilité, le coût du capital, la

63
croissance économique et sa volatilité, ainsi que la relation rentabilité-liquidité. Ils ont aussi
examiné quels changements de réglementation sont effectifs et à quelle vitesse ils le deviennent.
Après avoir identifié la date des libéralisations financières, Bekaert et al. (2001) examinent
l’influence des libéralisations en contrôlant des effets de variables macroéconomiques et
financières. Ils trouvent que les libéralisations sont associées à la croissance économique réelle,
les effets étant plus marqués dans les pays où le niveau d’éducation est élevé. Cependant, comme
l’illustrent Bekaert et al. (2002), les effets de la libéralisation ne sont pas immédiats, ce qui
illustre le décalage entre la libéralisation et l’intégration.

Il est communément admis que la baisse des taux d’intérêt américains a contribué à accroître les
flux de capitaux vers les pays émergents. Bekaert étudie, à l’aide d’un modèle VAR (vector auto
régression), la façon dont les chocs sur ces flux affectent le coût du capital. Après la
libéralisation, les flux liés aux actions augmentent de 1,4 % relativement à la capitalisation
boursière. Initialement, la rentabilité augmente (pression sur les prix), puis décroît, sans
disparaître complètement. La dynamique de la transition (avant/après la libéralisation) suggère
que les capitaux quittent un pays plus vite qu’ils n’y sont entrés, ce qui explique le déroulement
des crises récentes en Amérique latine et en Asie.

 Volatilité des portefeuilles

Les études empiriques assimilent souvent les options cotées à des options européennes payant
des dividendes en continu. Harvey et Whaley (1991, 1992) étudient l’effet de ces approximations
sur la valorisation des options sur l’indice SP100 qui sont des options américaines payant des
dividendes à intervalles discrets. Ils trouvent que les changements de volatilité implicite sont
corrélés, car les prix d’option et la valeur de l’indice ne sont pas synchrones. La corrélation
sérielle est induite par le bid/ask spread dans le cas où une seule option est utilisée pour estimer
la volatilité implicite. Ces effets conjugués conduisent à des corrélations négatives entre les
variations de volatilité implicite estimées à partir de puts et de calls. L’hypothèse selon laquelle
les variations de volatilité sont imprévisibles est rejetée. Néanmoins, alors que le modèle
statistique fournit des prévisions précises, Harvey et Whaley ne parviennent pas à les utiliser afin
de construire des stratégies profitables une fois les coûts de transaction déduits. Ces résultats sont
compatibles avec l’efficience des marchés.

64
Comment la volatilité est-elle affectée par une cotation continue vingt-quatre heures sur vingt-
quatre ? À partir de données de transaction provenant de contrats futures cotés sur le Chicago
Mercantile Exchange et sur le London International Financial Future Exchange, Harvey et
Huang montrent que la volatilité des taux de change est aussi plus grande durant les heures
d’ouverture des marchés. Ces conclusions rejoignent celles de French et Roll (1986) sur le
marché des actions. L’analyse journalière et intra-journalière révèle que les accroissements de
volatilité coïncident avec la communication des nouvelles macroéconomiques américaines.

 L’Information Financière

Au quotidien, les analystes financiers et les gestionnaires de portefeuille se réfèrent à


l’information financière afin de prévoir les bénéfices futurs. Il est donc important de comprendre
comment les dirigeants conçoivent les bénéfices. À cet effet, Graham et al. (2005, 2006)
administrent un questionnaire à 400 dirigeants. À une très large majorité, 78 % d’entre eux disent
préférer gérer les bénéfices (lissage) en prenant des décisions économiques négatives sur le long
terme plutôt qu’en « jouant » avec les règles comptables. Ils œuvrent également au maintien du
caractère prévisible des bénéfices et des informations financières.

L’information volontaire vise à réduire le risque d’information et à soutenir le cours de l’action


tout en évitant de créer des précédents. Dichev et al. (2013, 2016) étudient la capacité du résultat
comptable à mesurer la performance de l’entreprise. L’enquête par questionnaires porte sur 169
directeurs financiers de firmes cotées et les interviews en profondeur sur douze directeurs
financiers et deux personnes définissant les normes comptables. Pour les directeurs financiers, le
caractère permanentu résultat est une composante essentielle de la qualité. Ainsi, les
caractéristiques spécifiques incluent des choix de reporting cohérents reposant sur les cashflows
actuels, et l’absence d’items apparaissant de manière ponctuelle ou d’estimation de long terme.
Ils pensent que 50 % de la qualité du résultat provient de facteurs non discrétionnaires tels que le
secteur d’activité de l’entreprise ou les conditions macroéconomiques. Ils estiment que 20 % des
entreprises gèrent le résultat afin d’avoir une représentation erronée de la performance
économique. En moyenne, l’ampleur de la « manipulation » s’élève à 10 % du bénéfice par
action et elle est difficile à détecter pour un observateur externe. Cependant, la comparaison avec
des entreprises comparables et le manque de correspondance entre le résultat et le cashflow

65
fournissent des signaux d’alerte. Par ailleurs, les auteurs constatent que l’attention des médias se
porte sur un petit nombre de fraudes alors que la destruction de valeur par des moyens légaux est
endémique. Les montants mis en jeu par ces manipulations chroniques dépassent, à les en croire,
le montant cumulé des fraudes avérées. De plus, les directeurs financiers croient fermement au
principe du rapprochement des produits et des charges et sont peu favorables à l’accent mis sur la
« juste valeur ». Les auteurs indiquent que les choix discrétionnaires ont diminué au cours du
temps, ce qui peut affecter la qualité de l’information et conduire les professionnels de l’audit à
une application mécanique des règles. En bref, pour les directeurs financiers, la qualité du
résultat est une caractéristique unique et inconditionnelle alors que, pour la recherche
contemporaine, la mesure de la qualité du résultat dépend fortement du cadre décisionnel.

L’identification de l’effet momentum, un pas


important vers la finance comportementale :
Sheridan Titman
 Biographie

Né en 1954 à Denver au Colorado aux États-Unis, Sheridan Titman est professeur de finance à
l’Université du Texas à Austin où il est titulaire de la chaire McAllister Centennial en services
financiers de la McCombs Business School. Il est chercheur associé au National Bureau of
Economic Research.Il a soutenu sa thèse The Effect of Capital Structure on a Firffqm’s
Liquidation Décision à l’Université Carnegie Mellon en 1981, sous la direction des professeurs
Scott F. Richard et Dennis Epple.

Il a enseigné pendant dix ans à l’UCLA où il a dirigé le département finance et a officié en


qualité de directeur adjoint de l’École de management. Entre 1992 et 1994, il a participé à la
création de la School of Business and Management de l’Université de Hong Kong dans laquelle
il a été directeur adjoint et directeur du comité de recrutement. De 1994 à 1997, il a dirigé la

66
chaire en finance John J.Collins au Boston College.En 1988 et 1989, Titman a travaillé à
Washington D.C. en qualité d’expert auprès du conseiller à la politique économique.

Titman a remporté le prix Smith-Breeden du meilleur article dans le Journal of Finance en 1997
ainsi que le prix Goldman Sachs Asset Management du meilleur article dans la Review of
Finance en 2007. Il a été éditeur associé de plusieurs revues scientifiques renommées dont le
Journal of Finance et la Review of Financial Studies.Il fut président de l’Association américaine
de finance en 2012 et de la Western Finance Association, en 2006.Il a également reçu le titre de
docteur honoris causa de l’Université de Montpellier lors de la Conférence internationale de
l’Association française de finance, en 2011.

Concernant les apports de Titman, il est Connu par la diversité de ces travaux et évidemment de
leur niveau d’excellence, le professeur Titman est difficilement classable. Ses études portent
aussi bien sur la structure du capital, l’évaluation des actifs, les fonds communs de placement, la
finance immobilière, pour les grandes thématiques, mais aussi sur les décisions d’investissement,
les introductions en bourse, les distributions de dividendes, les systèmes de gouvernance... avec,
à chaque fois, des publications de premier rang au sommet des classements de citations. Avec
plus de 300 productions dans sa carrière, Titman s’inscrit dans l’objectif de maximisation de la
richesse des actionnaires. Cependant, on peut aussi affirmer que Titman a été un pionnier dans
cette approche rénovée de la finance qui mêle les marchés financiers et la finance d’entreprise
laissant une place souvent importante aux interactions avec les parties prenantes autres que les
actionnaires. À titre d’exemple, il a notamment contribué à l’émergence de la finance
comportementale en identifiant le célèbre effet momentum. Il a également contribué à
l’explication des rentabilités des titres par les modèles factoriels en décortiquant l’influence du
facteur book-to-market. Il a révélé la persistance des performances des fonds communs de
placement. Il a expliqué l’évolution des prix des actifs immobiliers...

Afin de bien comprendre l’ensemble des apports significatifs du travail de Sheridan Titman, nous
avons choisi de les développer autour de quatre parties :

 l’évaluation des actifs


 la structure financière
 la finance immobilière

67
 investissement, financement

 L’évaluation des actifs

Ceci s’est fait par Titman en deux étapes principales : la première consiste à expliquer et tester
des modèles d’évaluations existants et plus précisément L’arbitrage Pricing theory (APT) tandis
que la deuxième sert à identifier autres anomalies du marché et propose des explications
nouvelles de la rentabilité des titres sortant de l’orthodoxie financière à l’époque.

On commence par le modèle d’évaluation développé par Ross à savoir l’APT qui se base sur
l’idée que la rentabilité d’un actif est expliquée par plusieurs facteurs de risque en supposant
l’absence de profits d’arbitrage sans risque .Titman remette en cause cette théorie puisqu’il a
développé un model factoriel d’évaluation des actifs du type APT (ils ne se base pas de la notion
d’arbitrage pour résoudre les équations , il fait appel à un modèle d’équilibre. Il prétend que les
individus détiennent des portefeuilles sans risque, ce qui entraine une déviation du prix par
rapport à l’APT alors l’avantage du model par rapport à l’APT c’est d’aboutir à des résultats
similaire (déviation).Si les rentabilités attendus sont expliquées par un modèle d’évaluation des
actifs alors le portefeuille optimal à détenir est une combinaison des portefeuilles factoriels. On
passe maintenant au modèle de French et Fama qui dit que les primes associées aux trois facteurs
du model de Fama et French notamment pour les petites capitalisations et pour le book market
élevé résultent d’une compensation pour le risque, au contraire de Titman qui affirme que les
caractéristiques de ces titres qui expliquent ces primes. Cette relation peut être expliquer par
l’information intangible contenue dans le ratio BM .Qui dit un ration BM élevé dit sa
décomposition en information tangibles (liés aux performances passès) et en information
intangibles liées aux futur performances. Il existe une corrélation négative entre la rentabilité
future du titre et la composante intangible de l’information intangible de l’information contenue
dans le ratio BM .Dans le domaine de l’évaluation des actifs, Titman est célèbre pour avoir
révélé l’effet momentum.

Identification de l’effet momentum

68
Les travaux de Titman ont contribué à des avancées majeures dans l’identification d’anomalies
de marché pouvant être expliquées notamment par le comportement biaisé des investisseurs. Les
travaux précurseurs de De Bondt et Thaler (1985) en la matière ont montré l’existence de
stratégies de portefeuille produisant des rentabilités anormales. Ainsi, d’après ces auteurs, les
titres qui ont surperformé sur les trois à cinq dernières années doivent être vendus au profit des
titres qui ont sous-performé sur les mêmes périodes et, ce, sur un horizon de détention équivalent
de trois à cinq ans. Cette stratégie dite contrarian procure des rentabilités anormales
significatives. Or, comme le relèvent Jegadeesh et Titman (1993), cette observation est en
contradiction avec le comportement de certains investisseurs majeurs tels que les fonds communs
de placement (mutual funds) qui ont tendance à acquérir les titres performants sur le dernier
trimestre. Ils réconcilient les deux approches en constatant que les titres gagnants poursuivent
leur ascension sur les trois à douze mois suivants et inversement pour les titres perdants. Ils
attribuent cet effet à une sous-réaction aux nouvelles informations en sélectionnant des titres
ayant fait l’objet d’annonces de résultat sur la précédente année.

D’ailleurs, au-delà du 12e mois, un effet inverse est observé, les titres gagnants perdant plus de la
moitié de leur rentabilité sur les 24 mois suivants. Cette stratégie dite momentum n’est pourtant
pas en contradiction avec la stratégie inverse contrarian. En effet, les deux stratégies s’expriment
sur des horizons de détention différents. La stratégie contrarian produit ses résultats, soit à très
court terme (une semaine à un mois), soit à long terme (trois à cinq ans) alors que la stratégie
momentum est rentable sur des horizons intermédiaires.

L’explication de l’effet momentum

D’après Daniel et Titman (1999), l’effet momentum est particulièrement dû à un biais de sur
confiance qui s’exerce sur les titres dont l’évaluation nécessite l’interprétation d’informations
ambiguës. Ils vérifient en effet que la stratégie momentum engendre des rentabilités anormales
surtout pour les titres dits growth (à fort potentiel de croissance) présentant un faible book-to-
market.

 LA STRUCTURE FINANCIÈRE

Les travaux de Titman sur la structure financière se caractérisent par deux aspects principaux.

69
Tout d’abord, Titman découvre très tôt l’influence des coûts de faillite sur la détermination d’une
structure financière et teste cette influence de plusieurs façons. Ensuite, il resitue l’entreprise
dans un contexte environnemental plus large et en montre le pouvoir explicatif potentiel sur la
détermination de la structure financière.

En ce qui concerne les couts de faillites, l’auteur montre que les coûts de liquidation indirects
imposés par les parties prenantes de l’entreprise (telles que les clients) influencent le choix d’une
structure financière. Ce choix peut permettre d’optimiser ex ante la valeur de liquidation de
l’entreprise. Une hausse de la dette, qui entraîne une augmentation du risque de faillite,
dégradera les termes de l’échange avec les partenaires de l’entreprise. Cette dégradation
représente un coût supplémentaire de la dette qui doit être pris en compte pour déterminer la
structure financière optimale. Aussi spécifique que puisse sembler cette première avancée
proposée par Titman, elle préfigure les approches par les parties prenantes des questions
financières. On passe maintenant au contexte environnemental, le point saillant de l’approche des
travaux de Titman est de mettre en parallèle l’existence des marchés financiers et la manière dont
les entreprises peuvent en tirer parti par des stratégies financières appropriées. Titman a ainsi
démontré l’intérêt pour les entreprises de recourir aux marchés financiers à terme. L’utilisation
de produits financiers sur les marchés à terme permet à l’entreprise d’accroître son endettement
sans augmenter son risque de faillite et les conflits d’agence qui lui sont liés. Titman a également
montré que l’existence d’un marché de swaps de taux d’intérêt incite les entreprises à recourir
plus fréquemment aux dettes à court terme en période d’incertitude sur les taux d’intérêt .Dans
les travaux de Titman, la structure financière des entreprises apparaît contingente à son
environnement, à ses parties prenantes et à sa politique d’investissement.

 LA FINANCE IMMOBILIÈRE

Titman est un des rares auteurs de finance à s’être intéressé à la finance immobilière. Ces
recherches commencent avec une première étude théorique qui fut certainement inspirée des
années qu’il a passées à enseigner à l’UCLA. En effet, il note dans un article (Titman, 1985) que
les prix de l’immobilier très élevés à Los Angeles n’empêchent pas l’existence de nombreux
terrains inutilisés et de constructions vacantes. Il prend, pour exemple, le parking de l’UCLA qui
offrirait une meilleure rentabilité s’il était vendu pour un tiers de sa superficie. En réalité, il

70
existe une rationalité économique entre investir maintenant et attendre d’obtenir de nouvelles
informations pour investir demain avec une plus grande rentabilité. Si l’on considère la
possibilité d’investir demain comme étant une option d’attendre, alors les terrains et immeubles
inutilisés peuvent être évalués conformément à la théorie des options. Titman propose ainsi une
adaptation du modèle des options à l’évaluation de ces actifs en situation d’incertitude. Il prétend
que ce modèle explique les niveaux de prix observés et peut être utilisé en pratique pour évaluer
les biens immobiliers.

 INVESTISSEMENT, FINANCEMENT ET INCITATIONS


 Les décisions d’investissement et de financement

Les décisions d’investissement sont un sujet privilégié de la finance d’entreprise. En effet, c’est
d’elles que l’entreprise tire sa rentabilité et sa croissance. Il est évident qu’étudier séparément les
décisions d’investissements et celles de financement est un parti pris arbitraire.

En pratique, comme en théorie, les deux décisions sont étroitement liées. D’ailleurs, les
recherches de Titman n’ont de cesse de montrer cette liaison. Dans une première approche de la
décision d’investissement, Titman s’est intéressé à l’influence des décisions d’investissement sur
la rentabilité future des actions. Plusieurs études ont révélé un lien entre les dépenses
d’investissement et la baisse de rentabilité des titres qui s’en suit. Titman et al. (2004) confirment
l’existence de cette anomalie. Ils l’expliquent en suggérant que les investisseurs sous-réagissent à
la construction d’empires industriels qui s’avèrent ensuite peu rentables. Autrement dit, ils
confortent une hypothèse de surinvestissement et de sous-réaction qui serait corrigée sur le long
terme.

 Les introductions en bourse

Les nouveaux investisseurs se retrouvent en situation d’asymétrie d’information face à


l’entreprise qui souhaite s’introduire en bourse. Il leur est donc difficile d’estimer sa valeur pour
pouvoir apprécier et déterminer le prix auquel ils peuvent acquérir les titres de l’entreprise. Le
modèle que développent Titman et Trueman (1986) permet de résoudre en partie cette difficulté.
Ce modèle montre que les dirigeants des entreprises qui s’introduisent choisissent un auditeur et
une banque introductrice réputés lorsque leur information privée est favorable sur le devenir de

71
leurs entreprises. Ainsi, la qualité des auditeurs et des intermédiaires financiers engagés par les
entreprises qui s’introduisent en bourse est de nature à révéler leur valeur intrinsèque.

 Incitation et gouvernance

Les problèmes de gouvernance d’une entreprise aboutissent à une offre hostile de prise de
contrôle par une autre entreprise. L’argument avancé par l’offreur consiste à montrer l’inaptitude
du management en place à maximiser la richesse des actionnaires. L’offreur incite ainsi les
actionnaires de l’entreprise cible à lui céder leurs titres en leur proposant une prime de contrôle
significative. Un tel modèle est proposé par Hirshleifer et Titman (1990) pour expliquer la prime
de contrôle et ses effets sur la réussite de l’opération. Ils montrent notamment qu’une prime
élevée témoigne des améliorations futures qu’attend l’offreur en acquérant la cible. De plus, les
défenses que peuvent mettre en œuvre les dirigeants en place ne font qu’augmenter la probabilité
de succès de l’opération en amplifiant le prix d’acquisition et en révélant certains potentiels
d’amélioration.Titman a également contribué à contester un résultat souvent admis selon lequel
les fusions-acquisitions détruisent de la valeur puisque les rentabilités des ensembles constitués
ainsi sont négatives sur le long terme. Il est le premier à montrer avec ses coauteurs (Franks et
al., 1991) que ces observations résultent d’un ajustement pour le risque inadéquat et ainsi qu’il
n’existe pas de baisse de rentabilité systématique à la suite des fusions-acquisitions.

72
L’interaction entre decisions d’investissement et
de financement : Stewart C. Myers
 BIOGRAPHIE :

Stewart Clay Myers (né le 1er août 1940) est le professeur Robert C. Merton (1970) d'économie
financière à la MIT Sloan School of Management. Il se distingue par ses travaux sur la structure du
capital et les innovations en matière de budgétisation et d'évaluation des immobilisations, et il a eu
une " influence remarquable " sur la théorie et la pratique de la finance d'entreprise. Myers a
d'ailleurs inventé le terme " option réelle ". Il est le coauteur, avec Richard A. Brealey et Franklin
Allen, de Principles of Corporate Finance, un manuel d'école de commerce largement utilisé et cité,
qui en est maintenant à sa 11e édition. Il est également l'auteur de dizaines d'articles de recherche.

Il est titulaire d'un doctorat et d'un MBA de l'Université de Stanford et d'un A.B. du Williams
College. Il a commencé à enseigner à la MIT Sloan School of Management en 1966.
On considère que ses contributions se répartissent en trois grandes catégories :
Travail sur la structure du capital, axé sur le " surendettement " et la " théorie de l'ordre
hiérarchique ".
Contributions à la budgétisation des immobilisations qui complètent ses recherches sur la
structure du capital. Il se distingue par l'approche de la valeur actualisée ajustée (ou VPA) ainsi
que par la reconnaissance du caractère " optionnel " de nombreux actifs d'entreprise.

73
Travaux sur l'estimation des justes taux de rendement des services publics.
Parmi ses projets récents, mentionnons l'évaluation des investissements en R-D, la gestion du
risque et la répartition du capital dans les entreprises diversifiées, ainsi que la théorie de la
gouvernance d'entreprise.
Il est actuellement directeur de la société de conseil économique The Brattle Group. Il a été
président de l'American Finance Association, associé de recherche du National Bureau of
Economic Research et directeur du Cambridge Endowment for Research in Finance.
 TRAVAUX :
Stewart Myers est un auteur qui a marqué le champ de la finance par l’importance de ses
contributions et par la longévité de sa carrière académique. Ses contributions sont tout à la fois
théoriques, empiriques et pédagogiques. Ses travaux les plus importants et les plus cités
s’intéressent à la structure financière des entreprises. Myers est l’un des auteurs ayant le plus
contribué à la compréhension de la théorie de la structure financière, et plus généralement de la
théorie du financement des entreprises. Le choix d’une structure financière est l’une des
questions fondamentales de la finance d’entreprise, et également l’une des plus complexes,
touchant tout à la fois au coût du capital et à la valeur de la firme. En effet, si une combinaison
optimale dettes/capitaux propres permet de minimiser le coût du capital, elle conduit à la
maximisation de la valeur de la firme, toutes choses égales par ailleurs.
Dans un contexte de marchés parfaits et en l’absence d’impôts, Modigliani et Miller ont montré
en 1958 que la valeur de la firme ne dépendait pas de la structure financière adoptée, dans la
mesure où les investisseurs ont la possibilité de s’endetter à titre personnel dans les mêmes
conditions que les entreprises, et où cette dette personnelle est un parfait substitut à la dette de
l’entreprise. Dans ce cas, le fait qu’une entreprise s’endette ne crée pas de valeur pour
l’investisseur.
Dès lors, toutefois, que l’hypothèse de marchés parfaits n’est plus respectée, la valeur de la firme
et ses choix d’investissement cessent d’être indépendants du choix d’une structure financière…
Myers a pu remettre en cause la formule habituelle de la valeur actuelle nette (VAN) et la
remplacer par la valeur actuelle ajustée (VAA) pour prendre en compte le gain d'impôt résultant
de l'endettement supplémentaire engendre par le projet.
Quoiqu'elle existât dans la dérivation de la courbe en U caractérisant la structure optimale du
capital, la notion intuitive et implicite de l'interaction des décisions d'investissement et de

74
financement n'est devenue le centre d'intérêt des chercheurs et des praticiens qu'en 1974 date de
publication de l'article de Myers.
Selon Myers, si le projet est finance partiellement ou totalement par des dettes, la formule
habituelle de la valeur actualisée nette (VAN) ne tient plus, et doit être ajustée pour prendre en
compte la valeur du gain d'impôt due à l'endettement supplémentaire engendre par le projet, d'où
le nom de valeur actuelle ajustée (VAA).
Le modèle de Myers suppose une entreprise qui est en face de plusieurs opportunités
d'investissement de différentes caractéristiques. L'objectif de cette entreprise est d'identifier les
projets qui maximisent !'augmentation de sa valeur marchande AV entre plusieurs périodes
successives et de déterminer par chaque période le plan de financement qui spécifie le niveau
d'endettement, les dividendes à distribuer et le revenu net de l'émission de nouvelles actions.
Une des hypothèses nécessaires à l'indépendance des décisions d'investissement et de
financement est qu'il n'y a pas de frais de transaction.
Toutes les firmes peuvent accéder gratuitement aux ressources financières et supportent le même
taux d'intérêt sur le prêt ou l'emprunt. Or plusieurs arguments
Soutiennent que l'accès par les entreprises aux ressources financières engendre des couts et que
ces couts sont différents d'une entreprise à une autre.
Premièrement, l'émission de titres comme les obligations engendrent des couts directs d'émission
et des couts indirects résultant de l'asymétrie d'information entre investisseurs et prêteurs. Myers
(1984), suggère une théorie de financement hiérarchique basée sur les couts d'émission. Le
financement interne qui n'a pas de couts d'émission constitue le moyen de financement le plus
privilégié. Si le besoin de financement externe s'impose, les couts d'émission seraient plus faibles
pour les dettes qu'en cas d'émission de nouvelles actions. Deuxièmement, il est couramment
admis que des entreprises de taille différente ne supportent pas les mêmes couts d'accès aux
ressources financières.
L’étude de la structure de capital a pour but d’expliquer comment l’entreprise peut combiner
entre le financement par capitaux propres et les autres sources de financement utilisées par les
entreprises afin de financer leurs projets et augmenter leur valeur.

 Les deux théories de Stewart Myers :

75
Nous distinguons deux principales théories de la structure financière : le compromis ou Trade-
Off-Theory (TOT) et le financement hiérarchique ou Pecking Order Theory (POT). La première
pose l’existence d’un ratio d’endettement optimal qui pourrait constituer une cible pour la
gestion de la dette. A contrario, la seconde récuse a priori l’existence d’un taux d’endettement
optimal (ratio cible) et considère que la gestion de l’endettement obéit à une logique séquentielle
selon laquelle l’entreprise mobilise les ressources financières dont elle a besoin dans un certain
ordre établi sur l’hypothèse d’asymétrie d’information.

 Théorie des compromis :

D’après la théorie du compromis, la valeur de l’entreprise endettée est la somme de la valeur de


l’entreprise non endettée à laquelle il faut ajoutée la valeur actuelle des économies fiscales et
soustraire la valeur actuelle des coûts de difficultés financières.
Il s'agit en fait d'un arbitrage entre les économies fiscales générées par la déductibilité des
charges financières et des coûts de détresse financière générés par l'augmentation du risque de
l'entreprise en s'endettant d'avantage. Cet arbitrage aboutit, selon la théorie du compromis, à un
ratio d'endettement optimal.

 La théorie du financement hiérarchique :

La théorie du financement hiérarchique repose sur le concept de l’asymétrie de l’information,


cela signifie que les dirigeants en savent plus sur leurs clients, les risques et la valeur de leur
entreprise que des investisseurs extérieurs.
L’asymétrie d’information modifie le choix entre le financement interne et externe et entre les
émissions de dettes et d’actions. Elle conduit à une hiérarchie des modes de financement par le
réinvestissement des bénéfices, puis par émissions d’obligations, et enfin par émission de
nouvelles actions. Les nouvelles émissions n’arrivent qu’on dernier lieu, quand l’entreprise a
dépassé sa capacité d’endettement, c’est-à-dire quand la menace des coûts associés aux
difficultés financières trouble le sommeil des créanciers actuels de l’entreprise et de son directeur
financier.
D’après cette théorie, il n’existe aucun ratio cible d’endettement bien défini, parce que qu’il y a
deux types de financement par fonds propres, l’un est interne, l’autre est externe, l’un et au

76
sommet de la hiérarchie et l’autre en bas. Le ratio d’endettement pour chaque entreprise reflète
son besoin cumulatif de financement externe.
La théorie du financement hiérarchique explique pourquoi les entreprises les plus rentables
empruntent généralement moins, non pas parce que leur ration d’endettement est bas, mais parce
qu’elles n’ont pas besoin de fonds externes. Les entreprises les moins rentables s’endettent parce
qu’elles n’ont pas suffisamment de fonds internes pour financer leurs projets d’investissement
que le financement par emprunt est au sommet du mode de financement hiérarchique externe.

La theorie positive de l’agence appliquee a la finance


et a la gouvernance : Michael C. Jensen

 BIOGRAPHIE :

MICHEAL Jensen né le 30 novembre 1939 à Rochester est un économiste AMERICAIN. Il a


principalement travaillé sur les thématiques liées à la finance et la théorie de la firme
principalement la théorie de l’Agence. Il est professeur émérite à l’université Harvard et travaille
également pour Monitor groupes. Il commence ses études en économie à Macalester college et
les poursuit à l’université de Chicago. Il y obtient un MBA en 1964 il travaille en particulier
alors avec MERTON MILIER (PRIX NOBEL D’ECONOMIE 1990). Ses études achevées et
jusqu’en 2000. Il est professeur de finance é la HARVARD BUSNES SCHOOL. Il a enseigné
également jusqu’en 1988 l’université de ROCHESTER. En 2000 il prit sa retraite académique et
rejoint le cabinet de conseil MONITOR GROUP.
Théorie de l'agence financière, en économie organisationnelle, un moyen d'évaluer le travail
effectué pour un mandant (c.-à-d. un employeur) par un agent (c.-à-d. un employé). Bien qu'elles
soient conformes au concept de mandat traditionnellement avancé par les juristes et les avocats,
les variantes économiques de la théorie du mandat mettent l'accent sur les coûts et les avantages
de la relation mandant-mandataire. Alors qu'un coût de mandat avantageux est un coût qui
augmente la valeur d'un actionnaire, un coût de mandat non désiré se produit lorsque les mesures
de la direction entrent en conflit avec les intérêts de l'actionnaire. Ce serait le cas lorsque les
gestionnaires font passer leurs propres intérêts avant ceux d'un propriétaire (p. ex., en manipulant

77
les bénéfices à court terme au détriment du rendement à long terme afin de recevoir une prime).
L'analyse continue des coûts de mandat est un outil de gestion courant, surtout dans les sociétés
gérées par des non-propriétaires, car elle sert à indiquer si - ou dans quelle mesure - un
gestionnaire (mandataire) s'acquitte de son obligation fiduciaire envers un propriétaire
(mandant).

 Développement théorique

Les applications contemporaines de la théorie de l'agence ont été avancées avec la publication de
" Theory of the Firm " : Managerial Behavior, Agency Costs, and Ownership Structure " (1976),
publiée dans le Journal of Financial Economics par l'économiste financier Michael C. Jensen et
le théoricien de la gestion William H. Meckling. S'appuyant sur les travaux antérieurs des
économistes américains Ronald Coase, Armen Alchian et Harold Demsetz, Jensen et Meckling
ont élaboré un modèle économique conçu spécialement pour saisir l'essence de la relation
mandant-mandataire.
Conformément à la conception juridique du mandat, Jensen et Meckling ont décrit la relation de
mandat comme un contrat (explicite ou implicite) dans lequel une personne, le mandant, engage
une deuxième personne, le mandataire, pour accomplir une action. Dans ce cas, le mandant
délègue officiellement le pouvoir de décision au mandataire choisi.
Jensen et Meckling ont commencé par supposer que chaque partie au contrat choisit
systématiquement les actions qui sont les plus susceptibles de maximiser l'utilité qu'elle attend
d'elle (en d'autres termes, l'agent et le mandant agissent toujours de manière à promouvoir leur
propre intérêt). Bien que les motivations d'un agent puissent inclure le désir de travailler fort
pour atteindre les objectifs du mandant, il peut aussi être motivé par le désir de maintenir le
prestige ou les avantages accessoires associés à l'emploi, comme des bureaux bien nommés et
l'utilisation de jets d'entreprise (qui peuvent tous être considérés comme une perte économique
du point de vue du mandant). Bien que l'hypothèse selon laquelle les deux parties cherchent à
promouvoir leur propre intérêt soit controversée parmi les économistes, un fait que Jensen et
Meckling reconnaissent, elle demeure le principe central de la théorie de l'agence.
Jensen et Meckling ont souligné la nature précise des coûts inhérents à toutes les situations
d'agence en isolant trois composantes : les coûts engagés par le mandant pour surveiller le
comportement de l'agent ; les coûts (comme les frais de cautionnement) engagés par l'agent pour

78
garantir la qualité de ses actions ; et la valeur monétaire de toute perte d'utilité subie par le
mandant qui résulte du comportement intéressé de l'agent. La dernière composante, appelée "
perte résiduelle ", survient lorsque les actions qui favoriseraient l'intérêt personnel du mandant
diffèrent de celles qui favoriseraient l'intérêt personnel du mandataire, malgré les activités de
surveillance et de cautionnement. Selon la situation, les coûts de l'agence peuvent être assez
importants par rapport à la taille du projet.
Dans une perspective de choix rationnel (c.-à-d. que les personnes prennent des décisions et des
mesures qui leur procurent un avantage), le mandant peut s'attendre à ce que l'agent se comporte
de manière à servir ses propres intérêts. En d'autres termes, il est fort probable que l'agent
accordera une plus grande priorité aux actions qui serviront ses intérêts plutôt que ceux du
mandant. Le mandant peut donc prendre des mesures stratégiques pour limiter les dommages
causés par le comportement intéressé du mandataire. Les approches courantes comprennent la
définition des attentes professionnelles et la rédaction de contrats de manière à encourager le
comportement souhaité tout en limitant les comportements divergents (p. ex., coûteux) ; il s'agit
souvent de mesures d'incitation au rendement, y compris des récompenses pour un bon
rendement et des pénalités pour un mauvais rendement. Ensuite, le directeur peut souhaiter
engager une tierce partie pour surveiller - ou, au moins, obtenir un échantillon des actions de
l'agent. Les entreprises de détail, par exemple, peuvent embaucher des clients mystères pour
tester le rendement du personnel de vente. Tant que le coût de l'embauche du surveillant demeure
inférieur à l'avantage supplémentaire que le mandant retire de l'examen du comportement de son
agent, le mandant trouvera qu'il est dans son intérêt d'embaucher un surveillant. De même, les
agents peuvent découvrir que les coûts de cautionnement peuvent valoir la peine s'ils augmentent
la valeur de l'agent pour le mandant, car le cautionnement est un moyen reconnu d'assurer un
comportement conforme aux désirs du mandant. Les agents qui se cautionnent eux-mêmes
peuvent souvent obtenir des niveaux de rémunération plus élevés que ceux qui n'engagent pas de
frais de cautionnement. (Voir aussi garantie et cautionnement).

 Applications

La théorie de l'agence implique un certain nombre d'hypothèses empiriques spécifiques et


vérifiables. Par exemple, elle a été utilisée pour expliquer pourquoi les actionnaires sont prêts à
accepter un comportement de gestion qui ne maximise pas la valeur de l'entreprise. Elle permet

79
de comprendre les raisons pour lesquelles les gestionnaires produisent volontairement des
rapports financiers vérifiés sur une base annuelle. En outre, le point de vue de l'organisme peut
expliquer pourquoi les structures de propriété diffèrent selon les secteurs (comme l'acier et les
logiciels), et il peut mettre en lumière les restrictions (comme celles que l'on trouve dans les
clauses restrictives des obligations) imposées par les créanciers aux mesures prises par les
gestionnaires.

80
À la fin du XXe siècle, les économistes et les spécialistes de la gestion ont élargi le modèle de
base de l'agence pour y inclure des questions sur les externalités (effets négatifs découlant du
cours des affaires de l'entreprise, comme la pollution atmosphérique), les hypothèses éthiques
qui sous- tendent le modèle de l'agence et les coûts sociaux associés à la malhonnêteté privée.
Dans ces cas, la question de l'agence a été soulevée du niveau de l'agence individuelle au niveau
de l'organisation elle-même, où le comportement intéressé de l'organisation est mis en balance
avec l'impact social collectif de ce comportement. Dans ces cas, le comportement organisationnel
s'explique en fonction 1) des intérêts divergents du mandant (c.-à-d. la société) et de l'agent (c.-à-
d. l'organisation) et 2) des limites de la capacité du mandant d'observer pleinement les actions
des agents.
Bien que la théorie de l'agence ait été utilisée principalement pour analyser le comportement des
acteurs économiques dans le secteur des entreprises à but lucratif, bon nombre des idées de cette
perspective peuvent être appliquées à toute situation dans laquelle un comportement coopératif
est nécessaire pour atteindre un objectif souhaité. Par conséquent, la théorie peut être utilisée
pour comprendre les choix économiques.

81
Latitude manageriale et politique
financiere : René M. Stulz
 Biographie

René M. Stulz est un des auteurs les plus prolifiques et les plus cités en finance avec 120 articles
publiés dans les revues les plus prestigieuses, ses recherches ont donné de nombreux
développements théoriques. Les travaux de Stulz se concentrent sur le financement des
entreprises, la gestion des risques, les produits dérivés, les valeurs mobilières, les institutions
financières et l'évaluation.
René M. Stulz est né le 31 juillet 1944 à New York. Après une licence en sciences économiques,
obtenue à l’Université de Neuchâtel (Suisse) en 1975. Il commence ensuite un doctorat
d’économie au Massachusetts Institute of Technology (MIT) qu’il obtient en 1980.
Il commence sa carrière universitaire comme professeur assistant en finance et en économie à
l’Université de Rochester de 1980 à 1983. Il prend ensuite un poste de professeur associé à Ohio
State University qu’il occupe pendant deux ans avant de devenir professeur de finance dans cette
même université et d’y occuper différentes chaires.
Le professeur Stulz était président de l'American Finance Association, a édité le Journal of
Finance et co-édité le Journal of Financial Economics. Il a publié le manuel Risk Management
and Derivatives, a édité plusieurs livres et a publié plus de 100 articles dans des revues
financières et économiques.
Le professeur Stulz est le directeur de banque et administrateur de la Global Association of Risk
Professionals. Il a consulté pour le Fonds monétaire international, la Banque mondiale, la Bourse
de New York, la Federal Reserve Bank de New York et diverses sociétés et cabinets d'avocats.
Le professeur Stulz est également associé de recherche au National Bureau of Economic
Research (NBER) et membre de l'European Corporate Governance Institute. Au NBER, il est
directeur du groupe de recherche sur les risques des institutions financières.
Les articles de stulz contribuent à la théorie financière internationale et portent sur des sujets
concernant la valorisation des actifs financiers, la segmentation/intégration des marchés et le
comportement des investisseurs. Stulz va concrètement doter de modèles d’équilibre général

82
d’évaluation des actifs financiers, d’outils de sélection d’actifs et de choix de portefeuille, de
théories permettant de comprendre le comportement et les décisions des investisseurs.
Stulz va donc s’attacher à développer des modèles d’équilibre d’évaluation des actifs financiers
et des théories de sélection de portefeuilles utilisables dans le contexte international avant de de
s’intéresser spécifiquement à la corrélation des marchés financiers internationaux puis aux
comportements et aux décisions des investisseurs opérant au-delà de leur frontière.

 Marchés internationaux et évaluation des actifs financiers.

Stulz essaie de développer un modèle d’évaluation des actifs financiers international considérant
que les marchés financiers sont totalement intégrés, mais les opportunités de consommation
diffèrent selon chaque pays, ce modèle met en évidence le rôle fondamental des taux de change
et aussi leur dynamique. La rentabilité espérée d’un actif risqué est proportionnelle à la
covariance de la rentabilité exprimée en devise domestique avec la variation du niveau de
consommation globale.
Selon Stulz, la sélection des actifs et le choix des portefeuilles à l’international est faite dans un
contexte où les marchés financiers ne sont ni totalement segmentés ni totalement intégrés d’où
l’existence des barrières asymétriques à l’investissement transfrontalier.
Tous les actifs financiers se situent sur des droites de marchés des actifs (Sécurity Market line)
parallèles et que tous les actifs du même pays se situent sur la même SML domestique.
Tout investisseur domestique sélectionne des titres étrangers dont le béta est supérieur à un
niveau donné, par contre certains actifs pourraient être délaissés par les investisseurs étrangers
cela montre que le portefeuille global comprenant tous les titres disponibles n’est pas efficient
chose qui contredit les modèles supposant l’intégration des marchés.
Stulz souligne que les modèles classiques de sélection et d’évaluation des actifs financiers sont
plus pertinents à expliquer les différences de rentabilités espérées que pour prédire la
composition des portefeuilles des investisseurs domestiques et étrangers.
La détermination des du coût du capital d’entreprises de petits pays, Stulz plaide pour l’emploi
d’une version globale du MEDAF en lieu et place de la version classique et locale.
Stulz complète ses réflexions sur l’évaluation des actifs financiers en contexte international par
un modèle qui prend en compte la contribution du risque dans la rémunération espérée, en

83
plaçant la variance conditionnelle non constante parmi les déterminants de l’espérance
conditionnelle de la rentabilité.
Le solde des investissements étrangers ou net foreign investment incite l’investissement à
l’étranger, ce solde se calcule sur la base de la différence entre la richesse totale investie dans un
pays et la richesse de ce même pays. Toute éventuelle augmentation de la rentabilité espérée des
investissements dans la technologie au niveau du pays étranger diminue le solde des
investissements étrangers au niveau du pays domestique, ce solde augmente aussi suite à
l’augmentation relative de la richesse nationale du pays étranger.
Chanet et al essaient de décrire l’incorporation l’information dans le cours de bourse et mettent
en lumière l’impact des temps de fermeture et des décalages d’ouverture des différents marchés
et trouvent en se basant sur une comparaison de la dynamique ,l’intensité et la variation de la
relation entre le volume d’échange et la rentabilité dans 46 pays différents que les investisseurs
internationaux tendent à se reporter sur les marchés qui ont connu de belles performances
boursières dans le passé et, symétriquement, ils tendent à quitter les marchés lorsque la
performance est mauvaise.
Le biais domestique est la tendance des investisseurs à investir la majorité de leur portefeuille
dans des actions nationales, ignorant les avantages de la diversification dans des actions
étrangères. On pensait à l'origine que ce biais était dû aux difficultés supplémentaires liées à
l'investissement dans des actions étrangères, telles que les restrictions légales et les coûts de
transaction supplémentaires. D'autres investisseurs peuvent simplement montrer un biais
d'origine en raison d'une préférence pour investir dans ce qu'ils connaissent déjà plutôt que de se
diriger vers l'inconnu.
Le fait d’investir dans des actions étrangères a tendance à réduire le niveau de risque
systématique dans un portefeuille, car les investissements étrangers sont moins susceptibles
d'être affectés par les changements du marché intérieur. Cependant, les investisseurs du monde
entier ont tendance à privilégier les investissements dans leurs actions nationales particulières.
La cotation multiple des actions se produit lorsqu'une entreprise inscrit ses actions sur une ou
plusieurs bourses étrangères en plus de sa bourse nationale. Doidge et al identifient les bénéfices
et les coûts de la cotation multiple et proposent un modèle expliquant la rationalité d’une telle
décision.

84
Reagan et Stulz (1993) montrent que, si l’inflation peut augmenter la variabilité des prix relatifs
comme il était admis à l’époque, une augmentation de la variabilité des prix relatifs peut aussi
faire croître l’inflation, Stulz démontre aussi que la demande de titres obligataires étrangers sur
les marchés internationaux augmente avec la valeur en devise locale des importations si la
tolérance relative au risque de l’investisseur domestique est inférieure à un, mais à la condition
nécessaire supplémentaire que l’élasticité des dépenses de consommation aux importations soit
supérieure à un.
Il explique aussi la présence d’une prime de risque dans les taux de change à terme du fait que
l’existence d’une prime de risque empêche de considérer les taux de change à terme observés
comme des prédicteurs des taux de change futurs. Stulz rappelle que la difficulté d’anticiper le
niveau et la dynamique des taux de change dans le futur suffit aux investisseurs pour demander
une prime de risque. Il insiste sur le comportement aléatoire des taux de change et montre que
comment un changement dans les risques de pouvoir d’achat de deux devises peut modifier les
taux de change nominaux et réels qui existent entre elles raison pour laquelle il développe deux
modèles d’équilibre général à la Lucas (1978) et à la Cox et al. (1985) tout en y important les
outils d’analyse en temps continu développés en finance par Merton (1973) pour étudier les
portefeuilles d’actifs financiers.
Selon Stulz, le contrôle managérial peut infléchir la politique financière de l’entreprise et affecter
positivement et/ou négativement la valeur de la firme de même la richesse des actionnaires Stulz
estime que la politique de financement de l’entreprise peut être utilisée pour restreindre la
propension de l’équipe dirigeante à poursuivre ses propres objectifs.
Le dirigeant de l’entreprise comme étant salarié a un intérêt à voir l’entreprise croître quoi qu’il
en coûte aux actionnaires. Il pourrait même décider d’investir dans des projets à VAN
négative, cela peut empêcher l’investissement dans des projets à VAN positive, Le niveau de
dette doit suffisamment assécher les free cash flows pour réduire les tentations du dirigeant, mais
dans une certaine limite sinon les dirigeants ne seront plus en mesure de saisir les opportunités
réelles d’investissement.
L’étude des décisions d’émission de titres doit prendre en compte des coûts liés au
comportement discrétionnaire des dirigeants est importante. Ces coûts permettent d’expliquer
de nombreux phénomènes empiriques comme la prise de décision elle-même, la réaction du
cours de l’action et la politique d’investissement post-émission.

85
Ensuite, Stulz développe une véritable expertise sur les techniques d’offres publiques et, plus
largement, sur les opérations et stratégies de fusions-acquisitions. La rentabilité des actions des
acquéreurs apparaît alors d’autant plus forte que le rapport entre la valeur de marché de l’actif
d’une firme et sa valeur comptable (Q Tobin) est faible.

 Diversification, endettement et désinvestissement

Shin et Stulz (1998) s’intéressent au marché interne du capital des entreprises diversifiées et
soulignent que l’investissement dans une branche dépend de la trésorerie des autres branches et
que Le niveau d’investissement est même six fois plus sensible aux cash flows de la branche
concernée qu’aux cash flows des autres branches. Ils trouvent également que la décision
d’allouer du capital à une branche n’est pas influencée par la qualité de l’opportunité
d’investissement.
Dans les entreprises diversifiées, Lang et al constatent une relation négative entre le niveau
d’endettement et les opportunités de croissance dans la mesure où les dirigeants choisissent
leur niveau d’endettement, ces derniers sont susceptibles de révéler leur information privilégiée
sur les opportunités de croissance de l’entreprise. Par contre les firmes reconnues pour ses
options de croissance, le niveau d’endettement ne constitue pas un frein.
Schlingemann et al s’interrogent sur les raisons qui poussent les entreprises à désinvestir et sur
les caractéristiques des actifs qu’elles décident de céder. La théorie suggère que les entreprises
désinvestissent lorsque la diversification apportée par l’actif revendu est faible, lorsqu’elles ont
un intérêt à redéployer plus efficacement leurs activités ou lorsqu’elles font face à des contraintes
financières.
En se référant aux données de Panel, les entreprises ayant de fortes opportunités de croissance et
une forte volatilité de leurs revenus conservent relativement plus de trésorerie.
Les entreprises ayant des facilités d’accès au marché des capitaux disposent d’une trésorerie
supérieure au niveau auquel conduirait l’objectif de maximisation de la richesse des actionnaires.
La théorie du cycle de vie de l’entreprise prédit que les dividendes seront payés par des
entreprises matures et bien établies plutôt que par des entreprises jeunes qui disposent de
multiples opportunités de croissance en exploitant le « mix-capital » on parle des fonds propres
externes et l’autofinancement. Loderer et al. (2016) constatent que l’introduction en bourse
d’une firme conduit à la perte de sa flexibilité, la présence des rigidités relatives au vieillissement

86
des entreprises impose la disparition des opportunités de croissance du fait que ces rigidités ne
font qu’augmenter et elles vont empêcher l’exploitation de certaines opportunités de croissance
qui, très probablement, finiront par disparaître dans le temps.
D’après Stulz, la participation des dirigeants dans le capital de l’entreprise tend à diminuer
lorsque la performance de la firme augmente, et que tout accroissement de la participation des
dirigeants augmente le Q de Tobin alors qu’un accroissement de la participation des
administrateurs n’augmente pas la valeur de la firme.
Concernant la gestion des risques, Stulz développe le concept de « Risk management » qui
consiste à ce que le dirigeant est particulièrement exposé à la faillite de l’entreprise et par
conséquent la politique de gestion des risques de l’entreprise est fortement influencée par les
préférences de son dirigeant en terme de risque d’où l’importance centrale de la rémunération du
dirigeant.
Smith et Stulz (1984) proposent une théorie concernant le comportement des entreprises en
matière de couverture des risques comme une stratégie visant à minimiser l’exposition au risque
et qui est intimement liée aux décisions de financement. Les stratégies de couverture des risques
impactent la valeur financière de la firme par le biais des taxes, des coûts de contractualisation et
de l’influence de cette stratégie sur les décisions d’investissement de l’entreprise. Ils proposent
grille d’analyse qui met l’accent sur la diminution de la variabilité des flux de trésorerie de
l’entreprise et fait la part belle à la diminution du risque de faillite.
Toute firme qui émet de la dette pour bénéficier de la dette de la déductibilité fiscale des charges
d’intérêts,
La théorie des options appliquée à la structure financière permet de mieux comprendre l'impact
sur la situation financière des créanciers et des actionnaires de certaines décisions de l'entreprise
(distribution de dividendes, investissements risqués, autofinancement etc.). Elle trouve sa source
dans l'asymétrie existant entre actionnaire (gain potentiellement illimité et risque limité à
l'investissement) et créancier (risque de perdre l'investissement mais taux de rentabilité plafonné)
qui fait penser aux options. Elle est un prisme intéressant pour analyser la relation créanciers-
actionnaires.
 Crises, institutions financières et institutions financières en périodes de crise

87
Les contributions de Bae et al. (2003) proposent une nouvelle mesure de contagion des marchés
financiers basée sur la concomitance des chocs extrêmes affectant les rentabilités de pays voisins
au sein d’une même région ou bien les rentabilités de zones géographiques voisines chose qui
permet à identifier les périodes de contagion des marchés financiers sensibles aux taux d’intérêt,
aux variations des taux de change et à la volatilité conditionnelle des indices de marché « actions
» des zones concernées.
Le cadre financier d’un pays est présenté comme l’ensemble des institutions, des technologies,
des régulations, des dispositifs, des réglementations, des normes et la culture du pays. Stulz
essaie de montrer l’importance du cadre financier sur la croissance d’une entreprise via les
méthodes qu’il permet ou promeut pour lever des fonds et les gérer. Il considère que la religion
principale du pays permet de mieux prédire les écarts entre nations dans la protection des droits
des créanciers que ne peut le faire la prise en compte de certaines mesures du degré d’ouverture
au commerce international.
Sur la base d’une étude internationale Pinkowitz et al montrent que les relations entre la valeur
de la firme et le montant de la trésorerie détenue par les entreprises et entre la valeur de la firme
et les dividendes payés tendent à être respectivement plus faibles et plus fortes, dans les pays où
les intérêts des investisseurs sont moins bien protégés en tenant compte de la détention du cash
relativement élevée par les entreprises des pays des pays à plus faible gouvernance.
La présence des coûts d’accès aux marchés des capitaux et les coûts de mise en place de
mécanismes de gouvernance, les bénéfices tirés de l’adoption de règles de bonne gouvernance y
seront trop faibles pour être viables, Doidge et al évoquent même la complémentarité ou la
substituabilité des mécanismes de gouvernance propres à la firme et aux dispositions légales,
juridiques, administratives de protection des investisseurs. Ils montrent ensuite empiriquement
qu’effectivement les caractéristiques du pays expliquent plus l’hétérogénéité des pratiques de
gouvernance d’entreprise que les caractéristiques observables des entreprises.

88
L’analyse contractuelle de l’intermediation
financiere : Douglas W. Diamond
 BIOGRAPHIE :

Douglas W. Diamond était un professeur d’économie et de finance à la Booth of School of


business de l’université de Chicago. Il est spécialisé dans l’étude de l’intermédiation financière,
des crises financières et de la liquidité.
La préoccupation majeure de Diamond est de trouver comment éviter les faillites bancaires, cette
faillite qui provient généralement selon Diamond et Dybvig du manque de liquidité que
connaissent les banques lors d’une ruée bancaire ; une liquidité pour qu’elle puisse répondre à la
demande des déposants de retirer leur argent.

 Liquidité et régulation :
 Les ruées bancaires et l’assurance des dépôts :
C’est la confiance entre les déposants et la banque qui joue un rôle très important pour la faillite
de celles-ci, en perdant la confiance en ces banques les déposants vont se ruer vers les guichets
bancaires espérant de trouver assez d’argent chez la banque pour pouvoir retirer leur argent, et
bien sur la banque ne pouvant pas faire face à une telle demande de liquidité, elle ferait faillite.
Ce système bancaire fragile peut généralement créer une panique chez les banques ce qui peut
vraiment empêcher la banque de générer plus de liquidité en se lançant dans des actifs plus
risqués apportant une rentabilité supérieure.
Selon la théorie de Diamond et Dybvig, le bilan d’une banque est formé de deux composantes
nécessaires. Les passifs ; qui sont généralement les dépôts des consommateurs et les capitaux
propres de la banque et les actifs qui sont les actifs illiquides c’est-à-dire les crédits accordés aux
investisseurs pour une durée à long terme. Alors la banque financerait ces crédits illiquides par
l’argent collecté auprès des déposants, les passifs liquides servent à financer les actifs illiquides,
et comme cela la banque joue un rôle de transformation, pour répondre à la demande de liquidité
des déposants la banque devrait attendre la rentabilité des actifs illiquides c’est-à-dire à long
terme.

89
Diamond et Dybvig donnent un découpage de temps en trois moments nécessaires, pour les
passifs t=1 correspond à la date du dépôt et t=2 c’est la date pour la consommation rapide et t=3
c’est pour la consommation retardée. Pour les actifs nous aurions t=1 qui correspond à la date
d’investissement ou de financement et t=2 c’est la date de la production faible et t=3 pour la
production élevée. Alors la banque répond aux besoins d’investissement et de consummation en
jouant sur ces aspects de temps. Mais selon Diamond et Dybvig ce qui peut créer une crise
bancaire c’est quand ces déposant courent vers les guichets pour retirer leur argent à un même
moment ( c’est-à-dire le moment t=1) et selon eux une telle ruée ne peut être générée que par une
asymétrie d’information entre les agents économiques, normalement la banque mobilise une
partie de l’argent des déposants en finançant des actifs illiquides et elle va attendre la rentabilité
de ces actifs pour répondre aux besoins de liquidité des déposants. Mais si ces déposants
viennent en même temps se présenter devant la banque pour retirer leur argent, elle va surement
se trouver dans l’impossibilité de répondre à cette demande de liquidité et elle va recourir à la
vente de ses actifs illiquides mais si leurs valeurs ne peuvent pas couvrir cette demande, chose
qui va l’entrainer à la faillite. La solution c’est qu’il faut bien maitriser cette proportion des
déposants qui vont amener leur consommation au temps t=1 (alors qu’elle était censée être une
consommation retardée en t=2), pour ce faire il faut que la banque ait une proportion des
déposants à consommation rapide non aléatoire c’est-à-dire donner le pouvoir à la banque de
suspendre la convertibilité de dépôts en liquidité ce qui va freiner tous les déposants de retirer
leur argent en temps t=1 et la deuxième solution c’est l’existence d’une assurance de dépôts
effectuée par le gouvernement, chose qui sauvegarderait la richesse des déposants même en cas
d’une ruée catastrophique parce qu’ils sont assurés par le gouvernement de la garantie de leur
argent.

 L’emprunt relationnel et le capital des banques :

Ici Diamond parle de la relation très active entre un entrepreneur et un financier extérieur, en
effet l’entrepreneur possède des compétences qui le distingue de l’ensemble des individus et
c’est ce qui ferait réussir son projet entrepris alors pour se financer il va recourir à un financier
extérieur, et Diamond compose le temps de l’investissement en trois temps t=1 : le temps de
l’investissement et t=2 c’est le temps à court terme où le financement peut être mis en question et
le t=3 à long terme le projet apporte une forte rentabilité. Le temps 2 est très important pour les

90
deux parties c’est là où le financier peut renégocier son contrat, mais le financier n’a pas assez de
compétences que l’entrepreneur et celui-ci peut décider de retenir cette compétence spécifique,
chose qui met le financier dans une position de faiblesse. Mais si nous parlons d’un financier
compétent qui pourrait faire réussir le projet et qui détient les mêmes compétences que
l’entrepreneur cela va jouer certainement pour son intérêt et c’est ce qui va lui permettre de
renégocier le contrat et imposer ses obligations et nous parlons ici d’un financier rationnel qui
sait très bien gérer son capital et cela va lui éviter des crises de faillites éventuelles.

 L’optique macro prudentielle :

Diamond et Rayan se sont intéressé à la connexion entre la monnaie, la banque et les crédits.
C’est-à-dire est ce qu’on peut prévenir une crise bancaire par une politique monétaire. La banque
joue un rôle de financement entre des consommateurs et des entrepreneurs mais la banque elle le
fait à travers une monnaie, les dépôts des consommateurs s’expriment en monnaie. Donc ici
Diamond et Rayan montrent comment le manque de liquidité généré par la volonté des déposants
à consommer rapidement peut affecter la valeur de la monnaie. Le rôle des autorités monétaires
est de faire correspondre la monnaie à la liquidité demandée, en augmentant l’offre de la
monnaie pour les transactions et lorsque les demandes de ces transactions sont importantes, les
autorités monétaires peuvent éviter les chocs monétaires et surtout maintenir des prix stables, une
telle politique monétaire permet aux banques de financer des projets à long terme qui sont
générateurs de valeur.
D’une manière assez originale Diamond et Rayan proposent que les dépôts soient établis en
monnaie réelle c’est-à-dire une monnaie libellée en monnaie étrangère mais justement que les
prêts de la banque soient rédigés en monnaie nominale, alors le lien d’insolvabilité potentielle
entre actifs et passifs sera rompu permettant une meilleure stabilité de l’activité bancaire.
1- La Maturité de la dette :

Le marché n’est pas parfait comme le disent Miller et Modigliani, il pourrait y avoir des conflits
d’agence, ce qui justifie le recours à l’endettement pour résoudre ces problèmes. Mais si le poids
de cet endettement est trop important, dans ce cas tout euro généré par l’entreprise il va être
dirigé au créanciers alors que les actionnaires supportent toujours le même risque pour cet
endettement c’est ce qu’on appelle le surendettement, pour cela il faut que l’entreprise réduise la

91
maturité de l’endettement c’est-à-dire le rembourser avant qu’une décision d’investissement ne
soit encore prise.
La modélisation temporelle de la maturité par Diamond ; il distingue l’économie à deux périodes
dans laquelle les emprunteurs cherchent à se financer au début de la première période pour
entreprendre des projets d’investissement alors que les résultats de ce projets ne seront
disponible qu’à la fin de la deuxième période, ce qui permet de distinguer les crédits à court
terme c’est-à-dire ceux de la première période (t=1), des crédits à long terme, de la deuxième
période(t=2) et aussi la prise en considération des flux d’information impactant la décision de
financement car l’information joue un rôle très important dans le financement de la dette sachant
que les prêteurs ne possèdent pas de l’information nécessaire autant que les emprunteur.
Généralement les détenteurs de projets ont soit des projets risqués ou non donc un arbitrage entre
dette court terme et dette long terme serait vraiment appréciable par les emprunteurs, un projet
risqué à long terme pourrait engendrer plus de coûts pour l’emprunteur car les résultats ne sont
pas satisfaisants pour le prêteurs ce qui l’amène à réajuster les couts et cela serait sans aucun
doute préjudiciable pour l’emprunteur, un arbitrage entre le court terme et long terme serait
essentiel avant la prise de décision de financement, et pour ce financement Diamond parle d’une
mixité de la dette l’emprunteur a intérêts à mixer ses dettes entre le court et long terme auprès du
même prêteurs.
2- La réputation :

Dans une théorie de jeu les agents économiques sont contraints à faire des choix et à prendre des
décisions, c’est le cas qui s’applique quand il y a des prêteurs et des emprunteurs qui sont
amenés à faire des choix entre des investissements risqués et non risqués, Diamond démontre
qu’une période d’acquisition de la réputation peut être nécessaire, avant que cette dernière soit
crédible, en construisant un modèle basé sur la répétition finie d’un même sous-jeu. Selon
Diamond il y a deux types de projets projet risqué et un projet non risqué et la population des
emprunteurs se compose de trois types ceux qui peuvent prendre uniquement un projet risqué ou
un projet non risqué et il y a le troisième type qui peut entreprendre les deux types de projets et
les prêteurs sont alors amenés à financer les emprunteurs en connaissant seulement le risque
moyen de l’économie c’est-à-dire la répartition de chaque type d’emprunteur, le contrat proposé
par Diamond est toujours un contrat standard de dette portant sur le montant que devra payer

92
l’emprunteur et dans l’état favorable le résultat du projet risqué est supérieur à celui du projet
sans risque, donc pour cette réputation les emprunteurs opteront pour des projets risqués, ceux-ci
ont suivi le phénomène de réputation qui les ont conduit vers des projets à risque élevé.

93
La finance vue a travers la theorie des
contrats incomplets : Oliver Hart
 BIOGRAPHIE :

Né en 1948 à Londres Oliver Hart débute ses études supérieures à l’université de Cambridge où
il obtient une licence en mathématiques en 1969, mais il avait vraiment un très important intérêt
pour l’économie, ce qui l’a poussé se réorienter et à y obtenir son doctorat en 1974 à l’université
de Princeton, puis il a continué sa carrière comme enseignant dans plusieurs universités dont la
dernière c’est Harvard où il enseigne jusqu’au nos jours. Hart a beaucoup contribué dans
l’économie par ses travaux sur les marchés incomplets et les contrats incomplets et la théorie de
la firme et plusieurs autres travaux dans la finance d’entreprise etc.

 Les contrats et firmes :

La théorie des contrats étudie les accords signés entre des agents économiques c’est-à-dire
formels ou implicites et qui régissent et contrôle les différents points et objectifs entre les
contractants pour s’assurer de l’application et de la mise en oeuvre des procédures pour un
partage bénéfique entre les parties malgré l’existence des divergences d’intérêts entre eux.
Commençons tout d’abord par la théorie de la firme qui n’a pas donné beaucoup d’explications
sur le rôle et sur les composantes d’une firme et elle s’est intéressée seulement aux marchés et à
la production globale tout en considérant l’entreprise comme étant une boite noire et tout ce qui
importe dans cette entreprise c’est les Inputs qui y entrent et les Outputs qui en sortent, mais
l’entreprise est un théâtre de conflits d’intérêts qui ont lieu à l’intérieur de l’entreprise, des
conflits liés aux différentes décisions pour son financement à titre d’exemple la rémunération de
ses agents qui contribuent à ses activités et il y a aussi les décisions de financement ce qui
vraiment évoque la nécessité d’établir des contrats entre les parties prenantes que ce soit à
l’intérieur ou à l’extérieur de l’entreprise. Coase a abordé cette théorie de la firme par son
célèbre article (1937) où il parle des couts de transactions et si les marchés sont parfaits pourquoi
la firme a tendance à recourir à des transactions à l’intérieur qu’à l’extérieur au niveau du marché
parce que c’est généralement couteux pour l’entreprise avec des couts de transactions et car la

94
négociation à l’intérieur de la firme est remplacée par l’autorité du propriétaire (l’autorité d’un
employeur sur son employé). Donnons l’exemple d’une firme de production d’électricité et une
autre de charbon, ces deux entreprises se sont installées l’une près de l’autre, et celles-ci doivent
s’entraider parce que l’une a besoin de l’autre, la centrale électrique a besoin de la production du
charbon comme moyen d’énergie pour la production d’électricité et l’entreprise de charbon a
besoin de l’autre pour écouler son charbon donc ces besoins peuvent être régies et réglementés
tout en rédigeant un contrat à long terme permettant la satisfaction des parties. Mais la rédaction
de ce contrat est très difficile et nécessite la maitrise et l’étude de toutes les contingences futures
et aussi prévoir l’imprévu des événements inattendus et cela s’avère pratiquement difficile pour
chaque firme ce qui peut entrainer une renégociation du contrat et si les firmes n’arrivent pas à se
mettre d’accord cela entrainera un problème dit du hold-up, et tous ces problèmes-ci trouvent
leur origines dans l’incomplétude des contrats c’est-à-dire les parties ne peuvent pas tout savoir
sur le contrat rédigé et ils ne peuvent pas prévoir des évènements futurs, tout cela contribue à
l’existence d’un contrat incomplet par la suite et du coup des couts plus élevés pour les parties, ici
Hart introduit une nouvelle notion pour les contrats incomplets c’est l’existence d’une tierce partie
alors ce qui rend encore plus difficile et irréalisable de procéder à la rédaction d’un contrat complet,
parce que les variables ne doivent pas seulement être vérifiables et observables par les parties
prenantes mais aussi par un tiers qui pourrait être un juge dont l’objectif est de vérifier et de faire
respecter les termes du contrat.
La théorie des contrats incomplets a une influence considérable sur beaucoup de domaines (les
théories de la dette, l’allocation des droits de propriété et de réglementation etc.), et elle a
participer aussi à expliquer la structure de propriété optimale d’une entreprise. Hart et son
compagnon Grossman se lancent en 1986 dans une nouvelle théorie de la firme, ils expliquent
dans un contrat incomplet entre deux firmes celui qui détient le droit de propriété sur les biens
dont les caractéristiques ne sont pas assez spécifiés est celui qui détient le droit de contrôle sur ce
bien, et cela peut amener les deux entreprises qui font parties d’un contrat à long terme de penser
à l’acquisition, une entreprise peut acquérir l’autre ce qui lui donnerait tout le droit de propriété
et du coup éviter les problèmes qui peuvent être générer par un contrat incomplets.

 Finance d’entreprise :

95
L’impact de la politique de l’endettement quand les dirigeants décident de suivre leurs propres
objectifs qui peuvent s’opposer à ceux des propriétaires, Hart s’intéresse à l’impact de ces
contrats d’endettement sur l’activité de l’entrepris, un contrat d’endettement optimal c’est celui
qui vise à inciter un emprunteur à verser les profits réalisés à son financier au lieu de détourner
l’argent crée par son activité économique pour son propre bénéfice, ce qui prend la forme d’un
contrat de dette. Un entrepreneur se procure un contrat de dette quand il a besoin de financer son
projet, mais le financier n’a pas un grand pouvoir de contrôle sur cet entrepreneur sauf s’il décide
d’interrompre la relation alors dans ce cas il serait obligé de verser la valeur de liquidation et cela
renforce la capacité de l’entrepreneur à ne pas s’engager entièrement dans le payement de la
dette. Ici Hart parle des interactions qui peuvent vraiment bouleverser le fonctionnement normal
d’un contrat de dette tout en prenant en considération la propriété du contrôle si celle-ci
appartient à l’entrepreneur, ce dernier il va vraiment courir pour ses propres intérêts même si ils
peuvent s’opposer aux actionnaires mais il peut aboutir à une situation où le financier ne peut pas
récupérer son argent, chose qui va interrompre le financement du projet, et si cette propriété
appartient au financier, ce dernier mettrait en place des mécanismes pour la réussite du projet
mais tout cela peut réduire l’incitation chez l’entrepreneur à développer des processus plus
innovatifs et porteurs de valeur. C’est Le problème qui se pose dans cette situation et c’est ce qui
va mener l’entreprise à un contrôle contingent où ; si l’entrepreneur fait défauts laisserait le
contrôle des actifs au financier et si l’entrepreneur se voit capable de réaliser des résultats
optimaux là il peut recourir à des dettes sur le marché financier tout en limitant le droit de vote
des nouveaux actionnaires. Il y a une relation étroite entre la dette et l’entreprise c’est ce qui peut
conduire à plusieurs conflits que ce soit à l’intérieur ou à l’extérieur de l’entreprise, à savoir la
faillite que peut connaitre l’entreprise, et c’est là-dessus où Oliver Hart a apporté plusieurs
contributions, c’est que une dette excessive peut conduire l’entreprise à la liquidation pour payer
ses créanciers ce qui en résulte la faillite de l’entreprise, mais selon Hart ces dettes, nous
pouvons toujours les transformer en parts dans le capital de l’entreprise à travers la redistribution
de l’actionnariat entre ces créanciers ( il se peut y avoir seulement un seul créancier ), cela peut
éviter la faillite à l’entreprise, chose qui a rencontré le succès dans plusieurs pays et contribué à
la réforme des lois régissant la faillite.

 Privatisation des services :

96
Dans ce volet Hart parle de l’importance de la privatisation et son impact sur les parties
prenantes, est ce que l’Etat a intérêt à privatiser quelques services qui ont une importance
majeure dans la société, et là, Hart reprend l’exemple de l’Etat et une prison, pour l’Etat la prison
constitue un service très important nécessaire à la mise en place de la sécurité à l’intérieur du
pays mais s’il décide de privatiser ce service et le déléguer à une entreprise privée, cela peut
affecter la qualité et la performance du service, l’entreprise cherchant toujours à minimiser ses
couts donc elle va abuser de la qualité, ce qui l’amène à recruter des gardiens moins qualifiés et
il y a des prisons plus dangereux où la sécurité importe beaucoup. Chose qui amène Oliver Hart à
critiquer ce genre de privatisation puisque que l’entreprise privée chercherait toujours le profit et
donc réduire ses couts de production au détriment des attentes et des objectifs de l’Etat. Oliver
Hart revient sur la crise de 2008 (subrimes) du fait que les contrats financiers entre plusieurs
parties n’aboutissent pas à des résultats optimaux parce que la réglementation financière n’est
pas prise en considération comme la réglementation régissant les lois sur le vol, la criminalité
etc. et c’est pour cela qu’il insiste à ce que cette réglementation financière doit être vue sous un
autre angle plus clair. Et ces recommandations ont mené à l’adoption de la réglementation
prudentielle par les banques minimisant les risques et d’imposer aux banques un ratio minimum
de capitaux propres, et il a mis l’accent sur une vision macro prudentielle c’est-à-dire le risque
global du marché et de liquidité ce qui s’oppose à l’approche micro prudentielle qui stipule que
si chaque banque prends les mesures de risques nécessaires cela va réduire le risque global, et
Hart a parlé aussi du problème de la contagion, la faillite d’un seul intermédiaire financier peut
se propager à d’autres banques ce qui aggrave la situation financière global de l’économie et cela
s’exprime par les mesures d’interconnexion entre les banques à titre d’exemple le marché
interbancaire.

97
Une vision partenariale, politique et
sociale de la gouvernance : Luigi Zingales
 BIOGRAPHIE :

Luigi G. Zingales est né à Padoue en Italie en 1963, Zingales est non seulement un universitaire
reconnu, mais surtout un homme engagé dans une réflexion politique. Zingales a obtenu un
baccalauréat en économie de l'Université Bocconi de Milan. En 1992, il a obtenu un doctorat en
économie du Massachusetts Institute of Technology avec l'achèvement de sa thèse, intitulée « La
valeur du contrôle des entreprises ».
Zingales est directeur du Stigler Center de l’Université de Chicago Booth, un centre de
recherche dédié à l’étude de l’interaction entre politique et économie. Il est membre du
Committee on Capital Markets Regulation, organisme indépendant de recherche qui étudie les
questions de régulation des marchés financiers. En 2014, il a présidé l’American Finance
Association.
Ses recherches sont variées et portent sur des sujets couvrant la gouvernance d’entreprise, les
marchés financiers, la macroéconomie, la psychologie et l’économie comportementale. Outre
ses fonctions en tant que professeur à Chicago Booth, Zingales est chercheur associé au National
Bureau of Economic Research, au Center for Economic Policy Research, et à l’European
Governance Institute. Le point de départ des travaux de recherche de Zingales se situe dans le
domaine de la gouvernance des entreprises, En finance d’entreprise, il a revisité des questions
très débattues notamment la structure financière et les contraintes financières des firmes, le rôle
du financement dans la croissance et la décision d’introduction en bourse. Il a également
développé une réflexion politique sur le rôle des institutions et les évolutions du capitalisme,
qu’il a ensuite déployé hors du seul cercle académique à travers la publication d’ouvrages et
d’articles dans la presse économique. La principale contribution de Zingales porte sur la
gouvernance en proposant un dépassement du modèle centré sur la relation entre actionnaires et
dirigeants en traitant des questionnements liés aux décisions financières de la firme tout en
restant dans le cadre de gouvernance.

98
Le modèle principal proposé par Zingales s’intéresse à l’entreprise managériale contrairement
aux quelques modèles comme « Berle et Means » ou le modèle de « Fama et Jensen » qui ont
pour objet uniquement d’analyser la relation entre les actionnaires et les dirigeants d’où
l’existence de trois facteurs qui imposent le dépassement de ce cadre, ces facteurs sont présentés
comme suit :
- Le déplacement des sources de rentes qui sont désormais plus fortement reliées au capital
humain et à l’innovation qu’aux actifs physiques et à l’intégration verticale.

- L’émergence de nouvelles formes organisationnelles qui en découlent.

- la prise en compte de nouveaux éléments dans les travaux de recherche en théorie des
organisations et en finance et gouvernance.

Les travaux ont porté sur les fondements de la théorie financière à travers une mise en
perspective des principales décisions financières avec les théories organisationnelles, ces travaux
traitent une question principale concernant l’origine de la rente organisationnelle ainsi que la
répartition de cette rente sur ses composantes en partant de la définition des contours de la firme,
sa légitimité par rapport au marché, et d’autre part, les questions liées au pouvoir, à la
performance générée sous forme d’une rente organisationnelle.
D’après Rajan et Zingales, la firme est définie un noeud d'investissements spécifiques présentée
sous forme d’une combinaison d'actifs et de personnes mutuellement spécialisés, cette approche
insiste sur le caractère non réplicable de la firme obtenu grâce aux investissements spécifiques et
à la combinaison unique qui résulte du travail mutuel qui s’effectue entre les actifs spécialisés de
la firme et le capital humain qu’elle emploie. Cette définition reconnaît que toutes les parties
mutuellement spécialisées sont propriétaires de l’entreprise au sens où elles sont censées détenir
des droits résiduels, qu’il s’agisse des salariés, des fournisseurs ou des clients. L’approche
partenariale précise que toute firme est reconnue comme équipe de facteurs de production dont la
combinaison est à l’origine de la rente organisationnelle, en effet, la contribution des partenaires
est limitée à la perception de la rente organisationnelle d’où la présence du statut créancier
résiduel étendu à toutes les parties prenantes. Les relations contractuelles entre la firme et les
différentes parties prenantes ne sont pas uniquement fondées sur une dimension marchande, mais
elles sont construites de manière à créer un cadre collaboratif et incitatif générateur de valeur. En

99
se basant sur cette approche, le capital humain joue un rôle central, contrairement aux approches
antérieures considérant que ce capital n’est pas la propriété de l’entreprise ce qui pose des
problèmes de gouvernance on parle d’un aspect fondamental du système de gouvernance c’est le
contrôle et l’allocation de cette ressource critique, Zingales a mis en place un système de
gouvernance partenariale qui intègre un système de pouvoir en intégrant sa vision de la
transformation des firmes en répertoire d’investissements spécifiques qui reste cependant inscrite
dans le paradigme contractuel. Ce modèle met l’accent sur le partage de la rente considéré
comme le facteur sur lequel repose le système de gouvernance proposé par Zingales.

 La politique d’investissement et de financement dans ce modèle


partenarial

En s’appuyant sur les apports de la théorie des coûts de transaction (Williamson, 1988) pour
comprendre les dynamiques d’investissement, les ressources peuvent être apportées par
différents acteurs. Elles peuvent aussi résulter de processus de construction.
Rajan et Zingales intègrent une dimension de ressource critique définie comme une idée, de
bonnes relations clients, un nouvel outil ou une technique de management. La réalisation des
investissements est lié à un cadtre incitatif au partage de la rente qui trouve son origine dans le
processus d’accumulation d’investissements spécifiques autour des ressources critiques
maîtrisées par le dirigeant, du fait que les salariés en particulier bénéficient de leur spécialisation
et sont incités à déployer une compétence spécifique source de rente pour l’entreprise.
En proposant une nouvelle théorie de la firme, les travaux de Zingales s’inscrivent dans la même
ambition que ceux de Jensen et Mecking. Le modèle de gouvernance proposée vise à écarter la
vision actionnariale de la gouvernance axée sur la seule préservation du capital financier au
profit de la vision partenariale de la gouvernance grâce à l’intégration du capital organisationnel.
Zingales a mené ces développements principalement vers la fin des années 1990, après et
pendant ses travaux sur la gouvernance d’entreprise, et avant d’élargir sa réflexion à l’ensemble
du système financier et au capitalisme. Les études menées par Zingales et Rajan montrent que
l’endettement des entreprises est similaire entre les pays du G7, la décision d’introduction en
bourse est considérée comme un choix qui peut modifier de manière considérable l’actionnariat

100
de l’entreprise et donc les droits de contrôle et les droits sur les cash-flows, c’est pour cela
certaines entreprises s’introduisent en bourse et d’autres pas.

101

Vous aimerez peut-être aussi