Vous êtes sur la page 1sur 49

Aioui Hasnae

Fiche de lecture des Grands auteurs de la


Finance

Réalisé par :Aioui Hasnae


Encadré par : Mr. Bassidi
Année universitaire : 2019/2020

1
Aioui Hasnae

Table des matières

Harry M. Markowitz.......................................................................... 2

William F. Sharpe .............................................................................. 6


Merton H. Miller ................................................................................ 10
Eugene F. Fama.................................................................................. 13
Stephen A. Ross................................................................................ 15
Fischer S. Black ................................................................................ 17

Robert C. Merton ............................................................................. 20


Joseph E. Stiglitz .............................................................................. 22
Richard Roll...................................................................................... 24
Campbell R. Harvey......................................................................... 27

Sheridan Titman............................................................................... 30
Stewart C. Myers..............................................................................33
Michael C. Jensen............................................................................. 36
René M. Stulz.................................................................................... 40

Douglas W. Diamond ....................................................................... 42


Oliver Hart........................................................................................ 44
Luigi Zingales................................................................................... 46

2
Aioui Hasnae

L’objectif premier du présent ouvrage est de donner un aperçu de l’évolution scientifique d’un
domaine - la finance - à travers l’analyse des travaux de ses principaux auteurs, tant en matière
de contenu que de méthodes. Nous cherchons, tout spécialement, à mettre en évidence les
principales questions posées, les réponses qui y ont été apportées et les grands débats qui ont
agité et continuent à agiter la discipline. Au-delà de ces points fondamentaux, nous cherchons
également à montrer les méthodes utilisées par les chercheurs en finance de façon, là aussi, à
révéler les éventuelles spécificités du champ et à aider à percevoir clairement les chemins qui
ont été suivis par les grands auteurs.

Un tel travail peut intéresser différents publics. En premier lieu, il est à même d’attirer
l’attention des chercheurs, étudiants et praticiens spécialisés en finance. Pour les premiers,
l’accroissement de la spécialisation fait que la connaissance du domaine est, sauf exception,
très fragmentaire. Les spécialistes, par exemple, de l’évaluation des produits dérivés,
Méconnaissent, fréquemment, les développements en finance d’entreprise et en gouvernance et
inversement. Or, comme le révèlent les travaux des grands auteurs, il y a souvent de fortes
interconnexions entre les différents champs de la finance. Les doctorants ont habituellement
tendance à ignorer l’histoire de la discipline, les enseignements en histoire des idées étant
tombés, sauf exception, en désuétude. Une meilleure connaissance de cette histoire peut les
aider à mieux comprendre comment leur propre domaine, à travers sa genèse et son évolution,
s’inscrit dans le champ plus large de la finance et, enfin, à mieux se préparer pour leurs futurs
recrutements et enseignements dans la mesure où il leur sera demandé d’avoir une connaissance
qui dépasse amplement le seul thème de leur thèse. Quant aux étudiants moins avancés et aux
praticiens, qui retiennent usuellement une vision très technicienne de la discipline, la lecture
d’un tel ouvrage est à même de leur faire connaître l’origine et les limites des outils qu’ils
utilisent - par exemple, des différentes modalités d’estimation du coût du capital -, et donc à «
éclairer » leurs pratiques en les incitant à la prudence

3
Aioui Hasnae

I. Harry M. Markowitz (Les fondations de la


théorie moderne du portefeuille)

Notice biographique
Né à Chicago en 1927, Harry M. Markowitz, professeur à la City University de New York,
reçut le prix Nobel d'économie en 1990 « pour avoir développé la théorie dite du choix des
portefeuilles pour le placement des fortunes ».

Le professeur Harry Markowitz ne se doutait pas que son article de jeunesse publié en 1952
dans le Journal of Finance, puis développé dans un livre paru en 1959, Portofolio Selection :
efficient diversification, jetterait les bases de la théorie moderne du portefeuille et de son
utilisation par un grand nombre de praticiens.

Les fondations de la théorie moderne du portefeuille

Les hypothèses du modèle de Markowitz

Avant de rentrer dans les détailles du modèle du portefeuille efficient de Markowitz, on vous
présentera d’abord les hypothèses de ce modèle, ce dernier stipule un ensemble de données
relatives aux actifs financiers, et d’autres concernant le comportement des investisseurs : pour
la première catégorie, on trouve :

Hypothèse 1 : Tout investissement est une décision prise dans une situation de risque : le
rendement d’un actif financier pour toute période future est par conséquent une variable
aléatoire, dont on fait l’hypothèse qu’elle est distribuée selon une loi normale, c’est- à-dire une
distribution symétrique stable entièrement définie par deux paramètres, à savoir l’espérance
mathématique du rendement et l’écart-type de la distribution de probabilité du rendement

Le rendement sur investissement (ou, plus brièvement, rendement est défini comme
l’accroissement de la fortune initiale que cherche à maximiser l’investisseur. Le rendement
correspond en temps discret à la relation rt = (Pt – Pt-1) + Ct où : rt = rendement de l’actif
financier pour la période (se terminant au temps) t Pt = prix de marché au temps t de l’actif
financier Ct = revenu liquide attaché à la détention de l’actif financier durant la période (se
terminant au temps) t.

4
Aioui Hasnae

Hypothèse 2 : Les rendements des différents actifs financiers ne fluctuent pas indépendamment
les uns des autres : ils sont corrélés ou, ce qui revient au même, ont des covariances non nulles.

S’agissant la deuxième catégorie, le comportement des investisseurs est ainsi supposé


caractérisé selon Markowitz par :

Hypothèse 1 : Le comportement de tous les investisseurs est caractérisé par un degré plus ou
moins prononcé d’aversion vis-à-vis du risque. Ce dernier est mesuré par l’écart-type de la
distribution de probabilité du rendement.

Hypothèse 2 : Les investisseurs sont rationnels : bien que leur fonction de préférence soit
purement subjective, ils opèrent, en référence à celle-ci, des choix strictement transitifs.

Hypothèse 3 : Tous les investisseurs ont le même horizon de décision, qui comporte une seule
période. Cette simplification, qui peut paraître exagérée, permet de mettre en œuvre un modèle
de décision qui tient compte du caractère hautement combinatoire du portefeuille.

Présentation du modèle de Markowitz

Le problème posé par Markowitz est la recherche d’un portefeuille qui minimise la variance du
rendement du portefeuille pour un niveau d’espérance de rentabilité donné. Ce portefeuille est
dit efficace, il a l’espérance de rentabilité la plus forte parmi les portefeuilles qui ont la même
variance de rentabilité que lui. L’ensemble de tous les portefeuilles efficaces constitue la
frontière efficace, encore appelée frontière efficiente de Markowitz (Prix Nobel d’économie en
1990), qui la dériva en 1952 et la généralisa en 1959.

Rentabilité et risque

La théorie financière met l’accent dans le cadre de la gestion de portefeuille sur deux critères
essentiels, à savoir, la rentabilité et le risque.

✓ La rentabilité

Le concept de rentabilité a des acceptations différentes selon les investisseurs. Quand nous
parlons de la rentabilité obtenue par un investisseur sur une action, nous nous référons non
seulement au dividende net que lui rapporte ce titre, mais aussi, à la plus-value éventuelle qu’il
y prélève lors de la revente des actions. Ainsi, le taux de rentabilité comprend à la fois, le
rendement ou le taux de rendement (dividende net rapporté au cours de l’action), et la plus-

5
Aioui Hasnae

value (ou moins-value) en capital rapportée au cours d’achat de l’action. Le rendement est
défini par la relation : Le revenu est supposé perçu au temps t, ou, s'il est perçu entre et t, il est
supposé ne pas être réinvesti avant le temps t. Le prix de marché au temps est une valeur "ex-
coupon" c'est-à-dire une valeur enregistrée immédiatement après (le détachement du coupon
donnant à) la perception, au temps, du revenu liquide afférant à la période. Sur le plan
empirique, l'hypothèse de non réinvestissement jusqu'à la période élémentaire de temps utilisée
est courte (un mois maximum), afin d'éviter des distorsions statistiques trop importantes dans
le traitement des données chronologiques. Pour faciliter les comparaisons entres
investissements, nous utilisons une mesure exprimée en termes relatifs le "taux de rentabilité"
ou "rate of return" défini assez logiquement par : Où est le taux de rentabilité pour la période t.

✓ Le risque

L’investissement en valeurs mobilières constitue le sacrifice d’un avantage immédiat ou, une
absence de consommation immédiate en échange d’avantages futurs. Dans la mesure où le
présent est connu avec certitude, l’investissement en valeurs mobilières constitue l’échange
d’un avantage certain et immédiat contre un avantage futur et incertain. Ainsi, le risque d’un
actif financier pour un investisseur, peut être défini comme l’incertitude qui existe quant à la
valeur de cet actif à une date future. L’objectif de tout investisseur étant de réaliser une certaine
rentabilité sur les capitaux qu’il gère. Cependant, l’obtention de celle-ci n’est pas certaine à
l’avance. La rentabilité réalisée (ex-post) est plus ou moins différente de celle espérée (ex-ante).
Ainsi, on peut assimiler le risque d’un investissement à la dispersion ou variabilité de sa 6
rentabilité autour de la valeur anticipée. Cette variabilité est mesurée le plus souvent par l’écart
type (ou identiquement son carré : la variance).

L’approche espérance - variance

✓ L’espérance mathématique : mesure de la rentabilité espérée

Placé dans un univers incertain, l’investisseur ne peut pas calculer d’avance la rentabilité, car
la valeur du titre en fin de période est aléatoire, ainsi que dans certain cas, la rémunération
perçue durant la période. L’investisseur utilise alors, une rentabilité espérée qui est la moyenne
des rentabilités possibles pondérées par leur possibilité de réalisation.

✓ La variance : outil statistique d’analyse du risque

Intuitivement, on conçoit que, plus le risque d’un titre financier n’est élevé, plus son taux de
rentabilité ne variera. Si le détenteur d’obligations du trésor est assuré de toujours percevoir ses

6
Aioui Hasnae

coupons, il est loin d’en être de même pour l’actionnaire d’une société qui intervient dans un -
secteur pré potentiel : il pourra perdre ou gagner.

L’optimisation d’un portefeuille selon Markowitz

La majorité des transactions boursières concernent le contenu des "portefeuilles de titres"


(Security portfolio) qui sont l'ensemble des titres qu'un acteur du marché peut détenir. Gérer un
portefeuille consiste donc (le plus classiquement) pour un gestionnaire à chercher un retour sur
investissement maximal pour le client tout en minimisant les risques. Les "titres financiers"
(Financial Security) se dérivent sous la forme d'actions, d'obligations, d'options de devises et
de matières premières tous appelés plus généralement "produits financiers" ou encore "actifs
financiers". En langage courant, le concept de portefeuille évoque la détention d’un ensemble
de titres (actions, obligations…) afin de faire fructifier l’épargne ayant servi à son acquisition.
Actif sans risque : Titre offrant un Taux de rentabilité parfaitement certain sur l’horizon de
décision de l’investisseur. Ex : Emprunt d’état, obligation émise par le gouvernement, Bon du
trésor … Actif risqué : Titre offrant une espérance de rentabilité avec un niveau d’incertitude
donné. Les travaux de Markowitz ont constitué la première tentative de théorisation de la
gestion financière et son modèle suggère une procédure de sélection des titres boursiers, à partir
de critères statistiques, afin d'obtenir des portefeuilles optimaux. Plus précisément, Markowitz
a montré que l'investisseur cherche à optimiser ses choix en tenant compte non seulement de la
rentabilité attendue de ses placements, mais aussi du risque de son portefeuille qu'il définit
mathématiquement par la variance de sa rentabilité. Appliquant des théorèmes classiques du
calcul statistique et des techniques probabilistes, Markowitz a ainsi démontré qu'un portefeuille
composé de plusieurs titres est toujours moins risqué qu'un portefeuille composé d'un seul titre,
quand bien même il s'agirait du moins risqué d'entre eux. Le « portefeuille efficient » est le
portefeuille le plus rentable pour un niveau de risque donné. Il est déterminé par application de
méthodes de programmation quadratique. La maximisation de rentabilité exige une gestion
minutieuse des risques et cette dernière se fait à base de la diversification. La diversification
stipule le mixage d’un portefeuille d’actifs entre ceux risqués ou bien les combiner avec d’autres
sans risque. C’est l’investissement dans différentes classes d’actifs ou dans différents secteurs,
cette diversification ne signifie pas seulement détenir beaucoup d’actifs. Par exemple, si vous
détenez 50 titres liés au secteur Informatique, votre portefeuille n’est pas diversifié. Par contre,
si vous détenez 50 titres qui sont éparpillés parmi 20 différentes industries, vous êtes en
possession d’un portefeuille diversifié.

7
Aioui Hasnae

II. William F. Sharpe (les outils fondamentaux de la

gestion moderne de portefeuille)

Notice Biographique

William Sharp naît à Paisley et suit des cours à l'académie de Glasgow et à l'Université de
Glasgow, sans y obtenir de diplôme. En 1872, il contracte la typhoïde. En 1874-1875, il travaille
dans un cabinet d'avocat à Glasgow. Sa santé décline en 1876 et il est envoyé en voyage
en Australie. En 1878, il prend un emploi dans une banque à Londres.

Il est présenté à Dante Gabriel Rossetti par Sir Noel Paton et rejoint le groupe littéraire de
Rossetti qui comprend Hall Caine, Philip Bourke Marston et Swinburne. Il épouse sa cousine
Elizabeth en 1884 et se consacre à l'écriture à temps plein à partir de 1891 tout en voyageant
beaucoup.

Pendant ce temps, il développe une relation avec Edith Wingate Rinder, un autre écrivain du
cercle celtique d'Édimbourg. C'est à Rinder ("EWR") qu'il attribue par la suite l'inspiration
d'écrire sous le nom de Fiona MacLeod et à qui il dédie son premier roman signé MacLeod
("Pharais") en 1894. Sharp a une relation complexe avec W. B. Yeats pendant les années 1890.

Il est mort et a été enterré au château Maniace (Sicile). En 1910, Elizabeth Sharp publie une
biographie et une édition complète de ses œuvres.

Les origines de la théorie de Sharp

Dans la partie précédente, on a mis la lumière sur la théorie de base de Markowitz qui portait
essentiellement sur la maximisation de l’utilité de richesse final de l’investisseur, une théorie
que certes a proposé une solution au problème de choix de portefeuille d’un investisseur averse
au risque ou les portefeuilles optimaux sont définies comme ceux de plus faible risque pour une
rentabilité donnée, mais aussi a présenté un problème majeur concernant le temps nécessaire
pour calculer et inverser la matrice des corrélations, dans ce cadre-l, Sharp a développé sa
théorie et apporte une solution au problème d’utilisation du modèle de sélection de portefeuille
et qui réside dans son modèle diagonal. Les avantages de ce modèle se voient dans sa simplicité
et la prise en compte d’un grand nombre d’interrelation entre les titres. Donc Sharpe a pensé à
la possibilité d’approfondir ses recherches pour réaliser un équilibre. C’est ce qui le conduira à
l’élaboration du MEDAF.

8
Aioui Hasnae

❖ De l’analyse de portefeuille à la détermination de l’équilibre général

Au début il existait un équilibre partiel en se basant sur un modèle simplifié d’analyse de


portefeuille c’est pour cette raison que Sharpe cherche l’équilibre général en modernisant les
méthodes d’analyse.

La caractéristique principale de son modèle diagonal réside dans l’hypothèse que la rentabilité

des différents titres dépendent principalement d’un facteur sous-jacent, uniquement par des
relations courantes. La rentabilité de chacun des titres est déterminée par des facteurs aléatoires
et cet élément extérieur seul.

Même si le programme diagonal aide à réduire le temps de calcul, il existe quelques analyses
dont le coût est assez important qu’on ne peut pas le négliger, donc Sharpe a limité les calculs
à ceux qui sont essentiels pour la sélection finale du portefeuille. Donc le programme diagonal
restreint les calculs à ceux qui sont nécessaires pour déterminer l’ensemble final des
portefeuilles efficaces. Et Afin de tester la fiabilité du programme diagonal en ce qui concerne
sa capacité à résumer les informations de la performance des titres, une expérience a été
effectuée :

Choix de 20 titres au hasard sur le New York Stock Exchange et leurs performances sur la
période 1940-1951 avec deux ensembles de données à savoir : la moyenne des rentabilités, les
variances et covariances des rentabilités réalisées sur la période et les paramètres du programme
diagonal, estimés par les techniques de régression à partir des performances des titres durant la
période. Puis une analyse de portefeuille est menée sur chaque ensemble de données. Il apparut
que les 62 paramètres du modèle diagonal sont capables de saisir une part très importante de
l’information contenue dans l’ensemble complet des 230 relations historiques. Un test
supplémentaire, effectué sur un nouvel ensemble de vingt titres, donna des résultats similaires.

Sharpe remarque alors que « même si ces résultats sont trop fragmentaires pour être considérés
comme concluants... ils suggèrent que le modèle diagonal peut être capable de représenter assez
bien les relations existantes entre les titres et par la suite que la valeur des analyses de
portefeuille fondées sur ce modèle excède leur coût. Pour ces raisons, ce dernier apparaît été un
excellent choix pour les premières applications pratiques de la technique de Markowitz ».

C’est pour ça l’approfondissement de ces premiers travaux a conduit Sharpe à la détermination


d’un équilibre général et à l’élaboration du modèle d’équilibre des actifs financiers qui
représente la contribution majeure à la théorie financière, et c’est pour cela que ses idées
représentent des fondements de la théorie financière.

9
Aioui Hasnae

❖ L’évaluation de performance du portefeuille.

Cette évaluation des portefeuilles se fait selon Sharp en deux principales étapes, à savoir : le
choix du portefeuille de référence et par la suite l’indépendance d’échelles :

À l’origine et pour l’essentiel, le portefeuille de référence (il peut s’agir d’un actif, d’un indice
ou d’un portefeuille), utilisé dans le ratio de Sharpe pour le calcul du différentiel de rendement,
est l’actif sans risque. Dans ce cas, le ratio de Sharpe met en évidence l’intérêt réel d’un
placement risqué par rapport à un placement sans risque. Il fournit ainsi le niveau de rendement
supplémentaire par unité de risque par rapport à une stratégie sans risque. On peut envisager
d’utiliser d’autres portefeuilles de référence que l’actif sans risque, William F. Sharpe 97
comme un portefeuille composé par une combinaison entre le portefeuille de marché et l’actif
sans risque ou alors un indice composé de portefeuilles qui ont un profil similaire au fonds dont
on souhaite apprécier la performance. Dans ce cas, le ratio de Sharpe met en évidence l’intérêt
ou non d’un investissement dans un portefeuille X par rapport à un investissement globalement
similaire, c’est-à-dire proche des attentes et des préférences de l’investisseur (courbes
d’indifférence fondées sur l’aversion vis-à-vis du risque). Ainsi un investisseur choisissant
d’investir dans des valeurs technologiques pourra définir comme portefeuille de référence
l’indice Nasdaq 100. Cependant, quel que soit le choix du portefeuille de référence, on mesure
toujours l’espérance de rendement supplémentaire par unité de risque supplémentaire par
rapport à une stratégie d’investissement définie par le choix d’un tel portefeuille, après avoir
choisi le portefeuille de référence.

❖ L’allocation des fonds d’investissement

L’allocation d’actifs est généralement définie comme la constitution d’un portefeuille à partir
de différentes classes d’actifs. Les classes d’actifs une fois définies, il convient de mesurer la
sensibilité des rentabilités de chaque classe d’actifs. Cette information permettra à l’épargnant
d’apprécier la qualité de sa diversification ; si celle-ci ne correspond pas à celle souhaitée, des
modifications devront être apportées à la composition du portefeuille. Une fois qu’une mesure
de la sensibilité des composantes du portefeuille a été mise en place, il est possible d’évaluer la
performance individuelle des gérants des fonds et l’importance des gains réalisés grâce à leur
management.

10
Aioui Hasnae

Merton H. Miller (Le raisonnement d’arbitrage et

III. la séparation des décisions d’investissement et


de financement)

Notice Biographique

Merton Miller : (1923- 2000)

Merton Miller est un économiste et professeur de finance américain né le 16 mai


1923 à Boston, Massachussetts. Il obtint son Bachelor (A.B.) en économie de
l’Université Harvard en 1944. Et pendant six années, de 1943 à 1949, il travailla
comme économiste dans l’administration américaine successivement à la
direction du Trésor américain et à la Federal Reserve Bank, avant d’entreprendre
ses études doctorales en économie à la John Hopkins University dont il fut
diplômé en 1952. Il fut enseignant au Carnegie Institute of Technology dès 1953
et publie cinq ans plus tard avec Franco Modigliani leur travail concernant le
domaine de la théorie des finances

En 1961, Merton Miller rejoignit la Graduate School of Business de l’Université


de Chicago en tant que professeur d’économie et de finance. Cette business school
devint son port d’attache pour quarante ans. En 1990, il reçut le prix Nobel
d’économie.Franco Modigliani : (1918-2003)

Franco Modigliani, est un grand économiste italo-américain né le 18 juin 1918 à


Rome. Après avoir obtenu ses diplômes en économie à l'Université catholique du
Sacré-Cœur, il quitte son pays et immigre aux Etats-Unis en 1939 pour fuir la
persécution du régime fasciste. Il obtient son doctorat à la New School for Social
Research de New York en 1944 et prend la nationalité américaine en 1946. En
1948, il est nommé au département d'économie politique de l'Université de
Chicago et rejoint la prestigieuse Cowles Commission for Research in Economics.
Il y côtoie des économistes de premier plan tels que Marschak, Koopmans, Arrow

11
Aioui Hasnae

ou Simon. Il enseigne l'économie et la finance dans d'autres universités


américaines, dont l'université Carnegie-Mellon et la MIT (Massachusetts Institute
of Technology).

Modigliani est surtout connu pour ses travaux avec Richard Brumberg sur le cycle
de vie dans sa théorie sur l'épargne et ses travaux avec Merton Miller sur la finance
d'entreprise, notamment sur la neutralité de la structure financière sur le résultat
par action. Président de l'American Economic Association en 1976, il reçoit le
prix Nobel d’économie en 1985 pour ses travaux sur le comportement d'épargne
des ménages et le théorème Modigliani-Miller sur les marchés financiers.

Le raisonnement d’arbitrage et la séparation des décisions d’investissement

et de financement Miller est l’auteur incontournable, car il est avec Franco


Modigliani, qui est à l’origine d’une véritable révolution dans la façon de penser,
de concevoir et d’organiser la problématique des grands choix financiers de
l’entreprise.

- Modigliani et Miller postule l’indépendance de la structure financière, mesurée


par son levier financier (dettes financiers/fonds propres).

- La démonstration repose sur un raisonnement d’arbitrage et suppose des marchés


financiers parfaits.

- Miller et Modigliani ont fait le choix sur les marchés de capitaux modernes, qui
sont plus près de l’efficience que d l’inefficience. Le grand intérêt de leurs
propositions, est de montrer que seraient les choix de financement des entreprises
dans un univers théoriquement pur. C’est-à-dire les taux de prêt son identique,
l’absence des coûts de transaction et des informations transparentes.

L’impact de la dette sur la valeur de la firme dans un monde sans impôt :

12
Aioui Hasnae

- Ils ont publié un article qui décrit l’indépendance du niveau d’endettement pour
la détermination de la valeur de marché de la firme avec un coût de capital
constant.

- L’approche traditionnelle décrit que le coût des fonds propre est supérieur à celui
des dettes.

- Suite à un exemple de deux entreprises : une totalement autonome « 0 » et l’autre


moitié financé par ses fonds propre et l’autre moitié par endettement « i ». Ils ont
constaté que le CMP de la deuxièmes est inférieure de la première, ainsi le coût
de FP de « i » est supérieur de celui de « 0 ». Donc la rémunération des
actionnaires de « i » est supérieure de la rémunération de « 0 ».

- M&M propose un arbitrage qui donne une rentabilité aux actionnaires plus élevé.
C’est en vendant les participations de « i » ; 60 M, empruntant l’équivalant de 1%
de la dette de « i », ce qui donne un FP=120M, ensuite l’investir dans « 0 ». Il va
nous donner une rentabilité

d’actionnaire de 18% plus élevé de de 14%. (L’emprunt la même proportion de la


dette de « i » est seulement pour que le risque ne sera pas inchangé).

- Dans le cas d’arbitrage les deux entreprises auront la même valeur et le même
coût de capital, certes la valeur boursière d’une va augmenter et l’autre va
diminuer.

- M&M montre que la valeur d’une firme est indépendante de sa structure


financière, par conséquent le CMP reste constant quel que soit son levier
financier.

- M&M ont un célèbre théorème de séparation de l’investissement et son mode de


financement.

L’impact de la dette sur la valeur de la firme soumise à l’impôt des sociétés :

13
Aioui Hasnae

- M&M ont introduit la fiscalité dans leurs raisonnements. Ils ont déduit que la
dette bénéficie à l’entreprise un avantage fiscal, puisque les frais d’endettement
sont déductibles, du coût la valeur d’une firme endetté sera supérieur à la valeur
de la firme autonome.

L’impact de la dette sur la valeur de la firme compte tenu de la fiscalité des


investisseurs :

- Miller fait observer que les taux d’imposition des revenus sur les actions et celui
sur les revenus

des obligations ne sont pas uniformes et dépendent des caractéristiques fiscales


de chaque investisseur.

- Il n’est pas possible de conclure que la valeur de la firme augmente seulement


par le billet de

l’endettement, Miller à reconfirmer qu’il n’existe pas de levier financier optimal


pour chaque firme à cause de la diversité des taux d’imposition des investisseurs.

La politique de dividende

- M&M reconnaissent que la valeur de l’action est égale à la valeur actuelle des
dividendes qu’elle servira.

- C’est la capacité bénéficiaire de l’entreprise qui augmente sa valeur, non plus


les dividendes.

- M&M préconisent que la distribution des dividendes ne peut être financée par
une augmentation de l’endettement, ni par la révision de la politique
d’investissement.

- M&M concluent que la valeur d’entreprise est indépendante de sa politique de


dividende.

14
Aioui Hasnae

- Les conclusions de M&M en matière de dividendes et d’endettement sont donc


fortement semblables : si les politiques de financement et de distribution sont
susceptibles d’affecter la valeur de l’entreprise, ce n’est qu’à cause de l’absence
de neutralité de la fiscalité.

- Selon Miller et Scholes, une variation du montant des dividendes ne devrait pas
affecter la valeur de l’entreprise, mais seulement modifier la composition de son
actionnariat. Et proposèrent une étude empirique qui montre que, malgré la
diversité des situations fiscales des investisseurs, le niveau du dividende n’affecte
pas la rentabilité des actions et, par conséquent, la valeur de l’entreprise.

Eugene F. Fama
l’efficience

informationnelle des

marchés financiers

15
Aioui Hasnae

Eugene Francis Fama. :


Eugene Francis Fama né le 14 février 1939 à Boston, États-Unis, économiste
américain qui, avec Lars P. Hansen et Robert J. Shiller, s'est vu décerner le prix
Nobel d'économie 2013 pour sa contribution au développement de l'hypothèse
d'efficience du marché et à l'analyse empirique des prix des actifs. Fama a montré
qu'il est très difficile de prévoir les fluctuations des prix des actifs à court terme,
car les marchés intègrent très rapidement les nouvelles informations pertinentes
pour les prix. Cette constatation a été connue sous le nom d’hypothèse
d’efficience des marchés et elle est largement utilisée en économie financière pour
décrire le fonctionnement des marchés boursiers et des autres marchés
d’actifs.Fama a obtenu un baccalauréat en langues romanes de l’Université Tufts
en 1960. Il a ensuite obtenu un MBA (1963) et un doctorat. (1964) en finance et
économie de l'Université de Chicago. À partir de 1963, il a enseigné la finance à
l’Université de Chicago, où il a été nommé professeur de finance distingué Robert
R. McCormick en 1993.
Le travail de Fama était en grande partie basé sur les données. Il a analysé les
mouvements historiques des cours des actions et est parvenu à la conclusion que
les cours des actions suivent
une «marche aléatoire», terme statistique utilisé pour décrire une série de données
dont la moyenne et la variance évoluent avec le temps et sont donc essentiellement
imprévisibles. Sa conclusion signifiait qu'il était extrêmement difficile, même
pour un investisseur professionnel, de battre le marché en essayant de prévoir les
mouvements du cours des actions à court terme.
Par conséquent, il est bien préférable d’investir dans un portefeuille composé de
nombreuses actions au lieu de s’engager dans un futile effort de sélection des
actions.
L’efficience informationnelle des marchés financiers
La compréhension de la relation entre l’exigence de rentabilité et le risque a
amené Fama à produire de nombreux travaux sur le modèle d’équilibre des actifs
financiers (MEDAF) puis à proposer, avec French, le modèle à trois facteurs et
certaines extensions récentes.
- Fama fait une démonstration de la relation de linéarité pour n’importe quel
portefeuille dominant entre son risque systématique (β) et la rentabilité espérée (E
(𝑹𝑴)).

16
Aioui Hasnae

- Le fameux apport de Fama est certainement la méthodologie de test du MEDAF


en coupe instantanée, où il examine le cas d’un investisseur dont les choix ne se
limitent pas à une seule période.
- Fama et Schwert exposent un thème modifié du MEDAF pour tenir compte d’un
actif dit non négociable : le « capital humain », et présentent un test sur des
données de l’économie des États-Unis. Le taux de rentabilité sur le « capital
humain » est faiblement corrélé avec la rentabilité des actions, ce qui signifie que
le fait de prendre en compte les salaires par exemple, n’améliore pas la capacité
de l’explication du MEDAF.
- Le modèle Fama-French à trois facteurs est une explication empirique du
rendement attendu d’un actif financier.
- Les appréciations effectuées par Fama et French montrent que le modèle arrive
à expliquer une grande partie (environ 90 %) de la variation du rendement
mensuel des actions des bourses du NYSE, AMEX et NASDAQ.
- Ces deux auteurs ont constaté que les entreprises de croissance sont moins
risquées que les valeurs de substance (ou de rendement) et que celles de petite
taille sont plus risquées que lesentreprises à fort capital.
En effet, les entreprises les plus rentables sont les entreprises les plus risquées.
- N. B : pour Fama, le MEDAF ne permet pas d’expliquer les différences de
rentabilité observées. Le risque ne peut être réduit à un facteur unique et commun
à tous les titres.
- Pour Fama et French, une capitalisation boursière faible signifie le plus souvent
des risques plus élevés pour l'investisseur.
- Plus une entreprise est de petite taille, plus ses chances d’être défaillante, sont
élevées. Encore, plus un titre est risqué, plus la rentabilité exigée par les
actionnaires est élevée. → Effet Taille.
- L'effet Taille est l'anomalie la plus traitée dans le domaine de la finance tout
autant par les praticiens que par les théoriciens.
- Toutefois, Fama et French ont mis en place le ratio Book-To-Market (BE/ME).
Ce ratio permet de rapporter la valeur comptable de l'action d'une société à sa
valeur de marché.
- Il permet en outre d'apprécier le niveau de valorisation élevé, ou non, d'une
action. Le ratio BE/ME est un indicateur de profitabilité plus crédible que la taille.

17
Aioui Hasnae

- Ultérieurement, Fama et French ajoute deux autres facteurs en prenant compte


de l’effet Mémento en raison que le marché englobe plusieurs variables (variables
de pente de la courbe des taux d’intérêt, prime de défaut…).
- Effectivement, l’addition d’un Facteur Investissement qui prend en
considération le taux de croissance des actifs, ainsi qu’un Facteur Profitabilité
pour donner une version à cinq facteurs qui permet certaines améliorations
marginales (Fama et French, 2017).
- Eugene F. Fama est le plus souvent associé à la théorie de l’efficience
informationnelle des marchés financiers. Les travaux de Fama couvrent en fait
toutes les décisions financières et placent le marché au centre de l’analyse.
- En plus de détail, Fama attribue le caractère efficient (informationnelle ment) au
marché, où
une prévision profitable est impossible pour quiconque. Réellement au sens de
Fama, on peut faire des prévisions mais de manière non profitable.
- Par ailleurs, mener un test d’efficience est une action véritablement délicate, vue
la diversité des hypothèses prises en comptes dans l’expérience de ce test.
- Ces points-là sont contenus dans la valeur fondamentale des cours, le caractère
de la prévision (profitable ou non) et la diversité des hypothèses.
La valeur fondamentale et les cours sont déterminés par deux aspects : la
répartition de l’information parmi les investisseurs ; la capacité du marché à
agréger les informations individuelles et à produire des cours les reflétant.
- Fama explique que dans un contexte d’un marché quelconque (exclusion du
monopole), un désaccord sur l’interprétation d’une information ne remet pas en
cause l’efficience, à condition que les investisseurs ne bénéficient pas d’un
avantage informationnel.
- Pour Fama, les anomalies de long terme ne permettent pas de falsifier
l’hypothèse d’efficience, car les surévaluations sont aussi fréquentes que les sous-
évaluations. Le fait de ne pouvoir prévoir de manière profitable les cours futurs
ne pourrait être totalement satisfaisant, puisque des écarts d’évaluation
importants, engendraient une baisse de l’efficience allocation elle et de la
performance du marché. → C’est le contraire pour Fama.
- Un test de l’hypothèse d’efficience doit être mené à l’aide d’une autre hypothèse
jointe qui porte sur le modèle d’équilibre.

18
Aioui Hasnae

- Les recherches sur l’efficience informationnelle et celles sur les déterminants


des taux de rentabilité sont contenues dans le travail scientifique de Fama, intitulé
« Two pillars of asset pricing »
- Le test de volatilité stipule que sur un marché efficient, la variance des prix de
l’actif doit être bornée par une valeur théorique qui ne dépend que de la variabilité
des déterminants fondamentaux du prix.
- Les travaux de Fama concernant cette section traitent des décisions de
distribution, d’investissement et de financement. L’auteur est connu par sa grande
contribution en théorie des organisations.
- La politique de distribution des entreprises est apparemment rigide, ainsi que le
taux de distribution cible est supposé défini par rapport au bénéfice net.
L’ajustement du niveau actuel de distribution au niveau espéré se fait de façon
graduelle.
- L’innovation du modèle de Fama et Babiak est de supposer un ajustement total
du niveau de distribution par rapport à la composante anticipée du bénéfice et
seulement partiel par rapport à la composante non anticipée.
- Fama et Miller précisent que, sous l’hypothèse d’un marché concurrentiel, la
satisfaction des actionnaires exige des décisions d’investissement et de
financement qui maximisent la valeur de marché de l’entreprise.
- Il y a ainsi une hétérogénéité entre les bienveillances des actionnaires et la
décision d’investissement de la firme.

Stephen A. Ross
le principe d’arbitrage
au cœur de l’évaluation
des actifs financiers
19
Aioui Hasnae

Stephen Ross :

Stephen Ross est un américain, professeur d'économie et de finance à la MIT


Sloan School of Management, est décédé subitement le 3 mars 2017.

Ross était auparavant professeur d'économie et de finance à l'université de Yale


et, avant cela, professeur d'économie et de finance à laa Wharton School de
l'université de Pennsylvanie. Ross était cofondateur et directeur de Ross, Jeffrey
& Antle LLC, une société de conseil en placement spécialisée dans l'utilisation
d'options pour améliorer la performance des portefeuilles institutionnels.

le principe d’arbitrage au cœur de l’évaluation des actifs financier

Il est principalement connu pour avoir inventé et développé plusieurs modèles qui
sont maintenant utilisés couramment par les opérateurs sur les marchés financiers.

Il a développé des théories mathématiquement avancées tout en gardant toujours


le souci de leur utilité pratique. Il a décidé de mettre ses idées en pratique de
manière à voir si vraiment elles se transformeraient en or. Ross est surtout connu
pour ses travaux sur les marchés financiers. Pourtant, même si ses travaux en
finance d’entreprise ne sont pas nombreux, il fut l’un des premiers, voire le
premier à utiliser, en finance d’entreprise, la théorie des signaux (Ross, 1977) et
la théorie de l’agence (Ross, 1973).Stephen Ross a créé , le modèle
APT(Arbitrage pricing theory) l'un des plus célèbres modèles d'évaluation d'actifs
financiers. C'est en quelque sorte le principal concurrent du modèle CAPM
(MEDAF).

L'APT est fondé sur l'idée de base qu'il n'existe pas d'opportunités d'arbitrages qui
durent dans le temps. En effet, un actif A aussi risqué qu'un actif B, mais plus
rentable, verrait sa demande augmenter rapidement, jusqu'à ce que sa rentabilité
redevienne égale à celle de l'actif B, annulant ainsi toute opportunité d'arbitrage.

20
Aioui Hasnae

L'autre hypothèse de base de l'APT repose dans le fait que l'on peut modéliser la
rentabilité espérée d'une action par une fonction linéaire de différents facteurs
macro-économiques ou propres au secteur de la valeur, pondérés selon leur impact
sur l'action par un coefficient beta spécifique. Ces facteurs sont divers et variés et
peuvent aller des cours du pétrole au PIB des Etats-Unis en passant par les taux
directeurs européens ou le taux de change d'une paire de devises. Ce sont tous des
facteurs susceptibles d'influer le cours de l'actif étudié.

La rentabilité anticipée d’un actif est égale à la rentabilité de l’actif sans risque
plus une prime de risque fonction des coefficients de sensibilité de l’actif i aux
différents facteurs communs donc nous trouvons une relation proche de celle du
MEDAF, les seules différences sont :

premièrement, dans le MEDAF, il y a une seule prime de risque, car il y a une


unique source de risque, le risque associé au portefeuille de marché, tandis que,
dans le modèle d’arbitrage, il y a plusieurs primes de risque, car il y a plusieurs
sources de risque, les risques associés auxdifférents facteurs communs.
Deuxièmement, dans le modèle d’évaluation par arbitrage, le portefeuille de
marché n’a pas de rôle particulie

Fischer S. Black
l’évaluation des actifs

21
Aioui Hasnae

conditionnels

Fischer Sheffey Black :


Né en (1938-1995), Black, reçoit une formation en mathématiques à l’Université de Harvard,
d’abord en vue d’un diplôme de Bachelor (licence) en 1959 puis d’un doctorat (Ph.D) en1964.

Bien que mentionné en physique son Bachelor est tourné vers la mathématique et la
psychologie. Ces prémisses l’orientent vers l’étude du raisonnement humain et de la décision
et, tout naturellement, il suit des cours et des séminaires doctoraux en recherche opérationnelle,
la discipline reine de l’époque par laquelle sont passés nombre de grands économistes et la
plupart des prix Nobel d’économie. L’arrivée des ordinateurs vers 1960 suscite l’apparition
d’une nouvelle discipline, l’intelligence artificielle, et Black présente sa thèse en 1964 sous le
titre « Un système déductif de réponses à des questions ». Il s’intéresse fortement en particulier
aux modèles d’équilibre des économistes et cherche à en voir la traduction sur les marchés
financiers. Vers 1968, il commence à réfléchir au problème de l’évaluation des warrants à partir
de développements effectués par Jack Treynor sur l’évaluation d’un flux de cash-flows en
temps continu. La contribution principale de Fischer Black qui demeure dans l’histoire de la
finance et qui lui a valu citation lors de l’attribution du Nobel 1997, est constituée par la formule
qu’il a établie en association avec Myron Scholes. Mais outre cette contribution, Black a laissé
à la communauté financière quelques autres textes importants qui révèlent un esprit original,
éclectique, capable de poser et de discuter à la fois des questions de pure théorie et des
problèmes d’applications. Myron Scholes, de nationalité américaine, est né au Canada à
Timmins dans l’État de l’Ontario, le 1er juillet 1941. Pendant la crise de 1929, son père avait
ouvert un cabinet dentaire dans cette région riche en mines d’or. Ce sont ses parents qui, très
tôt, lui donnent le goût pour l’économiefinancière. Sa mère qui adorait les affaires, ne cesse de
lui répéter que son avenir est tout tracé, dans l’entreprise d’édition d’un de ses oncles. Dès la
fin de ses études secondaires, il boursicote et devient obnubilé par les causes des fluctuations
des prix des actions, mais ses recherches sont vaines malgré la lecture qu’il entreprend de
nombreux ouvrages consacrés aux secrets des placements rentables, comme il en existait déjà
beaucoup à cette époque en Amérique du Nord.

L'Évaluation des actifs conditionnels

22
Aioui Hasnae

Le résultat le plus important et le plus connu des travaux de Black est l’établissement d’une

formule d’évaluation d’une option d’achat (européenne, c’est-à-dire ne donnant lieu à exercice
qu’à l’échéance). Elle est présentée dans un article écrit avec Myron Scholes (Black et Scholes,
1973) dans le Journal of Political Economy. Cette revue n’était pas tournée vers la formalisation
mathématique rigoureuse des modèles économiques. Il faut cependant mentionner que les
auteurs ne partaient pas de rien. Un travail préparatoire avait été accompli par Black lui-même,
qui s’était plongé dans la littérature des options (ou plutôt des warrants) dès 1965. En effet, la
recherche d’une évaluation des warrants avait été très active dans les années soixante et
plusieurs auteurs avaient abouti à des formules. Celle que Sprenkle (1961) avait établie dans sa
dissertation doctorale à Yale était presque identique à celle de Black et Scholes, mais elle
comportait un paramètre inconnu difficile à évaluer et qui la rendait pratiquement inutilisable.
L’incontournable Samuelson (prix Nobel d’économie en 1970) avait lui-même produit une
théorie des warrants aboutissant à une formule semblable et, déjà, il s’appuyait pour cela sur
une annexe mathématique écrite par Henry McKean, alors professeur au MIT puis professeur à
l’Institut Courant de l’Université de New York ; cette annexe s’intitulait A Free Boundary
Problem for the Heat Equation… La limite de ces approches lui semblait tenir à la recherche
d’une formule par application d’une technique basée sur l’actualisation (la valeur actuelle nette)
qui demandait l’estimation d’un taux d’actualisationinconnu et qui supposait la connaissance
de l’espérance de rentabilité du titre sous-jacent. L’idée-clé pour Black (il la tenait de Jack
Treynor) fut de décider que la formule du prix d’un warrant ne devait dépendre que du prix du
sous-jacent observé à l’instant de l’évaluation, du délai d’éloignement de la maturité, et d’autres
facteurs observables à ceti nstant. Un warrant est un produit dérivé, généralement émis par les
banques. Ce produit possède un effet de levier qui donne à l'investisseur la possibilité d'avoir
des gains élevés mais en augmentant fortement le risque. En effet, l'effet de levier augmente la
sensibilité aux variations du sous-jacent (du cours d'un actif). L'investisseur achetant un
warrant, possède le droit, sans obligation d'acheter ou de vendre une quantité prédéfinie
d'unactif à un prix fixé à l'avance (Prix d'exercice ou "strike"), à tout moment ou à une date
d'échéance (prédéfinie). En effet alors qu'on peut se séparer d'un warrant américain à tout
moment, on ne se sépare du warrant européen qu'à l'échéance du contrat. Le fonctionnement du

warrant est presque similaire à celui des options. Mais dans ces travaux préparatoires, Black ne

mettait pas en avant directement la notion d’arbitrage. Il postulait une volatilité constante de la

23
Aioui Hasnae

rentabilité du sous-jacent (distribution lognormale sur le prix). Son raisonnement consistait à


appliquer à chaque instant le CAPM (Capital Asset Pricing Model) pour établir une liaison (une
équation différentielle) entre le taux de rentabilité du warrant, le temps et le prix du sous-jacent.
Le taux sans risque apparaissait ainsi au travers du CAPM. Mais Black ne sut pas résoudre
l’équation. Cette équation a fait disparaitre la distinction classique entre risque systématique
(rentabilité) et risque spécifique (propre au titre). Le prix du warrant ne dépendait que du risque
total (volatilité) et pas de l’espérance de rentabilité du sous-jacent, le risque spécifique ne
pouvait donc pas entrer en jeu dans la définition de la prime de risque des actions car il était
diversifiable. Ceci pouvait aussi paraître très surprenant à cette époque : cela signifiait qu’il ne
fait aucune différence d’avoir en main un warrant sur une action à haute rentabilité (donc à fort
risque systématique) ou sur une action à faible rentabilité (donc à faible risque systématique).
La rencontre entre Fischer Black et Myron Scholes intervint en 1969. Scholes était professeur
au MIT et Black opérait près de Boston dans son cabinet de consultants. Ayant tous deux
travaillé auparavant sur les warrants, ils décidèrent de partager leurs réflexions. L’équation
différentielle était donc connue des auteurs comme on l’a mentionné, mais Black et Scholes ne
partirent pas de cette équation pour établir la formule. Puisque le prix de l’option semblait
indépendant du risque systématique, ils se demandèrent ce qui se passait avec un sousjacent,
certes volatil, mais sans risque systématique (son bêta est donc nul et sa rentabilité égale au
taux sans risque). L’option étant (localement) quasi parfaitement corrélée avec le sousjacent, le
taux de rentabilité de l’option devait être le taux sans risque et c’est celui-ci qu’il fallait injecter
dans la formule de Sprenkle comme taux d’actualisation des deux actifs. Cette idée fut leur
eurêka. Celui-ci vint sur le devant de la scène après que Black et Scholes eurent longuement
discuté avec Robert Merton qui recherchait aussi une formule d’évaluation des options. Ce fut
lui qui suggéra que l’on pouvait établir un portefeuille d’arbitrage (quasiment sans risque et
sans mise de fonds) à condition de le réajuster de façon continuelle .

Myron S. Scholes
24
Aioui Hasnae

L’évaluation des actifs


conditionnels

Biographie :

Myron Scholes, de nationalité américaine, est né au Canada à Timmins dans l’État de l’Ontario, le 1er
juillet 1941. Pendant la crise de 1929, son père avait ouvert un cabinet dentaire dans cette région riche
en mines d’or.

Dès le début de sa scolarisation, le jeune Scholes, très encadré par sa mère, est un excellent élève, dans
les tout premiers de sa classe. Mais deux drames successifs vont profondément l’affecter. D’abord la
mort de sa mère alors qu’il avait à peine seize ans, puis quelque temps plus tard, des ulcères se
développent sur la cornée de ses deux yeux, ce qui lui rend la lecture très difficile pendant de nombreuses
années. Il apprend alors selon ses propres dires « à penser abstraitement et à conceptualiser les solutions
qui se posent à lui ». Il devient ainsi, par nécessité, très attentif aux propos des autres. Les deux
caractéristiques, l’écoute et la réflexion conceptuelle, feront de lui plus tard un remarquable bretteur qui,
comme son futur collègue Milton Friedman, admet difficilement de perdre un argument dans une
discussion académique. Heureusement, à l’âge de 26 ans, une greffe de la cornée réussie améliore très
sensiblement sa vue, à condition qu’elle s’effectue au prisme de verres de lunette d’une épaisseur tout à
fait inhabituelle.

Docteur honoris causa de l’Université Paris-Dauphine en 1989, il obtient, en 1997, le prix Nobel
d’économie avec Robert Merton pour leur modèle de valorisation des options, familièrement appelé
dans les salles de marché du monde entier le Black (décédé en 1995) et Scholes.

25
Aioui Hasnae

Les contributions de Myron dans le domaine des travaux empiriques sont aussi de première qualité.
C’est d’ailleurs par là que le travail scientifique de Myron Scholes avait commencé. Étudiant en doctorat
à l’Université de Chicago, dans les années 1960, il était l’assistant de recherche de Merton Miller lorsque
ce dernier, en collaboration avec Franco Modigliani, cherchait à montrer, sur la base d’un échantillon
de sociétés de distribution d’électricité, que le coût du capital des entreprises était indépendant de leur
structure financière. Au dire de Merton Miller, il n’était pas un simple assistant de recherche, se
contentant de bien faire le travail de collecte de données et de programmation qu’on lui confiait, mais il
anticipait et suggérait même dans quelle direction orienter les investigations empiriques, au fur et à
mesure que s’accumulaient les premiers résultats.

Dans tous les travaux empiriques personnels qu’il a effectués, Myron Scholes a été un innovateur :

• avec la vérification empirique d’un certain nombre de modèles théoriques, son modèle d’options qu’il
a été le premier à tester avec Fischer Black sur les marchés d’options du hors-cote américain avant que
ne se créent en 1973 les marchés d’options négociables, ainsi que le modèle d’équilibre des actifs
financiers qu’il a testé avec Black et Jensen (Black et al., 1972), d’une part et Miller, d’autre part (Miller
et Scholes, 1972).

• en mettant au point avec Jo Williams (Scholes et Williams, 1977) une méthode pionnière de mesure
des coefficients bêta lorsque les données d’indice général de marché et de cours des valeurs ne sont
pas synchrones dans le temps.

Conclusion
La construction de la formule de Black et Scholes repose sur l’argument d’arbitrage initialement suggéré
par Merton. C’est dans cet argument que réside l’originalité de la construction, car tous les
développements subséquents de la théorie des options se sont construits sur la méthode de l’arbitrage.
Un arbitrage est une opération qui permet de générer un revenu sans mise de fonds et sans risque. Si une
telle opération est possible, l’exploitation que vont en faire des investisseurs rationnels va modifier les
valeurs de marché (par modification des offres ou des demandes) jusqu’à ce que cette opportunité
d’arbitrage disparaisse. La formule de Black et Scholes est une formule d’équilibre qui est obtenue
lorsque disparaissent les opportunités d’arbitrage.

26
Aioui Hasnae

Robert C. Merton
L’introduction du temps
continu dans la théorie
financière moderne

Biographie
Merton1, de nationalité américaine, est né le 31 juillet 1944 à New York. Après avoir obtenu un Bachelor
of science (en mathématiques pour l’ingénieur) à Columbia University, en 1966 et un Master of science
(en mathématiques appliquées) à California Institute of Technology, en 1967, il obtient un Ph.D en
économie au Massachusetts Institute of Technology, en 1970, sous la direction de Paul Samuelson. Il
commence sa carrière universitaire à la MIT Sloan School of Management, où il est successivement
Assistant Professor (1970-1973), Associate Professor (1973-1974), puis Professor jusqu’en 1988. Il est
alors recruté par la Graduate School of Business Administration de l’Université de Harvard où il occupe
successivement la chaire de George Fisher Baker Professor of Business Administration de 1988 à 1998,
puis celle de John and Natty McArthur University Professor, de 1998 à 2010. Depuis 2010, il est
professeur émérite dans cette même université tout en étant, par ailleurs, School of Management
Distinguished Professor of Finance à la Sloan School of Management du MIT.

Au-delà du prix Nobel d’économie qui lui a été décerné en 1997, Merton a reçu de nombreuses
distinctions au cours de sa carrière, en particulier six doctorats honoris causa et il a été président de
l’Association américaine de finance en 1986. Il a également assuré de nombreuses fonctions éditoriales

27
Aioui Hasnae

dans les revues de finance les plus prestigieuses notamment le Journal of Finance, le Journal of
Financial Economics et la Review of Financial Studies.

• LA VALORISATION DES OPTIONS


L’évaluation de l’option est établie en fonction du prix de son actif sous-jacent. Il s’agit donc d’un
modèle d’équilibre partiel qui suppose que l’action sous-jacente est correctement évaluée. Des
conditions idéales de fonctionnement des marchés financiers sont de plus supposées vérifiées (marché
parfait). Ainsi, on fait les hypothèses suivantes :

• Le processus d’évolution du prix de l’action sous-jacente S est supposé être gouverné par une «
marche aléatoire » en temps continu avec une variance proportionnelle au carré du prix de
l’action. De ce fait, la distribution des prix possibles de l’action à la fin de tout intervalle de
temps fini est lognormale.
• l’option est de nature européenne, elle ne peut être exercée avant l’échéance. Par ailleurs :
➢ il n’existe aucun coût de transaction à l’achat ou à la vente d’option ou d’action,
➢ il est possible d’emprunter tout ou partie du prix d’un titre au taux sans risque,
➢ la vente à découvert est autorisée sans aucune restriction ni contrainte particulière.

L’option de vente américaine :

Merton (1973a) a montré que la valeur d’une option de vente américaine (exerçable à n’importe quel
moment durant sa période de vie) est plus élevée que celle d’une option de vente européenne. Cette
proposition tient, car il est parfois avantageux d’exercer une option de vente avant l’échéance.
Supposons que le prix de l’action sous-jacente diminue pour devenir presque égal à zéro. La probabilité
que le prix de l’action dépasse le prix d’exercice avant l’échéance de l’option devient alors très faible :
il est donc efficace d’exercer l’option immédiatement de telle sorte que l’on puisse recevoir le prix
d’exercice plus tôt. L’opérateur gagne l’intérêt sur le prix d’exercice pour la période restante à courir
jusqu’à l’échéance de l’option. Pour l’instant, il n’existe pas de solution analytique permettant d’évaluer
une option américaine de vente de durée de vie finie. En fait, si on abandonne les traditionnelles
hypothèses simplificatrices (comme l’absence de dividende), l’évaluation de tels contrats devient même
numériquement délicate. Dans un cadre restreint (absence de dividende, taux d’intérêt constant, maturité
infinie), Merton a calculé le prix d’une option de vente américaine.

28
Aioui Hasnae

Joseph E. Stiglitz
L’introduction du
paradigme informationnel
en finance

Biographie
Joseph Stiglitz, né le 9 février 1943 à Gary, est un économiste américain. Il reçoit
en 2001 le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel,
pour un travail commun avec George Akerlof et Michael Spence. Il est l’un des fondateurs et
des représentants les plus connus du « nouveau keynésianisme ». Il acquiert sa notoriété
populaire à la suite de ses violentes critiques envers le FMI et la Banque mondiale, émises peu
après son départ de la Banque mondiale en 2000, alors qu’il y est économiste en chef.

Après sa licence au Amherst College, il obtient une bourse pour préparer son doctorat (1967)
au Massachusetts Institute of Technology (M.I.T.). Ses projets de recherche intéressent
plusieurs fondations qui financent ses travaux en même temps qu'il enseigne la politique
économique au All Souls College d'Oxford. Il obtient un poste de professeur-assistant (1966-
1967) à l’université de Yale.

29
Aioui Hasnae

D’abord professeur associé, c’est à l’âge inhabituel de 27 ans qu’il devient titulaire de son poste
(1970-1974). Il va continuer sa carrière en étant successivement professeur à Stanford (1974-
1976), Oxford ((1976-1979) et Princeton (1979-1988). Il reçoit, en 1979, la médaille John
Bates CLARK (délivrée par l’American Economic Association pour récompenser le meilleur
économiste américain de moins de 60 ans).

En 1988, il revient à Stanford. En 1993, il devient le président du Conseil des consultants


économiques du président Bill CLINTON. De 1997 à 1999, il est économiste en chef de la
Banque mondiale.

La genèse d’une pensée


La genèse de la pensée de Stiglitz s’enracine dans une analyse fine de questions économiques
étudiées lors d’un séjour au Kenya, de 1969 à1971, alors qu’il était tout jeune professeur visitant
à l’Université de Nairobi, et auxquelles le modèle néoclassique ne lui semblait pas apporter de
réponse satisfaisante. Accueilli par l’Institute for Development Studies, Stiglitz démarre un
projet de recherche sur l’analyse du métayage. Remarquant que, dans la relation entre le
propriétaire du champ et le métayer, il existe une asymétrie d’information portant sur le niveau
d’effort déployé par le métayer génératrice d’un aléa moral, il développe un modèle principal-
agent qui conclut que le contrat de métayage est la combinaison d’un contrat de location et d’un
contrat d’assurance par lequel le propriétaire accorde un rabais au métayer en cas de récolte
faible. La part de contrat d’assurance intégrée au contrat de métayage vient suppléer dans le
contexte d’un pays en développement l’impossibilité d’assurer le risque de fluctuation des
récoltes, ce qui l’amène alors à s’interroger sur les raisons fondant l’absence ou les échecs de
marchés.

Asymétrie d’information, antisélection, aléa moral, incitations, échecs ou dysfonctionnements


de marchés, tels sont les concepts qui seront au cœur des recherches de Stiglitz, qui le
conduiront à développer un paradigme alternatif au modèle néoclassique1 et qui aboutiront à ce
qu’il soit distingué en 2001, en même temps que George Akerlof et Michaël Spence, par le jury
du Prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel.

1Les néoclassiques traditionnels prétendaient que les marchés sont efficaces, mais cette efficacité était limitée
par certaines défaillances du marché connues et étudiées

30
Aioui Hasnae

Le paradigme informationnel

Le paradigme informationnel a modifié en profondeur les résultats acquis de la finance


moderne. Alors que la structure financière était supposée ne pas avoir d’impact sur la valeur de
la firme, les décisions financières (dividendes, choix de structure financière, choix de modalités
contractuelles) sont prises par des agents économiques informés, conscients qu’elles seront
aussi interprétées par d’autres acteurs du marché, moins informés, et ont une incidence, dès
lors, sur la valeur de la firme. Alors que l’hypothèse d’information parfaite aboutit à ce que la
frontière des portefeuilles efficients soit la même pour tous les acteurs du marché financier,
l’invalidation de cette hypothèse détruit le modèle d’évaluation des actifs financiers.

La richesse du paradigme informationnel construit par Stiglitz se mesure à l’aune de


l’importance de ces remises en cause et de ces questionnements. Avec Stiglitz et ses coauteurs
émergent les concepts (anti-sélection, aléa moral, échecs de marché, rationnement) qui
participeront à la construction d’un paradigme nouveau.

Par l’analyse qu’il développe du marché de l’assurance et celui du crédit, Stiglitz apporte des
contributions majeures à la finance. Il démontrera, dans la lignée des travaux d’Akerlof, que
des marchés à forte asymétrie d’information fonctionnent mal, voire ne fonctionnent pas. Il sera
à l’origine de la compréhension des déséquilibres sur un marché du crédit caractérisé par une
trop forte asymétrie d’information. Ces déséquilibres ne sont pas temporaires, fruits de chocs
externes qui, en se résorbant, s’accompagneraient d’un rééquilibrage validant la loi de l’offre
et de la demande. Stiglitz montre ainsi que la loi de l’offre et de la demande peut être
durablement invalidée et que l’équilibre qui en résulte est paradoxalement un déséquilibre
persistant. Sur le marché de l’assurance, Stiglitz montrera que les assureurs peuvent extraire de
l’information en offrant des contrats séparant, associant par exemple un certain niveau de
franchise à la prime d’assurance, et structurés de telle manière que le choix d’un contrat donné
dans un menu révèle à l’assureur l’information utile pour une tarification actuariellement
équitable du contrat.

Les piliers du paradigme informationnel

1. Une invalidation du caractère général de la loi de l’offre et de la demande, notamment quand


les prix affectent la qualité des biens échangés, soit en raison d’incitations, soit du fait d’effets

31
Aioui Hasnae

d’anti-sélection. Ainsi, sur le marché du crédit, quand la demande est supérieure à l’offre de
crédit, les banques peuvent être réticentes à augmenter les taux d’intérêt, car procéder ainsi que
la loi de l’offre et de la demande le suggère provoquerait la fuite des meilleurs clients, une
baisse de la qualité moyenne des emprunteurs potentiels et une hausse des défauts de paiement
et des coûts de faillite pouvant plus que compenser la hausse des produits financiers obtenus
des emprunteurs sains. Les marchés peuvent donc être caractérisés par des déséquilibres
persistants.

2. Une invalidation du caractère général de la loi du prix unique qui voudrait que le même bien
soit vendu au même prix sur différents marchés. Si l’information est coûteuse et qu’il y a des
chocs dans l’économie, la demande pour un bien peut localement croître, et les prix également,
sans qu’il y ait d’arbitrage instantané, générant une distribution des prix au lieu d’un prix
unique. Au-delà de cette explication renvoyant à des chocs exogènes, Stiglitz montre dans une
série d’articles 2 que de faibles coûts de recherche d’information peuvent détruire l’équilibre
concurrentiel.

3. Une invalidation de la loi de tarification au coût marginal. Les imperfections d’information


génèrent un pouvoir de marché qui aboutit à ce que les firmes facturent des prix en excès de
leur coût marginal. Pour nous en persuader, il suffit de se rappeler que, dans nos économies, la
punition la plus lourde qu’on puisse imposer à un individu est le licenciement. Mais si l’individu
licencié pouvait immédiatement retrouver un emploi similaire, il n’y aurait aucun coût. Le bon
contrat de travail consiste donc à offrir au salarié un salaire supérieur à ce qu’il pourrait trouver
ailleurs (le salaire d’efficience), ce qui garantit à l’employeur que la menace de licenciement
est crédible et incite le salarié à travailler au niveau de productivité pour lequel il a été embauché
(Shapiro et Stiglitz, 1984).

4. Une critique sévère de l’hypothèse d’efficience des marchés 3 qui soutient que les prix sur
les marchés financiers agrègent toute l’information disponible. Si tel était le cas, Grossman et
Stiglitz (1976, 1980) montrent qu’il n’y aurait aucune incitation pour que quiconque supporte
les coûts de recherche d’information, ce qui de façon ultime aboutirait à des marchés sans
échanges. Les deux auteurs concluent alors que les prix ne peuvent agréger qu’imparfaitement
l’information et qu’alternativement le degré d’inefficience des marchés conditionne le niveau
d’effort des participants pour collecter de l’information.

2 Stiglitz, 1979, 1989 ; Salop et Stiglitz, 1977, 1982 et 1987


3 (Fama, 1970, 1991)

32
Aioui Hasnae

Conclusion

Si nous avons choisi de développer davantage les contributions déterminantes de Stiglitz à la


compréhension du fonctionnement du marché du crédit, après avoir souligné la rupture
profonde qu’il apporte à l’analyse microéconomique en structurant un paradigme
informationnel qui se substituera au paradigme de l’équilibre concurrentiel, il faut encore
ajouter que le spectre des contributions de ce chercheur fécond dépasse largement ce seul
marché. Au cours de sa toujours et encore très féconde carrière, il aura traité de sujets de finance
aussi variés que les crises financières et la régulation, la théorie du portefeuille, le microcrédit,
le coût du capital et les choix de structure financière, les marchés à terme de matières premières,
le risque pays, les bulles spéculatives, la structure optimale des systèmes financiers et la
désintermédiation, le droit et les faillites d’entreprises, la finance internationale, l’éthique de la
finance, etc., tous sujets qui font de Stiglitz un auteur majeur en finance.

33
Aioui Hasnae

Richard Roll

La critique du modèle

d’équilibre des actifs

financiers
Biographie

Richard Roll ,né le 31 octobre 1939, est un économiste américain, principalement connu pour
ses travaux sur la théorie des portefeuilles et la tarification des actifs, à la fois théoriques et
empiriques. Il a obtenu son baccalauréat en génie aéronautique de l'Université Auburn en 1961
et son M.B.A en 1963 à l'Université de Washington alors qu'il travaillait pour Boeing à Seattle
(Washington). En 1968, il a obtenu son doctorat. de la Graduate School of Business de
l’Université de Chicago en économie, finance et statistiques. Son doctorat «Le comportement
des taux d’intérêt: application du modèle de marché efficace aux bons du Trésor américains»,
a remporté le prix Irving Fisher du meilleur mémoire américain en économie en 1968.

L’un des fondateurs des études d’événements (Fama et al., 1969), Roll a co-écrit la première
étude sur les événements qui visait à analyser la manière dont les cours des actions réagissaient
à un événement en 1969 en utilisant les données de prix de la nouvelle base de données CRSP
disponible. Roll a co-écrit des articles importants avec Stephen Ross, Eugene Fama, Michael
Jensen et Kenneth French. Roll a occupé le poste de professeur adjoint à l'Université Carnegie-
Mellon en 1968, a été professeur à l'Institut européen des hautes études en gestion en 1973 et
au Centre d'enseignement supérieur des affaires en 1975.

En 1976, Roll a rejoint la faculté d'UCLA où il reste titulaire de la chaire Alumni du Japon,
professeur de finance. En 1987, Roll a été élu président de l’American Finance Association. Il
a publié plus de 80 articles professionnels. Parmi ses meilleurs articles, on trouve: - “A Critique
of the Asset Pricing Theory’s Tests”, (Roll, 1977), - “Orange Juice and Weather” (Roll, 1984).
- “The Hubris Hypothesis of Corporate Takeovers” (Roll, 1986)

34
Aioui Hasnae

Roll a prouvé le caractère non testable des implications théoriques du MÉDAF. On s’appuyant

sur deux axes :

Axe 1 : Difficulté d’observabilité du portefeuille du marché

ROLL a remarqué que Le portefeuille Du marché n'est ni observable, ni approximable:

• Le vrai portefeuille de marché n'est pas observable.

• Il est d'ailleurs presqu'impossible de trouver un portefeuille qui soit une bonne

approximation au portefeuille de marché.

Axe 2 : Tautologie du model du MEDAF

la validation apparente de l'hypothèse de linéarité par les tests des années 70, n' est qu' une

conséquence mathématique plus que toute autre chose. En effet, si le po1tefeuille figurant dans

la spécification du MÉDAF, est choisi sur la vraie frontière moyenne-variance efficiente (qui

peut être estimée), alors il existe déjà par construction, nonobstant toute considération d'ordre

statistique, une relation linéaire entre le rendement espéré des titres et leur béta estimé.

La critique du modèle d’équilibre des actifs financiers

- C'est ce qu'ont fait de nombreux chercheurs comme Fama et Macbeth (1973), Black, Jensen
et Scholes (1972), Miller et Scholes (1972). Ils ont fait ressortir certaines implications qui
devraient tenir si le MEDAF est bien le modèle approprié pour expliquer le rapport d'équilibre
entre le taux de rendement espéré d'un actif et le taux de rendement espéré du marché. Au
nombre de ces implications, notons par exemple la relation linéaire entre le taux de rendement
espéré d'un actif et son coefficient bêta, où ce dernier est calculé sur la base d'un portefeuille de
marché approximatif. Cependant, comme le fait remarquer RoIl.

- Roll y étudie le temps que met le marché pour intégrer les nouvelles informations.

35
Aioui Hasnae

Campbell R. Harvey

Les problèmes

empiriques rencontrés

par les modèles

d’évaluation des actifs

financiers dans un cadre

national et

international
Biographie

Campbell Russell " Cam " Harvey (né le 23 juin 1958) est un économiste canadien, connu pour
ses travaux sur la répartition de l'actif avec l'évolution du risque et des primes de risque et sur

36
Aioui Hasnae

le problème de la distinction entre chance et compétences en gestion de placements. Il est


actuellement professeur de commerce international J. Paul Sticht à la Fuqua School of Business
de la Duke University, à Durham, en Caroline du Nord, ainsi que chercheur associé au National
Bureau of Economic Research de Cambridge, MA. Il est également chercheur Associé à
l'Institut d'études sur l'intégration internationale du Trinity College à Dublin et chercheur invité
à L’Université d'Oxford. Il a été président de 2016 de l'American Finance Association. Il a
obtenu son diplôme de premier cycle en économie et en sciences politiques du Trinity College
de l' Université de Toronto en 1981 et son MBA de l'Université York de Toronto en 1983. Ses
travaux de doctorat ont été réalisés à la Booth School of Business de l' Université de Chicago
Ses directeurs de doctorat étaient Eugene Fama , Merton Miller , Robert Stambaugh, Wayne
Ferson, Shmuel Kandel et Lars Hansen.

Son doctorat de 1986 Cette thèse explore le concept selon lequel la structure par terme des taux
d’intérêt (différence entre les taux d’intérêt à long terme et les taux à court terme) pourrait
prédire le cycle économique américain. Sa thèse a été publiée dans le Journal of Financial
Economics en 1988. Ce travail a ensuite été développé et publié dans le Financial Analysts
Journal en 1989.

les tests du CAPM revisités

Au tournant des années quatre-vingt, il est apparu que les rentabilités des actions et leurs
covariances changeaient au cours du temps. La question était de savoir si ces variations
provenaient d’inefficiences ou si, au contraire, elles résultaient d’un changement du risque ou
du prix de ce dernier. De nombreux chercheurs ont alors testé le CAPM dans un cadre
conditionnel en modélisant, soit les rentabilités, soit les covariances.

Dans ce contexte, Ferson et Harvey cherchent à déterminer si ce sont les expositions au risque
ou bien les primes de risque qui changent au cours du temps. Ils estiment un modèle
d’évaluation multifactoriel similaire à celui de Chen et al. Les coefficients bêtas, estimés en pas
glissant, mesurent l’exposition au marché des actions, à l’inflation non anticipée, aux dépenses
de consommation et au taux d’intérêt. Ces bêtas sont régressés en coupe instantanée afin de
déterminer la prime de risque associée à chaque source de risque. Ces primes de risque sont
expliquées par les instruments décrits dans le paragraphe précédent. Au niveau d’un
portefeuille, les primes de risque changent beaucoup plus que les bêtas. Ces résultats sont
ensuite étendus aux marchés étrangers par Ferson et Harvey (1993). Ils montrent que les bêtas

37
Aioui Hasnae

conditionnels des marchés nationaux dépendent de variables locales alors que le risque global
dépend de variables globales. Ce modèle explique l’essentiel de la prévisibilité pour plusieurs
pays, principalement en raison de la variation temporelle de la prime de risque global. En
proposant leur modèle empirique d’évaluation d’actions, Fama et French, ouvrent la boîte de
Pandore. Ce modèle pose trois problèmes essentiels : 1) que représentent les facteurs ? ; 2)
combien de facteurs sont pertinents ? ; 3) explique-t-il la dispersion des rentabilités ? Ferson et
Harvey (1999) régressent la rentabilité de vingt-cinq portefeuilles en coupe instantanée sur les

bêtas du modèle FF. Ils estiment également la rentabilité du portefeuille à l’aide des instruments

déjà utilisés et prévoient la rentabilité pour la période suivante. Lorsque les bêtas et la rentabilité
prévue sont introduits comme variables explicatives de la rentabilité des vingt-cinq
portefeuilles, la rentabilité prévue explique la dispersion des rentabilités réalisées alors que les
bêtas de FF n’expliquent rien. Ces résultats s’appliquent aussi au modèle à quatre facteurs
d’Elton et al. (1995). Notons cependant que la prévisibilité des primes de risque, et de la prime
de marché en particulier, n’est pas très bonne lorsqu’on utilise un modèle linéaire (Goyal et
Welch, 2008). Elle est significativement améliorée avec une combinaison de modèles (Rapach
et al., 2010). Combinée à une méthode assurant une meilleure prévision des primes de risque,
l’approche de Ferson et Harvey (1999) pourrait être utilisée pour falsifier les nouveaux facteurs
qui sont apparus depuis 1992. Notons, malgré tout, que le modèle de FF n’a rien perdu de sa
popularité. Les actifs financiers et la consommation.

L’information financière

Au quotidien, les analystes financiers et les gestionnaires de portefeuille se réfèrent à


l’information financière afin de prévoir les bénéfices futurs. Il est donc important de
comprendre comment les dirigeants conçoivent les bénéfices. À cet effet, Graham et al. (2005,
2006) administrent un questionnaire à 400 dirigeants. À une très large majorité, 78 % d’entre
eux disent préférer gérer les bénéfices (lissage) en prenant des décisions économiques négatives
sur le long terme plutôt qu’en « jouant » avec les règles comptables. Ils œuvrent également au
maintien du caractère prévisible des bénéfices et des informations financières. L’information
volontaire vise à réduire le risque d’information et à soutenir le cours de l’action tout en évitant
de créer des précédents. Dichev et al. (2013, 2016) étudient la capacité du résultat comptable à
mesurer la performance de l’entreprise. L’enquête par questionnaires porte sur 169 directeurs
financiers de firmes cotées et les interviews en profondeur sur douze directeurs financiers et
deux personnes définissant les normes comptables. Pour les directeurs financiers, le caractère

38
Aioui Hasnae

permanentu résultat est une composante essentielle de la qualité. Ainsi, les caractéristiques
spécifiques incluent des choix de reporting cohérents reposant sur les cashflows actuels, et
l’absence d’items apparaissant de manière ponctuelle ou d’estimation de long terme. Ils pensent
que 50 % de la qualité du résultat provient de facteurs non discrétionnaires tels que le
secteurd’activité de l’entreprise ou les conditions macroéconomiques. Ils estiment que 20 %
des entreprises gèrent le résultat afin d’avoir une représentation erronée de la performance
économique. En moyenne, l’ampleur de la « manipulation » s’élève à 10 % du bénéfice par
action et elle est difficile à détecter pour un observateur externe. Cependant, la comparaison
avec des entreprises comparables et le manque de correspondance entre le résultat et le cashflow
fournissent des signaux d’alerte. Par ailleurs, les auteurs constatent que l’attention des médias
se porte sur un petit nombre de fraudes alors que la destruction de valeur par des moyens légaux
est endémique. Les montants mis en jeu par ces manipulations chroniques dépassent, à les en
croire, le montant cumulé des fraudes avérées. De plus, les directeurs financiers croient
fermement au principe du rapprochement des produits et des charges et sont peu favorables à
l’accent mis sur la « juste valeur ». Les auteurs indiquent que les choix discrétionnaires ont
diminué au cours du temps, ce qui peut affecter la qualité de l’information et conduire les
professionnels de l’audit à une application mécanique des règles. En bref, pour les directeurs
financiers, la qualité du résultat est une caractéristique unique et inconditionnelle alors que,
pour la recherche contemporaine, la mesure de la qualité du résultat dépend fortement du cadre
décisionnel.

39
Aioui Hasnae

Sheridan TBiographieitman

l’identification de

l’effet momentum, un pas

important vers la

finance

comportemenitale
Biographie

Né en 1954 à Denver au Colorado aux États-Unis, Sheridan Titman est professeur


de finance à l’Université du Texas à Austin où il est titulaire de la chaire
McAllister Centennial en services financiers de la McCombs Business School. Il
est chercheur associé au National Bureau of Economic Research.Il a soutenu sa

40
Aioui Hasnae

thèse The Effect of Capital Structure on a Firffqm’s Liquidation Décision à


l’Université Carnegie Mellon en 1981, sous la direction des professeurs Scott F.
Richard et Dennis Epple. Il a enseigné pendant dix ans à l’UCLA où il a dirigé le

département finance et a officié en qualité de directeur adjoint de l’École de


management. Entre 1992 et 1994, il a participé à la création de la School of
Business and Management de l’Université de Hong Kong dans laquelle il a été
directeur adjoint et directeur du comité de recrutement. De 1994 à 1997, il a dirigé
la chaire en finance John J.Collins au Boston College.En 1988 et 1989, Titman a
travaillé à Washington D.C. en qualité d’expert auprès du conseiller à la politique
économique. Titman a remporté le prix Smith-Breeden du meilleur article dans le
Journal of Finance en 1997 ainsi que le prix Goldman Sachs Asset Management
du meilleur article dans la Review of Finance en 2007. Il a été éditeur associé de
plusieurs revues scientifiques renommées dont le Journal of Finance et la Review
of Financial Studies.Il fut président de l’Association américaine de finance en
2012 et de la Western Finance Association, en 2006.Il a également reçu le titre de
docteur honoris causa de l’Université de Montpellier lors de la Conférence
internationale de l’Association française de finance, en 2011

.L’évaluation des actifs :

Ceci s’est fait par Titman en deux étapes principales : la première consiste à
expliquer et tester des modèles d’évaluations existants et plus précisément
L’arbitrage Pricing theory (APT) tandis que la deuxième sert à identifié autres
anomalies du marché et propose des explications nouvelles de la rentabilité des
titres sortant de l’orthodoxie financière à l’époque. On commence par le model
d’évaluation développé par Ross à savoir l’APT qui se base sur l’idée que la
rentabilité d’un actif est expliquée par plusieurs facteurs de risque en supposant
l’absence de profits d’arbitrage sans risque .Titman remette en cause cette théorie
puisqu’il a développé un model factoriel d’évaluation des actifs du type APT(ils
ne se base pas de la notion d’arbitrage pour résoudre les équations , il fait appel à

41
Aioui Hasnae

un model d’équilibre. Il prétend que leindividus détiennent des portefeuilles sans


risque, ce qui entraine une déviation du prix par rapport à l’APT alors l’avantage
du model par rapport à l’APT c’est d’aboutir à des résultats similaire
(déviation).Si les rentabilités attendus sont expliquées par un model d’évaluation
des actifs alors le portefeuille optimal à détenir est une combinaison des
portefeuilles factoriels. On passe maintenant au model de French et Fama qui dit
que les primes associées aux trois facteurs du model de Fama et French
notamment pour les petites capitalisations et pour le book market élevé résultent
d’une compensation pour le risque, au contraire de Titman qui affirme que les

caractéristiques de ces titres qui expliquent ces primes. Cette relation peut être
expliquer par l’information intangible contenue dans le ratio BM. Qui dit un ration
BM élevé dit sa décomposition en information tangibles (liés aux performances
passès) et en information intangibles liées aux futur performances. Il existe une
corrélation négative entre la rentabilité future du titre et la composante intangible
de l’information intangible de l’information contenu dans le ratio BM .Dans le
domaine de l’évaluation des actifs, Titman est célèbre pour avoir révéler l’effet
momentum.

Identification de l’effet momentum

Les travaux de Titman ont contribué à des avancées majeures dans l’identification
d’anomalies de marché pouvant être expliquées notamment par le comportement
biaisé des investisseurs. Les travaux précurseurs de De Bondt et Thaler (1985) en
la matière ont montré l’existence de stratégies de portefeuille produisant des
rentabilités anormales. Ainsi, d’après ces auteurs, les titres qui ont surperformé
sur les trois à cinq dernières années doivent être vendus au profit des titres qui ont
sous-performé sur les mêmes périodes et, ce, sur un horizon de détention
équivalent de trois à cinq ans. Cette stratégie dite contrarian procure des
rentabilités anormales significatives. Or, comme le relèvent Jegadeesh et Titman
(1993), cette observation est en contradiction avec le comportement de certains

42
Aioui Hasnae

investisseurs majeurs tels que les fonds communs de placement (mutual funds)qui
ont tendance à acquérir les titres performants sur le dernier trimestre. Ils
réconcilient les deux approches en constatant que les titres gagnants poursuivent
leur ascension sur les trois à douze mois suivants et inversement pour les titres

perdants. Ils attribuent cet effet à une sous-réaction aux nouvelles informations en
sélectionnant des titres ayant fait l’objet d’annonces de résultat sur la précédente
année. D’ailleurs, au-delà du 12e mois, un effet inverse est observé, les titres
gagnants perdant plus de la moitié de leur rentabilité sur les 24 mois suivants.
Cette stratégie dite momentum n’est pourtant pas en contradiction avec la stratégie
inverse contrarian. En effet, les deux stratégies s’expriment sur des horizons de
détention différents. La stratégie contrarian produit ses résultats, soit à très court

Une première voie de


reconstruction : la
finance
néoinstitutionnelle

43
Aioui Hasnae

contractuelle

Stewart Clay Myers :


Biographie

Il est un professeur d'économie financière à la MIT Sloan School of Management, ancien


président de l'American Finance Association. Le professeur Myers a conseillé de grandes
entreprises dans le domaine des fusions et acquisitions, des décisions d'investissement, du
financement, de la mesure du coût du capital et de l'évaluation. Il a comparu en tant que témoin
expert dans d'importantes affaires et procédures réglementaires, notamment sur le coût du
capital, l'évaluation de la rentabilité et de la valeur, les fondements économiques et la
conception de la réglementation du taux de rendement, la propriété intellectuelle, la
détermination des dommages et les questions fiscales. Ses travaux couvrent un large éventail
d’industries, notamment les oléoducs, les télécommunications, les logiciels, les chemins de fer,
les produits pharmaceutiques, les assurances et les banques…

La théorie du financement hiérarchique

44
Aioui Hasnae

En l’absence d’asymétrie d’information, une firme devrait adopter tout projet d’investissement
dont la valeur actuelle nette est positive, quelle que soit la manière dont elle entend financer ce
projet. En revanche, il peut y avoir sous-investissement si les dirigeants de la firme, agissant
dans l’inté-rêt des anciens actionnaires qui ne souscrivent pas aux actions nouvelles émises,
disposent d’informations supplémentaires sur les opportunités d’investissement. Supposons
deux états de la nature possibles correspon-dant à des informations favorables d’une part,
défavorables d’autre part. Si les dirigeants disposent d’informations favorables telles que
l’action s’avère aujourd’hui sous-évaluée sur le marché, ils se trouvent confrontés à un
dilemme.

Myers est l’un des grands auteurs de la théorie financière moderne, et l’un des fondateurs en
matière de finance d’entreprise. Ses recherches ont irrigué les manuels de finance dans les
domaines du choix d’investissement et, plus encore, dans celui du financement des entreprises.
Ses apports fondamentaux sur la structure financière, théorie du compromis et théorie du
financement hiérarchique, ont réellement construit le socle théorique contemporain pour
comprendre le financement de l’entreprise et ont ouvert le champ à un grand nombre de tests
empiriques, ainsi qu’à des extensions dans de nombreuses directions. On peut sans doute
regretter la prise en compte relativement tardive par Myers, à partir des années 2000 seulement,
des divergences d’intérêts entre les dirigeants et les actionnaires .

Douglas W. Diamond

l’analyse

contractuelle de

l’intermédiation

financière
BIOGRAPHIE

45
Aioui Hasnae

DOUGLAS est né en 1953. Actuellement il est professeur de finance à la Booth School of


Business de l’Université de Chicago. Il est spécialisé dans l’étude de l’intermédiation
financière, des crises financières et de la liquidité. Il est un ancien président de l'American
Finance Association. Diamond est surtout connu pour ses travaux sur les crises financières et
les opérations bancaires. Il fonde la majorité de ses résultats sur la théorie de jeux non
coopératifs en recourant à l’équilibre de NASH. Le début de sa carrière a été marqué par deux
articles coécrit avec Verrecchia, qui traitent les prix d’équilibre sur un marché financier en
présence d’une information privée. Ils mentionnent que la révélation d’information visant à
réduire l’asymétrie d’information sur le marché financier permet aussi à abaisser les coûts de
capital. Son article le plus marquant est certainement celui de 1984 sur la surveillance déléguée
qui traite de l’efficacité du modèle économique des banques.

Les travaux de Douglas

En vue d’éviter cette situation catastrophique. Douglass avait proposé une solution fondée sur

une théorie dénommée [théorie des jeux non coopératifs].

Puisque le comportement des déposants vis-à-vis le retrait de leurs fonds est inconnu (peut être
une consommation rapide ou retardée), seuls les déposants qui détiennent cette information. La
limitation des retraits excessifs se fait par La rédaction d’un contrat bancaire (aucune des
partiesne peut prendre une décision unilatérale). D’une autre part, l’assurance des dépôts
suppose qu’un gouvernement est toujours apte à lever les taxes nécessaires pour financer les
demandes de liquidité. Ce qui permet de sauvegarder la richesse de chacun en évitant les ruées
bancaires.

Les conclusions économiques importantes à retenir de ce travail sont les suivantes : Les banques
qui reçoivent des dépôts et accordent des crédits présentent un modèle économique efficacepour
partager le risque entre les différents agents qui consomment aléatoirement à différentes
périodes.

Deuxièmement il existe un équilibre indésirable où l’ensemble des agents retirent leurs dépôts
conduisant ainsi à une ruée bancaire, même si certains d’entre eux préféreraient conserver
l’argent sur leurs comptes s’ils n’étaient par concernés par une faillite possible de la banque.
Troisièmement les ruées bancaires créent des problèmes économiques considérables, car des
banques saines peuvent faire faillite causant le remboursement anticipé des crédits et l’arrêt de
production des actifs illiquides.

46
Aioui Hasnae

Douglas a souligné que la banque est lancée dans une variété de services, mais elle occupe trois
rôles qualifies essentiels : Service Actif – Service Passif Service de Transformation. La
combinaison de ces trois services permet de maîtriser le risque des ruées bancaires. Au début
des années 2000, la manière d’appréhender la liquidité chez Diamond évolue. D’où il a introduit
la notion de l’emprunt relationnel. L’économie est basée sur un ensemble d’entrepreneurs qui
ont chacun un projet d’investissement à financer. Diamond combine entre la capacité d’un
entrepreneur ayant une compétence spécifique à bien valoriser son projet d’investissement et
d’un financier qui apporte le crédit nécessaire à l’investissement.

Luigi Zingales

Une vision partenariale,

politique et sociale de

la gouvernance

47
Aioui Hasnae

Biographie

Luigi Zingales Economiste et universitaire Italien, né le 08 Février 1962 à Padoue en Italie.


Diplômé en Economie de l’Université de Bocconi de Milan et du Massachusetts Institute of
Technologie de Boston où il a obtenu son Ph.D en Economie en 1992. Il est Professeur
d’économie d’entreprise et de finance à la Graduate School of Business (GSB) de l’université
de Chicago et chroniqueur au City Journal (Manhattan Institute). Il est le directeur du Stigler
Center de l’université de Chicago Booth, membre de la Commitee on Capital Markets
Regulation, et 2014, il était le président de l’American Finance Association.Luigi Zingales a
reçu plusieurs prix et distinctions pour son travail académique. En 2002, il a obtenu le prix
Nasdaq de la World Financial Association. Une année après, il a obtenu le Bernácer Prize, en
2005, il a reçu le Prix de recherche de la Fondation Banque de France, ainsi que nombreuses
bourses de recherche…

Une dérive vers un capitalisme de connivence :

Le capitalisme est considéré par ZINGALES comme la source d’innovation et de croissance,


mais ZINGALES développe la thèse que les économies les plus développées sont en train de
sombrer dans un capitalisme de connivence qui a pour objectif principal de maintenir le pouvoir
et de servir les intérêts privés de quelques privilégies Cette réflexion sur le capitalisme de
connivence prend sa source dans l’article de ZINGALES dans lequel les auteurs proposent une
théorie politique explicative du développement financier d’un pays à travers la notion de groupe
d’intérêts, son idée centrale est que le levier essentiel de développement financier est lié à
l’ouverture internationale du pays, la conclusion de cet auteur est que les institutions politiques
ont un rôle crucial à jouer pour faciliter le développement financier en permettant de dépasser
les intérêts de certains groupes privés. Globalement, cette thèse peut se résumer en quatre
Arguments.

Crise de confiance et crise financière :

La confiance des individus sur le système financier et les gouvernements a un effet positif sur

la décision des investisseurs concernant l’achat des actions et des actifs risqués, alors que cette
confiance comme à se diminuer au cours des dernières décennies à cause des fraudes et le
manque de fiabilité de l’information communiquée, or la confiance est un puissant déterminant
de l’investissement.

48
Aioui Hasnae

Les recherches apportées par cet auteur visent essentiellement de faire évoluer la société, il s’est
intéressé d’abord à la gouvernance d’entreprise ou il a considéré que le capital humain et la
capacité d’innovation sont des ressources critiques d’une organisation, ce qui le conduit à mettre
l’accent sur le rôle des partenaires de la firme, ainsi qu’il a précisé que la rente générée par
l’ensemble des parties prenantes doit être partager de manière satisfaisante, c’est à ce
niveauqu’on peut dire que la recherche pour ZINGALES est comme un outil qui doit impacter
sur l’évolution de la société.

49

Vous aimerez peut-être aussi