Vous êtes sur la page 1sur 121

Pierre-Charles Pradier

La notion de risque
en économie
ISBN 2-7071-3908-4

Le logo qui figure au dos de la couverture de ce livre mérite une explication. Son objet
est d’alerter le lecteur sur la menace que représente pour l’avenir de l’écrit, tout particu-
lièrement dans le domaine des sciences humaines et sociales, le développement massif
du photocopillage.
Le code de la propriété intellectuelle du 1er juillet 1992 interdit en effet expressément
la photocopie à usage collectif sans autorisation des ayants droit. Or, cette pratique s’est
généralisée dans les établissements d’enseignement supérieur, provoquant une baisse
brutale des achats de livres, au point que la possibilité même pour les auteurs de créer
des œuvres nouvelles et de les faire éditer correctement est aujourd’hui menacée.
Nous rappelons donc qu’en application des articles L. 122-10 à L. 122-12 du Code
de la propriété intellectuelle, toute reproduction à usage collectif par photocopie, inté-
gralement ou partiellement, du présent ouvrage est interdite sans autorisation du Centre
français d’exploitation du droit de copie (CFC, 20, rue des Grands-Augustins, 75006
Paris). Toute autre forme de reproduction, intégrale ou partielle, est également interdite
sans autorisation de l’éditeur.

S i vous désirez être tenu régulièrement informé de nos parutions, il vous suffit
d’envoyer vos nom et adresse aux Éditions La Découverte, 9 bis, rue Abel-Hovelacque,
75013 Paris. Vous recevrez gratuitement notre bulletin trimestriel À la Découverte.
Vous pouvez également retrouver l’ensemble de notre catalogue et nous contacter sur
notre site www.editionsladecouverte.fr.

© Éditions La Découverte, Paris, 2006.


Dépôt légal : avril 2006
Introduction

D ans la mesure où le futur est incertain, les décisions écono-


miques qui engagent l’avenir, par exemple l’investissement, sont
soumises à des risques d’autant plus difficiles à évaluer que leur
échéance est lointaine. Schumpeter a mis en avant le rôle de
l’entrepreneur et les risques qu’il prenait en innovant ; Knight a
insisté sur l’incertitude liée aux décisions de production ; Keynes
a placé au cœur de son analyse les conséquences de l’incertitude
sur les comportements des agents économiques, etc. L’époque
contemporaine est plus préoccupée des risques liés à la finance
ou aux retombées indésirables des activités industrielles, en parti-
culier sur l’environnement ou la santé des consommateurs. Même
l’inaction fait courir des risques : celui d’être dépassé par les
concurrents, de voir la valeur des actifs qu’on détient s’éroder,
puisque la monnaie même est soumise à l’inflation. En bref, le
risque est partout dans l’économie.
La théorie économique telle qu’elle s’est développée depuis la
dernière guerre s’intéresse surtout aux risques liés à la produc-
tion ou à la détention d’actifs financiers : pour les économistes
néoclassiques, qui pensent que le capital produit de la valeur, ce
sont les risques courus par le propriétaire du capital qui justi-
fient sa rémunération. Le formalisme des modèles économiques
est emprunté aux jeux de hasard (chapitre II). On oppose ainsi
les décisions contre la nature, où interviennent les probabilités, aux
jeux d’interaction dont s’occupe la théorie des jeux (dans ce cas,
l’issue du jeu dépend de la décision conjointe de plusieurs acteurs,
il n’est pas possible de considérer les décisions des autres comme
un pur hasard, puisqu’elles obéissent à une rationalité).
Nous verrons que la théorie économique, certes élégante, est
doublement décevante : elle échoue à définir objectivement le
risque et elle ne rend pas compte de sa prégnance dans la réalité,
4 LA NOTION DE RISQUE EN ÉCONOMIE

Quelques rappels utiles

Actualisation
L’actualisation est un procédé de calcul par lequel on rapporte les sommes futures
à des valeurs présentes ou actuelles (d’où le nom). Pour comprendre l’actualisation,
on part souvent de l’opération inverse ou capitalisation, processus correspondant à
l’idée commune selon laquelle l’argent (déposé, par exemple, sur un livret de caisse
d’épargne), « fait des petits ».
100 i au 01/01/2006 placés à 2 % deviennent 100 × (1 + 2 %) = 100 × 1,02 =
102 i au 01/01/2007, puis 1,02 × 102 = 104 i 04 centimes au 01/01/2008,
1,02 × 104,04 = 106 i et 12,08 centimes au 01/01/2009, etc. Après n années, les
100 i seront devenus 1,02n × 100 i.
Réciproquement, on peut donc affirmer que 102 i au 01/01/2007 valent 100 i au
01/01/2006, tout comme 104,04 i au 01/01/2008, etc. Bref, une somme quelconque
à valoir n années après le 1er janvier doit être divisée par 1,02n pour être actualisée.

Vocabulaire des probabilités


Variable aléatoire est le terme technique pour désigner un phénomène dont le
résultat n’est pas forcément connu (on parle par habitude de variables aléatoires
certaines pour indiquer l’absence d’incertitude sur le résultat). En langage courant, on
parle de perspective (aléatoire) ou de loterie, qui donne des résultats (on dit aussi issues
ou paiements). Chaque résultat caractérise un état de la nature.
Par exemple, le résultat du lancer d’un dé à six faces est une variable aléatoire dont
les réalisations peuvent être 1, 2, 3, 4, 5 ou 6. Si le dé est régulier, chaque état du
monde a une probabilité d’1/6 = 0,166…
La probabilité peut être considérée de trois manières. Pour un fréquentiste, elle indique
la fréquence limite d’apparition d’un phénomène : si on jette une infinité de fois un même
dé régulier, alors on obtiendra chacune des faces une fois sur six… le problème étant que
l’infini est un objet assez difficile à manipuler. Les subjectivistes préfèrent considérer que la
probabilité indique un degré de croyance dans une hypothèse : on peut alors facilement
définir la probabilité de sortie d’une face d’un dé sans recourir à l’infini. Le troisième point
de vue est purement formel : la somme des probabilités des états du monde doit être
égale à l’unité. Si le dé a six faces, on ne peut pas avoir une chance sur deux de tirer
chacune des faces, cela n’a logiquement aucun sens. On représente donc les variables
aléatoires par des familles de paiements et de probabilités associées : X = (xi,pi) iB[1,n] donne
le paiement xi (qui peut être négatif) avec la probabilité pi.
Les choses sont un peu plus complexes si l’on veut envisager des probabilités continues.
Quand on se demande quelle température il fera demain, il n’y a pas de raison de consi-
dérer qu’il doit faire 17 ou 18 degrés et pas 17,5 ou même 17,314647 degrés. Pour cette
raison, on peut considérer que la température est une variable continue, qui peut prendre
toutes les valeurs entre, par exemple – 30 et 50 degrés. On peut poser que la probabilité
est uniforme sur tout l’intervalle : dans ce cas, il va falloir répartir la masse de probabilité
(qui vaut 1, rappelons-le), uniformément sur [– 30, 50]. En divisant 1 par la taille de
l’intervalle, on obtient la densité de probabilité qui est une fonction (constante dans le
cas présent) des valeurs prises par la variable aléatoire. On peut trouver que l’hypothèse
uniforme est irréaliste, et vouloir une densité bien plus forte au centre de la distribution,
par exemple. Les calculs de probabilités continues mettent en jeu le calcul intégral.
Si l’on cherche à caractériser rapidement une variable aléatoire, on peut utiliser des
indicateurs de position et d’échelle (ou de dispersion). L’indicateur de position le plus
courant est l’espérance mathématique. On la calcule d’après la loi de probabilité de la
INTRODUCTION 5

variable : si X = (xi, pi) i B[1,n] alors E(X) = p1x1 + p2x2 + p3x3 +… + pn-2xn-2 + pn-1xn-1
n
+ pnxn = S pixi. Dans le cas des probabilités continues, si X est définie par une densité
i=1

f(x) sur DX, alors l’espérance vaut E(X) = @xf(x)dx). Si l’on ne connaît pas la loi de la
DX

variable, on peut calculer une moyenne empirique, et c’est ce que l’on fait en général
pour se donner une idée des phénomènes aléatoires.
De nombreux indicateurs de dispersion existent, mais le plus courant est la variance,
qui représente la moyenne des carrés des écarts à la moyenne :
V(X) = p 1 (x 1 -E(X)) 2 + p 2 (x 2 -E(X)) 2 + … + p n - 1 (x n - 1 -E(X)) 2 + p n (x n -E(X)) 2 =
n
S p (x -E(X)) .
i=1
i i
2

On utilise le carré pour éviter que les écarts positifs et négatifs se compensent. Évidem-
ment, le carré donne un poids plus grand aux grandes déviations. Pour compter dans les
mêmes unités que la moyenne, on peut utiliser l’écart-type qui est la racine carrée de la
variance et que l’on représente généralement par la lettre grecque s.
On peut calculer bien d’autres paramètres (par exemple, les moments : voir
chapitre IV). Dans le cas des lois normales, l’espérance et la variance suffisent à carac-
tériser la distribution de ces courbes en forme de cloche. Mentionnons, par exemple,
la probabilité de s’éloigner de plus d’un écart-type de la moyenne : elle est d’environ
32 %. La probabilité de s’éloigner de plus de deux écarts-types de la moyenne est
inférieure à 5 %, ce qui signifie à l’inverse que l’on a plus de 95 % de chances d’être
à moins de deux écarts-types de cette moyenne. La probabilité de s’éloigner de moins
de trois écarts-types autour de la moyenne est supérieure à 997 pour 1 000, etc. Sur
le graphique 1, toutes les densités correspondent à des variables centrées (espérance
nulle). La courbe en ogive a un écart-type de 0,5, donc 95 % de la masse de proba-
bilité est comprise dans l’intervalle ]0 – 2 × 0,5 ; 0 + 2 × 0,5[, donc ]-1,1[, alors que
pour la courbe d’écart-type 2, il faut prendre l’intervalle ]-4,4[ pour trouver la même
masse de probabilité : la courbe est donc plus aplatie.

Graphique 1. Quelques écarts-types


1

0,8
σ = 0,5

0,6
Densité

0,4

σ = 1,0
0,2
σ = 2,0
σ = 5,0

0
–6 –4 –2 0 2 4 6
Déviation
6 LA NOTION DE RISQUE EN ÉCONOMIE

La représentation du risque dans la théorie économique : choix indi-


viduel entre variables

On représente les actions dont l’issue est incertaine, et donc soumise à un risque,
par des variables aléatoires. Ainsi, la variable X = (xi, pi) i e[1,n] donne le paiement xi (qui
peut être négatif) avec la probabilité pi. La somme des probabilités vaut 1 de sorte que
tous les cas possibles sont décrits par leur paiement.
Si le jeu est répété « un grand nombre de fois », alors on sait en vertu de la « loi
des grands nombres » que les écarts à la moyenne vont se compenser. En moyenne,
le résultat sera proche de l’espérance qu’on écrit : n
p1x1 + p2x2 + p3x3 + … + pn-2xn-2 + pn-1xn-1 + pnxn = pixi = E(X).
i=1
S
L’espérance mathématique représente la valeur E(X) de la variable aléatoire X.
La notion de « grand nombre de fois » n’ayant pas grand sens pour les mathéma-
ticiens, on peut plutôt dire qu’il existe un nombre de fois (où le jeu est répété) tel que
l’écart à la moyenne est inférieur à une borne choisie (avec une probabilité choisie,
par exemple 99 %). Si on doit jouer moins que ce nombre de fois, alors on peut s’éloi-
gner sensiblement de l’espérance mathématique. Il faut tenir compte de ce risque.
En 1730, Daniel Bernoulli a proposé de modifier la valeur des paiements pour
tenir compte du risque. Les paiements sont transformés par une fonction dite fonction
d’utilité dont la courbure traduit la préférence ou l’aversion pour le risque du décideur.

Graphique 2. Aversion pour le risque


Fonction d'utilité située
au-dessus de la première
bissectrice : goût du risque

Valeurs Fonction d'utilité située


en dessous de la
première bissectrice :
aversion pour le risque

Paiements

On évalue alors l’état du décideur par son espérance d’utilité (et non plus son espé-
rance mathématique). Quand on ajoute la variable à sa situation de départ, désignée
par une richesse W, l’espérance d’utilité du décideur est :
n

S p × U(x + W).
i=1
i i

Pour retrouver des valeurs, il faut utiliser l’inverse de la fonction. En particulier, on


déduit la valeur de la variable aléatoire par différence avec la situation de départ.

(S )
n
EC(X) = U-1 pi × U(xi + W) – U(W) est l’équivalent certain de la variable X.
i=1
INTRODUCTION 7

où il suscite des institutions spécifiques. En effet, l’évaluation du


risque est subjective. Pour obtenir une mesure du risque, on laisse
le décideur calculer la valeur d’une perspective aléatoire, son équi-
valent certain. En soustrayant cet équivalent certain à l’espérance
mathématique, on obtient la moins-value due au risque, consi-
dérée comme une mesure du risque. Toutefois, cette mesure
dépend de la fonction d’utilité du décideur : ce n’est donc pas une
mesure objective du risque. Cette quantité représente seulement
la disposition à payer de l’agent pour se débarrasser de ce risque
auprès d’un assureur qui accepterait de le prendre en charge.
Une autre particularité de la théorie économique est de consi-
dérer un système complet de marchés. Ce dispositif garantit l’exis-
tence d’un système de prix qui équilibre les transactions de tous
les biens pour toutes les dates futures et tous les états de la nature.
Cela signifie qu’il est possible de s’assurer contre tous les événe-
ments, contre tous les risques.
Or, dans la réalité, il existe d’autres mécanismes que l’assu-
rance et les marchés financiers car ceux-ci ne permettent pas tous
les échanges de risques possibles. La théorie économique ne rend
pas compte de ces institutions spécifiques qui prennent en charge
le risque et elle ne propose aucune mesure de celui-ci. Pour
avancer dans la compréhension de cet objet particulier qu’est le
risque, nous avons choisi une approche historique. Notre enquête
commence par une interrogation sur l’histoire du mot « risque »
lui-même (chapitre I) et se poursuit par une présentation des
théories économiques qui ont permis de l’étudier. D’abord liée à
l’assurance (chapitre II), la théorisation du risque par les écono-
mistes prend au XIXe siècle l’allure d’une enquête sur la répartition
des revenus (chapitre III). Au XXe siècle, le point de vue décisionnel
devient dominant, que ce soit en finance (chapitre IV) ou dans la
macroéconomie rénovée par ses emprunts à la recherche opéra-
tionnelle stochastique (chapitre V). Toutefois, on retrouve ensuite
le point de vue de la répartition, qui conduit à des considérations
macroéconomiques, en particulier sur l’inflation des actifs patri-
moniaux et le risque financier systémique (chapitre VI).
I / Histoire du risque
« Les études de mots ont une grande importance
dans la science historique.
Un terme mal interprété peut être la source de
grandes erreurs. »
Fustel de Coulanges [1892, p. 170]*

Comme l’écrivait le sociologue allemand Niklas Luhmann, « il


n’existe pas d’étude compréhensive de l’étymologie et de
l’histoire conceptuelle du terme [risque] » [Luhmann, 1990, p. 9],
ce qui ne signifie pas qu’on ne trouve pas des éléments dispersés.
Si l’on cherche dans des ouvrages savants une histoire du concept
de risque, on trouvera en particulier deux éléments récurrents :
une thèse moderniste et un roman nautique pour expliquer l’origine
du mot.

Fables et mythes du risque

La thèse moderniste : une légende bourgeoise

Luhmann hérite de la tradition historique allemande de


Sombart, Weber et tant d’autres. D’après lui, le concept de risque
apparaît au début de l’époque moderne « pour indiquer une situa-
tion problématique qui ne peut être décrite avec une précision
suffisante par le vocabulaire existant » [Luhmann, 1990, p. 10].
Cette période correspond donc à celle des grandes découvertes,
de la réforme religieuse et de l’apparition du capitalisme. Weber
[1908] défend l’idée d’une affinité entre la réforme religieuse et le

* Les références entre crochets renvoient à la bibliographie en fin d’ouvrage.


HISTOIRE DU RISQUE 9

développement de l’esprit du capitalisme ; cette théorie a suscité


une abondante controverse (voir Luthy [1961] pour un point de
vue critique, Besnard [1970] pour une synthèse). La thèse moder-
niste constitue une illustration de cette séduisante construction
intellectuelle : le développement du commerce, de l’assurance,
des techniques financières modernes, coïnciderait avec la matu-
ration de l’esprit du capitalisme à la suite de la réforme religieuse.
La diffusion du mot « risque » serait une conséquence (ou un
aspect) du développement du capitalisme.
Un autre trait de cette doctrine consiste à lier le développement
du capitalisme avec celui de la bourgeoisie : une classe sociale
serait porteuse de pratiques nouvelles qui auraient bouleversé
l’organisation sociale et politique. Ainsi Robert Pirenne, un des
grands médiévistes du premier XXe siècle, considère-t-il que la
classe des marchands se constitue d’« aventuriers sans attache
avec la terre » ou de la « masse de va-nu-pieds à travers le
monde ». Fourquet [1989] parle de légende bourgeoise pour quali-
fier le « scénario historique selon lequel le capitalisme marchand
est un “corps étranger” à la société féodale […] ; il aurait surgi de
lui-même au sein de cette société ». Même si la thèse moderniste
est incompatible avec les travaux des philologues, ces derniers ont
récupéré à leur compte cette légende bourgeoise dans un roman
nautique.

Le roman nautique d’une étymologie obscure

Les dictionnaires étymologiques présentent une grande variété


d’hypothèses pour expliquer l’origine du mot risque [Pradier,
1998]. La plus en vogue à ce jour avait été proposée par Diez
[1853], elle est par exemple exposée par Rey et al. [1992] :
« Certains rapprochent ce mot du latin resecare, “enlever en
coupant” (h réséquer), par l’intermédiaire d’un latin populaire
resecum, “ce qui coupe” et, de là, “écueil”, puis “risque que court
une marchandise en mer”. »
En castillan, qui est une langue latine, on remarque encore la
proximité morphologique de l’écueil et du danger (tous deux
riesgo). Outre ce « roman nautique », qui ne constitue qu’une
conjecture, il existe une foule d’étymologies possibles. Trois filia-
tions peuvent retenir notre attention. La première est avancée par
Guiraud, qui observe que risque prend la succession de rixe ; mais
ce glissement ne s’opère qu’en castillan et en langue d’Oc, et pas
avant la fin du Moyen Âge. Une seconde piste, ouverte par les
grands philologues allemands Schmitt et Wartburg, nous conduit
10 LA NOTION DE RISQUE EN ÉCONOMIE

à Byzance. Mais, si l’on excepte un hapax en 1156 (cacorizico")


dont la traduction est par nature douteuse, ce mot n’apparaît
qu’au XIIIe siècle ; encore est-ce un italianisme notoire. Enfin, une
origine arabe, proposée anecdotiquement dans le supplément du
Littré, semble aujourd’hui la plus vraisemblable : elle fait dériver
le terme du rizq, « provision, part de biens que Dieu attribue à
chaque homme ». Malgré l’incertitude qui les entoure, ces
recherches étymologiques conduisent à tenir pour certain que
l’usage du mot « risque » est de loin antérieur à la fin du Moyen
Âge, ce qui contredit la thèse moderniste. La phase qui suit l’appa-
rition du mot, mieux documentée, est cruciale, puisqu’elle
marque la cristallisation du sens et des usages. C’est pourquoi on
s’intéressera de près à la diffusion du mot « risque ».

Autres sources, autre thèse

Contrairement aux philologues des siècles passés, on peut


maintenant compter sur un dénombrement quasi exhaustif des
occurrences du mot « risque » dans les langues vernaculaires
[Pradier, 1998] et même en latin [Piron, 2004].

L’Italie comme centre de diffusion

Grâce aux travaux de Sylvain Piron, il est possible de remonter


avant 1193. La Péninsule italienne constitue le centre du phéno-
mène, sans qu’il soit possible de préciser quelle région constitue-
rait le berceau de cette pratique. Gardons-nous de conclure
hâtivement d’après l’origine géographique de la Carta Picena ou
des documents des années 1150 cités par Piron [2004]. On pour-
rait également évoquer Amalfi, dont la brillante activité écono-
mique est attestée depuis le X e siècle ; cependant, les raids
normands puis pisans, enfin le raz-de-marée de 1343, n’ont laissé
aucune archive. Il est cependant possible de s’affranchir de ce
biais de répartition des sources. On peut tenter de suivre les itiné-
raires de la diffusion du mot — et donc peut-être d’en retrouver le
foyer. Ainsi Marseille, alors dans l’orbite économique et politique
de Gênes, est-elle la première ville hors d’Italie à écrire reizego,
puis vient le tour de la Catalogne, de la Provence et, à partir du
XVe siècle, de la Croatie. C’est seulement après cette époque que
les Germains puis les Castillans et Français d’Oïl vont apprendre
à dire risque à l’italienne, c’est-à-dire dans un sens qui reste à
définir, mais autrement que comme un succédané de rixe. Même
HISTOIRE DU RISQUE 11

si on n’a pas identifié l’origine géographique précise du mot


« risque », on a au moins situé le centre le plus actif de sa diffu-
sion sur le littoral tyrrhénien, dans les grands ports commerciaux
que furent Gênes et Pise. Comme l’essaimage s’est fait au long
des routes commerciales, il pourrait sembler que le mot soit un
vocable des marchands.

Dans l’Italie du XIIIe siècle

Piron considère comme évident l’usage économico-juridique


du terme « risque », qu’il définit comme « l’imputation à un sujet
juridique d’une charge financière éventuelle, liée à une entreprise
au résultat incertain, mais qui n’a pas besoin d’être particulière-
ment hasardeuse ». Par-delà cette définition originelle, le duecento
nous offre une palette de textes où le risque est mis en situation.
Ce fonds groupe finalement assez peu de sources liées à l’acti-
vité économique, mais plutôt des textes politiques, juridiques et
réglementaires, des œuvres littéraires. Tout ceci semble témoigner
déjà d’une percolation du risque dans tous les domaines de la
vie civile. La dimension judiciaire ou politique met en cause
l’intégrité physique des individus menacée par la guerre ou par une
justice mutilatrice dans ses châtiments ; la littérature, essentielle-
ment d’inspiration courtoise, emploie également le mot « risque »
pour indiquer la mise en danger volontaire du héros, amant
éperdu [Mattaini, 2000] ou chevalier combattant [Vérin, 1982].
Les textes des XIIIe-XIVe siècles présentent donc le risque sous un
jour paradoxal pour le lecteur du « roman nautique » : alors qu’on
avait affirmé le rôle des marchands dans la diffusion du mot, on
constate ici que la capacité à affronter le risque est considérée
comme un trait aristocratique. Les valeurs de cette classe domi-
nante déteignent sur ceux qui prétendent y entrer. Et le risque
est donc peut-être un mot adopté par les marchands, soucieux
d’insister sur le courage nécessaire à leurs expéditions. À partir
du XIIIe siècle, alors que le mot se diffuse en Méditerranée avec
les pratiques commerciales, il concerne déjà les marchandises
elles-mêmes… Seule la littérature courtoise qui met en scène les
chevaliers et le droit qui dit les châtiments garde encore le
souvenir d’un risque qui menace l’intégrité physique de ses
victimes. Avec l’essor des marchands, le mot « risque » désigne
progressivement des dangers sans cesse plus nombreux car il est
plus d’occasions d’exposer son argent que sa vie.
Cette première époque nous permet de révoquer en doute les
mythes de l’histoire du risque. D’une part, le roman nautique est
12 LA NOTION DE RISQUE EN ÉCONOMIE

Que signifie donc « entrepreneur » ?


Le lien entre Chez ces aristocrates en devenir, sur
activités commerciale terre comme sur mer, « l’épreuve de la
et militaire commerciale valeur individuelle dans la seule action »
dans l’Italie médiévale [Vérin, 1982, p. 42] constitue l’entre-
prise (l’impresa italienne rappelle
Le premier aspect tient à la perméabi- l’« emprise » de l’ancien français), qui
lité entre les classes sociales, aussi bien s’exprime comme la capacité à saisir
qu’à la complexité de leur définition. l’occasion, la fortune, l’aventure. Ces
Bien des marchands italiens du XIe siècle mots sont récurrents, tant dans le
sont d’abord des combattants, qui lexique du roman courtois que des
accompagnent leur marchandise et marchands florentins [Bec, 1967]. Il n’y
la défendent contre les pirates barba- aurait donc pas toujours une sépara-
resques [Waley, 1969, p. 16] quand ils tion nette entre marchands et guerriers
ne sont pas eux-mêmes des pillards, dans l’Italie du XIe siècle, d’autant que les
attirés par le prestige des reliques historiens insistent sur la pluriactivité des
[Renouard, 1968b, p. 33], le butin que puissants [Renouard, 1968b, p. 65 ;
promet la destruction d’un nid de Aurell, 1996, p. 71 et 75, ou, à propos
pirates, ou la flibusterie la plus éhontée. des Porte-Glaive allemands, Dollinger,
Ainsi, Renouard [1969] prend en 1964, p. 44-45].
exemple les Pisans dont la fortune passe Un autre aspect de la proximité
par la mise à sac d’Amalfi en 1135 puis entre les armes et la fortune tient à la
1137, après une série de raids contre figure du condottiere. On considère
les Sarrasins au début du siècle d’ordinaire que celui-ci n’apparaît vrai-
(p. 167-169). Les chefs de ces expédi- ment qu’au XIVe siècle, à une époque
tions aussi glorieuses que profitables trop tardive pour notre récit. Mais
sont qualifiés d’« entrepreneurs (impren- avant que l’Italie n’ait été parcourue de
ditori) maritimes », mais gare à compagnies d’aventure emmenées par
l’anachronisme ! Ces entrepreneurs sont de véritables entrepreneurs de guerre,
du même métal que ceux que décrit avant que les noms de Fra Moriale,
[Vérin, 1982], qui se trouvent être Niccolò da Tolentino ou Giovanni
chevaliers au royaume de France, et Acuto ne s’illustrent dans l’histoire mili-
n’avoir cure des affaires de marchands. taire, les villes eurent recours à des

ramené à ce qu’il est : une histoire plaisante. La légende


bourgeoise doit être infirmée : les marchands ne constituent pas
une classe sociale distincte dès le XIe siècle, il est bien possible que
le mot « risque » soit un terme des guerriers. D’autre part, la thèse
dite « moderniste » se trouve entièrement contredite, puisqu’on
doit admettre après Renouard, Le Goff et beaucoup d’autres, que
l’esprit du capitalisme était bien vivant dans l’Italie du trecento.

La diffusion en Europe

On peut distinguer deux périodes dans la propagation du mot


« risque » : l’époque moderne où la désignation du mot s’étend
HISTOIRE DU RISQUE 13

combattants mercenaires. Ainsi Waley pour les enfants des marchands. Une
[1969, p. 44-47] évoque-t-il la déci- fois leur éducation terminée, ceux-ci
sion des consuls génois, en 1173, de voyagent dans l’adolescence puis se
« créer des chevaliers » pour éviter de sédentarisent [Melis, 1975, p. XIX].
payer les services de féodaux voisins. Pour preuve, toujours au XIV e siècle,
On est donc loin du cliché qui voudrait l’invention par les Génois de l’assu-
que les aristocrates ne se soucient que rance dite « à simple cédule », matrice
de leur honneur, quitte à se ruiner ou des contrats actuels, signifie que les
à perdre la vie. Si la noblesse française marchands n’accompagnent plus
a hérité de la cavalerie franque un systématiquement leur marchandise.
souverain mépris pour les affaires La croissance économique rapide des
d’argent, obsédée du seul prestige XIe-XIIIe siècles entraîne l’ascension des
symbolique que confèrent la victoire nouveaux riches qui suscite une
militaire et les dignités politiques, la certaine jalousie, l’évolution des mœurs
noblesse italienne est plus récente dans et de la place des arts provoque et
sa constitution, plus douteuse dans son révèle des tensions. Comme le fait
origine, mais aussi plus pragmatique observer Waley [1969, p. 54], « l’idée
dans son approche des questions que les nouvelles couches de la popu-
financières. Les chevaliers italiens sont lation étaient décadentes et indignes
donc aussi des marchands qui vivent de l’ancienne noblesse jouissait d’un
du louage de leurs armes. grand crédit ». Mais la littérature réunit
À partir du XIIIe siècle cependant, les encore ces deux classes sociales que
classes sociales semblent se distinguer l’analyse sépare. Celles-ci forment
plus clairement. D’un côté, comme à d’abord le public du roman courtois
Gênes, on ne crée plus massivement de venu de France et de Provence, bientôt
chevaliers après 1211, la caste aristo- supplanté par une littérature indigène
cratique devient dans l’ensemble (Dante, Boccace). On met en scène ces
moins perméable. De l’autre, la carrière oppositions sociales sur un mode plein
marchande s’est institutionnalisée : au de subtilité. D’un côté, on raille la
XIVe siècle, l’école « commerciale » (où décadence des mœurs, de l’autre on
l’on enseigne le calcul arithmétique à exalte la valeur des chevaliers qui
l’aide de l’abaque) s’est imposée risquent leur vie au combat et en
comme une sorte de « second cycle » amour.

rapidement ; l’époque contemporaine où le mot est devenu


principalement abstrait.
Au XVIIe siècle, à côté d’un usage spécifique à la marine, on
rencontre une acception économique générale : le mot « risque »
apparaît dans une expression, une façon de parler comme on dit
alors, fréquemment citée : « prendre une affaire à ses risques,
périls & fortunes », pour dire « se charger de tout ce qui en peut
arriver, se charger du bon & du mauvais succès », écrit le premier
Dictionnaire de l’Académie française. On retrouve alors la formule
consacrée « à ses risque et fortune », copiée littéralement de
l’italien. Cette signification économique du risque — qui menace
les avances de l’entrepreneur — apparaît comme une généralisation
de l’usage maritime. Elle constitue, dans la France du XVIIe siècle,
14 LA NOTION DE RISQUE EN ÉCONOMIE

le seul noyau sémantique stable autour duquel les diverses accep-


tions du mot gravitent. Plus encore, elle représente le seul cas où
le substantif est utilisé seul, sans précisions additionnelles. Car,
pour le reste, on ne rencontre que des façons de parler (expres-
sions comme courir risque, se mettre en risque, là encore inspirées de
l’italien). « Risque » n’est pas un terme courant au XVIIe siècle.
Le concept de risque témoigne en fait d’un jugement sur la
nature de la chose menacée. On hasarde une mise, on risque un
placement ; la première décision est hasardeuse, la seconde,
risquée. Une mise au jeu ou à la loterie, un bien assuré — sauf
dans le cas des assurances maritimes — ne peuvent être regardées
comme menacées par des risques : ce ne sont pas des investisse-
ments sérieux. S’il semble que la frontière entre assurance et pari
soit rétrospectivement assez peu claire, comme le rappelle Boiteux
[1968, p. 73-75], elle l’est pour les témoins du temps. Le substantif
« chance », le verbe « hasarder » appartiennent au champ séman-
tique du jeu (cadentia est la chute des dés ou le point en latin, et
azar désigne le point gagnant en arabe). Le terme « risque » a un
aspect normatif : s’il justifie un profit, c’est en échange d’un
travail, ou au moins dans le cadre d’une activité économique, fût-
elle aventureuse ou même (au XVIIIe siècle) illégale. C’est seule-
ment dans les années 1780, sous la plume des mathématiciens
comme Condorcet et Tetens, que « risque » reçoit une désignation
abstraite et générale, comme on le verra au chapitre suivant.
Au XVIIIe siècle, une évolution linguistique accompagne les
transformations sociales. Le mot est de plus en plus fréquemment
utilisé et cet engouement touche d’autres termes du même champ
sémantique : aventure, qui signifie « ensemble d’événements qui
arrivent à quelqu’un », mais aussi danger et péril, dont la conno-
tation négative est évidente, et à l’inverse, chance ou fortune. Cette
vogue du vocabulaire de l’aléatoire témoigne d’une ère aventu-
rière, celle des grands coups de finance (avec la banqueroute de
Law, les tulipes de Hollande), des grands voyages (Cook, Lapé-
rouse) et des histoires personnelles qui sont d’abord des aven-
tures sociales (le film Barry Lyndon de Stanley Kubrick illustrant
les biographies réelles ou imaginaires de l’Abbé Prévost, Casa-
nova, Da Ponte, Beaumarchais et tant d’autres). L’aventure, qui
s’identifie à la destinée d’un individu dans laquelle entre de plus
en plus en plus évidemment un élément de volonté et d’habileté,
quitte peu à peu le lexique de l’aléatoire, dans son sens neutre (ni
bon ni mauvais) ; il est remplacé par hasard.
Avant d’envahir le XXe siècle, « risque » connaît une éclipse très
nette : la fréquence du mot dans la littérature a baissé de moitié
HISTOIRE DU RISQUE 15

entre 1750 et 1800. Est-ce à dire que le « siècle de la science » ne


supporte pas le doute ?
À partir de 1900, l’émergence de la société du risque constitue
d’abord un phénomène linguistique. Ainsi, le risque est un
« danger probable », mais c’est aussi dans la langue des assureurs
la probabilité que se manifeste ce danger… ou l’espérance mathé-
matique (chapitre II) du sinistre encouru. On confond donc le
risque avec sa mesure (métonymie) et avec ce qu’il menace : les
assureurs caractérisent chacun de leurs assurés comme des risques.
Les bons conducteurs sont de bons risques, les chauffards, de
mauvais risques. Ces métonymies qui vont de l’objet à sa repré-
sentation, ou de l’objet au sujet, permettent une grande variété
d’emplois du mot « risque ». Signalons enfin qu’il n’est plus de
désignation spécifique pour le mot, qui ne connote plus aucune
activité particulière.
Pour conclure ce chapitre, on peut rappeler que si la significa-
tion principale du risque reste inchangée, sa désignation s’élargit
progressivement et tardivement, et bien plus tard en dehors de
l’Italie que dans la Péninsule. On risque d’abord sa peau puis sa
fortune. Enfin, à une époque où l’on croit investir en misant sur
les valeurs mobilières d’une économie-casino, on risque aussi bien
un euro sur une grille de Loto.
II / Le risque probabilisé
« Pour juger de ce que l’on doit faire pour obtenir
un bien, ou pour éviter un mal, il ne faut pas consi-
dérer le bien ou le mal en soi, mais aussi la probabi-
lité qu’il arrive ou qu’il n’arrive pas, et regarder
géométriquement la proportion que toutes ces
choses ont ensemble. »
Arnaud et Nicole [1660]

Les mathématiciens furent les premiers à employer « risque »


dans un sens abstrait complètement dégagé de connotations
normatives. L’abstraction ne s’est pas faite en un jour et il
convient, dans cette histoire de la mathématisation des phéno-
mènes aléatoires, de distinguer trois époques. Dans la première,
le mot « risque » n’apparaît même pas alors qu’il est question de
jeux de hasard. Dans la deuxième, les mathématiques sont expli-
citement appliquées à l’assurance et donc au calcul de risques.
C’est cependant seulement dans la troisième période que la
notion abstraite de risque apparaît, aux confins des conceptions
économiques et statistiques de la décision.

Du problème des partis à l’espérance mathématique

Le calcul des probabilités apparaît après la résolution par Pascal


et Fermat du problème des partis que leur avait soumis le Cheva-
lier de Méré. Ce problème consiste à répartir les mises d’un jeu
interrompu avant son terme. Avant le mois de juillet 1654, de
nombreux auteurs s’étaient essayés sans succès à résoudre des
questions du même genre [Coumet, 1965] ou des questions de
probabilité plus élémentaires encore (on cite généralement
LE RISQUE PROBABILISÉ 17

Cardan et Galilée à ce propos, voir par exemple Bernstein [1998]).


L’enquête sur les raisons qui ont conduit à l’apparition du calcul
des probabilités est passionnante. Coumet [1970] propose un récit
détaillé de la « laïcisation » du hasard et de la constitution d’un
droit des contrats aléatoires : le droit canon regroupe sous cette
appellation les contrats où intervient un élément de hasard (jeux
de société, loteries, assurances, prêts maritimes, rentes viagères,
etc. ; tous ne sont pas licites, loin s’en faut).
Précisons un peu l’objet de ces premiers calculs et la méthode
employée. L’objet consiste essentiellement dans les jeux de
hasard, comme en témoignent les titres de Huyghens [1657],
premier ouvrage publié sur le sujet, ou de Montmort [1708]. C’est
pourquoi le mot « risque » n’apparaît pas, bien qu’aujourd’hui on
l’emploierait volontiers dans ces situations. Huyghens parle de
chance dans les jeux de dé, Montmort de hasard ; Moivre [1711] et
Bernoulli [1730] pour leur part cherchent une mesure du sort, ce
dernier mot désignant les conséquences de la participation aux
jeux (sort désigne de ce fait ce que les mathématiciens appellent
une variable aléatoire). Si certaines traductions modernes ont cru
pouvoir parler de mesure du risque, c’est un contresens car on a
vu que ce substantif désignait alors exclusivement le champ de
l’économique (sauf en italien, bien sûr).
L’intérêt porté aux jeux de hasard tient à leur vogue dans l’aris-
tocratie. Si l’on s’en tient à l’exemple français, les jeux sont
interdits par Louis XIII et surveillés par une police sourcilleuse
[Freundlich, 1995]. Dans cette société de cour, le pouvoir tolère
toutefois les jeux, s’il ne les utilise pas comme un divertissement
qui détourne la noblesse de ses penchants guerriers et la main-
tient dans une situation financière précaire. Le jeu envahit si tota-
lement la conscience de l’élite, que même la question du salut fait
l’objet chez Pascal d’un jeu métaphorique : c’est le fameux Pari
[Pascal, 1670 ; Brunschvicg, 233 ; Lafuma, 418].
Après Pascal et Fermat, tous les probabilistes vont se délecter
de résoudre des questions liées à des jeux de société bien connus
(comme la Bassette, le whist, etc.), ou d’inventer des jeux imagi-
naires qui illustrent des problèmes mathématiques du temps
(comme le fameux problème de Pétersbourg — voir infra).
Condorcet [1785] juge d’ailleurs ces travaux d’une phrase sévère :
« Les géomètres se bornèrent assez longtemps à la théorie des jeux
de hasard, objet frivole en lui-même » (p. 601).
Du côté de la méthode, le résultat des recherches de ces
cinquante premières années est surtout le perfectionnement du
concept d’espérance mathématique comme véritable mesure du sort,
18 LA NOTION DE RISQUE EN ÉCONOMIE

Espérance mathématique

On obtient l’espérance mathématique d’une variable aléatoire en multipliant


chaque résultat possible par sa probabilité, en additionnant tous ces produits.
Par exemple, dans le cas d’un dé à six faces, on a une chance sur six d’obtenir
les points de 1 à 6, l’espérance mathématique s’écrit donc :
1 1 1 1 1 1
(proba) × 1 (point) + × 2 + × 3 + × 4 + × 5 + × 6
6 6 6 6 6 6
1 1
= × (1 + 2 + 3 + 4 + 5 + 6) = × 21
6 6
21
= = 3,5.
6
On peut dire de cette définition qu’elle est a priori dans la mesure où le calcul
utilise les probabilités et des résultats connus d’avance. Il existe aussi une définition
a posteriori qui consiste à faire la moyenne des résultats observés.

qui rassemble les notions éparpillées de juste prix, de jeu équi-


table, etc. L’expression « espérance mathématique » ne se dégage
que progressivement dans sa généralité : ainsi, Jallais et Pradier
[1997] détaillent par exemple les argumentations de Pascal et
Huyghens qui sont encore loin du caractère systématique d’un
manuel contemporain de probabilités. Car, en même temps que
la notion d’espérance, on doit construire l’objet dont on peut
calculer l’espérance comme objet mathématique, et non plus
seulement juridique ou religieux.
Si l’on s’intéresse maintenant aux fondements normatifs des
théories, on observe un déplacement. Alors que la probléma-
tique des partis est essentiellement juridique — on cherche la juste
répartition —, on constate rapidement une évolution. Déjà le Pari
de Pascal se présente comme une décision raisonnable ; et c’est la
raison qui constitue le devoir dans la phrase de la Logique donnée
en exergue à ce chapitre. De manière générale, la norme de justice
qui permet d’arbitrer entre des parties dans un procès va céder la
place à une norme de raison censée permettre le choix entre les
stratégies alternatives qui s’offrent à un individu [Jallais, Pradier et
Teira-Serrano, 2004].
Au début du XVIIIe siècle, Jacques Bernoulli [1713], dans son Ars
conjectandi publié à titre posthume, a établi la loi des grands
nombres. Selon cette loi, la moyenne asymptotique (c’est-à-dire la
moyenne qui résulterait d’un nombre infini de répétitions du
tirage aléatoire) converge vers l’espérance découlant du calcul
a priori. Cette convergence des définitions a priori et a posteriori de
LE RISQUE PROBABILISÉ 19

l’espérance mathématique rend le calcul utilisable dans l’étude


des phénomènes réels, ouvrant la voie à des applications empi-
riques du calcul des probabilités. Dans la mesure où la conver-
gence est asymptotique, il faut toutefois faire observer que les
calculs à partir de fréquences empiriquement observées sont
conçus comme de doubles approximations de ceux qu’on obtien-
drait avec les vraies probabilités (la première approximation
consiste à considérer les fréquences empiriques comme des proba-
bilités ; la seconde à supposer que les probabilités calculées
s’appliqueront dans la réalité).

Des assurances maritimes aux assurances sur la vie

Les assurances, qui touchent par nature des phénomènes aléa-


toires, offraient dès l’origine un domaine d’application pour le
calcul des probabilités : il s’agissait de calculer les primes avec
exactitude. Si les assurances maritimes présentent peu d’intérêt
pour le mathématicien, il n’en va pas de même des assurances sur
la vie qui vont susciter une abondante littérature.

Des assurances sans mathématiques

Les assurances maritimes existaient sous la forme moderne du


contrat dit à simple cédule depuis le XIVe siècle. Il n’est pas néces-
saire d’être grand géomètre pour établir la valeur de ces primes : si
sur une route, de dix navires il s’en perd un, alors on peut penser
que les primes doivent être fixées au dixième de la valeur assurée.
Un aller-retour était assuré en général pour un prix double d’un
aller simple, on évaluait une assurance à temps en fonction du
nombre de rotations qu’elle permettait de faire ; et les opérations
d’assurance étaient suspendues dès que l’incertitude augmentait
(rumeurs de guerre, recrudescence des attaques de pirates).
Les marchands italiens pratiquaient donc les mathématiques
actuarielles comme Monsieur Jourdain la prose, c’est-à-dire à leur
degré zéro. La prime d’assurance s’identifiait à l’espérance mathé-
matique, puisque c’était bien le produit de la probabilité du
naufrage par la valeur du sinistre (navire plus cargaison). L’expres-
sion consacrée pour désigner cette quantité était le « prix du
risque » [Tenenti et Tenenti, 1985] : on ne parle pas encore de
risque simplement (la métonymie entre le phénomène et sa
mesure ne fonctionne donc pas encore).
20 LA NOTION DE RISQUE EN ÉCONOMIE

Primes d’assurance

La prime d’assurance est la somme à payer pour s’assurer contre un sinistre. Le


montant de la prime dépend évidemment de la probabilité du sinistre et de
l’évaluation monétaire des dommages subis.
On distingue dans la littérature les primes dites pures — qui correspondent au
seul prix du risque — des primes chargées censées couvrir en plus les frais de
gestion de l’assureur.
De manière évidente, les primes pures correspondent à l’espérance mathéma-
tique du sinistre, que l’on considère jusqu’à la fin du XVIIIe siècle comme le « juste »
prix du risque.
Le calcul du chargement conduit à prendre en compte des éléments liés à la
gestion de l’entreprise qui offre les assurances. La modélisation est bien plus
tardive, elle est aussi plus arbitraire dans la mesure où ces éléments de gestion sont
contingents à l’organisation de l’assureur et non essentiels au risque lui-même.

Des mathématiques aussi simples n’intéressaient guère les


mathématiciens, et comme le talent de ceux-ci n’était pas utile
aux marchands, il existe peu de textes sur l’évaluation des primes.

Assurance-vie et séries

C’est seulement avec la question de l’évaluation des assu-


rances-vie que se développent véritablement les mathématiques
actuarielles. En effet, il y a là un enjeu à la fois pour les gestion-
naires qui ne peuvent évaluer les rentes au doigt mouillé, et pour
les mathématiciens qui s’intéressent au formalisme des séries
— sans parler de l’enjeu éminemment politique de ces questions
dont témoignent des hommes comme Petty et de Witt [Le Bras,
2000]. Mais qu’est-ce que l’assurance-vie ? L’expression est trom-
peuse, parce qu’elle confond assurance-décès et assurance contre
le « risque de vivre » (au-delà du moment où l’on ne peut plus
subvenir à ses propres besoins). L’évaluation des primes d’assu-
rance-décès nécessite seulement de connaître la probabilité de
décéder dans l’année. En revanche, l’assurance-vie à proprement
parler recouvre un grand nombre de possibilités, qui consistent
en général à échanger un montant certain (la prime) contre une
somme hypothétique. Dans le cas d’une rente viagère, cette somme
hypothétique est un revenu annuel régulier payé au contractant
qui peut ainsi se garantir un revenu régulier jusqu’à la fin de ses
jours (dont la date est bien sûr inconnue à la signature du
contrat). Un père de famille qui voudrait assurer à sa femme un
revenu au cas où il viendrait à périr doit souscrire une rente de
LE RISQUE PROBABILISÉ 21

Table de mortalité

Une table de mortalité retrace la chronique des décès dans une population donnée. En
complément, on peut mentionner le nombre de survivants dans la population à inter-
valle régulier, on obtient alors une table de survie. On peut donner l’exemple de la
table de Petty [1662] dite « table de Graunt ».

Âge Nombre de décès Nombre de survivants

0 0 100
6 36 64
16 24 40
26 15 25
36 9 16
46 6 10
56 4 6
66 3 3
76 2 1
80 1 0

Évidemment, la table de mortalité se déduit par différence de la table de survie. Par


abus de langage, on parle parfois d’une table de mortalité pour désigner un ensemble
de tables (hommes et femmes, mortalité et survie, etc.).

veuvage, et s’il désire également protéger son ou ses enfants, il


lui faudra prendre une rente sur plusieurs têtes. Bien sûr, il existait
des évaluations traditionnelles pour les rentes viagères, puisque
la table d’Ulpien donnait dès le IIIe siècle les barèmes applicables
[Le Bras, 2000, p. 223-231]. Cependant, ces estimations étaient
purement conventionnelles et ne pouvaient garantir la péren-
nité d’une institution qui aurait offert des rentes à ce taux. Pour
évaluer tous ces contrats dans une perspective de rentabilité, il
faut disposer d’une table de mortalité (encadré).

Du risque-espérance au risque-dispersion

Dans les années 1780, l’espérance mathématique du sinistre


n’apparaît plus comme une mesure appropriée pour le risque
encouru par l’assureur. La convergence asymptotique des paie-
ments vers leur espérance n’était qu’une limite avant laquelle on
pouvait faire banqueroute en cas de multiplication anormale des
sinistres (il s’agit de l’occurrence rapprochée de sinistres qui n’ont
pas une cause commune, car on exclut depuis toujours du champ
de l’assurance les phénomènes anormaux qui modifient la
22 LA NOTION DE RISQUE EN ÉCONOMIE

Évaluation des rentes

Considérons la table de survie : on appelle St le nombre de survivants à l’âge t sur une


population dont le dernier survivant décède à l’âge N.
L’espérance de vie résiduelle d’un individu d’âge n est :
N N–n
S St S Sn + t
t=n+1 t=1
ou .
Sn Sn
La valeur V d’une rente qui paye 1 i chaque année de la vie d’un individu d’âge n
est obtenue en actualisant les paiements :
N–n
V= SS S
t=1
n+t

n
× 1 .
(1 + r)t
Où r représente le taux d’intérêt courant.
Dans le cas d’une rente de veuvage, si l’indice f désigne les valeurs de la table de
survie de la femme et l’indice h celles de la table de survie du mari, on a :
Nh – nh Nf – nf

V= SS
t=1
nh – Snh + t
Snh
S SS
i=1
nf + i

nf
× 1 .
(1 + r)i
(la première fraction décrit la probabilité que le mari soit mort, et la seconde celle que
l’épouse soit encore en vie).

« sinistralité » : cataclysmes naturels, guerres, etc.). Cette remise


en cause de la portée pratique de la loi des grands nombres est le
fait d’un petit nombre d’auteurs qui vont développer de nouvelles
mesures qu’on appelle aujourd’hui des indicateurs de dispersion.
L’idée fondamentale de ces auteurs est donc non plus seulement
de situer la moyenne, mais de décrire les limites dans lesquelles
les variations des phénomènes aléatoires peuvent fluctuer tempo-
rairement. On voit donc se développer d’un même pas la théorie
de la gestion des entreprises d’assurances et la représentation
statistique des phénomènes.
Le problème essentiel qui préoccupe l’un de ces auteurs,
Condorcet, est celui d’une accumulation néfaste de hasards. Une
telle loi des séries (Benoît Mandelbrot, soucieux d’éviter la confu-
sion avec les séries mathématiques, préfère parler de loi des erreurs
en rafale) pourrait menacer la solvabilité de l’assureur. Pour éviter
ce phénomène, Condorcet [1784] propose de fixer les primes de
sorte que l’assureur n’ait qu’une chance extrêmement faible de ne
pouvoir assurer les paiements. Il introduit donc un chargement sur
les primes dont la fonction n’est pas seulement d’assurer les frais
de gestion de l’assureur, mais aussi la sécurité des rembourse-
ments. C’est donc autant l’intérêt de l’assureur que celui de
LE RISQUE PROBABILISÉ 23

effectivement le cas, la compagnie


L’histoire des tables d’assurances n’aurait pas pu honorer le
de mortalité paiement des rentes au-delà de l’âge
moyen, elle aurait donc été conduite à
L’histoire des tables de mortalité la faillite : voici un risque embarrassant.
commence en 1662 avec la publication Bernstein [1998] rappelle que les tables
sous le nom d’un certain John Graunt de mortalité (dite « de Northampton »)
d’un libelle intitulé Natural and Political utilisées par Price avaient plutôt
Observations mentioned in a following tendance à surestimer la vie moyenne
Index and made upon the Bills of Morta- (on considérait les rentiers ou d’autres
lity qui contient le premier exemple du populations favorisées), ce qui condui-
genre. Comme l’a récemment montré sait donc à surestimer le prix de vente
Le Bras [2000], Graunt est un pseudo- des rentes viagères ; en revanche, la
nyme de William Petty, le père de l’arith- même table, utilisée par l’État pour
métique politique, c’est-à-dire de vendre des rentes de veuvage, a causé
l’application de méthodes quantitatives des pertes très importantes (p. 131).
aux questions politiques (y compris Pour comprendre comment la même
l’économique et le social). table de mortalité peut favoriser ou
Malgré le titre de l’ouvrage du ruiner un assureur, présentons les prin-
pseudo-Graunt, cette première table cipes d’évaluation de ces différents
n’est pas déduite des observations, mais contrats. Dans le cas de l’assurance-
obtenue par un procédé a priori que Le décès, on va considérer seulement la
Bras détaille dans son ouvrage. Pour que probabilité de décès dans la période
ces tables servent au calcul du prix des (nombre de décès divisé par nombre de
rentes viagères, il fallait qu’elles repré- survivants). Pour les rentes, les calculs
sentent les véritables lois de mortalité. sont bien plus ardus car ils combinent
Dupâquier [1996] dresse un inventaire probabilité et actualisation ; on mani-
méticuleux des progrès accomplis pule donc des séries de deux sortes
depuis la première table véridique, celle (espérance de vie résiduelle et valeur
de Halley (l’homme de la comète) actuelle des annuités futures). On peut
dressée d’après les observations de la toutefois comprendre que si la table de
ville de Breslau en 1693, jusqu’aux Northampton surestimait l’espérance de
années 1760. Même s’il commet l’erreur vie, elle surestimait la durée durant
classique d’attribuer la première table à laquelle il fallait verser la rente et donc
Graunt, Dupâquier montre bien les augmentait la valeur V payée par le sous-
enjeux de la recherche. Les auteurs en cripteur. En revanche, on surestimait
particulier sont conscients des aussi le temps à attendre avant le paie-
problèmes liés aux biais statistiques : les ment des rentes de veuvage. En suresti-
populations qu’on observe pour consti- mant le temps avant d’effectuer les
tuer les tables de mortalité ne sont peut- versements, on diminuait leur valeur
être pas représentatives des clients actuelle et donc on sous-estimait la
potentiels des compagnies d’assu- valeur actuelle des annuités à payer.
rances. Même si on a très vite compris
que la durée de vie des hommes et des
femmes n’obéissait pas aux mêmes lois,
il restait de grandes incertitudes. Ainsi,
on concevait que les acheteurs de rentes
viagères le font parce qu’ils pensent
vivre plus longtemps que la moyenne de
leurs contemporains ; et si c’était
24 LA NOTION DE RISQUE EN ÉCONOMIE

l’assuré que vise Condorcet (les auteurs ultérieurs ne


considéreront plus que le point de vue et les intérêts de l’assu-
reur-commanditaire). Malheureusement, le marquis ne dispose
pas d’un outil mathématique adapté à la poursuite de son idée.
La difficulté analytique du problème tient ici au fait que l’on
s’intéresse à un portefeuille de contrats d’assurance et donc à une
somme de variables aléatoires. Il faut attendre la mise au point
par Laplace d’une approximation des sommes de variables aléa-
toires (il s’agit de la méthode de Laplace et non du théorème central
limite, voir Pradier [2003]) pour que la théorie du risque puisse se
développer. Par « théorie du risque » ou « théorie mathématique
du risque », on entend après Laplace ces calculs relatifs à la sécu-
rité financière de l’entreprise d’assurances. Largement diffusés au
XXe siècle [voir par exemple Cramér, 1930], ces calculs serviront de
modèle à la législation prudentielle régissant les assurances (voir
infra, chapitres V et VI).

Métaphores du risque

Les progrès du calcul actuariel à la fin du XVIIIe siècle sont d’une


grande importance théorique et pratique car l’analogie entre déci-
sion économique et décision statistique qui y apparaît structure
durablement le discours des théories économique et statistique de
la décision.

La décision économique

La naissance d’une conception abstraite du risque et de la déci-


sion se manifeste à l’occasion de la rencontre entre deux types
d’applications des probabilités.
Du côté des jeux de hasard, on pourrait craindre de retourner
aux considérations futiles avec le problème de Pétersbourg, mais ce
problème est perçu tout au long du XVIIIe siècle comme la pierre
de touche des conceptions probabilistes. Si on calcule la mise du
joueur conformément à la justice, par l’espérance mathématique,
alors on doit convenir qu’il faut payer une somme infinie pour
acquérir le droit à jouer : le paradoxe réside dans la contradic-
tion entre la théorie (qui prescrit une mise infinie) et le bon sens
(qui l’interdit). Une réponse selon la justice n’est toutefois pas
entièrement satisfaisante, dans la mesure où elle n’a rien à faire
dans un tel jeu. La plupart des auteurs proposent donc une
réponse raisonnable, c’est-à-dire conforme aux intérêts d’une seule
LE RISQUE PROBABILISÉ 25

Problème ou paradoxe de Pétersbourg

L’histoire commence avec une lettre du 9 septembre 1713 de Nicolas Bernoulli à


Montmort, où le Bâlois propose un jeu particulièrement étrange : « A jette en l’air
une pièce de monoye, B s’engage à lui donner l’écu, si le côté de la Croix tombe
le premier coup, 2, si ce n’est que le deuxième, 4, si c’est le troisième coup, 8, si
c’est le quatrième, etc. »
L’étrangeté du jeu vient de ce que sa durée peut être (avec une probabilité
infime) infinie. Montmort trouve bien la « chance de Paul », c’est-à-dire son espé-
rance mathématique de gain : elle est infinie. En effet, A possède une chance sur
deux de gagner un écu, une chance sur 4 d’en gagner 2, une chance sur 8 d’en
gagner 4, etc. Son espérance mathématique vaut donc :
1 1 1 1 1
A= ×1+ ×2+ ×4+ × 8 +… + n – × 2n – 1 + …
2 4 8 16 2
+p +p
= S 21
n=1
n
× 2n – 1 =
n=1
S 21 = + p.

C’est la publication, en 1738, de l’article de Daniel Bernoulli dans les Mémoires


de l’Académie des sciences de Pétersbourg, qui a conduit au nom actuel de ce
problème initialement posé par son cousin.
Le problème vient de ce qu’aucun joueur ne miserait ne serait-ce que 100 écus
à ce jeu. La théorie de l’espérance ne rend donc pas compte du comportement des
joueurs. Daniel Bernoulli propose, contre son cousin Nicolas, de ne plus raisonner
en termes de juste prix du jeu, à l’aide de l’espérance mathématique. Il entend
fonder la décision sur le bon sens mercantile. Considérant qu’un sou a plus de
valeur pour un pauvre que pour un riche, il écrit que l’utilité U d’une somme est
inversement proportionnelle à la richesse déjà possédée W, d’où :
dW dW
dU = b. soit en intégrant #dU = #b. ⇒ U = b.lnW.
W W
+p
Dès lors, on peut évaluer le jeu en calculant V (W) = S 21
n=1
n
× ln (W +2n – 1), où

W représente la richesse initiale de l’agent. Plus précisément, la valeur du jeu vaut


exp V (W) — W (comme on a transformé la valeur des paiements par la fonction
logarithme, il faut opérer la transformation inverse pour retrouver la vraie valeur).
Bernoulli montre par des exemples que ce critère d’évaluation rend compte
des pratiques des marchands, que ce soit en matière d’achat d’assurance ou de
division des risques. Dès lors, sa théorie lui paraît une théorie de la décision
rationnelle.

des deux parties. Sous cet angle, la question apparaît comme


une question de décision économique : combien peut-on raison-
nablement miser dans une opération qui proposerait la même
distribution des gains que le jeu présenté ?
La plus célèbre réponse au problème de Pétersbourg a été
donnée par Daniel Bernoulli [1730], mais elle n’est ni la première
26 LA NOTION DE RISQUE EN ÉCONOMIE

ni la seule [Jallais et Pradier, 1997]. Il est très important de remar-


quer que Daniel Bernoulli justifie son évaluation de la mise par
des exemples empruntés au comportement des hommes
d’affaires : il a donc bien quitté le domaine des jeux de hasard
pour celui de la décision économique.
Bernoulli a cependant été largement attaqué par d’Alembert
et après lui Condorcet au motif que le choix de la fonction
qui transforme les gains est arbitraire. Si d’Alembert a proposé
une myriade de solutions exploratoires, en particulier une
transformation des probabilités plutôt que des gains [Rieucau,
1998 ; Pradier, 2005a], Condorcet a choisi de justifier une
seule approche où le risque joue un rôle cette fois enfin expli-
cite : « Un homme raisonnable ne doit se livrer au commerce que
dans le cas où il trouve une probabilité assez grande qu’il reti-
rera ses fonds, avec l’intérêt commun et le prix de son travail. Il
lui faudroit sans doute une probabilité à peine différente de la
certitude de ne pas perdre la totalité de ses fonds […] »
[Condorcet, 1784].
Le risque apparaît donc dans cette perspective comme la proba-
bilité d’un événement désagréable. La décision condorcétienne
consiste à rendre maximum le gain en limitant le risque à un
niveau donné. À peu près à la même époque, Laplace retient le
même critère dans un contexte différent.

La décision statistique

Le problème de Laplace est différent : à l’époque, il est question


d’estimer la population du pays par sondage. On retrouve encore
le dessein politique sous-jacent aux premiers calculs de mortalité,
à une époque où l’on parlait plus volontiers d’arithmétique poli-
tique que d’économie politique [Martin, 2003]. Le dénombre-
ment exhaustif (recensement) étant trop coûteux, sans compter
les obstacles philosophico-politiques, on choisit d’obtenir la
population totale comme un multiple du nombre des nais-
sances (qui font déjà l’objet de statistiques, voir Bru [1988]). Il
faut donc estimer un multiplicateur des naissances sur un échan-
tillon de la population. Évidemment, plus l’échantillon est grand,
plus fiable sera l’estimation, mais plus coûteuse sera l’enquête.
Laplace propose donc de minimiser le coût de l’enquête tout en
limitant le risque d’erreur à un seuil choisi arbitrairement — le
problème est formellement identique à celui de Condorcet. Ainsi
donc Laplace, en plus d’inventer les intervalles de confiance et la
théorie des tests d’hypothèse, fait apparaître un concept de risque
LE RISQUE PROBABILISÉ 27

totalement abstrait et des outils mathématiques pour l’appré-


hender dans des situations diverses.
La diffusion de ces travaux n’a cependant pas dépassé le cercle
des mathématiciens, en particulier la grande école française de
Poisson à Poincaré, qui discute ces problèmes au long du
XIXe siècle.
III / Le risque de l’économie politique
« Les économistes [classiques anglais] ont laissé à
Marx les mains libres pour produire sa caricature du
capitaliste rapace exploitant la force de travail. »
Murphy [2003, p. 4]

Dès l’époque moderne, l’économie vulgaire est pétrie de dictons


relatifs au risque : « Un bourgeois qui ne risque point son argent
n’en peut retirer qu’au taux du Roy », écrivait Furetière.

Jeux de labour et du hasard

Smith étudie, entre autres, le problème de la répartition :


comment se forment les revenus (salaires, profits, rentes) des trois
classes sociales (travailleurs, capitalistes, propriétaires terriens). Le
philosophe écossais réduit la place du risque dans l’économie à
un rôle marginal dans cette question de la répartition : en effet,
le risque influence les revenus des individus, mais il disparaît à
l’échelle macroscopique des classes sociales qui intéresse l’auteur
en dernière analyse.
À l’époque où Smith écrit, toute l’industrie textile vit au rythme
des récoltes américaines de coton, de la tonte des moutons, etc.
Ce caractère saisonnier ne crée pas seulement un rythme, il
témoigne d’un risque véritable et omniprésent ; et Smith de citer
encore les maçons « qui ne peuvent travailler par grand froid ni
par mauvais temps ». Face à ce risque, la réaction des travailleurs
consiste à exiger un revenu superactuariel (c’est-à-dire supérieur à
l’espérance mathématique). Parlant du maçon, Smith continue :
« En conséquence, ce qu’il gagne quand il est employé doit non
seulement le faire vivre quand il chôme, mais encore lui offrir une
compensation pour ces moments d’anxiété que la pensée de sa
LE RISQUE DE L’ÉCONOMIE POLITIQUE 29

situation précaire ne manque de lui occasionner. » La saisonna-


lité d’une activité entraîne donc une surrémunération (en termes
d’espérance) par rapport au même travail (ou au même intérêt)
s’il avait été permanent, ou par rapport à des travaux présentant
une identité des « autres caractéristiques » (pénibilité du travail,
difficulté d’apprentissage, crédit nécessaire, probabilité de succès).
Le caractère superactuariel de la rémunération des risques ne doit
pourtant pas être considéré comme un cas général.
En effet, un second type de risque existe. Il concerne la proba-
bilité de succès dans un emploi (« envoyez [votre fils] apprendre le
droit, il y a au moins vingt à parier contre un qu’il ne pourra vivre
de ce qu’il a appris ») ou un investissement (les profits du capital
« sont en général moins incertains dans le commerce national que
dans le commerce étranger »), opération qu’il compare explicite-
ment à l’achat d’un billet de loterie. Smith expose la notion de jeu
équitable (où l’espérance de gain égale la mise), et poursuit : « La
loterie du droit est cependant loin d’être parfaitement équi-
table ; […] comme pour la plupart des professions libérales et
honorables, elle est évidemment sous-récompensée en ce qui
concerne le gain pécuniaire. » Il en va de même du capital : « Le
taux de profit ordinaire croît toujours plus ou moins avec le
risque. Toutefois, il ne croît pas dans la même proportion, et donc
ne le compense pas tout à fait. »
Quel mécanisme étrange est donc à l’œuvre dans cette affaire,
quel phénomène explique la différence entre les réponses aux
deux manifestations du risque ? Smith décrit sobrement « la
confiance naturelle que chacun a plus ou moins, non seulement
dans ses capacités, mais dans sa bonne fortune ». Quelques lignes
plus loin, il est cependant plus acerbe : « L’outrecuidance et la
suffisance dont la plus grande partie des hommes font preuve
quand ils jugent leurs capacités sont un mal antique, remarqué
par les moralistes et les philosophes de tout temps. La présomp-
tion absurde de la bonne fortune est passée plus inaperçue. » Dans
le cas du maçon, une suffisance de cet ordre se traduirait bien
vite par la ruine, et le maçon n’aurait d’autre issue pour survivre
que de mendier. Mais les avocats, les chanteurs, les entrepreneurs
aventureux, confiants dans leur bonne étoile, doivent souvent se
contenter de revenus misérables — eu égard à leur qualification,
à leur travail — quand quelques-uns sont dans l’opulence.
Chez Ricardo, qui n’a pas le même penchant pour la philosophie
morale, la place accordée au risque devient logiquement nulle :
l’auteur n’emploie le mot que huit fois dans tout les Principes
d’économie politique et de l’impôt. Mais l’absence de discours explicite
30 LA NOTION DE RISQUE EN ÉCONOMIE

n’empêche pas Ricardo de sous-entendre : ainsi écrit-il qu’un


homme « peut accepter de renoncer à une partie de son profit
monétaire en contrepartie d’un emploi plus sûr, plus sain, plus
facile ou présentant tout autre avantage réel ou imaginaire ». L’idée
de prime de risque apparaît ici en creux, puisque l’auteur indique
qu’on peut préférer un profit inférieur si le risque diminue ; et
Ricardo d’évoquer discrètement la tonalité psychologique des déve-
loppements de Smith sur la question (en indiquant la nature « réel
[le] ou imaginaire » de la sécurité des emplois du capital).

La « tradition française »

Face au déni (de l’importance) du risque, Schumpeter [1954]


identifie une tradition française, qu’il caractérise par l’invention
(et l’usage systématique) de la figure de l’entrepreneur : Cantillon,
Turgot, Say seraient les membres de cette filiation théorique. De
l’entrepreneur, on est tenté de glisser au risque et de relire la thèse
de Schumpeter en la recentrant sur ce dernier concept.

Cantillon : l’entrepreneur comme classe sociale

Pour Cantillon, l’agent essentiel de l’économie — cause de la


production et de la circulation des richesses —, c’est l’entrepre-
neur. Ce dernier se distingue du reste de l’humanité : des proprié-
taires terriens parce qu’il dépend de leurs revenus, des autres
travailleurs parce qu’« [il est] à l’incertain » ou « à gages incer-
tains » [Cantillon, 1755, p. 30-31]. Plus précisément, sa fonction
consiste à « payer […] une somme fixe d’argent […] sans avoir
la certitude de l’avantage qu’il tirera de cette entreprise »
[Cantillon, 1755, p. 28]. Achat des facteurs de production pour un
prix convenu, revente du produit à un prix inconnu au début
de l’activité : l’entrepreneur est donc l’agent économique qui
affronte le risque et obtient un revenu en dépit de ce risque ;
début d’une lignée théorique qui, au-delà de Jean-Baptiste Say,
s’épanouit chez Knight. Début vraiment ? Un tel entrepreneur est
déjà présent chez Vauban, par exemple Vérin [1982, p. 105-120].
Quoi qu’il en soit, la distinction est approximative à force d’être
exagérée : existe-t-il seulement un salarié dont les gages ne soient
pas incertains ? À la mort de son maître, le Sganarelle de Molière
déplore bruyamment ses gages perdus ; Da Ponte, au contraire,
montre (à la scène 2 de l’acte I de son Don Giovanni) que la vie
des valets s’accommode de gratifications inattendues. On peine à
LE RISQUE DE L’ÉCONOMIE POLITIQUE 31

recevoir la distinction autrement que comme un principe


théorique.
À cette première exagération approximative, Cantillon doit en
ajouter une seconde. Pour être à l’incertain, l’entrepreneur ne
devrait idéalement pas posséder de capital qui le garantirait contre
les infortunes : « Si quelque habitant à gros gages ou quelque
entrepreneur considérable a épargné du bien ou des richesses […],
on pourra à juste titre le regarder comme indépendant jusqu’à
concurrence de ce fonds » [Cantillon, 1755, p. 32]. Or il est dans
l’ordre des choses, en ce XVIIIe siècle aventureux, que les entrepre-
neurs fortunés acquièrent des terres — c’est le cas de Cantillon lui-
même dont la vie, pour être mystérieuse, n’en évoque pas moins
celle de son compatriote Barry Lyndon. Dans la mesure où l’entre-
preneur est amené à accumuler, il échappe à sa condition, si bien
que ce statut peut sembler transitoire par essence.

Say : l’entrepreneur sans risque

À vrai dire, la prétendue tradition française est peut-être un


fantasme comme Menudo et O’Kean [2003] l’ont montré :
« L’entrepreneur, comme quatrième agent de la production,
n’appartient pas à cette tradition » (p. 1). S’il est inutile donc de
perdre du temps auprès de Turgot, on considérera un instant Say,
qui fait jouer à l’entrepreneur un rôle idéologique non négli-
geable. La Révolution française peut être analysée comme la subs-
titution d’un ordre dynamique et juste à un ordre immuable et
fondé sur l’héritage : « Une fortune acquise par un héritage, par
le jeu, par une faveur de cour, une spoliation, n’est pas une
fortune faite ; c’est une richesse perdue par les uns et gagnée par
les autres » [Say, 1821, p. 388 n. 35].
Il n’y a cependant pas de risque ; les facteurs qui concourent à
la production sont, comme chez Smith et Ricardo, au nombre de
trois : « Chacun de nous est possesseur d’un fonds productif quel-
conque. Nous avons tous soit des fonds de terre, soit des capitaux
placés, soit des facultés industrielles ; et probablement plusieurs
personnes ici possèdent à la fois une partie de ces trois sources de
revenus » [Say, 1818, p. 128].
À peine remarque-t-on que le « travail » s’est mué en « facultés
industrielles ». L’entrepreneur se contente de combiner ces
facteurs et tire son revenu de cette combinaison, pas d’un hypo-
thétique risque. Ainsi Say peut-il conclure : « Il n’y a donc de
moyen de faire véritablement une fortune nouvelle, que dans les
entreprises industrielles ou des épargnes longtemps soutenues sur
32 LA NOTION DE RISQUE EN ÉCONOMIE

les revenus que l’on a, quelle qu’en soit la source » [Say, 1821,
p. 441] ; pour que la notion d’entrepreneur-risqueur pur puisse
apparaître, il fallait que la capacité d’entreprendre fût effective-
ment découplée de la propriété du capital.

Les Américains avant Knight

C’est aux États-Unis que les sociétés par actions fleurissent


[Debouzy, 1972] car le vieux continent est resté suspicieux à leur
égard [Pradier, 1997] : le terme « actionnaire » caractérise tout au
long du XIXe siècle la crédulité de celui qui achète un billet de
loterie [Pradier, 1994]. Cette particularité historique du capita-
lisme américain va susciter une innovation théorique remar-
quable [Pradier et Teira-Serrano, 2000].

Capital, risque et forme sociale

En Europe, la figure du capitaliste l’a emporté sur celle de


l’entrepreneur car pour entreprendre, il faut posséder du capital :
le rôle des banques de second rang n’est pas encore de prêter, et
les rentiers ne confient leurs économies qu’à l’État. Ceci reste vrai
tant en France [Bergeron, 1978] que dans le reste de l’Europe
[Landes, 1975] et explique la domination de l’entreprise familiale
pendant la première révolution industrielle. Si le capitaliste n’est
pas distinct sociologiquement de celui qui entreprend, il n’y a pas
de raison pour la théorie de les distinguer.
Le tableau change aux États-Unis. Non que les sociétés par
actions y aient été inventées : elles existent en Europe mais sont
soumises à des procédures d’autorisation qui les y rendent excep-
tionnelles pendant une bonne partie du XIXe siècle. Autre particu-
larité américaine remarquable : au contraire de l’Europe, les
États-Unis connaissent une période d’anarchie monétaire avec
l’épisode de la banque libre (1837-1863) : 7 000 banques mettent
en circulation des monnaies privées qui peuvent perdre toute
valeur avec la faillite de l’établissement émetteur. Face à cette
monnaie fiduciaire qui ne peut valoir, au plus, que sa valeur faciale,
les titres d’entreprise représentent la possibilité — largement théo-
rique — de voir leur cours dépasser leur valeur d’émission. La
confiance des actionnaires américains s’explique d’abord par
l’absence de monnaie fiable. En effet, les entrepreneurs américains
se spécialisent rapidement dans l’extorsion au point de mériter la
réputation de robber barons (barons pillards) [Debouzy, 1972].
LE RISQUE DE L’ÉCONOMIE POLITIQUE 33

Tout l’intérêt de cette configuration est que sont effective-


ment distinguées, bien avant Berle et Means [1932], la propriété
du capital et sa gestion. Les excès manifestes qui accompagnent
ce capitalisme particulièrement sauvage suscitent également une
polémique autour de la rémunération des entrepreneurs. La
réponse des économistes à la violence des troubles sociaux qui
marquent la fin du XIXe siècle semble particulièrement pâle.

Un faux classique

Clark affirme que « les risques des affaires sont supportés à leur
valeur actuarielle subjective » [Clark, 1892, p. 42]. Si cette formule
est un peu obscure, elle signifie simplement que la prime de rende-
ment liée à l’assomption des risques d’entreprise est calculée
suivant le principe de Bernoulli. Clark envisage aussi le cas des
risques des affaires, qu’il considère, comme les classiques, comme
supportés par les capitalistes : « Il va sans dire que les risques de
l’entreprise retombent sur le capitaliste. L’entrepreneur, comme tel,
a les mains vides. Un homme qui n’a rien à perdre ne peut pas
supporter un risque » [Clark, 1892, p. 46].
La nouveauté n’est pas dans l’accent mis sur la « question
sociale », mais dans la nature précise de la question à laquelle
l’auteur entend répondre :
« Le bien-être des classes laborieuses dépend du montant
qu’elles obtiennent ; mais leur attitude envers les autres classes
— et, en conséquence, la stabilité de l’ordre social — dépend prin-
cipalement de l’adéquation de ce montant, quel qu’il soit, avec
ce qu’elles ont produit. […] La société est accusée d’“exploiter le
travail”. “Les travailleurs, dit-on, sont régulièrement volés de ce
qu’ils produisent. Tout ceci se passe sous couvert de la loi, et via
le fonctionnement naturel de la concurrence.” Si ce chef d’accu-
sation était justifié, tout honnête homme devrait devenir socia-
liste ; et son ardeur à transformer le système industriel mesurerait
et exprimerait alors son sens de la justice » [Clark, 1899, p. 4].
Cette citation tirée de son ouvrage sur la répartition de la richesse
fixe dès les premières pages l’enjeu de la théorie : décider si les
thèses des socialistes marxistes sont justifiées ou non. La réponse
de Clark ne laisse évidemment aucun doute : la libre concurrence
conduit à une juste répartition (l’expression « justice sociale »
date de la fin des années 1910). On mesure donc la différence
avec le point de vue des auteurs anglais : les économistes clas-
siques étaient conscients de l’existence de classes sociales et de
l’antagonisme de leurs intérêts (en dehors des phases de
34 LA NOTION DE RISQUE EN ÉCONOMIE

croissance qui pouvaient profiter à tous). Clark, au contraire,


comme tous les néoclassiques, substitue à l’analyse de la société
en classes une analyse de l’économie à partir des individus. Les
faits sociaux, les rapports de force s’évanouissent donc sous les
apparences de contrats entre individus dont les caractéristiques
individuelles sont seules déterminantes.
On pourrait s’étonner de voir si longuement citer Clark, qui
exclut précisément le risque de son analyse : comme chez Say,
l’entrepreneur ne produit à ses yeux qu’un service de coordina-
tion. Cependant, la structure de l’œuvre de Clark annonce celle
de Knight. En effet, Clark oppose statique et dynamique : schéma-
tiquement, il apparaît que le profit est impossible dans l’état
statique, que seule la dynamique lui permet de se constituer ;
mais la théorie ne peut traiter que les phénomènes statiques.
Knight reprendra cette opposition, mais en déplaçant la nature de
la contribution entrepreneuriale de la coordination à l’incertitude.

Au risque de l’incertitude

En 1921, deux ouvrages majeurs introduisent la notion d’incer-


titude. Cette coïncidence remarquable ne doit pas faire oublier les
points de vue très différents de leurs auteurs.

Frank Hyneman Knight : la distinction « canonique »

Lorsque la thèse de Knight est publiée en 1921, la question


sociale est passée au second plan et les néoclassiques ont été
temporairement défaits.
La distinction par Knight du risque et de l’incertitude est large-
ment trompeuse car l’auteur américain reste vague dans les
formulations. Ainsi écrit-il : « Nous pouvons aussi employer les
termes de probabilité “objective” et “subjective” pour désigner
respectivement le risque et l’incertitude » [Knight, 1921, p. 233].
Sous la plume de Knight, la « probabilité subjective » — très
décriée à cette époque qui précède les travaux bayésiens de Savage
et de Finetti — désigne une probabilité dénuée de base ration-
nelle (voir p. 225 : « il n’existe pas de fondement valide d’aucune
sorte… »). Cependant, la fin de la phrase laisse supposer des raffi-
nements : « …car ces expressions sont déjà en usage avec des
significations parentes de celles que nous proposons ».
Knight laisse entendre que sa distinction offrirait quelque chose
de plus que ses « parentes » et cette affirmation a entretenu la
LE RISQUE DE L’ÉCONOMIE POLITIQUE 35

curiosité des commentateurs. On cite alors souvent une (des


variantes de cette) phrase : « Pour conserver la distinction que
nous avons ébauchée dans le chapitre précédent entre une incer-
titude mesurable et une autre qui ne l’est pas, on peut utiliser le
terme risque pour désigner la première, et incertitude pour la
seconde » [Knight, 1921, p. 234].
Certains auteurs que l’on pourrait qualifier de knightiens
« fondamentalistes » s’appliquent alors à montrer que la pensée
knightienne est incompatible avec les représentations néoclas-
siques du risque. Mais il paraît difficile de voir dans cette « préci-
sion » de l’auteur autre chose qu’une maladresse : une (densité de)
probabilité, qu’elle soit objective ou subjective, est depuis Borel
une fonction mesurable. Ce qu’entend Knight, c’est qu’il est impos-
sible de déterminer objectivement cette probabilité : ni du point de
vue du calcul logique ou mathématique, ni du point de vue des
mécanismes cognitifs qui sont mis en jeu dans la formation du
jugement de probabilité.
Puisque la distinction knightienne semble grevée d’impréci-
sions, tournons-nous vers ses caractérisations. L’auteur les
emprunte à l’assurance. Discutant le « degré d’unicité » des
phénomènes, il écrit : « L’assurance s’occupe de ceux qui sont “à
peu près” classifiables, ou montrent un degré d’unicité assez
faible, mais les différentes branches de l’assurance montrent des
variations dans la précision des mesures de probabilité qu’elles
atteignent » [Knight, 1921, p. 247].
Knight décrit alors ces différentes branches : l’assurance sur la
vie est presque « mathématique », l’assurance-maladie est plus
aléatoire (l’assuré peut cacher une maladie ou un comportement
à risque), les contrats les plus étranges du Lloyd’s ne peuvent
reposer sur aucune statistique (assurance sur le « succès d’un
couronnement », sur le climat d’une région inconnue) et enfin
la vie des affaires, en plus de ne posséder aucune statistique,
expose l’assureur à un risque moral — c’est-à-dire à la possibilité
que l’assuré vaque mollement à ses affaires en attendant le
remboursement des manques à gagner consécutifs à sa négli-
gence. À la suite de ces exemples, l’auteur se garde de tracer une
frontière nette entre risque et incertitude : la concomitance d’un
risque moral et de statistiques valables constitue un problème, et
Knight s’abstient d’indiquer dans quelle catégorie il faut ranger de
telles situations. Knight indique clairement en revanche que la
vie des affaires n’est pas assurable, et attribue ce phénomène à
l’incertitude qui résulte de la concomitance du risque moral et
d’une absence de statistiques valables. En présentant des
36 LA NOTION DE RISQUE EN ÉCONOMIE

configurations dont on ne sait comment les classer, les caractéri-


sations n’éclairent donc pas beaucoup la distinction knightienne.
Une autre voie consiste alors à s’intéresser non pas à la nature
des probabilités elle-même, mais à la situation de décision :
« Nous devons observer que dans le cas où il n’y a qu’un seul
tirage, il n’y a aucune différence pour la conduite entre un risque
mesurable et une incertitude qui ne l’est pas » [Knight, 1921,
p. 234].
Knight pense donc toujours à l’opposition entre assurance et
vie des affaires. La connaissance des probabilités n’est pas tout, il
faut également que les tirages aléatoires soient répétés afin que
puisse jouer un principe de compensation : « Si la distribution
des issues dans un regroupement de cas est connue, alors il est
possible de se débarrasser de l’incertitude en regroupant, ou en
“consolidant” les cas » [Knight, 1921, p. 233-234].
La terminologie employée par l’auteur ne paraît pas évidente,
il faut entendre par « issues » (outcome) le concept d’événement
(ou état de la nature) résultant d’un tirage aléatoire, et par « cas »
(instance) un de ces tirages (une observation d’une variable aléa-
toire). Au bout du compte, on peut se demander si Knight ne se
contente pas d’énumérer les éléments qui séparent les risques
assurables de l’incertitude liée à la vie des affaires, essentiellement
non assurable. Dans la mesure où la connaissance des probabi-
lités et la répétition des tirages aléatoires indépendants sont deux
conditions nécessaires à l’assurance d’un risque, il suffit qu’une de
ces conditions manque pour que l’on puisse parler d’incerti-
tude. Peut-être faudrait-il situer l’apport de Knight à un autre
niveau : celui de la théorie de la connaissance. Pradier et Teira-
Serrano [2000] font le point sur ce sujet, en montrant en particu-
lier que Knight, bien que positiviste, s’oppose à la vision
pearsonienne de la science : il ne pense pas que le progrès de la
connaissance réduira l’ignorance à néant. Il suit donc le physio-
logiste et philosophe allemand Du Bois-Reymond sur le terrain de
l’ignorabimus : il existerait des domaines qui résisteront à jamais à
notre entreprise de connaissance. L’incertitude est consubstan-
tielle à notre humanité, en ce qu’elle témoigne non pas seule-
ment des limites de notre connaissance actuelle, mais aussi de la
résistance de certains objets même à l’« intelligence de Laplace »,
comme le soutient Du Bois-Reymond.
Ainsi, la distinction knightienne possède trois dimensions : elle
touche à la théorie de la connaissance, à la définition de la proba-
bilité et au caractère assurable des phénomènes économiques.
LE RISQUE DE L’ÉCONOMIE POLITIQUE 37

John Maynard Keynes

La thèse que Keynes soutient en 1909 était certes une thèse


de mathématiques, mais cette ébauche du Traité de la probabilité
constitue également une impressionnante synthèse sur la théorie
de la connaissance : Keynes se situe sous le patronage de Hume.
L’auteur propose en fait de fonder l’induction sur une nouvelle
conception de la probabilité dite logique, mais avant cela il décrit
négativement les conceptions possibles de la probabilité :
« On peut considérer que dans certains cas il n’existe pas de
probabilité du tout [1] ; ou bien que les probabilités n’appartien-
nent pas toutes à un ensemble de grandeurs mesurables [2] ; ou
encore que ces mesures existent toujours mais que, dans de
nombreux cas, elles sont et doivent rester inconnues [3] ; ou que
les probabilités sont mesurables, bien que nous ne soyons pas
toujours capables de les déterminer en pratique [4] » [Keynes,
1921, p. 33].
Cette typologie en creux a le mérite de faire apparaître de
manière simple les positions des différents théoriciens, par
exemple celle du positiviste Karl Pearson, dont l’influence sur
Knight est indéniable : son opinion est la dernière énoncée par
Keynes [4]. Pour Pearson, qui est statisticien, l’accumulation des
connaissances n’a pas de limite. Le progrès des connaissances
consiste à « déterminer en pratique » les grandeurs qui ne le sont
pas encore. Mais Knight lui-même tempère cette position par
l’ignorabimus de Du Bois-Reymond, ce qui le met certainement
dans la troisième catégorie : Knight pense qu’il existe des proba-
bilités objectives mais que l’incertitude nous empêche de les
connaître [3] (les knightiens fondamentalistes et antipositivistes
argumentent en faveur du premier type [1], mais cette interpré-
tation nous paraît insoutenable). Quant à Keynes lui-même, il se
revendique de la seconde variété puisqu’il tient que certaines
probabilités ne sont pas comparables [2] (c’est le sens dans lequel
il faut entendre ce « mesurable »).
La position de l’Anglais est assez délicate car elle est novatrice.
Keynes tente de dépasser l’opposition probabilité objective/proba-
bilité subjective dont les deux pôles sont grevés de paradoxes
[Arrous, 1982]. Cette reconstruction, qui vise précisément à éviter
les cercles logiques, appartient au grand mouvement axioma-
tique auquel participe Russell, ami de Keynes. Ce dernier propose
de dépasser l’opposition objective/subjective en donnant une
nouvelle définition logique de la probabilité :
38 LA NOTION DE RISQUE EN ÉCONOMIE

« Posons que nos prémisses consistent en quelque ensemble de


propositions h, et notre conclusion en quelque ensemble a, alors,
si la connaissance de h justifie une croyance rationnelle en a de
degré a, nous dirons qu’il existe une relation de probabilité de
degré a entre a et h » [Keynes, 1921, p. 4].
La probabilité est donc une relation entre deux groupes
d’énoncés : l’un constitue l’information préalable du sujet et
l’autre, la description de l’objet probabilisé. Remarquons le carac-
tère à la fois subjectif et objectif de la probabilité logique.
L’ensemble de propositions h est propre à l’individu qui établit
le jugement de probabilité. Dans la mesure où nous pouvons être
caractérisés par nos connaissances, ces connaissances nous défi-
nissent en tant qu’esprit. Et on peut dire que la relation de proba-
bilité repose sur un fondement subjectif. Toutefois, la relation
entre les deux ensembles de propositions n’est pas subjective ou
arbitraire, elle obéit aux lois de la raison. Si on peut conclure
certainement de h à a, par exemple, alors la certitude est ration-
nelle ; et, si ce n’est pas le cas, d’autres raisonnements supporte-
ront un degré de probabilité rationnel. C’est précisément cette
raison universelle qui confère un statut objectif à la relation de
probabilité.
Il faut attendre la fin des années 1930 pour que Keynes défi-
nisse l’incertitude non plus en référence à des situations cogni-
tives ou à leur formalisation logique, mais du point de vue
économique. On connaît bien sûr la fameuse citation de l’article
de 1937 :
« Par connaissance “incertaine”, je n’entends pas distinguer ce
que l’on considère comme certain de ce qui est seulement
probable. Le jeu de la roulette n’est pas, en ce sens, soumis à
l’incertitude, pas plus que ne l’est la perspective de voir tel Victory
bond tiré au sort. L’espérance de vie, pour sa part, est seulement
légèrement incertaine. Même le temps qu’il fera n’est que modé-
rément incertain. Le sens que je donne à ce terme est celui qu’il
prend lorsque l’on juge incertain la perspective d’une guerre euro-
péenne, le niveau du prix du cuivre ou du taux d’intérêt dans
dix ans, la date d’obsolescence d’une invention récente ou la
place des classes possédantes dans la société de 1970. Il n’existe
pour toutes ces questions aucun fondement scientifique sur
lequel construire le moindre calcul de probabilité. Tout simple-
ment : nous ne savons pas » [Keynes, 1937, p. 113-114].
Un autre aspect de la désignation par Keynes de l’incertitude
apparaît dans l’exemple célèbre du concours de beauté, tel qu’il est
décrit dans la Théorie générale (il faut toutefois rappeler que le
LE RISQUE DE L’ÉCONOMIE POLITIQUE 39

Traité de la probabilité présentait déjà un exemple voisin). Il s’agit


explicitement d’un risque endogène, qui ne peut être convenable-
ment décrit par des probabilités car il résulte des interactions que
décrit la théorie des jeux (que nous avions exclue en introduction
du champ de cette enquête. Signalons toutefois que la théorie des
jeux traite en général de situations simples avec peu de joueurs).

Les conséquences (théoriques) de l’incertitude

Chez Keynes, la mise en avant de l’incertitude accompagne la


démolition de la statue du commandeur : l’entrepreneur, d’abord,
est déchu de sa surhumanité démiurgique, il n’est plus comme
chez Schumpeter le visionnaire de l’avenir. En proie aux « esprits
animaux », il ne décide pas mais subit sa chimie personnelle.
Aucun calcul ne pourrait le guider, car le calcul économique,
deuxième victime de Keynes, repose sur les bases insanes d’une
certitude qui n’existe pas. La théorie économique keynésienne se
tient en deçà de cette lecture « radicale », qui a pris corps chez
les héritiers hétérodoxes de Keynes. Ainsi, les postkeynésiens
mettent l’incertitude « radicale » au cœur de leur critique de la
théorie économique néoclassique. Un aspect de cette critique
consiste à privilégier les institutions génératrices de coordina-
tion et de stabilité, plutôt que la déréglementation instituant une
flexibilité délétère. Les « Autrichiens », héritiers de Friedrich von
Hayek, donnent eux aussi une place prépondérante à l’incerti-
tude, mais pour exprimer leur confiance dans les marchés, conçus
comme des mécanismes adaptatifs, produits d’un ordre spon-
tané. Postkeynésiens et Autrichiens se retrouvent sur la critique
du calcul économique et de la mathématisation en général, mais
leurs recommandations de politique économique sont radicale-
ment opposées : pour les premiers, le politique doit ordonner
l’économique afin de réduire l’incertitude ; pour les seconds,
l’économique est un cosmos qui s’organise tout seul et qu’il faut
préserver des interventions extérieures. Curieusement, Knight,
avec le même accent sur l’incertitude et le même scepticisme vis-
à-vis des mathématiques, a conduit au triomphe de ceux-ci.

Les conséquences paradoxales de l’incertitude knightienne

Avec le concept d’incertitude, Knight montre que la contribu-


tion de l’entrepreneur n’est pas mesurable : il faut donc aban-
donner la question de la répartition plutôt que de chercher à la
résoudre [voir Pradier et Teira-Serrano, 2000]. Cette problématique
40 LA NOTION DE RISQUE EN ÉCONOMIE

relève de la morale (de ce qui doit être), et non de la science posi-


tive (qui décrit ce qui est). Knight choisit de se consacrer à l’étude
des phénomènes qui relèvent de la science positive, par exemple
aux « institutions créées pour répondre à l’incertitude », c’est-
à-dire essentiellement à l’entreprise. Pour l’Américain, les entre-
preneurs ne sont pas les managers, qui reçoivent un salaire, mais
les actionnaires. Mais il paraît difficile, au début des années 1920,
à une époque où les actions se diffusent rapidement, de prétendre
que tous les petits porteurs sont autant d’entrepreneurs à part
entière. Knight distingue alors entre des actionnaires passifs et
« un petit groupe d’insiders qui sont les vrais propriétaires de la
firme ». À un échelon supérieur, la société tout entière constitue
l’« entrepreneur ultime » de cette « machine à satisfaire les
désirs ».
Knight jouit d’une double filiation : aux États-Unis, il a rapide-
ment bénéficié d’une position institutionnelle favorable, à travers
la direction du département d’économie de l’Université de
Chicago pendant plus de vingt ans (jusqu’à la fin des années
1940), puis la présidence de l’American Economic Association.
Knight, également fondateur avec Hayek, Popper et d’autres de
la très libérale Société du Mont Pèlerin, passe dans ces diverses
institutions le témoin à une jeune génération de Friedman, de
Stigler, qui seront les pères spirituels des fameux « Chicago boys »
des années 1980 (Fonseca [2004] souligne pour sa part les diffé-
rences qui séparent les deux générations). Knight possède égale-
ment des disciples en Angleterre : alors que Risk, Uncertainty and
Profit était passé complètement inaperçu à sa sortie en 1921, le
livre fait l’objet, en 1929, d’un séminaire interne à la London
School of Economics. Plus qu’ailleurs, le choix de cet ouvrage
témoigne du virage néoclassique chez les économistes anglais.

Et après ?

À la fin des années 1950, Arrow et Debreu proposent un modèle


qui résume et généralise les résultats de Hicks et Samuelson. La
généralisation est suffisamment vaste pour réintroduire le risque
et les entrepreneurs. La théorie est toutefois si permissive qu’elle
laisse libre cours à des interprétations qui ne l’épuisent pas.
LE RISQUE DE L’ÉCONOMIE POLITIQUE 41

Le risque et l’équilibre général : la théorie de la valeur

Bien qu’Arrow ait, dès le début des années 1950, envisagé le


« rôle des valeurs boursières pour la répartition la meilleure des
risques », c’est Debreu qui donne la version la plus générale du
traitement de l’incertitude dans sa Théorie de la valeur, en particu-
lier dans le chapitre VII. Cet ouvrage, qui est considéré comme
l’exposé le plus abouti de la tradition walrassienne, présente de
façon particulièrement claire l’inflexion par rapport à la probléma-
tique classique de la répartition. Dans la Théorie de la valeur,
l’« incertitude » (c’est le terme employé par Debreu) provient de
la coexistence de plusieurs états de la nature (Debreu [1959] parle
encore d’événements) — dont un seul se réalisera — à chaque
moment de l’avenir. Ces états de la nature sont autant de
« mondes parallèles » puisqu’il existe en fait un système de prix
d’équilibre (et éventuellement des fonctions d’utilité ou de
production) différents dans chacun d’eux. Notons, comme
certains exégètes knightiens l’ont suggéré, qu’on peut imaginer
une incertitude plus radicale que celle de Debreu : dans un monde
où le nombre des états de la nature n’est pas connu, les échangistes
ne peuvent s’accorder sur la nomenclature des biens. Pour n’être
pas totale, l’incertitude présente dans la Théorie de la valeur porte
néanmoins sur tous les biens : premier point de la généralisation.
Deuxième point, le profit est également possible. En effet, dans
le souhait évident d’étendre la portée des travaux de ses prédéces-
seurs, Debreu a choisi de prendre en compte des ensembles de
production convexes. Les rendements d’échelle constants (qui
garantissaient chez Clark et d’autres la nullité du profit) sont un
cas particulier : le modèle admet également des rendements
d’échelle décroissants. Comme cette hypothèse impliquerait une
multiplication du nombre des entreprises (afin d’obtenir l’échelle
de production la plus petite possible), Debreu considère que ce
nombre est fixe. Lorsque les rendements sont ainsi décroissants,
un profit apparaît. D’une part, ce fait permet de rendre compte de
l’existence de titres de propriété des entreprises (les actions) qui
sont incessibles dans le modèle. D’autre part, on peut envisager la
relation entre risque et profit, bien que Debreu se refuse à inter-
préter son modèle.
Du fait que, dans la Théorie de la valeur, l’incertitude porte
(potentiellement) sur tous les biens, elle concerne (potentielle-
ment) tous les agents. Bien que l’extension du risque à tous les
agents ne constitue pas à proprement parler une nouveauté
[Pradier, 2000b], la rupture avec la problématique antérieure aux
42 LA NOTION DE RISQUE EN ÉCONOMIE

années 1930 est perceptible. Le risque n’est plus le fait d’une caté-
gorie d’individus, ni un phénomène marginal (au sens où il
n’expliquerait que des différences de faible ampleur avec un
monde certain) : c’est un trait constitutif de toute la réalité écono-
mique. Ceci traduit évidemment une certaine prise de conscience
— on a suffisamment dit que le XXe siècle montrait à tout point de
vue une prolifération du mot lui-même — mais aussi l’abandon
des questionnements sur la répartition sociale.
Cette fois, le modèle de l’économie dessiné par les margina-
listes s’accomplit. Il n’existe plus que des individus, et ce sont
leurs revenus individuels que le modèle s’applique à déterminer.
De plus, la rémunération de chaque intrant est clairement établie.
Mais si l’on considère, comme les économistes du début du siècle,
l’assomption du risque comme un intrant, on se heurte à un
problème particulier : les probabilités des différents états de la
nature ne sont connues de personne. Chaque agent n’a donc
qu’une perception subjective du risque, non pas seulement parce
qu’il possède une fonction d’utilité particulière mais parce que
ses probabilités personnelles lui sont propres. L’interprétation du
modèle de Debreu peut se révéler conforme à une certaine lecture
de Knight : le risque en tant que tel peut être rémunéré, mais la
relation entre cette rémunération et l’incertitude constitue un fait
inexpliqué. Ainsi le risque conserve un statut particulièrement
insatisfaisant dans une optique de répartition parce qu’il n’existe
pas d’étalon de mesure incontestable comme c’est le cas pour les
quantités de biens ou de temps. Enfin, grâce au système complet
de marché, les agents peuvent s’assurer en transférant des revenus
d’un état du monde à l’autre : c’est le système complet de marché
qui permet de gérer sans coût le risque, c’est-à-dire sans que la
création d’institutions adaptées soit nécessaire.

Le risque dans les manuels d’économie

L’entrepreneur semble aujourd’hui aussi entouré de discus-


sions et d’hésitations qu’à l’époque de la polémique du Quar-
terly Journal of Economics. Aslanbeigui et Naples font l’inventaire
des incohérences : d’un côté, certains observent que l’« entre-
prise » (au sens d’intrant fourni par l’entrepreneur) est un facteur
comme un autre, rémunéré à la valeur de son produit marginal
(c’était la position de Clark) ; de l’autre, on affirme que l’entre-
preneur a droit au « résidu » (comme le pensaient Hawley et
Knight), c’est-à-dire à ce qui reste une fois qu’on a payé tous les
facteurs de production à leur produit marginal. Ces deux
LE RISQUE DE L’ÉCONOMIE POLITIQUE 43

propositions ne pourraient être simultanément vraies qu’en


imposant des conditions très spécifiques (l’homogénéité des fonc-
tions de production, que Clark supposait sans le savoir, comme l’a
montré Edgeworth). De plus, les auteurs de manuels ont du mal
à s’accorder sur la spécificité du travail de l’entrepreneur : est-
elle innée (on la rapprocherait alors d’une dotation initiale) ou
acquise (investissement en capital humain) ? Puisque la question
de l’entrepreneur n’est pas traitée avec plus de succès en 1990
qu’en 1890, voyons ce qu’il en est du risque.
Quatre-vingts ans après, il ne semble plus rester grand-chose
de l’« analyse fondatrice de Knight » dans la vulgate écono-
mique. Onze manuels recensés par Aslanbeigui et Naples expo-
sent le choix risqué en faisant l’hypothèse que les probabilités
sont connues et que la prise de risque exige une rémunération
proportionnelle : ce qui revient à ne tenir aucun compte du
problème de l’estimation subjective pourtant formulé explicite-
ment par Adam Smith et réaffirmé par Knight. De fait, la présen-
tation standard de la relation entre risque et rendement semble
être celle de Markowitz (qui se place dans un cadre statistique,
voir infra, chapitre IV ), les auteurs la généralisent à tous les
secteurs de la vie économique. En matière financière, seuls
Baumol et Blinder doutent de la capacité des investisseurs à
estimer le risque en insistant sur le caractère mimétique des anti-
cipations : dans un marché haussier (bullish), il est à prévoir qu’un
surcroît de risque entraîne un rendement plus faible en moyenne
(ces auteurs amplifient donc l’analyse de Smith).
Les discours sur l’entrepreneur et l’assomption du risque échap-
pent donc à l’exigence de cohérence logique. De là à penser qu’ils
jouent essentiellement un rôle idéologique, il n’est qu’à constater
l’enthousiasme qu’a mis le mouvement patronal à récupérer les
connotations positives du couple entrepreneur-risque. Dans cette
perspective, on ne peut que saluer la tentative de Petit et Sauze
[2005] qui sortent du point de vue exclusif de l’entrepreneur : le
risque n’est pas uniquement dans l’accomplissement de la produc-
tion (une fois payés les salaires) ou la réalisation de la production
(une fois supportés les autres coûts). Le risque est aussi (et, comme
le montrent ces auteurs, surtout) du côté des travailleurs, qui font
face aux accidents, aux maladies professionnelles mais aussi
parfois au harcèlement, à la déqualification, etc. Il est égale-
ment du côté de la collectivité tout entière qui peut supporter
les effets collatéraux des décisions de l’entrepreneur avec la pollu-
tion. Il n’est jamais trop tard pour entendre la plainte des
sans-voix !
IV / La finance comme discipline : théories
« Un bourgeois qui ne risque point son argent n’en
peut retirer qu’au taux du Roy. »
Furetière

L a finance se construit comme discipline à la suite de son exclu-


sion par les économistes. En cela, Markowitz joue un rôle parti-
culier, puisqu’il est le premier exclu : son parcours est révélateur
d’un mouvement de fond qui conduit à l’institutionnalisation de
la finance, discipline où la notion de risque est centrale (voir
chapitre IV, encadré « Typologie des risques financiers »). Deux
grandes familles de modèles appellent des traitements
différenciés.

Les modèles statiques

Il s’agit de modèles d’équilibre du marché des titres qui se sont


développés depuis les années 1950.

Histoire d’une évidence

L’idée selon laquelle les choix incertains s’apparentent à


un arbitrage entre rendement et sécurité remonte probablement
à la plus haute Antiquité [Covello-Mumpower, 1985] ; sa forma-
lisation mathématique date de la fin du XVIII e siècle (voir
le chapitre II ) ; enfin, son expression la plus célèbre est
LA FINANCE COMME DISCIPLINE : THÉORIES 45

probablement la théorie de Harry Markowitz, qui lui a valu un


« prix Nobel 1 » d’économie en 1990.
Les travaux formalisés des économistes sur le risque commen-
cent où Laplace s’était arrêté. Étudiant la question des réserves
bancaires, Edgeworth [1888] écrit : « La solvabilité et le profit du
banquier dépendent de la probabilité qu’il ne soit pas appelé à
rembourser d’un coup plus d’un tantième de son passif » — c’est
exactement la définition du risque qu’on a rencontrée dans les
travaux du XVIIIe siècle (voir supra, chapitre II). Ces notions de
profit et de solvabilité constituent des instances relatives à la
banque de concepts plus généraux : rendement et de sécurité (anto-
nyme de risque). Après Edgeworth, Wicksell puis Pigou s’intéres-
sent à la représentation du risque. Hicks, pour sa part, cherche
non seulement à décrire mais encore à ordonner les distributions
de probabilités (en termes de préférences). Il hérite pour cela du
concept de « moment ». Différentes méthodes des moments ont
existé chez les mathématiciens [Pradier, 2000b], sans aucun
rapport avec la décision économique (par exemple, Pearson ajus-
tait des courbes aux données empiriques en utilisant les
moments). Hicks a vaguement entendu parler de ces méthodes,
dont il ne conserve que les moments afin de décrire les courbes
de fréquence. Pour marquer cette nouvelle modalité de l’emploi
des moments, nous avons proposé de parler d’analyse en termes de
moments, dont l’« analyse espérance-variance » de Markowitz s’est
avérée un cas particulier (restreint aux deux premiers moments).
Peu après la communication de Hicks devant l’Econometric
Society, Chambers [1934] représente des systèmes de préférences
sur les moments. En étudiant le problème de l’investissement, il
considère des variables aléatoires décrites par leurs moments.
L’auteur n’est pas explicite sur la construction des variables
agrégées. L’important est pour Chambers que la moyenne figure le
rendement moyen, et que l’écart-type représente le risque. L’auteur
commente ainsi une carte d’indifférence : « Si notre individu peut
recevoir deux pour cent sans aucun risque, il sera indifférent entre
ces deux pour cent sans risque et deux et demi pour cent avec un
écart-type de un, etc. pour toutes les valeurs de la courbe d’indif-
férence notée (iii). »

1. Il n’existe pas de « prix Nobel » d’économie, mais un « prix de la Banque de Suède


en sciences économiques en mémoire d’Alfred Nobel », qui n’a rien à voir avec la
fondation de ce dernier. Sur cette étrange institution singeant les « sciences dures »,
voir Lebaron [2000, p. 20 et p. 246 sq. ; 2002].
46 LA NOTION DE RISQUE EN ÉCONOMIE

— le risque de change ;
Typologie des risques financiers — le risque de taux (d’intérêt) ;
— les autres risques de marché (en
Les risques liés à l’activité bancaire ont particulier sur les actions).
fait l’objet d’une description et d’une 3) Le risque opérationnel peut
classification systématique dans un conduire à des « pertes directes ou
rapport du Comité de Bâle [1997]. Ce indirectes résultant d’une inadéquation
texte distingue (p. 20-22) trois types ou d’une défaillance attribuable à des
de risques. procédures, des agents, des systèmes
1) Le risque de crédit concerne le internes, ou à des événements exté-
non-paiement à temps par un emprun- rieurs » [Comité de Bâle, 2001]. Il
teur des intérêts ou du principal ; en résulte essentiellement du défaut de
général, risque de défaut, risque de contrôle interne aux firmes ou d’erre-
contrepartie et risque de signature sont ments dans la gouvernance, à quoi on
synonymes de risque de crédit. peut ajouter :
Le risque pays est pour sa part « lié — le risque de liquidité qui provient
au contexte économique, social et du manque à gagner qui résulte de la
politique du pays de l’emprunteur », vente précipitée d’actifs ou de la sous-
un bon exemple étant fourni par les cription de crédits coûteux pour
emprunts russes dont le rembourse- honorer un paiement (par exemple,
ment n’a pas été honoré après la révo- pertes de Vivendi-Universal quand elle
lution de 1917. Le risque de transfert revendit précipitamment des actifs au
est un cas particulier du risque pays, printemps 2002) ;
qui couvre l’impossibilité pour un — les risques légaux liés à la négo-
emprunteur d’avoir accès à la monnaie ciation de produits nouveaux encore
étrangère dans laquelle il s’est endetté. peu ou pas réglementés, ou à l’évolu-
2) Le risque de marché est un effet tion du droit, qui peut être rétroactif
sur le bilan des variations de cours des en matière fiscale ;
titres ou actifs détenus. Les banques — les risques de réputation, qui sont
qui opèrent en tant que teneurs de particulièrement dommageables aux
marché sont particulièrement exposées banques car ce sont des organismes de
en cas de variations brutales (krachs). crédit, lequel repose évidemment sur la
On distingue, suivant les instruments : confiance.

On aura compris que les courbes d’indifférence sont croissantes


dans le plan (variance, espérance) ; ceci traduit le fait qu’on
n’accepte un accroissement de risque qu’au prix d’une rémuné-
ration (moyenne) supérieure. Il est également un point que
Chambers ne précise pas de façon explicite, mais que son
graphique (3) montre, c’est que la prime de risque croît plus que
proportionnellement avec le risque ; les courbes d’indifférence
sont donc (légèrement) convexes si le rendement est porté en
ordonnées. L’existence de cette carte d’indifférence permet
d’envisager la résolution du « programme de l’investisseur ». Le
reste de l’article construit ainsi un équilibre entre offreurs et
demandeurs de capital.
LA FINANCE COMME DISCIPLINE : THÉORIES 47

Graphique 3. Les courbes d’indifférence dans le plan


(variance, espérance)

Y
v
iv
iii
6
ii
5
4 i
3
2
1
0 X

À la suite de Hicks, Chambers est parfaitement conscient du


caractère approximatif d’un modèle qui ne prend en compte que
les deux premiers moments — tout comme Marschak qui est le
premier à proposer et à justifier explicitement l’importance du
coefficient d’asymétrie, auquel Hicks se rallie définitivement par
la suite. Le modèle de décision canonique comprend donc, en
plus du rendement et du risque, un facteur de potentiel, suivant
l’exemple que donne Marschak [1938] : les gens « n’aiment pas
[…] les situations où la consommation de viande peut varier dans
un intervalle important ; […] et (en témoignent les superca-
gnottes sur les matches de football), ils aiment les gains élevés à
faible probabilité, c’est-à-dire une forte asymétrie à droite des
gains ».
Comme en témoignent les titres des articles de Chambers
[1934], Hicks [1935] et Marschak [1938], le risque est d’abord pris
en compte comme une modalité du choix de portefeuille (c’est-
à-dire la répartition de l’épargne entre monnaie, obligations,
actions). À l’époque où Keynes élabore sa courbe de préférence
pour la liquidité, ces auteurs cherchent donc des fondements
microéconomiques aux comportements décrits par Keynes. Pour
tous ces économistes, le choix entre les actifs patrimoniaux
(argent liquide, obligations, actions, investissements directs) n’est
pas l’objet d’une aide à la décision : il n’est pas question d’aider
un épargnant à se constituer un portefeuille de titres financiers
adapté à ses besoins, mais seulement de comprendre comment
les variables macroéconomiques agissent sur la demande des
diverses catégories d’actifs. On peut qualifier d’économique ce
point de vue puisque le but de la théorie est de guider les
48 LA NOTION DE RISQUE EN ÉCONOMIE

politiques macroéconomiques. Il s’oppose à la théorie financière


qui va rapidement se développer avec pour objectif de conseiller
les choix de portefeuille des épargnants, et non plus de repré-
senter ceux-ci pour étudier l’effet macroéconomique des chocs sur
les variables de décision.

Harry Markowitz et l’« analyse espérance-variance »

Début 1950, Markowitz décide d’entreprendre une thèse à la


Commission Cowles, qui compte alors le gratin de l’économé-
trie mondiale (économétrie au sens ancien d’économie mathéma-
tique en général). Marschak a déjà réfléchi au choix de
portefeuille. Il décide de déléguer la direction de thèse à Tjalling
Koopmans, un des fondateurs de la programmation linéaire. La
véritable « innovation » de Markowitz s’inscrit dans ce contexte,
elle est purement mathématique : il s’agit d’optimiser une fonc-
tion quadratique sous des contraintes linéaires. La méthode de
Markowitz permet de résoudre le problème suivant : soit un
certain nombre de titres financiers (des actions), caractérisés
chacun par un rendement (mesuré par l’espérance) et un niveau
de risque (variance), on veut trouver le portefeuille de rendement
maximal pour un niveau de risque donné, ou le portefeuille de
risque minimal pour un niveau de rendement donné (ces deux
programmes sont en fait liés, on les dit duaux en programmation).
La difficulté mathématique vient du caractère « quadratique » des
programmes à résoudre : la variance est une moyenne de carrés, et
il est bien plus complexe de manipuler des carrés que des fonc-
tions linéaires (c’est-à-dire sans puissances) des variables.
À l’époque où Markowitz écrit, au début des années 1950, il est
même illusoire de penser appliquer effectivement l’analyse à de
véritables données : il faut toute la puissance des ordinateurs de
l’armée pour calculer les portefeuilles optimaux avec seulement
une cinquantaine de titres !
Même si elle paraît encore inapplicable, l’analyse de Markowitz
donne une interprétation mathématique d’un très vieux prin-
cipe, selon lequel « il ne faut pas mettre tous ses œufs dans le
même panier ». En effet, la résolution du programme conduit à
choisir des portefeuilles diversifiés (plutôt qu’à tout miser sur
un seul titre). Cela n’est pas très nouveau : Nicolas Bernoulli
[1730] résumait déjà l’article de son cousin Daniel par ces
mots ! En revanche, la raison qui conduit à la diversification
chez Markowitz mérite d’être expliquée : les corrélations
imparfaites entre les titres. Par exemple, face à une hausse des
LA FINANCE COMME DISCIPLINE : THÉORIES 49

cours du pétrole, les compagnies pétrolières seront favorisées,


quand les constructeurs automobiles verront leurs titres
pénalisés ; typiquement ces valeurs devraient être corrélées
négativement, il peut donc être intéressant de les détenir
conjointement. Même des actifs dont la corrélation est positive
mais pas complète vont mutuellement amortir leurs fluctua-
tions, sans toutefois que les gains et les pertes se compensent
complètement.

Le risque dans la finance après Markowitz

Le Capital Assets Pricing Model (on écrit parfois en français


modèle d’évaluation des actifs financiers ou MÉDAF) constitue la
mise en forme canonique du modèle de Markowitz. Comme
Sharpe [1964] l’indique lui-même (p. 442), son modèle présente
essentiellement de vieilles notions dans des habits neufs : le taux
sans risque (notion déjà présente chez Ricardo, qui considérait
que c’était le taux servi sur les emprunts d’État qui ne connaissent
pas de risque de signature), le caractère offensif ou défensif d’une
valeur, que représente la droite du marché des titres.
L’innovation essentielle du CAPM réside dans la droite de
marché des capitaux, on en comprend l’idée en regardant la fron-
tière efficiente : puisque celle-ci est concave, il est possible de
tracer une tangente à la frontière passant par le taux sans risque.
Dès lors, la frontière est entièrement en dessous de cette droite.
Sharpe montre que le point de tangence est le portefeuille de
marché, c’est-à-dire le portefeuille dont la composition est la
même que celle du marché (parts égales aux capitalisations rela-
tives des différentes valeurs). L’équation de la droite de marché
des capitaux (Capital Market Line) est obtenue à partir de ces deux
points que sont le taux sans risque (0, rf) et le portefeuille de
marché (s ( ;rm), E ( ;rm)) (on rappelle que le risque est en abscisses et
le rendement en ordonnées ; les tildes (~) désignent des variables
aléatoires). Son équation est donc :

s( ;rp)
E ( ;rp) = rf + (E ( ;rm) – rf). .
s( ;rm)

Cette équation exprime le fait que, sur la DMC, un surcroît de


rendement par rapport au taux sans risque rf s’obtient au prix
d’un accroissement de risque proportionnel.
50 LA NOTION DE RISQUE EN ÉCONOMIE

pointillés) présente des alternatives


La résolution complète dominées. Le choix d’un portefeuille
du programme de Markowitz donné sur la frontière est une question
de goût. Comme on l’a vu, on peut
[voir Quittard-Pinon, 1993, p. 75 sq.] représenter les préférences pour le
risque dans le même plan. Il est donc
Elle conduit à dessiner la frontière effi-
possible, étant donné que les préfé-
ciente : c’est l’ensemble de ces porte-
rences d’un agent sont connues, de
feuilles de rendement maximal pour
un niveau de risque donné (et respecti- déterminer quel portefeuille de la fron-
vement…). On la représente dans le tière il va préférer. Le graphique 4
plan (variance, espérance). Seule la représente un tel choix. On comprend
partie supérieure de l’hyperbole est pourquoi il était commode que
intéressante, la partie inférieure (en les courbes d’indifférence fussent

Graphique 4. La frontière efficiente

r,
rendement

σ , risque
Titres individuels Frontière efficiente (partie
dominante de l'hyperbole)
Courbe d'indifférence Partie dominée
du décideur de l'hyperbole

Comme cette DMC domine la frontière efficiente, on peut alors


allouer son capital entre d’une part le portefeuille de marché et
d’autre part le taux sans risque : c’est le théorème de séparation des
deux fonds (two funds separation theorem). Si, de plus, le marché
des capitaux est « parfait » (si on peut s’endetter sans limite au
taux sans risque), alors l’ensemble des placements possible n’est
plus limité au segment [taux sans risque, portefeuille de marché],
c’est toute la demi-droite [taux sans risque, portefeuille de marché]
qui est admissible. Une telle représentation des allocations opti-
males conduit évidemment à favoriser la gestion indicielle (c’est-
à-dire la réplication par les OPCVM ou mutual funds, des indices de
marché), comme le montre Walter [2004].
LA FINANCE COMME DISCIPLINE : THÉORIES 51

convexes, car la frontière efficiente appliquer la solution qu’il donne, on


étant concave, ces préférences garan- se heurte au problème de la divisibi-
tissent l’existence d’un seul portefeuille lité des actifs réels qui n’est pas infinie ;
optimal. mais pour un portefeuille suffisam-
Le modèle suppose donc quelques ment important, on peut s’approcher
hypothèses purement mathématiques, de la frontière. On constate alors
comme la non-singularité de la matrice que la procédure de choix d’actifs
des variances-covariances et l’exis- de Markowitz donne un sens
tence d’au moins deux actifs ayant nouveau au vieil adage : la relation
des rendements distincts (si l’on croissante entre risque et rendement
n’a que deux actifs différents, la n’est pas donnée, elle doit être
frontière est un segment, éventuelle- construite. Markowitz affirme qu’elle
ment une droite si l’on autorise les peut l’être et donne la méthode pour
ventes à découvert). Si on désire le faire.

Graphique 5. Le CAPM

r,
rendement Portefeuille de marché

Taux sans
risque

σ , risque
Droite de marché
Titres individuels Frontière efficiente des capitaux

Outre qu’il renouvelle les prescriptions de Markowitz, Sharpe


propose une analyse du risque qui innove par une décomposition
de ce concept. Le CAPM permet d’exprimer la prime de rendement
de chacun des actifs (par rapport à l’actif sans risque) comme une
fraction de la prime de rendement du portefeuille de marché :
E ( ;rj ) – rf = bj (E ( ;rm) – rf).
Cette fois ;rj représente le rendement (aléatoire) de l’actif j.
E ( ;rj) – rf est donc la prime de rendement moyenne de l’actif j
par rapport au taux sans risque r f . Cette prime de risque est
proportionnelle à la prime de risque du portefeuille de marché.
Cette équation définit la droite de marché des titres dans le plan
52 LA NOTION DE RISQUE EN ÉCONOMIE

(b,r). On voit donc que le rendement est proportionnel à b, qui


mesure également le risque (voir encadré).
Le CAPM apparaît donc d’abord comme une clarification de
la notion de risque en finance, avec la décomposition du risque
propre à chaque actif en risque spécifique éliminable par la diver-
sification et risque systématique non diversifiable, non réductible.
Le terme « risque » sans autre qualificatif est également caractérisé
dans le modèle par un concept plus abstrait : le prix de marché
du risque désigne le taux d’échange entre surcroît de rendement
et surcroît de risque. C’est donc la pente de la DMC ; on peut
l’écrire :
E( ;rm) – rf
l* = .
s( ;rm)
Remarquons que s’il existe un prix de marché du risque, si l’on
peut représenter tous les titres comme une combinaison d’actif
sans risque et d’un actif unique (qui serait l’actif risqué moyen),
c’est parce que le modèle suppose l’équilibre du marché financier.
C’est donc un modèle théorique où sont représentés les acheteurs
et les demandeurs de titres.

Le CAPM : modèle opérationnel ou langage ?

Même si elle présente une élaboration remarquable, la spécifi-


cation du concept de risque dans le CAPM flotte doublement.
D’une part, si le risque s’entend comme la possibilité de pertes,
c’est la dispersion des issues négatives ou inférieures à la moyenne
qu’il faudrait considérer comme risque à proprement parler.
Markowitz [1959] avait proposé la semi-variance comme mesure
du risque, avant de montrer qu’elle apportait plus de complica-
tions que d’avantages. Cette spécification asymétrique du risque
est l’objet d’un éternel retour, chez les théoriciens intéressés aux
moments partiels comme chez les praticiens des approches dites
downside risk ou shortfall. Cette dernière méthode retourne sans
le savoir à Condorcet : au lieu de construire la frontière effi-
ciente comme lieu des portefeuilles présentant le meilleur rende-
ment pour un risque (variance) donné, on cherche le meilleur
rendement pour une probabilité donnée de perte d’une somme
donnée — il s’agit aussi d’un cas particulier de la Value-at-Risk
dont nous reparlerons au chapitre VI. Notons que, si les rende-
ments sont normaux, cette méthode est équivalente à celle de
Markowitz. En revanche, si ce n’est pas le cas, l’approche shortfall
LA FINANCE COMME DISCIPLINE : THÉORIES 53

est complexe à mettre en œuvre : il faut estimer la distribution


de probabilité des portefeuilles sur données passées, ce qui signifie
des calculs très importants. En outre, les résultats du modèle sont
très sensibles aux données : la variance est une statistique de
dispersion la plus efficace, alors que les densités de probabilité
sont très peu robustes [voir par exemple Jacquillat et Solnik, 2002,
p. 95]. Le CAPM, pour sa part, conserve la variance pour sa simpli-
cité d’utilisation et son efficacité statistique, mais c’est insatisfai-
sant du point de vue de la définition.
D’autre part, les modèles hérités du CAPM ne prennent en
compte que le risque de marché lié aux actions, c’est-à-dire une part
infime du risque lié aux activités financières (voir supra, encadré
« Typologie des risques financiers »).
Du côté des applications, force est de constater que le principe
de réalité s’est appliqué plus rapidement aux financiers qu’aux
économistes. À l’origine, le modèle de Markowitz et ses raffine-
ments sont complètement théoriques : la masse de calculs à
opérer sur la matrice des variances-covariances, matrice qu’il faut
inverser, dépasse très largement les capacités de calcul dispo-
nibles. À peine Markowitz réalise-t-il à la fin des années 1950 une
maquette sur les ordinateurs de l’Office for Naval Research ; la
résolution grandeur nature du programme (avec tous les titres du
marché financier) paraît une affaire de science-fiction. Pourtant,
au fur et à mesure que la puissance de calcul devient disponible,
soit dès le début des années 1970, les doutes apparaissent : les
statistiques obtenues ne sont pas stables, le choix dicté par le
modèle n’est pas optimal car le passé ne prévoit pas bien l’avenir
sur les marchés financiers.
En affirmant la nécessité de construire la relation entre risque
et rendement, Markowitz marque un tournant dans l’analyse
économique : la diversification n’est plus un moyen de diminuer
le risque, elle est une nécessité pour l’individu rationnel. Le choix
dicté par le modèle représente ce que seraient les préférences des
agents si leur capacité de calcul étaient celles du théoricien (ou de
l’ordinateur convenablement programmé).

Les modèles dynamiques

Pour raisonner non plus sur des variables aléatoires mais sur des
processus, il faut des outils mathématiques bien plus complexes.
À la fin du XIXe siècle, Louis Bachelier a produit une innovation
qui permet de représenter les fluctuations de la rente à 3 % (voir
54 LA NOTION DE RISQUE EN ÉCONOMIE

première sous-section). Les contemporains accueillirent ces idées


originales avec une condescendance teintée de mépris, si bien que
la carrière de Bachelier fut aussi modeste que ses travaux furent
peu diffusés. Lorsqu’au début des années 1970, un financier et
un physicien retrouvèrent la piste empruntée par Bachelier, c’est
une véritable autoroute qui s’ouvre à la finance de marché nais-
sante (voir deuxième sous-section). Les techniques et la littéra-
ture se développent aussi rapidement que les marchés financiers.
Malgré une créativité mathématique florissante, on peut regretter
une élaboration souvent insuffisante des concepts théoriques de
base, comme celui de risque (voir troisième sous-section).

La thèse de Louis Bachelier

Sous son aspect purement mathématique, la contribution de


Bachelier s’articule autour de la notion de probabilité continue. Un
exemple fera sentir la nature de cette innovation : au jeu de pile
ou face, les gains sont discrets, c’est-à-dire que l’on gagne une (ou
plusieurs) unité monétaire à chaque partie. L’idée de Bachelier est
de réduire le gain à une quantité infinitésimale (la durée de
chaque partie étant elle-même infinitésimale) pour que puissent
s’appliquer les règles du calcul différentiel (ce qui ne va pas de
soi car les trajectoires, pour être continues, ne sont pas forcément
différenciables). Formellement, Bachelier considère que le
dP
prix d’un titre de rente (P), suit un processus tel que : = sdz.
P
dP
C’est-à-dire que le taux de croissance du prix ( ) pour chaque
P
accroissement infinitésimal du temps (dt) est égal à un bruit blanc
(on dit aussi processus de Wiener). Le bruit blanc lui-même peut
s’expliciter comme dz = e BNN dt, où e est elle-même une variable
aléatoire qui suit une loi normale centrée réduite. On voit donc
que l’écart est proportionnel à la racine carrée du temps écoulé.
Cette « loi de la racine carrée » rappelle les premiers travaux sur la
dispersion, de Tetens [1785] à Regnault [1863].
Les applications de ce formalisme sont nombreuses en
physique : diffusion de la chaleur, des ions dans une solution, etc.
Le terme « diffusion » désigne d’ailleurs les processus stochas-
tiques du type de celui considéré par Bachelier. Mais à l’époque
où Bachelier écrit, ce formalisme n’existe pas encore et son sujet
paraît exotique puisque sa thèse étudie les cours de la Bourse. Une
manière plus littéraire d’exprimer la contribution de Bachelier à
LA FINANCE COMME DISCIPLINE : THÉORIES 55

sous-jacents. On remarque alors que le


Les produits dérivés Moyen Âge a essentiellement connu
des options sur commodities : les prêts
Les actions, les obligations sont des à la Grosse (aventure) interdits par la
produits simples et anciens. Les décrétale naviganti de 1237 étaient
premières correspondent à des parts remplacés par une option de vente de
de propriété du capital social des la marchandise à l’arrivée. Depuis la loi
entreprises, les secondes à des recon- de 1885 sur les marchés à terme, on
naissances de dette. négocie légalement en France les
Depuis le Moyen Âge au moins exis- options (autrefois appelées primes) sur
tent des produits plus complexes, actions. Mais ces produits étaient
comme par exemple les ventes à essentiellement l’objet de transactions
termes (forward) ou les options. De de gré à gré, en dehors de marchés
manière générale, une option est un réglementés. Aux États-Unis, le
instrument qui confère le droit (mais Chicago Board Option Exchange est
pas l’obligation) d’acheter (option créé en 1973, en France, il faut
d’achat ou call) ou de vendre (option attendre le milieu des années 1980 :
de vente ou put) un actif sous-jacent 1987 pour les produits de taux
pour un prix convenu, le prix d’exer- (MATIF) et 1988 pour les actions
cice, à une date convenue (option dite (MONEP), qui sont aujourd’hui des
« européenne ») ou jusqu’à cette date compartiments d’Euronext. On
(option dite « américaine »). Depuis les observe maintenant des transactions
années 1980, il existe en plus de ces de gré à gré sur des sous-jacents de
options dites « vanilla », des options plus en plus variés, y compris des
exotiques. Hull [2004, chapitre 19] données météorologiques ou des
recense une douzaine de catégories crédits souscrits par des particuliers (et
d’options exotiques, mais l’inventivité non plus seulement les titres de dette
des chercheurs, structureurs et autres d’État négociés sur le MATIF), etc.
ingénieurs financiers ne connaît pas de Signalons pour finir qu’un orga-
limite en la matière. Les swaps consti- nisme de placement collectif utilisant
tuent d’autres types de dérivés qui des produits dérivés, par opposition
consistent à échanger des flux de aux portefeuilles de titres tradi-
revenus ou des produits. tionnels, s’appelle en anglais un hedge
On peut également ranger les fund. En français, on parle de gestion
options par catégories d’actifs alternative.

ce sujet consiste à dire qu’il trace une courbe entre les points qui
représentent les transactions effectives (dans un plan où le temps
est en abscisses et les cours sont en ordonnées). Mais à quoi bon ?
La modélisation des cours permet d’envisager l’évaluation de
produits dérivés (ventes à terme, options). Il faut savoir qu’à
l’époque, la place parisienne est la première place mondiale pour
les produits de taux, c’est d’ailleurs pourquoi les emprunts russes
ont été placés sur ce marché obligataire. Depuis l’émission en
1825 de l’emprunt finançant le milliard des émigrés, Paris est
devenu le centre de l’émission des titres de rente ou obligations
perpétuelles. Celles-ci permettent à leurs détenteurs de jouir de
56 LA NOTION DE RISQUE EN ÉCONOMIE

revenus réguliers, dans la mesure où il n’y a pas d’inflation. La


fortune des plus petits rentiers comme des grands seigneurs se
compte alors en livres de rente, qui, déjà du temps de Balzac, dési-
gnent autant les revenus fonciers des aristocrates que les divi-
dendes des placements acquis par les financiers parvenus.
Les obligations perpétuelles, spécialité parisienne, sont des
titres dont la valeur fluctue en raison inverse du taux d’intérêt,
mais comme ce dernier est aussi stable en tendance que les prix,
il n’existe pas de tendance longue significative des cours de la
rente : à chaque instant, le cours peut augmenter ou baisser symé-
triquement (le bruit blanc est symétrique). Notons toutefois que
l’hypothèse de nullité de l’espérance de variation propre à Bache-
lier n’est pas purement descriptive, elle comporte également une
part normative : la spéculation sur la rente apparaît ainsi comme
un jeu équitable (« l’espérance mathématique de toute opération
est nulle », Bachelier [1914, p. 180]). Pour parvenir à l’évalua-
tion des options, en quelques pages, Bachelier touche la
notion de chaîne de Markov [Markov, 1906] et décrit par l’équa-
tion de la chaleur un processus qu’on appellera un (mouvement)
brownien géométrique (diffusion dont l’équation est donnée
dP
par : = mdt + sdz, où mdt est appelé terme de dérive. En raison
P
de l’hypothèse nullité de l’espérance, Bachelier considère une
dérive nulle). On parvient ainsi à l’évaluation d’une option
d’achat :
s–x s–x
(s – x). F
s Mt ( )
+ s. s Mt F (
s Mt )
où s désigne le prix actuel du titre sous-jacent à l’option, x le prix
d’exercice de l’option (actualisé), t la durée de l’option (en années
ou fractions d’année) jusqu’à la date d’exercice, s la volatilité du
titre, F la fonction de répartition de la loi normale centrée
réduite.

Les développements de la finance de marché

À la suite des travaux de Bachelier, on a vu les mathémati-


ciens retrouver l’analogie entre diffusion de la chaleur et mouve-
ment brownien [Einstein, 1905] puis perfectionner les
mathématiques adéquates [Wiener, 1923 ; Kolmogorov, 1931] au
point de développer un véritable calcul intégral stochastique [Itô,
1951 ; Kac, 1950]. Dès lors que l’outil est conçu, il devient
possible de l’utiliser. Mais surtout, à côté des moyens techniques,
LA FINANCE COMME DISCIPLINE : THÉORIES 57

il existe une « demande sociale » : pendant les années 1950, la


capitalisation boursière américaine explose, avec le développe-
ment des fonds de pension et d’un actionnariat des classes
moyennes ; puis, dans les années 1970, l’effondrement du
Système monétaire international et la politique monétaire restric-
tive de la FED ont conduit au développement des instruments
financiers de couverture, en particulier les dérivés de change et de
taux. À partir de cette époque, la finance de marché explose litté-
ralement. D’abord dans les revues scientifiques, où l’on assiste à
l’épanouissement de modèles. Black et Scholes [1973] proposent
d’évaluer le prix d’une option par la méthode du portefeuille répli-
quant : ils montrent qu’une option est équivalente à un porte-
feuille composé de l’actif et de monnaie, dans des proportions qui
sont ajustées continûment. Si le taux de rendement de l’actif suit
un brownien géométrique, alors l’intégration de l’équation de la
chaleur permet d’évaluer le portefeuille répliquant (d’une option
d’achat) par la formule suivante :

( ) ( )
2 2

s. F
ln (xs ) + ( r + s2 ) t – rt
– x. e . F
ln (xs ) + ( r + s2 ) t .
s Mt s Mt
On reprend les notations utilisées pour la formule de Bachelier,
en ajoutant r, le taux d’intérêt sans risque. La nouveauté vient
surtout de ce que la détermination de la volatilité est un véri-
table problème : celle-ci se définit comme l’écart-type annuel des
rentabilités calculées sur la durée de vie de l’option quand celles-ci
sont composées de manière continue… De telles données n’exis-
tent évidemment pas, puisque la vie de l’option est future. Il faut
recourir au passé, qui prévoit mal l’avenir, comme on le sait. Ou
alors, on peut « inverser » la formule de Black et Scholes pour
calculer d’après le prix des options effectivement vendues, la vola-
tilité dans ce cas dite « implicite » [voir par exemple Hull, 2004,
chapitre 12]. Ce faisant, on considère que les prix des options
observés sur le marché reflètent une application correcte de la
formule. Ceci pose évidemment le problème du statut épistémo-
logique de la théorie.
L’article de Black et Scholes est remarquable pour deux raisons.
D’une part, il illustre le rôle de la finance de marché : évaluer les
produits financiers. Au moment où les instruments de couver-
ture sur taux vont être amenés à se développer avec la destruc-
tion du SMI, il paraît nécessaire de pouvoir déterminer le prix à
faire payer aux acheteurs d’options sur devises. D’autre part, la
méthode du portefeuille répliquant permet d’évaluer d’autres
58 LA NOTION DE RISQUE EN ÉCONOMIE

produits : Bouleau [1998] n’hésite pas à parler de « rupture épisté-


mologique » à propos de cette innovation. De fait, cette innova-
tion théorique va permettre l’accélération des innovations de
produits chez les banquiers. Car les banques vont se livrer une
véritable concurrence pour créer des produits financiers nouveaux
[Lefort et Pradier, 1999], qu’il faut évaluer correctement pour
empocher des commissions sans perdre ensuite sur la vente de ces
produits.
D’autres articles ont fait date en la matière : ainsi Harrison et
Kreps [1979] puis Harrison et Pliska [1981] vont reconsidérer
toutes les évaluations précédentes en recourant à la théorie des
martingales (le terme « martingale » ne désigne pas ici une
tactique pour gagner aux jeux de hasard, comme par exemple la
fameuse martingale de Pascal, qui consiste à doubler la mise à
chaque fois qu’on perd. Il s’agit d’une catégorie de processus
stochastiques dont l’espérance des valeurs futures est donnée par
la valeur présente ; typiquement, les browniens sans dérive
comme ceux qu’a considérés Bachelier sont des martingales, mais
il existe d’autres processus dotés de la même propriété). Si la
modélisation semble avoir gagné en abstraction, l’ère du brico-
lage n’est pas close pour autant, car certains auteurs n’hésitent pas
à aborder des questions pour lesquelles il n’existe pas de solu-
tion analytique, de « formule fermée », comme la formule de
Black et Scholes. Il faut alors recourir à des procédés numériques
pour approcher les solutions. Hull [2004] consacre plusieurs
chapitres à ce sujet, dont il a été (aux côtés de Ho et Lee) l’un
des pionniers dans ses articles avec White. Ces dernières réfé-
rences concernent en fait un sujet bien différent des options sur
actions, il s’agit de l’évaluation des produits de taux. En la matière,
un sous-domaine important est constitué par les modèles repré-
sentant la courbe des taux, c’est-à-dire les différents taux d’intérêt
en fonction de leur maturité. Là encore, le calcul stochastique
trouve un champ d’application, puisque le point de départ de ces
modèles est la représentation du taux court par un processus
stochastique. À la suite de Vasicek [1977], on recense de
nombreux articles dont Bisière [1997] dresse un panorama remar-
quable. Cette famille de modèles ne permet pas d’évaluer directe-
ment les produits, elle a plutôt pour objet de quantifier l’impact
d’une déformation de la courbe des taux sur le bilan des engage-
ments d’une institution : ceci concerne donc indirectement le
risque de marché lié aux variations de taux.
La multiplication des marchés, des produits, des intermédiaires
s’appuie sur une législation en constante et rapide évolution pour
LA FINANCE COMME DISCIPLINE : THÉORIES 59

s’adapter aux demandes des professionnels [voir Jégourel, 2005 ;


Cartapanis, 2004]. Les volumes des transactions connaissent une
croissance exceptionnellement rapide [BRI, 2004b, p. 21-22] : la
valeur des contrats dérivés de gré à gré (OTC) s’élevait à
220 000 milliards de dollars en juin 2004, contre
100 000 milliards trois ans plus tôt. Enfin, une littérature profes-
sionnelle se développe autour des chercheurs bancaires, si bien
que la production de modèles d’évaluation ou de représentation
atteint une densité et une profondeur extraordinaires. Comme les
chercheurs dans les revues scientifiques, les banques ou les insti-
tutions financières se livrent d’ailleurs une véritable concurrence
en matière de publications.

L’oubli du risque

Avec une pertinence remarquable, Jean-Philippe Bouchaud


[1995] dénonçait dans un article du Monde le déni du risque dans
les modèles de la finance de marché. Pour cet auteur, physicien
d’origine comme Fisher Black, tous les modèles reposent sur des
hypothèses qui nient l’existence du risque. Par exemple, pour
évaluer une option par la méthode de Black et Scholes, on fait
l’hypothèse que cette dernière est équivalente à un portefeuille
composé de l’actif et de monnaie, dans des proportions qui sont
ajustées continûment. Cet ajustement continu, au sens où la
droite réelle est continue, est évidemment une hypothèse très
forte. Dans la réalité, on réajuste à intervalles discrets. Le hedging
en temps réel n’existe pas plus que les courbes de cours : il existe
des transactions repérées par des points discontinus. L’hypo-
thèse d’ajustement continu, comme celle de hedging parfait en
temps réel, ou encore celle d’absence d’opportunité d’arbitrage,
disent toutes que les cours varient continûment sans jamais faire
de sauts.
L’histoire a montré que le temps est granuleux, que les cours
des titres font des sauts, bref que la continuité est une hypothèse
théorique commode qui revient à nier une partie des risques de
marché. Dans la réalité, les variations brusques peuvent entraîner
des pertes, voire des situations d’illiquidité, comme ce fut le cas
des banques européennes après la crise russe à la fin de l’été 1998
[MacKenzie, 2001 ; Giraud, 2001]. Cette crise est d’autant plus
symbolique qu’elle a conduit LTCM à la faillite (voir encadré). Un
tel accident est bien la preuve que la science des options a négligé
le risque. Bouchaud et Potters [1997] systématisent la critique : à
leurs yeux, la théorie ordinaire, en ne considérant que des
60 LA NOTION DE RISQUE EN ÉCONOMIE

d’économie. Une autre façon de


La chute de LTCM mesurer le prestige de Meriwether
consiste à évaluer les fonds qui lui sont
Long Term Capital Management est confiés à la création de LTCM : plus
un fonds d’investissement créé en d’un milliard de dollars. À cette somme
1994 par John Meriwether. Ce dernier s’ajoute rapidement la possibilité
est une figure controversée de la d’emprunter sur le marché interban-
finance. Trois ans plus tôt, il a quitté caire à des conditions qui ne sont
Salomon Brothers, au milieu d’une normalement accordées qu’à de
atmosphère de scandale : la banque grandes banques.
avait manipulé les émissions de bons Grâce à ces facilités de crédit, Meri-
du Trésor et encouru une amende de wether se lance en grand dans des
près de 300 millions de dollars, Meri- opérations risquées. Outre des investis-
wether lui-même avait écopé de sements en actions de pays émergents,
50 000 dollars à titre personnel. Mais surtout en Russie, LTCM se spécialise
Salomon Brothers a été pendant toutes dans la gestion alternative : recours à
les années 1980 à la pointe du déve- des instruments financiers sophis-
loppement du trading et des produits tiqués plutôt qu’à des placements en
financiers, en particulier des produits titres comme les OPCVM classiques,
de taux dont Meriwether dirige les SICAV ou fonds de pension. En particu-
activités. lier, LTCM parie que la baisse des taux
Meriwether a la réputation d’être s’accompagnera d’une réduction de la
un génie de la finance. Il a constitué prime de risque. Ces activités offrent
une équipe de crack traders et un un rendement très faible, mais le crédit
comité de sages composé de David dont jouissait le fonds lui permettait
Mullins, vice-chairman de la Réserve d’exercer un levier gigantesque. En
fédérale, et d’une brochette d’universi- 1998, les 4 milliards de dollars de
taires, de Greg Hawkins à Myron capital de LTCM garantissaient
Scholes et Robert Merton, ces deux 125 milliards de prêts, lesquels
derniers lauréats du « prix Nobel » étaient consacrés à l’achat de produits

processus normaux (c’est-à-dire suivant une loi normale), autorise


des écarts de cours assez faibles et exclut ainsi de l’analyse les
risques de krach.
À y regarder de plus près, la représentation probabiliste des
cours des titres conduit peut-être à une forme de passivité : dans
le cas de LTCM, comme dans celui du krach d’octobre 1987, le
problème n’est pas tant la possibilité de la perte massive que sa
raison. Il faut d’abord identifier les possibles : le montant maximal
de la prime de risque par exemple ou le volume de transactions
qu’un concurrent peut gérer pour assécher un marché et provo-
quer des tensions extrêmes, dans le cas de LTCM, l’emballement
des programmes informatiques de trading en 1987. Car finale-
ment, les spéculations risquées sont celles qui provoquent des
déséquilibres, des pénuries où tous les opérateurs de marché
penchent du même côté : il n’y a plus alors de contrepartie et les
cours dévissent. À ce moment, on conçoit qu’on a quitté le cadre
LA FINANCE COMME DISCIPLINE : THÉORIES 61

financiers représentant un encours La faillite de LTCM résulte de


total de plus de 1 000 milliards de trois erreurs. D’abord, personne
dollars. chez LTCM ne s’attendait à une telle
Pendant les premières années, le explosion de la prime de risque : la
rendement était de l’ordre de 40 % par probabilité des événements qui ont
an. Mais à l’été 1998, la Russie fait entraîné la faillite paraissait infinitési-
défaut sur sa dette souveraine. Un an male (la perte de 50 % des fonds
après le déclenchement de la crise asia- propres en un mois représentait un
tique, les marchés financiers ont réagi événement dépassant dix écarts-types
très brutalement par une fuite vers la d’amplitude) du fait de l’hypothèse de
qualité (flight to quality) : l’écart de normalité. Ensuite, ces valeurs anor-
rémunération entre les titres de dette males ont entraîné des pertes énormes
d’État et les meilleures obligations à cause du levier gigantesque obtenu
corporate passe de 6 à 24 points de par le crédit de LTCM. Les banques
base (0,06 à 0,24 point de pourcen- n’auraient pas dû prêter à un fonds
tage). La prime de risque explose à dans les conditions auxquelles elles se
tous les niveaux. LTCM, qui misait sur prêtent (c’est-à-dire à un coût très
la réduction de la prime de risque avec faible), car LTCM n’était pas supervisé
des volumes énormes, enregistre des par les autorités de marché comme
pertes astronomiques : 50 millions de l’est une banque. La défaillance est
dollars par jour, avec des pointes donc interne mais aussi externe : le
à 500 millions les 21 août et contrôle des autorités et des pairs ne
21 septembre 1998. Le 22 septembre, s’est exercé que quand la faillite immi-
la FED convie les principaux banquiers nente menaçait tout le système
de la place de New York pour un petit financier.
déjeuner où il est décidé de recapita- La chute de LTCM conduit donc à
liser — c’est-à-dire de renflouer — réviser la modélisation probabiliste des
LTCM qui a perdu ses 4 milliards de risques financiers ainsi que la régle-
dollars de fonds propres et menace le mentation prudentielle des activités de
système financier. marché.

probabiliste de la décision contre la nature pour entrer dans le


domaine des interactions, et ce sont plutôt les travaux hétéro-
doxes qui décrivent cette polarisation mimétique des
anticipations.
Si on veut conserver un cadre de raisonnement probabiliste, on
peut intégrer le risque de krach aux modèles en remplaçant les
processus normaux par des processus alpha-stables. Il faut alors
les repenser, car le calcul des solutions ne va plus forcément de
soi : la lourdeur analytique des lois alpha-stables (pour lesquelles
il n’existe en général pas de densité) ne garantit pas l’existence
de formules d’évaluation dites « fermées » (closed-form equations).
Il faut alors inventer des procédures de calcul numériques qui
sont longues à développer et coûteuses en temps de calcul. Cela
promet de donner du travail à des générations de mathémati-
ciens et de physiciens. Surtout, l’épaississement des queues de
distribution entraîne l’élargissement des intervalles de fluctuation
62 LA NOTION DE RISQUE EN ÉCONOMIE

potentiels et donc le renchérissement des produits financiers pour


faire place à ces marges de sécurité. On peut alors craindre un
dumping financier : les firmes soumises aux régulations les plus
laxistes proposeraient des produits moins sûrement garantis mais
moins coûteux. La faillite de LTCM illustre la gestion aux limites
d’un hedge fund non soumis aux régulations de la profession
bancaire.
De manière plus générale, il n’existe pas de théorie mathéma-
tique du risque financier comparable à la théorie mathématique du
risque des actuaires (voir supra). Alors que les assureurs ont depuis
deux siècles appris à évaluer le risque global lié à un ensemble de
contrats, les financiers sont tributaires d’hypothèses de calcul qui
excluent la notion de risque.

Épistémologie

Les deux sections précédentes ont dressé un tableau contrasté


de la théorie financière et de ses applications. Cette discipline
académique naît avec une prétention opérationnelle très forte,
mais ses insuffisances conceptuelles d’une part, la nature de ses
hypothèses d’autre part, conduit à penser que la relation entre
les modèles et la réalité est peut-être d’un genre spécial (voir This
[1996] pour un survey sur la question).

Keynes : convention et compétition

Keynes doute de la possibilité de prévoir à cause de l’incertitude


radicale. Il constate d’ailleurs les biais cognitifs qui président à la
constitution d’une prévision :
« Il serait absurde, lorsqu’on forme des prévisions, d’attacher
beaucoup de poids aux choses très incertaines. Il est donc raison-
nable de se laisser guider dans une large mesure par les faits dont
on se sent assez certain, même s’ils n’ont pas pour le fait consi-
déré une importance aussi décisive que d’autres faits dont on n’a
qu’une connaissance limitée et imprécise. C’est pourquoi les faits
actuels jouent un rôle qu’on pourrait juger disproportionné dans
la formation de nos prévisions à long terme ; notre méthode habi-
tuelle consistant à considérer la situation actuelle, puis à la
projeter dans le futur après l’avoir modifiée dans la seule mesure
où l’on a des raisons plus ou moins précises d’attendre un chan-
gement » [Keynes, 1936, p. 164].
LA FINANCE COMME DISCIPLINE : THÉORIES 63

Cette méthode est si répandue que chacun peut s’attendre à ce


qu’elle soit utilisée par tous. Si bien que, face à l’incertitude de
l’avenir, cette convention permet de faire converger les plans des
acteurs sociaux, et en particulier des opérateurs financiers : « Dans
la pratique, nous sommes tacitement convenus, en règle générale,
d’avoir recours à une méthode qui repose à vrai dire sur une pure
convention. Cette convention consiste essentiellement — encore
que, bien entendu, elle ne joue pas toujours sous une forme aussi
simple — dans l’hypothèse que l’état actuel des affaires conti-
nuera indéfiniment à moins qu’on ait des raisons définies
d’attendre un changement » [Keynes, 1936, p. 167].
En tant qu’instrument de détermination des prix, les modèles
constituent donc une forme élaborée de convention dont on
constate ici qu’elle n’est « pas toujours sous une forme aussi
simple ». Si, pour les marchés spot, on peut se contenter d’asser-
tions grossières du genre « compte tenu de l’offre et de la
demande, le prix de telle matière première devrait être tant », il
n’en va plus de même dès qu’on fait intervenir les futures, puis les
dérivés. Les modèles d’évaluation sont une forme, assez complexe
il est vrai, de bon sens également grossier. En effet, le jugement des
modèles, comme celui du professionnel des marchés spot, repose
sur un grand nombre d’hypothèses implicites, et ces jugements
sont utilisés sans qu’on fasse état de réserves sur elles.
Ceci n’exclut pas d’autres usages des théories, qui peuvent
rassurer leur auteur soit comme dispositifs magiques, soit comme
gesticulation, soit encore comme discours de légitimation, le tout
éventuellement à usage des autres. La première catégorie pourrait
être illustrée par une citation tirée de la Théorie générale de 1936 :
« Il est probable que nos décisions de faire quelque chose de
positif dont les conséquences s’échelonneront sur de nombreux
jours ne peuvent pour la plupart être prises que sous la poussée
d’un dynamisme naturel — d’un besoin spontané d’agir plutôt
que de ne rien faire — et non en conséquence d’une moyenne
pondérée de bénéfices quantitatifs multipliés par des probabilités
quantitatives. […] Le calcul exact des bénéfices à venir joue [dans
l’entreprise] un rôle à peine plus grand que dans une expédition
au Pôle Sud. Aussi bien, si le dynamisme faiblit, si l’optimisme
naturel chancelle, et si par suite on est abandonné au ressort de
la seule prévision mathématique, l’entreprise s’évanouit et meurt,
alors que les craintes de pertes peuvent être aussi dépourvues de
base rationnelle que l’étaient auparavant les espoirs de profit »
[Keynes, 1936, p. 171].
64 LA NOTION DE RISQUE EN ÉCONOMIE

Mais Keynes est aussi conscient de la nécessité de faire comme


si les bases rationnelles existaient : « La nécessité d’agir et de
décider nous pousse, comme hommes d’action, à faire de notre
mieux pour dépasser cet état de fait contrariant [l’impossibilité
d’un calcul rationnel]. En conséquence, nous nous comportons
comme nous devrions si nous avions réalisé le bon calcul bentha-
mien relatif à la série d’avantages et de désavantages supposés,
chacun multipliés par sa probabilité respective, en attendant
d’être additionnés » [Keynes, 1937, p. 114].
Ainsi, la constitution d’une convention n’exclut pas des effets
de style, de réputation, de compétition entre spéculateurs ou
firmes rivaux. Les modèles illustrent la compétition symbolique
entre institutions financières : en témoigne leur publication sur
les sites web des banques ou dans les revues professionnelles de
prestige. Ces modèles font la visibilité et la crédibilité des
nouveaux produits, ceux qui rapportent beaucoup quand la
banque innovatrice est encore en situation de monopole. Elle est
rapidement rejointe par les concurrentes qui développent des
modèles concurrents d’évaluation, et la convergence des évalua-
tions est rassurante pour les clients potentiels. Cet usage très parti-
culier de modèles qui ressemblent à s’y méprendre à ceux de la
physique et font, comme ces derniers, l’objet de publications dans
des revues spécialisées, appelle l’intérêt sur les usages sociaux de
la finance, tant à l’intérieur du groupe social formé par les finan-
ciers que dans sa relation au reste de la société.
Tout cela tend à prouver que les marchés financiers induisent
des interactions d’une complexité inouïe. Dès lors, l’emprunt aux
sciences de la nature d’un formalisme et d’une épistémologie
semble d’une naïveté dérisoire. Mais il faut rappeler que l’essentiel
des outils du calcul des probabilités depuis Pascal — des mesures
de dispersion à la théorie des tests au XVIIIe siècle [Pradier, 2003],
aux processus stochastiques [Bachelier, 1900], à la programma-
tion dynamique stochastique (selon Massé [1946], comme on le
verra au chapitre suivant) — ont leur source dans des questions
liées à l’économie, à la finance ou à la gestion, à une époque où
ces domaines n’étaient pas forcément distincts. Pourtant, ces
innovations théoriques n’ont pas été considérées avant d’avoir
été consacrées par les sciences de la nature. C’est parce que les
mathématiques probabilistes « marchent » en physique qu’on les
emploie en finance alors même qu’elles ont été conçues pour la
finance ! Étrange phénomène qui appelle à réfléchir autant sur les
théories que sur leur statut épistémologique.
LA FINANCE COMME DISCIPLINE : THÉORIES 65

on ne peut donc appliquer les modèles


Toute petite sociologie sans quelques compromis.
de la finance contemporaine La finance comportementale ne se
contente pas de stigmatiser les compor-
Alors que les ingénieurs et physiciens qui tements de ces noise traders (partici-
développent les modèles financiers pants irrationnels aux transactions sur les
d’évaluation pensent leur activité à marchés financiers) : les théories qu’elle
l’instar des sciences de la nature, on suscite permettent de comprendre
peut leur opposer le caractère conven- l’effet de ces noise traders sur les prix des
tionnel de leurs créations qui ne valent actifs et les fonctionnements des
que parce qu’elles sont crues valables. marchés. Les conséquences de cette
Ceci devrait nous conduire naturelle- prise en compte conduisent à valider des
ment à considérer les théories finan- stratégies apparemment dominées
cières comme des faits sociaux et à les (gestion passive, qui consiste à constituer
étudier en sociologues, comme le font des portefeuilles répliquant les indices ;
les membres de la Social Studies of positive feedback, qui conduit à
Finance Association (http://ssfa.free.fr/). « prendre le train en marche » et à en
Mais les théoriciens de la finance ont descendre avant qu’il ne s’arrête, bref à
aussi leur interprétation de l’insatisfac- acheter les actions qui montent et à
tion épistémologique que suscite leur vendre celles qui baissent). Il apparaît
discipline : le mouvement de la finance aussi que l’activité d’arbitrage change de
comportementale (behavioral finance) nature, elle apparaît d’autant plus
s’intéresse aux conséquences de l’intro- risquée qu’il y a plus de noise traders, elle
duction de populations irrationnelles sur peut s’appuyer sur le stock picking (choix
les marchés. Remarquons l’habileté de de titres par opposition à la diversifica-
cette défense : elle consiste à admettre tion ou à la gestion passive) ou sur la
l’irrationalité de certains (les autres, création de titres spécifiquement
évidemment) et à tirer des conclusions demandés par les noise traders (attitude
rationnelles de l’irrationalité de ces dite « proactive »). On trouvera une
autres. Qui sont les irrationnels ? Des présentation percutante des acquis de
gens qui se laissent aller à écouter les cette littérature dans Aktas [2004].
gourous de l’analyse dite « technique »
(appelée aussi « chartisme », elle
consiste à inférer les cours futurs de la
forme visuelle des courbes de prix
passés), mais aussi les conseils de cour-
tiers intéressés aux commissions, ou des
victimes de leurs propres biais heuris-
tiques qui surréagissent aux événements
de marché, surpondèrent l’information
récente, donnent trop d’importance aux
pertes (tous phénomènes psycholo-
giques largement étudiés par les cogni-
ticiens comme Kahneman, lauréat du
« prix Nobel » en 2002), mais aussi
pourquoi pas les traders qui bricolent les
modèles pour tenir compte du smile de
volatilité… ou ceux qui ne le font pas !
Car c’est bien le problème : il n’y a pas
de probabilités a priori dans la réalité, et
V / Les applications de la théorie de la décision

À partir des années 1930, le dirigisme économique semble


mieux résister que les démocraties à la crise économique, les tech-
nocrates planistes rêvent d’imposer une décision centralisée pour
remédier au désordre des marchés, les keynésiens et rooseveltiens
affirment le primat de l’action économique de l’État, et la guerre
achève de prouver le bien-fondé d’une coordination centrale.

Les années 1950 : planification et calcul

L’intérêt pour la décision économique s’exprime dans un cadre


institutionnel où l’État est très présent : chez les Américains,
l’armée s’intéresse de près au développement de la recherche
opérationnelle. En France, c’est autour du Plan et d’EDF que les
questions de décision économique vont se poser avec le plus
d’acuité.

Statistical Research Group contre plan Monnet

L’armée américaine a porté un intérêt et des moyens considé-


rables au développement de la recherche opérationnelle. Les
marins du groupe de recherche pour la guerre anti-sous-marins
(ASWORG), sous la direction de Philip Morse, sont considérés
comme les inventeurs de cette discipline ; les aviateurs ne sont
pas en reste puisque George Dantzig invente l’algorithme du
simplexe qui permet de résoudre automatiquement des
programmes linéaires. On pourrait multiplier les exemples,
d’autant qu’après-guerre, l’Office of Naval Research et la RAND
Corporation vont continuer de financer bien des programmes de
recherche. Toutefois, c’est le Statistical Research Group, actif de
LES APPLICATIONS DE LA THÉORIE DE LA DÉCISION 67

juillet 1942 à septembre 1945 à l’Université de Columbia (New


York), qui apporte les contributions les plus remarquables à
l’économie du risque.
Comme son nom l’indique, ce Groupe de recherche statistique
a développé les méthodes de la recherche opérationnelle stochas-
tique pour permettre aux universitaires de contribuer à l’effort de
guerre. On peut se faire une idée de son importante activité en
citant les deux principaux ouvrages théoriques qui en seront le
produit après-guerre : l’ouvrage de Freeman et al. [1948] concerne
les techniques d’échantillonnage et celui de Wald [1947] constitue la
référence en matière d’analyse séquentielle. Voilà pour l’expres-
sion théorique de ces travaux. Concrètement, le groupe conçoit
des procédures statistiques permettant de décider, et Wallis [1980,
p. 322] donne des exemples de ces décisions :
« Les chasseurs allaient au combat avec leurs mitrailleuses
chargées suivant les recommandations qu’avait formulées Jack
Wolfowitz pour apparier les munitions ; peut-être les pilotes
reviendraient-ils, et peut-être pas. Les avions d’attaque de la
Marine lançaient des roquettes dont les combustibles avaient été
validés par les plans d’échantillonnage de Abe Girshick ; peut-
être ces roquettes allaient-elles faire sauter nos avions et nos
pilotes, peut-être détruiraient-elles leur cible. […] En décembre
1944, des officiers généraux vinrent à Washington en pleine
bataille d’Alsace pour y discuter toute une journée des réglages
optimaux pour les fusées de proximité des obus […] et mirent en
place les conseils de (entre autres) Milton Friedman. »
Les hommes du SRG qui conçoivent ces tests statistiques sont
fréquemment à la frontière de l’économie, comme Harold Hotel-
ling et Abraham Wald, ou économistes comme Milton Friedman
ou George Stigler ; certains statisticiens comme Savage ou
Mosteller contribueront à la théorie de la décision, tout comme
von Neumann. On retrouve au SRG cette créativité pluridiscipli-
naire qui avait marqué la fin du XVIIIe siècle, en particulier la méta-
phore entre les théories économique et statistique de la décision.
Dans cette perspective de décision, le statisticien est confronté à
deux risques, conventionnellement nommés après Neyman risque
de première espèce et risque de seconde espèce. Le premier correspond
au rejet d’une hypothèse vraie, le second à l’acceptation d’une
hypothèse fausse. Les statisticiens du SRG ont cherché des procé-
dures de décision qui minimisent ces risques tout en coûtant le
moins cher possible (en frais d’inspection, d’enseignement des
règles, etc.).
68 LA NOTION DE RISQUE EN ÉCONOMIE

La théorie de l’utilité espérée : exemples

L’évaluation des perspectives aléatoires par une espérance d’utilité a déjà été
présentée en introduction (encadré « La représentation du risque dans la théorie
économique : choix individuels entre variables »). On précise ici le sens de l’aversion
ou du goût pour le risque.
Les comportements d’achat d’assurance sont représentatifs de l’aversion pour le
risque : Bernoulli les représentait déjà par une fonction d’utilité concave (la fonction
logarithme), synonyme dans la théorie moderne de cette aversion. Cette aversion se
caractérise par la disposition des agents à payer pour se débarrasser d’un risque. La
prime d’assurance est supérieure à l’espérance du sinistre, car il faut prévoir les frais
de fonctionnement (et le profit) de la compagnie d’assurances : c’est le rôle du char-
gement, comme on l’a vu au chapitre II. Graphiquement, l’aversion pour le risque se
traduit par le fait que l’espérance d’utilité est inférieure à l’utilité de l’espérance (que
procurerait une assurance sans chargement).
L’exemple représenté par le graphique 6 illustre le cas d’une assurance-habita-
tion : en cas de sinistre, la perte d’utilité est très grande (la probabilité de sinistre est
exagérée pour rendre la disposition à payer plus visible).

Graphique 6. Aversion pour le risque et achat d’assurance

Utilité Utilité
de l'espérance

Coût du rique =
disposition à payer
une assurance
(exprimée en
termes d'utilité)

Situation Richesse
Espérance d'utilité Situation
actuelle
après
un sinistre Espérance de richesse
compte tenu du risque
de sinistre

Le goût pour le risque est représenté par une fonction d’utilité convexe. Il s’illustre
par la participation aux jeux de hasard : du fait que les loteries ont des coûts de fonc-
tionnement (parmi lesquels le prélèvement fiscal n’est en général pas négligeable),
l’espérance de gain d’un billet est en général très inférieure au coût du billet de loterie.
Ici encore, on exagère la probabilité de gain, afin que l’espérance se trouve dans la
partie où la distance entre utilité de l’espérance et espérance d’utilité est maximale.
L’écart désigne encore le consentement à payer le billet de loterie.
De manière générale, on a :
valeur du risque = espérance d’utilité – utilité de l’espérance
ou formellement pour une variable aléatoire X = (xi, pi) i B[1,n]
n n
valeur du risque = Sp
i=1
i × U(xi + W)) – U(W + S p x ).
i=1
i i

Si cette valeur est négative, alors le risque a un coût.


LES APPLICATIONS DE LA THÉORIE DE LA DÉCISION 69

Graphique 7. Goût pour le risque et participation aux jeux de hasard

Utilité
Espérance
d'utilité

Valeur du risque =
disposition à payer
le billet de loterie
(exprimés en
termes d'utilité)

Utilité Situation Situation en cas


de l'espérance actuelle de gain à la loterie
Espérance de richesse
compte tenu de la chance
de gagner

Si l’aversion pour le risque (fonction d’utilité concave) se traduit par l’achat d’assu-
rance et que le goût du risque (fonction d’utilité convexe) se traduit par la partici-
pation aux jeux de hasard, il reste à rendre compte de la possibilité pour un individu
de faire les deux : s’assurer et jouer au Loto. Les auteurs des XVIIIe et XIXe siècles étaient
conscients de cette difficulté : les gens s’assurent et jouent pourtant, et il ne sert à rien
de leur dire que la théorie considère ces comportements comme incompatibles.
La « solution » de ce problème très théorique est donnée par Friedman et Savage
[1948] : la fonction d’utilité est concave puis convexe. La zone de concavité corres-
pond au comportement d’assurance : on ne veut pas perdre le niveau de vie que l’on
a acquis. La zone de convexité correspond à la possibilité pour un agent économique
de changer de classe sociale, rêve qu’il caresse en achetant un billet de loterie.

Graphique 8. Assurance et goût du risque


Utilité (U)
E

G
F
C
D

I* I I* I*
Revenu (I)

Source : Friedman et Savage [1948, p. 295].


70 LA NOTION DE RISQUE EN ÉCONOMIE

Du côté des Français, le centre névralgique est « le » séminaire


de Maurice Allais à l’École des mines de Paris [Pradier, 2005b].
En fait, il y a plusieurs séminaires Allais : un séminaire grand
public, dit séminaire GRES, abordant au café Cérou, place Saint-
Sulpice, des sujets d’actualité sur un ton voisin de la vulgarisa-
tion ; un séminaire de travail, le véritable séminaire Allais, qui se
tenait aux Mines ou à l’Institut Henri-Poincaré, ouvert à ses
étudiants et à des économistes confirmés. Les mêmes fréquen-
taient généralement les séminaires complémentaires de Georges
Darmois à l’Institut de statistique de l’université de Paris et de
René Roy au CNRS. Les élèves d’Allais ont pour nom Marcel
Boiteux, Gérard Debreu, Jacques Lesourne, Edmond Malinvaud ;
parmi les seniors, on compte Georges-Théodule Guilbaud, Pierre
Massé, Georges Morlat. Entre novembre 1950 et mai 1953, pas
moins de seize séances des séminaires Allais sont consacrées à la
théorie de la décision, au risque, à l’incertitude.

Allais contre Savage

Au mois de mai 1952, Darmois et Allais ont convoqué le gratin


de l’économie mathématique — on parle encore d’économétrie —
à Paris pour un colloque du CNRS. À la veille de la conférence,
la théorie de l’utilité espérée est, de l’avis de (presque) tous, une
théorie normative, c’est-à-dire qu’il paraît souhaitable de s’y
conformer pour décider dans les situations où il existe un élément
de risque. Quelques Américains pensent néanmoins que la théorie
possède également une vertu descriptive, c’est-à-dire qu’elle
rendrait compte des comportements de décision effectivement
observés : pour Friedman et Savage [1948], la théorie de l’utilité
espérée permet de comprendre pourquoi les gens sont simultané-
ment acheteurs de billets de loterie (à un prix supérieur à l’espé-
rance mathématique de gain) et de contrats d’assurance (à un prix
supérieur à l’espérance mathématique de perte).
Pour Buffon, la science doit guider les ignorants, et c’est une
chance qu’elle soit normative. Pour Marshall, la science doit
représenter les décisions effectives des agents économiques et il
est assez ennuyeux que l’hypothèse de Bernoulli ne permette pas
de rendre compte de comportements effectivement observés :
participation aux jeux (ou bien alors il faut tenir compte d’un
« plaisir du jeu » parfaitement ad hoc), achat d’assurance pas auto-
matique (d’où les obligations légales). Les contributions de von
Neumann et Morgenstern [1944] et Friedman et Savage [1948]
ont pu sembler lever ces deux obstacles au caractère descriptif de
LES APPLICATIONS DE LA THÉORIE DE LA DÉCISION 71

la théorie. Les premiers font valoir que les choix effectivement


opérés par un décideur permettent de déduire sa fonction
d’utilité, ce qui lève l’hypothèque de l’arbitraire. Les seconds
montrent qu’une fonction d’utilité judicieusement choisie (c’est-
à-dire concave puis convexe) permet de concilier assurance et
achat de billets de loterie. En 1952 encore, Friedman et Savage
revendiquent le caractère descriptif de leur théorie : « L’hypo-
thèse selon laquelle les individus choisissent entre des actions
alternatives risquées comme s’ils cherchaient à maximiser l’espé-
rance d’une quantité, que nous avons appelée utilité, est conçue
comme une hypothèse scientifique qui permet de faire des prévi-
sions correctes sur le comportement individuel » (p. 473).
Au cours d’un déjeuner, Allais propose à Savage une série de
vingt questions dont deux constituent ce qu’on appelle d’ordi-
naire le Paradoxe :
1. Préférez-vous la situation A à la situation B ?
2. Préférez-vous la situation C à la situation D ?

Situation A Situation C

– certitude de recevoir 100 millions – probabilité 11 % de gagner


100 millions
– probabilité 89 % de ne rien gagner

Situation B Situation D

– probabilité 10 % de gagner – probabilité 10 % de gagner


500 millions 500 millions
– probabilité 89 % de gagner – probabilité 90 % de ne rien gagner
100 millions
– probabilité 1 % de ne rien gagner

Savage choisit A et D. Or, au titre de l’utilité espérée, si Savage


choisit A plutôt que B, c’est parce que sa fonction d’utilité U est
telle que :
U (100 M + W) > 0,1 × U (500 M + W) + 0,89 × U (100 M + W)
+ 0,01 × U (W).
En ajoutant de part et d’autre de l’inégalité 0,89 × U (W) –
0,89 × U (100 M + W), on devrait donc avoir :
0,11 U (100 M + W) + 0,89 × U (W) > 0,1 × U (500 M + W)
+ (0,89 + 0,01) × U (W)
et donc C préféré à D.
Les choix de Savage contredisent donc sa théorie. Quelques
jours après, Savage avoue son erreur : s’il s’est trompé, c’est que la
72 LA NOTION DE RISQUE EN ÉCONOMIE

théorie a raison. La théorie n’est donc plus descriptive, mais reste


normative.
C’est à ce point qu’intervient la seconde dimension du Paradoxe,
qui est probablement la plus intéressante : Allais entreprend de
réfuter empiriquement une théorie normative. A priori, des obser-
vations ne peuvent pas remettre en cause une norme : si les indi-
vidus réels ne décident pas comme la théorie raisonnable, alors
ils ne sont pas raisonnables. Mais devant l’incapacité de Savage
à prouver que sa théorie est la seule raisonnable, Allais choisit
de poser la même question à des individus « dont on a de bonnes
raisons de penser par ailleurs qu’ils sont raisonnables ». Si les
choix effectifs des individus sont conformes à la théorie, alors on
pourra penser qu’elle représente les choix des individus raison-
nables et donc qu’elle est une théorie de la décision raisonnable.
Si les choix effectifs des individus violent de manière statistique-
ment significative la théorie, alors on doit penser que la théorie
impose des contraintes non strictement rationnelles.
Durant l’été 1952, Allais envoie son questionnaire à des
centaines de décideurs économiques, chercheurs en économie ou
ingénieurs des grands corps versés dans la gestion des entreprises
publiques. S’il ne publie ses résultats que vongt-cinq ans après, il
apparaît rapidement que près de 40 % des enquêtés font le choix
de A et D.

La décision après l’utilité espérée

Au long des années 1960, quelques psychologues vont s’inté-


resser à ce contre-exemple d’Allais (le terme « paradoxe » n’apparaît
que sous la plume d’Allais en 1979, et il semble plus judicieux
de le réserver au dispositif de réfutation expérimentale d’une
théorie normative). Daniel Kahneman, lauréat du « prix Nobel »
d’économie en 2002, est l’un de ces psychologues. Parmi toutes
les alternatives explorées au long des années 1975-1995, les
théories dites à dépendance de rang (Rank-Dependent Utility ou
RDU) sont les plus prometteuses. En effet, elles seules sont compa-
tibles avec les ordres stochastiques, en particulier avec la domi-
nance première ou préférence absolue (voir encadré « Les ordres
stochastiques »).
Les théories RDU représentent un affaiblissement logique de
l’UE en ce qu’elles autorisent, en plus de la déformation des paie-
ments à travers les fonctions d’utilité, une transformation des
probabilités. On a donc plus de possibilités pour représenter les
choix des agents et on peut rendre compte du choix A et C dans
LES APPLICATIONS DE LA THÉORIE DE LA DÉCISION 73

Markowitz, comme l’a montré Borch


Les ordres stochastiques [1969], la théorie dite « du regret », ou
la prospect theory de Kahneman et
La dominance stochastique (dite ensuite Tversky [1979]. Pour sauver ces hypo-
de premier ordre quand les ordres supé- thèses, il a fallu les rendre compatibles
rieurs ont été définis) est due à Mann et avec la dominance première. Ainsi,
Whitney [1947]. On dit qu’une distribu- Markowitz a choisi de reconstruire
tion f (représentée par sa fonction de l’analyse espérance-variance comme un
répartition F) domine stochastiquement cas particulier d’utilité espérée (avec des
au premier ordre g (représentée par sa fonctions d’utilité quadratiques de la
fonction de répartition G) si et seule- forme U(x) = ax – bx2). Kahneman et
ment si : Tversky, pour leur part, ont amendé la
Gx B IR, F (x) ^ G (x) prospect theory pour aboutir à la cumula-
ax0 B IR, F (x0) ! G (x0). tive prospect theory, qui est un exemple
L’intuition de ce critère est que la de théorie RDU.
distribution dominante offre à chaque Dans le même esprit, on peut définir
point une masse de probabilité supé- la dominance stochastique de deuxième
rieure pour les issues meilleures. On peut ordre (qui représente les préférences de
traduire graphiquement ces inégalités tous les agents dont les préférences sont
en remarquant que la fonction de répar- représentées par des fonctions d’utilité
tition de la loterie dominée est toujours concaves, donc tous les agents caracté-
au-dessus de celle de la loterie domi- risés par une aversion pour le risque).
nante. Une loterie dominante au sens de On dit qu’une distribution f (repré-
la dominance première montre des paie- sentée par sa fonction de répartition F)
ments supérieurs ou égaux dans tous les domine stochastiquement au deuxième
états du monde et strictement supé- ordre g (représentée par sa fonction de
rieurs dans au moins un état du monde, répartition G) si et seulement si :
ce qui paraît incontestablement x x
meilleur. Gx B IR, @ F(t)dt ^ @– qG(t)dt
–q
Tous les décideurs maximateurs x0 x0

d’utilité espérée dont les préférences ax0B IR, @ F(t)dt ! –@qG(t)dt.


–q
sont représentées par des fonctions
d’utilité croissantes préféreront une Ce critère permet de départager des
loterie stochastiquement dominante. loteries ayant des espérances égales
C’est donc un critère très fort, mais qui (mêmes aires sous les fonctions de répar-
par contrecoup établit un ordre très tition). L’intuition est que la loterie
incomplet. La dominance première dominante concentre une plus grande
semble si intuitive qu’elle est employée masse de probabilité au centre de la
par d’Alembert et Le Rond [1761], et elle distribution (et non aux extrémités). De
a reçu un statut axiomatique, par la même façon, on peut définir la domi-
exemple chez Massé et Morlat [1952], nance d’ordre n avec une intégrale
qui parlent de préférence absolue. (n – 1)-uple [voir Hadar et Russell, 1969 ;
De nombreuses théories alternatives Hanoch et Levy, 1969].
de la décision ont été abandonnées
parce qu’elles violaient la dominance
première. Cela signifie qu’un décideur
en accord avec la théorie pouvait choisir
une loterie qui donnait des résultats infé-
rieurs dans tous les états du monde !
Citons par exemple l’approche de
74 LA NOTION DE RISQUE EN ÉCONOMIE

le contre-exemple d’Allais. Toutefois, la forme des fonctions de


décisions est complexe. Dans un premier temps, Kahneman et
Tversky [1979] avaient proposé une fonction intuitive : pour une
variable aléatoire õ = (oi, pi) i B[1,n], une richesse initiale W, et une
n
fonction d’utilité U, au lieu de S pi.U(W + oi) dans l’UE, on aurait
i=1
pu écrire :
n

i=1
S y (p ) × U(o ) où y (•) est la fonction de déformation des
i i

probabilités et U une fonction d’utilité spécifique (distincte de


celle de l’UE). Malheureusement, cette prospect theory exposait au
risque de violation de la dominance stochastique. Pour éviter ce
risque, la fonction de décision RDU est spécifiée de manière bien
plus complexe :
n
ϕ (p1). U (o1) + S ϕ (p ).U(o i i – oi – 1), où ϕ (•) est la fonction de
i=2

déformation des probabilités, et U une fonction d’utilité. Il faut en


outre que les = (oi, pi) i B[1,n] soient rangés par ordre croissant, si
bien que la fonction d’utilité transforme les paiements supplé-
mentaires. Elle est donc différente de la fonction d’utilité pour
la richesse de Bernoulli à Marshall ou de celle de la théorie de
l’utilité espérée.
Les nouvelles théories de la décision, si elles sont compatibles
avec les observations des psychologues qui réfutaient la TUE, sont
aussi plus complexes que cette dernière. Le temps qu’a nécessité
leur mise au point est un signe de leur subtilité conceptuelle et
analytique. La lourdeur du formalisme rend difficile l’obtention
de « résultats », c’est-à-dire de théorèmes parlants qu’on rencontre
dans la suite du chapitre (ordres stochastiques, anticipations
rationnelles, microéconomie de l’assurance, etc.). C’est pourquoi
les économistes continuent d’utiliser la TUE, même si chacun sait
qu’elle ne représente pas bien les préférences des sujets d’expé-
rience. Pour échapper à cet écart entre une théorie descriptive
inutile et une théorie fausse mais commode, les économistes font
parfois valoir que la TUE aurait une validité locale, par exemple
pour les décisions « habituelles » (par exemple l’achat d’assu-
rance). La commodité reste cependant une raison pratique suffi-
sante, même si elle est ne suffit pas à fournir des fondements
épistémologiques suffisants.
LES APPLICATIONS DE LA THÉORIE DE LA DÉCISION 75

La mesure du risque. — On a vu (encadré « La Théorie de l’utilité


espérée ») que la mesure du risque est contingente à une fonc-
tion d’utilité, c’est donc toujours une appréciation subjective. Or
on aimerait disposer de mesures objectives du risque : une idée
serait d’utiliser la variance, comme les financiers, mais elle pose
un double problème. D’abord, une variance donnée ne représente
pas le même « risque » si on l’applique autour de zéro ou autour
d’un gain. Ensuite, l’éventuelle violation de la rationalité par les
décideurs markowitziens non maximisateurs d’utilité espérée
(voir encadré). La recherche d’une mesure du risque à la fois
objective et admissible au regard de la rationalité n’est donc pas
acquise dans la TUE.
Une autre idée est de raisonner non sur des fonctions particu-
lières, mais sur des classes de fonction. Les mesures du risque qui
en résultent sont peu utilisées pour deux raisons. La première
tient à leur technicité qui en limite l’emploi aux seuls spécia-
listes. La deuxième est que les ordres stochastiques sont des rela-
tions d’ordre très incomplètes : en général, il n’est pas possible de
classer des couples de loteries suivant la dominance stochastique
(voir encadré). Il n’existe à notre connaissance aucune étude (à
part Pradier [1998, chapitre VI] sur la possibilité d’appliquer dans
la réalité les ordres stochastiques). La question de la mesure du
risque reste donc en suspens.
Malgré tous ces problèmes, la TUE demeure pour deux raisons.
Les économistes apprécient sa souplesse et sa « fécondité », son
aptitude à produire des « résultats », c’est-à-dire des théorèmes,
grâce à sa forme analytique simple, celle d’une moyenne
pondérée. Avec les théories plus récentes, non seulement les
calculs sont plus lourds, mais il est souvent impossible d’inférer
des résultats aussi généraux.

Métaphores de la recherche opérationnelle

Jusqu’ici, on a parlé de recherche opérationnelle sans envisager


la relation qui unit celle-ci à la théorie économique. Nous allons
voir que la pratique des ingénieurs économistes les a conduits à
une vision particulière de l’homo œconomicus.

Ramsey, Massé, Pontryagin

Avant le développement de la programmation dynamique dans


les années 1950, deux auteurs avaient déjà contribué à résoudre
76 LA NOTION DE RISQUE EN ÉCONOMIE

des problèmes particuliers : Frank Ramsey dès la fin des années


1920 et Pierre Massé dans les années 1940.
Le modèle dit « de Ramsey » [1928] présente la problématique
de l’optimisation intertemporelle dans un cadre macroécono-
mique. Ramsey était partisan de la planification [Gaspard, 2003].
Son programme était analogue à un programme de maximisation
intertemporelle de la consommation par tête qui s’écrirait :
T

{ Max @ e-rt.u(c(t)) dt
0

s.c. c(t) = f(k(t)) – hk(t) – k· (t) = 0
k(0) donné.
La contrainte sur la consommation exprime à la fois les possi-
bilités de production (fonction de production f), l’obsolescence
du capital qui se produit au rythme h, et la nécessité d’investir

(k·(t)). La solution recherchée ici est la trajectoire k(t) de capital
par tête sur l’horizon qui maximise la consommation par tête.
Charge ensuite aux gouvernants de mettre en pratique cette
trajectoire du stock de capital qui optimise la consommation dans
la société.
Aux États-Unis, Richard Bellman contribue au développement
du contrôle optimal et s’intéresse aux conditions suffisantes de
l’existence d’un optimum. En URSS, Lev Pontryagin travaille pour
sa part sur la commande optimale ; le principe du maximum qu’il
formule conduit à des conditions nécessaires d’optimalité.
La perspective de Massé est également éclairante : alors qu’il
est seulement directeur des investissements de l’une des
1 200 entreprises privées produisant de l’électricité en France,
Pierre Massé publie un article [1944], puis un ouvrage [1946] alors
que l’Assemblée nationale discute le projet de loi de nationalisa-
tion et de création d’Électricité de France. Si les témoins de
l’époque créditent déjà Massé de la découverte indépendante du
principe de Pontryagin [Dreze, 1964, p. 5 ; Boiteux, 1993, p. 95],
aucun ouvrage n’a étudié en détail la contribution de ce grand
ingénieur français à la programmation dynamique ou à
l’économie mathématique. Signalons simplement qu’il cherchait
à déterminer les règles d’exploitation optimales des usines
hydroélectriques dotées d’une retenue. Toute la difficulté de
l’exercice est que les précipitations et les besoins en électricité
sont décalés dans l’année, et que la retenue du barrage sert à
transférer les réserves d’eau vers le moment où on a le plus besoin
d’électricité. Par la suite, Massé va considérer un problème encore
plus complexe, en cherchant à intégrer la décision de
LES APPLICATIONS DE LA THÉORIE DE LA DÉCISION 77

construction des usines électriques (thermiques ou hydroélec-


triques) dans le programme d’optimisation dynamique. C’est à la
suite de ces recherches pionnières et remarquable que de Gaulle
l’a choisi comme commissaire général du Plan en 1958.

De la gestion de stocks aux anticipations rationnelles

La gestion de stocks. — Beaucoup d’économistes sont ingénieurs


de formation : c’est évidemment le cas des Français rassemblés
autour d’Allais, et la lecture des biographies américaines confirme
cette opinion. Comme on l’a vu, les économistes américains ont
participé au développement de la recherche opérationnelle
durant la guerre ; une fois celle-ci terminée, ils ont produit
quelques applications des mêmes méthodes à des objets plus
économiques. La gestion de stocks offre un nouveau terrain à la
rencontre entre les questions des militaires (les recherches sont
financées par l’Office of Naval Research) et les capacités de jeunes
mathématiciens appliqués qui vont influencer la théorie écono-
mique. Cette problématique apparaît chez Arrow, Harris et Mars-
chak [1951] et trouve sa solution « définitive » chez Holt,
Modigliani, Muth et Simon [1960]. L’énumération des noms a son
importance, car on compte parmi ceux-là quatre « prix Nobel »
(Arrow, Modigliani, Muth, Simon), et l’on dit souvent que Mars-
chak aurait dû en être s’il n’était décédé prématurément. De plus,
Modigliani et Muth sont connus comme macroéconomistes ; le
dernier est l’inspirateur de l’école dite « des anticipations ration-
nelles » avec Lucas, Sargent, etc., qui est devenue dominante dans
les années 1980, comme en témoigne l’attribution du « prix
Nobel » 1995 à Robert Lucas.
Au départ, le problème de la gestion de stocks est le suivant : on
connaît à peu près la distribution de probabilité de la demande,
le coût de stockage et le coût de ne pas fournir la demande (pertes
d’image, de parts de marché) ; il s’agit de déterminer le plan de
production optimal (et le niveau de main-d’œuvre nécessaire).
C’est un problème d’optimisation délicat : d’abord il est stochas-
tique (la demande est aléatoire), ensuite il est intertemporel, enfin
il n’est pas forcément linéaire. La démonstration du résultat final
s’appuie donc sur une série de résultats mathématiques intermé-
diaires qui suscitent une littérature importante. Ce « résultat
final » est pour le moins inattendu : un théorème montre que,
sous certaines hypothèses, il est possible de négliger la dispersion, c’est-
à-dire le risque, et de ne considérer que l’espérance. Pour le lecteur
78 LA NOTION DE RISQUE EN ÉCONOMIE

permet de mettre à jour les probabi-


Les probabilités bayésiennes lités personnelles.
On peut mettre en perspective les
Bien que la référence au révérend probabilités objectives, logiques et
Thomas Bayes (1702-1761) évoque le bayésiennes en comparant leur rapport
siècle des Lumières, l’adjectif apparaît à l’objectivité. Pour un objectiviste, la
en fait dans les années 1950. À cette probabilité correspond à un fait
époque, Bruno de Finetti et Leonard naturel. Pour un probabiliste logique,
Jimmie Savage renouvellent la théorie la relation entre deux groupes
des probabilités subjectives, déjà revi- d’énoncés obéit aux lois objectives de
vifiée par Frank Ramsey. Cette la logique. Pour un bayésien, c’est la
approche « bayésienne » se caractérise règle de révision des probabilités qui
par : possède un statut objectif. C’est donc
— une conception subjective (on face à un flux d’informations nouvelles
dit aussi personnelle ou épistémique) que les bayésiens révèlent leur
des probabilités (au contraire de confiance dans leurs méthodes.
Knight qui pensait les probabilités Comme on avait remarqué une
comme des phénomènes objectifs) ; analogie entre décision économique et
dont la relation avec la probabilité décision statistique au XVIIIe siècle, on
logique des keynésiens est délicate doit observer que le développement
dans la mesure où tous les bayésiens de la programmation dynamique
ne pensent pas qu’un même ensemble (gestion des stocks) est contemporain
d’informations conduise à un même de l’analyse séquentielle de Wald
jugement de probabilité ; (méthode d’analyse statistique où la
— une confiance dans les méca- taille de l’échantillon n’est pas fixée à
nismes de révision des probabilités l’avance, mais déterminée par une
grâce à la règle de Bayes. Sans entrer règle d’arrêt).
dans les détails mathématiques, l’idée L’inférence bayésienne reprend la
fondamentale de l’inférence bayé- « probabilité des causes » des auteurs
sienne est que l’information nouvelle du XVIIIe siècle. Illustrons cette théorie

intéressé à la seule question du risque, cet artifice est frustrant.


En fait, l’expérience de la guerre a permis d’effacer la crainte de
l’incertitude ; les jeunes économistes clament leur enthousiasme
dans les méthodes statistiques modernes :
« On peut obtenir des plans d’action provisoires fondés sur
l’information présente, mais évidemment, ces plans seront sans
doute modifiés avant même leur mise en pratique, au fur et à
mesure que de nouvelles informations sont disponibles. Il
faudrait utiliser une méthode de prévision dont l’erreur soit nulle
en espérance, ou plus simplement en moyenne » [Holt, Modi-
gliani et Muth, 1955, p. 176].
Des « plans d’action provisoires […], modifiés […] au fur et à
mesure que de nouvelles informations sont disponibles » : voilà
le credo des bayésiens (voir encadré), confiants dans l’efficacité
asymptotique de leur méthode.
LES APPLICATIONS DE LA THÉORIE DE LA DÉCISION 79

par l’exemple d’un étudiant confronté Signalons que, s’il n’y avait que deux
à un QCM. S’il connaît son cours, choix possible au QCM, on obtiendrait
il répond correctement, mais si ce 2/3. Il semble donc qu’il faille
n’est pas le cas, il tire la réponse au augmenter le nombre de réponses
hasard parmi les quatre proposées à possibles au QCM pour mieux repérer
chaque fois. Il y a donc deux causes les étudiants qui n’ont pas travaillé.
possibles à une bonne réponse : Si, au contraire, l’étudiant n’avait
l’étudiant sait ; l’étudiant a de la appris qu’un quart de son cours avec
chance. Supposons que l’on sache que quatre questions, la probabilité serait
l’étudiant a révisé la moitié du 0,25 × 1/0,25 × 1 + 0,75 × 0,25 = 4/7.
programme. On se demande alors On voit donc que moins un étudiant
quelle est la probabilité pour qu’une a appris son cours, moins une bonne
réponse juste soit due à ses connais- réponse est indicative de son travail.
sances et non au hasard. Ce phénomène assez ennuyeux
Selon la règle de Bayes, cette proba- s’explique simplement par le fait que
bilité vaut (le symbole | signifie si l’étudiant ne sait rien, les bonnes
« sachant que ») : réponses ne peuvent être obtenues
probabilité (l’étudiant sait|réponse que par hasard.
juste) Il existe un usage dynamique de la
= probabilité (l’étudiant sait) × règle : on ne connaît pas p la propor-
probabilité (réponse juste|l’étudiant tion du programme effectivement
sait) apprise par l’étudiant. On commence
divisé par avec un p inconnu, et au fur et à
probabilité (l’étudiant sait) × proba- mesure que l’étudiant répond, p est
bilité (réponse juste|l’étudiant sait) + modifié par l’usage de la règle de
probabilité (l’étudiant ne sait pas) × Bayes. Autrement dit, chaque informa-
probabilité (réponse juste|l’étudiant ne tion nouvelle (réponse juste ou fausse)
sait pas) permet de se rapprocher de la valeur
soit 0,5 × 1/0,5 × 1 + 0,5 × 0,25 = recherchée (ici, la proportion du
0,5/0,625 = 4/5. programme connue de l’étudiant).

Anticipations rationnelles : les débuts. — Les économistes de la


génération suivante (Lucas, Sargent, Wallace, par exemple), qui
ont été formés dès leur plus jeune âge à ces modèles, les considè-
rent comme l’évidence. Pour eux, les entreprises gèrent leurs
stocks de manière rationnelle, donc suivant les prescriptions du
modèle. Les gestionnaires en charge des stocks n’ont pas de raison
particulière de cesser d’être rationnels quand ils quittent leur
bureau et c’est donc dans toute leur vie qu’ils doivent décider
ainsi. Enfin, comme il n’y a pas non plus de raison particulière
de penser que cette classe d’individus présente des dispositions
supérieures, on peut légitimement penser que l’humanité tout
entière décide comme les grandes entreprises gèrent leurs stocks. Tout
homo œconomicus qui se respecte doit raisonner en espérance et
oublier le risque. Cela suffit à lancer le courant des anticipations
rationnelles.
80 LA NOTION DE RISQUE EN ÉCONOMIE

L’historiographie [voir par exemple This, 1996] attribue à


l’article de Muth [1961] la paternité de ce courant de pensée : en
effet, Muth est le premier à transposer le théorème (codémontré
avec Holt, Modigliani et Simon [1960]) dans un cadre macroéco-
nomique. Mais c’est probablement l’habitude des méthodes de la
recherche opérationnelle qui conduisit les étudiants-écono-
mistes des années 1960 à accepter cette transposition. Le contenu
provocateur des AR n’est pas dans l’affirmation que les agents
optimisent comme des économistes théoriciens. En revanche,
affirmer que les agents connaissent le vrai modèle de l’économie
et les vraies distributions de probabilité des variables écono-
miques (à défaut d’en connaître la valeur certainement réalisée)
paraît plus osé. Il faut comprendre qu’à cette époque, les écono-
mistes « keynésiens de la synthèse », alors institutionnellement
dominants, essaient de modéliser l’économie à l’aide des ordina-
teurs les plus modernes. Ceux-ci sont en effet nécessaires pour
« faire tourner » des modèles à plusieurs milliers d’équations.
Comment admettre, dans ces conditions, que l’homme de la rue,
lui, connaît « le vrai modèle de l’économie » et que ce vrai modèle
compte trois équations : une équation d’équilibre par marché
(marchés du bien, du travail, de la monnaie).
Chez Muth, comme chez Lucas [1972] ou Sargent [1973], les
anticipations rationnelles, concernent d’abord les prix. Dans un
modèle déterministe, les anticipations rationnelles se tradui-
raient par une prévision parfaite ; dès lors que le modèle est aléa-
toire, c’est l’espérance qui est correctement anticipée par l’agent.
La référence à un univers bayésien sert à justifier cette connais-
sance asymptotique de la « vraie » distribution de probabilité de
chaque variable aléatoire, si celle-ci existe. L’« incertitude » est
représentée par un bruit blanc (d’espérance nulle, non corrélé
avec les variables du modèle).

Anticipations rationnelles et efficicence des marchés financiers.


— Au moment où les AR se développent chez les économistes,
elles progressent également chez les financiers. Sargent [1973] cite
les travaux de Fama à l’appui de son « hypothèse ». Le concept
d’efficience des marchés financiers (Efficient Market Hypothesis) fait
l’objet d’une littérature abondante [Walter, 1996]. Un marché
efficient « s’ajuste rapidement à l’information nouvelle » si bien
que « les prix reflètent pleinement l’information disponible ». La
théorie sous-entend que les prix résultent des conjectures formées
par les agents à l’aide de l’information disponible, et donc l’effi-
cience du marché signifie que les acteurs sont des décideurs
LES APPLICATIONS DE LA THÉORIE DE LA DÉCISION 81

bayésiens rationnels. En conséquence, il n’est pas possible, sans


information spécifique (par exemple un délit d’initié), de « battre
le marché ». Même si un investisseur peut réaliser un profit (ou
une perte), l’espérance de chaque opération sur le marché finan-
cier est a priori nulle. On retrouve l’hypothèse centrale de Bache-
lier, ce qui permet aux financiers de penser que l’hypothèse
d’efficience rend compte de théories plus anciennes. Il existe de
bonnes raisons de douter de cet état de fait, comme par exemple
la tendance haussière des bourses durant les décennies 1980-1990.
Les AR reposent sur une double simplification. D’abord simpli-
fication de la fonction de décision, par un retour à l’espérance
mathématique. Ensuite, simplification des interactions : si l’on
pouvait ignorer le comportement des autres agents dans un
modèle de gestion, cela semble plus critiquable quand on aborde
le fonctionnement d’un marché financier ou d’une économie
tout entière.

La macroéconomie

On doit distinguer l’usage microéconomique de la programma-


tion dynamique de son usage macroéconomique. Du côté microé-
conomique, toutes les méthodes liées à la recherche
opérationnelle ont permis la naissance d’une véritable gestion
scientifique, dont la gestion de stock a marqué le démarrage. Du
côté macroéconomique, les choses sont plus complexes. Chez
Ramsey et Massé, la possibilité du calcul d’un optimum social est
une source d’espoir : la planification centrale doit permettre
d’approcher l’optimum. Au même moment, des auteurs améri-
cains sont proches de ce point de vue, notamment Kenneth
Arrow, partisan d’une planification dont le modèle d’équilibre
général est pour lui une représentation. Cette planification n’est
pas contraignante mais incitative, à l’instar du commissariat
français au Plan, étonnamment célébré par Kindleberger [1967].
L’histoire du développement des méthodes d’optimisation dyna-
mique est donc liée au développement du planisme et à la grande
crise de confiance dans l’économie de marché dans les années
1930. Il n’est pas étonnant que cette thématique trouve un écho
favorable chez les ingénieurs-économistes français, en particulier
les brillants élèves de Maurice Allais, normaliens ou polytechni-
ciens corpsards qui rêvent de servir l’État et l’intérêt général en
fonctionnaires zélés et éclairés. Parmi ceux-ci, on peut
mentionner Marcel Boiteux, Gérard Debreu, Jacques Lesourne,
Edmond Malinvaud, qui sont probablement les plus célèbres.
82 LA NOTION DE RISQUE EN ÉCONOMIE

Cet enthousiasme n’est pourtant plus partagé par la génération


suivante. Si l’aspect gestion scientifique n’est pas remis en cause,
les théoriciens des anticipations rationnelles qui vont prendre la
suite utilisent au contraire les acquis de la programmation dyna-
mique pour montrer l’inefficacité de la politique économique. En
effet, tous les agents économiques étant à même de prévoir les
retombées d’une politique donnée vont l’intégrer à leurs prévi-
sions et digérer ses conséquences jusqu’à en annuler les effets
attendus. Du côté de la science économique, la « révolution »
tient en quelques mots : c’est l’ignorance des agents qui permet
aux États d’agir, mais dès que les agents sont conscients des méca-
nismes, les politiques traditionnelles deviennent inefficaces. Par
exemple, si les salariés savent que l’augmentation de la masse
monétaire va entraîner la hausse des prix et donc la baisse des
salaires réels, ils ajustent leur offre de travail au niveau de salaire
réel attendu, de telle sorte que la politique monétaire n’a pas
d’effet sur l’activité réelle et l’emploi (car elle ne réduit pas le
salaire réel, comme cela est supposé au contraire par les keyné-
siens qui mettent en avant la relation de Phillips). De même, les
contribuables savent qu’une politique de dépenses publiques doit
être financée et épargnent de quoi acheter des obligations d’État,
ce qui équivaut à un prélèvement fiscal et annule donc l’effet
expansionniste attendu d’une politique budgétaire keynésienne,
etc. Tout le débat rules vs. discretion repose sur cette hypothèse
implicite que les politiques keynésiennes n’ont fonctionné que
parce que les agents étaient trompés, et qu’on ne peut pas
tromper systématiquement les agents (mais seulement en menant
des politiques imprévisibles, donc erratiques, ce qui n’est pas
souhaitable quand on prétend stabiliser l’économie !).
Un des aspects de la contre-révolution keynésienne se joue
donc autour de l’interprétation donnée aux modèles d’optimisa-
tion dynamique. Alors qu’ils promettaient des lendemains qui
chantent jusqu’aux années 1960, avec l’intervention d’ingé-
nieurs dévoués au bien commun, ils montrent dès les années
1970 que l’État ne doit pas intervenir. Joli tour de force qui
montre, si besoin était, le rôle éminemment politique de la
science économique. Évidemment, si tout le monde est suffisam-
ment rationnel et si le marché est efficace (hypothèses de base),
l’État ne sert qu’à assurer la prédominance de groupes d’intérêt.
LES APPLICATIONS DE LA THÉORIE DE LA DÉCISION 83

La demande d’assurance : le modèle de Mossin (1968)

Un agent représenté par une fonction d’utilité U possède une richesse R. Il fait face
à un risque qui peut occasionner un sinistre d’un montant D avec une probabilité
p. Son espérance d’utilité est donc :
VNA = pU(R-D) + (1 – p) U(R).
Il peut également souscrire une prime d’assurance complète au taux P, ce qui
lui donnerait une satisfaction :
VA = U(R-P).
La prime maximale, Pmax, est telle que le consommateur est indifférent à
s’assurer :
U(R-Pmax) = pU(R-D) + (1 – p) U(R).
Elle est d’autant plus élevée que U est concave.
Un problème plus complexe consiste à déterminer le taux de couverture opti-
male en présence d’un chargement. Soit l, le taux de chargement, la prime
complète vaut P = (1 + l)pD. Soit q le taux de couverture choisi par l’assuré, alors
la prime vaut P(q) = q(1 + l)pD. L’espérance d’utilité de l’assuré est une fonction
de q, que l’on peut écrire :
V(q) = pU(R + (1 – q) D-D) + (1 – p) U(R-q (1 + l) pD).
Comme on cherche à maximer V, on écrit la condition de premier ordre :
V’(q*) = -D pU(R + (1-q*) D-D) – (1 + l) pD (1 – p) U(R-q*(1 + l) pD) = 0
qui nous donne un optimum intérieur. Si V’ (0) 9 0, on a q* = 0 et q* = 1 si V’
(1) 6 0.
On peut déduire le résultat suivant :
si U est linéaire (agent neutre au risque) et l 1 0, alors q* = 0,
si U concave et l = 0, q* = 1,
si U concave et l 1 0, q* ! 1.
De plus, on démontre que si U est strictement concave :
la couverture optimale q* est une fonction croissante de p et D,
la couverture optimale q* est une fonction décroissante de R si et seulement
u’’(x)
si est croissante,
u’(x)
u’’(x)
si -x est inférieure à 1 alors q* est une fonction décroissante de l.
u’(x)

La microéconomie de l’assurance

Depuis la fin des années 1960, une importante littérature s’est


développée qui restitue le point de vue de l’assuré, disparu depuis
Laplace, avec pour objectif de rendre compte de la demande
d’assurance.
Les premiers modèles de la théorie de l’assurance ont pour but
de reproduire le comportement des acheteurs d’assurance : on
décrit donc des individus maximateurs d’utilité espérée, même si
on sait par ailleurs (voir supra) que cette théorie ne représente pas
toujours correctement les décisions des individus réels. Mossin
84 LA NOTION DE RISQUE EN ÉCONOMIE

montre dans ce cadre théorique simple quels sont les paramètres


qui influent sur la demande d’assurance : la forme de la fonction
d’utilité, le taux de chargement, etc. (voir encadré). À sa suite,
Arrow introduit la notion de franchise dans l’analyse. À ce point,
les acquis théoriques semblent pour le moins maigres : depuis le
XIVe siècle [Boiteux, 1968], en effet, la franchise a été introduite
par les régulateurs pour contrer le risque moral. Doherty et Schle-
singer s’intéressent au cas des risques non assurables : les agents
vont avoir tendance à s’assurer contre les risques corrélés positi-
vement pour remédier à l’absence de couverture. Par exemple, un
chef d’entreprise peut s’assurer contre la maladie, mais pas contre
les pertes de revenus dues à la maladie. Il est vraisemblable qu’il
recherche une assurance-maladie maximale pour couvrir aussi le
risque, inassurable, de perte de revenu.
Finalement, l’économie de l’assurance semble surtout être la
reprise en main par les économistes professionnels d’un domaine
où les actuaires disposaient pourtant, depuis longtemps, de
méthodes remarquables.
VI / La finance comme pratique : institutions

La récurrence des crises systémiques (crise mexicaine en 1982,


krachs de 1987 et 2000, crise asiatique de 1997 et crises russe de
1998, turque en 1999, argentine en 2000, etc. ; voir Boyer et al.
[2004]) et des défaillances d’institutions isolées (de la Barings à
Enron) nous rappelle la prévalence du risque dans la sphère finan-
cière. D’autant qu’une seule faillite peut déclencher une cascade
qui, à l’image des dominos, emporte le système. Le spectre de la
crise de 1929 est suffisamment présent aux esprits américains
pour que le gouvernement ait organisé le sauvetage des caisses
d’épargne au début des années 1990, ou que la FED ait fait de
même avec LTCM en 1998 [Giraud, 2001].
Les modèles d’évaluation, et particulièrement le CAPM qui
élabore pourtant une description du risque, n’épuisent pas la
question. Le risque décrit par le CAPM est un risque de variabi-
lité des cours, donc un risque de marché, ignorant les problèmes
de signature, de contrepartie, les risques opérationnels (voir
chapitre IV, encadré « Typologie des risques financiers ») ou même
les risques systémiques majeurs.

La régulation des risques

C’est finalement le régulateur qui, en exigeant un contrôle


strict du risque global, a conduit à la standardisation des
pratiques.
86 LA NOTION DE RISQUE EN ÉCONOMIE

La réglementation prudentielle

Les réglementations nationales. — Dans un premier temps,


l’histoire des réglementations prudentielles est apparemment un
âge d’autorégulation. Ainsi, à la glorieuse époque de la « banque
libre » (1837-1863), quand il n’existe plus de banque ni de
monnaie centrales aux États-Unis, les établissements bancaires
choisissent leurs règles de solvabilité ; à la même époque, et c’est
également vrai dans le reste du monde, les compagnies d’assu-
rances déterminent d’elles-mêmes le niveau de leurs réserves. On
imagine combien de faillites le système a toléré : ce n’est pas un
hasard que le fameux « modèle de la panique bancaire » soit
l’œuvre d’un Américain, Robert Merton [1948]. Merton décrit le
bank run comme exemple de prophétie autoréalisatrice : c’est la
croyance dans la fragilité de la banque qui entraîne la ruée des
déposants pour récupérer leur argent et conduit la banque à une
situation où elle ne peut honorer ses engagements. Pour éviter
le discrédit, les professionnels ont réagi en s’organisant. Aux
États-Unis, les premières régulations sur les réserves sont le fait
des marchés financiers : en 1922, la Bourse de New York impose
aux membres participants de consigner 10 % du montant des
actifs traités.
À la suite de la Grande Dépression des années 1930, les États
sont pris d’une fièvre régulatrice qui s’exprime de manière diffé-
rente selon les pays. En France, par exemple, toutes les grandes
banques sont nationalisées à la Libération, et celles qui ne
l’étaient pas encore le sont en 1982. Le résultat de cette politique
est qu’il n’est pas nécessaire de légiférer, d’où un indéniable retard
français en matière de pratiques prudentielles [Lacoue-Labarthe,
2005]. Aux États-Unis au contraire, la nature privée des établisse-
ments est conservée, mais la production législative est intense et
continue : à côté du Glass-Steagall Act qui, en 1933, sépare banque
de dépôts et banque d’affaires afin de faciliter la supervision, une
foultitude de textes précisent les modalités de l’activité bancaire.
Par exemple, la création de la Federal Deposit Insurance Corpora-
tion en 1934 instaure une assurance des dépôts pour éviter les
paniques bancaires.

Une réglementation supranationale. — S’il émane des pays G10,


en majorité européens, (Allemagne, Belgique, Canada, États-Unis,
France, Italie, Japon, Pays-Bas, Suède, Suisse), le premier accord
de Bâle (1988) porte la marque de son origine américaine. D’une
part, les exigences en fonds propres reprennent sensiblement les
LA FINANCE COMME PRATIQUE : INSTITUTIONS 87

normes légales américaines, d’autre part, les fonds propres des


banques additionnent capital et dette subordonnée (il s’agit d’une
dette dont le remboursement éventuel, en cas de liquidation, est
subordonné au remboursement préalable de tous les créanciers
sauf les actionnaires). L’essentiel de ces accords de Bâle tient dans
la définition du ratio Cooke (du nom de Peter Cooke, gouverneur
de la Bank of England). Ce ratio indique que les crédits accordés
doivent être provisionnés par des fonds propres à hauteur de 8 %.
On applique toutefois un système de pondération censé repré-
senter la qualité de l’emprunteur : 0 % pour les États de l’OCDE,
20 % pour les collectivités locales du même ressort, 50 % pour les
crédits hypothécaires et 100 % pour les autres crédits. Il faut donc
provisionner, sous forme de fonds propres, entre 0 % (emprun-
teurs souverains de l’OCDE) et 8 % (entreprises, particuliers plus
tous emprunteurs hors OCDE) des crédits accordés.
L’accord de Bâle vise ainsi à couvrir le risque de crédit. Malheu-
reusement, la prise en compte exclusive du ratio Cooke entraîne
des effets pervers : l’antisélection des risques de crédit, et la fuite
vers les marchés. Le problème d’antisélection vient de ce que les
crédits à l’intérieur d’une classe de pondération sont tous consi-
dérés comme également risqués, ce qui incite à n’accepter que
les plus rentables, donc potentiellement les plus risqués. Par
exemple, en 1997, prêter à des collectivités locales coréennes
(pays de l’OCDE) exigeait de provisionner 20 % × 8 % = 1,6 %
du montant du prêt, alors que prêter à EDF exigeait un provision-
nement de 8 % ; à cette époque, la crise asiatique battait son plein
alors qu’EDF bénéficiait de la garantie de l’État français : les
pondérations ne reflétaient pas correctement les risques réels. La
réglementation échoue donc à sécuriser le risque de crédit. Par
ailleurs, les risques de marchés n’étant pas pris en compte, les
banques sont incitées à développer des activités sur les produits
financiers nouveaux, en particulier les dérivés dont on a vu avec
LTCM quelles conséquences ils pouvaient entraîner.
Pour faire face à ces problèmes, le comité de Bâle propose en
1996 d’étendre les pratiques prudentielles au risque de marché. Ces
nouveaux accords marquent également l’approbation par le régu-
lateur des métriques privées, à la place des systèmes de coefficients
décidés par l’autorité de supervision, système peu réactif et précis
dont on vient de voir qu’il aboutissait de fait à une antisélec-
tion des risques. Les opérations de marchés sont appréhendées
via des modèles probabilistes, il est donc spontané d’en mesurer
les risques de manière probabiliste ; pour le risque de crédit, une
approche probabiliste semble moins évidente. Il faut attendre
88 LA NOTION DE RISQUE EN ÉCONOMIE

seront calculées en fonction des


Les accords de Bâle II notations des agences de rating
(notation externe à la banque donc)
À partir de 1999, le comité de Bâle ou des indications fournies par le
lance un grand chantier qui aboutit régulateur ;
aux accords dits « de Bâle II ». Ceux-ci — la banque appliquera un modèle
doivent être retranscrits dans les légis- interne de base. La banque va
lations nationales, ils entreront en construire son propre système de nota-
vigueur en 2006 ou 2007 selon les tion des emprunteurs (scoring), mais
pays. Ces accords reposent sur trois utiliser des paramètres fournis par le
« piliers » : régulateur pour la composition des
— pilier 1 : redéfinition des ratios pondérations ;
de solvabilité ; — la banque déterminera son
— pilier 2 : amélioration de la
système de pondération par un
supervision bancaire, en particulier
système interne avancé qui rappelle les
pour les banques ayant opté pour les
modèles de solvabilité des compagnies
systèmes internes avancés (voir infra) ;
d’assurances : les banques produisent
— pilier 3 : plus de transparence
elles-mêmes la notation des emprun-
dans l’information que les banques
teurs et leurs systèmes de pondération.
donnent (règles de publication des
On le voit, Bâle II propose une
informations plus strictes, harmonisa-
généralisation des métriques privées et
tion des normes comptables via les
normes IAS 32 et surtout IAS 39, rela- donc une supervision personnalisée
tive aux instruments financiers). qui peut sanctionner soit l’usage de
Le pilier 1 aboutit à remplacer, dans modèles courants (1.) ou la méthode
le calcul du niveau de fonds propres de construction de modèles particu-
nécessaire, le ratio Cooke par le ratio liers (2.-3.). Dans ce cadre, c’est finale-
McDonough. Ce dernier tient compte ment à une évaluation globale du
de tous les risques (risque de crédit, risque et des procédures de contrôle
risques de marché, risques opéra- interne que les financiers vont se livrer.
tionnels). Plusieurs méthodes s’offrent Parmi les métriques privées, l’approche
aux établissements pour appréhender connue sous le nom de Value-at-Risk
ces risques : permet de rendre compte intuitive-
— la banque pourra recourir au ment du risque global.
modèle standard. Les pondérations

1999 pour que le risque de crédit bénéficie du même traitement.


Désormais, le régulateur n’impose pas forcément sa mesure, il
peut se contenter de certifier une méthodologie. Cela peut
sembler un retour à un avant la réglementation, mais il semble
difficile de ne pas tenir compte de la complexité sans cesse crois-
sante des transactions financières, du renouvellement des
produits, etc. Il faut donc décentraliser l’évaluation des risques et
certifier les méthodes ou les procédures plutôt que les évalua-
tions elles-mêmes, bref les métriques plutôt que les mesures. Les
accords de Bâle II marquent l’accomplissement de cette prise de
conscience.
LA FINANCE COMME PRATIQUE : INSTITUTIONS 89

Le but de la réglementation est alors non seulement de


maîtriser effectivement le risque des établissements de crédit et
des intervenants sur les marchés financiers mais aussi de
permettre l’apparition et la diffusion des bonnes pratiques. Car la
tentation existe pour les établissements de considérer le risk mana-
gement comme un coût et d’en faire le moins possible de ce
côté-ci. Mais en suscitant la compétition entre les modèles
internes, les autorités de régulation espèrent une émulation parmi
les établissements financiers : Riskmetrics, une application gratuite
et clés en main de calcul de la Value-at-Risk, a été un moyen pour
J.-P. Morgan, au début des années 1990, d’affirmer la supériorité
de ses équipes de risk managers. Le développement des réglemen-
tations prudentielles et des pratiques afférentes offre le spectacle
d’une profession qui concourt tout entière à l’élaboration de sa
propre régulation. Comme les linuxiens avec leurs logiciels, les
financiers forment une communauté de pratique d’autant plus
étonnante que l’on attendait d’eux qu’ils fassent tout payer. Tout,
sauf l’image et la preuve de leur sécurité.

La Value-at-Risk : un cadre méthodologique

La Value-at-Risk (VaR) résume l’exposition d’un portefeuille au


risque de marché ; la littérature insiste sur la distinction entre
métrique et mesure : la première est une fonction quand la seconde
correspond à des valeurs particulières (évaluation d’un porte-
feuille par la fonction). Bien que différentes métriques existent,
on considère en général les VaR pour un seuil de confiance donné
pour une période donnée. On parle par exemple de VaR en euro
quotidienne à 90 % : si un portefeuille est caractérisé par une
VaR en euro quotidienne à 90 % d’un million, alors cela signifie
qu’il existe une probabilité de 10 % que la perte quotidienne sur
ce portefeuille soit supérieure à un million.
On semble ainsi retrouver le langage du modèle de Condorcet
qui a servi de modèle à la théorie mathématique du risque en assu-
rance. Mais cette ressemblance est trompeuse car les actifs finan-
ciers ne sont pas des variables aléatoires dont on connaîtrait les
lois (ni des sinistres dont l’assureur mesure les fréquences, ou des
décès quand on dispose de tables de mortalité, etc.). Comme on
l’a vu dans le cas de LTCM, il est difficile d’évaluer le risque inhé-
rent à un instrument financier, en particulier un dérivé complexe.
Les formules d’évaluation ne donnent que l’espérance mathéma-
tique de gain : la distribution de probabilité des gains possibles
reste inconnue. On peut calculer les « grecques », c’est-à-dire
90 LA NOTION DE RISQUE EN ÉCONOMIE

l’élasticité-prix des produits par rapport aux paramètres (qui inter-


viennent dans les formules d’évaluation de type Black et Scholes).
Mais cela ne dit pas dans quelle mesure ces paramètres peuvent
varier ! En général, on ne peut pas reprendre les calculs d’évalua-
tion pour connaître la distribution des paiements sur la durée de
vie du produit. Il faut donc développer des outils spécifiques
d’évaluation du risque.
La littérature [Jacquillat et Solnik, 2002 ; Hull, 2004,
chapitre 16] décrit trois types de méthodes. D’abord, la simulation
historique est la méthode la plus simple. Elle ne repose pas sur
une modélisation particulière, puisqu’elle consiste à observer la
corrélation passée entre les valeurs du portefeuille considéré et
des variables de marché jugées pertinentes. On extrapole alors le
comportement futur du portefeuille pour des valeurs données des
variables de marché. Cette méthode ne nécessite aucune modéli-
sation, elle a l’inconvénient de négliger complètement les
problèmes qui se sont manifestés dans le cas de LTCM : valeur
anormale d’une variable de marché au-delà de ce que les modèles
probabilistes peuvent représenter. La méthode variance-cova-
riance ou model building approach consiste à envisager une modéli-
sation simplifiée des instruments dont on évalue le risque. On
peut insister dans la modélisation sur le rôle de variables
sensibles, celles sur lesquelles le levier est le plus important. On
peut enfin procéder par simulation Monte-Carlo en tirant de grands
échantillons aléatoires des variables de marché et en calculant les
vraies valeurs du portefeuille, tirées des modèles d’évaluation,
pour chacun de ces tirages aléatoires. Les trois méthodes
présentées ont été ici rangées par ordre croissant de temps de
calcul nécessaire et de précision des résultats. Toutefois, la simu-
lation Monte-Carlo est en général prohibitive en termes de temps
de calcul alors que la simulation historique l’est en raison de sa
précision, d’où l’importance des modélisations spécifiques simpli-
fiées. Bouchaud et Potters [1999] donnent un exemple d’algo-
rithme de calcul alternatif, tout en insistant bien sur les enjeux de
la modélisation (arbitrage entre temps de calcul, temps de déve-
loppement de la mesure particulière et précision).
La recherche de méthodes alternatives occupe donc les profes-
sionnels, d’autant que Bâle II encourage la recherche sur le sujet.
En dépit des critiques qui lui ont été faites après la faillite de
LTCM, la VaR reste un cadre analytique de référence. Dans le cas
de LTCM, le problème venait principalement de ce que les risk
managers considéraient le risque agrégé comme gaussien, en
excluant la possibilité d’écarts importants. Depuis, VaR apparaît
LA FINANCE COMME PRATIQUE : INSTITUTIONS 91

comme un cadre méthodologique et non plus comme une tech-


nique aboutie. En témoigne la floraison continue des travaux sur
le sujet. La VaR ne peut toutefois prendre en compte que les
risques quantifiables ; en matière de risques opérationnels, on
retient également une approche qualitative.

Risques opérationnels et contrôle

Outre une définition abstraite des risques opérationnels (voir


chapitre IV , encadré « Typologie des risques financiers »), le
Comité de Bâle en a proposé une énumération : les fraudes
internes ou externes ; les risques qui touchent aux relations
clients, les pratiques autour des services et des produits, qui
peuvent conduire à des contestations et à des pertes ; les
problèmes liés à la gestion du personnel ; les dommages qui pour-
raient toucher les actifs physiques ; l’interruption totale ou
partielle des systèmes ou des processus ; et la mauvaise exécution
de certains processus, qu’ils soient internes à externes à la banque,
comme une transaction qui est exécutée dans le mauvais sens. On
comprend que ces risques ne sont pas liés à la nature des activités
financières en particulier, ils concernent à la fois les établisse-
ments de crédit et les entreprises en général. D’ailleurs, l’actua-
lité a retenu une série de défaillances de grandes entreprises (en
particulier l’affaire Enron), où il est apparu que la communica-
tion financière pouvait être biaisée, que les superviseurs
pouvaient être complices, etc. L’affaire Enron est particulièrement
symbolique puisqu’elle a entraîné la chute d’Arthur Andersen,
l’un des grands cabinets d’audit mondiaux, et montré la défail-
lance simultanée des contrôles internes (risk management propre à
la firme) et externes (par l’auditeur). Du coup, une suspicion géné-
ralisée a pu planer sur l’information financière mondiale.
La réponse du législateur a été à la hauteur de l’enjeu. D’une
part, les recommandations du comité de Bâle concernant les
banques ont été rapidement traduites dans les législations natio-
nales ; d’autre part, des réformes plus générales touchant toutes
les entreprises ont été engagées : le Sarbanes-Oxley Act (2002) aux
États-Unis, la Loi de sécurité financière (LSF 2003) en France, dont
l’article 117 réglemente les risques d’entreprise.

Finance et risque sont un : les marchés financiers ne sont-ils


pas des lieux où l’on échange avant tout des risques ? À côté du
regard réglementaire et régulateur, au rebours du mouvement qui
a constitué la finance en discipline distincte de l’économie, on
92 LA NOTION DE RISQUE EN ÉCONOMIE

peut se demander s’il n’y a pas une place pour des interrogations
économiques sur la finance comme pratique.

L’énigme de la prime de risque

Depuis plus de vingt ans, un couple de questions anime les


économistes qui s’intéressent à la finance. Elles menacent à la fois
la méthode des économistes et ses résultats. En effet, elles sont
« le genre le plus largement connu et le mieux compris de preuves
habituellement employées contre les modèles à agent représen-
tatif » [Guerrien, 2002b, p. 21-25] et elles sont « les signes de
grands manques dans notre compréhension de la macroéco-
nomie [comme ensemble de phénomènes, pas comme théorie] ».
Ces jugements de Kocherlakota [1996, p. 44], dans une revue aussi
diffusée et appréciée que le Journal of Economic Literature, indi-
quent assez l’urgence des problèmes que pose l’énigme de la
prime de risque (et sa petite sœur, l’énigme du taux sans risque)
aux macroéconomistes et aux économistes financiers.

L’énigme elle-même

En 1985, Mehra et Prescott publient un article qui fait date et


déclenche une longue compétition pour résoudre l’énigme qu’il
présente : sur une période de près d’un siècle (1889-1978), le rende-
ment réel (c’est-à-dire déduction faite de l’inflation) des actions
américaines paraît bien plus élevé (7 % en moyenne) que le rende-
ment réel des obligations « sans risque » (1 % en moyenne). Le
problème ne tient pas à l’existence d’une prime de risque sur les
actions, naturellement plus risquées que les obligations « sans
risque », mais à l’importance de cette prime de risque. Peu après,
Weill [1989] montre que l’énigme doit être scindée en deux : d’une
part, l’« énigme du taux sans risque », car le taux sans risque paraît
anormalement bas, d’autre part, l’« énigme de la prime de risque »,
car celle-ci apparaît anormalement élevée. Mais quelle est cette
normalité auquel il est implicitement fait référence ?
La normalité que menace l’énigme, on a compris avec la cita-
tion de Kocherlakota que c’était celle de la théorie économique
conventionnelle, la macroéconomie des « prix Nobel ». D’ailleurs,
Mehra et Prescott ont plaisir à rappeler en 2003 les noms des
grands hommes qui ont utilisé le même modèle que leur article
de 1985 : Merton [1971], Barro et Becker [1988], Lucas [1978],
Kydland et Prescott [1982], autant de nobélisés ! Ce modèle dit
LA FINANCE COMME PRATIQUE : INSTITUTIONS 93

CCAPM (Consumption-CAPM) permet d’évaluer théoriquement


les prix des actifs dans une économie d’équilibre général, un peu
à la manière du CAPM, mais dans un cadre analytique plus
général, reposant donc sur des mathématiques plus complexes : la
programmation dynamique (dont on a parlé au chapitre précé-
dent) qui permet de déterminer des trajectoires de consommation
optimales dans un univers où le temps se traduit par un aléa sur
l’avenir. Or, si l’on tente de représenter les données historiques
de la période 1889-1978 dans ce modèle, on a le choix entre deux
possibilités : soit l’on donne aux paramètres (courbure de l’utilité,
taux d’escompte psychologique) les valeurs habituelles et l’on
observe simultanément un taux sans risque très élevé (supérieur à
10 %) et une prime de risque très basse (de l’ordre de 1 %), soit
l’on bricole les paramètres pour ajuster les observations de taux
et de prime de risque, mais on obtient alors des valeurs des para-
mètres qui sont sans commune mesure avec ce qu’on obtient
dans les simulations macroéconomiques habituelles.
L’énigme est donc une énigme théorique. Elle ne provient pas
d’observations aberrantes en soi, mais de l’incompatibilité entre
deux modélisations : celle, habituelle, dans les modèles de crois-
sance macroéconomique, d’une économie avec un taux d’intérêt
unique ; celle qui propose d’introduire dans le même modèle un
deuxième taux d’intérêt. L’histoire aurait pu en rester là. Mais
l’énigme résista au data mining le plus éhonté, c’est-à-dire à toutes
les tentatives économétriques de changer les données sur
lesquelles on calibrait les modèles ou les formes des fonctions de
décision du ménage représentatif. De plus, le phénomène
semblait gagner en prévalence.
En effet, l’énigme de la prime de risque serait devenue un
phénomène quasi universel, et elle se serait même amplifiée aux
États-Unis, comme en témoigne le tableau suivant.

Tableau 1. La prime de risque

Ensemble de données Rendement Rendement Prime


réel actions sans risque risque
(%) (%) (%)

États-Unis 1889-2000
[Mehra et Prescott, 2003] 8,06 1,14 6,92
Royaume-Uni 1947-1999 (Siegel) 5,7 1,1 4,6
Japon 1970-1999 (Campbell) 4,7 1,4 3,3
Allemagne 1978-1997 (Campbell) 9,8 3,2 6,6
France 1973-1998 (Campbell) 9,0 2,7 6,3
94 LA NOTION DE RISQUE EN ÉCONOMIE

Ce tableau, que les auteurs brandissent maintenant comme une


preuve définitive de l’universalité de l’énigme, conduit à douter :
n’est-on pas en train de mélanger des choses qui n’ont rien à
voir ? D’une part, l’augmentation significative de la prime de
risque aux États-Unis, presque un point de pourcentage en vingt
ans sur une série qui en comptait déjà cent, montre une concen-
tration du phénomène sur la période récente. D’autre part, le
Japon, où la bulle spéculative s’est dégonflée plus tôt qu’ailleurs,
présente une prime beaucoup plus basse que les autres pays qui
connaissent à la fin des années 1990 une euphorie boursière
historique. N’y aurait-il pas quelque problème avec les données ?

Un artefact statistique ?

En reprenant les données de Mehra et Prescott, on peut décom-


poser la prime de risque suivant les périodes et les pays. Pour les
États-Unis, on observe une concentration de la prime de risque
sur les deux derniers tiers du XXe siècle.

Tableau 2. La prime de risque aux États-Unis : détail

Ensemble de données Rendement Rendement Prime


réel actions sans risque risque
(%) (%) (%)

États-Unis 1802-1862
[Siegel, in Mehra et Prescott, 2003] x x 0
États-Unis 1802-1889
(calculs de l’auteur) 5,7 5,3 0,4
États-Unis 1802-1934
(calculs de l’auteur) 6,0 4,4 1,6
États-Unis 1934-2000
[Mehra et Prescott, 2003] 8,76 – 0,17 8,93

Ce tableau conduit à relativiser fortement l’impression


d’universalité du phénomène. Si l’on prend le XIXe siècle tout
entier, ou même les 130 premières années de l’échantillon, on
obtient un taux réel sans risque non négligeable et une prime de
risque limitée. Ce n’est peut-être pas non plus compatible avec
la théorie macroéconomique, mais cela semble parfaitement
compatible avec les données de longue période européennes pour
la même époque ! En revanche, la période qui débute en 1934
apparaît tout à fait spécifique. On aurait alors beau jeu de criti-
quer, comme le font les auteurs, la qualité des séries pour la
LA FINANCE COMME PRATIQUE : INSTITUTIONS 95

période 1802-1871… même s’il est vrai qu’elles sont exécrables.


Mais voyons donc ce qu’il en est pour les pays européens.
Un calcul rapide montre la sensibilité des primes aux choix des
dates et, de ce fait, le caractère très local de la problématique de
l’énigme. Les calculs suivants sont simples : on a comparé le
rendement des actions représenté par indices de référence, DAX
ou SBF 250, sans tenir compte des dividendes ni de l’inflation,
avec le rendement d’un placement en obligations dont les
coupons ont été réinvestis au fur et à mesure. Les écarts de prime
de risque qu’ils révèlent d’une période à l’autre (8 points de pour-
centage) sont bien au-delà de la marge d’erreur imputable à la
seule méthode.

Tableau 3. La prime de risque en Europe : exemples

Ensemble de données Rendement Rendement Prime risque


des actions sans risque brute (%)
en capital (%) nominal (%)

France 1962-2004 6,5 % 8,6 % – 2,1 %


France 1983-2000 14,2 % 8,3 % 5,9 %
Allemagne 1973-2004 6,7 % 6,8 % – 0,1 %
Allemagne 1983-2000 14,7 % 6,6 % 8,1 %

Source : calculs de l’auteur.

Un travail rapide sur les données conduit donc à discréditer


la thèse de Mehra et Prescott : la prime de risque n’est pas toujours
et partout anormalement élevée. L’énigme est un phénomène
récent, quoique plus ancien et durable aux États-Unis. Curieuse-
ment, Prescott a reçu un « prix Nobel » pour une contribution,
la théorie des cycles réels [Guerrien, 2002b, p. 138-141], qui
présente le même type de problème : les résultats observés sur
les données américaines ne peuvent pas être répliqués sur les
données européennes.

La revanche de l’histoire

Ainsi donc le doute sur l’universalité de l’énigme provient-il


des auteurs eux-mêmes : Mehra [2003] et Mehra et Prescott [2003]
vantent les résultats de McGrattan et Prescott [2001] et Constan-
tinides, Donaldson et Mehra [2003]. Le premier papier montre
que l’accroissement du prix des actions aux États-Unis provient
essentiellement de la réforme du système fiscal. D’abord, l’impôt
96 LA NOTION DE RISQUE EN ÉCONOMIE

sur les bénéfices distribués passe de 43 % en 1955-1962 à 17 % en


1987-2000. Ceci a pour effet d’augmenter les flux de dividendes
nets attendus et donc la valeur des titres (qui est égale à la valeur
actuelle du flux de dividendes nets attendus). Ensuite, le régime
d’imposition des cotisations aux fonds de pension a changé : alors
qu’en 1962 les fonds ne pouvaient détenir que des obligations en
franchise fiscale, cette franchise a été étendue depuis aux actions.
En d’autres termes, les cotisations aux fonds de pension détenant
des actions sont exonérées de l’impôt sur le revenu. La demande
d’actions a dû augmenter en conséquence. À partir d’une équa-
tion statique d’évaluation des actions, les auteurs estiment que la
conjonction de ces phénomènes explique un doublement du prix
des actions entre 1960 et 2000, ce qui réduit d’environ 2 points la
prime de risque.
Essayons de comprendre l’accroissement de la prime de risque
en France au long du XXe siècle en commençant par présenter le
régime stationnaire du XIXe siècle : la rente, sans risque apparent, sert
un taux de 3 %, mais dans la mesure où le prix de la rente fluctue,
le taux sans risque fluctue également (si on achète 150 francs un
titre de rente à 3 % d’une valeur de 100 francs alors le taux est de
2 % ; si la rente tombe à 75 francs, cela signifie que le taux passe
à 4 %, etc.). Les actions portent un rendement qui peut être meil-
leur, mais avec des risques de faillite difficilement estimables. De
fait, les actions ne constituent pas un placement de masse.
Le premier coup de théâtre a lieu avec la Première Guerre
mondiale : on sait que le gouvernement a financé l’effort de
guerre par l’inflation, ce qui a euthanasié le rentier aussi bien que
les économies des gens modestes ayant acquis des emprunts de
la Défense nationale. À l’inverse des Britanniques qui choisis-
sent après guerre de retourner à la parité-or du début du siècle, les
Français tergiversent, et il faut toute l’autorité morale et politique
de Poincaré pour imposer finalement la stabilisation du franc en
1926 au cinquième de sa valeur d’avant-guerre. Trois ans après, la
crise vient ébranler les marchés financiers, et l’entre-deux-guerres
apparaît rétrospectivement comme un bizarre havre de paix entre
deux périodes d’inflation : 1914-1919 et 1940-1985. De ce fait,
il semble très risqué de tirer quelque conclusion que ce soit sur
la première moitié du XXe siècle en Europe, d’autant que les expé-
riences nationales contrastées (hyperinflation allemande, défla-
tion britannique, etc.) sont de nature à fausser complètement des
données déjà assez peu significatives (compte tenu de la faible
diffusion des actions dans le public).
LA FINANCE COMME PRATIQUE : INSTITUTIONS 97

Après guerre s’ouvre une période de croissance exceptionnelle


du PIB, bien différente dans ses modalités de la croissance du
XIXe siècle, et la finance ne fait pas exception. En effet, les taux
d’intérêt réels sont plutôt faibles et, malgré cela, les actions végè-
tent en Europe (mais pas aux États-Unis). La situation devient
réellement intéressante à la fin des années 1970 ou, si l’on préfère,
après une phase de trouble consécutive à l’élection de F. Mitter-
rand et au séjour de ministres communistes au gouvernement.
Depuis 1982, les actions ont connu une hausse vertigineuse, avec
certes de courtes périodes de vaches maigres, mais le mouve-
ment d’ensemble est inédit. C’est lui qu’il convient d’expliquer.
On peut caractériser le phénomène en recourant aux indices
boursiers (le SBF 250 est multiplié par dix pratiquement entre
1982 et 1998) ou par la capitalisation de la place parisienne. Ce
n’est donc pas seulement une hausse des cours à laquelle on
assiste : le nombre des valeurs cotées augmente également
puisque la capitalisation progresse plus vite que les indices. Même
si ces chiffres peuvent être trompeurs en surestimant l’accroisse-
ment réel des valeurs, il est manifeste que la hausse des actions
s’explique par l’afflux de capitaux. Il convient alors de se demander
d’où viennent les capitaux qui affluent sur le marché financier
parisien et pour quelle raison ils y viennent.
À la suite de McGrattan et Prescott [2001], on pourrait indi-
quer des raisons fiscales : au cours des années 1990, l’abaissement
du taux de l’IS, du taux du prélèvement libératoire (compensé, il
est vrai, par le couple CSG/CRDS), la création du PEA (1992) ; plus
anecdotiques, les mesures au bénéfice de l’actionnariat salarié
(1988, 2001), les divers textes régissant le capital-risque (1983,
1997, 2000). Tout cela a probablement eu un certain impact.
Cependant, on sait que les mesures fiscales ont pour effet essen-
tiel d’orienter l’épargne sans pouvoir la susciter. Si l’on ajoute les
conditions favorables des privatisations (à la fois du point de vue
des prix de vente et de l’atmosphère idéologique) en 1986-1987
puis après 1995, on comprend que les actions aient attiré
l’épargne des ménages, comme en témoigne le tableau 4.
On constate alors qu’en quinze ans la part des actions dans le
patrimoine des Français a été multipliée par trois et demi, et ce
phénomène n’est pas seulement lié à l’accroissement des fortunes
mobilières. Un véritable mouvement de diffusion apparaît : le
nombre d’actionnaires passe de 1,3 million en 1978 à plus de
6 millions en 1987, après la première vague de privatisations
[Bourdin, 2003]. On sort donc d’un régime de ghetto, où les actions
sont la propriété d’une minorité, pour passer à un régime de
98 LA NOTION DE RISQUE EN ÉCONOMIE

Tableau 4. La financiarisation*

1981-1985 1986-1989 1990-1992 1997-1998

Taux de financiarisation
du patrimoine 32,5 41,2 44,6 53,4
Part des actions dans
les actifs financiers 18,4 38 42,3 41,5
Part des actions dans
le patrimoine 6 15,7 18,9 22,2

actifs financiers
* Taux de financiarisation = , en %.
actifs financiers + actifs réels
Source : Aglietta [2001].

consommation de masse (de produits financiers). D’ailleurs, qu’on se


tourne vers les objets d’art, les grands vins ou l’immobilier, il
semble que la fièvre haussière soit partout (avec des chrono-
logies différentes, il est vrai). Il n’est donc pas possible d’expliquer
la prime de risque en France depuis 1982, pas plus que les bulles
successives, par les seules mesures fiscales.
Un premier facteur pourrait être lié à l’ouverture du marché
financier français. La modernisation du marché financier à
marche forcée depuis 1983, l’abandon des pratiques colbertistes,
la sous-estimation durable des entreprises financières à cause
d’une image persistante d’archaïsme socialisant ont offert aux
investisseurs étrangers un terrain propice aux achats d’opportu-
nité. Le PER, price earning ratio ou rapport cours-bénéfice,
constitue un indicateur du prix de marché des entreprises cotées
en Bourse. Plus le PER est élevé, plus on paie cher un même
montant de bénéfices. À l’aune de cet indicateur, les entreprises
françaises étaient, en 1995 encore, parmi les plus sous-estimées en
Europe.
Au vu de ces chiffres, on peut légitimement penser que le
marché français avait de quoi attirer les étrangers, en particulier
les fonds de pension anglo-saxons, car il offrait en 1995 encore
une décote d’environ 25 % par rapport au marché britannique,
et de plus de 40 % par rapport au marché états-unien. Quand
on connaît la puissance de ces investisseurs institutionnels, on
conçoit que leur intérêt ait pu se traduire par une flambée 1. On

1. Cet effet de taille peut aussi jouer à la baisse. Quand, le 17 septembre 1998, Serge
Tchuruk annonce sans précaution que les profits d’Alcatel seront finalement infé-
rieurs aux attentes, les institutionnels vendent pour sanctionner cette nonchalance.
L’action perd 38,4 % dans la séance.
LA FINANCE COMME PRATIQUE : INSTITUTIONS 99

Tableau 5. Le PER sur les principaux marchés financiers

PER

Mars 1995 Mars 2000 Mars 2001

Suède 34,5 120,8 19,1


Allemagne 16,9 63,3 30,4
France 11,3 63,8 21,0
Italie 12,8 56,0 26,1
Pays-Bas 14,7 64,6 33,0
Canada 20,4 59,0 14,7
États-Unis 19,2 53,2 24,7
Royaume-Uni 15,4 72,1 36,0
Japon 57,3 169,3 89,3

* Le PER, dans la mesure où il ne tient compte que des bénéfices de l’année écoulée, est
un mauvais indicateur pour une entreprise en particulier. Si l’on admet que les erreurs
se compensent, il fournit une information intéressante sur un groupe (assez grand) de
valeurs, en particulier sur un compartiment ou un marché financier tout entier.
Source : BRI (BIS), rapport 2001, p. 103.

tient peut-être dans cette sous-évaluation relative des années 1990


une des raisons de la hausse brutale entre 1995 et 2000, d’ailleurs
repérée par le tableau 5. Peut-être pourrait-on également compter
sur les étrangers pour expliquer la hausse des années 1980, bien
que le taux de détention par les étrangers soit encore faible en
1990. Il faut donc manifestement chercher une explication
complémentaire.

Tableau 6. Taux de détention des entreprises du CAC 40


par les non-résidents
(en %)

Année 1989 1993 1996 1997 2001 2004

Part des non-résidents 14 9 25 28 31 43 43

Source : Bulletins de la Banque de France, nº 55, 76, 134.

Rappelons-nous ce que nous cherchons : des capitaux dispo-


nibles prêts à s’investir. Or, précisément, en 1983 on constate la
concomitance de deux phénomènes remarquables : d’une part,
le « tournant de la rigueur » marque la conversion de F. Mitter-
rand aux dures lois du capitalisme ; d’autre part, la répartition
de la valeur ajoutée, où la part du capital baissait continûment
depuis les années 1950, opère un retournement rapide (tableau 7).
100 L A NOTION DE RISQUE EN ÉCONOMIE

Ceci signifie que le capital est tout à la fois plus attractif en raison
d’un meilleur rendement, et, comme il est mieux servi, qu’il
dispose de plus de fonds à investir. Un raisonnement keynésien
simple nous indique que les encaisses oisives cherchant à
s’investir font monter les prix.

Tableau 7. Partage de la valeur ajoutée des entreprises


entre capital et travail

Année 1950 1975 1980 1985 1990 1995

Capital 37,8 29,7 28,3 32,0 37,6 39,7


Travail 62,2 70,3 71,7 68,0 62,4 60,3

Source : Piketty [1997, p. 40].

Visiblement, les détenteurs de capitaux ont repris confiance


après 1982 et accepté d’acheter des titres, en particulier des
actions. L’arrivée des étrangers et le basculement de la réparti-
tion au profit du capital ont amplifié le mouvement vers les
actions entamé par les incitations fiscales. Cet afflux de capitaux
s’est traduit par une hausse massive des cours et des capitalisa-
tions boursières. Toutefois, la tendance des cours est nettement
procyclique, avec un palier important au moment de la crise du
Golfe (et un autre en 2000).
Cet argument de l’élargissement semble expliquer une hausse
structurelle du cours des actions dans l’organisation écono-
mique actuelle, et donc une augmentation de la prime de risque.
Boucher [2001], qui est l’un des commentateurs les plus distanciés
de la polémique, indique que la participation croissante aux tran-
sactions ne peut expliquer qu’une faible diminution de la prime
de risque (à peine 10 points de base, soit 0,10 % pour un double-
ment de la population). Mais ce faible impact provient du fait
que l’on compare des régimes d’équilibre, alors que nous vivons
un régime de transition. Durant ce régime de transition, les cours
des actifs risqués augmentent rapidement, si bien qu’une fois la
hausse passée, leur rendement apparaît diminué et la prime de
risque également. Boucher donne d’ailleurs une représentation
graphique du phénomène dont nous reproduisons l’idée générale
dans les graphiques 8 et 9 2.

2. La simulation ici présentée repose sur les hypothèses suivantes : le taux sans risque
est de 2 % annuel, le dividende des actions représente au départ 4 % de leur valeur
et croît au taux annuel de 2 %. De 1972 à 1982 puis de 2000 à 2015, les cours des
LA FINANCE COMME PRATIQUE : INSTITUTIONS 101

Graphique 9. Indice du cours des actions, en log

100
72

75

78

81

84

87

90

93

96

99

02

05

08

11

14
19

19

19

19

19

19

19

19

19

19

20

20

20

20

20
Rappelons que sur un graphique semi-logarithmique, la pente
correspond au taux de croissance. Les cours des actions crois-
sent donc à un même rythme régulier avant et après une phase
de hausse transitoire. Les rendements et prime de risque a poste-
riori connaissent également cette phase de hausse (notez que les
valeurs sont similaires à celles qu’on a observé ces vingt ou trente
dernières années). Après la hausse, on remarque que rendement et
prime de risque ont baissé à cause de la hausse des cours.
À ce point, il convient de noter en passant la similitude
formelle entre les marchés financiers et les pyramides ou chaînes
d’argent. Bien que ces dernières soient formellement interdites, et
qu’à l’inverse les marchés financiers soient autorisés et régulés, il
existe un trait commun : les revenus des uns viennent des paie-
ments des autres. Plus précisément, les paiements de nouveaux
entrants financent les gains des premiers arrivés. Tant que grossit
le nombre de ces entrants, ou tant que des fonds nouveaux sont
apportés au marché, à la pyramide ou à la chaîne, le système fonc-
tionne à merveille. Mais il n’est pas possible de fournir des
revenus croissant plus vite que le produit national à l’ensemble de
la population. L’énigme de la prime de risque a ceci de remar-
quable qu’elle nous fait percevoir le risque systémique. Entre 1802

actions croissent au rythme annuel de 2 %. Entre 1982 et 2000, ces mêmes cours
croissent au rythme annuel de 10 %. Le résultat de ce phénomène de hausse est un
accroissement transitoire du rendement et de la prime de risque a posteriori, suivi
d’une baisse des mêmes (quand la hausse des cours s’arrête). Le phénomène essentiel
est qu’à long terme, cours des actions et dividendes doivent croître au même rythme.
Sauf si les actions ne représentent qu’une faible valeur du produit national, ce
rythme doit être le taux de croissance du même produit national en volume.
102 L A NOTION DE RISQUE EN ÉCONOMIE

Graphique 10. Rendement et prime de risque a posteriori

%
12

10

0
72

75

78

81

84

87

90

93

96

99

02

05

08

11

14
19

19

19

19

19

19

19

19

19

19

20

20

20

20

20
Légende : Rendement -- -- -- -- -- -- -- -- - Prime de risque

et 2000, rien n’a changé, disent Mehra et Prescott. À peine recon-


naissent-ils que la prime de risque a augmenté. Ce qui a changé,
c’est qu’en 1802 il n’y avait pas un américain sur cent qui était
actionnaire : on pouvait par conséquent lui fournir des revenus
en les ponctionnant ailleurs. Ce n’est plus tout à fait le cas si 50 %
des Américains sont actionnaires [Boucher, 2001, p. 17]. Heureu-
sement, il reste le monde entier pour accroître la boule de neige…

Conclusion

L’énigme de la prime de risque paraît au mieux une manifes-


tation des idiosyncrasies américaines, au pire, une manifestation
des idiosyncrasies des économistes. En effet, le « fait stylisé » que
l’énigme est censée représenter n’en est pas un, puisque l’on
confond manifestement l’impact de mesures fiscales avec les
effets de l’inflation du fordisme, ou avec ceux de la mondialisa-
tion qui l’ont suivi, et les modifications de la répartition qui ont
accompagné cette mondialisation. C’est pourquoi la conclusion
de Mehra [2003] et Mehra et Prescott [2003] nous paraît
hasardeuse :
« Les données utilisées pour documenter la prime de risque sur
les cent dernières années sont les meilleures que les analystes
puissent avoir […]. Avant que [l’énigme de] la prime de risque soit
balayée, les chercheurs ne devront pas seulement comprendre les
phénomènes observés, ils devront aussi donner une explication
LA FINANCE COMME PRATIQUE : INSTITUTIONS 103

plausible des raisons pour lesquelles le futur devrait être en


quelque manière que ce soit différent du passé. En l’absence d’une
telle explication, et sur la base de ce que je connais actuelle-
ment, je revendique solennellement le jugement suivant : sur le
long terme, la prime de risque sera probablement la même que
ce qu’elle a été, et les rendements des investissements en actions
continueront de dominer substantiellement les investissements
en bons du Trésor pour les investisseurs avec un horizon de long
terme. »
Cet argumentaire présente deux propriétés étonnantes :
d’abord, il offre une version extrême de la convention keyné-
sienne qui consiste à considérer l’avenir à l’égal du présent
(« donner une explication plausible des raisons pour lesquelles le
futur devrait être en quelque manière que ce soit différent du
passé ») ; ensuite, il est abusé d’un fait stylisé pour en déduire que
rien n’a changé pendant deux siècles. Il oublie la distinction
nécessaire entre un régime de ghetto, à l’époque où la diffusion des
actions est confidentielle (en Europe, ce régime s’étend jusqu’au
début des années 1980), et un régime de consommation de masse
de produits financiers. Si la prime de risque peut être durablement
élevée dans le premier cas, au détriment évidemment d’autres
acteurs de l’économie, il n’en va plus de même dans le second :
la rentabilité des actifs risqués ne peut excéder de 6 % celle des
emprunts sans risque si tous les agents détiennent des risqués !
Ou alors il faut indiquer où est le risque et d’où vient l’argent !
D’un élargissement du marché, d’un détournement de la réparti-
tion, certes, mais ces arbres-là ne montent pas jusqu’au ciel.

Conclusion

La prise en compte des aspects institutionnels de la finance


nous a conduits à délaisser les sphères de la haute théorie pour
visiter des contrées encore peu soumises à son emprise. La récur-
rence des crises a fait apparaître la nécessité d’une régulation des
activités financières ; régulation dont on a esquissé les moda-
lités : le risque y est une notion centrale, qu’il faut maîtriser au
niveau des institutions individuelles pour éviter l’effondrement
du système tout entier. Cette cuisine gestionnaire n’est pas du
goût de tous, et certains préfèrent réinventer des questions théo-
riques. La volonté de faire apparaître des faits stylisés, de gommer
les détails au profit d’un schéma général produit ici des effets
regrettables. À considérer comme général un phénomène qui est
104 L A NOTION DE RISQUE EN ÉCONOMIE

historiquement localisé, l’énigme de la prime de risque, on invente


une nature humaine censée rendre compte d’un fait imaginaire,
on oublie les causes d’un engouement conjoncturel et l’on accré-
dite la thèse selon laquelle les arbres monteraient jusqu’au ciel. Ce
genre de ratiocinations généralisantes propage des idées fausses
et contribue à l’accroissement du risque systémique en préconi-
sant des comportements aberrants. Pour éviter les paniques finan-
cières, la régulation doit s’accompagner, comme Condorcet le
préconisait déjà, d’une instruction des citoyens [Rieucau, 1998].
Conclusion

Au terme de ce parcours, l’économie du risque apparaît essen-


tiellement duale. D’un côté, une haute théorie, abstraite, réduc-
trice, fortement mathématisée. De l’autre, des études éparses sans
véritable unité conceptuelle ni méthodologique. Pour autant, on
n’a pas affaire à une économie de théoriciens contre une
économie de praticiens : il existe des praticiens du calcul stochas-
tique dans l’assurance, la finance, la recherche opérationnelle…
Cette dualité cache en fait une vitalité extrêmement grande, si
bien que même au cœur d’une théorie apparemment unifiée
comme celle de la décision risquée, les points de désaccord sont
autant de fronts de recherche, depuis le XVIIe siècle.
En offrant une perspective historique, nous avons essayé de
montrer l’extension de la désignation [Benveniste, 1969] du mot
« risque », très spécifique à l’âge classique, et désormais universel-
lement prévalent. Nous avons également essayé de montrer que
les outils du calcul avaient connu une évolution remarquable-
ment voisine : ils sont pratiquement aussi anciens et voient eux
aussi leur utilisation se répandre en soumettant de nouveaux
domaines. En cela, le traitement par la VaR du risque de crédit
représente un tournant symbolique remarquable : alors que le
risque de crédit est universellement considéré comme l’effet de
la qualité des emprunteurs, la pratique du scoring conduit à une
approche statistique de la question qui permet enfin de traiter
la défaillance de manière purement probabiliste. L’affaire LTCM,
les grands écarts de cours, le risque de krach nous ont également
conduits à nous interroger sur la légitimité de cette représenta-
tion probabiliste : s’il existe une cause, même et surtout cachée,
les probabilités seront impuissantes au moment où cette cause
cachée entrera en œuvre. Pour cette raison, l’usage du calcul doit
être distancié et certainement accompagné par une réflexion sur
106 L A NOTION DE RISQUE EN ÉCONOMIE

le statut épistémologique de la probabilité et des théories de la


décision.
La prévalence des probabilités nous oblige à considérer avec
respect et nostalgie la position épistémologique d’un Condorcet,
qui croyait avec une naïveté touchante que la diffusion du calcul
des probabilités conduirait l’humanité au progrès moral. Si
l’exemple de l’économie du risque pouvait raviver une lueur
d’espoir dans la connaissance, ce serait un hommage très inat-
tendu au père fondateur de la théorie mathématique du risque.
Repères bibliographiques

AGLIETTA M. [2001], Macroéconomie A URELL M. [1996], La Noblesse en


financière, Paris, La Découverte, Occident ( V e - XV e siècle), Paris,
« Repères », 2005. Armand Colin.
A K T A S N. [2004], « La “finance BACHELIER L. [1900], « Théorie de la
comportementale” : un état des Spéculation », Annales de l’École
lieux », Reflets et Perspectives, normale supérieure, série 3,
vol. XLIII, p. 19-33. vol. XVII, p. 21-86 ; rééd. Paris,
A LEMBERT d’ et L E R OND J. [1761], Jacques Gabay, 1993.
« Onzième mémoire : sur l’appli- — [1914], Le Jeu, la chance et le
cation du calcul des probabilités hasard, Paris, Flammarion, rééd.
à l’inoculation de la petite Paris, Jacques Gabay, 1993.
Vérole », Opuscules mathéma- B ARRO R.J. et B ECKER G.S. [1988],
« Population growth and
tiques, vol. II, p. 26-46, Paris,
economic growth », Working
David.
Paper, Harvard University.
AMF [2005], « Rapport […] sur le
B E C C. [1967], « Au début du
gouvernement d’entreprise et le
XIVe siècle : mentalité et vocabu-
contrôle interne », disponible
laire des marchands florentins »,
sur www.amf-france.org/docu-
Annales ESC, p. 1207-1226.
ments/general/5750_1.pdf.
BECK U. [1995], Ecological Politics in
ARNAULD A. et NICOLE P. [1660], La an Age of Risk, Cambridge, Polity
Logique ou l’art de penser, Paris, Press.
Gallimard, 1992. BENVENISTE E. [1969], Le Vocabulaire
A RROUS J. [1982], « Keynes et les des institutions indo-européennes,
probabilités : un aspect du Paris, Minuit.
“fondamentalisme” keynésien », BERGERON L. [1978], Les Capitalistes
Revue d’économie politique, en France, 1780-1914, Paris,
vol. XXXIII, nº 5, p. 839-861. Gallimard.
ARROW K.J., HARRIS T. et MARSCHAK J. B ERLE A. et M EANS G. [1932], The
[1951], « Optimal inventory Modern Corporation and Private
policy », Econometrica, vol. XIX, Property, New Brunswick, Tran-
nº 3, p. 250-272. saction Publishers.
108 L A NOTION DE RISQUE EN ÉCONOMIE

BERNARD P., JOULIA V., JULIEN-LAFER- BESNARD P. [1970], Protestantisme et


R I È R E B. et T A R D I T S J. [1996], Capitalisme, Paris, Armand
Mesure et contrôle des risques de Colin.
marché, Paris, Economica. B ISIÈRE C. [1997], La Structure par
B E R N S T E I N P.L. [1992], Capital termes des taux d’intérêts, Paris,
Ideas…, New York, Free Press ; PUF.
trad. fr. Des idées capitales. Les BLACK F. et SCHOLES M. [1973], « The
origines improbables du Wall Street pricing of options and corpo-
moderne, Paris, PUF, 1995, rééd. rate liabilities », Journal of Poli-
« Quadrige », 2000. tical Economy, vol. LXXXI, nº 3,
— [1996], Against the Gods : the p. 637-654.
Remarkable Story of Risk, New BOITEUX L.-A. [1968], La Fortune de
York, Wiley ; trad. fr. Plus forts mer. Le besoin de sécurité et les
que les dieux. La remarquable débuts de l’assurance maritime,
histoire du risque, Paris, Flamma- Paris, SEVPEN.
rion, 1998. BOITEUX M. [1993], Haute tension,
B ERNOULLI D. [1730], « Specimen Paris, Odile Jacob.
B ORCH K.H. [1969], « A note on
theoriae novae de mensura
uncertainty and indifference
sortis », rééd. in Die Werke von
curves », Review of Economic
Daniel Bernoulli, t. II, Bâle,
Studies, vol. XXXVI, nº 1, p. 1-4.
Birkäuser Verlag, 1975 ; trad.
B OUCHAUD J.-P. [1995], « Marchés
angl. « Exposition of a new
dérivés : pour une pédagogie du
theory on the measurement of
risque », Le Monde, 14 mars.
risk », in Econometrica, vol. XXI,
BOUCHAUD J.-P. et POTTERS M. [1997],
p. 223 sq. ; 1954 : trad. fr. par
Théorie des risques financiers, Gif-
Charreton R., notes de Bru B.,
sur-Yvette, Centre d’études
« Esquisse d’une théorie nouvelle
nucléaires de Saclay (diffusion
théorie de mesure du sort »,
Eyrolles).
Cahiers du séminaire d’histoire des — [1999], « Worse fluctuation
mathématiques, vol. VI, p. 61-77. method for fast Value-at-Risk
BERNOULLI J. [1713], Ars conjectandi, estimates », cond-mat/9909245,
rééd. in Die Werke von Jakob www.science-finance.fr.
Bernoulli, t. III, Bâle, Birkäuser BOUCHER C. [2001], « Réduction de
Verlag, 1975. la prime de risque et inflation
B ERNOULLI N. [1709], De usu artis financière : le rôle de l’intermé-
conjectandi in jure, rééd. in Die diation financière », note de
Werke von Jakob Bernoulli, t. III, recherche CEPN.
Bâle, Birkäuser Verlag, 1975 ; BOULEAU N. [1998], Martingales et
trad. fr. Meusnier N., « L’usage marchés financiers, Paris, Odile
de conjecturer en droit », sémi- Jacob.
naire d’histoire du calcul des B OURDIEU P. [1987], Choses dites,
probabilités (EHESS), 1992. Paris, Minuit.
BERNSTEIN P. [1998], Plus forts que les B O U R D I N J. [2003], Rapport
dieux. La remarquable histoire du « L’épargne en actions des
risque, Paris, Flammarion. ménages » au Sénat, accessible
REPÈRES BIBLIOGRAPHIQUES 109

sur www.senat.fr/rap/r02-367/ l’économie moderne, Paris, Albin


r02-367.html. Michel, 1996.
BOYER R., DEHOVE M. et PLIHON D. COMBEMALE P. [1999], Introduction à
[2004], Les Crises financières, Keynes, Paris, La Découverte,
rapport CAE nº 50, Paris, La « Repères ».
Documentation française. COMITÉ DE BÂLE [1997], Core Prin-
BRI [2004a], Central Bank Survey of ciples for Effective Banking Supervi-
Foreign Exchange and Derivatives sion, Bâle, BIS, septembre,
Market Activity, www.bis.org/ www.bis.org/publ/bcbs30a.pdf.
publ/rpfx05.htm. — [2001], Sound Practices for the
— [2004b], Regular OTC Derivatives Management and Supervision
Market Statistics, accessible sur of Operational Risk, BIS-BRI,
www.bis.org/publ/otc_hy0505. décembre, www.bis.org/publ/
htm. bcbs86.htm.
BRU B. [1988], « Estimations lapla- — [2003], Sound Practices for the
ciennes », Journal de la société de Management and Supervision of
statistique de Paris, vol. CXXIX, Operational Risk, Bâle, BIS,
nº 1-2, p. 6-45. février, www.bis.org/publ/
B R U B. et C R É P E L P. [1994], bcbs96.pdf.
Condorcet : arithmétique politique. — [2004], International Convergence
Textes rares ou inédits (1767- of Capital Measurement and Capital
1789), Paris, INED. Standards. A Revised Framework,
CAMPBELL J.Y. [2003], « Consump- Bank of International Settle-
tion based asset pricing », in ments/Banque des règlements
CONSTANTINIDES G.M. et al., Hand- internationaux, www.bis.org/
book of the Economics of Finance, publ/bcbs107.pdf.
Amsterdam/Boston, Elsevier/ C O N D O R C E T J.-A.-N. D E C A R I T A T ,
North-Holland. marquis de [1784], « Assurances
C ANTILLON R. [1755], Essai sur la (maritimes) », in BRU B. et CRÉPEL
nature du commerce en général, P. [1994], Condorcet : arithmétique
Paris, INED, 1997. politique. Textes rares ou inédits
CARTAPANIS A. [2004], Les Marchés (1767-1789), Paris, INED,
financiers internationaux, Paris, La p. 485-494.
Découverte, « Repères ». — [1785], « Discours sur l’astro-
CHAMBERS S.P. [1934], « Fluctua- nomie et le calcul des probabi-
tions in capital and the demand lités », in B RU B. et C RÉPEL P.
for money », Review of Economic [1994], Condorcet : arithmétique
Studies, vol. II, nº 1, octobre, politique. Textes rares ou inédits
p. 38-50. (1767-1789), Paris, INED,
CLARK J.B. [1892], « Insurance and p. 600-604.
business profit », Quarterly C ONSTANTINIDES G.M., D ONALDSON
Journal of Economics, vol. VII, J.B. et MEHRA R. [2003], « Junior
nº 1, p. 40-54. can’t borrow : a new perspec-
— [1899], The Distribution of tive on the equity premium
Wealth, New York, Kelley, 1965. puzzle », Quarterly Journal
CLAVERO B. [1991], La Grâce du don. of Economics, vol. CXVIII,
Anthropologie catholique de p. 269-296.
110 L A NOTION DE RISQUE EN ÉCONOMIE

C OUMET E. [1965], « Le problème Press ; trad. fr. Théorie de la


des partis avant Pascal », Archives valeur, Paris, Dunod, 1970.
internationales d’histoire des DIEZ F. [1853], Etymologische Wörter-
sciences. buch der romanischen Sprachen,
— [1970], « La théorie du hasard Bonn, Adolph Marens.
est-elle née par hasard ? », DOCKÈS P. et al. [2000], Les Tradi-
Annales ESC, vol. XXV. tions économiques françaises,
COURTAULT J.-M., KABANOV Y., BRU 1848-1939, Paris, CNRS Éditions.
B., C R É P E L P., L E B O N I et L E DOLLINGER P. [1964], La Hanse, XIIe-
M ARCHAND A. [2000], « Louis XVIIe siècle, Paris, Aubier, 1988.
Bachelier : On the centenary of D REZE J. [1964], « Some postwar
Théorie de la Spéculation », contributions of French econo-
Mathematical Finance, vol. X, mists to theory and public
nº 3, p. 341-353. policy », American Economic
COURTAULT J.-M. et KABANOV Y. (dir.) Review, vol. LIV, nº 4, p. 1-64.
[2002], Louis Bachelier. Aux DU CANGE C. DUFRESNE [1678], Glos-
origines de la finance mathéma- sarium mediae et infimae latini-
tique, Besançon, Presses universi- tatis, Paris, Firmin-Didot, 1845.
taires franc-comtoises. DUPÂQUIER J. [1996], L’Invention de la
C O V E L L O V.T. et M U M P O W E R J. table de mortalité, De Graunt à
[1985], « Risk analysis and risk Wargentin, 1662-1766, Paris,
management : an historical pers- PUF, 177 p.
pective », Risk Analysis, vol. V, E D G E W O R T H F.Y. [1888], « The
nº 2, p. 103-120. mathematical theory of
CRAMÉR H. [1930] « On the mathe- banking », Journal of the Royal
matical theory of risk », Försäkrin- Statistical Society, p. 113-127.
gaktiebolaget Skandias Festskrift, EINSTEIN A. [1905], « U̇ber die von
p. 7-84. der molekularkinetishchen
DASTON L. J. [1988], Classical Proba- Theorie der Warme gefordete
bility in the Enlightenment, Prin- Bewegung von in ruhenden Flus-
ceton, Princeton University sigkeiten suspendierten Teil-
Press. chen », Annalen der Physik,
— [1989], « The domestication of vol. XVII, p. 549-560.
risk : mathematical probability EWALD F. [1996], Histoire de l’État-
and insurance 1760-1830 », in providence, Paris, LGF, « Le Livre
KRÜGER L., DASTON L.J. et HEIDEL- de Poche ».
BERGER M. (dir.), The Probabilistic F AVEREAU O. [1985], « L’incertain
Revolution, Cambridge (Mass.), dans la révolution keynésienne :
MIT Press. l’hypothèse Wittgenstein »,
DEBOUZY M. [1972], Le Capitalisme Économies et Sociétés/Cahiers de
« sauvage » aux États-Unis, Paris, l’ISMEA, série PE, nº 3, p. 29-72.
Le Seuil, 1991. F O N S E C A G. [2004], « Frank
DEBREU G. [1959], Theory of Value. Hyneman Knight », disponible
An Axiomatic Analysis of sur http://cepa.newschool.edu/
Economic Equilibrium, Cowles het/profiles/knight.htm.
foundation monograph nº 17, FOURQUET F. [1989], Richesse et puis-
New Haven, Yale University sance. Une généalogie de la valeur
REPÈRES BIBLIOGRAPHIQUES 111

( X V I e - X V I I I e siècle), Paris, La de sociologie sous la direction de


Découverte. Michel Lallement, Paris, CNAM,
F R E E M A N H.A., F R I E D M A N M., 650 p.
MOSTELLER F., SCHWARTZ D.H. et GROENWEGEN P.D. [1987], « “Political
W ALLIS W.A. [1948], Sampling economy” and “Economics” », in
Inspection, New York, McGraw- New Palgrave Dictionnary of
Hill. Economics, vol. 3, p. 904-907.
FREUNDLICH F. [1995], Le monde du GUERRIEN B. [2002a], La Théorie des
jeu à Paris, 1715-1800, Paris, jeux, Paris, Economica.
Albin Michel. — [2002b], Dictionnaire d’analyse
FRIEDMAN M. [1953], « The metho- économique, Paris, La Découverte,
dology of positive economics », 3e éd.
in FRIEDMAN M., Essays in Positive G U I L H O T N. [2004], Financiers,
Economics, Chicago, University philanthropes. Vocations éthiques
of Chicago Press, p. 3-43. et reproduction du capital à Wall
FRIEDMAN M. et SAVAGE L.J. [1948], Street depuis 1970, Paris, Raisons
« The utility analysis of choices d’Agir.
involving risk », Journal of Poli- GUIRAUD P. [1982], Dictionnaire des
tical Economy, vol. LVI, étymologies obscures, Paris, Payot ;
p. 270-304. rééd. 1994.
— [1952], « The expected utility GÜN Ö. [2002], L’Altruisme dans la
hypothesis and the measurabi- théorie économique contempo-
lity of utility », Journal of Political raine : ses conditions d’apparition
Economy, vol. LX, p. 463-474. et ses conséquences, thèse Paris-I.
FUSTEL DE COULANGES N.-D. [1892], — [2003], « Les raisons de l’appari-
Histoire des institutions politiques tion de l’hypothèse d’agent
de l’ancienne France, l’alleu et le altruiste dans la théorie écono-
domaine rural pendant l’époque mique contemporaine », 7e confé-
mérovingienne, Paris, Hachette, rence ESHET, 30 janvier, Paris.
1927. H ADAR J. et R USSELL W.R. [1969],
G A S P A R D M. [2003], « Ramsey’s « Rules for ordering uncertain
theory of national saving : a prospects », American Economic
mathematician in Cambridge », Review, vol. LIX, p. 25-34.
Journal of the History of Economic HANOCH G. et LEVY H. [1969], « The
Thought, vol. XXV, nº 4, efficiency analysis of choices
p. 413-435. involving risk », Review of
G I D D E N S A. [1999], FAQ, www. Economic Studies, vol. XXXVI,
lse.ac.uk/Giddens/FAQs.htm. p. 335-346.
GIRAUD P.-N. [2001], Le Commerce HARRISON J.M. et KREPS D.M. [1979],
des promesses, petit traité de « Martingales and arbitrage in
finance moderne, Paris, Denoël. multiperiod securities markets »,
G ODECHOT O. [2001], Les Traders. Journal of Economic Theory,
Essai de sociologie des marchés vol. XX, p. 381-408.
financiers, Paris, La Découverte. HARRISON J.M. et PLISKA S.R. [1981],
— [2004], L’Appropriation du profit. « Martingales and stochastic
Politiques des bonus dans l’indus- integrals in the theory of conti-
trie financière, thèse de doctorat nuous trading », Stochastic
112 L A NOTION DE RISQUE EN ÉCONOMIE

Processes and Their Applications, J ACQUILLAT B. et S OLNIK B. [2002],


vol. XI, p. 215-260. Marchés financiers. Gestion de
HAWLEY F.B. [1891], « The funda- portefeuille et des risques, Paris,
mental error of Kapital und Kapi- Dunod, 4e éd.
talzins », Quarterly Journal of J ALLAIS S. et P RADIER P.-C. [1997],
Economics, vol. VI, nº 3, « L’erreur de Daniel Bernoulli ou
p. 280-307. Pascal incompris », Économies et
HENRIET D. et ROCHET J.-C. [1991], Sociétés, série P.E., nº 25, 1/1997,
Microéconomie de l’assurance, p. 17-48.
Paris, Economica. — [2005], « The Allais paradox and
H ERRERO G. et DEL R ÍO P. [2003], its immediate consequences for
« Financial stability and the expected utility theory », in
design of monetary policy », F ONTAINE P. et L EONARD R., The
SUERF Colloquium Paper, dispo- « Experiment » in the History of
nible sur www.banque-france. Economics, Londres, Routledge.
fr/gb/fondatio/telechar/papers_ JALLAIS S., PRADIER P.-C. et TEIRA-
d/financial_stability_mp. pdf. SERRANO D. [2003], « Experimental
HICKS J.R. [1935], « A suggestion for
rationality and the theorizing of
simplifying the theory of
risky decision making : Bernoulli,
assets », Economica, « New
Condorcet, Allais », 12th Interna-
Series », vol. II, février, p. 1-19.
tional Congress of Logic Metho-
HOLT C.C., MODIGLIANI F. et SIMON
dology and Philosophy of Science,
H.A. [1955] « A linear decision
Oviedo, 8 août. Variante dispo-
rule for production and employ-
nible sur http://picha.univ-paris1.
ment scheduling », Management
fr/Jallais-Pradier-Teira%202005.
Science, vol. 2, nº 1, p. 1
pdf.
HOLT C.C., MODIGLIANI F., MUTH J.F.
J ÉGOUREL Y. [2005], Les Produits
et S IMON H.A. [1960], Planning
financiers dérivés, Paris, La Décou-
Production, Inventories and Work
Force, Englewood Cliffs, Prentice- verte, « Repères ».
Hall ; trad. fr. Planification de la KAC M. [1950], « On some connec-
production, des stocks, de l’emploi, tions between probability theory
Paris, Dunod, 1964. and differential and integral
HULL J. [2004], Options, futures et equations », Proceedings of the
autres actifs dérivés, Paris, Pearson Second Berkeley Symposium on
Éducation France, 5e éd. Mathematical Statistics and
HUYGHENS C. [1657], De ratiociniis in Probability, Berkeley, University
aleae ludo : de rekeningh in spelen of California Press, 1951,
van geluck, rééd. in Œuvres p. 189-215.
complètes de Christian Huyghens KAHNEMAN D. et TVERSKY A. [1979],
publiées par la société hollandaise « Prospect theory : an analysis of
des sciences, t. XIV, La Haye, decision under risk », Econome-
Martinus Nijhoff. trica, vol. XLVII, nº 2, mars,
ITÔ K. [1951], « On stochastic diffe- p. 263 sq.
rential equations », Memoirs, K EYNES J.M. [1921], A Treatise on
American Mathematical Society, Probability, Londres, Macmillan ;
vol. IV, p. 1-51. rééd. in The Collected Writings of
REPÈRES BIBLIOGRAPHIQUES 113

J.M. Keynes, vol. VIII, Londres, LAPLACE P.-S. [1781], « Mémoire sur
Macmillan. les probabilités », Mémoires de
— [1936], Théorie générale de l’Académie royale des sciences
l’intérêt, de l’emploi et de la (pour l’année 1778), p. 227-232 ;
monnaie, Paris, Payot, 1989. rééd. in LAPLACE P.-S. [1878-
— [1937], « The general theory of 1912], vol. IX, p. 383-485.
employment », Quarterly Journal — [1786], « Sur les naissances, les
of Economics, rééd. in The mariages et les morts à Paris
Collected Writings of J.M. Keynes, depuis 1771 jusqu’en 1784, et
vol. VIII, Londres, Macmillan, dans toute l’étendue de la France
p. 109-123. pendant les années 1781 et
KINDLEBERGER C.P. [1967], « French 1782 », Mémoires de l’Académie
planning », in M ILLIKAN M.F. royale des sciences (pour l’année
(dir.), National Economic Plan- 1783), p. 693-702 ; rééd. in
ning, New York, NBER/Columbia L A P L A C E P.-S. [1878-1912],
University Press. vol. IX, p. 35-46.
KNIGHT F.H. [1921], Risk, Uncer- L EBARON F. [2000], La Croyance
tainty and Profit, Boston/New économique. Les économistes entre
York, A.M. Kelley, 1964.
science et politique, Paris, Le Seuil.
K OCHERLAKOTA N.R. [1996], « The
— [2002], « Le “Nobel” d’écono-
equity premium : it’s still a
mie : une politique », Actes de la
puzzle », Journal of Economic Lite-
recherche en sciences sociales,
rature, vol. XXXIV, nº 1,
nº 141-142, mars, p. 62-66.
p. 42-71.
LE BRAS H. [2000], Naissance de la
K OLMOGOROV A.N. [1931], « U̇ber
mortalité. L’origine politique de la
die analytischen Methoden
statistique et de la démographie,
in der Wahrscheinlichkeitsrech-
Paris, Gallimard/Le Seuil.
nung », Mathematische Annalen,
L EFORT S. et P RADIER P.-C. [1999],
vol. CLXXXXIV, nº 3, p. 415-
458. « Toute petite histoire des
KYDLAND F. et PRESCOTT E.C. [1982], produits financiers », Cahiers de
« Time to build and aggregate la MSE, voir http://picha.univ-
fluctuations », Econometrica, paris1.fr.
nº 50, p. 1345-1371. L UCAS R.E. [1972], « Expectations
L ACOUE -L ABARTHE D. [2005], « Les and the neutrality of money »,
paniques bancaires inefficientes Journal of Economic Theory,
et la politique d’indulgence de vol. IV, p. 103-124.
l’État : une analyse exploratoire — [1978], « Asset prices in an
de la crise française des années exchange economy », Econome-
1930 », colloque du GDR, Stras- trica, nº 46, p. 1429-1445.
bourg, 16-17 juin. LUHMANN N. [1990], Soziologie des
LANDES D. [1975], L’Europe techni- Risikos, Berlin, de Gruyter ; éd.
cienne ou le Prométhée libéré. Révo- angl. Risk : a Sociological Theory,
lution technique et libre essor New York, de Gruyter.
industriel en Europe occidentale de LUTHY H. [1961], La Banque protes-
1750 à nos jours, Paris, tante en France, Paris, SEVPEN,
Gallimard. rééd. partielle in MARGAIRAZ M.,
114 L A NOTION DE RISQUE EN ÉCONOMIE

Histoire économique, XVIII e - XX e — [1946], Les Réserves et la régula-


siècle, Paris, Larousse, 1992. tion de l’avenir, Paris, Hermann.
MACKENZIE D. [2001], « Making and MASSÉ P. et MORLAT G. [1952], « Sur
unmaking a world : models, le classement économique
financial markets, and crises », des perspectives aléatoires »,
intervention au colloque du communication au colloque
centre Koyré. international sur le risque, Paris,
M AGENS N. [1753], Versuch über CNRS, p. 165-199.
Assecuranzen, Havereyen und M ATTAINI A. [2000], « Andrea da
Bodmereyen insgemein ; und über Barberino », in PICCOLO E. (dir.),
verschiedene hiebeygesügte wirc- La Crittica letteraria : il medioevo,
kliche Vorfälle und deren Berech- Naples, Dedalus/Loffredo.
nungen insbesondere nebst einer M C G RATTAN E.R. et P RESCOTT E.C.
Sammlung der vornehmsten alten [2001], « Taxes, regulations, and
un neun Verordnungen und von assets prices », Working Paper,
einem Kaufmanne in London, nº 610, Federal Reserve Bank of
Hamburg, Conrad König. Minneapolis.
MANN H.B. et WHITNEY D.R. [1947], M E H R A R. [2003], « The equity
« On a test of whether one of premium : why it’s a puzzle ? »,
two random variables is stochas- NBER Working Paper, nº 9512,
tically larger than the other », www.nber.org/papers/w9512.
Ann. Math. Statist., vol. 18, MEHRA R. et PRESCOTT E.C. [1985],
p. 50-60. « The equity premium : a
MARKOV A.A. [1906], « Rasprostra- puzzle », Journal of Monetary
nenie zakona bol’shih chisel na Economics, vol. XV, nº 2,
velichiny, zavisyaschie drug ot p. 145-161.
druga », Izvestiya Fiziko-matema- — [2003], « The equity premium in
ticheskogo obschestva pri retrospect », in C ONSTANTINIDES
Kazanskom universitete, 2-ya G.M. et al., Handbook of the
seriya, vol. 15, p. 135-156. Economics of Finance, Amsterdam/
M ARKOWITZ H.M. [1959], Portfolio Boston, Elsevier/North-Holland.
Selection : Efficient Diversification M ELIS F. [1975], Origini e sviluppi
of Investment, New Haven, Yale delle assicurazioni in Italia (secoli
University Press, 1971, 2e éd. XIV-XVI), Rome, INA.
MARSCHAK J. [1938], « Money and MENUDO J.M. et O’KEAN J.M. [2003],
the theory of assets », Econome- « The French tradition : the
trica, vol. VI, nº 4, octobre, emergence of the entrepreneur
p. 311-325. as an acknowledged agent of
MARTIN T. (dir.) [2003], Arithmé- production », communication
tique politique dans la France du au colloque ESHET 2003.
XVIIIe siècle, Paris, INED. MERTON R. [1948], « The self-fulfil-
MASSÉ P. [1944], « Applications des ling prophecy », Antioch Review,
probabilités en chaîne à l’hydro- vol. VIII, p. 193-210 ; rééd. in
logie statistique et au jeu des M ERTON R., Social Theory and
réservoirs », Journal de la société Social Structure, 1949, 1957, trad.
de statistique de Paris, p. 204-219. fr. Éléments de théorie et de
REPÈRES BIBLIOGRAPHIQUES 115

méthode sociologique, Paris, Plon, N YMAN J.A. [2002], The Theory of


1965. Demand for Health Insurance,
— [1971], « Optimum consump- Stanford, Stanford University
tion and potfolio rules in a Press.
continuous-time model », ORLÉAN A. [2000], Le Pouvoir de la
Journal of Economic Theory, finance, Paris, Odile Jacob.
vol. III, p. 373-413. P A S C A L B. [1670], Pensées,
MITCHELL W.C. [1922], « Review of nombreuses rééditions ; nous
Knight’s Risk, Uncertainty and donnons les références aux
Profit », American Economic éditions établies par BRUNS-
Review, vol. XII, p. 274-275. CHVICG L., Œuvres, Kraus Reprint,
MOIVRE A. de [1711], « De mensura Paris, 14 vols, 1904-1914 (Les
sortis », Philosophical Transac- Grands Écrivains de la France), et
tions, janvier-février, p. 206-264 ; par L A F U M A L., Histoire des
rééd. New York, Johnson & Pensées de Pascal : 1656-1952,
Kraus, 1963. Saint-Genouph, Nizet, 1969.
M ONTMORT P.R. de [1708], Essai PERETTI-WATEL P. [2001], La Société
d’analyse sur les jeux de hasard, du risque, Paris, La Découverte,
Paris, 1713, 2e éd. « Repères ».
M UNIESA F. [2003], Des marchés PETIT H. et SAUZE D. [2005], « Une
comme algorithmes : sociologie de lecture de la relation salariale en
la cotation électronique à la Bourse termes de risques. Application au
de Paris, thèse de socio-économie cas de la France aux X I X e et
de l’innovation, Centre de socio- XXe siècles », Atelier Emploi-Social,
logie de l’innovation (CSI), École 18 avril, Cahiers de la MSE.
des mines de Paris. P ETTY W. [1662], attribué à tort à
MURPHY A.E. [1997], « Préface », in John Graunt. Observations natu-
CANTILLON R. [1755], Essai sur la relles et politiques répertoriées dans
nature du commerce en général, l’index ci-après et faites sur les
Paris, INED. Bulletins de Mortalité, éd. critique
— [2003], « The roles of the entre- et trad. fr. par Vilquin E., INED,
preneur and money in Paris, 1977.
economics : reflections on Law, PIGOU A.C. [1920], The Economics of
Cantillon and Schumpeter », Welfare, Londres, Macmillan.
communication au colloque P IKETTY T. [1997], L’Économie des
ESHET 2003. inégalités, Paris, La Découverte,
MUTH J.F. [1961], « Rational expec- « Repères », 2004.
tations and the theory of price PIRON S. [2004], « L’apparition du
movements », Econometrica, resicum en Méditerranée occi-
vol. XXIX, nº 3, p. 315-335. dentale, X I I e - X I I I e siècles », à
NEUMANN J. von et MORGENSTERN O. paraître in LEMAÎTRE A. et al., Pour
[1944], Theory of Games and une histoire culturelle du risque,
Economic Behavior, Princeton, Rennes, PUR.
Princeton University Press. PRADIER P.-C. [1994], « La gestion
NIERMEYER J.F. [1957], Mediae latini- d’entreprise dans la pensée
tatis lexicon minus, Leyden, Brill, économique au XIX e siècle »,
1976. mémoire ENS-Cachan.
116 L A NOTION DE RISQUE EN ÉCONOMIE

— [1997], « La gestion d’entreprise history », communication au


dans la pensée économique aux colloque GDR, 16-17 juin,
XVIIIe et XIXe siècles : un commen- Strasbourg.
taire », Revue d’économie politique, PRADIER P.-C. et RIEUCAU J.-N. [2005],
vol. 107, nº 1, janvier-février, « Contributions de D’Alembert à
p. 121-130. la théorie de la décision tirées de
— [1998], Concepts et mesures du la polémique sur l’Inoculation »,
risque en théorie économique, thèse Cahiers de la MSE.
ENS-Cachan, voir http://picha. P RADIER P.-C. et T EIRA -S ERRANO D.
univ-paris1.fr. [2000], « Frank Knight : le risque
— [2000a], « Le débat sur les comme critique de l’économie
formes d’organisation de la politique », Revue de synthèse,
production : les économistes 4 e série, nº 1, janvier-mars,
français et le droit des sociétés, p. 79-116.
1860-1914 », in DOCKÈS P. et al., QUITTARD-PINON F. [1993], Marchés
Les Traditions économiques fran- de capitaux et théorie financière,
çaises, 1848-1939, Paris, CNRS Paris, Economica.
Éditions, p. 667-678. R AINELLI -L E M ONTAGNER H. [2003],
— [2000b], « Le Hasard fait bien les
Nature et fonctions de la théorie
choses : histoire du docteur
financière, Paris, PUF.
Markowitz », Économies et
RAMSEY F. [1928], « A mathematical
Sociétés, Economia, Histoire de la
theory of saving », Economic
pensée économique, série P. E.,
Journal.
nº 30, p. 85-118.
R E G N A U L T J. [1863], Calcul des
— [2003], « L’actuariat au siècle des
chances et philosophie de la Bourse,
Lumières : risque et décision
Paris, Mallet-Bachelier et Castel.
/ économiques et statistiques », à
RENARD T. et CLEYRE V. de [2001],
paraître dans la Revue économique,
Medef : un projet de société, Paris,
voir http://picha.univ-paris1.fr.
— [2004], « D’Alembert, l’hypo- Syllepse.
thèse de Bernoulli et la mesure RENOUARD Y. [1962], « Destin d’une
du risque : à propos de quelques grande métropole médiévale :
lignes des Opuscules », in MARTIN Pise », Annales ESC, p. 137-145.
T. (dir.), L’Arithmétique politique — [1968a], Études d’histoire médié-
française au XVIII e siècle, Paris, vale, Paris, SEVPEN.
INED, 2004. — [1968b], Les Hommes d’affaires
— [2005a], « Risque et décision italiens du Moyen Âge, Paris,
économique jusqu’à Laplace », Armand Colin.
Cahiers de la MSE, séminaire RID. — [1969], Les Villes d’Italie de la fin
— [2005b], « Recensement critique du Xe au début du XIVe siècle, Paris,
des papiers conservés du sémi- SEDES.
naire Allais 1946-1952 », Cahiers R EY A. et al. [1992], Dictionnaire
de la MSE. historique de la langue française,
— [2005c], « Trois pièces faciles », Paris, Le Robert.
Cahiers de la MSE. R I C A R D O D. [1820], « Lettre à
— [2005d], « Value at risk Malthus du 9 octobre 1820 »,
1784-2002 : a comprehensive Works, vol. VIII, p. 278-279.
REPÈRES BIBLIOGRAPHIQUES 117

— [1821], Principes d’économie poli- SCHMIDT U. [1998], Axiomatic Utility


tique et de l’impôt, trad. fr. par Theory under Risk : Non-Archime-
Soudan C., Paris, Garnier-Flam- dean Representations and Applica-
marion, 1993. tion to Insurance Economics,
RIEUCAU J.-N. [1998], « Les entre- Berlin, Springer.
prises ou les hommes s’exposent SCHUMPETER J.A. [1954], Histoire de
à une perte, dans la vue d’un l’analyse économique, Paris, Galli-
profit. Condorcet et l’héritage de mard, 1983.
D’Alembert », Revue économique, ’S GRAVESANDE G.S. [1736], Introduc-
vol. XLIX, nº 5, p. 1365-1405. tion à la philosophie, Paris, Périsse
ROBBINS L. [1932], An Essay on the frères, 1842.
Nature and Significance of SHARPE W.F. [1964], « Capital asset
Economic Science, 2e éd., Londres, prices : a theory of market equi-
MacMillan, 1935 ; rééd. in librium under conditions of
H AUSMAN D., The Philosophy of risk », Journal of Finance,
Economics. An Anthology, vol. XIX, septembre.
Cambridge, Cambridge Univer- S MITH A. [1776], Recherche sur la
sity Press. nature et les causes de la richesse
S A R G E N T T.J. [1972], « Rational des nations, trad. fr. par Paulette
expectations and the term struc- Taïeb, Paris, PUF, 1996.
ture of interest rate », Journal of S TEINER P. [1995], « La théorie de
Money, Credit and Banking, l’entrepreneur de Say et la tradi-
vol. IV, nº 1, p. 74-97. tion Cantillon-Knight », L’Actua-
— [1973], « Rational expectations, lité économique/Revue d’analyse
the real rate of interest, and the économique, décembre 1997.
natural rate of employment », — [1998], « Jean-Baptiste Say : the
Brooking Papers on Economic Acti- entrepreneur, the free-trade
vity, nº 2, p. 429-480. doctrine and the theory of
SAVAGE L.J. [1954], Foundations of income distribution », in FACCA-
Statistics, New York, Dover, RELLO G., Studies in the History of
1972. French Political Economy. From
S A Y J.-B. [1818], « Cours à Bodin to Walras, Londres,
l’Athénée », Cours d’économie Routledge, p. 196-228.
politique et autres essais, Paris, STOKEY N., LUCAS R. et PRESCOTT E.
Garnier-Flammarion, 1996. [1989], Recursive Methods in
— [1821], « Catéchisme d’écono- Economic Dynamics, Cambridge
mie politique », Cours d’économie (Mass.), Harvard University
politique et autres essais, Paris, Press.
Garnier-Flammarion, 1996. TAQQU M.S. [2001], « Bachelier and
SCHACHERMAYER W. et TEICHMANN J. his times : a conversation with
[2005], « How close are the Bernard Bru », in G E M A N H.,
option pricing formulas of MADAN D., PLISKA S.R. et VORST T.
bachelier and black-merton- (dir.), Mathematical Finance.
scholes ? », note de recherche Bachelier Congress 2000, Springer
disponible sur www.fam.tuwien. or Finance and Stochastics, vol. V,
ac.at/~wschach/pubs/. nº 1, p. 3-32.
118 L A NOTION DE RISQUE EN ÉCONOMIE

T E I R A -S E R R A N O D. [2003], Azar, management », The Geneva


Economía y política en Milton Papers on Risk and Insurance
Friedman, thèse UNED, Madrid. Theory, vol. XX, nº 1.
TENENTI A. et TENENTI B. [1985], Il WALD A. [1947], Sequential Analysis,
prezzo del rischio : l’assicurazione New York, John Wiley & Sons.
mediterranea vista da Ragusa W ALEY D. [1969], Les Républiques
(1563-1591), Rome, Jouvence. médiévales italiennes, Paris,
T ETENS J.N. [1785], Einleitung zur Hachette.
Berechnung der Leibrenten und WALLIS W.A. [1980] « The statistical
Anwartschaften : Zweyter Teil. research group, 1942-1945 »,
Versuche über einige bey Versor- Journal of the American Statistical
gungs-Anstalten erhebliche Puncte, Association, vol. LXX, p. 320-330.
Leipzig, Weidmanns Erben und WALTER C. [1996], « Une histoire du
Reich. concept d’efficience sur les
THIS I. [1996], « Problèmes épisté- marchés financiers », Annales
mologiques liés à l’autoréalisa- d’histoire économique et sociale,
tion des théories et des p. 873-905.
prévisions économiques », Revue — [2004], « The efficient market
économique, vol. XLVII, nº 3, hypothesis, the gaussian assump-
p. 555-565. tion, and the investment manage-
TOBIN J.E. [1958], « Liquidity prefe- ment industry », www.afir
rence as behavior toward risk », 2003.nl/download/AFIR%
Review of Economic Studies, 202003%20wc%20pap%20def%2
vol. XXV, p. 65-86. 0walter.pdf.
VASICEK O. [1977], « An equili- WEBER M. [1908], L’Éthique protes-
brium characterization of the tante et l’esprit du capitalisme, Paris,
term structure », Journal of Finan- Plon, 1985.
cial Economics, vol. V, nº 2, W EILL P. [1989], « The equity
p. 177-188. premium puzzle and the risk-free
VÉRIN H. [1982], Entrepreneurs, entre- rate puzzle », Journal of Monetary
prise : histoire d’une idée, Paris, Economics, vol. XXIV, p. 401-421.
PUF. WIENER N. [1923], « Differentiable
VV. AA. [1995], « Special issue on space », Journal of Mathematics and
non-expected utility and risk Physics, vol. II, nº 1, p. 31.
Table des matières

Introduction 3
_ Encadré : Quelques rappels utiles, 4
_ Encadré : La représentation du risque dans la théorie économique :
choix individuel entre variables, 6

I Histoire du risque
Fables et mythes du risque 8
La thèse moderniste : une légende bourgeoise, 8
Le roman nautique d’une étymologie obscure, 9
Autres sources, autre thèse 10
L’Italie comme centre de diffusion, 10
Dans l’Italie du XIIIe siècle, 11
La diffusion en Europe 12
_ Encadré : Le lien entre activités commerciale
et militaire commerciale dans l’Italie médiévale, 12

II Le risque probabilisé
Du problème des partis à l’espérance mathématique 16
_ Encadré : Espérance mathématique, 18
Des assurances maritimes aux assurances sur la vie 19
Des assurances sans mathématiques, 19
_ Encadré : Primes d’assurance, 20
Assurance-vie et séries, 20
_ Encadré : Table de mortalité, 21
Du risque-espérance au risque-dispersion, 21
_ Encadré : Évaluation des rentes, 22
_ Encadré : L’histoire des tables de mortalité, 23
Métaphores du risque 24
La décision économique, 24
_ Encadré : Problème ou paradoxe de Pétersbourg, 25
La décision statistique, 26
120 L A NOTION DE RISQUE EN ÉCONOMIE

III Le risque de l’économie politique


Jeux de labour et du hasard 28
La « tradition française » 30
Cantillon : l’entrepreneur comme classe sociale, 30
Say : l’entrepreneur sans risque, 31
Les Américains avant Knight 32
Capital, risque et forme sociale, 32
Un faux classique, 33
Au risque de l’incertitude 34
Frank Hyneman Knight : la distinction « canonique », 34
John Maynard Keynes, 37
Les conséquences (théoriques) de l’incertitude, 39
Les conséquences paradoxales
de l’incertitude knightienne, 39
Et après ? 40
Le risque et l’équilibre général : la théorie de la valeur, 41
Le risque dans les manuels d’économie, 42

IV La finance comme discipline : théories


Les modèles statiques 44
Histoire d’une évidence, 44
_ Encadré : Typologie des risques financiers, 46
Harry Markowitz et l’« analyse espérance-variance », 48
Le risque dans la finance après Markowitz, 49
_ Encadré : La résolution complète du programme
de Markowitz, 50
Le CAPM : modèle opérationnel ou langage ? 52
Les modèles dynamiques 53
La thèse de Louis Bachelier, 54
_ Encadré : Les produits dérivés, 55
Les développements de la finance de marché, 56
L’oubli du risque, 59
_ Encadré : La chute de LTCM, 60
Épistémologie 62
Keynes : convention et compétition, 62
_ Encadré : Toute petite sociologie
de la finance contemporaine, 65

V Les applications de la théorie de la décision


Les années 1950 : planification et calcul 66
Statistical Research Group contre plan Monnet, 66
_ Encadré : La théorie de l’utilité espérée : exemples, 68
Allais contre Savage, 70
La décision après l’utilité espérée, 72
_ Encadré : Les ordres stochastiques, 73
TABLE DES MATIÈRES 121

Métaphores de la recherche opérationnelle 75


Ramsey, Massé, Pontryagin, 75
De la gestion de stocks aux anticipations rationnelles, 77
_ Encadré : Les probabilités bayésiennes, 78
La macroéconomie, 81
La microéconomie de l’assurance 83
_ Encadré : La demande d’assurance :
le modèle de Mossin (1968), 83

VI La finance comme pratique : institutions


La régulation des risques 85
La réglementation prudentielle, 86
_ Encadré : Les accords de Bâle II, 88
La Value-at-Risk : un cadre méthodologique, 89
Risques opérationnels et contrôle, 91
L’énigme de la prime de risque 92
L’énigme elle-même, 92
Un artefact statistique ? 94
La revanche de l’histoire, 95
Conclusion, 102
Conclusion 103

Conclusion 105

Repères bibliographiques 107

Vous aimerez peut-être aussi