Académique Documents
Professionnel Documents
Culture Documents
Mathématiques
des marchés financiers
Modélisation du risque et de l’incertitude
Préface de
Jean-Philippe Bouchaud
Imprimé en France.
© 2012, EDP Sciences, 17, avenue du Hoggar, BP 112, Parc d’activités de Courtabœuf,
91944 Les Ulis Cedex A
Tous droits de traduction, d’adaptation et de reproduction par tous procédés réservés pour tous pays.
Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des pages pu-
bliées dans le présent ouvrage, faite sans l’autorisation de l’éditeur est illicite et constitue une contrefaçon.
Seules sont autorisées, d’une part, les reproductions strictement réservées à l’usage privé du copiste et non
destinées à une utilisation collective, et d’autre part, les courtes citations justifiées par le caractère scientifique
ou d’information de l’œuvre dans laquelle elles sont incorporées (art. L. 122-4, L. 122-5 et L. 335-2 du Code de
la propriété intellectuelle). Des photocopies payantes peuvent être réalisées avec l’accord de l’éditeur. S’adres-
ser au : Centre français d’exploitation du droit de copie, 3, rue Hautefeuille, 75006 Paris. Tél. : 01 43 26 95
35.
ISBN 978-2-7598-0690-4
Mathieu LE BELLAC
Ancien élève de l’École normale supérieure, Mathieu Le Bellac
a travaillé dans le département d’audit quantitatif du groupe
BPCE. Dans ce cadre, il a participé à plusieurs missions d’ins-
pection sur les problématiques de contrôle des risques, de
valorisation et de gestion d’actif au sein du groupe Banque
Populaire et de Natixis. Il est actuellement Directeur des
risques adjoint de la BRED, dont le périmètre de supervision
comprend des activités de marchés, d’assurance et de banque
de détail.
Arnaud VIRICEL
Membre de l’Institut des actuaires. Il a participé à la création de
l’activité change et dérivés de la banque Natixis à New York en
tant qu’opérateur de marché. Il a rejoint ensuite l’Autorité des
Marchés Financiers, où il est en charge de la mise en place d’un
système statistique de détection des abus de marché, avant de
renforcer l’équipe d’audit quantitatif du groupe BPCE, dont il
a pris la direction. Il est, depuis 2011, responsable des risques
de marché de Natixis New York.
This page intentionally left blank
Table des matières
Préface 1
Avant-propos 3
4 Théorie du non-arbitrage 65
4.1 Les arbres binomiaux . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2 Le théorème du non-arbitrage (cas discret) . . . . . . . . . . . . . 73
4.3 La complétude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.4 Le cadre continu* . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5 Le modèle de Black-Scholes 85
5.1 Le mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2 Les processus lognormaux . . . . . . . . . . . . . . . . . . . . . . . 91
5.3 Valorisation sous le modèle de Black-Scholes . . . . . . . . . . . . 94
5.4 La volatilité implicite . . . . . . . . . . . . . . . . . . . . . . . . . . 100
Conclusion 185
Bibliographie 189
Index 195
Les sections marquées d’une étoile (*) peuvent être un peu plus techniques que les
autres, elles présentent des éléments d’approfondissement. Le lecteur qui le souhaite peut
sauter ces sections sans perdre le fil du livre.
J.-P. B OUCHAUD
Paris, décembre 2011
2 Préface
Avant-propos
4 Avant-propos
1 Les taux d’intérêt
5 5 105
+ + ≈ 108,65 Me (1.1)
1 + 2 % (1 + 2 %) 2 (1 + 2 %)3
En effet, chaque flux à percevoir a un prix : le premier vaut 1+52 % = 4,9 Me,
le second (1+25 %)2 = 4,8 Me et le troisième (1+105
2 %)3
= 98,95 Me ; le prix du total
est la somme du prix de chacun des flux.
Il est très important de pouvoir calculer à tout moment cette valeur actualisée
des flux que l’État verse, car le prêt consenti par la banque pourra être revendu sur
les marchés financiers. Pour ce faire, le prêt de l’État prend souvent la forme d’une
obligation. L’obligation fonctionne exactement comme un prêt dont l’avantage est
de pouvoir s’échanger facilement sur les marchés financiers : c’est le détenteur de
l’obligation qui perçoit les flux de remboursement de la part de l’emprunteur qui
est l’émetteur de l’obligation. Tout un vocabulaire s’est développé autour de ces
obligations : le montant du capital est appelé nominal de l’obligation et les intérêts
versés sont les coupons. Généralement, les coupons sont connus à l’avance et fixés
comme un pourcentage du nominal de l’emprunt (on parlera alors d’obligations
à taux fixe) et sont versés à une fréquence donnée. Le nominal de l’emprunt est,
quant à lui, remboursé avec le dernier coupon à la maturité de l’obligation.
Les grandeurs observables sur les marchés financiers sont les prix : les prix des
transactions sur les marchés organisés sont publics, nous pouvons par exemple
tous consulter les cours de toutes les actions du CAC 40 sur Internet. Les prix
des obligations sont plus difficiles à obtenir pour les particuliers, mais beaucoup
d’obligations sont quotidiennement échangées entre les différents acteurs de
marché, dans des volumes conséquents et dans des conditions qui sont publiées
auprès des professionnels des marchés. Ainsi, nous pouvons déduire de ces
obligations de référence les niveaux des taux d’intérêt. Étudions le résultat
d’une telle analyse sur des obligations de l’État français (appelées Obligations
Assimilables du Trésor ou OAT) dans le graphique 1.2.
Cette figure met en évidence le fait que les taux sont globalement croissants
avec la maturité. Ce constat s’interprète assez naturellement si l’on considère
qu’un prêt d’argent sur une durée donnée implique que l’accès à la liquidité
investie ne sera pas possible durant tout ce laps de temps. Il semble normal que
l’investisseur soit rétribué pour ce risque dit de liquidité qui est d’autant plus
grand que la durée d’investissement est longue.
De ce fait, la valeur d’un taux d’intérêt dépend de la maturité du placement
sur lequel il s’applique. Le taux d’intérêt associé à un emprunt de six mois n’est
pas le même que le taux d’intérêt associé à un emprunt de 25 ans ; un particulier
qui a dû négocier le taux de son crédit immobilier avec sa banque est d’ailleurs
normalement bien au fait de ce phénomène. Il explique pourquoi nous parlons
de courbe des taux : la courbe des taux est la fonction qui associe à chaque maturité
le taux d’intérêt correspondant.
Cette construction de la courbe des taux mérite attention, c’est à elle que nous
allons consacrer la présente section. Tout d’abord, il nous faut être vigilant dans
sa définition : nous noterons r ( T ) le taux associé à la maturité T. Par définition,
lorsque nous calculerons des valeurs présentes, chaque flux devra donc être
actualisé au taux associé à la date de versement du flux. Le prix d’une obligation
est donc par définition, en adaptant l’équation (1.2) :
maturité
coupon nominal
Prix = ∑ (1 + r (t)) t
+
(1 + r (maturité))maturité
(1.3)
t =1
Cette équation est importante car elle montre que le prix d’une obligation, et
donc son taux de rendement, qui reste défini par l’équation (1.2), est sensible non
L’équation (1.3) montre également que si l’on connaît le prix d’une obligation
et les taux ZC antérieurs à sa maturité, nous pouvons calculer le taux ZC associé
à la date de maturité de l’obligation. En d’autres termes, nous retiendrons qu’à
partir d’un jeu d’obligations de maturités différentes nous pouvons recalculer de
proche en proche les taux ZC.
Illustrons cela par un exemple dont le lecteur pourra reproduire les calculs.
Admettons que nous disposons du prix de 2 obligations, de nominal 100 e
chacune :
– L’obligation A, de maturité 1 an et de coupon annuel 5 e, vaut 102 e ;
– L’obligation B, de maturité 2 ans et de coupons annuels 6 e, vaut 104 e.
L’équation (1.3) appliquée à l’obligation A permet de calculer r (1) ≈ 2,94 %.
Appliquée à l’obligation B, cette même équation permet dans un second temps
de calculer r (2) à partir de la valeur de r (1) : r (2) ≈ 3,91 %.
À ce stade, l’objectif fixé, la construction de la courbe des taux, paraît acquis
puisque nous pouvons observer le prix d’obligations de référence et en déduire
les taux ZC ainsi que nous l’avons fait dans l’exemple précédent. Toutefois nous
avons négligé plusieurs aspects importants. Premièrement, la construction de
notre courbe des taux ZC repose sur un nombre limité d’obligations dont les
maturités ne sont pas nécessairement bien réparties : la question se pose donc
de savoir comment construire les taux ZC pour une maturité comprise entre
deux maturités consécutives des obligations pour lesquelles nous disposons des
prix. Deuxièmement, les obligations d’État sont des produits de marché dont les
prix sont sensibles au niveau des taux d’intérêt, bien sûr, mais aussi à d’autres
facteurs comme le risque de défaillance des États, les incidences fiscales, la rareté
d’une maturité influant sur le prix par le jeu de l’offre et de la demande, la
difficulté à trouver des acheteurs ou des vendeurs pour certaines obligations
F IGURE 1.3. Exemple illustratif d’échantillons de base pour la construction de courbes des taux ZC. Les
données pouvant être observées sur le marché interbancaire sont plus nombreuses et régulières.
F IGURE 1.4. Exemples d’interpolation et de lissage d’une courbe de taux ZC interbancaire. Les interpolations
par morceaux peuvent créer des perturbations techniques (creux observé sur le graphique (b)) indésirables.
Les interpolations paramétriques ([Nelson et Siegel 1987]) sont plus robustes (courbes bleues) mais elles
présentent l’inconvénient de ne pas passer par tous les taux observés (points rouges).
s’échelonnant tous les mois entre 1 mois et 6 mois puis tous les ans entre 1 an
et 20 ans. Le graphe de droite utilise les mêmes taux observés auxquels a été
rajouté un taux ZC de maturité 11 mois. Cet exemple est riche d’enseignements
puisqu’il permet de constater que la méthode paramétrique est insensible à
l’ajout du taux ZC de maturité 11 mois tandis que la méthode d’interpolation
par morceaux y est très sensible. Nous pouvons considérer que l’ajout du taux
ZC 11 mois a compromis le sens économique de l’interpolation : le creux observé
entre les maturités 1 an et 2 ans n’a pas de sens économique puisqu’il n’est
que la résultante du choix arbitraire d’une méthode d’interpolation. L’innocuité
supposée des méthodes d’interpolation n’est qu’un leurre et celles-ci devraient
donc être contrôlées continûment avant utilisation.
F IGURE 1.5. Différentes configurations de courbes des taux au fil de l’histoire. La courbe des taux peut
prendre des formes très diverses.
Nous constatons ainsi qu’au moins cinq formes de courbes sont possibles :
– courbe croissante (Courbe interbancaire Euro du 03/02/2010) ;
– courbe plate (Courbe interbancaire Euro du 05/10/2006) ;
– courbe décroissante (Courbe d’État britannique du 11/01/2001) ;
– courbe décroissante puis croissante (Courbe interbancaire Euro du
07/12/2007) ;
– courbe croissante puis décroissante puis croissante (Courbe interbancaire
Euro du 03/11/2008).
Le graphique 1.5 permet de formuler une première constatation : les taux
court terme semblent plus volatils que les taux long terme. Cette hypothèse est
résiduelle sera portée par l’axe orthogonal (droite en traits pointillés sur la
figure 1.6). Dans notre exemple, le premier axe explique 79 % de la variance
totale contre 21 % pour l’axe en pointillé. En synthèse, nous avons appris que la
variation des taux 2 ans et 7 ans est constituée à 79 % de mouvements parallèles
et de même amplitude, alors que les 21 % restants s’expliquent par des variations
de sens opposés.
F IGURE 1.7. Les trois principaux vecteurs de déformation de la courbe des taux. Chacun de ces vecteurs est
associé à une déformation de la courbe des taux représentée dans la figure 1.8.
3e facteur : Augmentation
1er facteur : Translation 2e facteur : Pentification
de la convexité
F IGURE 1.8. Illustration des déformations de la courbe des taux induites par les trois vecteurs principaux de
l’ACP. Les graphiques illustrent l’impact sur la courbe des taux d’une variation des taux alignée sur l’un des
trois vecteurs identifiés dans la figure 1.7.
Nous avons étudié au précédent chapitre les taux d’intérêt purs rémunérant la
perte d’opportunité d’investissement par le prêteur. L’identité de l’emprunteur
n’avait alors que peu d’importance puisque nos raisonnements présupposaient
que tous les flux futurs étaient versés de manière certaine. Dans la pratique, et
ainsi que nous avions commencé à l’évoquer en filigrane, cette hypothèse est loin
d’être acquise ; il suffit de discuter quelques instants avec les ex-créanciers de
Worldcom, Enron ou encore Lehman Brothers pour s’en convaincre. En réalité,
tout prêt ou emprunt d’argent est soumis à au moins deux risques :
– le risque de variation des taux d’intérêt que nous avons vu lors du chapitre
précédent ;
– le risque de non-versement des flux d’argent prévus dans les termes du
contrat, suite à la faillite ou au défaut de paiement d’une contrepartie ; c’est
ce que l’on appelle le risque de crédit.
L’existence de ce risque supplémentaire va conduire les prêteurs, comme
c’est toujours le cas en finance, à demander un surcroît de rémunération visant à
compenser le risque pris. Les théories du risque de crédit modélisent ce risque
supporté par le prêteur, elles le quantifient par la notion de spread de crédit que
nous aborderons dans la première partie. Le cas des Credit Default Swaps nous
permettra dans un second temps d’illustrer comment le développement des
produits dérivés de crédit a nécessité la construction de modèles cohérents avec
les prix de marché et dont quelques exemples simples seront présentés ([Jarrow
et Turnbull 1995]). Le modèle de [Merton 1974], appartenant à la famille des
modèles dits structurels – modélisant le risque réel de défaut et les événements
conduisant au défaut – sera ensuite évoqué. La modélisation des corrélations
entre les défauts sera abordée dans le dernier volet de ce chapitre.
1 Taux sans risque et spread de crédit
F IGURE 2.1. Les différentes étapes de construction du spread de crédit. Les graphiques présentent six
obligations identifiées par le nom de l’émetteur, la notation de l’émetteur, le coupon de l’obligation et sa
maturité. La représentation des prix sur le graphique (a) ne permet pas de rendre compte de la hiérarchie du
risque de crédit, les prix ne sont pas ordonnés en fonction de la qualité de crédit. Le recours aux taux de
rendement sur le graphique (b) permet de rétablir cette hiérarchie pour peu que l’on se place sur une même
maturité. Enfin, le calcul du spread de crédit, écart entre le taux sans risque et le taux de rendement, sur le
graphique (c) isole la part du rendement de l’obligation associée au risque de crédit.
Pour cette raison, nous devons introduire la notion de taux sans risque qui est
un taux non soumis au risque de crédit, c’est-à-dire pour lequel les versements
d’intérêts futurs sont certains. Ce taux sans risque comporte une structure par
F IGURE 2.2. Historique des taux de rendement des obligations de maturité 10 ans émises par différents
États de la zone Euro. Les résultats de la crise bancaire consécutive au défaut de la banque Lehman Brothers
sont manifestes à partir de la fin d’année 2008. Les écarts de rendement s’amplifient durant la crise des
dettes souveraines au cours de l’année 2010.
n’est pas renouvelable : l’entreprise fait défaut ou ne fait pas défaut. Un inves-
tisseur demandera alors à recevoir une rémunération supérieure à la moyenne
probabilisée des flux à percevoir (sinon, il n’a pas de prime de risque) :
100
ZC > × [(1 − Pdef ( T )) + Pdef ( T ) × R] (2.1)
(1 + r ) T
Dans cette équation, r est le taux sans risque associé à la maturité T. Cepen-
dant, les mathématiciens de la finance ne calculent généralement pas un prix à
partir de paramètres économiques mais recherchent les paramètres économiques
qui rendent compte du prix de marché. Dans ce cadre, nous ne travaillerons donc
pas sur les probabilités de défaut et taux de recouvrement réels qui satisfont
l’inégalité (2.1) mais sur des données dites implicites : ce sont des paramètres
Pdef ( T ) et R qui sont les solutions de l’équation :
100
ZC = × [(1 − Pdef ( T )) + Pdef ( T ) × R] (2.2)
(1 + r ) T
100 100
= × [(1 − Pdef ( T )) + Pdef ( T ) × R] (2.3)
(1 + r + s ) T (1 + r ) T
Au premier ordre (en considérant que Pdef ( T ) et r sont petits devant 1), nous
obtenons l’expression du spread :
Pdef ( T )
s≈ (1 − R ) (2.4)
T
Le spread peut ainsi être interprété doublement : c’est par définition l’excès de
rendement sur le taux sans risque rémunérant le risque de défaut, c’est également,
au premier ordre, la probabilité de défaut implicite annualisée et pondérée par
la perte en cas de défaut. Une autre manière de le formuler est de considérer
qu’il s’agit de la perte moyenne annuelle que l’investisseur peut attendre. En ce
sens il devrait représenter, au premier ordre également, la prime annuelle qu’un
investisseur est prêt à payer pour acheter une protection en cas de défaut. Ce
type de protection existe réellement sur le marché du crédit, il s’agit d’un dérivé
de crédit qui peut par exemple prendre la forme d’un Credit Default Swaps (CDS)
et que nous introduirons ci-dessous.
1 Si vous voulez connaître le prix d’un titre, partez d’un titre qui lui est le plus proche possible. Le
reste n’est que de la modélisation.
F IGURE 2.4. Probabilités implicites de défaut d’un émetteur entre l’instant présent et une maturité future dans
un modèle à intensité. Ces probabilités sont données par l’équation (2.5), elles sont d’autant plus élevées
que l’intensité λ est forte.
L’intérêt des modèles à intensité réside dans le fait qu’ils permettent, par-
tant des prix de marché des obligations ou des CDS, de déduire une structure
cohérente des probabilités de défaut permettant de valoriser presque tous les
dérivés de crédit. La figure 2.5 montre que le modèle à intensité constante ne
permet pas de rendre compte de la réalité des prix de marché. En effet, ce dernier
ne comporte qu’un seul paramètre et est trop rigide pour approcher les prix
de marché. Le modèle à intensité constante par morceaux comporte quant à
lui autant de degrés de liberté qu’il y a de maturités disponibles pour le calcul.
De ce fait, il permet d’approcher parfaitement leurs prix. À ce sujet, toutes les
problématiques que nous avons abordées sur l’interpolation de la courbe des
taux se posent également pour l’interpolation des intensités de défaut.
A t = S t + Dt (2.6)
ST = max(0; A T − N ) (2.7)
DT = min( N; A T )
F IGURE 2.6. Intensité du défaut et probabilité de défaut dans un modèle de Merton (défaut intervenant
lorsque l’actif passe en dessous d’un seuil de référence). Le modèle structurel de Merton conduit à un modèle
à intensité, dont l’intensité est une fonction de la maturité. Par rapport à un modèle à intensité constante, les
défauts du modèle de Merton sont moins probables à court terme et à long terme et plus probables à moyen
terme.
Notre objectif est de lier le risque de défaut d’un ensemble d’émetteurs à l’état
de l’économie, c’est-à-dire à la valeur de la variable X (c’est notre consigne 1).
Nous souhaitons également que ce modèle soit cohérent avec les probabilités
de défaut individuelles Pdef i que nous supposons déjà estimées (consigne 2). La
En résumé, l’état de santé global d’un émetteur i est représenté par une
variable aléatoire Yi . Si l’état de santé est inférieur à un seuil Ki , l’émetteur
fait défaut. Cet état de santé se décompose en la somme pondérée de deux
variables aléatoires, X, qui est l’état de la conjoncture économique et Ni qui
représente la santé spécifique de l’émetteur, indépendante du reste de l’économie.
La pondération de la somme est paramétrée par une variable ρ, la corrélation,
qui mesure à quel point la santé globale de l’émetteur est influencée par l’état de
l’économie globale.
L’application de cette modélisation à chaque émetteur permet donc de bâtir
une structure de dépendance entre leurs probabilités de défaut par le biais
d’une variable théorique reflétant, selon notre interprétation, l’état de santé
de l’économie. Dans la formulation du modèle, le paramètre ρ aurait pu être
indexé par les numéros des émetteurs (i). En effet, rien n’indique que tous les
3 Cela signifie que les valeurs de Ni ne sont aucunement liées aux réalisations de X.
Nous abordons ce chapitre du point de vue d’un investisseur qui doit choisir
entre toutes les possibilités de placement qu’offre le marché. Cet investisseur
peut être un particulier, un gérant de fonds réglementés (fonds d’assurance vie
notamment) ou non (hedge fund) ; son objectif est de constituer un portefeuille,
c’est-à-dire d’acheter un certain nombre d’actifs qui peuvent être des actions, des
obligations, des parts de titrisations, des immeubles, etc. Cette activité s’appelle
la gestion d’actif, asset management en anglais. À titre d’exemple, AXA Investment
Manager, Natixis Asset Management, Amundi (issue de la fusion de Crédit Agricole
Asset Management et de Société Générale Asset Management) sont des filiales de
grands groupes français chargées de la gestion des OPCVM 1 , des fonds de
retraite complémentaire, des plans d’épargne entreprise...
Diverses théories d’aide à l’investissement ont été élaborées. Parmi elles, celle
de Markowitz, appelée théorie moderne du portefeuille, occupe une place prépon-
dérante. Développée dans les années 1950 – voir [Markowitz 1952], [Tobin 1958]
et [Markowitz 1959] – la théorie définit une notion d’optimalité d’investissement :
l’efficience. Nous expliquerons cette notion de base dans la première section et
le détail de la théorie dans la deuxième section. Dans les années 1960, [Sharpe
1964], [Lintner 1965] et [Mossin 1966] ont indépendamment utilisé la théorie de
Markowitz pour bâtir un modèle d’équilibre économique, dénommé modèle
d’évaluation des actifs financiers, qui est l’objet de notre troisième section. Ce mo-
dèle a ensuite été largement étudié, raffiné et étendu. Parmi les développements
1 Organisme de Placement Collectif en Valeurs Mobilières ; il s’agit de fonds d’investissements de
droit français ouverts aux particuliers et dont l’organisation doit répondre à des contraintes visant
à protéger les investisseurs.
plus récents, nous nous arrêterons dans la quatrième section sur la notion de
cointégration, introduite par [Engle et Granger 1987], qui est notamment à la base
de stratégies de trading actuelles comme le pair trading.
1 L’approche rendement-risque
Avant d’entrer dans le cœur du sujet, il est nécessaire de s’attarder quelque
peu sur le principe fondamental de toute stratégie d’investissement : l’équi-
libre rendement-risque. Plaçons-nous dans le cas théorique où les opportunités
d’investissement sont restreintes à quatre actifs A, B, C et D. Ces quatre actifs
possèdent chacun :
1. un niveau de risque attendu ;
2. un rendement attendu.
F IGURE 3.1. Représentation théorique de 4 actifs sur le plan risque (abscisses) / rendement (ordonnées).
Dans cette configuration, les actifs A et B sont efficients alors que C et D ne le sont pas.
On considère par ailleurs que les actifs sont entièrement décrits par ces deux
caractéristiques comme sur le graphique 3.1. Selon toute logique, ce graphique
impose deux constats à tout investisseur :
– A devrait être préféré à D car, pour un même niveau de risque, le rendement
de A est supérieur au rendement de D.
– B devrait être préféré à C car, pour un même rendement, le niveau de risque
de B est inférieur à celui de C.
Le principe sous-jacent de cette observation est que l’investisseur cherche
à maximiser son rendement à un niveau de risque donné ou, inversement, à
minimiser le niveau de risque sous la contrainte d’un objectif de rendement. Les
actifs C et D ne présentent pas d’intérêt dans cette configuration, on dit qu’ils
sont inefficients. Qu’en est-il maintenant du choix entre A et B ? Compte tenu des
plus la période d’observation est longue, plus les paramètres économiques sont
susceptibles de changer. À ce titre, le graphique 3.3 montre que l’analyse est
très sensible au choix de la période d’observation : la Société Générale qui est
efficiente sur la période 1998-2003 ne l’est absolument plus sur la période 2003-
2008. Il faut donc garder constamment à l’esprit que définir la bonne fenêtre
d’historique est un problème difficile, voire insoluble.
F IGURE 3.3. Représentation de quelques actions françaises sur le plan risque (en abscisses) / rendement
(en ordonnées) pour différentes périodes. La hiérarchisation des couples rendement-risque est très sensible
à la période d’étude.
25 %
1 % = √ ⇒ N = 625 ans ! (3.1)
N
Deuxième argument, la mesure de risque choisie, en l’occurrence la volatilité,
n’est pas nécessairement adaptée. L’utilisation de la Value at Risk pourrait, par
exemple, modifier la perception du risque associé aux actions et donc leur degré
d’efficience. Enfin, dernier argument, seules les caractéristiques individuelles des
actifs ont été utilisées jusqu’ici. Nous n’avons pas considéré la possibilité de les
combiner pour bénéficier, par exemple, des effets de diversification. Markowitz
a précisément bâti un modèle dans lequel on peut calculer explicitement les
portefeuilles qui utilisent au mieux les possibilités de diversification.
2 La théorie de Markowitz
La diversification est un concept fondamental de la gestion de portefeuille. La
théorie et l’expérience concourent à démontrer son intérêt dans la construction
d’un portefeuille d’investissement. Pour aborder la théorie, nous modéliserons
les rendements des actifs par une structure de probabilité et de corrélation
gaussiennes. Précisons que, dans ce cadre, la dépendance entre deux actifs est
décrite par un unique paramètre, la corrélation ρ (rho). Ce modèle nous permet de
calculer le profil rendement-risque d’un portefeuille de deux actifs : les courbes
de la figure 3.4 montrent ce profil lorsque l’on fait varier la proportion de la
richesse investie sur l’actif S1 dans différentes configurations de corrélation.
F IGURE 3.4. Variation des profils rendement-risque d’un portefeuille en fonction de la corrélation des deux
actifs qui le composent. Par exemple, chaque point de la courbe rouge représente le profil rendement-risque
d’un portefeuille d’actifs pouvant être construit en investissant dans S1 et S2, dans le cas où la corrélation
entre les rendements de S1 et S2 est −0,5. La réduction du risque apportée par la diversification est d’autant
plus marquée que la corrélation entre les actifs est faible. Dans le cas limite où Rho = −1, il est même
possible de construire un portefeuille sans risque en investissant dans les deux actifs.
(a) Frontière efficiente d’un univers (b) Frontière efficiente avec ajout d’un
d’actifs risqués actif sans risque
F IGURE 3.5. Le graphique de gauche montre la frontière efficiente d’un univers d’actif risqués. Elle représente
les meilleurs couples rendement-risque pouvant être obtenus par une combinaison linéaire des différents
actifs risqués. Le point à l’extrême gauche de la frontière représente le portefeuille de variance minimum
pouvant être obtenu. Lorsqu’un actif sans risque est ajouté à l’univers, dans le graphique de droite, la frontière
efficiente devient une droite (représentée en pointillés dans le graphique). Le seul point de cette nouvelle
frontière efficiente commun avec l’ancienne représente le seul profil rendement-risque efficient pouvant être
obtenu à partir d’actifs risqués uniquement. Le portefeuille d’actifs risqués qui possède ce profil est nommé
« portefeuille tangentiel ».
F IGURE 3.6. Impact de la contrainte d’interdiction des ventes à découvert sur la frontière efficiente. L’inter-
diction des ventes à découvert réduit le spectre des portefeuilles pouvant être constitués ; les portefeuilles
pouvant être construits sans vente à découvert offrent un profil rendement-risque moins intéressant.
A = β a Πm + ˜ a (3.2)
R a = R0 + β a ( R M − R0 ) (3.3)
3 Formellement, β a est le rapport entre la covariance de l’action et du portefeuille de marché et la
Cov( A, Πm )
variance du portefeuille de marché : β a = Cov(Πm , Πm )
.
Que constate-t-on dans les faits ? Nous avons vu qu’il y a peu de chances,
au regard des hypothèses nécessaires, que les résultats présentés soient effec-
tivement observés dans la réalité. Le modèle prédit que le risque spécifique
d’une action ne doit pas apporter de rendement en moyenne. Pour le vérifier, il
suffit de mesurer ce rendement idiosyncratique que nous noterons α. Avec les
notations précédentes, l’excès de rendement de A par rapport à la somme du
taux sans risque et de la prime de risque systémique se calcule par la formule
A − ( R0 + β a (Πm − R0 )), la moyenne de cette variable est donc α. Dans le cadre
théorique du CAPM, le α d’un actif doit être nul.
À titre indicatif, précisons que la quantité α est très importante dans la
pratique de la gestion d’actif. Elle mesure, en théorie, le surplus de rentabilité
apporté par un actif (une action ou un fonds par exemple) par rapport au
rendement apporté par le marché. La capacité pour un gérant de générer du α,
F IGURE 3.8. Droite d’évaluation des actifs financiers (rendement en fonction du β) : exemple de mise en
œuvre du CAPM sur des données françaises 1999-2010. Les calculs numériques contredisent les prédictions
du CAPM : le α n’est pas nul, la prime de risque n’est pas proportionnelle au β. La droite théorique du
graphique 3.7 n’est ainsi pas reproduite dans les faits.
(a) : segmentation des entreprises par (b) : segmentation des entreprises par β
taille
F IGURE 3.9. Représentation du rendement (en ordonnées) en fonction du β (en abscisses) sur 12 porte-
feuilles classés par taille ou par β (données Fama & French 1992).
A = β a Πm + ˜ a
où :
– On ne fait aucune hypothèse sur le rendement de ˜ a , par opposition au
résultat du CAPM qui prévoit que les rendements du risque spécifique sont
nuls en moyenne.
– On suppose, comme pour le CAPM, que ˜ a est indépendant de Πm .
– On suppose en outre (cette hypothèse n’est pas nécessaire au CAPM) que
les risques spécifiques ˜ a sont indépendants entre eux pour deux actions
différentes.
Ce modèle peut ensuite être étendu pour prendre en compte plusieurs facteurs
de risque. Ainsi, le rendement d’une action peut, par exemple, être décomposé
en un rendement général de marché, un rendement sectoriel et un rendement
géographique, sans oublier le rendement sécifique ˜ a : nous sommes ici dans
un modèle multi-facteurs. Cela constitue les bases de l’asset pricing theory (APT)
introduite dans l’article [Ross 1976]. Le lecteur souhaitant approfondir le sujet
peut par exemple consulter l’ouvrage [Sharpe et al. 1998].
F IGURE 3.10. Historiques du DAX (indice allemand) et du CAC (indice français) de janvier 1988 à juin 2010.
toujours identique. Cela serait un outil de trading idéal. C’est exactement cette
propriété qui définit la cointégration. Un ensemble de séries At , Bt , Ct , ..., est dit
cointégré s’il est possible de créer une combinaison linéaire stationnaire des séries.
En d’autres termes, les séries At , Bt et Ct sont cointégrées s’il existe a, b et c tels
que la série Xt = aAt + bBt + cCt soit stationnaire.
S t − S t −1
lt − lt−1 = ln(St ) − ln(St−1 ) ≈ (3.4)
S t −1
Rendement de l’investissement Δ
L’adage traditionnel there is no free lunch, souvent utilisé par les économistes
pour rappeler que toute faveur a sa contrepartie, s’est intégré au vocabulaire des
marchés financiers pour traduire l’idée suivante : on ne gagne pas d’argent sur
les marchés sans prendre de risque. Les quant parlent d’arbitrage pour qualifier
un profit certain, sans risque ; ils en ont même fait un verbe : arbitrer. « Arbitrer »
signifie tirer un profit certain d’un produit qu’une contrepartie a acheté trop cher
ou vendu trop bon marché.
Cette observation nous permet de classer les modèles mathématiques dans
deux catégories :
– Ceux qui visent à identifier les possibilités d’arbitrage. Les modèles de
recherche de cointégration que nous avons vus au chapitre précédent sont
de cette catégorie. En général, ces modèles ne garantissent pas réellement
un profit certain et sans risque – il n’est par exemple jamais certain qu’un
phénomène de cointégration observé par le passé se prolonge dans le futur.
– Ceux qui visent à modéliser les risques et les évolutions des actifs dans
un environnement sans possibilité d’arbitrage. Il est en effet essentiel que
les prix calculés ne soient pas arbitrables : aucune contrepartie ne doit
pouvoir utiliser une éventuelle sur-évaluation ou sous-évaluation du prix
calculé pour en tirer un profit certain. C’est cette catégorie de modèles qui
nous intéressera désormais et dont nous définirons le cadre dans le présent
chapitre.
Nous ouvrirons le chapitre sur les arbres binomiaux qui constituent un
modèle simple et riche pour aborder les problématiques du non-arbitrage. Ils
nous confronteront à différents concepts que nous formulerons dans la seconde
section ; nous pourrons alors énoncer le célèbre théorème du non-arbitrage
formalisé par Harrison, Kreps et Pliska entre 1979 et 1981. Ce théorème ne permet
malheureusement pas de définir systématiquement un prix unique non arbitrable.
Parfois, tout un intervalle de prix est possible : c’est le problème de la complétude
que nous étudierons dans la troisième section. Le théorème originel a été formulé
dans un cadre simplifié, son adaptation au cadre général a fait l’objet de travaux
techniques par [Delbaen et Schachermayer 1994] et [Delbaen et Schachermayer
1998]. Nous tenterons d’expliquer dans la dernière section certains des problèmes
posés par cette généralisation. Le mathématicien confirmé souhaitant approfondir
le sujet trouvera matière dans [Delbaen et Schachermayer 2005].
F IGURE 4.1. Exemple d’arbre binomial. À chaque nœud, l’actif a deux possibilités d’évolution.
F IGURE 4.2. Arbres recombinants ou non après 4 pas de temps. Le premier possède 5 nœuds terminaux et
le second 16 nœuds terminaux.
Nous avons ainsi décrit nos arbres binomiaux : l’actif part au temps t = 0
d’une valeur connue et évolue à chaque instant dans un arbre tel que représenté
par 4.2A. Les différents arbres seront différenciés par :
– la valeur de l’actif dans chaque nœud ;
– la probabilité pour l’actif d’accéder au nœud supérieur ou au nœud infé-
rieur.
Intéressons-nous tout d’abord à un arbre dégénéré, celui de la figure 4.3. Dans
cet arbre, l’actif ne peut qu’augmenter de valeur. En investissant dans un tel
actif, nous pouvons réaliser un profit certain, un arbitrage. Une telle situation est
peu probable sur les marchés : si tel était le cas, tout le monde investirait sur cet
actif, ce qui augmenterait immédiatement son prix jusqu’à ce que son évolution
ne garantisse plus de gain certain. Nous pouvons aussi voir le problème ainsi :
aucune contrepartie rationnelle ne vendra 100 un actif dont on sait qu’il évoluera
soit vers 105 soit vers 110 ; elle demandera nécessairement un prix compris entre
105 et 110.
Un petit raffinement doit être apporté : nous n’avons pas parlé des phéno-
mènes d’actualisation étudiés au premier chapitre. Comme nous l’avons vu au
chapitre précédent, les gains réels se mesurent par l’excès de rendement par
rapport au taux sans risque. Ainsi, si les taux d’intérêt en un pas de temps sont
de 7 %, le graphe 4.3 ne présente pas d’opportunité d’arbitrage. En effet, l’actif
peut bien apporter soit un gain (s’il monte à 110) soit une perte (s’il monte à 105)
relativement au taux sans risque. Pour rendre le raisonnement du paragraphe
précédent parfaitement valide, il suffit d’étudier à chaque nœud de l’arbre le
prix actualisé des actifs plutôt que leurs prix futurs projetés. Ce prix actualisé
rend effectivement compte de la valeur aujourd’hui (à T = 0) d’un bien qui est
financé au taux d’actualisation. Plutôt que de parler systématiquement de prix
actualisé, ce qui nuit à la lisibilité et ne change pas structurellement les principes,
nous négligerons par la suite les taux d’intérêt et phénomènes d’actualisation. En
d’autres termes, nous supposons que les taux d’intérêt sont nuls.
Notre question est alors la suivante : à quel prix doit-on vendre notre pro-
duit financier ? Dans les modèles d’arbres binomiaux, sous hypothèse de non-
arbitrage, il n’y a qu’une seule bonne réponse à cette question. En effet, supposons
que notre action évolue conformément à l’arbre binomial de la figure 4.4 et consti-
tuons le portefeuille suivant :
– achat de 22 e de cash, c’est-à-dire placement de 22 e sur notre compte
courant ;
– achat de 4/5 d’action, soit 80 e d’action (puisque l’action s’échange à 100 e
à T = 0).
F IGURE 4.4. Exemple de modèle d’évolution d’une action dans un arbre binomial recombinant.
Le prix de ce portefeuille est, sans aucune ambiguïté, 102 e. C’est le prix qu’il
a coûté à l’achat (22 + 80). Au temps T = 1, il reproduit exactement le produit
financier :
– Cas 1 : S1 = 110. Le portefeuille vaut à T = 1, 22 + 80 % × 110 = 110 e
– Cas 2 : S1 = 95. Le portefeuille vaut à T = 1, 22 + 80 % × 95 = 98 e
Cas d’un prix supérieur à 102 Cas d’un prix inférieur à 102
Coût d’entrée
0e 0e
dans la stratégie
Valeur de la
stratégie à t = 1 si 110 − 80 % × 110 − 20 = 2 e −110 + 80 % × 110 + 24 = 2 e
S = 110
Valeur de la
stratégie à t = 1 si 98 − 80 % × 95 − 20 = 2 e −98 + 80 % × 95 + 24 = 2 e
S = 95
Gain de la
2 e dans tous les cas 2 e dans tous les cas
stratégie
F IGURE 4.5. Réplication d’un produit dérivé dans le cadre d’un arbre binomial.
3 La complétude
Le théorème du non-arbitrage est très puissant, mais il ne résout pas tous les
problèmes : le cas de l’arbre binomial où la mesure risque neutre équivalente est
unique est un heureux événement mais n’est pas généralisable. En effet, dans
le cas général, rien ne garantit qu’il n’existe qu’une seule mesure de probabi-
lité risque neutre. Voyons par exemple le cas des arbres trinomiaux tels que
représentés dans la figure 4.7.
Il est clair qu’il existe plusieurs probabilités sous lesquelles l’actif évoluant
le long de l’arbre 4.7 est une martingale. Cela est illustré par la figure 4.8.
Contrairement au cadre de l’arbre binomial, nous avons un degré de liberté
supplémentaire qui rend possible l’existence de plusieurs mesures.
F IGURE 4.8. Deux mesures risque neutre équivalentes sur un même arbre trinomial.
Dans la section relative aux arbres binomiaux, nous avons considéré deux
produits financiers : le premier payait, à T = 1, S1 si S1 > 98 et 98 sinon, le second
payait, à T = 2, S2 si S2 > 98 et 98 sinon. Il s’agit bien d’actifs financiers, donc
leur prix doit être une martingale sous les mesures risque neutre. Or, en utilisant
les mesures A et B de la figure 4.8, nous tombons sur des prix différents :
Quel est le bon prix pour nos produits financiers ? Compte tenu de nos
informations, les deux prix sont bons : il n’est pas possible de discerner un prix
qui serait meilleur que l’autre. En effet, il n’existe pas de stratégie d’arbitrage
qui permette de tirer profit des prix calculés par la mesure A et ni de ceux
calculés par la mesure B. Tous les prix calculables à partir de mesures risque
neutre équivalentes sont corrects au sens où ils n’engendrent pas d’opportunité
d’arbitrage. Aussi, dans le cadre d’un arbre trinomial, le non-arbitrage ne nous
garantit pas un prix unique mais un ensemble de prix non arbitrables.
Il est tout à fait possible de calculer précisément cet ensemble. Concentrons-
nous sur le produit financier 1 qui s’arrête à T = 1. Si l’on note p95 , p100 et p105 les
probabilités risque neutre d’évolution de l’actif, on peut montrer que p95 = p105
et bien sûr p100 = 1 − p95 − p105 . Nous avons par rapport à l’arbre binomial un
degré de liberté en plus, qui est le choix, arbitraire, de p95 . Pour que toutes les
probabilités restent entre 0 et 1 il faut et il suffit que 0 < p95 < 50 %. Les prix non
arbitrables du produit financier 1 seront tous les prix qui peuvent se calculer par
la formule :
4 Le cadre continu*
Dans les sections 1 et 2, nous avons implicitement admis être dans un univers
discret, c’est-à-dire dans lequel le temps T = 0, 1, 2, 3... et la valeur des actifs
(95, 100, 105) pouvaient être énumérés. Dans le cadre général, nous travaillons
plutôt avec un temps T et des possibilités de prix ST continus, qui peuvent
prendre n’importe quelle valeur réelle positive. L’adaptation de la théorie du
non-arbitrage au cadre continu est très importante car la plupart des modèles
d’évolution des actifs sont, de fait, continus.
Nous avons vu, dans le cadre discret, qu’il est essentiel que le processus St
présente en toute situation une opportunité de gain ou une opportunité de perte.
Cette caractéristique est de fait équivalente aux deux propriétés (i) il n’existe
pas d’opportunité d’arbitrage et (ii) il existe une mesure martingale équivalente.
C’est d’ailleurs l’équivalence entre (i) et (ii) qu’affirme le théorème du non-
arbitrage. Dans le cadre continu, il existe une composante supplémentaire à
prendre en compte : la variabilité du processus. Cette variabilité représente le
caractère erratique du processus, autrement dit à quel point ses variations en un
temps infinitésimal peuvent être grandes. Elle induit une dimension d’analyse
supplémentaire qui complexifie l’approche.
Sur un processus aléatoire St , nous pouvons nous intéresser aux différentes
valeurs possibles de ST à un instant donné T. Nous pouvons également nous
intéresser aux différents chemins St pour 0 < t < T que le processus peut prendre
pour aller de S0 jusqu’à la valeur ST . Naturellement, plusieurs chemins peuvent
partir du même point, s’écarter et arriver au même point. Dans le cadre continu,
F IGURE 4.9. Exemple de processus aléatoire dont les trajectoires (3 trajectoires ci-dessus) sont lisses. Les
trajectoires ne s’écartent que lentement de leur tangente.
La première idée est donc que les processus doivent être suffisamment va-
riables, instables, pour ne pas être prévisibles. Réciproquement, si les processus
sont complètement erratiques, nous sommes confrontés à d’autres problèmes.
Nous verrons plus loin que les martingales ont une variabilité bien définie et
qu’aucun processus trop erratique ne peut être une martingale (même en pas-
sant par une mesure de probabilité fictive équivalente). Prenons l’exemple d’un
La variabilité des chemins d’un processus est donc une composante essentielle,
il faut la mesurer. La première indication est la longueur des chemins. Supposons
qu’une action vaille 100 à T = 0 et 110 à T = 10. Le chemin le plus court d’un
point à un autre est la droite, donc le trajet le moins variable serait l’interpolation
linéaire : pour 0 < t < 10, l’action vaudrait 100 + t (courbe 1 de la figure 4.10) ; la
longueur du chemin parcouru par l’action est alors 14,14. Mais, l’action ne suit
naturellement pas une ligne droite. Si elle suivait la courbe 2 de la figure 4.10,
son trajet serait plus long, on le constate visuellement, et le calcul montre que
la longueur exacte est 24,12. Mais, nous venons de voir que l’action ne peut pas
suivre une courbe lisse, les trajets ressemblent plutôt à la courbe 3. La longueur
de cette courbe est en réalité infinie. Ainsi, nous venons de définir une première
notion qualitative de variabilité : est-ce que la longueur des trajectoires est finie ?
1 Nous supposons implicitement que tous les St ont la même moyenne, il est possible de s’affranchir
de cette hypothèse avec un raisonnement un peu plus complexe.
F IGURE 4.10. Illustration de la variabilité des chemins : pour aller de 100 à 110, il existe plusieurs trajectoires
plus ou moins régulières, plus ou moins erratiques.
En 1997, Robert Merton et Myron Scholes reçoivent le prix Nobel d’économie pour
leurs travaux, accomplis avec Fisher Black (décédé en 1995), sur la valorisation
des produits dérivés. Il s’agit du modèle de Black-Scholes, également appelé
modèle de Black-Scholes-Merton, que nous allons étudier au présent chapitre. Ce
modèle constitue l’armature de la majeure partie des mathématiques financières.
Il pose un cadre général de modélisation, des méthodologies et des schémas de
raisonnements fondateurs.
La base mathématique des modèles que nous allons étudier est le mouvement
brownien ; nous l’aborderons dans la première section. La paternité de l’introduc-
tion du mouvement brownien en finance revient à Louis Bachelier, dans sa thèse
[Bachelier 1900]. Mais la structure du mouvement brownien n’est pas directement
adaptable aux produits financiers : les valeurs du mouvement brownien peuvent
par exemple être négatives alors que les valeurs des actifs financiers ne peuvent
être que positives. Nous verrons dans la deuxième section en quoi l’exponentielle
des mouvements browniens, appelée mouvement lognormal, caractérise quant à
elle convenablement les actifs financiers. C’est en 1973 que [Black et Scholes 1973]
et [Merton 1973] introduisent et structurent l’utilisation de ce mouvement lognor-
mal en finance. Ils construisent un environnement risque neutre permettant de
valoriser et d’étudier les produits financiers ; ce modèle de Black-Scholes sera
l’objet de notre troisième section. Nous conclurons le chapitre sur la notion de
volatilité implicite qui est une manière d’adapter le modèle de Black-Scholes aux
réalités des marchés financiers et de prendre en compte le fait que le mouvement
des actions n’est pas exactement lognormal.
1 Le mouvement brownien
Le chapitre précédent nous a conduit vers un objet mathématique fondamental
en finance : les processus stochastiques continus. Ces processus stochastiques
continus sont des variables aléatoires Xt indexées par un temps t continu. Dans
la présente section, nous allons étudier le plus célèbre d’entre eux : le mouvement
brownien. Intuitivement, on doit pouvoir construire un processus stochastique
continu comme limite de processus à temps discrets, de la même manière qu’une
fonction continue peut être approchée par des fonctions en escalier dont le pas
tend vers zéro. Dans le cadre des processus stochastiques, notre brique de base
est l’arbre binomial. Nous allons donc construire le mouvement brownien comme
limite d’arbres binomiaux de pas de temps de plus en plus faibles.
Pour ce faire, nous allons partir des arbres les plus simples : le pas de temps
de l’arbre est noté dt et, à chaque nœud de l’arbre, le processus a 50 % de chances
de monter et 50 % de chances de descendre. La taille des variations est constante
dans le temps mais dépend du pas de temps dt, on la note u(dt). À chaque nœud,
le processus peut ainsi monter de u(dt) ou baisser de −u(dt) comme dans l’arbre
représenté en figure 5.1. La valeur du processus au temps T, c’est-à-dire après
T/dt pas de temps, est une variable aléatoire notée BT . Afin de nous approcher
des processus continus, nous nous plaçons dans le cas où le pas de temps dt est
proche de 0.
F IGURE 5.1. Arbre binomial régulier dont le pas de temps est dt et dont le pas de variation est u(dt). Cette
représentation permet d’imaginer des arbres dont le pas de temps dt est infinitésimal.
F IGURE 5.2. Distribution de probabilité de B1 lorsque le processus évolue dans un arbre binomial tel que
représenté par la figure 5.1 en fonction des pas de temps dt et des valeurs de u(dt). Dans les cas où
√
u(dt) est proportionnel à dt, la distribution converge vers une courbe en cloche. Dans les autres cas, les
distributions s’écrasent sur l’axe vertical (la seule valeur probable étant alors 0) ou horizontal (les valeurs
infinies sont de plus en plus probables, ce qui empêche la convergence).
F IGURE 5.4. Exemple de tirages aléatoires représentant des mouvements browniens. Les tirages sont
centrés autour de leur dérive (0 pour les courbes rouges, 0,2 par an pour les courbes bleues) et s’en écartent
d’autant plus que la volatilité est forte.
F IGURE 5.5. Exemple de processus lognormaux : le graphique présente 2 jeux de 5 tirages de processus
lognormaux (les paramètres m et σ sont ceux définis dans l’équation (5.2)). Les processus progressent en
moyenne de manière exponentielle.
√
On appelle traditionnellement la quantité σ T la volatilité du processus St
sur un horizon de temps T bien que, en toute rigueur, cette quantité représente la
volatilité sur le même horizon de temps du mouvement brownien ln(St ). Dans le
cadre d’un processus lognormal, c’est le seul paramètre qui indique la variabilité
du cours et donc le risque porté par l’actif. Si ce paramètre est nul alors St = eμt :
le mouvement progresse exponentiellement, de manière déterministe, comme un
compte sur livret qui capitalise au taux d’intérêt composé eμ − 1.
er = 1 + c (5.4)
Nous avions jusque-là négligé les taux d’intérêt, nous allons les réintégrer
mais sans prendre en compte leur structure par maturité (cf. chapitre 1). Notons
donc r le taux d’intérêt continu. Pour calculer la mesure risque neutre équivalente
dans l’arbre 5.6, il faut donc trouver la probabilité p∗ pour laquelle le prix moyen
futur actualisé de l’actif est égal à sa valeur initiale. Il suffit de transformer notre
phrase en équation :
√ √
p∗ St eσ dt + (1 − p∗ )St e−σ dt e−rdt = St (5.5)
√ √
Dans√
cette équation p∗ St eσ dt + (1 − p∗ )√St e−σ dt est le prix moyen futur
(St × eσ dt avec une probabilité p∗ et St × e−σ dt avec une probabilité 1 − p∗ ), ce
prix est divisé par erdt pour tenir compte de l’actualisation ; ce prix futur moyen
actualisé doit être égal à la valeur initiale, c’est-à-dire St . Le calcul montre que
(au premier ordre) :
1 r − σ2 /2 √
p∗ = + dt (5.6)
2 2σ
La probabilité risque neutre p∗ a exactement la même forme que la probabilité
originale p, nous avons juste eu à remplacer m par r − σ2 /2. Ce point est parti-
culièrement intéressant car si on laisse tendre le pas de temps dt vers 0, l’arbre
binomial convergera vers un mouvement lognormal de dérive annuelle r − σ2 /2
(et non plus m) et de volatilité σ.
Cela laisse penser que, sous une mesure risque neutre, l’actif suivra un
mouvement lognormal de dérive annuelle r − σ2 /2 et de volatilité annuelle σ.
Non seulement ce résultat est vrai, mais en outre, la mesure risque neutre
est unique : le modèle lognormal est complet au sens où il existe une unique
mesure risque neutre. Sous la mesure risque neutre, le taux de rendement moyen
Prenons l’exemple d’un produit financier, l’option d’achat, que l’on appelle
traditionnellement call. C’est un produit financier qui verse, au temps T, 0 si
l’action est en dessous d’un seuil K et la différence ST − K sinon. Le temps T
est nommé échéance du call et le seuil K est son strike. Nous cherchons donc à
valoriser ce call.
F IGURE 5.7. Prix d’un call dans le modèle de Black-Scholes en fonction de la valeur initiale S0 de l’action
dans différentes configurations de paramètres.
Nous allons voir dans cette section une deuxième méthode de valorisation des
produits financiers sous le modèle de Black-Scholes, la méthode du delta hedge.
Les deux techniques conduisent bien sûr au même prix, mais les deux apportent
un éclairage différent sur le modèle.
L’idée du delta hedge est de neutraliser le risque en couvrant l’actif, c’est-à-dire
que l’on cherche à acheter un second actif, appelé la couverture, dont le risque va
en sens contraire. Par cette construction, le portefeuille constitué de l’actif et de
sa couverture évolue de manière déterministe, sans variabilité. Le prix d’un tel
portefeuille pourra alors se calculer facilement, cela permettra de déterminer le
prix de l’actif que l’on cherche à valoriser. Nous avons donc expliqué la partie
hedge du delta hedge : to hedge signifie esquiver dans le langage courant en anglais,
ce que l’on traduit dans le vocabulaire financier par couvrir.
Que signifie alors « delta » ? Nous allons le comprendre en passant encore
une fois par les arbres binomiaux. Appelons Π le produit financier à valoriser, ce
dernier étant construit à partir d’une action de référence S. Les prix à un instant t
du produit et de l’action sont notés Πt et St : nous allons tenter de couvrir le
produit Πt en détenant une proportion αt de l’action. Nous voulons que le risque
soit neutralisé, c’est-à-dire que Πt + αt St évolue de manière déterministe.
F IGURE 5.8. Évolution d’un produit financier Πt dans un arbre binomial de pas dt. Vu de t, le produit
financier Π a deux possibilités d’évolution en t + dt, Π+ −
t ou Πt , selon l’évolution de l’action de référence S.
Voyons comment faire dans le cas de l’arbre binomial 5.8. L’objectif recherché
est que Πt + αt St soit sans incertitude (sans ambiguïté sur la valeur future),
c’est-à-dire :
Π+ + − −
t + α t St = Π t + α t St (5.8)
4 La volatilité implicite
Malheureusement, le modèle de Black-Scholes ne s’adapte pas exactement à la
réalité. Les call que nous avons décrits ci-dessus sont des produits cotés sur les
marchés, il est donc possible de comparer les prix du marché des call aux prix
du modèle de Black-Scholes pour une action donnée et pour différents niveaux
de strike et dates d’échéance. Cette comparaison aboutit invariablement à la
conclusion suivante : il n’existe pas de paramètres d’entrée (r, σ) du modèle
de Black-Scholes qui permettent de retrouver les prix de tous les call cotés sur
le marché pour une action donnée. Il ne peut y avoir qu’une seule cause de ce
constat : l’évolution des actions anticipée par les marchés n’est pas un mouvement
lognormal, les hypothèses du modèle de Black-Scholes sont incorrectes.
Le graphique 5.9 montre effectivement que le modèle de Black-Scholes est
faux, mais il demeure tout de même une première approximation des prix. En
outre, le fait d’avoir un modèle est très utile pour la gestion des risques, cela sert
à l’interprétation du mouvement (décomposition en effet dérive et effet volatilité),
F IGURE 5.10. Prix d’un call dans le modèle de Black-Scholes en fonction de la volatilité : quel que soit le
prix, il est possible de trouver une volatilité σ associée à ce prix.
F IGURE 5.11. Volatilité implicite en fonction du strike (skew de volatilité). Le graphique représente pour
chaque niveau de strike le paramètre de volatilité σ qui permet de retrouver le prix de marché de la figure 5.9.
Chaque call coté sur le marché aura sa propre volatilité implicite, qui dépen-
dra donc de la date d’échéance et du strike du call. Si le modèle de Black-Scholes
était valide, la volatilité ne dépendrait que de l’action sous-jacente : il est théo-
riquement difficilement justifiable de dire qu’une action suivra un mouvement
lognormal de volatilité 10 % pour étudier le call d’échéance 1 an et de strike 95 et
que cette même action suivra un mouvement lognormal de volatilité 15 % pour
étudier le call de même échéance et de strike 105. C’est pourtant bien ce que l’on
fait pour adapter le modèle à la réalité du marché.
Une action donnée n’a donc pas une volatilité implicite σ unique, mais une
surface de volatilité σ( M, K ) qui dépend de l’échéance M et du prix d’exercice K
du call sous-jacent. À une échéance donnée, la fonction K → σ ( M, K ) peut avoir
une forme en U qui ressemble à un sourire, on parle de smile de volatilité, ou une
forme en pente descendante, on parle dans ce cas de skew de volatilité. Le gra-
phique 5.11 représente le skew de volatilité associé aux données du graphique 5.9.
une pente descendante, cela signifie que les marchés considèrent qu’il y a plus
de variabilité en cas de baisse de l’action qu’en cas de hausse : la distribution de
probabilité de ST anticipée par les marchés est dissymétrique ; elle sur-pondère,
relativement à la loi lognormale, les probabilités de baisse importante des cours.
Dans le cas d’un smile de volatilité, ce sont les deux côtés de la distribution qui
sont sur-pondérés : cela signifie que le marché anticipe que les variations de forte
amplitude sont plus probables que celles de la loi lognormale ; réciproquement,
les variations de faible amplitude sont considérées moins probables. Ce lien entre
la forme de la courbe des volatilités implicites et la distribution de probabilité du
cours du sous-jacent est illustré dans la figure 5.12.
La relation (6.1) est ce que l’on appelle la parité call-put. Celle-ci ne dépend
d’aucune hypothèse de modélisation, elle doit donc être vérifiée dans tout modèle,
Ce résultat ressemble de très près à l’option binaire considérée, sauf pour les
valeurs de ST comprises entre K − et K. Ainsi, pour suffisamment petit, nous
pouvons considérer que la stratégie réplique bien l’option binaire, son coût de
mise en place doit donc être le prix de l’option binaire. En appelant PrixCall( x )
le prix d’un call de strike x, le prix de l’option binaire d’achat de strike K est :
PrixCall(K −)−PrixCall(K )
PrixBin(K ) = lim→0
(6.2)
(K )
= − ∂PrixCall
∂K
F IGURE 6.1. Valorisation d’une option binaire en présence d’un smile de volatilité. L’utilisation naïve de la
formule de valorisation des call de Black-Scholes conduit à un résultat biaisé car la volatilité implicite dépend
du niveau du strike. La valorisation correcte nécessite donc d’avoir lissé ou interpolé les points existants en
une surface de volatilité continue.
Les deux équations précédentes, (6.2) et (6.3), sont centrales dans notre
construction : elles nous montrent comment, en partant de la nappe des volatilités
implicites, déduire la distribution risque neutre de ST à tout instant T. Or,
connaître la distribution risque neutre de ST à tout instant T suffit naturellement à
valoriser toutes les options européennes puisque ce prix est l’espérance actualisée
Concrètement, nous pouvons observer sur les marchés les prix de certains call
et de certains put, dont nous avions vu que les nappes de volatilités implicites
étaient identiques. L’exercice du quant qui souhaite en déduire le prix de toutes les
autres options européennes consistera donc à bâtir une surface σ(K, T ) continue
à partir des points de volatilité observés. Comme pour la construction de la
courbe des taux étudiée au chapitre 1, la modélisation peut être conduite par
des techniques d’interpolation par morceaux ou par l’utilisation d’une surface
paramétrique. Dans tous les cas, une incertitude demeure sur les points de
volatilité non observés, celle-ci étant d’autant plus importante que les volatilités
implicites calculées seront loin des points observés. Les équivalences théoriques
démontrées précédemment devront donc dans la pratique être modulées ; la
réalité des faits est plus proche de la démarche suivante :
– Nous connaissons quelques points de volatilité implicite σ(K, T ) par l’ob-
servation des transactions réalisées sur les call et les put.
– Nous pouvons en inférer une nappe continue de volatilités implicites
σ (K, T ) pour tout strike K et toute échéance T.
– Les choix des volatilités implicites σ(K, T ) pour les strike extrêmes et les
échéances lointaines sont entièrement arbitraires.
– Nous pouvons calculer le prix de toutes les options européennes mais
avec une incertitude d’autant plus forte que leur prix sera sensible aux
événements extrêmes ou lointains.
– Les prix des options à payoff discontinu qui nécessitent le calcul de dérivées,
comme dans l’équation (6.2), sont également très dépendants du modèle
choisi.
Il convient de noter que le marché des options binaires est également devenu
relativement liquide, les prix de ces options sont donc devenus observables.
De ce fait, il est possible de déduire les distributions de probabilité des cours
Les modèles de volatilité locale se fondent sur l’hypothèse que la volatilité est
une fonction déterministe du temps et du cours du sous-jacent : la constante σ de
l’équation (6.4) est remplacée par une fonction (t, St ) → σl (t, St ). L’équation de
diffusion du sous-jacent devient alors :
C’est la fonction σl (.) que l’on appelle volatilité locale. Nous allons reprendre
l’exemple des arbres binomiaux introduits lors des chapitres précédents afin
d’illustrer plus en détail cette notion.
Commençons par nous placer dans le cadre d’une action évoluant selon un
processus lognormal classique de volatilité constante σ. En d’autres termes, la
fonction de volatilité locale de ce modèle est la constante égale à σ. Notons
classiquement r le taux sans risque. Nous avons vu que ce processus pouvait être
analysé comme la limite d’un arbre binomial. Dans cet arbre, les probabilités de
hausse (p) ou de baisse (1 − p) du cours de l’action ainsi que le pas de variation
à la hausse (u) et à la baisse (d) sont les mêmes à chaque nœud de l’arbre. Ces
paramètres sont entièrement déterminés par le taux sans risque r et la volatilité
du processus σ ; rappelons en effet les formules :
⎧ √
⎪ r −σ2 /2
⎨ p= 2+
1
⎪ 2σ dt
√
u = eσ dt (6.6)
⎪
⎪
⎩
d = 1/u
F IGURE 6.2. Arbre binomial risque neutre dont le pas de temps est dt et dont les pas de variation et les
probabilités de hausse et de baisse sont variables en fonction du temps t et du cours de l’action St . En
conséquence, la volatilité locale à chaque nœud de l’arbre n’est plus constante, la forme de l’arbre n’est plus
régulière. Le fait de pouvoir déformer ainsi l’arbre permet d’assouplir le modèle et de le rendre cohérent avec
les nappes de volatilités implicites effectivement observées sur les marchés.
Cela établi, il reste à déterminer explicitement cette fonction σl (t, St ) ou, dans
le cadre de notre arbre, ce jeu de paramètres p(t, St ), u(t, St ) et d(t, St ). [Dupire
1994], [Derman et Kani 1994] et [Rubinstein 1994] ont, pour ce faire, proposé des
méthodes différentes dont la présentation ne sera pas faite ici. Ces méthodes ont
toutefois en commun le fait qu’elles s’appuient sur une discrétisation du temps
et du cours du sous-jacent par le biais d’arbres binomiaux ou trinomiaux.
Afin de rendre ce dernier point plus explicite, ouvrons une petite parenthèse
sur le calcul du delta en présence d’un smile. Nous rappelons que le delta est la
dérivée du prix de l’option par rapport au cours du sous-jacent. Ce paramètre
est essentiel car il permet de définir la stratégie de couverture d’un portefeuille
pour en neutraliser le risque, autant que faire se peut. Toutefois, en présence
d’un smile, il n’est pas exclu que la volatilité implicite (σimp ) dépende du cours
du sous-jacent. Dès lors, le delta calculé naïvement dans le cadre du modèle de
Black-Scholes comme ∂Call/∂S sera inexact car nous aurons en réalité :
Ces résultats montrent que la dynamique du smile induite par la volatilité lo-
cale de [Dupire 1994], [Derman et Kani 1994] et [Rubinstein 1994] est incompatible
avec certaines caractéristiques observées généralement et plus particulièrement
sur le marché des options sur actions et sur devises. Par ailleurs, d’autres études
affirment que la volatilité locale peut anticiper un aplatissement du smile ce qui
est de nature à contredire l’observation de sa persistance au fil du temps. Ces
éléments revêtent une importance particulière pour le trader qui souhaite couvrir
son portefeuille d’options. En effet, si l’impact de la variation du cours du sous-
jacent sur la forme du smile est erroné, l’équation (6.7) conduira à un calcul de
delta faux et donc à une mauvaise couverture.
F IGURE 6.4. Smile générés par le modèle de Heston pour différentes valeurs des paramètres du modèle.
Des prix d’options de strike différents sont calculés par le modèle, puis la volatilité implicite en est déduite
pour construire les courbes de smile. L’impact des différents paramètres sur la forme du smile peut être
représenté intuitivement, ce qui est l’une des forces du modèle.
et noter que le prix des options européennes nous renseigne sur la distribution du
cours du sous-jacent à date d’échéance alors que le prix des autres options nous
renseigne également sur les probabilités des trajectoires du sous-jacent avant la
date d’échéance.
Ce point est important pour comprendre les choix qui s’imposent en matière
de calibration des modèles. Rappelons qu’un modèle paramétrique est un modèle
spécifié par un jeu de paramètres comme le modèle de Heston de l’équation (6.9)
qui repose sur r, ρ, σ, η, λ. Pour ces derniers, il est nécessaire de choisir la valeur
numérique des paramètres : c’est ce que l’on appelle la calibration. Concrètement,
les paramètres seront choisis pour que les prix du modèle soient les plus proches
possible des prix des options observées sur le marché. Le choix des options
utilisées pour la calibration revêt alors une importance primordiale pour s’assurer
que les informations anticipées par le marché sont bien prises en compte dans le
Les théories mathématiques nous conduisent vers des solutions parfois très
abstraites. Or, un trader est peu intéressé de savoir que le prix de son option
est l’unique solution d’une équation aux dérivées partielles avec conditions aux
limites : il veut juste un prix numérique et fiable. Il est tout à fait passionnant de
découvrir que le prix d’un produit dérivé est une martingale sous une mesure
risque neutre fictive, mais encore faut-il pouvoir répondre à la question : combien
le produit dérivé coûte-t-il ?
C’est ici qu’interviennent les méthodes numériques ; couramment utilisées
par les physiciens et les ingénieurs, elles permettent de traduire numériquement
des résultats mathématiques. Nous présenterons deux des méthodes numériques
les plus utiles en finance : les simulations Monte-Carlo puis les méthodes des
différences finies. Les premières permettent de calculer les prix qui s’expriment
sous la forme d’espérance mathématique, ce qui est bien le cas en finance puisque
nous avons vu au chapitre 4 que les prix des produits financiers sont l’espérance
de leurs valeurs futures actualisées sous la mesure risque neutre. Les méthodes
des différences finies permettent quant à elles de résoudre numériquement des
équations aux dérivées partielles, comme l’équation de Black-Scholes qui régit
l’évolution des produits financiers. Les méthodes de résolution par les arbres
ayant déjà été évoquées aux chapitres précédents, elles ne seront pas abordées à
nouveau.
Nous verrons que les deux méthodes présentées reposent sur des principes
simples. En revanche, leur mise en œuvre concrète peut se révéler nettement plus
compliquée et ouvre la voie à de nombreux approfondissements.
1 Simulations de Monte-Carlo
1.1 Principe
Lorsque l’on tire un très grand nombre de fois une pièce équilibrée, chaque
face apparaît en moyenne une fois sur deux. Si l’on compte par exemple Pn le
nombre de piles apparus après n lancers de dés, nous avons Pn /n → 1/2 : le
taux de piles constaté converge vers 1/2. D’une manière générale, la moyenne
d’une variable aléatoire peut être numériquement approchée en réalisant des
simulations aléatoires de la variable et en calculant la moyenne des tirages. C’est
cette tautologie qui est à la base des méthodes dites de « Monte-Carlo ». Monte-
Carlo est le quartier de la principauté de Monaco qui abrite le fameux casino
éponyme ; il a donné son nom à la technique numérique que nous allons détailler
dans la présente section car, avant l’ordinateur, les tirages de nombres aléatoires
étaient réalisés par des moyens physiques : dés, roulette, jeu de carte, etc.
Naturellement, la méthode que nous venons de décrire n’est pas très utile
pour calculer la moyenne, déjà connue, du nombre de piles dans un lancer de
pièces. Elle est en revanche très utile pour calculer des moyennes, espérances ou
intégrales plus complexes pour lesquelles nous n’avons pas de solution exacte
connue.
Supposons par exemple que nous voulions connaître la valeur de π
(π = 3,1415...). Une méthode, peu efficace mais très simple, serait de tirer
aléatoirement des points dans un carré. Le nombre moyen de points qui sont
dans le cercle inscrit au carré (le cercle placé au centre du carré qui touche les
quatre côtés) est alors π/4 ; c’est le rapport de l’aire du cercle (πR2 si R est le
rayon du cercle) et de l’aire du carré (2R × 2R = 4R2 pour un carré dont le
cercle inscrit est de rayon R, le lecteur sceptique peut faire un dessin pour s’en
convaincre).
La démarche est exactement la même pour la valorisation des produits
financiers. Nous avons vu au chapitre 4 que, sous l’hypothèse du non-arbitrage,
il existe une mesure de probabilité sous laquelle les prix actualisés des actifs
sont des martingales. L’une des conséquences de cette propriété est que le prix
aujourd’hui de n’importe quel actif est la moyenne de ses prix futurs actualisés
sous la mesure risque neutre. Or, les prix à l’échéance du produit financier que
l’on souhaite valoriser sont en général aisément calculables. Ce sont des fonctions
pré-définies d’un actif sous-jacent. Par exemple, dans le cas d’un call, nous avons
vu que la valeur du call à échéance était, par définition, max(ST − K; 0) où ST
est le prix de l’actif sous-jacent à l’échéance T et K le strike de l’option. Le prix
aujourd’hui du call n’est autre que la valeur moyenne actualisée de cette valeur
Les tirages aléatoires du graphique 7.1 conduisent à des résultats très dispersés,
le payoff du call est nul dans la moitié des cas et monte jusqu’à plus de 85 e
dans l’une des 100 simulations. Ces résultats sont censés reproduire les différents
cas possibles : la dispersion du résultat des tirages reflète directement le risque
pris par les trader sur les positions valorisées. Comme nous l’avions évoqué aux
chapitres précédents, la réduction du risque passe par les stratégies de couverture,
au sein desquelles le delta hedge occupe une place prépondérante.
Dans le modèle de Black-Scholes, la protection par delta hedge est en théorie
parfaite, le portefeuille couvert ne présente aucun risque. Rappelons que la
couverture par delta hedge consiste à détenir à tout instant −Δt actions sous-
jacentes où Δt = ∂Πt (S)/∂S est la dérivée du prix du portefeuille par rapport
au sous-jacent. La mise en pratique est moins idéale puisque la couverture ne
peut pas être ajustée continûment mais uniquement à intervalles réguliers. La
stratégie laisse donc un risque résiduel que l’on peut parfaitement simuler par la
méthode de Monte-Carlo. Concrètement, pour étudier la couverture d’un call de
strike K, nous pouvons procéder de la manière suivante :
– Pour chaque simulation, nous tirons aléatoirement l’évolution de l’actif St1 ,
St2 , St3 ... à intervalles choisis et selon le modèle spécifié.
– À chaque ti , nous calculons le Δti du portefeuille couvert et réajustons la
couverture. Ce réajustement suppose de réinvestir −(Δti − Δti−1 ) × Sti dans
la couverture.
– À l’échéance tn de l’option, nous liquidons la couverture et exerçons l’op-
tion, pour un montant de max(Stn − K; 0) − Δtn−1 × Stn . Ce dernier flux
diminué de la somme capitalisée des coûts de réajustements de couverture
correspond exactement au résultat de la stratégie.
Lorsque la couverture est parfaite, le résultat de la stratégie ainsi calculé est
le même dans toutes les simulations, il n’y a pas de risque. Ce résultat actualisé
correspond donc au gain réalisé grâce à la vente du call, autrement dit au prix du
call. Dans le cas d’une couverture imparfaite, le résultat de la stratégie dépend de
la simulation et le prix du call peut être estimé comme la moyenne des résultats
actualisés. La démarche est présentée dans le graphique 7.2. Sans être parfaites,
les techniques de couvertures réduisent significativement le risque pris par les
trader ; elles permettent en parallèle de réduire la dispersion des tirages Monte-
Carlo et donc d’assurer une meilleure précision des résultats numériques.
Cependant, l’approche que nous venons de suivre possède un défaut majeur :
elle requiert de connaître le delta, et donc le prix, alors que nos simulations Monte-
Carlo avaient justement pour but premier de calculer ce prix et ce delta. Comme
l’a montré [Potters et al. 2001], il est bien possible d’utiliser les simulations Monte-
Carlo pour calculer en même temps le prix et le hedge optimal. Intéressons-nous
à cette technique de détermination du prix et du hedge optimal par simulations
Monte-Carlo.
Supposons dans un premier temps connaître à tout instant le prix Pt (St )
d’un call. Nous allons chercher la couverture qui minimise le risque pris ; plus
précisément, nous souhaitons minimiser la variance des simulations Monte-
Carlo. D’autres mesures de risque auraient pu être envisagées, mais nous nous
restreindrons ici à associer le risque à la volatilité. Comme pour le delta hedge, la
technique de couverture étudiée consiste simplement en la détention au temps t
d’une certaine proportion ht de l’action sous-jacente au call (h sigle pour hedge).
La quantité de hedge détenue dépendra naturellement de la valeur de l’action,
aussi ht est une fonction de St ; c’est cette fonction ht (St ) que nous souhaitons
optimale pour minimiser le risque.
1
N ∑ ( Pt+dt (St+dt ) − Pt (St ) + ht (St ) × (St+dt − St ))2 (7.4)
Les N tirages de St et St+dt
Ainsi, à chaque instant t, la fonction ht (.) est choisie pour minimiser l’équation
précédente. Cette construction conduit à une fonction ht (.) qui n’est pas très
différente du delta de l’option. Elle représente en effet la sensibilité moyenne du
prix de l’option aux variations du cours de l’action sur le pas de temps dt. Dans
les modèles que nous avons vus jusqu’ici, ht (St ) converge vers Δt (St ) lorsque dt
tend vers 0. Cependant, dans les modèles qui prévoient des variations de St plus
brutales, ht (St ) et Δt (St ) divergent, même lorsque le pas de temps s’approche de 0.
En effet, le delta capte la sensibilité à une variation infinitésimale du cours alors
que le hedge ht (.) capte une sensibilité moyenne à travers toutes les variations
possibles sur le pas de temps dt : si ces variations dSt restent infinitésimales, les
deux notions seront identiques mais si dSt peut être grande même sur un petit
pas de temps, les deux sensibilités seront différentes.
Jusqu’ici nous avons résolu la moité du problème puisque nous avons calculé
le hedge du portefeuille mais pas encore son prix. Commençons par le cas où il
n’y a qu’un seul pas de temps T = dt et numérotons par l’index i nos N tirages
1 N 2
N ∑ PT (SiT ) − P0 (S0 ) + h0 (S0 ) × (SiT − S0 ) (7.5)
i =1
Puisque nous travaillons sous la mesure risque neutre et que nous avons
négligé les taux d’intérêt, le prix du call au temps t = 0 est nécessairement
la moyenne des prix en T. Notons un instant Π ce prix. On peut démontrer
mathématiquement que l’équation (7.5) est minimale lorsque P0 (S0 ) = Π, cette
propriété étant vraie quelle que soit la valeur de h0 (S0 ). Il est ainsi remarquable
que le prix du call Π soit également la quantité qui minimise la variance du
portefeuille couvert 1 . L’utilisation d’une mesure autre que la variance pour
évaluer le risque n’aurait pas permis un tel raccourci. Ainsi, dans le cadre de
notre étude, les deux quantités P0 (S0 ) et h0 (S0 ) peuvent être cherchées en un seul
passage, en cherchant le minimum d’une même équation.
Cette propriété est vraie à chaque instant t de la simulation : le prix et le hedge
optimal peuvent tous deux être calculés par minimisation de l’équation (7.4). En
s’attardant sur cette équation, le lecteur remarquera que cette démarche nécessite
de connaître le prix à l’instant t + dt. Ce n’est pas un problème, nous connaissons
PT (.) à l’échéance de l’option : il s’agit par définition du payoff du call. Nous
pouvons donc calculer PT −dt et h T −dt par minimisation de (7.4) au temps T − dt.
Après ce calcul, nous connaissons PT −dt et pouvons poursuivre au temps T − 2dt,
et ainsi de suite jusqu’à t = 0. En partant de la fin, nous pouvons ainsi remonter
le temps pour calculer à chaque instant t le prix du call et son hedge optimal.
Les résultats de l’application de cette méthode, dans les mêmes conditions
que celles du graphique 7.2, sont récapitulés dans le tableau ci-après :
1 Le lecteur mathématicien notera que la quantité P0 (S0 ) qui minimise l’équation (7.5) est, lorsque N
est infini, E( PT ) + h0 (S0 ) × ( E(ST ) − S0 ). Or, sous la mesure risque neutre et sans taux d’intérêt,
St est une martingale et E(ST ) = S0 .
F IGURE 7.3. Calcul du prix d’un call à partir de l’historique des cours du Dow Jones. Dix fenêtres d’historiques
sont utilisées, chacune servant à la reconstitution de 100 chemins d’évolution du Dow Jones (1 000 simulations
en tout). Dans chacune des fenêtres, le prix du call et son hedge sont calculés par minimisation à chaque
instant de la variance du portefeuille couvert. La volatilité du portefeuille couvert présentée est estimée sur
toute la durée de vie du call. Elle est calculée de deux manières : dans la première, la fonction de hedge
optimale est directement utilisée sur l’échantillon qui a servi à sa calibration ; dans la seconde, la fonction de
hedge calibrée sur la période précédente est utilisée pour simuler les résultats de la technique de couverture.
Cette seconde approche vise à rendre compte du fait que la stratégie est calibrée sur des données du passé
pour être appliquée aux situations futures. Deux éléments sont ici mis en avant pour quantifier la robustesse
de la stratégie du hedge optimal : l’évolution dans le temps des prix calculés et l’augmentation de la volatilité
entre l’échantillon de calibration et l’échantillon d’application. En effet, des prix stables indiquent que les prix
passés pourront être utilisés pour calculer les prix futurs ; moins la volatilité se dégrade d’un échantillon à
l’autre, plus la couverture calibrée par le passée restera optimale dans le futur.
F IGURE 7.5. Représentation des 15 premières valeurs de la suite de Van der Corput en base 2. Ces
15 premiers tirages réalisent un découpage parfait (en 16 morceaux égaux) du segment [0; 1]. Les suites de
Van der Corput peuvent être utilisées pour améliorer la convergence des simulations Monte-Carlo.
Par cette technique illustrée en figure 7.5, la suite u1 , ...u2n −1 quadrille l’inter-
valle [0; 1] en 2n sous-segments de taille 1/2n . La méthode peut être utilisée en
partant d’un découpage en base 2 comme dans notre exemple, mais aussi en base
3, 4, etc. La suite de Van der Corput en base 10 est ainsi 2 : 0,1 ; 0,2 ; 0,3 ; 0,4 ; 0,5 ;
0,6 ; 0,7 ; 0,8 ; 0,9 ; 0,01 ; 0,11 ; 0,21...
L’utilisation d’une suite de Van der Corput est presque aussi efficace que le
quadrillage régulier du segment [0; 1]. Ces suites qui occupent l’espace de manière
régulière et dense sont dénommées suites à discrépance faible. Concrètement,
pour réaliser ses simulations Monte-Carlo, le quant doit remplacer ses N tirages
aléatoires t1 , t2 , ..., t N dans [0; 1] par les valeurs successives u1 , ..., u N d’une suite à
discrépance faible. Cette méthode s’appelle quasi Monte-Carlo car elle repose sur
des tirages non pas aléatoires mais sur des séquences déterministes bien choisies.
Une méthode très simple pour construire des suites à discrépance faible en
dimension d quelconque est d’utiliser directement d suites de Van der Corput
de bases distinctes. En dimension 2 par exemple, nous pouvons créer la suite
( xn , yn ) où xn est une suite de Van der Corput de base p et yn une suite de Van
der Corput de base q. De cette manière, la suite xn se répartit de manière optimale
sur l’axe des abscisses et yn sur l’axe des ordonnées. Pour assurer que le couple
( xn , yn ) remplisse convenablement l’espace, il reste une dernière condition à
ajouter, qui nous vient de l’arithmétique : p et q doivent être premiers en eux
(ne pas avoir de diviseurs communs). Dans ce cas, les suites xn et yn jouissent
de toutes les propriétés d’indépendance nécessaires qui permettent au couple
de remplir convenablement l’espace. Dans le cas contraire, les suites xn et yn
présentent des similarités qui les concentrent dans certaines zones. Dans le cas
le plus extrême par exemple où p = q, nous avons xn = yn et la suite ( xn , yn )
reste sur la diagonale x = y (qui est alors occupée de manière parfaitement
dense et régulière, mais ce n’est pas l’objet de la construction !). Pour éviter de se
2 Il s’agit d’un comptage simple 1, 2, 3, ..., 10, 11, 12, etc. dont on a inversé l’ordre des chiffres et
ajouté une virgule ; par exemple le 1 040e terme d’une suite de Van der Corput en base 10 est 0,0401.
Suites de Van der Corput de bases 2 Suites de Van der Corput de bases 6
( ) et 4 (ordonnées)
(abscisses) ( ) ( ) et 3 (ordonnées)
(abscisses) ( )
F IGURE 7.6. Exemples de quadrillage de l’espace. Le graphique en haut à gauche correspond à des
tirages aléatoires. Ces derniers ne se répartissent pas de manière optimale dans l’espace, ce qui ralentit
la convergence des simulations Monte-Carlo. Au contraire, le graphique en haut à droite qui représente les
tirages d’une suite de Halton (suite de Van der Corput de base 2 en abscisses et de base 3 en ordonnées)
montre une occupation très dense et régulière de l’espace. Les graphiques en dessous représentent des
tirages de points réalisés à partir de suites de Van der Corput de bases non premières entre elles qui laissent
des zones vides d’occupation.
∂Πt ∂Πt 1 2 2 ∂2 Πt
+ rSt + σ St = rΠt (7.6)
∂t ∂S 2 ∂S2
Dans le modèle de Black-Scholes, cette équation doit être satisfaite par n’im-
porte quel produit financier, dont le prix Πt (St ) à un instant t dépend de la valeur
St d’un actif sous-jacent. Pour mémoire, dans ce modèle, St suit un mouvement
Les signes O(dt) et O(dS2 ) signifient que l’erreur d’approximation que l’on
commet est de l’ordre de grandeur de dt et dS2 . Plus les pas de discrétisation
Cette équation est longue et rébarbative, mais elle ne présente aucune diffi-
culté technique : elle énonce que la valeur de Πt−dt (St ) se calcule en ajoutant et
multipliant différents termes et, parmi eux, les paramètres du modèle (σ, r, dt, dS)
et les valeurs de Πt (.) en St − dS, en St et en St + dS. Ce calcul fait naître deux
erreurs d’approximation, dont les tailles sont de l’ordre de dt2 et dt × dS2 . Ainsi,
en oubliant les erreurs d’approximation O(dt2 ) et O(dt × dS2 ), la méthode des
différences finies que nous étudions repose sur l’équation de propagation :
2 2
σ S dt
Πt−dt (St ) = Πt (St − dS) × 2dSt 2 − rS t dt
2dS
σ S dt
2 2
+ Πt (St ) × 1 − rdt − dSt2 (7.10)
2 2
σ S dt
+ Πt (St + dS) × 2dSt 2 + rS2dS t dt
Cependant, dans ces cas limites, dans l’hypothèse où Smax est grand, il est en
général possible de calculer des formules explicites qui approchent Πt (0) et
Πt (Smax ). La solution retenue dépend alors du produit à valoriser ; dans le
cas d’un call, nous admettrons par exemple que Πt (0) = 0 et Πt (Smax ) ≈
Smax − Ke−r(T −t) . Ainsi, la méthode des différences finies revient à remplir la
grille de la figure 7.8 de la manière suivante :
1. Remplissage de la dernière colonne grâce à l’équation (7.7).
2. Remplissage de la première et dernière ligne grâce aux conditions aux
limites calculées : Πt (0) = 0 et Πt (Smax ) ≈ Smax − Ke−r(T −t) dans le cas du
call.
3. Remplissage de l’intérieur de la grille par propagation de l’équation (7.10).
Si nous pouvons montrer que l’erreur créée à chaque nœud et propagée dans
toute la grille reste contenue, qu’elle tend vers 0 lorsque les pas de discrétisations
tendent vers 0, nous aurons démontré la convergence. La réponse à la première
question est le terme O(dt × dS2 ) + O(dt2 ), c’est l’erreur résultante de l’approxi-
mation des dérivées partielles dans les équations (7.8). Par définition du signe
O(.), il existe une constante M telle que 3 :
3 Le lecteur mathématicien notera que nous supposons implicitement que les différentes dérivées
partielles de Πt (St ) sont bornées sur toute la grille.
σ2 Smax
2 dt σ2 Smax
2 dt
t−dt t × 1− + + M dt × dS2 + dt2 (7.13)
dS2 dS2
F IGURE 7.9. La courbe bleue représente le prix d’un call calculé par la méthode des différences finies en
fonction du nombre de pas de discrétisation de l’action (le nombre de pas de temps étant fixé à 1 000 et
Smax = 500). La méthode est de plus en plus précise entre 0 et 150 pas de discrétisation de St et diverge
au-delà de 160.
M
dt dt × dS2 + dt2 = O(dt, dS2 )
Les activités de marché des banques s’exercent sur des supports divers et variés.
Les actions, les taux d’intérêt, les titres de crédit en représentent une part impor-
tante tout comme les matières premières (énergies, produits agricoles, métaux...).
D’autres domaines d’application peuvent toutefois se rencontrer : immobilier,
émissions de CO2 , risques climatiques, etc. Dès lors, on comprend bien l’intérêt et
la difficulté à mesurer synthétiquement les risques engendrés par l’accumulation
de ces activités. L’industrie financière et les régulateurs se sont dotés d’indica-
teurs clefs dont la Value at Risk qui est le plus utilisé pour la mesure agrégée des
risques de marché. Preuve de l’importance que lui accorde la profession, la Value
at Risk est aussi utilisée par les autorités de contrôle bancaire dans le calcul des
fonds propres minimaux dont les banques doivent disposer pour continuer à
intervenir sur les marchés. Cet indicateur, dont la traduction littérale en langue
française, valeur en risque, n’est en pratique jamais utilisée, fera l’objet du présent
chapitre et sera désigné dans la suite par son acronyme : VaR.
Au gré des crises financières, l’industrie s’est peu à peu dotée de standards
en termes de mesure et de surveillance de ces risques de marché. Ainsi, il existe
dans chaque banque une entité en charge de s’assurer que la mesure de ces
risques est pertinente et que le niveau mesuré est en adéquation avec la structure
financière de l’établissement et le projet stratégique de ses dirigeants. Pour une
bonne maîtrise du risque, l’action de cette entité doit s’exercer à deux niveaux :
– Au niveau individuel, elle doit s’assurer que les risques pris individuelle-
ment par chaque trader sont contenus dans des limites raisonnables. Elle
vérifiera, par exemple, que les trader d’options sur actions ont bien couvert
le delta de leur portefeuille ou que le risque de crédit relatif aux investisse-
ments sur la dette de l’État grec réalisés par un trader dédié n’est pas trop
important.
– Au niveau global, elle doit contrôler que l’agrégation de la totalité des
investissements des trader n’est pas de nature à faire courir un risque trop
important à l’établissement.
1 La vente à découvert est le fait de détenir une proportion négative d’un actif, c’est-à-dire de gagner
de l’argent lorsque le cours de l’actif baisse.
F IGURE 8.1. VaR à horizon 1 jour et au seuil de confiance de 90 %. Généralement, la VaR est un gain négatif
donc une perte, de 1,3 Me dans l’exemple ci-dessus. Concrètement, cela signifie que la probabilité de gagner
plus de −1,3 Me en 1 jour est de 90 %. De manière équivalente, la probabilité de perdre plus de 1,3 Me est
de 10 %.
F IGURE 8.2. Détermination de la VaR 90 % 1 jour à partir d’un jeu de 100 scénarios de variation quotidienne
de la valeur du portefeuille. Chaque barre représente les gains réalisés en 1 jour dans l’un des 100 scénarios
équiprobables simulés ; ces scénarios sont classés par ordre croissant de gain. La VaR est la perte (en
ordonnées) du 10e scénario.
F IGURE 8.3. Gains quotidiens générés par un portefeuille fictif durant 200 jours. Les pertes dépassent le
montant de VaR 90 % 1 jour à environ 20 reprises, soit dans 20/200 = 10 % des cas, comme attendu.
2 La VaR en pratique
F IGURE 8.4. Les deux graphiques présentent le résultat de la simulation de 1 000 scénarios d’évolution de
la valeur d’un portefeuille composé, respectivement, d’un call sans couverture en delta et d’un call couvert
en delta. Pour rappel, le delta, noté Δ, est la sensibilité du prix de l’option à la variation du cours de l’action.
Comme nous l’avons vu au chapitre 5, couvrir en delta signifie détenir l’option et −Δ actions, cela permet de
neutraliser le risque de variation du prix de l’option en cas de variation du cours de l’action. Le profil de la
distribution des gains de la première stratégie est relativement indifférent au fait de sélectionner ou non la
volatilité implicite en tant que facteur de risque : le risque principal sur un call non couvert est la variation de
valeur du sous-jacent et non de la volatilité. Cela n’est plus le cas pour la seconde stratégie pour laquelle le
risque principal devient la variation de volatilité implicite. Ne pas sélectionner ce paramètre en tant que facteur
de risque revient donc à nier l’existence du risque principal de cette stratégie. L’impression visuelle laissée
par ces deux graphiques est confirmée par le calcul de la VaR 90 % 1 jour dans les différentes configurations.
Enfin, il est à noter que certains paramètres, comme certains spread de crédit,
peuvent ne pas disposer d’historiques suffisants pour être exploitables statisti-
quement. De ce fait, leur intégration aux facteurs de risque nécessitera vraisem-
blablement le recours à des approximations ou des hypothèses supplémentaires.
Cet élément est donc également à prendre en considération lors du choix des
facteurs de risque.
F IGURE 8.5. Densité d’un vecteur gaussien à deux dimensions paramétré à partir des rendements des
actions PPR et LVMH. La structure de corrélation imposée par le vecteur gaussien est relativement rigide.
Par exemple, ainsi que le montre la densité tronquée par un plan horizontal sur la figure de droite, les
courbes formées par l’intersection de la surface avec des plans horizontaux sont nécessairement des ellipses
concentriques.
F IGURE 8.7. Développements au premier et second ordre du prix d’un call sur l’action PPR. Les deux
approximations sont acceptables à proximité du point initial (matérialisé en rouge sur le graphe) mais
deviennent peu précises lorsque la variation du prix de l’action sous-jacente est trop importante. On note
également que l’approximation au second ordre est toujours supérieure au prix du call.
F IGURE 8.8. Logigramme récapitulatif des étapes nécessaires au calcul de VaR. Ce schéma résume
notamment les 3 types de VaR : VaR paramétrique, VaR Monte-Carlo et VaR historique.
3 Limites de la VaR
M ( X + Y ) M ( X ) + M (Y ) (8.2)
Cette propriété semble naturelle et est notamment en accord avec les théories
du portefeuille que nous avons abordées dans le chapitre 3 du présent ouvrage :
la diversification réduit le risque. Il s’avère cependant que la VaR ne satisfait pas
à cette propriété en toutes circonstances. Ces critiques, relatives au fait que la VaR
n’est pas sous-additive, nous semblent cependant d’une importance secondaire.
En effet, dans la plupart des cas, la diversification du portefeuille se traduira
bien par une diminution du montant de VaR ; ce comportement sera même
systématique dans le cas de la VaR gaussienne qui est bien sous-additive. De
plus, les contre-exemples construits pour illustrer ce défaut font généralement
état de profils de pertes potentielles très atypiques par rapport aux portefeuilles
rencontrés en pratique.
Corrélation glissante sur 100 jours Variance glissante sur 100 jours
F IGURE 8.9. Évolution des variances du CAC 40 et du coefficient de corrélation des rendements des actions
PPR et LVMH calculés sur une période glissante de 100 jours. Ce graphique illustre l’absence de stabilité des
variances et corrélations.
De part cette instabilité, les VaR calculées ne pourront jamais être prédictives
des pertes potentielles futures. Toutefois, l’existence de périodes de relative
stabilité de la variance permet de pondérer ce constat. De plus, la VaR peut être
interprétée non pas comme un estimateur prédictif des pertes potentielles futures
mais comme un indicateur synthétique renseignant sur l’évolution du risque du
portefeuille. Cette évolution peut être le fruit de l’action des trader, auquel cas, le
mode de calcul doit être suffisamment stable pour ne pas masquer un éventuel
changement de stratégie d’investissement. Elle peut également être due à une
augmentation de la volatilité des actifs. Dans ce cas, le modèle de VaR doit être en
mesure de capter cette évolution. Un des enjeux cruciaux du calcul devient donc
l’ajustement de la période d’estimation des paramètres. La fenêtre d’estimation
doit être :
– suffisamment longue pour rendre compte de la tendance de fond tout en
maintenant une certaine stabilité des estimateurs ;
– suffisamment réactive pour répercuter dans le résultat les changements de
conjoncture et de volatilité des marchés.
dernière crise financière. L’utilisation d’une telle modélisation n’est pas toujours
adaptée et sa pertinence se doit d’être vérifiée. Toutefois, nous pensons que
les principales critiques à formuler à l’encontre la VaR vont au-delà des débats
techniques et tiennent à l’utilisation et la compréhension de la mesure. C’est
l’objet de la section suivante.
Les calculs de VaR sont utilisés par les autorités de contrôle bancaire pour estimer
les montants de fonds propres réglementaires. Ceux-ci représentent les capitaux
propres minimaux dont les banques ont besoin pour être autorisées à maintenir
leur activité. Or, en période de crise, l’indicateur de VaR a tendance à croître
fortement du fait de l’augmentation de la volatilité des facteurs de risque. Ce
faisant, il réduit la marge de manœuvre des banques qui se voient parfois dans
l’obligation de céder une partie de leurs actifs, précipitant ainsi d’autant plus la
chute des marchés. La VaR peut ainsi être qualifiée de pro-cyclique en cela que
son mode de calcul amplifie les tendances de l’économie. En conséquence, plutôt
que d’aider à la maîtrise du risque, la VaR a pu contribuer à fragiliser le système.
F IGURE 9.1. Historique des cours du CAC 40, du S&P 500 et du Dow Jones en base 100 au 16/07/1987.
Le constat que l’on doit tirer du graphique 9.2 est que le modèle gaussien ne
s’accorde pas à la réalité. Le phénomène le plus flagrant est que la distribution
F IGURE 9.3. Les log-rendements historiques du CAC 40 et du Dow Jones Industrial Average sont ici
comparés aux 1er et 99e centiles gaussiens (droites rouges). Ces seuils sont, par définition, les niveaux
franchis en moyenne 1 fois sur 100 par des log-rendements gaussiens indépendants (modèle de Black-
Scholes). On note au contraire que les dépassements de seuils sont beaucoup plus fréquents et arrivent par
grappes dans des périodes de plus grande instabilité des cours.
De telles variations sont tout à fait aberrantes dans un modèle gaussien, leur
fréquence probable d’occurrence est inférieure à 1 fois toutes les 30 millions d’an-
nées. Le graphique 9.3 montre un second phénomène très intéressant : il existe
différents régimes d’amplitude de rendements. L’historique alterne les périodes
calmes, de faibles variations, et des périodes de turbulence où les amplitudes
de rendement sont très élevées. On constate en outre des dépassements consé-
cutifs de nos centiles gaussiens : dans notre historique il y a 8 occurrences d’un
dépassement du 99e centile gaussien 2 jours consécutifs. Si les variations étaient
réellement indépendantes, la probabilité d’observer 2 dépassements consécutifs
du seuil serait de (104/5 980)2 ≈ 0,03 % alors que le taux que nous constatons
est 4 fois supérieur (8/5 980 ≈ 0,13 %).
Cela signifie que les amplitudes de rendement sont liées entre elles. Les ren-
dements sont bien décorrélés ce qui signifie que la valeur présente du rendement
ne nous permet par de prédire un rendement moyen futur positif ou négatif
– heureusement, sinon, il y aurait des opportunités d’arbitrage. En revanche, les
rendements ne sont pas indépendants au sens où il existe un lien statistique
entre les rendements passés et les rendements futurs : une forte variation passée
présage, en moyenne statistique, d’une forte variation future, sans que l’on puisse
pour autant en prévoir le sens.
F IGURE 9.5. Comparaison des distributions d’une loi gaussienne et d’une loi de Cauchy. La loi de Cauchy
possède une queue de distribution nettement plus épaisse que la loi gaussienne.
On peut démontrer que, hormis dans certains cas particuliers, les queues
de distribution des lois α-stables suivent une loi puissance, c’est-à-dire que la
probabilité d’observer des valeurs supérieures à x, pour x suffisamment grand,
est proportionnelle à 1/x α avec 0 < α < 2. En notant S la variable aléatoire
modélisée, nous dirons qu’elle suit une loi puissance si, pour x suffisamment
grand :
1
P (|S| > x ) ≈ α (9.1)
x
Les études historiques (voir inventaire dans [Gabaix 2009] ou [Bouchaud et
Potters 2003]) montrent que cette loi puissance est une bonne modélisation des
queues de distribution historiques. Ces études, réalisées sur différents marchés
F IGURE 9.7. Deux tirages aléatoires du modèle de mimétisme de [Cont et Bouchaud 2000]. Chaque point
représente un trader, les liens entre les trader sont tirés aléatoirement. Cela permet de créer des groupes
de trader liés entre eux qui auront la même position (vendeuse, neutre ou acheteuse), cette dernière étant
tirée aléatoirement pour chaque groupe. Il y a 64 trader dans notre illustration, le paramètre c est fixé à 0,8 et
nordre à 13 ; cela correspond à une probabilité d’acheter de 10 % environ, une probabilité de ne pas intervenir
de 80 % et une probabilité de vendre de 10 %.
1 − x/A
P (|S| > x ) ≈ e (9.4)
xα
La seule hypothèse qui n’est pas remise en question par les modèles de
volatilité est la première : la continuité des cours. Il s’agissait d’une hypothèse que
nous avions considérée comme technique, sans grand impact sur la modélisation.
Or, abandonner cette hypothèse nous amène à une nouvelle classe de modèles
beaucoup plus large : les processus de Lévy. Partir de ces processus, pour
les adapter éventuellement a posteriori aux caractéristiques du marché par la
paramétrisation des constantes des diffusions permet d’élargir notre spectre de
modèles tout en partant d’une base axiomatique claire et intuitive.
Nous allons dans la présente section décrire les processus de Lévy, pour en
comprendre la richesse, les caractéristiques et leur intérêt dans la modélisation
des actifs financiers. Formellement un processus de Lévy Lt est un processus
stochastique qui vérifie les propriétés suivantes 2 :
– Ses incréments Lt+s − Lt sont stationnaires.
– Ses incréments Lt+s − Lt sont indépendants des valeurs passées Lu (u t)
du processus.
2 Le lecteur mathématicien notera qu’il faut également rajouter les hypothèses que le processus est
càdlàg (continu à droite, limite à gauche) et que L0 = 0.
LT = L T − L0
= ( L T − L T ) + ( L T − L0 )
2 2
= ( LT − L 2T ) + ( L 2T − L T ) + ( L T − L0 )
3 3 3 3
(9.5)
= ...
= ∑iN=1 ( L iT − L (i−1)T )
N N
= N ∑i=1 N × ( L iT − L (i−1)T )
1 N
N N
F IGURE 9.8. Le graphique illustre les processus de Poisson composés. Les courbes n’évoluent que par des
sauts de taille fixe (courbes bleues) ou aléatoire. L’intervalle séparant deux sauts est aléatoire, il est d’autant
plus court en moyenne que l’intensité des sauts est élevée.
F IGURE 9.9. Distribution à un an de processus suivant le modèle de Merton dont les sauts sont centrés
(la volatilité totale est maintenue à 20 % pour pouvoir comparer les distributions entre elles). Le modèle de
Merton présente des queues plus épaisses que le modèle de Black-Scholes.
repose sur l’idée que notre temps de réaction est infiniment court ce qui nous
permet de manipuler les actifs avec une précision infinie. En outre, le degré de
liberté dont on dispose pour agir est exactement égal au nombre de degrés de
liberté qu’a l’actif pour évoluer (cf. chapitres 4 et 5).
Les sauts du modèle de Merton détruisent ce confort offert par le modèle de
Black-Scholes. Quelle que soit notre réactivité théorique, l’éventualité de l’occur-
rence d’un saut ajoute un degré de liberté supplémentaire aux lois d’évolution
et annihile tout espoir de neutraliser le risque avec une couverture simple. Le
modèle de Merton n’est pas complet, la mesure risque neutre équivalente n’est
pas unique. Cela implique que dans le modèle de Merton, les prix risque neutre
des actifs ne sont pas uniques ; ce modèle autorise l’existence d’autres prix valides
au sens où ils ne sont pas arbitrables.
Un des intérêts du modèle est l’analyse et l’évaluation du risque de saut.
Comparer le prix obtenu dans le modèle de Black-Scholes et celui obtenu dans le
modèle de Merton peut permettre de quantifier l’impact potentiel des variations
brusques de cours et donc de l’hypothèse, irréaliste, de réactivité instantanée pour
la couverture des risques. En outre, certains produits et constructions financières
sont particulièrement sensibles à ce risque de saut, comme les CPPI présentés
dans la figure 9.11 ; étudier ces produits dans le cadre d’un modèle de Black-
Scholes reviendrait simplement à nier l’existence du risque.
Cette réflexion montre bien qu’un modèle n’est pas en soi meilleur qu’un
autre, tout dépend de l’utilisation que l’on souhaite en faire. Si notre objectif est
de vendre un produit financier traditionnel en le couvrant en delta hedge, il est
important d’étudier la stratégie dans les deux modélisations que nous avons
vues : le modèle de Black-Scholes (éventuellement augmenté d’un modèle de
volatilité) permettra de trouver un prix de marché pertinent, même si le modèle
ne capte pas tous les risques ; les modèles à sauts permettront d’étudier les
risques de variations brutales des cours et de quantifier, par exemple, un risque
de modèle.
Il existe d’autres types de processus de Lévy que nous n’approfondirons pas.
Plus difficiles à se représenter intuitivement, ils peuvent avoir une intensité de
sauts infinie, c’est-à-dire qu’entre deux instants, il existe toujours une infinité de
sauts. Ces processus permettent de construire des lois d’évolution comme les
processus α-stables, proposés par Mandelbrot, dont une illustration est présentée
dans la figure 9.12.
186 Conclusion
de prix. Cela est d’ailleurs fort heureux car une telle calibration nécessiterait
de supposer la stationnarité des sources de calibration, autrement dit que le
passé soit représentatif du futur. Le graphique 2 du chapitre 2 est un excellent
exemple des ravages que pourrait engendrer une hypothèse de stationnarité
formulée à tort. Toutefois, sans pour autant être calibrés sur des historiques,
il est plus que souhaitable que les modèles calibrés sur des prix de marchés
rendent compte de lois de probabilités cohérentes avec les historiques de prix :
le chapitre 9 nous a montré à quel point les queues de distribution sont sous-
estimées dans les modélisations gaussiennes. Cette sous-estimation conduit par
exemple à une sous-estimation du prix des put dont le strike est très faible.
Or, les crises financières se manifestent généralement lorsque les acteurs de
marché reviennent massivement sur une erreur de jugement ; ce dernier peut
d’ailleurs tout autant porter sur la validité d’une hypothèse de modélisation
que sur notre environnement économique (solvabilité des États, perspectives
d’un secteur d’activité, etc.). Les historiques de prix sont à ce sujet les seuls
éléments statistiques dont nous disposons pour mettre à l’épreuve nos modèles
mathématiques et leurs hypothèses sous-jacentes.
En définitive, est-il préférable que le modèle soit en phase avec les prix de
marché ou avec la réalité historique ? La réponse n’est pas aussi immédiate qu’il
n’y paraît. Si le produit valorisé est parfaitement couvert par d’autres produits
achetés à la concurrence, il est important d’être en accord avec les prix de marché.
John Mayard Keynes nous rappelle que « le marché peut rester irrationnel plus
longtemps que vous ne pouvez rester solvable ». Dans la pratique, les stratégies
de couvertures ne sont pas parfaites et le risque porté par les investisseurs dépend
donc du comportement réel des cours.
Après le calcul des prix vient la mesure du risque : elle vise à quantifier le
risque porté par les activités de marché. La mesure de risque est beaucoup moins
contrainte par les besoins de cohérence avec les prix de marché et beaucoup plus
par la cohérence avec la réalité. Par exemple, les structures de corrélation sim-
plistes issues des vecteurs gaussiens peuvent se révéler totalement inappropriées.
L’étape la plus importante est l’identification des sources de risques, notamment
les facteurs de risque de la VaR. Cette étape, qui passe par une analyse plus
financière que mathématique, permet par exemple d’identifier si une modéli-
sation simple de la corrélation suffit ou si une modélisation plus fine s’impose
pour prendre en compte le wrong way risk notamment. La mesure quantitative du
risque nécessite d’évaluer la probabilité réelle d’occurrence des risques et non
l’implicite. Elle est donc nécessairement tributaire de l’hypothèse de stationna-
rité et des historiques réalisés. De ce fait, elle n’est pas destinée à prédire des
événements statistiquement non observables. Elle doit donc être complétée par
188 Conclusion
Bibliographie
B RIGO, D., PALLAVICINI, A. et T ORRESETTI, R. (2010). Credit Models and the Crisis :
A Journey into CDOs, Copulas, Correlations and Dynamic Models. John Wiley &
Sons.
J ARROW, R. et T URNBULL, S. (1995). Pricing derivatives on financial securities
subject to credit risk. The Journal of Finance.
M ERTON, R. (1974). On the pricing of corporate debt : The risk structure of
interest rates. The Journal of Finance.
S CHÖNBUCHER, P. (2003). Credit Derivatives Pricing Models : Models, Pricing and
Implementation. John Wiley & Sons.
Théories du portefeuille
190 Bibliographie
M OSSIN, J. (1966). Equilibrium in a capital asset market. Econometrica.
R OSS, S. (1976). The arbitrage theory of capital asset pricing. Journal of Economic
Theory.
S HARPE, W. (1964). Capital asset prices : A theory of market equilibrium under
conditions of risk. The Journal of Finance.
S HARPE, W., A LEXANDER, G. et B AILEY, J. (1998). Investments. Pearson Education,
6e édition.
T OBIN, J. (1958). Liquidity preference as behavior towards risk. The Review of
Economic Studies.
Modèle de Black-Scholes
AYACHE, E., H ENROTTE, P., N ASSAR, S. et WANG, X. (2004). Can anyone solve
the smile problem ? Wilmott Magazine.
D ERMAN, E. et K ANI, I. (1994). Riding on a smile. Risk.
D ERMAN, E. et K ANI, I. (1998). Stochastic implied trees : Arbitrage pricing
with stochastic term and strike structure of volatility. International Journal of
Theoretical and Applied Finance.
D ERMAN, E., K ANI, I. et C HRISS, N. (1996). Implied trinomial trees of the volatility
smile. The Journal of Derivatives.
D UMAS, B., F LEMING, J. et W HALEY, R. (1998). Implied volatility functions :
Empirical tests. The Journal of Finance.
D UPIRE, B. (1994). Pricing with a smile. Risk.
F OUQUE, J.-P., PAPANICOLAOU, G. et S IRCAR, K. (2000). Derivatives in Financial
Markets with Stochastic Volatility. Cambridge University Press.
G ATHERAL, J. (2006). The Volatility Surface : A Practitioner’s Guide. John Wiley &
Sons.
H AGAN, P., K UMAR, D. et L ESNIEWSKI, A. (2002). Managing smile risk. Wilmott
Magazine.
H ESTON, S. (1993). A closed-form solution for options with stochastic volatility
with applications to bond and currency options. The Review of Financial Studies.
L EWIS, A. (2000). Option Valuation Under Stochastic Volatility. Finance Press.
L IPTON, A. et M C G HEE, W. (2002). Universal barriers. Risk.
R EBONATO, R. (2004). Volatility and Correlation : The Perfect Hedger and the Fox.
John Wiley & Sons, 2e édition.
R UBINSTEIN, M. (1994). Implied binomial trees. Journal of Finance.
Méthodes numériques
192 Bibliographie
Value-at-Risk
B ACRY, E., D ELOUR, J. et M UZY, J.-F. (2001). Multifractal random walk. Physical
Review E.
B ACRY, E. et M UZY, J.-F. (2003). Log-infinitely divisible multifractal processes.
Communications in Mathematical Physics.
B OUCHAUD, J.-P. (2001). Power laws in economics and finance : Some ideas from
physics. Quantitative Finance.
C ALVET, L. et F ISHER, A. (2008). Multifractal Volatility : Theory, Forecasting, and
Pricing. Academic Press.
C ONT, R. et B OUCHAUD, J.-P. (2000). Herd behavior and aggregate fluctuations
in financial markets. Macroeconomic Dynamics.
C ONT, R. et TANKOV, P. (2003). Financial Modelling with Jump Processes. Chapman
& Hall.
FAMA, E. (1965). The behavior of stock-market prices. The Journal of Business.
G ABAIX, X. (2009). Power laws in economics and finance. Annual Review of
Economics.
M ANDELBROT, B. (1963). The variation of certain speculative prices. The Journal
of Business.
M ERTON, R. (1976). Option pricing when underlying stock returns are disconti-
nuous. Journal of Financial Economics.
M ITCHELL, W. (1915). The making and using of index numbers. Bulletin No. 173
of the US Bureau of Labor Statistics (réimprimé en 1921 dans le Bulletin No. 284 et
en 1938 dans le Bulletin No. 656).
TALEB, N. (2008). Le cygne noir : La puissance de l’imprévisible. Les Belles Lettres.
B Effet de levier, 52
Effet de troupeau, voir Mimétisme
β (beta), 55, 57–58 Efficience d’un actif (ou d’un
portefeuille d’actifs), 47, 50–53
C Efficience des marchés, 64
Espérance, 40, 55, 90, 125–127
Calibration, 123
Call, voir Option financière F
Capital asset pricing model (CAPM), 53–59
Frontière efficiente, 51–53
Cointégration, 61–63
Comité de Bâle, 165 I
Complétude, 76–79, 95, 100, 115, 120, 181
Continuité des processus stochastiques, Inflation, 9–10
90, 177 L
Convergence d’une méthode
numérique, 134 Log-rendement, 94, 169–170
Corrélation, 40–41, 49–50, 59, 62–63, 156 Loi α-stable (ou pareto stable), 171–172,
Structure gaussienne, voir Vecteur 182
gaussien Loi gaussienne, voir Loi normale
Coupon, voir Obligation Loi lognormale, 102–103, 127
Loi normale, 38–40, 49, 87, 91, 156–157, Option financière, 96, 107–108
160, 163, 169–174, 178–180 À barrière, 107–108
Loi puissance, 172–176 À départ forward, 108
Américaine, 107, 147
M Asiatique, 107
Binaire, 107–110
Martingale, 74–75, 90 D’achat (call), 35, 96–97, 100, 102,
Semi-martingale, 83 107
Mesure de risque cohérente, 161 De vente (put), 96, 107
Mesure risque neutre, voir Probabilité Européenne, 107, 109–110, 122
risque neutre Exotique, 107
Méthodes de Monte-Carlo, 126–128, 152 Vanille, 107
Convergence, 133–136
Hedge optimal, 130–133 P
Méthodes des différences finies, 141–147
Convergence, 143–146 Parité call-put, 106–107
Équation de propagation, 142 Portefeuille de marché, voir Capital asset
Erreur de discrétisation, 141–142 pricing model et portefeuille
Propagation des erreurs, 144–146 tangentiel
Mimétisme, 174–176 Portefeuille tangentiel, 51, 52
Modèle à intensité de défaut, 31–32 Prime de risque, 28, 56, 57, 97
Modèle d’évaluation des actifs Probabilité de défaut implicite, 28–29
financiers (MEDAF), voir Probabilité risque neutre, 72–73, 94–97,
Capital asset pricing model 102, 109–110
Modèle de Black-Scholes, 94–104, 112, Probabilité risque neutre équivalente, 75
127, 140, 178 Processus à saut, 178–181
Équation de Black-Scholes, 99, 140 Processus de Lévy, 177–179, 182–183
Modèle de Heston, 121–122, 127 Processus de Poisson composés, 179
Modèle de Merton (à sauts), 179–181 Processus lognormal, voir Mouvement
Mouvement brownien, 86, 88–91, 178 lognormal
Standard, 90 Processus stochastique, 86–88
Mouvement lognormal, 91–93, 100–102 Put, voir Option financière
N Q
196 Index
Risque idiosyncratique, voir Risque Value at Risk (VaR), 151–153
spécifique Back testing, 152
Risque spécifique, 56 Facteur de risque, 154–157, 164, 166
Risque systémique, 56 Procyclicité, 164–165
Sous-additivité, 161
S VaR historique, 156, 157
VaR Monte-Carlo, 158
Série quasi aléatoire, 136–140
VaR paramétrique, 160
Série stationnaire, voir Stationnarité
VaR stressée, 165
Spread de crédit, 26, 29–30, 154
Variable aléatoire, 40
Stationnarité, 60, 91–92, 156, 162–163
Variance, 39, 40, 47
Stress test, 165–166
Variation, 81–82, 88
Suite à discrépance faible, voir Série
Variation quadratique, 82, 88
quasi aléatoire
Vecteur gaussien (ou structure de
Suite de Van der Corput, 137–139
corrélation gaussienne), 49–50,
Surface de volatilité implicite, voir
156–157, 160, 163
Nappe de volatilité implicite
Vente à découvert, 52–53
T Volatilité, 47, 88–90, 93
Implicite, 102–104, 106
Taux continu (ou taux de rendement Locale, 113–119
instantané), 94 Nappe, voir Nappe de volatilité
Taux de recouvrement, 27 implicite
Taux de rendement d’une obligation, 8, Stochastique, 119–124
24
Taux sans risque, 25–27, 52, 97 W
Taux Zéro Coupon, 12–15
Théorème central limite, 177–178 Wrong way risk, 30, 166
V Z