Vous êtes sur la page 1sur 147

1

Universite Pierre et Marie Curie, Paris 6

Master de Mathematiques M1 2015-2016

Modeles stochastiques
et Applications a la finance

Philippe Bougerol

8-3-2016
2
Table des matieres

1 Introduction 9
1.1 Plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Un peu de bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 En Francais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Deux gros livres specifiquement sur les aspects financiers. . . . 11
1.2.3 Un livre en anglais, parmi dautres . . . . . . . . . . . . . . . . 11
1.2.4 Les articles de Wikipedia . . . . . . . . . . . . . . . . . . . . . 11

I Modeles a temps discret 13

2 Introduction a levaluation en finance, Vocabulaire et produits 15


2.1 Finance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2 Les metiers de la finance . . . . . . . . . . . . . . . . . . . . . . 15
2.2 La valeur du temps: Taux dinteret . . . . . . . . . . . . . . . . . . . . 16
2.2.1 Economiquement . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.2 Mathematiquement . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.3 Actualisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.4 Quelques taux utilises . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Actifs financiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1 Actifs de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.2 Marche a terme . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.3 Marches derives: Produits optionnels . . . . . . . . . . . . . . . 19
2.4 Utilite versus AOA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Le modele devaluation de base le plus simple . . . . . . . . . . . . . . 21
2.5.1 Le modele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6 Portefeuille de couverture . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6.1 Interpretation probabiliste . . . . . . . . . . . . . . . . . . . . . 22
2.6.2 Univers risque neutre . . . . . . . . . . . . . . . . . . . . . . . 23
4 TABLE DES MATIERES

3 Rappels et complements danalyse et de probabilite 25


3.1 Probabilites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.1 Mesurabilite et variables aleatoires . . . . . . . . . . . . . . . . 25
3.1.2 Classe monotone . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1.3 Independance et esperance conditionnelle . . . . . . . . . . . . 26
3.2 Projection dans un Hilbert . . . . . . . . . . . . . . . . . . . . . . . . 27
3.3 Theoreme de Radon Nikodym . . . . . . . . . . . . . . . . . . . . . . . 28
3.4 Esperance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.1 Un theoreme de Bayes . . . . . . . . . . . . . . . . . . . . . . . 30

4 Calcul stochastique a temps discret 33


4.1 Filtration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.3 Lintegrale stochastique discrete . . . . . . . . . . . . . . . . . . . . . . 34
4.4 Un theoreme de Doob . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.5 Martingale continue a droite . . . . . . . . . . . . . . . . . . . . . . . . 37
4.6 Martingale locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5 Controle stochastique a horizon fini 43


5.1 Systemes dynamiques a temps discret . . . . . . . . . . . . . . . . . . 43
5.1.1 Systeme dynamique controle deterministe . . . . . . . . . . . . 43
5.1.2 Systeme dynamique aleatoire . . . . . . . . . . . . . . . . . . . 44
5.1.3 Systeme dynamique controle aleatoire . . . . . . . . . . . . . . 45
5.1.4 Strategies markoviennes . . . . . . . . . . . . . . . . . . . . . . 48
5.2 Programmation dynamique . . . . . . . . . . . . . . . . . . . . . . . . 49
5.3 Premiers Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.3.1 Cas deterministe . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.3.2 Remarque fondamentale sur la complexite . . . . . . . . . . . . 51
5.3.3 Remplacement de machines . . . . . . . . . . . . . . . . . . . . 51
5.3.4 Gestion de stock . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.3.5 Une solution explicite . . . . . . . . . . . . . . . . . . . . . . . 53
5.4 Arret optimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.4.2 Enveloppe de Snell dune suite adaptee . . . . . . . . . . . . . 55
5.4.3 Cadre markovien . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.4.4 Approche du cas Markovien par lenveloppe de Snell . . . . . . 57
5.4.5 Approche du cas markovien par la programmation dynamique . 57
5.4.6 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

6 Marches a temps discret, AOA, completude 63


6.1 Modele Stock-Bond . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.2 Portefeuille du marche (S, B) et autofinancement . . . . . . . . . . . . 64
6.2.1 Portefeuille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6.2.2 Autofinancement . . . . . . . . . . . . . . . . . . . . . . . . . . 64
TABLE DES MATIERES 5

6.2.3 Changement de numeraire . . . . . . . . . . . . . . . . . . . . . 65


6.3 AOA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6.3.1 Lemme sur la transformee de Laplace . . . . . . . . . . . . . . 67
6.3.2 Preuve du theoreme. . . . . . . . . . . . . . . . . . . . . . . . . 68
6.4 Evaluation dun actif replicable dans un marche viable . . . . . . . . . 70
6.5 Marche complet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
6.5.1 Complet => Unicite de P . . . . . . . . . . . . . . . . . . . . . 72
6.5.2 Unicite de P => Propriete de Bernoulli . . . . . . . . . . . . . 72
6.5.3 Propriete de Bernoulli => Representation previsible . . . . . . 72
6.5.4 Representation previsible => Complet . . . . . . . . . . . . . . 73
6.6 Modele binomial de Cox, Ross et Rubinstein . . . . . . . . . . . . . . 74
6.6.1 Le modele darbre recombinant de CRR . . . . . . . . . . . . . 74
6.6.2 Representation previsible . . . . . . . . . . . . . . . . . . . . . 76
6.6.3 Prix doptions, Portefeuille de couverture . . . . . . . . . . . . 77
6.7 Appendice: Preuve de la proposition 6.5.5 . . . . . . . . . . . . . . . . 78

7 Theorie du Portefeuille de Markowitz 81


7.1 La notion dUtilite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.2 Multiplicateurs de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . 83
7.3 Theorie du portefeuille de Markowitz . . . . . . . . . . . . . . . . . . . 84
7.3.1 Cas sans taux fixe . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.3.2 Frontiere de Markowitz . . . . . . . . . . . . . . . . . . . . . . 86
7.3.3 Avec un actif sans risque, a taux fixe, Theorie de Tobin . . . . 87

8 Controle et filtrage lineaire optimal 91


8.1 Le cadre du controle lineaire . . . . . . . . . . . . . . . . . . . . . . . . 91
8.2 Matrices symetriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
8.3 Programmation dynamique . . . . . . . . . . . . . . . . . . . . . . . . 93
8.4 Variantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
8.4.1 Coefficients dependant du temps . . . . . . . . . . . . . . . . . 95
8.4.2 Correction de trajectoire . . . . . . . . . . . . . . . . . . . . . . 95
8.5 Le probleme du filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.5.1 Gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
8.6 Le Filtre de Kalman Bucy . . . . . . . . . . . . . . . . . . . . . . . . 98
8.6.1 Le Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
8.6.2 Decomposition a laide de linnovation . . . . . . . . . . . . . . 98
8.6.3 Calcul de la matrice de gain . . . . . . . . . . . . . . . . . . . . 100
8.6.4 Lalgorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
8.6.5 Equation de Riccati . . . . . . . . . . . . . . . . . . . . . . . . 101
8.7 Controle avec information imparfaite . . . . . . . . . . . . . . . . . . . 101
6 TABLE DES MATIERES

9 Filtrage Markovien non lineaire: Cas fini 105


9.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
9.2 Le modele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
9.3 Les equations du filtrage . . . . . . . . . . . . . . . . . . . . . . . . . . 106
9.3.1 Letape de prediction . . . . . . . . . . . . . . . . . . . . . . . . 106
9.3.2 Letape de mise a jour ou correction . . . . . . . . . . . . . . . 107

II Modeles a temps continu 109

10 Calcul stochastique a temps continu, par rapport au brownien 111


10.1 Mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
10.1.1 Famille gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . 111
10.1.2 Definition du mouvement brownien . . . . . . . . . . . . . . . . 111
10.1.3 Quelques proprietes . . . . . . . . . . . . . . . . . . . . . . . . 113
10.2 Propriete de Markov forte du Brownien . . . . . . . . . . . . . . . . . 114
10.2.1 Martingales et mouvement brownien . . . . . . . . . . . . . . . 116
10.3 Integrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
10.4 Processus arrete, martingale locale . . . . . . . . . . . . . . . . . . . . 119
10.5 Formule dIto pour le Brownien . . . . . . . . . . . . . . . . . . . . . . 121
10.5.1 Generalisation unidimensionnelle . . . . . . . . . . . . . . . . . 122
10.5.2 Cas multidimensionnel . . . . . . . . . . . . . . . . . . . . . . . 123
10.6 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
10.7 Theoreme de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
10.7.1 Une application . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
10.8 Equations differentielles stochastiques . . . . . . . . . . . . . . . . . . 127
10.8.1 Estimees . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
10.8.2 Propriete de Markov . . . . . . . . . . . . . . . . . . . . . . . . 130
10.9 Processus de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
10.9.1 Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

11 Black et Scholes 135


11.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
11.2 Le modele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
11.2.1 Le spot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
11.3 Portefeuille autofinance . . . . . . . . . . . . . . . . . . . . . . . . . . 137
11.4 AOA et lunivers risque neutre . . . . . . . . . . . . . . . . . . . . . . 137
11.5 Marche complet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
11.6 Formules de Black et Scholes . . . . . . . . . . . . . . . . . . . . . . . 140
11.7 Implementation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
11.7.1 Volatilite implicite . . . . . . . . . . . . . . . . . . . . . . . . . 141
11.7.2 Gestion Delta neutre . . . . . . . . . . . . . . . . . . . . . . . . 141
11.8 Generalisations du modele de Black et Scholes . . . . . . . . . . . . . 141
11.8.1 Cas particulier . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
TABLE DES MATIERES 7

12 Controle et gestion de portefeuille en temps continu 143


12.1 Le cadre du controle de diffusions . . . . . . . . . . . . . . . . . . . . . 143
12.2 Lequation HJB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
12.3 Le modele de consommation investissement de Merton . . . . . . . . . 145
8 TABLE DES MATIERES
Chapitre 1
Introduction

1.1. Plan
De nombreux phenomenes dependent en partie du hasard, il suffit de penser a la meteo
de demain. On sinteresse dans ce cours a ceux qui varient au cours du temps. Notons
Xt letat de ce phenomene a linstant t. Suivant que t prend des valeurs entieres dans
N ou reelles dans R+ , on aura une modelisation a temps discret ou continu et on dira
que Xt est un processus a temps discret ou continu.
Souvent on se place a linstant t0 representant le present, et lon cherche a travailler
avec le processus Xt , t t0 , dans le futur, donc largement inconnu.
Plusieurs questions sont interessantes. En theorie du controle, on peut agir sur
letat Xt a linstant t et le transformer pour atteindre un but. Ce peut etre amener
une fusee sur la lune, ou gagner de largent. En theorie du filtrage, on ne connait
pas bien letat lui meme et on cherche donc a lapprocher (quitte a utiliser cette
approximation ensuite pour faire du controle).
Le but de ce cours est dintroduire les methodes utilisees effectivement pour traiter
ces problemes. Un des champs dapplication est celui de la finance mathematique.
Cest aujourdhui celui qui propose le plus de debouches. Nous letudierons en detail.

Dans une premiere partie, on se concentre sur le temps discret. Cest la que
les concepts sont les plus clairs et souvent directement applicables sur machines.
Ensuite, nous etudions le cas du temps continu. Meme si mathematiquement il est
plus sophistique, il est en fait, dans de nombreux cas pratiques, beaucoup plus facile
et rapide a utiliser. Pour cette raison il est incontournable.
Le plan, un peu arbitraire, suivi est le suivant:

Premiere partie; Temps discret


1. On commence par introduire le vocabulaire de la finance et la problematique
de levaluation dactifs derives. Ce sera souvent une source dexemples.
10 Introduction

2. Ensuite quelques rappels danalyse et de probabilites. Puis le calcul stochastique


sur les martingales discretes.
3. On traite alors la theorie du controle a temps discret, la programmation dy-
namique et lalgorithme de Bellman, le probleme de larret optimal.
4. Les theoremes fondamentaux de levaluation dactifs.
5. La gestion de portefeuille.
6. Controle et filtrage quadratique.

Deuxieme partie; Temps continu

1. Mouvement Brownien
2. Calcul stochatique dIto. Theoreme de Girsanov.
3. Formules de Black et Scholes.
4. Gestion de portefeuille a temps continu.

1.2. Un peu de bibliographie

1.2.1. En Francais
M. Benam, N. El Karoui : Chanes de Markov et simulations ; martingales et
strategies. Les Editions de lEcole Polytechnique, Eyrolles (2004)

L. Carassus, G. Pages : Finance de marche - Modeles mathematiques a temps


discret, Vuibert, (2015).

F. Comets, Th. Meyre : Calcul Stochastique et Modeles de Diffusion (2015),


Collection Master, Dunod

R.A. Dana, M. Jeanblanc-Picque : Marches financiers en temps continu: valori-


sation et equilibre. Economica (1998)

J.-F. Delmas, B. Jourdain : Modeles aleatoires, volume 57 de Mathematiques


et Applications. Springer, Berlin, (2006).

G. Demange, J.C. Rochet : Methodes mathematiques de la finance. Economica


(1997)

N. El Karoui, E. Gobet: Les outils stochastiques des marches financiers. Les


editions de lEcole Polytechnique, (2011).

D. Lamberton, B. Lapeyre : Introduction au calcul stochastique applique a la


finance. Ellipses (1997)

E. Pardoux : Processus de Markov et applications: Algorithmes, reseaux, genome


et finance, Dunod, (2007).
1.2 Un peu de bibliographie 11

1.2.2. Deux gros livres specifiquement sur les aspects financiers.


P. Poncet et R. Portait, Finance de marche de Patrice Poncet et Roland Portait,
Dalloz
J. Hull, Options futures et autres actifs derives, 6 eme Edition, Pearson Education.

1.2.3. Un livre en anglais, parmi dautres


A. Etheridge : A Course in Financial Calculus, Cambridge University Press
(2002)

1.2.4. Les articles de Wikipedia


Qui sont souvent tres bien faits...
12 Introduction
Partie I

Modeles a temps discret


Chapitre 2

Introduction a levaluation en
finance, Vocabulaire et produits

2.1. Finance
2.1.1. Definition
Dapres Robert Merton (Prix Nobel deconomie en 1997 avec Myron Scholes, Fisher
Black etant mort en 1995):
La finance est letude des manieres dallouer des ressources monetaires rares au
fil du temps:

Les decisions financieres engendrent des recettes et depenses reparties dans le


temps.

Les recettes et depenses ne sont generalement pas connues par avance avec
certitude.

Allouer des ressources rares : optimiser risque, rentabilite (ou cout) avec deux
contraintes : Tenir compte de la valeur du temps et mesurer lincertitude.

2.1.2. Les metiers de la finance

I. La finance dentreprise (Direction Financiere) (planification strategique, controle


financier, etc...)
II. La finance en dehors de lentreprise.

marches financiers (beaucoup de produits differents)

institutions financieres (credit, placement,operations complexes)

institutions gouvernementales (garanties,financement)


16 Introduction a levaluation en finance, Vocabulaire et produits

Le systeme financier est lensemble des marches et intermediaires qui sont utilises
par les menages, les entreprises et les Etats pour mener a bien leurs decisions fi-
nancieres. Ce systeme inclut les marches dactions, dobligations, et autres titres fi-
nanciers, ainsi que les banques et les compagnies dassurance. Les transferts de fonds
passent souvent par un intermediaire.

Les actifs financiers principaux qui sont echanges sur les marches sont les dettes
(obligations), les actions, les devises et les produits derives :

Les obligations sont des dettes. La vente dune obligation equivaut donc a un em-
prunt et son achat a un pret. Elle est emise par les entreprises (emprunts obligataires
et billets de tresorerie), les Etats (OAT, bons du Tresor).

Les actions sont les titres juridiques des proprietaires dune entreprise. On parle
dactions pour les societes anonymes, et de parts pour les Sarl.

Les devises correspondent aux monnaies (etrangeres);

Les produits derives sont des titres financiers comme les options ou les contrats
a terme (futures) dont la valeur derive (vient) de la valeur dun ou plusieurs autres
actifs.

2.2. La valeur du temps: Taux dinteret


2.2.1. Economiquement
Un tiens vaut, ce dit-on, mieux que deux tu lauras :
Lun est sur, lautre ne lest pas.

La Fontaine, Le petit poisson et le pecheur.

La meme chose, quantifiee: Je prefere 100 Euros aujourdhui que 102 Euros dans
un an. Autrement dit, le temps change la valeur de largent. Pour mesurer ceci, on
introduit la notion de taux dinteret.

Le taux dinteret est le loyer de largent. Pour un consommateur, linteret est le


prix a payer pour la jouissance immediate dun bien de consommation (ex : automo-
bile, appartement). Pour un epargnant, linteret est la recompense pour la remise a
plus tard de cette jouissance. Pour une entreprise le prix a payer pour utiliser et faire
fructifier largent prete.

(Pour Wikipedia) Le taux dinteret dun pret ou dun emprunt est le pourcent-
age, calcule selon des conventions predefinies, qui mesure de facon synthetique, sur
une periode donnee, la rentabilite pour le preteur ou le cout pour lemprunteur de
lecheancier de flux financiers du pret ou de lemprunt.
2.2 La valeur du temps: Taux dinteret 17

2.2.2. Mathematiquement
Definition 2.2.1 Le taux dinteret sur la periode de temps [t0 , t0 + T ] est le reel r
tel que K e place a la date t0 donne K(1 + r) e a la date t0 + T .

Dans un premier temps faisons comme si ceci ne dependait pas de t0 .

Definition 2.2.2 Le taux dinteret annuel ra le reel ra tel que K e place a la date
t0 donne K(1 + ra ) e a la date t0 + 1, mesuree en annees.

La quantite V aujourdhui place au taux annuel ra donne

Vn = V (1 + ra )n .

au bout de n annees. Plus generalement au bout du temps t compte en annees

Vt = V (1 + ra )t

(on voit apparaitre la notion dinterets composes).


On utilise aussi, surtout en finance theorique et en mathematiques, le taux dinteret
continu, rc .

Definition 2.2.3 Le Taux dinteret continu rc le reel rc tel que K e place a la date
t0 donne Kerc t e a la date t0 + t, mesuree en annees.

Si rc est tres petit, les deux notions se rejoignent car

etrc (1 + rc )t .

En pratique ce taux depend de la longueur de t, il y a donc plusieurs taux.

2.2.3. Actualisation
Au taux annuel r, la valeur aujourdhui actualisee dune somme W recue a la date t
(en annee) est
W
.
(1 + r)t
On dit que cest la valeur actualisee de W .
Plus generalement, la valeur actualisee dune suite de flux Wi , i = 1, 2, , n,
recus aux dates ti (en annee) est
n
X Wi
.
(1 + r)ti
i=1
18 Introduction a levaluation en finance, Vocabulaire et produits

2.2.4. Quelques taux utilises


En fait les taux varient tout le temps. Il faut donc connaitre toute la courbe des
taux, cest a dire aujourdhui les taux a toutes tes echeances, donc a 1 jour, 2 jours,
4 semaine, 4 mois, 12 ans, etc.. Voici, en europe, les taux de references a court termes
principaux:

EONIA (Euro Overnight Index Average) : taux au jour le jour.

EURIBOR (Euro InterBank Offered Rate) : taux a 1, 2, 3 semaines et de 1 a


12 mois.

LIBOR Pareil pour la livre anglaise.

et beaucoup de taux proprement francais (TAM,...)

2.3. Actifs financiers


Le mot actif financier est synonyme de produit financier. Parlons des produits stan-
dardises qui se traitent par lintermediaire dune bourse (comme lEURONEXT a
Paris) ou dun etablissement similaire. On distingue trois types de produits.

2.3.1. Actifs de Base


Les Actifs de Base (Underlying Asset), ou supports, principaux sont:

Actions (Stock, Shares): Une action est un titre de propriete representant une
fraction du capital de lentreprise, donnant droit de vote, dinformation, de
dividende. Notions de Prix, Dividendes.

Obligations (Bond): Une obligation est un titre de creance (emprunt/ pret) a un


taux fixe pour une duree fixee. Notions de Taux nominal, Prix, Taux actuariel
.

Devises (Currency); cours

Matieres premieres; cours

Indices (Index) (exemples Cac 40, Nasdaq).

Energie (Gaz, Electricite)

Ces actifs peuvent etre tous achetes et vendus et sont traites au comptant,
2.3 Actifs financiers 19

2.3.2. Marche a terme


Les actifs precedents peuvent aussi etre traites a terme. Un vendeur et un acheteur
se fixent aujourdhui une date T dans le futur et un prix P . Le jour T il vend (resp.
achete) au prix P le produit. Il existe de nombreuses variantes organisees. (forward,
future, Fra, swaps), de facon abondante (on dit: avec une grande liquidite). Ces
produits ne seront pas importants pour nous, donc je ninsiste pas.
Quelques exemples sophistiques de marches a termes traites par Nyse-Euronext:
MATIF (contrat notionnel 100.000 sur 10 ans, a 3.5, ), EURIBOR 3 mois, CONTRAT
CAC 40 (voir www.euronext.com si interesse...)

2.3.3. Marches derives: Produits optionnels


Les deux types de produits precedents peuvent etre traites de facon optionnelle, sur
des marches organises (type bourse) ou de gre a gre. Decrivons en le principe en
detail car cest sur ce type de produit que les mathematiques jouent un role essentiel,
depuis 1973 et lapport fondamental de Black, Scholes et Merton.
Limitons nous aux options sur les produits au comptant.

Definition 2.3.1 Une option Call est un contrat donnant a son detenteur le droit,
mais pas lobligation, dacheter un actif donne, appele le sous jacent ou le support,
a une date donnee si cest un Call europeen, et jusqua une date donnee si cest un
call Americain (cette date est appelee echeance ou maturite) et a un prix convenu a
lavance, appele prix dexercice (Strike en anglais).

Si lachat a lieu, on dit que lacheteur exerce son option. Puisquil nest pas oblige
de le faire ce contrat amene un gain qui est toujours positif. Il nest donc pas gratuit:
le contrat a un cout, appele la prime de loption. Le but de ce cours est de comprendre
comment on peut la calculer. On parle devaluation ou de pricing de loption.
Attention, ce contrat peut etre lui meme acheter ou vendu.

Definition 2.3.2 Loption Put est lanalogue en remplacant acheter par vendre.

On voit donc que lon peut acheter ou vendre un call ou un put.


Le marche des options sur actions existe de facon organisee depuis 1973 (Creation
a Chicago) aux Etas Unis et depuis 1987 a Paris (Creation du MONEP ou Marche
des Options Negociables de Paris). Le Monep a ete remplace par le Euronext-Liffe.
Le caractere americain ou europeen de loption na aucun rapport avec le pays. Par
exemple toutes les options du Euronext-Liffe sont americaines. Les options americaines
sont plus difficiles a evaluer et nous nous limiterons le plus souvent aux options eu-
ropeennes.
Appelons St le prix du sous jacent (Spot en anglais) a la date t. Soit T la date
decheance et K le prix dexercice. Le detenteur du Call europeen, a la date T a le
20 Introduction a levaluation en finance, Vocabulaire et produits

choix dacheter ou non le sous jacent, au prix K. Si ST > K, il achete donc K un


produit qui vaut ST , il recoit donc (eventuellement en revendant immediatement le
sous jacent) le jour T ,
ST K.
Par contre si ST K il ne fait rien et recoit donc dans ce cas
0.
On voit que de toute facon, il recoit
(ST K)+
appele le Pay-off du Call ou x+ = max(x, 0). Remarquons, que la valeur actualisee
aujourdhui (a la date 0) au taux dinteret continu r, de cette somme est
erT (ST K)+
De la meme facon, pour un Put europeen, le detenteur du Put recoit le jour T ,
(K ST )+ ,
et la valeur actualisee est
erT (K ST )+ .
Evidemment ces quantites sont inconnues a la date 0.
Pour une option americaine exercee au temps la valeur actualisee du Call est
er (S K)+
et celle du put
er (K S )+
le temps ne peut etre choisi quen fonction de linformation jusquau temps , donc
en un sens a preciser, un temps darret inferieur a T .
Il existe de tres nombreuses variantes, appelees souvent options exotiques. Elles
sont par exemple tres developpees dans les marches sur devises (FOREX). On pourrait
aussi citer les options binaires ou digitales. Ce sont elles qui justifient la grande activite
des mathematiques financieres en ce moment. Pour les aborder, il faut dabord bien
comprendre les cas classiques.

2.4. Utilite versus AOA


Dans les approches classiques de la finance, on cherchait a optimiser un gain (une
esperance) en minimisant le risque (une variance). Cest lapproche par lutilite.
Elle est basee sur la loi des grands nombres, qui ne sapplique pas pour les produits
derives car il na ya pas beaucoup de produits independants.
La grande nouveaute du pricing des produits derives est de remplacer cette theorie
par la theorie de labsence dopportunite darbitrage (AOA) qui est fondamentalement
differente. Cest celle ci que nous allons voir.
2.5 Le modele devaluation de base le plus simple 21

2.5. Le modele devaluation de base le plus simple


Le principe fondamental de labsence dopportunite darbitrage (AOA) apparait tres
simplement dans le cas caricatural dun actif ne prenant que deux valeurs. Cest ce
que nous allons expliquer dans cette courte section.
Le point essentiel a retenir tout de suite est quil ny a pas de probabilite dans
le modele et que lon va en un sens se couvrir contre tous les risques possibles.

2.5.1. Le modele
On suppose que le marche financier ne comporte que deux actifs:

Un placement sans risque de prix Bt a la date t (comme un livret depargne),

Une action de prix St (le spot),

et quil ny a que 2 dates: la date 0, aujourdhui et la date 1 (par exemple demain ou


dans 1 an).
Autrement dit t = 0 ou t = 1. Si r est le taux sans risque on peut supposer que,
pour % = 1 + r,
B1 = %B0
Donc B1 est connu au temps 0.On suppose aussi que S0 , le prix de laction aujourdhui
est connu mais que celui S1 de laction a la date 1, inconnu, ne peut prendre que 2
valeurs (deux etats du monde, en langage financier) de rendement b ou de rendement
h, autrement dit
S1 = bS0 , ou S1 = hS0
(le rendement etant par definition (S1 S0 )/S0 ). On considere une option dachat
(Call), de prix dexercice K = kS0 , avec lhypothese naturelle (pourquoi ?) que

b k h.

2.6. Portefeuille de couverture


On cherche a dupliquer le gain de cette option a laide dun portefeuille constitue de
parts des 2 actifs: Si on achete parts dactions et parts du placement sans risque,
on investit a linstant 0 la somme

V0 = S0 + B0 .

Cette quantite se sera transformee en

V1 = S1 + B1
22 Introduction a levaluation en finance, Vocabulaire et produits

a linstant 1. Si on investit la meme somme V0 dans lachat dune option Call, on


obtiendra a linstant 1 la somme

V1 = (S1 K)+ .

Le portefeuille duplique loption (on dit quil couvre loption) si il y a egalite, donc
si V1 = V1 , soit
S1 + B1 = (S1 K)+ .
En fait il y a deux cas suivant que S1 = hS0 ou S1 = bS0 et donc on obtient 2
equations
hS0 + B1 = (hS0 kS0 )+ = hS0 kS0
bS0 + B1 = (bS0 kS0 )+ = 0.
On resoud: par difference,

hk
=
hb
bS0
=
B1
dou
bB0 hk %b
V0 = S0 + B0 = S0 (1 )= ( )S0
B1 hb %
(noter que < 0, il correspond donc a un emprunt). On a donc trouve le prix
de loption, et en meme temps le portefeuille le repliquant: Meme, si cela parait
extremement elementaire, il est essentiel de remarquer quil ny a pas de probabilite
du tout; on est donc tres content car on est couvert contre tous les risques.

2.6.1. Interpretation probabiliste


Ces formules un peu compliquees peuvent sinterpreter intuitivement en imaginant
quil existe un espace de probabilite (, F, P) et que S1 est une v.a. telle que

P(S1 = hS0 ) = p, P(S1 = bS0 ) = q = 1 p

pour
%b h%
p= ,q = .
hb hb
Dans ce cas
(% b)h + (h %)b
E(S1 ) = phS0 + qbS0 = S0 = %S0
(h b)

et
%b
E((S1 K)+ ) = p(hS0 K) = (h k)S0 = %V0
hb
2.6 Portefeuille de couverture 23

On voit donc que

S0 = E(S1 /%), V0 = E((S1 K)+ /%)

qui sont des formules tres intuitives puisque elles indiquent que S0 et V0 sont les
esperances des prix des produits a linstant suivant, reactualises. Notons cependant
que ces esperances se font suivant une probabilite qui nest peut etre pas celle qui
regit levolution du sous jacent.

2.6.2. Univers risque neutre


Le caractere specifique du Call na pas joue de role dans ce qui precede. On aura par
exemple pour un Put

Prime du Put = E((K S1 )+ /%)

On voit donc quil existe un espace de probabilite (, F, P) pour lequel les prix a
la fois du spot et de beaucoup dautres produits se calculent par la formule

Prix Aujourdhui = E(Prix Demain) actualisee.

On appellera cet espace un univers risque neutre. Cest une sorte de monde virtuel
dans lequel les prix se calculent facilement. Dans les cas plus generaux nous chercherons
a fabriquer un analogue.
24 Introduction a levaluation en finance, Vocabulaire et produits
Chapitre 3

Rappels et complements
danalyse et de probabilite

3.1. Probabilites
Rappelons quelques resultats indispensables du calcul des probabilites.

3.1.1. Mesurabilite et variables aleatoires


Soit (, F, P) un espace de probabilite et (E, E) un ensemble muni dune tribu. Une
variable aleatoire
X:E
est, par definition, une application mesurable, cest a dire que {X A} F pour
tout A E.
Lorsque E = R ou Rd on sous entend quon le munit de la tribu borelienne.

Definition 3.1.1 On appelle variable aleatoire positive etagee, toute v.a. X secrivant
X = nk=1 ak 1Ak ou ak 0 et Ak F.
P

Lemme 3.1.2 Toute v.a. X 0 est limite croissante dune suite de v.a. etagees.

Preuve: On a par exemple X = limn+ Xn ou


n2 n
X k
Xn = 1 n
2n {k2 X<k+1}
k=0

Definition 3.1.3 Si {Xi , i I} est une famille dapplications a valeurs dans Rd


definies sur , on note (Xi , i I) la tribu engendreee par cette famille. Cest a dire
la plus petite tribu de contenant tous les ensembles {Xi A}, ou i I et A est un
borelien de Rd .
26 Rappels et complements danalyse et de probabilite

En particulier, pour une application X : Rd , (X) est exactement la classe des


ensembles {X A}, ou A est un borelien de Rd . De meme, la tribu engendree par
un ensemble de parties est la plus petite tribu les contenant. Nous aurons loccasion
dutiliser:

Lemme 3.1.4 Considerons une application X : Rd . Alors une application Z :


R est (X)-mesurable si et seulement si il existe une application borelienne
f : Rd R telle que Z = f (X).

Preuve: On ecrit
+
X k
Z = lim 1 n n (Z).
n+ 2n [k2 ,(k+1)2 [
k=

Puisque Z est (X)-mesurable, il existe un borelien An,k de Rd tel que

{Z [k2n , (k + 1)2n [} = {X An,k }

cest a dire tel que


1[k2n ,(k+1)2n [ (Z) = 1An,k (X)
On a alors Z = f (X) si
+
X k
h(x) = lim inf 1A (x).
n+ 2n n,k
k=

3.1.2. Classe monotone


Loutil sophistique pour traiter les tribus engendrees est le suivant:
Theoreme 3.1.5 (de la classe monotone) Soient C et M des ensembles de par-
ties de tels que C M. On suppose que
(i) C est stable par intersection finie (i.e. A, B C implique A B C).
(ii) M est stable par difference propre (i.e. A, B M et A B implique B \ A
M).
(iii) M est stable par limite croissante (i.e. An M et An An+1 implique
An M).
(iv) est dans M.
Alors (C) est contenu dans M.

3.1.3. Independance et esperance conditionnelle


Rappelons que des tribus F1 , , Fn sont independantes si

P(A1 A2 An ) = P(A1 )P(A2 ) P (An )

pour tous A1 F1 , An Fn . Des v.a. X1 , , Xn sont independantes si les tribus


(X1 ), , (Xn ) le sont.
3.2 Projection dans un Hilbert 27

Lemme 3.1.6 (Lemme de regroupement) Si (X1 ), , (Xn ) sont independantes


et n1 < n2 < nk , alors les v.a.
Zr = (Xnr , Xnr +1 , , Xnr+1 1 )
sont independantes.
Preuve: La preuve utilise le theoreme de la classe monotone. 
Il resulte par exemple de ce lemme que si X1 , X2 , X3 sont independantes, alors
X1 + X2 est independant de cos(X3 ). Deux v.a. X, Y sont independantes si
E(f (X)g(Y )) = E(f (X))E(g(Y ))
pour tout f, g mesurables positives.
La proposition suivante est tres importante:
Proposition 3.1.7 Si X, Y sont deux variables aleatoires independantes, X a valeurs
dans (E1 , E1 ), et Y a valeurs dans (E2 , E2 ), pour tout F : E1 E2 R mesurable
positive, Z Z
E(F (X, Y )) = F (X(), Y ( 0 )) dP() dP( 0 )

Preuve: Notons en general Z la loi dune v.a. Z : (E, E), qui est la probabilite
sur E definie par
Z (A) = P(Z A)
pour tout A de E. Dire que X et Y sont independantes est equivalent a dire que
(X,Y ) (A B) = P(X A, Y B) = P(X A)P(Y B) = X (A)Y (B),
cest a dire exactement que (X,Y ) est egal a la mesure produit X Y . Lenonce
du lemme est donc une consequence du theoreme de Fubini. 

3.2. Projection dans un Hilbert


Definition 3.2.1 Un espace de Hilbert est un espace vectoriel muni dun produit
scalaire qui est un espace de Banach (i.e. un espace norme complet) pour la norme
associee.
La propriete fondamentale dun espace de Hilbert est quon peut y definir la projec-
tion orthogonale sur un convexe ferme: rappelons dabord quun convexe est un sous
ensemble C tel que, si x, y C, x + (1 )y C, pour tout tel qie 0 1.
Theoreme 3.2.2 Soit C un convexe ferme dun espace de Hilbert H. Pour tout
x H, il existe un unique v C, appele projection orthogonale de x sur C tel que
kx vk = inf{kx zk, z C}.
Lorsque C est un sous espace vectoriel ferme, il est caracterise par les deux proprietes,
(i) v V ; (ii) pour tout w C, hx v, wi = 0.
28 Rappels et complements danalyse et de probabilite

Preuve: Posons D = inf{kx vk, v C}. Pour tout n N, il existe vn C tel que
1
kx vn k2 D2 +
n
Montrons que (vn ) est une suite de Cauchy. Nous allons utiliser legalite suivante (dite
du parallelogramme), immediate a verifier en developpant (mais propre aux Hilberts)

ka bk2 + ka + bk2 = 2(kak2 + kbk2 ).

On a en prenant a = vn x, b = vm x

kvn vm k2 + kvn + vm 2xk2 = 2(kvn xk2 + kvm xk2 )

que lon ecrit


vn + vm
kvn vm k2 = 2kvn xk2 + 2kvm xk2 4k xk2
2
On a k vn +v
2
m
xk D2 car (vn + vm )/2 C on en deduit que, si m n,
1 1
kvn vm k2 2(D2 + ) + 2(D2 + ) 4D2 2/n.
n m
La suite vn est donc de Cauchy et on verifie que sa limite v est le point cherche.

Corollaire 3.2.3 Sur un espace de Hilbert H, pour toute forme lineaire continue f
il existe z H tel que f (x) = hx, zi pour tout x H.

Preuve: Si f est identiquement nulle, prendre z = 0. Sinon, on appliquer le theoreme


au sous espace V = f 1 (0) et a un x H tel que f (x) 6= 0: il existe z V tel que
f (y) = 0 entraine que hx z, yi = 0. Posons w = x z. Alors, pour tout y H,
y ff(w)
(y)
w V donc hy, wi = ff(w)
(y) f (w)
hw, wi et f (y) = hy, vi pour v = hw,wi w.

3.3. Theoreme de Radon Nikodym


Definition 3.3.1 Etant donne deux mesures et sur (, F) on dit que est
absolument continue par rapport a si pour tout A F, (A) = 0 entraine que
(A) = 0, et que est equivalente a si pour tout A F, (A) = 0 si et seulement
si (A) = 0.

Definition 3.3.2 Soient et deux mesures sur un espace (, F) et f : R+


mesurable. On dit que a la densite par rapport a si, pour tout A F,
Z
(A) = d.
A

d
On note souvent = d et on ecrit que d = d.
3.3 Theoreme de Radon Nikodym 29

Theoreme 3.3.3 (Radon Nikodym) On considere deux probabilites et sur


(, F). Alors est absolument continue par rapport a si et seulement si a une
densite par rapport a .
Preuve: Soit = + , pour tout f de L2 (), par Cauchy Schwartz,
Z Z Z Z Z
| f d| |f |d |f |d ( |f | d) ( 1d)1/2
2 1/2

On definit ainsi une forme lineaire sur le Hilbert H = L2 (, F, ). Cest donne par
un produit scalaire: il existe H tel que pour tout f de L2 ()
Z Z
f d = hf, iH = f d

donc Z Z
f (1 )d = f d.
Prenons f = 1{1} , alors
Z Z
0 1{1} (1 )d = 1{1} d { 1}

Donc < 1, -p.s. et donc aussi -p.s. par absolue continuite. En prenant f = 1{<0}
on a Z Z
0 1{<0} (1 )d = 1{<0} d 0
donc 0, et p.s. Pour tout n N,
Z Z Z
n+1
f (1 )d = f (1 + + + )(1 )d = f (1 + + + n )d
n

Quand n +, avec les 2 thm de Lebesgue


Z Z

f d = f d
1
d
il suffit donc de poser d = 1 . 

Rappelons quune mesure m sur (, F) est dite -finie si il existe une suite An
delements de F telle que nN An = et m(An ) < .
Lemme 3.3.4 Une mesure -finie est equivalente a une probabilite.
1
Preuve: Supposons que m est une mesure -finie. On pose n = 2n (1+m(An )) et
X
f= n 1An
n0
n
R P
Cette fonction est strictement positive et a := f dm n0 2 < . La mesure
m est equivalente a la probabilite a1 f dm.

On en deduit que:
Proposition 3.3.5 Le theoreme de Radon Nikodym est vrai pour les mesures -finies
30 Rappels et complements danalyse et de probabilite

3.4. Esperance conditionnelle


Dans un espace (, A, P) si F est une sous tribu de A, lespace L2 (, F, P) est un sous
espace vectoriel ferme de L2 (, A, P). Lesperance conditionnelle de X L2 (, A, P)
sachant F est par definition la projection de X sur L2 (, F, P). On montre que cette
notion setend aux v.a. positives et que :

Proposition 3.4.1 Soit X une v.a. positive, et G une sous tribu de F. Lesperance
conditionnelle E(X|G) est caracterisee comme lunique (classe de) v.a. Z qui a les
deux proprietes suivantes
(i) Z est G-mesurable.
(ii) Pour tout ensemble G-mesurable A, E(1A Z) = E(1A X).

Soit X une v.a. telle que E(|X||G) < +, p.s.. Alors Z = E(X + |G) E(X |G)
est notee aussi Z = E(X|G).

Proposition 3.4.2 [Un resultat fondamental] Si X est G mesurable et Y est independant


de G et 0, alors
Z
E((X, Y )|G)() = (X(), Y ( 0 )) dP( 0 )

ce que lon peut ecrire aussi E((x, Y )) pour x = X().

Preuve: Par Fubini, on sait que lapplication x 7 E((x, Y )) est mesurable. Donc
Z() = E((X(), Y )) est G-mesurable, puisque cest une fonction mesurable de X,
lui meme G-mesurable. Si A G, les deux v.a. (1A , X) et Y sont independantes.
Donc, en appliquant la proposition 3.1.7,
Z Z
E((X, Y )1A )) = (X(), Y ( 0 )1A () dP() dP( 0 )

Z Z
= [ (X(), Y ( 0 )1A () dP( 0 )] dP() = E(Z1A )

par Fubini. On a donc bien que Z = E((X, Y )|G) par la propriete caracteristique
rappelee au dessus. 

3.4.1. Un theoreme de Bayes


On se donne un espace (, F) muni de deux probabilites P et Q et G une sous tribu
de F.
Proposition 3.4.3 On suppose que dQ = Z dP. Alors, en notant E lesperance par
rapport a P et EQ lesperance par rapport a Q. Pour toute v.a. Y 0,
E(Y Z|G)
EQ (Y |G) = .
E(Z|G)
3.4 Esperance conditionnelle 31

Z|G)
Preuve: La fonction X = E(Y
E(Z|G) est G-mesurable et, pour toute v.a. G-mesurable
bornee U
EQ (XU ) = E(XU Z) = E(XU E(Z|G))
= E(E(Y Z|G)U ) = E(Y ZU ) = EQ (Y U )
32 Rappels et complements danalyse et de probabilite
Chapitre 4

Calcul stochastique a temps


discret

4.1. Filtration
Une filtration {Fn , n 0} sur un espace est une suite de tribus sur telles que
Fn Fn+1 , pour tout n 0. Pour nous, n representera le temps, et Fn linformation
que lon possede au temps n. Eventuellement on notera F = (Fn , n 0).

Une suite Xn , n 0, est dite adaptee a la filtration {Fn , n 0} si Xn est Fn -


mesurable. Elle est dite previsible si Xn est Fn1 -mesurable pour n > 0.

Un temps darret de la filtration {Fn , n 0} est une application : N{+}


telle que n Fn , pour tout n 0.

La tribu F = {A; A { n} Fn } est appelee la tribu des evenements


anterieurs a .

Lemme 4.1.1 Si est un temps darret, pour toute v.a. X 0,

E(X|F )1{ =n} = E(X|Fn )1{ =n} .

Preuve: Il nous faut montrer, puisque { = n} F que

E(1{ =n} X|F ) = 1{ =n} E(X|Fn ).

On utilise la propriete caracteristique de lesperance conditionnelle ??: la v.a. Z =


1{ =n} E(X|Fn ) est F -mesurable et pour toute v.a. U positive, F -mesurable, puisque
U 1{ =n} est Fn -mesurable,

E(U Z) = E(U 1{ =n} E(X|Fn )) = E(U 1{ =n} X)

donc Z = E(1{ =n} X|F ).


34 Calcul stochastique a temps discret

4.2. Martingales
On considere (, (Fn ), P) un espace de probabilite filtre.

Definition 4.2.1 Une famille Mn n N, est une martingale si Mn L1 , (Mn ) est


adapte et
E(Mn |Fn1 ) = Mn1 , pour tout n 1.
Si on seulement E(Mn |Fn1 ) Mn1 , on dit que M est une sous martingale.

Si M est une (ss)-martingale sur (, (Fn ), P), ca lest aussi pour la filtration
naturelle Fn0 = (Mk , k n). Si on dit que M est une martingale sans faire reference
a une tribu on sous entend que cest une martingale pour (Fn0 ).
Exemple fondamental: Soit X L1 . On pose Xn = E(X|Fn ). On a, pour s < t,

E(Xn |Fn1 ) = E(E(X|Fn )|Fn1 ) = E(X|Fn1 ) = Xn1

et Xn est une martingale.

Proposition 4.2.2 Soit X1 , X2 , des variables aleatoires independantes dans L1


n 0. Alors Mn = X1 + + Xn est une martingale.
telles que E(Xn ) = 0, pour toutP
Si les Xn sont dans L , Mn nk=1 E(Xk2 ) est une martingale.
2 2

Preuve: Facile

Proposition 4.2.3 Si Mn une martingale, |Mn |, est une sous martingale.

Preuve: On a E(|Mn ||Fn1 ) |E(Mn |Fn1 )| = |Mn1 |.

4.3. Lintegrale stochastique discrete


Donnons nous un espace probabilise muni dune filtration (, (Fn )n , P). Si Xn et Mn
sont deux suites relles, on pose, (X ? M )0 = 0 et pour n 1,

Mn = Mn Mn1

et
n
X
(X ? M )n = Xk Mk .
k=1

Definition 4.3.1 X ? M est lintegrale de X par rapport a M .

Lemme 4.3.2 Pour toutes suites (Xn ), (Yn ), (Mn ) on a (X ? M ) = XM et

X ? (Y ? M ) = XY ? M.
4.3 Lintegrale stochastique discrete 35

Une interpretation utile de lintegrale est la suivante: si Mn est le resultat dune


experience aleatoire representant le gain dun joueur au temps n qui aurait mise 1eau
temps n, alors: (X ? M )n est le gain total obtenu apres n parties, lorsque le joueur
mise Xn au temps n (par exemple pour Xn = 2n ceci revient a doubler sa mise a
chaque fois). Dans ce contexte, le theoreme suivant est eclairant:

Theoreme 4.3.3 Si M est une martingale et X un processus previsible tel que


XM L1 , alors X ? M est une martingale. Si M est une sous martingale et
X positif alors X ? M est une sous martingale

Preuve: Si M est une martingale, Il suffit de remarquer que

E((X ? M )n |Fn1 ) = E(Xn Mn |Fn1 ) = Xn E(Mn |Fn1 ) = 0.

le cas sous martingale est similaire. 


Etant donne un processus (Mn ) et : N {+} on appelle processus arrete
en le processus M defini par

Mn = M n ,

ou n = min(, n).

Theoreme 4.3.4 (Theoreme darret) Si M est une sous martingale (resp. mar-
tingale) et M un temps darret, alors M est une sous martingale (resp. martingale).

Preuve: Prenons Xn = 1{n } ou : N{+} (qui correspond a la strategie=miser


1 jusquau temps ). Alors X est previsible si et seulement si est un temps darret.
De plus dans ce cas
X ? M = M

Il suffit donc dappliquer le theoreme precedent.

Corollaire 4.3.5 Soient {Mn , n N} une (sous) martingale, et deux temps


darret. On suppose que est borne. Alors

E(M | F ) M

avec egalite dans le cas dune martingale

Preuve: Si est borne par la constante r > 0, puisque M est une sous martingale,
on peut ecrire que, sur { = n},

E(M | F ) = E(Mr | Fn ) Mrn



= M
36 Calcul stochastique a temps discret

4.4. Un theoreme de Doob


Theoreme 4.4.1 Soit Mn , n N, une sous-martingale positive. Pour tout a > 0,

aP( max Mk a) E(Mn 1{max0kn Mk a} ).


0kn

De plus
E(Mn )
P( max Mk a)
0kn a
et
E( max Mk2 ) 4E(Mn2 ).
0kn

Preuve: Soit = inf{k 0; Mk a}. On a {max0kn Mk a} = { n} et

E(Mn 1{ n} ) = E(E(Mn |F )1{ n} ) E(Mn 1{ n} )

= E(M 1{ n} ) aP( n)
ce qui donne la premiere inegalite. La suivante en decoule immediatement. Ensuite,
ecrivons que
Z Z
aP( max Mk a) da E(Mn ; max Mk a) da
0 0kn 0 0kn

Avec Fubini ceci secrit, si on pose S = max0kn Mk


Z max0kn Mk Z max0kn Mk
E( a da) E(Mn da)
0 0

donc
1
E(( max Mk )2 ) E(Mn max Mk )
2 0kn 0kn

En appliquant Cauchy Schwarz on obtient


1
E(( max Mk )2 ) E(Mn2 )1/2 E(( max Mk )2 )1/2
2 0kn 0kn

ce qui donne le resultat, puisque M etant positive, max0kn Mk2 = (max0kn Mk )2 .




Corollaire 4.4.2 Si (Mn ) est une martingale,

1
P( max |Mk | a) E(|Mn |)
0kn a
4.5 Martingale continue a droite 37

Preuve: On applique ce qui precede a la sous martingale positive |Mn |.


Remarquons lanalogie avec linegalite de Markov:

Proposition 4.4.3 (Inegalite de Markov) Pour toute v.a. positive X et a > 0,

E(X)
P(X a) .
a

qui sobtient immediatement en remarquant que 1{Xa} X/a.

Corollaire 4.4.4 (Inegalite de Doob) Si Mn , n N, est une martingale

E( max Mk2 ) 4E(Mn2 ).


0kn

Preuve: On applique le theoreme precedent a la sous martingale |Mn |.

4.5. Martingale continue a droite


Si Mt , t R+ , est un processus a trajectoires continues a droite, on a

sup Mt = lim sup M kTn .


0tT n+ 0k2n 2

En appliquant le Theoreme 4.4.4 a la sous martingale Xk = M kTn et legalite


2

{ sup Mt > a} = nN { sup M kTn > a}


0tT 0k2n 2

on obtient immediatement:

Theoreme 4.5.1 (Inegalites de Doob) Soit Mt , t R+ , une sous-martingale con-


tinue a droite positive. Pour tout a > 0,

aP( sup Mt a) E(MT 1{sup0tT Mt a} ) E(MT )


0tT

De plus
E( sup Mt2 ) 4E(MT2 ).
0tT

Puisque la valeur absolue dune martingale est une sous martingale, on en deduit le
corollaire absolument fondamental pour la suite:

Corollaire 4.5.2 Si M est une martingale continue a droite

E( sup Mt2 ) 4E(MT2 ).


0tT
38 Calcul stochastique a temps discret

Deduisons un convergence de theoreme de martingales (il en existe dautres, par


exemple pour les martingales positives).

Theoreme 4.5.3 Une martingale continue a droite (Mt ) telle que

sup E(Mt2 ) < +


t0

converge p.s. et dans L2 lorsque t +.

Preuve: Puisque Mt2 est une sous martingale, E(Mt2 ) est une fonction croissante.
Par hypothese, elle est bornee. Donc elle converge lorsque t +. On en deduit
que, pour tout > 0, il existe N tel que, si s, t N

E((Mt Ms )2 ) = E(Mt2 ) E(Ms2 ) <

lorsque s, t +. La suite Mn est donc de Cauchy dans L2 , elle converge vers une
v.a. M . En faisant tendre t + suivant les entiers on voit, par Fatou, que

E((M Ms )2 ) <

donc Ms M dans L2 . Si on applique linegalite de Doob a la martingale Nt =


Ms+t Ms on obtient

E(sup(Mt+s Ms )2 ) 4E((MT +s Ms )2 ) 4
tT

pour tout T 0, donc


E(sup(Mt+s Ms )2 ) 4.
t0

Il en resulte en ecrivant que

(Mt+s M )2 2(Mt+s Ms )2 + 2(Ms M )2

que
E(sup(Mt+s M )2 ) 16.
t0

Il existe donc une sous suite ni telle que, p.s., supt0 (Mt+ni M ) 0, ce qui
entraine que Mt M , p.s. 
On aurait aussi lanalogue du theoreme darret, que nous ne demontrons pas:

Corollaire 4.5.4 Soient {Mt , n N} une (sous) martingale continue a droite et


deux temps darret. On suppose que est borne. Alors

E(M | F ) M
4.6 Martingale locale 39

4.6. Martingale locale


Revenons au cas du temps discret. Attention quen temps continu la situation sera
plus compliquee. On fixe un espace de probabilite filtre (, Fn , n N, P).

Definition 4.6.1 1. Une martingale generalisee est une suite adaptee Mn telle que
E(|Mn ||Fn1 ) < + et E(Mn |Fn1 ) = Mn1 .
2. Un processus adapte M est une martingale locale si il existe une suite n crois-
sante de temps darret tels que M n M0 soit pour chaque n une martingale et
n +, p.s.

Theoreme 4.6.2 On considere un processus adapte a temps discret {Mn , n 0}.


Les conditions suivantes sont equivalentes:

a) M est une martingale locale,

b) M est une martingale generalisee,

c) M M0 est une integrale stochastique par rapport a une martingale, i.e. M = X?V
pour une martingale V et un processus previsible X, fini p.s.

d) M M0 est une integrale stochastique par rapport a une martingale locale, i.e.
M = X ? V pour une martingale locale V et un processus previsible X fini p.s.

Preuve: Remarquons que Mn est un martingale generalisee ssi Mn M0 lest. Sans


perte de generalite, on peut supposer que M0 = 0 pour montrer le theoreme.
a = b: Sur {k > n} Fn , M k etant une martingale,
k
E(|Mn+1 ||Fn ) = E(|Mn+1 ||Fn ) < +

et
k
E(Mn+1 |Fn ) = E(Mn+1 |Fn ) = Mn ,
puisque, p.s., = kN {k > n} on en deduit que M est une martingale generalisee.
b = c: Si M est une martingale generalisee, posons

Akn = {E(|Mn ||Fn1 ) k}

Alors X
Un = 2k 1Akn
k0

est strictement positif p.s. et previsible. On verifie que V = U ?M est une martingale:
en ecrivant que Vn = Un Mn on a

E(|Vn |) = E(E(Un |Mn ||Fn1 ) = E(Un E(|Mn ||Fn1 ))


40 Calcul stochastique a temps discret

X X
2k E(1Akn E(|Mn ||Fn1 )) 2k k < +
k0 k0

et,
E(Vn |Fn1 ) == E(Un E(Mn |Fn1 )) = 0
car E(Mn |Fn1 ) = 0. Puisque

1
M= ? (U ? M )
U
on a bien la representation avec X = 1/U .
c = a: Si M = X ? V ou V est une martingale, posons

k = inf{n 0; |Xn+1 | > k};

cest une suite de temps darret croissante vers + car X est previsible. On a
n
X
Mnk = 1{rk } Xr Vr
r=1

qui est une martingale.


c = d est evident,
d = a: Si M = X ? V pour une martingale locale V , par c) applique a V ,
il existe une martingale W et un processus previsible Z tels que V = Z ? W . Alors
M = X ? (Z ? W ) = (XZ) ? W , donc M est une martingale locale (puisque c = a).

Lemme 4.6.3 Soit Mn , 0 n N , une martingale locale. Si MN est integrable,


alors Mn , 0 n N , est une martingale.

Preuve: On a MN 1 = E(MN |FN 1 ) puisque Mn est une martingale generalisee.


Donc
E(|MN 1 |) E(E(|MN ||FN 1 )) = E(|MN |) < +
par recurrence chaque Mn est integrable, ce qui montre que cest une martingale.

Proposition 4.6.4 Soit Mn , 0 n N , une martingale locale positive. Alors, pour


tout n p N,
E(Mn |Fp ) = Mp < +.
Cest une martingale si et seulement si M0 est integrable.

Preuve: Mn est une martingale generalisee. Si Mn 0,

E(Mn |Fn2 ) = E(E(Mn |Fn1 )|Fn2 ) = E(Mn1 |Fn2 ) = Mn2

etc...
4.6 Martingale locale 41

Il faut faire attention au fait suivant: pour une martingale generalisee il se peut
que E(|Mn ||Fnk ) = + pour k > 1 et donc E(Mn |Fnk ) peut ne pas etre egal a
Mnk . A cause de cette remarque la notion de martingale locale sera beaucoup plus
delicate en temps continu.
Exemple: Prenons F0 = {, }, F1 = (X), F2 = (X, Y ), ou X et Y sont
independantes avec Y L1 , E(Y ) = 0 et X 0 fini, tel que E(X) = +. Alors
la suite M0 = 0, M1 = 0, M2 = XY est une martingale locale car

E(|XY ||F1 ) = |X|E(|Y ||F1 ) = |X|E(|Y |) < +

et
E(XY |F1 ) = XE(Y |F1 ) = XE(Y ) = 0
alors que E(|XY ||F0 ) = E(|XY |) = E(|X|)E(|Y |) = +.
42 Calcul stochastique a temps discret
Chapitre 5

Controle stochastique a horizon


fini

Le but de ce chapitre est de presenter lalgorithme clef du controle stochastique a hori-


zon fini en temps discret: lalgorithme de la programmation dynamique. Nous com-
mencerons par presenter le cadre du controle des systemes deterministes et stochas-
tiques. Ensuite nous decrirons cet algorithme. Enfin nous presenterons un certain
nombre dexemples.

5.1. Systemes dynamiques a temps discret


5.1.1. Systeme dynamique controle deterministe
On considere un systeme evoluant avec le temps, le temps etant discret, represente
par un entier n = 0, 1, . Son etat a linstant n est represente par un element xn dun
espace E. On dit que ce systeme est regi par un systeme dynamique (deterministe)
si il existe pour tout entier n N une fonction fn : E E telle que

xn+1 = fn (xn ).

La connaissance de letat a un instant suffit pour decrire son evolution future. Par
exemple, on peut modeliser ainsi un systeme mecanique simple et son etat peut etre
le vecteur position-vitesse.
Imaginons maintenant que lon peut a chaque instant agir sur ce systeme. Levo-
lution se decrit alors par
xn+1 = fn (xn , un )
ou un , a valeurs dans un ensemble C, est un parametre de controle que lon peut
choisir, a linstant n, pour modifier levolution du systeme. On dit que lon a un
systeme dynamique deterministe controle. Par exemple, si xn represente letat dune
fusee, un peut etre la quantite de carburant que lon injecte dans le moteur a linstant
n. On parle aussi de commande a la place de controle.
44 Controle stochastique a horizon fini

5.1.2. Systeme dynamique aleatoire


Considerons maintenant un systeme soumis a des perturbations aleatoires {n , n N}
definies sur un espace de probabilite (, F, P) a valeurs dans un ensemble W , muni
dune tribu W. Commencons par considerer un systeme dynamique non controle. A
cause des perturbations aleatoires, letat est une variable aleatoire que lon notera
Xn , a valeurs dans E muni dune tribu E. Lequation devolution est de la forme

Xn+1 = n (Xn , n ), n N (5.1)

ou n : E W E est mesurable. Supposons que les variables aleatoires {n , n N}


sont independantes et de meme loi et independantes de letat initial X0 , on dit alors
que lon a un systeme dynamique aleatoire. Posons, pour x E et A E,

Pn (x, A) = P(n (x, n ) A) = {w W ; n (x, w) A}.

Definition 5.1.1 On appelle probabilite de transition ou noyau de transition sur


(E, E) une famille
P (x, A), x E, A E,
telle que
Pour tout x E, A 7 P (x, A) est une probabilite sur (E, E).
Pour tout A E, x
7 P (x, A) est mesurable.

On voit donc que chaque Pn defini plus haut est une probabilite de transition.

Definition 5.1.2 Etant donne une suite (Pn ) de probabilites de transition sur (E, E),
une suite de variables aleatoires Xn , n 0, a valeurs dans E est appelee chane de
Markov inhomogene si pour tout A E et n N,

E(1A (Xn+1 )|(X0 , Xn )) = Pn (Xn , A).

Si Pn ne depend pas de n on dit que Xn est une chane de Markov.

Lorsque Xn est une chaine de noyau Pn on notera

E(1A (Xn+1 )|Xn = x) = Pn (x, A),

meme si P(Xn = x) = 0. Cest donc seulement une notation.

Proposition 5.1.3 La suite {Xn , n N} definie par (5.1) est une chane de Markov
inhomogene de probabilites de transition (Pn ).

Preuve: Remarquons par recurrence que Xn est une fonction de X0 , 0 , , n1 .


Cest clair pour n = 0 et si Xn = fn (X0 , 0 , , n1 ) alors

Xn+1 = n (Xn , n ) = n (fn (X0 , 0 , , n1 ), n ).


5.1 Systemes dynamiques a temps discret 45

On en deduit que n est independant de (X0 , , Xn ). Comme Xn est trivialement


mesurable par rapport a cette tribu, on peut appliquer le resultat fondamental sur
lesperance conditionnelle (Proposition 3.4.2), pour ecrire que

E(1A (Xn+1 )|(X0 , Xn ))() = E(1A (n (Xn , n ))|(X0 , Xn ))() =

= E(1A (n (Xn (), n )) = Pn (Xn (), A). 


En fait, on peut montrer que la reciproque de cette proposition est aussi vraie...
Mais nous ne lutiliserons pas. Lavantage de la formulation avec les chaines de
Markov est que lon na pas besoin de definir les n , ce qui peut simplifier la phase
de modelisation.

Introduisons limportante notation suivante: si P est une probabilite de transition


sur E et f : E R+ est mesurable on pose, pour x E,
Z
P f (x) = f (y) P (x, dy).
E

Proposition 5.1.4 Si Xn est une chane de Markov inhomogene de noyaux


(Pn ), pour f : E R+ mesurable,si pour tout A E et n N,

E(f (Xn+1 )|(X0 , Xn )) = Pn f (Xn ).

Preuve: Lorsque f P = 1A cest la definition. Par linearite, ceci reste vrai pour une
fonction etagee f = nk=1 ak 1Ak , puis en utilisant le theoreme de Lebesgue monotone,
pour toute fonction mesurable positive (car elle est limite croissante dune suite de
fonctions etagees)
La encore, on notera

E(f (Xn+1 )|Xn = x) = Pn f (x),

meme si P(Xn = x) = 0.

5.1.3. Systeme dynamique controle aleatoire


Considerons maintenant le cas dun systeme dynamique controle perturbe par la suite
(n ). On a alors, pour tout n N

Xn+1 = n (Xn , Un , n ), n N

ou
n : E C W E
et ou Un est un controle eventuellement aleatoire, a valeurs dans un ensemble C muni
dune tribu C et n est mesurable. Interpretant lindice n comme un indice de temps,
nous demandons que Un soit une fonction mesurable de (X0 , , Xn ), autrement dit
le choix de Un se fait au plus tard a linstant n et sans connaitre le futur.
46 Controle stochastique a horizon fini

Definition 5.1.5 On dit que {Un , n N } est une suite de controles si, pour tout
n 0, Un est (X0 , , Xn )-mesurable, ou, ce qui est equivalent, si il existe une
suite dapplications mesurables n : E n+1 C telles que

Un = n (X0 , , Xn ).

La suite dapplications = {n , n 0}, sappelle une strategie ou une politique


(mot franglais de langlais policy).
Resumons: On a acces a linstant n a letat Xn . En fonction de cet etat, et des
precedents, on peut prendre le controle Un , ce qui va nous aider a realiser un but.
Par contre n , lui, nest pas Xn -mesurable: on ne le connait pas a linstant n, et
cest une perturbation qui va plutot nous gener. Comme dans le cas dun systeme
aleatoire, on va avoir interet a se donner un cadre abstrait pour decrire cette situation.
Commencons par un calcul.
(u)
Proposition 5.1.6 Posons Pn (x, A) = P(n (x, u, n ) A), pour x E, u
C, A E et n 0. Alors

E(1A (Xn+1 )|(X0 , Xn )) = Pn(Un ) (Xn , A).

Preuve: La preuve est similaire a celle de la Proposition 5.1.3: par recurrence (Xn , Un )
est (X0 , 0 , , n1 )mesurable. Donc (Xn , Un ) est (X0 , , Xn )-mesurable alors
que n est independant de cette tribu. On peut appliquer la Proposition 3.4.2 pour
ecrire que

E(1A (Xn+1 )|(X0 , Xn ))() = E(1A (n (Xn , Un , n ))|(X0 , Xn ))() =

= E(1A (n (Xn (), Un (), n )) = PnUn () (Xn (), A). 


Ceci nous amene a un cadre general:

Definition 5.1.7 On appelle modele markovien controle une famille

Pn(u) (x, A), n N, u C, x E, A E


(u)
de probabilites de transition sur E telle que pour A E, (x, u) 7 Pn (x, A) est
mesurable.
(u)
Lorsque Pn (x, A) ne depend pas de n et on le notera simplement P (u) (x, A).
Etant donne un modele markovien controle, on associe a toute strategie = (0 , 1 , )
un processus Xn de la facon suivante: X0 est arbitraire. Conditionnellement a

(X0 , , Xn ),

la v.a. Xn+1 suit la loi P (Un ) (Xn , .), ou Un = n (X0 , , Xn ), ce qui signifie precisement
que
E (1A (Xn+1 )/(X0 , , Xn )) = Pn(Un ) (Xn , A). (5.2)
5.1 Systemes dynamiques a temps discret 47

pour tout A de E. Ceci est bien defini car Un ne depend que de X0 , , Xn . On


notera Px la loi de ce processus lorsque X0 = x avec probabilite 1, pour mettre en
evidence la dependance par rapport a la strategie (). On utilisera la notation Ex
pour lesperance. Exactement comme dans la proposition 5.1.4, on a

Lemme 5.1.8 Pour toute fonction f : E R mesurable et positive ou bornee,

Ex (f (Xn+1 )|(X0 , , Xn )) = Pn(Un ) f (Xn ).

Ces proprietes definissent completement la loi du processus Xn , comme le montre


la proposition suivante.

Proposition 5.1.9 Si : E n R+ est mesurable

Ex0 ((X1 , X2 , , Xn )) =
Z Z Z
(x ) (x ,x ) n1 (x0 , ,xn1 )
(x1 , , xn )P0 0 0 (x0 , dx1 )P1 1 0 1 (x1 , dx2 ) Pn1 (xn1 , dxn ).
E E E

Preuve: Par recurrence sur n. Par le theoreme de la classe monotone il suffit de


montrer ce resultat lorsque est une fonction produit cest a dire du type

(X1 , X2 , , Xn ) = f1 (X1 ) fn (Xn ).

On sait (cf Lemme 5.1.8) que


(U )
Ex (fn (Xn )|(X0 , , Xn1 )) = Pn1n1 fn (Xn1 ).

On a donc

Ex ((X1 , X2 , , Xn )) = Ex [Ex (f1 (X1 ) fn (Xn )|(X0 , , Xn1 ))]

= Ex [f1 (X1 ) fn1 (Xn1 )Ex (fn (Xn )|(X0 , , Xn1 ))]
h i
(U )
= Ex f1 (X1 ) fn1 (Xn1 )Pn1n1 fn (Xn1 )

Supposons donc que la proposition soit vraie au rang n 1 et appliquons la a la


fonction
n1 (x0 ,x1 , ,xn1 )
g(x1 , , xn1 ) = f1 (x1 ) fn1 (xn1 )Pn1 fn (xn1 ).

On obtient
Ex ((X1 , , Xn1 , Xn )) =
Z Z
un1 (x0 ,x1 , ,xn1 ) u (x ) u (x ,x )
f1 (x1 ) fn1 (xn1 )Pn1 fn (xn1 )P0 0 0 (x0 , dx1 )P1 1 0 1 (x1 , dx2 )

u n1 (x0 , ,xn2 )
Pn1 (xn2 , dxn1 )
48 Controle stochastique a horizon fini

donc ce que lon cherche puisque


Z
un1 (x0 ,x1 , ,xn1 ) un1 (x0 ,x1 , ,xn1 )
Pn1 fn (xn1 ) = fn (xn )Pn1 (xn1 , dxn ). 

Si E est denombrable, pour tout noyau de transition P , on pose pour x, y E,

P (x, y) = P (x, {y}).

La proposition precedente se simplifie dans ce cas:

Lemme 5.1.10 Si E est denombrable,

(u0 ) (u1 ) (u )
P()
x (X0 = x, X1 = x1 , , Xn = xn ) = P0 (x, x1 )P1 n1
(x1 , x2 ) Pn1 (xn1 , xn ),

ou u0 , u1 , sont les valeurs de U0 , U1 , lorsque X0 = x, X1 = x1 , .

5.1.4. Strategies markoviennes


Par definition une suite de controle (Un ) est telle que chaque Un est une fonction
de X0 , , Xn . Nous allons voir quon peut le plus souvent se restreindre au cas ou,
pour tout n, Un ne depend en fait que de Xn seulement, cest a dire secrit sous la
forme
Un = n (Xn )

ou n : E C. On parle parfois de controle en feedback (ou closed loop) pour insister


sur le fait quil depend de letat.

Definition 5.1.11 On appelle strategie markovienne une telle suite dapplications


n : E C. Si n ne depend pas de n on lappelle strategie stationnaire.

Proposition 5.1.12 Si le controle (Un ) est defini par la strategie markovienne (n )


(cest a dire Un = n (Xn )) alors Xn est une chane de Markov inhomogene de prob-
abilites de transition
Pn (x, A) = Pn(n (x)) (x, A)
(u)
Si ni n , ni Pn (x, A) ne dependent de n alors Xn est une chane de Markov.

Notation: Si : E C est une application on posera

Pn (x, A) = Pn((x)) (x, A).


5.2 Programmation dynamique 49

5.2. Programmation dynamique


Considerons un modele markovien controle. Un entier N etant fixe, appele parfois
horizon, on cherche a choisir une suite de controles U0 , , UN 1 de facon a minimiser
un cout. Ce cout est choisi de la forme

N
X 1
E( ck (Xk , Uk ) + (XN ))
k=0

ou ck : E C R{+}, : E R{+} (voir les exemples ensuite). Nous allons


voir que cette question admet une reponse sous la forme dun algorithme tres facile a
implanter sur ordinateur (par contre il est en general difficile et de toute facon souvent
inutile dobtenir une solution explicite). Ceci a ete montre par Bellman dans les
annees 50. Cet algorithme a divers noms: programmation dynamique, algorithme de
recurrence retrograde (ou backward), principe doptimalite... On pose

N
X 1
J(x) = min Ex ( ck (Xk , Uk ) + (XN )),

k=0

le minimum etant pris sur toutes les strategies = (0 , , N 1 ).

Theoreme 5.2.1 (Programmation dynamique) Posons JN (x) = (x), puis suc-


cessivement pour n = N 1, N 2, , 1, 0,

Jn (x) = min{cn (x, u) + Pn(u) Jn+1 (x)}.


uC

On suppose que tout est integrable et que le minimum sur u est atteint en u = n (x).
Alors J0 (x) = J(x) et Un = n (Xn ), n = 0, , N 1, est la strategie optimale
correspondante.

Preuve: Considerons une strategie arbitraire . Nous allons utiliser legalite, pour
tout n < N ,

Ex (Jn (Xn ) Jn+1 (Xn+1 )/(X0 , , Xn )) = Jn (Xn ) Pn(Un ) Jn+1 (Xn ).

Ecrivons (somme telescopique)

N
X 1
J0 (X0 ) = (Jn (Xn ) Jn+1 (Xn+1 )) + JN (XN )
n=0
50 Controle stochastique a horizon fini

En utilisant que lesperance est lesperance de lesperance conditionnelle, et le fait


que J0 (x) = Ex (J0 (X0 )), on en deduit que:
N
X 1
J0 (x) = Ex [ (Jn (Xn ) Jn+1 (Xn+1 )) + JN (XN )]
n=0
N
X 1
= Ex [Ex [(Jn (Xn ) Jn+1 (Xn+1 ))/(X0 , , Xn )]] + Ex [JN (XN )]
n=0
N
X 1
= Ex [Jn (Xn ) Pn(Un ) Jn+1 (Xn )] + Ex [(XN )]
n=0
NX1
Ex [ cn (Xn , Un )) + (XN )].
n=0
(u)
car Jn (x)Pn Jn+1 (x) cn (x, u). On a egalite si Un = n (Xn ), pour n = 0, , N
1. Ceci prouve le theoreme.
On interprete cet algorithme en disant qua linstant n, je minimise la somme de
mon cout a cet instant et de ce que je peux savoir a cet instant de mon cout futur.
On montrerait de la meme facon que, pour tout z E,
NX1

Jn (x) = min Ez ( ck (Xk , Uk ) + (XN )|Xn = x)

k=n
Remarquons que le controle optimal est une strategie markovienne (Un ne depend
que de letat Xn ). En appliquant la formule max{xi , i I} = min{xi , i I} ou
en changeant partout min par max dans ce qui precede on a immediatement:
Theoreme 5.2.2 (Programmation dynamique pour le max) Posons JN (x) =
(x), puis successivement pour n = N 1, N 2, , 1, 0,
Jn (x) = max{cn (x, u) + Pn(u) Jn+1 (x)}.
uC

On suppose que tout est integrable et que le maximum sur u est atteint en n (x).
Alors
NX1
J0 (x) = max Ex ( ck (Xk , Uk ) + (XN )),

k=0
et Un = n (Xn ), n = 0, , N 1, est la strategie optimale correspondante.

5.3. Premiers Exemples


5.3.1. Cas deterministe
Lalgorithme de la programmation dynamique est deja interessant lorsque quil ny
a pas daleatoire, donc pour les modeles du type xn+1 = fn (xn , un ). On lemploie
5.3 Premiers Exemples 51

surtout pour les modeles discrets, en labsence de structure differentiable, car sinon
bien dautres methodes doptimisation sont possibles (calcul des variations, methode
du gradient,...). Un exemple classique est celui consistant a trouver le plus court
chemin entre deux points. Donnons lexemple de la course au tresor. Chacune des
villes A, B, C, D, E possede un tresor (respectivement 6, 5, 7, 4, 3). Partant de la ville
O, et connaissant les couts de transports indiques sur la figure, il faut determiner la
route optimale. La solution est decrite ci dessous (avec une erreur a trouver !).

Figure 5.1: Tresor (avec erreur)

5.3.2. Remarque fondamentale sur la complexite


Il y a evidemment une autre methode pour la course au tresor: on calcule le cout
sur tous les chemins et on prend le minimum sur tous ces couts! Imaginons que
cette course ne dure pas comme au dessus 5 unites de temps mais N = 5000 le
nombre de chemins est de lordre de 2N cest a dire a peu pres 101500 (car 210 103 )
donc infaisable meme sur un gros ordinateur. Par contre avec Bellman le nombre
doperations est de lordre de N + (N 1) + + 1 N 2 /2 en gros. sans comparaison
! On retrouvera souvent ce genre de simplification (cf Markov cachees, par exemple).

5.3.3. Remplacement de machines


Notons {0, 1, , K} les etats dans lesquels peut etre une machine. Letat 0 corre-
spond a une machine neuve, et les autres a des etats de veillissement ou dusure
differents. Letat Xn a linstant n est une v.a. aleatoire. Nous supposons que, en
labsence dintervention exterieure, levolution est markovienne, et nous posons
P (i, j) = P(Xn+1 = j/Xn = i), 0 i, j K.
52 Controle stochastique a horizon fini

Maintenir en marche une machine usagee demande de lentretien, donc un cout: on


note (i) ce cout en letat i. On a aussi la possibilite de changer a chaque instant cette
machine a un cout R et dobtenir ainsi une machine neuve. On veut decrire la strategie
optimale de maintenance dans lintervalle de temps [0, N ], en calculant les moments
les meilleurs ou il faut renouveller cette machine. Commencons par modeliser ce
probleme sous forme de controle optimal markovien. Prenons un controle a deux
valeurs: u = 0 si lon ne fait rien, u = 1 si on renouvelle. On pose P (0) = P alors que
P (1) (i, 0) = 1 et P (1) (i, j) = 0, si j > 0, puisque apres renouvellement la machine se
trouve en letat 0. Le cout est donne par

c(i, 0) = (i), c(i, 1) = R, (i) = (i).

On aurait pu choisir une autre condition finale, ceci depend de la situation concrete
modelisee. Decrivons lalgorithme de la programmation dynamique. Dabord JN (i) =
(i), ensuite

Jn (i) = min {c(x, u) + P (u) Jn+1 (i)}


u{1,0}
K
X
= min{R + Jn+1 (0), (i) + P (i, j)Jn+1 (j)}.
j=0

Cette formule est facile a implementer sur machine. Supposons maintenant que (i)
et P (i, [j, K]) soient des fonctions croissantes de i, ce qui traduit exactement lidee
que plus i est grand, plus la machine est usee. La deuxieme
PK condition assure que si
f (i) est une fonction croissante de i, alors P f (i) = j=0 P (i, j)f (j) lest aussi, en
effet
K1
X
P f (i) = (P (i, [j, K]) P (i, [j + 1, K]))f (j) + P (i, [K, K])f (K)
j=0
K
X
= P (i, [0, K])f (0) + (P (i, [j, K])(f (j) f (j 1)).
j=1

Par recurrence, il resulte de cette remarque que Jn (i) est une fonction croissante de i,
pour tout 0 n N (ce qui est assez intuitif). Posons n (i) = (i) + P Jn (i). Cette
fonction est croissante. Soit alors

an = inf{i; R + Jn+1 (0) n+1 (i)}.

La strategie consiste a renouveller la machine au temps n des que son etat est an .
On determine les an par un calcul sur machine.

5.3.4. Gestion de stock


Le gestionnaire dun magasin doit tous les soirs adapter son stock en commandant
eventuellement une quantite dun article pour satisfaire la demande des clients.
5.3 Premiers Exemples 53

Le cout pour produire x unites est ax. Chaque client achete une unite. La demande
(nombre de clients par jour) est une suite de v.a. independantes, de meme loi .
Garder en stock une unite coute h par unite gardee jusqua la fin de la journee, et la
deception du client qui ne peux plus acheter car il ny a plus darticles coute p par
unite non donnee.
Si au depart (le soir ) la taille du stock est s, si lon commande u unites, u 0,
et si il y a w clients (le lendemain) le cout le lendemain soir, sera

C(s, w, u) = au + p(w s u)+ + h(s + u w)+

Pour faire un modele controle, on doit se debarrasser de W dans la fonction cout. on


peut proceder ainsi: on note Sk la taille du stock signe (il peut etre negatif) le soir
du jour k, Wk le nombre de clients le jour k + 1 et le cout total est
N
X 1
CN = E( C(Sk , Wk , Uk ))
k=0

Si on reecrit le cout de la facon suivante:


N
X 1
CN = E(C(Sk , Wk , Uk ))
k=0

N
X 1 Z
= E( C(Sk , w, Uk ) d(w))
k=0
N
X 1 Z
= E( C(Sk , w, Uk ) d(w))
k=0
R
On voit donc que si lon pose Xk = Sk et c(x, u) = C(x, w, u) d(w)) on a un modele
markovien controle. Il etait peut etre plus naturel de poser Xk = (Sk , Wk ) mais alors
on ne serait pas exactement dans notre modele de controle, car le point initial serait
aleatoire (il ne serait pas tres difficile de generaliser a ce cas). Pour simplifier lanalyse
nous allons supposer quil y a backlog, cest a dire que les clients non servis restent
en attente, jusqua satisfaction. Autrement dit on pose

X1 = X0 + u W0

ou W0 est une v.a. aleatoire independante de loi . (si on avait voulu modeliser
la situation ou les clients non satisfaits repartent immediatement. On aurait pose
X1 = (X0 + u W0 )+ ).

5.3.5. Une solution explicite


Utilisons lalgorithme de Bellman, avec ici

JN (x) = 0
54 Controle stochastique a horizon fini

puis
Jn (x) = min[c(x, u) + E(Jn+1 (x + u W ))]
u0

ou W est une v.a. de loi et

c(x, u) = E[au + p(W x u)+ + h(x + u W )+ ].

Proposition 5.3.1 On suppose que p, h 0 et p > a > 0. On peut determiner une


suite n telle que la decision optimale est un (x) = (n x)+ .

Preuve: On pose
gn (x) = L(x) + E(Jn+1 (x W ))

ou
L(x) = ax + pE(W x)+ + hE(x W )+

Alors
Jn (x) = min gn (u + x) ax.
u0

Remarquons que Jn+1 0 (car cest un minimum de quantites positives) et que,


puisque p > a,
lim L(x) = +
x

on a donc
lim gn (x) = +
x

Montrons par recurrence retrograde sur n N que Jn est convexe. Cest trivial pour
JN qui est la fonction identiquement nulle. Supposons Jn+1 convexe. Les fonctions
x+ et (x)+ etant convexes, on voit que L est convexe; donc gn est convexe. Notons
n le (plus petit) point ou la fonction gn atteint son minimum. Alors

Jn (x) = gn (n ) ax, et un (x) = n x, si x n

et
Jn (x) = gn (x) ax et un (x) = 0, si x n

en notant un (x) le controle pour lequel le minimum est atteint. Cette fonction Jn est
bien convexe (faire le dessin) et on a

un (x) = (n x)+ .
5.4 Arret optimal 55

5.4. Arret optimal


5.4.1. Introduction
Considerons les systemes que lon ne peut controler que de la facon suivante: a
chaque instant on decide de continuer ou darreter. Il sagit de trouver le moment
optimal pour sarreter: on parle darret optimal. Ce moment ne doit dependre que
de lobservation passee ou presente (on ne peut anticiper lavenir), cest pourquoi
sintroduisent naturellement les temps darret. Donnons quelques exemples: un joueur
doit decider du moment ou il quitte le jeu. Un particulier vend sa maison, des
acheteurs successifs proposent un prix. A chaque fois, le vendeur peut vendre a ce
prix, mais un prix refuse ne se represente pas. Il faut choisir le meilleur moment pour
vendre. Vous vous dirigez en voiture vers un but, en cherchant a vous garer le plus
pres de ce but. Vous ne pouvez pas faire demi tour: si vous ne profitez pas dune place
vide quand vous passez devant, vous ne la retrouverez pas. Si vous avez une bonne
modelisation de levolution dun cours de bourse, a quel moment acheter (ou vendre)
une action ? (Ce probleme a une version plus realiste: a quel moment exercer une
option americaine ?).
Le probleme general est le suivant: Etant donne une suite de v.a.r. adaptee (Zn )
a une filtration (Fn ) integrables, et N > 0 fixe, trouver

sup E(Z )

le sup etant pris sur lensemble des temps darrets N . On dit quun temps darret
est optimal si il realise le sup.
On peut resoudre ce probleme de deux facons, soit parfois en utilisant lenveloppe
de Snell, soit en utilisant le cadre Markovien.

5.4.2. Enveloppe de Snell dune suite adaptee


Fixons un horizon N > 0. Soit Zn , 0 n N, une suite de v.a.r. integrables adaptee a
une filtration (Fn ). Definisssons par recurrence descendante une suite Un , 0 n N ,
par les egalites

UN = ZN , Un = max(Zn , E(Un+1 |Fn )), n = N 1, N 2, , 1

La suite (Un ) est une surmartingale majorant (Zn ) (et cest la plus petite) appelee
enveloppe de Snell de (Zn ).

Proposition 5.4.1 Posons

= inf{n 0; Un = Zn };

est un temps darret et Un est une martingale.


56 Controle stochastique a horizon fini

Preuve: On a Un = 1{n } Un . Sur levenement {n }, Un1 est strictement


superieur a Zn1 par definition de , de sorte que Un1 = E(Un |Fn1 ). On a donc
Un = 1{n } (Un E(Un |Fn1 )). On en deduit que

E(Un |Fn1 ) = 1{n } E(Un E(Un |Fn1 )|Fn1 ) = 0

Rappelons quun temps darret est optimal si il realise sup E(Z ) sur les temps
darret N .

Proposition 5.4.2 Soit (Un ) lenveloppe de Snell de (Zn ). Le temps darret

= min{n 0; Un = Zn }

est optimal et cest le plus petit p.s.

Preuve: Pour tout temps darret N on a (en utilisant dans lordre le fait que
U est un martingale, le fait que U est une surmartingale et linegalite U Z ),

E(Z ) = E(U ) = E(U0 ) E(U ) E(Z )

Donc est optimal. Si est optimal, E(Z ) = E(U ) donc p.s. Z = U dou .

5.4.3. Cadre markovien


Soit {Xn , n N} une (vraie) chane de Markov inhomogene de noyaux de transition
Pn (., .) sur un espace F muni dune tribu F. Rappelons que si f : F R+ est
mesurable,
E[f (Xn+1 )|(X0 , , Xn )] = Pn f (Xn ).
Pour tout entier n 0, donnons nous une fonction n : F R representant le gain
de larret au temps n. On fixe un horizon N > 0 et on cherche

max{E( (X )), temps darret, N }.

et le temps darret realisant ce maximum, pour la filtration Fn = (X0 , , Xn ).


Le resultat est le suivant:

Theoreme 5.4.3 Posons pour tout x E, JN (x) = N (x), et

Jk (x) = max{k (x), Pk Jk+1 (x)},

si 0 k < N . Alors

J0 (x) = max{E( (X )/X0 = x), t. da., N }.

Un temps darret optimal est = min{k 0; k (Xk ) Pk Jk+1 (Xk )} N .

Dans ce cadre Markovien, on peut pour montrer ce theoreme, soit adapter lenveloppe
de Snell, soit appliquer directement la programmation dynamique.
5.4 Arret optimal 57

5.4.4. Approche du cas Markovien par lenveloppe de Snell


Lenveloppe de Snell de la suite Zn = n (Xn ) est donnee par

UN = ZN = N (XN )

puis, par recurrence retrograde,

Uk = max{Zk , E(Uk+1 |Fk )}.

On voit que la solution est Uk = Jk (Xk ), ce qui montre le theoreme.

5.4.5. Approche du cas markovien par la programmation dynamique


Cest ici plus long et nous conseillons de ne pas la regarder ! le seul interet est de
voir fonctionner cette programmation dynamique dans un cadre un peu complique.
Associons donc a ce probleme un modele markovien controle. On ajoute a F un point
, parfois appele cimetiere. Soit E = F {}. Lensemble des controles C est
un ensemble a deux points : C = {s, c}, s pour stop et c pour continuer. On
(u)
introduit les noyaux controles Pn (., .) par les formules suivantes: si x F et A est
un sous ensemble mesurable de F ,

Pn(c) (x, A) = Pn (x, A), Pn(c) (x, ) = 0, Pn(c) (, A) = 0, Pn(c) (, ) = 1

qui signifient que si lon decide de continuer, a moins detre deja mort, on suit la
chane Xn , et

Pn(s) (x, A) = 0, Pn(s) (x, ) = 1, Pn(s) (, A) = 0, Pn(s) (, ) = 1.

Enfin on introduit les fonctions de perte cn de la facon suivante:

cn (x, u) = n (x), si u = s et x F, cn (x, u) = 0 sinon,

et la perte finale (x) = N (x), si x E et () = 0 . Associons a ce modele la


chane controlee Xn a valeurs dans E (pour ne pas confondre avec Xn ) qui verifie,
elle,
E() (f (Xn+1 )|(X0 , Xn )) = Pn(Un ) f (Xn ).

Lemme 5.4.4 La solution du probleme de controle markovien associe a ces donnees


est celle de larret optimal. Autrement dit

N
X 1
max{E( (X )), t. da. , N } = max E( ck (Xk , Uk ) + (XN )).
U0 , ,UN 1
k=0
58 Controle stochastique a horizon fini

Preuve: Pour toute strategie (U ) = U0 , U1 , UN 1 , posons UN = s et = min{n


N ; Un = s}. On peut supposer que, sous P(U ) , Xn = Xn si n . Alors

N
X 1
ck (Xk , Uk ) + (XN ) = (X ) = (X )
k=0

et est un temps darret. Donc

N
X 1
max{E( (X )), t. da., N } max E( ck (Xk , Uk ) + (XN )).
U0 , ,UN 1
k=0

Linegalite dans lautre sens sobtient en associant a un temps darret S les controles
definis par Un = s si et seulement si S = n.

En traduisant lalgorithme de la programmation dynamique on obtient bien le


theoreme 5.4.3, en effet En effet, lalgorithme general secrit

(u)
Jk (x) = max {ck (x, u) + Pk Jk+1 (x)}.
u=s,c

Posons JN () = 0. Alors, par recurrence Jk () = 0,

(s)
ck (x, s) + Pk Jk+1 (x) = k (x)

et
(c)
ck (x, c) + Pk Jk+1 (x) = Pk Jk+1 (x)

ce qui donne le theoreme.

5.4.6. Exemples
Proprietaire

Considerons par exemple le cas dun proprietaire a qui on propose successivement les
sommes X0 , X1 , , XN . Ces variables aleatoires sont supposees independantes et de
meme loi. Quel acheteur choisir ? On cherche ici a maximiser. On voit que dans ce
cas JN (x) = x, puis
Jk (x) = max(x, E(Jk+1 (X0 )))

Il existe donc des seuils 0 , , N 1 , determines par N 1 = E(X0 ), puis la formule


de recurrence k = E(max(X0 , k+1 )), tels que le proprietaire vend au premier instant
n tel que le prix propose est superieur ou egal a n . Il est interessant de regarder ce
qui se passe lorsque N +.
5.4 Arret optimal 59

Secretaires
On considere N candidats a un poste de secretaire. Il sagit de choisir le meilleur.
On les auditionne les uns apres les autres. A la fin de chaque audition, on decide
si on embauche ce secretaire, ou si on essaye den trouver un autre meilleur. Les
secretaires sont classes par ordre de qualite. Ils ont donc un rang, qui va de 1 pour le
meilleur a N pour le moins bon. On ne connait pas ce rang, la seule chose que lon
peut voir, cest comment ce candidat se place parmi les precedents. Donc son rang
relatif par raport aux precedents. On note Xn le rang relatif du candidat n. Donc
X1 = 1, X2 {1, 2}, , Xn {1, , n} ou Xn = k signifie que le n-ieme candidat
a le rang k parmi les n premiers.
La regle de base est quun candidat rejete est fache et sen va. On ne pourra plus
aller le rechercher. En dautre termes la decision dembauche est immediate.
On suppose que les candidats arrivent au hasard, donc plus precisement que
leur ordre est une permutation aleatoire sur un ensemble a n elements de loi uniforme.

Proposition 5.4.5 Les v.a. Xn sont independantes, Xn ayant la loi uniforme sur
{1, , n}

Preuve: Au temps n, conditionnellement a X1 , , Xn , on connait lordre relatif des


n premiers candidats, le nouveau peut se placer nimporte ou parmi eux. Il peut donc
prendre nimporte quel rang, avec la meme probabilite, qui est donc 1/(n + 1). (On
peut aussi remarquer que la loi est invariante par les permutations des n premiers
elements, pour obtenir ce resultat).
On voit quen dautre termes, la suite Xn , n N est une chaine de Markov inho-
mogene sur E = {1, , N } de probabilites de transition donnee par

Pn (x, y) = 1/(n + 1) si y = 1, , n + 1, Pn (x, y) = 0 si y > n + 1.

On est donc bien dans le cadre Markovien. Cherchons a maximiser la probabilite


de prendre le meilleur candidat. A linstant n cette probabilite est nulle si le candidat
na pas le rang relatif 1, et est egale sinon a la probablite que le meilleur de tous soit
entre 1 et n donc a n/N puisque le meilleur est reparti uniformeement sur tous les
candidats. On pose donc
n
n (x) = 1{x=1} .
N
et on cherche
max E( (X )).
N

Lalgorithme donne
JN (x) = N (x) = 1{x=1}
et pour k = N 1, , 1,

Jk (x) = max{k (x), Pk Jk+1 (x)}.


60 Controle stochastique a horizon fini

Posons, pour k = 1, , N 1,
k+1
1 X
vk = Pk Jk+1 (x) = E(Jk+1 (Xk+1 )) = Jk+1 (n)
k+1
n=1

(il est independant de x). La recurrence secrit JN (x) = 1{x=1} puis

k
Jk (x) = max{ 1 , vk }.
N {x=1}
Notons, pour k = 1, , N 1,
1 1 1 1
wk = + + + + ,
k k+1 N 2 N 1
cette suite est decroissante et w1 > 1. Soit

k0 = max{n N 1; wn > 1}.

min(k,k0 ) k0
Lemme 5.4.6 Pour tout k, vk = N wmin(k,k0 ) et J1 (x) = N wk 0 .

Preuve: Montrons ceci par recurrence retrograde sur k. Cette relation est vraie pour
k = N 1 car wN 1 = N 11 et

N
1 X 1
vN 1 = JN (x) = .
N N
x=1

k
Si elle est vraie au rang k > k0 , alors par hypothese de recurrence vk = N wk . On a

k k k
Jk (x) = max{ 1 , vk } = max{ 1{x=1} , wk }
N {x=1} N N
k k
donc, puisque wk 1, Jk (1) = N et pour x > 1, Jk (x) = N wk . On a donc
k
1X 1 k k 1 k1
vk1 = Jk (n) = ( + (k 1) wk ) = + wk
k k N N N N
n=1

k1 1 k1
= (wk + )= wk1 .
N k1 N
k0
Traitons maintenant le cas ou k k0 par recurrence. On a deja vk0 = N wk0 par ce
qui precede. Si cest vrai au rang k k0 ,
k k k0 k0
Jk (x) = max{ 1{x=1} , vk } = max{ 1{x=1} , wk0 } = wk0
N N N N
k0
donc vk1 = N wk 0 .
5.4 Arret optimal 61

Proposition 5.4.7 Soit k0 = max{k; wk > 1}. Alors J0 (x) = kN0 wk0 et la strategie
optimale consiste a voir les k0 premiers candidats, et a choisir ensuite le premier qui
est meilleur que les precedents.
Preuve: En effet
k max(k, k0 )
Jk (x) = max{ 1{x=1} , wmax k,k0 }
N N

Pour N assez grand


Z N 1
1 1 1 1 1 N
+ + + + dx ln
k k+1 N 2 N 1 k x k
donc le premier k tel que ceci soit 1 verifie a peu pres,
N
=e
k
On voit donc a peu pres 1/e 0.37 des candidats puis on prend le premier qui est
meilleur que ses precedents (faire le calcul pour N = 12 par exemple).. La probabilite
de succes de cette strategie est a peu pres Nk 1e , donc assez grande.

Options americaines
Une option Call (resp. Put) americaine sur une action de prix Sn au jour n donne le
droit mais pas lobligation dacheter (resp. vendre) cette action au prix dexercice K
jusqua la date T . Ce droit a un cout, le prix de laction, C pour un Call, P pour un
put, paye a la date 0. La theorie de Black et Scholes montre quil existe un R 1 et
un espace de probabilite (, A, P) tel que, sous certaines conditions, Rn Sn est une
martingale et
C = max E(R (S K)+ )
P = max E(R (K S )+ )
ou a chaque fois le maximum est pris sur tous les temps darrets de la filtration Sn
inferieur ou egaux a T . Dans ces modelisations Sn est une chane de Markov. On est
dans le cadre de larret optimal, qui sapplique directement, en posant, pour un Call

n (x) = Rn (x K)+

et pour un Put
n (x) = Rn (K x)+ .
Notons le resultat general suivant:
Lemme 5.4.8 Si (Zk ) est une sous martingale, pour tout entier n 0,

sup E(Z ) = E(Zn )


n, t.d0 a.
62 Controle stochastique a horizon fini

Preuve: Resulte du fait que, par le theoreme darret, E(Zn |F ) Zn .

Proposition 5.4.9 Pour un Call un temps dexercice optimal est T .

Preuve: Il suffit de remarquer que Rn (Sn K)+ est une sous martingale: En effet,
puisque Rn Sn est une martingale et puisque x+ x on a, si m n,

E(Rm (Sm K)+ |Fn ) E(Rm (Sm K)|Fn )

E(Rm Sm |Fn ) Rm K Rn Sn Rn K
puisque R 1. Comme par ailleurs lesperance conditionnelle cherchee est positive,
on a bien quelle est superieure a Rn (Sn K)+ .
Chapitre 6

Marches a temps discret, AOA,


completude

6.1. Modele Stock-Bond


Marche financier: (, Fn , n N ) et m mesure de reference -finie naturelle sur ,
par exemple mesure de comptage si est fini ou denombrable, mesure de Lebesgue
si = Rd .

Definition 6.1.1 (Marche (S, B)) Actifs (sous jacents)

Sn , Bn , 0 n N,

avec B previsible strictement positif, B0 = 1 et S adapte (intuitivement valeur a la


cloture a 17 h le jour n).

On peut considerer le cas ou Sn = (Sn1 , , Snd ) est un vecteur, mais nous nous lim-
iterons dans la suite (sauf cas contraire) au cas undimensionnel d = 1. La generalisation
consiste seulement le plus souvent a remplacer les expressions du type S ou est
un reel par le produit scalaire < , S >.

S pour Stock, exemple typique : action.


B pour Bond, exemple typique : placement sans risque (taux dinteret a court
terme comme le JJ).
Role de Bn , exemple Bn = (1 + r)n ou Bn = ern , prix actualises, changt de
numeraire. Bn represente lactualisation aujourdhui, pour la date n.

Notation:

actualises des actifs


Sn = Sn /Bn
64 Marches a temps discret, AOA, completude

rendement
Sn Sn Sn1
Un = = .
Sn1 Sn1

6.2. Portefeuille du marche (S, B) et autofinancement


6.2.1. Portefeuille
Le soir n je moccupe de mon portefeuille, et la bourse est fermee. En fonctions des
actifs du jour n je fabrique ce qui sera mon portefeuille pour toute la journee n + 1.
Je connais sa valeur le lendemain jour n + 1 a louverture, mais pas le soir n + 1. Dans
la journee je ny touche plus mais la bourse evolue.
Strategie de gestion / portefeuille (portfolio)

Definition 6.2.1 On appelle portefeuille du marche (S, B) une suite previsible

(n , n ), 1 n N,

a valeur dans R2 . La valeur du portefeuille (moralement a 17h 30 le jour n) est, par


definition, au temps n,
Vn = n Sn + n Bn .

n et n representent le nbre de parts des deux actifs que je possede pendant la


journee n. Je lai choisi la veille au soir, cest donc previsible.
La valeur Vn du portefeuille represente la valeur a la fin de la journee n, sachant
que le soir (disons apres 17 h 30, heure de cloture de la bourse) je peux decider de
rerepartir mon portefeuille pour le lendemain entre les actifs. On commence le soir
du jour 0.
Notons que n , n peuvent etre negatifs, ce qui correspond a des emprunts ou des
achats a decouverts (short selling en anglais).

6.2.2. Autofinancement
Placons nous le soir du jour n 1. A la fermeture, 17 h.30, on a

Vn1 = n1 Sn1 + n1 Bn1 .

Le soir meme, (par exemple a 18 h) on repartit differemment Vn1 entre les deux
actifs (et on pourra le matin avant louverture realiser ce changement).

Vn1 = n Sn1 + n Bn1 .

Pendant la journee n la valeur des actifs peut varier. Le soir du jour n on aura, apres
les fluctuations du cours dans la journee,

V n = n Sn + n Bn ,
6.2 Portefeuille du marche (S, B) et autofinancement 65

on a donc
Vn = Vn Vn1 = n (Sn Sn1 ) + n (Bn Bn1 )
ce qui secrit
Vn = n Sn + n Bn
ou encore
Vn = V0 + ( ? S)n + ( ? B)n .

Definition 6.2.2 Le portefeuille (n , n ), 1 n N , de valeur Vn = n Sn + n Bn


est autofinance si, pour tout n N ,
Vn = V0 + ( ? S)n + ( ? B)n ,
ou, ce qui est equivalent, pour tout n, 1 n N,
Vn = n Sn + n Bn .

Remarquons que ces relations entrainent que V0 = 1 S0 + 1 B0 .

6.2.3. Changement de numeraire


On rappelle que lon pose
Sn
Sn =
Bn
que lon peut interpreter comme la valeur de lactif dans un nouveau numeraire, ou
comme la valeur actualisee de Sn . De la meme facon posons,
Vn
Vn =
Bn
Bn
on pourrait aussi introduire Bn = Bn mais cest evidemment 1.
Proposition 6.2.3 Un portefeuille (n , n ), n N , de valeur Vn = n Sn + n Bn
autofinance dans le marche (S, B) est aussi autofinance dans le marche (S, 1) de
valeur Vn et la condition dautofinancement secrit
Vn = V0 + ( ? S)n .

Preuve: La relation Vn = n Sn + n Bn secrit aussi


Vn = n Sn + n .
La relation dautofinancement
Vn1 = n1 Sn1 + n1 Bn1 = n Sn1 + n Bn1
donne
Sn1 Sn1
n1 + n1 = n + n
Bn1 Bn1
donc
n1 Sn1 + n1 = n Sn1 + n .
66 Marches a temps discret, AOA, completude

Corollaire 6.2.4 Un portefeuille autofinance est determine par V0 et {k , 1 k


N }.

Preuve: En effet si Vn est autofinance on a Vn = V0 + ( ? S)n donc

V0
Vn = Bn ( + ( ? S)n ).
B0

Remarquons que
n = Vn n Sn .

Cette quantite est bien previsible (malgre les apparences) car, comme on la vu plus
haut
n = (n1 n )Sn1 + n1

6.3. AOA
Definition 6.3.1 On appelle Opportunite darbitrage un portefeuille autofinance
de valeur Vn , 0 n N tel que
V0 = 0,

VN 0, m p.s.

m(VN > 0) > 0.

Il y a absence dopportunite darbitrage (AOA) si il ny a pas de tel portefeuille. On


dit quun marche est viable si AOA.

Une autre notion qui va saverer essentielle est la suivante.

Definition 6.3.2 On appelle mesure martingale une probabilite P sur (, (Fn , 0


n N )) pour laquelle lactualise du spot Sn = Sn /Bn est une martingale locale.

Un des theoremes fondamentaux est: The first fundamental theorem of asset


pricing, du a Harrison et Pliska essentiellement:

Theoreme 6.3.3 (Premier theoreme fondamental de levaluation) Il y a ab-


sence dopportunite darbitrage (AOA) ssi il existe une mesure martingale equivalente
a m. Dans ce cas on dit que le marche est viable.

La preuve est un peu longue et le reste de cette section lui est consacre.
6.3 AOA 67

6.3.1. Lemme sur la transformee de Laplace


Commencons par un lemme sur la transformee de Laplace dune v.a. reelle.

Lemme 6.3.4 Soit X une v.a. reelle telle que pour tout a R,

(a) = E(eaX ) < +.

La fonction est deux fois derivable, de derivees

0 (a) = E(XeaX ), 00 (a) = E(X 2 eaX )

donc convexe. De plus


lim (a) = +
a

si P(X > 0) 6= 0 et P(X < 0) 6= 0.

Preuve: On utilise le theoreme de Lebesgue de derivation sous le signe somme, qui


est lui meme une consequence du theoreme de convergence dominee et le fait que
pour tout M > 0 si |a| M , x2 eax Cte(e(M +1)x + e(M +1)x ) pour tout x R.

Introduisons la methode de relativisation appelee aussi transformation dEsscher


en assurance.

Proposition 6.3.5 Soit X une v.a. reelle telle que

m(X > 0) 6= 0, m(X < 0) 6= 0.

Alors, il existe une proba P equivalente a m telle que

E(eaX ) < +

pour tout a R, E(|X|) < + et E(X) = 0.

Preuve: Soit m une probabilite equivalente a m (cf Lemme 3.3.4). Notons P la


probabilite equivalente a m definie par
2
dP = ceX dm.
2
eX dm. Pour tout a R, on pose (a) = E(eaX ) et
R
ou c = 1/

eaX
dPa = dP
(a)

La fonction est derivable convexe, et lima (a) = + par lhypothese. Elle


atteint donc son minimum en un point a tel que 0 (a ) = 0 alors Pa est solution. 
68 Marches a temps discret, AOA, completude

6.3.2. Preuve du theoreme.


Apres changement de numeraire on peut supposer que Bk = 1 pour tout k, sans perte
de generalite. Nous le supposerons donc. On choisit provisoirement une probabilite P
equivalente a m.

Lemme 6.3.6 Pour n = 1, , N , soit Xn = Sn ,

A = { ; E(1{Xn >0} |Fn1 )() > 0 et E(1{Xn <0} |Fn1 )() > 0}

et
B = { ; E(1{Xn =0} |Fn1 )() = 1}
Si AOA, P(A B) = 1.

Preuve: Posons
C = {E(1{Xn <0} |Fn1 ) = 0}.
et
D = {E(1{Xn >0} |Fn1 ) = 0}
On a Ac contenu dans C D. Il suffit donc de montrer que C et D sont contenus dans
B. Commencons par C. On construit un portefeuille Vk = k Sk + k , 0 k N, de
la facon suivante: V0 = 0 puis

k = k = 0, si k n 1,

n = 1C , n = 1C Sn1 ,
k = 0, k = Vn , si k n + 1.
On a
Vk = 0, si k n 1,
Vn = 1C (Sn Sn1 ) = 1C Xn ,
Vk = Vn , si k n + 1,
Donc Vk = k Sk pour tout k. Ce portefeuille est donc autofinance et VN = Vn =
1C Xn . On a
E(1C 1Xn <0 ) = E(1C E(1Xn <0 |Fn1 )) = 0
donc, p.s., VN 0. Puisque V0 = 0 on a donc, par AOA, VN = 0, p.s. Donc, p.s.,

1C 1Xn >0 = 0

ce qui entraine que son esperance conditionnelle par rapport a Fn1 est nulle

1C E(1Xn >0 |Fn1 ) = 0,

donc C est p.s. contenu dans B. De meme, par symetrie, D est contenu dans B, p.s.
.
6.3 AOA 69

Preuve du theoreme: (sens direct) On prend Bk = 1 pour tout k sans perte de


generalite. On pose
N
X
P(d) = c exp( Xi2 ())m(d)
i=0

ou c est choisi pour que m soit une probabilite equivalente a m (cf Lemme 3.3.4) et,
pour chaque n,
n (a) = E(eaXn |Fn1 )
Pour chaque A, A defini au lemme precedent, la fonction a 7 n (a)() est
strictement convexe et
lim n (a)() = +, p.s.
a

en effet, par Lebesgue monotone il suffit de voir que

lim n (a) lim E(eaXn 1{Xn >0 |Fn1 ) = (+)E(1{Xn >0} |Fn1 )
a+ a+

et lanalogue quand a . En adaptant la preuve du lemme 6.3.4 au cas condi-


tionnel on voit quil existe un unique an tel que n (an ) = minaR n (a) et donc tel
que
0n (an ) = 0
cest a dire
E(Xn ean Xn |Fn1 ) = 0. (6.1)
Par unicite 7 an () est mesurable car lensemble {(a, ); 0n (a)() = 0} est
mesurable. Sur Ac on pose an = 0, Xn = 0 et (6.1) est encore vrai.
On pose Z0 = 1 puis, par recurrence,

ean Xn
Zn = Zn1
E(ean Xn |Fn1 )
et
dP = ZN dP.
Remarquons que
E(Zn |Fn1 ) = Zn1
(martingale). En particulier E(ZN ) = 1. Donc P est une probabilite. Montrons que
sous P, Sn est une martingale locale. Par Bayes (Lemme 3.4.3)

E(Xn ZN |Fn1 )
E(Xn |Fn1 ) =
E(ZN |Fn1 )

Or
E(Xn ZN |Fn1 ) = E(E(Xn ZN |Fn )|Fn1 ) = E(Xn E(ZN |Fn )|Fn1 )
ean Xn
= E(Xn Zn |Fn1 ) = E(Xn Zn1 |Fn1 )
E(ean Xn |Fn1 )
70 Marches a temps discret, AOA, completude

Zn1
= E(Xn ean Xn |Fn1 ) = 0
E(e Xn |F
an
n1 )

Ceci montre que E(Sn |Fn1 ) = Sn1 , (le fait que E(|Sn ||Fn1 ) est fini se voit de la
meme facon) on a donc bien une martingale locale. La probabilite P est donc une
mesure martingale equivalente a m.
Reciproquement, si P est une mesure martingale equivalente a m, Sn est sous P
une martingale locale, si Vn = (?S)n est tel que VN 0 p.s., (Vn ) est une martingale
(c.f. Proposition 4.6.4) et si E(VN ) = E(V0 ) = 0, VN = 0, p.s.

6.4. Evaluation dun actif replicable dans un marche vi-


able
On se donne un marche (S, B) sur lunivers (, A, (Fn , 0 n N ), m). Rap-
pelons quon a appele marche viable un marche (Sn , Bn ), 0 n N , dans lequel il y
a AOA. Alors il existe une mesure martingale P.

Definition 6.4.1 (i) Un actif (derive) est par definition une v.a. FN -mesurable.
(ii) Un actif Z est replicable si il existe un portefeuille autofinance de valeur
VN = Z (m p.s.).

Theoreme 6.4.2 Dans un marche viable, si Z est un actif replicable, il existe un


seul portefeuille autofinance (Vn ) de valeur VN = Z, m p.s.. En particulier il ne
depend pas de la mesure martingale P. On appelle V0 le prix a linstant 0 de lactif
derive Z.
(1) (2)
Preuve: Supposons quil existe deux portefeuilles autofinances Vn et Vn tels que
(1) (2)
VN = VN = Z, m p.s.. Soit P une mesure martingale equivalente a m. Sous P,
(1) (1) (2) (2)
Vn = Vn /Bn et Vn = Vn /Bn sont des martingales locales. Montrons par
(1) (2)
recurrence retrograde sur n que Vn = Vn , m-p.s. Cest vrai pour n = N , et si
(1) (2)
cest vrai au rang n + 1, alors Vn+1 = Vn+1 et donc
(1) (2)
Vn(1) = E(Vn+1 |Fn ) = E(Vn+1 |Fn ) = Vn(2)
(1) (2)
Donc Vn = Vn , m-p.s. Ceci montre lunicite. Dire quil depend de P voudrait dire
quil existe au moins deux mesures martingales et deux portefeuilles autofinances
differents associees. Ceci contredit lunicite du portefeuille.
On peut donc bien poser:

Definition 6.4.3 Dans un marche viable, le prix a linstant 0 dun actif replicable
Z est la valeur V0 dun portefeuille autofinance verifiant VN = Z.
Ce portefeuille est appele Portefeuille de couverture de lactif.
6.5 Marche complet 71

Remarquons quon trouve concretement ce portefeuille en choisissant une mesure


martingale P equivalente a m, puis en ecrivant par recurrence retrograde

VN = Z

puis, pour n < N ,


Vn = E(Vn+1 |Fn )
sous la forme
Vn = n Sn + n
avec n et n previsibles (ce nest possible que si Z est replicable).
Dans les exemples doptions, Z est positive, on a (en utilisant la Proposition
4.6.4),

Proposition 6.4.4 Si Z est un actif replicable tel que Z 0, m-p.s. ou si Z/BN


L1 , pour toute mesure martingale equivalente a m,
Z
V0 = E( |F0 ).
BN

6.5. Marche complet


Par le premier theoreme fondamental on sait que la viabilite est equivalente a labsence
dopportunite darbitrage. On va supposer dans cette section que Bn et Sn sont les
deux seuls actifs intervenants. Autrement dit que

Fn = (B0 , S0 , B1 , S1 , , Bn1 , Sn1 , Sn )

A linstant 0 on connait letat du marche donc S0 et B0 et B1 (rappelons que lon


commence au soir du jour 0). On peut donc les supposer constants. On a donc F0 =
{, }. On en deduit par recurrence que

Fn = (S1 , , Sn ).

Definition 6.5.1 On dit que le marche est complet si tout actif Z tel que Z/BN est
borne est replicable.

Theoreme 6.5.2 (Deuxieme Theoreme fondamental) Un marche viable est com-


plet si et seulement si il existe une seule mesure martingale P equivalente a m.

Le plan de la preuve, un peu longue est le suivant: on va montrer que


Complet => Unicite de P => Propriete de Bernoulli => Representation previsible
=>Complet
72 Marches a temps discret, AOA, completude

6.5.1. Complet => Unicite de P


Ceci resulte du theoreme 6.4.2.

6.5.2. Unicite de P => Propriete de Bernoulli


On dit que le marche a la propriete de Bernoulli si m p.s. la loi conditionnelle de Sn
sachant S0 , , Sn1 est portee par deux points. Autrement dit il existe pour tout
n, deux v.a. previsibles Un et Dn (up et down) telles que, p.s.,

Sn {Dn , Un }.

Puisque D1 et U1 sont F0 mesurables, ils sont constants. Donc S1 ne prend que deux
valeurs. Mais alors, D2 et U2 ne prennent chacun que deux valeurs (puiquils sont
fonctions de S1 ). Donc S2 est (non-conditionnellement) a valeurs dans un ensemble
a 4 elements, etc... Finalement, lensemble = { ; m() > 0} est fini et il porte
m et tous les Sn . On peut donc, quitte a remplacer par , supposer que est fini
et que m est la mesure de comptage.

Proposition 6.5.3 Si il y a unicite de la mesure martingale, on a la propriete de


Bernoulli.

La preuve est un peu technique. On pourra ladmettre. Je la donne en appendice.

6.5.3. Propriete de Bernoulli => Representation previsible


Donnons nous un espace de probabilite (, (Fn ), 0 n N, P) et une martingale
locale S.

Definition 6.5.4 On dit quune martingale Mn a la propriete de representation


previsible si il existe un processus previsible (k ) tel que, pour 0 n N ,

Mn = M0 + ( ? S)n

Proposition 6.5.5 Avec la propriete de Bernoulli, si le modele est viable, sous la


mesure martingale, on a representation previsible de toute martingale.

Preuve: On peut supposer que Bn = 1, que est fini et m uniforme. Soit Mn une
martingale, nulle en 0, que lon veut ecrire sous la forme M = ? S avec previsible.
Cherchons par recurrence sur n, un processus n previsible tel que Mn = n Sn ,
avec
n = fn (S0 , , Sn1 ).
Sur lensemble S0 = a0 , , Sn1 = an1 , la valeur de Mn1 est fixee, disons mn1 ,
Sn ne prend que deux valeurs, notees d1n d2n et Mn (etant Fn mesurable), ne
6.5 Marche complet 73

prend aussi que deux valeurs, disons n1 quand Sn = d1n et n2 quand Sn = d2n , avec
n1 = n2 quand d1n = d2n . La relation Mn = n Sn donne donc deux equations:

n1 = n d1n , n2 = n d2n .

ou linconnue est n . Par ailleurs on sait que Sn et Mn sont des martingales, donc

0 = E(Sn |S0 = a0 , , Sn1 = an1 )

et
0 = E(Mn |S0 = a0 , , Sn1 = an1 ),
ce qui secrit, si pn = P(Sn = d1n |S0 = a0 , , Sn1 = an1 ) et qn = 1 pn =
P(Sn = d2n |S0 = a0 , , Sn1 = an1 )

pn d1n + qn d2n = 0,

pn n1 + qn n2 = 0.
Si d1n = d2n alors n1 = n2 donc d1n = d2n = n1 = n2 = 0 et on peut prendre n = 0. Si
d1n 6= d2n , et si par exemple d1n 6= 0, on peut poser

n1
n =
d1n
on aura bien
pn n1 d2 1
n2 = = n1 n = n d2n
qn dn
ce qui prouve le theoreme.

6.5.4. Representation previsible => Complet


Proposition 6.5.6 Si le marche est viable, le marche est complet si et seulement si
toute martingale bornee a la propriete de representation previsible par rapport a S.

Preuve: Quitte a tout actualiser on peut supposer que Bn = 1, pour tout 0 n N .


1. Supposons dabord la propriete de representation previsible. Soit Z une v.a.
FN mesurable bornee. Alors Mn = E(Z|Fn ) est une martingale bornee et MN = Z.
Par representation previsible, on peut lecrire Mn = M0 + ( ? S)n . On pose n =
Mn n Sn , alors est previsible, car
n1
X
n = M0 + ( ? S)n n Sn = M0 + ( k Sk ) n Sn1 .
k=1

On en deduit que
M n = n Sn + n
est un portefeuille autofinance. Donc lactif Z est bien duplicable.
74 Marches a temps discret, AOA, completude

2. Reciproquement, supposons le marche complet. Soit (Mn ) est une martingale


bornee. Lactif MN est duplicable, donc il existe un portefeuille autofinance V tel que
VN = MN . Puisque Bn = 1, Vn = V0 + ( ? S)n est sous la mesure risque neutre une
martingale (locale). On a

Vn = E(VN |Fn ) = E(MN |Fn ) = Mn

donc Mn representable par .

6.6. Modele binomial de Cox, Ross et Rubinstein


On va appliquer ce qui precede dans le modele le plus simple: le modele binomial ou
modele de Cox, Ross et Rubinstein, invente pour des raisons pedagogiques, mais qui
sest avere tres utile (methodes darbres).

6.6.1. Le modele darbre recombinant de CRR


On suppose quil existe r > 0 et une suite %n telles que

Bn = rBn1 , B0 = 1,

Sn = n Sn1
(on modelise donc les rendements), ou n est une suite de variables aleatoires ne
prenant que deux valeurs b, h. Si lhorizon est fixe a N on voit que lalea est donne
par
= {b, h}N
Il est naturel de prendre comme mesure de reference la mesure de comptage sur cet
ensemble par exemple (ou la probabilite uniforme, si on prefere, ce qui ne change
rien). On prend F0 = {, } et Fn = {S1 , , Sn }. Remarquons que Bn = (1 + r)n .

Lemme 6.6.1 Le marche est viable si et seulement si

b < r < h.

Preuve: Si P est une mesure martingale,


Sn
Sn = = (1 + r)n Sn
Bn
est une martingale sous P. On a

(1 + r)n Sn = E((1 + r)(n+1) Sn+1 /Fn )

donc puisque Sn+1 = (1 + n+1 )Sn ,

r = E(n+1 |Fn ).
6.6 Modele binomial de Cox, Ross et Rubinstein 75

Dou
bE(1{n+1 =b} |Fn ) + hE(1{n+1 =h} |Fn ) = r
et
E(1{n+1 =b} |Fn ) + E(1{n+1 =h} |Fn ) = 1
donc
hr
E(1{n+1 =b} |Fn ) =
hb
et
rb
E(1{n+1 =h} |Fn ) = .
hb
On doit donc avoir b < r < h

Remarquons que ce calcul montre lunicite de P, on retrouve donc le fait que ce


marche est complet (aussi consequence de la propriete de Bernoulli)

Theoreme 6.6.2 Sous la mesure martingale, les v.a. i sont independantes de meme
loi donnee par

hr rb
P(1 = b) = = q, P(1 = h) = = p.
hb hb

Cela resulte dun lemme general interessant:

Lemme 6.6.3 Sur une espace de probabilite (, A, P), soit F est une sous tribu de
A. Si X est une v.a. a valeurs dans un espace mesure (E, E) telle que pour toute
fonction mesurable positive f : E R+

E(f (X)|F) est presque surement constante,

alors X est independante de F (et reciproquement).

Preuve: Soit A F et B E. Prenons f = 1A , puisque E(1A (X)|F) est presque


surement constante desterance egale a P(A), on a

E(1A (X)|F) = P(A)

On en deduit donc, que si B est F-mesurable,

P(B {X A}) = E(1B 1A (X))

= E(1B E(1A (X)|F)) = E(1B P(X A)) = P(X A)P(B).


76 Marches a temps discret, AOA, completude

6.6.2. Representation previsible


On sait que ce modele a la propriete de representation previsible, puisquil a la pro-
priete de Bernoulli. Faisons le explicitement pour avoir des formules explicites. Soit
donc (Mn ) une martingale sur (, (Fn ), P). Posons

Tn = (1 , , n )

On peut ecrire que


Mn = fn (Tn ).
Puisque cest une martingale,

E(Mn+1 |Fn ) = Mn

donc, ecrivant que fn+1 (Tn+1 ) = fn+1 (Tn , n+1 ),

pfn+1 (Tn , h) + qfn+1 (Tn , b) = fn (Tn ) (6.2)


ce qui donne
fn+1 (Tn , h) fn (Tn ) fn (Tn ) fn+1 (Tn , b)
=
q p
Ceci secrit aussi
fn+1 (Tn , h) fn (Tn ) fn (Tn ) fn+1 (Tn , b)
n+1 := =
hr rb
On a donc
Mn+1 = fn+1 (Tn , n+1 ) fn (Tn ) = n+1 (n+1 r)
cest a dire
Mn = n (n r).
Remarquons que (n ) est previsible. Par ailleurs

Sn Sn1 1 + n Sn1 n r
(Sn ) = =( 1) = Sn1
Bn Bn1 1+r Bn1 1+r
donc
1+r
n r = (Sn )
Sn1
et finalement
n (1 + r)
Mn = (Sn )
Sn1

Theoreme 6.6.4
n (1 + r)
Mn = (Sn )
Sn1
6.6 Modele binomial de Cox, Ross et Rubinstein 77

Pour la section suivante il est interessant de regarder ce qui se passe si a un instant


N , la variable aleatoire MN ne depend que de SN . Montrons qualors ceci reste vrai
pour tout n N . On ecrit donc MN = N (SN ). Montrons par recurrence arriere que
lon peut ecrire, pour une fonction n ,

Mn = n (Sn )

si n N . Cest vrai pour N , et si Mn+1 = n+1 (Sn+1 ) alors

Mn = E(n+1 (Sn+1 )|Fn ) == pn+1 (Sn (1 + h)) + qn+1 (Sn (1 + b))

Il suffit donc de poser

n (s) = pn+1 (s(1 + h)) + qn+1 (s(1 + b))

pour bien avoir que Mn = n (Sn ). On peut dans la preuve precedente remplacer Tn
par Sn et on en deduit que n est fonction de Sn1 .

6.6.3. Prix doptions, Portefeuille de couverture


Considerons un actif derive ZN . On a vu que sa valeur a linstant 0 est

Theoreme 6.6.5
1
Z0 = E(ZN )
(1 + r)N

Un cas tres important est celui ou ZN est une fonction de SN . dans ce cas

Theoreme 6.6.6 Si ZN = (SN )

1 1
Zn = n
E(ZN |Fn ) = FN n (Sn )
(1 + r)N (1 + r)N n

ou
n  
X n
Fn (x) = (x(1 + h)k (1 + b)nk )pk (1 p)nk
k
k=0

Cette formule sapplique par exemple pour un Call europeen, ou ZN = (SN K)+
ou bien un put.
En terme de portefeuille autofinance, on cherche n et n de telle sorte que, si

Vn = n Sn + n Bn ,

Vn = (1 + r)n Vn soit une martingale et

VN = ZN /BN .
78 Marches a temps discret, AOA, completude

On applique les resultats de la section precedente. Par le theoreme 6.6.4

n (1 + r)
(V /B)n = (Sn )
Sn1

donc
n (1 + r)
(V /B)n = (Sn ) + n
Sn1
n (1+r)
avec n = (V /B)n Sn1
(Sn ) previsible, comme on la vu, donc

n (1 + r)
Vn = Sn + n Bn
Sn1

La quantite de parts de lactif: nS(1+r) sappelle le delta de loption.


n1
Comme on la vu dans la section precedente si ZN est fonction de SN alors n ne
depend que de Sn1 .

6.7. Appendice: Preuve de la proposition 6.5.5


Commencons par un lemme. Le support dune mesure sur R est par definition,
lensemble des points x de R tels que (Vx ) 6= 0 pour tout voisinage de x.
R R
Lemme 6.7.1 Soit une probabilite sur R telle que |x| d(x) < +, x d(x) =
0. Si nest pas portee
R par deux pointsRil existe une probabilite equivalente a mais
differente telle que |x| d(x) < +, x d(x) = 0

Preuve: Si le support de a plus de R deux points il y en a au moins un positif


x1 > 0 et un negatif x2 < 0 puisque x d(x) = 0. Choisissons aussi un troisieme
x3 , different
R de ces 2R la. On peut trouver trois voisinages I, J, K de x1 , x2 , x3 tels tels
que I x d(x) < 0, J x d(x) > 0. Pour , , > 0 posons

(dx) = [1I (x) + 1J (x) + 1K (x) + 1L (x)] (dx)

ou L est le complementaire de I J K. Cest une probabilite centree si


Z Z
[1I (x) + 1J (x) + 1K (x)] (dx) = [1I (x) + 1J (x) + 1K (x)] (dx)
Z Z
x[1I (x) + 1J (x) + 1K (x)](dx) = x[1I (x) + 1J (x) + 1K (x)] (dx)

donc si Z Z Z
( 1) (dx) + ( 1) (dx) + ( 1) (dx) = 0,
I J K
Z Z Z
( 1) x(dx) + ( 1) x(dx) + ( 1) x (dx) = 0.
I J K
6.7 Appendice: Preuve de la proposition 6.5.5 79

R R R R
Le determinant I (dx) J x (dx) J (dx) I x (dx) est strictement positif donc
non nul. Pour tout tres proche de 1 on peut donc trouver , > 0 solutions.

Preuve: [de la proposition 6.5.5](Bn = 1 sans perte de generalite) Par recurrence


sur N . La propriete est triviale pour N = 0. Pour sentrainer un peu, traitons le cas
N = 1: Il existe par hypothese une seule probabilite P pour laquelle S0 , S1 est une
martingale. Cette propriete secrit, pour a = S0 ,

a = E(S1 |F0 ) = E(S1 )

Notons limage de P par S1 a. La probabilite sur R est centree. Si S1 prend au


moins 3 valeurs, on a vu au lemme quil existe equivalente a centree et differente
de . Si = d/d on a, pour tout g : R R mesurable positive,
Z Z
E(g(S1 a)(S1 a)) = g(x)(x) d(x) = g(x) d(x)

Posons dQ = (S1 a)dP. Prenant dabord g = 1 puis g(x) = x on voit que Q est
une probabilite et que Z
S1 dQ = a

Donc S0 , S1 est aussi une martingale sous Q. Absurde. Ceci montre lhypothese de
recurrence pour N = 1.
Supposons maintenant le resultat vrai a lordre N 1. Comme on la note, ceci en-
traine que (S0 , , SN 1 ) ne prend quun nombre fini de valeurs. La loi conditionnelle
est donc facile a calculer. Sur S0 = a0 , , SN 1 = aN 1 ,

E(f (SN )|(S0 , , SN 1 )) = E(f (SN )|{S0 = a0 , , SN 1 = aN 1 ),

pour tout f mesurable borne. Si il existe (a0 , , aN 1 ) pour lesquels la loi condi-
tionnelle de SN prend au moins 3 valeurs, par le lemme, on construit alors comme
au dessus une fonction telle que (a0 , ,aN 1 ) (SN ) pour laquelle

E(SN aN 1 )(a0 , ,aN 1 ) (SN aN 1 )|{S0 = a0 , , SN 1 = aN 1 ) = 0

En posant
(S0 , , SN ) = (SN aN 1 )
si S0 = a0 , , SN 1 = aN 1 et 1 sinon, on voit que pour dQ = (S0 , , SN )dP,
on a encore une martingale, ce qui est absurde.
80 Marches a temps discret, AOA, completude
Chapitre 7

Theorie du Portefeuille de
Markowitz

7.1. La notion dUtilite


Considerons une experience aleatoire , dependant dun parametre (controle)
u C et donnant le gain Gu (). En labsence daleatoire la question: que signifie
maximiser le gain ? est claire. On cherche maxuC Gu .
Meme si lon se restreint a des criteres bases sur lesperance (et les mathematiques
de la finance montrent justement que ce nest pas forcement ce quil faut faire...), la
question nest pas si claire. Que choisir entre maxuC E(Gu ) et maxuC E((Gu ))ou
est une fonction croissante ? Par exemple, si Gu 0 doit on preferer maxuC E( Gu )
? maxuC E(Gu )? maxuC E(G2u ) ?
Dans le cas deterministe les controles u optimaux sont les memes car est crois-
sante mais pas dans la cas aleatoire.
La question se pose du choix de cette fonction ? Elle doit evidemment etre
croissante, mais il est souvent naturel aussi de la supposer concave. Rappelons

Definition 7.1.1 Une fonction : R R est convexe si

(x + (1 )y) (x) + (1 )(y)

pour tout [0, 1] et x, y R. Elle est dite concave si est convexe.

Considerons un critere de choix base sur lesperance dune fonction du gain G.


Une telle fonction est appelee utilite en economie. On dit quune fonction traduit
laversion pour le risque si elle favorise un gain sur par rapport a un gain aleatoire
de meme esperance. On veut donc que, si G est un gain aleatoire, le critere favorise
le gain X = (E(G)) au gain Y = (G), autrement dit E(Y ) E(X) cest a dire

E((G)) (E(G))
82 Theorie du Portefeuille de Markowitz

Proposition 7.1.2 Linegalite precedente est vraie pour toute variable aleatoire reelle
G si et seulement si est concave.

Preuve: Si cette propriete est vraie, en prenant la v.a. G egale a x avec probabilite
et y avec probabilite 1 , ou 0 1, on voit que

(x) + (1 )(y) = E((G)) (E(G)) = (x + (1 )y))

donc est concave. Reciproquement si est concave, pour toute probabilite sur R
desperance finie, Z Z
( x d(x)) (x) d(x)

En effet, ceci decoule de linegalite de Jensen que lon va montrer en utilisant le lemme
suivant.

Lemme 7.1.3 Une fonction continue conxexe f : R R est lenveloppe superieure


dune famille de droites. Plus precisement si E(f ) = {(a, b) R; f (x) ax + b, x
R} alors, pour tout x R,

f (x) = max{ax + b; (a, b) E(f )}

Preuve: Lensemble C = {(x, y) R2 ; y f (x)} etant un ensemble convexe ferme,


le resulte du theoreme de projection.

Proposition 7.1.4 (Inegalite de Jensen) Si f : R R est convexe, pour toute


v.a. X telle que X et f (X) sont integrables, ou positives,

f (E(X)) E(f (X)).

Preuve: Si (a, b) E(f ), f (X) aX + b donc E(f (X)) aE(X) + b donc

E(f (X)) max{aE(X) + b; (a, b) E(f )} = f (E(X))

On montre exactement de la meme facon

Proposition 7.1.5 (Inegalite de Jensen pour lesperance conditionnelle) Si


f : R R est convexe, pour toute v.a. X telle que X et f (X) sont integrables, ou
positives,
f (E(X|F)) E(f (X)|F).

On voit donc quune fonction dutilite sera en general choisie croissante et concave.
Un exemple typique est donne pour x 0 par

(x) = x

avec 0 < 1 ou bien (x) = log(x).


7.2 Multiplicateurs de Lagrange 83

7.2. Multiplicateurs de Lagrange


La cadre naturel de cette section serait celui des varietes, mais on se contente ici du
cas simple. Etant donne une fonction
g : Rn R
et des fonctions f1 , , fd : Rn R il sagit de regarder, localement,
max{g(x); x Rd , f1 (x) = f2 (x) = = fd (x) = 0}.
Rappelons quune fonction f : Rn R est dite differentiable en x si il existe une
forme lineaire dfx sur Rn telle que
f (x + h) = f (x) + dfx (h) + o(khk)
ou o(khk)/khk 0 quand h 0. Si on note f le vecteur gradient de composantes
f
(f )i = x i
on a dfx (h) = hf (x), hi.
Theoreme 7.2.1 Si g a sur lensemble V = {x Rn ; f1 (x) = f2 (x) = = fd (x) =
0} un extremum local en x0 V , si g et f1 , , fd sont differentiables au voisinage
de x0 Rn et si les vecteurs f1 (x0 ), , fd (x0 ) sont lineairement independants,
il existe 1 , , d R, appeles multiplicateurs de Lagrange, tels que
d
X
g(x0 ) = k fk (x0 ).
k=1

Preuve: La preuve nest pas triviale et utilise un argument de calcul differentiel


(genre theoreme des fonctions implicites): Lidee de la preuve est la suivante: si il y
a un extremum sur V en x0 , la differentielle de g en x0 sannule sur lespace tangent
a V en x0 . Or cet espace est exactement {v Rn ; hfk (x0 ), vi = 0, k = 1, , d}.
Donc g(x0 ) doit etre orthogonal a lorthogonal de lespace vectoriel engendre par
fk (x0 ), k = 1, , d. Il est donc dans cet espace.
Pour calculer des extremas desperances, on peut etre amene a deriver sous le
signe somme.

Theoreme 7.2.2 (thm de derivation sous lintegrale) Soit O un (petit) inter-


valle ouvert convexe de Rd , f : O E R ou (E, E, ) est un espace mesure. On
suppose que pour tout y E, la fonction x O 7 f (x, y) est differentiable et quil
existe une fonction g : E R integrable telle que
sup kx f (x, y)k g(y).
xO
R
Si y 7 f (x, y) est integrable, alors, x 7 f (x, y) d(y) est diferentiable et
Z Z
x f (x, y) d(y) = x f (x, y) d(y)
84 Theorie du Portefeuille de Markowitz

Preuve: Par le theoreme de la moyenne (ou accroissements finis), pour tout x O


si x + h O
d
|f (x + h, y) f (x, y)| sup | f (x + th, y)| g(y)khk
0t1 dt

On a donc,
Z Z Z
1
| f (x + h, y) d(y) f (x, y) d(y) hx f (x, y), hi d(y)|
khk
Z
1
|f (x + h, y) f (x, y) hx f (x, y), hi| d(y)
khk
Le terme sous la deuxieme integrale est majore par 2g(y), donc tend vers 0 par le
theoreme de Lebesgue domine.

7.3. Theorie du portefeuille de Markowitz


Un investisseur dispose dune fortune V0 a linstant 0, quil veut placer jusqua
linstant 1 (lunite de temps est ici par exemple le mois ou lannee). Il a acces a
d + 1 actifs aleatoires, A0 , A1 , , Ad de rendement R0 , R1 , , Rd (qui sont donc
des v.a.), par exemple des actions, des obligations, etc... Par definition un produit a
le rendement R sur une periode de temps donnee, si la somme x au temps 0 donne
x(1 + R) a la fin de cette periode. Pour des raisons qui vont apparaitre bientot, il est
commode de supposer que lactif A0 est sans risque, autrement dit que R0 est constant
(pas aleatoire). Linvestisseur cherche a faire, sur une seule periode de temps (donc
pas de dynamique pour linstant), un portefeuille avec ces differents actifs. Cest, par
definition, une combinaison lineaire

V0 = 0 A0 + 1 A1 + + d Ad

de ces actifs. Le portefeuille vaut donc au temps 1,

V1 = 0 A0 (1 + R0 ) + 1 A1 (1 + R1 ) + + d Ad (1 + Rd )

et le rendement G du portefeuille est donc

V1 V0 0 A0 R0 + 1 A1 R1 + + d Ad Rd
G= = .
V0 V0

On note xk = k Ak /V0 la proportion de la fortune V0 investie dans lactif k. On a


donc
1 = x0 + x1 + + xd
et
G = x0 R0 + x1 R1 + + xd Rd .
7.3 Theorie du portefeuille de Markowitz 85

On posera x = (x1 , , xd ) , attention sans x0 .


Par definition le portefeuille de Markowitz est celui qui minimise la variance du
rendement du portefeuille, pour une esperance de ce rendement fixee.
Dans la suite on note R = (R1 , , Rd ) donc R est un vecteur colonne (attention
la aussi que R0 napparait pas) et on introduit le vecteur desperance et la matrice
de covariance
E(R), = E((R E(R))(R E(R))
On note 1 le vecteur de Rd dont toutes les composantes sont egales a 1, 1 =
(1, , 1) , et on pose
R = E(R), S = E(R) R0 1.

7.3.1. Cas sans taux fixe


Commencons par considerer le cas ou il ny a pas dactif A0 au taux fixe R0 . On a
alors
x1 + x2 + + xd = 1
donc x 1 = 1. On a R = E(R), G = x R, donc

d
X
E(G) = xi E(Ri ) = x R, V ar(G) = x x.
i=1

On supposera que est inversible, ce qui signifie que les produits sont diversifies
(aucun nest combinaison lineaire des autres). On pose

a = 1 1 R, b = R 1 R, c = 1 1 1, d = bc a2

(remarque b, c > 0 et par Cauchy Schwarz d 0 ).

Proposition 7.3.1 Si est inversible et d > 0, a esperance fixee E(G) = m, et sans


taux fixe, le portefeuille de variance V ar(G) minimale est obtenu pour

x = 1 R + 1 1

et est de variance
2 = m +
avec
cm a b am
= , = .
d d

Preuve: Nous cherchons donc

min x x, x R = m, x 1 = 1.
86 Theorie du Portefeuille de Markowitz


Pour lesthetique, pour g(x) = x 2x , f1 (x) = x R m, f2 (x) = x 1 1, on cherche
min g sur {f1 = f2 = 0}. Si le minimum est atteint en x, il existe des multiplicateurs
de Lagrange et tels que

g(x) = f1 (x) + f2 (x)

Ce qui secrit
x = R + 1
dou
x = 1 R + 1 1.
On a de plus x R = m et x 1 = 1, donc la variance mimum est

x x = x (R + 1) = m + .

Et
m = x R = R 1 R + 1 1 R = b + a
avec
1 = x 1 = R 1 1 + 1 1 1 = a + c
cma bam
ce qui donne = d , = d .

7.3.2. Frontiere de Markowitz


Regardons la courbe obtenue par les couples (Ecart type, Esperance) de tous les porte-
feuilles optimaux. On a

E(G) = m = x R, V ar(G) = x x

avec
x x = x (R + 1) = m + .
Donc, en posant 2 = V arG,

cm a b am cm2 2am + b
2 = m+ =
d d d
ce que lon peut reecrire sous la forme

c2 (m a/c)2
c 2 = 1.
d
Dans le plan de coordonnees (, m), cest lequation dune hyperbole de centre (0, a/c)
et dasymptotes r r
a d a d
m= + , m = .
c c c c
Lensemble des portefuilles optimaux, appellee frontiere efficace, est la branche superieure
de lhyperbole.
7.3 Theorie du portefeuille de Markowitz 87

7.3.3. Avec un actif sans risque, a taux fixe, Theorie de Tobin


On considere le cas ou x0 nest pas necessairement nul. Pour tout choix de x =
(x1 , , xd ) on peut alors constituer un portefeuille en posant

d
X
x0 = 1 xk .
k=1

Il ny a donc plus la contrainte x 1 = 1.


Puisque
G = x0 R0 + x1 R1 + + xd Rd
on a

E(G) = x0 R0 + x E(R) = (1 x 1)R0 + x E(R) = R0 + x (E(R) R0 1)

donc (rappelons que S = E(R) R0 1),

E(G) = R0 + x S.

Par ailleurs, puisque R0 est constant,

V ar(G) = x x.

Theoreme 7.3.2 Le portefeuille G desperance E(G) = m fixee et de variance min-


imum 2 est donne par

m R0 2 (m R0 )2
x = 1 S, = , = .
S 1 S S 1 S

Preuve: Nous cherchons donc min x x sur lensemble x S m + R0 = 0. Comme au


dessus, il existe un multiplicateur de Lagrange tel que, au point x ou le minimum
est atteint,
x = S, x S = m R0
donc,
x = 1 S.
En remplacant, S 1 S = m R0 donc

m R0
=
S 1 S
La variance du portefeuille optimal est

V ar(G) = 2 = x x = x S = (m R0 )
88 Theorie du Portefeuille de Markowitz

donc
(m R0 )2
2 = .
S 1 S

On voit donc que p


m = R0 + S 1 S
Cest lequation dune droite. Un seul parametre donc: .
Sur un dessin, dans le plan, (ecart type, esperance) on peut voir que lon parcoure
la droite passant par (0, R0 ) et tangente a la frontiere efficiente.
On voit quun seul portefeuille dactifs risques (le portefeuille tangent) intervient
dans la solution du probleme.

Figure 7.1: Dessin de J.P. Desquilbet, avec rf = R0

Definition 7.3.3 Un portefeuille est dit MV efficace si il nexiste pas dautre porte-
feuille de meme esperance et de variance plus petite.
7.3 Theorie du portefeuille de Markowitz 89

Il resulte du theoreme quun portefeuille est MV efficace ssi il est de la forme


1 R.
Question: Un portefeuille est-il MV efficace si il nexiste pas dautre portefeuille
de meme variance et desperance plus grande ?
90 Theorie du Portefeuille de Markowitz
Chapitre 8

Controle et filtrage lineaire


optimal

8.1. Le cadre du controle lineaire


Lun des modeles les plus utilises est celui du controle lineaire quadratique avec bruits
gaussiens (Linear Quadratic Gaussian, Linear Regulator Gaussian). On considere le
systeme:
Xn+1 = AXn + BUn + Wn , n N, X0 = x,
ou

1. Xn Rd ,
2. A est une matrice reelle d d ,
3. U Rp , B est une matrice reelle d p et
4. Wn , n N, est une suite de variable aleatoires gaussiennes independantes de
meme loi N (0, V ), cest a dire centrees de matrice de covariance V .

Les vecteurs sont identifies a des matrices colonnes.

Pour le controle, on utilisera essentiellement le fait que les variables aleatoires Wn


sont de carre integrable, centrees non correlees, de meme matrice de covariance V ,
cest a dire en notant W le transpose de W , que
E(Wn ) = 0,
E(Wn Wn ) = V, et E(Wn Wm

) = 0 si m 6= n.
En particulier, V peut etre nul, auquel cas Wn = 0 identiquement et on traite alors
le cas du controle lineaire deterministe. Le cout est
N
X 1
E( c(Xk , Uk ) + (XN )),
k=0
92 Controle et filtrage lineaire optimal

ou c et sont des formes quadratiques de la forme suivante:

c(x, u) = x Qx + u Ru,

(x) = x x,
ou Q et sont donc des matrices d d symetriques semi-definies positives et R est
une matrice symetrique p p definie positive.

Profitons en pour faire un bref rappel sur les matrices symetriques.

8.2. Matrices symetriques


Definition 8.2.1 Une matrice reelle M de taille d d, est dite symetrique si elle
est egale a sa transposee M . Elle est, de plus, semi-definie positive si,

x M x 0, pour tout x Rd ,

et definie positive si

x M x > 0, pour tout x 6= 0, x Rd .

On note Pd lensemble des matrices semi-definies positives dordre d.

Toute matrice dordre d symetrique M est diagonalisable: plus precisement il


existe une matrice orthogonale U dordre d (cest a dire verifiant U = U 1 ) et une
matrice diagonale D (cest a dire que Di,j = 0 si i 6= j) telle que

M = U DU .

Les valeurs propres 1 , , d , de M sont les elements de la diagonale de D et sont


reels.
La matrice symetrique M est semi-definie positive si

1 0, , d 0,

et M est definie positive si et seulement

1 > 0, , d > 0.

On voit donc quune matrice symetrique semi-definie positive est definie positive
si et seulement si elle est inversible. Nous allons utiliser:
Lemme 8.2.2 Soit S une matrice symetrique definie positive dordre p et y Rp
fixe. Le minimum sur u Rp , de la forme quadratique

2u y + u Su

est egal a y S 1 y et est atteint en u = S 1 y.


8.3 Programmation dynamique 93

Preuve: Il suffit de calculer la differentielle. On peut aussi proceder directement:


Pour tout h Rp on a (en remarquant que u Sh = h Su car ce sont des reels)
2(u + h) y + (u + h) S(u + h) = 2u y + u Su + h Sh + 2h (Su + y).
En remplacant h par th ou t est reel on voit que ceci est une fonction de h minimale
en h = 0 si pour tout t R,
t2 h Sh + 2th (Su + y) 0
donc si et seulement si h (Su+y) = 0 pour tout h Rp donc Su+y = 0 et u = S 1 y
et alors
2u y + u Su = 2y S 1 y + (S 1 y) S(S 1 y) = y S 1 y.

Lemme 8.2.3 Si W est un vecteur centre de matrice de covariance V , on a


E(W W ) = tr(V ).

Preuve: Puisque W W est un reel, il est egal a sa trace et donc,


E(W W ) = E(tr(W W )) = E(tr(W W )) = trE(W W ) = tr(V )

8.3. Programmation dynamique


Nous cherchons
NX1

J(x) = min Ex ( c(Xk , Uk ) + (XN )),

k=0
le minimum etant pris sur toutes les strategies = (0 , , N 1 ).
On est dans le cadre de la programmation dynamique, en notant P (u) (x, .) la loi
de Ax + Bu + W ou W est une v.a. de loi N (0, V ). Dans cette situation, lalgorithme
admet une solution explicite. En effet, tout dabord,
JN (x) = x x = x N x
en posant N = . Par le lemme 8.2.3
E(JN (Ax + Bu + WN 1 )) = (Ax + Bu) N (Ax + Bu) + tr(N V ).
Ensuite,
Z

JN 1 (x) = min{x Qx + u Ru + JN (y)P (u) (x, dy)}
u
= min{x Qx + u Ru + E(JN (Ax + Bu + WN 1 ))}
u
= min{x Qx + u Ru + (Ax + Bu) N (Ax + Bu) + tr(N V )}.
u
= min{x (Q + A N A)x + u (R + B N B)u + 2u B N Ax + tr(N V )}
u
= tr(N V ) + x (Q + A N A)x + min{u (R + B N B)u + 2u B N Ax}.
u
94 Controle et filtrage lineaire optimal

En appliquant le lemme avec S = R + B N B, et y = B N Ax on voit que ce


minimum est egal a
JN 1 (x) = x N 1 x + tr(N V )
pour
N 1 = Q + A N A (A N B)(R + B N B)1 (B N A)
et est atteint en
u = KN 1 x
pour
KN 1 = (R + B N B)1 (B N A).
Remarquons que, en utilisant lexpression de JN 1 (x) en fonction du u optimal, et
en remplacant u par sa valeur, on obtient que
x N 1 x = x (Q + A N A)x + u (R + B N B)u + 2u B N Ax
pour u = KN 1 x donc que

N 1 = Q + KN 1 RKN 1 + (A + BKN 1 ) N (A + BKN 1 ) (8.1)
Ceci montre que N 1 est semi definie positive, car cest la somme de matrices semi
definies positives. Comme a une constante pres, JN 1 est de la meme forme que JN ,
on peut reprendre le meme calcul pour obtenir JN 2 , etc... (ou plus rigoureusement
en faisant une recurrence retrograde) Finalement on obtient
Theoreme 8.3.1 Posons (Transformation de Riccati)
() = Q + A A (A B)(R + B B)1 (B A)
On considere la suite de matrices definies par les equations (retrogrades) suivantes,
N = puis, pour n < N ,
n = (n+1 )
Alors
N
X

Jn (x) = x n x + tr(k V )
k=n+1
et le controle optimal est Un = Kn Xn ou
Kn = (R + B n+1 B)1 (B n+1 A).

Si, par exemple, d = p = 1, on obtient donc, pour tout 0 n < N ,


N
ban 2
X
Un = Xn , J n (x) = n x + k V,
R + b2 n
k=n+1

ou n est definie par lequation sur R+


QR + (b2 Q + Ra2 )n+1
n = + R, 0 n < N,
R + b2 n+1
et N = . Remarquons lapparition dune transformation homographique a coeffi-
cients positifs.
8.4 Variantes 95

8.4. Variantes
8.4.1. Coefficients dependant du temps
De nombreuses variantes sont possibles. Deja on peut supposer que les matrices
A, B, Q, R, V et donc c dependent de n. On aura le meme type de resultat avec
la meme demonstration. Il suffira de remplacer lequation n = (n+1 ) par n =
n (n+1 ) ou

n () = Qn + An An (An Bn )(Rn + Bn Bn )1 (Bn An )

et chaque terme tr(n V ) par tr(n Vn1 ).

8.4.2. Correction de trajectoire


Une autre variante utile est la suivante. Imaginons que lon veut que Xn soit proche
dun vecteut n connu a lavance (par exemple une trajectoire nominale ...). Dans ce
cas on cherchera a rendre Xn n petit, donc a minimiser le critere
N
X 1
E( ck (Xk , Uk ) + (XN N ))
k=0

ou ck (x, u) = (xk ) Q(xk )+u Ru. On veut se ramener a la situation precedente.


Pour cela on pose Xk = Xk k . Le critere est bien de la forme
N
X 1
E( ck (Xk , Uk ) + (XN ))
k=0

mais maintenant, on a

Xn+1 = AXn + BUn + Wn + An n+1

Une facon de faire est daugmenter de un la dimension de lespace des etats, en posant
 
Xn
Xn =
1

En effet introduisons les matrices


     
A vn B Wn
An = , B = , Wn =
0 1 00 0

ou vn = An n+1 . Cette equation secrit

Xn+1 = An Xn + BUn + Wn

on est donc ramene au cas precedent.


Application a la poursuite...
96 Controle et filtrage lineaire optimal

8.5. Le probleme du filtrage


8.5.1. Gaussiennes
Une famille gaussienne estP une famille Zi , i I, de variables aleatoires telle que toute
combinaison lineaire finie nk=1 k Zik suit une loi normale. On parlera de vecteur ou
de processus gaussien.

Travaillons dans Rd et considerons les vecteurs comme des vecteurs colonnes. Soit
m Rd et Q une matrice symetrique semi-definie positive dordre d. Un vecteur
gaussien X Rd de loi N (m, Q) est un vecteur aleatoire dont la transformee de
Fourier verifie Q

E(ei X ) = ei m e 2
pour tout Rd . Alors
E(X) = m
et
Var(X) = Q
ou lon note Var(X) la matrice de covariance de X definie par
Var(X) = E((X E(X))(X E(X)) )
Reciproquement si X est un vecteur desperance m et de matrice de covariance Q
tel que toutes les combinaisons lineaires X, Rd , des composantes de X ont des
lois gaussiennes, la formule precedente montre que X est un vecteur gaussien de loi
N (m, Q). Ecrivons X = (U, V ) ou U Rp et V Rq . Supposons que, pour tout
k, j, 1 k p, 1 j q,
Cov(Uk , Vj ) = E((Uk E(Uk ))(Vj E(Vj )) = 0
ou Uk , Vj sont les composantes de U et V . Alors,
 
Var(U ) 0
Q=
0 Var(V )
et donc, si mU = E(U ) et mV = E(V ) et si a Rp , b Rq , puisque
(a, b) X = (a, b) (U, V ) = a U + b V
on a
U +b V m Q
E(ei(a )
) = ei e 2

m +b m a Var(U )a b Var(V )b
)
= ei(a U
e
V 2 e 2

a Var(U )a b Var(V )b
= eia mU e 2 eib mV e 2
U V
= E(eia )E(eib )
La transformee de Fourier du couple (U, V ) est donc le produit des transformees de
Fourier de U et de V , donc U et V sont independantes. On a donc montre la partie
non triviale du theoreme fondamental suivant:
8.5 Le probleme du filtrage 97

Theoreme 8.5.1 Si le vecteur (U, V ) est gaussien une condition necessaire et suff-
isante pour que U et V soient independantes est que toutes leur composantes verifient
Cov(Uk , Vj ) = 0

Considerons maintenant un grand vecteur gaussien


(X1 , X2 , , Xn , Z)
et cherchons la loi conditionnelle de Z sachant (X1 , , Xn ). Les v.a. X1 , , Xn , Z
sont de carre integrable (car gaussiennes) donc dans L2 (, A, P). Notons H le sous
espace de L2 de dimension finie engendre par les fonctions X1 , , Xn et la fonction
constante 1 et notons Z la projection orthogonale de Z sur H (dans lespace de
Hilbert L2 muni du produit scalaire hU, V i = E(U V )).
Lemme 8.5.2 La variable aleatoire Z Z est independante de (X1 , , Xn ) de loi
gaussienne centree et
Z = E(Z|(X1 , , Xn )).

Preuve: Par 2
P definition de la projection dans L , Z est le seul vecteur de la forme
Z = 0 + k=1 k Xk tel que
hZ Z, 1i = E(Z Z) = 0
et pour tout k = 1, , n
hZ Z, Xk i = E((Z Z)Xk ) = 0
donc, vu la ligne precedente
Cov(Z Z, Xk ) = 0.
Il suffit donc dappliquer le theoreme pour obtenir lindependance, enfin
E(Z|(X1 , , Xn ) = E(Z Z|(X1 , , Xn ) + E(Z|(X1 , , Xn ) = Z.

Proposition 8.5.3 La loi conditionnelle de Z sachant (X1 , , Xn ) est la loi gaussi-


enne desperance (conditionnelle) la projection orthogonale de Z sur lespace vectoriel
engendre par 1, X1 , , Xn .
Preuve: Par exemple en utilisant la transformee de Fourier; en ecrivant que Z =
Z + Z Z
E(eiZ |(X1 , , Xn )) = eiZ E(ei(ZZ) |(X1 , , Xn )) = eiZ E(ei(ZZ) )
puique Z est mesurable par rapport a (X1 , , Xn ) alors que Z Z est independant
de cette tribu. Par ailleurs Z Z est gaussienne comme combinaison lineaire du
vecteur gaussien (X1 , , Xn , Z). Enfin, Zn+1 Xn+1 = A(Zn Xn ) + BUn est bien
Fn mesurable. 
Tout ceci setend au cas vectoriel en projetant sur les composantes des vecteurs
Xk .
98 Controle et filtrage lineaire optimal

8.6. Le Filtre de Kalman Bucy


8.6.1. Le Probleme
On considere les equations, pour n 0,

Xn+1 = AXn + n+1 ,


Yn = CXn + n ,
ou Xn , n sont des v.a. de Rd , Yn et n des v.a. de Rp , A est une matrice d d et C
une matrice p d. On suppose que

X0 , 1 , 2 , , 0 , 1 , sont des vecteurs gaussiens independants,

n est un vecteur centre de matrice de covariance Q,

n est centre de matrice de covariance R inversible,

Les matrices A et C sont deterministes.

Le but du filtre de Kalman Bucy est de calculer

Xn = E(Xn |(Y0 , , Yn ))

et
Pn = Var(Xn Xn ),
ou on note Var la matrice de covariance, en utilisant Xn1 , Pn1 et Yn , donc de facon
recursive.
Remarquons que les vecteurs

(0 , X0 , Y0 , 1 , 1 , X1 , Y1 , 2 , 2 , X2 , Y2 , , n , n , Xn , Yn )

sont gaussiens.

8.6.2. Decomposition a laide de linnovation


On introduit

La meilleure approximation Xn quon peut faire de Xn au temps n 1:

Xn = E(Xn /(Y0 , . . ., Yn1 )),

La matrice Pn de la covariance de lerreur estimee

Pn = Var(Xn Xn ),
8.6 Le Filtre de Kalman Bucy 99

Linnovation Jn apportee par la connaissance de Yn :

Jn = Yn E(Yn |(Y0 , , Yn1 )).

Par le lemme suivant Jn mesure bien la partie de Yn qui apporte une nouvelle infor-
mation, donc qui innove).
Lemme 8.6.1 Jn est independant de Y0 , , Yn1 et gaussienne.
On verifie tres facilement les relations suivantes,
Lemme 8.6.2
Xn = AXn1 , (8.2)

Jn = Yn C Xn = C(Xn Xn ) + n , (8.3)

Pn = APn1 A + Q. (8.4)

Remarquons que Jn est orthogonal aux vecteurs 1, Y0 , . . ., Yn1 et que

(Y0 , , Yn1 , Yn ) = (Y0 , , Yn1 , Jn ).

On en deduit (en utilisant le lemme qui suit) que Xn est la somme de la projec-
tion orthogonale de Xn sur le sous espace de L2 engendre par les composantes des
vecteurs 1, Y0 , , Yn1 , cest a dire Xn , et de sa projection sur celui engendre par
les composantes de Jn . Autrement dit il existe une matrice Kn , dordre d p, appelee
la matrice de gain de Kalman, telle que

Xn = Xn + Kn Jn ,

et Xn et Kn Jn sont orthogonaux (Jn est donc bien une innovation).


Lemme 8.6.3 Soient H1 et H2 deux sous espaces vectoriels fermes orthogonaux dun
espace de Hilbert H et H = H1 + H2 . Notons , 1 , 2 les projections orthogonales sur
H, H1 et H2 . Alors
= 1 + 2 .

Preuve: Soit x H. Verifions que 1 (x) + 2 (x) est bien la projection de x sur H.
Dabord il est clair que 1 (x) + 2 (x) H1 + H2 = H. Ensuite, pour tout h1 H1

hx 1 (x) + 2 (x), h1 i = hx 1 (x), h1 i + h2 (x), h1 i = 0

car hx 1 (x), h1 i = 0 puisque 1 (x) est la projection de x sur H1 et h2 (x), h1 i = 0


car H1 et H2 sont orthogonaux. De meme hx 1 (x) + 2 (x), h2 i = 0 pour tout
h2 H2 . Donc
hx 1 (x) + 2 (x), h1 + h2 i = 0
ce qui prouve bien que 1 (x) + 2 (x) = (x).
100 Controle et filtrage lineaire optimal

8.6.3. Calcul de la matrice de gain


Puisque Kn Jn est la projection orthogonale de Xn sur Jn ,
E((Xn Kn Jn )Jn ) = 0
donc
E(Xn Jn ) = Kn E(Jn Jn ). (8.5)
Comme Jn est centre et independant de (Y0 , , Yn1 ), avec (8.3)
E(Xn Jn ) = E((Xn Xn )Jn ) = E((Xn Xn )(C(Xn Xn ) + n ) ) = Pn C
donc
Kn E(Jn Jn ) = Pn C . (8.6)
On a aussi
E(Jn Jn ) = E((C(Xn Xn ) + n )(C(Xn Xn ) + n ) )
= CE((Xn Xn )(Xn Xn ))C + E(n n ) = CPn C + R.
On en tire Kn (rappelons que lon a suppose R inversible):
Kn = E(Xn Jn )E(Jn Jn )1 = Pn C (CPn C + R)1 . (8.7)
Pour terminer, calculons Pn :
Pn = E((Xn Xn )(Xn Xn ) )
= E((Xn Xn Kn Jn )(Xn Xn Kn Jn ) )
= E((Xn Xn ))(Xn Xn ) ) 2E((Xn Xn )(Kn Jn ) ) + E(Kn Jn (Kn Jn ) )
= E((Xn Xn ))(Xn Xn ) ) 2E(Xn (Kn Jn ) ) + E(Kn Jn (Kn Jn ) )
= Pn Kn E(Jn Jn )Kn
= Pn Kn CPn
ou lon a utilise que Xn et Kn Jn sont orthogonaux, les relations (8.5) et (8.6).

8.6.4. Lalgorithme
En resume, lalgoritme est le suivant:
Theoreme 8.6.4 (Kalman-Bucy)
Pn = APn1 A + Q (Calcul de la covariance de lerreur estimee)
Kn = Pn C (CPn C + R)1 (Calcul de la matrice de gain de Kalman )
Pn = Pn Kn CPn (Calcul de la covariance de lerreur )
Xn = AXn1 +Kn (Yn CAXn1 ) ( Utilisation de la nouvelle information)

Il faut disposer dune condition initiale. Les trois premieres etapes sont deterministes
et peuvent etre preprogrammees.
8.7 Controle avec information imparfaite 101

8.6.5. Equation de Riccati


Rappelons lequation de Riccati du controle:

n = Q + A n+1 A (A n+1 B)(R + B n+1 B)1 (B n+1 A)

Posons, pour R et Q fixes,

%(A,B) () = Q + A A (A B)(R + B B)1 (B A).

Regardons lequation satisfaite par Pn ,



Pn+1 = APn A + Q = A(Pn Kn CPn )A + Q

= Q + APn A AKn CPn A


avec
Kn = Pn C (CPn C + R)1
ce qui secrit aussi, puisque Pn est symetrique,

Pn+1 = Q + APn A APn C (CPn C + R)1 CPn A

Cest donc de la forme



Pn+1 = %(A ,C ) (Pn ).
On obtient donc lequation de Riccati en remplacant A par A et B par C .

8.7. Controle avec information imparfaite


On considere le systeme suivant, pour n 0,

Zn+1 = AZn + BUn + n+1 ,

Tn = CZn + n ,
ou Un Rr , B est une matrice reelle d r avec Z0 = x0 , (ou x0 est une constante),
Zn Rd , Tn Rp , A est une matrice dd et C une matrice pd . 1 , 2 , , 1 , 2 ,
sont des vecteurs gaussiens independants, n est centre de matrice de covariance Q,
n est centre de matrice de covariance R inversible. On cherche a determiner
N
X 1
min E( (Zk SZk + Uk Uk ) + (ZN )),
k=0

ou S est une matrice d d symetrique semi-definie positive et est une matrice


symetrique r r definie positive, le minimum etant pris sur lensemble des vecteurs
U0 , , UN 1 tels que U0 est constant et Un est Fn mesurable ou

Fn = (T0 , , Tn ),
102 Controle et filtrage lineaire optimal

pour n 0. La raison pour laquelle on suppose que Un est Fn -mesurable, est que
lon observe seulement Fn et il est naturel de ne pouvoir utiliser que lobservation.
On considere aussi les equations, X0 = x0 et, pour n 0,

Xn+1 = AXn + n+1 , Yn = CXn + n

ou Xn , n sont des v.a. de Rd , Yn et n des v.a. de Rp , avec les memes v.a. (n , n )


quau dessus. On a vu que

Xn = E(Xn |(Y0 , , Yn )), Pn = Var(Xn Xn ),

verifie

Pn = Pn Kn CPn , ou Pn = APn1 A + Q, Kn = Pn C (CPn C + R)1 .

Lemme 8.7.1 Zn Xn est Fn1 mesurable et Fn = (Y0 , , Yn ).

Preuve: Remarquons que

Zn Xn = A(Zn1 Xn1 ) + BUn1

Tn Yn = C(Zn Xn ) = CA(Zn1 Xn1 ) + CBUn1

On a donc T0 Y0 = C(Z0 X0 ) = 0. Donc (T0 ) = (Y0 ). Ensuite, supposons par


recurrence que
Fn1 = (T0 , , Tn1 ) = (Y0 , , Yn1 )

et que Zn Xn est Fn1 -mesurable. Alors

Tn Yn = C(Zn Xn ) = A(Zn1 Xn1 ) + BUn1

est aussi Fn1 mesurable, donc Tn (Fn1 , Yn ), ce qui montre que (T0 , , Tn )
(Y0 , , Yn ) et Yn (Fn1 , Tn ), ce qui montre que (Y0 , , Yn ) (T0 , , Tn ).
Enfin, Zn+1 Xn+1 = A(Zn Xn ) + BUn est bien Fn mesurable. 
On pose
Zn = E(Zn |Fn ).

Lemme 8.7.2 Les v.a. Jn = Yn CAXn1 sont gaussiennes independantes et

Zn = AZn1 + BUn1 + Kn Jn .
8.7 Controle avec information imparfaite 103

Preuve: Dabord,
Zn = Xn + (Zn Xn )
car Zn = E(Zn |Fn ) = E(Xn + (Zn Xn )|Fn ) = Xn + E((Zn Xn )|Fn ) et on deja
remarque que Zn Xn est Fn1 mesurable, donc Fn mesurable. Puisque les Jn sont
les innovations du cours, on sait quelles sont gaussiennes et independantes. On a

Xn = AXn1 + Kn Jn

donc
Zn = AXn1 + Kn Jn + (Zn Xn ).
or
Zn Xn = A(Zn1 Xn1 ) + BUn1
On a donc la relation voulue. 

Lemme 8.7.3
N
X 1 N
X 1
E( Zk SZk + Uk Uk + (ZN )) E( Zk S Zk + Uk Uk + (ZN ))
k=0 k=0

ne depend pas des valeurs de U0 , U1 , , UN 1

En effet,
E(Zk SZk Zk S Zk ) = E((Xk Xk ) S(Xk Xk ))
car
Zk SZk = (Zk + (Zk Zk )) S(Zk + (Zk Zk ))

= Zk S Zk + Zk S(Zk Zk ) + (Zk Zk ) S Zk + (Zk Zk ) S(Zk Zk )


Or
E(Zk S(Zk Zk )) = E(E(Zk S(Zk Zk )|Fk ) = 0
Donc
E(Zk SZk ) = E(Zk S Zk ) + E((Xk Xk ) S(Xk Xk ))
Et on montre de la meme facon que E(ZN )) = E((ZN )).

Theoreme 8.7.4 Le probleme de minimisation de

N
X 1
min E( Zk SZk + Uk Uk + (ZN )),
k=0

a une solution.
104 Controle et filtrage lineaire optimal

Preuve: Par le lemme precedent, trouver ce minimum revient a trouver le minimum


N
X 1
min E( Zk S Zk + Uk Uk + (XN ))
k=0

avec des Uk , Fk -mesurables, lorsque

Zn = AZn1 + BUn1 + Kn Jn .

Ceci est obtenu par la theorie du controle du debut de ce chapitre. On obtient Un


comme une fonction lineaire de Zn , et Zn sobtient par recurrence par les relations

Xn = AXn1 + Kn (Yn CAXn1 ),

Yn = Tn CA(Zn1 Xn1 ) CBUn1 ,


Zn = Xn + A(Zn1 Xn1 ) + BUn1 .
Chapitre 9

Filtrage Markovien non lineaire:


Cas fini

9.1. Introduction
Dans ce chapitre on veux decrire rapidement lalgorithme utilise dans le filtrage des
chaines de Markov. Il sagit de lalgorithme de Baum-Welsh employe pour les chaines
de Markov cachees (HMM=Hidden Markov chains) par exemple dans la reconnais-
sance de la parole.
On se place dabord dans un cadre general: Etant donne une chaine de Markov
Xn a valeurs dans un espace a priori arbitraire E, on cherche a approcher le mieux
possible Xn au vu dune observation Y0 , Yn bruitee de X0 , Xn et ce de facon
recursive pour pouvoir limplanter en temps reel. Autrement dit on veut pouvoir
passer facilement de cette approximation a celle de Xn+1 , au vu de Y0 , , Yn+1 .
Mathematiquement il sagit de calculer effectivement et rapidement (temps reel) la
loi conditionnelle de Xn sachant Y0 , , Yn , cest a dire par definition, lensemble
des
E(f (Xn ))|(Y0 , , Yn ))
ou f est mesurable positive.

9.2. Le modele
On ne va considerer que le cas le plus important en pratique. Celui a espace detat
fini. On considere donc une chane de Markov homogene Xn , n 0, a valeurs dans E
fini de probabilite de transition P , donc
E(f (Xn+1 )|(X0 , , Xn ) = P f (Xn )
pour tout f positif. Lobseravtion est donne par une suite Yk de variables aleatoires
a valeurs dans un espace fini F . Pour simplifier, on se place dans lexemple usuel
suivant:
Yn = h(Xn ) + Vn
106 Filtrage Markovien non lineaire: Cas fini

ou h : E F , et les variables aleatoires Vn sont independantes et de meme loi et


independantes des Xn .

9.3. Les equations du filtrage


Introduisons les notations suivantes, tres utilisees par les ingenieurs, qui considerent
plus les Y0 , , Yn observes comme des donnees que comme des variables aleatoires
(assimilation des variables aleatoires a des ... variables).
On introduit les notations suivantes: pour toute fonction f : E R+
Z
f dn = E(f (Xn )|(Y0 , , Yn ))

et Z
f d
n = E(f (Xn )|(Y0 , , Yn1 ))

On fera attention que n et n dependent de Y0 , , Yn . Ce sont simplement des


probabilites dependant de ce parametre Y0 , , Yn , que nous pourrons considerer
comme fixe, car connu a linstant n.
Le filtrage va se faire en deux etapes: letape de prediction et celle de correction
(ou mise a jour).

9.3.1. Letape de prediction


Lemme 9.3.1

E(f (Xn )|(Y0 , , Yn1 , Xn1 )) = P f (Xn1 )

Preuve:
On a
E(f1 (Xn )f2 (Xn1 )(Y0 , , Yn1 ))
= E(P f1 (Xn1 )f2 (Xn1 )(Y0 , , Yn1 ))
ce qui prouve le lemme. 
En general, si est une probabilite sur E, on note P la probabilite sur E definie
par Z
(P )(A) = P (x, A) d(x)

Pour toute fonction f : E R+


Z Z
f d(P ) = P f d.

La proposition suivante nous dit ce que lon peut predire sur Xn a linstant n 1.
9.3 Les equations du filtrage 107

Proposition 9.3.2

n = n1 P

Preuve: Avec le lemme precedent,


Z
f dn = E(f (Xn )|(Y0 , , Yn1 )) =

= E(E(f (Xn )|(Y0 , , Yn1 , Xn1 ))|(Y0 , , Yn1 ))


= E(P f (Xn1 )|(Y0 , , Yn1 ))
Z
= P f dn1

9.3.2. Letape de mise a jour ou correction


Lemme 9.3.3 Si v(x) = P(Vn = x), posons

g(x, y) = v(y h(x))

Alors
m
Y
E(f (X0 , , Xn )1{Y0 =y0 , ,Ym =ym } ) = E(f (X0 , , Xn ) g(Xk , yk ))
k=1

Preuve: Il suffit decrire que

E(f (X0 , , Xn )1{Y0 =y0 , ,Ym =ym } ) =

E(f (X0 , , Xn )1{h(X0 )+V0 =y0 , ,h(Xm )+Vm =ym } ).


En utilisant le lemme 9.3.3, on a

E(f (Xn ) nk=0 gk (Xk , yk ))


Z Q
f dn = E(f (Xn )|(Y0 , , Yn )) =
E( nk=0 gk (Xk , yk ))
Q

Qn1
E(f (Xn )gn (Xn , yn ) k=0 gk (Xk , yk ))
= Qn
E( k=0 gk (Xk , yk ))
sur lensemble Y0 = y0 , , Yn = yn . De la meme facon on obtient que
Qn1
E(f (X0 , , Xn ) k=0 gk (Xk , yk ))
E(f (X0 , , Xn )|(Y0 , , Yn1 )) = Qn1
E( k=0 gk (Xk , yk ))

et en particulier, pour toute fonction l sur E,


Z
l d
n = E(l(Xn )|(Y0 , , Yn1 )) (9.1)
108 Filtrage Markovien non lineaire: Cas fini

donc avec (9.1) applique a la fonction l(x) = f (x)gn (x, yn ),


Z Z Qn1
E( k=0 gk (Xk , yk ))
f dn = f (x)gn (x, yn ) dn (x) Qn
E( k=0 gk (Xk , yk ))

ce qui secrit aussi, de facon plus agreable (prendre f = 1 pour identifier la constante):

Proposition 9.3.4

f (x)gn (x, yn ) d
Z R
n (x)
f dn = R
gn (x, yn ) dn (x)

Pour resume

Theoreme 9.3.5 Le filtre est donne par

prediction mise a jour gn (x, Yn )


n (x)
n1
n = n1 P n (x) = P
zE gn (z, Yn )n (z)

Cest lalgorithme du filtrage de Baum Welsh des chaines de Markov cachees.


Partie II

Modeles a temps continu


Chapitre 10

Calcul stochastique a temps


continu, par rapport au
brownien

10.1. Mouvement Brownien


10.1.1. Famille gaussienne
Donnons nous un espace de probabilite (, F, P). Rappelons quune famille {Xi , i I}
de variables aleatoires est dite gaussienne si toute combinaison lineaire finie de ces
v.a. suit une loi normale. La loi globale de cette famille (cest a dire par definition,
la loi de toute sous famille finie que lon appelle vecteur gaussien) est determinee
par les esperances E(Xi ), i I, et les covariances Cov (Xi , Xj ), i, j I. La loi du
vecteur gaussien X = (X1 , , Xn ) est caracterisee par sa transformee de Fourier ou
sa transformee de Laplace: pour Cn ,

Var(X)
E(exp X) = exp( E(X) + )
2
ou X est considere comme un vecteur colonne, E(X) est le vecteur de composantes
E(X1 ), E(Xn ) et Var(X) la matrice de covariance de X definie par

Var(X) = E((X E(X))(X E(X) ).

Si I1 et I2 sont deux parties de I, lindependance de {Xi , i I1 } et {Xi , i I2 } est


equivalente au fait que Cov (Xi , Xj ) = 0 si i I1 et j I2 . Un processus gaussien
est par definition un processus dont les elements forment une famille gaussienne.

10.1.2. Definition du mouvement brownien


Definition 10.1.1 On appelle mouvement brownien le processus Wt , t R+ , a tra-
jectoires continues, tel que W0 = 0 et pour tout 0 s t,
112 Calcul stochastique a temps continu, par rapport au brownien

Wt Ws a une loi N (0, t s)


Wt Ws est independant de Wr , r s.
Si on ne le supposait pas dans la definition, on pourrait montrer que le processus
considere est a trajectoires continues presque surement.
Proposition 10.1.2 Un processus (continu) {Wt , t R+ } est un mouvement brown-
ien si et seulement si cest un processus gaussien verifiant
E(Wt ) = 0, E(Wt Ws ) = min(s, t), pour tout t, s 0.

Preuve: Supposons dabord que Wt , t R+ , est un mouvement brownien. Alors Wt


est centre donc E(Wt ) = 0. De plus, si 0 s t, on sait que Wt Ws est independant
de (Wr , r s), donc en particulier de Ws . Il en resulte que
E(Wt Ws ) = E((Wt Ws + Ws )Ws ) = E(Wt Ws )E(Ws ) + E(Ws2 ) = s.
Reciproquement, supposons les relations vraies et montrons qualors Wt , t R+ , est
un mouvement brownien. Il faut montrer dabord que si 0 s t, Wt Ws est
independant de (Wr , r s). Puisque la famille des Wt , t 0, est gaussienne, il suffit
de verifier que Cov(Wt Ws , Wr ) = 0, si r s t. Or
Cov(Wt Ws , Wr ) = E(Wt Wr ) E(Ws Wr ) = min(t, r) min(s, r) = 0.
Ensuite, il faut voir que, si 0 s t, loi de Wt Ws ne depend que de t s: cette
loi est gaussienne centree et sa variance est
E((Wt Ws )2 ) = E(Wt2 ) + E(Ws2 ) 2E(Wt Ws ) = t + s 2s = t s.
Enfin, Wt est bien centre de variance t.
Corollaire 10.1.3 (Scaling) Soit {Wt , t R+ } un mouvement brownien. Alors
1. pour tout a > 0, {Wt+a Wa , t R+ },
2. pour tout R , {W2 t , t R+ },
3. {tW1/t , t R+ },
sont des mouvements browniens.
Preuve: Les trois assertions se montrent de la meme facon. Traitons par exemple
la seconde. Posons Xt = W2 t . Tout dabord, toute combinaison lineaire des v.a.
Xt est une combinaison lineaire de certains Ws donc est gaussienne. Ceci montre
que le processus {Xt , t 0} est gaussien. Il est continu comme Wt . Il est clair que
E(Xt ) = 0, et
t s
E(Xt Xs ) = 2 E(W2 t W2 s ) = 2 min( , ) = min(s, t).
2 2
Par la proposition precedente, {Xt , t 0} est un brownien.
10.1 Mouvement Brownien 113

Theoreme 10.1.4 (Theoreme de Donsker) Soit X1 , X2 , , Xn , des variables


aleatoires
Pn independantes et de meme loi centree, de variance 1. On pose Sn =
k=1 X k . Alors les processus

1
{ S[nt] , t R+ }
n

sapprochent en loi dun mouvement brownien quand n +.

Preuve: (Indication) Montrons seulement que si 0 s t, le couple ( 1n S[ns] ,


1 S[nt] 1 S[ns] ) converge en loi vers la loi de deux v.a. gaussiennes independantes
n n
centrees de variance s et t s. Dabord il est clair que les deux v.a. 1 S[ns] et
n
1 (S[nt] S[ns] ) sont independantes. Il suffit donc de les etudier separement. Or
n
p
1 [ns] X1 + X2 + + X[ns]
S[ns] = p
n n [ns]

donc il resulte du theoreme central limite usuel que ceci tend en loi vers la loi de

sX ou X a une loi normale centree reduite. Le second terme a la meme loi que
1 S[nt][ns] et se traite donc de la meme maniere.
n

10.1.3. Quelques proprietes


Le resultat technique suivant va nous permettre de decrire quelques proprietes non
triviales du mouvement brownien.

Lemme 10.1.5 Si {Wt , t R+ } est un mouvement brownien,

Wt
lim sup = +, p.s.
t+ t


Preuve: Posons R = lim sup Wt / t. Montrons dabord que R est constant presque
surement. Pour tout s > 0, on a
Ws+t Ws
R = lim sup
t+ t

donc est independant de (Wr , r s). Ceci etant vrai pour tout s > 0, R est indep-
endant de (Wr , r 0). Par ailleurs, R est mesurable par rapport a cette tribu. Donc
R est une v.a. independante delle meme. Il en resulte que soit R = +, soit il existe
une constante telle que R = , p.s. Ce dernier cas est impossible car il entraine que
P( W
t + 1) 0 quand t + alors que P( W
t
t + 1) = P(W1 + 1) 6= 0.
t
114 Calcul stochastique a temps continu, par rapport au brownien

Proposition 10.1.6 Pour preque tout , la trajectoire t 7 Wt (),

1. passe une infinite de fois par chaque point de R;

2. nest nulle part derivable.

Preuve: Il resulte du lemme precedent que, p.s.,

lim sup Wt = +.
t+

Comme {Wt , t 0} est aussi un mouvement brownien, on a aussi

lim inf Wt = .
t+

Ces deux relations assurent, par continuite, que presque toute trajectoire passe par
tout point une infinite de fois. En ce qui concerne la non derivabilite, nous allons
seulement etablir que les trajectoires ne sont pas derivables en t = 0. Posons Bt =
tW1/t . Comme Bt , t 0, est un mouvement brownien, on peut lui appliquer le lemme:
presque surement,
Bt
lim sup = +.
t+ t
Donc, en posant s = t1 ,

1
lim sup Ws = lim sup sB1/s = +,
s0 s s0

ce qui entraine que la trajectoire nest pas derivable en 0, p.s.. Puisque Wt+a Wa , t
0 est aussi un brownien, W nest pas derivable en a, p.s. (ce p.s. a priori depend de
a). Nous admettrons quen fait p.s., W nest pas derivable en a.

La fin de la preuve precedente montre aussi que la trajectoire oscille enormement


au moment ou elle part de 0, puisquelle arrive a traverser une infinite de fois laxe
{x = 0} avant chaque instant fixe.

10.2. Propriete de Markov forte du Brownien


Lemme 10.2.1 Soit un temps darret. Il existe une suite decroissante {n , n N}
de temps darret tel que n est a valeurs dans {k/2n , k N} {+}.

[2n ]+1
Preuve: On peut prendre n = 2n .

Theoreme 10.2.2 Soit {Bt , t 0} un (Ft )mouvement brownien. Alors, pour tout
temps darret , conditionnellement a { < +}, le processus {Bt+ B , t R+ }
est un brownien, independant de F .
10.2 Propriete de Markov forte du Brownien 115

Preuve: Il faut montrer que pour toute v.a. Z, F -mesurable bornee et F : Rd R,


continue bornee,
E(Z1{ <+} F (Bt1 + B , Bt2 + B , , Btd + B )) =
= E(Z1{ <+} )E(F (Bt1 , , Btd ))
On considere dabord le cas ou prend toutes ses valeurs dans lensemble denombrable
{sk = k2n , k N}. Alors, puisque est la reunion denombrable des ensembles
disjoints { = sk }, on peut ecrire:
E(Z1{ <+} F (Bt1 + B , , Btd + B )) =
+
X
= E(ZF (Bt1 + B , , Btd + B )1{ =sk } )
k=0
+
X
= E(Z1{ =sk } F (Bt1 +sk Bsk , , Btd +sk Bsk ))
k=0
+
X
= E(Z1{ =sk } )E(F (Bt1 , , Btd ))
k=0
= E(Z1{ <+} )E(F (Bt1 , , Btd ))
ou lon a utilise que Z1{ =sk } est Fsk mesurable et que B est un Ft brownien. Dans
le cas general, on approche par une suite decroissante n de temps darret a valeurs
denombrables, donnee par le lemme. Puisque F est contenu dans Fn on a encore
E(Z1{ <+} F (Bt1 +n Bn , , Btd +n Bn )) = E(Z1{ <+} )E(F (Bt1 , , Btd ))
et on fait tendre n vers linfini pour conclure, en utilisant la continuite des trajectoires.

Proposition 10.2.3 (Principe de reflexion) Soit {Bt , t 0} un mouvement brown-


ien. Pour a > 0, on pose Ta = inf{t 0; Bt = a}. Alors
P(Ta t) = 2P(Bt a).
2 /2s
La densite de Ta est f (s) = a(2s3 )1/2 ea 1R+ (s). En particulier E(Ta ) = .
Preuve: En utilisant la propriete de Markov forte du brownien, on sait que Wt =
Bt+Ta BTa est un brownien independant de FTa donc en particulier de Ta . On peut
donc ecrire, puisque BTa = a que
P(Bt a) = P(Ta t, Bt a)
= P(Ta t, (Bt BTa ) + BTa a)
= P(Ta t, WtTa 0)
Z
= 1{st} P(Wts 0)dPTa (s)
1
= P(Ta t).
2
116 Calcul stochastique a temps continu, par rapport au brownien

p
On en deduit, avec le changement de variable x = a t/s,
Z Z t
x2 /2t 2
dx = a (2s3 )1/2 ea /2s ds.
p
P(Ta t) = 2/t e
a 0
2
Donc la densite de Ta est f (s) = a(2s3 )1/2 ea /2s , ce qui permet de calculer
lesperance.
On voit donc que, bien que le brownien passe une infinite de fois par tout les
points, il met un temps desperance infinie pour atteindre un point donne. La propriete
suivante est assez etonnante !
Corollaire 10.2.4 La loi de sup0st Bs est la meme que celle de |Bt |.
Preuve: P(sup0st Bs a) = P(Ta t) = 2P(Bt a) = P(|Bt | a).

10.2.1. Martingales et mouvement brownien


Theoreme 10.2.5 Si (Wt ) est un mouvement brownien, les trois processus suivants
sont des martingales:
Wt , t 0.
Wt2 t, t 0.
2
eWt 2
t
, t 0.
Preuve: Pas difficile: mettre en evidence les accroissements.

Proposition 10.2.6 (Ruine du joueur) Soit a = inf{t 0, Wt = a}. Alors pour


a<0<b
b
P(a < b ) = ,
ba
et
E(a a ) = a2 .

Preuve: Posons = a b . Cest un temps darret donc W est une martingale par
le theoreme darret. On a donc, pour tout t 0,
E(Wt ) = E(W0 ) = 0
Remarquons que |Wt | max(a, b) qui est integrable fixe. On peut donc appliquer
le theoreme de convergence dominee pour faire tendre t + et obtenir que

E(W )=0
Puisque est fini p.s. (pourquoi ?) on a donc a la fois
0 = E(W ) = aP(a < b ) + bP(b < a )
et
1 = P(a < b ) + P(b < a )
ce qui donne le premier resultat. Pour montrer le second utiliser la martingale Wt2 t.
10.3 Integrale stochastique 117

10.3. Integrale stochastique


Nous allons imiter la construction de lintegrale de Riemann pour integrer un proces-
sus continu contre le mouvement brownien. Remarquons dabord que si f : R+ R
(n) (n) (n)
est une fonction continue et si 0 = t0 < t1 < < tn = T est une suite de sub-
divisions de [0, T ] donc le pas tend vers 0, quand n +, pour tout 0 t T , la
construction de Riemann nous dit que
Z T n1
(n) (n) (n)
X
f (s) ds = lim f (ti )(ti+1 ti )
0 n+
i=0

et plus generalement, si 0 < t < T ,


Z t n1
(n) (n) (n)
X
f (s) ds = lim f (ti )(ti+1 t ti t)
0 n+
i=0

On se donne un Ft -mouvement brownien (Wt ) sur (, F, P).

Definition 10.3.1 On appelle processus adapte etage un processus Xt secrivant


k
X
Xt = Xti 1[ti ,ti+1 [ (t)
i=0

ou Xti est Fti -mesurable,

Si X est un processus adapte etage, on pose


Z t k
X
Mt = Xs dWs = Xti (Wti+1 t Wti t ) (10.1)
0 i=0

Theoreme 10.3.2 La formule se prolonge a tout processus adapte continu borne X


et definit un processus Z t
Mt = Xs dWs
0
qui est une martingale continue et telle que
Z t
Mt2 Xs2 ds
0

est aussi une martingale. Pour tout t 0


Z t
E( sup Ms2 ) 4E(Mt2 ) = 4E( Xs2 ds) (10.2)
0st 0
118 Calcul stochastique a temps continu, par rapport au brownien

Preuve: Etape 1. Montrons deja que Mt a ces proprietes de martingales dans le cas
de la formule (10.1). Si ti s t ti+1 ,
Mt Ms = Xti (Wt Ws )
donc
E(Mt Ms |Fs ) = E(Xti (Wt Ws )|Fs ) = Xti E(Wt Ws |Fs ) = 0.
En particulier E(Mt |Fti ) = Mti et si ti1 s ti ,
E(Mt |Fs ) = E[E(Mt |Fti )|Fs )] = E[Mti |Fs )] = Ms
De proche en proche on obtient que cette relation est vraie pour tout s t. De la
meme facon, si ti s t ti+1 , (Mt Ms )2 = Xt2i (Wt Ws )2 donc

E((Mt Ms )2 |Fs ) = E(Xt2i (Wt Ws )2 |Fs ) = Xt2i E(Wt Ws )2 |Fs ) = Xt2i (t s).
Remarquons que E(Ms Mt |Fs ) = Ms2 donc
Z t
E((Mt2 Ms2 )|Fs ) 2
= E((Mt Ms ) |Fs ) = Xt2i (t s) = Xu2 du
s
Rt
a nouveau, de proche en proche on en deduit que Mt2 2
0 Xs ds est une martingale.
La relation (10.3) est consequence de linegalite de Doob.
Etape 2. Considerons le cas ou X est continu borne. Alors, pour tout T > 0, la
suite de processus
X n
Xtn = XkT /n 1[kT /n,(k+1)T /n[ (t)
k=0
converge vers X, en dehors des points de sauts de X. Si on pose
Z t
n
Mt = Xsn dWs
0
Rt
on a Mtn Mtm = n
Xsm ) dWs , donc par (10.3),
0 (Xs
Z t
E( sup (Msn Msm )2 ) 4E( (Xsn Xsm )2 ds)
0sT 0

Le terme de droite tend vers 0 quand n, m +. On peut donc construire par


recurrence une suite nk telle que
Z t
n
E (Xs k+1 Xsnk )2 ds 1/2k
0

Posons alors

n
X
Mt = lim Msnk = Msn0 + [Ms k+1 Msnk ]
k+
k=0

Cette serie converge, dans L2


et uniformement ... Une limite dans L1 de martingales
etant une martingale (Lemme 10.4.4) on conclut facilement.
10.4 Processus arrete, martingale locale 119

10.4. Processus arrete, martingale locale


Un temps darret est une v.a. a valeurs dans R+ {+} telle que, pour tout t 0,
{ t} Ft .
Remarquons que ceci est equivalent au fait que le processus t 7 1[0, [ (t) est adapte.
Rt
Pour tout processus continu adapte, on montre comme au dessus que 0 Xs 1[0, [ (s)dWs
est bien defini et que
Z t Z t
Xs dWs = Xs 1[0, [ (s)dWs .
0 0

Rt
Corollaire 10.4.1 Soit un temps darret, X continu borne, et M = 0 Xs dWs .
Alors Mt = M t est une martingale.
Definition 10.4.2 Un processus adapte continu M est une martingale locale si il
existe une suite croissante de temps darrets n +, p.s., telle que M n M0 soit
une martingale. On dit alors que la suite {n , n 0} reduit M .
Soit X un processus adapte continu nul en 0, on pose n = inf{t 0, |Xt | n}.
Alors X n est un processus adapte continu borne. Si t n posons
Z t Z t
Mt = Xs dWs = Xsn dWs .
0 0
Il ny a pas dambiguite car si t n m
Z t Z tn Z t
m m
Xs dWs = Xs dWs = Xsn dWs .
0 0 0
Si X est un processus adapte continu arbitraire, on pose
Z t Z t
Xs dWs = (Xs X0 ) dWs + X0 Wt .
0 0
Alors RM est une martingale locale puisque M n est une martingale et, de meme,
t
Mt2 0 Xs2 ds est une martingale locale :
Theoreme 10.4.3 Pour tout processus continu adapte Xt , t 0,, les processus
Z t
Mt = Xs dWs , t 0,
0
et Z t Z t
2
( Xs dWs ) Xs2 ds, t 0,
0 0
sont des martingales locales. De plus
Z t
E( sup Ms2 ) 4E( Xs2 ds). (10.3)
0st 0
120 Calcul stochastique a temps continu, par rapport au brownien

Preuve: Pour montrer linegalite, on utilise le fait que puisque (Mt ) est un martingale
locale, Il existe une suite n croissant vers + pour laquelle Mtn est une martingale.
On a, par Doob,
Z tn Z t
E( sup (Msn )2 ) 4E((Mtn )2 ) 4E( Xs2 ds) 4E( Xs2 ds)
0st 0 0

et on fait tendre n vers linfini (avec Lebesgue monotone). 

Contrairement au cas du temps discret, il nest pas vrai quune martingale locale
integrable est une martingale. Il est donc tres utile davoir des criteres permettant de
voir si une martingale est une martingale locale.

(n) (n)
Lemme 10.4.4 Si (Mt , t R+ ) est une suite de martingales et si Mt Mt
dans L1 quand n +, alors Mt , t R+ est aussi une martingale

Preuve: Continuite de lesperance conditionnelle dans L1 .

Proposition 10.4.5 1. Une martingale locale bornee est une martingale.


2. SI X est un processus adapte continu tel que, pour tout t 0
Z t
E( Xs2 ds) < +
0

alors
Z t Z t
Mt = Xs dWs et Mt2 Xs2 ds
0 0

sont des martingales.

Preuve: 1. Si (Zt ) est une martingale locale bornee et (n ) reduit Z, la suite Ztn con-
verge vers Z dans L1 par le theoreme de Lebesgue domine. Z est donc une martingale
par le lemme 10.4.4.
2. Par le theoreme precedent,
Z t
E( sup Ms2 ) 4E(Mt2 ) E( Xs2 ds)
0st 0

qui est fini par hypothese. Si n reduit M , Mtn converge vers Mt dans L1 et donc,
R t
par le lemme 10.4.4, M est une martingale. De meme Mtn 0 n Xs2 ds est majoree
2

par une fonction


R t integrable fixe. Cest donc une suite de martingale convergeant dans
1 2 2
L vers Mt 0 Xs ds qui est donc une martingale.
10.5 Formule dIto pour le Brownien 121

10.5. Formule dIto pour le Brownien


Theoreme 10.5.1 Si f : R R est de classe C 2 ,
Z t Z t
1
f (Wt ) = f (0) + f 0 (Ws ) dWs + f 00 (Ws ) ds
0 2 0

Preuve: Quitte a remplacer dabord t par t ou = inf{t; |Wt | M , on peut


supposer f 0 et f 00 bornes. Soit 0 < tn1 < tn2 < < tnn = t une suite de partitions de
[0, t]dont le pas sup0<i<n1 tni+1 tni tend vers 0 quand n +. Utilisons la formule
de Taylor sous la forme

1
f (y) f (x) = f 0 (x)(y x) + f 00 (z)(y x)2
2
pour un z entre x et y pour ecrire que
n1
X
f (Wt ) = f (W0 ) + f (Wti+1 ) f (Wti )
i=0

n1 n1
X 1 X 00
= f (W0 ) + f 0 (Wti )(Wti+1 Wti ) + f (zi )(Wti+1 Wti )2
2
i=0 i=0

ou zi est entre Wti et Wti+1 . On a

n1
X Z t n1
X
0
f (Wti )(Wti+1 Wti ) = f 0 (Wti )1[ti ,ti+1 [ (s) dWs
i=0 0 i=0

donc
n1
X Z t
0
E([ f (Wti )(Wti+1 Wti ) f 0 (Ws )dWs ]2 )
i=0 0

Z t n1
X
E( [ (f 0 (Wti ) f 0 (Ws ))1[ti ,ti+1 [ (s)]2 ds)
0 i=0

qui tend vers 0 par continuite et Lebesgue domine. Pour traiter le dernier terme on
utilise le lemme suivant.
(n) kT
Lemme 10.5.2 Soit f : R+ R une fonction continue, si tk = 2n , alors, presque
surement,
n 1
2X Z t
(n) 2
f (ti )(Wt(n) Wt(n) ) f (s)ds
i+1 i 0
k=0

quand n +.
122 Calcul stochastique a temps continu, par rapport au brownien

lexposant (n) pour simplifier les notations. Puisque Wt+s


Preuve: Necrivons pas
Wt a la meme loi que t sW1 on a

E((Wti+1 Wti )2 ) = ti+1 ti

V ar((Wti+1 Wti )2 ) = a(ti+1 ti )2


ou a = V ar(W12 ). Donc, en utilisant lindependance des accroissements,
n 1
2X
E([ (Wti+1 Wti )2 (ti+1 ti )]2 ) =
i=0
X X
V ar(Wti+1 Wti )2 = a (ti+1 ti )2
X T
a( (ti+1 ti )) sup(tk+1 tk ) aT n
k 2
On voit donc que
+ n 1
2X
X
E[ (Wt(n) Wti (n) )2 T ]2 < +
i+1
n=0 i=0

ce qui entrane que, presque surement,


n 1
2X
(Wt(n) Wti (n) )2 T
i+1
i=0

De la meme facon, on voit que pour tout 0 t T , presque surement,


n 1
2X
(Wt(n) t Wti (n) t )2 t
i+1
i=0

Si f = 1[0,t] clair, donc plus generalement pour les fonctions etagees, par linearite.
Ensuite toute fonction continue f est limite uniforme sur [0, T ] de fonctions etagees
fr et donc
X X X
| f (ti )(Wti+1 Wti )2 fr (ti )(Wti+1 Wti )2 | sup|f fr | (Wti+1 Wti )2

et on conclut alors facilement.

10.5.1. Generalisation unidimensionnelle


Definition 10.5.3 On appelle processus dIto (unidimensionnel) un processus Xt
secrivant Z t Z t
Xt = X0 + as ds + s dWs
0 0
ou a et sont des processus adaptes continus.
10.5 Formule dIto pour le Brownien 123

Lorsque at et t sont des processus adaptes etages, on montre facilement, en


adaptant la preuve de la formule dIto pour le brownien, que le theoreme suivant est
vrai. On lobtient ensuite pour tout a et continus adaptes par approximation et
localisation.
Theoreme 10.5.4 (Formule dIto) Si X est un processus dIto unidimensionnel,
et f : R R est de classe C 2 ,
Z t
1 t 00
Z
0
f (Xt ) = f (X0 ) + f (Xs ) dXs + f (Xs )s2 ds
0 2 0

On a utilise la notation intuitive suivante: si t est un processus continu adapte,


Z t Z t Z t
s dXs = s as ds + s s dWs
0 0 0

Autrement dit, formellement

dXt = at dt + t dWt .

On ecrit souvent la formule dIto sous la forme condensee


1
d(f (Xt )) = f 0 (Xt ) dXt + f 00 (Xt )t2 dt.
2
ou encore
1
d(f (Xt )) = f 0 (Xt ) dXt + f 00 (Xt )dhX, Xit
2
en posant
dhX, Xit = t2 dt.

10.5.2. Cas multidimensionnel


(1) (2) (n)
Soit Wt , Wt , , Wt n Ft -mouvements browniens independants. Un processus
(1) (d)
Xt = (Xt , , Xt ) a valeurs dans Rd est appele un processus dIto si, pour tout
i = 1, , d,
Z t n Z t
(i)
X
Xt = X0 + a(i)
s ds + s(i,j) dWs(j)
0 j=1 0

(i) (i,j)
ou as et s sont des processus continus adaptes. On ecrira pour simplifier
n
(i) (i) (i,j) (j)
X
dXt = at dt + t dWt .
j=1

Posons
n
Z tX
(i) (j)
hX , X it = s(i,k) s(j,k) ds
0 k=0
124 Calcul stochastique a temps continu, par rapport au brownien

ce que lon ecrit aussi


n
(i,k) (j,k)
X
dhX (i) , X (j) it = t t dt.
k=0

Theoreme 10.5.5 (Formule dIto multidimensionnelle) Si X est un processus


dIto a valeurs dans Rd , et f : Rd R est de classe C 2 ,
d Z t d Z
X f (i) 1 X t 2f
f (Xt ) = f (X0 ) + (Xs ) dXs + (Xs )dhX (i) , X (j) is
0 xi 2 0 xi xj
i=1 i,j=1

Un cas particulier important est le suivant. Il sobtient en appliquant la formule


precedente a la fonction f (x1 , x2 ) = x1 x2 .

Theoreme 10.5.6 (Formule dintegration par parties) Si X 1 , X 2 est un pro-


cessus dIto
(1) (2) (1) (2) (2) (1)
dXt Xt = Xt dXt + Xt dXt + dhX (1) , X (2) it

Comme cas particulier de la formule dIto on obtient:

Theoreme 10.5.7 (Formule dIto pour fonction dependant du temps) Si X


est un processus dIto unidimensionnel, et f : R+ R R est de classe C 2 ,
Z t Z t
1 t 2f
Z
f f
f (t, Xt ) = f (0, X0 ) + (s, Xs ) ds + (s, Xs ) dXs + 2
(s, Xs )s2 ds
0 t 0 x 2 0 x

Preuve: On remarque que le couple (t, Xt ) est lui meme un processus dIto bidimen-
sionnel auquel on on peut applique la formule dIto precedente.

10.6. Exemples
La plupart des calculs sur lintegrale stochastique se font avec la formule dIto. Ex-
emple:
Z t
1
Ws dWs = (Wt2 t)
0 2
2
Z t 2
Wt 2 t
e =1+ eWs 2
s
dWs
0
10.7 Theoreme de Girsanov 125

Rt
Proposition 10.6.1 Soit Mt = 0 s dWs , ou est continu adapte. Alors
1
Rt
s2 ds
Zt = eMt 2 0

verifie
Z t
Zt = 1 + Zs s dWs
0

Cest en particulier une martingale locale.

Preuve: On applique la formule dIto au processus dIto


Z t Z t Z t
1 1
Xt = s2 ds + s dWs = Mt s2 ds
2 0 0 2 0
Rt
pour lequel < X, X >t = 0 s2 ds et a la fonction f (x) = ex .
Rt
Proposition 10.6.2 Si f est deterministe continue, Mt = 0 f (s)dWs est un pro-
cessus gaussien centre de covariance
Z st
cov(Mt , Ms ) = f (s)2 ds
0

Preuve: On applique la proposition precedente pour calculer la transformeee de


Fourier de Mt .

10.7. Theoreme de Girsanov


Rt
Soit Mt = 0 s dWs , ou est continu adapte et
1
Rt
s2 ds
Zt := eMt 2 0

Jusqua present nous travaillons sur un espace de probabilite (, (Ft ), P). Fixons
T > 0 et supposons que Zt , 0 t T, soit une vraie martingale (il existe des criteres
permettant de le verifier) donc que E[ZT ] = 1. Sur (, (FT )) on peut definir une
probabilite P equivalente a P en posant, par

dP = ZT dP

(autrement dit Z Z
E(X) := X dP = XZT dP = E(XZT )

pour toute v.a. posiitve X, FT -mesurable.)


Le theoreme suivant est du a Cameron et Martin quand est deterministe.
126 Calcul stochastique a temps continu, par rapport au brownien

Theoreme 10.7.1 (Girsanov) Sur (, (FT ), P), le processus


Z t
Wt := Wt s ds
0

est un mouvement brownien pour t T .

Preuve: Montrons seulement Pn que Wt a bien la loi N (0, t). (La preuve generale con-
siste a calculer la loi de k=1 k Wtk exactement de la meme facon). Calculons la
transformee de Laplace ou de Fourier,

E(eWt ) = E(ZT eWt ) = E(Zt eWt ) car(Zt ) est une martingale,


Rt
1
s2 ds (Wt 0t s ds)
R
= E(eMt 2 0 e )
Remarquons alors que Z t
Mt + Wt = (s + )dWs
0
donc, par la proposition Rt
1 2
eMt +Wt 2 0 (s +) ds

est une martingale locale. Admettons que cest une martingale. Donc
Rt
1
s2 ds 0t s ds 12 0t 2 ds
R R
E[eMt +Wt 2 0 ]=1

On en deduit bien que


2 t
E(eWt ) = e 2 .

10.7.1. Une application


Comme application du theoreme de Girsanov, calculons la loi du temps datteinte
dun niveau a > 0 par un brownnien avec drift . Soit Wt , t 0 un Brownien. On
pose
2
Zt = exp(Wt t)
2
Sur FT on pose
dP = ZT dP.
Par Girsanov, sur (, FT , P), Wt = Wt t est un brownien usuel. Autrement dit,

Wt = Wt + t

est sous P un brownien avec drift . Soit a = inf{t 0, Wt = a}. On a, pour t T ,


en utilisant que Zt est une martingale sous P,

P(a T ) = E(1a T ZT ) = E(1a T Za )


10.8 Equations differentielles stochastiques 127

2
= E(1a T exp(a a ))
2
t
2
Z
= exp(a s)f (s)ds
0 2
ou
|a| a2 /2t
f (t) = e
2t3
par la proposition 10.2.3. Donc a a sous P la densite

|a| (as)2 /2t


f (t) = e .
2t3
Si t + on en deduit que, si a < 0, > 0,

P(a < +) = e2a .

10.8. Equations differentielles stochastiques


On se limite au cas unidimensionnel. Soient : R+ R et b : R+ R R deux fonc-
tions continues. Pour x, on considere lequation differentielle stochastique (E.D.S.)

dXt = (Xt ) dBt + b(Xt ) dt, X0 = x R p ; (10.4)


Etant donne un mouvement Brownien sur (, (Ft ), P), muni de sa filtration, on appelle
solution (forte) de cette equation un processus adapte continu Xt tel que, pour tout
t 0, Z t Z t
Xt = X0 + b(Xs ) ds + (Xs ) dBs
0 0

On considere lequation (10.4). On dit que b et sont lipschitziennes en x si il


existe K > 0 tels que, pour tous x, y R

|b(x) b(y)| K|x y|, |(x) (y)| K|x y|.

Le theoreme fondamental est le suivant:

Theoreme 10.8.1 Soit Bt , t 0, un mouvement brownien. On suppose que b et


sont lipschitziennes en x et bornees sur les compacts. Etant donne x R il existe un
et un seul processus continu adapte X tel que pour tout t 0,
Z t Z t
Xt = x + b(Xs ) ds + (Xs ) dBs .
0 0
128 Calcul stochastique a temps continu, par rapport au brownien

Preuve:
1. Unicite: admise. 2. Existence: on utilise ce quon appelle le schema de Picard. On
pose, pour tout t 0, Xt0 = x puis par recurrence
Z t Z t
n n1
Xt = x + b(Xs ) ds + (Xsn1 ) dBs
0 0
On a
Z t Z t
Xtn+1 Xtn = (b(Xsn ) b(Xsn1 ) ds + ((Xsn ) (Xsn1 ) dBs
0 0
Posons
gn (u) = E(sup[Xtn+1 Xtn ]2 ).
tu
Si 0 u T ,
gn (u)
Z t Z t
2E(sup[ (b(Xsn ) b(Xsn1 )) ds]2 ) + 2E(sup[ ((Xsn ) (Xsn1 )) dBs ]2 )
tu 0 tu 0
Z u Z u
2E(T (b(Xsn ) b(Xsn1 ))2 ds) + 8E([ ((Xsn ) (Xsn1 ))2 ds)
0 0
Z u
2 n n1 2
2(T + 4)K E(|Xs Xs | ) ds
0
Z u Z u
2 n n1 2
2(T + 4)K E(sup |Xs Xs | ) dv = C gn1 (v) dv
0 sv 0

pour C = 2(T + 4)K 2 . On en deduit par recurrence que,


C n tn
gn (t) g0 (t)
n!
or Z s
g0 (t) E(sup[Xs1 2
x] ) E(sup(sb(x) + (x)dBr )2 )) Cte
sT sT 0
On a donc

X
X
E( sup[Xtn+1 Xtn ]2 ) = gn (T ) < +.
n=0 tT n=0
On en deduit que X n converge p.s. vers une solution X de lequation.

10.8.1. Estimees
Lemme 10.8.2 (Gronwall) Soit g : [0, T ] R une fonction borelienne bornee telle
que, pour a, b 0,
Z t
g(t) a + b g(s) ds, pour tout 0 t T.
0

Alors g(t) aebt sur [0, T ].


10.8 Equations differentielles stochastiques 129

Rt
Preuve: On pose G(t) = a + b 0 g(s) ds. Alors g(t) G(t). Si g est continue, G est
une fonction derivable et

(ebt G(t))0 = bebt G(t) + ebt G0 (t) = bebt G(t) + bebt g(t) 0

donc ebt g(t) ebt G(t) G(0) = a.


Si g est seulement mesurable bornee, G est continue et verifie
Z t Z t
G(t) = a + b g(s) ds a + b G(s) ds
0 0

donc la meme conclusion est vraie. 

Theoreme 10.8.3 Sous les hypotheses du theoreme 10.8.1 Pour tout m, T > 0,

E(sup kXt km ) < +.


tT

Preuve: Sous ces hypotheses, il existe K > 0 tel que, pour tout x Rp ,

||(x)|| + ||b(x)|| K(1 + ||x||) (10.5)

Soit
= inf{t 0; kXt k n}
avec n kx0 k. Pour simplifier les notations, en dimension 1, en prenant p pair pour
que kXt kp = Xtp , par Ito,

p(p 1) p2
dXtp = pXtp1 dXt + Xt dhX, Xit
2
donc
t
p(p 1)
Z
p
Xt = xp0 + [p(Xs )p1 b(Xs ) + (Xs )2 (Xs )p2 ]ds
0 2
Z t
+ p(Xs )p1 (Xs )dBs
0

Puisque (a + b + c)2 4(a2 + b2 + c2 ) on en deduit que


t
p(p 1)
Z
2p
Xt 4x2p
0 + 4( [p(Xs )p1 b(Xs ) + (Xs )2 (Xs )p2 ]ds)2
0 2
Z t
+4( p(Xs )p1 (Xs )dBs )2
0
donc par Doob, et par Cauchy Schwarz, si 0 r T , pour un T > 0 fixe,
2p
E(sup Xt )
tr
130 Calcul stochastique a temps continu, par rapport au brownien

r
p(p 1)
Z
4x2p
0 + 4T ( |p(Xs )p1 b(Xs ) + (Xs )2 (Xs )p2 ]|2 ds)
0 2
Z r
+16E( [p(Xs )p1 (Xs )]2 ds
0
On peut trouver deux constantes , > 0 telles que, pour tout x R,
p(p 1)
4T (|pxp1 b(x)| + | (x)2 xp2 ]|)2 + 16|pxp1 (x)|2 + |x|2p
2
On a donc, en posant = 4x02p + T ,
Z r
2p 2p
E(sup Xt )+ E(Xs )ds
tr 0

donc Z r
2p 2p
E(sup Xt ) + E(sup Xt )ds
tr 0 ts

et par Gronwall,
2p
E(sup Xt ) er .
tr

Comme les constantes ne dependent pas de n (qui a defini ) on peut faire tendre n
vers linfini pour obtenir que

E(sup Xt2p ) er .
tr

10.8.2. Propriete de Markov


Reprenons les hypotheses precedentes mais supposons que b et ne dependent pas
du temps t. Notons Xtx la solution de lE.D.S. (10.4) verifiant X0x = x. Prenons
Ft = (Bs , s t). Il existe une application mesurable

: R C([0, T ], R) C([0, T ], R)

telle que
X x = (x, B).
Pour tout temps darret , fini p.s., par la propriete de Markov forte du Brownien le
processus Bt = Bt+ B est un mouvement brownien independant de F , donc de
X . On voit facilement en prenant dabord pour H des fonctions etagees que, pour
tout H de L0 (B),
Z t+ Z t
Hs dBs = Hs+ dBs
0
La relation Z t+ Z t+
X +t = X + b(Xs ) ds + (Xs ) dBs

10.9 Processus de Markov 131

Z t Z t
= X + b(X +s ) ds + (X +s ) dBs
0 0
montre que, si on pose Xt = X +t , pour tout t 0, alors

X = (X , B).
Puisque B est independant de F , on en deduit:

Theoreme 10.8.4 (Propriete de Markov forte) Pour tout temps darret fini p.s.,
pour toute fonction mesurable positive F definie sur C(R+ , Rp ),
E(F ( X)|F ) = Ey (F (X)), pour y = X
ou le symbole Ey signifie que lon considere la solution X telle que X0 = y (cest a
dire X(y)).

10.9. Processus de Markov


Posons, pour f mesurable positive sur Rp , Pt f (x) = Ex (f (Xt )). En prenant F (X) =
f (Xt ) et = s dans le theoreme precedent on voit que
E(f (Xt+s )|Fs ) = Ey (f (Xt )) = Pt f (y), pour y = Xs ,
donc, en prenant lesperance,
Pt+s f (x) = Ex (f (Xt+s )) = Ps (Pt f )(x)
cest la propriete dite de semigroupe. On dit que X est un processus de Markov de
semigroupe (Pt ). Par continuite des trajectoires en t = 0,
lim Pt f (x) = f (x)
t0

si f est continue bornee.


Definition 10.9.1 On appelle generateur du semigroupe (Pt ) loperateur Lf defini
par
Pt f (x) f (x)
Lf (x) = lim
t0 t
pour les f pour lesquels cette limite a un sens.

Theoreme 10.9.2 Soit X solution de lE.D.S.,


dXt = (Xt ) dBt + b(Xt ) dt
Alors X est un processus de Markov dont le generateur est donne par
1 2f f
Lf (x) = (x)2 2 + b(x) (x)
2 x x
lorsque f est C 2 a support . On dit que X est une diffusion.
132 Calcul stochastique a temps continu, par rapport au brownien

Preuve: Si on applique la formule dIto a f (Xt ), on obtient,


Z t Z t
f
f (Xt ) = f (X0 ) + (Xs )(Xs ) dBs + Lf (Xs ) ds
0 x 0

Puisque f est a support compact , f x (Xs )(Xs ) est borne, donc lintegrale stochas-
tique est une martingale, desperance nulle. On a alors
Z t Z t
Pt f (x) = f (x) + Ex ( Lf (Xs ) ds) = f (x) + Ps Lf (x) ds
0 0

Donc
t
Pt f (x) f (x)
Z
1
Lf (x) = lim = lim Ps Lf (x) ds = P0 Lf (x) = Lf (x).
t0 t t0 t 0

10.9.1. Feynman-Kac
On considere a nouveau,

1 2f f
Lf (x) = (x)2 2 + b(x) (x)
2 x x
On se donne , c : R R avec c 0 et on considere une solution u bornee a derivees
bornees de lequation

u
(t, x) = (L c(x))u(t, x), u(0, x) = (x). (10.6)
t

Theoreme 10.9.3 La solution u(t, x) de (10.6) verifie:


Z t
u(t, x) = Ex [(Xt ) exp( c(Xs ) ds)]
0

ou X est la diffusion associee a (10.4)

Preuve: On pose, t > 0 etant fixe,


Z s
v(s, x) = u(t s, x), Zs = exp( c(Xu ) du).
0

Appliquant la formule dIto, on a

d(v(s, Xs )Zs ) = v(s, Xs )c(Xs )Zs ds + Zs dv(s, Xs )

v v
= Z{ + (L c)v} ds + Z dBs .
s x
10.9 Processus de Markov 133

v
R t v
Vu que x est bornee et que 0 Zs 1, E( 0 Zs x (Xs ) dBs ) = 0. Dautre part
v u
s (s, x) = s (t s, x) et donc

v u
(s, x) + (L c)v(s, x) = (t s, x) + (L c)u(t s, x) = 0
s s
On a donc
E(v(t, Xt )Zt ) = E(v(0, X0 )Z0 )
mais, puisque u(0, Xt ) = (Xt ),

E(v(t, Xt )Zt ) E(v(0, X0 )Z0 ) = E(u(0, Xt )Zt ) u(t, x) = E((Xt )Zt ) u(t, x)

et lon obtient
u(t, x) = E((Xt )Zt ).
134 Calcul stochastique a temps continu, par rapport au brownien
Chapitre 11

Black et Scholes

11.1. Introduction
Nous allons maintenant etudier levaluation dactifs derives en temps continu, en nous
concentrant sur le modele de loin le plus important, le modele de Black et Scholes.
On va voir quil sapplique dans un cadre plus large que celui du temps discret, et
quil donne souvent des formules explicites.

11.2. Le modele
On considere le modele classique de Black et Scholes: un horizon T , deux actifs
St , Bt , 0 t T, ou
Bt = ert , donc dBt = rBt dt

dSt = St dt + St dWt

et W est un mouvement brownien sur un espace (, F, P), ou P est une probabilite.


En fait ce P va jouer exactement le role de la mesure de reference m que lon avait
introduite dans le cas discret ( est forcement un tres gros espace puisquon peut
y definir le mouvement brownien. En un sens, il contient lensemble des fonctions
continues, et sur ce dernier il ny a pas de mesure de reference canonique, P va jouer
ce role).

Pour garder la tradition financiere on appelle B lactif non risque (B pour Bond
ou Banque), a ne pas confondre avec un mouvement brownien.

Lintroduction de lequation donnant St vient du fait que, intuitivement dSt /St


est le rendement du spot, et quil est a peu pres constant egal a dt a une (petite)
perturbation aleatoire dWt . L amplitude de cette perturbation est mesuree par
, parametre tres important quon appelle la volatilite de lactif St .
136 Black et Scholes

11.2.1. Le spot
Le spot St est un processus continu adapte defini par lequation stochastique
dSt = St dt + St dWt ,
autrement dit Z t Z t
St = S0 + Su du + Su dWu .
0 0

(a)
Lemme 11.2.1 Pour tout a R on note St la solution de
(a) (a) (a) (a)
dSt = aSt dt + St dWt , S0 = S0
(a) (b)
Alors, pour tout a, b R St = et(ab) St .

Preuve: Appliquons la formule dIto a f (t, x) = et(a) x au processus dIto St :


Z t Z t
et(a) St = f (t, St ) = S0 + (a )et(a) Su du + et(a) dSu
0 0
(a) (a) (a)
Donc dSt = (a + )St dt + St dWt . 
Si on choisit a = 0 on obtient
(0) (0)
dSt = St dWt
(qui est une martingale locale, comme integrale stochatique). On a deja vu que le
processus
2
S0 eWt 2
t

verifiait cette equation et cest la seule (car coefficient lipschitzien, par exemple).
Remarquons que cest une vraie martingale (martingale exponentielle du brownien).
On obtient donc
Proposition 11.2.2 Pour tout a R,
(a) 2
St = S0 e(a 2
)t+Wt

en particulier,
2
St = S0 e( 2
)t+Wt
. (11.1)

Comme dans les chapitres precedents on considere les prix reactualises par Bt , en les
surmontant dun tilde. On a
St = ert St
Il resulte du lemme, en prenant a = r que

dSt = ( r)St dt + St dWt . (11.2)


11.3 Portefeuille autofinance 137

11.3. Portefeuille autofinance


Par analogie avec le cas discret,

Definition 11.3.1 On appelle portefeuille un processus Vt secrivant

Vt = t St + t Bt

avec , adaptes continus. Il est dit autofinance si

dVt = t dSt + t dBt .

Remarquons quen temps continu, dans le cadre des processus continus, il ny a pas
de distinction intuitive entre previsible et adapte.

Lemme 11.3.2 Si V est un portefeuille autofinance dans la marche (S, B), alors
Vt = ert Vt autofinance dans la marche (S, 1)

dVt = t dSt (11.3)

Preuve: Puisque Vt = t St + t , il suffit de montrer la formule (11.3). En appliquant


la formule dIto a f (t, x) = ert x comme au-dessus

d(ert Vt ) = d(f (t, Vt )) = rert Vt dt + ert dVt

= rert (t St + t ert ) dt + ert (t dSt + t rert dt)

= t (rert St dt + ert dSt )

= t dSt
puisque, par Ito,
dSt = rert St dt + ert dSt .

11.4. AOA et lunivers risque neutre


Nous ne reprenons pas la discussion sur labsence dopportunite darbitrage que nous
avons developpe en temps discret. Comme dans ce cas elle est equivalente a lexistence
dune mesure martingale P equivalente a P, ou

Definition 11.4.1 On appelle mesure martingale une probabilite P sur FT pour


laquelle St , 0 t T, est une martingale locale.
138 Black et Scholes

r
et on dit que le marche est viable si elle existe. Posons Wt = Wt t, alors, par
(11.2),
dSt = St dWt (11.4)

avec Wt = Wt r
t. Par le theoreme de Girsanov, on sait que si on choisit, sur FT ,

c2
dP = ecWT 2 T dP
r
pour c = , alors Wt , 0 t T, est un brownien sur (, Ft , P). Alors, par (11.4),

2 t
St = S0 eWt 2 (11.5)

est bien une martingale sous P . Donc,

Theoreme 11.4.2 Le marche est viable de mesure martingale P.

11.5. Marche complet


On vient de voir que le marche est viable. En fait, et cest le point clef,

Theoreme 11.5.1 Le marche est complet.

Par definition, ceci signifie que tout actif (donc toute variable aleatoire FT mesurable
est replicable). Cela resulte du theoreme de representation des martingales du a Ito.
Contentons nous de montrer (ce qui nous suffira pour Black et Scholes) que

Theoreme 11.5.2 Tout actif de la forme ZT = (ST ) pour lequel ZT est P integrable
est replicable.

Preuve analytique. On cherche donc un processus adapte continu t tel que le


processus defini par
dVt = t dSt
verifie VT = (ST ), ce qui secrit

VT = erT VT = erT (erT ST ) = (ST )

en posant (x) = erT (erT x). Cherchons V sous la forme

Vt = f (t, St )

ou f est une fonction de classe C 2 . Par la formule dIto

f f 1 2f
dVt = d(f (t, St )) = (t, St ) dt + (t, St ) dSt + (t, St ) 2 St2 dt.
t x 2 x2
11.5 Marche complet 139

Il suffit donc de choisir f de telle sorte que

f 2 2f
(t, x) + (t, x)x2 = 0
t 2 x2
f (T, x) = (x) = erT (erT x)
(cette equation est appelee parfois lEDP du produit, elle et ses generalisations font
le lien entre les mathematiques financieres et lanalyse numerique). Alors
f
dVt = (t, St ) dSt
x
et on peut prendre
f
t = (t, St ).
x

Preuve probabiliste. Plutot que de resoudre cette EDP nous allons proceder de
facon probabiliste. Soit P la mesure martingale introduite au dessus. On a vu (11.4)
que
dSt = St dWt
et que Wt est un mouvement brownien sous P. On cherche dVt = t dSt donc on veut
que Vt soit une martingale (en tout cas locale) avec VT = (ST ). Le candidat est

Vt = E((ST )|Ft )

en notant E lesperance pour la probabilite P. Utilisons alors lexpression explicite


11.5 pour ecrire que, pour 0 t T ,
2 T 2 T
ST = S0 eWT 2 = S0 e(Wt +WT Wt ) 2

2 t 2 (T t)
= S0 eWt 2 eWT Wt 2

donc
2 (T t)
ST = St eWT Wt 2


Puisque St est Ft mesurable et WT Wt independant de Ft de meme loi que G T t
ou G est une variable gaussienne N (0, 1) on a donc

Vt = E((ST )|Ft ) = f (t, St )

si on pose Z + 2 (T t)
1 T t 2 /2
f (t, x) = (xey 2 )ey dy.
2
donc
Z + 2 (T t)
1 2 /2
f (t, x) = erT (xerT ey T t 2 )ey dy.
2
140 Black et Scholes

On a donc trouve lexpression de f . (Remarque il ny a quune martingale prenant


la valeur (ST ) en T on a donc bien le meme portefeuille que dans lapproche ana-
lytique).
On appelle delta de loption la part t du portefeuille dans lactif. Il est important
car il permet de constituer explicitement ce portefeuille.
Theoreme 11.5.3 En particulier le prix de loption est
V0 = V0 = f (0, S0 )
et le delta de loption est
f
t = (t, St ).
x

11.6. Formules de Black et Scholes


On applique ce qui precede dans le cas des Call et des Put europeens. La valeur de
ces actifs (derives) a linstant final T est
(ST K)+
pour un Call et
(K ST )+
pour un Put. On obtient par un calcul fastidieux mais facile, pour un Call

C = S0 N (d1 ) KerT N (d2 )


ou Z x
1 2 /2
N (x) = eu du
2
et
2
log(S0 /K) + T (r + 2 )
d1 =
T

d2 = d1 T
Pour un put
P = S0 N (d1 ) + KerT N (d2 )
Remarquons la relation de parite Call-Put qui sobtient aussi directement ainsi
(puisque (x+ ) (x)+ = x),

C P = erT E((ST K)+ ) erT E((K ST )+ ) = erT E(ST K)


= erT E(ST ) erT K = S0 erT K
puisque St est une martingale sous P.
Dans ce cadre, on a comme on la vu en temps discret: Call americain=Call
europeen, mais pas danalogue pour les put ou il faut utiliser larret optimal.
11.7 Implementation 141

11.7. Implementation
11.7.1. Volatilite implicite
11.7.2. Gestion Delta neutre

11.8. Generalisations du modele de Black et Scholes


Afin de traiter les options sur futures, devises, actions avec dividendes, etc.. on intro-
duit la notion de cout de portage de lactif S.
On suppose que le fait de detenir lactif coute pendant un temps court dt, la
somme St dt. Nous verrons plus bas les exemples principaux. Si a linstant t, un
portefeuille est comme dhabitude

Vt = t St + t Bt

a linstant t + dt il vaudra (si il ny a aucun apport ni retrait dargent)

Vt+dt = t St+dt t St dt + t Bt+dt

donc
dVt = t dSt t St dt + t dBt .
Si on pose St = et St on a

dSt = et dSt et St dt

donc
Vt = t et St + t Bt
et
dVt = t et dSt + t dBt .
autrement dit, si on pose t = t et ,

Vt = t St + t Bt

et
dVt = t dSt + t dBt .
On voit donc que la notion de portefeuille autofinance est un peu differente, il faut
remplacer St par St .
On obtient donc pour un Call, puisque

(ST K)+ = (eT ST K)+ = eT (ST KeT )+

C = eT S0 N (d1 ) KerT N (d2 )


142 Black et Scholes

ou Z x
1 2 /2
N (x) = eu du
2
et
2 2
log(S0 eT /K) + T (r + 2 )log(S0 /K) + T (r + + 2 )
d1 = = =
T T

d2 = d1 T

11.8.1. Cas particulier


Formule de Black Scholes Merton: Cas avec dividende: = dividende

Formule de Black: Cas doption sur future (on peut placer la valeur de lactif
car il nest pas mobilise): = r

Formule de Garman Kohlagen: Cas doption sur devise (on peut placer la valeur
de lactif car il nest pas mobilise): = taux de la devise etrangere

Options sur denree, etc...


Chapitre 12

Controle et gestion de
portefeuille en temps continu

Ce court chapitre est une introduction au modele de gestion de portefeuille de Merton.


On ne donne que les idees, sans les preuves.

12.1. Le cadre du controle de diffusions


On considere une equation differentielle stochastique en dimension 1 (pour simplifier)
secrivant
dXt = b(t, Xt , (t, Xt ))dt + (t, Xt , (t, Xt ))dWt

ou W est un brownien, et (t, x, u) 7 b(t, x, u) et (t, x, u) 7 (t, x, u) sont au moins


continues (en fait lipschitzien en x uniformement pour t, u dans un compact). Ici la
fonction va jouer le role du controle, on la prendra au moins continue egalement.
Pour T > 0 fixe, on pose, si 0 s T
Z T
J(s, x, ) = E( c(t, Xt , (t, Xt )) + (XT )|Xs = x)
s

et on cherche
max J(0, x, )

le maximum etant pris sur toutes les fonctions a valeurs dans un ouvert O.

12.2. Lequation HJB


Posons, pour 0 s T
J(s, x) = max J(s, x, )

144 Controle et gestion de portefeuille en temps continu

Definition 12.2.1 Lequation de Hamilton Jacobi Bellman (HJB) associee est

J J 1 2J
0= (t, x) + max[c(t, x, u) + b(t, x, u) (t, x) + 2 (t, x, u) 2 (t, x)] (12.1)
t uO x 2 x
avec la condition frontiere
J(T, x) = (x).

Donnons une approche heuristique de cette equation. Pour un entier n > 0 fixe,
posons tk = kT /n, et considerons lapproximation discrete du probleme:

(n) (n) (n) (n) (n) (n)


Xtk+1 = Xtk +b(tk , Xtk , (tk , Xtk ))(tk+1 tk )+(tk , Xtk , (tk , Xtk ))(Wtk+1 Wtk )

avec les criteres


n1
(n) T X (n) (n) (n) (n)
J (tk , x, ) = E( c(tr , Xtr , (tr , Xtr )) + (Xtn )|Xtk = x)
n
r=k

On pose
J (n) (tk , x) = max J (n) (tk , x, )

La programmation dynamique en temps discret du modelemarkovien sapplique a


cette situation et lalgorithme de Bellman nous dit que, pour

J (n) (tn , x) = (x),

si 0 k < n,

T (n) (n)
J (n) (tk , x) = max[ c(tk , x, u) + E(J (n) (tk+1 , Xtk+1 )|Xtk = x)]
uO n

que lon reecrit

T (n) (n)
0 = max[ c(tk , x, u) + E(J (n) (tk+1 , Xtk+1 ) J (n) (tk , x)|Xtk = x)]
uO n

Imaginons, ce qui est beaucoup demande..., que J (n) est tres proche de sa limite J, que
X (n) est tres proche de sa limite X, donc quon remplace chacun par sa limite et que
J est suffisament reguliere pour appliquer la formule dIto, alors, approximativement,

(n) (n)
J (n) (tk+1 , Xtk+1 ) J (n) (tk , Xtk )
J(tk+1 , Xtk+1 ) J(tk , Xtk ) =
tk+1
1 2
Z

= J(s, Xs )ds + J(s, Xs )dXs + J(s, Xs ) 2 (s, Xs )ds
tk t x 2 x2
12.3 Le modele de consommation investissement de Merton 145

T 1 2
= [ J(tk , Xtk ) + J(tk , Xtk ) 2 (tk , Xtk )] + J(tk , Xtk )(Xtk+1 Xtk ).
n t 2 x2 x
En utilisant que
(n) (n) (n) (n) (n) (n)
Xtk+1 = Xtk +b(tk , Xtk , (tk , Xtk ))(tk+1 tk )+(tk , Xtk , (tk , Xtk ))(Wtk+1 Wtk )

on en deduit que
(n) (n)
E(J (n) (tk+1 , Xtk+1 ) J (n) (tk , x)|Xtk = x)

T 1 2
=[ J(tk , x) + 2
J(tk , x) 2 (tk , x) + J(tk , x)b(t, x, u)]
n t 2 x x
dou lequation HJB

1 2
0 = max[c(tk , x, u) + J(tk , x) + J(tk , x) 2 (tk , x) + J(tk , x)b(tk , x, u)]
uO t 2 x2 x
Faute de temps, nous nirons pas plus loin dans la justification. Montrer que la con-
dition est suffisante (et cest limportant pour les applications) ne serait pas tres
difficile).

12.3. Le modele de consommation investissement de Mer-


ton
Reprenons le modele a deux actifs de Black et Scholes, donc un actif sans risque
Bt = ert et un actif risque St satisfaisant a

dSt = St dt + St dWt

ou W est un brownien. On considere un portefeuille

Vt = t St + t Bt

et lon suppose t et t positifs. On note Ut la proportion du portefeuille investie


dans lactif risque, donc
t St
Ut = ,
Vt
On a 0 Ut 1. Si le portefeuille est autofinance, alors

dVt = t dSt + t dBt .

puisque
t dBt = rt Bt dt = r(Vt t St )dt = r(Vt Ut Vt )dt
et
t dSt = t St (dt + dWt ) = Ut Vt (dt + dWt ),
146 Controle et gestion de portefeuille en temps continu

on a
dVt = (1 Ut )Vt rdt + Ut Vt (dt + dWt )
Supposons maintenant que lon veuille consommer une partie de ce portefeuille. Si
on note Yt la consommation a linstant t par unite de temps, le portefeuille nest plus
autofinance et on on obtient la nouvelle equation,

dVt = (1 Ut )Vt rdt + Ut Vt (dt + dWt ) Yt dt

On considere le couple (Ut , Yt ) comme le controle a valeurs dans [0, 1] R+ , et on


cherche a maximiser Z T
E( Yt + VT )
0

ou 0 < < 1 et R, noter que ce cout est concave. Lequation HJB secrit

J J 1 2J
0= (t, x) + max [y + (1 u)xr + ux y) (t, x) + 2 x2 u2 2 (t, x)]
t (u,y)O x 2 x

ou O =]0, 1[R+ et J(T, x) = x. Regardons ou la differentielle en (u, y) est nulle,


pour (t, x) fixe.

J 1 2J
[y + ((1 u)xr + ux y) (t, x) + 2 x2 u2 2 (t, x)] = 0
u x 2 x
donc
J 2J
(xr + x) (t, x) + 2 x2 u 2 (t, x) = 0
x x
et
J 1 2J
[y + (1 u)xr + ux y) (t, x) + 2 x2 u2 2 (t, x)] = 0
y x 2 x
donc
J
y 1 (t, x) = 0.
x
On en deduit que
r Jx
u= , y = ( )1/1
2 xJxx
Si, par la suite on verifie que ceci est dans O, on aura reussi a resoudre le probleme.
Pour cela on remplace u et y par ces valeurs dans lequation HJB. On obtient

( r)2 Jx2
0 = Jt + (Jx /)(/1) + xrJx (1/)1/1 (Jx )/1
2 2 Jxx

On cherche une solution sous la forme

J(t, x) = (t)1 x
12.3 Le modele de consommation investissement de Merton 147

On trouve en remplacant que 0 = 1 ou

( r)2
= (r + 2 ).
1 2 (1 )

On en deduit que
(t) = (1/1 1/)e(tT ) + 1/
ce qui donne J puis
y = x/(t), u = ( r)/ 2 (1 ).
Noublions pas que se placer dans lunivers risque neutre revient a prendre = r,
mais que lon veut peut etre maximiser lesperrance dans le monde reel !