Académique Documents
Professionnel Documents
Culture Documents
Semestre 1
Calcul stochastique,
applications en finance.
Alexandre POPIER
Année : 2016-2017
Table des matières
Introduction. 3
1
3 Équations différentielles stochastiques, changement de probabilité 75
3.1 Équations différentielles stochastiques . . . . . . . . . . . . . . . . . . . . 75
3.1.1 Théorie d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.1.2 Cas où on sait résoudre . . . . . . . . . . . . . . . . . . . . . . . . 80
3.1.3 Connexion avec les EDP (hors programme) . . . . . . . . . . . . . 81
3.2 Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.2.1 Pour le mouvement brownien . . . . . . . . . . . . . . . . . . . . 83
3.2.2 For a compound Poisson process . . . . . . . . . . . . . . . . . . . 86
3.2.3 For a jump-diffusion process . . . . . . . . . . . . . . . . . . . . . 90
3.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4 Application en finance 95
4.1 Cadre, autofinancement, arbitrage . . . . . . . . . . . . . . . . . . . . . . 95
4.1.1 Autofinancement. . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.1.2 Arbitrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.2 Modèle de Black-Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.2.1 Modélisation du prix des actifs. . . . . . . . . . . . . . . . . . . . 98
4.2.2 Arbitrage, probabilité risque-neutre et pricing . . . . . . . . . . . 101
4.2.3 Portefeuille dynamique et couverture. . . . . . . . . . . . . . . . . 103
4.2.4 EDP de Black-Scholes . . . . . . . . . . . . . . . . . . . . . . . . 104
4.2.5 Formule de Black-Scholes. . . . . . . . . . . . . . . . . . . . . . . 108
4.3 Pricing and hedging for jump diffusion processes models . . . . . . . . . 112
4.3.1 Asset driven by a Poisson process . . . . . . . . . . . . . . . . . . 112
4.3.2 Asset driven by a compound Poisson process and a Brownian motion115
4.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
Bibliographie. 125
2 A. Popier
Introduction
Le calcul stochastique a pris une place primordiale dans la finance de marché depuis
le milieu des années 1970. Le besoin de modélisation pour gérer au mieux les risques,
pour automatiser les tâches, bref pour « industrialiser » une activité au départ très
artisanale, a trouvé des moyens de calculs très sophistiqués dans la théorie développée
à partir des années 1930 par Kolmogorov, Itô et bien d’autres mathématiciens. De plus
la finance a poussé les mathématiciens à développer certaines de leurs théories, pour
le meilleur mais aussi pour le pire, quand la croyance en un modèle se confronte à la
réalité.
Commençons par rappeler quelques notions clés de la finance. Un marché financier
est composé (en simplifiant beaucoup) de titres de base :
— devises,
— opérations de prêt ou d’emprunt avec intérêts,
— actions et indices (S&P 500, CAC 40),
— matières premières.
Ces produits sont cotés, leur prix étant alors fixé suivant la loi de l’offre et de la de-
mande. Sur ces titres, se greffent des produits dérivés. Ils sont créés suite à une demande
de transfert des risques et existent depuis longtemps (blé dans l’Antiquité, métaux à
Amsterdam au 18ème siècle, etc.). Le prix de ces produits résultait d’un accord entre les
parties. Mais ils ont connu un formidable essor grâce à l’existence de marchés organisés
(Chicago 1973, Paris 85-87).
Parmi ces nombreux produits, concentrons nous sur la classe des options.
Définition 0.1 Une option est un titre donnant à son détenteur le droit, et non l’obli-
gation d’acheter ou de vendre (selon qu’il s’agit d’une option d’achat ou de vente) une
certaine quantité d’un actif financier, à une date convenue et à un prix fixé d’avance.
3
Sur les marchés organisés, les options sont parfois cotées. En général avec les règles
suivantes :
— 3 échéances cotées simultanément : 3, 6 et 9 mois (sur les mois de mars, juin,
septembre, décembre).
— Au moins 3 prix d’exercice avec écart standard entre eux et proches des cours de
l’action.
— Valeur intrinsèque : différence positive ou nulle entre le cours côté du titre support
et le prix d’exercice.
— Valeur temps : différence entre le cours de l’option et sa valeur intrinsèque.
Parmi ces cotations d’options, les plus liquides sont celles dites à la monnaie (prix d’exer-
cice proche de la valeur du cours). On dit qu’une option est dans la monnaie si sa valeur
intrinsèque est positive ; elle est en dehors de la monnaie sinon.
Le problème de tout produit dérivé, et donc en particulier d’une option, est d’en
fixer le prix (on parle aussi de prime). Si l’option est cotée sur un marché, la prime est
donnée par le marché. Mais en l’absence de cotation, comment calculer la prime ? Et
même pour une option cotée, disposer d’une formule ou d’un modèle pour calculer le
prix peut permettre de détecter d’éventuelles anomalies de marché.
Prenons l’exemple du call européen d’échéance T , de strike K, sur une action (stock
en anglais) de prix St à l’instant t.
— Si ST ≤ K, le détenteur de l’option n’exerce pas.
— Si ST > K, il exerce, achète au prix K et revend immédiatement l’action au prix
ST : il gagne donc ST − K.
— Donc la valeur à échéance de l’option (ou payoff en anglais) est : (ST − K)+ =
max(ST − K, 0).
Il y a alors deux problèmes à résoudre pour le vendeur de l’option.
— Pricing ou valorisation : comment évaluer à t = 0 une richesse (ST −K)+ disponible
en T ?
— Hedging ou couverture : comment reproduire à partir de la prime, la richesse
(ST − K)+ à la date T ?
Pour pouvoir surmonter ces problèmes, quelques hypothèses sont nécessaires.
Définition 0.2 (Marché sans friction) Un marché financier est dit sans friction si
— il n’y a pas de coûts de transaction ;
— il n’y a pas d’impôts ou taxes (sur les transactions ou les plus values) ;
— il n’y a pas d’écart entre prix d’achat et prix de vente des titres (fourchette de
prix nulle) ;
— les transactions sont instantanées ;
— les titres négociables sont très liquides et indéfiniment fractionnables ;
— il n’y a pas de restriction sur les ventes à découvert ;
— les participants du marché sont preneurs de prix (ils n’influencent pas les prix par
leurs achats et ventes).
En pratique ces conditions ne sont pas vérifiées, mais elles simplifient considérablement
la théorie. L’hypothèse qui suit est fondamentale.
Loi fondamentale de la finance de marché. Dans un marché sans friction, il n’y
a pas d’opportunité d’arbitrage s’il n’est pas possible de gagner de l’argent à coup sûr à
4 A. Popier
partir d’un investissement nul. On parle d’AOA pour absence d’opportunité d’arbitrage.
Ainsi quand on propose un modèle de marché il faut impérativement tenir compte
de cette loi ! De l’hypothèse de non arbitrage on tire les propriétés suivantes.
— Si Ct = Ct (T, K) est le prix du call à l’instant t, 0 ≤ Ct ≤ St .
— Si Pt (T, K) est le prix du put, et si on peut emprunter ou placer de l’argent au
taux constant r, alors on obtient la relation de parité call-put :
Preuve. En exercice.
Les options call et put sont dites vanille ou standard. Mais il en existe plein d’autres,
dites exotiques.
— Binaires : paye un nominal connu à son détenteur si le cours dépasse (est inférieur
à) un prix d’exercice fixé et rien sinon.
— Asiatiques : options standard, mais dont le support est la moyenne des cours sur
une période donnée. Créées pour éviter les manipulations de cours du sous-jacent
près de l’échéance.
— Lookback : le sous-jacent est le maximum ou le minimum du cours sur une période
incluant l’échéance. Flux payé : différence entre le cours et le max (ou le min).
Options chères car elles ont toujours de la valeur.
— Barrières : Call ou put standard mais dont l’exercice n’est autorisé que si le titre
support a franchi un niveau fixé appelé barrière.
— Quantos : Call ou put sur des titres d’un marché étranger mais payées en monnaie
domestique.
L’essor des mathématiques financières a commencé quand Black et Scholes ont dé-
veloppé leur théorie du pricing. Elle repose sur la gestion de portefeuille.
— Suivre le prix de marché de l’actif St (action, taux, commodité, etc.).
— Gérer un portefeuille (autofinançant) de valeur Vt de la valeur initiale la prime
π0 .
— Surveiller le P&L (profit and loss) final : VT − h(ST ) (on parle aussi de tracking
error), où h(ST ) valeur (ou payoff) à la maturité T du contrat.
— Trouver π0∗ qui minimise le P&L (optimisation de portefeuille).
Si on trouve un π0∗ tel que le P&L final est nul, alors en absence d’opportunité d’arbitrage,
à toute date intermédiaire, le prix du produit est égal à la valeur du portefeuille de
couverture construit à partir de π0∗ . Autrement dit, le prix d’un produit dérivé est donné
par la valeur de son portefeuille de couverture. Et c’est notamment pour déterminer
cette couverture du produit qu’on a besoin de mathématiques et de calcul stochastique.
En finance (mais pas seulement !), on distingue deux types de modèles : ceux pour
lesquels les fonctions aléatoires dépendent continument du temps et ceux dits à sauts,
c’est-à-dire des modèles dans lesquels les processus considérés ne sont pas continus ! Les
modèles avec trajectoires continues ont une place prépondérante en finance, ainsi ils
A. Popier 5
doivent être compris parfaitement avant de se lancer sur des généralisations. Néanmoins
pointons ici quelques inconvénients des modèles continus.
— Modèle de Black-Scholes. Le plus utilisé, LA référence. Parmi ses inconvé-
nients, citons l’invariance d’échelle du mouvement brownien. Celle-ci implique
que le trading journalier, mensuel ou à la seconde est à peu près le même !
— Modèle à volatilité locale. Extensions naturelles du modèle de Black-Scholes.
Pour cette classe de modèles, une couverture parfaite est possible, ce qui est faux
en pratique.
— Modèle à volatilité stochastique. La couverture parfaite en delta n’est plus
possible. Mais ils ne peuvent pas gérer des queues de distribution dites lourdes,
ce qui est un problème pour la gestion des risques, et de grands mouvements
soudains sont exclus. Ces deux phénomènes apparaissent en pratique pour des
options de maturité courte.
De plus il existe des domaines de la finance où les sauts sont une « nécessité ».
— Risque de crédit. La principale difficulté est de calculer la probabilité de défaut,
c’est-à-dire la probabilité que le temps de défaut d’une entreprise est lieu après
un instant t : P(τ > t). Classiquement il y a deux approches. Un modèle dit
réduit donne directement la loi de τ , tandis qu’un modèle structurel présente τ
comme un temps de passage :
τ = inf{t ≥ 0, Xt < H},
où X est un processus stochastique modélisant par exemple le prix de l’action de
la compagnie et H est une barrière. Si X n’a pas de saut, τ est un temps d’arrêt
prévisible. En pratique, les temps de défaut ne le sont pas (Enron, Novembre
2001, par exemple).
— Trading haute-fréquence. Lors de trading intra-minute, les traders doivent
tenir compte du « tick », le mouvement minimum d’un prix quelqu’il soit. Donc
le processus des prix devient totalement discontinu ! À des échelles de temps plus
grandes, ces petits sauts « s’aggrègent », et ne sont pas vus. Les modèles continus
interviennent alors.
— Actuariat. En 1903 Lundberg propose de modéliser le revenu d’une compagnie
d’assurance par un processus X défini par :
Nt
X
(1) Xt = x + ct − ξi .
i=1
Ici la compagnie collecte les primes à taux fixé c de ses clients, x est le capital
initial, N est les temps d’arrivés des sinistres, ce qui fait sauter le revenu à la
baisse. Les montants des sinistres ξj sont i.i.d. X est un processus de Poisson
composé avec dérive c. Les principales quantités à calculer sont la distribution
du temps de ruine et le déficit lors de la ruine :
τ0 = inf{t > 0, Xt < 0}, Xτ0 on {τ0 < +∞}.
Ce modèle a été très étudié et généralisé à des processus de Lévy généraux avec
sauts négatifs.
6 A. Popier
Plan du cours et commentaires.
Le premier chapitre sera consacré à des généralités sur les processus (fonctions du
temps aléatoires), et à des exemples importants : le mouvement brownien et le processus
de Poisson composé. Ce sont des processus centraux jouant le même rôle que la loi
gaussienne en probabilité par exemple. Le chapitre 2 sera celui du calcul stochastique :
intégration par rapport ùn processus, formule d’Itô. Le chapitre 3 permettra de traiter les
équations différentielles stochastiques, extension des équations différentielles de premier
cycle, et les changements de probabilité. Tout cela sera intensivement utilisé au chapitre
4 sur le pricing des actifs dérivés.
À noter que des parties du cours (tout ce qui concerne les processus à sauts) seront en
anglais. Cela permettra aux étudiants souhaitant travailler à l’étranger de se familiariser
avec les termes.
Enfin si des erreurs se sont glissées dans ce polycopié, n’hésitez pas à me les signaler
(apopier@univ-lemans.fr).
A. Popier 7
8 A. Popier
Chapitre 1
Avant d’entrer dans le vif du sujet, voici un bref historique de quelques travaux
fondateurs du calcul stochastique.
— Robert Brown, botaniste (1827) : description du mouvement de particules or-
ganiques dans un gaz ou un fluide.
— Louis Bachelier (1900) : modélisation du prix des actions. Thèse redécouverte
dans les années 1960.
— Albert Einstein (1905) : modèle probabiliste pour décrire le mouvement d’une
particule qui diffuse.
— Nobert Wiener (1923) : construction rigoureuse du mouvement brownien. Conti-
nuité des trajectoires.
— Paul Lévy (années 30-40) : propriétés du mouvement brownien.
— Kiyosi Itô (1948) : équations différentielles stochastiques.
— ...
Définition 1.1 Un processus stochastique est une collection de variables aléatoires (v.a.
en abrégé)
X = {Xt , 0 ≤ t < +∞} = (Xt )t≥0
sur (Ω, F, P), espace de probabilité, à valeurs dans (S, S), appelé espace d’états. Dans ce
cours, (S, S) = (Rd , B(Rd )).
9
Notations. Pour tout temps t ≥ 0 et X processus, on note
— Limite à gauche en t :
Xt− = lim Xs .
s→t, s<t
— Limite à droite en t :
Xt+ = lim Xs .
s→t, s>t
— Sauts de X à l’instant t :
∆Xt = Xt+ − Xt− .
Un processus est càdlàg si pour tout t, Xt+ = Xt et Xt− ∈ Rd . Dans ce cas ∆Xt =
Xt − Xt− . Il est continu si pour tout t, ∆Xt = 0.
P [Xt = Yt , ∀0 ≤ t < ∞] = 1.
Définition 1.3 (Égalité ?) Soient X et Y deux processus stochastiques définis des es-
paces de probabilité (Ω, F, P) et (Ω̃, F̃, P̃), et ayant le même espace d’états (Rd , B(Rd )).
est mesurable.
À noter. Sauf indication du contraire, dans la suite, tous les processus seront toujours
supposés mesurables.
10 A. Popier
1.1.1 Filtration et adaptation
C’est une notion fondamentale aussi bien d’un point de vue théorique qu’en pratique
en finance.
Définition 1.5 (Filtration) Une filtration est une famille croissante {Ft , 0 ≤ t <
+∞} de sous-tribus de F : !
Fs ⊂ Ft ⊂ F pour 0 ≤ s < t < +∞.
[
On pose F∞ = σ Ft .
t≥0
est mesurable.
Imposer aux processus d’être adapté à la filtration engendrée par les prix, permet d’éviter
le délit d’initié.
Proposition 1.1
— Si un processus X est mesurable et adapté à la filtration {Ft }, alors il admet une
modification progressivement mesurable.
— Si un processus X est adapté à la filtration {Ft } et si les trajectoires sont conti-
nues à droite, alors il est progressivement mesurable.
Preuve. Le premier résultat est admis. Pour le second, pour t > 0, n ≥ 1, k = 0, 1, . . . , 2n − 1 et
0 ≤ s ≤ t, on pose
kt k+1
Xs(n) (ω) = X(k+1)t/2n (ω), pour n
<s≤ t,
2 2n
A. Popier 11
(n) (n)
avec X0 (ω) = X0 (ω). L’application (s, ω) 7→ Xs (ω) de [0, t]×Ω dans Rd est clairement B([0, t])⊗Ft -
mesurable. Par continuité à droite, on a aussi : lim Xs(n) (ω) = Xs (ω) pour tout (s, ω) ∈ [0, t] × Ω.
n→∞
Donc l’application limite (s, ω) 7→ Xs (ω) est aussi B([0, t]) ⊗ Ft - mesurable.
Définition 1.8 (Filtration standard) Une filtration {Ft } satisfait les conditions usuelles
si elle est continue à droite et si F0 contient tous les ensembles P-négligeables de F.
∀t ≥ 0, {T ≤ t} ∈ Ft .
Proposition 1.2 Si la filtration est continue à droite, alors T est un temps d’arrêt si
et seulement si : ∀t ≥ 0, {T < t} ∈ Ft .
Preuve. Si T est un temps d’arrêt, alors
{T < t} ⊂ {T ≤ t} ∈ Ft .
∀t ≥ 0, A ∩ {T ≤ t} ∈ Ft .
12 A. Popier
Lemme 1.2 Pour deux temps d’arrêt T et S, pour tout A ∈ FS on a A∩{S ≤ T } ∈ FT .
En particulier si S ≤ T sur Ω, alors FS ≤ FT .
Soit T et S des temps d’arrêt. Alors FT ∧S = FT ∩ FS et chacun des ensembles
appartient à FT ∩ FS .
Preuve. Elle consiste à vérifier les définitions. Ainsi pour t ≥ 0,
A ∩ {S ≤ T } ∩ {T ≤ t} ⊂ A ∩ {S ≤ t} ∈ Ft
Preuve. Admise.
et T , sachant que {T ≤ t} ∈ Ft .
A. Popier 13
1.2 Lévy, Poisson and compound Poisson processes
Let us begin with a wide class of processes, commonly used in finance.
Definition 1.1 (Lévy process) A stochastic process (Xt )t≥0 defined on a probability
space (Ω, F, P), with values in Rd , is a Lévy process if
1. X0 = 0 a.s.
2. its increments are independent : for every increasing sequence t0 , . . . , tn , the ran-
dom variables Xt0 , Xt1 − Xt0 , . . . , Xtn − Xtn−1 are independent ;
3. its increments are stationnary : the law of Xt+h − Xt does not depend on t ;
4. X satisfies the property called stochastic continuity : for any ε > 0,
lim P(|Xt+h − Xt | ≥ ε) = 0;
h→0
5. there exists a subset Ω0 s.t. P(Ω0 ) = 1 and for every ω ∈ Ω0 , t 7→ Xt (ω) is RCLL.
RCLL means right continuous with left limits. The fourth condition excludes processes
with deterministic jump times. For a fixed t, the probability to have a jump is zero.
Assume that we work on a filtered probability space (Ω, F, P) with a filtration (Ft )t≥0 .
Definition 1.2 (Lévy process) X is a Lévy process if X is adapted to the given fil-
tration and
1. X0 = 0 a.s.
2. its increments are independent, that is for any s ≤ t, Xt − Xs is independent of
Fs .
3. its increments are stationnary : the law of Xt+h − Xt does not depend on t ;
4. X satisfies the property called stochastic continuity : for any ε > 0,
lim P(|Xt+h − Xt | ≥ ε) = 0;
h→0
5. there exists a subset Ω0 s.t. P(Ω0 ) = 1 and for every ω ∈ Ω0 , t 7→ Xt (ω) is RCLL.
In this definition , the filtration is a part of the definition of the Lévy process.
Remarks :
— If the filtration is generated by X, the two definitions are equivalent.
— If {Ft } is a larger filtration than (FtX ⊂ Ft ) and if Xt − Xs is independent of Fs ,
then {Xt ; 0 ≤ t < +∞} is a Lévy process under the large filtration.
— If we remove Assumption 5, we speak about Lévy process in law.
— If we remove Assumption 3, we obtain an additive process.
— Dropping Assumptions 3 and 5, we have an additive process in law.
— We can also prove that 2, 3 and 5 imply 4.
Theorem 1.1 A Lévy process (or an additive process) in law has a RCLL modification
(if the filtration satisfies the usual conditions).
14 A. Popier
Proof. Admitted.
Remember that the law of a random variable (r.v. in short) is characterized by its
characteristic function.
Proposition 1.1 Let (Xt )t≥0 be a Lévy process in Rd . Then there exists a function
ψ : Rd → R called characteristic exponent of X such that :
∀z ∈ Rd , E eihz,Xt i = etψ(z) .
(1.1)
Proof. Recall that if f : R → R is a right-continuous function such that for every x and y, f (x + y) =
f (x)f (y), then there exists α ∈ R such that for every x ∈ R, f (x) = exp(αx).
Definition 1.3 A stochastic process (Xt )t≥0 , with values in R, is a Poisson process with
intensity λ > 0 if it is a Lévy process s.t. for every t > 0, Xt has a Poisson law with
parameter λt.
It means that for each t > 0, for every k ∈ N,
(λt)k
P(Xt = k) = exp(−λt).
k!
So in fact X is a process with values in N.
Proposition 1.2 (Construction) If (Tn )n∈N is a random walk on R s.t. for every
n ≥ 1, Tn − Tn−1 is exponentially distributed with parameter λ (with T0 = 0), then the
process (Xt )t≥0 defined by
Xt = n ⇐⇒ Tn ≤ t < Tn+1
A. Popier 15
Proof. Let us prove first that X is a Lévy process. By definition X0 = 0 and X is a RCLL process.
Moreover for any ε > 0
|Xt+h − Xt | ≥ ε ⇐⇒ ∃n ∈ N, t < Tn ≤ t + ε.
But since
n
X
Tn = Ti − Ti−1
i=1
We will prove the stationnary and the independence of the increments below.
Now for t > 0 and n ∈ N, we have
16 A. Popier
Definition 1.4 (Pure jump process) A pure jump process is a process with
— piecewise constant trajectories,
— and a finite number of jumps on every finite time interval.
P((U(1) , . . . , U(n) ) ∈ B)
X
= P (Uσ(1) , . . . , Uσ(n) ) ∈ B, Uσ(1) < . . . < Uσ(n)
σ∈Sn
X Z 1
= 1uσ(1) <...<uσ(n) 1B (uσ(1) , . . . , uσ(n) ) du1 . . . dun
tn
σ∈Sn
Z
n!
= 1u1 <...<un 1B (u1 , . . . , un )du1 . . . dun .
tn
Now (T1 , . . . , Tn , Tn+1 ) has for density λn+1 e−λtn+1 10<t1 <...<tn <tn+1 . Hence for any Borelian B :
P((T1 , . . . , Tn ) ∈ B, Nt = n)
= P((T1 , . . . , Tn ) ∈ B, Tn ≤ t < Tn+1 )
Z Z
= λn+1 e−λtn+1 10<t1 <...<tn <tn+1 1B (t1 , . . . , tn )dt1 . . . dtn+1
Z
n −λt
=λ e 1B (t1 , . . . , tn )10<t1 <...<tn dt1 . . . dtn
[0,t]n
Hence
P((T1 , . . . , Tn ) ∈ B, Nt = n)
P((T1 , . . . , Tn ) ∈ B|Nt = n) =
P(Nt = n)
Z
n!
= 1t1 <...<tn 1B (t1 , . . . , tn )dt1 . . . dtn ,
tn
This last proposition will be very useful to simulate Poisson process. For any interval
I, we denote by N (I) the number of jumps of Xt , t ∈ I.
Proposition 1.4 For 0 < s < t and n ≥ 1, the conditional law of Xs knowing Xt = n
is binomial with parameters n and s/t.
For 0 = t0 < t1 < . . . < tk = t and Ij =]tj−1 , tj ], the conditional law of (N (I1 ), . . . , N (Ik ))
knowing Xt = n is multinomial with parameters n, (t1 − t0 )/t, . . . , (tk − tk−1 )/t.
Proof. Let us denote by Jn1 ,...,nk a partition of the set {0, 1, . . . , n} in k subsets J1 , . . . , Jk of length
n1 , . . . , nk with n1 + . . . + nk = n. Denote by J the set of all such partitions. Remember that the
A. Popier 17
n!
number of elements of J is equal to .Then
n1 ! . . . nk !
P(N (I1 ) = n1 , . . . , N (Ik ) = nk |Nt = n) = P(∃Jn1 ,...,nk ∈ J , ∀i ∈ Jl , tl−1 < Ui ≤ tl )
X
= P(∀i ∈ Jl , Ui ∈]tl−1 , tl ])
Jn1 ,...,nk ∈J
k n
X Y tl − tl−1 l
=
t
Jn1 ,...,nk ∈J l=1
k nl
n! Y tl − tl−1
= .
n1 ! . . . nk ! t
l=1
Now take k = 1, t1 = s to obtain that Xs = N ([0, s]) knowing Nt = n is binomial with parameters
n and s/t.
The last proposition allows us to finish the proof of Proposition P 1.2. Indeed let
0 = t0 < t1 < . . . < tk and n1 , . . . , nk be non negative integers with n = nk . Then
P(Xt1 = n1 , Xt2 − Xt1 = n2 , . . . , Xtk − Xtk−1 = nk )
= P(Xtk = n)P(Xt1 = n1 , Xt2 − Xt1 = n2 , . . . , Xtk − Xtk−1 = nk |Xtk = n)
= P(Xtk = n)P(Tn1 ≤ t1 < Tn1 +1 , Tn1 +n2 ≤ t2 < Tn1 +n2 +1 , . . . , Tn1 +...+nk ≤ tk |Xtk = n)
= P(Xtk = n)P(N (I1 ) = n1 , . . . N (Ik ) = nk |Xtk = n)
n k n
−λtk (λtk ) n! Y tl − tl−1 l
=e
n! n1 ! . . . nk ! l=1 t
k
Y (λ(tl − tl−1 ))nl
= e−λ(tl −tl−1 ) .
l=1
nl !
Definition 1.5 The process (Xt )t≥0 is a compound Poisson processes with intensity λ
and jump distribution π.
18 A. Popier
Let us draw an example. This is a compound Poisson processes with Gaussian jumps
used in the Merton model.
Proposition 1.5 The process (Xt )t≥0 is a Lévy process, with piecewise constant trajec-
tories and characteristic function :
Z
ihz,Xt i ihz,xi
d
∀z ∈ R , E e = exp tλ (e − 1)π(dx)
Rd
(1.3) Z
ihz,xi
= exp t (e − 1)ν(dx) .
Rd
Proof. X satisfies all properties of Definition 1.1. Therefore it is a Lévy process. Between two jumps of
the Poisson process P , X is constant. Then the trajectories are piecewise constant. Now let us compute
the characteristic function.
Pt
!! Pt
!!
X X
ihz,Xt i
E e = E exp ihz, Yn i = E exp ihz, Yn i
n=1 n=1
+∞ Pt
! !
X X
= E exp ihz, Yn i Pt = k P(Pt = k)
k=0 n=1
+∞ k
! +∞ Y
k
X Y X
= E exp (ihz, Yn i) P(Pt = k) = E exp (ihz, Yn i) P(Pt = k)
k=0 n=1 k=0 n=1
+∞ k
X k (λt)
= (E exp (ihz, Y1 i)) e−λt = e−λt exp [λtE exp (ihz, Y1 i)]
k!
k=0
= exp [λt (E exp (ihz, Y1 i) − 1)] .
Z
But E exp (ihz, Y1 i) − 1 = (eihz,xi − 1)π(dx), and we obtain the result.
Rd
A. Popier 19
The quantity ν is a finite measure defined on Rd by
Definition 1.7 The law µ of X1 is called compound Poisson distribution and has a cha-
racteristic function given by :
Z
ihz,xi
µ̂(z) = exp λ (e − 1)π(dx) .
Rd
Now clearly
So a compound Poisson process can not have a density (w.r.t. the Lebesgue measure).
Proposition 1.6 Let X be a compound Poisson process and A and B two disjointed
subsets of Rd . Then :
X X
Yt = ∆Xs 1∆Xs ∈A and Zt = ∆Xs 1∆Xs ∈B
s≤t s≤t
π(C ∩ A)
∀C ⊂ Rd , π A (C) = .
π(A)
Now
X X
E exp(iuYt + ivZt ) = E exp iu ∆Xs 1∆Xs ∈A + iv ∆Xs 1∆Xs ∈B
s≤t s≤t
Pt
!
X
= E exp Yn (iu1Yn ∈A + iv1Yn ∈B )
n=1
= E exp(iuYt )E exp(ivZt ).
The last equality has to be proved properly, but the trick is the same as the method used to compute
the characteristic function of a compound Poisson process.
20 A. Popier
1.2.3 Moments
In finance we need to compute the moments of the process (think also to statistics
theory).
A. Popier 21
1.3 Mouvement brownien
Voyons maintenant le processus central du calcul stochastique. Contrairement au
processus de Poisson (composé), ses trajectoires sont continues, sa loi est simple (gaus-
sienne). En revanche il est beaucoup moins régulier (non dérivable, variations infinies,
etc.).
1.6
1.4
1.2
1.0
0.8
0.6
0.4
0.2
0.0
- 0.2
- 0.4
- 2.0 - 1.5 - 1.0 - 0.5 0.0 0.5 1.0
22 A. Popier
2. le processus X a des trajectoires continues p.s.
En particulier les coordonnées {Bti ; t ≥ 0} sont des mouvements browniens réels (de di-
mension 1) indépendants. Et des mouvements browniens réels indépendants engendrent
un mouvement brownien vectoriel. Les propriétés relatives aux filtrations d’un processus
de Lévy restent donc vraies.
— Si la filtration est celle engendrée par le mouvement brownien B, alors cette
définition est équivalente à celle du premier chapitre.
— Si {Ft } est une filtration plus grande que la filtration (FtB ⊂ Ft ) et si Bt − Bs est
indépendant de Fs , alors {Bt ; 0 ≤ t < +∞} est encore un mouvement brownien
par rapport à cette filtration.
— La filtration augmentée du mouvement brownien est continue à droite et B est
encore un mouvement brownien dans cette filtration.
Le mouvement brownien est un cas particulier d’une classe plus générale de processus.
E(Bt Bs ) = s, ∀s ≤ t.
Soit B = {Bt ; 0 ≤ t < +∞} un mouvement brownien. Il possède alors les propriétés
suivantes :
Proposition 1.5
1. Bt est une v.a. gaussienne centrée de variance tId. Donc a une densité :
−|x|2
1
f (x) = exp , x ∈ Rd .
(2πt)d/2 2t
|x| est la norme euclidiennne : |x|2 = |(x1 , . . . , xd )|2 = x21 + . . . + x2d .
A. Popier 23
2. Sa fonction caractéristique est donnée par
E(eihz,Bt i ) = exp(−t|z|2 /2).
Donc son exposant caractéristique ψ est : ψ(z) = −|z|2 /2.
3. Bt est la somme de ses accroissements, i.e. la somme de v.a. i.i.d. de loi gaus-
sienne.
4. En dimension 1, B = {Bt ; 0 ≤ t < +∞} et {Bt2 − t; 0 ≤ t < +∞} sont des
martingales, c’est-à-dire que pour tout 0 ≤ s ≤ t :
E(Bt |Fs ) = Bs , E(Bt2 − t|Fs ) = Bs2 − s.
Preuve.
1. Immédiat.
2. En effet pour tout t > 0, et tout n ≥ 1, en posant h = t/n, on a presque sûrement
n−1
X
Bt = (Bh(k+1) − Bhk )
k=0
24 A. Popier
1.3.1 Invariance par translation et propriétés de Markov
Définition 1.15 Un mouvement brownien issu de X0 est un processus de la forme Xt =
X0 + Bt avec une condition initiale X0 indépendante du brownien B.
Lemme 1.4 Pour qu’une v.a. Y soit indépendante de la tribu σ(Xi , i ∈ I), il faut et
il suffit qu’elle soit indépendante de toutes les sous-familles finies (Xj , j ∈ J).
Preuve. Par rapport à l’invariance par translation, la difficulté ici vient du fait que U est aléatoire. Il
faut montrer que pour tous temps 0 ≤ s1 < s2 . . . < sj et 0 ≤ t1 < . . . < tk , tous réels (x1 , . . . , xk ) et
tous boréliens A1 , . . . , Aj−1 , on a
A. Popier 25
Le cas le plus simple est celui où U est un temps d’arrêt discret à valeurs dans (un )n≥1 . Dans ce
cas on a
(1.6) P(BtU1n < x1 , . . . , BtUkn < xk , Bs1 ∈ A1 , . . . , Bj−1 ∈ Aj−1 , sj ≤ Un < +∞)
= P(B̃t1 < x1 , . . . , B̃tk < xk )P(Bs1 ∈ A1 , . . . , Bj−1 ∈ Aj−1 , sj ≤ Un < +∞).
Lorsque U < +∞ (équivalent à Un < +∞), la continuité des trajectoires de B montre que BtUn converge
vers BtU lorsque n tend vers +∞, pour tout t avec probabilité 1. Donc on peut passer à la limite sur n
dans 1.6.
P sup Bt ≥ y = P(|BT | ≥ y) (égalité en loi des v.a.).
t≤T
y(y − x)
∀y ≥ x ∨ 0, P sup Bt ≥ y BT = x = exp −2 .
t≤T T
Ty = inf{t ≥ 0, Bt = y}.
26 A. Popier
On a alors
P sup Bt ≥ y = P(Ty ≤ T ) = P(Ty ≤ T, BT < y) + P(Ty ≤ T, BT > y).
t≤T
Ty est un temps d’arrêt (voir définition suivante). Donc on peut utiliser la propriété de Markov forte
(cf. proposition 1.8 qui suit). Le processus {BTy +t , t ≥ 0} est donc un mouvement brownien issu de
y et indépendant de (Bs , s ≤ Ty ). On applique la symétrie du processus B Ty pour déduire que les
événements {Ty ≤ T, BT < y} et {Ty ≤ T, BT > y} ont la même probabilité. Ainsi :
P sup Bt ≥ y = 2P(Ty ≤ T, BT > y).
t≤T
et
Bt
lim = 0.
t→+∞ t
Preuve. On considère la suite de v.a. MT = supt≤T Bt , pour T ≥ 0. Quand T tend vers +∞, cette
suite est croissante, donc convergente. Notons M∞ sa limite presque sûre. Le résultat annoncé avec la
limsp revient à montrer que M∞ = +∞ p.s. Le même raisonnement fonctionnerait avec la liminf. En
appliquant le théorème de convergence monotone, on obtient
P(M∞ = +∞) = lim P(M∞ > y) = lim lim P(MT > y)
y→+∞ y→+∞ T →+∞
= lim lim P(|BT | > y) = 1.
y→+∞ T →+∞
A. Popier 27
Pour la seconde partie, la loi des grands nombres montre la convergence p.s. le long de suites
de nombres rationnels. Pour pouvoir passer à la limite le long des suites réelles quelconques, nous
introduisons les v.a. Mn = sup (Bt − Bn ) et M̃n = sup (Bn − Bt ) et montrons que Mn /n et
n<t≤n+1 n<t≤n+1
M̃n /n convergent p.s. vers 0.
La proposition 1.9 montre que Mn et M̃n sont intégrables. Pour montrer que X Mn /n converge p.s.
vers 0, on applique le lemme de Borel-Cantelli en justifiant que pour tout ε > 0, P(Mn ≥ nε) < +∞.
n
En effet cette propriété implique que pour tout ε, à partir d’un certain rang, p.s. la suite Mn /n est plus
petite que ε. Comme c’est en particulier vrai pour tout ε rationnel, cela assure la convergence presque
sûre vers 0.
La condition de Borel-Cantelli est satisfaite puisque
X X 1
P(Mn ≥ nε) = P(M1 ≥ nε) ≤ E(M1 ) < +∞.
ε
n≥1 n≥1
Preuve. La preuve repose sur le fait que le processus {B t = tB1/t ; t > 0, B̄0 = 0} est un mouvement
brownien. Comme indiqué plus haut, nous laissons au lecteur le soin de vérifier les propriétés de sta-
tionnarité, d’indépendance et de loi des accroissements de B. Reste à prouver la continuité en 0 des
trajectoires. Or la convergence vers 0 de B h est équivalente à celle de Btt vers 0 lorsque t = 1/h tend
vers +∞. Cette propriété a été établie précédemment.
De même la non différentiabilité des trajectoires est acquise puisque
Bt
lim sup = lim sup |B1/t | = +∞.
t→0 t t→0
Cette propriété vraie pour B est valable pour tout brownien, car c’est une propriété de la loi des
trajectoires. En particulier elle est vraie pour le mouvement brownien translaté (Bt+h − Bt , h ≥ 0), ce
qui montre que p.s. les trajectoires ne sont pas dérivables.
Les trajectoires sont donc continues, mais non dérivables. En effet on peut étendre le
résultat précédent pour montrer que p.s. B n’est nulle part différentiable (Paley-Wiener-
Zygmund (1933)). Ceci rend les trajectoires browniennes particulièrement irrégulières.
Néanmoins on a un contrôle höldérien de la régularité des trajectoires.
28 A. Popier
avec α, β, et C constantes. Alors il existe une modification de X, continue notée X̃ =
{X̃t , 0 ≤ t ≤ T } , qui est localement hölderienne d’exposant γ pour tout γ ∈ (0, β/α),
c’est-à-dire " #
|X̃t (ω) − X̃s (ω)|
P ω, sup ≤δ =1
0<|t−s|<h(ω), s,t∈[0,T ] |t − s|γ
où h(ω) est une v.a. p.s. positive et δ > 0 est une constante.
Proposition 1.12 Les trajectoires browniennes sont höldériennes d’ordre γ pour tout
γ < 1/2.
Néanmoins les trajectoires browniennes ne sont pas höldériennes d’ordre 1/2, à cause
de la loi du logarithme itéré :
Bt Bt
lim sup p = 1, lim inf p = −1, p.s.
t↓0 2t ln ln(1/t) t↓0 2t ln ln(1/t)
√
Ainsi si les trajectoires étaient höldériennes d’ordre 1/2, alors |Bt | ≤ C t pour tout t
proche de zéro, d’où :
Bt 1
lim sup p ≤ C lim sup p = 0.
t↓0 2t ln ln(1/t) t↓0 2 ln ln(1/t)
A. Popier 29
Variations
Pour X processus et t > 0, on note
— Π = (t0 , t1 , . . . , tn ), avec 0 = t0 ≤ t1 ≤ . . . ≤ tn = t, partition de [0, t],
— pas de la partition kΠk = max |tk − tk−1 |.
1≤k≤n
La p-ième variation de X par rapport à la partition Π est :
n
Xt − Xt p .
(p)
X
Vt (Π) = k k−1
k=1
(p)
Si X est continu et tel que pour un p > 0, lim Vt (Π) = Lt en probabilité, alors
kΠk→0
(q)
— pour q > p, lim Vt (Π) = 0,
kΠk→0
(q)
— pour 0 < q < p, lim Vt (Π) = +∞ sur l’événement {Lt > 0}.
kΠk→0
Preuve. En exercice.
30 A. Popier
Lorsque f est une fonction continue localement lipschitzienne (par exemple de classe
1
C ), la variation quadratique est nulle. En effet
X X
Vtn = (f (ti+1 ) − f (ti ))2 ≤ K (ti+1 − ti )2 ≤ K(t + 1)δn −→ 0,
n→+∞
ti ≤t ti ≤t
lim Vtn = t.
n→∞
Preuve. Commençons par le cas où t est fixe. Notons n(t) l’indice de la subdivision d’ordre n tel que
tn(t) ≤ t < tn(t)+1 . On a alors
n(t)
X
n
Vt − t = Zj + (tn(t)+1 − t)
j=0
2
en posant Zj = Btj+1 − Btj − (tj+1 − tj ). Clairement tn(t) − t tend vers 0 quand n tend vers +∞. Les
v.a. Zj sont indépendantes, centrées, de carré intégrable, et E(Zj2 ) = C(tj+1 − tj )2 pour une constante
C positive. Ainsi
2
n(t) n(t) n(t)
X X X
2
E Zj = E(Zj ) = C (tj+1 − tj )2 ≤ Cδn (t + 1).
j=0 j=0 j=0
n(t)
X
Donc Zj est une série convergence dans L2 (Ω, P) vers 0.
j=0
Mais comme δn = 2−n , on a aussi que
2
n(t)
X X
E Zj < +∞
n≥1 j=0
2
n(t)
X X
c’est-à-dire que la série Zj est d’espérance finie. Donc avec probabilité 1, elle est convergente
n≥1 j=0
et donc son terme général tend vers 0. Ainsi pour chaque t, il existe un ensemble négligeable Nt tel que
n
pour tout ω 6∈ Nt , Vt[ (ω) converge vers t.
Posons N = Nt . C’est un ensemble négligeable. Et pour un t réel arbitraire, t est la limite
t∈Q∩[0,+∞[
de deux suites monotones de rationnels (rp ) et (sp ). Comme pour n fixé, t 7→ Vtn est croissante, on en
déduit que pour ω 6∈ N ,
rp = lim Vrnp (ω) ≤ lim inf Vtn (ω) ≤ lim sup Vtn (ω) ≤ lim Vsnp = sp
n→+∞ n→+∞ n→+∞ n→+∞
A. Popier 31
avec lim kΠn k = lim max (Πk+1
n − Πkn ) = 0. Alors la variation quadratique
n→+∞ n→+∞ 0≤k≤Nn −1
mn
X 2
(2)
Vt (Πn ) = Bt(n) − Bt(n)
k k−1
k=1
Proposition 1.15 pour presque tout ω ∈ Ω, t 7→ Bt (ω) est à variation infinie sur tout
intervalle [0, t].
Preuve. En effet, on a toujours
X
X 2
Vtn =
Bti+1 − Bti ≤ sup |Bti+1 − Bti | × Bt − Bt
i+1 i
ti ≤t
ti ≤t ti ≤t
Donc pour que le terme de gauche dans l’inégalité tende vers t, il faut que la variation de B sur [0, t]
soit égale à +∞ : X
lim Bt − Bt = +∞.
i+1 i
n→+∞
ti ≤t
(n) 1
Xt = √ Ynt .
σ n
32 A. Popier
On peut prendre par exemple pour ξi une v.a. de type Bernoulli symétrique
0.4
0.2
0.0
- 0.2
- 0.4
- 0.6
- 0.8
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
Et pour n = 500 :
0.6
0.4
0.2
0.0
- 0.2
- 0.4
- 0.6
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
[nt]
(n) 1 1 1 X (nt − [nt])ξ[nt]+1
Xt = √ Ynt = √ S[nt] − (nt − [nt])ξ[nt]+1 = √ ξj − √ .
σ n σ n σ n j=1 σ n
A. Popier 33
Il est à peu pr̀es immédiat que presque sûrement
(nt − [nt])ξ[nt]+1
lim √ = 0.
n→+∞ σ n
Définition 1.18 (Mesure de Wiener) La mesure P∗ sur (C[0, ∞), B(C[0, ∞))) est
appelée mesure de Wiener. (C[0, ∞), B(C[0, ∞)), P∗ ) est l’espace de probabilité canonique
pour le mouvement brownien.
Définition 1.19 (Convergence faible) Soit (S, ρ) un espace métrique de tribu bo-
rélienne B(S). Soit (Pn ) une suite de probabilités sur (S, B(S)) et soit P une autre
probabilité sur ce même espace. (Pn ) converge faiblement vers P si
Z Z
lim f (s)dPn (s) = f (s)dP(s)
n→∞ S S
Proposition 1.17 Soit (Gm )m≥0 une suite de v.a. gaussiennes centrées réduites indé-
pendantes. Alors r
t 2 X sin(mt)
Bt = √ G0 + Gm
π π m≥1 m
34 A. Popier
Preuve. Nous en equissons les idées principales. On montre que la série converge p.s. car c’est une suite
de Cauchy dans L2 , dont la limite p.s. est donc gaussienne. B est donc un processus gaussien centré.
On calcule sa fonction de covariance :
ts 2 X sin(mt) sin(ms)
Cov(Bt , Bs ) = + .
π π m m
m≥1
Et on vérifie que cela fait min(s, t) en calculant les coefficients de Fourier de t ∈ [−π, π] 7→ min(s, t)
(avec s fixé).
Enfin la continuité de B se montre en prouvant la convergence uniforme de la série.
A. Popier 35
Le processus W = (W 1 , W 2 ) est un mouvement brownien standard.
(1.8) Z
t
= − hz, AA∗ zi + ithz, γi + t (eihz,xi − 1)ν(dx).
2 R d
36 A. Popier
The second one is used in the Kou model where the jump sizes are given by a non
symmetric Laplace distribution.
For the financial point of view let us recall the main features of a jump-diffusion
process.
— The prices are diffusion process, with jumps at randon times.
— The jumps are rare events. Therefore this model can be used for cracks or large
losses.
The advantages are the following :
— the price structure is easy to understand, to describe and to simulate.
— Hence efficient Monte Carlo methods can be applied to compute path-depend
prices.
— And this model is very performant to interpolate the implicit volatility smiles.
But there are some inconvenients.
— the densities are not known in closed formula,
— and statistical estimation or moments/quantiles computations are difficult to
realize.
For the simulation, the dimension can 1 or d, the simulation is the same. For the
Brownian part Xt = σWt + γt, the simulation is based on the fact that W is a sum of
Gaussian increments. Thus the procedure is the following :
1. split the interval [0, t] by a grid t0 = 0 < t1 < . . . < tn = t,
2. simulate n standard Gaussian r.v. Zi ,
√
3. define ∆Xi = σ ti − ti−1 Zi + b(ti − ti−1 ),
Xi
4. put Xi = ∆Xi .
k=1
The simulation is exact on the grid in the sense that Xi has the same law as Xti . Between
Xi and Xi+1 , one can used a linear interpolation.
The simulation of the compound Poisson process is based on Proposition 1.3. The
jump times of a Poisson process knowing the value at time t have the same distribution
A. Popier 37
as the order statistics of uniform r.v. on [0, t]. Hence to simulate the compound Poisson
part on the interval [0, T ], the algorithm is :
1. simulate a Poisson r.v. N with parameter λT ,
2. simulate N independent r.v. Ui with uniform law on [0, T ],
3. simulate the jumps : N independent r.v. Yi with distribution ν(dx)/λ,
N
X
4. put Xt = 1Ui <t Yi .
i=1
Moments
It is well known that a Brownian motion with drift Xt = bt + AWt has exponential
moment :
∀u ∈ Rd , E exp(hu, Xt i) < +∞.
So by independance between the continuous part and the jump part of a jump-diffusion
process, integrability problem can just arise because of the jumps of X. Hence we can
apply Theorems 1.3 and 1.4 to the jump part of X to have for example : E(|Xt |n ) < ∞
if and only if E(|Y1 |n ) < ∞. In particular
and
And if Z
1
ψ(w) = hw, A∗ Awi + hγ, wi + (ehw,xi − 1)ν(dx)
2 Rd
Densities
38 A. Popier
Martingales.
Now let us come to the martingale property.
Proof. Use the previous proposition, Equation (1.9) and Theorem 1.4.
A. Popier 39
1.5 Exercices
Processus de Poisson
Nt
Exercice 1.1 Soit N = (Nt ) un processus de Poisson d’intensité λ. Montrer que lim =
t→+∞ t
Nt − λt
λ p.s. et que le processus √ converge en loi quand t tend vers +∞ vers une
λt t≥0
loi gaussienne centrée réduite.
Exercice 1.2 Montrer que si N = (Nt ) et (Ñt )t≥0 sont deux processus de Poisson
indépendants, d’intensité respective λ et µ, alors la somme est un processus de Poisson
d’intensité λ + µ.
Exercice 1.3 Soient (Nt )t≥0 et (Ñt )t≥0 deux processus de Poisson indépendants, d’in-
tensité respective λ et µ.
1. Montrer que le processus (Xt )t≥0 défini par Xt = Nt − Ñt est un processus de
Poisson composé dont on déterminera les caractéristiques.
2. On suppose λ 6= µ. Montrer que (Xt /t)t≥0 et (Xt )t≥0 convergent p.s. dans R quand
t tend vers +∞. Préciser la limite de Xt suivant le signe de λ − µ.
Exercice 1.4 On se donne une mesure ν sur R∗ de densité par rapport à la mesure de
Lebesgue :
c1 c2
ν(x) = 1+α1 e−λ1 |x| 1x<0 + 1+α2 e−λ2 x 1x>0 ,
|x| x
où c1 et c2 sont des constantes positives ou nulles, λ1 et λ2 sont strictement positives,
tandis que α1 et α2 sont des réels strictement inférieurs à 2. À quelle condition sur α1
et α2 , ν est-elle la mesure de Lévy d’un processus de Poisson composé ? Dans ce cas
déterminer l’intensité du processus de Poisson sous-jacent et la distribution des sauts.
Vecteurs gaussiens
40 A. Popier
Exercice 1.6 Montrer que les moments d’une v.a. gaussienne X de moyenne zéro et
de variance 1 sont donnés par :
(2n)!
∀n ≥ 0, E(X 2n ) = n
, E(X 2n+1 ) = 0.
2 n!
Indication : utiliser la fonction caractéristique de X.
Exercice 1.7 Soit X une v.a. gaussienne réelle standard et soit Z une v.a. indépendante
de X, uniformément distribuée sur {−1, 1}.
1. Montrer que ZX est gaussienne.
2. En considérant X + ZX, montrer que le vecteur (X, ZX) n’est pas gaussien.
3. Montrer que X et ZX ne sont pas indépendants, bien que leur covariance soit
nulle.
Mouvement brownien
Exercice 1.10 On considère un mouvement brownien (Bt )t≥0 . Montrer que le processus
(−Bt )t≥0 est aussi un mouvement brownien.
A. Popier 41
α2
2. Montrer que si X est un processus continu tel que X0 = 0 et (exp(αXt − 2
t))t≥0
est une martingale, alors X est un mouvement brownien.
Exercice 1.12 Pour B mouvement brownien, calculer les deux premiers moments de
la v.a. suivante : Z 1
X= Bs2 ds.
0
Exercice 1.13 (Contrôle 2011-2012) Soit (Wt )t≥0 un mouvement brownien stan-
dard et soit (Ft ; t ≥ 0), la filtration engendrée par W , i.e. Ft = σ {Ws : s ≤ t} pour
tout t ≥ 0.
1. Calculer E {Wt |Fs } pour s < t.
2. Calculer pour s < t, E et/2 cos(Wt )|Fs . Conclusion ?
Processus de sauts-diffusion
Exercice 1.14 Soit X = (Xt )t≥0 un processus de sauts-diffusion réel sans terme brow-
nien (σ = 0), de dérivve γ et de mesure de Lévy ν, tel que ν se décompose en
∞
X
ν(dx) = A pn δ−n (dx) + Bxβ−1 (1 + x)−α−β e−λx 1]0,+∞[ (x)dx,
n=1
42 A. Popier
Tout d’abord on va supposer λ = 0.
3. À quelle condition sur β, X est-il un processus de Poisson composé avec dérive
γ0 ? Quelle est la valeur de cette dérive en fonction de la fonction de répartition
d’une loi béta au point 1/2 ?
4. À quelles conditions sur α et β, Xt admet-il un moment d’ordre n ∈ N∗ (avec t > 0
fixé quelconque) ?
5. Calculer E(Xt ) si elle existe, en fonction de la fonction de répartition d’une loi
béta au point 1/2.
6. Montrer que si β > 0, X se décompose comme suit :
Nt 1 N2
t
X Yi X
Xt = γ0 t + − Zj ,
i=1
1 + Yi j=1
avec
— N 1 = (Nt1 )t≥0 et N 2 = (Nt2 )t≥0 deux processus de Poisson d’intensité respective
µ1 et µ2 à déterminer,
— les Yi suivant une loi béta de paramètres α et β,
— les Zi une loi géométrique de paramètre p,
— N 1 , N 2 , Y = (Yi )i∈N∗ et Z = (Zi )i∈N∗ étant tous indépendants.
On suppose maintenant que λ > 0.
7. Pour quels u ∈ R a-t-on E exp(uXt ) < +∞ ?
8. Si B = 0, calculer l’exposant caractéristique Ψ de X et en déduire E exp(uXt ).
9. Montrer que si β > 0, alors X se décompose comme suit :
Nt 3 4
Nt
X X
Xt = γ0 t + Vi − Zj ,
i=1 j=1
avec
— N 3 = (Nt3 )t≥0 et N 4 = (Nt4 )t≥0 deux processus de Poisson d’intensité respective
µ3 et µ4 à déterminer,
— les Vi étant positifs ou nuls de densité f donnée par
f (x) = cxβ−1 (1 + x)−α−β e−λx 1]0,+∞[ (x)
où c est une constante de normalisation
10. (bonus) Montrer qu’il existe une constante C = C(α, β, λ) telle que
∀x > 0, f (x) ≤ Cxβ−1 (1 + x)−α−β .
En déduire un algorithme de simulation par rejet des Vi .
Indication. On rappelle qu’une variable aléatoire Y suit une loi béta de paramètres
a > 0 et b > 0 si Y admet pour densité la fonction g :
Γ(a + b) b−1
g(x) = x (1 − x)a−1 1]0,1[ (x).
Γ(a)Γ(b)
On note par F (x; a, b) la fonction de répartition au point x de la loi béta de paramètres
a et b.
A. Popier 43
44 A. Popier
Chapitre 2
Définition 2.1 ((Sous, sur) Martingale) Le processus {Xt , Ft ; 0 ≤ t < +∞ <} est
une sous-martingale (resp. sur-martingale) si
{Xt , Ft ; 0 ≤ t < +∞ <} est une martingale si c’est à la fois une sur- et une sous-
martingale.
On doit garder en tête le cas du mouvement brownien B = {Bt , t ≥ 0} ou encore
du processus {Bt2 − t, t ≥ 0}, qui sont deux exemples fondamentaux de martingales
continues. On peut penser aussi à la martingale discontinue Nt −λt si N est un processus
de Poisson d’intensité λ.
Proposition 2.1 Soit {Xt , Ft ; 0 ≤ t < +∞} une martingale (resp. sous-martingale)
et Φ : R → R une fonction convexe (resp. convexe croissante) t.q. E|φ(Xt )| < +∞ pour
tout t ≥ 0. Alors {φ(Xt ), Ft ; 0 ≤ t < +∞} est une sous-martingale.
Preuve. C’est une application immédiate de l’inégalité de Jensen.
Ainsi Bt2 est une sous-martingale.
Théorème 2.1 (Régularité) Soit {Xt , Ft ; 0 ≤ t < +∞} une sous-martingale et sup-
posons que la filtration satisfait les conditions usuelles.
45
Alors le processus X admet une modification continue à droite si et seulement si la
fonction t 7→ EXt est continue à droite.
Si cette modification continue à droite existe, elle peut être choisie càdlàg et adaptée
à la filtration, donc elle est aussi une sous-martingale par rapport à {Ft }.
Remarquons que si X est une martingale, t 7→ EXt est constante, donc continue à
droite et le théorème s’applique pourvu que la filtration satisfasse les conditions usuelles.
À noter. Dans toute la suite, on supposera toujours que les martingales sont càdlàg.
Théorème 2.2 (Doob-Meyer (1963)) Soit {Ft } une filtration vérifiant les condi-
tions usuelles. Si la sous-martingale càd X est de carré intégrable, alors X se décompose
en une somme d’une martingale continue à droite M et d’un processus croissant A.
De plus M est une martingale de carré intégrable et A est intégrable.
Par exemple, Xt = Bt2 est une sous-martingale de carré intégrable (car la loi normale
admet des moments de tout ordre) et on a déjà vu que
Xt = Bt2 = (Bt2 − t) + t = Mt + At
avec Mt = Bt2 − t qui est une martingale et At = t qui est un processus croissant.
46 A. Popier
2. Pour deux martingales X, Y dans M2 , on définit le processus processus variation
croisée hX, Y i par :
1
hX, Y it = [hX + Y i − hX − Y i] .
4
Noter que XY − hX, Y i est une martingale.
Deux éléments X et Y de M2 sont dits orthogonaux si hX, Y it = 0, P-p.s. pour tout
t ≥ 0.
Pour le mouvement brownien B, on a hBit = t, car Bt2 −t est une martingale. Faisons
maintenant le lien avec la variation quadratique. Pour X processus et t > 0, on rappelle
que pour une partition de [0, t], Π = (t0 , t1 , . . . , tn ), avec 0 = t0 ≤ t1 ≤ . . . ≤ tn = t, de
pas kΠk = max |tk − tk−1 |, la p-ième variation de X par rapport à la partition Π est :
1≤k≤n
n
Xt − Xt p .
(p)
X
Vt (Π) = k k−1
k=1
(2)
Comme X est continu et que lim Vt (Π) = hXit en probabilité, alors
kΠk→0
(q)
— pour q > 2, lim Vt (Π) = 0,
kΠk→0
(q)
— pour 0 < q < 2, lim Vt (Π) = +∞ sur l’événement {Lt > 0}.
kΠk→0
En particulier comme pour le mouvement brownien ce théorème entraîne que X est à
variations infinies sur tout intervalle.
Théorème 2.4 Soit X et Y dans Mc2 . Il existe un unique processus {Ft }-adapté et
continu, à variation bornée, A satisfaisant A0 = 0 p.s., tel que XY − A est une martin-
gale. Ce processus est donné par la variation croisée hX, Y i.
Définition 2.4 (Martingale locale) Soit X un processus (continu). S’il existe une
(n)
suite croissante (Tn )n≥1 de temps d’arrêt, t.q. Xt = Xt∧Tn soit une martingale pour
chaque n ≥ 1 et P( lim Tn = ∞) = 1, alors X est une martingale locale (continue).
n→+∞
Si de plus X0 = 0 p.s., on écrit X ∈ Mloc (resp. X ∈ Mc,loc si X est continu, resp.
X ∈ Mc,loc
2 si X de carré intégrable).
Proposition 2.2 Soit X et Y dans Mc,loc 2 . Il existe un unique processus {Ft }-adapté
et continu, à variation bornée, hX, Y i satisfaisant hX, Y i0 = 0 p.s., t.q. XY − hX, Y i ∈
Mc,loc
2 .
Si X = Y , alors hXi = hX, Y i et ce processus est croissant.
A. Popier 47
2.2.2 Rappel : intégrale de Lebesgue–Stieltjes
Soit X un processus càdlàg, dont la 1-variation est finie :
n
X
(1) Xt − Xt = Vt(1) < +∞.
lim Vt (Π) = k k−1
kΠk→0
k=1
C’est le cas de tous les processus croissants (ou décroissants) (donc du processus de
Poisson), de classe C 1 par rapport à t, etc.
Commençons par un processus X croissant p.s. Et supposons que φ est un processus
continu. Alors p.s.
X Z t
lim φtn (ω)(Xtn+1 (ω) − Xtn (ω)) = φs (ω)dXs (ω).
n→+∞ 0
n
Cela permet de définir p.s. l’intégrale de φ par rapport à X. Cette définition se généralise
au cas où X est à variations finies et φ est bornée.
De plus si pour un processus X donné, la limite précédente existe pour tout φ continu,
alors nécessairement X est à variations finies.
48 A. Popier
supplémentaires sur le processus X. La théorie d’Itô permet de construire une intégrale
en utilisant que M est à variations quadratiques finies.
Pour cela nous allons définir des espaces de Hilbert :
— H2 (Ω × R+ ) : l’ensemble des processus adaptés de carré intégrable :
Z
E φ2 (t, .)dhM it < +∞.
R+
On rappelle que ces espaces, munis de leur produit scalaire, sont des espaces normés, la
norme se déduisant du produit scalaire, et sont complets pour cette norme. Par la suite
ces espaces seront simplement notés H2 si le contexte est suffisamment clair pour ne pas
préciser et la variable ω sera omise. Dans le cas brownien, X ∈ H2 si
Z T
E Xt2 dt < +∞.
0
Pour construire l’intégrale d’Itô, nous procédons comme pour celle de Lebesgue en
travaillant d’abord sur des processus « plus simples », puis par un passage à la limite.
Définition 2.5 (Processus simple) Un processus X est en escalier ou simple s’il existe
— une suite croissante de nombres réels (tn ) avec t0 = 0 et lim tn = +∞,
n→∞
— une suite de v.a. (ξn ) et une constante C < ∞ t.q.
H0 ⊂ H2 .
A. Popier 49
Dans le cas où M est le mouvement brownien on a le résultat suivant.
Proposition 2.3
1. Pour tout processus X adapté, borné et à trajectoires continues, l’approximation
de Riemann par les fonctions en escalier, le long d’une partition τ = (tni ) de [0, T ]
dont le pas tend vers 0 quand n tend vers l’infini,
n−1
X
Xt (ω) = lim Xtni (ω)1]ti ,ti+1 ] (t)
n→+∞
i=0
Il existe donc une suite de processus simples (X̃ (m,n) , n ≥ 1) telle que
Z T
(m,n) (m)
lim E X̃t (ω) − X̃t (ω) dt = 0.
n→+∞ 0
(b) Si maintenant X est juste supposé borné, mesurable et adapté à la filtration. On ne peut
plus appliquer la technique précédente car on ne sait pas si F est progressivement mesu-
rable (ni même s’il est adapté). On considère donc une modification de X progressivement
mesurable notée Y (voir proposition 1.1). On
! va montrer que le processus progressivement
Z t∧T
mesurable Gt (ω) = Ys (ω)ds, t ≥ 0 est une modification de F . Pour cela, on pose
0
ηt (ω) = 1Xt (ω)6=Yt (ω) pour (t, ω) ∈ [0, T ] × Ω. C’est un processus mesurable tel que
Z T Z T
E ηt (ω)dt = P(Xt (ω) 6= Yt (ω)) = 0.
0 0
50 A. Popier
Z T
Donc ηt (ω)dt = 0 pour presque tout ω ∈ Ω. Or {Ft (ω) 6= Gt (ω)} est contenu dans
0 ( Z )
T
l’ensemble ω, ηt (ω)dt > 0 , Gt est Ft -mesurable et par hypothèse Ft contient tous
0
les ensembles P-négligeables. Donc Ft est aussi Ft -mesurable. Adapté et continu implique
progressivement mesurable et on peut répéter toutes les étapes du cas précédent.
(c) De là pour X processus borné, mesurable et adapté, et pour tout m ≥ 1, on peut trouver
une suite de processus simples X (n,m) telle que
Z m
2
lim E |Xtn,m − Xt | dt = 0.
n→+∞ 0
Ainsi on peut trouver une suite de processus simples X (n) telle que
Z T 2
(n)
sup lim E Xt − Xt dt = 0.
T >0 n→+∞ 0
C’est une suite de processus bornés mesurables et adaptés. De plus le théorème de conver-
gence dominée donne que
Z T 2 Z T
(n)
Xt − Xt dt = E Xt2 1|Xt (ω)|≤n dt −→ 0.
E
0 0 n→+∞
Proposition 2.4 Si t 7→ hM it (ω) est absolument continu pour P-presque tout ω, l’en-
semble H0 est dense dans H2 .
À noter. Dans toute la suite, on va suposer que l’hypothèse de la proposition est vraie.
Nous pouvons maintenant définir l’intégrale d’Itô pour un processus simple. Si X ∈
H0 ,
∞
X
Xt (ω) = ξ0 (ω)1{0} (t) + ξi (ω)1(ti ,ti+1 ] (t),
i=0
alors on pose
∞
X n−1
X
(2.1) ∀t ≥ 0, It (X) = ξi (Mt∧ti+1 − Mt∧ti ) = ξi (Mti+1 − Mti ) + ξn (Mt − Mtn ),
i=0 i=0
A. Popier 51
Propriétés 2.1 (de l’intégrale stochastique) Pour X, Y in H0 , 0 ≤ s ≤ t < ∞
1. I0 (X) = 0, p.s.
2. E(It (X)|Fs ) = Is (X), p.s.
Z t
2
Xu2 dhM iu
3. E (It (X)) = E
0
t
Z
4. E (It (X) − Is (X))2 |Fs = E Xu2 dhM iu Fs
p.s.
s
Ces propriétés montrent donc que pour un processus simple, I(X) est une martingale
de carré intégrable.
Preuve. Les propriétés 1 et 5 sont immédiates. La troisième se déduit des propriétés 1 et 4, et en
prenant l’espérance. Pour la propriété 2, on fait la preuve dans le cas du mouvement brownien et on
laisse au lecteur le soin de le faire dans le cas général.
On calcule E(ξi (Bt∧ti+1 − Bt∧ti )|Fs ) pour tout i, et on montre que cela vaut ξi (Bs∧ti+1 − Bs∧ti ).
Ensuite par linéarité, on a le résultat voulu. On distingue les cas s ≤ ti , ti < s ≤ ti+1 , s > ti+1 .
Commençons par ce dernier cas. Comme t ≥ s > ti+1 , tout est Fs mesurable. Donc
E(ξi (Bt∧ti+1 − Bt∧ti )|Fs ) = E(ξi (Bti+1 − Bti )|Fs ) = ξi (Bti+1 − Bti ) = ξi (Bs∧ti+1 − Bs∧ti ).
Si s ≤ ti , on a
E(ξi (Bt∧ti+1 − Bt∧ti )|Fs ) = E E ξi (Bt∧ti+1 − Bt∧ti )|Fti |Fs
= E ξi E (Bt∧ti+1 − Bt∧ti )|Fti |Fs = E [ξi (Bti − Bti )|Fs ]
= 0 = ξi (Bs∧ti+1 − Bs∧ti ).
On a utilisé que ξi est Fti -mesurable et que B est une martingale par rapport à la filtration. Si
ti < s ≤ ti+1 , alors de même comme t ≥ s
E(ξi (Bt∧ti+1 − Bt∧ti )|Fs ) = ξi E (Bt∧ti+1 − Bti )|Fs
= ξi E Bt∧ti+1 |Fs − Bti = ξi (Bs − Bti ) = ξi (Bs∧ti+1 − Bs∧ti ).
Ensuite on prend l’espérance conditionnelle en tenant compte du fait que le mouvement brownien est
une martingale (ou que les accroissements browniens sont indépendants et de moyenne nulle). Donc
comme i < j, en conditionnant par rapport à Ftj à l’intérieur de l’espérance conditionnelle :
E ξi ξj (Bt∧ti+1 − Bt∧ti ) − (Bs∧ti+1 − Bs∧ti ) (Bt∧tj+1 − Bt∧tj ) − (Bs∧tj+1 − Bs∧tj ) Fs = 0.
52 A. Popier
Comme les sommes qui interviennent sont en fait des sommes finies, on a
∞
2
X
2
2
E (It (X) − Is (X)) Fs = E ξi (Bt∧ti+1 − Bt∧ti ) − (Bs∧ti+1 − Bs∧ti ) Fs
i=0
∞
X 2
E E ξi2 (Bt∧ti+1 − Bt∧ti ) − (Bs∧ti+1 − Bs∧ti ) Fti Fs
=
i=0
∞
X 2
ξi2 E
= E (Bt∧ti+1 − Bt∧ti ) − (Bs∧ti+1 − Bs∧ti ) Fti Fs .
i=0
De là
2
E (Bt∧ti+1 − Bt∧ti ) − (Bs∧ti+1 − Bs∧ti ) Fti
= E (Bt∧ti+1 − Bs∧ti+1 )2 + (Bt∧ti − Bs∧ti )2 Fti − 2E (Bt∧ti+1 − Bs∧ti+1 )(Bt∧ti − Bs∧ti )Fti
= E (Bt∧ti+1 − Bs∧ti+1 )2 Fti + (Bt∧ti − Bs∧ti )2 − 2(Bt∧ti − Bs∧ti )E (Bt∧ti+1 − Bs∧ti+1 )Fti
= E (Bt∧ti+1 − Bs∧ti+1 )2 Fti − (Bt∧ti − Bs∧ti )2
= (t ∧ ti+1 − s ∧ ti+1 ) − (t ∧ ti − s ∧ ti ),
car (Bt2 − t, t ≥ 0) est une martingale. Ainsi
"∞ #
X
2 2
E (It (X) − Is (X)) Fs = E ξi (t ∧ ti+1 − s ∧ ti+1 ) − (t ∧ ti − s ∧ ti )Fs
i=0
Z t
Xu2 duFs .
= E
s
On remarquera qu’on a utilisé uniquement le fait que le mouvement brownien B est une martingale
nulle à l’instant initial et telle que (Bt2 − t, t ≥ 0) est une martingale.
Si on n’y prend pas garde, on ne voit pas vraiment de différence avec l’intégrale de
Lebesgue. La subtilité provient du fait que toutes les limites sont à prendre dans H2 ,
c’est-à-dire sont des limites en moyenne quadratique, et pas presque sûres (ou trajectoires
par trajectoires).
La définition précédente doit être prouvée. Pour cela si X ∈ H2 , il existe une suite
de processus simples X (n) convergente dans H2 vers X (voir proposition 2.3). De là
Z T Z T Z T 2
(m) 2 (m) 2 (n) (m)
(n)
(n)
E It (X ) − It (X ) dt = E It (X − X ) dt ≤ T E Xt − Xt ddhM it .
0 0 0
A. Popier 53
Donc (I(X (n) ), n ≥ 0) est une suite de Cauchy dans L2 et donc converge vers I(X). On
peut vérifier que c’est une martingale nulle à l’instant initial.
Enfin si on prend deux approximations X (n) et Y (n) de X, on peut en créer une troi-
sième Z (n) par Z (2n) = X (n) et Z (2n+1) = Y (n) . La convergence des suites I(X (n) , I(Y (n)
et I(Z (n) montre que I(X) est bien défini indépendamment de la suite approchante
X (n) choisie.
Voyons les propriétés de l’intégrale d’Itô.
Preuve. En exercice.
En particulier, I(X)2 est une sous-martingale. Finalement It∧T (X) = It (X̃) p.s. pour
X̃t (ω) = Xt (ω)1t≤T (ω) .
Preuve. La première égalité est du au théorème d’échantillonnage
R . optionnel pour une martingale, que
l’on va admettre. De même en utilisant la martingale I(X) − 0 Xu2 dhM iu on obtient :
"Z #
t∧T
2 2
E (It∧T (X) − It∧S (X)) FS = E Xu dhM iu FS .
t∧S
54 A. Popier
RT
Proposition 2.7 Soit Y adapté tel que : E 0 Ys2 Xs2 dhM is < ∞. Le processus I(XY )
est aussi l’intégrale stochastique de Y par rapport à la martingale I(X). Cela s’écrit :
Preuve. On le montre d’abord pour des processus simples, puis on passe à la limite.
La relation 2
Z t Z t
E f (s)dBs = f 2 (s)ds
0 0
définit une isométrie entre les variables gaussiennes centrées et les fonctions de carré
intégrable.
A. Popier 55
2.2.5 Extensions
Terminons cette partie par deux extensions supplémentaires de l’intégrale d’Itô. Tout
d’abord nous allons affaiblir encore l’hypothèse d’intégrabilité sur le processus à intégrer.
Supposons que M ∈ Mc,loc 2 soit une martingale locale continue et de carré intégrable
avec M0 = 0.
Définition 2.7 On note L2 (M) l’ensemble de tous les processus mesurables et adaptés
X pour lesquels Z T
2
P Xt dhM it < ∞ = 1, ∀T ∈ [0, ∞).
0
Z t
2
Rn = n ∧ inf 0 ≤ t < ∞; Xs dhM is ≥ n .
0
Et pour finir,
(n) (n)
Tn = Rn ∧ Sn , Mt = Mt∧Tn , Xt = Xt 1Tn ≥t .
(n)
Pour M (n) ∈ Mc2 , X (n) ∈ H2 , l’intégrale stochastique I M (X (n) ) est bien définie. Pour
0 ≤ t ≤ Tn , on pose
(n)
It (X) = ItM (X (n) ).
Xu Yu dhM, N iu .
0
56 A. Popier
Rt
Définition 2.9 L’intégrale de X par rapport à M notée I(X)t = 0
Xs dMs est le vecteur
aléatoire de Rn de coordonnées :
d Z
X t
i
It (X) = Xij (s)dMsj , i = 1, . . . , n
j=1 0
Pour tout θ ∈ Rn :
E [θ.It (X)] = 0
X Z t
var [θ.It (X)] = θi θj Xij2 (s)dhM j is .
1≤i,j≤n 0
avec :
— X0 v.a. F0 -mesurable de carré intégrable
Z T ;
— β adapté à valeurs dans Rn t.q. |βs |ds < ∞ pour tout T ;
0Z
T
— σ adapté à valeurs dans Rn×d t.q. |σs |2 ds < ∞ pour tout T .
0
Théorème 2.6 (Formule d’Itô) Soit {Xt ; t ≥ 0} un processus d’Itô et soit f (t, x) :
A. Popier 57
[0, ∞) × Rn → R de classe C 1,2 . Alors P-p.s. pour t ≥ 0 :
Z t n Z t
∂ X ∂
f (t, Xt ) = f (0, X0 ) + f (s, Xs )ds + f (s, Xs )βs(i) ds
0 ∂t i=1 ! 0 ∂x i
n Z t d
X ∂ X
(2.2) + f (s, Xs ) σsij dBs(j)
i=1 0
∂x i j=1
n n d
!
Z t 2
1 X X ∂ X
+ f (s, Xs ) σsik σsjk ds.
2 i=1 j=1 0 ∂xi ∂xj k=1
(Tn )n≥1 est une suite croissante de temps d’arrêt, tendant p.s. vers +∞. On va prouver la formule d’Itô
(n)
pour le processus arrêté Xt = Xt∧Tn , puis on fera tendre n vers +∞. Ainsi on peut supposer que
X0 et les processus Γ, sa variation totale, M et hXi sont bornés par une constante K sur [0, +∞[×Ω.
Donc X est borné par 3K et les valeurs de f en dehors du compact [−3K, 3K] sont inutiles. Donc on
peut supposer que f est une fonction à support compact, donc que f et toutes ses dérivées spatiales
sont bornées.
Étape 2. On utilise le développement de Taylor d’une fonction. Fixons t > 0 et Π une partition 0 =
t0 < t1 < . . . < tm = t de l’intervalle [0, t]. On a donc
m
X
f (t, Xt ) − f (0, X0 ) = f (tk , Xtk ) − f (tk−1 , Xtk−1 )
k=1
m m
X ∂ X ∂f
= f (τk , Xtk )(tk − tk−1 ) + (tk−1 , Xtk−1 )(Xtk − Xtk−1 )
∂t ∂x
k=1 k=1
m
1 X ∂2f
+ (tk−1 , ηk )(Xtk − Xtk−1 )2
2 ∂x2
k=1
avec tk−1 < τk < tk et ηk = Xtk−1 + θk (Xtk − Xtk−1 ) où 0 ≤ θk ≤ 1. τk , ηk et θk sont des variables
aléatoires. Ainsi
1
(2.3) f (t, Xt ) − f (0, X0 ) = J1 (Π) + J2 (Π) + J3 (Π)
2
avec
m m
X ∂f X ∂f
J1 (Π) = (τk , Xtk )(tk − tk−1 ) + (tk−1 , Xtk−1 )(Γtk − Γtk−1 )
∂t ∂x
k=1 k=1
m
X ∂f
J2 (Π) = (tk−1 , Xtk−1 )(Mtk − Mtk−1 )
∂x
k=1
m
X ∂2f
J3 (Π) = (tk−1 , ηk )(Xtk − Xtk−1 )2 .
∂x2
k=1
58 A. Popier
Il est aisé de comprendre que comme f est de classe C 1 par rapport au temps t et à la variable d’espace
x, J1 (Π) tend vers l’intégrale de Lebesgue-Stieltjes
Z t Z t
∂f ∂f
(s, Xs )ds + f (s, Xs )dΓs ,
0 ∂t 0 ∂x
lorsque le pas de la partition kΠk = sup |tk − tk−1 | tend vers zéro.
k=1,...,m
∂f
Maintenant le processus Ys = ∂x (s, Xs ) est adapté, borné et continu et peut être approché par le
processus simple
∂f X ∂f
YsΠ = f (0, X0 )1{0} (s) + f (tk−1 , Xtk−1 )1[tk−1 ,tk [ (s).
∂x ∂x
En effet
2
Z t
E It (Y Π − Y ) =E (YsΠ − Ys )2 dhM is −→ 0
0 kΠk→0
avec
m
X ∂2f
J4 (Π) = (tk−1 , ηk )(Γtk − Γtk−1 )2 ,
∂x2
k=1
m
X ∂2f
J5 (Π) = 2 (tk−1 , ηk )(Γtk − Γtk−1 )(Mtk − Mtk−1 ),
∂x2
k=1
m
X ∂2f
J6 (Π) = (tk−1 , ηk )(Mtk − Mtk−1 )2 .
∂x2
k=1
Et par continuité de Γ et de M , le terme de droite de cette inégalité tend vers zéro presque sûrement
quand kΠk tend vers zéro (et même dans L1 par convergence dominée).
Pour le terme J6 (Π), on définit
m
X ∂2f
J6∗ (Π) = (tk−1 , Xtk−1 )(Mtk − Mtk−1 )2 ,
∂x2
k=1
et on voit que
2
∂2f
∂ f
|J6∗ (Π) − J6 (Π)| ≤ V (2) (Π) max 2 (tk−1 , Xtk−1 ) −
2
(t , η
k−1 k )
1≤k≤m ∂x ∂x
∂2f
V (2) (Π) étant la variation quadratique de M . Par continuité de ∂x2 et de X, on a donc
A. Popier 59
t
∂2f
Z
Pour prouver que J3 (Π) converge vers (s, Xs )dhXis , on compare J6∗ (Π) avec
0 ∂x2
m
X ∂2f
J7 (Π) = (tk−1 , Xtk−1 )(hM itk − hM itk−1 ).
∂x2
k=1
car hM i est un processus croissant. Par convergence dominée, ce dernier terme tend vers 0, et comme
la convergence dans L2 entraîne la convergence dans L1 , on a donc prouvé que
t
∂2f
Z
J3 (Π) −→ (s, Xs )dhXis , dans L1 (Ω).
kΠk→0 0 ∂x2
Étape 4. Enfin si Π(n) est une suite de partitions de [0, t] avec kΠ(n) k → 0, alors pour une certaine
sous-suite (Π(nk ) )k∈N , on a P-p.s.
Z t Z t
∂f ∂f
lim J1 (Π(nk ) ) = (s, Xs )ds + f (s, Xs )dΓs
k→+∞ 0 ∂t 0 ∂x
Z t Z t
∂f ∂f
= (s, Xs )ds + f (s, Xs )βs ds,
0 ∂t 0 ∂x
Z t Z t
∂f ∂f
lim J2 (Π(nk ) ) = f (s, Xs )dMs = f (s, Xs )σs dBs ,
k→+∞ 0 ∂x 0 ∂x
t Z t 2
∂2f
Z
(nk ) ∂ f
lim J3 (Π ) = (s, X s )dhXis = (s, Xs )σs2 ds.
k→+∞ 0 ∂x2 0 ∂x 2
Il ne reste qu’à passer à la limite dans l’équation (2.3). En fait les processus des deux côtés de (2.3)
sont une modification l’une de l’autre. Et comme ils sont continus, ils sont indistingables.
60 A. Popier
ou encore
Z t Z t
∂
f (t, Xt ) = f (0, X0 ) + f (s, Xs )ds + ∇f (s, Xs )dXs
0 ∂t 0
(2.4)
Z t
1
trace D2 f (s, Xs )σs∗ σs ds.
+
2 0
Ce qui est remarquable dans l’équation (2.5), c’est la présence du terme t. En effet si on
avait une fonction de classe C 1 , on aurait
Z t Z t
2 2
(f (t)) = (f (0)) + 2 2
f (s)df (s) = (f (0)) + 2 f (s)f 0 (s)ds.
0 0
Ces calculs peuvent se généraliser à des processus plus généraux, toujours sur un es-
pace de probabilité (Ω, F, P) avec une filtration {Ft } satisfaisant les conditions usuelles.
Xt = X0 + Mt + Γt , 0 ≤ t < ∞,
A. Popier 61
Théorème 2.7 (Itô (1944), Kunita & Watanabe (1967)) Soit f : R → R une
fonction de classe C 2 et soit X = {Xt ; t ≥ 0} une semi-martingale continue. Alors
P-p.s.
Z t Z t
1 t 00
Z
0 0
∀t ≥ 0, f (Xt ) = f (X0 ) + f (Xs )dMs + f (Xs )dΓs + f (Xs )dhM is .
0 0 2 0
Si on préfère, on peut écrire cette forme en notation différentielle :
1 1
df (Xt ) = f 0 (Xt )dMt + f 0 (Xt )dΓt + f 00 (Xt )dhM it = f 0 (Xt )dXt + f 00 (Xt )dhM it .
2 2
with
1. X0 a deterministic initial condition ;
Z t
2. It = Γs dWs the Itô’s integral of Γ w.r.t. to the Brownian motion W ;
0
Z t
3. Rt = Θs ds the Lebesgue’s integral of a process Θ ;
0
62 A. Popier
4. J a right-continuous pure-jump process (think to a compound Poisson process).
The process Xtc = X0 + It + Rt is the continuous part of X, with quadratic variation
Z t
c c
[X , X ]t = Γ2s ds;
0
with ∆X0 = 0.
then
Z t n
X X
Φs dJs = φ0 X0 + φi (JTi+1 ∧t − JTi ∧t ) = Φs ∆Js .
0 i=0 0<s≤t
A. Popier 63
Proposition 2.1 (Martingale property) Assume that X is a martingale,Z t that the
integrand Φ is adapted and left-continuous, with for every t ≥ 0, E Γ2s Φ2s ds < +∞.
Z t 0
Proof. Use a classical result on the stochastic integral w.r.t. the Brownian motion and prove it directly
for the pure jump part. Note that without the integrability condition on Φ, the stochastic integral would
be a local martingale, even locally square integrable.
Hence I is not a martingale, but J is a martingale. Remark that if we take Θt = 1[0,S1 [ (t),
Z t
then Θs dXs = −λ(t ∧ S1 ) is not a martingale.
0
Hence if the mesh a the time grid goes to zero, VX (π) converges in probability to :
Z T
2
[X, X]T = XT − 2 Xu− dXu .
0
64 A. Popier
Now if we precise that X is given by :
Z t Z t
Xt = X0 + It + Rt + Jt = Xtc + Jt = X0 + Γs dWs + Θs ds + Jt .
0 0
Z T X
Then [X]T = [X, X]T = Γ2s ds + (∆Js )2 .
0 0<s≤T
Proof. We compute
n
X n
X n
X
(Xti+1 − Xti )2 = (Xtci+1 − Xtci )2 + (Jti+1 − Jti )2
i=0 i=0 i=0
n
X
+ 2 (Xtci+1 − Xtci )(Jti+1 − Jti ),
i=0
and
Xn X
(Xti+1 − Xti )(Jti+1 − Jti ) ≤ sup |Xtci+1 − Xtci |
c c
|∆(J)s |.
i=0
0≤i≤n
0≤s≤t
Now
n
X n
X n
X
(Xtci+1 − Xtci )2 = (Iti+1 − Iti )2 + (Rti+1 − Rti )2
i=0 i=0 i=0
n
X
+ 2 (Iti+1 − Iti )(Rti+1 − Rti ),
i=0
with
Xn
(Iti+1 − Iti )(Rti+1 − Rti ) ≤ sup |Iti+1 − Iti | T V (R)t ,
i=0
0≤i≤n
and
Xn
2
(Rti+1 − Rti ) ≤ sup |Rti+1 − Rti | T V (R)t .
i=0
0≤i≤n
Properties 2.1
Xn
2
— X0 + (Xti+1 − Xti )2 −→ [X, X]T in ucp.
kπk→0
i=0
— ([X, X]t )t∈[0,T ] is a non-decreasing process with [X, X]0 = X02 .
— The jumps of [X, X] are : ∆[X, X]t = |∆Xt |2 .
A. Popier 65
— When X is not continuous, then the two brackets differ : [X] 6= hXi (see Exercise
2.8).
— In general, hXi is the compensator of [X].
Let X (1) and X (2) be two jump processes. The cross variation is defined as follows.
First put
n−1
X
CΠ (X (1) , X (2) ) = (X (1) (tj+1 ) − X (1) (tj ))(X (2) (tj+1 ) − X (2) (tj )),
j=0
and define :
[X (1) , X (2) ]T = lim CΠ (X (1) , X (2) ).
kΠk→0
Then Z T X
(1) (2)
[X ,X ]T = Γ(1) (2)
s Γs ds + ∆Js(1) ∆Js(2) .
0 0<s≤T
Now for the stochastic integral we can extend the previous results. For i = 1, 2 let
(i) (i) (i) (i) (i) (i)
X (i) be jump processes : Xt = X0 + It + Rt + Jt . Let X̃0 be two constants and
Φ(i) adapted processes. We define
Z t
(i) (i)
X̃t = X̃0 + Φ(i)
s dXs
(i)
0
Z t Z t X
(i) (i) (i)
= X̃0 + Φs Γs dWs + Φ(i)
s Θ (i)
s ds + Φ(i) (i)
s ∆Js .
0 0 0<s≤t
Then we have
Z t X
(1) (2)
[X̃ , X̃ ]t = Φ(1) (2) (1) (2)
s Φs Γs Γ ds + Φ(1) (2) (1)
s Φs ∆Js ∆Js
(2)
0 0<s≤t
Z t
= Φ(1) (2)
s Φs d[X
(1)
, X (2) ]s .
0
66 A. Popier
2.4.3 The Itô formula
Recall that for Γ and Θ adapted, if :
Z t Z t
Xtc = X0 + It + Rt = X0 + Γs dWs + Θs ds,
0 0
Then
Z t Z t
0 1
f (Xt ) = f (X0 ) + f + (Xs )dXsc f 00 (Xs )Γ2s ds
(2.7) X 0 2 0
+ (f (Xs ) − f (Xs− )) .
0<s≤t
Proof. Let us fix ω and 0 < T1 < T1 < . . . < Tn−1 < t the jump times of X in the interval [0, t[. We
note T0 = 0 and Tn = t (T0 is not a jump size, but Tn can be). Now we apply the Itô formula between
the times u and v with Ti < u < v < Ti+1 :
Z v
1 v 00
Z
0 c
f (Xv ) = f (Xu ) + f (Xs )dXs + f (Xs )dhX c is .
u 2 u
Letting u tend to Ti and v to Ti+1 and using X RCLL, we obtain
Z Ti+1
1 Ti+1 00
Z
f XT − = f (XTi ) + f 0 (Xs )dXsc + f (Xs )dhX c is .
i+1
Ti 2 Ti
Note that if we put dXs instead of dXsc we would have
Z v Z Ti+1
lim f 0 (Xs )dXs 6= f 0 (Xs )dXs .
v↑Ti+1 u u
Therefore
Ti+1
1 Ti+1 00
Z Z
0
f (XTi+1 ) − f (XTi ) = f + f (Xs )dhX c is
(Xs )dXsc
Ti 2 Ti
+ f (XTi+1 ) − f XT − .
i+1
A. Popier 67
To finish we just have to sum over i :
Z t
1 t 00
Z
f (Xt ) − f (X0 ) = f 0 (Xs )dXsc + f (Xs )dhX c is
0 2 0
Xn
+ f (XTi+1 ) − f XT −
i+1
i=0
Z t Z t
0 1 X
= f (Xs )dXsc + f 00 (Xs )dhX c is + (f (Xs ) − f (Xs− ))
0 2 0 0<s≤t
68 A. Popier
Proposition 2.5 (Doléans-Dade exponential) Let X be a jump-diffusion process.
The Doléans-Dade exponential of X is defined by
Y
X c 1 c c
Zt = exp Xt − hX , X it (1 + ∆Xs ) .
2 0<s≤t
This process is solution of the following stochastic differential equation with initial condi-
tion Z X (0) = 1 : Z t
ZtX =1+ ZsX− dXs .
0
Z t Z t
Proof. Now X is a jump-diffusion process written : Xt = Xtc + Jt = X0 + θs ds + Γs dBs + Jt .
0 0
We define Z t Z t Z t
1
Yt = exp θs ds + Γs dBs − Γ2s ds .
0 0 2 0
We put Y
Kt = (1 + ∆Xs )
0<s≤t
A. Popier 69
2.5 Exercices
Intégrale de Wiener
Exercice 2.2 On considère un mouvement brownien réel (Bt )t≥0 et on définit le pro-
cessus (Xt )t≥0 par :
Z t1/2
∀t ≥ 0, Xt = (2s)1/2 dBs .
0
Exercice 2.3 Soit (Bt )t≥0 un mouvement brownien. Appliquer la formule d’Itô et cal-
culer dZt pour les processus Z suivants :
Bt
1. Zt = 1+t
;
2. Zt = (Xt − k)2 où Xt = exp(σBt + µt) ;
Xt
3. Zt = ln 1−X t
où Xt satisfait dXt = Xt (1 − Xt )dBt .
Exercice 2.4 Étant donnés une filtration (Ft )t≥0 et un mouvement brownien (Bt )t≥0
relativement à cette filtration, démontrer, en utilisant la formule d’Itô, que le processus
(Bt4 − 6tBt2 + 3t2 )t≥0 est une martingale relativement à la filtration (Ft )t≥0 .
Exercice 2.5 Étant donnés une filtration (Ft )t≥0 et un mouvement brownien (Bt1 , Bt2 )t≥0
en dimension deux relativement à cette filtration (en particulier B 1 et B 2 sont des (Ft )-
mouvements browniens indépendants). On pose
Z t Z t
Xt = Bs1 dBs2 + Bs2 dBs1 .
0 0
1. Montrer que X est une martingale de carré intégrable (c-à-d E[Xt2 ] < ∞ pour
tout t ≥ 0).
70 A. Popier
2. Soit λ > 0, justifier rapidement l’égalité
Zt = cos(λXt )
Exercice 2.7 Étant donnés un mouvement brownien (Bt )t≥0 relativement à une fil-
tration (Ft )t≥0 et deux processus (φt )t≥0 et (ψt )t≥0 continus et adaptés à la filtration
(Ft )t≥0 , tels que
Z t Z t
2
∀t ≥ 0, E φs ds + ψs2 ds < +∞,
0 0
on définit Z t Z t
∀t ≥ 0, Xt = 1 + ψs ds + φs dBs .
0 0
∀t ≥ 0, E(Xt ) ≤ exp(λt).
A. Popier 71
Exercice 2.9 Soit (Nt )t≥0 un processus de Poisson d’intensité λ, et soient (Yn )n≥1 une
suite de v.a.r indépendantes et identiquement distribuées définies sur le même espace
de probabilité filtré (Ω, F, (Ft )t≥0 , P). On suppose aussi que les v.a.r Y1 , Y2 , . . . sont
Nt
X
indépendantes du processus (Nt )t≥0 . On définit par Qt := Yi .
i=1
1. Quelle est la nature du processus (Qt )t≥0 ? Donner l’expression de son saut à
l’instant t ≥ 0.
On suppose dans la suite que pour tout i ≥ 1, chaque v.a.r. Yi prend ses valeurs dans
{y1 , y2 , . . . , ym } où m ∈ N∗ . On note par p(yk ) la probabilité que le saut est de taille yk
c’est-à-dire p(yk ) := P(Yi = yk ) pour k = 1, . . . , m. Cette probabilité ne dépend pas de i
car les v.a. Yi sont identiquement
Pm distribuées. On suppose que p(yk ) > 0 pour tout k et
on rappelle qu’on a k=1 p(yk ) = 1. On note par Ntk le nombre de sauts du processus
Qt de taille yk sur l’intervalle de temps [0, t], ce qui permet d’écrire
m
X m
X
Nt = Ntk et Qt = yk Ntk .
k=1 k=1
e Ntk
λ m
k
Y
(2.8) Zk (t) := e(λk −λk )t et Z(t) := Zk (t) .
e
λk k=1
k=1
λp(Yk )
Exercice 2.10 Dans cet exercice, la maturité est T > 0 et on suppose que le prix de
l’actif sans risque est donné par
tandis que le prix de l’actif risqué est donné par l’équation suivante :
72 A. Popier
Ici W est un mouvement brownien standard, M un processus de Poisson compensé,
i.e. Mt = Nt − λt, avec N processus de Poisson d’intensité λ > 0, indépendant de W .
Tous les processus sont définis sur le même espace de probabilité filtré (Ω, F, P, (Ft )t≥0 )
et sont adaptés à la filtration. Les hypothèses sur les paramètres sont :
r > 0, b ∈ R, σ ∈ R+ , δ ∈] − 1, +∞[\{0}.
On rappelle que les exponentielles de Doléans-Dade sont
1 2
E(σW )(t) = exp σWt − σ t ,
2
E(δM )(t) = exp (ln(1 + δ)Mt − λt(δ − ln(1 + δ))) = exp (ln(1 + δ)Nt − λδt) ,
1. Quelles sont les équations vérifiées par E(σW ) et E(δM ) ? On appliquera la formule
d’Itô en justifiant son emploi.
2. Exprimer St uniquement en fonction des paramètres du modèle.
3. Montrer que pour tout a ∈ R,
a a 1 2
(St ) = (S0 ) E(aσW )(t)E(δa M )(t) exp a(a − 1)σ t + abt + λt(δa − aδ) ,
2
avec δa = (1 + δ)a − 1.
4. En déduire E(Sta ) pour tout t ≥ 0.
Exercice 2.11 Soit (Pt )t≥0 un processus de Poisson composé d’intensité λ et de loi des
sauts µ. On suppose de plus que, pour un certain p ∈ [0, 1],
µ(dz) = pδ1 (dz) + (1 − p)δ−1 (dz),
c’est-à-dire que le processus n’effectue que des sauts de taille ±1. On note (Ft )t≥0 la
filtration engendrée par P .
1. (a) Montrer que pour tout t ≥ 0, Pt est intégrable et calculer E[Pt ].
Pn
(b) En déduire que l’on a, P presque sûrement, lim = λ(2p − 1).
n→+∞ n
A. Popier 73
3. (a) Vérifer que pour tout n ∈ N et tout t ∈ [n, n + 1[ on a :
Pt Pn Pt − P n
− λ(2p − 1) ≤
n − λ(2p − 1) + sup n .
t
t∈[n,n+1[
(b) Vérifier que les variables aléatoires Xn = sup |Pt −Pn |2 sont identiquement
t∈[n,n+1[
distribuées et E[Xn ] < +∞ pour tout n ≥ 0.
X Xn
Xn
(c) En déduire que la série 2
converge, puis que n2
tend vers zéro lorsque
n∈N
n
n tend vers +∞ presque sûrement.
(d) Montrer que l’on a P presque sûrement
Pt
lim = λ(2p − 1).
n→+∞ t
74 A. Popier
Chapitre 3
75
Si la matrice de diffusion est nulle, une EDS est une équation différentielle ordinaire
(EDO en abrégé) :
dXt = b(t, Xt )dt =⇒ Xt0 = b(t, Xt ).
Toute la théorie qui suit est donc une extension des résultats connus pour les EDO,
notamment le théorème de Cauchy-Lipschitz.
Pour résoudre ce problème, on fixe
— un espace de probabilité (Ω, F, P),
— un mouvement brownien d-dimensionel B = {Bt ; t ≥ 0},
B
— un vecteur aléatoire ξ, indépendant de F∞ , à valeurs dans Rn , et avec pour
distribution
µ(Γ) = P(ξ ∈ Γ), Γ ∈ B(Rd ).
Ainsi la variable aléatoire ξ et le processus B sont indépendants. On crée
— la filtration (continue à gauche) : GT = σ(ξ) ∨ FtB = σ(ξ, Bs , 0 ≤ s ≤ t) ;
— l’ensemble des événements négligeables : N = {N ⊂ Ω; ∃G ∈ G∞ with N ⊂
G and P(G) = 0} ; S
— la filtration augmentée : Ft = σ(Gt ∪ N ) and F∞ = σ t≥0 Ft .
Définition 3.2 (Solution d’une EDS) Une solution (forte) d’une EDS sur un espace
de probabilité (Ω, F, P), par rapport à un mouvement brownien B et avec condition
initiale ξ, est un processus X = {Xt , t ≥ 0} tel que
1. X est adapté à la filtration {Ft } ;
2. P(X0 = ξ) = 1 ;
Z t
2
3. P |bi (s, x)| + σij (s, x) ds = 1 pour tout 1 ≤ i ≤ n, 1 ≤ j ≤ d and t ≥ 0 ;
0
4. la version intégrale de l’EDS
Z t Z t
Xt = X 0 + b(s, Xs )ds + σ(s, Xs )dWs
0 0
Définition 3.3 (Unicité) On parle d’unicité de la solution pour la paire (b, σ) si étant
donnés
— B un mouvement brownien d-dimensionel sur (Ω, F, P),
— ξ un vecteur aléatoire indépendant de B,
— {Ft } la filtration construite comme précédemment,
76 A. Popier
— X et X̃ deux solutions de l’EDS par rapport à B et de condition initiale ξ,
alors P(Xt = X̃t ; t ≥ 0) = 1.
Autrement dit, X et X̃ sont indistinguables.
Preuve. Supposons que X et X̃ soient deux solutions définies pour tout t ≥ 0. On définit les temps
d’arrêt τm = inf{t ≥ 0, kXt k ≥ m} pour m ≥ 1, de même pour X̃ et enfin Sm = τm ∧ τ̃m . Il est clair
que lim Sm = +∞, P-p.s., et
m→+∞
Z t∧Sm Z t∧Sm
Xt∧Sm − X̃t∧Sm = (b(u, Xu ) − b(u, X̃u ))du + (σ(u, Xu ) − σ(u, X̃u ))dBu .
0 0
En utilisant le fait que kv1 + . . . + vk k2 ≤ k 2 (kv1 k2 + . . . + kvk k2 ), l’inégalité de Hölder et les propriétés
de l’intégrale stochastique, on a pour 0 ≤ t ≤ T :
"Z #2
2 t∧Sm
E
Xt∧Sm − X̃t∧Sm
≤ 4E kb(u, Xu ) − b(u, X̃u )kdu
0
2
n
X Xd Z t∧Sm
+4E (σij (u, Xu ) − σij (u, X̃u ))dBu(j)
i=1 j=1 0
Z t∧Sm
≤ 4tE kb(u, Xu ) − b(u, X̃u )k2 du
0
Z t∧Sm
+4E kσij (u, Xu ) − σij (u, X̃u )k2 du
0
Z t
2
2
≤ 4(T + 1)Km E
Xu∧Sm − X̃u∧Sm
du.
0
2
On applique le lemme de Gronwall avec f (t) = E
Xt∧Sm − X̃t∧Sm
et on conclut que {Xt∧Sm , t ≥ 0}
et {X̃t∧Sm , t ≥ 0} sont des modifications l’un de l’autre et sont donc indistinguables (car continus).
On fait tendre m vers +∞ et on obtient le résultat.
A. Popier 77
Lemme 3.2 (de Gronwall) Si une fonction continue f vérifie
Z t
0 ≤ f (t) ≤ α(t) + β f (s)ds; 0 ≤ t ≤ T,
0
pour k ≥ 0. Ces processus sont tous continus et adaptés à la filtration de départ et on va montrer que
cette suite de processus converge vers un processus limite X solution de l’EDS.
Tout d’abord, on montre que pour tout T > 0, il existe une constante positive C dépendant
uniquement de K et de T telle que pour tout 0 ≤ t ≤ T et tout k ≥ 0,
(k)
2
(3.3) E
Xt
≤ C(1 + Ekξk2 )eCt .
Soit en itérant :
(Ct)2 (Ct)k+1
(k+1)
2
2
E
Xt ≤ C(1 + Ekξk ) 1 + Ct + + . . . + .
2! (k + 1)!
78 A. Popier
L’inéquation (3.3) s’en déduit.
(k+1) (k)
Maintenant on a : Xt − Xt = Γt + Mt avec
Z t Z t
Γt = (b(s, Xs(k) ) − b(s, Xs(k−1) ))ds, Mt = (σ(s, Xs(k) ) − σ(s, Xs(k−1) ))dBs .
0 0
L’inéqualité (3.3), et l’hypothèse de croissance sur σ, impliquent que M est une martingale de carré
intégrable (en fait un vecteur de martingales). Alors on a
Z t
E max kMs k2 ≤ Λ1 E kσ(s, Xs(k) ) − σ(s, Xs(k−1) )k2 ds
0≤s≤t 0
Z t
≤ Λ1 K 2 E kXs(k) − Xs(k−1) k2 ds.
0
La constante Λ1 ici est une constante universelle et provient des inégalités dites de Burkholder-Davis-
Gundy. D’un autre côté, on a
Z t
EkBt k2 ≤ K 2 tE kXs(k) − Xs(k−1) k2 ds.
0
Donc pour tout 0 ≤ t ≤ T :
Z t
(k+1) (k) 2 2
E max kXs − Xs k ≤ 4K (Λ1 + T )E kXs(k) − Xs(k−1) k2 ds.
0≤s≤t 0
2
On pose L = 4K (Λ1 + T ) et on itère l’inégalité précédente :
(Lt)k (Lt)k ∗
(1)
(3.4) E max kXs(k+1) − Xs(k) k2 ≤ E max kXt − ξk2 = C .
0≤s≤t k! 0≤t≤T k!
Or avec (3.3), C ∗ < +∞. De plus la relation (3.4) et l’inégalité de Čebyšev donnent
(4Lt)k
(k+1) (k) 2 1
(3.5) P max kXt − Xt k > k+1 ≤ 4C ∗ .
0≤t≤T 2 k!
Le terme de droite dans l’inégalité est sommable. Du lemme de Borel-Cantelli, on déduit qu’il existe
un événement Ω∗ ∈ F avec P(Ω∗ ) = 1 et une v.a. à valeurs entières N (ω) tels que pour tout ω ∈ Ω∗
(k+1) (k)
max kXt (ω) − Xt (ω)k2 ≥ 2−(k+1) , ∀k ≥ N (ω).
0≤t≤T
Ainsi
(k+m) (k)
max kXt (ω) − Xt (ω)k2 ≥ 2−k , ∀m ≥ 1, ∀k ≥ N (ω).
0≤t≤T
(k)
La suite de trajectoires continues {Xt (ω); 0 ≤ t ≤ T } est donc convergente pour la norme infinie
dans l’espace des fonctions continues. Et donc il existe une limite continue {Xt (ω); 0 ≤ t ≤ T } pour
tout ω ∈ Ω∗ . T étant pris arbitrairement, on en déduit l’existence d’un processus continu X tel que
pour presque tout ω, X.(k) (ω) converge vers X. (ω) uniformément sur tout compact de [0, +∞[. Il est
alors aisé de voir que X est une solution de l’EDS (3.1) et que X vérifie aussi (3.3).
A. Popier 79
1. σ soit lipschitzienne,
2. ou b1 ou b2 soit lipschitzienne,
(1) (2)
3. X0 ≤ X0 p.s.
4. ∀t ≥ 0, ∀x ∈ R, b(1) (t, x) ≤ b(2) (t, x).
(1) (2)
Alors P(Xt ≤ Xt , ∀t ≥ 0) = 1.
Preuve. Admise.
Z t
Xt = Z t X0 + Zs−1 (c̃s ds
+ δs dBs ) , c̃ = c − σδ,
0
Z t Z t
1 t 2
Z
avec Zt = exp bs ds + σs dBs − σ ds .
0 0 2 0 s
Preuve. Elle consiste à vérifier via la formule d’Itô que les formes proposées vérifient l’équation et on
applique le théorème d’unicité.
Hormis le cas linéaire, la résolution explicite doit plus ou moins se faire au cas par
cas. Néanmoins quand d = n = 1, on peut utiliser la transformation de Doss.
80 A. Popier
1. u : R2 → R solution de l’EDO :
∂u
(x1 , x2 ) = σ(u(x1 , x2 )), u(x1 , 0) = x1 ,
∂x2
d
2. et Y solution de l’EDO aléatoire Yt (ω) = f (Yt (ω), Wt (ω)) avec
Z x2 dt
0 1 0
f (x1 , x2 ) = exp − σ (u(x1 , y))dy b(u(x1 , x2 )) − (σσ )(u(x1 , x2 )) .
0 2
Preuve. À vérifier.
Ici At est l’opérateur qui agit sur les fonctions de classe C 2 comme suit. Pour tout
x ∈ Rn , et φ ∈ C 2 (Rn ) :
1
Trace σ ∗ (t, x)D2 φ(x)σ(t, x) + b(t, x)∇φ(x)
(At φ)(x) = At φ(x) =
2
d n n n
1 XXX ∂ 2φ X ∂φ
= σij (t, x) (x)σki (t, x) + b(i) (t, x) (x).
2 i=1 k=1 j=1 ∂xj ∂xk i=1
∂x i
A. Popier 81
Théorème 3.3 (Feynman-Kac (1949)) Sous les hypothèses précédentes, supposons
que v soit solution du problème de Cauchy avec une croissance polynomiale :
max |v(t, x)| ≤ M (1 + kxk2µ ).
0≤t≤T
sur [0, T ] × Rd .
Preuve. Il faut appliquer la formule d’Itô à v(s, Xst,x ) entre s = t et s = T .
82 A. Popier
3.2 Théorème de Girsanov
Ici on a un espace de référence (Ω, F, P). C’est la probabilité historique en finance.
Définition 3.4 Une probabilité Q sur l’espace (Ω, F) est un changement de probabilité
s’il existe une v.a. Y positive telle que
Q(A) = E(Y 1A ) = EP (Y 1A ), si A ∈ F.
dQ
Q = Y P, ou dQ = Y dP, ou = Y.
dP
Les probabilités P et Q sont équivalentes (P ∼ Q) si la v.a. Y est strictement positive
P-p.s., ce qui entraîne que P est un changement de probabilité par rapport à Q de densité
Y −1 .
Q EP (ZY |G)
E (Z|G) = P .
E (Y |G)
A. Popier 83
Proposition 3.4 Soit U une v.a. gaussienne de moyenne m et de variance σ 2 > 0.
Posons
λ2 2
Y = exp λ(U − m) − σ .
2
Y est une v.a. positive d’espérance 1, qui définit une probabilité Q sous laquelle U est
une v.a. gaussienne de variance σ 2 , et de moyenne mQ = mP + λσ 2 .
Preuve. Que Y soit d’espérance 1 est du au calcul de transformée de Laplace d’une variable gaussienne.
Sous la probabilité Q, la v.a. U admet une loi de densité donnée par
λ2 2
1 1 2
exp λ(x − m) − σ √ exp − 2 (x − m) ,
2 2πσ 2 2σ
qui se transforme en
1 1 2 2
√ exp − 2 (x − m − λσ ) ,
2πσ 2 2σ
d’où le résultat.
λ2 2
2
E (f (U + λσ )) = E (f (U )) = E exp λ(U − m) − σ f (U ) .
P Q P
2
1
Y = exp(U − EP (U ) − Var P (U )),
2
84 A. Popier
Autrement dit sous Q, B est un processus d’Itô :
Z t
Q
Bt = Bt + f (s)1s≤T ds.
0
RT
Preuve. On applique la proposition précédente avec U = 0 f (s)dBs , de loi gaussienne centrée de
RT 2
variance 0 f (s)ds, en remarquant que
Z T Z t∧T
Cov(U, Bt ) = EP (Bt f (s)dBs ) = f (s)ds,
0 0
On pose " #
d Z t Z t
X 1
(i)
2
Zt (X) = exp Xs(i) dBs(i) −
Xs
ds .
i=1 0 2 0
En général Z(X) n’est pas une martingale. On fait donc l’hypothèse que Z(X) est une
martingale.
— Pour tout t ≥ 0, EZt (X) = 1.
— On définit une nouvelle probabilité P̃T sur FT par
P̃T (A) = E(1A ZT (X)), A ∈ FT .
— Cette famille de probabilités satisfait la condition de consistance :
P̃T (A) = P̃t (A), A ∈ Ft , 0 ≤ t ≤ T.
Théorème 3.6 (Girsanov (1960)) Supposons que Z(X) soit une martingale. On dé-
(1) (d)
finit le processus W = {Wt = (Wt , . . . , Wt ); t ≥ 0} par
Z t
(i) (i)
Wt = Bt − Xs(i) ds; 1 ≤ i ≤ d, t ≥ 0.
0
A. Popier 85
Preuve. Admise.
Vérifier que Z(X) est une martingale n’est généralement pas simple. Donnons ici
simplement une condition suffisante.
satisfies
λ̃ − λ
dZ(t) = Z(t−)dMt .
λ
Therefore Z is a martingale under P and E(Z(t)) = 1, ∀t ≥ 0.
λ̃ − λ
Proof. Define Xt = Mt . The continuous part of X is
λ
86 A. Popier
For some T > 0, let us define
(3.9) P(A)
e = E(1A Z(T )) for A ∈ FT .
= exp(λ̃(eu − 1)).
e the process N is a Poisson process with intensity λ̃.
This proves exactly that under P,
Compound Poisson process with discrete jumps. We deal now with a compound
Poisson process Q with
— N a Poisson process with intensity λ ;
— Y1 , Y2 , . . . sequence of i.i.d. discrete random variables, independent of N
M
X
P(Yi = ym ) = p(ym ) > 0, m = 1, . . . , M ; and p(ym ) = 1;
m=1
Nt
X
— Qt = Yi .
i=1
We decompose the process Q as follows.
— Denote by N m the number of jumps of Q with size ym . These are independent
Poisson processes with intensity λm = λp(ym ).
XM M
X
— Write Nt = Ntm , Qt = ym Ntm .
m=1 m=1
Let λ̃m , m = 1, . . . , M , be positive numbers and
!Ntm M
λ̃
m
Y
Zm (t) = exp (λm − λ̃m )t , Z(t) = Zm (t).
λm m=1
A. Popier 87
M
X
Proposition 3.2 Under P̃, Q is a compound Poisson process with intensity λ̃ = λ̃m
m=1
λ̃m
and Yi , i ∈ N∗ are i.i.d. with P̃(Yi = ym ) = p̃(ym ) = .
λ̃
Proof. Once again we use the Laplace transform. For any u ∈ R :
M
! M !Ntm
X Y λ̃m
P uQt uQt
E (e ) = E(e Zt ) = E exp u ym Ntm
e(λm −λ̃m )t
e
m=1 m=1
λm
M
" ! #
Y
(λm −λ̃m )t λ̃m
= e E exp uym + ln Ntm
m=1
λm
M
( " ! #)
Y
(λm −λ̃m )t λ̃m
= e exp λm t exp uym + ln −1
m=1
λm
M
Y n o M
Y
= exp λ̃m t [exp (uym ) − 1] = exp λ̃tp̃(ym )euym − λ̃m t
m=1 m=1
" M
!#
X
= exp λ̃t p̃(ym )euym − 1 .
m=1
General case. We can extend the previous result to the density case. Assume that Yi
has a density f .
— Let f˜ an other density such that f (y) = 0 ⇒ f˜(y) = 0,
— and λ̃ > 0.
We put
N (t)
Y λ̃f˜(Yi )
(λ−λ̃)t
Z(t) = e .
i=1
λf (Yi )
88 A. Popier
λ̃f˜(∆Qt )
We have : ∆Ht = and
λf (∆Qt )
λ̃f˜(Yi ) f˜(y)
Z
λ̃ λ̃
E = f (y)dy = .
λf (Yi ) λ R f (y) λ
On the right hand side, the first term is a martingale. Now remark that ∆Xt = Xt− eu∆Qt − 1 . Hence
Z t Z t X
Xs− Zs− eu∆Qs − 1 .
Zs− dXs = −λ̃(φ̃Y (u) − 1) Xs− Zs− ds +
0 0 0<s≤t
Moreover X X
Xs− Zs− eu∆Qs − 1 (∆Hs − ∆Ns ).
hX, Zit = ∆Xs ∆Zs =
0<s≤t 0<s≤t
Thus
Z t Z t X
Xs− Zs− eu∆Qs − 1
Zs− dXs + hX, Zit = −λ̃(φ̃Y (u) − 1) Xs− Zs− ds +
0 0 0<s≤t
X
u∆Qs
+ Xs− Zs− e − 1 (∆Hs − ∆Ns )
0<s≤t
X Z t
= Xs− Zs− eu∆Qs ∆Hs − λ̃φ̃Y (u) Xs− Zs− ds
0<s≤t 0
X Z t
− Xs− Zs− ∆Hs + λ̃ Xs− Zs− ds.
0<s≤t 0
A. Popier 89
The last equality can be written as follows :
Z t Z t
(3.11) Zs− dXs + hX, Zit = Xs− Zs− dVs − λ̃φ̃Y (u)ds
0 0
Z t
− Xs− Zs− dHs − λ̃ds
0
N (t)
!
X
uYi λ̃f˜(Yi ) λ̃f˜(Yi )
with Mt = Ht −λ̃t martingale and Vt = e . Indeed ∆Vt = eu∆Qt ∆Ht . Finally E euYi =
i=1
λf (Yi ) λf (Yi )
λ̃
Φ̃(u). Combining Equations (3.10) and (3.11), we obtain that XZ is a P-martingale, hence EP̃ (Xt ) =
λ
E(Xt Zt ) = 1.
90 A. Popier
Lemma 3.3 Z is a martingale under P. In particular E(Zt ) = 1, ∀t ≥ 0.
Proof. The proof is straightforward if Θ just depends on W . Recall that from Proposition 2.3, the two
processes W and Q are independent. Therefore Z 1 and Z 2 are two independent martingales, and thus
Z is a martingale.
Now in general let us use the Itô formula to obtain :
Z t Z t
Zt = 1 + Zs2− dZs1 + Zs1− dZs2 + hZ 1 , Z 2 it .
0 0
We define
1 2
Xt1 = exp u1 W̃t − u1 t ,
2
Xt2 = exp u2 Qt − λ̃t(φ̃Y (u2 ) − 1) .
1 2 1 2
which proves that X X Z Z is a P-martingale.
A. Popier 91
3.3 Exercices
Équations différentielles stochastiques
Exercice 3.1 Soit B un mouvement brownien et g(x) = eix = (cos x, sin x) ∈ R2 . Mon-
trer que Yt = (Yt1 , Yt2 ) = g(Bt ) est la solution de l’équation stochastique différentielle
stochastique
1 0 −1
dY = − Yt dt + KYt dBt , où K = .
2 1 0
Exercice 3.2 Soit B un mouvement brownien. Vérifier que les processus donnés ré-
solvent les EDS correspondantes.
1. Xt = eBt résout dXt = 21 Xt dt + Xt dBt .
Bt 1 1
2. Xt = 1+t résout dXt = − 1+t Xt dt + 1+t dBt .
Exercice 3.3 Soient B 1 , B 2 et B des mouvements browniens. Résoudre les EDS sui-
vantes (est-ce que les solutions sont uniques ?) :
1 1
dXt 1 1 0 dBt
1. 2 = dt + 1 .
dXt 0 0 Xt dBt2
2. dXt = Xt dt + dBt .
3. dXt = −Xt dt + e−t dBt .
4. dXt = (m − Xt )dt + σdBt où m et σ sont constantes.
Exercice 3.4 Soit B un mouvement brownien par rapport à F = (Ft )t≥0 . Résoudre
l’EDS d’Orstein-Uhlenbeck
92 A. Popier
5. Soit λ fixé, calculer
2
Φ(t, x) = E(eλXt ).
Montrer que Φ est la solution d’une equation aux dérivées partielles. Soit Ψ(t, x) =
ln Φ(t, x). Montrer que
Ψ(t, x) = x2 a(t) + b(t)
avec a0 (t) = −2a(t)(µ + σ 2 a(t)) et b0 (t) = −σ 2 a(t).
(3.14) y 0 − αy = a, y(0) = x.
où m est la solution de (3.14) (on admettera que l’intégrale qui intervient est une
martingale).
5. Résoudre (3.14) et puis (3.15).
Théorème de Girsanov
A. Popier 93
3. En déduire que M −1 est une Q-martingale.
Rt Rt
4. Soit (φt )t≥0 un processus adapté continu borné et Lt = 0
φs dBs − 0
µs φs ds.
Montrer que L est une Q-martingale.
5. On pose Zt = Mt Lt , calculer dZt et montrer que Zt est une P-martingale.
Exercice 3.7 Soit B un mouvement brownien rélativement à une filtration F = (Ft )t≥0
et θ un processus continue, borné et F-adapté. Soit
Z t
1 t 2
Z
Ht = exp(− θs dBs − θ ds).
0 2 0 s
On note Q la probabilité telle que dQ = Ht dP sur Ft . Montrer que
1 T 2
Z
EP (HT ln HT ) = EQ ( θ ds).
2 0 s
94 A. Popier
Chapitre 4
Application en finance
C’est Black et Scholes (et Merton) qui ont amorcé en 1975 la théorie de valorisation et
de couverture d’un actif. Schématiquement la valeur d’un actif financier est donnée par
la valeur d’un portefeuille de réplication de cet actif. Dans ce chapitre nous développons
cette théorie.
95
dynamique suivante :
" k
#
X
(4.1) dSti = Sti bit dt + σji (t)dBtj .
j=1
4.1.1 Autofinancement.
L’autofinancement est une condition importante pour l’évaluation d’actifs. Pour
(Θ, δ) une stratégie simple de trading, entre les dates tk et tk+1 , un investisseur place ηki
unités dans l’actif S i . Juste avant la date de renégociation, la valeur de son portefeuille
est : ηk .Stk+1 . À l’instant tk+1 l’investisseur forme un nouveau portefeuille, c’est-à-dire
une répartition différente des poids des actifs. Si aucune somme n’est investie ou déin-
vestie, à l’instant tk+1 , la valeur du portefeuille est ηk+1 .Stk+1 . Et il y a autofinancement
si
ηk , Stk+1 = ηk+1 .Stk+1 =⇒ Vtk (δ) + ηk .Stk+1 − Stk = Vtk+1 (δ).
96 A. Popier
Les variations d’un portefeuille autofinançant sont exclusivement dues aux variations du
prix des actifs. On peut résumer cela ainsi.
Définition 4.2 Soit (Θ, δ) une stratégie simple de trading autofinançante. Alors la va-
leur du portefeuille s’écrit comme l’intégrale stochastique par rapport aux prix des actifs
S i de la stratégie simple δ. Soit :
Z t
(4.3) Vt (δ) = δ(t).St , et Vt (δ) − V0 (δ) = δ(u).dSu .
0
De façon plus générale, si δ est un processus adapté, S étant des processus d’Itô, alors
une stratégie δ est autofinançante si (4.4) est satisfaite (ce qui suppose que l’intégrale
stochastique est bien définie).
Avec les paramètres concernant la dynamique des actifs, on obtient
d
X
dVt (δ) = δ i (t)dSti
i=0
d
X d X
X k
= δ 0
(t)St0 rt dt + δ i
(t)Sti bit dt + δ i (t)Sti σji (t)dBtj
i=1 i=1 j=1
0
= δ (t)St0 rt dt + (δS)t .bt dt + (δS)t .σt dBt .
(4.4) dVt (δ) = Vt (δ)rt dt + (δS)t .(bt − rt 1)dt + (δS)t .σt dBt
avec
— 1 vecteur de composantes toutes égales à 1,
— (δS)t = πt = (δ i (t)Sti , i = 1, . . . , d) vecteur des montants investis en titres risqués.
Voici quelques exemples de stratégie.
— Stratégie statique : on investit dans n0 actions à t = 0 et on attend.
4.1.2 Arbitrage
Définition 4.3 (Arbitrage) Une opportunité d’arbitrage est une stratégie de porte-
feuille δ autofinançante telle que
A. Popier 97
1. V0 (δ) = 0,
2. VT (δ) ≥ 0 et {VT (δ) 6= 0} 6∈ N .
Hypothèse fondamentale (AOA) : il n’existe pas d’opportunités d’arbitrage
parmi les stratégies de portefeuille admissibles. On dit aussi que le marché est viable.
Ainsi attendre jusqu’à l’instant Tx = inf{t ≥ 0, Bt = x > 0} est une stratégie d’arbi-
trage en horizon infini. La difficulté est de définir la notion d’admissibilité d’une stratégie.
Notons A l’ensemble des stratégies admissibles qui doit :
— contenir les stratégies constantes,
— être stable par recollement,
— être assez riche pour évaluer de nombreux produits dérivés,
— n’être pas trop gros pour éviter les OA.
En voici un exemple :
Z T
0 0 2 2
A = δ; E (δt St ) + |(δS)t | dt < ∞ .
0
98 A. Popier
— S0 = x ;
— le rendement ln(ST ) − ln(Ss ) suit une loi gaussienne de moyenne (µ − σ 2 /2)(t − s)
et de variance σ 2 (t − s).
— Pour tout 0 < t1 < t2 < . . . < tn , les accroissements relatifs {Sti+1 /Sti ; 0 ≤ i ≤
n − 1} sont indépendants.
On montre alors que la dynamique du prix S suit un mouvement brownien géométrique :
1 2
(4.5) St = x exp µt + σBt − σ t = f (t, Bt )
2
(u − m)2 (u − m)2 − 2γ 2 λu
Z Z
1 1
f (λ) = p eλu exp − du = exp − du
2γ 2 2γ 2
p
2πγ 2 R 2πγ 2 R
(u − m − λγ 2 )2 + m2 − (m + γ 2 λ)2
Z
1
= p exp − du
2πγ 2 R 2γ 2
(m + γ 2 λ)2 − m2 (u − m − λγ 2 )2
Z
1
= exp exp − du
2γ 2 2γ 2
p
2πγ 2 R
= exp λm + γ 2 λ2 /2
A. Popier 99
En particulier le ratio de Sharpe
E(St ) − x
Sharpe ratio = p
var(St )
est indépendant de x.
2. Pour toute fonction h positive ou bornée
Z
1 √
E(h(St )) = h(x exp((µ − σ 2 )t + σ tu)))g(u)du
2
Z
= h(y)lµ,σ2 (t, x, y)dy
avec 2
1 z
g(z) = √ exp − .
2π 2
3. La densité de la loi de St partant de x est celle de la loi log-normale lµ,σ2 (t, x, y)
donnée par
1 1 µt 2
lµ,σ2 (t, x, y) = √ exp − d0 (t, xe , y)
σy 2πt 2
1 √
1 x
d0 (t, x, y) = √ ln − σ t.
σ2t y 2
100 A. Popier
— La prime de risque est le ratio de Sharpe par unité de temps des excès de rendement
par rapport au cash.
1
dt
E( dS
St
t
)−r µ − r dSt
λ= q = .
1 dSt
var( St ) σ S t
dt
(4.7) dVt = Vt+dt − Vt = δt dSt + (Vt − δt St )rdt = rVt dt + δt (dSt − rSt dt).
A. Popier 101
Preuve. D’après le théorème Zde Girsanov, il existe une probabilité Q équivalente à la probabilité de
t
départ P sous laquelle Wt = (dBs + λds) est un mouvement brownien. Q admet une densité par
0
rapport à P donnée par
λ2 T
YT = exp −λBT − .
2
Sous cette probabilité Q, les prix actualisés sont des martingales locales. En particulier le prix actualisé
S̃ de l’actif risqué suit la dynamique :
dS̃t = S̃t σdWt ,
où W est un Q-mouvement brownien, tandis que le prix S est donné par
De même si Vt est la valeur à l’instant t d’un portefeuille autofinançant de stratégie δ, alors d’après
(4.4) ou (??),
dVt (δ) = Vt (δ)rdt + (δS)t .σdWt
dont la valeur actualisée est une martingale (locale) :
Donc sa moyenne reste constante égale à la valeur initiale et il n’y a pas d’opportunité d’arbitrage.
On peut remarquer ici que cette probabilité Q est unique et que le marché sera donc
complet. De plus le prix d’un actif quelconque de payoff ΦT sera donné par la formule :
Vt = E ΦT exp (−r(T − t)) Ft .
Q
Dans cette formule, on peut remarquer que la tendance µ n’apparaît plus ! Sous Q, St est
un brownien géométrique de paramètres r et σ. Donc si ΦT dépend de (St , t ∈ [0, T ]),
Vt ne dépend que de r et σ, pas de µ. On peut même développer le calcul de l’espérance
dans le cas où ΦT = h(ST ).
Proposition 4.3 Lorsque la variable aléatoire ΦT est de la forme h(ST ), on peut expli-
citer la valeur Vt de l’option à l’instant t comme une fonction de t et St : Vt = v(t, St )
avec
h √ i
(4.8) v(t, x) = e−r(T −t) E h x exp σ T − tZ + (r − σ 2 /2)(T − t)
102 A. Popier
Preuve. En effet
−r(T −t) Q
Vt = e E h(ST )Ft
−r(T −t) 2
Q
= e E h St exp σ(WT − Wt ) + (r − σ /2)(T − t) Ft .
On verra plus loin que dans le cas du call ou du put, la formule (4.8) peut être
explicitée. On a obtenu la règle d’évaluation suivante : pour faire le prix d’un produit
dérivé les agents font comme si le marché dans lequel se font les transactions était risque-
neutre. Et ainsi le prix est une espérance du flux terminal actualisé sous une probabilité
pour laquelle la prime de risque est nulle. Il s’agit maintenant de pouvoir déterminer le
portefeuille de réplication. L’intérêt de ce modèle est qu’il permet un calcul explicite de
ce portefeuille.
Le seul problème ici concerne l’existence de la fonction δ. En effet s’il y a une solution,
elle est forcément unique à cause de l’hypothèse d’absence d’arbitrage et l’existence de
la fonction v est donnée par la formule (4.8). De plus nous devons supposer que v est
A. Popier 103
une fonction régulière par rapport à t et x. Cette dernière condition est généralement
satisfaite : presque sans hypothèse sur la fonction h (continue et à croissance au plus
exponentielle ou discontinue et bornée par exemple), v donnée par la formule (4.8) est
de classe C ∞ sur [0, T [×R et on peut appliquer à v et à la semi-martingale S la formule
d’Itô.
Preuve. Rappelons que le prix de l’actif est donné par Vt = v(t, St ) et donc sa valeur actualisée par
e−rt v(t, St ) = e−rt v(t, ert S̃t ) où S̃t est le prix actualisée du sous jacent, dont la dynamique sous Q est
donnée par :
dS̃t = S̃t σdWt .
On note
∂f ∂f 2 ∂2f
∂t f (t, x) = f (t, x), ∂x f (t, x) = f (t, x), ∂xx f (t, x) = f (t, x).
∂t ∂x ∂x2
On applique la formule d’Itô à la fonction (t, x) 7→ ṽ(t, x) = e−rt v(t, xert de classe C 1,2 et à la semi-
martingale S̃t :
t t
1 t 2
Z Z Z
Ṽt = ṽ(t, S̃t ) = ṽ(0, S̃0 ) + ∂t ṽ(u, S̃u )du + ∂ ṽ(u, S̃u )dhS̃iu
∂x ṽ(u, S̃u )dS̃u +
0 0 2 0 xx
Z t Z t
1 t 2
Z
= ṽ(0, S̃0 ) + ∂t ṽ(u, S̃u )du + ∂x ṽ(u, S̃u )dS̃u + ∂xx ṽ(u, S̃u )(S̃u )2 σ 2 du
0 0 2 0
Z t Z t
= ṽ(0, S̃0 ) + ∂x ṽ(u, S̃u )dS̃u + Θu du.
0 0
1 2
Θu = ∂t ṽ(u, S̃u ) + ∂xx ṽ(u, S̃u )(S̃u )2 σ 2
2
doit être nul. Autrement dit ṽ doit satisfaire l’EDP : pour tout (t, x) ∈ [0, T [×R
σ2 2 2
∂t ṽ(t, x) + x ∂xx ṽ(t, x) = 0.
2
104 A. Popier
Comme ṽ(t, x) = e−rt v(t, xert ), on en déduit que v doit satisfaire l’EDP :
1 2 2 ∂ 2v ∂v ∂v
(4.10) σ x (t, x) + rx (t, x) + (t, x) − rv(t, x) = 0
2 ∂x2 ∂x ∂t
Proposition 4.5
1. Soit h une fonction continue à croissance au plus linéaire telle que l’EDP (4.10) ad-
met une solution v de classe C 1,2 sur ]0, T [×]0, +∞[ et continue sur [0, T ]×]0, +∞[.
Le pay-off h(ST ) est réplicable par un portefeuille dont la valeur est v(t, St ) et celle
du portefeuille de couverture δ(t, St ) = ∂x v(t, St ).
2. De plus v(t, x) = ert u t, σ1 (ln(x) − (r − σ 2 /2)t) où u solution de
1 ∂ 2u ∂u
(t, z) = 0, u(T, z) = e−rT h exp((r − σ 2 /2)T + σz) .
2
(t, z) +
2 ∂z ∂t
Preuve. On note
∂f ∂f 2 ∂2f
∂t f (t, x) = f (t, x), ∂x f (t, x) = f (t, x), ∂xx f (t, x) = f (t, x).
∂t ∂x ∂x2
On obtient
A. Popier 105
Pour la seconde partie, on a
rt 1 2 rt 1 2
∂t v(t, x) = re u t, (ln(x) − (r − σ /2)t) + e ∂t u t, (ln(x) − (r − σ /2)t)
σ σ
2
rt r − σ /2 1 2
−e ∂z u t, (ln(x) − (r − σ /2)t)
σ σ
rt 1 1 2
∂x v(t, x) = e ∂z u t, (ln(x) − (r − σ /2)t)
σx σ
rt
2 e 1 2
∂xx v(t, x) = − 2 ∂z u t, (ln(x) − (r − σ /2)t)
σx σ
rt
e 2 1 2
+ 2 2 ∂zz u t, (ln(x) − (r − σ /2)t) .
σ x σ
donc
u(T, z) = e−rT h(exp(σz + (r − σ 2 /2)T )).
1 ∂ 2u ∂u
2
(t, z) + (t, z) = 0, u(T, z) = k(z);
2 ∂z ∂t
106 A. Popier
avec t ∈]0, T [ et z ∈ R, est donnée par
Z Z
u(t, z) = k(z − y)g(T − t, y)dy = k(y)g(T − t, z − y)dy
R R
= E(k(z + BT − Bt )) = E(k(BT )|Bt = z).
Proposition 4.6 Soit h une fonction continue à croissance au plus linéaire. Le prix de
R la fonction v obtenue par la formule (4.8). Cette fonction peut aussi
l’actif est donné par
s’écrire v(t, x) = R∗ h(z)π(t, x, z, T )dz avec
+
De là on déduit
Proposition 4.7 Supposons que h soit dérivable presque partout et à dérivée à crois-
sance polynomiale.
1. Dérivée du prix de l’option (le delta ∆) :
Delta(0, x) = ∂x v(0, x)
Z
−rT 2 2
= e e(r−σ /2)T +σy ∂x h(xe(r−σ /2)T +σy )g(T, y)dy.
ST
Le calcul du Delta revient à calculer le prix d’un actif de payoff : ∂x h(ST ).
x
A. Popier 107
2. Autre méthode :
Z
−rT
Delta(0, x) = e h(y)∂x l(T, x, y, r, σ 2 )dy
1
∂x l(T, x, y, r, σ 2 ) = l(T, x, y, r, σ 2 )(−d0 (T, xerT , y))
√
xσ T
Le calcul du Delta revient alors à calculer le prix d’un actif de payoff
1
√ (−d0 (T, xerT , ST ))h(ST ).
xσ T
Preuve. On peut faire un calcul direct.
1. Il suffit de dériver par rapport à x l’équation (4.8).
2. En utilisant l’autre écriture de v et en dérivant par rapport à x.
L’intérêt de cette proposition est que pour couvrir le produit de payoff h(ST ), on
calculer simultanément le prix avec payoff h(ST ) et celui avec payoff SxT ∂x h(ST ) (donc
deux prix) et on obtient le prix et la couverture ! Si le modèle de Black-Scholes est
devenu aussi populaire, c’est en partie à cause des formules fermées de pricing du call
et du put.
avec
1 √ √
1 x
d0 (t, x, y) = √ ln − σ t, d1 (t, x, y) = d0 (t, x, y) + σ t
σ t y 2
De plus cette option est couverte par un portefeuille qui contient
∆(t, St ) = ∂x C(t, St ) = N d1 (T − t, St er(T −t) , K)
et
∆(t, St ) = ∂x P(t, St ) = −N d0 (T − t, K, St er(T −t) ) .
Lorsque les coefficients dépendent du temps, la même formule reste valable à condition
de poser
Z T Z T
1 2 2 1
r = R(t, T ) = rs ds, σ = Σ (t, T ) = σs2 ds.
T −t t T −t t
108 A. Popier
Preuve. Il suffit de reprendre les formules des propositions 4.3, 4.4, 4.6 et 4.7 avec h(z) = (z − K)+ .
Donc
Z
e−r(T −t) h x exp((r − σ 2 /2)(T − t) − σy) g(T − t, y)dy
v(t, x) =
ZR
e−r(T −t) x exp((r − σ 2 /2)(T − t) − σy) − K g(T − t, y)dy
=
Γ
avec
Ainsi
Z
v(t, x) = e−r(T −t) x exp((r − σ 2 /2)(T − t) − σy)g(T − t, y)dy
Γ
Z
−Ke−r(T −t) g(T − t, y)dy
Γ
Z
2
= x exp((−σ /2)(T − t) − σy)g(T − t, y)dy
Γ
y2
Z
−r(T −t) 1
−Ke √ exp − dy
Γ 2π T − t 2(T − t)
√
Dans la seconde intégrale on fait le changement de variable z = y/ T − t et on obtient
y2
Z
1 h i
√ exp − dy = N d0 (T − t, xer(T −t) , K) ,
Γ 2π T − t 2(T − t)
On a donc bien la formule 4.11 pour l’option d’achat. Pour calculer le Delta de couverture, on peut soit
dériver (4.11) par rapport à x, soit utiliser la proposition 4.7 qui donne que le Delta est le prix d’un
actif de payoff
ST ST
∂x h(ST ) = 1ST ≥K
x x
et donc en appliquant le calcul fait pour le call on obtient immédiatement le Delta. On laisse au lecteur
le soin de refaire les calculs pour le put.
Ainsi nous pouvons tracer la surface de prix (t, x) 7→ C(t, x) d’une option d’achat.
Ici on choisit r = 0, 05, σ = 0, 2, T = 4, et K = 100.
A. Popier 109
Détaillons maintenant quelques propriétés des prix des calls et des puts.
Propriétés 4.1
1. Parité call-put :
Preuve. Quasiment toutes ces propriétés peuvent se prouver par AOA (y réfléchir). Néanmoins ici on
va exploiter les formules (4.8), (4.11) et (4.12).
1. Cette propriété due à l’absence d’arbitrage se vérifie aisément en retranchant (4.11) et (4.12).
2. En effet comme h(z) = (z − K)+ ≥ 0, nécessairement avec (4.8), C(t, x) ≥ 0. Et comme
h(z) ≥ z − K, alors C(t, x) ≥ x − Ke−r(T −t) . D’où le résultat.
3. On a h i
∆(t, x) = ∂x C(t, x) = N d1 (T − t, xer(T −t) , K)
qui est par composition une fonction croissante. Donc la fonction C(t, .) est convexe.
4. Pour cela on calcule les dérivées partielles correspondantes.
h i √
∂σ C(t, x, σ) = xN 0 d1 (T − t, xer(T −t) , K) ∂σ d0 (T − t, xer(T −t) , K) + T − t
h i
−Ke−r(T −t) N 0 d0 (T − t, xer(T −t) , K) ∂σ d0 (T − t, xer(T −t) , K)
√ h i
= x T − tN 0 d1 (T − t, xer(T −t) , K) ≥ 0,
110 A. Popier
car
h i h i
xN 0 d1 (T − t, xer(T −t) , K) − Ke−r(T −t) N 0 d0 (T − t, xer(T −t) , K)
i 1 √
0
h
r(T −t) r(T −t) 1 2
= N d0 (T − t, xe , K) x exp − σ T − td0 (T − t, xe , K) − σ (T − t)
2 2
i
−Ke−r(T −t)
= 0.
Et de même
h i
∂K C(t, x, K) = −e−r(T −t) N d0 (T − t, xer(T −t) , K) .
On voit donc que pour le modèle de Black-Scholes, toutes ces valeurs sont calculables !
Et on peut réécrire l’équation de Black-Scholes. Avec σ 2 x2 Γ = σ/T V ega, on obtient :
1 2 2 1 σ
σ x Γ + rx∆ − rC + Θ = V ega + rx∆ − rC + Θ = 0.
2 2T −t
Nous pouvons ainsi tracer les surfaces du Delta et du Gamma. Ainsi en prenant pour
paramètres : r = 0, 05, σ = 0, 2, T = 4, K = 100, on obtient
A. Popier 111
4.3 Pricing and hedging for jump diffusion processes
models
4.3.1 Asset driven by a Poisson process
The model is the following. Assume that
— N is a Poisson process with intensity λ > 0,
— Mt = Nt − λt is the compensated Poisson process, thus a martingale.
The dynamic of the risky asset St is given by :
Now if for
— λ > 0,
112 A. Popier
— σ > −1, σ 6= 0,
— α ∈ R,
the process S
This can be obtained using the Itô formula. S is called a geometric Poisson process. Now
assume that under a probability measure P, e N is a Poisson process with intensity λ̃ > 0.
e S satisfies
This probability is risk-neutral if under P,
α−r
λ> .
σ
A. Popier 113
α−r
We define λ̃ = λ − > 0 and
σ
!Nt
λ̃
Zt = e(λ−λ̃)t
λ
is a martingale and
∀A ∈ F, P̃(A) = E(1A ZT ) .
P̃ is the risk-neutral measure and under P̃ :
dSt = rSt dt + σS(t− )dM̃t ⇐⇒ d(e−rt St ) = σe−rt S(t− )dM̃t
with M̃t = Nt − λ̃t is a martingale. Equivalently
St = S0 e(r−λ̃σ)t (σ + 1)Nt .
114 A. Popier
4.3.2 Asset driven by a compound Poisson process and a Brow-
nian motion
Now we try to generalize the previous model. We define
— W Brownian motion,
— N1 , . . . , NM independent Poisson processes, with intensity λm > 0,
— −1 < y1 < . . . < yM nonzero numbers.
and
XM XM XNt M
X
Nt = Nm (t), Qt = ym Nm (t) = Yi , λ = λm ,
m=1 m=1 i=1 m=1
where Y1 , Y2 , . . . are i.i.d. random variables with distribution
λm
P(Yi = ym ) = p(ym ) = .
λ
Q is a compound Poisson process with expectation equal to βλ where β = E(Yi ) =
M
1X
λm ym . Therefore the process Mt = Qt − βλt is a martingale.
λ m=1
The model for the stock price is now : S(0) > 0 and
dS(t) = αS(t)dt + σS(t)dWt + S(t− )dMt
= (α − βλ)S(t)dt + σS(t)dWt + S(t− )dQt .
Proposition 4.2 The solution of the previous equation is
YNt
1 2
S(t) = S(0) exp σW (t) + α − βλ − σ t (Yi + 1).
2 i=1
Under P̃ :
A. Popier 115
— W̃ (t) = W (t) + θt is a Brownian motion,
— each Nm is a Poisson process with intensity λ̃m ,
— W̃ and N1 , . . . , Nm are independent of one another.
Now define
M
X λ̃m
λ̃ = λ̃m , p̃(ym ) = .
m=1 λ̃
Under P̃ : P
— Nt = M m=1 Nm (t) is a Poisson process with intensity λ̃,
— the jump-size r.v. Y1 , Y2 , . . . are i.i.d. r.v. with P̃(Yi = ym ) = p̃(ym ),
— M̃ (t) = Q(t) − β̃ λ̃t is a martingale where
M
1X
β̃ = ẼYi = λ̃m ym .
λ̃ m=1
Recall that
or
YNt
1 2
S(t) = S(0) exp σ W̃ (t) + r − β̃ λ̃ − σ t (Yi + 1).
2 i=1
This equation has many solutions and a choice has to be made. Merton in his seminal
article has choosen to let the coefficients λm unchanged and to only modify the Brownian
drift.
Assumption : we choose λ̃1 , . . . , λ̃M and then θ such that (4.14) holds.
Remember that the Black-Scholes price of a call with volatility σ, interest rate r,
current stock price x, expiration data τ , strike K is :
with
1 x 1 2
d± (τ, x) = √ ln + r ± σ τ
σ τ K 2
and Z y
1 1 2
N (y) = √ exp − z dz.
2π −∞ 2
116 A. Popier
Theorem 4.1 For 0 ≤ t ≤ T the risk-neutral price of a call
j
+∞
" !#
X λ̃j (T − t)j e Y
c(t, x) = e−λ̃(T −t) E κ T − t, xe−β̃ λ̃(T −t)
(Yi + 1) .
j=0
j! i=1
∂c ∂c 1 ∂ 2c
−rc(t, x) + (t, x) + (r − λ̃β̃)x (t, x) + σ 2 x2 2 (t, x)
∂t ∂x 2 ∂x
"M #
X
+λ̃ p̃(ym )c(t, (ym + 1)x) − c(t, x) = 0.
m=1
∂c
d(e−rt c(t, S(t))) = e−rt σS(t) (t, S(t))dW̃t
∂x
M
X
e−rt c(t, (ym + 1)S(t− )) − c(t, S(t− )) d(Nm (t) − λ̃m t).
+
m=1
A natural question is : what about hedging ? Define a portfolio by : X(0) = c(0, S(0))
and
dX(t) = δ(t− )dS(t) + r[X(t) − δ(t)S(t)]dt
∂c
with the delta-hedging strategy : δ(t) = (t, S(t)) .
∂x
Proposition 4.3
1.
M
X
= e−rt d(Nm (t) − λ̃m t)
m=1
− − ∂c −−
× c(t, (ym + 1)S(t )) − c(t, S(t )) − ym S(t ) (t, S(t )) .
∂x
A. Popier 117
Continuous jump distribution. Let us finish with the case of continuous jump
Z ∞ that is, Yi have a density f with support in (−1, ∞). We denote β =
distribution,
E(Yi ) = yf (y)dy, and we choose θ, λ̃ > 0 and a density f˜ with support in supp (f )
−1
s.t.
(4.15) α − r = σθ + βλ − β̃ λ̃ ,
Z ∞
with β̃ = Ẽ(Yi ) = y f˜(y)dy. Once again to solve (4.15), the Merton’s approach
−1
consists to take f = f˜ and to change only the drift on W .
In this case, Theorem 4.1 holds. But the PIDE becomes :
∂c ∂c 1 ∂ 2c
−rc(t, x) + (t, x) + (r − λ̃β̃)x (t, x) + σ 2 x2 2 (t, x)
∂t ∂x 2 ∂x
Z ∞
+λ̃ c(t, (y + 1)x)f˜(y)dy − c(t, x) = 0.
−1
∂c
dX(t) = δ(t− )dS(t) + r[X(t) − δ(t)S(t)]dt, with δ(t) = (t, S(t)),
∂x
then
118 A. Popier
4.4 Exercices
Modèle de Black-Scholes
Exercice 4.1 (Option binaire) On considère un marché financier où les taux d’inté-
rêt et les primes de risque sont constants. La dynamique du prix S d’une action est
Une option d’achat binaire (ou digitale) est une option qui paye 1 si le sous-jacent est à
l’échéance T supérieur au prix d’exercice K, rien sinon.
1. Donner le prix de cette option, en utilisant les notations classiques dans la formule
de Black-Scholes.
2. Calculer le Delta de cette option. Décrire la stratégie de portefeuille qui réplique
l’option binaire.
3. Que se passe-t-il au voisinage de l’échéance ?
A. Popier 119
Exercice 4.4 (Contrôle 2011-2012) On se place dans le modèle de Black-Scholes.
1. Exprimer le prix initial C du Call d’échéance T et de prix d’exercice Z xK à l’aide de
2 dy
la fonction de répartition de la loi gaussience centrée réduite N = e−y /2 √ ,
√ √ −∞ 2π
ln(S0 erT /K) σ T
de d1 = √
σ T
+ 2 et de d0 = d1 − σ T .
d2 2 q
1 −d0 S erT
0 T −d21 /2
2. Vérifier que e 2 = K . En déduire que C (σ) = S0 2π
0
e . Déterminer les
limites C(0) et C(+∞) de la fonction C pour σ tendant vers 0 et vers +∞.
3. Pourquoi le prix de marché Cm du Call est-il compris entre C(0) et C(+∞) ?
Conclure à l’existence d’un unique niveau de volatilité σimp tel que C(σimp ) = Cm .
Ce niveau porte le nom de volatilité implicite de l’option.
où B est un mouvement brownien par rapport à la filtration (Ft )t≥0 sous une probabilité
P, les paramètres r (taux d’intérêt) et σ (volatilité) sont constants. On veut valoriser
l’option dont le payoff est
Z T +
1
Su du − K
T 0
K étant le prix d’exercice de l’option, T sa maturité.
On désignera par A(T, K) le prix en 0 de cette option, et C(T, K) le prix en 0 d’un
Call de flux terminal (ST − K)+ .
1. On appelle G(T, K) le prix en 0 de l’option de pay-off
Z T +
1
ΨT = exp ln Su du − K .
T 0
Montrer que
Z T
1
G(T, K) ≤ A(T, K) ≤ e−r(T −u) C(u, K)du.
T 0
120 A. Popier
Rt 1
+
3. On pose Yt = y + 0
Su du. On considère l’option de flux terminal Y
T T
−K .
(a) Montrer qu’un portefeuille autofinançant de la forme u(t, St , Yt ) (où u est une
fonction régulière) qui réplique ce flux terminal satisfait l’EDP
σ 2 2 00
u0t (t, x, y) + x uxx (t, x, y) + rxu0x (t, x, y) + xu0y (t, x, y) − ru(t, x, y) = 0,
2
y
u(T, x, y) = ( − K)+
T
(b) Exprimer A(T, K) en fonction de u.
4. On cherche à réduire la dimension de cette EDP bidimensionnelle.
RT
(a) On désigne par Vt le portefeuille autofinançant qui réplique T1 0 Su du − K.
Montrer que
et calculer z0 .
(c) Soit QS la probabilité de densité e−rT SST0 . Montrer que BtS = Bt − σt est un
QS mouvement brownien. En déduire que Zt est une QS martingale.
(d) On désigne par Ztz la solution de l’EDS précédente de condition initiale z.
S
Montrer que si EQ ((Ztz )+ ) = v(t, z) est une fonction « régulière », elle est
solution de l’EDP
1
vt0 (t, z) = (ρt − z)2 σ 2 vzz
00
(t, z) ; v(0, z) = z + .
2
(e) Exprimer A(T, K) à l’aide de la fonction v.
A. Popier 121
2. Montrer que si v est solution régulière de l’EDP
σ 2 x2 00
(4.16) vt0 (t, x)+ v (t, x)+(r−q)xvx0 (t, x)−rv(t, x) = 0, (t, x) ∈ [0, T [×R∗+
2 xx
avec v(T, x) = h(x) ,x ∈ R∗+ , alors pour t < T ,
dv(t, St) = δ(t, St )dSt + r(v(t, St ) − δ(t, St )St )dt + qδ(t, St )St dt
pour une fonction δ que l’on précisera. Conclure que l’option européenne de payoff
h(ST ) en T est alors duplicable par un portefeuille autofinancé que l’on précisera.
3. Vérifier que
σ2
v(t, x) = E e−r(T −t) h xeσBT −t +(r−q− 2 )(T −t)
est bien solution de (4.16) (on pourra commencer par écrire l’équation aux dérivées
σ2
partielles satisfaite par u(t, y) = e−rt v(t, eσy+(r−q− 2
)t
)).
122 A. Popier
3. On suppose que Vt = C(t, St , σt ). Quelle est l’EDP satisfaite par C ? Que valent
δt et ωt ?
4. Montrer que l’évaluation risque-neutre donne :
∂C ∂C
dCt = rCt dt + (dSt − rSt dt) + (dσt − λt dt)
∂S ∂σ
en précisant ce qu’est λt . Montrer qu’en plus de la prime de risque, il y a une prime
de risque de volatilité et que sous la probabilité risque-neutre Q :
−r(T −t)
Q
C(t, σ, S) = E e h(ST )σt = σ, St = S .
Modèles à sauts
Exercice 4.8 On reprend l’énoncé de l’exercice 1.14. On suppose que λ > 0 et β > 0.
On rappelle qu’alors X se décompose ainsi
Nt3 4
Nt
X X
Xt = γ0 t + σWt + Yt = γ0 t + σWt + Vi − Zj ,
i=1 j=1
avec
— W mouvement brownien,
— N 3 = (Nt3 )t≥0 et N 4 = (Nt4 )t≥0 deux processus de Poisson d’intensité respective
µ3 et µ4 ,
— les Vi étant positifs ou nuls de densité f ,
— les Zi une loi géométrique de paramètre p.
On suppose que le prix S = (St )0≤t≤T d’un actif risqué est de la forme St =
S0 exp(rt + Xt ). T désigne la maturité du contrat, r > 0 le taux sans risque.
1. Montrer que S est bien défini et admet des moments d’ordre 1 et 2.
Pour tout η > 0, µ̃ > 0, et toute densité g sur ]0, +∞[ ayant un moment exponentiel
d’ordre 1, on pose
N4
t
2
(µ3 −µ̃)t Y µ̃g(Vi )
Θ(t) = exp −ηWt − η t/2 e .
µ f (Vi )
i=1 3
A. Popier 123
5. Exprimer le prix à l’instant initial de l’option d’achat européenne de strike K,
de maturité T , comme une série double faisant intervenir les prix Black-Scholes
d’options d’achat européennes.
Exercice 4.9 On reprend l’exercice 2.10. Le prix de l’actif risqué est donné par l’équa-
tion suivante :
dSt = St− (bdt + σdWt + δdMt ), S0 > 0.
1. Soit γ > −1. Montrer que (Lγt = E(ψW )(t)E(γM )(t))0≤t≤T est une martingale
définissant une probabilité risque-neutre Qγ équivalente à P, si et seulement si
b − r + σψ + λδγ = 0.
2. Montrer que sous Qγ , on a pour tout t ∈ [0, T ]
exp(−rt)St = S0 E(σW γ )(t)E(δM γ )(t).
On précisera la dynamique de (Wtγ )0≤t≤T et (Mtγ )0≤t≤T sous Qγ .
On définit alors le prix V γ de l’option d’achat (ST − K)+ sous Qγ par
γ
∀t ∈ [0, T ], Vtγ = e−r(T −t) EQ ((ST − K)+ |Ft ) = e−r(T −t) Eγ ((ST − K)+ |Ft ).
On définit aussi H(t, St ) comme le prix Black-Scholes de ce même contrat à l’instant t
et LH la fonction
∂H
LH(t, x) = H(t, (1 + δ)x)) − H(t, x) − δx (t, x).
∂x
∂H
On supposera (sans le redémontrer) que H ∈ C 1,2 ([0, T [×R), que est bornée et que
∂x
H est convexe par rapport à la seconde variable.
3. En appliquant la formule d’Itô, montrer que
Z T
−rt γ −rt −rs
γ
e Vt = e H(t, St ) + (1 + γ)λE e LH(s, Ss )dsFt .
t
et g(x) = x − (x − K)+ .
9. En déduire alors que lim Eγ (e−rT (ST − K)+ ) = S0 et que lim V γ (t) = St .
γ→+∞ γ→+∞
124 A. Popier
Bibliographie
[1] R. Cont, P. Tankov, Financial Modeling with Jump Processes, Chapman and Hall.
[2] N. El Karoui, E. Gobet, Les outils stochastiques des marchés financiers, Éditions de
l’École Polytechnique.
[3] I. Karatzas, S.E. Shreve, Brownian motion and Stochastic Calculus, Springer.
[4] I. Karatzas, S.E. Shreve, Methods of Mathematical Finance, Springer.
[5] D. Lamberton, B. Lapeyre, Introduction au calcul stochastique en finance, Ellipses.
[6] B. Oksendal, Stochastic Differential Equations, An introduction with Applications,
Springer.
[7] P. Protter, Stochastic Integration and Differential Equations, Springer.
[8] D. Revuz, M. Yor, Continuous Martingales and Brownian Motion, Springer.
125