Vous êtes sur la page 1sur 33

Ecole Nationale des Sciences Appliquées

d'Agadir

Finance et Ingénierie Décisionnelle

Exercices corrigés :

Calcul stochastique pour la nance


Brahim EL ASRI

2019-2020
Exercice 1.

1. Soit X une v.a. intégrable. Montrer que (E[X|Ft ], t ≥ 0) est une martingale.
2. Montrer que si M est une martingale et A un processus croissant adapté (As ≤
At ∀s ≤ t) alors M − A est une surmartingale.
3. Montrer qu'une surmartingale telle que E[ZT ] = E[Z0 ] est une martingale sur [0, T ].

Exercice 2.

1. Un processus adapté (Mt )t≥0 est appelée une martingale locale, s'il existe une suite
de temps d'arrêt (τn )n∈N avec τn ↗ +∞, tel que le processus (Nt )t≥0 dénie par
Nt = (Mt∧τn )t≥0 est une martingale. Montrer qu'une martingale locale positive est
une surmartingale.
2. Soit X une martingale telle que XT = ξ . Exprimer Xt en fonction de ξ pour t < T
au moyen d'une espérance conditionnelle.
∫t
3. Si ϕ est un processus adapté borné. Alors Yt = Mt − 0 ϕs ds, 0 ≤ t ≤ T , si est
∫T
seulement si Yt = E[ t ϕs ds + YT |Ft ].
Exercice 3.

Soit (Mt , t ≥ 0) une Ft -martingale de carré intégrable (telle que Mt2 soit d'espérance
nie, pour tout t). Montrer que
1. E[(Mt − Ms )2 |Fs ] = E[Mt2 |Fs ] − Ms2 pour t > s.
2. E[(Mt − Ms )2 ] = E[Mt2 ] − E[Ms2 ] pour t > s.
3. La fonction ϕ dénie par ϕ(t) = E[Mt2 ] est croissante.
4. En déduire que Mt2 est une F -sousmartingale. Aurait on pu obtenir ce résultat
plus rapidement ?
Exercice 4.

Soit X un PAI (processus à accroissements indépendants, c'est-à-dire tel que, pour t > s,
la v.a. Xt − Xs est indépendante de σ(Xu , u ≤ s)). Montrer que, si, pour tout t, la v.a.
Xt est intégrable, Xt − E[Xt ] est une martingale et que si X est de carré intégrable
et Xt centré, Xt2 − E[Xt2 ] est une martingale. Montrer que, si exp(λXt ) est intégrable,
exp(λXt )
Zt = E[exp(λX t )]
, est une martingale.

Exercice 5.

Soit (Bt , t ≥ 0) un mouvement brownien réel. Montrer les résultats suivants :


1. (Bt , t ≥ 0) est une martingale.
2. (Bt2 − t, t ≥ 0) est une martingale.
3. (Bt3 − 3tBt , t ≥ 0) est une martingale.

1
4. Montrer qu'un processus continu X est une mouvement Brownien si et seulement
si, pour tout λ le processus exp(λXt − 12 λ2 t) est une martingale.

Exercice 6. Calcul d'espérances

Soit B un processus continu et F sa ltration naturelle. Soit

σ2
St = S0 exp[(µ − )t + σBt ]
2
Calculer l'espérance et la variance de St .

Exercice 7.

Soit (Bt )t≥0 un Mouvement Brownien. Montrez que les processus suivants sont également
des Mouvements Browniens :
1. ( a1 Ba2 t )t≥0 .
2. (Bt+t0 − Bt0 )t≥0 .
3. Le processus déni par tB 1 pour t > 0 et prolongé par 0 en t = 0.
t

Exercice 8.

Soit Z une variable aléatoire de loi normale centrée et réduite. Pour tout t ≥ 0 on
pose Xt = tZ . Le processus stochastique X = {Xt ; t ≥ 0} a des trajectoires continues et
Xt suit une loi normale N (0, t). Est-ce un mouvement brownien ?

Exercice 9.

On dénit un pont Brownien par

Zt = Bt − tB1 , 0 ≤ t ≤ 1.

1. Montrer que Z est un processus gaussien indépendant de B1 . Préeciser sa loi,


c'est-à-dire sa moyenne et sa fonction de covariance.
2. Montrer que le processus Ze avec Zet = Z1−t a même loi que Z .
3. Montrer que le processus Y avec Yt = (1 − t)B t , 0 < t < 1 a même loi que Z .
1−t

Exercice 10. Enveloppe de Snell

Soit (Zn 0 ≤ n ≤ N ) une suite de v.a.r. adaptée à une ltration (Fn ) . Dénisssons
par récurrence descendante une suite (Un , 0 ≤ n ≤ N ) par les égalités

UN = ZN Un = sup(Zn , E[Un+1 |Fn ]) (0 ≤ n < N ).

1. Montrer que (Un ) est une surmartingale majorant (Zn )

2
2. Montrer que (Un ) , qui est appelée enveloppe de Snell de (Zn ), est la plus petite
surmartingale majorant (Zn ).
Exercice 11.

Utiliser la formule d'Itô pour déterminer la forme standard

dXt = u(t, w)dt + v(t, w)dBt

de L'EDS satisfaite par les processus suivants :


1. Xt = Bt2 .
2. Xt = Bt3 .
3. Xt = 2 + t + exp(Bt ).
4. Xt = exp(ct + aBt ).

Exercice 12.

1. Résoudre l'EDS :
1 1
dXt = − Xt dt + dBt
1+t 1+t
puis calculer E[Xt ] et V ar(Xt )(on pourra multiplier les 2 membres de l'équation
par (1 + t) puis calculer d((1 + t)Xt )).
2. Résoudre dXt = −Xt dt + exp(−t)dBt puis calculer E[Xt ] et V ar(Xt )
3. Résoudre dXt = (m − Xt )dt + σdBt puis calculer E[Xt ] et V ar(Xt ).
∫t 1
4. Montrer que Yt = a(1 − t) + bt + (1 − t) 0 1−s dBs est solution de l'équation
b−Yt
dYt = 1−t dt + dBt .
σ2
5. Montrer que Bt , Bt2 et exp(σBt − 2
t) sont des martingales par rapport à Ft .

Exercice 13.

1. Montrer que si Xt est solution de l'EDS dXt = at dt + dBt alors Xt est une mar-
tingale si et seulement si at = 0 p.s.
2. Montrer que si Xt est solution de l'EDS dXt = v(t, w)dBt alors Xt2 n'est pas
toujours une martingale. (Xt est une martingale pourquoi ?).
3. Montrer que si Xt est solution de l'EDS dXt = v(t, .)dBt alors
∫ t
Mt = Xt2 − | v(s, .) |2 ds
0

est une martingale.


4. Soit St une solution de l'EDS dSt = St (µdt+σdBt ). Montrer que Set est un processus
d'Itô.

3
5. Soit Ct le prix d'une option de sous jacent St , et Cet = exp(−rt)Ct son prix actualisé.
On suppose que Cet = F (t, Set ), où F est une fonction de classe C 2 . Montrer que Cet
est un processus d'Itô.
6. Soit (Bt ) un mouvement brownien et (Ft ) sa ltration naturelle. Soit (Xt ) un
processus stochastique vériant l'EDS

dXt = Xt (µ(t)dt + σ(t)dBt )


∫t
et soit (Yt ) le processus déni par Yt = Xt exp(− 0 µ(s)ds).
(a) Trouver une EDS satisfaite par Yt .
(b) Montrer que Yt est une martingale.
∫T
(c) En déduire que Xt = E[XT exp(− t µ(s)ds)/Ft ].

Exercice 14.

Soient (Bt1 )0≤t≤T et (Bt2 )0≤t≤T deux mouvements Browniens réels indépendants adaptés
à la même ltration (Ft )0≤t≤T .
Soient (Ht1 )0≤t≤T et (Ht2 )0≤t≤T deux processus (CADLAG) adaptés à F et vériant :

(Ht1 )2 + (Ht2 )2 = 1, ∀t ∈ [0, T ].


∫t
1. Montrer que les intégrales stochastiques 0
Hsi dBsi pour i = 1, 2 sont bien dénies
pour tout t ≤ T .
2. On considère le processus (Xt )t≤T déni par
∫ t ∫ t
Xt = Hs1 dBs1 + Hs2 dBs2 ∀t ∈ [0, T ]
0 0

Montrer que (Xt )t≤T est une martingale pour la ltration F . Le processus X est-il
continu ?
3. On dénit, pour tout u ∈ R, le processus (Mtu )t≤T par
∫ t
u2
Mtu = exp(iuXt ) + exp(iuXs )ds.
2 0

Montrer en utilisant la formule d'Itô (on admettra sa validité sur les fonctions
complexes) que (Mtu ) est une martingale pour la ltration F .
4. En déduire la valeur de E[Mtu ] pour t ∈ [0, T ] puis une équation diérentielle
ordinaire vériée par f u : t → E[exp(iuXt )] dont on explicitera une solution.
5. Soit t ∈ [0, T ] Quelle est la loi de la variable aléatoire Xt ?

4
Exercice 15.

∫t
Soit σ(t) une fonction détérministe du temps telle que 0 σ(s)2 ds < ∞ pour tout t > 0
∫t
et soit Xt = 0 σ(s)dBs . En utilisant la formule d'Itô, montrer que la fonction caracté-
ristique de Xt (t xé) est donnée par

−u2 t
E[exp(iuXt )] = exp( σ(s)2 ds, u ∈ R.
2 0
Que peut-on en déduire ?

Exercice 16. EDS et Brownien géométrique

On s'intéresse à la solution Xt de l'EDS :


∫ t ∫ t

Xt = (µXr + µ )dr + (σXr + σ ′ )dBr .
0 0

On pose
σ2
St = exp((µ − )t + σBt )
2
1. Ecrire l'EDS dont St−1 est solution.
2. Démontrer que :
d(Xt St−1 ) = St−1 ((µ′ − σσ ′ )dt + σ ′ dBt ).
3. En déduire une expression pour Xt .

Exercice 17. Covariation quadratique et Formule d'Intégration par partie

La covariation quadratique entre 2 processus X et Y est par dénition :


1
⟨X, Y ⟩ = (⟨X + Y ⟩ − ⟨X − Y ⟩).
4
1. Montrer que l'application (X, Y ) → ⟨X, Y ⟩ est bilinéaire.
2. Soient 2 processus d'Itô X 1 et X 2 donnés par :

dXti = φit dt + θti dBt, i = 1, 2.

Montrer que la covariation quadratique entre X 1 et X 2 est donnée par


∫ t
⟨X , X ⟩t =
1 2
θs1 θs2 ds.
0

3. Soient X et Y deux processus d'Ito, démontrer la formule d'intégration par partie :


∫ t ∫ t ∫ t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + d⟨X, Y ⟩s .
0 0 0

5
Exercice 18. Processus d'Ornstein-Ulhenbeck.

Le processus d'Ornstein-Ulhenbeck est l'unique solution de l'équation diérentielle sto-


chastique suivante :
dXt = −cXt dt + σdWt
On suppose que X0 est une variable aléatoire gaussienne indépendante de W .
1. En posant Yt = Xt exp(ct), donner la forme explicite du processus (Xt ).
2. Donner la loi de Xt . Que vaut Cov(Xs , Xt ) ?
3. Trouver la loi de X0 telle que ∀t, la loi de Xt ne dépend pas de t (loi stationnaire).
4. Quelle est la loi limite de Xt lorsque t → +∞.
∫t 2 ∫t
5. Montrer que Zt = exp(a 0 Xs dWs − a2 0 Xs2 ds) est une martingale locale.
6. Soit Ut = Xt2 . Ecrire dUt .
∫t ∫t
7. En déduire que 0 Xs dWs = 1

(Xt2 − X02 − σ 2 t) + c
σ 0
Xs2 ds.

Exercice 1.

1. On pose Mt = E[X|Ft ], ∀t ≥ 0.
On a Mt est adaptée, car l'espérance contient toute l'information.
On a |Mt | = |E[X|Ft ]| ≤ E[|X||Ft ]
Alors E[|Mt |] ≤ E[E[|X||Ft ]]
= E[|X|] < ∞ (X est v.a intgrable)
D'où Mt ∈ L .1

On a ∀s ≤ t, E[Mt |Fs ] = E[E[X|Ft ]|Fs ]


= E[X|Fs ] (Fs ⊂ Ft )
= Ms
D'après ce qui précède on déduit que Mt = E[X|Ft ] est une martingale.
2. Posons Yt = Mt − At , ∀t ≥ 0.
On a Yt est un processus adapté.
On a E[|Yt |] = E[|Mt − At |]
≤ E[|Mt |] + E[|At |]
<∞
Alors Yt ∈ L1 .
On a E[Yt |Fs ] = E[Mt − At |Fs ]
= E[Mt |Fs ] − |E[At |Fs ]
= Ms − E[At |Fs ]
≤ Ms − E[As |Fs ] (car As ≤ At )
= Ms − As
= Ys
On déduit alors que Yt = Mt − At est martingale.

6
3. On a Z est une surmartingale, alors E[ZT |Fs ] ≤ Zs , de plus on a E[ZT ] = E[Z0 ].
Avec s ≤ t ≤ T , on a : E[Z0 ] ≤ E[ZT ] ≤ E[Zt ] ≤ E[Zs ] ≤ E[Z0 ].
Donc E[Zt ] = E[Zs ], d'où Z est une martingale.
On pose Ls = Zs − E[Zt |Fs ].
On a E[Ls ] = E[Zs ] − E[Zt ] = 0, avec Ls ≥ 0 car Z est une surmartingale.
On trouve que Ls = 0 =⇒ E[Zt |Fs ] = Zs .
Donc nalement Z est une martingale.
Exercice 2.

1. Soit Mt une martingale locale ; par dénition de la martingale locale on a ∀t ≥ s :

E[Mt∧τn |Fs ] = Ms∧τn avec τn un temps d'arrêt qui tend vers l'inni
(Lorsque n tend vers + ∞ on a τn −→ +∞)

En appliquant le lemme de fatou à l'espérance conditionnelle on obtient :

Ms = lim Ms∧τn
n

= lim inf Ms∧τn


n

= lim inf E[Mt∧τn |Fs ]


n

≥ E[lim inf Mt∧τn |Fs ]


n

= E[Mt |Fs ]
Donc Ms ≥ E[Mt |Fs ] ∀t ≥ s
d'où Mt est une surmartingale.

2. Puisque X est une martingale on a : ∀t ≥ s E[Xt |Fs ] = Xs


en particulier puisque T ≥ t E[XT |Ft ] = Xt .
D'où
Xt = E[XT /Ft ]

Donc Xt = E[ξ|Ft ] ∀t ≤ T
∫t
3. On suppose que Yt = Mt − 0
ϕ(s)ds 0≤t≤T;
∫T
Montrons que Yt = E[ t ϕ(s)ds + YT |Ft ]
∫t ∫T
Yt = Mt − 0
ϕ(s)ds =⇒ YT = MT − 0
ϕ(s)ds
∫T ∫T ∫t
or E[ t ϕ(s)ds + YT |Ft ] = E[ 0 ϕ(s)ds − 0 ϕ(s)ds + YT |Ft ]
∫T ∫t ∫T
= E[ 0 ϕ(s)ds − 0 ϕ(s)ds + MT − 0 ϕ(s)ds|Ft ]

7
∫t
= Mt − 0
ϕ(s)ds

= Yt
∫T
inversement posons Yt = E[ t ϕ(s)ds − YT |Ft ]
∫T ∫T ∫t
E[ t ϕ(s)ds + YT |Ft ] = E[ 0 ϕ(s)ds − 0 ϕ(s)ds − YT |Ft ]
∫t ∫T
=− 0
ϕ(s)ds + E[ 0 ϕ(s)ds − YT |Ft ]
∫T
en posant Mt = E[ 0 ϕ(s)ds − YT |Ft ]
∫t
on a : Yt = Mt − 0 ϕ(s)ds (vérions que Mt est une martingale)
∫T
E[Mt |Fs ] = E[E[ 0 ϕ(s)ds − YT |Ft ]|Fs ]
∫T
=E[ 0 ϕ(s)ds − YT |Fs ] donc Mt est une martingale

Exercice 3.

1. Montrons que E[(Mt − Ms )2 |Fs ] = E[(Mt )2 |Fs ] − Ms2

(Mt − Ms )2 = Mt2 + Ms2 − 2Mt Ms donc


E[(Mt − Ms )2 |Fs ] = E[(Mt2 + Ms2 − 2Mt Ms )|Fs ]

par linéarité de l'esperance conditionnelle on obtient :

E[(Mt − Ms )2 |Fs ] = E[Mt2 |Fs ] + E[Ms2 |Fs ] − 2E[Mt Ms |Fs ]

or Ms est Fs - mesurable. ce qui implique que


E[(Mt − Ms )2 |Fs ] = E[Mt2 |Fs ] + Ms2 − 2Ms E[Mt |Fs ]
et puisque Mt est une martingale E[Mt |Fs ] = Ms donc
E[(Mt − Ms )2 |Fs ] = E[Mt2 |Fs ] + Ms2 − 2Ms2

d'où E[(Mt − Ms )2 |Fs ] = E[Mt2 |Fs ] − Ms2 .

2. Montrons que E[(Mt − Ms )2 ] = E[Mt2 ] − E[Ms2 ]

E[(Mt − Ms )2 ] = E[E[(Mt − Ms )2 |Fs ]] donc on a aussi

E[(Mt − Ms )2 ] = E[E[Mt2 |Fs ] − Ms2 ] d'après le résultat de la question 1

par linéarité de l'esperance on obtient :


E[(Mt − Ms )2 ] = E[E[Mt2 |Fs ]] − E[Ms2 ]

8
d'où E[(Mt − Ms )2 ] = E[Mt2 ] − E[Ms2 ].

3. ∀t ≥ s on a ϕ(t) − ϕ(s) = E[Mt2 ] − E[Ms2 ]

or d'après la question 2) E[(Mt − Ms )2 ] = E[Mt2 ] − E[Ms2 ]

d'autre part (Mt − Ms )2 ≥0


donc E[(Mt − Ms )2 ] ≥ 0

ce qui implique aussi que ϕ(t) − ϕ(s) ≥ 0 ∀t ≥ s


et donc ϕ(t) ≥ ϕ(s)

d'où ϕ(t) est croissante

4. Déduisons que Mt2 est une F -sous martingale.


D'après la qustion 1) on a : E[(Mt − Ms )2 |Fs ] ≥ 0
donc E[(Mt )2 |Fs ] − Ms2 ≥ 0
d'où E[(Mt )2 |Fs ] ≥ Ms2

donc Mt2 est une F -sousmartingale.

Oui on pouvait retrouver ce résultat plus facilement ;


on pose ψ(t) = t2 ; ψ est une fonction convexe. D'autre part Mt est ume martingale et
Mt2 intégrable donc ψ(Mt ) = Mt2 est une F -sousmartingale

Exercice 4.

1. Montrons que Xt − E[Xt ] est une martingale

soit Ft la ltration naturelle associée à Xt ;


E[Xt |Fs ] = E[Xt − Xs + Xs |Fs ]

=E[Xt − Xs |Fs ] + Xs

Puisque X est un processus à accroissement indépendant on a :


E[Xt − Xs |Fs ] = E[Xt − Xs ]
donc E[Xt |Fs ] = E[Xt − Xs ] + Xs

=Xs − E[Xs ] + E[Xt ]


donc E[Xt |Fs ] − E[Xt ] = Xs − E[Xs ]
puisque E[Xt ] est deterministe on a alors :
E[Xt − E[Xt ]|Fs ] = Xs − E[Xs ]

2. Montrons que Xt2 − E[Xt2 ] est une martingale

9
E[Xt2 |Fs ] = E[(Xt − Xs + Xs )2 |Fs ]

=E[(Xt − Xs )2 + Xs2 + 2Xs (Xt − Xs )|Fs ]

=E[(Xt − Xs )2 ] + Xs2 + 2Xs E[Xt − Xs ] (1)

D'autre part :
E[Xt2 ] = E[(Xt − Xs + Xs )2 ]

=E[(Xt − Xs )2 ] + E[Xs2 ] + 2E[Xs ]E[Xt − Xs ] (2)

donc (1) -(2) donne : E[Xt2 |Fs ]−E[Xt2 ] = Xs2 −E[Xs2 ]+2Xs E[Xt −Xs ]−2E[Xs ]E[Xt −
Xs ]

si Xt est centré on retrouve bien l'expression d'une martingale

E[Xt2 − E[Xt2 ]|Fs ] = Xs2 − E[Xs2 ]


exp(λXt )
3.Montrons que Zt = E[exp(λXt )]
est une martingale

E[exp(λXt )|Fs ] = E[exp(λ(Xt − Xs ) + λXs )|Fs ]

puisque Xs est Fs -mesurable on a :

E[exp(λXt )|Fs ] = E[exp(λ(Xt − Xs ))|Fs ] exp(λXs )

puisque Xt − Xs ⊥ Fs on a :
E[exp(λXt )|Fs ] = E[exp(λ(Xt − Xs ))]E[exp(λXs )] (1)

D'autre part :
E[exp(λXt )] = E[exp(λ(Xt − Xs + Xs ))]
donc E[exp(λXt )] = E[exp(λ(Xt − Xs ))]E[exp(λXs )] (2)

En divisant la relation (1) par la relation (2) on obtient :

E[ E(exp(λX
exp(λXt )
t ))
|Fs ] = exp(λXs )
E[exp(λXs )]

d'où Zt est une martingale.

Exercice 5.

Soit (Bt , t ≥ 0) un mouvement Brownien réel.

Montrer que (Bt , t ≥ 0) est une martingale :


1-
- B est un mouvement Brownien, donc il est adapté.

10
- B est un mouvement Brownien, alors B intégrable et ∀t, E[|Bt |] ≤ ∞.
∀t ≥ s, E[Bt |Fs ] = E[Bt − Bs + Bs |Fs ]
= E[Bt − Bs |Fs ] + E[Bs |Fs ]
= E[Bt−s ] + Bs
= Bs
car B est un mouvement Brownien, et E[Bt−s ] = 0
Alors : E[Bt |Fs ] = Bs
Donc (Bt , t ≥ 0) est une martingale.

2- Montrer que (Bt2 − t, t ≥ 0) est une martingale :


- B est un mouvement Brownien, donc (Bt2 − t) est adapté.
- B est intégrable, alors (Bt2 − t) intégrable et ∀t, E[|Bt2 − t|] ≤ ∞.
- ∀t ≥ s, E[(Bt − Bs )2 |Fs ] = E[Bt2 − 2Bs Bt + Bt2 |Fs ]
= E[Bt2 |Fs ] − 2E[Bs Bt |Fs ] + E[Bs2 |Fs ]
= E[Bt2 |Fs ] − 2Bs E[Bt |Fs ] + Bs2
= E[Bt2 |Fs ] − 2Bs2 + Bs2
= E[Bt2 |Fs ] − Bs2
= E[Bt2 − Bs2 |Fs ]
alors E[Bt2 − Bs2 |Fs ] = E[(Bt − Bs )2 |Fs ]
= E[(Bt − Bs )2 ]
= V ar(Bt−s )
=t−s
Car (Bt , t ≥ 0) est une martingale et E[Bt |Fs ] = Bs .
Et (Bt , t ≥ 0) un mouvement Brownien et V ar(Bt−s ) = t − s.
alors : E[Bt2 − Bs2 |Fs ] = t − s
⇒ E[Bt2 − t|Fs ] = Bs2 − s, ∀t ≥ s.
Donc (Bt2 − t, t ≥ 0) est une martingale.

3- Montrer que (Bt3 − 3tBt , t ≥ 0) est une martingale :


- B est un mouvement Brownien, donc (Bt3 − 3tBt ) est adapté.
- B est intégrable, alors (Bt3 − 3tBt ) intégrable et ∀t, E[|Bt3 − 3tBt |] ≤ ∞.
- ∀t ≥ s, E[(Bt − Bs )3 |Fs ] = E[Bt−s
3
|Fs ] = 0 car Bt−s ∼ N (0, t − s)
⇒ E[(Bt − Bs )3 |Fs ] =0
= E[Bt3 − 3Bt2 Bs + 3Bt Bs2 − Bs3 |Fs ]
= E[Bt3 |Fs ] − 3E[Bt2 Bs |Fs ] + 3E[Bt Bs2 |Fs ] − E[Bs3 |Fs ]
= E[Bt3 |Fs ] − 3Bs E[Bt2 |Fs ] + 3Bs2 E[Bt |Fs ] − Bs3
= E[Bt3 |Fs ] − 3Bs (Bs2 − s + t) + 3Bs3 − Bs3
= E[Bt3 |Fs ] − 3Bs3 + 3sBs − 3tBs + 2Bs3
= E[Bt3 |Fs ] − 3tBs − Bs3 + 3sBs
= E[Bt3 − 3tBt |Fs ] − Bs3 + 3sBs
Car (Bt , t ≥ 0) est une martingale et E[Bt |Fs ] = Bs .
Et (Bt2 − t, t ≥ 0) est une martingale, E[Bt2 |Fs ] = Bs2 − s + t.
Alors E[Bt3 − 3tBt |Fs ] − Bs3 + 3sBs = 0
⇒ E[Bt3 − 3tBt |Fs ] = Bs3 − 3sBs .
Donc (Bt3 − 3tBt , t ≥ 0) est une martingale.

11
4- Montrer qu'un processus continu X est un mouvement Brownien si et seulement
si, pour tout λ le processus exp(λXt − 12 λ2 t) est une martingale :

→ Supposons que le processus continu X est un mouvement Brownien, Montrer que


pour tout λ le processus exp(λXt − 21 λ2 t) est une martingale :
Soit Yt = exp(λXt − 12 λ2 t), ∀λ, ∀t ≥ 0
- X est un mouvement Brownien alors, Y est adapté.
- X est un mouvement Brownien alors :
∀t ≥ 0, E[|Xt |] ≤ ∞ ⇒ E[|Yt |] ≤ ∞ .
- ∀t ≥ s, ∀λ on a :
E[Yt |Fs ] = E[exp(λXt − 12 λ2 t)|Fs ]
= E[exp(λ(Xt − Xs ) + λXs − 12 λ2 t)|Fs ]
= exp(λXs − 12 λ2 t)E[exp(λXt−s )|Fs ]
= exp(λXs − 12 λ2 t)E[exp(λXt−s )]
= exp(λXs − 12 λ2 t)E[exp(i(−iλ)Xt−s )]
= exp(λXs − 21 λ2 t)φXt−s (−iλ)
2
= exp(λXs − 21 λ2 t)exp(− (−iλ)2 (t−s) )
2
= exp(λXs − 21 λ2 t + ( λ (t−s)
2
)
= exp(λXs − 12 λ2 s)
Alors E[Yt |Fs ] = Ys .
Donc Yt = exp(λXt − 12 λ2 t), ∀λ, ∀t ≥ 0 et une martingale.

→ Supposons que pour tout λ le processus exp(λXt − 21 λ2 t) est une martingale, mon-
trer que le processus continu X est un mouvement Brownien :
On a Yt = exp(λXt − 21 λ2 t), ∀λ, ∀t ≥ 0 alors :
E[Yt |Fs ] = Ys
= E[exp(λ(Xt − Xs ) + λXs − 12 λ2 t)|Fs ]
= exp(λXs − 12 λ2 t)E[exp(λXt−s )|Fs ]
2
= exp(λXs − 21 λ2 s)exp(− λ2 (t − s))E[exp(λXt−s )|Fs ]
2
= Ys × exp(− λ2 (t − s))E[exp(λXt−s )|Fs ]
2
Alors exp(− λ2 (t − s))E[exp(λXt−s )|Fs ] = 1
2
⇒ E[exp(λXt−s )|Fs ] = exp( λ2 (t − s))
= φXt−s (−iλ)
Alors le processus X est un mouvement Brownien.

Exercice 6.
( )
σ2
Calculons l'esperance St , on a St = S0 exp (µ − 2
)t + σBt

12
Alors : ∀s 6 t
([ ) ]
σ2
E [St | Fs ] = E S0 exp (µ − )t + σBt | Fs
2
[ ( ) ]
σ2
= S0 exp (µt) E exp σBt − t | Fs
2

[ σ2
] [ σ2
]
E eσBt − 2 t | Fs = E eσ(Bt −Bs )+σBs − 2 t | Fs
σ2 [ ]
= eσBs − 2 t E eσ(Bt −Bs ) | Fs
σ2 [ ]
= eσBs − 2 t E eσBt−s | Fs
σ2
= eσBs − 2
t
φ (−iσ)

avec φ la fonction caractéristique de Bt−s avec Bt−s ∼ N (0, t − s)


si Y v.a telle que Y ∼ N (m, σ 2 ) alors la fonction caractéristique de Y
σ 2 t2
s'écrit φ (t) = eimt− 2 alors :

[ σ2
] σ2
E eσBt − 2 t | Fs = eσBs − 2 t e−(−iσ) 2
2 t−s

σ2
= eσBs − 2
t+σ 2 t−s
2

σ2
= eσBs − 2
s

Donc :
σ2 s
E [St | Fs ] = S0 eµt eσBs − 2

Exercice 7.

Montrons que les processus sont browniens :


1-On pose :
1
At = Ba2 t (0.0.1)
a
* At est continu car B est continu
* At est un processus gaussien car B est aussi gaussien
* On a :

1
E(At ) = E( Ba2 t )
a
1
= E(Ba2 t ) (0.0.2)
a
=0

13
alors At est un processus centré
* Et d'une autre part calculons la cov(At , As )

1 1
cov(At , As ) = cov( Ba2 t , Ba2 s )
a a
1
= 2 cov(Ba2 t , Ba2 s )
a
1
= 2 (E(Ba2 t Ba2 s ) − E(Ba2 t )E(Ba2 s ))
a
1
= 2 E(Ba2 t Ba2 s ) (0.0.3)
a
1
= 2 (a2 t ∧ a2 s)
a
1
= 2 a2 (t ∧ s)
a
=t∧s

Et de là nous pouvons conclure que At est un mouvement browien


2-on pose :

Ct = Bt+to − Bto (0.0.4)


* Ct est continu car B est continu
* Ct est un processus gaussien car B est aussi gaussien
* On a :

E(Ct ) = E(Bt+to − Bto )


(0.0.5)
=0

Car on a Bt+to − Bto ∼ N (0, t)


alors Ct est un processus centré
* Et d'une autre part calculons la cov(Ct , Cs )

cov(Ct , Cs ) = cov(Bt+to − Bto , Bs+to − Bto )


= E((Bt+to − Bto )(Bs+to − Bto )) − E(Bt+to − Bto )E(Bs+to − Bto )
= E((Bt+to − Bto )(Bs+to − Bto ))
= E(Bt+to Bs+to ) − E(Bto Bt+to ) + E(Bt2o ) − E(Bto Bs+to )
(0.0.6)
= (t + to ) ∧ (s + to ) − to + to − to
= (t + to ) ∧ (s + to ) − to
= to + (t ∧ s) − to
=t∧s

Et de là nous pouvons conclure que Ct est un mouvement browien


3-on pose :

14
Dt = tB 1 (0.0.7)
t
* Nous avons un problème de continuité en 0 car tB 1 n'est pas denie en 0, montrons
t
alors la continuité en 0 :
Montrons d'abord le résultat suivant :
Bn
−→ 0p.s (0.0.8)
n
on a :

1∑
t
Bn
= Bi − Bi−1
n n i=1
(0.0.9)
1∑
t
= Mi
n i=1

On a les Mi sont iid ( identiquement independants distribués)


et on a :


t
E(Mi ) = E(Bi − Bi−1 )
i=1
∑t
(0.0.10)
= E(Bi ) − E(Bi−1 )
i=1
=0<∞

D'après la loi des grands nombres ( iid + ni )


∑t
i=1 Mi
−→ E(M1 ) = 0 (0.0.11)
n
D'où le resultat :
Bn
−→ 0p.s (0.0.12)
n
Pour notre cas, on a : Dt = tB 1
t
Alors posons le changement de variable suivant :
posons s = 1t alors t = 1s
Donc
Bs
D1 = −→ 0p.s (0.0.13)
s
s
D'où Dt −→ 0
Alors la continuité est veriée.

15
* Montrons que D0 = 0 p.s
Soit 0 < t1 ≤ t2 ≤ ... ≤ tn et Dt = tB 1
t
(Dt1 ,Dt2 ,...,Dtn ) suivent la meme loi que (Bt1 ,Bt2 ,...,Btn )
et max|Dti | suit la meme loi que max|Bti | avec i ∈ [1, n]
Soit D un ensemble dénombrable
∀t > 0
sup|Ds | avec s ∈ [0, t] ∩ D suit la meme loi que sup|Bs | avec s ∈ [0, t] ∩ D
∀n ≥ 1 ,on pose :
1
ı = sup|Ds | et ϑ = sup|Bs | avec s ∈ [0, ] ∩ D
n
ı et ϑ suivent la meme loi
ϑ −→ 0 car B0 = 0 p.s
donc ı −→ 0
Alors D0 = 0 p.s
*Dt est un processus gaussien car B est gaussien
*Montrons que Dt est centré :
E(Dt ) = E(tB 1 ) = tE(B 1 ) = 0
t t
* Et d'une autre part calculons la cov(Dt , Ds ),
cov(Dt , Ds ) = cov(tB 1 , sB 1 )
t s
= tscov(B 1 , B 1 )
t s
= ts(E(B 1 B 1 ) − E(B 1 )E(B 1 )) (0.0.14)
t s t s
= tsE(B 1 B 1 )
t s
1 1
= ts( ∧ )
t s
1 1
si s < t alors > et donc :
s t
1
cov(Dt , Ds ) = ts
t (0.0.15)
=s
1 1
Et si t < s alors > et donc :
t s
1
cov(Dt , Ds ) = ts
s (0.0.16)
=t
Et de là nous pouvons conclure que Dt est un mouvement browien

16
Exercice 8.
Soit Z ∼ N (0, 1)
On pose : Xt = tZ , ∀t ≥ 0
Soit X = {Xt ; t ≥ 0} un processus à trajectoires continues, avec Xt ∼ N (0, t)
Est ce que Xt est un MB ?
Méthode 01 :
• On a X un processus à trajectoires continues
⇒ Xt est continu
• On a Xt ∼ N (0, t) ⇒ Xt est gaussien
• On a Xt ∼ N (0, t) ⇒ E(Xt ) = 0 ⇒ Xt est centré
• On a Cov(Xt , Xs ) = Cov(tZ, sZ), ∀s, t ∈ [0, T ]
⇒ Cov(Xt , Xs ) = tsCov(Z, Z)
⇒ Cov(Xt , Xs ) = tsVar(Z)
⇒ Cov(Xt , Xs ) = ts · 1
⇒ Cov(Xt , Xs ) = ts
⇒ Cov(Xt , Xs ) ̸= t ∧ s
Donc X n'est pas un mouvement brownien
Méthode 02 :
• On a X0 = 0 · Z = 0
• On a X est continu
• On a Xt + s − Xt = (t + s)Z − tZ
⇒ Xt + Xs − Xt = (t + s − t)Z
⇒ Xt + Xs − Xt = sZ
s
⇒ Xt + Xs − Xt = · tZ
t
s
⇒ Xt + Xs − Xt = · Xt
t
Donc Xt + Xs − Xt dépend de Xt
D'où X n'est pas accroissemnets indépendants
Alors X n'est pas un mouvement brownien .

Exercice 9.

Soit le pont Brownien dénit par :

Zt = Bt − tB1 ,0 ≤ t ≤ 1

1)Montrons que Z est un processus gaussien indépendant de B1 .Précisons sa moyenne,


sa fonction de covariance et sa loi :

-Montrons D'abord que Z est un processus gaussien :


Prenons une suite quelconque de temps croissant 0 ≤ t1 ≤ ... ≤ tn ≤ 1 et un ensemble
de n réels a1 , ...,
∑ann .
Montrons
∑ que i=1∑ ai Zti est une∑
variable gaussienne . ∑
On a ni=1 ai Zti = ni=1 ai Bti + ni=1 −ai B1 est de la forme m i=1 ai ′Bti ′
Comme (Bt )t∈ℜ+ est un processus gaussien,il s'agit donc d'une variable aléatoire gaus-
sienne .

17
On en conclut que (Zt )t∈[0,1] est un processus gaussien.

-indépendant de B1 :
On a

cov(Z, B1 ) = cov(Bt − tB1 , B1 )


= cov(Bt , B1 ) − tcov(B1 , B1 )
= (t ∧ 1) − t(1 ∧ 1)
=t−t=0

Alors Z et B1 sont indépendant.

-Sa moyenne :
Pour tout t ∈ [0, 1]

E[Zt ] = E[Bt ] − tE[B1 ] = 0

On a donc un processus centré.

-Sa covariance :
∀0 ≼ s ≼ t ≼ 1,on a :
cov(Zt , Zs ) = E[Zt Zs ] = E[(Bt ] − tE[B1 Bs ] − sE[B1 )]
= E[Bt Bs ] − tE[B1 Bs ] − sE[Bt B1 ] + tsE[B12 ]
= t − ts − ts + ts
= t(1 − s)

-La loi :
On a que :
V (Zt ) = cov(Zt , Zt ) = t(1 − t) = t − t2
Donc Zt ≃ N (0, t − t2 )

2)Montrons que le processus Z̃ avec Z̃ = Z1−t a même loi que Z :


Z̃ = Z1−t = B1−t − (1 − t)B1 est gaussien
pour s ≼ t

cov(Z̃t , Z̃s ) = E[Z̃t , Z̃s ]


= E[(B1−t − (1 − t)B1 )(B1−s − (1 − s)B1 )]
= E[B1−t B1−s ] − (1 − s)E[B1 B1−t ]( 1 − t)E[B1 B1−s ] + (1 − t)(1 − s)E[B12 ]
= (1 − t) ∧ (1 − s) − (1 − s)(1 − t) − (1 − t)(1 − s) + (1 − t)(1 − s)
= (s ∧ t) − st = s(1 − t)

Alors V (Z̃t ) = t(1 − t) = t − t2


d'où Z̃t ≃ N (0, t − t2 )

3)Montrons que Y avec Yt = (1 − t)B t ,0 ≺ t ≺ 1 a la même loi que Z :


1−t
Le processus Y est un processus gaussien.
Pour s ≼ t,on a :

18
cov(Yt , Ys ) = E(Yt , Ys )
= (1 − t)(1 − s)E[B 1−t t B s ]
1−s

puisque s ≼ t alors ,

cov(Yt , Ys ) = (1 − t)(1 − s) 1−s


s
= s(1 − t)

Alors

V (Yt ) = cov(Yt , Yt ) = t(1 − t) = t − t2

Donc Yt ≃ N (0, t − t2 )

Exercice 10.

Soit (Zn , 0 ≤ n ≥ N ) une suite de v.a.r adaptée à une ltration (Fn ). Dénissons par
récurrence descendante une suite (Un , 0 ≤ n ≥ N ) par les égalités :
UN = ZN ; Un = sup(Zn , E[U(n+1 |Fn ]) (0 ≤ n ≥ N )
1- Montrer que (Un ) est une surmartingale majorant (Zn ) :
On a Un = sup(Zn , E[U(n+1 |Fn ]) (0 ≤ n ≥ N ) alors :
Un ≥ E[U(n+1 |Fn ] et Un ≥ Zn
Donc (Un ) est une surmartingale majorant (Zn )

2- Montrer que (Un ) enveloppe de Snell de (Zn ) est la plus petite surmartingale ma-
jorant (Zn ) :
Soit (Wn ) une autre suite de v.a.r adaptée à une ltration (Fn ), telle que (Wn ) est une
surmartingale et ∀n, Wn ≥ Zn , il faut montrer que ∀n, Wn ≥ Un
Par la récurrence descendante on a : WN ≥ ZN = UN
Supposons que ∀n, Wn+1 ≥ Un+1 alors montrer que ∀n, Wn ≥ Un .
on a (Wn ) est une surmartingale alors : Wn ≥ E[W(n+1 |Fn ]
et ∀n, Wn+1 ≥ Un+1 ⇒ E[Wn+1 |Fn ] ≥ E[Un+1 |Fn ]
alors : Wn ≥ E[U(n+1 |Fn ], or ∀n, Wn ≥ Zn
donc : Wn ≥ sup(Zn , E[U(n+1 |Fn ]) = Un
Finalement : ∀n, Wn ≥ Un et (Un ) est la plus petite surmartingale majorant (Zn ).

Exercice 11.

1. Pour Xt = Bt2
Soit f (x) = x2 et f (Bt ) = Bt2
Donc
1
dBt2 = 2Bt dBt + 2dt
2
dXt = 2Bt dBt + dt.

19
2. Pour Xt = Bt3
Soit f (x) = x3 et f (Bt ) = Bt3 Donc

1
dBt3 = 3Bt2 dBt + 6Bt dt
2
dXt = 3Bt2 dBt + 3Bt dt.

3. Pour Xt = 2 + t + exp(Bt )
Soit f (x) = 2 + t + exp(x) et f (Bt ) = 2 + t + exp(Bt )

1
df (Bt ) = dt + eBt dBt + eBt dt
2
1
dXt = eBt dBt + (1 + eBt )dt
2
1
dXt = (Xt − 2 − t)dBt + (1 + (Xt − 2 − t))dt
2
1
dXt = (Xt − 2 − t)dBt + (Xt − t)dt
2

4. Pour Xt = exp(ct + aBt )


Soit f (x) = exp(ct + ax) et f (Bt ) = exp(ct + aBt )

a2 ct+aBt
dXt = cect+aBt dt + aect+aBt dBt + e dt
2
a2
= aect+aBt dBt + (cect+aBt + ect+aBt )dt
2
a2
= aXt dBt + (cXt + Xt )dt.
2
Exercice 12.

−1
1. * Soit dXt = 1−t 1
Xt dt + 1−t dBt , ∀t ≥ 0.
On multiplie les deux côtés par 1 + t.
D'où (1 + t)dXt = −Xt dt + dBt .
On pose Yt = (1 + t)Xt , et on utilise la formule d'intégration par parties.
Alors dYt = (1 + t)dXt + Xt dt + d⟨Xt , (1 + t)⟩t
= −Xt dt + dBt + Xt dt
(car ⟨X, (1 + t)⟩t = 0, puisque (1 + t) est variation f ini)
= dBt
Donc on tombe sur d(1 + t)Xt = dBt
dBt
dXt =
1+t
Bt
Xt =
1+t

20
Alors Xt = 1+tBt
est la solution de l'EDS.
* Pour l'espérance, on a :
Bt 1
E[Xt ] = E[ ]= E[Bt ] = 0
1+t 1+t
car Bt est un mouvement brownien.
* Pour la variance, on a :
1 t
V ar(Xt ) = V ar(Bt ) =
(1 + t)2 (1 + t)2
car Bt est un mouvement brownien.

2. * Soit dXt = −Xt dt + e−t dBt , ∀t ≥ 0.


On pose Yt = −Xt et , et on utilise la formule d'intégration par parties.
Alors dYt = −et dXt − et Xt + d⟨X, et ⟩t
= −et (−Xt dt + e−t dBt ) − et Xt dt
(car ⟨X, et ⟩t = 0, puisque et est variation f ini)
= −dBt
Donc on tombe sur d(−et Xt ) = −dBt
dXt = e−t dBt
Xt = e−t Bt
Alors Xt = e−t Bt est la solution de l'EDS.
* Pour l'espérance, on a :
E[Xt ] = E[e−t Bt ] = e−t E[Bt ] = 0
car Bt est un mouvement brownien.
* Pour la variance, on a :
V ar(Xt ) = e−2t V ar(Bt ) = te−2t
car Bt est un mouvement brownien.

3. * Soit dXt = (m − Xt )dt + σdBt , ∀t ≥ 0.


On commence tout d'abords par multiplier les deux côtés de l'équation précédente
par le terme et . On obtient alors :
et dXt = et (m − Xt )dt + et σdBt
Après on pose Yt = et (m−Xt ) puis on applique la formule d'intégration par partie.
D'où :
dYt = d(et (m − Xt ))
= −et dXt + et (m − Xt )dt + d⟨et , (m − X)⟩t
= −et dXt + et (m − Xt )dt (car et est variation borne)
= −σet dBt − et (m − Xt )dt + et (m − Xt )dt
= −σet dBt

21
Alors d(et (m − Xt )) = −σet dBt ∫t
D'où et (m − Xt ) − (m − X0 ) = −σ 0 es dBs
∫t
Donc Xt = (1 − e−t )m + e−t X0 + σ 0 es−t dBs est la solution de l'EDS proposée.
* Pour l'espérance, on a : ∫ t
−t −t
E[Xt ] = (1 − e )m + e X0 + σE[ es−t dBs ]
0
−t −t
= (1 − e )m + e X0

* Pour la variance, on a :
On commence par le calcul de la covariance puis on déduit la variance.
On a ∀t ̸= t′ , Cov(Xt′ , Xt ) = E[(Xt′ − E[Xt′ ])(Xt − E[Xt ])]
∫ t′ ∫ t
s−t′
= E[(σ e dBs )(σ eu−t dBu )]
0 0
∫ t′ ∫ t

= σ 2 et −t E[( es dBs )( eu dBu )]
0 0
σ2 ′ ′
= et −t (e2(t∧t ) − 1)
2
Dans ce qui précède on a utilisé la propriété d'Isométrie
∫ T d'Itô qui donne∫pour T
deux fonctions f, g , du mouvement brownien W , avec E[ 0 f 2 (t)]dt < ∞ et E[ 0 g 2 (t)dt] <
∞, donc : (∫ ) (∫ ) ∫
T T T
E f (t)dWt g(t)dWt =E f (t)g(t)dt
0 0 0

Dans notre cas on avait f (t) = g(t) = et .


Alors quand t = t′ , on obtient :

V ar(Xt ) = σ2
2
(1 − e−2t )
4. Avant de commencer la démonstration, on va développer le terme b−Yt
.
∫ t 1−t
dBs
En eet, on a : b − Yt = b − a(1 − t) − bt − (1 − t)
0 1−s
∫ t
dBs
= b(1 − t) − a(1 − t) − (1 − t)
∫ t dBs 0 1−s
Donc on obtient : 1−t = b − a − 0 1−s (O)
b−Yt

22
t ∫
dBs
Alors d(Yt ) = d[a(1 − t) + bt + (1 − t) ]
0 1−s
∫ t
dBs
= d[(1 − t)(a + ) + bt]
0 1−s
∫ t ∫ t
dBs dBs
= (1 − t)d[a + ] − (a + )dt + bdt
0 1−s 0 1−s
∫ t
dBt dBs
= (1 − t) + [b − a − ]dt
1−t 0 1−s
b − Yt
= dt + dBt
1−t ∫t s
Donc Yt = a(1 − t) + bt + (1 − t) 0 dB
1−s
est solution de l'EDS proposée.
5. * Montrer que Bt est une F martingale ?

On a Bt est un processus adapté et intégrable.


Et E[Bt |Fs ] = E[Bt − Bs + Bs |Fs ]
= E[Bt − Bs |Fs ] + Bs
= E[Bt − Bs ] + Bs (car Bt − Bs est un A.I)
= 0 + Bs = Bs
Donc Bt est une martingale.

* Montrer que Bt2 − t est une F martingale ?

On a Bt2 − t est un processus adapté et intégrable.


D'une part, on a E[(Bt − Bs )2 |Fs ] = E[Bt2 |Fs ] + Bs2 − 2Bs E[Bt |Fs ]
= E[Bt2 |Fs ] − Bs2 (car E[Bt |Fs ] = Bs )
= E[Bt − Bs |Fs ]
2 2

D'autre part, on a E[(Bt − Bs ) |Fs ] = E[(Bt − Bs )2 ]


2
(car Bt − Bs est un A.I)
= V ar(Bt − Bs )
=t−s (car Bt − Bs ∼ N (0, t − s))
Donc E[Bt2 − Bs2 |Fs ] = t − s ⇐⇒ E[Bt2 − t|Fs ] = Bs2 − s.
Donc Bt2 − t est une martingale.
σ2
* Montrer que e(σBt − 2
t)
est une F martingale ?

σ2
On a e(σBt − 2
t)
est un processus adapté et intégrable.
2 −σ 2
(σBt − σ2 t)
On a E[e |Fs ] = e 2
t
eσBs E[eσ(Bt −Bs ) |Fs ]
−σ 2
= e 2 t eσBs E[eσ(Bt −Bs ) ] (car Bt − Bs est un A.I)
Et on sait que ϕX (t) = E[eitX ], alors E[eσ(Bt −Bs ) ] = E[eσ(Bt−s ) ] = ϕBt−s (−iσ) =
σ2
(t−s)
e 2

23
σ2 −σ 2 σ2 σ2
Donc E[e(σBt − 2
t)
|Fs ] = e 2
t
eσBs e 2
(t−s)
= e(σBs − 2
s)
.
2
(σBt − σ2 t)
D'où e est une martingale.

Exercice 13.

1. Si at = 0 p.s, il sut de remplacer at dans l'EDS dXt = at dt + dBt , pour voir que
dXt = dBt ⇐⇒ Xt = Bt càd que Xt est un mouvement brownien, donc c'est une
martingale.

2. On a dXt = v(t, w)dBt , on sait que d'après la propriété vu dans le cours qu'un
processus d'Itô vériant les C.I est une martingale ssi sa partie en dt est nulle. Xt
est une intégrale stochastique par rapport∫ au mouvement brownien Bt , d'où X est
T
une martingale avec la supposition de E[ 0 |v(t, w)|2 dt] < ∞.
Maintenant sachant que Xt est une martingale, et en prenant ϕ(x) = x2 . On vérie
facilement que ϕ(Xt ) est intégrable et convexe car ϕ′′ (x) = 2 > 0.
D'après le lemme vu dans le cours, on a X une martingale, ϕ(Xt ) intégrable et ϕ
convexe ⇒ ϕ(Xt ) = Xt2 est une sous-martingale.
Alors Xt2 n'est pas toujours une martingale, c'est une sous-martingale.
3. Soit Xt la solution de l'équation dXt = v(t, w)dBt .
On sait que la variation quadratique∫ de ce dernier (qui est un processus d'Itô)
t
s'écrit de la façon suivante : ⟨X⟩t = 0 |v(s, .)|2 ds.
Sachant que Xt est une martingale continue de carré ∫ t intégraple. D'après la décom-
position de Doob Meyers, on déduit que : Xt − 0 |v(s, .)| ds est une martingale.
2 2
∫t
Donc Mt = Xt2 − 0 |v(s, .)|2 ds est une martingale.

4. Considérons le processus S̃t = e−rt St .


D'après le cours, on sait qu'un processus d'Itô est la somme d'une martingale est
un processus de variation bornée.
En appliquant la formule d'Itô (intégration par parties) sur le processus S̃t , on
obtient :
dS̃t = d(e−rt St )
= e−rt dSt − re−rt St dt + d⟨e−rt , S⟩t (Avec d⟨e−rt , S⟩t = 0, car e−rt est de variation borne)
= µe−rt St dt + σe−rt St dBt − re−rt St dt
= e−rt St (µ − r)dt + σe−µt St dBt
= e−rt St [(µ − r)dt + σdBt ]
= S̃t [(µ − r)dt + σdBt ]
Donc S̃t est un processus d'Itô.
5. Soit Ct le prix d'une option sous-jacent de St .
On a C̃t = e−rt Ct le prix actualisé avec C̃t = F (t, S̃t ), où F est une fonction de
classe C 2 .
On applique la formule d'Itô sur C̃t , d'où :

24
dC̃t = dF (t, S̃t )
∫ ˜u ) ∫ t ˜u ) ∫ t 2
dF t
(u, S dF (u, S 1 d F (u, S˜u )
= F (0, S˜0 ) + dS˜u + du + d⟨S̃, S̃⟩u
0 dx 0 dt 2 0 dx2
D'une part, on a d'après l'égalité de la question (4), si on pose Wt = Bt + µ−r σ
t
on tombe sur le résultat suivant dS̃t = S̃t σdWt .
D'autre part cette même égalité nous permet de déduire que d⟨S̃, S̃⟩u = σ 2 S̃t du.
On revient à notre calcul du début, on trouve alors :
∫ t ∫ t ∫
˜ dF (u, S˜u ) dF (u, S˜u ) 1 t d2 F (u, S˜u ) 2
dC̃t = F (0, S0 ) + S̃t σdWt + du + σ S̃t du
0 dx 0 dt 2 0 dx2
∫ t ∫ t
˜ dF (u, S˜u ) dF (u, S˜u ) 1 d2 F (u, S˜u ) 2
= F (0, S0 ) + S̃t σdWt + [ + σ S̃t ]du
0 dx 0 dt 2 dx2
∫ t ˜u ) ∫ t
dF (u, S
= F (0, S˜0 ) + S̃t σdWt + Ku du
dx
0
∫ t dF (u,S˜u ) 0
∫t
Donc dC̃t = F (0, S˜0 ) + 0 dx
S̃ t σdW t + 0
Ku du, d'où C̃t est un processus
d'Itô.

6. Soit Bt un mouvement brownien et Ft sa ltration naturelle. Soit Xt un processus


stochastique vériant l'EDS : dXt = Xt (µ(t)dt + σ(t)dBt ).

(a) Pour trouver l'EDS satisfaite par Yt , on applique l'intégration par parties sur
cette dernière.
∫t
dYt = d(Xt e 0 −µ(s)ds )
∫t ∫t ∫t
−µ(s)ds −µ(s)ds −µ(s)ds
=e 0 dXt + Xt d(e 0 ) + d⟨X, e 0 ⟩t
∫t ∫t
−µ(s)ds −µ(s)ds
=e 0 dXt − µ(t)Xt e 0 dt
∫t
= e 0 −µ(s)ds (dXt − µ(t)Xt dt)
∫t
Donc : dYt = −µ(t)Yt dt + e 0 −µ(s)ds dXt . C'est l'EDS vériée par Yt .
(b) D'après ∫(6-a), on a :
t
dYt = e 0 −µ(s)ds (dXt − µ(t)Xt dt)
∫t
−µ(s)ds
dYt = e 0 (Xt µ(t)dt + Xt σ(t)dBt − Xt µ(t)dt)
∫t
dYt = Xt e 0 −µ(s)ds σ(t)dBt
dYt = Yt σ(t)dBt
Alors
∫ t 2 Yt2 est une martingale locale. On dit qu'elle est une Martingale car
E[ 0 Yt σ (t)dt] < ∞.

(c) On sait d'après (b) que Yt est une martingale.


Alors pour t ≤∫ T , on a E[YT /Ft ]∫= Yt P.S.
T t
Donc E[XT e 0 −µ(s)ds |Ft ] = Xt e 0 −µ(s)ds ∫
t
On fait multiplier l'équation par le terme e 0 µ(s)ds car il ne dépend pas de la

25
ltration. Avec le développement :
∫T ∫t ∫T
−µ(s)ds µ(s)ds −µ(s)ds
e 0 e 0 =e t

∫T
−µ(s)ds
Par conséquent : Xt = E[XT e t |Ft ]
Exercice 14.

1.(Hti ) sont adaptés. ils vérient :


∫T ∫T ∫T
0
(Hsi )2 ds < 0 (Hs1 )2 ds + 0 (Hs2 )2 ds = T < +∞
donc
∫T i 2
0
(Hs ) ds < +∞ i = 1, 2
∫t
Les intégrales 0
Hsi dBsi sont biens dénies.
∫t
2. Etant donné que les processus Hti sont Ft -adaptés, les intégrales 0 Hsi dBs peuvent
être vus comme limites d'une somme de processus adaptés. donc Xt est Ft adapté
d'autre part :
∫t ∫t ∫t ∫t
E[( 0 H 1 dBs + 0 H 2 dBs )|Fs ] = E[ 0 H 1 dBs |Fs ] + E[ 0 H 2 dBs |Fs ]
∫t
or on a la propriété E[ s H i dBu |Fs ] = 0
donc
∫t ∫s
E[ 0 H i dBu − 0 H i dBu |Fs ] = 0
∫t
et puisque 0 H i dBs est Ft - adaptée on a :
∫t ∫s
E[ 0 H i dBu |Fs ] = 0 H i dBu

ce qui donne E[Xt |Fs ] = Xs

et puisque Xt est intégrable, Xt est une martingale

le processus Xt est bien évidemment continu comme étant une somme de processus
continus

3. Montrons que Mtu est une martingale :


soit G(x)=exp(iux)
en vertu de la formule
∫ t d'ito on a : ∫ t
G(Xt ) = G(X0 ) + 0 G′ (Xs )dXs + 21 0 G′′ (Xs )d⟨Xs ⟩

ce qui donne
∫t u2
∫t
exp(iuXt ) = exp(iuX0 ) + iu 0
exp(iuXm )dXm − 2 0
exp(iuXm )d⟨Xm ⟩

u2
∫t ∫t
exp(iuXt ) + 2 0
exp(iuXm )dm = 1 + iu 0
exp(iuXm )dXm
∫t
Donc Mtu = 1 + iu 0
exp(iuXm )dXm

26
∫t 1 1
∫t 2 2
= 1 + iu 0
exp(iuXm )Hm dBm + iu 0
exp(iuXm )Hm dBm

les processus exp(iuXm )H


∫ t m et exp(iuX1m )H1m etant
1 2
∫ t adaptés
les intégrales stochastiques 0 exp(iuXm )Hm dBm et 0 exp(iuXm )Hm 2 2
dBm sont des mar-
tingales
∫s ∫s
donc E[Mtu |Fs ] = 1 + iu 0
1
exp(iuXm )Hm 1
dBm + iu 0
2
exp(iuXm )Hm 2
dBm

=Msu

d'où Mtu est une martingale.

4.) Puisque Mtu est une martingale on a : ∀t > s


E[E[Mtu |Fs ]] = E[Msu ]

donc E[Mtu ] = E[M0u ] = 1 (par continuité de l'intégrale stochastique)

Déduisons l'equation diérentielle vériée par la fonction f u (t) = E(exp(iuXt ))

u2
∫t
Mtu = exp(iuXt ) + 2 0
exp(iuXm )dm
2 ∫t
E[Mtu ] = E[exp(iuXt )] + E[ u2 0
exp(iuXm )dm]
2 ∫t
1 = f u (t) + E[ u2 0
exp(iuXm )dm]

en dérivant par rapport à t on a :


0 = f ′ + u2 E[exp(iuXt )]
2

0 = f′ + u2
2
f (1)

Résolvons cette équation

f′ −u2
(1) donne f
= 2

−u2
donc ln(f ) = 2
t
−u2
f = ke( 2
t)

f (0) = 1 implique que k = 1


−u2
d'où f (t) = e( 2
t)

5. f (t) est la fonction caractéristique de Xt il s'en suit que Xt est une variable qui
suit une loi normale telle que E[Xt ] = 0 et V ar(Xt ) = t

27
On peut retrouver l'expresssion de la variance de Xt grâce à la relation (H 1 )2 +
(H 2 )2 = 1 et l'indépendance des mouvement browniens.

Exercice 15.
∫ t
On a Xt = σ(s)dBs , Xt étant l'intégrale d'un processus adapté, X0 = 0 et
0 ∫ t
l'isométrie d'Itô donne V (Xt ) = Xt =
2
σ 2 (s)ds
0
⇒ la loi de Xt :
étant intégrale stochastique de fonctions déterministes
∫ t
⇒ X ∼ N (0, σ 2 (s) ds)
0
∫ u
ϕX (u) = eiuxt = eiux fx (t)dt
−∞
( )
σ 2 t2
(or on a X ∼ N (0, σ 2 ) ⇒ ϕX (u) = exp 2
)
∫ t
exp( −u2
2
Alors e iuxt
= σ 2 (s)ds) ∀ u R
0

Exercice 16.

1-Déterminons l'EDS dont St−1 est solution :


2
σ
On a : St = exp((µ − )t + σBt )
2
L'EDS veriée par St est : dSt = St (µdt + σdBt )
1
Posons : U (t) =
t
D'après la formule d'ito on a :

∫ t ∫
1 t ′′

U (St ) = U (S0 ) + U (Ss )dSs + U (Ss )d < Ss >
2 0
∫ t 0
∫ t 2 2
−1 −1 σ Ss
=⇒ St = 1 + 2
dSs + ds
0 Ss 0 Ss3
−dSt σ 2
=⇒ dSt−1 = + dt (0.0.17)
St2 St
µdt + σdBt
=− + σ 2 St−1 dt
St
= −St−1 (µdt + σdBt ) + σ 2 St−1 dt
= St−1 ((σ 2 − µ)dt − σdBt )

2-Démontrons que d(Xt St−1 ) = St−1 ((µ′ − σσ ′ )dt + σ ′ dBt ) :


Par la formule d'integration par partie on a :

28
d(Xt St−1 ) = Xt dSt−1 + St−1 dXt + d < Xt , St−1 > (0.0.18)
*On sait d'après la question précédente que :
Xt dSt−1 = Xt St−1 ((σ 2 − µ)dt − σdBt ) (0.0.19)
* Et on :

dXt = (µXt + µ′ )dt + (σXt + σ ′ )dBt


(0.0.20)
=⇒ St−1 dXt = (µSt−1 Xt + µ′ St−1 )dt + (σXt St−1 + σ ′ St−1 )dBt
* Et également :

d < Xt , St−1 >= (−σ 2 Xt St−1 − σ ′ σSt−1 )dt (0.0.21)


Alors :

d(Xt St−1 ) = Xt St−1 ((σ 2 − µ)dt − σdBt ) + (µSt−1 Xt + µ′ St−1 )dt + (σXt St−1 + σ ′ St−1 )dBt
+ (−σ 2 Xt St−1 − σ ′ σSt−1 )dt
= Xt St−1 σ 2 dt − µXt St−1 dt − σXt St−1 dBt + µXt St−1 dt + µ′ St−1 dt + σXt St−1 dBt + σ ′ St−1 dBt
− σ 2 Xt St−1 dt − σ ′ σSt−1 dt
= St−1 ((µ′ − σσ ′ )dt + σ ′ dBt )
(0.0.22)
3-Déduisons une expression de Xt :
On remarque que si : µ′ = −µ et σ ′ = −σ
Alors :

d(Xt St−1 ) = St−1 ((σ 2 − µ)dt − σdBt )


(0.0.23)
= dSt−1
Alors :
=⇒ Xt = 1 (0.0.24)
Et on sait que :

∫ t ∫ t

Xt = (µXr + µ )dr + (σXr + σ ′ )dBr = 1
∫0 t ∫0 t
⇒ (µXr − µ)dr + (σXr − σ)dBr = 1
0
∫ t 0
∫ t (0.0.25)
⇒ (µXr dr + σXr dBr ) = 1 + µdr + σdBr
0 0
∫ t
= 1 + µt + σ dBr
0

29
Alors :

∫ t ∫ t

Xt = (µXr + µ )dr + (σXr + σ ′ )dBr
∫0 t ∫ t 0
∫ t ∫ t

= µXr dr + µ dr + σXr dBr + σ ′ dBr
0
∫ t0 ∫ t0 ∫ t 0

= 1 + µt + σ dBr + µ′ dr + σ ′ dBr
(0.0.26)
∫0 t 0
∫ t0
= 1 + µt + σ dBr + µ′ t + σ ′ dBr
0
∫ t 0

′ ′
= 1 + (µ + µ )t + (σ + σ ) dBr
0
= 1 + (µ + µ′ )t + (σ + σ ′ )Bt

Exercice 17.

1. Montrons d'abord que ⟨X, Y ⟩t = lim (Xtk − Xtk−1 )(Ytk − Ytk−1 )
||p||→0
où p est une subdivision de l'intervalle 0 à t et ||p|| son pas
Par dénition∑la variation 0 à t et quadratique de Xt est donnée par :
⟨Xt ⟩ = lim (Xtk − Xtk−1 )2 ; donc
||p||→0
1
4
( ⟨X∑ + Y ⟩ − ⟨X − Y ⟩)= 14 ∑
( lim (Xtk − Xtk−1 + Ytk − Ytk−1 )2 − lim ((Xtk − Xtk−1 ) − (Ytk − Ytk−1 ))2 )
||p||→0 ||p||→0

= 14 (⟨X⟩ + ⟨Y ⟩ + 2∗ lim (Xtk − Xtk−1 )(Ytk − Ytk−1 )) − (⟨X⟩ + ⟨Y ⟩ −
||p||→0

2∗ lim (Xtk − Xtk−1 )(Ytk − Ytk−1 ))
||p||→0

= 14 (4∗ lim (Xtk − Xtk−1 )(Ytk − Ytk−1 ))
||p||→0

d'où ⟨X, Y ⟩ = lim (Xtk − Xtk−1 )(Ytk − Ytk−1 )
||p||→0
Montrons à présent la bilinéarité :
 dénie positive ∑
⟨X, X⟩ = lim (Xtk − Xtk−1 )2 ≥ 0
||p||→0
si X = 0 ps ⟨X, X⟩ = 0
 symétrie ∑
⟨Y, X⟩ = lim (Ytk − Ytk−1 )(Xtk − Xtk−1 )
||p||→0

= lim (Xtk − Xtk−1 )(Ytk − Ytk−1 )
||p||→0
=⟨X, Y ⟩
 linéarité par rapport ∑
à la première variable
⟨αX + Z, Y ⟩ = lim [(αXtk − αXtk−1 ) + (Ztk − Ztk−1 )](Ytk − Ytk−1 )
||p||→0
=α⟨X, Y ⟩ + ⟨Z, Y ⟩
2. la solution
∫ t associée∫àt une équation de la forme dXt = φt dt + θt dBt est :
Xt = X0 + 0 φs ds + 0 θs dBs

30
∫t ∫t
donc X 1 t = X01 + 0 φ1s ds + 0 θs1 dBs
∫t ∫t
et X 2 t = X02 + 0 φ2s ds + 0 θs2 dBs
∫t ∫t
d'autre part ⟨X⟩t = ⟨X0 + 0 φs ds + 0 θs dBs ⟩
∫t ∫t
=⟨ 0 θs dBs ⟩ car X0 et 0 φs ds sont à variation nie
∫t ∫t
donc ⟨X⟩t = ⟨ 0 θs dBs ⟩ ≡ 0 θs2 ds
en remarquant que ⟨X, Y ⟩t = 12 (⟨X + Y ⟩t − ⟨X⟩t − ⟨Y ⟩t )
∫t ∫t ∫t
on a alors ⟨X 1 , X 2 ⟩t = 21 [ 0 (θs1 + θs2 )2 ds − 0 (θs1 )2 ds − 0 (θs2 )2 ds]
∫t
d'où ⟨X 1 ; X 2 ⟩t = 0 θs1 θs2 ds
∫t ∫t ∫t
3.Montrons que Xt Yt = X0 Y0 + 0 Xs dYs + 0 Ys dXs + 0 d⟨X, Y ⟩s
posons Ut = Xt +∫ Yt et f (t) = t2 ∫
t t
f (Ut ) = f (U0 ) + 0 f ′ (Us )dUs + 12 0 f ′′ (Us )d⟨U ⟩s
∫ t ∫t
Donc (Xt + Yt )2 = (X0 + Y0 )2 + 0 2(Xt + Yt )d(Xs + Ys ) + 0 d⟨X, Y ⟩t
D'autre part∫ on a : ∫t
t
Xt2 = X02 + 0 2Xs dXs + 0 d⟨Xs ⟩
∫t ∫t
Yt2 = Y02 + 0 2Ys dXs + 0 d⟨Ys ⟩
puisque Xt Yt = 12 [(Xt + Yt )2 − Xt2 − Yt2 ]
on obtient donc∫: ∫t ∫t
t
Xt Yt = X0 Y0 + 0 Xs dYs + 0 Ys dXs + 0 d⟨X, Y ⟩s .
Exercice 18.
1. On peut expliciter cette solution. En eet, posons Yt = Xt ect et écrivons la formule
d'intégration par parties :
dYt = (ect )dXt + Xt d(ect ) + d⟨X, ect ⟩t
puisque ect est à variation ∫nie alors ⟨X, ect ⟩t = 0 . Donc dYt = σect dWt
t
Alors : Xt = xe−ct + σe−ct 0 ecs dWs .
2.
∫ t La fonction s 7→ ect étant déterministe et carré intégrable, l'intégrale stochastique
e dWs est une intégrale de Wiener. Par conséquent, le processus stochastique
ct
0 ∫t
associé ( 0 ect dWs ) est un processus gaussien.
Maitenant si on prend un ensemble de temps croissants 0 ≤ t1 ≤ . . . ≤ tn et un
ensemble de réels
∑ ∑n (a1 , a2 ,−ct ), on a :
. . . , an∑ ∫
n n −ct ti cs
a X
i=1 i ti = a
i=1 i (xe ) + i=1 ai σe 0
e dWs
peut
∑n se réecrire sous ∑nla forme ∫ :
′ ti cs
i=1 ai Xti = C + a
∫ t csi=1 i 0
e dWs
∫t

Or, le processus 0 e dWs étant gaussien, on a que ni=1 a′i 0 i ecs dWs suit une loi
normale . Or, une variable aléatoire ∑n gaussienne plus une constante est encore une loi
gaussienne. Par conséquent, i=1 ai Xti suit une loi normale. Et donc, on a montré que
le processus(Xt ) est gaussien.
On a aussi la fonction d'éspérance
∫ t cs :
E[Xt ] = xe + σe E[ 0 e dWs ] = xe−ct
−ct −ct

donc c'est un processus centré.


La fonction de covariance est donnée par :
∀0 ≤ s ≤ t :

31
Cov(Xs , Xt ) = E[(Xs − E[Xs ])(Xt − E[Xt )]
∫ s ∫ t
−cs cu −ct
= E[(σe e dWu )(σe ecu dWu )]
0
∫ s ∫ t 0
= σ 2 e−c(t+s) E[ ecu dWu ecu dWu )]
∫ s∧t
0 0

= σ 2 e−c(t+s) e2cu du
0
2cs
e −1
= σ 2 e−c(t+s) car s ≤ t
2c
σ 2 −c(t−s)
= (e − e−c(t+s) )
2c
.
3. En en déduit de la question précédente que :
2 −2ct )
Xt ∼ N (x0 e−ct , σ (1−e
2c
).
4. La loi limite de Xt lorsque t → +∞.
2
Xt −→ N (0, σ2c ).
∫t 2 ∫t
5. On pose Yt = a 0 Xs dWs − a2 0 Xs2 ds
Alors, ça implique que Xt = ln Yt
On pose f (x) = eX et on ∫ t applique ∫ t ′′ d'Itô :avec f ∈ C (R).
la formule 2

On a f (Xt ) = f (X0 ) + 0 f (Xs )dXs + 0 f (Xs )d⟨X, X⟩s
2
On a dXt = aXt dWt − a2 Xt2 dt
et d⟨X, X⟩s = a∫2 Xs2 ds
t 2 2 ∫t
f (Xt ) = eX0 + 0 eXs [aXs dWs − a2 Xs2 ds]dXs − a2 0 eXs a2 Xs2 ds.
On a : X0 = 0 ∫t 2 4 ∫t
Alors : Yt = 1 + a 0 eXs dWs − a +a 2 0
eXs Xs2 ds
Et alors Yt est une martingale locale.

32

Vous aimerez peut-être aussi