Académique Documents
Professionnel Documents
Culture Documents
Exercices Corrigé Calculs Stochastiques FID 2019-2020
Exercices Corrigé Calculs Stochastiques FID 2019-2020
d'Agadir
Exercices corrigés :
2019-2020
Exercice 1.
1. Soit X une v.a. intégrable. Montrer que (E[X|Ft ], t ≥ 0) est une martingale.
2. Montrer que si M est une martingale et A un processus croissant adapté (As ≤
At ∀s ≤ t) alors M − A est une surmartingale.
3. Montrer qu'une surmartingale telle que E[ZT ] = E[Z0 ] est une martingale sur [0, T ].
Exercice 2.
1. Un processus adapté (Mt )t≥0 est appelée une martingale locale, s'il existe une suite
de temps d'arrêt (τn )n∈N avec τn ↗ +∞, tel que le processus (Nt )t≥0 dénie par
Nt = (Mt∧τn )t≥0 est une martingale. Montrer qu'une martingale locale positive est
une surmartingale.
2. Soit X une martingale telle que XT = ξ . Exprimer Xt en fonction de ξ pour t < T
au moyen d'une espérance conditionnelle.
∫t
3. Si ϕ est un processus adapté borné. Alors Yt = Mt − 0 ϕs ds, 0 ≤ t ≤ T , si est
∫T
seulement si Yt = E[ t ϕs ds + YT |Ft ].
Exercice 3.
Soit (Mt , t ≥ 0) une Ft -martingale de carré intégrable (telle que Mt2 soit d'espérance
nie, pour tout t). Montrer que
1. E[(Mt − Ms )2 |Fs ] = E[Mt2 |Fs ] − Ms2 pour t > s.
2. E[(Mt − Ms )2 ] = E[Mt2 ] − E[Ms2 ] pour t > s.
3. La fonction ϕ dénie par ϕ(t) = E[Mt2 ] est croissante.
4. En déduire que Mt2 est une F -sousmartingale. Aurait on pu obtenir ce résultat
plus rapidement ?
Exercice 4.
Soit X un PAI (processus à accroissements indépendants, c'est-à-dire tel que, pour t > s,
la v.a. Xt − Xs est indépendante de σ(Xu , u ≤ s)). Montrer que, si, pour tout t, la v.a.
Xt est intégrable, Xt − E[Xt ] est une martingale et que si X est de carré intégrable
et Xt centré, Xt2 − E[Xt2 ] est une martingale. Montrer que, si exp(λXt ) est intégrable,
exp(λXt )
Zt = E[exp(λX t )]
, est une martingale.
Exercice 5.
1
4. Montrer qu'un processus continu X est une mouvement Brownien si et seulement
si, pour tout λ le processus exp(λXt − 12 λ2 t) est une martingale.
σ2
St = S0 exp[(µ − )t + σBt ]
2
Calculer l'espérance et la variance de St .
Exercice 7.
Soit (Bt )t≥0 un Mouvement Brownien. Montrez que les processus suivants sont également
des Mouvements Browniens :
1. ( a1 Ba2 t )t≥0 .
2. (Bt+t0 − Bt0 )t≥0 .
3. Le processus déni par tB 1 pour t > 0 et prolongé par 0 en t = 0.
t
Exercice 8.
Soit Z une variable aléatoire de loi normale centrée et réduite. Pour tout t ≥ 0 on
pose Xt = tZ . Le processus stochastique X = {Xt ; t ≥ 0} a des trajectoires continues et
Xt suit une loi normale N (0, t). Est-ce un mouvement brownien ?
Exercice 9.
Zt = Bt − tB1 , 0 ≤ t ≤ 1.
Soit (Zn 0 ≤ n ≤ N ) une suite de v.a.r. adaptée à une ltration (Fn ) . Dénisssons
par récurrence descendante une suite (Un , 0 ≤ n ≤ N ) par les égalités
2
2. Montrer que (Un ) , qui est appelée enveloppe de Snell de (Zn ), est la plus petite
surmartingale majorant (Zn ).
Exercice 11.
Exercice 12.
1. Résoudre l'EDS :
1 1
dXt = − Xt dt + dBt
1+t 1+t
puis calculer E[Xt ] et V ar(Xt )(on pourra multiplier les 2 membres de l'équation
par (1 + t) puis calculer d((1 + t)Xt )).
2. Résoudre dXt = −Xt dt + exp(−t)dBt puis calculer E[Xt ] et V ar(Xt )
3. Résoudre dXt = (m − Xt )dt + σdBt puis calculer E[Xt ] et V ar(Xt ).
∫t 1
4. Montrer que Yt = a(1 − t) + bt + (1 − t) 0 1−s dBs est solution de l'équation
b−Yt
dYt = 1−t dt + dBt .
σ2
5. Montrer que Bt , Bt2 et exp(σBt − 2
t) sont des martingales par rapport à Ft .
Exercice 13.
1. Montrer que si Xt est solution de l'EDS dXt = at dt + dBt alors Xt est une mar-
tingale si et seulement si at = 0 p.s.
2. Montrer que si Xt est solution de l'EDS dXt = v(t, w)dBt alors Xt2 n'est pas
toujours une martingale. (Xt est une martingale pourquoi ?).
3. Montrer que si Xt est solution de l'EDS dXt = v(t, .)dBt alors
∫ t
Mt = Xt2 − | v(s, .) |2 ds
0
3
5. Soit Ct le prix d'une option de sous jacent St , et Cet = exp(−rt)Ct son prix actualisé.
On suppose que Cet = F (t, Set ), où F est une fonction de classe C 2 . Montrer que Cet
est un processus d'Itô.
6. Soit (Bt ) un mouvement brownien et (Ft ) sa ltration naturelle. Soit (Xt ) un
processus stochastique vériant l'EDS
Exercice 14.
Soient (Bt1 )0≤t≤T et (Bt2 )0≤t≤T deux mouvements Browniens réels indépendants adaptés
à la même ltration (Ft )0≤t≤T .
Soient (Ht1 )0≤t≤T et (Ht2 )0≤t≤T deux processus (CADLAG) adaptés à F et vériant :
Montrer que (Xt )t≤T est une martingale pour la ltration F . Le processus X est-il
continu ?
3. On dénit, pour tout u ∈ R, le processus (Mtu )t≤T par
∫ t
u2
Mtu = exp(iuXt ) + exp(iuXs )ds.
2 0
Montrer en utilisant la formule d'Itô (on admettra sa validité sur les fonctions
complexes) que (Mtu ) est une martingale pour la ltration F .
4. En déduire la valeur de E[Mtu ] pour t ∈ [0, T ] puis une équation diérentielle
ordinaire vériée par f u : t → E[exp(iuXt )] dont on explicitera une solution.
5. Soit t ∈ [0, T ] Quelle est la loi de la variable aléatoire Xt ?
4
Exercice 15.
∫t
Soit σ(t) une fonction détérministe du temps telle que 0 σ(s)2 ds < ∞ pour tout t > 0
∫t
et soit Xt = 0 σ(s)dBs . En utilisant la formule d'Itô, montrer que la fonction caracté-
ristique de Xt (t xé) est donnée par
∫
−u2 t
E[exp(iuXt )] = exp( σ(s)2 ds, u ∈ R.
2 0
Que peut-on en déduire ?
On pose
σ2
St = exp((µ − )t + σBt )
2
1. Ecrire l'EDS dont St−1 est solution.
2. Démontrer que :
d(Xt St−1 ) = St−1 ((µ′ − σσ ′ )dt + σ ′ dBt ).
3. En déduire une expression pour Xt .
5
Exercice 18. Processus d'Ornstein-Ulhenbeck.
Exercice 1.
1. On pose Mt = E[X|Ft ], ∀t ≥ 0.
On a Mt est adaptée, car l'espérance contient toute l'information.
On a |Mt | = |E[X|Ft ]| ≤ E[|X||Ft ]
Alors E[|Mt |] ≤ E[E[|X||Ft ]]
= E[|X|] < ∞ (X est v.a intgrable)
D'où Mt ∈ L .1
6
3. On a Z est une surmartingale, alors E[ZT |Fs ] ≤ Zs , de plus on a E[ZT ] = E[Z0 ].
Avec s ≤ t ≤ T , on a : E[Z0 ] ≤ E[ZT ] ≤ E[Zt ] ≤ E[Zs ] ≤ E[Z0 ].
Donc E[Zt ] = E[Zs ], d'où Z est une martingale.
On pose Ls = Zs − E[Zt |Fs ].
On a E[Ls ] = E[Zs ] − E[Zt ] = 0, avec Ls ≥ 0 car Z est une surmartingale.
On trouve que Ls = 0 =⇒ E[Zt |Fs ] = Zs .
Donc nalement Z est une martingale.
Exercice 2.
E[Mt∧τn |Fs ] = Ms∧τn avec τn un temps d'arrêt qui tend vers l'inni
(Lorsque n tend vers + ∞ on a τn −→ +∞)
Ms = lim Ms∧τn
n
= E[Mt |Fs ]
Donc Ms ≥ E[Mt |Fs ] ∀t ≥ s
d'où Mt est une surmartingale.
Donc Xt = E[ξ|Ft ] ∀t ≤ T
∫t
3. On suppose que Yt = Mt − 0
ϕ(s)ds 0≤t≤T;
∫T
Montrons que Yt = E[ t ϕ(s)ds + YT |Ft ]
∫t ∫T
Yt = Mt − 0
ϕ(s)ds =⇒ YT = MT − 0
ϕ(s)ds
∫T ∫T ∫t
or E[ t ϕ(s)ds + YT |Ft ] = E[ 0 ϕ(s)ds − 0 ϕ(s)ds + YT |Ft ]
∫T ∫t ∫T
= E[ 0 ϕ(s)ds − 0 ϕ(s)ds + MT − 0 ϕ(s)ds|Ft ]
7
∫t
= Mt − 0
ϕ(s)ds
= Yt
∫T
inversement posons Yt = E[ t ϕ(s)ds − YT |Ft ]
∫T ∫T ∫t
E[ t ϕ(s)ds + YT |Ft ] = E[ 0 ϕ(s)ds − 0 ϕ(s)ds − YT |Ft ]
∫t ∫T
=− 0
ϕ(s)ds + E[ 0 ϕ(s)ds − YT |Ft ]
∫T
en posant Mt = E[ 0 ϕ(s)ds − YT |Ft ]
∫t
on a : Yt = Mt − 0 ϕ(s)ds (vérions que Mt est une martingale)
∫T
E[Mt |Fs ] = E[E[ 0 ϕ(s)ds − YT |Ft ]|Fs ]
∫T
=E[ 0 ϕ(s)ds − YT |Fs ] donc Mt est une martingale
Exercice 3.
8
d'où E[(Mt − Ms )2 ] = E[Mt2 ] − E[Ms2 ].
Exercice 4.
=E[Xt − Xs |Fs ] + Xs
9
E[Xt2 |Fs ] = E[(Xt − Xs + Xs )2 |Fs ]
D'autre part :
E[Xt2 ] = E[(Xt − Xs + Xs )2 ]
donc (1) -(2) donne : E[Xt2 |Fs ]−E[Xt2 ] = Xs2 −E[Xs2 ]+2Xs E[Xt −Xs ]−2E[Xs ]E[Xt −
Xs ]
puisque Xt − Xs ⊥ Fs on a :
E[exp(λXt )|Fs ] = E[exp(λ(Xt − Xs ))]E[exp(λXs )] (1)
D'autre part :
E[exp(λXt )] = E[exp(λ(Xt − Xs + Xs ))]
donc E[exp(λXt )] = E[exp(λ(Xt − Xs ))]E[exp(λXs )] (2)
E[ E(exp(λX
exp(λXt )
t ))
|Fs ] = exp(λXs )
E[exp(λXs )]
Exercice 5.
10
- B est un mouvement Brownien, alors B intégrable et ∀t, E[|Bt |] ≤ ∞.
∀t ≥ s, E[Bt |Fs ] = E[Bt − Bs + Bs |Fs ]
= E[Bt − Bs |Fs ] + E[Bs |Fs ]
= E[Bt−s ] + Bs
= Bs
car B est un mouvement Brownien, et E[Bt−s ] = 0
Alors : E[Bt |Fs ] = Bs
Donc (Bt , t ≥ 0) est une martingale.
11
4- Montrer qu'un processus continu X est un mouvement Brownien si et seulement
si, pour tout λ le processus exp(λXt − 12 λ2 t) est une martingale :
→ Supposons que pour tout λ le processus exp(λXt − 21 λ2 t) est une martingale, mon-
trer que le processus continu X est un mouvement Brownien :
On a Yt = exp(λXt − 21 λ2 t), ∀λ, ∀t ≥ 0 alors :
E[Yt |Fs ] = Ys
= E[exp(λ(Xt − Xs ) + λXs − 12 λ2 t)|Fs ]
= exp(λXs − 12 λ2 t)E[exp(λXt−s )|Fs ]
2
= exp(λXs − 21 λ2 s)exp(− λ2 (t − s))E[exp(λXt−s )|Fs ]
2
= Ys × exp(− λ2 (t − s))E[exp(λXt−s )|Fs ]
2
Alors exp(− λ2 (t − s))E[exp(λXt−s )|Fs ] = 1
2
⇒ E[exp(λXt−s )|Fs ] = exp( λ2 (t − s))
= φXt−s (−iλ)
Alors le processus X est un mouvement Brownien.
Exercice 6.
( )
σ2
Calculons l'esperance St , on a St = S0 exp (µ − 2
)t + σBt
12
Alors : ∀s 6 t
([ ) ]
σ2
E [St | Fs ] = E S0 exp (µ − )t + σBt | Fs
2
[ ( ) ]
σ2
= S0 exp (µt) E exp σBt − t | Fs
2
[ σ2
] [ σ2
]
E eσBt − 2 t | Fs = E eσ(Bt −Bs )+σBs − 2 t | Fs
σ2 [ ]
= eσBs − 2 t E eσ(Bt −Bs ) | Fs
σ2 [ ]
= eσBs − 2 t E eσBt−s | Fs
σ2
= eσBs − 2
t
φ (−iσ)
[ σ2
] σ2
E eσBt − 2 t | Fs = eσBs − 2 t e−(−iσ) 2
2 t−s
σ2
= eσBs − 2
t+σ 2 t−s
2
σ2
= eσBs − 2
s
Donc :
σ2 s
E [St | Fs ] = S0 eµt eσBs − 2
Exercice 7.
1
E(At ) = E( Ba2 t )
a
1
= E(Ba2 t ) (0.0.2)
a
=0
13
alors At est un processus centré
* Et d'une autre part calculons la cov(At , As )
1 1
cov(At , As ) = cov( Ba2 t , Ba2 s )
a a
1
= 2 cov(Ba2 t , Ba2 s )
a
1
= 2 (E(Ba2 t Ba2 s ) − E(Ba2 t )E(Ba2 s ))
a
1
= 2 E(Ba2 t Ba2 s ) (0.0.3)
a
1
= 2 (a2 t ∧ a2 s)
a
1
= 2 a2 (t ∧ s)
a
=t∧s
14
Dt = tB 1 (0.0.7)
t
* Nous avons un problème de continuité en 0 car tB 1 n'est pas denie en 0, montrons
t
alors la continuité en 0 :
Montrons d'abord le résultat suivant :
Bn
−→ 0p.s (0.0.8)
n
on a :
1∑
t
Bn
= Bi − Bi−1
n n i=1
(0.0.9)
1∑
t
= Mi
n i=1
∑
t
E(Mi ) = E(Bi − Bi−1 )
i=1
∑t
(0.0.10)
= E(Bi ) − E(Bi−1 )
i=1
=0<∞
15
* Montrons que D0 = 0 p.s
Soit 0 < t1 ≤ t2 ≤ ... ≤ tn et Dt = tB 1
t
(Dt1 ,Dt2 ,...,Dtn ) suivent la meme loi que (Bt1 ,Bt2 ,...,Btn )
et max|Dti | suit la meme loi que max|Bti | avec i ∈ [1, n]
Soit D un ensemble dénombrable
∀t > 0
sup|Ds | avec s ∈ [0, t] ∩ D suit la meme loi que sup|Bs | avec s ∈ [0, t] ∩ D
∀n ≥ 1 ,on pose :
1
ı = sup|Ds | et ϑ = sup|Bs | avec s ∈ [0, ] ∩ D
n
ı et ϑ suivent la meme loi
ϑ −→ 0 car B0 = 0 p.s
donc ı −→ 0
Alors D0 = 0 p.s
*Dt est un processus gaussien car B est gaussien
*Montrons que Dt est centré :
E(Dt ) = E(tB 1 ) = tE(B 1 ) = 0
t t
* Et d'une autre part calculons la cov(Dt , Ds ),
cov(Dt , Ds ) = cov(tB 1 , sB 1 )
t s
= tscov(B 1 , B 1 )
t s
= ts(E(B 1 B 1 ) − E(B 1 )E(B 1 )) (0.0.14)
t s t s
= tsE(B 1 B 1 )
t s
1 1
= ts( ∧ )
t s
1 1
si s < t alors > et donc :
s t
1
cov(Dt , Ds ) = ts
t (0.0.15)
=s
1 1
Et si t < s alors > et donc :
t s
1
cov(Dt , Ds ) = ts
s (0.0.16)
=t
Et de là nous pouvons conclure que Dt est un mouvement browien
16
Exercice 8.
Soit Z ∼ N (0, 1)
On pose : Xt = tZ , ∀t ≥ 0
Soit X = {Xt ; t ≥ 0} un processus à trajectoires continues, avec Xt ∼ N (0, t)
Est ce que Xt est un MB ?
Méthode 01 :
• On a X un processus à trajectoires continues
⇒ Xt est continu
• On a Xt ∼ N (0, t) ⇒ Xt est gaussien
• On a Xt ∼ N (0, t) ⇒ E(Xt ) = 0 ⇒ Xt est centré
• On a Cov(Xt , Xs ) = Cov(tZ, sZ), ∀s, t ∈ [0, T ]
⇒ Cov(Xt , Xs ) = tsCov(Z, Z)
⇒ Cov(Xt , Xs ) = tsVar(Z)
⇒ Cov(Xt , Xs ) = ts · 1
⇒ Cov(Xt , Xs ) = ts
⇒ Cov(Xt , Xs ) ̸= t ∧ s
Donc X n'est pas un mouvement brownien
Méthode 02 :
• On a X0 = 0 · Z = 0
• On a X est continu
• On a Xt + s − Xt = (t + s)Z − tZ
⇒ Xt + Xs − Xt = (t + s − t)Z
⇒ Xt + Xs − Xt = sZ
s
⇒ Xt + Xs − Xt = · tZ
t
s
⇒ Xt + Xs − Xt = · Xt
t
Donc Xt + Xs − Xt dépend de Xt
D'où X n'est pas accroissemnets indépendants
Alors X n'est pas un mouvement brownien .
Exercice 9.
Zt = Bt − tB1 ,0 ≤ t ≤ 1
17
On en conclut que (Zt )t∈[0,1] est un processus gaussien.
-indépendant de B1 :
On a
-Sa moyenne :
Pour tout t ∈ [0, 1]
-Sa covariance :
∀0 ≼ s ≼ t ≼ 1,on a :
cov(Zt , Zs ) = E[Zt Zs ] = E[(Bt ] − tE[B1 Bs ] − sE[B1 )]
= E[Bt Bs ] − tE[B1 Bs ] − sE[Bt B1 ] + tsE[B12 ]
= t − ts − ts + ts
= t(1 − s)
-La loi :
On a que :
V (Zt ) = cov(Zt , Zt ) = t(1 − t) = t − t2
Donc Zt ≃ N (0, t − t2 )
18
cov(Yt , Ys ) = E(Yt , Ys )
= (1 − t)(1 − s)E[B 1−t t B s ]
1−s
puisque s ≼ t alors ,
Alors
Donc Yt ≃ N (0, t − t2 )
Exercice 10.
Soit (Zn , 0 ≤ n ≥ N ) une suite de v.a.r adaptée à une ltration (Fn ). Dénissons par
récurrence descendante une suite (Un , 0 ≤ n ≥ N ) par les égalités :
UN = ZN ; Un = sup(Zn , E[U(n+1 |Fn ]) (0 ≤ n ≥ N )
1- Montrer que (Un ) est une surmartingale majorant (Zn ) :
On a Un = sup(Zn , E[U(n+1 |Fn ]) (0 ≤ n ≥ N ) alors :
Un ≥ E[U(n+1 |Fn ] et Un ≥ Zn
Donc (Un ) est une surmartingale majorant (Zn )
2- Montrer que (Un ) enveloppe de Snell de (Zn ) est la plus petite surmartingale ma-
jorant (Zn ) :
Soit (Wn ) une autre suite de v.a.r adaptée à une ltration (Fn ), telle que (Wn ) est une
surmartingale et ∀n, Wn ≥ Zn , il faut montrer que ∀n, Wn ≥ Un
Par la récurrence descendante on a : WN ≥ ZN = UN
Supposons que ∀n, Wn+1 ≥ Un+1 alors montrer que ∀n, Wn ≥ Un .
on a (Wn ) est une surmartingale alors : Wn ≥ E[W(n+1 |Fn ]
et ∀n, Wn+1 ≥ Un+1 ⇒ E[Wn+1 |Fn ] ≥ E[Un+1 |Fn ]
alors : Wn ≥ E[U(n+1 |Fn ], or ∀n, Wn ≥ Zn
donc : Wn ≥ sup(Zn , E[U(n+1 |Fn ]) = Un
Finalement : ∀n, Wn ≥ Un et (Un ) est la plus petite surmartingale majorant (Zn ).
Exercice 11.
1. Pour Xt = Bt2
Soit f (x) = x2 et f (Bt ) = Bt2
Donc
1
dBt2 = 2Bt dBt + 2dt
2
dXt = 2Bt dBt + dt.
19
2. Pour Xt = Bt3
Soit f (x) = x3 et f (Bt ) = Bt3 Donc
1
dBt3 = 3Bt2 dBt + 6Bt dt
2
dXt = 3Bt2 dBt + 3Bt dt.
3. Pour Xt = 2 + t + exp(Bt )
Soit f (x) = 2 + t + exp(x) et f (Bt ) = 2 + t + exp(Bt )
1
df (Bt ) = dt + eBt dBt + eBt dt
2
1
dXt = eBt dBt + (1 + eBt )dt
2
1
dXt = (Xt − 2 − t)dBt + (1 + (Xt − 2 − t))dt
2
1
dXt = (Xt − 2 − t)dBt + (Xt − t)dt
2
a2 ct+aBt
dXt = cect+aBt dt + aect+aBt dBt + e dt
2
a2
= aect+aBt dBt + (cect+aBt + ect+aBt )dt
2
a2
= aXt dBt + (cXt + Xt )dt.
2
Exercice 12.
−1
1. * Soit dXt = 1−t 1
Xt dt + 1−t dBt , ∀t ≥ 0.
On multiplie les deux côtés par 1 + t.
D'où (1 + t)dXt = −Xt dt + dBt .
On pose Yt = (1 + t)Xt , et on utilise la formule d'intégration par parties.
Alors dYt = (1 + t)dXt + Xt dt + d⟨Xt , (1 + t)⟩t
= −Xt dt + dBt + Xt dt
(car ⟨X, (1 + t)⟩t = 0, puisque (1 + t) est variation f ini)
= dBt
Donc on tombe sur d(1 + t)Xt = dBt
dBt
dXt =
1+t
Bt
Xt =
1+t
20
Alors Xt = 1+tBt
est la solution de l'EDS.
* Pour l'espérance, on a :
Bt 1
E[Xt ] = E[ ]= E[Bt ] = 0
1+t 1+t
car Bt est un mouvement brownien.
* Pour la variance, on a :
1 t
V ar(Xt ) = V ar(Bt ) =
(1 + t)2 (1 + t)2
car Bt est un mouvement brownien.
21
Alors d(et (m − Xt )) = −σet dBt ∫t
D'où et (m − Xt ) − (m − X0 ) = −σ 0 es dBs
∫t
Donc Xt = (1 − e−t )m + e−t X0 + σ 0 es−t dBs est la solution de l'EDS proposée.
* Pour l'espérance, on a : ∫ t
−t −t
E[Xt ] = (1 − e )m + e X0 + σE[ es−t dBs ]
0
−t −t
= (1 − e )m + e X0
* Pour la variance, on a :
On commence par le calcul de la covariance puis on déduit la variance.
On a ∀t ̸= t′ , Cov(Xt′ , Xt ) = E[(Xt′ − E[Xt′ ])(Xt − E[Xt ])]
∫ t′ ∫ t
s−t′
= E[(σ e dBs )(σ eu−t dBu )]
0 0
∫ t′ ∫ t
′
= σ 2 et −t E[( es dBs )( eu dBu )]
0 0
σ2 ′ ′
= et −t (e2(t∧t ) − 1)
2
Dans ce qui précède on a utilisé la propriété d'Isométrie
∫ T d'Itô qui donne∫pour T
deux fonctions f, g , du mouvement brownien W , avec E[ 0 f 2 (t)]dt < ∞ et E[ 0 g 2 (t)dt] <
∞, donc : (∫ ) (∫ ) ∫
T T T
E f (t)dWt g(t)dWt =E f (t)g(t)dt
0 0 0
V ar(Xt ) = σ2
2
(1 − e−2t )
4. Avant de commencer la démonstration, on va développer le terme b−Yt
.
∫ t 1−t
dBs
En eet, on a : b − Yt = b − a(1 − t) − bt − (1 − t)
0 1−s
∫ t
dBs
= b(1 − t) − a(1 − t) − (1 − t)
∫ t dBs 0 1−s
Donc on obtient : 1−t = b − a − 0 1−s (O)
b−Yt
22
t ∫
dBs
Alors d(Yt ) = d[a(1 − t) + bt + (1 − t) ]
0 1−s
∫ t
dBs
= d[(1 − t)(a + ) + bt]
0 1−s
∫ t ∫ t
dBs dBs
= (1 − t)d[a + ] − (a + )dt + bdt
0 1−s 0 1−s
∫ t
dBt dBs
= (1 − t) + [b − a − ]dt
1−t 0 1−s
b − Yt
= dt + dBt
1−t ∫t s
Donc Yt = a(1 − t) + bt + (1 − t) 0 dB
1−s
est solution de l'EDS proposée.
5. * Montrer que Bt est une F martingale ?
σ2
On a e(σBt − 2
t)
est un processus adapté et intégrable.
2 −σ 2
(σBt − σ2 t)
On a E[e |Fs ] = e 2
t
eσBs E[eσ(Bt −Bs ) |Fs ]
−σ 2
= e 2 t eσBs E[eσ(Bt −Bs ) ] (car Bt − Bs est un A.I)
Et on sait que ϕX (t) = E[eitX ], alors E[eσ(Bt −Bs ) ] = E[eσ(Bt−s ) ] = ϕBt−s (−iσ) =
σ2
(t−s)
e 2
23
σ2 −σ 2 σ2 σ2
Donc E[e(σBt − 2
t)
|Fs ] = e 2
t
eσBs e 2
(t−s)
= e(σBs − 2
s)
.
2
(σBt − σ2 t)
D'où e est une martingale.
Exercice 13.
1. Si at = 0 p.s, il sut de remplacer at dans l'EDS dXt = at dt + dBt , pour voir que
dXt = dBt ⇐⇒ Xt = Bt càd que Xt est un mouvement brownien, donc c'est une
martingale.
2. On a dXt = v(t, w)dBt , on sait que d'après la propriété vu dans le cours qu'un
processus d'Itô vériant les C.I est une martingale ssi sa partie en dt est nulle. Xt
est une intégrale stochastique par rapport∫ au mouvement brownien Bt , d'où X est
T
une martingale avec la supposition de E[ 0 |v(t, w)|2 dt] < ∞.
Maintenant sachant que Xt est une martingale, et en prenant ϕ(x) = x2 . On vérie
facilement que ϕ(Xt ) est intégrable et convexe car ϕ′′ (x) = 2 > 0.
D'après le lemme vu dans le cours, on a X une martingale, ϕ(Xt ) intégrable et ϕ
convexe ⇒ ϕ(Xt ) = Xt2 est une sous-martingale.
Alors Xt2 n'est pas toujours une martingale, c'est une sous-martingale.
3. Soit Xt la solution de l'équation dXt = v(t, w)dBt .
On sait que la variation quadratique∫ de ce dernier (qui est un processus d'Itô)
t
s'écrit de la façon suivante : ⟨X⟩t = 0 |v(s, .)|2 ds.
Sachant que Xt est une martingale continue de carré ∫ t intégraple. D'après la décom-
position de Doob Meyers, on déduit que : Xt − 0 |v(s, .)| ds est une martingale.
2 2
∫t
Donc Mt = Xt2 − 0 |v(s, .)|2 ds est une martingale.
24
dC̃t = dF (t, S̃t )
∫ ˜u ) ∫ t ˜u ) ∫ t 2
dF t
(u, S dF (u, S 1 d F (u, S˜u )
= F (0, S˜0 ) + dS˜u + du + d⟨S̃, S̃⟩u
0 dx 0 dt 2 0 dx2
D'une part, on a d'après l'égalité de la question (4), si on pose Wt = Bt + µ−r σ
t
on tombe sur le résultat suivant dS̃t = S̃t σdWt .
D'autre part cette même égalité nous permet de déduire que d⟨S̃, S̃⟩u = σ 2 S̃t du.
On revient à notre calcul du début, on trouve alors :
∫ t ∫ t ∫
˜ dF (u, S˜u ) dF (u, S˜u ) 1 t d2 F (u, S˜u ) 2
dC̃t = F (0, S0 ) + S̃t σdWt + du + σ S̃t du
0 dx 0 dt 2 0 dx2
∫ t ∫ t
˜ dF (u, S˜u ) dF (u, S˜u ) 1 d2 F (u, S˜u ) 2
= F (0, S0 ) + S̃t σdWt + [ + σ S̃t ]du
0 dx 0 dt 2 dx2
∫ t ˜u ) ∫ t
dF (u, S
= F (0, S˜0 ) + S̃t σdWt + Ku du
dx
0
∫ t dF (u,S˜u ) 0
∫t
Donc dC̃t = F (0, S˜0 ) + 0 dx
S̃ t σdW t + 0
Ku du, d'où C̃t est un processus
d'Itô.
(a) Pour trouver l'EDS satisfaite par Yt , on applique l'intégration par parties sur
cette dernière.
∫t
dYt = d(Xt e 0 −µ(s)ds )
∫t ∫t ∫t
−µ(s)ds −µ(s)ds −µ(s)ds
=e 0 dXt + Xt d(e 0 ) + d⟨X, e 0 ⟩t
∫t ∫t
−µ(s)ds −µ(s)ds
=e 0 dXt − µ(t)Xt e 0 dt
∫t
= e 0 −µ(s)ds (dXt − µ(t)Xt dt)
∫t
Donc : dYt = −µ(t)Yt dt + e 0 −µ(s)ds dXt . C'est l'EDS vériée par Yt .
(b) D'après ∫(6-a), on a :
t
dYt = e 0 −µ(s)ds (dXt − µ(t)Xt dt)
∫t
−µ(s)ds
dYt = e 0 (Xt µ(t)dt + Xt σ(t)dBt − Xt µ(t)dt)
∫t
dYt = Xt e 0 −µ(s)ds σ(t)dBt
dYt = Yt σ(t)dBt
Alors
∫ t 2 Yt2 est une martingale locale. On dit qu'elle est une Martingale car
E[ 0 Yt σ (t)dt] < ∞.
25
ltration. Avec le développement :
∫T ∫t ∫T
−µ(s)ds µ(s)ds −µ(s)ds
e 0 e 0 =e t
∫T
−µ(s)ds
Par conséquent : Xt = E[XT e t |Ft ]
Exercice 14.
le processus Xt est bien évidemment continu comme étant une somme de processus
continus
ce qui donne
∫t u2
∫t
exp(iuXt ) = exp(iuX0 ) + iu 0
exp(iuXm )dXm − 2 0
exp(iuXm )d⟨Xm ⟩
u2
∫t ∫t
exp(iuXt ) + 2 0
exp(iuXm )dm = 1 + iu 0
exp(iuXm )dXm
∫t
Donc Mtu = 1 + iu 0
exp(iuXm )dXm
26
∫t 1 1
∫t 2 2
= 1 + iu 0
exp(iuXm )Hm dBm + iu 0
exp(iuXm )Hm dBm
=Msu
u2
∫t
Mtu = exp(iuXt ) + 2 0
exp(iuXm )dm
2 ∫t
E[Mtu ] = E[exp(iuXt )] + E[ u2 0
exp(iuXm )dm]
2 ∫t
1 = f u (t) + E[ u2 0
exp(iuXm )dm]
0 = f′ + u2
2
f (1)
f′ −u2
(1) donne f
= 2
−u2
donc ln(f ) = 2
t
−u2
f = ke( 2
t)
5. f (t) est la fonction caractéristique de Xt il s'en suit que Xt est une variable qui
suit une loi normale telle que E[Xt ] = 0 et V ar(Xt ) = t
27
On peut retrouver l'expresssion de la variance de Xt grâce à la relation (H 1 )2 +
(H 2 )2 = 1 et l'indépendance des mouvement browniens.
Exercice 15.
∫ t
On a Xt = σ(s)dBs , Xt étant l'intégrale d'un processus adapté, X0 = 0 et
0 ∫ t
l'isométrie d'Itô donne V (Xt ) = Xt =
2
σ 2 (s)ds
0
⇒ la loi de Xt :
étant intégrale stochastique de fonctions déterministes
∫ t
⇒ X ∼ N (0, σ 2 (s) ds)
0
∫ u
ϕX (u) = eiuxt = eiux fx (t)dt
−∞
( )
σ 2 t2
(or on a X ∼ N (0, σ 2 ) ⇒ ϕX (u) = exp 2
)
∫ t
exp( −u2
2
Alors e iuxt
= σ 2 (s)ds) ∀ u R
0
Exercice 16.
∫ t ∫
1 t ′′
′
U (St ) = U (S0 ) + U (Ss )dSs + U (Ss )d < Ss >
2 0
∫ t 0
∫ t 2 2
−1 −1 σ Ss
=⇒ St = 1 + 2
dSs + ds
0 Ss 0 Ss3
−dSt σ 2
=⇒ dSt−1 = + dt (0.0.17)
St2 St
µdt + σdBt
=− + σ 2 St−1 dt
St
= −St−1 (µdt + σdBt ) + σ 2 St−1 dt
= St−1 ((σ 2 − µ)dt − σdBt )
28
d(Xt St−1 ) = Xt dSt−1 + St−1 dXt + d < Xt , St−1 > (0.0.18)
*On sait d'après la question précédente que :
Xt dSt−1 = Xt St−1 ((σ 2 − µ)dt − σdBt ) (0.0.19)
* Et on :
d(Xt St−1 ) = Xt St−1 ((σ 2 − µ)dt − σdBt ) + (µSt−1 Xt + µ′ St−1 )dt + (σXt St−1 + σ ′ St−1 )dBt
+ (−σ 2 Xt St−1 − σ ′ σSt−1 )dt
= Xt St−1 σ 2 dt − µXt St−1 dt − σXt St−1 dBt + µXt St−1 dt + µ′ St−1 dt + σXt St−1 dBt + σ ′ St−1 dBt
− σ 2 Xt St−1 dt − σ ′ σSt−1 dt
= St−1 ((µ′ − σσ ′ )dt + σ ′ dBt )
(0.0.22)
3-Déduisons une expression de Xt :
On remarque que si : µ′ = −µ et σ ′ = −σ
Alors :
∫ t ∫ t
′
Xt = (µXr + µ )dr + (σXr + σ ′ )dBr = 1
∫0 t ∫0 t
⇒ (µXr − µ)dr + (σXr − σ)dBr = 1
0
∫ t 0
∫ t (0.0.25)
⇒ (µXr dr + σXr dBr ) = 1 + µdr + σdBr
0 0
∫ t
= 1 + µt + σ dBr
0
29
Alors :
∫ t ∫ t
′
Xt = (µXr + µ )dr + (σXr + σ ′ )dBr
∫0 t ∫ t 0
∫ t ∫ t
′
= µXr dr + µ dr + σXr dBr + σ ′ dBr
0
∫ t0 ∫ t0 ∫ t 0
= 1 + µt + σ dBr + µ′ dr + σ ′ dBr
(0.0.26)
∫0 t 0
∫ t0
= 1 + µt + σ dBr + µ′ t + σ ′ dBr
0
∫ t 0
′ ′
= 1 + (µ + µ )t + (σ + σ ) dBr
0
= 1 + (µ + µ′ )t + (σ + σ ′ )Bt
Exercice 17.
∑
1. Montrons d'abord que ⟨X, Y ⟩t = lim (Xtk − Xtk−1 )(Ytk − Ytk−1 )
||p||→0
où p est une subdivision de l'intervalle 0 à t et ||p|| son pas
Par dénition∑la variation 0 à t et quadratique de Xt est donnée par :
⟨Xt ⟩ = lim (Xtk − Xtk−1 )2 ; donc
||p||→0
1
4
( ⟨X∑ + Y ⟩ − ⟨X − Y ⟩)= 14 ∑
( lim (Xtk − Xtk−1 + Ytk − Ytk−1 )2 − lim ((Xtk − Xtk−1 ) − (Ytk − Ytk−1 ))2 )
||p||→0 ||p||→0
∑
= 14 (⟨X⟩ + ⟨Y ⟩ + 2∗ lim (Xtk − Xtk−1 )(Ytk − Ytk−1 )) − (⟨X⟩ + ⟨Y ⟩ −
||p||→0
∑
2∗ lim (Xtk − Xtk−1 )(Ytk − Ytk−1 ))
||p||→0
∑
= 14 (4∗ lim (Xtk − Xtk−1 )(Ytk − Ytk−1 ))
||p||→0
∑
d'où ⟨X, Y ⟩ = lim (Xtk − Xtk−1 )(Ytk − Ytk−1 )
||p||→0
Montrons à présent la bilinéarité :
dénie positive ∑
⟨X, X⟩ = lim (Xtk − Xtk−1 )2 ≥ 0
||p||→0
si X = 0 ps ⟨X, X⟩ = 0
symétrie ∑
⟨Y, X⟩ = lim (Ytk − Ytk−1 )(Xtk − Xtk−1 )
||p||→0
∑
= lim (Xtk − Xtk−1 )(Ytk − Ytk−1 )
||p||→0
=⟨X, Y ⟩
linéarité par rapport ∑
à la première variable
⟨αX + Z, Y ⟩ = lim [(αXtk − αXtk−1 ) + (Ztk − Ztk−1 )](Ytk − Ytk−1 )
||p||→0
=α⟨X, Y ⟩ + ⟨Z, Y ⟩
2. la solution
∫ t associée∫àt une équation de la forme dXt = φt dt + θt dBt est :
Xt = X0 + 0 φs ds + 0 θs dBs
30
∫t ∫t
donc X 1 t = X01 + 0 φ1s ds + 0 θs1 dBs
∫t ∫t
et X 2 t = X02 + 0 φ2s ds + 0 θs2 dBs
∫t ∫t
d'autre part ⟨X⟩t = ⟨X0 + 0 φs ds + 0 θs dBs ⟩
∫t ∫t
=⟨ 0 θs dBs ⟩ car X0 et 0 φs ds sont à variation nie
∫t ∫t
donc ⟨X⟩t = ⟨ 0 θs dBs ⟩ ≡ 0 θs2 ds
en remarquant que ⟨X, Y ⟩t = 12 (⟨X + Y ⟩t − ⟨X⟩t − ⟨Y ⟩t )
∫t ∫t ∫t
on a alors ⟨X 1 , X 2 ⟩t = 21 [ 0 (θs1 + θs2 )2 ds − 0 (θs1 )2 ds − 0 (θs2 )2 ds]
∫t
d'où ⟨X 1 ; X 2 ⟩t = 0 θs1 θs2 ds
∫t ∫t ∫t
3.Montrons que Xt Yt = X0 Y0 + 0 Xs dYs + 0 Ys dXs + 0 d⟨X, Y ⟩s
posons Ut = Xt +∫ Yt et f (t) = t2 ∫
t t
f (Ut ) = f (U0 ) + 0 f ′ (Us )dUs + 12 0 f ′′ (Us )d⟨U ⟩s
∫ t ∫t
Donc (Xt + Yt )2 = (X0 + Y0 )2 + 0 2(Xt + Yt )d(Xs + Ys ) + 0 d⟨X, Y ⟩t
D'autre part∫ on a : ∫t
t
Xt2 = X02 + 0 2Xs dXs + 0 d⟨Xs ⟩
∫t ∫t
Yt2 = Y02 + 0 2Ys dXs + 0 d⟨Ys ⟩
puisque Xt Yt = 12 [(Xt + Yt )2 − Xt2 − Yt2 ]
on obtient donc∫: ∫t ∫t
t
Xt Yt = X0 Y0 + 0 Xs dYs + 0 Ys dXs + 0 d⟨X, Y ⟩s .
Exercice 18.
1. On peut expliciter cette solution. En eet, posons Yt = Xt ect et écrivons la formule
d'intégration par parties :
dYt = (ect )dXt + Xt d(ect ) + d⟨X, ect ⟩t
puisque ect est à variation ∫nie alors ⟨X, ect ⟩t = 0 . Donc dYt = σect dWt
t
Alors : Xt = xe−ct + σe−ct 0 ecs dWs .
2.
∫ t La fonction s 7→ ect étant déterministe et carré intégrable, l'intégrale stochastique
e dWs est une intégrale de Wiener. Par conséquent, le processus stochastique
ct
0 ∫t
associé ( 0 ect dWs ) est un processus gaussien.
Maitenant si on prend un ensemble de temps croissants 0 ≤ t1 ≤ . . . ≤ tn et un
ensemble de réels
∑ ∑n (a1 , a2 ,−ct ), on a :
. . . , an∑ ∫
n n −ct ti cs
a X
i=1 i ti = a
i=1 i (xe ) + i=1 ai σe 0
e dWs
peut
∑n se réecrire sous ∑nla forme ∫ :
′ ti cs
i=1 ai Xti = C + a
∫ t csi=1 i 0
e dWs
∫t
∑
Or, le processus 0 e dWs étant gaussien, on a que ni=1 a′i 0 i ecs dWs suit une loi
normale . Or, une variable aléatoire ∑n gaussienne plus une constante est encore une loi
gaussienne. Par conséquent, i=1 ai Xti suit une loi normale. Et donc, on a montré que
le processus(Xt ) est gaussien.
On a aussi la fonction d'éspérance
∫ t cs :
E[Xt ] = xe + σe E[ 0 e dWs ] = xe−ct
−ct −ct
31
Cov(Xs , Xt ) = E[(Xs − E[Xs ])(Xt − E[Xt )]
∫ s ∫ t
−cs cu −ct
= E[(σe e dWu )(σe ecu dWu )]
0
∫ s ∫ t 0
= σ 2 e−c(t+s) E[ ecu dWu ecu dWu )]
∫ s∧t
0 0
= σ 2 e−c(t+s) e2cu du
0
2cs
e −1
= σ 2 e−c(t+s) car s ≤ t
2c
σ 2 −c(t−s)
= (e − e−c(t+s) )
2c
.
3. En en déduit de la question précédente que :
2 −2ct )
Xt ∼ N (x0 e−ct , σ (1−e
2c
).
4. La loi limite de Xt lorsque t → +∞.
2
Xt −→ N (0, σ2c ).
∫t 2 ∫t
5. On pose Yt = a 0 Xs dWs − a2 0 Xs2 ds
Alors, ça implique que Xt = ln Yt
On pose f (x) = eX et on ∫ t applique ∫ t ′′ d'Itô :avec f ∈ C (R).
la formule 2
′
On a f (Xt ) = f (X0 ) + 0 f (Xs )dXs + 0 f (Xs )d⟨X, X⟩s
2
On a dXt = aXt dWt − a2 Xt2 dt
et d⟨X, X⟩s = a∫2 Xs2 ds
t 2 2 ∫t
f (Xt ) = eX0 + 0 eXs [aXs dWs − a2 Xs2 ds]dXs − a2 0 eXs a2 Xs2 ds.
On a : X0 = 0 ∫t 2 4 ∫t
Alors : Yt = 1 + a 0 eXs dWs − a +a 2 0
eXs Xs2 ds
Et alors Yt est une martingale locale.
32