Vous êtes sur la page 1sur 46

Processus stochastiques

Cours et Exercices

Université de Cocody, UFR: Math-Info i Dr. Jean Marc OWO


Table des matières

1 Rappels : Espérance conditionnelle 1


1. Espérance conditionnelle par rapport à un événement . . . . . . . . . . . . . . . . . . . . . . 1
2. Espérance conditionnelle par rapport à une v.a. . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.1. Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2.2. Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
3. Espérance conditionnelle par rapport à une tribu . . . . . . . . . . . . . . . . . . . . . . . . . 3
4. Propriétés de l’espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2 Généralités sur les processus stochastiques 5


1. Notion de processus stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1. Caractérisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Filtration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2. Processus à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.1. Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2. Processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3. Variation totale et variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . 8

3 Chaines de Markov 10
1. Propriété de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2. Propriété de Markov faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3. Propriété de Markov forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2. Classification des états . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1. Classes et graphe réduit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2. Périodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3. Etats récurrents et transitoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4. Ergodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5. Probabilités d’absorption (capture par les classes récurrentes) . . . . . . . . . . . . . . 18
2.6. Temps moyen avant absorption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3. Comportement asymptotique des chaines de Markov . . . . . . . . . . . . . . . . . . . . . . . 19
3.1. Mesures invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2. Chaines de Markov irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3. Chaînes de Markov réductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

4 Martingales 22
1. Martingales en temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2. Martingales en temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

ii
TABLE DES MATIÈRES

5 Mouvement Brownien 26
1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2. Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

6 Intégrale stochastique d’Itô 29


1. Construction de l’intégrale stochastique d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.1. Processus élémentaires et intégrale d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2
1.2. Intégrale d’Itô : cas des processus H ∈ L (Ω, [0, T ]) . . . . . . . . . . . . . . . . . . . . 31
1.3. Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2. Processus d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3. Formule d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1. Pour le mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2. Pour un processus d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4. Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

7 Aplications aux marchés financiers 37


1. Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.1. Portefeuille autofinançant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.2. Absence d’Opportunités d’Arbitrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.3. Comparaison de portefeuilles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.4. Parité call-put . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.5. Probabilité risque-neutre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2. Valorisation et couverture . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1. Modèles discrets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3. Modèle de Black-Scholes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

Université de Cocody, UFR: Math-Info iii Dr. Jean Marc OWO


Chapitre 1

Rappels : Espérance conditionnelle

Soit (Ω, F, P) un espace probabilisé :


- Ω : l’univers d’une expérience aléatoire ;
- F : une tribu sur Ω ;
- P : une probabilité sur Ω ;
Une tribu est un sous-ensemble des parties de Ω ayant les propriétés suivantes :
(i) Ω ∈ F,
(ii) F est stable par passage au complémentaire (i.e. A ∈ F =⇒ A ∈ F),

[
(iii) F est stable par réunion dénombrable (i.e. Ai ∈ F, i ∈ N =⇒ Ai ∈ F).
i=0
Soit E un esemble muni d’une tribu B. Soit X : Ω −→ E. X est une v.a. si elle mesurable par rapport
aux tribus F et B, i.e., ∀ B ∈ B, X −1 (B) ∈ F. Si B est une tribu borelienne, on dit simplement X est une
v.a F−mesurable.

1. Espérance conditionnelle par rapport à un événement


Soit l’événement B ∈ F.

Rappel : Soit A ∈ F, on définit la probabilité conditionnelle de A sachant B par :

P(A ∩ B)
P(A|B) = , si P(B) 6= 0.
P(B)

Propriété : L’application Q = P(.|B) est une probabilité sur Ω.

On peut définir l’espérance d’une v.a. par rapport à la probabilité Q. Notons EQ l’espérance par rapport à
Q. Soit X une v.a. intégrable i.e., E(|X|) < ∞ ( E étant l’espérance par rapport à P). Alors, on a

E(X1B )
EQ (X) = , si P(B) 6= 0.
P(B)

On
 pose E(X|B) = EQ (X) et on l’appelle l’espérance conditionnelle de X par rapport à B. On a alors
  
E E X|B 1B = E X1B :

1
CHAPITRE 1. RAPPELS : ESPÉRANCE CONDITIONNELLE

2. Espérance conditionnelle par rapport à une v.a.


2.1. Cas discret
Soit Y une v.a. discrète à valeurs dans un ensemble dénombrable D.
Soit A ∈ F : P(A|Y ) = ϕ(Y ), où
P(A ∩ {Y = y})
ϕ(y) = P(A|Y = y) = , y ∈ D.
P(Y = y)

Soit X une v.a. intégrable : E(X|Y ) = ψ(Y ), où

ψ(y) = E(X|Y = y), y ∈ D.

Remarque : P(A|Y ) et E(X|Y ) sont des v.a.


Exemple. Soit Y v.a. discrète et X une v.a. indépendante de Y : E(X +Y |Y ) = ψ(Y ), où ψ(y) = E(X +Y |Y =
y).

2.2. Cas continu


Soit Y une v.a. continu définie sur l’espace probabilisé (Ω, F, P).
Soit A ∈ F : P(A|Y ) = ϕ(Y ), où on a
P(A ∩ [y < Y ≤ y + dy])
ϕ(y) = lim P(A|y < Y ≤ y + dy) = lim .
dy−→0 dz−→0 P(Y ∈]y, y + dy])
Soit X une v.a. intégrable à valeurs dans Rn , définie sur le même espace probabilisé (Ω, F, P). Supposons
que Y est à valeurs dans Rp .
Fonrmons le vecteur aléatoire (X, Y ) et supposons que celui-ci a une densité de probabilité f (x, y), où
x ∈ Rn et y ∈ Rp .
Loi conditionnelle
On appelle loi conditionnelle de X sachant Y = y, lorsqu’elle existe, la loi de probabilité notée PX|Y =y
et définie par
PX|Y =y (B) = lim P(X ∈ B|y < Y ≤ y + dy).
dy−→0

Soit
P(X ∈ B, Y ∈]y, y + dy])
PX|Y =y (B) = lim .
dy−→0 P(X ∈]y, y + dy])
Cette loi est caractérisée par :
- Fonction de repartition conditionnelle

FX|Y =y (x) = PX|Y =y (] − ∞, x1 ], ..., ] − ∞, xn ])


P(X1 ∈] − ∞, x1 ], ..., Xn ∈] − ∞, xn ], Y ∈]y, y + dy])
= lim
dy−→0 P(Y ∈]y, y + dy])
Donc

∂y F(X,Y ) (x, y)
FX|Y =y (x) = .
fY (y)
- Densité conditionnelle
f(X,Y ) (x, y)
fX|Y =y (x) = . Si X est discrète, fX|Y =y (x) = PX|Y =y (X = y).
fY (y)
Propriété fondamentale :
La densité conjointe de (X, Y ) est liée aux densités conditionnelles par

f(X,Y ) (x, y) = fY (y) · fX|Y =y (x) = fX (x) · fY |X=x (y).

Université de Cocody, UFR: Math-Info 2 Dr. Jean Marc OWO


CHAPITRE 1. RAPPELS : ESPÉRANCE CONDITIONNELLE

Alors X et Y sont indépendants ssi fX|Y =y (x) = fX (x).


Espérance conditionnelle
- On appelle espérance conditionnelle de X sachant Y = y et on note E(X|Y = y), l’espérance de X par
rapport à la loi conditionnelle PX|Y =y c’est à dire :
Z Z Z
1
E(X|Y = y) = xdPX|Y =y (x) = xfX|Y =y (x)dx = xf(X,Y ) (x, y)dx.
Rn Rn fY (y) Rn

- On appelle espérance conditionnelle de X sachant Y l’expression

E(X|Y ) = ϕ(Y ), où ϕ(y) = E(X|Y = y).

Remarque.
Si A ∈ F , X = 1A , alors
(1) Si Y est continu, on a

P(A ∩ [y < Y ≤ y + dy])


E(X|Y = y) = P(A|Y = y) = lim P(A|y < Y ≤ y + dy) = lim .
dz−→0 dy−→0 P(Y ∈]y, y + dy])

(2) Si Y est discrète, alors

P(A ∩ [Y = y])
E(X|Y = y) = P(A|Y = y) = .
P(Y = y)

Exemple 1.1. Soit Y1 , ..., Yn n variables aléatoires indépendantes de même loi P(λ). On pose X = 1[Y1 =y1 ]
n
X
et Y = Yi .
i=1
1. Calculer E(X|Y = y).
2. Calculer E(Y1 |Y ) et E(Y |Y1 ).

Propriétés
Soit Y une v.a. à valeurs dans Rp et X une v.a. (intégrable) à valeurs dans Rn , toutes deux définies sur
le même espace probabilisé (Ω, F, P). Alors pour g : Rn −→ R, on a
R
(1) E(g(X)) = Rn g(x)dPX (x) = E(E(g(X)|Y ))
(2) E(AX|Y ) = AE(X|Y )
(3) E(g(X)|X) = g(X), PX−p.s.  
(4) V ar(X) = E V ar(X|Y ) + V ar E(X|Y )

Exercice 1.1. Soit (X, Y ) un vecteur aléatoire tel que PYX=y = P(y) et Y γ(1, 1).
1. Déterminer la densité (conjointe) de (X, Y ).
2. Calculer E(X|Y ), E(Y |X) et E(Y −X ).

3. Espérance conditionnelle par rapport à une tribu


Soit (Ω, F, P) un espace probabilisé ; X est une v.a F−mesurable et intégrable et G une sous-tribu de F.
On appelle espérance conditionnelle de X par rapport à G l’unique v.a. intégrable Z notée E(X|G)
i) G−mesurable, Z Z
ii) telle que ∀ A ∈ G, ZdP = XdP (soit E(Z1A ) = E(X1A )).
A A
C’est aussi l’unique (à une égalité p.s. près) v.a. G−mesurable telle que

E(ZY ) = E(XY ),

Université de Cocody, UFR: Math-Info 3 Dr. Jean Marc OWO


CHAPITRE 1. RAPPELS : ESPÉRANCE CONDITIONNELLE

pour toute v.a. Y , G−mesurable bornée.


Pour A ∈ F, on pose P(A|G) = E(1A |G)
Remarque. On peut aussi définir l’espérance conditionnelle de X par rapport à Y comme étant l’espérance
conditionnelle de X par rapport à la tribu σ(Y ), c’est à dire la tribu engendrée par la v.a Y : E(X|Y ) =

E X|σ(Y ) .

4. Propriétés de l’espérance conditionnelle


Soit X, Y deux v.a. intégrables toutes deux définies sur le même espace probabilisé (Ω, F, P). Soit G et
H deux sous-tribus de F.

1. Linéarité : Soit a et b deux constantes, E(aX + bY |G) = aE(X|G) + bE(Y |G).


2. Croissance : si X ≤ Y , alors E(X|G) ≤ E(Y |G).
3. E(E(X|G)) = E(X).
4. Si X est G−mesurable, alors E(X|G) = X.
5. Si Y est G−mesurable, alors E(XY |G) = Y E(X|G).
6. Si X est indépendante de G (on note X⊥G), alors E(X|G) = E(X).
      
7. Si G ⊂ H, alors E E X|G |H = E E X|H |G = E X|H .

Inégalité de Jensen
Soient X une v.a., G une sous-tribu de F et ϕ : R −→ R convexe telle que E(|ϕ(X)|) < ∞. Alors
   
ϕ E X|G ≤ E ϕ(X)|G .

Proposition 1.1. Si X⊥G, Y est G−mesurable et φ : R × R −→ R est borélienne et telle que E(|φ(X, Y )|) <
∞, alors  
E φ(X, Y )|G = ψ(Y ), où ψ(y) = E(φ(X, y)).

Université de Cocody, UFR: Math-Info 4 Dr. Jean Marc OWO


Chapitre 2

Généralités sur les processus


stochastiques

1. Notion de processus stochastiques


L’objet de la théorie des processus stochastiques (ou aléatoires) est l’étude des phénomènes aléatoires dé-
pendant du temps. Soit (Ω, F, P) un espace probabilisé, un ensemble T appelé ensemble des temps (exemples :
T = R+ ou [0, T ]). Soit aussi (E, E) un espace mesurable appelée l’espace des états.

Définition 2.1. Un processus stochastique à valeurs dans (E, E) basée sur (Ω, F, P) est une famille (Xt )t∈T
de variables aléatoires (v.a.) de (Ω, F, P) dans (E, E). C’est donc un modèle permettant d’étudier un phéno-
mène aléatoire évoluant au cours du temps.

A ω ∈ Ω, on associe l’application
T → E
t 7→ Xt (ω)
appelée la trajectoire de (Xt )t∈T associée à ω.
Pour ω ∈ Ω et t ∈ T, la quantité Xt (ω) est appelé état du processus à l’instant t.
Prenons E = Rd , E = B(Rd ).
On dira que deux processus stochastiques décrivent le même phénomène aléatoire s’ils sont équivalents
au sens suivant :

Définition 2.2. Soient (Xt )t∈T et (Xt0 )t∈T deux processus stochastiques à valeurs dans le même espace d’états
(E, E), avec (Xt )t∈T basée sur (Ω, F, P) et (Xt0 )t∈T basée sur (Ω0 , F 0 , P0 ). On dit qu’ils sont équivalents si
∀ n ≥ 1, ∀ t1 , ..., tn ∈ T, ∀ B1 , ..., Bn ∈ E, on a

P(Xt1 ∈ B1 , ..., Xtn ∈ Bn ) = P0 (Xt01 ∈ B1 , ..., Xt0n ∈ Bn ).

On dira encore que chacun de ces processus est une version de l’autre ou encore que (Xt )t∈T et (Xt0 )t∈T
sont des versions du même processus. (C’est une relation d’équivalence !).

1.1. Caractérisation

Rappel : Pour caractériser une v.a. X, il suiffit de donner sa loi : P(X ≤ x), ∀ x ∈ Rd .

Que faut-il pour caractériser un processus (Xt )t∈T ?

5
CHAPITRE 2. GÉNÉRALITÉS SUR LES PROCESSUS STOCHASTIQUES

Pour caractériser un processus (Xt )t∈T , il suiffit de donner ses lois de dimension finie ou ses répartitions
finies : P(Xt1 ≤ x1 , ..., Xtn ≤ xn ), ∀ n ≥ 1, ∀ t1 , ..., tn ∈ T, ∀ x1 , ..., xn ∈ Rd , c’est à dire la famille des lois
des v.a. (Xt1 , ..., Xtn ) lorsque {t1 , ..., tn } parcourt l’ensemble des parties finies non vides de T.

Proposition 2.1. Deux processus stochastiques sont équivalents si et seulement si ils ont les mêmes répar-
titions finies.

Notons que l’espace T des indices est souvent assimilé au temps, t est alors l’instant d’observation de la
variable aléatoire X sur l’individu ω. Si la variable t prend des valeurs discrètes équidistantes, le processus
décrit des séries chronologiques. L’espace T ne représente pas toujours le temps, il peut avoir d’autres
significations, comme le nombre de kilomètres parcourus, etc.
Mais ici, nous aurons :
T ⊆ N ce qui correspond aux processus à temps discret. - Lorsque T = N, le processus est décrit par une
suite X0 , X1 , X2 , ... de variables aléatoires à valeurs dans (E, B) (appelée une chaine). - Si E est fini ou
dénombrable, ces variables aléatoires sont forcément des variables aléatoires discrètes.
T = [0, T ], T ∈ R∗+ où T = R+ , pour les processus à temps continu.
Lorsque E et T sont discrets, toute trajectoire est constituée par une suite de points dans le plan.

1.2. Filtration
Pour matérialiser la connaissance du processus X jusqu’à l’instant t (inclus), on introduit la tribu des
événements se produisant jusqu’à l’instant t, comme étant la tribu engendrée par la famille (Xs )s∈[0,t] . On
X
la note F0,t ou simplement Ft = σ(Xs ; s ≤ t).
La famille (Ft )t∈T de ces tribus est monotone croissante : Fs ⊂ Ft , ∀ s ≤ t. Cette famille (Ft )t∈T est appelée
la filtration naturelle du processus X.
En particulier, pour les processus à temps discret, on a : FnX = σ(X0 , ..., Xn ).
Tout événement A ∈ FnX est réunion dénombrable d’événements de la forme :

{X0 ∈ B0 , X1 ∈ B1 , ..., Xn ∈ Bn } où B1 , ..., Bn ∈ E.

Nontons que F0 ne contient pas nécessairement l’ensemble des parties P−négligeables N . C’est pour cela
que l’on introduit souvent la filtration naturelle augmentée de X d’éfinie par F̄tX = σ(Ft ∪ N ).
Lorsque nous parlerons de filtration naturelle il s’agira toujours de filtration naturelle augmentée qu’on
notera encore FtX ou simplement Ft .

2. Processus à temps continu


2.1. Généralités
Pour simplifier, les énoncés qui suivent sont donnés avec T = R+ , pour alléger l’écriture, nous noterons
un processus X plutôt que (Xt )t≥0 .

Définition 2.3. Les variables aléatoires Xt − Xs , t > s ≥ 0 sont appelées des accroissements du processus
X.

Définition 2.4. Un processus stochastique (Xt )t≥0 est un processus à accroissements indépendants (en
abrégé P.A.I.) si pour tout n ≥ 2 et tous t0 , t1 , ...., tn ∈ R+ tels que 0 ≤ t0 < t1 < .... < tn , les variables
aléatoires Xt1 − Xt0 , Xt2 − Xt1 , ...., Xtn − Xtn−1 sont indépendantes. Autrement dit si pour tous s, t ∈ R+
tels que 0 ≤ s < t, la variable aléatoire Xt − Xs est indépendant de la tribu FsX .

Université de Cocody, UFR: Math-Info 6 Dr. Jean Marc OWO


CHAPITRE 2. GÉNÉRALITÉS SUR LES PROCESSUS STOCHASTIQUES

Un processus stochastique (Xt )t≥0 est un processus à accroissements stationnairs (en abrégé P.A.S.) si pour
tous s, t ∈ R+ tels que 0 ≤ s < t, la variable aléatoire Xt − Xs a la même loi que Xt−s − X0 , (on note
L
Xt − Xs = Xt−s − X0 ).

Définition 2.5. Un processus stochastique (Xt )t≥0 est un processus accroissements indépendants station-
nairs (en abrégé P.A.I.S.) s’il est à la fois un P.A.I. et un P.A.S..

Pour de tels processus, donner la loi de Xt − X0 , t ≥ 0, ainsi que celle de X0 suffit à caractériser
entièrement le processus.

Définition 2.6. Un processus X est P−p.s. continu à droite (resp. : P−p.s. continu à gauche, P−p.s. continu
) si pour P−presque tout ω ∈ Ω, t 7→ Xt (ω) est continue à droite (resp. : continue à gauche, continue).

Définition 2.7. Un processus X est mesurable si l’aplication (t, ω) 7→ Xt (ω) de R+ × Ω dans Rd est
mesurable par rapport aux tribus B(R+ ) F et B(Rd ).
N

Définition 2.8. Soient X et X 0 deux processus stochastiques basés sur un même espace de probabilité à
valeurs dans un même espace d’états. On dit que X 0 est une modification de X si pour tout t ≥ 0, Xt =
Xt0 P−p.s. : ∀ t ≥ 0, P(Xt = Xt0 ) = 1.
X et X 0 sont indistinguables si, P−p.s., les trajectoires de X et de Y sont les mêmes c’est à dire P(Xt =
Xt0 , ∀ t ≥ 0) = 1.

Définition 2.9. Un processus X est adapté par rapport à la filtration (Ft )t≥0 si pour tout t ≥ 0, Xt est
Ft −mesurable.

Un processus est toujours adapté par rapport à sa filtration naturelle.


Remarque. Si N ⊂ F0 , et si X est adapté par rapport à (Ft )t≥0 alors toute modification de X est encore
adaptée.

Définition 2.10. Un processus X est progressivement mesurable si l’aplication (s, ω) 7→ Xs (ω) de [0, t] × Ω
dans Rd est mesurable par rapport à B([0, t]) Ft et B(Rd ).
N

Un processus progressivement mesurable est mesurable et adapté. On peut également noter que si X est
un processus mesurable et adapté alors il possède une modification progressivement mesurable. On a aussi
le résultat suivant :

Proposition 2.2. Si X est un processus stochastique dont les trajectoires sont continues à droite (ou conti-
nues à gauche) alors X est mesurable et X est progressivement mesurable s’il est de plus adapté.

2.2. Processus gaussiens


Définition 2.11. Un processus stochastique (Xt )t∈R+ est un processus gaussien réel s’il est à valeurs dans
(R, B(R)) et si pour tout n ≥ 2 et tous t0 , t1 , ...., tn ∈ R+ , la v.a (Xt1 , Xt2 , ...., Xtn ) est gaussienne.

Rappels :
a). Une v.a.r. Y est dite gaussiennne s’il existe des réels a, b et une v.a.r. U de loi N (0, 1) telles que Y =
aU + b P−p.s. En particulier, toute v.a.r. P−p.s. constante est gaussienne (cas a = 0). Si a 6= 0, Y a la loi
normale N (b, a2 ).
b). Une v.a. Y = (Y1 , ..., Yn ) à valeurs dans Rn (n ≥ 2) est dite gaussienne si pour tout u ∈ Rn , hu, Y i =
Xn
ui Yi est une v.a.r. gaussienne.
i=1
Si Y1 , ..., Yn sont indépendantes et gaussiennes, alors Y = (Y1 , ..., Yn ) est un vecteur gaussien.

Université de Cocody, UFR: Math-Info 7 Dr. Jean Marc OWO


CHAPITRE 2. GÉNÉRALITÉS SUR LES PROCESSUS STOCHASTIQUES

La moyenne m d’un processus gaussien réel (Xt )t∈R+ est l’application de R+ dans R donnée par m(t) =
E(Xt ).
Lorsque m(t) = 0 ∀ t ∈ R+ , on dit que (Xt )t∈R+ est gaussien centré.
La covariance c d’un processus gaussien réel (Xt )t∈R+ est l’application de R+ × R+ dans R définie par
c(s, t) = Cov(Xs , Xt ).

Proposition 2.3. L’application c est symétrique et semi-définie positive (ou de type positif )c’est à dire
i.) c(s, t) = c(t, s), ∀ t ∈ R+ .
n
X
ii.) ∀ n ≥ 1, ∀ t1 , ...., tn ∈ R+ , ∀ λ1 , ...., λn ∈ R, c(ti , tj )λi λj ≥ 0.
i,j=1

2.3. Variation totale et variation quadratique


Définition 2.12. Soit X un processus. Pour tout tR+ , on définit la variation infinitésimale d’ordre p de X
sur [0, t] associée à une subdivision π = {0 = t0 < t1 < ... < tn = t} de [0, t] par :

n−1
X p
Vtp (X, π) = Xti+1 − Xti .
i=1

Si Vtp (X, π) a une limite dans un certain sens (convergence Lp , convergence p.s.) lorsque
|π| = sup |ti+1 − ti | −→ 0, la limite ne dépend pas de la subdivision choisie et est appelée variation d’ordre
0≤i≤n
p de X sur [0, t] notée Vtp (X).
Si p = 1, la limite Vt1 (X) est appelée variation totale de X sur [0, t].
Si p = 2, la limite Vt2 (X) est appelée variation quadratique de X sur [0, t] notée hXit .

On associe donc à X les processus V 1 (X) et hXi appelés respectivement variation totale et variation qua-
dratique de X.
Remarque. Les processus V 1 (X) et hXi sont des processus croissants.

Définition 2.13. Un processus X est à variation finie (resp. bornée) s’il est à variation finie (resp. bornée)
trajectoirs par trajectoires :
n−1
X
∀ t, Vt1 (X) = sup Xti+1 − Xti < +∞ p.s. (resp. sup Vt1 (X) < +∞ p.s.)
π t
i=1

Exemple. Si pour presque tout ω ∈ Ω, t 7−→ Xt (ω) est de classe C 1 ou monotone, alors X est à variation
finie.
Remarque : Un processus X est à variation finie si et seulement s’il est variation localement bornée.

Proposition 2.4. Un processus X est à variation finie si et seulement s’il est différence de deux processus
croissants.

Proposition 2.5. Si X est un processus à variation finie (ou borné) à trajectoires continues, sa variation
quadratique est nulle presque surement : hXi = 0, p.s.

L’application : X −→ hXi est quadratique, on lui associe donc sa forme bilinéaire :


1 
(X, Y ) 7−→ hX, Y i = hX + Y i − hXi − hY i .
2
La quantité hX, Y i est donc appelée covariation quadratique de X et Y .
Remarque : hX, Y i s’identifie à la limite dans L2 de
n−1
X  
Xti+1 − Xti Yti+1 − Yti .
i=1

Université de Cocody, UFR: Math-Info 8 Dr. Jean Marc OWO


CHAPITRE 2. GÉNÉRALITÉS SUR LES PROCESSUS STOCHASTIQUES

Proposition 2.6. Soit X un processus à variation finie (ou borné) à trajectoires continues et Y un processus
à variation quadratique finie, alors X + Y est à variation quadratique finie et on a :

hX + Y i = hY i.

Ce qui revient à dire que :


hX, Y i = 0.

Université de Cocody, UFR: Math-Info 9 Dr. Jean Marc OWO


Chapitre 3

Chaines de Markov

Les chaines de markov constituent l’exemple le plus simple des processus stochastiques, lorsque dans
l’étude d’une suite de variables aléatoires, on abandonne l’hypothèse d’indépendance. Il s’agit d’un processus
à temps discret, d’où le nom de chaine. L’espace E d’états peut être arbitraire, mais sera ici soit fini soit
dénombrable.

1. Propriété de Markov
1.1. Définitions
Soit (Xn )n≥0 un processus stochastique à temps discret défini sur un espace probabilisé (Ω, F, P), à
valeurs dans un espace d’états E fini ou dénombrable.

Définition 3.1. Le processus stochastique (Xn )n≥0 est appelé chaine de Markov si pour tout n ∈ N, la loi
conditionnelle de Xn+1 sachant X0 , X1 , ..., Xn est égale à sa loi conditionnelle sachant Xn , i.e. pour tout
n ≥ 1 et toute suite x0 , ..., xn−1 , xn , xn+1 d’éléments de E pour la quelle la probabilité P(X0 = x0 , ..., Xn−1 =
xn−1 , Xn = xn ) est strictement positive, on a

P(Xn+1 = xn+1 |X0 = x0 , ..., Xn−1 = xn−1 , Xn = xn ) = P(Xn+1 = xn+1 |Xn = xn ).

Autrement dit, dans l’évolution au cours du temps, l’état du processus à l’instant n + 1 ne depend que de
ce lui à l’instant n précédent, mais non de ses états antérieurs, i.e connaissant Xn , on peut oublier le passé
pour prédire l’avenir. Le processus est sans mémoire ou non héréditaire.
La propriété dans cette définition est la propriété de Markov.

Proposition 3.1. Le processus stochastique (Xn )n≥0 est une chaine de Markov sur E si et seulement si
pour tout n ≥ 1 et toute suite x0 , ..., xn−1 , xn d’éléments de E

P(X0 = x0 , ..., Xn−1 = xn−1 , Xn = xn ) = P(X0 = x0 )P(X1 = x1 |X0 = x0 ) · · · P(Xn = xn |Xn−1 = xn−1 ).

Un critère simple qui permet dans la plupart des cas de vérifier qu’un processus est une chaine de Markov
est donné par :

Lemme 3.1. Soit E et F deux ensembles finis ou dénombrables et f une application de N × E × F dans E.
Soit X0 , Y1 , Y2 , ..., des v.a mutuellement indépendantes, X0 à valeurs dans E et les Yn à valeurs dans F ,
et (Xn )n≥1 le processus à valeurs dans E défini par :

Xn+1 = f (n, Xn , Yn+1 ), n ∈ N.

Alors (Xn )n≥0 est une chaine de markov.

10
CHAPITRE 3. CHAINES DE MARKOV

Définition 3.2. Une chaine de Markov (Xn )n≥0 est dite homogène (dans temps) si pour tout x, y ∈ E et
tout instant n ∈ N , on a

P(Xn+1 = y|Xn = x) = P(Xn+k+1 = y|Xn+k = x), ∀ k ∈ N,

i.e. si la probabilité P(Xn+1 = y|Xn = x) ne dépend pas de n.

Soit p(x, y) = P(Xn+1 = y|Xn = x), n ≥ 0, cette probabilité ; on l’appelle probabilité de passage de
l’état x à l’état y, en une étape ou en une operation, ou encore en une transition.

Définition 3.3. La matrice P = (p(x, y))(x,y)∈E 2 dont les coefficients sont les probabilités de transition
p(x, y) est appelée matrice de passage (ou de transition) de la chaine. C’est une matrice fine ou dénombrable,
suivant que l’ensemble E des états est fini ou dénombrable.

Propriété 3.1. Toute matrice de transition P = (p(x, y))(x,y)∈E 2 vérifie les propriétés suivantes :
(i) ∀ (x, y) ∈ E 2 , p(x, y) ≥ 0
X
(ii) ∀ x ∈ E, p(x, y) = 1
y∈E

Une matrice P , qui vérifie les conditions (i) et (ii) de la propriété précédente est appelée matrice marko-
vienne (ou stochastique).
Pour une chaine de markov de matrice de transition P = (p(x, y))(x,y)∈E 2 , on a

P(X0 = x0 , ..., Xn−1 = xn−1 , Xn = xn ) = P(X0 = x0 )p(x0 , x1 ) · · · p(xn−1 , xn ).

La loi d’une chaine de Markov homogène est donc entièrement caractérisée par la donnée de la loi initiale
(loi de X0 ) et de la matrice de transition P .

Propriété 3.2. Soit P une matrice de transition. Alors


(i) P admet la valeur propre 1 ;
(ii) On peut associer à cette valeur propre le vecteur propre V ayant toutes ses composantes égales à 1.

Lorsque l’on étudie une chaine de Markov homogène, on est souvent amené à visualiser une partie du
comportement de la chaine en traçant ce que l’on appelle le graphe d’états ou graphe de transition ou de
Markov. Ce graphe d’états est un graphe orienté dont les sommets sont les différents états de la chaine et
dont les arcs orientés relient les sommets x et y tels p(x, y) > 0. Si on souhaite donner tous les renseignements
sur le graphe, on construit un graphe valué en affectant à l’arc (x, y) le poids p(x, y).
Lorsque l’espace des états est fini, cette présentation de la matrice de transition par son graphe est
particulièrement utile et parlante

Exemple 3.1. Soit {Xn : n ∈ N} une chaine de Markov à valeurs dans l’espace fini E = {1, 2, 3, 4, 5}, de
matrice de transition, dont les termes hors-diagonaux sont donnés par
 
. 0 0 0 0
 1 1 1

 3 . 0 

4 4 
P =  0 12 . 0 12 
 
 
 0 0 0 . 1 
 
0 0 0 1 .

1. Déterminer les termes diagonaux de la matrice de transition P .


2. Donner le graphe représentatif de la chaine

Université de Cocody, UFR: Math-Info 11 Dr. Jean Marc OWO


CHAPITRE 3. CHAINES DE MARKOV

Soit (Xn )n≥0 une chaine de Markov homogène d’espace d’états E et de matrice de transition P =
(p(x, y))(x,y)∈E 2 . Pour n ≥ 0 et x, y ∈ E, on désigne par p(n) (x, y) la probabilité, partant de l’état x en
l’instant 0, d’être dans l’état y en l’instant n ; en d’autres termes, on pose

p(n) (x, y) = P(Xn = y|X0 = x).



On pose également : P (n) = p(n) (x, y) (x,y)∈E 2
.
(
1, si x = y
Remarque. p(1) (x, y) = p(x, y), P (1) = P et p(0) (x, y) = δxy = , P (0) = I.
0, si x 6= y

Théorème 3.1 (Relation de Chapman-Kolmogorov). Pour tout n ≥ 0, la matrice en n étatpes est égale à
la puissance nime de la matrice de transition en une étape :

P (n) = P n .

Corollaire 3.1. Pour tout n ≥ 0, la matrice P (n) est stochastique.

Corollaire 3.2. Pour tout (x, y) ∈ E 2 et tout couple (m, n) ∈ N, on a l’identité :


X
P(Xm+n = y|X0 = x) = P(Xm = z|X0 = x)P(Xn = y|X0 = z),
k∈E

ou encore
X
p(m+n) (x, y) = p(m) (x, z)p(n) (z, y); P (m+n) = P (m) P (n) .
z∈E

Connaissant la loi initiale et la fonction de transition, il est facile de calculer la loi de Xn .

Proposition 3.2. Soit π (0) la distribution de l’état initial d’une chaine de Markov homogène de matrice de
transition P et π (n) la distribution de son état à l’instant n, c’est à dire, π (n) (x) = P(Xn = x), ∀ x ∈ E.
Alors, pour tout n ≥ 1, on a
π (n) = π (n−1) P et π (n) = π (0) P n .

Restriction : Dans la suite, l’étude portera sur une chaine de Markov à temps discret, définie sur un espace
d’états fini et homogène dans le temps.
Notons que les résultats que nous allons présenter s’applique le plus souvent tels quels aux chaines de Markove
à temps discret, homogène mais définis sur un espace d’états dénombrable (par exemple E = Z).

1.2. Propriété de Markov faible


On peut généraliser la propriété de Markov de la définition.

Théorème 3.2 (Propriété de Markov faible ). Soit (Xn )n≥0 une chaine de Markov homogène à valeur
dans E de matrice de transition P = (p(x, y))(x,y)∈E 2 . Pour tous n et k et pour tous y1 , ..., yk , pour tout
A ∈ Fn = σ(X0 , ..., Xn ) tel que P(A, Xn = x) > 0,on a :

P(Xn+1 = y1 , ..., Xn+k = yk |A, Xn = x) = P(X1 = y1 , ..., Xk = yk |X0 = x) (3.1)


= p(x, y1 )p(y1 , y2 ) · · · p(yk−1 , yk ).

et pour toute fonction mesurable de E k dans R, on a :

E(f (Xn+1 , ..., Xn+k )|A, Xn = x) = E(f (X1 , ..., Xk )|X0 = x). (3.2)

Université de Cocody, UFR: Math-Info 12 Dr. Jean Marc OWO


CHAPITRE 3. CHAINES DE MARKOV

1.3. Propriété de Markov forte


Une formulation encore plus générale de la propriété de Markov permet de remplacer l’instant n par
un instant aléatoire à condition que l’instant aléatoire vérifie une propriété dite de temps d’arrêt. Cette
formulation est ce qu’on appelle la propriété de Markov forte.

Définition 3.4. Une variable aléatoire τ à valeurs dans N ∪ {+∞} est un temps d’arrêt pour la chaîne de
Markov (Xn )n≥0 )( ou relativement à la filtration (Fn = σ(X0 , ..., Xn ))n≥0 ) si : ∀ n ≥ 0, {τ = n} ∈ Fn .

Exemple : soit (Xn )n≥0 ) une chîne de Markov à valeur dans E, A un sous-ensemble de E et SA le premier
temps d’atteinte de A : SA = inf{n ≥ 0; Xn ∈ A}. On a :

{SA = n} = {X0 6∈ A, X1 6∈ A, ..., Xn−1 6∈ A, Xn ∈ A} ∈ Fn .

Donc SA est un temps d’arrêt.


De même, pour tout état y, posons

Ty = inf{n ≥ 1; Xn = y}.

Ty est un temps d’arrêt pour la filtration (Fn = σ(X0 , ..., Xn )), il est appelé instant du "premier retour"
de la chaine (Xn )n≥0 à l’état y lorsque la chaîne part de y et temps d’atteinte de y ou instant du "premier
passage" à y sinon.

Définition 3.5. Si τ est un temps d’arrêt, on définit la tribu Fτ des événements antérieurs τ par :

A ∈ Fτ ⇐⇒ A ∩ {τ = n} ∈ Fn , ∀ n ≥ 0.

Si τ est un temps d’arrêt, alors Xτ est Fτ −mesurable.


L’événement {τ < +∞} appartient à Fτ .
Si τ1 et τ2 sont deux temps d’arrêt tels que τ1 ≤ τ2 , alors Fτ1 ⊂ Fτ2 .

Le théorème 3.2 se généralise de la manière suivante :

Théorème 3.3 (Propriété de Markov forte ). Soit (Xn )n≥0 une chaine de Markov homogène à valeur dans
E de matrice de transition P = (p(x, y))(x,y)∈E 2 et τ est un temps d’arrêt de la chaîne. Pour tous n et k et
pour tous y1 , ..., yk , pour tout A ∈ Fτ tel que
P(τ < +∞, A, Xτ = x) > 0,on a :

P(Xτ +1 = y1 , ..., Xτ +k = yk |τ < +∞, A, Xτ = x) = P(X1 = y1 , ..., Xk = yk |X0 = x)


= p(x, y1 )p(y1 , y2 ) · · · p(yk−1 , yk ). (3.3)

et pour toute fonction mesurable de E k dans R, on a :

E(f (Xτ +1 , ..., Xτ +k )|τ < +∞, A, Xτ = x) = E(f (X1 , ..., Xk )|X0 = x). (3.4)

Corollaire 3.3. Conditionnellement à l’événement {Ty < +∞}, la suite translatée (XTy +k )k≥0 est une
chaine de Markov, de matrice de transition P et d’état initial y. De plus, la suite translatée (XTy +k )k≥1 est
indépendante de la tribu FTy .

Université de Cocody, UFR: Math-Info 13 Dr. Jean Marc OWO


CHAPITRE 3. CHAINES DE MARKOV

2. Classification des états


2.1. Classes et graphe réduit
Les états d’une chaine de Markov se répartissent en classes que l’on définit à partir de la matrice de
transition.
Soit P la matrice de transition d’une chaine de Markov et G son graphe représentatif.

Définition 3.6. On dit que l’état y est accessible à partir de l’état x ou est conéquent de l’état x (on dit
aussi l’état x conduit à l’état x), s’il existe un entier n ≥ 0 tel que p(n) (x, y) > 0.
En d’autres termes, s’il existe dans G au moins un chemin de x à y. On écrit : x y.

Propriété 3.3. La relation d’accessibilité entre états est une relation de préordre i.e. réflexive et transitive.

Définition 3.7. On dit que deux états x et y communiquent et l’on écrit : x ! y, si on a à la fois x y
et y x.

Propriété 3.4. La relation de communication entre états est une relation d’équivalence.

Remarque. En raison du fait que, pour tout x, on a p(0) (x, x) = 1, tout état communique avec lui-même.
Un état est appelé état de retour, s’il existe n ≥ 1 tel que p(n) (x, x) > 0. Il existe des états x tels que pour
tout n ≥ 1 (donc 0 exclu) on ait p(n) (x, x) = 0. De tels états sont appelés états de non-retour.
Pour la relation de communication, l’ensemble E des états se partitionne en classe d’équivalence, disjoints
et non vides, dites classes indécomposables. Il est possible de quitter une classe d’équivalence mais il est
impossible d’y retourner.

Définition 3.8 (Graphe réduit). Si C1 , ..., Cr dénotent les classes d’une chaine de Markov, le graphe
réduit GR de la chaine est obtenu en associant un sommet à chaque classe Ck et en reliant les sommets u
et v par un arc (u, v) s’il existe x ∈ Cu et y ∈ Cv avec p(n) (x, y) > 0. Dans ce cas, ∀ x ∈ Cu et ∀ y ∈ Cv ,
p(n) (y, x) = 0, ∀ n ≥ 0.

Propriété 3.5. Le graphe réduit GR d’une chaine de Markov est un graphe sans circuit.

Tous les états d’une même classe communiquent.


Certaines classes peuvent ne comporter qu’un seul élément ; ce sont les singletons.

Définition 3.9. S’il n’y a qu’une seule classe pour la relation de communication, autrement dit, si tous les
états communiquent entre eux, la chaine est dite irréductible.

Exemple 3.2. On considère la chaine de Markov à espace d’états E = {1, 2, 3} et de matrice de transition
 
1 1
0
 2 2 
P = 1 1 1 
 2 4 4 .
1 2
0 3 3

- Donner son graphe.


- Cette chaine est-elle irréductible ?

Exemple 3.3. On considère la chaine de Markov à espace d’états E = {1, 2, 3, 4}, de matrice de transition
 
1 1
0 0
 21 21 
 2 2 0 0 
P =
 1 1 1
.
1 
 4 4 4 4 
0 0 0 1
- Déterminer les classes d’équivalence pour la relation de communication.
- Si possible, donner le graphe réduit associé à cette chaine.

Université de Cocody, UFR: Math-Info 14 Dr. Jean Marc OWO


CHAPITRE 3. CHAINES DE MARKOV

Définition 3.10. - Une classe est dite persistante (stable ou fermé) si elle correspond à un sommet sans
successeur de GR , i.e., si aucun état appartenant à C ne conduit à un état hors de C : ∀ x ∈ C et ∀ y 6∈ C,
p(x, y) = 0.
-Si tel n’est pas le cas, la classe dite transitoire (instable ou ouvert).
- Les états d’une classe persistante sont persistants ou récurrents et ceux d’une classe transitoire sont tran-
sitoires.
- Une classe persistante composée d’un seul état est absorbante. Un état est absorbant s’il forme, à lui seul,
une classe persistante. Cet état ne communique avec aucun autre état.

Propriété 3.6. Un état x est absorbant si et seulement si p(x, x) = 1.

Définition 3.11. Une chaine de Markov est dite absorbante si ses états persistants le sont.

Définition 3.12. Une chaine de Markov est dite récurrente irreductible si elle irréductible et si tous les états
sont récurrents.

Proposition 3.3. Toute chaine de Markov irréductible sur un espace fini d’états E est récurrent irréductible.

2.2. Périodicité
Il s’agit d’étudier dans quelles conditions le temps qui sépare deux retours au même état x est ou n’est
pas multiple d’un temps minimum. Pour ce faire, on introduit la notion de période.

Définition 3.13. Soit i un état de retour ; on appelle période de x, le PGCD de tous les entiers n ≥ 1 pour
lesquels p(n) (x, x) > 0. On note d(x) la période de x. Si d(x) = d ≥ 2, on dit que x est périodique de période
d ; si d(x) = 1, on dit que x est apériodique. Si x est un état de non-retour, à savoir que, pour tout n ≥ 1,
on a p(n) (x, x) = 0, on pose d(x) = +∞.

Propriété 3.7. l’état x est périodique de période d fini ssi d est le plus grand diviseur commun des longueurs
des circuits du graphe représentatif G passant par x.

Propriété 3.8. Si p(x, x) > 0, l’état x est apériodique.

Propriété 3.9. Les états d’une classe ont tous la même période.

La période étant une propriété de classe, on parlera de classes périodiques et de classes apériodiques,
de chaines de Markov irreductibles périodiques et de chaines de Markov irreductibles périodiques selon les
propriétés de leurs états.

2.3. Etats récurrents et transitoires


Une des questions importantes qui se posent face à une chaine de Markov est de savoir si, partant d’un
point, on y revient avec probabilité 1. Autrement dit, si on se promène en suivant une chaîne de Markov,
est-on sûr de rapasser par son point de départ ? Pour étudier ces questions, on considère un état y et le
temps d’atteinte de la chaîne de Markov (Xn )n≥0 dans cet état à partir de l’instant 1 :

Ty = inf{n ≥ 1; Xn = y}.

Pour tout état x et tout n ≥ 1, posons

ρ(n)
xy = Px (Ty = n) = P(Ty = n|X0 = x).

(n)
Ainsi, ρxy (n ≥ 1) est la probabilité pour que le processus, partant de l’état x, atteigne l’état y, pour la
(0)
première fois, à l’instant n. par convention, on pose, ρxy = 0.

Université de Cocody, UFR: Math-Info 15 Dr. Jean Marc OWO


CHAPITRE 3. CHAINES DE MARKOV

Posons
X
ρxy = Px (Ty < +∞) = P(Ty < +∞|X0 = x) = ρ(n)
xy .
n≥1

C’est la probabilité pour que le processus, partant de l’état x, passe par l’état y au moins une fois au cours
du temps ; si x = y la quantité ρyy est la probabilité pour que le processus, partant de y, retourne à y au
moins une fois au cours du temps.

Définition 3.14. On dit que l’état y est récurrent, si ρyy = 1. On dit qu’il est transitoire ou transient si
ρyy < 1.

On définit le nombre de retours ou de passages ou de visites de la chaîne à l’état y après l’instant 0 (à


partir de l’instant 1) :
X
Ny = 1{Xn =y} .
n≥1

Remarquons que {Ty < +∞} = {Ny ≥ 1}.

Proposition 3.4. Pour tout couple (x, y) d’états et tout k ≥ 1, on a


- Px (Ny ≥ k) = ρxy ρk−1
yy .
- Px (Ny = k) = ρxy ρk−1
yy (1 − ρyy ).

Proposition 3.5.

(i) Si y est récurrent,


Py (Ny = +∞) = 1, Px (Ny = +∞) = ρxy .

(ii) Si y est transient,


ρxy
Px (Ny < +∞) = 1, Ex (Ny ) = .
1 − ρyy
Si l’état y est récurrent et si la chaîne part de y, elle y revient une infinité de fois ; tandis que si elle part
d’un point x 6= y, elle peut ou non revenir en y mais si elle y revient au moins une fois, elle y revient alors
une infinité de fois.
Si l’état y est transient, alors quelle que soit la loi initiale la chaîne ne passera qu’un nombre fini de fois
par y.

Corollaire 3.4 (Critère de récurrence).


y est récurrent ⇐⇒ Ny = +∞ Py −p.s ⇐⇒ Ey (Ny ) = +∞
ou
X
y est récurrent ⇐⇒ p(n) (y, y) = +∞.
n≥1

Notons mxy l’espérance mathématique de Ty par rapport à la loi Px ;

mxy = Ex (Ty ) = E(Ty |X0 = x).

C’est le temps d’atteinte moyen dans y partant de x.


(n) P (n)
On rappelle que : ρxy = Px (Ty = n) et ρxy = n≥1 ρxy .
Si ρxy < 1, alors mxy = +∞.
P (n)
Si ρxy = 1, on a mxy = Ex (Ty ) = n≥1 nρxy , cette quantité peut être fini ou infini.
La quantité myy est appelée temps de retour moyen dans y ou nombre moyen de transition entre deux visites
1
successives de l’état y ; l’inverse est la fréquence moyenne de retour en y. (Si myy = +∞, on pose
myy
1
= 0.)
myy

Université de Cocody, UFR: Math-Info 16 Dr. Jean Marc OWO


CHAPITRE 3. CHAINES DE MARKOV

Définition 3.15. On dit que l’état y est positif, si myy < +∞ et qu’il est nul si myy = +∞.

Théorème 3.4 (Critère de positivité). Soit y un état ;


(i) Si lim sup p(n)
yy > 0, l’état y est positif
n−→∞
(ii) Si lim p(n)
yy = 0, l’état y est nulle.
n−→∞

Théorème 3.5. La propriété de positivité (de nullité) est une propriété de classe.

Remarque. Tout état positif est récurrent. Tout état transient est nul. Il y’a donc des classes récurrentes
positives, des classes récurrentes nulles et toutes classes transientes sont nulles. En revanche, lorsque l’en-
semble des états est fini, il n’y a pas de classe récurrente nulle, ou encore il y a identité entre états positifs
et récurrents, d’une part, et états nuls et transients, d’autre part.

Théorème 3.6. Les temps d’atteinte moyens mxy vérifient dans [1, +∞] la relation :
X
mxy = 1 + p(x, z)mzy .
z6=y

2.4. Ergodicité
Définition 3.16. On dit qu’un état est ergodicité, s’il est récurrent positif et apériodicité

L’ergodicité est une propriété de classe. Une classe contenant un état ergodique est dite ergodique.

Propriété 3.10. Un processus à espace d’états fini, irréductible et apériodique est ergodique.

Exemple 3.4. Considérons la chaine de Markov, à espace d’états E = {1, 2, 3}, de matrice de transition
 
0 1 0
 
P = 1 3 
 4 0 4 .
0 1 0

Déterminer les périodes des états.

Exemple 3.5. Considérons la chaine de Markov, à espace d’états E = {1, 2, 3}, de matrice de transition
 
1 1
0
 2 2 
P = 1 1 1 .
 2 4 4 
1 2
0 3 3

Classifier les différents états de la chaine, préciser s’ils sont ergodiques.

Exemple 3.6. On considère la chaine de Markov, à espace d’états E = {1, 2, 3, 4}, de matrice de transition
 
1 1
2 2 0 0
 1 1 
 2 2 0 0 
P =
 1 1 1
.
1 
 4 4 4 4 
0 0 0 1

Déterminer les classes persistantes et transitoires. Sont-elles périodiques ? les classes persistantes sont-elles
ergodiques ?

Université de Cocody, UFR: Math-Info 17 Dr. Jean Marc OWO


CHAPITRE 3. CHAINES DE MARKOV

2.5. Probabilités d’absorption (capture par les classes récurrentes)


Supposons que E = R ∪ T , où R est un ensemble non vide d’états récurrents (nécessairement récurrents
positifs) et T est un ensemble non vide d’états transients (formés d’une ou plusieurs classes).
Soit C un sous-ensemble de E. Notons TC le temps d’atteinte de la chaîne (X)n≥0 dans C.

TC = inf{n ≥ 1; Xn ∈ C}.

On remarque que si X0 ∈ C, TC = SC = inf{n ≥ 0; Xn ∈ C}, sinon TC 6= SC . Posons :

ρC (x) = Px (TC < +∞) = P(TC < +∞|X0 = x).

C’est la probabilité pour que le processus, partant de l’état x, passe par C au moins une fois au cours du
temps àprès l’instant 0.
Alors, la fonction f (x) = Px (TC < +∞) = ρC (x) est solution du système d’équations :
X X
f (x) = p(x, y) + p(x, y)f (x).
y∈C y6∈C

Si C ⊂ R est une classe récurrente, la quantité f (x) = ρC (x) est appelée probabilité d’absorption de x par
C et On a :
Propriétés.
X (
1, si x ∈ C
f (x) =
0, si x ∈ R\C
X
0 < f (x) < 1, si x ∈ T .

X
X X
f (x) = p(x, y) + p(x, y)f (y), si x ∈ T .
y∈C y∈T

2.6. Temps moyen avant absorption


Si C ⊂ R est une classe récurrente, on appelle temps moyen avant absorption de x par C, le nombre

mC (x) = Ex (TC ) = E(TC |X0 = x).

On note m(x) le temps moyen avant que la chaine partant de x soit absorbée dans l’une des classes
persitantes. Alors, on a
Propriétés.
X
m(x) = 0, si x ∈ R.

X
1 < m(x) < +∞, si x ∈ T .

X
X
m(x) = 1 + p(x, y)m(y), si x ∈ T .
y∈E

Université de Cocody, UFR: Math-Info 18 Dr. Jean Marc OWO


CHAPITRE 3. CHAINES DE MARKOV

3. Comportement asymptotique des chaines de Markov


L’étude du comportement à long terme d’une chaine de Markov cherche à des questions aussi diverses
que :
– la distribution π (n) des états de la chaine converge-t-elle, lorsque n −→ ∞ ?
– si la distribution π (n) converge lorsque n −→ ∞, quelle est la limite π ∗ ?. Cette limite est-elle indépen-
dante de la distribution initiale π (0)
– si l’état x est persitant, quelle est la proportion du temps passé dans cette état et quel est le nombre
moyen de transitions entre deux visites successives de cet état ?
– si l’état x est transitoire, quel est le nombre moyen de transitions de visites de cet état ?

3.1. Mesures invariantes


Définition 3.17. On appelle mesure sur E un "vecteur ligne" γ = {γ(x); x ∈ E} telle que 0 ≤ γ(x) <
X
+∞, ∀ x ∈ E. Dans le cas où la mesure est finie, γ(x) < +∞, on peut la normaliser pour en faire
x∈E
une probabilité sur E, (π(x) = Xγ(x) ). Une mesure est dite stationnaire ou invariante (par la matrice de
γ(x)
x∈E
transition P ), si γ = γP . Elle est dite strctement positive si ∀ x ∈ E, γ(x) > 0.

Propriété 3.11. Si lim π (n) existe, alors la limite est une loi de probabilité stationnaire.
n−→∞

Remarque. Si π ∗ = lim π (n) , on parlera de distribution asymptotique, stationnaire ou invariante.


n−→∞

Propriété 3.12. Toute chaîne de Markov homogène sur un espace d’états fini admet au moins une loi de
probabilité invariante.

Théorème 3.7. Une chaîne de Markov homogène sur un espace d’états fini admet autant de lois de pro-
babilité stationnaires linéairement indépendantes que la multiplicité de la valeur propre 1 de sa matrice de
transition.

Théorème 3.8. La distribution π (n) des états d’une chaîne de Markov homogène converge vers une dis-
tribution π ∗ indépendante de la distribution initiale π (0) si et seulement si P n converge vers une matrice
stochastique P ∗ dont toutes les lignes sont égales entre elles. De plus, si tel est le cas, chaque ligne de P ∗
est égale à π ∗ .

3.2. Chaines de Markov irréductibles


Théorème 3.9. Toute chaîne de Markov homogène récurrente irréductible admet une mesure invariante
strictement positive sur E et toutes les mesures invariantes sont proportionnelles. Par suite la chaîne est
récurrente positive si et seulement si ses mesures stationnaires sont de masse totale finie.

Théorème 3.10. Toute chaîne de Markov homogène irréductible récurrente positive admet une unique
probabilité invariante π. Cette probabilité vérifie :
1 1
∀ x ∈ E, π(x) = = .
mxx Ex (Tx )

Corollaire 3.5. Une chaîne de Markov homogène irréductible est récurrente positive si et seulement si elle
possède une probabilité stationnaire (et celle-ci est alors unique).

Université de Cocody, UFR: Math-Info 19 Dr. Jean Marc OWO


CHAPITRE 3. CHAINES DE MARKOV

Corollaire 3.6. Toute chaîne de Markov homogène irréductible à espace d’états fini est récurrente positive :
elle admet une unique probabilité invariante π vérifiant
1 1
∀ x ∈ E, π(x) = = .
mxx Ex (Tx )
Le fait qu’une chaîne de Markov homogène soit irréductible récurrente positive, assure l’existence d’une
unique probabilité invariante, mais pas la convergence des matrices P n comme le montre l’exemple trivial
suivant : !
0 1
Si P = , ∀ n ∈ N, P 2n = I et P 2n+1 = P.
1 0

Le théorème suivant résume le comportement asymptotique des chaines (récurrentes) irréductibles.

Théorème 3.11 (Théorème d’Orey). Soit (X)n≥0 une chaîne de Markov homogène récurrente irréductible.
1. Si elle récurrente nulle, alors :

lim p(n) (x, y) = lim Px (Xn = y) = 0.


n→+∞ n→+∞

2. Si elle est récurrente positive de loi stationnaire π :


– soit elle est apériodique, et alors :

lim p(n) (x, y) = lim Px (Xn = y) = π(y)


n→+∞ n→+∞

– soit elle périodique de période d, et pour tout couple x, y d’états de E, il existe un entier r (0 ≤ r < d)
tel que :
lim p(n) (x, y) = lim Px (Xn = y) = 0,
n→+∞ n→+∞

si n n’est pas de la forme n = md + r et

lim p(md+r) (x, y) = lim Px (Xmd+r = y) = dπ(y).


m→+∞ m→+∞

Remarque.
(1) π(x) est la probabilité que la chaine se trouve dans l’état x à un instant quelconque. Cette valeur
représente aussi la proportion du temps passé dans l’état x.
(2) Si la chaîne est récurrente irréductible apériodique, P n converge vers une matrice stochastique P ∗
dont toutes les lignes sont égales à π = lim π (n) .
n−→∞
(3) Si la chaîne est récurrente (positive) irréductible périodique, P n ne converge au sens ordinaire. Mais
au sens de cesàro, P n converge vers une matrice stochastique dont toutes les lignes sont égales à π.

Rappel : On dit qu’une suite (xn )n≥1 converge au sens de Cesàro vers x∗ , si la suite des moyennes (xn )n≥1
n
1X
(xn = xn ) converge vers x∗ , au sens ordinaire.
n
k=1

n
1X
lim xn = x∗ .
n−→∞ n
k=1

C
On écrit xn −→ x∗ ou limC xn = x∗ .
n−→∞
C
Remarque. xn −→ x∗ =⇒ xn −→ x∗ . La réciproque est fausse. Exemple : xn = (−1)n converge au sens
de Césàro mais ne converge pas au sens ordinaire.

Au sens de Césàro, les chaînes de Markov homogènes irréductibles présentent toutes les mêmes propriétés
asymptotiques, indépendamment de leur période.

Université de Cocody, UFR: Math-Info 20 Dr. Jean Marc OWO


CHAPITRE 3. CHAINES DE MARKOV

Exemple 3.7. Soit la chaine de Markov définie par sa matrice de transition


 
1 3
0
 4 4 
P = 1 1 1 
 4 4 2 
1 1 1
4 2 4

1. Montrer que la chaine de Markov est irrédutible récurrente positive et apériodique


2. Déterminer le temps moyen passé par le processus dans l’état 2.
3. Combien de transitions faut-il, en moyenne, entre deux visites successives de l’état 1

On peut maintenant énoncer le théorème ergodique, qui constitue une généralisation de la loi des grangs
nombres.

Théorème 3.12 (Théorème ergodique). Soit (X)n≥0 une chaîne de Markov homogène irréductible de
loi initiale π (0) , quelconque. Alors P − p.s, quand n −→ +∞,
n
1X 1 1
∀ x ∈ E, 1{Xk =x} −→ = .
n mxx Ex (Tx )
k=1

De plus, si (X)n≥0 est récurrente positive de probabilité invariante π, pour toute fonction f : E −→ R bornée,
on a P − p.s, quand n −→ +∞,
n
1X X
f (Xk ) −→ πx f (x) = Eπ (f (X0 )).
n
k=1 x∈E

3.3. Chaînes de Markov réductibles


Soit (X)n≥0 une chaîne de Markov homogène à espace d’états fini E non irréductible (réductible). Il
existe au moins une classe récurrente (nécessairement récurrente positive), donc il existe au moins une
probabilité invariante. Toute probabilité invariante ne charge que les états récurrents. S’il y a une seule
classe récurrente, alors la chaine possède une et une seule probabilité invariante. Sinon, à chaque classe
récurrente, on associe une unique probabilité invariante dont le support est cette classe, et toutes les mesures
invariantes s’obtiennent comme combinaison linéaire convexe des précédentes. Donc dès qu’il existe au moins
deux classes récurrentes, il y a une infinité non dénombrable de probabilités invariantes.
Si C est une classe récurrente, la probabilité invariante π est définie par :
1

 , si x ∈ C
π(x) = Ex (Tx )
0, si x ∈ E\C

Exercice.
Soit X une chaîne de markov homogène sur E = {1, 2, 3, 4, 5, 6} de matrice de transition :
 
1 0 0 0 0 0
 
 0 0, 3 0 0, 7 0 0 
 
 0, 2 0, 2 0, 3 0, 3 0 0 
P =
 


 0 0, 8 0 0, 2 0 0  
0 0 0, 5 0 0, 2 0, 3 
 

0 0 0, 4 0 0, 1 0, 5

Déterminer les différentes classes, les probabilités d’absorption et les temps moyens avant absorption par
chaque classe récurrente ainsi que les probabilités invariantes (si possible).

Université de Cocody, UFR: Math-Info 21 Dr. Jean Marc OWO


Chapitre 4

Martingales

1. Martingales en temps discret


Définition 4.1. Soit {Fn }n≥0 une filtration, i.e. une suite de tribus telle que Fn ⊂ Fn+1 , ∀ n ≥ 0. Soit
(Mn )n≥0 une suite de variables aléatoires. On dit que (Mn )n≥0 est une {Fn }n≥0 −martingale si
(i) E(|Mn |) < +∞, ∀ n ≥ 0
(ii) Mn est Fn −mesurable, ∀ n ≥ 0 (ou (Mn )n≥0 est {Fn }n≥0 −adaptée).
(iii) E (Mn+1 |Fn ) = Mn , ∀ n ≥ 0.
Si l’égalité (iii) est remplacée par E (Mn+1 |Fn ) ≥ Mn (ou E (Mn+1 |Fn ) ≤ Mn ), on parle de sous-martingale
(ou de sur-martingale).

→ Une martingale est un jeu equilibré : on ne peut espérer ni perdre ni gagner.


→ Une sous-martingale (resp. sur-martingale) est un jeu avantageux (resp. désavantageux).

Une propriété importante des martingales est la suivante :

Propriété 4.1. Si (Mn )n≥0 est une {Fn }n≥0 −martingale, alors
(i) E (Mn |Fk ) = Mk , ∀ n ≥ k ≥ 0.
(ii) E (Mn ) = E (M0 ), ∀ n ≥ 0.

Proposition 4.1. Soit (Mn )n≥0 une (Fn )n≥0 −martingale de carré intégrable, alors, pour tout n ≥ k ≥ 0,
on a :    
E (Mn − Mk )2 |Fk = E Mn2 − Mk2 |Fk .

Théorème 4.1 (Théorème de décomposition de Doob). Soit (Mn )n≥0 une {Fn }n≥0 −sous-martingale. Alors
il existe un unique (à une égalité p.s. près) processus (An )n≥0 croissant, et {Fn }n≥0 −adapté tel que A0 = 0
et (Mn − An )n≥0 est une {Fn }n≥0 −martingale.

Corollaire 4.1. Si (Mn )n≥0 une {Fn }n≥0 −martingale de carré intégrable, alors hM i est l’unique (à une
égalité p.s. près) processus croissant, et {Fn }n≥0 −adapté tel que hM i0 = 0 et (Mn2 − hM in )n≥0 est une
{Fn }n≥0 −martingale.

Exercice 1. Soit (Xn )n≥1 une suite de v.a. centrées i.i.d.. On considère la fitration {Fn }n≥0 définie par :

F0 = {∅, Ω} et Fn = σ(X1 , ..., Xn ).

On pose : S0 = 0 et Sn = X1 + ... + Xn . Montrer que :

22
CHAPITRE 4. MARTINGALES

1. Si E(|Xn |) < +∞, ∀ n ≥ 0, alors (Sn )n≥0 est une {Fn }n≥0 −martingale.
n
X
2
2. Si E(|Xn | ) < +∞, ∀ n ≥ 0, alors (Sn2 )n≥0 est une {Fn }n≥0 −sous-martingale et (Sn2 − E(Xi2 ))n≥0
i=1
est une {Fn }n≥0 −martingale.

Théorème 4.2 (Inégalité de Doob).


(i) Soit (Mn )n≥0 une {Fn }n≥0 −sous-martingale, alors pour tout n ≥ 1 et pour tout c > 0,

E(|Mn |)
P( max Mk ≥ c) ≤ .
0≤k≤n c

(ii) Soit (Mn )n≥0 une {Fn }n≥0 −martingale telle que pour tout n ≥ 0, E(|Mn |p ) < +∞ avec p > 1 fixé,
alors pour tout n ≥ 1 et pour tout c > 0,
E(|Mn |p )
P( max |Mk | ≥ c) ≤ .
0≤k≤n cp

Théorème 4.3 (Théorème d’arrêt). Soit (Mn )n≥0 une {Fn }n≥0 −martingale.
(i) Pour tout temps d’arrêt borné σ, la variable aléatoire Mσ est intégrable et Fσ −mesurable.
(ii) Si σ et τ sont deux temps d’arrêt bornés et si τ ≥ σ, alors

E (Mτ |Fσ ) = Mσ .

Ce théorème est également vrai pour les sous-martingales et les sur-martingales.

Théorème 4.4 (Inégalité de Wald). Soient (Xn )n≥1 une suite de variable aléatoires aléatoires indépen-
dantes, identiquement disttribuées, vérifiant E(|X1 |) < +∞ et τ un temps d’arrêt à valeurs dans N∗ , adapté
à la suite (Xn )n≥1 , d’espérance mathématique finie. Alors
τ
!
X
E Xn = E(τ )E(X1 ).
n=1

Exercice 2
Soit (Xn )n≥0 et (Mn )n≥0 deux suites de v.a. réelles. On pose :

∀ n ≥ 0, ∆Mn = Mn+1 − Mn .
n−1
X
(X ∗ M )0 = 0, et ∀ n ≥ 1, (X ∗ M )n = Xk ∆Mk .
k=0

Le processus X ∗ M est l’intégrale de X par rapport à M .


1. Montrer que pour tous processus à temps discret X, Y et M , on a :

∆(X ∗ M ) = X∆M et X ∗ (Y ∗ M ) = XY ∗ M.

2. On suppose que (Mn )n≥0 est une {Fn }n≥0 −martingale et (Xn )n≥0 {Fn }n≥0 −adaptée tel que
E(|(X ∗ M )n |2 ) < +∞, ∀ n ≥ 0.
(a) Montrer que ((X ∗ M )n )n≥0 est une {Fn }n≥0 −martingale.
(b) Déterminer l’unique (à une égalité p.s. près) processus croissant A tel que A0 = 0 et (X ∗ M )2 − A
est une {Fn }n≥0 −martingale.
1
3. Soit (Yn )n≥1 une suite de v.a. i.i.d. avec P(Yi = +1) = P(Yi = −1) = 2. On pose M0 = 0 et
Mn = Y1 + ... + Yn (la marche aléatoire symétrique sur Z). On pose également : F0 = {∅, Ω} et n ≥ 1,
Fn = σ(Y1 , ..., Yn ).

Université de Cocody, UFR: Math-Info 23 Dr. Jean Marc OWO


CHAPITRE 4. MARTINGALES

(a) Montrer que (Mn2 − n)n est une {Fn }n≥0 −martingale.
(b) Calculer l’intégrale M*M.
(c) Déterminer le processus croissant C tel que C0 = 0 et (M ∗M )2 −C est une {Fn }n≥0 −martingale,
puis calculer E(Cn ), ∀ n ≥ 0.

Exercice 3 (Maringale de Wald)


Soit X0 = 0 et (Xn )n≥1 une suite de v.a. i.i.d. admettant une fonction génératrice g(u) = E(euX ) pour
au moins un réel u 6= 0. Posons X0 = 1 et pour n ≥ 1 posons :

Mn = g(u)−n eu(X1 +...+Xn .

Montrer que (Mn )n≥0 est une {Fn }n≥0 −martingale, où F0 = {∅, Ω} et n ≥ 1, Fn = σ(X1 , ..., Xn )

2. Martingales en temps continu


On considère la filtration (Ft )t∈R+ vérifiant les conditions suivantes :
- F0 est complète : N ⊂ F0 ;
\
- (Ft )t∈R+ est continue à droite : Ft = Fs .
s>t

Définition 4.2. Un processus (Mt )t∈R+ est une (Ft )t≥0 −martingale si
(i) E(|Mt |) < +∞, ∀ t ≥ 0
(ii) Mt est Ft −mesurable, ∀ t ≥ 0 (ou (Mt )t≥0 est {Ft }t≥0 −adaptée).
(iii) E (Mt |Fs ) = Ms , ∀ t ≥ s ≥ 0.
Si l’égalité (iii) est remplacée par E (Mt |Fs ) ≥ Ms (ou E (Mt |Fs ) ≤ Ms ), on parle de sous-martingale (ou
de sur-martingale).

Propriété 4.2. Toute martingale M vérifie :

E (Mt ) = E (M0 ) , ∀ t ≥ 0.

Proposition 4.2. Soit M une (Ft )t≥0 −martingale et ϕ : R −→ R une fonction convexe mesurable, alors si
ϕ(M ) est intégrable, c’est une sous-martingale.

Proposition 4.3. Soit M une (Ft )t≥0 −martingale decarré intégrable, alors, pour tout t ≥ s ≥ 0, on a :
   
E (Mt − Ms )2 |Fs = E Mt2 − Ms2 |Fs .

Théorème 4.5 (Théorème de décomposition de Doob). Soit (Mt )t∈R+ une sous-martingale continue (par
rapport à une filtration (Ft )t∈R+ . Alors il existe un unique (à une égalité p.s. près) processus (At )t∈R+
croissant, continu et adapté à (Ft )t∈R+ tel que A0 = 0 et (Mt − At )t∈R+ est une martingale.

Corollaire 4.2. Si (Mt )t≥0 est une {Ft }t≥0 −martingale de carré intégrable, alors hM i est l’unique processus
croissant, et {Ft }t≥0 −adapté tel que hM i0 = 0 et (Mt − hM it )t≥0 est une {Ft }t≥0 −martingale.

Exercice Soit (Mt )t∈R+ un (Ft )t≥0 −P.A.I. avec M0 = 0 tel que ∀ t ≥ 0, E(Mt ) = 0 et E(|Mt |) < +∞.
Montrer que (Mt )t∈R+ un (Ft )t≥0 −martingale.

Théorème 4.6 (Inégalité de Doob).

Université de Cocody, UFR: Math-Info 24 Dr. Jean Marc OWO


CHAPITRE 4. MARTINGALES

(i) Soit (Mt )t≥0 une {Ft }t≥0 −sous-martingale continue à droite, alors pour tout t > 0 et pour tout c > 0,

E(|Mt |)
P( max Ms ≥ c) ≤ .
s∈[0,t] c

(ii) Soit (Mt )t≥0 une {Ft }t≥0 −martingale telle que pour tout t ≥ 0, E(|Mt |p ) < +∞ avec p > 1 fixé, alors
pour tout t > 0 et pour tout c > 0,

E(|Mt |p )
P( max |Ms | ≥ c) ≤ .
s∈[0,t] cp

Proposition 4.4. Soit (Xn , Fn )n≥0 une martingale à temps discret. On suppose que F0 est complète. Pour
tout t ≥ 0, on pose : Mt = X[t] et Gt = F[t] , où [t] désigne la partie entière de t. Alors (Gt )t≥0 est une
filtration continue à droite, (Mt )t≥0 est un processus càd-làg et c’est une (Gt )t≥0 −martingale.

Définition 4.3. Un temps d’arrêt par rapport à la filtration (Ft )t≥0 est une v.a. τ à valeurs réelles vérifiant
{τ ≤ t} ∈ Ft , pour tout t ≥ 0.

Proposition 4.5. τ est un temps d’arrêt par rapport à la filtration (Ft )t≥0 si et seulement si {τ < t} ∈ Ft ,
pour tout t ≥ 0.

Les propriétés des temps d’arrêt en temps continu sont les même qu’en temps discret :
- La variable aléatoire constante τ = t (t ∈ R+ ) est un temps d’arrêt.
- Si τ est un temps d’arrêt et t ∈ R+ alors τ + t est aussi un temps d’arrêt.
- Si σ et τ sont deux temps d’arrêt, alors σ + τ , σ ∧ τ et σ ∨ τ sont aussi des temps d’arrêt.
En particulier, τ ∧ t est un temps d’arrêt borné.
Rémarque. Soit σ et τ deux temps d’arrêt tels que σ < τ . Alors δ = τ − σ n’est pas un temps d’arrêt.
Si τ est un temps d’arrêt, on définit églement, la tribu Fτ des événements antérieurs τ par :

A ∈ Fτ ⇐⇒ A ∩ {τ ≤ t} ∈ Ft , ∀ t ≥ 0.

Théorème 4.7 (Théorème d’arrêt). Soit (Mt )t≥0 une {Ft }t≥0 −martingale continue à droite.
(i) Pour tout temps d’arrêt borné σ, la variable aléatoire Mσ est intégrable et Fσ −mesurable.
(ii) Si σ et τ sont deux temps d’arrêt bornés et si τ ≥ σ, alors

E (Mτ |Fσ ) = Mσ .

Corollaire 4.3. Soit (Mt )t≥0 un processus réel {Ft }t≥0 −adapté et continue à droite. Alors (Mt )t≥0 est
une {Ft }t≥0 −martingale si et seulement si pour tout {Ft }t≥0 −temps d’arrêt τ borné, Mτ est intégrable et
E (Mτ ) = E (M0 ) .

Université de Cocody, UFR: Math-Info 25 Dr. Jean Marc OWO


Chapitre 5

Mouvement Brownien

1. Définitions
Définition 5.1. Un Mouvement Brownien réel est un processus stochastique (Bt )t≥0 tel que :
i.) B0 = 0 P−p.s ;
ii.) B est à accroissements indépendants : Bt − Bs est indépendant de FsB = σ(Br , r ≤ s) pour tout s ≤ t ;
iii.) B est à accroissements stationnaires, gaussiens et pour tout s ≤ t, Bt − Bs N (0, t − s).

Définition 5.2. Un processus stochastique (Xt )t≥0 est à accroissements stationnairs si pour tous s, t ∈ R+
L
tels que 0 ≤ s < t, la variable aléatoire Xt −Xs a la même loi que Xt−s −X0 , (on note Xt −Xs = Xt−s −X0 ).

Définition 5.3. On appelle Mouvement Brownien réel standard un mouvement Brownien réel (Bt )t≥0 dont
les trajectoires sont P−p.s. continues, i.e. t 7→ Bt (ω) est continue pour presque tout ω.

Il faut noter que le mouvement brownien existe : La plus grosse difficulté réside dans l’obtention de la
continuité. Le mouvement brownien peut être vu comme limite de marches aléatoires sur des pas de temps
de plus en plus court :

Principe d’invariance de Donsker :


Soit S0 = 0 et Sn = X1 + ... + Xn , la marche aléatoire symétrique sur Z (avec Xi i.i.d. et P(Xi = +1) =
P(Xi = −1) = 21 )
Sn
Rappel : Par le TCL, √
n
−→ N (0, 1).
Soit Yt = S[t] + (t − [t])X[t]+1 (i.e. si t = n + ε avec 0 ≤ ε < 1, alors Yt = Sn + εXn+1 ).
(n) Y
On pose Bt = √tn .
n
(n)
La suite de processus (Bt )t≥0 converge en loi vers le MB réel standard (Bt )t≥0 .

Définition 5.4. Soient (Xt )t≥0 et (Xt0 )t≥0 deux processus stochastiques basés sur un même espace de pro-
babilité à valeurs dans un même espace d’états. On dit que (Xt0 )t≥0 est une modification de (Xt )t≥0 si pour
tout t ≥ 0, Xt = Xt0 P−p.s.

Théorème 5.1. Si (Xt )t≥0 est un mouvement Brownien réel, alors il existe une modification (Xt0 )t≥0 qui
est un mouvement Brownien réel standard.

La démonstration de ce théorème basée sur le théorème suivant dû à A. N. Kolmogorov qui est très
pratique pour montrer qu’un processus stochastique donné est à trajectoires continues à modification près.

26
CHAPITRE 5. MOUVEMENT BROWNIEN

Théorème 5.2. Soit (Xt )t≥0 un processus stochstique réel tel qu’il existe α > 0, β > 0 et C > 0 pour lesquels
on ait pour tout s, t ∈ R+ ,
E(|Xt − Xs |α ) ≤ C|t − s|1+β .

Alors il existe une modification (Xt0 )t≥0 de (Xt )t≥0 dont toutes les trajectoires sont continues.

2. Propriétés
Proposition 5.1 (Caractérisation du MB). Un processus (Bt )t≥0 est un mouvement brownien réel standard
ssi c’est un processus gaussien continu centré de fonction de covariance c(s, t) = cov(Bs , Bt ) = min(s, t).

Exercice. Soit X un processus gaussien tel que


– X0 = 0
– (Xt )t≥0 et (Xt2 − t)t≥0 sont des martingales
Montrer que X est un mouvement brownien standard.

Proposition 5.2. Si (Bt )t≥0 est un mouvement brownien, (−Bt )t≥0 est aussi un mouvement brownien.

Proposition 5.3 (Scaling). Soit (Bt )t≥0 est un mouvement brownien et c > 0 un réel. On pose Xt = cB t .
c2
Alors (Xt )t≥0 est un mouvement brownien.

Proposition
( 5.4 (Inversion temporelle). Soit (Bt )t≥0 est un mouvement brownien. On pose
tB 1t , si t > 0
Zt = Alors (Zt )t≥0 est un mouvement brownien.
0, si t = 0.

Exercice. Soit (Bt )t≥0 est un mouvement brownien.


1. On pose pour tout t ∈ [0, 1], Yt = Bt − tB1 et Zt = Y1−t . un processus gaussien tel que
a) Montrer que (Yt )t∈[0,1] et (Zt )t∈[0,1] sont des processus gaussiens centrés.
b) On pose pour t ∈ R+ , Wt = (1 + t)Y 1+t
t . Montrer que (Wt )t∈R+ est un mouvement brownien réel.

2. On pose pour t ∈ R+ , Ut = e−λt Be2λt .


a) Montrer que (Ut )t∈R+ est un processus gaussien centré et déterminer sa fonction de covariance c.
b) Déduire de la forme de c que (Ut )t∈R+ est stationnaire au sens strict.

Proposition 5.5 (Propriétés des trajctoires). - Les trajectoires du mouvement brownien sont nulle part
dérivables : il existe un ensemble négligeable N tel que, pour tout ω 6∈ N , la foncton t 7→ Bt (ω) est nulle
part dérivable.
- Si (Bt )t≥0 est un mouvement brownien réel standard, alors, pour P−presque tout ω la trajectoire t 7→ Bt (ω)
est à variation infinie sur tout intervalle [a, b] avec a, b ∈ R+ et a < b.

Proposition 5.6 (Propriétés de martingale). - Si (Bt )t≥0 est un mouvement brownien et (F̄t ) sa filtration
naturelle complétée. Alors (Bt )t≥0 , (Bt2 − t)t≥0 sont des (F̄t )−martingales.
σ2
- Pour tout σ 6= 0, (eσBt − 2 t
)t≥0 (Brownien géometrique) est aussi une (F̄t )−martingale sont des
(F̄t )−martingales.

Proposition 5.7. La variation quadratique du mouvement brownien (Bt )t≥0 est :

hBit = t, ∀ t ≥ 0

Notation :
Il nous arrivera de noter Ex (f (Bs )) l’espérance de f (Bs ) quand B est un Brownien issu de x, sans toujours
faire cette précision. Cette quantité est égale à E(f (x + Bs )) où B est un Brownien issu de 0 (avec E0 = E).

Université de Cocody, UFR: Math-Info 27 Dr. Jean Marc OWO


CHAPITRE 5. MOUVEMENT BROWNIEN

De la même façon, nous utiliserons la notation Px (Bs ∈ A) pour P(x + Bs ∈ A) (avec P0 = P) et Px (Bs ∈ dy)
pour la densité de la v.a. Bs où B est un Brownien partant de x.
On note souvent ps (x, .) la densité de la variable aléatoire qui modélise le phénomène x + Bs à la date t
qui part de x à la date 0 ; (on a donc Px (Bs ∈ dy) = ps (x, y)dy). Par stationarité du phénomène, ps (x, y) ne
dépend de x, y que par y − x.

Proposition 5.8 (propriétés de Markov).


1. Markov faible. Soit s ≥ 0 fixé. Alors le processus (Bs+u − Bs )u≥0 est un mouvement brownien
indépendant de (Br )0≤r≤s , et donc de la tribu Fs . Plus concrètement, pour toute fonction f : R 7→ R
borélienne bornée,
Ex (f (Bs+u )|Fs ) = EBs (f (Bu )

et pour toute fonction g : R2 7→ R borélienne bornée,


Z
1 y2
Ex (g(Bs+u − Bs , Bs )|Fs ) = √ g(x, Bs )e− 2u dy
2πu R

2. Markov forte. Soit τ un temps d’arrêt presque sûrement fini. Alors le processus (Bτ +u − Bτ )u≥0 est
un mouvement brownien indépendant de la tribu Fτ . Plus concrètement, pour toute fonction f : R 7→ R
borélienne bornée,
Ex (f (Bτ +u |Fτ ) = EBτ (f (Bu )

et pour toute fonction g : R2 7→ R borélienne bornée,


Z
1 y2
Ex (g(Bτ +u − Bτ , Bτ )|Fτ ) = √ g(x, Bτ )e− 2u dy
2πu R

Université de Cocody, UFR: Math-Info 28 Dr. Jean Marc OWO


Chapitre 6

Intégrale stochastique d’Itô


Z t
L’objectif est de donner un sens à l’expression Hs dBs pour certains processus H. Les intégrales
0
de ce type sont appelées "intégrales stochastiques", c’est à dire, intégrales par rapport à des processus
stochastiques.

Dans toute la suite, on fixe un réel T strictement positif. Les processus sont définis pour t ∈ [0, T ], on
notera X pour (Xt )t∈[0,T ] . Pour tout p ∈ R+
∗ , on designera par :

- L (Ω) l’ensemble des v.a ξ telles que E |ξ|p < +∞,
p

- Lp (Ω, [0, T ]) l’ensemble des processus X : Ω × [0, T ] −→ R mesurables et {Ft }−adaptés tels que
 R  p1
T
||X||p = E 0 |Xs |p ds < +∞.

Lorsque l’on intègre une fonction déterministe f par rapport à une fonction déterministe h (continûment)
dérivable, si f est continue, on définit son intégrale comme :
Z t Z t
f (s)dh(s) = f (s)h0 (s)ds, ∀ t ∈ [0, T ].
0 0

Si jamais h n’est pas dérivable mais simplement à variation bornée, on s’en sort encore en définissant
l’intégrale par :
Z t n
X
f (s)dh(s) = lim f (si )(h(ti+1 ) − h(ti )), ∀ t ∈ [0, T ],
0 |πn |→0
0

où πn = {0 = t0 < t1 < ... < tn = t}, si ∈ [ti , ti+1 ] et |πn | = sup |ti+1 − ti |.
0≤i≤n
L’intégrale ainsi définie s’appelle intégrale de Riemann-Stieljes. Elle vérifie la propriété suivante :
Si f et h sont continus et à variation bornées, alors :
Z t Z t
f (s)dh(s) = f (t)h(t) − f (0)h(0) − h(s)df (s).
0 0

En particulier, (si f = h)
t
f (t)2 f (0)2
Z
f (s)df (s) = − .
0 2 2
Si maintenant, f est un processus à trajectoires continues, et h un processus (à trajectoires) à variations
bornées, on définit (au sens de Riemann-Stieljes)
Z t  Z t
f (s)dh(s) (ω) = f (s)(ω)dh(s)(ω).
0 0

Cette intégrale est définie trajectoire par trajectoire (i.e. "ω par ω").
Dans notre cas, le problème essentiel est que le mouvement brownien n’est pas un processus (à trajectoires)
Z t
à variation bornée. La quantité Hs dBs ne peut donc pas se définir au sens classique de l’intégrale de
0

29
CHAPITRE 6. INTÉGRALE STOCHASTIQUE D’ITÔ

Riemann-Stieljes. Par contre, comme il est à variation quadratique finie, il est naturel de définir l’intégrale
par rapport au mouvement brownien comme limite dans L2 (convergence au sens de ||.||2 ).

1. Construction de l’intégrale stochastique d’Itô


Pour des processus H ∈ L2 (Ω, [0, T ]), nous allons montrer comment définir l’intégrale stochastique d’Itô
Z t
Hs dBs , où B est un mouvement brownien réel standard.
0 Z t
L’idée est naturelle : D’abord, on definit φs dBs pour une classe simple de processus φ. Ensuite, on montre
0
que chaque H ∈ L2 (Ω, [0, T ]) peut être approximé (dans un sens approprié) par un tel φ qu’on utilise pour
Z t Z t
2
definir Hs dBs comme limite dans L (convergence au sens de ||.||2 ) de φs dBs lorsque φ −→ H.
0 0

1.1. Processus élémentaires et intégrale d’Itô


Définition 6.1. Un processus φ ∈ L2 (Ω, [0, T ]) est dit Ft −élémentaire s’il existe une subdivision π = {0 =
t0 < t1 < ... < tn = T } et des v.a. ξ0 , ξ1 , ..., ξn−1 ∈ L2 (Ω), où ξi est Fti −mesurable pour tout i = 0, ..., n − 1
et
n−1
X
φt = ξ0 1{0} (t) + ξi 1]ti ,ti+1 ] (t), 0 ≤ t ≤ T. (6.1)
i=0

Exemple 6.1. Pour ξi = Bti , le processus φ est élémentaire. Par contre, si ξi = Bti+1 , le processus φ n’est
pas élémentaire.

Définition 6.2. Pour des processus élémentaires φ, on définit l’intégrale stochastique d’Itô par rapport à B
entre 0 et t ≤ T comme étant la variable aléatoire définie par :
Z t n−1

X
φs dBs = ξi (Bti+1 ∧t − Bti ∧t )
0 i=0

ou encore si t ∈]tk , tk+1 ],


Z t k−1

X
φs dBs = ξi (Bti+1 − Bti ) + ξk (Bt − Btk ).
0 i=0
Z t Z T
On associe donc à φ le processus (It (φ))t∈[0,T ] , avec It (φ) = φs dBs = φs 1[0,t] dBs .
0 0
Z t
Remarque 6.1. On définit naturellement, φr dBr = It (φ) − Is (φ).
s

On obtient alors les propriétés suivantes :

Propriétés 6.1. Soit φ et θ deux processus Ft −élémentaires. Alors


Z t
(P1) φ 7−→ It (φ) = φs dBs est linéaire.
0
Z t
(P2) t 7−→ It (φ) = φs dBs est continue, p.s. avec I0 (φ) = 0, p.s.
0
 
(P3) (It (φ))t≥0 est une Ft −martingale : E It (φ) | Fs = Is (φ), p.s. s≤t
  Z t 
2 2
(P4) E It (φ) =E φs ds (Formule d’isométrie d’Itô)
0
  Z t 
2 2
(P5) E It (φ) − Is (φ) | Fs = E φr dr | Fs , p.s.
s

Université de Cocody, UFR: Math-Info 30 Dr. Jean Marc OWO


CHAPITRE 6. INTÉGRALE STOCHASTIQUE D’ITÔ

Z t Z t
2
(P6) Variation quadratique : hI(φ)it = h φs dBs i = φs ds
0 0
Z t Z s Z t∧s
(P7) Covariation quadratique : hIt (φ), Is (θ)i = h φr dBr , φr dBr i = φr θr ds
0 0 0

1.2. Intégrale d’Itô : cas des processus H ∈ L2 (Ω, [0, T ])


Pour le moment, l’intégrale stochastique est définie sur l’ensemble des processus élémentaires. On va
maintenant, comme annoncé, étendre la définition de l’intégrale stochstique à des processus mesurables et
{Ft }−adaptés H ∈ L2 (Ω, [0, T ]).

Lemme 6.1. Soit H ∈ L2 (Ω, [0, T ]). Alors, il existe une suite (φn )n≥0 de processus Ft −élémentaire telle
que !
Z T
lim E |φns − Hs | ds 2
= 0.
n→∞ 0

Preuve. Voir Karatzas et Shreve [?]


n−1
X
Exemple 6.2. Pour le mouvement brownien B, posons : φns = ξi 1]ti ,ti+1 ] (s), où ξi = Bti . Alors,
i=0
! n−1
! n−1
Z T X Z ti+1 X Z ti+1
E |φns − Bs | ds 2
= E |Bti − Bs | ds 2
= (s − ti )ds
0 i=0 ti i=0 ti
n−1
X 1 1
= (ti+1 − ti )2 ≤ πT −→ 0, quand π −→ 0.
i=0
2 2

A l’aide du lemme 6.1, on généralise la définition de l’intégrale stochastique a tous processus H ∈ L2 (Ω, [0, T ])
de la manière suivante :

Définition 6.3. Soit H ∈ L2 (Ω, [0, T ]). L’intégrale stochastique de H par rapport à B sur l’intervalle [0, T ]
est l’unique Ft −martingale de carré intégrable I(H) = {It (H), 0 ≤ t ≤ T } vérifiant
 
lim E |It (φn ) − It (H)|2 = 0, 0 ≤ t ≤ T,
n→∞

où (φn )n≥0 est une suite de processus Ft −élémentaires telle que


!
Z T
lim E |φns − Hs |2 ds = 0.
n→∞ 0

Z t
On note It (H) = Hs dBs .
0

Remarque 6.2. D’après le lemme 6.1, une telle suite (φn )n≥0 existe. De plus, par la formule d’isométrie,
la limite de It (φn ) existe dans L2 et ne dépend pas du choix actuel de la suite (φn )n≥0 .
Si de plus H est continu, l’intégrale stochastique de H par rapport à B est définie par
Z t n−1
X
Hs dBs = lim Hti (Bti+1 − Bti ), (limite dans L2 )
0 |π|→0
i=0

où π = {0 = t0 < t1 < ... < tn = t} and |π| = sup |ti+1 − ti |.


0≤i≤n
Z t
2
Proposition 6.1. Pour tout processus H ∈ L (Ω, [0, T ]), le processus I(H) défini par It (H) = Hs dBs
0
est une martingale par rapport à Ft de carré intégrable vérifiant les propriétés (P1) à (P7) de 6.1.

Université de Cocody, UFR: Math-Info 31 Dr. Jean Marc OWO


CHAPITRE 6. INTÉGRALE STOCHASTIQUE D’ITÔ

Rt
Exemple 6.3. It (B) = 0
Bs dBs = 12 Bt2 − 21 t.

B étant continu, on a
Z t n−1
X
Bs dBs = lim Bti (Bti+1 − Bti ), (limite dans L2 )
0 |π|→0
i=0

où π = {0 = t0 < t1 < ... < tn = t} and |π| = sup |ti+1 − ti |.


0≤i≤n

Exercice 6.1. Soit B un mouvement brownien standard. Calculer les quantités suivantes :
Z 1
1. 1{Bs =0} dBs .
0
Z 1
2. Bs dBs
0
Z u Z t
3. Cov( f (s)dBs ; f (s)dBs ), où f est une fonction déterministe de carré intégrable.
0 0

1.3. Généralisation
On peut généraliser la définition d’intégrale stochastique au cas où au lieu de prendre H ∈ L2 (Ω, [0, T ]),
on considère des processus H qui sont toujours mesurables et {Ft }−adaptés mais qui satisfont simplement
la condition : Z T
|Hs |2 ds < +∞ p.s.
0
Lors de la généralisation, on perd le caractère martingale de l’intégrale stochastique , elle devient ce que l’on
appelle une martingale locale. Il lui manques juste de bonnes conditions d’intégrabilité pour être une vraie
martingale.

2. Processus d’Ito
Nous introdusons ici une nouvelle classe de processus par rapport auxquels on peut encore définir une
intégrale stochastique.

Définition 6.4. Un processus d’Itô est un processus de la forme


Z t Z t
Xt = X0 + Ks ds + Hs dBs ,
0 0

avec X0 F0 −mesurable, K et H deux processus mesurables et {Ft }−adaptés vérifiant les conditions d’inté-
grabilité :
Z T Z T
|Ks |ds < +∞ p.s et |Hs |2 ds < +∞ p.s.
0 0

De manière infinitésimale :

dXt = Kt dt + Ht dBt .

Remarque. En particulier, le mouvement brownien est un processus d’Itô (cas : Kt = 0 et Ht = 0, ∀ t).


On a les propriétés suivantes :

Proposition 6.2. Z t
- Si M est une martingale locale qui s’écrit sous la forme Mt = Ks ds avec K un processus à variations
0
bornées, alors p.s : Mt = 0 pour tout t ∈ [0, T ].
- La décomposition en processus d’Itô est unique (à une modification p.s près).
- Un processus d’Itô est une martingale locale ssi "sa partie en ds" K est nulle.

Université de Cocody, UFR: Math-Info 32 Dr. Jean Marc OWO


CHAPITRE 6. INTÉGRALE STOCHASTIQUE D’ITÔ

Si on souhaite avoir le caractère martingale de l’intégrale stochastique dans le processus d’Itô, on doit
imposer les conditions d’intégrabilité (CI) suivantes :
! !
Z T Z T
2
(CI) E |Ks |ds < +∞ et E |Hs | ds < +∞.
0 0

Dans ce cas, la notion de martingale locale dans la proposition 6.3 est une vraie martingale.

Proposition 6.3. Soient X et Y deux processus d’Itô donnés par


Z t Z t
Xt = X0 + Ks ds + Hs dBs ,
0 0

Z t Z t
Yt = Y0 + K̃s ds + H̃s dBs .
0 0

Alors
Z t
hXit = |Hs |2 ds,
0

Z t
hX, Y it = Hs H̃s ds,
0

La notion d’intégrale stochastique par rapport à un processus d’Itô se définit de la manière naturelle
suivante :

Définition 6.5. Pour F ∈ L2 (Ω, [0, T ]) tel que


Z T Z T
2
E |Fs | dhXis = E |Fs Hs |2 ds < +∞,
0 0

on définit :
Z t Z t Z t
Fs dXs = Fs Ks ds + Fs Hs dBs .
0 0 0

3. Formule d’Ito
Voici l’outil qui permet de calculer les intégrales stochstiques sans repasser par des suites approximantes.
C’est la clée du calcul stochastique.

3.1. Pour le mouvement brownien


Soient B un mouvement brownien réel.

Théorème 6.1. Soit f ∈ C 2 (R). Alors


Z t Z t
0 1
f (Bt ) = f (B0 ) + f (Bs )dBs + f 00 (Bs )ds, ∀ t ∈ [0, T ].
0 2 0

La notation infinitésimale de cette relation est :


1
df (Bt ) = f 0 (Bt )dBt + f 00 (Bt )dt.
2
Z t Z t
Exemple 6.4. Calculer les intégrales stochastiques suivantes : a) Bs dBs , b) eBs dBs
0 0

Université de Cocody, UFR: Math-Info 33 Dr. Jean Marc OWO


CHAPITRE 6. INTÉGRALE STOCHASTIQUE D’ITÔ

Théorème 6.2. Soit f ∈ C 1,2 ([0, T ] × R). Alors


t t t
∂2
Z Z Z
∂ ∂ 1
f (t, Bt ) = f (0, B0 ) + f (s, Bs )ds + f (s, Bs )dBs + f (s, Bs )ds, ∀ t ∈ [0, T ].
0 ∂t 0 ∂x 2 0 ∂x2

La notation infinitésimale de cette relation est :

∂ ∂ 1 ∂2
df (t, Bt ) = f (t, Bt )dt + f (t, Bt )dBt + f (t, Bt )dt.
∂t ∂x 2 ∂x2
La formule d’Itô se généralise aux processus d’Itô.

3.2. Pour un processus d’Itô


Théorème 6.3. Soit f ∈ C 2 (R). Alors
Z t Z t
0 1
f (Xt ) = f (X0 ) + f (Xs )dXs + f 00 (Xs )dhXis , ∀ t ∈ [0, T ].
0 2 0

La notation infinitésimale de cette relation est :


1
df (Xt ) = f 0 (Xt )dXt + f 00 (Xt )dhXit .
2
Si X est donné par :
Z t Z t
Xt = X0 + Ks ds + Hs dBs .
0 0

Alors
Z t Z t Z t
1
f (Xt ) = f (X0 ) + f 0 (Xs )Ks ds + f 0 (Xs )Hs dBs + f 00 (Xs )Hs2 ds, ∀ t ∈ [0, T ].
0 0 2 0

Théorème 6.4. Soit f ∈ C 1,2 ([0, T ] × R). Alors


t t t
∂2
Z Z Z
∂ ∂ 1
f (t, Xt ) = f (0, X0 ) + f (s, Xs )ds + f (s, Xs )dXs + f (s, Xs )dhXis , ∀ t ∈ [0, T ].
0 ∂t 0 ∂x 2 0 ∂x2

La notation infinitésimale de cette relation est :

∂ ∂ 1 ∂2
df (t, Xt ) = f (t, Xt )dt + f (t, Xt )dXt + f (t, Xt )dhXit .
∂t ∂x 2 ∂x2
Théorème 6.5. Soit f ∈ C 1,2 ([0, T ] × Rd )

t d Z t d X d
1 t ∂2
Z Z
∂ X ∂ X
f (t, Xt ) = f (0, X0 ) + f (s, Xs )ds + f (s, Xs )dXi (s) + f (s, Xs )dhXi , Xj is , ∀ t ∈ [0, T ].
0 ∂t i=1 0
∂xi i=1 j=1
2 0 ∂x2

Une des conséquences de la formule d’Itô est la formule d’intégrations par partie :

Proposition 6.4 (formule d’intégrations par partie). Soient X et Y deux processus d’Itô, on a :
Z t Z t Z t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + dhX, Y is .
0 0 0

Exercice 6.2. Soit B un mouvement brownien standard. Ecrire les processus suivants comme des processus
d’Itô et calculer les intégrales :
Z t
1. Xt = (t + 1)eBt , e−Bs dXs .
0
Z t
2. Xt = Bt3 − 3tBt , (Bs − s)dXs .
0

Université de Cocody, UFR: Math-Info 34 Dr. Jean Marc OWO


CHAPITRE 6. INTÉGRALE STOCHASTIQUE D’ITÔ

Z t
3. Xt = 1 + 2t + eBt , Bs dXs .
0
Z t
t
4. Xt = (Bt + t)e−Bt − 2 , Bs e−Bs dXs .
0
Z t
t
5. Xt = e 2 sin(Bt ), cos(Bs )dXs .
0
Exercice 6.3. Soit Yt = tX1 (t)X2 (t) avec dX1 (t) = f (t)dt + σ1 (t)dBt et dX2 (t) = σ2 (t)dBt
Calculer dYt .

Remarque : On peut également définir l’intégrale stochastique relativementZ t aux matingales. Soit M une
{Ft }−martingale de carré intégrable. On définit l’intégrale stochastique Hs dMs , en utilisant la demarche
0
décrite en 1.. Cette intégrale coïncide avec l’intégrale construite en 1.2. relativement aux mouvement brow-
niens. On peut la généraliser aux martingales locales continues.
Ainsi, la formule d’Itô s’étend aux semi-martingales continues, i.e. aux processus de la forme :

Xt = X0 + Vt + Mt , t≥0


M est une {Ft }−maringale locale continue, nulle en 0.
V est un processus à variation finie sur tout compact de R+ , continu, adapté, nul en 0.
Remarque : Soit M martingale locale continue. Une condition suffisante (et nécessaire !) pour que M soit
une martingale de carré intégrable est que EhM it < +∞ pour tout t ≥ 0.

4. Théorème de Girsanov
Soit (Ω, F, {Ft }, P) un espace de probabilité filtré. Le but est d’étudier comment se transforme la notion
de martingale (locale) lorsque la probabilité P est remplacée par une autre probabilité équivalente Q.

Proposition 6.5. Soit (Ω, F, Q) un espace de probabilité. Si Q est équivalente à P sur FT (avec T ≤ +∞),
dQ
il existe une {Ft }−martingale (Zt )t∈[0,T ] strictement positive sous P telle que dP |Ft = Zt .
De plus, Z0 = 1 et EP (Zt ) = 1, ∀ t ∈ [0, T ].

Zt est la densité Ft −mesurable de Radon-Nikodym de Q par rapport à P sur Ft .


Remarque : Dans ce cas, on a dP
dQ |Ft = Zt−1 et (Zt−1 )t∈[0,T ] est une {Ft }−martingale sous Q.

Proposition 6.6. M est une {Ft }−martingale sous Q si et seulement si ZM est une {Ft }−martingale
sous P.

Théorème 6.6 (Girsanov). Soit B est {Ft }−mouvement brownien sur (Ω, F, {Ft }, P). Soit h est processus
Z T
{Ft }−adapté tel que |hs |2 ds < +∞. On pose
0
Z t Z t 
1
Zt = exp hs dBs − |hs |2 ds , t ∈ [0, T ],
0 2 0

(autrement dit dZt = Zt ht dBt et (Zt )t∈[0,T ] est une martingale locale continue strictement positive sous P).
On suppose que EP (ZT ) = 1.
Alors (Zt )t∈[0,T ] est une {Ft }−martingale continue strictement positive sous P.
Soit Q une nouvelle probabilité sur (Ω, FT ) définit par :
dQ
= ZT .
dP|FT
Z t
Alors le processus B̃t = Bt − hs ds, t ∈ [0, T ] est une {Ft }−mouvement brownien sous Q.
0

Université de Cocody, UFR: Math-Info 35 Dr. Jean Marc OWO


CHAPITRE 6. INTÉGRALE STOCHASTIQUE D’ITÔ

Remarque : Une ! condition suffisante pour que EP (ZT ) = 1 est la condition de novikov :
1 T
Z
EP exp |hs |2 ds < +∞.
2 0
De façon générale, on a

Proposition 6.7. Soit L une {Ft }−martingale locale continue sur (Ω, F, {Ft }, P) telle que L0 = 0. On pose
 
1
Zt = exp Lt − hLit , t ∈ [0, T ].
2

(Notamment dZt = Zt dLt et (Zt )t∈[0,T ] est une martingale locale continue strictement positive sous P). Soit
Qt une probabilité sur (Ω, Ft ) définit par :
dQt
= Zt .
dP|Ft
Si (Zt )t∈[0,T ] est en fait une vraie martingale continue sous P, la famille (Qt )t∈[0,T ] est induite par une
probabilité Q définie sur (Ω, FT ) : Qt = Q|Ft .
De plus,
(i) chaque semi-martingale sous P est une semi-martingale sous Q.
(ii) si M est une {Ft }−martingale locale continue sous P, alors le processus
1
M̃t = Mt − hM, Lit = Mt − hM, Zit , t ∈ [0, T ]
Zt
est une {Ft }−martingale locale sous Q.

Remarque
  condition suffisante pour que (Zt )t∈[0,T ] soit une vraie martingale sous P est que :
: Une
1
EP exp hLiT < +∞.
2
Corollaire 6.1. Si B est un {Ft }−mouvement brownien standard sous P, alors le processus
1
B̃t = Bt − hB, Lit = Bt − hB, Zit , t ∈ [0, T ]
Zt
est une {Ft }−mouvement brownien sous Q.

Université de Cocody, UFR: Math-Info 36 Dr. Jean Marc OWO


Chapitre 7

Aplications aux marchés financiers

Dans ce cours, nous nous placerons dans le cadre le plus élémentaire d’un marché constitué d’un actif
sans risque S 0 (un placement) et d’un actif risqué S (une action : part du capital d’une entreprise).

1. Généralités
On se place sur une pérode de temps [0, T ] (T est appélée l’échéance) et sur un espace Ω qui représente
l’ensemble des états du monde (i.e. toutes les configurations macro-économiques possibles durant cet inter-
valle. L’espace Ω est équipé d’une tribu F qui est la structure d’information totale et d’une probabilité P
appélée probabilité historique. On note Ft la tribu représentant l’information disponible à la date t.
On fait les hypothèses idéalistes sur les marchés financiers : il n’y a pas de frictions de marchés, i.e. pas
de coûts de transaction pour la vente et l’achat de titres, pas de restrictions sur les ventes à découvert, les
actifs sont indéfiniment fractionnables et à tout instant il existe des acheteurs et des vendeurs pour tous les
titres du marché (on dit que le marché est liquide).

1.1. Portefeuille autofinançant


Une stratégie de portefeuille est une stratégie dynamique d’achat ou de vente de titres : actions, prêts
et emprunts à la banque, et plus généralement de produits. C’est donc la donnée d’un processus adapté
φ = (φ0 , ϕ) où φ0 et φ représente le nombre de parts investi dans l’actif S 0 et l’actif S à la date t, et dont
la valeur est déterminée sur la base des informations disponibles juste avant t. φ0t et φt peuvent prendre des
valeurs positives ou négatives correspondant à un achat ou une vente puisqu’on a supposé que les actifs sont
indéfiniment fractionnables. La valeur (ou richesse) de ce portefeuille à la date t est définie par

Vt (φ) = φ0t St0 + ϕt St .

Le portefeuille est dit autofinançant si quelque soient tk et tk+1 , on a :

Vtk+1 (φ) − Vtk (φ) = φ0tk (St0k+1 − St0k ) + ϕtk (Stk+1 − Stk ).

Ce qui signifie qu’à chaque date, on ré-alloue les richesses entre les différents actifs sans ajout ni retrait
d’argent. Autrement dit les variations de la valeur d’un portefeuille autofinançant sont exclusivement dues
aux variations du prix des actifs. Ce qui ce traduit en temps continu par :

dVt (φ) = φ0t dSt0 + ϕt dSt .

37
CHAPITRE 7. APLICATIONS AUX MARCHÉS FINANCIERS

1.2. Absence d’Opportunités d’Arbitrage


Un arbitrage sur la période [0, T ] est un portefeuille autofinançant φ tel que :

V0 (φ) = 0, VT (φ) ≥ 0 et P(VT (φ) > 0) > 0.

On supposera qu’il y a sur le marché l’hypothèse d’Absence d’Opportunités d’Arbitrage (AOA) entre
tout instant 0 et T :
∀ φ ; V0 (φ) = 0 et VT (φ) ≥ 0 =⇒ P(VT (φ) > 0) = 0

ou
∀ φ ; V0 (φ) = 0 et VT (φ) ≥ 0 =⇒ VT (φ) = 0 P − p.s.

Autrement dit : "Si ma richesse aujourd’hui est nulle, elle ne peut devenir positive et non identiquement
nulle", soit " On ne peut gagner d’argent sans capital initial".

1.3. Comparaison de portefeuilles


Soient φ et ψ deux portefeuilles autofinançants. Alors, en AOA,

VT (φ) = VT (ψ) =⇒ V0 (φ) = V0 (ψ).

VT (φ) = VT (ψ) =⇒ ∀ t ∈ [0, T ], Vt (φ) = Vt (ψ) P − p.s.

VT (φ) ≤ VT (ψ) =⇒ ∀ t ∈ [0, T ], Vt (φ) ≤ Vt (ψ) P − p.s.

1.4. Parité call-put


Notons par Ct et Pt les prix respectifs en t du call et du put (européen) de strike K et de maturité T sur
le sous-jacent S. En plus de l’hypothèse de marchés sans frictions, supposons l’existence de zéro-coupons.
Un zéro-coupon de maturité T est un produit financier qui assure un nominal fixe en T . Notons par B(t, T )
son prix à la date t ≤ T pour un nominal de 1 euro. Alors, en AOA, on a la relation dite de parité call-put :

Ct − Pt = St − KB(t, T ).

1.5. Probabilité risque-neutre


Xt
Lorsque (Xt ) est un processus, on note par (X̃t ) le processus actualisé, i.e. X̃t =
.
St0
Def : Une probabilité Q est appelée probabilité risque-neutre si Q est équivalante à P et si le prix actualisé
S̃t de l’actif S est une martingale sous Q.
Csq : La richesse actualisée Ṽt (φ) d’une strategie de portefeuille autofinançant est une martingale sous Q.
En effet, quelque soient tk et tk+1 , on a :

Ṽtk+1 (φ) − Ṽtk (φ) = ϕtk (S̃tk+1 − S̃tk ).

En temps continu, la formule d’Itô donne :

dṼt (φ) = ϕt dS̃t .

On en déduire qu’une stratégie de portefeuille autofinançant est complètement déterminée par la valeur
initiale de sa richesse et le nombre de parts investi dans l’actif risqué S. La quantité d’actifs sans risque se
déduisant de la relation d’autofinancement : Ṽt (φ) = φ0t + ϕt S̃t .

Université de Cocody, UFR: Math-Info 38 Dr. Jean Marc OWO


CHAPITRE 7. APLICATIONS AUX MARCHÉS FINANCIERS

Désormais, on dira portefeuille autofinançant (v, ϕ) (v0 étant le capital initial et ϕ la quantité d’actifs
risqué) et on notera Vtv0 ,ϕ sa valeur à la date t.

Remarque : Le terme "risque-neutre" provient de la théorie économique : si les intervenants n’ont pas
d’aversion au risque, ils vont s’accorder pour évaluer la valeur d’un portefeuille comme l’espérance actualisée
des flux qu’il génère. L’introduction de cette probabilité permet de faire comme si les agents étaient neutres
au risque (i.e., indiférents entre les deux possibilités de placements sans risque ou risqué).

2. Valorisation et couverture
Considérerons un produit dérivé représenté par son flux terminal, HT , une variable aléatoire
FT −mesurable. Comme l’aléa provient seulement de S, on a

Ft = σ(Sr , r ≤ t).

Question : Comment donner un "juste" prix à ce produit dérivé.


Pour répondre à cette question, plaçons nous pour fixer les idées du coté du vendeur. A la vente de ce
produit dérivé, il reçoit en contrepartie une prime (prix de l’option) de la part de l’acheteur. Il peut alors
inverstir la prime dans un portefuille d’actifs ( ici S 0 et S) de manière à avoir une valeur de portefuille qui
va dans le même sens des flux qu’il risque de payer.
Pour calculer le prix d’un produit dérivé, nous avons besoin d’un modèle stochastique pour décrire
l’évolution incertaine du ou des titres sous-jacents. Un modèle stchaqstique doit refléter les observations de
l’historique des prix aussi bien que possible d’un point de vue statistique.
Etant donné le modèle, le problème de la valorisation et couverture d’une option de flux HT se formule
mathématiquement en la recherche d’une stratégie de portefeuille autofinançant φ tel que VT (φ) = HT . Dans
ce cas, on dit que le portefeuille φ duplique l’option HT . Alors par la condition d’AOA, on peut définir à
toute date le prix de l’option comme la valeur du portefeuille autofinaçant. Le prix est appelé prix d’arbitrage
et le portefeuille φ est appelé portefeuille de couverture.
Notons Πt = Πt (HT ) le prix d’arbitrage en t. Alors, à la date t, on a Πt = Vt (φ).
Si on suppose que le marché est complé, i.e. qu’il existe un unique probabilité risque-neutre Q, alors le
prix d’arbitrage d’une option de flux HT est donné à la date t par :
 0 
St
Πt = EQ HT |F t .
ST0

Son prix à la date t = 0 est


St0
 
Q
Π0 = E HT .
ST0
Car la richesse actualisée Ṽt (φ) est une martingale sous Q. C’est la règle d’évaluation risque-neutre.

Dans la suite, nous considérerons uniquement les produits dérivés représentés par les options européennes.
Dans ce cas, comme HT est variable aléatoire FT −mesurable, on a dans le cas continu, HT = h(ST ) où h
est une fonction mesurable.
Dans le cas dicret, où 0 = t0 < t1 < ... < tn = T , HT = h(St1 , ..., Stn ).

2.1. Modèles discrets


Modèle binomial à une période

C’est un modèle financier à deux dates et deux états du monde.

Université de Cocody, UFR: Math-Info 39 Dr. Jean Marc OWO


CHAPITRE 7. APLICATIONS AUX MARCHÉS FINANCIERS

A la date t = 0 (aujourd’hui) l’actif risqué (action) S vaut S0 , à la date t = 1 (demain, dans un mois, un
an) elle vaudra S1 = S1u = uS0 ou S1 = S1d = dS0 (avec d < u) selon que le prix monte ou descend, ce qui
n’est pas connu à la date 0.
L’actif sans risque (placement) S 0 a un taux d’interet r > 0 : S00 = 1 en t = 0 et S10 1 + r en t = 1. i.e.
1 franc placé aujourd’hui donnera 1 + r franc à la date t = 1 peu importe l’état du monde. C’est pour cela
qu’on l’appelle placement sans risque.
Notons ωu l’état "haut" et ωd l’état "bas". Alors,
- Ω = {ωu , ωd },
- P : P(ωu ) = p et P(ωd ) = 1 − p.
- F = {F0 , F1 }
En t = 0, on ne dispose d’aucune information : F0 = {∅, Ω}
En t = 1, on sait si l’action est montée ou descendue : F1 = {∅, Ω, {ωu }, {ωd }}.

Evaluation et couverture
Considérons maintenant un produit dérivé sur le sous-jacent S. C’est une v.a. F1 −mesurable. Il est donc
de la forme h(S1 ).
Notre problème est d’évaluer le prix à la date t = 0, d’un produit dérivé. Pour cela, on va dupliquer le
produit dérivé par une stratégie de portefeuille simple, i.e., créer un portefeuille autofinaçant (v0 , ∆) qui se
comporte comme notre produit dérivé.
Si d < 1 + r < u, il existe ! une probabilité risque-neutre Q.
De façon générale, on a l’équivalance suivante : AOA’ ⇐⇒ d < 1 + r < u ⇐⇒ il existe ! une probabilité
risque-neutre Q.
- Calcul de la probabilité risque-neutre Q.
Posons Q(S1 = S1u ) = q et Q(S1 = S1u ) = 1 − q.
Comme S̃ est une martingale sous Q, on tire q par : S̃0 = EQ (S̃1 ).
- Calcul du prix de l’option
D’après la règle d’évaluation risque-neutre,
1 1 h i
Π0 = v 0 = EQ (h(S1 ) = qh(S1u ) + (1 − q)h(S1d ) .
1+r 1+r
- Stratégie de couverture

h(S1u ) − h(S1d )
∆= .
S1u − S1d

Modèle binomial à n périodes ou modèle de Cox Ross Rubinstein

C’est une généralisation de la modélisation précédente dans un monde à n périodes. On subdivise l’in-
tervale [0, T ] en n périodes 0 = t0 < t1 < ... < tn = T . Donc (n + 1) dates :
- L’actif S 0 :
1 −→ (1 + r) −→ (1 + r)2 −→ ... −→ (1 + r)n .

- L’actif risqué S évolue suivant un arbre. On la probabilité de monter et de dscendre est la même dans
tout noeud de l’arbre. Pour alléger les calculs, nous allons supposer que l’arbre est recombinant, i.e. à l’instant
tk , l’actif peut prendre k + 1 valeurs différentes.
- Ω = {(ω1 , ..., ωn ) : ∀i ≤ n ωi = ωid ou ωi = ωiu },
- P : P(ωi = ωiu ) = p et P(ωi = ωid ) = 1 − p.
- Ftk == σ(St1 , ..., Stk ).
Si d < 1 + r < u, il existe ! une probabilité risque-neutre Q.

Université de Cocody, UFR: Math-Info 40 Dr. Jean Marc OWO


CHAPITRE 7. APLICATIONS AUX MARCHÉS FINANCIERS

Evaluation et couverture
Considérons le produit dérivé HT = h(St1 , ..., Stn ) et déterminons son prix à toute date tk . Pour cela, on
va dupliquer le produit dérivé par une stratégie de portefeuille simple, i.e., créer un portefeuille autofinaçant
(v0 , ∆) qui se comporte comme notre produit dérivé, avec ∆ = (∆0 , ..., ∆n−1 ) où ∀ 0 ≤ k ≤ n − 1, ∆k est la
quantité d’actif risqué à l’instant tk .
- Calcul de la probabilité risque-neutre Q.
Posons Q(Stk = uStk−1 ) = q et Q(Stk = dStk−1 ) = 1 − q.
Comme S̃ est une martingale sous Q, on tire q par : S̃0 = EQ (S̃t1 ).
- Calcul du prix de l’option
D’après la règle d’évaluation risque-neutre,
1
Πtk = EQ (h(S1 , ..., Stn |Ftk ).
(1 + r)n−k

En particulier,
1
Π0 = v 0 = EQ (h(S1 , ..., Stn ).
(1 + r)n
- Stratégie de couverture
1
Comme (1+r)n−k
EQ (h(S1 , ..., Stn )|Ftk ) est une variable aléatoire Ftk −mesurable, elle se reécrit sous la
forme
1
EQ (h(S1 , ..., Stn )|Ftk ) = Vk (S1 , ..., Stk )
(1 + r)n−k
avec Vk une fonction déterministe. Donc

Vk+1 (S1 , ..., Stk , uStk ) − Vk+1 (S1 , ..., Stk , dStk )
∆k = .
uStk − dStk

3. Modèle de Black-Scholes
Nous traiterons seulement le cas unidimensionnel.
On considère un marché financier constitué d’un actif sans risque et d’un actif risqué.
- L’évolution de l’actif sans risque St0 est régie par l’équation différentielle ordinaire (EDO) :

dSt0 = rSt0 dt, S00 = 1,

où r est une constante positive.


- L’évolution du cours de l’actif risqué St est régie par l’équation différentielle stochastique (EDS) :

dSt = µSt dt + σSt dWt , S0 > 0,

où µ, σ et S0 sont des constantes et (Wt ) un mouvement brownien standard.


On se place dans une base stochastique (Ω, F, (Ft )t∈[0,T ] , P) dans laquelle (Ft ) est la filtration naturelle de
W et F = FT .
L’expression explicite de St0 est :
St0 = ert ,

celle de St est :
σ2
St = S0 eσWt +(µ− 2 )t
.

La dynamique de la richesse du portefeuille autofinançant (v0 , ϕ) est

dVt = rVt dt + ϕt St [(µ − r)dt + σSt dWt ].

Université de Cocody, UFR: Math-Info 41 Dr. Jean Marc OWO


CHAPITRE 7. APLICATIONS AUX MARCHÉS FINANCIERS

La dynamique de l’actif sans risque actualisé S̃t0 est

dS̃t0 = 0.

Pour l’actif risqué actualisé S̃t , on a par application de la formule d’Itô :

dS̃t = S̃t [(µ − r)dt + σdWt ],

et celle de la richesse actualisée est donc :

dṼt = ϕt S̃t [(µ − r)dt + σdWt ].


µ−r
Posons W
ct = Wt +
σ t. Alors d’après le théorème de Girsanov, il existe une probabilité Q équivalente
à P définie sur (Ω, FT ) par

dP∗ λ2 µ−r
|FT = ZT = e−λWT − 2 T , avec λ =
dP σ
sous laquelle W
c est un mouvement brownien.
Dans le modèle BS, λ est la prime de risque.

La probabilité Q ainsi définie est une probabilité risque-neutre. En effet, sous Q, la dynamique de l’actif
risqué actualisé S̃t est
dS̃t = σ S̃t dW
ct .

Ce qui signifie que le prix actualisé S̃t est une intégrale stochastique par rapport au Q−mouvement brownien
W
c et est donc une Q−martingale.

Evaluation et couverture
D’après la règle d’évaluation risque-neutre, le prix d’un produit dérivé HT = h(ST ) est égale à la date t :
h i
Πt = e−r(T −t) EQ h(ST )|Ft ,

où Q est la probabilité risque-neutre la dynamique du sous-jacent est :

dSt = rSt dt + σSt dWt .

On en déduire que :
σ2
St = S0 eσWt +(r− )t
c
2

et
σ2
ST = St eσ(WT −Wt )+(r− )(T −t)
.
c c
2

cT − W
Puisque W ct est indépendant de St et Ft , on a
h i h i
EQ h(ST )|Ft = EQ h(ST )|St .

Le prix de l’option h(ST ) est donc :


Πt = v(t, St ),

où la fonction de prix v est égale à


h i
v(t, x) = e−r(T −t) EQ h(ST )|St = x .

Si v est régulière alors le flux h(ST ) est réplicable par un portefeuille de valeur v(t, St ) et de couverture
∂v
ϕt = ∂x (t, St ) à loa date t. De plus v est solution de l’EDP :
1 2
x vxx (t, x) + rxvx (t, x) + vx (t, x) − rv(t, x) = 0, avec v(T, x) = h(x).
2σ 2

Université de Cocody, UFR: Math-Info 42 Dr. Jean Marc OWO


CHAPITRE 7. APLICATIONS AUX MARCHÉS FINANCIERS

Formule de BS :
La formule concerne plus spécifiquement les call et put pour les quels on a des formules explicite qui donne
leur prix en t.
Le prix d’un call de maturité T et de strikeb K à la date t est donné par :

Ct = St N (d1 ) − Ke−r(T −t) N (d2 ),

où N est la fonction de répartition de la loi normale centrée réduite,


2
ln( SKt ) + (r + σ2 )(T − t) √
d1 = √ et d2 = d1 − σ T − t.
σ T −t

Le delta du call est ∆ = N (d1 ) et représente le nombre de parts à investir dans l’actif risqué à la date t.
En utilisant la relation de parité call-put :

Ct − Pt = St − Ke−r(T −t) ,

le prix du put est :


Pt = Ke−r(T −t) N (−d2 ) − St N (−d1 ).

Université de Cocody, UFR: Math-Info 43 Dr. Jean Marc OWO

Vous aimerez peut-être aussi