Académique Documents
Professionnel Documents
Culture Documents
Cours et Exercices
3 Chaines de Markov 10
1. Propriété de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2. Propriété de Markov faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3. Propriété de Markov forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2. Classification des états . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1. Classes et graphe réduit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2. Périodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3. Etats récurrents et transitoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4. Ergodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5. Probabilités d’absorption (capture par les classes récurrentes) . . . . . . . . . . . . . . 18
2.6. Temps moyen avant absorption . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3. Comportement asymptotique des chaines de Markov . . . . . . . . . . . . . . . . . . . . . . . 19
3.1. Mesures invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2. Chaines de Markov irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3. Chaînes de Markov réductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4 Martingales 22
1. Martingales en temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2. Martingales en temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
ii
TABLE DES MATIÈRES
5 Mouvement Brownien 26
1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2. Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
P(A ∩ B)
P(A|B) = , si P(B) 6= 0.
P(B)
On peut définir l’espérance d’une v.a. par rapport à la probabilité Q. Notons EQ l’espérance par rapport à
Q. Soit X une v.a. intégrable i.e., E(|X|) < ∞ ( E étant l’espérance par rapport à P). Alors, on a
E(X1B )
EQ (X) = , si P(B) 6= 0.
P(B)
On
pose E(X|B) = EQ (X) et on l’appelle l’espérance conditionnelle de X par rapport à B. On a alors
E E X|B 1B = E X1B :
1
CHAPITRE 1. RAPPELS : ESPÉRANCE CONDITIONNELLE
Soit
P(X ∈ B, Y ∈]y, y + dy])
PX|Y =y (B) = lim .
dy−→0 P(X ∈]y, y + dy])
Cette loi est caractérisée par :
- Fonction de repartition conditionnelle
Remarque.
Si A ∈ F , X = 1A , alors
(1) Si Y est continu, on a
P(A ∩ [Y = y])
E(X|Y = y) = P(A|Y = y) = .
P(Y = y)
Exemple 1.1. Soit Y1 , ..., Yn n variables aléatoires indépendantes de même loi P(λ). On pose X = 1[Y1 =y1 ]
n
X
et Y = Yi .
i=1
1. Calculer E(X|Y = y).
2. Calculer E(Y1 |Y ) et E(Y |Y1 ).
Propriétés
Soit Y une v.a. à valeurs dans Rp et X une v.a. (intégrable) à valeurs dans Rn , toutes deux définies sur
le même espace probabilisé (Ω, F, P). Alors pour g : Rn −→ R, on a
R
(1) E(g(X)) = Rn g(x)dPX (x) = E(E(g(X)|Y ))
(2) E(AX|Y ) = AE(X|Y )
(3) E(g(X)|X) = g(X), PX−p.s.
(4) V ar(X) = E V ar(X|Y ) + V ar E(X|Y )
Exercice 1.1. Soit (X, Y ) un vecteur aléatoire tel que PYX=y = P(y) et Y γ(1, 1).
1. Déterminer la densité (conjointe) de (X, Y ).
2. Calculer E(X|Y ), E(Y |X) et E(Y −X ).
E(ZY ) = E(XY ),
Inégalité de Jensen
Soient X une v.a., G une sous-tribu de F et ϕ : R −→ R convexe telle que E(|ϕ(X)|) < ∞. Alors
ϕ E X|G ≤ E ϕ(X)|G .
Proposition 1.1. Si X⊥G, Y est G−mesurable et φ : R × R −→ R est borélienne et telle que E(|φ(X, Y )|) <
∞, alors
E φ(X, Y )|G = ψ(Y ), où ψ(y) = E(φ(X, y)).
Définition 2.1. Un processus stochastique à valeurs dans (E, E) basée sur (Ω, F, P) est une famille (Xt )t∈T
de variables aléatoires (v.a.) de (Ω, F, P) dans (E, E). C’est donc un modèle permettant d’étudier un phéno-
mène aléatoire évoluant au cours du temps.
A ω ∈ Ω, on associe l’application
T → E
t 7→ Xt (ω)
appelée la trajectoire de (Xt )t∈T associée à ω.
Pour ω ∈ Ω et t ∈ T, la quantité Xt (ω) est appelé état du processus à l’instant t.
Prenons E = Rd , E = B(Rd ).
On dira que deux processus stochastiques décrivent le même phénomène aléatoire s’ils sont équivalents
au sens suivant :
Définition 2.2. Soient (Xt )t∈T et (Xt0 )t∈T deux processus stochastiques à valeurs dans le même espace d’états
(E, E), avec (Xt )t∈T basée sur (Ω, F, P) et (Xt0 )t∈T basée sur (Ω0 , F 0 , P0 ). On dit qu’ils sont équivalents si
∀ n ≥ 1, ∀ t1 , ..., tn ∈ T, ∀ B1 , ..., Bn ∈ E, on a
On dira encore que chacun de ces processus est une version de l’autre ou encore que (Xt )t∈T et (Xt0 )t∈T
sont des versions du même processus. (C’est une relation d’équivalence !).
1.1. Caractérisation
Rappel : Pour caractériser une v.a. X, il suiffit de donner sa loi : P(X ≤ x), ∀ x ∈ Rd .
5
CHAPITRE 2. GÉNÉRALITÉS SUR LES PROCESSUS STOCHASTIQUES
Pour caractériser un processus (Xt )t∈T , il suiffit de donner ses lois de dimension finie ou ses répartitions
finies : P(Xt1 ≤ x1 , ..., Xtn ≤ xn ), ∀ n ≥ 1, ∀ t1 , ..., tn ∈ T, ∀ x1 , ..., xn ∈ Rd , c’est à dire la famille des lois
des v.a. (Xt1 , ..., Xtn ) lorsque {t1 , ..., tn } parcourt l’ensemble des parties finies non vides de T.
Proposition 2.1. Deux processus stochastiques sont équivalents si et seulement si ils ont les mêmes répar-
titions finies.
Notons que l’espace T des indices est souvent assimilé au temps, t est alors l’instant d’observation de la
variable aléatoire X sur l’individu ω. Si la variable t prend des valeurs discrètes équidistantes, le processus
décrit des séries chronologiques. L’espace T ne représente pas toujours le temps, il peut avoir d’autres
significations, comme le nombre de kilomètres parcourus, etc.
Mais ici, nous aurons :
T ⊆ N ce qui correspond aux processus à temps discret. - Lorsque T = N, le processus est décrit par une
suite X0 , X1 , X2 , ... de variables aléatoires à valeurs dans (E, B) (appelée une chaine). - Si E est fini ou
dénombrable, ces variables aléatoires sont forcément des variables aléatoires discrètes.
T = [0, T ], T ∈ R∗+ où T = R+ , pour les processus à temps continu.
Lorsque E et T sont discrets, toute trajectoire est constituée par une suite de points dans le plan.
1.2. Filtration
Pour matérialiser la connaissance du processus X jusqu’à l’instant t (inclus), on introduit la tribu des
événements se produisant jusqu’à l’instant t, comme étant la tribu engendrée par la famille (Xs )s∈[0,t] . On
X
la note F0,t ou simplement Ft = σ(Xs ; s ≤ t).
La famille (Ft )t∈T de ces tribus est monotone croissante : Fs ⊂ Ft , ∀ s ≤ t. Cette famille (Ft )t∈T est appelée
la filtration naturelle du processus X.
En particulier, pour les processus à temps discret, on a : FnX = σ(X0 , ..., Xn ).
Tout événement A ∈ FnX est réunion dénombrable d’événements de la forme :
Nontons que F0 ne contient pas nécessairement l’ensemble des parties P−négligeables N . C’est pour cela
que l’on introduit souvent la filtration naturelle augmentée de X d’éfinie par F̄tX = σ(Ft ∪ N ).
Lorsque nous parlerons de filtration naturelle il s’agira toujours de filtration naturelle augmentée qu’on
notera encore FtX ou simplement Ft .
Définition 2.3. Les variables aléatoires Xt − Xs , t > s ≥ 0 sont appelées des accroissements du processus
X.
Définition 2.4. Un processus stochastique (Xt )t≥0 est un processus à accroissements indépendants (en
abrégé P.A.I.) si pour tout n ≥ 2 et tous t0 , t1 , ...., tn ∈ R+ tels que 0 ≤ t0 < t1 < .... < tn , les variables
aléatoires Xt1 − Xt0 , Xt2 − Xt1 , ...., Xtn − Xtn−1 sont indépendantes. Autrement dit si pour tous s, t ∈ R+
tels que 0 ≤ s < t, la variable aléatoire Xt − Xs est indépendant de la tribu FsX .
Un processus stochastique (Xt )t≥0 est un processus à accroissements stationnairs (en abrégé P.A.S.) si pour
tous s, t ∈ R+ tels que 0 ≤ s < t, la variable aléatoire Xt − Xs a la même loi que Xt−s − X0 , (on note
L
Xt − Xs = Xt−s − X0 ).
Définition 2.5. Un processus stochastique (Xt )t≥0 est un processus accroissements indépendants station-
nairs (en abrégé P.A.I.S.) s’il est à la fois un P.A.I. et un P.A.S..
Pour de tels processus, donner la loi de Xt − X0 , t ≥ 0, ainsi que celle de X0 suffit à caractériser
entièrement le processus.
Définition 2.6. Un processus X est P−p.s. continu à droite (resp. : P−p.s. continu à gauche, P−p.s. continu
) si pour P−presque tout ω ∈ Ω, t 7→ Xt (ω) est continue à droite (resp. : continue à gauche, continue).
Définition 2.7. Un processus X est mesurable si l’aplication (t, ω) 7→ Xt (ω) de R+ × Ω dans Rd est
mesurable par rapport aux tribus B(R+ ) F et B(Rd ).
N
Définition 2.8. Soient X et X 0 deux processus stochastiques basés sur un même espace de probabilité à
valeurs dans un même espace d’états. On dit que X 0 est une modification de X si pour tout t ≥ 0, Xt =
Xt0 P−p.s. : ∀ t ≥ 0, P(Xt = Xt0 ) = 1.
X et X 0 sont indistinguables si, P−p.s., les trajectoires de X et de Y sont les mêmes c’est à dire P(Xt =
Xt0 , ∀ t ≥ 0) = 1.
Définition 2.9. Un processus X est adapté par rapport à la filtration (Ft )t≥0 si pour tout t ≥ 0, Xt est
Ft −mesurable.
Définition 2.10. Un processus X est progressivement mesurable si l’aplication (s, ω) 7→ Xs (ω) de [0, t] × Ω
dans Rd est mesurable par rapport à B([0, t]) Ft et B(Rd ).
N
Un processus progressivement mesurable est mesurable et adapté. On peut également noter que si X est
un processus mesurable et adapté alors il possède une modification progressivement mesurable. On a aussi
le résultat suivant :
Proposition 2.2. Si X est un processus stochastique dont les trajectoires sont continues à droite (ou conti-
nues à gauche) alors X est mesurable et X est progressivement mesurable s’il est de plus adapté.
Rappels :
a). Une v.a.r. Y est dite gaussiennne s’il existe des réels a, b et une v.a.r. U de loi N (0, 1) telles que Y =
aU + b P−p.s. En particulier, toute v.a.r. P−p.s. constante est gaussienne (cas a = 0). Si a 6= 0, Y a la loi
normale N (b, a2 ).
b). Une v.a. Y = (Y1 , ..., Yn ) à valeurs dans Rn (n ≥ 2) est dite gaussienne si pour tout u ∈ Rn , hu, Y i =
Xn
ui Yi est une v.a.r. gaussienne.
i=1
Si Y1 , ..., Yn sont indépendantes et gaussiennes, alors Y = (Y1 , ..., Yn ) est un vecteur gaussien.
La moyenne m d’un processus gaussien réel (Xt )t∈R+ est l’application de R+ dans R donnée par m(t) =
E(Xt ).
Lorsque m(t) = 0 ∀ t ∈ R+ , on dit que (Xt )t∈R+ est gaussien centré.
La covariance c d’un processus gaussien réel (Xt )t∈R+ est l’application de R+ × R+ dans R définie par
c(s, t) = Cov(Xs , Xt ).
Proposition 2.3. L’application c est symétrique et semi-définie positive (ou de type positif )c’est à dire
i.) c(s, t) = c(t, s), ∀ t ∈ R+ .
n
X
ii.) ∀ n ≥ 1, ∀ t1 , ...., tn ∈ R+ , ∀ λ1 , ...., λn ∈ R, c(ti , tj )λi λj ≥ 0.
i,j=1
n−1
X p
Vtp (X, π) = Xti+1 − Xti .
i=1
Si Vtp (X, π) a une limite dans un certain sens (convergence Lp , convergence p.s.) lorsque
|π| = sup |ti+1 − ti | −→ 0, la limite ne dépend pas de la subdivision choisie et est appelée variation d’ordre
0≤i≤n
p de X sur [0, t] notée Vtp (X).
Si p = 1, la limite Vt1 (X) est appelée variation totale de X sur [0, t].
Si p = 2, la limite Vt2 (X) est appelée variation quadratique de X sur [0, t] notée hXit .
On associe donc à X les processus V 1 (X) et hXi appelés respectivement variation totale et variation qua-
dratique de X.
Remarque. Les processus V 1 (X) et hXi sont des processus croissants.
Définition 2.13. Un processus X est à variation finie (resp. bornée) s’il est à variation finie (resp. bornée)
trajectoirs par trajectoires :
n−1
X
∀ t, Vt1 (X) = sup Xti+1 − Xti < +∞ p.s. (resp. sup Vt1 (X) < +∞ p.s.)
π t
i=1
Exemple. Si pour presque tout ω ∈ Ω, t 7−→ Xt (ω) est de classe C 1 ou monotone, alors X est à variation
finie.
Remarque : Un processus X est à variation finie si et seulement s’il est variation localement bornée.
Proposition 2.4. Un processus X est à variation finie si et seulement s’il est différence de deux processus
croissants.
Proposition 2.5. Si X est un processus à variation finie (ou borné) à trajectoires continues, sa variation
quadratique est nulle presque surement : hXi = 0, p.s.
Proposition 2.6. Soit X un processus à variation finie (ou borné) à trajectoires continues et Y un processus
à variation quadratique finie, alors X + Y est à variation quadratique finie et on a :
hX + Y i = hY i.
Chaines de Markov
Les chaines de markov constituent l’exemple le plus simple des processus stochastiques, lorsque dans
l’étude d’une suite de variables aléatoires, on abandonne l’hypothèse d’indépendance. Il s’agit d’un processus
à temps discret, d’où le nom de chaine. L’espace E d’états peut être arbitraire, mais sera ici soit fini soit
dénombrable.
1. Propriété de Markov
1.1. Définitions
Soit (Xn )n≥0 un processus stochastique à temps discret défini sur un espace probabilisé (Ω, F, P), à
valeurs dans un espace d’états E fini ou dénombrable.
Définition 3.1. Le processus stochastique (Xn )n≥0 est appelé chaine de Markov si pour tout n ∈ N, la loi
conditionnelle de Xn+1 sachant X0 , X1 , ..., Xn est égale à sa loi conditionnelle sachant Xn , i.e. pour tout
n ≥ 1 et toute suite x0 , ..., xn−1 , xn , xn+1 d’éléments de E pour la quelle la probabilité P(X0 = x0 , ..., Xn−1 =
xn−1 , Xn = xn ) est strictement positive, on a
Autrement dit, dans l’évolution au cours du temps, l’état du processus à l’instant n + 1 ne depend que de
ce lui à l’instant n précédent, mais non de ses états antérieurs, i.e connaissant Xn , on peut oublier le passé
pour prédire l’avenir. Le processus est sans mémoire ou non héréditaire.
La propriété dans cette définition est la propriété de Markov.
Proposition 3.1. Le processus stochastique (Xn )n≥0 est une chaine de Markov sur E si et seulement si
pour tout n ≥ 1 et toute suite x0 , ..., xn−1 , xn d’éléments de E
P(X0 = x0 , ..., Xn−1 = xn−1 , Xn = xn ) = P(X0 = x0 )P(X1 = x1 |X0 = x0 ) · · · P(Xn = xn |Xn−1 = xn−1 ).
Un critère simple qui permet dans la plupart des cas de vérifier qu’un processus est une chaine de Markov
est donné par :
Lemme 3.1. Soit E et F deux ensembles finis ou dénombrables et f une application de N × E × F dans E.
Soit X0 , Y1 , Y2 , ..., des v.a mutuellement indépendantes, X0 à valeurs dans E et les Yn à valeurs dans F ,
et (Xn )n≥1 le processus à valeurs dans E défini par :
10
CHAPITRE 3. CHAINES DE MARKOV
Définition 3.2. Une chaine de Markov (Xn )n≥0 est dite homogène (dans temps) si pour tout x, y ∈ E et
tout instant n ∈ N , on a
Soit p(x, y) = P(Xn+1 = y|Xn = x), n ≥ 0, cette probabilité ; on l’appelle probabilité de passage de
l’état x à l’état y, en une étape ou en une operation, ou encore en une transition.
Définition 3.3. La matrice P = (p(x, y))(x,y)∈E 2 dont les coefficients sont les probabilités de transition
p(x, y) est appelée matrice de passage (ou de transition) de la chaine. C’est une matrice fine ou dénombrable,
suivant que l’ensemble E des états est fini ou dénombrable.
Propriété 3.1. Toute matrice de transition P = (p(x, y))(x,y)∈E 2 vérifie les propriétés suivantes :
(i) ∀ (x, y) ∈ E 2 , p(x, y) ≥ 0
X
(ii) ∀ x ∈ E, p(x, y) = 1
y∈E
Une matrice P , qui vérifie les conditions (i) et (ii) de la propriété précédente est appelée matrice marko-
vienne (ou stochastique).
Pour une chaine de markov de matrice de transition P = (p(x, y))(x,y)∈E 2 , on a
La loi d’une chaine de Markov homogène est donc entièrement caractérisée par la donnée de la loi initiale
(loi de X0 ) et de la matrice de transition P .
Lorsque l’on étudie une chaine de Markov homogène, on est souvent amené à visualiser une partie du
comportement de la chaine en traçant ce que l’on appelle le graphe d’états ou graphe de transition ou de
Markov. Ce graphe d’états est un graphe orienté dont les sommets sont les différents états de la chaine et
dont les arcs orientés relient les sommets x et y tels p(x, y) > 0. Si on souhaite donner tous les renseignements
sur le graphe, on construit un graphe valué en affectant à l’arc (x, y) le poids p(x, y).
Lorsque l’espace des états est fini, cette présentation de la matrice de transition par son graphe est
particulièrement utile et parlante
Exemple 3.1. Soit {Xn : n ∈ N} une chaine de Markov à valeurs dans l’espace fini E = {1, 2, 3, 4, 5}, de
matrice de transition, dont les termes hors-diagonaux sont donnés par
. 0 0 0 0
1 1 1
3 . 0
4 4
P = 0 12 . 0 12
0 0 0 . 1
0 0 0 1 .
Soit (Xn )n≥0 une chaine de Markov homogène d’espace d’états E et de matrice de transition P =
(p(x, y))(x,y)∈E 2 . Pour n ≥ 0 et x, y ∈ E, on désigne par p(n) (x, y) la probabilité, partant de l’état x en
l’instant 0, d’être dans l’état y en l’instant n ; en d’autres termes, on pose
Théorème 3.1 (Relation de Chapman-Kolmogorov). Pour tout n ≥ 0, la matrice en n étatpes est égale à
la puissance nime de la matrice de transition en une étape :
P (n) = P n .
ou encore
X
p(m+n) (x, y) = p(m) (x, z)p(n) (z, y); P (m+n) = P (m) P (n) .
z∈E
Proposition 3.2. Soit π (0) la distribution de l’état initial d’une chaine de Markov homogène de matrice de
transition P et π (n) la distribution de son état à l’instant n, c’est à dire, π (n) (x) = P(Xn = x), ∀ x ∈ E.
Alors, pour tout n ≥ 1, on a
π (n) = π (n−1) P et π (n) = π (0) P n .
Restriction : Dans la suite, l’étude portera sur une chaine de Markov à temps discret, définie sur un espace
d’états fini et homogène dans le temps.
Notons que les résultats que nous allons présenter s’applique le plus souvent tels quels aux chaines de Markove
à temps discret, homogène mais définis sur un espace d’états dénombrable (par exemple E = Z).
Théorème 3.2 (Propriété de Markov faible ). Soit (Xn )n≥0 une chaine de Markov homogène à valeur
dans E de matrice de transition P = (p(x, y))(x,y)∈E 2 . Pour tous n et k et pour tous y1 , ..., yk , pour tout
A ∈ Fn = σ(X0 , ..., Xn ) tel que P(A, Xn = x) > 0,on a :
E(f (Xn+1 , ..., Xn+k )|A, Xn = x) = E(f (X1 , ..., Xk )|X0 = x). (3.2)
Définition 3.4. Une variable aléatoire τ à valeurs dans N ∪ {+∞} est un temps d’arrêt pour la chaîne de
Markov (Xn )n≥0 )( ou relativement à la filtration (Fn = σ(X0 , ..., Xn ))n≥0 ) si : ∀ n ≥ 0, {τ = n} ∈ Fn .
Exemple : soit (Xn )n≥0 ) une chîne de Markov à valeur dans E, A un sous-ensemble de E et SA le premier
temps d’atteinte de A : SA = inf{n ≥ 0; Xn ∈ A}. On a :
Ty = inf{n ≥ 1; Xn = y}.
Ty est un temps d’arrêt pour la filtration (Fn = σ(X0 , ..., Xn )), il est appelé instant du "premier retour"
de la chaine (Xn )n≥0 à l’état y lorsque la chaîne part de y et temps d’atteinte de y ou instant du "premier
passage" à y sinon.
Définition 3.5. Si τ est un temps d’arrêt, on définit la tribu Fτ des événements antérieurs τ par :
A ∈ Fτ ⇐⇒ A ∩ {τ = n} ∈ Fn , ∀ n ≥ 0.
Théorème 3.3 (Propriété de Markov forte ). Soit (Xn )n≥0 une chaine de Markov homogène à valeur dans
E de matrice de transition P = (p(x, y))(x,y)∈E 2 et τ est un temps d’arrêt de la chaîne. Pour tous n et k et
pour tous y1 , ..., yk , pour tout A ∈ Fτ tel que
P(τ < +∞, A, Xτ = x) > 0,on a :
E(f (Xτ +1 , ..., Xτ +k )|τ < +∞, A, Xτ = x) = E(f (X1 , ..., Xk )|X0 = x). (3.4)
Corollaire 3.3. Conditionnellement à l’événement {Ty < +∞}, la suite translatée (XTy +k )k≥0 est une
chaine de Markov, de matrice de transition P et d’état initial y. De plus, la suite translatée (XTy +k )k≥1 est
indépendante de la tribu FTy .
Définition 3.6. On dit que l’état y est accessible à partir de l’état x ou est conéquent de l’état x (on dit
aussi l’état x conduit à l’état x), s’il existe un entier n ≥ 0 tel que p(n) (x, y) > 0.
En d’autres termes, s’il existe dans G au moins un chemin de x à y. On écrit : x y.
Propriété 3.3. La relation d’accessibilité entre états est une relation de préordre i.e. réflexive et transitive.
Définition 3.7. On dit que deux états x et y communiquent et l’on écrit : x ! y, si on a à la fois x y
et y x.
Propriété 3.4. La relation de communication entre états est une relation d’équivalence.
Remarque. En raison du fait que, pour tout x, on a p(0) (x, x) = 1, tout état communique avec lui-même.
Un état est appelé état de retour, s’il existe n ≥ 1 tel que p(n) (x, x) > 0. Il existe des états x tels que pour
tout n ≥ 1 (donc 0 exclu) on ait p(n) (x, x) = 0. De tels états sont appelés états de non-retour.
Pour la relation de communication, l’ensemble E des états se partitionne en classe d’équivalence, disjoints
et non vides, dites classes indécomposables. Il est possible de quitter une classe d’équivalence mais il est
impossible d’y retourner.
Définition 3.8 (Graphe réduit). Si C1 , ..., Cr dénotent les classes d’une chaine de Markov, le graphe
réduit GR de la chaine est obtenu en associant un sommet à chaque classe Ck et en reliant les sommets u
et v par un arc (u, v) s’il existe x ∈ Cu et y ∈ Cv avec p(n) (x, y) > 0. Dans ce cas, ∀ x ∈ Cu et ∀ y ∈ Cv ,
p(n) (y, x) = 0, ∀ n ≥ 0.
Propriété 3.5. Le graphe réduit GR d’une chaine de Markov est un graphe sans circuit.
Définition 3.9. S’il n’y a qu’une seule classe pour la relation de communication, autrement dit, si tous les
états communiquent entre eux, la chaine est dite irréductible.
Exemple 3.2. On considère la chaine de Markov à espace d’états E = {1, 2, 3} et de matrice de transition
1 1
0
2 2
P = 1 1 1
2 4 4 .
1 2
0 3 3
Exemple 3.3. On considère la chaine de Markov à espace d’états E = {1, 2, 3, 4}, de matrice de transition
1 1
0 0
21 21
2 2 0 0
P =
1 1 1
.
1
4 4 4 4
0 0 0 1
- Déterminer les classes d’équivalence pour la relation de communication.
- Si possible, donner le graphe réduit associé à cette chaine.
Définition 3.10. - Une classe est dite persistante (stable ou fermé) si elle correspond à un sommet sans
successeur de GR , i.e., si aucun état appartenant à C ne conduit à un état hors de C : ∀ x ∈ C et ∀ y 6∈ C,
p(x, y) = 0.
-Si tel n’est pas le cas, la classe dite transitoire (instable ou ouvert).
- Les états d’une classe persistante sont persistants ou récurrents et ceux d’une classe transitoire sont tran-
sitoires.
- Une classe persistante composée d’un seul état est absorbante. Un état est absorbant s’il forme, à lui seul,
une classe persistante. Cet état ne communique avec aucun autre état.
Définition 3.11. Une chaine de Markov est dite absorbante si ses états persistants le sont.
Définition 3.12. Une chaine de Markov est dite récurrente irreductible si elle irréductible et si tous les états
sont récurrents.
Proposition 3.3. Toute chaine de Markov irréductible sur un espace fini d’états E est récurrent irréductible.
2.2. Périodicité
Il s’agit d’étudier dans quelles conditions le temps qui sépare deux retours au même état x est ou n’est
pas multiple d’un temps minimum. Pour ce faire, on introduit la notion de période.
Définition 3.13. Soit i un état de retour ; on appelle période de x, le PGCD de tous les entiers n ≥ 1 pour
lesquels p(n) (x, x) > 0. On note d(x) la période de x. Si d(x) = d ≥ 2, on dit que x est périodique de période
d ; si d(x) = 1, on dit que x est apériodique. Si x est un état de non-retour, à savoir que, pour tout n ≥ 1,
on a p(n) (x, x) = 0, on pose d(x) = +∞.
Propriété 3.7. l’état x est périodique de période d fini ssi d est le plus grand diviseur commun des longueurs
des circuits du graphe représentatif G passant par x.
Propriété 3.9. Les états d’une classe ont tous la même période.
La période étant une propriété de classe, on parlera de classes périodiques et de classes apériodiques,
de chaines de Markov irreductibles périodiques et de chaines de Markov irreductibles périodiques selon les
propriétés de leurs états.
Ty = inf{n ≥ 1; Xn = y}.
ρ(n)
xy = Px (Ty = n) = P(Ty = n|X0 = x).
(n)
Ainsi, ρxy (n ≥ 1) est la probabilité pour que le processus, partant de l’état x, atteigne l’état y, pour la
(0)
première fois, à l’instant n. par convention, on pose, ρxy = 0.
Posons
X
ρxy = Px (Ty < +∞) = P(Ty < +∞|X0 = x) = ρ(n)
xy .
n≥1
C’est la probabilité pour que le processus, partant de l’état x, passe par l’état y au moins une fois au cours
du temps ; si x = y la quantité ρyy est la probabilité pour que le processus, partant de y, retourne à y au
moins une fois au cours du temps.
Définition 3.14. On dit que l’état y est récurrent, si ρyy = 1. On dit qu’il est transitoire ou transient si
ρyy < 1.
Proposition 3.5.
Définition 3.15. On dit que l’état y est positif, si myy < +∞ et qu’il est nul si myy = +∞.
Théorème 3.5. La propriété de positivité (de nullité) est une propriété de classe.
Remarque. Tout état positif est récurrent. Tout état transient est nul. Il y’a donc des classes récurrentes
positives, des classes récurrentes nulles et toutes classes transientes sont nulles. En revanche, lorsque l’en-
semble des états est fini, il n’y a pas de classe récurrente nulle, ou encore il y a identité entre états positifs
et récurrents, d’une part, et états nuls et transients, d’autre part.
Théorème 3.6. Les temps d’atteinte moyens mxy vérifient dans [1, +∞] la relation :
X
mxy = 1 + p(x, z)mzy .
z6=y
2.4. Ergodicité
Définition 3.16. On dit qu’un état est ergodicité, s’il est récurrent positif et apériodicité
L’ergodicité est une propriété de classe. Une classe contenant un état ergodique est dite ergodique.
Propriété 3.10. Un processus à espace d’états fini, irréductible et apériodique est ergodique.
Exemple 3.4. Considérons la chaine de Markov, à espace d’états E = {1, 2, 3}, de matrice de transition
0 1 0
P = 1 3
4 0 4 .
0 1 0
Exemple 3.5. Considérons la chaine de Markov, à espace d’états E = {1, 2, 3}, de matrice de transition
1 1
0
2 2
P = 1 1 1 .
2 4 4
1 2
0 3 3
Exemple 3.6. On considère la chaine de Markov, à espace d’états E = {1, 2, 3, 4}, de matrice de transition
1 1
2 2 0 0
1 1
2 2 0 0
P =
1 1 1
.
1
4 4 4 4
0 0 0 1
Déterminer les classes persistantes et transitoires. Sont-elles périodiques ? les classes persistantes sont-elles
ergodiques ?
TC = inf{n ≥ 1; Xn ∈ C}.
C’est la probabilité pour que le processus, partant de l’état x, passe par C au moins une fois au cours du
temps àprès l’instant 0.
Alors, la fonction f (x) = Px (TC < +∞) = ρC (x) est solution du système d’équations :
X X
f (x) = p(x, y) + p(x, y)f (x).
y∈C y6∈C
Si C ⊂ R est une classe récurrente, la quantité f (x) = ρC (x) est appelée probabilité d’absorption de x par
C et On a :
Propriétés.
X (
1, si x ∈ C
f (x) =
0, si x ∈ R\C
X
0 < f (x) < 1, si x ∈ T .
X
X X
f (x) = p(x, y) + p(x, y)f (y), si x ∈ T .
y∈C y∈T
On note m(x) le temps moyen avant que la chaine partant de x soit absorbée dans l’une des classes
persitantes. Alors, on a
Propriétés.
X
m(x) = 0, si x ∈ R.
X
1 < m(x) < +∞, si x ∈ T .
X
X
m(x) = 1 + p(x, y)m(y), si x ∈ T .
y∈E
Propriété 3.11. Si lim π (n) existe, alors la limite est une loi de probabilité stationnaire.
n−→∞
Propriété 3.12. Toute chaîne de Markov homogène sur un espace d’états fini admet au moins une loi de
probabilité invariante.
Théorème 3.7. Une chaîne de Markov homogène sur un espace d’états fini admet autant de lois de pro-
babilité stationnaires linéairement indépendantes que la multiplicité de la valeur propre 1 de sa matrice de
transition.
Théorème 3.8. La distribution π (n) des états d’une chaîne de Markov homogène converge vers une dis-
tribution π ∗ indépendante de la distribution initiale π (0) si et seulement si P n converge vers une matrice
stochastique P ∗ dont toutes les lignes sont égales entre elles. De plus, si tel est le cas, chaque ligne de P ∗
est égale à π ∗ .
Théorème 3.10. Toute chaîne de Markov homogène irréductible récurrente positive admet une unique
probabilité invariante π. Cette probabilité vérifie :
1 1
∀ x ∈ E, π(x) = = .
mxx Ex (Tx )
Corollaire 3.5. Une chaîne de Markov homogène irréductible est récurrente positive si et seulement si elle
possède une probabilité stationnaire (et celle-ci est alors unique).
Corollaire 3.6. Toute chaîne de Markov homogène irréductible à espace d’états fini est récurrente positive :
elle admet une unique probabilité invariante π vérifiant
1 1
∀ x ∈ E, π(x) = = .
mxx Ex (Tx )
Le fait qu’une chaîne de Markov homogène soit irréductible récurrente positive, assure l’existence d’une
unique probabilité invariante, mais pas la convergence des matrices P n comme le montre l’exemple trivial
suivant : !
0 1
Si P = , ∀ n ∈ N, P 2n = I et P 2n+1 = P.
1 0
Théorème 3.11 (Théorème d’Orey). Soit (X)n≥0 une chaîne de Markov homogène récurrente irréductible.
1. Si elle récurrente nulle, alors :
– soit elle périodique de période d, et pour tout couple x, y d’états de E, il existe un entier r (0 ≤ r < d)
tel que :
lim p(n) (x, y) = lim Px (Xn = y) = 0,
n→+∞ n→+∞
Remarque.
(1) π(x) est la probabilité que la chaine se trouve dans l’état x à un instant quelconque. Cette valeur
représente aussi la proportion du temps passé dans l’état x.
(2) Si la chaîne est récurrente irréductible apériodique, P n converge vers une matrice stochastique P ∗
dont toutes les lignes sont égales à π = lim π (n) .
n−→∞
(3) Si la chaîne est récurrente (positive) irréductible périodique, P n ne converge au sens ordinaire. Mais
au sens de cesàro, P n converge vers une matrice stochastique dont toutes les lignes sont égales à π.
Rappel : On dit qu’une suite (xn )n≥1 converge au sens de Cesàro vers x∗ , si la suite des moyennes (xn )n≥1
n
1X
(xn = xn ) converge vers x∗ , au sens ordinaire.
n
k=1
n
1X
lim xn = x∗ .
n−→∞ n
k=1
C
On écrit xn −→ x∗ ou limC xn = x∗ .
n−→∞
C
Remarque. xn −→ x∗ =⇒ xn −→ x∗ . La réciproque est fausse. Exemple : xn = (−1)n converge au sens
de Césàro mais ne converge pas au sens ordinaire.
Au sens de Césàro, les chaînes de Markov homogènes irréductibles présentent toutes les mêmes propriétés
asymptotiques, indépendamment de leur période.
On peut maintenant énoncer le théorème ergodique, qui constitue une généralisation de la loi des grangs
nombres.
Théorème 3.12 (Théorème ergodique). Soit (X)n≥0 une chaîne de Markov homogène irréductible de
loi initiale π (0) , quelconque. Alors P − p.s, quand n −→ +∞,
n
1X 1 1
∀ x ∈ E, 1{Xk =x} −→ = .
n mxx Ex (Tx )
k=1
De plus, si (X)n≥0 est récurrente positive de probabilité invariante π, pour toute fonction f : E −→ R bornée,
on a P − p.s, quand n −→ +∞,
n
1X X
f (Xk ) −→ πx f (x) = Eπ (f (X0 )).
n
k=1 x∈E
Exercice.
Soit X une chaîne de markov homogène sur E = {1, 2, 3, 4, 5, 6} de matrice de transition :
1 0 0 0 0 0
0 0, 3 0 0, 7 0 0
0, 2 0, 2 0, 3 0, 3 0 0
P =
0 0, 8 0 0, 2 0 0
0 0 0, 5 0 0, 2 0, 3
0 0 0, 4 0 0, 1 0, 5
Déterminer les différentes classes, les probabilités d’absorption et les temps moyens avant absorption par
chaque classe récurrente ainsi que les probabilités invariantes (si possible).
Martingales
Propriété 4.1. Si (Mn )n≥0 est une {Fn }n≥0 −martingale, alors
(i) E (Mn |Fk ) = Mk , ∀ n ≥ k ≥ 0.
(ii) E (Mn ) = E (M0 ), ∀ n ≥ 0.
Proposition 4.1. Soit (Mn )n≥0 une (Fn )n≥0 −martingale de carré intégrable, alors, pour tout n ≥ k ≥ 0,
on a :
E (Mn − Mk )2 |Fk = E Mn2 − Mk2 |Fk .
Théorème 4.1 (Théorème de décomposition de Doob). Soit (Mn )n≥0 une {Fn }n≥0 −sous-martingale. Alors
il existe un unique (à une égalité p.s. près) processus (An )n≥0 croissant, et {Fn }n≥0 −adapté tel que A0 = 0
et (Mn − An )n≥0 est une {Fn }n≥0 −martingale.
Corollaire 4.1. Si (Mn )n≥0 une {Fn }n≥0 −martingale de carré intégrable, alors hM i est l’unique (à une
égalité p.s. près) processus croissant, et {Fn }n≥0 −adapté tel que hM i0 = 0 et (Mn2 − hM in )n≥0 est une
{Fn }n≥0 −martingale.
Exercice 1. Soit (Xn )n≥1 une suite de v.a. centrées i.i.d.. On considère la fitration {Fn }n≥0 définie par :
22
CHAPITRE 4. MARTINGALES
1. Si E(|Xn |) < +∞, ∀ n ≥ 0, alors (Sn )n≥0 est une {Fn }n≥0 −martingale.
n
X
2
2. Si E(|Xn | ) < +∞, ∀ n ≥ 0, alors (Sn2 )n≥0 est une {Fn }n≥0 −sous-martingale et (Sn2 − E(Xi2 ))n≥0
i=1
est une {Fn }n≥0 −martingale.
E(|Mn |)
P( max Mk ≥ c) ≤ .
0≤k≤n c
(ii) Soit (Mn )n≥0 une {Fn }n≥0 −martingale telle que pour tout n ≥ 0, E(|Mn |p ) < +∞ avec p > 1 fixé,
alors pour tout n ≥ 1 et pour tout c > 0,
E(|Mn |p )
P( max |Mk | ≥ c) ≤ .
0≤k≤n cp
Théorème 4.3 (Théorème d’arrêt). Soit (Mn )n≥0 une {Fn }n≥0 −martingale.
(i) Pour tout temps d’arrêt borné σ, la variable aléatoire Mσ est intégrable et Fσ −mesurable.
(ii) Si σ et τ sont deux temps d’arrêt bornés et si τ ≥ σ, alors
E (Mτ |Fσ ) = Mσ .
Théorème 4.4 (Inégalité de Wald). Soient (Xn )n≥1 une suite de variable aléatoires aléatoires indépen-
dantes, identiquement disttribuées, vérifiant E(|X1 |) < +∞ et τ un temps d’arrêt à valeurs dans N∗ , adapté
à la suite (Xn )n≥1 , d’espérance mathématique finie. Alors
τ
!
X
E Xn = E(τ )E(X1 ).
n=1
Exercice 2
Soit (Xn )n≥0 et (Mn )n≥0 deux suites de v.a. réelles. On pose :
∀ n ≥ 0, ∆Mn = Mn+1 − Mn .
n−1
X
(X ∗ M )0 = 0, et ∀ n ≥ 1, (X ∗ M )n = Xk ∆Mk .
k=0
∆(X ∗ M ) = X∆M et X ∗ (Y ∗ M ) = XY ∗ M.
2. On suppose que (Mn )n≥0 est une {Fn }n≥0 −martingale et (Xn )n≥0 {Fn }n≥0 −adaptée tel que
E(|(X ∗ M )n |2 ) < +∞, ∀ n ≥ 0.
(a) Montrer que ((X ∗ M )n )n≥0 est une {Fn }n≥0 −martingale.
(b) Déterminer l’unique (à une égalité p.s. près) processus croissant A tel que A0 = 0 et (X ∗ M )2 − A
est une {Fn }n≥0 −martingale.
1
3. Soit (Yn )n≥1 une suite de v.a. i.i.d. avec P(Yi = +1) = P(Yi = −1) = 2. On pose M0 = 0 et
Mn = Y1 + ... + Yn (la marche aléatoire symétrique sur Z). On pose également : F0 = {∅, Ω} et n ≥ 1,
Fn = σ(Y1 , ..., Yn ).
(a) Montrer que (Mn2 − n)n est une {Fn }n≥0 −martingale.
(b) Calculer l’intégrale M*M.
(c) Déterminer le processus croissant C tel que C0 = 0 et (M ∗M )2 −C est une {Fn }n≥0 −martingale,
puis calculer E(Cn ), ∀ n ≥ 0.
Montrer que (Mn )n≥0 est une {Fn }n≥0 −martingale, où F0 = {∅, Ω} et n ≥ 1, Fn = σ(X1 , ..., Xn )
Définition 4.2. Un processus (Mt )t∈R+ est une (Ft )t≥0 −martingale si
(i) E(|Mt |) < +∞, ∀ t ≥ 0
(ii) Mt est Ft −mesurable, ∀ t ≥ 0 (ou (Mt )t≥0 est {Ft }t≥0 −adaptée).
(iii) E (Mt |Fs ) = Ms , ∀ t ≥ s ≥ 0.
Si l’égalité (iii) est remplacée par E (Mt |Fs ) ≥ Ms (ou E (Mt |Fs ) ≤ Ms ), on parle de sous-martingale (ou
de sur-martingale).
E (Mt ) = E (M0 ) , ∀ t ≥ 0.
Proposition 4.2. Soit M une (Ft )t≥0 −martingale et ϕ : R −→ R une fonction convexe mesurable, alors si
ϕ(M ) est intégrable, c’est une sous-martingale.
Proposition 4.3. Soit M une (Ft )t≥0 −martingale decarré intégrable, alors, pour tout t ≥ s ≥ 0, on a :
E (Mt − Ms )2 |Fs = E Mt2 − Ms2 |Fs .
Théorème 4.5 (Théorème de décomposition de Doob). Soit (Mt )t∈R+ une sous-martingale continue (par
rapport à une filtration (Ft )t∈R+ . Alors il existe un unique (à une égalité p.s. près) processus (At )t∈R+
croissant, continu et adapté à (Ft )t∈R+ tel que A0 = 0 et (Mt − At )t∈R+ est une martingale.
Corollaire 4.2. Si (Mt )t≥0 est une {Ft }t≥0 −martingale de carré intégrable, alors hM i est l’unique processus
croissant, et {Ft }t≥0 −adapté tel que hM i0 = 0 et (Mt − hM it )t≥0 est une {Ft }t≥0 −martingale.
Exercice Soit (Mt )t∈R+ un (Ft )t≥0 −P.A.I. avec M0 = 0 tel que ∀ t ≥ 0, E(Mt ) = 0 et E(|Mt |) < +∞.
Montrer que (Mt )t∈R+ un (Ft )t≥0 −martingale.
(i) Soit (Mt )t≥0 une {Ft }t≥0 −sous-martingale continue à droite, alors pour tout t > 0 et pour tout c > 0,
E(|Mt |)
P( max Ms ≥ c) ≤ .
s∈[0,t] c
(ii) Soit (Mt )t≥0 une {Ft }t≥0 −martingale telle que pour tout t ≥ 0, E(|Mt |p ) < +∞ avec p > 1 fixé, alors
pour tout t > 0 et pour tout c > 0,
E(|Mt |p )
P( max |Ms | ≥ c) ≤ .
s∈[0,t] cp
Proposition 4.4. Soit (Xn , Fn )n≥0 une martingale à temps discret. On suppose que F0 est complète. Pour
tout t ≥ 0, on pose : Mt = X[t] et Gt = F[t] , où [t] désigne la partie entière de t. Alors (Gt )t≥0 est une
filtration continue à droite, (Mt )t≥0 est un processus càd-làg et c’est une (Gt )t≥0 −martingale.
Définition 4.3. Un temps d’arrêt par rapport à la filtration (Ft )t≥0 est une v.a. τ à valeurs réelles vérifiant
{τ ≤ t} ∈ Ft , pour tout t ≥ 0.
Proposition 4.5. τ est un temps d’arrêt par rapport à la filtration (Ft )t≥0 si et seulement si {τ < t} ∈ Ft ,
pour tout t ≥ 0.
Les propriétés des temps d’arrêt en temps continu sont les même qu’en temps discret :
- La variable aléatoire constante τ = t (t ∈ R+ ) est un temps d’arrêt.
- Si τ est un temps d’arrêt et t ∈ R+ alors τ + t est aussi un temps d’arrêt.
- Si σ et τ sont deux temps d’arrêt, alors σ + τ , σ ∧ τ et σ ∨ τ sont aussi des temps d’arrêt.
En particulier, τ ∧ t est un temps d’arrêt borné.
Rémarque. Soit σ et τ deux temps d’arrêt tels que σ < τ . Alors δ = τ − σ n’est pas un temps d’arrêt.
Si τ est un temps d’arrêt, on définit églement, la tribu Fτ des événements antérieurs τ par :
A ∈ Fτ ⇐⇒ A ∩ {τ ≤ t} ∈ Ft , ∀ t ≥ 0.
Théorème 4.7 (Théorème d’arrêt). Soit (Mt )t≥0 une {Ft }t≥0 −martingale continue à droite.
(i) Pour tout temps d’arrêt borné σ, la variable aléatoire Mσ est intégrable et Fσ −mesurable.
(ii) Si σ et τ sont deux temps d’arrêt bornés et si τ ≥ σ, alors
E (Mτ |Fσ ) = Mσ .
Corollaire 4.3. Soit (Mt )t≥0 un processus réel {Ft }t≥0 −adapté et continue à droite. Alors (Mt )t≥0 est
une {Ft }t≥0 −martingale si et seulement si pour tout {Ft }t≥0 −temps d’arrêt τ borné, Mτ est intégrable et
E (Mτ ) = E (M0 ) .
Mouvement Brownien
1. Définitions
Définition 5.1. Un Mouvement Brownien réel est un processus stochastique (Bt )t≥0 tel que :
i.) B0 = 0 P−p.s ;
ii.) B est à accroissements indépendants : Bt − Bs est indépendant de FsB = σ(Br , r ≤ s) pour tout s ≤ t ;
iii.) B est à accroissements stationnaires, gaussiens et pour tout s ≤ t, Bt − Bs N (0, t − s).
Définition 5.2. Un processus stochastique (Xt )t≥0 est à accroissements stationnairs si pour tous s, t ∈ R+
L
tels que 0 ≤ s < t, la variable aléatoire Xt −Xs a la même loi que Xt−s −X0 , (on note Xt −Xs = Xt−s −X0 ).
Définition 5.3. On appelle Mouvement Brownien réel standard un mouvement Brownien réel (Bt )t≥0 dont
les trajectoires sont P−p.s. continues, i.e. t 7→ Bt (ω) est continue pour presque tout ω.
Il faut noter que le mouvement brownien existe : La plus grosse difficulté réside dans l’obtention de la
continuité. Le mouvement brownien peut être vu comme limite de marches aléatoires sur des pas de temps
de plus en plus court :
Définition 5.4. Soient (Xt )t≥0 et (Xt0 )t≥0 deux processus stochastiques basés sur un même espace de pro-
babilité à valeurs dans un même espace d’états. On dit que (Xt0 )t≥0 est une modification de (Xt )t≥0 si pour
tout t ≥ 0, Xt = Xt0 P−p.s.
Théorème 5.1. Si (Xt )t≥0 est un mouvement Brownien réel, alors il existe une modification (Xt0 )t≥0 qui
est un mouvement Brownien réel standard.
La démonstration de ce théorème basée sur le théorème suivant dû à A. N. Kolmogorov qui est très
pratique pour montrer qu’un processus stochastique donné est à trajectoires continues à modification près.
26
CHAPITRE 5. MOUVEMENT BROWNIEN
Théorème 5.2. Soit (Xt )t≥0 un processus stochstique réel tel qu’il existe α > 0, β > 0 et C > 0 pour lesquels
on ait pour tout s, t ∈ R+ ,
E(|Xt − Xs |α ) ≤ C|t − s|1+β .
Alors il existe une modification (Xt0 )t≥0 de (Xt )t≥0 dont toutes les trajectoires sont continues.
2. Propriétés
Proposition 5.1 (Caractérisation du MB). Un processus (Bt )t≥0 est un mouvement brownien réel standard
ssi c’est un processus gaussien continu centré de fonction de covariance c(s, t) = cov(Bs , Bt ) = min(s, t).
Proposition 5.2. Si (Bt )t≥0 est un mouvement brownien, (−Bt )t≥0 est aussi un mouvement brownien.
Proposition 5.3 (Scaling). Soit (Bt )t≥0 est un mouvement brownien et c > 0 un réel. On pose Xt = cB t .
c2
Alors (Xt )t≥0 est un mouvement brownien.
Proposition
( 5.4 (Inversion temporelle). Soit (Bt )t≥0 est un mouvement brownien. On pose
tB 1t , si t > 0
Zt = Alors (Zt )t≥0 est un mouvement brownien.
0, si t = 0.
Proposition 5.5 (Propriétés des trajctoires). - Les trajectoires du mouvement brownien sont nulle part
dérivables : il existe un ensemble négligeable N tel que, pour tout ω 6∈ N , la foncton t 7→ Bt (ω) est nulle
part dérivable.
- Si (Bt )t≥0 est un mouvement brownien réel standard, alors, pour P−presque tout ω la trajectoire t 7→ Bt (ω)
est à variation infinie sur tout intervalle [a, b] avec a, b ∈ R+ et a < b.
Proposition 5.6 (Propriétés de martingale). - Si (Bt )t≥0 est un mouvement brownien et (F̄t ) sa filtration
naturelle complétée. Alors (Bt )t≥0 , (Bt2 − t)t≥0 sont des (F̄t )−martingales.
σ2
- Pour tout σ 6= 0, (eσBt − 2 t
)t≥0 (Brownien géometrique) est aussi une (F̄t )−martingale sont des
(F̄t )−martingales.
hBit = t, ∀ t ≥ 0
Notation :
Il nous arrivera de noter Ex (f (Bs )) l’espérance de f (Bs ) quand B est un Brownien issu de x, sans toujours
faire cette précision. Cette quantité est égale à E(f (x + Bs )) où B est un Brownien issu de 0 (avec E0 = E).
De la même façon, nous utiliserons la notation Px (Bs ∈ A) pour P(x + Bs ∈ A) (avec P0 = P) et Px (Bs ∈ dy)
pour la densité de la v.a. Bs où B est un Brownien partant de x.
On note souvent ps (x, .) la densité de la variable aléatoire qui modélise le phénomène x + Bs à la date t
qui part de x à la date 0 ; (on a donc Px (Bs ∈ dy) = ps (x, y)dy). Par stationarité du phénomène, ps (x, y) ne
dépend de x, y que par y − x.
2. Markov forte. Soit τ un temps d’arrêt presque sûrement fini. Alors le processus (Bτ +u − Bτ )u≥0 est
un mouvement brownien indépendant de la tribu Fτ . Plus concrètement, pour toute fonction f : R 7→ R
borélienne bornée,
Ex (f (Bτ +u |Fτ ) = EBτ (f (Bu )
Dans toute la suite, on fixe un réel T strictement positif. Les processus sont définis pour t ∈ [0, T ], on
notera X pour (Xt )t∈[0,T ] . Pour tout p ∈ R+
∗ , on designera par :
- L (Ω) l’ensemble des v.a ξ telles que E |ξ|p < +∞,
p
- Lp (Ω, [0, T ]) l’ensemble des processus X : Ω × [0, T ] −→ R mesurables et {Ft }−adaptés tels que
R p1
T
||X||p = E 0 |Xs |p ds < +∞.
Lorsque l’on intègre une fonction déterministe f par rapport à une fonction déterministe h (continûment)
dérivable, si f est continue, on définit son intégrale comme :
Z t Z t
f (s)dh(s) = f (s)h0 (s)ds, ∀ t ∈ [0, T ].
0 0
Si jamais h n’est pas dérivable mais simplement à variation bornée, on s’en sort encore en définissant
l’intégrale par :
Z t n
X
f (s)dh(s) = lim f (si )(h(ti+1 ) − h(ti )), ∀ t ∈ [0, T ],
0 |πn |→0
0
où πn = {0 = t0 < t1 < ... < tn = t}, si ∈ [ti , ti+1 ] et |πn | = sup |ti+1 − ti |.
0≤i≤n
L’intégrale ainsi définie s’appelle intégrale de Riemann-Stieljes. Elle vérifie la propriété suivante :
Si f et h sont continus et à variation bornées, alors :
Z t Z t
f (s)dh(s) = f (t)h(t) − f (0)h(0) − h(s)df (s).
0 0
En particulier, (si f = h)
t
f (t)2 f (0)2
Z
f (s)df (s) = − .
0 2 2
Si maintenant, f est un processus à trajectoires continues, et h un processus (à trajectoires) à variations
bornées, on définit (au sens de Riemann-Stieljes)
Z t Z t
f (s)dh(s) (ω) = f (s)(ω)dh(s)(ω).
0 0
Cette intégrale est définie trajectoire par trajectoire (i.e. "ω par ω").
Dans notre cas, le problème essentiel est que le mouvement brownien n’est pas un processus (à trajectoires)
Z t
à variation bornée. La quantité Hs dBs ne peut donc pas se définir au sens classique de l’intégrale de
0
29
CHAPITRE 6. INTÉGRALE STOCHASTIQUE D’ITÔ
Riemann-Stieljes. Par contre, comme il est à variation quadratique finie, il est naturel de définir l’intégrale
par rapport au mouvement brownien comme limite dans L2 (convergence au sens de ||.||2 ).
Exemple 6.1. Pour ξi = Bti , le processus φ est élémentaire. Par contre, si ξi = Bti+1 , le processus φ n’est
pas élémentaire.
Définition 6.2. Pour des processus élémentaires φ, on définit l’intégrale stochastique d’Itô par rapport à B
entre 0 et t ≤ T comme étant la variable aléatoire définie par :
Z t n−1
∆
X
φs dBs = ξi (Bti+1 ∧t − Bti ∧t )
0 i=0
Z t Z t
2
(P6) Variation quadratique : hI(φ)it = h φs dBs i = φs ds
0 0
Z t Z s Z t∧s
(P7) Covariation quadratique : hIt (φ), Is (θ)i = h φr dBr , φr dBr i = φr θr ds
0 0 0
Lemme 6.1. Soit H ∈ L2 (Ω, [0, T ]). Alors, il existe une suite (φn )n≥0 de processus Ft −élémentaire telle
que !
Z T
lim E |φns − Hs | ds 2
= 0.
n→∞ 0
A l’aide du lemme 6.1, on généralise la définition de l’intégrale stochastique a tous processus H ∈ L2 (Ω, [0, T ])
de la manière suivante :
Définition 6.3. Soit H ∈ L2 (Ω, [0, T ]). L’intégrale stochastique de H par rapport à B sur l’intervalle [0, T ]
est l’unique Ft −martingale de carré intégrable I(H) = {It (H), 0 ≤ t ≤ T } vérifiant
lim E |It (φn ) − It (H)|2 = 0, 0 ≤ t ≤ T,
n→∞
Z t
On note It (H) = Hs dBs .
0
Remarque 6.2. D’après le lemme 6.1, une telle suite (φn )n≥0 existe. De plus, par la formule d’isométrie,
la limite de It (φn ) existe dans L2 et ne dépend pas du choix actuel de la suite (φn )n≥0 .
Si de plus H est continu, l’intégrale stochastique de H par rapport à B est définie par
Z t n−1
X
Hs dBs = lim Hti (Bti+1 − Bti ), (limite dans L2 )
0 |π|→0
i=0
Rt
Exemple 6.3. It (B) = 0
Bs dBs = 12 Bt2 − 21 t.
B étant continu, on a
Z t n−1
X
Bs dBs = lim Bti (Bti+1 − Bti ), (limite dans L2 )
0 |π|→0
i=0
Exercice 6.1. Soit B un mouvement brownien standard. Calculer les quantités suivantes :
Z 1
1. 1{Bs =0} dBs .
0
Z 1
2. Bs dBs
0
Z u Z t
3. Cov( f (s)dBs ; f (s)dBs ), où f est une fonction déterministe de carré intégrable.
0 0
1.3. Généralisation
On peut généraliser la définition d’intégrale stochastique au cas où au lieu de prendre H ∈ L2 (Ω, [0, T ]),
on considère des processus H qui sont toujours mesurables et {Ft }−adaptés mais qui satisfont simplement
la condition : Z T
|Hs |2 ds < +∞ p.s.
0
Lors de la généralisation, on perd le caractère martingale de l’intégrale stochastique , elle devient ce que l’on
appelle une martingale locale. Il lui manques juste de bonnes conditions d’intégrabilité pour être une vraie
martingale.
2. Processus d’Ito
Nous introdusons ici une nouvelle classe de processus par rapport auxquels on peut encore définir une
intégrale stochastique.
avec X0 F0 −mesurable, K et H deux processus mesurables et {Ft }−adaptés vérifiant les conditions d’inté-
grabilité :
Z T Z T
|Ks |ds < +∞ p.s et |Hs |2 ds < +∞ p.s.
0 0
De manière infinitésimale :
dXt = Kt dt + Ht dBt .
Proposition 6.2. Z t
- Si M est une martingale locale qui s’écrit sous la forme Mt = Ks ds avec K un processus à variations
0
bornées, alors p.s : Mt = 0 pour tout t ∈ [0, T ].
- La décomposition en processus d’Itô est unique (à une modification p.s près).
- Un processus d’Itô est une martingale locale ssi "sa partie en ds" K est nulle.
Si on souhaite avoir le caractère martingale de l’intégrale stochastique dans le processus d’Itô, on doit
imposer les conditions d’intégrabilité (CI) suivantes :
! !
Z T Z T
2
(CI) E |Ks |ds < +∞ et E |Hs | ds < +∞.
0 0
Dans ce cas, la notion de martingale locale dans la proposition 6.3 est une vraie martingale.
Z t Z t
Yt = Y0 + K̃s ds + H̃s dBs .
0 0
Alors
Z t
hXit = |Hs |2 ds,
0
Z t
hX, Y it = Hs H̃s ds,
0
La notion d’intégrale stochastique par rapport à un processus d’Itô se définit de la manière naturelle
suivante :
on définit :
Z t Z t Z t
Fs dXs = Fs Ks ds + Fs Hs dBs .
0 0 0
3. Formule d’Ito
Voici l’outil qui permet de calculer les intégrales stochstiques sans repasser par des suites approximantes.
C’est la clée du calcul stochastique.
∂ ∂ 1 ∂2
df (t, Bt ) = f (t, Bt )dt + f (t, Bt )dBt + f (t, Bt )dt.
∂t ∂x 2 ∂x2
La formule d’Itô se généralise aux processus d’Itô.
Alors
Z t Z t Z t
1
f (Xt ) = f (X0 ) + f 0 (Xs )Ks ds + f 0 (Xs )Hs dBs + f 00 (Xs )Hs2 ds, ∀ t ∈ [0, T ].
0 0 2 0
∂ ∂ 1 ∂2
df (t, Xt ) = f (t, Xt )dt + f (t, Xt )dXt + f (t, Xt )dhXit .
∂t ∂x 2 ∂x2
Théorème 6.5. Soit f ∈ C 1,2 ([0, T ] × Rd )
t d Z t d X d
1 t ∂2
Z Z
∂ X ∂ X
f (t, Xt ) = f (0, X0 ) + f (s, Xs )ds + f (s, Xs )dXi (s) + f (s, Xs )dhXi , Xj is , ∀ t ∈ [0, T ].
0 ∂t i=1 0
∂xi i=1 j=1
2 0 ∂x2
Une des conséquences de la formule d’Itô est la formule d’intégrations par partie :
Proposition 6.4 (formule d’intégrations par partie). Soient X et Y deux processus d’Itô, on a :
Z t Z t Z t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + dhX, Y is .
0 0 0
Exercice 6.2. Soit B un mouvement brownien standard. Ecrire les processus suivants comme des processus
d’Itô et calculer les intégrales :
Z t
1. Xt = (t + 1)eBt , e−Bs dXs .
0
Z t
2. Xt = Bt3 − 3tBt , (Bs − s)dXs .
0
Z t
3. Xt = 1 + 2t + eBt , Bs dXs .
0
Z t
t
4. Xt = (Bt + t)e−Bt − 2 , Bs e−Bs dXs .
0
Z t
t
5. Xt = e 2 sin(Bt ), cos(Bs )dXs .
0
Exercice 6.3. Soit Yt = tX1 (t)X2 (t) avec dX1 (t) = f (t)dt + σ1 (t)dBt et dX2 (t) = σ2 (t)dBt
Calculer dYt .
Remarque : On peut également définir l’intégrale stochastique relativementZ t aux matingales. Soit M une
{Ft }−martingale de carré intégrable. On définit l’intégrale stochastique Hs dMs , en utilisant la demarche
0
décrite en 1.. Cette intégrale coïncide avec l’intégrale construite en 1.2. relativement aux mouvement brow-
niens. On peut la généraliser aux martingales locales continues.
Ainsi, la formule d’Itô s’étend aux semi-martingales continues, i.e. aux processus de la forme :
Xt = X0 + Vt + Mt , t≥0
où
M est une {Ft }−maringale locale continue, nulle en 0.
V est un processus à variation finie sur tout compact de R+ , continu, adapté, nul en 0.
Remarque : Soit M martingale locale continue. Une condition suffisante (et nécessaire !) pour que M soit
une martingale de carré intégrable est que EhM it < +∞ pour tout t ≥ 0.
4. Théorème de Girsanov
Soit (Ω, F, {Ft }, P) un espace de probabilité filtré. Le but est d’étudier comment se transforme la notion
de martingale (locale) lorsque la probabilité P est remplacée par une autre probabilité équivalente Q.
Proposition 6.5. Soit (Ω, F, Q) un espace de probabilité. Si Q est équivalente à P sur FT (avec T ≤ +∞),
dQ
il existe une {Ft }−martingale (Zt )t∈[0,T ] strictement positive sous P telle que dP |Ft = Zt .
De plus, Z0 = 1 et EP (Zt ) = 1, ∀ t ∈ [0, T ].
Proposition 6.6. M est une {Ft }−martingale sous Q si et seulement si ZM est une {Ft }−martingale
sous P.
Théorème 6.6 (Girsanov). Soit B est {Ft }−mouvement brownien sur (Ω, F, {Ft }, P). Soit h est processus
Z T
{Ft }−adapté tel que |hs |2 ds < +∞. On pose
0
Z t Z t
1
Zt = exp hs dBs − |hs |2 ds , t ∈ [0, T ],
0 2 0
(autrement dit dZt = Zt ht dBt et (Zt )t∈[0,T ] est une martingale locale continue strictement positive sous P).
On suppose que EP (ZT ) = 1.
Alors (Zt )t∈[0,T ] est une {Ft }−martingale continue strictement positive sous P.
Soit Q une nouvelle probabilité sur (Ω, FT ) définit par :
dQ
= ZT .
dP|FT
Z t
Alors le processus B̃t = Bt − hs ds, t ∈ [0, T ] est une {Ft }−mouvement brownien sous Q.
0
Remarque : Une ! condition suffisante pour que EP (ZT ) = 1 est la condition de novikov :
1 T
Z
EP exp |hs |2 ds < +∞.
2 0
De façon générale, on a
Proposition 6.7. Soit L une {Ft }−martingale locale continue sur (Ω, F, {Ft }, P) telle que L0 = 0. On pose
1
Zt = exp Lt − hLit , t ∈ [0, T ].
2
(Notamment dZt = Zt dLt et (Zt )t∈[0,T ] est une martingale locale continue strictement positive sous P). Soit
Qt une probabilité sur (Ω, Ft ) définit par :
dQt
= Zt .
dP|Ft
Si (Zt )t∈[0,T ] est en fait une vraie martingale continue sous P, la famille (Qt )t∈[0,T ] est induite par une
probabilité Q définie sur (Ω, FT ) : Qt = Q|Ft .
De plus,
(i) chaque semi-martingale sous P est une semi-martingale sous Q.
(ii) si M est une {Ft }−martingale locale continue sous P, alors le processus
1
M̃t = Mt − hM, Lit = Mt − hM, Zit , t ∈ [0, T ]
Zt
est une {Ft }−martingale locale sous Q.
Remarque
condition suffisante pour que (Zt )t∈[0,T ] soit une vraie martingale sous P est que :
: Une
1
EP exp hLiT < +∞.
2
Corollaire 6.1. Si B est un {Ft }−mouvement brownien standard sous P, alors le processus
1
B̃t = Bt − hB, Lit = Bt − hB, Zit , t ∈ [0, T ]
Zt
est une {Ft }−mouvement brownien sous Q.
Dans ce cours, nous nous placerons dans le cadre le plus élémentaire d’un marché constitué d’un actif
sans risque S 0 (un placement) et d’un actif risqué S (une action : part du capital d’une entreprise).
1. Généralités
On se place sur une pérode de temps [0, T ] (T est appélée l’échéance) et sur un espace Ω qui représente
l’ensemble des états du monde (i.e. toutes les configurations macro-économiques possibles durant cet inter-
valle. L’espace Ω est équipé d’une tribu F qui est la structure d’information totale et d’une probabilité P
appélée probabilité historique. On note Ft la tribu représentant l’information disponible à la date t.
On fait les hypothèses idéalistes sur les marchés financiers : il n’y a pas de frictions de marchés, i.e. pas
de coûts de transaction pour la vente et l’achat de titres, pas de restrictions sur les ventes à découvert, les
actifs sont indéfiniment fractionnables et à tout instant il existe des acheteurs et des vendeurs pour tous les
titres du marché (on dit que le marché est liquide).
Vtk+1 (φ) − Vtk (φ) = φ0tk (St0k+1 − St0k ) + ϕtk (Stk+1 − Stk ).
Ce qui signifie qu’à chaque date, on ré-alloue les richesses entre les différents actifs sans ajout ni retrait
d’argent. Autrement dit les variations de la valeur d’un portefeuille autofinançant sont exclusivement dues
aux variations du prix des actifs. Ce qui ce traduit en temps continu par :
37
CHAPITRE 7. APLICATIONS AUX MARCHÉS FINANCIERS
On supposera qu’il y a sur le marché l’hypothèse d’Absence d’Opportunités d’Arbitrage (AOA) entre
tout instant 0 et T :
∀ φ ; V0 (φ) = 0 et VT (φ) ≥ 0 =⇒ P(VT (φ) > 0) = 0
ou
∀ φ ; V0 (φ) = 0 et VT (φ) ≥ 0 =⇒ VT (φ) = 0 P − p.s.
Autrement dit : "Si ma richesse aujourd’hui est nulle, elle ne peut devenir positive et non identiquement
nulle", soit " On ne peut gagner d’argent sans capital initial".
Ct − Pt = St − KB(t, T ).
On en déduire qu’une stratégie de portefeuille autofinançant est complètement déterminée par la valeur
initiale de sa richesse et le nombre de parts investi dans l’actif risqué S. La quantité d’actifs sans risque se
déduisant de la relation d’autofinancement : Ṽt (φ) = φ0t + ϕt S̃t .
Désormais, on dira portefeuille autofinançant (v, ϕ) (v0 étant le capital initial et ϕ la quantité d’actifs
risqué) et on notera Vtv0 ,ϕ sa valeur à la date t.
Remarque : Le terme "risque-neutre" provient de la théorie économique : si les intervenants n’ont pas
d’aversion au risque, ils vont s’accorder pour évaluer la valeur d’un portefeuille comme l’espérance actualisée
des flux qu’il génère. L’introduction de cette probabilité permet de faire comme si les agents étaient neutres
au risque (i.e., indiférents entre les deux possibilités de placements sans risque ou risqué).
2. Valorisation et couverture
Considérerons un produit dérivé représenté par son flux terminal, HT , une variable aléatoire
FT −mesurable. Comme l’aléa provient seulement de S, on a
Ft = σ(Sr , r ≤ t).
Dans la suite, nous considérerons uniquement les produits dérivés représentés par les options européennes.
Dans ce cas, comme HT est variable aléatoire FT −mesurable, on a dans le cas continu, HT = h(ST ) où h
est une fonction mesurable.
Dans le cas dicret, où 0 = t0 < t1 < ... < tn = T , HT = h(St1 , ..., Stn ).
A la date t = 0 (aujourd’hui) l’actif risqué (action) S vaut S0 , à la date t = 1 (demain, dans un mois, un
an) elle vaudra S1 = S1u = uS0 ou S1 = S1d = dS0 (avec d < u) selon que le prix monte ou descend, ce qui
n’est pas connu à la date 0.
L’actif sans risque (placement) S 0 a un taux d’interet r > 0 : S00 = 1 en t = 0 et S10 1 + r en t = 1. i.e.
1 franc placé aujourd’hui donnera 1 + r franc à la date t = 1 peu importe l’état du monde. C’est pour cela
qu’on l’appelle placement sans risque.
Notons ωu l’état "haut" et ωd l’état "bas". Alors,
- Ω = {ωu , ωd },
- P : P(ωu ) = p et P(ωd ) = 1 − p.
- F = {F0 , F1 }
En t = 0, on ne dispose d’aucune information : F0 = {∅, Ω}
En t = 1, on sait si l’action est montée ou descendue : F1 = {∅, Ω, {ωu }, {ωd }}.
Evaluation et couverture
Considérons maintenant un produit dérivé sur le sous-jacent S. C’est une v.a. F1 −mesurable. Il est donc
de la forme h(S1 ).
Notre problème est d’évaluer le prix à la date t = 0, d’un produit dérivé. Pour cela, on va dupliquer le
produit dérivé par une stratégie de portefeuille simple, i.e., créer un portefeuille autofinaçant (v0 , ∆) qui se
comporte comme notre produit dérivé.
Si d < 1 + r < u, il existe ! une probabilité risque-neutre Q.
De façon générale, on a l’équivalance suivante : AOA’ ⇐⇒ d < 1 + r < u ⇐⇒ il existe ! une probabilité
risque-neutre Q.
- Calcul de la probabilité risque-neutre Q.
Posons Q(S1 = S1u ) = q et Q(S1 = S1u ) = 1 − q.
Comme S̃ est une martingale sous Q, on tire q par : S̃0 = EQ (S̃1 ).
- Calcul du prix de l’option
D’après la règle d’évaluation risque-neutre,
1 1 h i
Π0 = v 0 = EQ (h(S1 ) = qh(S1u ) + (1 − q)h(S1d ) .
1+r 1+r
- Stratégie de couverture
h(S1u ) − h(S1d )
∆= .
S1u − S1d
C’est une généralisation de la modélisation précédente dans un monde à n périodes. On subdivise l’in-
tervale [0, T ] en n périodes 0 = t0 < t1 < ... < tn = T . Donc (n + 1) dates :
- L’actif S 0 :
1 −→ (1 + r) −→ (1 + r)2 −→ ... −→ (1 + r)n .
- L’actif risqué S évolue suivant un arbre. On la probabilité de monter et de dscendre est la même dans
tout noeud de l’arbre. Pour alléger les calculs, nous allons supposer que l’arbre est recombinant, i.e. à l’instant
tk , l’actif peut prendre k + 1 valeurs différentes.
- Ω = {(ω1 , ..., ωn ) : ∀i ≤ n ωi = ωid ou ωi = ωiu },
- P : P(ωi = ωiu ) = p et P(ωi = ωid ) = 1 − p.
- Ftk == σ(St1 , ..., Stk ).
Si d < 1 + r < u, il existe ! une probabilité risque-neutre Q.
Evaluation et couverture
Considérons le produit dérivé HT = h(St1 , ..., Stn ) et déterminons son prix à toute date tk . Pour cela, on
va dupliquer le produit dérivé par une stratégie de portefeuille simple, i.e., créer un portefeuille autofinaçant
(v0 , ∆) qui se comporte comme notre produit dérivé, avec ∆ = (∆0 , ..., ∆n−1 ) où ∀ 0 ≤ k ≤ n − 1, ∆k est la
quantité d’actif risqué à l’instant tk .
- Calcul de la probabilité risque-neutre Q.
Posons Q(Stk = uStk−1 ) = q et Q(Stk = dStk−1 ) = 1 − q.
Comme S̃ est une martingale sous Q, on tire q par : S̃0 = EQ (S̃t1 ).
- Calcul du prix de l’option
D’après la règle d’évaluation risque-neutre,
1
Πtk = EQ (h(S1 , ..., Stn |Ftk ).
(1 + r)n−k
En particulier,
1
Π0 = v 0 = EQ (h(S1 , ..., Stn ).
(1 + r)n
- Stratégie de couverture
1
Comme (1+r)n−k
EQ (h(S1 , ..., Stn )|Ftk ) est une variable aléatoire Ftk −mesurable, elle se reécrit sous la
forme
1
EQ (h(S1 , ..., Stn )|Ftk ) = Vk (S1 , ..., Stk )
(1 + r)n−k
avec Vk une fonction déterministe. Donc
Vk+1 (S1 , ..., Stk , uStk ) − Vk+1 (S1 , ..., Stk , dStk )
∆k = .
uStk − dStk
3. Modèle de Black-Scholes
Nous traiterons seulement le cas unidimensionnel.
On considère un marché financier constitué d’un actif sans risque et d’un actif risqué.
- L’évolution de l’actif sans risque St0 est régie par l’équation différentielle ordinaire (EDO) :
celle de St est :
σ2
St = S0 eσWt +(µ− 2 )t
.
dS̃t0 = 0.
dP∗ λ2 µ−r
|FT = ZT = e−λWT − 2 T , avec λ =
dP σ
sous laquelle W
c est un mouvement brownien.
Dans le modèle BS, λ est la prime de risque.
La probabilité Q ainsi définie est une probabilité risque-neutre. En effet, sous Q, la dynamique de l’actif
risqué actualisé S̃t est
dS̃t = σ S̃t dW
ct .
Ce qui signifie que le prix actualisé S̃t est une intégrale stochastique par rapport au Q−mouvement brownien
W
c et est donc une Q−martingale.
Evaluation et couverture
D’après la règle d’évaluation risque-neutre, le prix d’un produit dérivé HT = h(ST ) est égale à la date t :
h i
Πt = e−r(T −t) EQ h(ST )|Ft ,
On en déduire que :
σ2
St = S0 eσWt +(r− )t
c
2
et
σ2
ST = St eσ(WT −Wt )+(r− )(T −t)
.
c c
2
cT − W
Puisque W ct est indépendant de St et Ft , on a
h i h i
EQ h(ST )|Ft = EQ h(ST )|St .
Si v est régulière alors le flux h(ST ) est réplicable par un portefeuille de valeur v(t, St ) et de couverture
∂v
ϕt = ∂x (t, St ) à loa date t. De plus v est solution de l’EDP :
1 2
x vxx (t, x) + rxvx (t, x) + vx (t, x) − rv(t, x) = 0, avec v(T, x) = h(x).
2σ 2
Formule de BS :
La formule concerne plus spécifiquement les call et put pour les quels on a des formules explicite qui donne
leur prix en t.
Le prix d’un call de maturité T et de strikeb K à la date t est donné par :
Le delta du call est ∆ = N (d1 ) et représente le nombre de parts à investir dans l’actif risqué à la date t.
En utilisant la relation de parité call-put :
Ct − Pt = St − Ke−r(T −t) ,