Martingales
Les martingales sont les objets de base en théorie du calcul stochastique. Ce chapitre, divisé
grosso modo en deux parties, est une introduction succincte à la théorie des martingales.
Dans la première partie du chapitre (sections 1–5), on résume les propriétés élémentaires
des martingales à temps discret, ou plutôt celles qui nous seront utiles par la suite. La
seconde partie est consacrée aux rudiments de la théorie des martingales à temps continu.
On étudie, en particulier, les différents modes de convergence pour les martingales à temps
continu, ainsi que le théorème d’arrêt.
1
2 Chapitre 1. Martingales
• X et Y des variables aléatoires à valeurs dans les espaces mesurables (E1 , E1 ) et (E2 , E2 )
respectivement, ϕ : E1 × E2 → R mesurable telle que E(|ϕ(X, Y )|) < ∞, Y G -mesurable,
X indépendante de G ⇒ E(ϕ(X, Y ) | G ) = h(Y ) p.s., où h(y) := E(ϕ(X, y)).
• Jensen, Fatou, convergence dominée, convergence monotone.
• E(ξ1 | G ) ≥ E(ξ2 | G ) p.s. ⇔ E(ξ1 1A ) ≥ E(ξ2 1A ) ∀A ∈ G . [Preuve : voir TD.]
Enfin, comme pour espérance mathématique, si ξ ≥ 0 est une variable aléatoire positive,
pas nécessairement intégrable, on peut définir E(ξ | G ) := limn→∞ ↑ E(ξ ∧ n | G ) ∈ [0, ∞],
où ξ ∧ n := min{ξ, n}.
Notation : Lorsque G = σ(Z) où Z est une variable aléatoire à valeurs dans un espace
mesurable quelconque, on écrit souvent E(ξ | Z) à la place de E(ξ | σ(Z)). Plus généralement,
si G = σ(Zi , i ∈ I) est la tribu engendrée par une famille quelconque de variables aléatoires,
on écrit E(ξ | Zi , i ∈ I) à la place de E(ξ | σ(Zi , i ∈ I)).
1. Filtrations et martingales
Soit (Ω, F , P) un espace de probabilité. Une filtration à temps discret (Fn )n≥0 sur cet
espace est une famille croissante de sous-tribus de F :
F0 ⊂ F1 ⊂ F2 ⊂ · · · ⊂ F .
Soit (Fn )n≥0 une filtration, et soit (Xn , n ≥ 0) un processus aléatoire. On dit que
(Xn , n ≥ 0) est adapté par rapport à (Fn ) si pour tout n, Xn est Fn -mesurable. [Lorsqu’il
y a pas de risque d’ambiguı̈té sur le choix de la filtration, on dit simplement que (Xn , n ≥ 0)
est adapté.] Dans l’exemple 1.1, le processus est adapté.
§1 Filtrations et martingales 3
Définition 1.2. On dit que (Mn ) est une martingale (resp. surmartingale ; sous-martingale)
à temps discret par rapport à la filtration (Fn ) si
(i) (Mn ) est adapté ;
(ii) ∀ n, E(|Mn |) < ∞ ;
(iii) ∀ n, E(Mn+1 | Fn ) = Mn , p.s. (resp., E(Mn+1 | Fn ) ≤ Mn ; E(Mn+1 | Fn ) ≥ Mn ).
Exemple 1.3. Soit (ξi )i≥0 une suite de variables aléatoires intégrables et indépendantes.
!
Soient Mn := ni=0 ξi et Fn := σ{ξi , 0 ≤ i ≤ n}.
Il est clair que (Mn ) est adapté, et est intégrable. De plus, E(Mn+1 | Fn ) = Mn + E(ξn+1 )
p.s. Donc (Mn ) est une martingale si E(ξn ) = 0, ∀n ≥ 1 ; une sous-martingale si E(ξn ) ≥ 0,
∀n ≥ 1 ; et une surmartingale si E(ξn ) ≤ 0, ∀n ≥ 1. !
Exemple 1.4. (Martingale fermée). Soit ξ une variable aléatoire réelle intégrable. Soit
Mn := E(ξ | Fn ). Alors (Mn ) est une martingale (appellée martingale fermée).
En effet, (Mn ) est adapté d’après la définition de l’espérance conditionnelle, ce qui donne
(i).
Pour tout n, |Mn | ≤ E( |ξ| | Fn) par l’inégalité de Jensen (version conditionnelle). Comme
E(|ξ| | Fn) est intégrable (par la définition de l’espérance conditionnelle), on en déduit que
Mn est également intégrable, ce qui donne (ii).
Enfin, on a E[Mn+1 | Fn ] = E[E(ξ | Fn+1) | Fn ], qui n’est autre que E[ξ | Fn ] (car Fn ⊂
Fn+1 ), c’est-à-dire Mn : d’où (iii). !
Remarque 1.6. Il est clair que (Mn ) est une sous-martingale si et seulement si (−Mn ) est
une surmartingale, et que (Mn ) est une martingale si et seulement si elle est à la fois une
sous-martingale et une surmartingale. !
Proposition 1.8. (i) Si (Mn ) et (Nn ) sont des martingales (resp. sous-martingales ; sur-
martingales), alors (Mn + Nn ) en est également une.
(ii) Si (Mn ) et (Nn ) sont des sous-martingales, alors (Mn ∨Nn ) est une sous-martingale.2
Preuve. Élémentaire. !
Proposition 1.9. Soit (Mn ) une martingale, et soit ϕ une fonction convexe. Si E(|ϕ(Mn )|) <
∞, ∀ n, alors (ϕ(Mn )) est une sous-martingale.
D’où la conclusion. !
Exemple 1.10. Soit p ≥ 1, et soit (Mn ) une martingale telle que E(|Mn |p ) < ∞. Alors
(|Mn |p ) est une sous-martingale.
Il suffit d’appliquer la proposition 1.9 à la fonction convexe ϕ(x) = |x|p . !
2. Théorème d’arrêt
Soit (Ω, F , (Fn ), P) un espace de probabilité filtré, et l’on note
F∞ := σ(Fn , n ≥ 0) ,
2
Notations : a ∨ b := max{a, b} et a ∧ b := min{a, b}.
§2 Théorème d’arrêt 5
Exemple 2.1. (Temps d’arrêt déterministes) Fixons un entier positif k ≥ 0. Posons T (ω) :=
k, ω ∈ Ω. Alors T est un temps d’arrêt.
Un autre exemple de temps d’arrêt déterministe est T (ω) := ∞, ω ∈ Ω. !
Exemple 2.2. (Temps d’atteinte) Soit (Xn ) un processus adapté par rapport à la filtration
(Fn ), à valeurs dans un espace mesurable (E, E ). Soit B ∈ E . Posons
TB := inf{n ≥ 0 : Xn ∈ B} ,
Exemple 2.3. (Temps de passages successifs) Soit (Xn ) un processus adapté par rapport
à la filtration (Fn ), à valeurs dans un espace mesurable (E, E ). Soit (Bk , k ≥ 0) une
suite d’éléments (pas nécessairement distincts) de E . On définit, par récurrence, la suite
(Tk , k ≥ 0) par T0 := 0 et pour k ≥ 1,
avec la convention inf ∅ := ∞. Alors (Tk , k ≥ 0) est une suite de temps d’arrêt. [Voir TD.]
!
Soit T un temps d’arrêt. La tribu FT des événements antérieurs à T , que l’on appellera
également (par un abus d’appellation) “tribu engendrée par le temps d’arrêt T ”, est définie
par
FT = {A ∈ F∞ : ∀ n, A ∩ {T = n} ∈ Fn }
= {A ∈ F∞ : ∀ n, A ∩ {T ≤ n} ∈ Fn }.
Théorème 2.6. Si T est un temps d’arrêt, et si (Mn ) est une sous-martingale, alors (MT ∧n )
est une sous-martingale.
Preuve. Comme |MT ∧n | ≤ |M0 | + |M1 | + · · · + |Mn |, MT ∧n est intégrable. Il est clair que
(MT ∧n ) est adapté, car MT ∧n est FT ∧n -mesurable, et cette dernière est une sous-tribu de
Fn . Enfin, puisque {T ≥ n + 1} = {T ≤ n}c ∈ Fn ,
# $ # $
E (MT ∧(n+1) − MT ∧n ) | Fn = E (Mn+1 − Mn )1{T ≥n+1} | Fn
# $
= 1{T ≥n+1} E (Mn+1 − Mn ) | Fn ≥ 0,
3
Notation : Pour ω ∈ {T < ∞}, XT (ω) := XT (ω) (ω).
§2 Théorème d’arrêt 7
Théorème 2.7. (Théorème d’arrêt) Soient S et T deux temps d’arrêt bornés tels que
S ≤ T , p.s. Si (Mn ) est une sous-martingale, alors
E(MT | FS ) ≥ MS , p.s.
Preuve. Supposons que S(ω) ≤ T (ω) ≤ k pour tout ω ∈ Ω. Alors |MT | ≤ |M0 | + |M1 | +
· · · + |Mk | qui est intégrable. Soit A ∈ FS . On a
k
%
E[MT 1A ] = E[MT ∧k 1A∩{S=n} ].
n=0
la dernière identité provenant du fait que MT ∧n = MS sur {S = n}. On a donc montré que
!
E[MT 1A ] ≥ kn=0 E[MS 1A∩{S=n} ] = E[MS 1A ]. !
Corollaire 2.8. Soit (Mn ) une sous-martingale. Si S ≤ T sont des temps d’arrêt bornés,
alors E(MS ) ≤ E(MT ). En particulier, pour tout temps d’arrêt borné T , on a E(MT ) ≥
E(M0 ).
Remarque 2.9. On utilise souvent la forme suivante du corollaire 2.8 : si (Mn ) est une sous-
martingale, et si T est un temps d’arrêt (quelconque), alors pour tout n ≥ 0, E(MT ∧n ) ≥
E(M0 ). !
Preuve. Exercice aux TD. Il est clair que la seconde inégalité est une conséquence de la
première et du théorème de convergence monotone. !
8 Chapitre 1. Martingales
3. Intégrabilité uniforme
La notion d’intégrabilité uniforme jouera un rôle crucial dans l’étude de convergence dans
1
L pour les martingales.
Soit (ξi , i ∈ I) une famille de variables aléatoires réelles, indexée par un ensemble I non
vide, définie sur (Ω, F , P). Attention : On ne suppose pas que I soit dénombrable.
Définition 3.1. On dit que (ξi , i ∈ I) est uniformément intégrable (ou : équi-intégrable) si
Exemple 3.2. Soit η une variable aléatoire réelle intégrable. Alors η est uniformément
intégrable.
En effet, E[ |η| 1{|η|>a} ] → 0 (quand a → ∞) par convergence dominée. !
Exemple 3.3. Soient (ξi , i ∈ I) et (ηi , i ∈ I) des familles de variables aléatoires réelles
telle que |ξi | ≤ ηi , ∀i ∈ I. Si, (ηi , i ∈ I) est uniformément intégrable, alors (ξi , i ∈ I) l’est
également.
En particulier, si |ξi | ≤ η, ∀i ∈ I, où η est intégrable. Alors (ξi , i ∈ I) est uniformément
intégrable. !
Exemple 3.4. Soit (ξi , i ∈ I) une famille de variables aléatoires réelles uniformément
intégrable, alors (ξi+ , i ∈ I) l’est également.
En effet, |ξi+ | ≤ |ξi |, ∀i ∈ I. !
Théorème 3.5. Une famille de variables aléatoires réelles (ξi , i ∈ I) est uniformément
intégrable si et seulement si les deux conditions suivantes sont satisfaites :
(i) supi∈I E[ |ξi | ] < ∞ ;
(ii) ∀ ε > 0, ∃ δ > 0 tel que A ∈ F , P(A) ≤ δ ⇒ supi∈I E[ |ξi | 1A ] ≤ ε.
Exemple 3.6. Si (ξi , i ∈ I) et (ηi , i ∈ I) sont deux familles de variables aléatoires uni-
formément intégrables. Alors (ξi + ηi , i ∈ I) est aussi uniformément intégrable.
Il suffit d’appliquer le théorème 3.5. [On peut aussi directement prouver le résultat en
utilisant seulement la définition.] !
Théorème 4.2. Si (Mn ) est une surmartingale positive, alors M∞ := limn→∞ Mn existe
p.s., et E(M∞ ) ≤ E(M0 ).
Preuve. L’existence de M∞ provient du fait que (−Mn ) est une sous-martingale telle que
(−Mn )+ = 0 et donc supn E[(−Mn )+ ] < ∞. Puisque E(Mn ) ≤ E(M0 ), le lemme de Fatou
nous dit que E(M∞ ) ≤ lim inf n E(Mn ) ≤ E(M0 ). !
Preuve. L’intégrabilité uniforme implique que supn E(|Mn |) < ∞. Par le théorème 4.1,
Mn → M∞ p.s., qui est intégrable. La convergence dans L1 , quant à elle, est une conséquence
de converge p.s. et de l’intégrabilité uniforme (et n’a rien à voir avec les martingales).
Par la proposition 1.7, si m > n et A ∈ Fn , alors E(Mm 1A ) ≥ E(Mn 1A ). En faisant
m → ∞, et vu la convergence dans L1 , on a E(Mm 1A ) → E(M∞ 1A ). Donc E(Mn 1A ) ≤
E(M∞ 1A ) pour tout A ∈ Fn . Autrement dit, Mn ≤ E(M∞ | Fn ), p.s. !
10 Chapitre 1. Martingales
Exemple 4.4. Soit (Mn ) une sous-martingale. Alors elle converge dans L1 si et seulement
si elle est uniformément intégrable.
“⇒” C’est une conséquence du théorème 3.7 (cela n’a rien à voir avec les martingales).
“⇐” C’est une conséquence du théorème 4.3. !
Théorème 4.5. Soit (Mn ) une sous-martingale uniformément intégrable. Alors pour tout
temps d’arrêt T , (MT ∧n ) est une sous-martingale uniformément intégrable.
Corollaire 4.6. Soit (Mn ) une sous-martingale uniformément intégrable. Si T est un temps
d’arrêt, alors E(MT ) ≥ E(M0 ).
Preuve. Soit n ≥ 1. Alors T ∧ n est un temps d’arrêt borné. D’après le corollaire 2.8,
E(MT ∧n ) ≥ E(M0 ). Il suffit alors de constater que MT ∧n → MT p.s., et d’appliquer les
théorème 4.5 et 3.7. [En particulier, MT est intégrable.] !
Exemple 4.7. Soit (Mn ) une sous-martingale uniformément intégrable. Si T est un temps
d’arrêt, alors
E(M0 ) ≤ E(MT ) ≤ E(M∞ ),
où M∞ est la limite p.s. et dans L1 de Mn quand n → ∞.
En effet, par le théorème 2.7 (théorème d’arrêt, version pour les temps d’arrêt bornés),
E(M0 ) ≤ E(MT ∧n ) ≤ E(Mn ). On fait n → ∞. Par les théorèmes 4.5 et 4.3, Mn → M∞ dans
L1 et MT ∧n → MT dans L1 . D’où la conclusion cherchée. !
Théorème 4.8. (Théorème d’arrêt). Soit (Mn ) une sous-martingale uniformément in-
tégrable. Alors pour tous temps d’arrêt S ≤ T , on a
E(MT | FS ) ≥ MS , p.s.
Preuve. D’après l’inégalité de Doob, supn |Mn | ∈ L2 , et est a fortiori intégrable. D’après le
théorème 4.3, on a convergence p.s. et Mn = E(M∞ | Fn ) p.s.
Puisque |Mn − M∞ |2 ≤ (2 supn |Mn |)2 p.s., le théorème de convergence dominée implique
que E(|Mn − M∞ |2 ) → 0. !
5. Décomposition de Doob
Soit (Ω, F , (Fn ), P) un espace de probabilité filtré.
Définition 5.1. Une famille (Yn , n ≥ 1) de variables aléatoires est dite prévisible si pour
tout n ≥ 1, Yn est Fn−1 -mesurable.
Une martingale (Xn ) est dite de carré intégrable si E[Xn2 ] < ∞ pour tout n. Dans
ce cas, (Xn2 ) est une sous-martingale. Soit Xn2 = Mn + An sa décomposition de Doob. La
preuve du théorème précédent nous dit par ailleurs que
% n ( ) % n
2 2
An = E[Xi | Fi−1 ] − Xi−1 = E[(Xi − Xi−1 )2 | Fi−1 ].
i=1 i=1
Définition 6.1. Un processus (Xt , t ≥ 0) est dit adapté (par rapport à la filtration (Ft ))
si ∀ t ≥ 0, Xt est Ft -mesurable.
On définit
F∞ := σ(Ft , t ≥ 0) .
FT := {A ∈ F∞ : ∀ t ≥ 0, A ∩ {T ≤ t} ∈ Ft }.
On peut facilement vérifier que si T = t (temps d’arrêt déterministe), alors FT vaut bien
Ft .
%∞
k
Tn := 1 k−1 k + (+∞) 1{T =∞},
k=0
2n { 2n <T ≤ 2n }
Définition 7.1. On dit que (Mt , t ≥ 0) est une martingale [resp. surmartingale ; sous-
martingale] si
(i) (Mt ) est adapté;
(ii) ∀ t ≥ 0, E(|Mt |) < ∞;
(iii) ∀ s < t, E(Mt | Fs ) = Ms , p.s. [resp., ≤ Ms ; ≥ Ms ].
Il est facile de voir que la plupart de propriétés élémentaires des martingales à temps
discret sont encore valables pour les martingales à temps continu. Par exemple, si (Mt ) est
une martingale et si f est une fonction convexe telle que E(|f (Mt )|) < ∞, ∀ t, alors (f (Mt ))
est une sous-martingale.
14 Chapitre 1. Martingales
Théorème 7.2. (Inégalité de Doob) Soit (Mt , t ≥ 0) une martingale continue à droite4 .
Alors pour tout t > 0, & '
E sup Ms ≤ 4E(Mt2 ).
2
s∈[0,t]
Preuve. Soit D ⊂ R+ dénombrable et dense. Soient 0 = t0 < t1 < t2 < · · · < tk = t. Alors
Nn := Mtn∧k est une martingale à temps discret. Par l’inégalité de Doob pour les martingales
à temps discret, on a E(max1≤i≤k Mt2i ) ≤ 4E(Mt2 ). Par convergence monotone, ceci implique
que, si D est un sous-ensemble dénombrable de R+ , alors E(sups∈[0,t]∩D Ms2 ) ≤ 4E(Mt2 ). La
continuité à droite des trajectoires de (Ms ) (c’est-à-dire, des fonctions aléatoires s -→ Ms )
confirme alors que sups∈[0,t]∩D Ms2 = sups∈[0,t] Ms2 p.s. si t ∈ D et si D ⊂ R+ est dense. !
Théorème 8.2. Soit (Mt , t ≥ 0) une sous-martingale continue à droite. Si supt≥0 E(Mt+ ) <
∞, alors M∞ := limt→∞ Mt existe p.s., et E(|M∞ |) < ∞.
Théorème 8.3. Si (Mt , t ≥ 0) est une surmartingale positive et continue à droite, alors
M∞ := limt→∞ Mt existe p.s., et E(M∞ ) ≤ E(M0 ).
Théorème 8.5. Si (Mt , t ≥ 0) est une martingale continue à droite telle que
E(MT | FS ) ≥ MS , p.s.
Théorème 8.7. Soit (Mt ) une sous-martingale continue à droite et uniformément intégrable.
Soient S ≤ T des temps d’arrêt. Alors
E(MT | FS ) ≥ MS , p.s.