Vous êtes sur la page 1sur 11

Chapitre 1

Martingales à temps discret

Dans ce chapitre, on résume la théorie des martingales à temps discret. La plupart des
propriétés seront reprises dans le chapitre suivant, lorsque l’on étudiera les martingales à
temps continu.

0. Rappels sur espérance conditionnelle


Soit (Ω, F , P) un espace de probabilité. Soient ξ, ξ1 et ξ2 des variables aléatoires réelles
intégrables. Soit G ⊂ F une sous-tribu de F .
L’espérance conditionnelle E(ξ | G ) est une variable aléatoire telle que :
• E(ξ | G ) est G -mesurable ;
• E[ |E(ξ | G )| ] < ∞ ;
• ∀A ∈ G , E(ξ 1A ) = E[E(ξ | G ) 1A ].
Il y a, pour E(ξ | G ), existence et unicité (unicité au sens que si η est une variable aléatoire
vérifiant ces propriétés, alors E(ξ | G ) = η p.s.).

• ξ G -mesurable ⇒ E(ξ | G ) = ξ p.s.


• ξ indépendante de G ⇒ E(ξ | G ) = E(ξ) p.s.
• E(ξ) = E[E(ξ | G )].
• a, b ∈ R ⇒ E(aξ1 + bξ2 | G ) = a E(ξ1 | G ) + b E(ξ2 | G ) p.s.
• H ⊂ G sous-tribu ⇒ E[E(ξ | G ) | H ] = E(ξ | H ) p.s.
• η G -mesurable et intégrable ⇒ E(ξη | G ) = ηE(ξ | G ) p.s.
• X et Y des variables aléatoires à valeurs dans les espaces mesurables (E1 , E1 ) et (E2 , E2 )
respectivement, ϕ : E1 × E2 → R mesurable telle que E(|ϕ(X, Y )|) < ∞, Y G -mesurable,
X indépendante de G ⇒ E(ϕ(X, Y ) | G ) = h(Y ) p.s., où h(y) := E(ϕ(X, y)).
• Jensen, Fatou, convergence dominée, convergence monotone.

1
2 Chapitre 1. Martingales à temps discret

• E(ξ1 | G ) ≥ E(ξ2 | G ) p.s. ⇔ E(ξ1 1A ) ≥ E(ξ2 1A ) ∀A ∈ G . [Preuve : voir TD.]

Notation : Lorsque G = σ(Z) où Z est une variable aléatoire à valeurs dans un espace
mesurable quelconque, on écrit souvent E(ξ | Z) à la place de E(ξ | σ(Z)). Plus généralement,
si G = σ(Zi , i ∈ I) est la tribu engendrée par une famille quelconque de variables aléatoires,
on écrit E(ξ | Zi , i ∈ I) à la place de E(ξ | σ(Zi , i ∈ I)).

1. Filtrations et martingales
Soit (Ω, F , P) un espace de probabilité. Une filtration (Fn )n≥0 sur cet espace est une
famille croissante de sous-tribus de F :

F0 ⊂ F1 ⊂ F2 ⊂ · · · ⊂ F .

On appelle (Ω, F , (Fn ), P) un espace de probabilité filtré.


Une suite de variables aléatoires (Xn , n ≥ 0) est appelée un processus aléatoire (ou :
processus stochastique, ou : processus). L’indice n est moralement considéré comme un
paramètre temporel.

Exemple 1.1. Soit (Xn , n ≥ 0) un processus aléatoire. Pour tout n ≥ 0, on pose Fn :=


σ(Xi : 0 ≤ i ≤ n). Alors (Fn )n≥0 est une filtration, que l’on appelle souvent la filtration
naturelle (ou : filtration canonique) de (Xn , n ≥ 0). !

Soit (Fn )n≥0 une filtration, et soit (Xn , n ≥ 0) un processus aléatoire. On dit que
(Xn , n ≥ 0) est adapté par rapport à (Fn ) si pour tout n, Xn est Fn -mesurable. [Lorsqu’il
y a pas de risque d’ambiguı̈té sur le choix de la filtration, on dit simplement que (Xn , n ≥ 0)
est adapté.] Dans l’Exemple 1.1, le processus est adapté.

Définition 1.2. On dit que (Mn ) est une martingale (resp. surmartingale ; sous-martingale)
par rapport à la filtration (Fn ) si
(i) (Mn ) est adapté ;
(ii) ∀ n, E(|Mn |) < ∞ ;
(iii) ∀ n, E(Mn+1 | Fn ) = Mn , p.s. (resp., E(Mn+1 | Fn ) ≤ Mn ; E(Mn+1 | Fn ) ≥ Mn ).

On appellera de temps en temps (iii) l’inégalité caractéristique des sous-martingales (ou


surmartingales), ou l’identité caractéristique des martingales.
§1 Filtrations et martingales 3

Remarquons que si (Mn ) est une surmartingale, alors n +→ E(Mn ) est décroissante.
[L’origine de l’expression : une fonction f sur Rn est surharmonique si et seulement si
pour un mouvement brownien B à valeurs dans Rn , f (B) est une surmartingale locale par
rapport à la filtration naturelle de B.]

Exemple 1.3. (Martingale fermée). Soit ξ une variable aléatoire réelle intégrable. Soit
Mn := E(ξ | Fn ). Alors (Mn ) est une martingale (appellée martingale fermée).
En effet, (Mn ) est adapté d’après la définition de l’espérance conditionnelle, ce qui donne
(i).
Pour tout n, |Mn | ≤ E( |ξ| | Fn) par l’inégalité de Jensen (version conditionnelle). Comme
E(|ξ| | Fn) est intégrable (par la définition de l’espérance conditionnelle), on en déduit que
Mn est également intégrable, ce qui donne (ii).
Enfin, on a E[Mn+1 | Fn ] = E[E(ξ | Fn+1) | Fn ], qui n’est autre que E[ξ | Fn ] (car Fn ⊂
Fn+1 ), c’est-à-dire Mn : d’où (iii). !

Exemple 1.4. Soit (ξi )i≥0 une suite de variables aléatoires intégrables et indépendantes.
!
Soient Mn := ni=0 ξi et Fn := σ{ξi , 0 ≤ i ≤ n}.
Il est clair que (Mn ) est adapté, et est intégrable. De plus, E(Mn+1 | Fn ) = Mn + E(ξn+1 )
p.s. Donc (Mn ) est une martingale si E(ξn ) = 0, ∀n ≥ 1 ; une sous-martingale si E(ξn ) ≥ 0,
∀n ≥ 1 ; et une surmartingale si E(ξn ) ≤ 0, ∀n ≥ 1. !

Exemple 1.5. Soient ξ0 , ξ1 , · · · des variables aléatoires positives et indépendantes, telles


"
que E(ξi ) = 1, ∀i ≥ 1. On pose Mn := ni=0 ξi et Fn := σ(ξi , 0 ≤ i ≤ n), n ≥ 0. Alors
(Mn , n ≥ 0) est une martingale.
En effet, Mn est intégrable, et (Mn , n ≥ 0) adapté. Pour tout n, E(Mn+1 | Fn ) =
E(ξn+1 Mn | Fn ) = Mn E(ξn+1 | Fn ) = Mn p.s. (où l’on a utilisé le fait que ξn+1 est indépen-
dante de Fn pour déduire que E(ξn+1 | Fn ) = E(ξn+1 ) = 1). !

Remarque 1.6. Il est clair que (Mn ) est une sous-martingale si et seulement si (−Mn ) est
une surmartingale, et que (Mn ) est une martingale si et seulement si elle est à la fois une
sous-martingale et une surmartingale. !

Proposition 1.7. Si (Mn ) est une sous-martingale, alors ∀ m > n, E(Mm | Fn ) ≥ Mn , p.s.

Preuve. On a
E(Mm | Fn ) = E[ E(Mm | Fm−1 ) | Fn ] ≥ E[Mm−1 | Fn ].
Ceci démontre le résultat cherché avec un argument par récurrence. !
4 Chapitre 1. Martingales à temps discret

Proposition 1.8. (i) Si (Mn ) et (Nn ) sont des martingales (resp. sous-martingales ; sur-
martingales), alors (Mn + Nn ) en est également une.
(ii) Si (Mn ) et (Nn ) sont des sous-martingales, alors (Mn ∨Nn ) est une sous-martingale.1

Preuve. Élémentaire. !

Proposition 1.9. Soit (Mn ) une martingale, et soit ϕ une fonction convexe. Si E(|ϕ(Mn )|) <
∞, ∀ n, alors (ϕ(Mn )) est une sous-martingale.

Preuve. Par l’inégalité de Jensen,

E[ϕ(Mn+1 ) | Fn ] ≥ ϕ(E[Mn+1 | Fn ]) = ϕ(Mn ).

D’où la conclusion. !

Exemple 1.10. Soit p ≥ 1, et soit (Mn ) une martingale telle que E(|Mn |p ) < ∞. Alors
(|Mn |p ) est une sous-martingale.
Il suffit d’appliquer la Proposition 1.9 à la fonction convexe ϕ(x) = |x|p . !

2. Théorème d’arrêt
Soit (Ω, F , (Fn ), P) un espace de probabilité filtré, et l’on note

F∞ := σ(Fn , n ≥ 0) ,

c’est-à-dire la tribu engendrée par les éléments de l’ensemble des tribus Fn .


Une application T : Ω → {0, 1, 2, · · · } ∪ {∞} est appelée un temps d’arrêt si pour
tout n ≤ ∞, {T ≤ n} ∈ Fn . Il est clair que T est un temps d’arrêt si et seulement si
{T = n} ∈ Fn , ∀ n ≤ ∞.

Exemple 2.1. (Temps d’arrêt déterministes) Fixons un entier positif k ≥ 0. Posons T (ω) :=
k, ω ∈ Ω. Alors T est un temps d’arrêt.
Un autre exemple de temps d’arrêt déterministe est T (ω) := ∞, ω ∈ Ω. !
1
Notations : a ∨ b := max{a, b} et a ∧ b := min{a, b}.
§2 Théorème d’arrêt 5

Exemple 2.2. (Temps d’atteinte) Soit (Xn ) un processus adapté par rapport à la filtration
(Fn ), à valeurs dans un espace mesurable (E, E ). Soit B ∈ E . Posons

TB := inf{n ≥ 0 : Xn ∈ B} ,

avec la convention inf ∅ := ∞ (c’est-à-dire, si Xn (ω) ∈


/ B pour tout n ≥ 0, alors TB (ω) = ∞).
On vérifie très facilement par définition que TB est un temps d’arrêt. En effet, TB est à
valeurs dans {0, 1, 2, · · · } ∪ {∞} ; de plus, pour tout entier n ≥ 0, {TB ≤ n} = ∪nk=0 {Xk ∈
B} qui est un élément de Fn car {Xk ∈ B} ∈ Fk ⊂ Fn pour k ≤ n. !

Exemple 2.3. (Temps de passages successifs) Soit (Xn ) un processus adapté par rapport
à la filtration (Fn ), à valeurs dans un espace mesurable (E, E ). Soit (Bk , k ≥ 0) une
suite d’éléments (pas nécessairement distincts) de E . On définit, par récurrence, la suite
(Tk , k ≥ 0) par T0 := 0 et pour k ≥ 1,

Tk := inf{n > Tk−1 : Xn ∈ Bk } ,

avec la convention inf ∅ := ∞. Alors (Tk , k ≥ 0) est une suite de temps d’arrêt. [Voir TD.]
!

Soit T un temps d’arrêt. La tribu FT des événements antérieurs à T , que l’on appellera
également “tribu engendrée par le temps d’arrêt T ”, est définie par

FT = {A ∈ F∞ : ∀ n, A ∩ {T = n} ∈ Fn }
= {A ∈ F∞ : ∀ n, A ∩ {T ≤ n} ∈ Fn }.

Exemple 2.4. Fixons un entier k ≥ 0, et considérons le temps d’arrêt déterministe T (ω) :=


k, ω ∈ Ω. Alors FT = Fk .
De même, pour le temps d’arrêt déterministe T (ω) := ∞, ω ∈ Ω. Alors FT = F∞ . !

Propriété 2.5. Soient S et T des temps d’arrêt.


(i) Alors S ∨ T et S ∧ T sont aussi des temps d’arrêt, et FS∧T = FS ∩ FT .
(ii) Si S ≤ T , alors FS ⊂ FT .
(iii) Si (Xn ) est un processus à valeurs dans Rd et est adapté par rapport à (Fn ), alors
XT 1{T <∞} est FT -mesurable.2 Si, de plus, X∞ (ω) := limn→∞ Xn (ω) existe pour tout ω ∈ Ω
et est finie, alors XT est FT -mesurable.
2
Notation : Pour ω ∈ {T < ∞}, XT (ω) := XT (ω) (ω).
6 Chapitre 1. Martingales à temps discret

Preuve. (ii) Si A ∈ FS , alors A ∩ {T ≤ n} = (A ∩ {S ≤ n}) ∩ {T ≤ n} ∈ Fn .


(i) On a {S ∨ T ≤ n} = {S ≤ n} ∩ {T ≤ n}, et {S ∧ T ≤ n} = {S ≤ n} ∪ {T ≤ n}.
D’après (ii), FS∧T ⊂ FS et FS∧T ⊂ FT ; donc FS∧T ⊂ FS ∩ FT .
Inversement, soit A ∈ FS ∩ FT . Alors pour tout n ≥ 0, A ∩ {S ≤ n} ∈ Fn et A ∩ {T ≤
n} ∈ Fn ; d’où A∩{(S ∧T ) ≤ n} = A∩({S ≤ n}∪{T ≤ n}) = (A∩{S ≤ n})∪(A∩{T ≤ n})
qui est un élément de Fn , étant réunion de deux éléments de Fn .
!
(iii) On voit que XT 1{T <∞} = ∞ T =0 Xn 1{T =n} est F∞ -mesurable, et que pour tout A ⊂
Rd borélien et tout entier n ≥ 0, {XT 1{T <∞} ∈ A} ∩ {T = n} = {Xn ∈ A} ∩ {T = n} ∈ Fn .
Supposons maintenant que Xn (ω) → X∞ (ω) pour tout ω ∈ Ω. Il reste de vérifier, dans
ce cas, que X∞ 1{T =∞} est FT -mesurable, ce qui est immédiat car elle est évidemment F∞ -
mesurable, et pour tout A ⊂ Rd borélien et tout entier n ≥ 0, {X∞ 1{T =∞} ∈ A} ∩ {T = n}
est un élément de Fn (il vaut {T = n} si 0 ∈ A, et est vide si 0 ∈
/ A). !

On s’intéresse maintenant au processus (MT ∧n ) arrêté à un temps d’arrêt T .

Théorème 2.6. Si T est un temps d’arrêt, et si (Mn ) est une sous-martingale, alors (MT ∧n )
est une sous-martingale.

Preuve. Comme |MT ∧n | ≤ |M0 | + |M1 | + · · · + |Mn |, MT ∧n est intégrable. Il est clair que
(MT ∧n ) est adapté, car MT ∧n est FT ∧n -mesurable, et cette dernière est une sous-tribu de
Fn . Enfin, puisque {T ≥ n + 1} = {T ≤ n}c ∈ Fn ,
# $ # $
E (MT ∧(n+1) − MT ∧n ) | Fn = E (Mn+1 − Mn )1{T ≥n+1} | Fn
# $
= 1{T ≥n+1} E (Mn+1 − Mn ) | Fn ≥ 0,

ce qu’il fallait démontrer. !

Théorème 2.7. (Théorème d’arrêt) Soient S et T deux temps d’arrêt bornés tels que
S ≤ T , p.s. Si (Mn ) est une sous-martingale, alors

E(MT | FS ) ≥ MS , p.s.

Preuve. Supposons que P(S ≤ T ≤ k) = 1. Alors |MT | ≤ |M0 | + |M1 | + · · · + |Mk | qui est
intégrable. Soit A ∈ FS . On a
k
%
E[MT 1A ] = E[MT ∧k 1A∩{S=n} ].
n=0
§3 Intégrabilité uniforme 7

Comme A ∩ {S = n} ∈ Fn , et (MT ∧n ) est une sous-martingale, on a

E[MT ∧k 1A∩{S=n} ] ≥ E[MT ∧n 1A∩{S=n} ] = E[MS 1A∩{S=n} ],

la dernière identité provenant du fait que MT ∧n = MS sur {S = n}. On a donc montré que
!
E[MT 1A ] ≥ kn=0 E[MS 1A∩{S=n} ] = E[MS 1A ]. !

Corollaire 2.8. Soit (Mn ) une sous-martingale. Si S ≤ T sont des temps d’arrêt bornés,
alors E(MS ) ≤ E(MT ). En particulier, pour tout temps d’arrêt borné T , on a E(MT ) ≥
E(M0 ).

Preuve. Il suffit d’appliquer le théorème d’arrêt. !

Remarque 2.9. On utilise souvent la forme suivante du Corollaire 2.8 : si (Mn ) est une
sous-martingale, et si T est un temps d’arrêt (quelconque), alors pour tout n ≥ 0, E(MT ∧n ) ≥
E(M0 ). !

Théorème 2.10. (Inégalité de Doob) Soit (Mn ) une martingale. On a


& '
E max Mk2 ≤ 4E(Mn2 ), ∀n,
0≤k≤n
& '
E max Mk2 ≤ 4 max E(Mk2 ).
k≥0 k≥0

Preuve. Exercice aux TD. Il est clair que la seconde inégalité est une conséquence de la
première et du théorème de convergence monotone. !

3. Intégrabilité uniforme
La notion d’intégrabilité uniforme jouera un rôle crucial dans l’étude de convergence dans
L1 pour les martingales.
Soit (Xi , i ∈ I) une famille de variables aléatoires réelles, indexée par un ensemble I non
vide, définie sur (Ω, F , P). Attention : On ne suppose pas que I soit dénombrable.

Définition 3.1. On dit que (Xi , i ∈ I) est uniformément intégrable (ou : équi-intégrable)
si
lim sup E[ |Xi | 1{|Xi |>a} ] = 0.
a→∞ i∈I
8 Chapitre 1. Martingales à temps discret

Exemple 3.2. Soit Y une variable aléatoire réelle intégrable. Alors Y est uniformément
intégrable.
En effet, E[ |Y | 1{|Y |>a} ] → 0 (quand a → ∞) par convergence dominée. !

Exemple 3.3. Soient (Xi , i ∈ I) et (Yi , i ∈ I) des familles de variables aléatoires réelles
telle que |Xi | ≤ Yi , ∀i ∈ I. Si, (Yi , i ∈ I) est uniformément intégrable, alors (Xi , i ∈ I) l’est
également.
En particulier, si |Xi | ≤ Y , ∀i ∈ I, où Y est intégrable. Alors (Xi , i ∈ I) est uni-
formément intégrable. !

Exemple 3.4. Soit (Xi , i ∈ I) une famille de variables aléatoires réelles uniformément
intégrable, alors (Xi+ , i ∈ I) l’est également.
En effet, |Xi+ | ≤ |Xi |, ∀i ∈ I. !

Théorème 3.5. Une famille de variables aléatoires réelles (Xi , i ∈ I) est uniformément
intégrable si et seulement si les deux conditions suivantes sont satisfaites :
(i) supi∈I E[ |Xi | ] < ∞ ;
(ii) ∀ ε > 0, ∃ δ > 0 tel que A ∈ F , P(A) ≤ δ ⇒ supi∈I E[ |Xi | 1A ] ≤ ε.

Preuve. Exercice aux TD. !

Exemple 3.6. Si (Xi , i ∈ I) et (Yi , i ∈ I) sont deux familles de variables aléatoires


uniformément intégrables. Alors (Xi + Yi , i ∈ I) est aussi uniformément intégrable.
Il suffit d’appliquer le Théorème 3.5. [On peut aussi directement prouver le résultat en
utilisant seulement la définition.] !

Théorème 3.7. Soient X, X1 , X2 , · · · des variables aléatoires réelles. Alors

L1 P.
Xn −→X ⇐⇒ (Xn ) uniformément intégrable, et Xn −→X.

Preuve. Exercice aux TD. !

Théorème 3.8. Si Y est une variable aléatoire réelle intégrable, alors


& '
E(Y | G ); G ⊂ F sous-tribu est uniformément intégrable.

Preuve. Exercice aux TD. !


§4 Convergences 9

4. Convergences
On étudie différents modes de convergence pour les martingales.

Théorème 4.1. Si (Mn ) est une sous-martingale telle que

sup E(Mn+ ) < ∞,


n

alors M∞ := limn→∞ Mn existe p.s., et E(|M∞ |) < ∞.

Preuve. Admise. [Aux TD, on va prouver que E(|M∞ |) < ∞.]

Théorème 4.2. Si (Mn ) est une surmartingale positive, alors M∞ := limn→∞ Mn existe
p.s., et E(M∞ ) ≤ E(M0 ).

Preuve. L’existence de M∞ provient du fait que (−Mn ) est une sous-martingale telle que
(−Mn )+ = 0 et donc supn E[(−Mn )+ ] < ∞. Puisque E(Mn ) ≤ E(M0 ), le lemme de Fatou
nous dit que E(M∞ ) ≤ lim inf n E(Mn ) ≤ E(M0 ). !

Théorème 4.3. Soit (Mn ) une sous-martingale uniformément intégrable. Alors


(i) Mn → M∞ dans L1 ;
(ii) Mn → M∞ p.s. ;
(iii) ∀n, Mn ≤ E(M∞ | Fn ), p.s.

Preuve. L’intégrabilité uniforme implique que supn E(|Mn |) < ∞. Par le Théorème 4.1,
Mn → M∞ p.s., qui est intégrable. La convergence dans L1 , quant à elle, est une conséquence
de converge p.s. et de l’intégrabilité uniforme (et n’a rien à voir avec la propriété de sous-
martingale).
Par la Proposition 1.7, si m > n et A ∈ Fn , alors E(Mm 1A ) ≥ E(Mn 1A ). En faisant
m → ∞, et vu la convergence dans L1 , on a E(Mm 1A ) → E(M∞ 1A ). Donc E(Mn 1A ) ≤
E(M∞ 1A ) pour tout A ∈ Fn . Autrement dit, Mn ≤ E(M∞ | Fn ), p.s. !

Théorème 4.4. Soit (Mn ) une sous-martingale uniformément intégrable. Alors pour tout
temps d’arrêt T , (MT ∧n ) est une sous-martingale uniformément intégrable.

Preuve. Exercice aux TD. !


10 Chapitre 1. Martingales à temps discret

Corollaire 4.5. Soit (Mn ) une sous-martingale uniformément intégrable. Si T est un temps
d’arrêt, alors E(MT ) ≥ E(M0 ).

Preuve. Soit n ≥ 1. Alors T ∧ n est un temps d’arrêt borné. D’après le Corollaire 2.8,
E(MT ∧n ) ≥ E(M0 ). Il suffit alors de constater que MT ∧n → MT p.s., et d’appliquer le
Théorème 3.7. !

Exemple 4.6. Soit (Mn ) une sous-martingale uniformément intégrable. Si T est un temps
d’arrêt, alors
E(M0 ) ≤ E(MT ) ≤ E(M∞ ),
où M∞ est la limite p.s. et dans L1 de Mn quand n → ∞.
En effet, par le Théorème 2.7 (théorème d’arrêt, version pour les temps d’arrêt bornés),
E(M0 ) ≤ E(MT ∧n ) ≤ E(Mn ). On fait n → ∞. Par les Théorèmes 4.4 et 4.3, Mn → M∞
dans L1 et MT ∧n → MT dans L1 . D’où la conclusion cherchée. !

Théorème 4.7. (Théorème d’arrêt). Soit (Mn ) une sous-martingale uniformément in-
tégrable. Alors pour tous temps d’arrêt S ≤ T , on a

E(MT | FS ) ≥ MS , p.s.

Preuve. D’après le Théorème 4.4 et l’Exemple 4.6, E(MS ) ≤ E(MT ).


Soit A ∈ FS , et soit
R = S 1A + T 1 A c ,
qui est un temps d’arrêt, tel que R ≤ T . D’après ce que l’on vient de démontrer, E(MR ) ≤
E(MT ). Puisque R = T sur Ac , on a E(MS 1A ) = E(MR 1A ) ≤ E(MT 1A ). Ceci étant vrai
pour tout A ∈ FS , on obtient E(MT | FS ) ≥ MS , p.s. !

Théorème 4.8. Si (Mn ) est une martingale telle que

sup E(Mn2 ) < ∞,


n≥0

alors Mn → M∞ p.s. et dans L2 .


De plus, Mn = E(M∞ | Fn ) p.s.

Preuve. D’après l’inégalité de Doob, supn |Mn | ∈ L2 , et est a fortiori intégrable. D’après le
Théorème 4.3, on a convergence p.s. et Mn = E(M∞ | Fn ) p.s.
Puisque |Mn − M∞ |2 ≤ (2 supn |Mn |)2 p.s., le théorème de convergence dominée implique
que E(|Mn − M∞ |2 ) → 0. !
§5 Décomposition de Doob 11

5. Décomposition de Doob
Soit (Ω, F , (Fn ), P) un espace de probabilité filtré.

Définition 5.1. Une famille (Yn , n ≥ 1) de variables aléatoires est dite prévisible si pour
tout n ≥ 1, Yn est Fn−1 -mesurable.

Théorème 5.2. (Décomposition de Doob) Toute sous-martingale (Xn ) s’écrit comme


Xn = Mn + An , où (Mn ) est une martingale, et (An ) est prévisible telle que A0 = 0.
Cette décomposition est unique. En plus, (An ) est croissante.

Preuve. (Unicité). Si (Mn ) et (An ) satisfont les conditions du théorème, alors

E[Xn | Fn−1 ] = E[Mn | Fn−1 ] + E[An | Fn−1] = Mn−1 + An = Xn−1 − An−1 + An .

Donc on a nécessairement An − An−1 = E[Xn | Fn−1 ] − Xn−1 p.s. La condition A0 = 0


implique que le choix de (An ) (dont aussi celui de (Mn )) est unique.
(Existence) Soit (An ) telle que An − An−1 = E[Xn | Fn−1] − Xn−1 , et que A0 = 0. Comme
(Xn ) est une sous-martingale, on a An − An−1 ≥ 0, et (An ) est donc croissante. De plus,
!
An = ni=1 {E[Xi | Fi−1 ] − Xi−1 } est Fn−1 -mesurable.
Pour montrer que (Mn := Xn −An ) est une martingale, on constate que Mn est intégrable
et adapté, tel que

E[Mn | Fn−1 ] = E[Xn − An | Fn−1 ] = E[Xn | Fn−1 ] − An = Xn−1 − An−1 = Mn−1 .

Donc (Mn ) est une martingale. !

Une martingale (Xn ) est dite de carré intégrable si E[Xn2 ] < ∞ pour tout n. Dans
ce cas, (Xn2 ) est une sous-martingale. Soit Xn2 = Mn + An sa décomposition de Doob. La
preuve du théorème précédent nous dit par ailleurs que
n (
% ) %n
2 2
An = E[Xi | Fi−1 ] − Xi−1 = E[(Xi − Xi−1 )2 | Fi−1 ].
i=1 i=1

Vous aimerez peut-être aussi