Vous êtes sur la page 1sur 13

Chapitre 3

Martingales discrètes

Résumé. Étant donné un espace de probabilité filtré par F = (Fn )n2N ,


une martingale est un processus (Xn )n2N adapté à la filtration et tel que
E[Xn+1 |Fn ] = Xn pour tout n. Cette classe de processus est stable par
intégration stochastique contre des processus prévisibles, et par coupure
par des temps d’arrêt. Toute martingale bornée dans L1 (⌦, B, P) converge
p.s., et dans L1 si et seulement si elle est uniformément intégrable. Toute
martingale bornée dans Lp (⌦, B, P) avec p > 1 converge p.s. et dans Lp .
Cette théorie s’applique en particulier aux marches aléatoires et aux
processus de branchement.

Dans ce chapitre, (⌦, B, P) est un espace de probabilité, et F = (Fn )n2N est une fil-
tration de l’espace, c’est-à-dire une suite croissante de sous-tribus de B. Dans le cadre de
processus à temps discret définis sur (⌦, B, P), il faut comprendre Fn comme l’ensemble
des événements mesurables au temps n. Ainsi, on dira qu’une suite de variables aléa-
toires (Xn )n2N définies sur (⌦, B, P) forme un processus adapté relativement à la filtration
(Fn )n2N si Xn est Fn -mesurable pour tout temps n. Tout processus est adapté à la fil-
tration qu’il engendre, définie par Fn = (X0 , . . . , Xn ). On aura également besoin de la
notion de processus prévisible : ainsi, (Xn )n 1 est dit prévisible si Xn est Fn 1 -mesurable
pour tout temps n 1.

1. Martingales et leurs transformations


1.1. Exemples élémentaires de martingales. Dans ce qui suit, un processus aléa-
toire (Xn )n2N sera dit intégrable si toutes les variables Xn le sont.
Définition 3.1 (Martingales). Un processus aléatoire (Xn )n2N (à valeurs dans R) est
appelé martingale s’il est adapté, intégrable et si, pour tout n,
E[Xn+1 |Fn ] = Xn .
On parle de sur-martingale si l’égalité est remplacée par l’inégalité E[Xn+1 |Fn ]  Xn , et
de sous-martingale si l’égalité est remplacée par l’inégalité E[Xn+1 |Fn ] Xn .
Étant donnée une martingale, on a plus généralement et par conditionnements successifs
E[XN |Fn ] = Xn pour N n, et E[Xn ] = E[X0 ] pour tout n 2 N.

Exemple. Soit (Yn )n 1 une suite de variables aléatoires intégrables et indépendantes


(mais pas forcément de même loi), F = (Fn )n2N la filtration engendrée par ces variables,
33
34 3. MARTINGALES DISCRÈTES
P
et Xn = nk=1 Yk . C’est un processus adapté, et si chaque Yn vérifie E[Yn ] = 0, alors c’est
une martingale, car
E[Xn+1 |Fn ] = E[Xn |Fn ] + E[Yn+1 |Fn ] = Xn + E[Yn+1 ] = Xn .
En particulier, les marches aléatoires simples sur Z sont des martingales (et plus gé-
néralement, les marches aléatoires dont les incréments i.i.d. ont moyenne nulle). Si l’on
remplace l’hypothèse E[Yn ] = 0 par E[Yn ] 0 (respectivement, E[Yn ]  0), on obtient
une sous-martingale (resp., une sur-martingale).

Exemple. Soit (Yn )n 1 une suite de variables aléatoires positives, bornées


Qn et indé-
pendantes, F = (Fn )n2N la filtration engendrée par ces variables, et Xn = k=1 Yk . C’est
un processus adapté, et si chaque Yn vérifie E[Yn ] = 1, alors c’est une martingale, car
E[Xn+1 |Fn ] = E[Xn Yn+1 |Fn ] = Xn E[Yn+1 ] = Xn .

Exemple. Soit (Xn )n2N une chaîne de Markov de matrice de transition P sur un
espace d’états X. Une fonction sur X est dite harmonique pour P si pour tout x 2 X,
X
f (x) = (P f )(x) = P (x, y)f (y).
y2X

Dans ce cas, le processus (f (Xn ))n2N est une martingale pour la filtration engendrée par
la chaîne de Markov, car E[f (Xn+1 )|Fn ] = P f (Xn ) = f (Xn ). On obtient de même des
sous- et des sur-martingales à partir de fonctions sous- ou sur-harmoniques.

Exemple. Soit X une variable aléatoire intégrable, et Xn = E[X|Fn ], avec F filtration


fixée sur l’espace de probabilité (⌦, B, P). Le processus (Xn )n2N est une martingale par la
propriété des conditionnements successifs du chapitre 1.

D’un point de vue abstrait, la notion de martingale permet de mesurer la différence


entre processus adaptés et processus prévisibles :
Proposition 3.2 (Décomposition de Doob). Tout processus adapté intégrable (Xn )n2N
s’écrit de manière unique comme somme d’une martingale (Mn )n2N et d’un processus
prévisible (Pn )n2N issu de 0.
L’existence est donnée par les formules
Mn+1 Mn = Xn+1 E[Xn+1 |Fn ]
Pn+1 Pn = E[Xn+1 |Fn ] Xn
qui fournissent une définition récursive des deux composantes de Xn , avec M0 = X0 et
P0 = 0. Pour l’unicité, il suffit de noter qu’un processus qui est à la fois une martingale
et prévisible est constant au cours du temps.
1. MARTINGALES ET LEURS TRANSFORMATIONS 35

1.2. Transformations de martingales. À partir d’une martingale (Xn )n2N , il existe


plusieurs constructions qui permettent d’obtenir de nouvelles martingales ; dans le cadre
des martingales à temps continu, ceci mène à la théorie du calcul stochastique d’Itô. Dans
le cadre des martingales à temps discret, la théorie se réduit essentiellement aux résul-
tats suivants. Notons que si (Xn )n2N est une sous-martingale, alors ( Xn )n2N est une
sur-martingale ; les résultats seront donc énoncés seulement pour les sur-martingales.
Théorème 3.3 (Intégrale stochastique discrète). Soit (Xn )n2N un processus adapté,
et (An )n2N un processus prévisible. Notons
Xn
(A · X)n = Ak (Xk Xk 1 ),
k=1

qui est un processus adapté issu de 0. Si (Xn )n2N est une martingale et (An )n2N est une
suite de variables aléatoires bornées, alors ((A · X)n )n2N est une martingale. De même,
si (Xn )n2N est une sur-martingale et (An )n2N est une suite de variables aléatoires bornées
positives, alors ((A · X)n )n2N est une sur-martingale.
En effet, dans le cas des martingales,
E[(A · X)n+1 |Fn ] = (A · X)n + E[An+1 (Xn+1 Xn )|Fn ]
= (A · X)n + An+1 (E[Xn+1 |Fn ] Xn ) = (A · X)n .
Dans le cas des sur-martingales, la même preuve s’adapte, et l’on peut alternativement uti-
liser le résultat élémentaire suivant : un processus adapté intégrable est une sur-martingale
si et seulement si sa partie prévisible au sens de la décomposition de Doob est un processus
décroissant (appelé le compensateur de la sur-martingale).

Exemple. Soit (Xn )n2N une marche aléatoire sur Z, d’incréments indépendants et
identiquement distribués Y1 , . . . , Yn , . . ., avec E[Y1 ] = 0. On interprète chaque variable
Yi = Xi Xi 1 comme le résultat d’un jeu aléatoire, et l’on décide à chaque étape i 1
d’une mise Ai 0 pour le i-ième tirage du jeu. Cette mise est donc Fi 1 -mesurable,
c’est-à-dire prévisible, et on peut imaginer que l’on décide de la mise Ai en fonction des
résultats précédents du jeu Y1 , . . . , Yi 1 . L’hypothèse E[Y1 ] = 0 assure que pour tout temps
n, E[Xn ] = 0, c’est-à-dire qu’au temps n on a en moyenne gagné autant de fois que l’on
a perdu. La proposition 3.3 assure que dans ce cas, quelque soit la stratégie des mises, le
gain au temps n
Xn
Gn = (A · X)n = Ai Y i
i=1
est également une martingale, de sorte qu’on a aussi E[Gn ] = 0 pour tout n. Autrement
dit, si un jeu est équilibré, alors aucune stratégie prévisible ne permet d’avoir des gains
en moyenne strictement positifs.

Soit (Xn )n2N une martingale. Comme toute fonction (f (Xn ))n2N d’un processus adapté
est de nouveau un processus adapté, sous des hypothèses d’intégrabilité, f (Xn ) = Mnf +Pnf
est la somme d’une martingale et d’un processus prévisible. Ceci fournit de nouvelles
techniques de constructions de martingales.
36 3. MARTINGALES DISCRÈTES

Exemple. Posons f (x) = x2 , et considérons une martingale (Xn )n2N dans L2 (⌦, B, P),
c’est-à-dire que chaque Xn est de carré intégrable. Alors, la partie prévisible de Xn2 est
donnée par
Pn+1 Pn = E[(Xn+1 )2 |Fn ] (Xn )2 = E[(Xn+1 Xn )2 |Fn ] 0.
Ainsi, il existe un unique processus prévisible, positif et croissant, appelé variation qua-
dratique de (Xn )n2N et noté hXin , tel que
n 1
X
hXin = E[(Xk+1 Xk )2 |Fk ] ; ((Xn )2 hXin )n2N est une martingale.
k=0

Dans le cas de la marche aléatoire simple sur Z, on a (Xk+1 Xk )2 = 1 presque sûrement


pour tout k, donc hXin = n presque sûrement, et ((Xn )2 n)n2N est une martingale.

Exemple. Soit (Xn )n2N une marche aléatoire sur Z, avec Xn = Y1 + · · · + Yn somme
d’i.i.d. et E[etY1 ] < 1 pour un certain réel positif t. La transformée exponentielle Zn =
etXn n log E[e 1 ] est de nouveau une martingale, puisque
tY

log E[etY1 ] E[etYn+1 ]


E[Zn+1 |Fn ] = Zn E[etYn+1 ] = Zn = Zn .
E[etY1 ]
tXn
Dans le cas de la marche aléatoire simple sur Z, ( (cosh
e
)
t)n n2N
est donc une martingale pour
tout paramètre t 2 R.

1.3. Théorèmes d’arrêt. Une autre transformation de martingales qui préserve


cette propriété est la coupure par un temps d’arrêt. Soit (Xn )n2N un processus adapté.
Rappelons qu’un temps d’arrêt pour la filtration (Fn )n2N est une variable aléatoire T à
valeurs dans [[0, +1]] et telle que {T = n} 2 Fn pour tout n 2 N.
Théorème 3.4 (Coupure par un temps d’arrêt). Soit (Xn )n2N une martingale, et T
un temps d’arrêt. Le processus
(
Xn si n < T,
Xinf(n,T ) =
XT si n T
est une martingale. On a le même résultat avec des sur-martingales à la place de martin-
gales.
En effet, c’est une conséquence de la proposition 3.3 avec le processus prévisible An =
T n = 1 T <n .

Exemple. Soit (Xn )n2N une marche aléatoire simple sur Z, T = T 1 le temps d’at-
teinte de 1. Comme (Xinf(n,T ) )n2N est une martingale, pour tout n,
0 = E[Xinf(n,T ) ] = P[T  n] + E[Xn T >n ]

= P[T  n] + E[Xn |T > n] (1 P[T  n]),


1. MARTINGALES ET LEURS TRANSFORMATIONS 37

donc l’espérance conditionnelle de Xn sachant X0 , . . . , Xn 0 est égale à


P[T  n]
!n!1 +1.
1 P[T  n]

Exemple. Soient a, b > 0, et T = inf(Ta , T b ). Comme (Xinf(n,T ) )n2N est une martin-
gale, pour tout n,
0 = E[Xinf(n,T ) ] = a P[Ta  inf(n, T b )] b P[T b  inf(n, Ta )] + E[Xn inf(Ta ,T b )>n
].
Comme la marche aléatoire simple est récurrente, Ta et T b sont finis presque sûrement,
donc la limite de l’expression précédente est
0 = a P[Ta  T b ] b P[T b  Ta ],
puisqu’on a la borne |E[Xn inf(Ta ,T b )>n
]|  max(a, b) P[inf(Ta , T b ) > n] ! 0. On en
déduit :
b
P[Ta  T b ] = ; E[XT ] = 0.
b+a

En règle générale, si l’on n’a pas de bonnes bornes sur T ou sur XT , il est faux
que E[XT ] = E[X0 ] pour un temps d’arrêt T . Le théorème suivant donne des conditions
suffisantes pour que ce soit vrai :
Théorème 3.5 (Doob). Soit T un temps d’arrêt fini presque sûrement, et (Xn )n2N
une martingale. Si E[|XT |] < 1 et limn!1 E[|Xn | T >n ] = 0, alors E[XT ] = E[X0 ]. Ces
hypothèses sont satisfaites dans les cas suivants :

(1) T est borné presque sûrement.


(2) (Xinf(n,T ) )n2N est uniformément borné presque sûrement.
(3) T est intégrable et les incréments Xn+1 Xn sont uniformément bornés par une
constante.

La troisième condition suffisante du théorème est en particulier satisfaite lorsque (Xn )n2N
est l’intégrale stochastique d’un processus prévisible borné contre une martingale bornée.

Exemple. On considère la marche aléatoire biaisée sur Z avec P[Xn+1 = Xn + 1] =


1 P[Xn+1 = Xn 1] = p = 1 q, issue de k > 0. On considère le temps T = inf{T0 , TL }
de sortie de l’intervalle [[0, T ]]. Le processus Zn = ( pq )Xn est une martingale :
q p
E[Zn+1 |Fn ] = p Zn + q Zn = (q + p) Zn = Zn .
p q
D’autre part, (Zinf(n,T ) )n2N est clairement borné par max(1, ( pq )L ). Par le théorème d’arrêt
de Doob,
✓ ◆k ✓ ◆L ✓ ◆L
q q q
E[ZT ] = E[Z0 ] = = P0 + P L = P0 + (1 P0 ) ,
p p p
38 3. MARTINGALES DISCRÈTES

avec P0 = P[XT = 0] et PL = P[XT = L]. Ainsi,


( pq )k ( pq )L
P0 = .
1 ( pq )L

2. Convergence de martingales
L’intérêt principal de la théorie des martingales est l’existence de puissants théorèmes
de convergence, semblables à la loi des grands nombres. Dans cette section, nous présen-
tons ces résultats en étudiant successivement la convergence p.s., dans L1 (⌦, B, P) et dans
les espaces Lp (⌦, B, P) avec p > 1.

2.1. Convergence presque sûre. Soit (Xn )n2N un processus adapté, a < b deux
réels. On note Mn (a, b) le plus grand entier k tel qu’existe deux suites entrelacées
0  s1  t 1  s2  t 2  · · ·  sk  t k  n
avec Xsi  a et Xti b pour tout i. C’est le nombre de montées entre a et b, et c’est
une variable aléatoire Fn -mesurable. En effet, on peut associer à cette variable les temps
d’arrêt
Sk = inf{n > Tk 1 , Xn  a}
Tk = inf{n > Sk , Xn b}
P1
et Mn (a, b) = k=1 Tk n est bien une somme de variables Fn -mesurables.
Proposition 3.6 (Nombre de montées). Soit (Xn )n2N une sur-martingale. On a
E[(Xn a) ]
E[Mn (a, b)]  .
b a
P
En effet, soit Pn = 1 k=1 Sk <nTk , qui est un processus prévisible puisque Sk <nTk =
Sk <n (1 Tk <n ). Comme (Xn )n2N est une sur-martingale et (Pn )n2N est un processus
prévisible positif borné, ((P · X)n )n2N est une sur-martingale. Or,
n Mn (a,b)
X X
(P · X)n = Pi (Xi Xi 1 ) = (XTk XSk ) + (Xn XSMn (a,b)+1 ) SMn (a,b)+1 <n
i=1 k=1
(b a) Mn (a, b) (Xn a) .
Comme 0 = E[(P · X)0 ] E[(P · X)n ], l’inégalité est démontrée. On en déduit que les
nombres de montées sont finis p.s. sous des hypothèses assez faibles sur (Xn )n2N ; ceci
entraîne la convergence presque sûre. Plus précisément :
Théorème 3.7 (Convergence presque sûre des martingales). Soit (Xn )n2N une sur-
martingale. Il existe une limite p.s. X1 = limn!1 Xn si

(1) (Xn )n2N est positive,


2. CONVERGENCE DE MARTINGALES 39

(2) ou plus généralement, si (Xn )n2N est bornée dans L1 (⌦, B, P) :


sup E[|Xn |] < +1.
n2N

Le théorème s’applique en particulier aux martingales. Par le lemme de Fatou, la limite


X1 est intégrable, mais elle n’est pas forcément la limite dans L1 (⌦, B, P) des variables
Xn . En particulier, on n’a pas forcément E[X1 ] = E[X0 ].

Exemple. Soit (Xn )n2N une marche aléatoire de paramètres p et q = 1 p sur Z, par
exemple issue de 0, et avec p 6= q. On sait que Zn = ( pq )Xn est une martingale, et elle est
positive ; elle admet donc une limite p.s. Z1 , qui est intégrable. Les valeurs possibles de
Z1 sont dans l’adhérence des valeurs possibles de (Xn )n2N , c’est-à-dire dans
(✓ ◆ )
k
q
, k 2 Z t {0}.
p
Si Z1 = (q/p)k a probabilité positive pour une valeur k finie, alors avec probabilité positive
(Xn )n2N est stationnaire égale à k. Or, une marche aléatoire n’est jamais stationnaire, donc
Z1 = 0 presque sûrement. On en déduit que Xn ! 1 p.s. si p < q, et Xn ! +1 p.s.
si p > q. Notons que dans ce cas, on n’a pas convergence dans L1 , car E[X0 ] = 1 6= 0.

Exemple. On considère une urne contenant initialement B boules blanches et N


boules noires. À chaque étape, on tire une boule de l’urne, et l’on ajoute c 1 boules de
cette couleur dans l’urne. Soit Xn la proportion de boules blanches dans l’urne au temps
n ; le nombre de boules blanches au temps n est alors (B + N + cn)Xn , et le nombre de
boules noires au temps n est (B + N + cn)(1 Xn ). On a X0 = B+N B
et
(B + N + cn)Xn + c (B + N + cn)Xn
E[Xn+1 |Fn ] = Xn + (1 Xn ) = Xn ,
B + N + c(n + 1) B + N + c(n + 1)
donc (Xn )n2N est une martingale à valeurs dans [0, 1]. Elle est donc uniformément bornée,
et admet une limite presque sûre X1 . La loi de cette limite peut être calculée comme
suit. La probabilité pour obtenir au cours des n premiers tirages n1 tirages blancs et n2
tirages noirs est
✓ ◆
n B(B + c)(B + 2c) · · · (B + (n1 1)c) N (N + c)(N + 2c) · · · (N + (n2 1)c)
.
n1 (B + N )(B + N + c) · · · (B + N + (n 1)c)
Supposons n1 /n ! x 2 (0, 1). Alors l’expression ci-dessus a pour asymptotique
1 ((B + N )/c) B 1 N
x c (1 x) c 1 ,
n (B/c) (N/c)
et d’autre part, n1 /n ! x équivaut à Xn ! x. On en déduit que X1 est la loi de densité
((B + N )/c) B 1 N
x c (1 x) c 1 dx
(B/c) (N/c)
c’est-à-dire la loi (B/c, N/c). On verra plus loin qu’on a aussi convergence dans L1 (⌦, B, P),
et en fait dans tous les espaces Lp , car la martingale est à valeurs bornées.
40 3. MARTINGALES DISCRÈTES

2.2. Convergence dans L1 . Pour obtenir la convergence dans L1 (⌦, B, P) d’une


suite de martingales bornées au sens du théorème 3.7, on a besoin d’une borne “uniforme”,
c’est-à-dire de la notion d’uniforme intégrabilité :
Définition 3.8. Un processus (adapté, intégrable) (Xn )n2N est dit uniformément in-
tégrable si
lim sup E[|Xn | |Xn | K ] = 0.
K!+1 n2N

Exemple. La martingale associée au modèle d’urnes de Pólya de la section précédente


est uniformément intégrable, puisqu’elle est bornée dans L1 (⌦, B, P). En revanche, la
marche aléatoire simple n’est pas uniformément intégrable, car
sup E[|Xn | |Xn | K ] K sup (P[|Xn | K]) = K.
n2N n2N

Il en va de même pour la marche aléatoire biaisée de paramètres p 6= q.

Théorème 3.9 (Convergence dans L1 (⌦, B, P) des martingales). Soit (Xn )n2N une
martingale. Les assertions suivantes sont équivalentes :

(1) La martingale est uniformément intégrable.


(2) La martingale converge p.s. et dans L1 (⌦, B, P) vers sa limite X1 .
(3) La martingale est fermée, c’est-à-dire qu’il existe une variable intégrable X telle
que Xn = E[X|F
S n ] pour tout n. Dans ce cas, on peut supposer X mesurable
pour F1 = n2N Fn en remplaçant X par E[X|F1 ], et on a alors X = X1 =
limn!1 Xn presque sûrement.
Dans tous ces cas, on a E[X1 ] = E[X0 ]. De plus, si T est un temps d’arrêt, alors
E[X1 |FT ] = XT , et donc en particulier E[XT ] = E[X1 ] = E[X0 ].

Exemple. La martingale associée au modèle d’urnes de Pólya converge dans L1 vers


une variable aléatoire de loi (B/c, N/c), puisqu’elle est à valeurs bornées dans [0, 1], et
donc uniformément intégrable.

P
Exemple. On considère de nouveau la marche aléatoire biaisée Xn = nk=1 Yk , avec
P[Yk = 1] = 1 P[Yk = 1] = p = 1 q ; et l’on note T = inf(Ta , T b ), où a et b sont
deux entiers positifs. Si t est un réel fixé, alors la transformée exponentielle
etXn etXn
Zn = =
E[etY1 ]n (p et + q e t )n
est une martingale. La martingale arrêtée (Zinf(n,T ) )n2N est donc une martingale bornée
dans L1 , puisque le numérateur de Zn est borné par sup(eta , e tb ), et le dénominateur est
2. CONVERGENCE DE MARTINGALES 41

plus grand que 1 par convexité de l’exponentielle. Elle est donc en particulier uniformément
tX
intégrable, et sa limite ZT = Zinf(1,T ) = (p ete+q eT t )T satisfait
1 = E[Z0 ] = E[ZT ]
 
1 1
=e E
ta
XT =a +e tb
E XT = b .
(p e + q e t )T
t (p et + q e t )T
p
1± 1 4pqs2
Posons s = p e +q e , de sorte que e = ± (s) =
1 t t t
2ps
. Ces deux solutions donnent
deux équations linéaires pour les transformées de Laplace de T sur les événements XT = a
et XT = b :
1=( + (s))
a
E[sT XT =a ] +( + (s))
b
E[sT XT = b ]

=( (s))a E[sT XT =a ] +( (s)) b


E[sT XT = b ].

On conclut que
b
( ( (s))b
+ (s))
E[sT XT =a ] = ;
( + (s))a+b
( (s))a+b
(q/p)b (( + (s))a ( (s))a )
E[sT XT = b ] = ;
( + (s))a+b ( (s))a+b
(( + (s))b ( (s))b ) + (q/p)b (( + (s))a ( (s))a )
E[sT ] = ,
( + (s))a+b ( (s))a+b
ce qui donne la loi de T .

Exemple. Avec le même exemple, on peut calculer la loi de S = supn2N Xn si p < q.


Par la loi des grands nombres, (Xn )n2N converge p.s. vers 1, donc S est une variable
aléatoire positive finie presque sûrement. De plus,
1
[
{S a} = {Ta < 1} = {Ta < T b }
b=0

la réunion d’événements étant décroissante. Or, si T = inf(Ta , T b ), alors (q/p)Xinf(n,T )


est une martingale bornée dans L1 , donc uniformément intégrable dans L1 (⌦, B, P). Il
s’ensuit :
✓ ◆a ✓ ◆ b
⇥ ⇤ ⇥ ⇤ q q
1 = E (q/p) X0
= E (q/p) XT
= P[Ta < T b ] + (1 P[Ta < T b ]) ,
p p
1 (q/p) b
donc P[Ta < T b ] = (q/p)a (q/p)
, et par passage à la limite
b

✓ ◆a
p
P[S a] = P[Ta < 1] = .
q
La variable S suit donc une loi géométrique de paramètre 1 p
q
.
42 3. MARTINGALES DISCRÈTES

2.3. Convergence dans Lp . À moins de couper la martingale par un temps d’arrêt


pour assurer son caractère borné dans L1 , il peut être difficile de vérifier l’uniforme
intégrabilité de (Xn )n2N , et donc d’appliquer les théorèmes précédents. Néanmoins, si l’on
suppose que (Xn )n2N est un processus dans Lp (⌦, B, P) avec p > 1, c’est-à-dire que chaque
variable a sa puissance p intégrable, alors les hypothèses deviennent beaucoup plus simples
à vérifier. L’inégalité suivante est à la base de ces simplifications :
Proposition 3.10 (Inégalité maximale de Doob). Soit (Xn )n2N une martingale. On
a pour tout x > 0 et tout p 1 :

E[|Xn |p ]
P sup |Xk | x  .
kn xp
Des inégalités du même type existent pour le maximum des valeurs d’une sur- ou d’une
sous-martingale. Elles conduisent aux inégalités suivantes :
✓ ◆p ✓ ◆p
p
E sup |Xk |  E[|Xn |p ]
kn p 1
pour p > 1 et une martingale dans Lp (⌦, B, P).

Théorème 3.11 (Convergence dans Lp (⌦, B, P) des martingales). Soit (Xn )n2N une
martingale dans Lp (⌦, B, P). Si
sup E[|Xn |p ] < 1,
n2N

alors (|Xn | )n2N est uniformément intégrable, et (Xn )n2N converge p.s. et dans Lp vers sa
p

limite X1 .
Ainsi, il suffit de vérifier le caractère borné dans Lp pour obtenir une convergence forte.

Exemple. Dans le cas p = 2, le processus variation quadratique (hXin )n2N fournit


une preuve simple du théorème précédent. En effet, supposant pour simplifier X0 = 0 p.s.,
on a
n 1
X
E[(Xn ) ] = E[hXin ] =
2
E[(Xk+1 Xk )2 ]
k=0
pour tout n 2 N. Il s’ensuit que (Xn )n2N est borné dans L2 si et seulement si
X1
(Xk+1 Xk )2
k=0
P
est intégrable. Dans ce cas, notons que Xn = nk=01 (Xk+1 Xk ) est une décomposition
de Xn en variables orthogonales pour le produit scalaire associé à la norme L2 : en effet,
si k > j, alors
E[(Xk+1 Xk )(Xj+1 Xj )] = E[E[Xk+1 Xk |Fj+1 ](Xj+1 Xj )]
= E[0 (Xj+1 Xj )] = 0.
P1
L’intégrabilité de k=0 E[(Xk+1 Xk )2 ] assure l’uniforme intégrabilité des sommes par-
P
tielles nk=01 E[(Xk+1 Xk )2 ], et donc l’uniforme intégrabilité de ((Xn )2 )n2N . On a donc
3. PROCESSUS DE BRANCHEMENT 43

bien équivalence entre le caractère borné


P1dans L et l’uniforme intégrabilité
2
des carrés.
De plus, ces conditions impliquent que k=0 (Xk+1 Xk ) converge dans L2 , donc (Xn )n2N
a bien une limite dans L2 sous la condition supn2N E[(Xn )2 ] < 1. Finalement, la borne
dans L2 implique une borne dans L1 , donc on a aussi convergence p.s. par le théorème
3.7.

3. Processus de branchement
Les processus de branchement fournissent des exemples de martingales auxquelles s’ap-
pliquent l’ensemble
P1des résultats précédents. Soit µP
une mesure de probabilité sur N, telle
que µ(1) 6= 1 et k=0 k µ(k) < 1. On note m = 1
2
k=0 k µ(k). On fixe une famille dou-
blement indexée (⇣n,k )n,k2N de variables indépendantes et identiquement distribuées de
loi µ. Le processus de branchement de Galton-Watson de loi µ est la suite de variables
aléatoires (Yn )n2N définies récursivement par
Yn
X
Y0 = 1 ; Yn+1 = ⇣n,k .
k=1

La variable Yn représente le nombre d’individus de la n-ième génération aléatoire d’une


population dont chaque individu a un nombre d’enfants donné par la loi µ et indépendant
des autres progénitures aléatoires. La suite (Yn )n2N est une chaîne de Markov de matrice
de transition
P (k, l) = µ⇤k (l), où µ⇤k est la k-ième convolée de µ.

Pour étudier cette chaîne (récurrence, transience, etc.), on introduit la martingale


n )n2N . C’est bien une martingale, car
Yn
(Mn = m
" r #
1 X
E[Mn+1 |Fn ] = n+1 E ⇣n,k
m k=1 |r=Yn
m Yn Yn
= n+1
= n = Mn .
m m
En tant que martingale positive, (Mn )n2N a une limite presque sûre M1 , qui est intégrable.
On peut alors distinguer 3 cas :

(1) Supposons m < 1. Alors, comme Yn reste un entier pour tout n, en écrivant
Yn ' M1 mn , on en déduit que Yn ! 0 p.s., c’est-à-dire qu’il y a extinction
presque sûre (notons que r = 0 est un état absorbant de la chaîne de Markov
(Yn )n2N ).
(2) Si m = 1, alors Yn = Mn converge presque sûrement. Hors, aucun état de la
chaîne sauf 0 n’est absorbant, et d’autre part, une suite à valeurs entières qui
converge est stationnaire. Si Yn ! r 6= 0 avec probabilité non nulle, alors Yn
reste stationnaire à r avec probabilité non nulle. Mais par la propriété de Markov
et le lemme de Borel-Cantelli, Yn quitte p.s. l’état r une fois qu’il l’a atteint, ce
44 3. MARTINGALES DISCRÈTES

qui mène à une contradiction. On conclut que Yn ! 0 p.s., c’est-à-dire qu’il y a


de nouveau extinction.
P
(3) Supposons finalement m > 1. L’hypothèse sur 1 k=0 k µ(k) = h < 1 montre
2

que la convergence de (Mn )n2N a lieu dans L , puisque


2

P n
E[( Yk=1 ⇣n,k )2 ] E[Yn ] h + E[Yn (Yn 1)] m2
E[(Mn+1 ) ] =
2
=
m2n+2 m2n+2
E[Yn ] (h m ) 2
(h m2 )
= E[(Mn )2 ] + = E[(M n ) 2
] + ,
m2n+2 mn+2
et donc
X 1
h m2 h m
sup E[(Mn ) ]  1 +
2
n+2
= 2 < 1.
n2N n=0
m m m

Par le théorème 3.11, Mn ! M1 dans L2 et p.s., et en particulier, E[M1 ] =


E[M0 ] = 1, et Yn ! 1 avec probabilité positive.
P
Dans le cas sur-critique m > 1, toujours sous l’hypothèse 1 k=0 k µ(k) < 1, on peut
2

montrer plus précisément :


P
Théorème 3.12 (Processus de branchement sur-critiques). Soit G(s) = 1 k=0 µ(k) s
k

la fonction génératrice de la loi µ. On suppose m = G0 (1) > 1, et h = G00 (1) + G0 (1) < 1.
La probabilité d’extinction
h i
pe = P lim Zn = 0
n!1

est l’unique point fixe dans [0, 1) de G. De plus, on a aussi pe = P[M1 = 0], et donc,
conditionnellement à la non-extinction, M1 > 0, c’est-à-dire que Yn tend vers l’infini a
vitesse exponentielle.
Pour démontrer ceci, notons que G et toutes ses dérivées sont des fonctions croissantes
sur [0, 1], de sorte que G est convexe et a pour allure :

G(s)
1

µ(0) +

0
0 pe 1
3. PROCESSUS DE BRANCHEMENT 45

La valeur de G a l’origine est µ(0) 0, G(1) = 1, et il existe un unique autre point


t 2 [0, 1) tel que G(t) = t. La fonction génératrice G permet de calculer toutes les
fonctions génératrices des populations Yn , car
E[sYn+1 ] = E[E[sYn+1 |Yn ]] = E[G(s)Yn ],
de sorte que par récurrence,
E[sYn ] = G G · · · G(s) = G n (s).
Soit pe,n = P[Yn = 0]. C’est aussi G n (0), et comme G est croissante 0  G(0) = µ(0), on
en déduit la croissance de Ye,n vers sa limite pe . Comme G est continu, pe = G(pe ), donc
pe est un point fixe de G. Comme pe 6= 1, pe = t est l’unique point fixe de G dans [0, 1).
Considérons maintenant la probabilité pm = P[M1 = 0]. Notons que compte tenu de
la convergence dans L2 , E[M1 ] = 1, donc pm < 1. D’autre part, pm est un point fixe de
(i)
G. En effet, considérons les processus de Galton-Watson (Yn )i2[[1,Y1 ]] correspondant aux
Y1 individus de la première génération. Conditionnellement à Y1 , il s’agit de Y1 proces-
sus de Galton-Watson indépendants, de même loi que le processus originel, et donc tels
qu’existent des limites
(i)
(i) Yn
M1 = lim
n!1 mn
P 1 (i)
indépendantes et toutes de même loi que M1 . On a alors M1 = m1 Yi=1 M1 , et donc
pm = P[M1 = 0] = E[P[M1 = 0|Y1 ]] = E[(pm )Y1 ] = G(pm )
(i)
car M1 est nulle si et seulement si tous les M1 le sont. Par conséquent, pm = pe = t est
de nouveau l’unique point fixe de G dans [0, 1).

Références. Pour la théorie générale des martingales discrètes, on renvoie à


(1) D. Williams, Probability with Martingales, Cambridge University Press, 1991 ;
Part II.
(2) G. Grimmett and D. Stirzaker, Probability and Random Processes, 3rd edition,
Oxford University Press, 2001 ; §12.
L’extension au cas des temps continus et l’application à l’étude des mouvements browniens
est traité de façon exhaustive dans
(3) D. Revuz and M. Yor, Continuous Martingales and Brownian Motion, 3rd edition,
Grundlehren der Mathematischen Wissenschaften 293, Springer-Verlag, 1999.
Enfin, pour la théorie des processus de branchement, et de nombreuses généralisations de
l’étude du paragraphe 3, on conseille
(4) T. Harris, The Theory of Branching Processes, Dover, 1989.
Le chapitre 1 de cet ouvrage traite en particulier des processus de Galton-Watson simples
étudiés ici.

Vous aimerez peut-être aussi