Académique Documents
Professionnel Documents
Culture Documents
Martingales discrètes
Dans ce chapitre, (⌦, B, P) est un espace de probabilité, et F = (Fn )n2N est une fil-
tration de l’espace, c’est-à-dire une suite croissante de sous-tribus de B. Dans le cadre de
processus à temps discret définis sur (⌦, B, P), il faut comprendre Fn comme l’ensemble
des événements mesurables au temps n. Ainsi, on dira qu’une suite de variables aléa-
toires (Xn )n2N définies sur (⌦, B, P) forme un processus adapté relativement à la filtration
(Fn )n2N si Xn est Fn -mesurable pour tout temps n. Tout processus est adapté à la fil-
tration qu’il engendre, définie par Fn = (X0 , . . . , Xn ). On aura également besoin de la
notion de processus prévisible : ainsi, (Xn )n 1 est dit prévisible si Xn est Fn 1 -mesurable
pour tout temps n 1.
Exemple. Soit (Xn )n2N une chaîne de Markov de matrice de transition P sur un
espace d’états X. Une fonction sur X est dite harmonique pour P si pour tout x 2 X,
X
f (x) = (P f )(x) = P (x, y)f (y).
y2X
Dans ce cas, le processus (f (Xn ))n2N est une martingale pour la filtration engendrée par
la chaîne de Markov, car E[f (Xn+1 )|Fn ] = P f (Xn ) = f (Xn ). On obtient de même des
sous- et des sur-martingales à partir de fonctions sous- ou sur-harmoniques.
qui est un processus adapté issu de 0. Si (Xn )n2N est une martingale et (An )n2N est une
suite de variables aléatoires bornées, alors ((A · X)n )n2N est une martingale. De même,
si (Xn )n2N est une sur-martingale et (An )n2N est une suite de variables aléatoires bornées
positives, alors ((A · X)n )n2N est une sur-martingale.
En effet, dans le cas des martingales,
E[(A · X)n+1 |Fn ] = (A · X)n + E[An+1 (Xn+1 Xn )|Fn ]
= (A · X)n + An+1 (E[Xn+1 |Fn ] Xn ) = (A · X)n .
Dans le cas des sur-martingales, la même preuve s’adapte, et l’on peut alternativement uti-
liser le résultat élémentaire suivant : un processus adapté intégrable est une sur-martingale
si et seulement si sa partie prévisible au sens de la décomposition de Doob est un processus
décroissant (appelé le compensateur de la sur-martingale).
Exemple. Soit (Xn )n2N une marche aléatoire sur Z, d’incréments indépendants et
identiquement distribués Y1 , . . . , Yn , . . ., avec E[Y1 ] = 0. On interprète chaque variable
Yi = Xi Xi 1 comme le résultat d’un jeu aléatoire, et l’on décide à chaque étape i 1
d’une mise Ai 0 pour le i-ième tirage du jeu. Cette mise est donc Fi 1 -mesurable,
c’est-à-dire prévisible, et on peut imaginer que l’on décide de la mise Ai en fonction des
résultats précédents du jeu Y1 , . . . , Yi 1 . L’hypothèse E[Y1 ] = 0 assure que pour tout temps
n, E[Xn ] = 0, c’est-à-dire qu’au temps n on a en moyenne gagné autant de fois que l’on
a perdu. La proposition 3.3 assure que dans ce cas, quelque soit la stratégie des mises, le
gain au temps n
Xn
Gn = (A · X)n = Ai Y i
i=1
est également une martingale, de sorte qu’on a aussi E[Gn ] = 0 pour tout n. Autrement
dit, si un jeu est équilibré, alors aucune stratégie prévisible ne permet d’avoir des gains
en moyenne strictement positifs.
Soit (Xn )n2N une martingale. Comme toute fonction (f (Xn ))n2N d’un processus adapté
est de nouveau un processus adapté, sous des hypothèses d’intégrabilité, f (Xn ) = Mnf +Pnf
est la somme d’une martingale et d’un processus prévisible. Ceci fournit de nouvelles
techniques de constructions de martingales.
36 3. MARTINGALES DISCRÈTES
Exemple. Posons f (x) = x2 , et considérons une martingale (Xn )n2N dans L2 (⌦, B, P),
c’est-à-dire que chaque Xn est de carré intégrable. Alors, la partie prévisible de Xn2 est
donnée par
Pn+1 Pn = E[(Xn+1 )2 |Fn ] (Xn )2 = E[(Xn+1 Xn )2 |Fn ] 0.
Ainsi, il existe un unique processus prévisible, positif et croissant, appelé variation qua-
dratique de (Xn )n2N et noté hXin , tel que
n 1
X
hXin = E[(Xk+1 Xk )2 |Fk ] ; ((Xn )2 hXin )n2N est une martingale.
k=0
Exemple. Soit (Xn )n2N une marche aléatoire sur Z, avec Xn = Y1 + · · · + Yn somme
d’i.i.d. et E[etY1 ] < 1 pour un certain réel positif t. La transformée exponentielle Zn =
etXn n log E[e 1 ] est de nouveau une martingale, puisque
tY
Exemple. Soit (Xn )n2N une marche aléatoire simple sur Z, T = T 1 le temps d’at-
teinte de 1. Comme (Xinf(n,T ) )n2N est une martingale, pour tout n,
0 = E[Xinf(n,T ) ] = P[T n] + E[Xn T >n ]
Exemple. Soient a, b > 0, et T = inf(Ta , T b ). Comme (Xinf(n,T ) )n2N est une martin-
gale, pour tout n,
0 = E[Xinf(n,T ) ] = a P[Ta inf(n, T b )] b P[T b inf(n, Ta )] + E[Xn inf(Ta ,T b )>n
].
Comme la marche aléatoire simple est récurrente, Ta et T b sont finis presque sûrement,
donc la limite de l’expression précédente est
0 = a P[Ta T b ] b P[T b Ta ],
puisqu’on a la borne |E[Xn inf(Ta ,T b )>n
]| max(a, b) P[inf(Ta , T b ) > n] ! 0. On en
déduit :
b
P[Ta T b ] = ; E[XT ] = 0.
b+a
En règle générale, si l’on n’a pas de bonnes bornes sur T ou sur XT , il est faux
que E[XT ] = E[X0 ] pour un temps d’arrêt T . Le théorème suivant donne des conditions
suffisantes pour que ce soit vrai :
Théorème 3.5 (Doob). Soit T un temps d’arrêt fini presque sûrement, et (Xn )n2N
une martingale. Si E[|XT |] < 1 et limn!1 E[|Xn | T >n ] = 0, alors E[XT ] = E[X0 ]. Ces
hypothèses sont satisfaites dans les cas suivants :
La troisième condition suffisante du théorème est en particulier satisfaite lorsque (Xn )n2N
est l’intégrale stochastique d’un processus prévisible borné contre une martingale bornée.
2. Convergence de martingales
L’intérêt principal de la théorie des martingales est l’existence de puissants théorèmes
de convergence, semblables à la loi des grands nombres. Dans cette section, nous présen-
tons ces résultats en étudiant successivement la convergence p.s., dans L1 (⌦, B, P) et dans
les espaces Lp (⌦, B, P) avec p > 1.
2.1. Convergence presque sûre. Soit (Xn )n2N un processus adapté, a < b deux
réels. On note Mn (a, b) le plus grand entier k tel qu’existe deux suites entrelacées
0 s1 t 1 s2 t 2 · · · sk t k n
avec Xsi a et Xti b pour tout i. C’est le nombre de montées entre a et b, et c’est
une variable aléatoire Fn -mesurable. En effet, on peut associer à cette variable les temps
d’arrêt
Sk = inf{n > Tk 1 , Xn a}
Tk = inf{n > Sk , Xn b}
P1
et Mn (a, b) = k=1 Tk n est bien une somme de variables Fn -mesurables.
Proposition 3.6 (Nombre de montées). Soit (Xn )n2N une sur-martingale. On a
E[(Xn a) ]
E[Mn (a, b)] .
b a
P
En effet, soit Pn = 1 k=1 Sk <nTk , qui est un processus prévisible puisque Sk <nTk =
Sk <n (1 Tk <n ). Comme (Xn )n2N est une sur-martingale et (Pn )n2N est un processus
prévisible positif borné, ((P · X)n )n2N est une sur-martingale. Or,
n Mn (a,b)
X X
(P · X)n = Pi (Xi Xi 1 ) = (XTk XSk ) + (Xn XSMn (a,b)+1 ) SMn (a,b)+1 <n
i=1 k=1
(b a) Mn (a, b) (Xn a) .
Comme 0 = E[(P · X)0 ] E[(P · X)n ], l’inégalité est démontrée. On en déduit que les
nombres de montées sont finis p.s. sous des hypothèses assez faibles sur (Xn )n2N ; ceci
entraîne la convergence presque sûre. Plus précisément :
Théorème 3.7 (Convergence presque sûre des martingales). Soit (Xn )n2N une sur-
martingale. Il existe une limite p.s. X1 = limn!1 Xn si
Exemple. Soit (Xn )n2N une marche aléatoire de paramètres p et q = 1 p sur Z, par
exemple issue de 0, et avec p 6= q. On sait que Zn = ( pq )Xn est une martingale, et elle est
positive ; elle admet donc une limite p.s. Z1 , qui est intégrable. Les valeurs possibles de
Z1 sont dans l’adhérence des valeurs possibles de (Xn )n2N , c’est-à-dire dans
(✓ ◆ )
k
q
, k 2 Z t {0}.
p
Si Z1 = (q/p)k a probabilité positive pour une valeur k finie, alors avec probabilité positive
(Xn )n2N est stationnaire égale à k. Or, une marche aléatoire n’est jamais stationnaire, donc
Z1 = 0 presque sûrement. On en déduit que Xn ! 1 p.s. si p < q, et Xn ! +1 p.s.
si p > q. Notons que dans ce cas, on n’a pas convergence dans L1 , car E[X0 ] = 1 6= 0.
Théorème 3.9 (Convergence dans L1 (⌦, B, P) des martingales). Soit (Xn )n2N une
martingale. Les assertions suivantes sont équivalentes :
P
Exemple. On considère de nouveau la marche aléatoire biaisée Xn = nk=1 Yk , avec
P[Yk = 1] = 1 P[Yk = 1] = p = 1 q ; et l’on note T = inf(Ta , T b ), où a et b sont
deux entiers positifs. Si t est un réel fixé, alors la transformée exponentielle
etXn etXn
Zn = =
E[etY1 ]n (p et + q e t )n
est une martingale. La martingale arrêtée (Zinf(n,T ) )n2N est donc une martingale bornée
dans L1 , puisque le numérateur de Zn est borné par sup(eta , e tb ), et le dénominateur est
2. CONVERGENCE DE MARTINGALES 41
plus grand que 1 par convexité de l’exponentielle. Elle est donc en particulier uniformément
tX
intégrable, et sa limite ZT = Zinf(1,T ) = (p ete+q eT t )T satisfait
1 = E[Z0 ] = E[ZT ]
1 1
=e E
ta
XT =a +e tb
E XT = b .
(p e + q e t )T
t (p et + q e t )T
p
1± 1 4pqs2
Posons s = p e +q e , de sorte que e = ± (s) =
1 t t t
2ps
. Ces deux solutions donnent
deux équations linéaires pour les transformées de Laplace de T sur les événements XT = a
et XT = b :
1=( + (s))
a
E[sT XT =a ] +( + (s))
b
E[sT XT = b ]
On conclut que
b
( ( (s))b
+ (s))
E[sT XT =a ] = ;
( + (s))a+b
( (s))a+b
(q/p)b (( + (s))a ( (s))a )
E[sT XT = b ] = ;
( + (s))a+b ( (s))a+b
(( + (s))b ( (s))b ) + (q/p)b (( + (s))a ( (s))a )
E[sT ] = ,
( + (s))a+b ( (s))a+b
ce qui donne la loi de T .
✓ ◆a
p
P[S a] = P[Ta < 1] = .
q
La variable S suit donc une loi géométrique de paramètre 1 p
q
.
42 3. MARTINGALES DISCRÈTES
Théorème 3.11 (Convergence dans Lp (⌦, B, P) des martingales). Soit (Xn )n2N une
martingale dans Lp (⌦, B, P). Si
sup E[|Xn |p ] < 1,
n2N
alors (|Xn | )n2N est uniformément intégrable, et (Xn )n2N converge p.s. et dans Lp vers sa
p
limite X1 .
Ainsi, il suffit de vérifier le caractère borné dans Lp pour obtenir une convergence forte.
3. Processus de branchement
Les processus de branchement fournissent des exemples de martingales auxquelles s’ap-
pliquent l’ensemble
P1des résultats précédents. Soit µP
une mesure de probabilité sur N, telle
que µ(1) 6= 1 et k=0 k µ(k) < 1. On note m = 1
2
k=0 k µ(k). On fixe une famille dou-
blement indexée (⇣n,k )n,k2N de variables indépendantes et identiquement distribuées de
loi µ. Le processus de branchement de Galton-Watson de loi µ est la suite de variables
aléatoires (Yn )n2N définies récursivement par
Yn
X
Y0 = 1 ; Yn+1 = ⇣n,k .
k=1
(1) Supposons m < 1. Alors, comme Yn reste un entier pour tout n, en écrivant
Yn ' M1 mn , on en déduit que Yn ! 0 p.s., c’est-à-dire qu’il y a extinction
presque sûre (notons que r = 0 est un état absorbant de la chaîne de Markov
(Yn )n2N ).
(2) Si m = 1, alors Yn = Mn converge presque sûrement. Hors, aucun état de la
chaîne sauf 0 n’est absorbant, et d’autre part, une suite à valeurs entières qui
converge est stationnaire. Si Yn ! r 6= 0 avec probabilité non nulle, alors Yn
reste stationnaire à r avec probabilité non nulle. Mais par la propriété de Markov
et le lemme de Borel-Cantelli, Yn quitte p.s. l’état r une fois qu’il l’a atteint, ce
44 3. MARTINGALES DISCRÈTES
P n
E[( Yk=1 ⇣n,k )2 ] E[Yn ] h + E[Yn (Yn 1)] m2
E[(Mn+1 ) ] =
2
=
m2n+2 m2n+2
E[Yn ] (h m ) 2
(h m2 )
= E[(Mn )2 ] + = E[(M n ) 2
] + ,
m2n+2 mn+2
et donc
X 1
h m2 h m
sup E[(Mn ) ] 1 +
2
n+2
= 2 < 1.
n2N n=0
m m m
la fonction génératrice de la loi µ. On suppose m = G0 (1) > 1, et h = G00 (1) + G0 (1) < 1.
La probabilité d’extinction
h i
pe = P lim Zn = 0
n!1
est l’unique point fixe dans [0, 1) de G. De plus, on a aussi pe = P[M1 = 0], et donc,
conditionnellement à la non-extinction, M1 > 0, c’est-à-dire que Yn tend vers l’infini a
vitesse exponentielle.
Pour démontrer ceci, notons que G et toutes ses dérivées sont des fonctions croissantes
sur [0, 1], de sorte que G est convexe et a pour allure :
G(s)
1
µ(0) +
0
0 pe 1
3. PROCESSUS DE BRANCHEMENT 45