Vous êtes sur la page 1sur 227

UNIVERSIT DE LORRAINE

Olivier GARET

Probabilits et Processus Stochastiques


VERSION DE TRAVAIL DU 7 mars 2015
2
Table des matires

Table des matires i

Table des matires i

0 Variables de Bernoulli 1
0.1 La question de lexistence : de [0, 1] {0, 1}N . . . . . . . . . . 1
0.2 De {0, 1}N [0, 1] : o lon a envie des processus . . . . . . . . 3
0.3 Ingalits ; lois des grands nombres . . . . . . . . . . . . . . . 4
0.4 Variables de Rademacher et sries de Dirichlet . . . . . . . . . 6
0.4.1 Une srie de Dirichlet alatoire . . . . . . . . . . . . . 6
0.4.2 Comportement au bord . . . . . . . . . . . . . . . . . . 7
0.5 Exercices sur les variables de Bernoulli . . . . . . . . . . . . . 9
0.5.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 9

1 qui-intgrabilit 11
1.1 Premires proprits . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Application la convergence dans Lp . . . . . . . . . . . . . . 13
1.3 Une condition susante dqui-intgrabilit . . . . . . . . . . 14
1.4 Une version du lemme de Sche . . . . . . . . . . . . . . . . 14
1.5 Caractrisation par lqui-continuit . . . . . . . . . . . . . . . 14
1.6 qui-intgrabilit dune famille de lois . . . . . . . . . . . . . 15
1.7 Exercices sur lqui-intgrabilit . . . . . . . . . . . . . . . . . 17
1.7.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 17
1.7.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 17

2 Esprance conditionnelle 19
2.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 construction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Proprits . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.2 Ingalit de Jensen . . . . . . . . . . . . . . . . . . . . 26

i
ii TABLE DES MATIRES

2.2.3 Esprance conditionnelle sachant une variable (ou un


vecteur) alatoire . . . . . . . . . . . . . . . . . . . . . 27
2.3 Exercices sur lesprance conditionnelle . . . . . . . . . . . . . 30
2.3.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 30
2.3.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 30

3 Martingales 35
3.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.1 Filtrations et martingales . . . . . . . . . . . . . . . . 35
3.1.2 Dirences de martingales . . . . . . . . . . . . . . . . 36
3.1.3 Sous-martingales, sur-martingales . . . . . . . . . . . . 36
3.2 Premires ingalits . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.1 Martingales et fonctions convexes . . . . . . . . . . . . 37
3.2.2 Ingalit de Kolmogorov . . . . . . . . . . . . . . . . . 37
3.3 Convergence des martingales de carr intgrable . . . . . . . . 38
3.4 Temps darrts . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.5 Convergence L1 des martingales . . . . . . . . . . . . . . . . . 43
3.5.1 Thorme des traverses montantes . . . . . . . . . . . 43
3.5.2 Le thorme de convergence de Doob . . . . . . . . . . 45
3.6 Dcomposition de Doob (*) . . . . . . . . . . . . . . . . . . . 46
3.7 Exercices sur les martingales . . . . . . . . . . . . . . . . . . . 48
3.7.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 48
3.7.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 48

4 Complments de thorie de la mesure 53


4.1 Rappels de topologie . . . . . . . . . . . . . . . . . . . . . . . 53
4.1.1 Topologie produit . . . . . . . . . . . . . . . . . . . . . 53
4.1.2 Espaces polonais . . . . . . . . . . . . . . . . . . . . . 54
4.2 Notion de loi conditionnelle . . . . . . . . . . . . . . . . . . . 57
4.2.1 Le thorme gnral . . . . . . . . . . . . . . . . . . . 57
4.2.2 Loi dun vecteur sachant un autre . . . . . . . . . . . . 61
4.2.3 chantillonneur de Gibbs . . . . . . . . . . . . . . . . 62
4.3 Thorme de Radon-Nikodm . . . . . . . . . . . . . . . . . . 63
4.4 Exercices sur les complments . . . . . . . . . . . . . . . . . . 67
4.4.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 67
4.4.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 67

5 Ingalits 69
5.1 Ingalit dEfronStein . . . . . . . . . . . . . . . . . . . . . . 69
5.2 Lingalit de HoedingAzuma . . . . . . . . . . . . . . . . . 70
5.2.1 Le thorme . . . . . . . . . . . . . . . . . . . . . . . . 70
TABLE DES MATIRES iii

5.2.2 Principe de Maurey . . . . . . . . . . . . . . . . . . . . 73


tude dun exemple . . . . . . . . . . . . . . . . . . . . 74
5.3 Ingalit de Harris . . . . . . . . . . . . . . . . . . . . . . . . 74
5.4 Exercices sur les ingalits . . . . . . . . . . . . . . . . . . . . 76
5.4.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 76
5.4.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 78

6 Statistiques exhaustives 79
6.1 Hypothse de domination dominante privilgie . . . . . . . 80
6.2 Thorme de factorisation de Neyman-Fisher . . . . . . . . . . 81
6.3 Amlioration de Rao-Blackwell . . . . . . . . . . . . . . . . . 85
6.4 Statistiques exhaustives minimales . . . . . . . . . . . . . . . 86
6.5 Statistiques compltes . . . . . . . . . . . . . . . . . . . . . . 87
6.6 Modles exponentiels . . . . . . . . . . . . . . . . . . . . . . . 88
6.7 Exercices sur les statistiques exhaustives . . . . . . . . . . . . 90
6.7.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 90
6.7.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 90

7 Information de Fisher 93
7.1 Hypothses . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.2 Ingalit de Cramer-Rao . . . . . . . . . . . . . . . . . . . . . 95
7.3 Quelques proprits . . . . . . . . . . . . . . . . . . . . . . . . 96
7.3.1 Information de Fisher dun produit . . . . . . . . . . . 96
7.3.2 Information de Fisher dune statistique . . . . . . . . . 97
7.4 Exercices sur linformation de Fisher . . . . . . . . . . . . . . 99
7.4.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 99
7.4.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 99

8 Loi dun processus 101


8.1 Loi dun processus . . . . . . . . . . . . . . . . . . . . . . . . 101
8.2 Thorme dexistence de Kolmogorov . . . . . . . . . . . . . . 103
8.2.1 Variables indpendantes . . . . . . . . . . . . . . . . . 105
8.2.2 Loi markovienne . . . . . . . . . . . . . . . . . . . . . 105
8.3 Processus rels stationnaires (temps discret) . . . . . . . . . . 106
8.4 Processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 108
8.4.1 Caractrisation . . . . . . . . . . . . . . . . . . . . . . 108
8.4.2 Condition dexistence . . . . . . . . . . . . . . . . . . . 109
8.4.3 Processus gaussiens stationnaires . . . . . . . . . . . . 110
8.5 Exercices sur les processus . . . . . . . . . . . . . . . . . . . . 111
8.5.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 111
8.5.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 113
iv TABLE DES MATIRES

9 Chanes de Markov 115


9.1 Dfinition et caractrisations . . . . . . . . . . . . . . . . . . . 115
9.1.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . 115
9.1.2 Caractrisation par lesprance conditionnelle . . . . . 115
9.1.3 Dynamique markovienne . . . . . . . . . . . . . . . . . 116
9.2 Matrice stochastique . . . . . . . . . . . . . . . . . . . . . . . 117
9.2.1 Existence des chanes de Markov . . . . . . . . . . . . 117
9.2.2 Point de vue fonctionnel (*) . . . . . . . . . . . . . . . 118
9.2.3 Puissances des matrices stochastiques . . . . . . . . . . 120
9.2.4 Graphe associ une matrice stochastique . . . . . . . 121
9.3 Proprit de Markov . . . . . . . . . . . . . . . . . . . . . . . 123
9.3.1 Le thorme . . . . . . . . . . . . . . . . . . . . . . . . 123
9.3.2 Analyse au premier pas . . . . . . . . . . . . . . . . . . 124
9.4 Exercices sur les chanes de Markov . . . . . . . . . . . . . . . 126
9.4.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 126
9.4.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 126

10 Rcurrence et mesures invariantes 135


10.1 Temps darrt et proprit de Markov forte . . . . . . . . . . . 135
10.2 Classification des tats . . . . . . . . . . . . . . . . . . . . . . 137
10.3 Mesures invariantes . . . . . . . . . . . . . . . . . . . . . . . . 140
10.4 Thorme de la probabilit stationnaire . . . . . . . . . . . . . 142
10.5 Thorme ergodique des chanes de Markov . . . . . . . . . . 145
10.5.1 Convergence presque sre des frquences empiriques . . 145
10.5.2 Frquences empiriques et probabilits invariantes . . . 147
10.5.3 Calcul dune mesure invariante partir de la loi des
trajectoires issues dun point . . . . . . . . . . . . . . . 149
10.6 Retour la classification des tats (*) . . . . . . . . . . . . . . 150
10.7 Exercices sur la rcurrence et les mesures invariantes . . . . . 153
10.7.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 153
10.7.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 155

A Indications 159
A.1 Exercices sur les variables de Bernoulli . . . . . . . . . . . . . 159
A.2 Exercices sur lqui-intgrabilit . . . . . . . . . . . . . . . . . 159
A.3 Exercices sur lesprance conditionnelle . . . . . . . . . . . . . 160
A.4 Exercices sur les martingales . . . . . . . . . . . . . . . . . . . 161
A.5 Exercices sur les complements . . . . . . . . . . . . . . . . . . 163
A.6 Exercices sur les ingalits . . . . . . . . . . . . . . . . . . . . 163
A.7 Exercices sur les statistiques exhaustives . . . . . . . . . . . . 164
A.8 Exercices sur linformation de Fisher . . . . . . . . . . . . . . 165
TABLE DES MATIRES v

A.9 Exercices sur les processus . . . . . . . . . . . . . . . . . . . . 165


A.10 Exercices sur les chanes de Markov . . . . . . . . . . . . . . . 167
A.11 Exercices sur la rcurrence et les mesures invariantes . . . . . 170

B Solutions des exercices corrigs 173


B.1 Exercices sur les Bernoulli . . . . . . . . . . . . . . . . . . . . 173
B.2 Exercices sur lqui-intgrabilit . . . . . . . . . . . . . . . . . 174
B.3 Exercices sur lesprance conditionnelle . . . . . . . . . . . . . 176
B.4 Exercices sur les martingales . . . . . . . . . . . . . . . . . . . 178
B.5 Exercices sur les complments . . . . . . . . . . . . . . . . . . 179
B.6 Exercices sur les ingalits . . . . . . . . . . . . . . . . . . . . 180
B.7 Exercices sur les statistiques exhaustives . . . . . . . . . . . . 184
B.8 Exercices sur linformation de Fisher . . . . . . . . . . . . . . 185
B.9 Exercices sur les processus . . . . . . . . . . . . . . . . . . . . 187
B.10 Exercices sur les chanes de Markov . . . . . . . . . . . . . . . 192
B.11 Exercices sur la rcurrence et les mesures invariantes . . . . . 194

C Problmes 203
C.1 Problme 1 : nombres de Stirling . . . . . . . . . . . . . . . . 203
C.2 Problme 2 : thorme dErds-Feller et Pollard . . . . . . . . 205

D Solutions des problmes 207


D.1 Solution du problme 1 . . . . . . . . . . . . . . . . . . . . . . 207
D.2 Solution du problme 2 . . . . . . . . . . . . . . . . . . . . . . 210

Bibliographie 217

Index 218
vi TABLE DES MATIRES
Chapitre 0

La premire gorge de
processus : les variables de
Bernoulli

Le premier processus que nous allons tudie est celui form par une
suite de variables de Bernoulli indpendantes. Cest un modle simple, mais
susamment riche pour permettre de voir, ou revoir, un certain nombre de
questions importantes de la thorie des probabilits.

0.1 La question de lexistence : de [0, 1] {0, 1}N


La premire question est la question de lexistence. Est-on capable de fa-
briquer un espace probabilis (, F, P) sur lequel vivent une suite de variables
indpendantes ? La rponse, positive, est donne par le thorme suivant :
Thorme 1. Soit g 2 un entier naturel fix.
On considre lespace probabilis (, F, P) = ([0, 1[, B([0, 1[), [0,1[ ).
Soit g 2 un entier. On pose X0g () = . On dfinit les variables Agi
et Xig par les rcurrences Xig = {gXi1
g
} et Agi = gXi . Alors, pour tout
[0, 1[, on a

+
Agi ()
= X0 () = i+1
avec Agi {0, 1, . . . , g 1}.
i=0 g
La suite Agi ()contient une infinit de termes dirents de g 1 : cest
le dveloppement g-adique de . La suite (Agi )i0 est une suite de variables
alatoires indpendantes suivant la loi uniforme sur {0, . . . , g 1}. En parti-
culier, pour g = 2, (Agi )i0 est une suite de variables alatoires indpendantes
de Bernoulli de paramtre 1/2.

1
2 CHAPITRE 0. VARIABLES DE BERNOULLI

Dmonstration. Par dfinition de la partie fractionnaire, il est immdiat que


la suite des Xig prend ses valeurs dans [0, 1[. Comme 0 gXig < g, il est
galement clair que Agi prend ses valeurs dans {0, . . . , g 1}. On a gXi =
gXi + {gXi }, soit gXi = Ai + Xi+1 , ou encore Xgii = gAi+1
i
+ Xgi+1
i+1
. Ainsi
( )

n
Ai
n
Xi Xi+1 Xj Xn+1
= i+1 = n+1 .
i=j g i+1 i=j gi g g j g

Xj
+
Ai
Soit en faisant tendre n vers linfini : gj
= g i+1
. En particulier, pour j =
i=j
0, on obtient lcriture voulue. Reste voir que Ai ne peut tre constamment
gal j 1 partir dun certain rang. En eet, si on avait Ai = g 1 pour

+
i > j, on aurait Xj = g j g1
g i+1
= 1, ce qui est exclu, car Xj [0, 1[.
i=j
On va montrer par rcurrence que pour tout n, on a Hn :
(A0 , . . . , An ) et Xn+1 sont indpendants
(A0 , . . . , An ) suit la loi uniforme sur {0, . . . , g 1}n+1
Xn+1 suit la loi uniforme sur [0, 1].
Notons dabord que pour tout n 1, on a
{An1 = bn , Xn J} = {gXn1 = bn , {gXn1 } J}
{ }
J + bn
= {gXn1 J + bn } = Xn1
g
Ainsi pour n = 1, on a
J + bn J + bn 1
P(A0 = g0 , X1 J) = P(Xn1 ) = ( ) = (J),
g g g
ce qui montre que H0 est vraie. Ensuite, on procde par rcurrence : Comme
{A0 = b0 , . . . , An = bn , An+1 = bn+1 , Xn+1 J}
J + bn+1
= {A0 = b0 , . . . , An = bn , Xn },
g
lhypothse de rcurrence nous donne
P(A0 = b0 , . . . , An = bn , An+1 = bn+1 , Xn+1 J)
J + bn
= P(A0 = b0 , . . . , An = bn )P(Xn )
g
1 J + bn 1 1
= n+1 ( ) = n (J)
g g g g
1
= n+2 (J)
g
0.2. DE {0, 1}N [0, 1] : O LON A ENVIE DES PROCESSUS 3

ce qui montre que lhypothse est vrifie au rang n + 1.


Ainsi pour tout n 1 (A0 , . . . An1 ) suit la loi uniforme sur {0, . . . , g1}n .
Cependant la loi uniforme sur un produit densembles finis, cest le produit
des lois uniformes sur les ensembles fini : les variables (A0 , . . . An1 ) sont des
variables alatoires indpendantes suivant la loi uniforme sur {0, . . . , g 1}.
Comme cest vrai pour tout n, la suite (An )n0 est une suite de variables
alatoires suivant la loi uniforme sur {0, . . . , g 1}.

0.2 De {0, 1}N [0, 1] : o lon a envie des pro-


cessus
La section prcdente nous a dmontr que si un espace tait susamment
riche pour porter une variable alatoire suivant la loi uniforme sur [0, 1], alors
il supportait une suite de pile ou face indpendantes. Autrement dit, si on
sait simuler une variable alatoire suivant la loi uniforme sur [0, 1] , on sait
simuler une suite de pile ou face indpendantes. Le thorme qui suit montre
que la rciproque est vraie.
Thorme 2. Soit (, F, P) un espace probabilis et (Yn )n0 une suite de
variables de Bernoulli de paramtre 1/2 sur cet espace. Alors, la variable

alatoire V dfinie par V = + Yi
i=0 2i+1 suit la loi uniforme sur [0, 1]

Dmonstration. La convergence de la srie est vidente. Il sut donc de


n1 xi n1 Yi
caractriser la loi de V . Notons n (x0 , . . . , xn ) = i=0 2i+1
et Vn = i=0 2i+1
.
Comme Vn = n ((X0 , . . . , Xn1 )), si on note n = ber(1/2)n et n la loi de
Vn , comme n est la loi de (X0 , . . . , Xn1 ), on peut dire que n est la loi
image de n par n .
n1 A2i
Revenons la suite de la section prcdente : si lon pose Sn = i=0 2i+1
,
de sorte que Sn = n (A20 , . . . , Ang ). Comme n est la loi de (X0 , . . . , Xn1 ), la
loi de Sn sous [0,1[ est galement n : pour toute fonction continue borne

f (Sn ()) d() = f (x) dn (x).
[0,1] [0,1]

Nous savons que Sn () tend vers pour tout [0, 1[. La convergence
presque sre entrane la convergence en loi, donc

lim f (Sn ()) d() = f (x) d(x),
n+ [0,1] [0,1]

soit
lim f () dn () = f (x) d(x),
n+ [0,1] [0,1]
4 CHAPITRE 0. VARIABLES DE BERNOULLI

Mais comme n est la loi de Vn , on vient de montrer que Vn converge en loi


vers U [0, 1]. Comme Vn converge presque srement vers V , Vn converge en
loi vers V , donc la loi de V est la loi uniforme sur [0, 1].
La preuve est un peu complique. On aurait envie de faire plus court et
de dire : daprs le Thorme 1 la loi image de ber(1/2)N par


+
xi
x 7 (x) =
i=0 2i+1

est U [0, 1]. Or, la loi de (Yn )n1 est ber(1/2)N , donc V = ((Xn )n0 est
U [0, 1]. Ce genre de raisonnement sera facile avec la notion de loi dun pro-
cessus, que nous verrons au chapitre 8.
Mais ds prsent, nous pouvons en donner comme consquence le rsul-
tat suivant :

Thorme 3. Sur (, F, P) = ([0, 1[, B([0, 1[), [0,1[ ), on peut faire vivre une
suite de variables indpendantes suivant la loi uniforme sur [0, 1].
+ A2
(2j+1)2i
Dmonstration. Il sut de poser Zj = i=0 2i
et dappliquer conscu-
tivement les deux thormes prcdents.

0.3 Ingalits ; lois des grands nombres


Les variables de Bernoulli de paramtre 1/2 ont leurs soeurs jumelles :
les variables de Rademacher qui valent 1 et 1 avec probabilit 1/2. Ainsi
X suit une loi de Bernoulli de paramtre 1/2 si et seulement si Y = 2X 1
est une variable de Rademacher.
Les sommes Bn = X1 + . . . Xn et Sn = Y1 + + Yn sont lies par
Sn = 2Bn n. Ainsi, les (Sn ), qui forment une marche alatoire sur Z,
sont lies la loi binomiale. On transfre ainsi couramment et facilement les
rsultats de lun vers lautre.
On sait par exemple que si les (Yi ) sont des Rademacher indpendantes,
la loi des grands nombres dit que Sn = Y1 + + Yn vrifie Sn /n tend vers 0
presque srement. Peut-on faire mieux ? Oui.

Thorme 4. Soient (Yi )i1 des variables de Rademacher indpendantes.


Pour tout > 1/2,
Y1 + + Yn
lim = 0.
n+ n
On va sappuyer sur un lemme :
0.3. INGALITS ; LOIS DES GRANDS NOMBRES 5

Lemme 1. Soient (Yi )i1 des variables de Rademacher indpendantes. On


pose Sn = Y1 + + Yn . Alors pour tout x > 0 et tout n 0 :
{ }
x2
P(|Sn ESn | > x) 2 exp .
2n
Dmonstration. Rappelons lingalit de Hoeding (voir par exemple Garet
Kurtzmann, page 346)
Proposition 1. Soit (Xn )n une suite de variables alatoires relles indpen-
dantes. Supposons quil existe deux suites de rels (an )n0 et (bn )n0 telles
que, pour tout n 0, an < bn et
P(an Xn bn ) = 1.
Posons Sn = X1 + . . . + Xn . On a alors pour tout x > 0 et tout n 0 :







2x2
P(|Sn ESn | > x) 2 exp .


n

(bi ai )2

i=1

Ici, on peut prendre les bornes an = 1 et bn = 1, ce qui nous donne


2x2
P(|Sn | > x) 2 exp( ).
4n
On verra plus loin au chapitre 5 une forme plus gnrale de lingalit de
Hoeding, qui sapplique certaines variables dpendantes.
Mais pour lheure, si on ne veut pas admettre lingalit de Hoeding, il
est possible, dans ce cas particulier, de donner une preuve plus simple : on
a, pour tout > 0
EeSn (Eec1 )n
P(|Sn | > x) 2P(Sn > x) 2P(eSn > ex ) 2 = .
ex ex
On a

+
2k 2k
+
2
Eec1 = cosh = k
= exp( ),
k=0 (2k)! k=0 2 k! 2
do
2
P(|Sn | > x) 2 exp(fn,x ()) avec fn,x () = x n .
2
Il faut videmment rendre fn,x () maximal, ce qui est facile puisque cest un
polynme du second degr : on prend = x/n, do
x2
P(|Sn | > x) 2 exp( ).
2n
6 CHAPITRE 0. VARIABLES DE BERNOULLI

On peut maintenant passer la preuve du thorme :

Dmonstration. Daprs le lemme,

n2
P(|Sn | > n1/2+ ) 2 exp( ).
2
2 2
La srie de terme gnral exp( n2 ) converge (par exemple parce que n2
2 log n pour n assez grand), donc daprs le lemme de Borel-Cantelli, presque
srement |Sn | n1/2+ pour n assez grand, ce qui donne le rsultat voulu.

0.4 Variables de Rademacher et sries de Di-


richlet
0.4.1 Une srie de Dirichlet alatoire
Thorme 5. Soit (cn )n1 une suite de variables alatoires indpendantes
identiquement distribues avec P(cn = 1) = P(cn = 1) = 12 . Alors la srie
de terme gnral ncns converge presque srement pour s > 12 .

Dmonstration. Il sagit de mettre ensemble deux rsultats :


un rsultat danalyse sur les sries de Dirichlet : si les sommes partielles

sn = nk=1 ck vrifient sn = O(n ) pour un certain 0, alors la srie

de Dirichet ncns converge pour s > . 1
un rsultat de probabilit : dans le cas qui nous intresse, on a presque
srement sn = O(n1/2+ ) pour tout > 0.
Le rsultat de probabilit a t montr plus haut. Il ny a plus qu montrer le
ck
rsultat danalyse : On va montrer que la srie de terme gnral k+ converge

ds que M = supn1 |sn n | < +.


n
ck
n
1
= (sk sk1 )
k=1 k + k=1 k +
n
1
n1
1
= sk sk
k=1 k + k=0 (k + 1)+
sn
n1
1 1
= +
+ sk ( + )
n k=1 k (k + 1)+

1. Vous avez sans doute dj rencontr le cas o = 0 et cn = ein avec non congru
0 modulo 2.
0.4. VARIABLES DE RADEMACHER ET SRIES DE DIRICHLET 7

sn ck
Comme lim n+
= 0, la srie de terme gnral k+
est de mme nature
n+
1
que la srie de terme gnral sk ( k+ (k+1)1 + ). Montrons que cette dernire
converge absolument. Daprs lingalit des accroissements finis, on a
1 1 +
| | .
k + (k + 1)+ k ++1
Comme |sk | M k , on a alors
1 1 M ( + )
|sk ( )| ,
k + (k + 1) + k 1+
ce qui assure la convergence voulue.
Remarquons que si on connait la thorie des sries de variables alatoires
indpendantes, on a une preuve beaucoup plus rapide, qui nutilise pas la
transformation dAbel : les variables ncns sont centres, et le terme gnral de la
srie des variances est 4n12s , qui converge pour s > 1/2, donc la srie converge
presque srement (et aussi dans L2 ). Voir par exemple GaretKurtzmann,
page 344.
Remarque culturelle : notons (n) la fonction de Moebius, dfinie par
(n) = (1)k si n est le produit de k nombre premiers distincts, 0 sinon. si
vous parvenez dmontrer que pour la suite cn = (n), on a sn = O(n1/2+ )
pour tout > 0, et donc que la srie des (n)
ns
converge pour s > 1/2, alors vous
avez dmontr un rsultat quivalent la fameuse conjecture de Riemann :
les zros non-triviaux de la fonction de Riemann sont tous de partie relle
1/2. Pour voir que cette proprit entrane la conjecture de Riemann, voir
par exemple Colmez, pages 319-320.

0.4.2 Comportement au bord


Thorme 6. Soit (cn )n1 une suite de variables alatoires indpendantes
identiquement distribues avec P(cn = 1) = P(cn = 1) = 21 On pose, pour

s > 1/2, (s) = + cn
n=0 ns . Alors, on a la convergence en loi
1
2h ( + h) = N (0, 1) quand h tend vers 0 par valeurs positives
2

Dmonstration. Posons SN (s) = N cn
n=0 ns . La fonction caractristique de
N
SN (s) vaut t 7 n=0 cos( ns ). Comme eitSn (s) converge presque srement
t

vers eit (s) , le thorme de convergence domine nous donne

+
t
(s) (t) = cos( ),
n=0 ns
8 CHAPITRE 0. VARIABLES DE BERNOULLI

do

+
t(1 + 2h)1/2
(1/2+h) (t) = cos( )
(1+2h) n=0 n1/2+h
Par ailleurs

t2
+
t2 (1 + 2h)1
exp( ) = exp( )
2 n=0 2 n1+2h
On en dduit
t2
+
t(1 + 2h)1/2 t2 (1 + 2h)1
| (1/2+h) (t)exp( )| | cos( )exp( )|.
(1+2h) 2 n=0 n1/2+h 2 n1+2h
2
Mais il existe A tel que pour tout rel x | cos(x) exp( x2 )| Ax4 . On en
dduit pour h ]0, 1] :

t2 At2 At2
| (1/2+h) (t) exp( )| (1 + 2h)2 (1 + 2h)2 .
(1+2h) 2 (2 + 2h) (4)

Il est bien connu que (1 + h) h1 au voisinage de 0 : on en dduit la


2
convergence de (1/2+h) (t) vers exp( t2 ), et donc, daprs le thorme de
(1+2h)

Levy, la convergence en loi de
(1/2+h)
vers N (0, 1), puis, avec lquivalent
(1+2h)
(1 + 2h) (2h)1 , la convergence en loi voulue.
Donnons une preuve courte de lquivalent (1 + h) h1 au voisinage
de 0 : avec lingalit des accoissements finis, on a, pour h > 0


+
1 k+1
+
1
+
1
| dt| (2),
k=1 k 1+h k=1 k t1+h k=1 k 2+h
do
1
(1 + h) = + O(1).
h
0.5. EXERCICES SUR LES VARIABLES DE BERNOULLI 9

0.5 Exercices sur les variables de Bernoulli


0.5.1 Exercices corrigs
Exercice 1. Considrons une suite (n )n1 de variables alatoires indpen-
dantes suivant la loi de Bernoulli de paramtre p ]0, 1[. Soit X la variable
alatoire dfinie par :

n
X= n

n=1 2

On note p la loi de X. Pour quelle(s) valeur(s) de p la variable X admet-elle


une densit par-rapport la mesure de Lebesgue ? lien vers lindication lien
vers la solution
10 CHAPITRE 0. VARIABLES DE BERNOULLI
Chapitre 1

qui-intgrabilit

Dfinition. On dit quune famille A de variables alatoires dfinies sur les-


pace probabilis (, F, P) est qui-intgrable (ou uniformment intgrable) si

lim sup E[|X| 11{|X|M ]} ] = 0.


M + XA

1.1 Premires proprits


Remarque 1. Une famille constitue dune seule variable intgrable
est qui-intgrable.
La runion de deux familles qui-intgrables est qui-intgrable. Par
suite une famille finie de variables intgrables est qui-intgrable.
Une famille qui-intgrable est toujours borne dans L1 .
En eet, si M est choisi tel que sup E[|X| 11{|X|M ]} ] 1, alors
XA
comme |X| M + |X| 11{|X|M } , on a E[|X|] M + 1 pour tout
X A.
Si la famille A est qui-intgrable et que pour tout Y B, il existe
X A avec |Y | |X|, alors la famille B est qui-intgrable.
Si la famille A est qui-intgrable, la famille (max(|X|, |Y |))(X,Y )A2
est qui-intgrable.
En eet, max(|X|, |Y |) 11{max(|X|,|Y |})M } |X| 11{|X|M } + |Y | 11{|Y |M }
entrane
E[max(|X|, |Y |) 11{max(|X|,|Y |})M } ] E[|X| 11{|X|M } ] + E[|Y | 11{|Y |M } ].
Par suite, si la famille A est qui-intgrable, la famille (X +Y )(X,Y )A2
est qui-intgrable.
En eet, il sut de remarquer que |X + Y | 2 max(|X|, |Y |) et dap-
pliquer les remarques prcdentes.

11
12 CHAPITRE 1. QUI-INTGRABILIT

Le rsultat principal est le suivant.


Thorme 7. Soit (Xn )n1 une suite qui-intgrable de variables alatoires.
On suppose que Xn converge en loi vers X lorsque n tend vers linfini. Alors
X est intgrable et la suite (EXn )n1 converge vers EX.
Pour ce rsultat, on va avoir besoin dun lemme intermdiaire.

Lemme 2. Si (Xn )n1 converge en loi vers X, alors E|X| lim E|Xn |.
n+

Dmonstration. Comme |Xn | converge en loi vers |X|, on peut se ramener


au cas o les variables Xn sont positives. On a pour tout n,

EXn = P(Xn > t) d(t).
[0,+[

On sait que P(Xn > t) converge vers P(X > t) en tous les points de continuit
de FX . Or les points de discontinuit de FX sont au plus dnombrables, donc
P(Xn > t) converge -presque partout vers P(X > t). On peut donc appliquer
le lemme de Fatou

EX = P(X > t) d(t) = lim P(Xn > t) d(t)
[0,+[ [0,+[ n+

lim P(Xn > t) d(t)
n+ [0,+[

= lim EXn .
n+

Remarque 2. Certains auteurs invoquent ce thorme sous le nom de lemme


de Fatou.
On peut maintenant passer la dmonstration du thorme.
Dmonstration du thorme 7. Daprs le lemme X est intgrable, donc {Xn ; n
1} {X} est qui-intgrable. tant fix, on peut trouver M tel que

sup E[Xn 11{Xn M } ] et E[X1


1{XM } ] . (1.1)
n1

Notons que

E[Xn ] = E[Xn M ] + E[(Xn M )1


1{Xn M } ]
et E[X] = E[X M ] + E[(X M )11{XM } ].
1.2. APPLICATION LA CONVERGENCE DANS LP 13

Comme 0 (Xn M )1 1{Xn M } Xn11{Xn M } et


0 (X M )1
1{XM } X11{XM } , on en dduit que
|E[Xn ] E[X]| |E[Xn M ] E[X M ]| + .
Mais la fonction x 7 x M est continue borne sur R+ , donc, par dfinition
de la convergence en loi lim E[Xn M ] = E[X M ], do
n+

lim |E[Xn ] E[X]| ,


n+

et comme est quelconque, lim |E[Xn ] E[X]| = 0, ce qui donne le


n+
rsultat voulu.
Remarque 3. On pourrait dvelopper la notion dqui-intgrabilit sur un
espace mesur (pas ncessairement un espace probabilis) en disant que (fn )
est qui-intgrable si

lim sup |fn | 11{|fn |M } d = 0.
M + n1

Dans ce cas, le theorme 7 sappelle thorme de Vitali. Mais ce cadre est


beaucoup moins intressant car la convergence presque partout jointe lqui-
intgrabilit nimplique pas la convergence des intgrales.
Exemple: On prend pour la mesure de Lebesgue et fn = n111[n,2n] . Pour

M > 1, on a sup |fn | 11{|fn |M } d = 0 et fn converge partout vers 0.
n1
Cependant, lintgrale de fn est constante gale 1.

1.2 Application la convergence dans Lp


Corollaire 1. Soit (Xn )n1 une suite de variables alatoires. On suppose que
Xn converge en probabilit vers X lorsque n tend vers linfini. Si la famille
(|Xn |p )n1 est qui-intgrable, alors X Lp et Xn converge dans Lp vers X.
Dmonstration. Si Xn converge en probabilit vers X, alors la suite (Yn )
dfinie par Yn = |Xn X|p converge en probabilit, donc en loi, vers 0. La
suite |Xn |p est qui-intgrable, donc |X|p est intgrable, soit X Lp .
Il reste voir que (Yn ) est qui-intgrable, ce qui dcoule de lingalit
Yn 2p max(|Xn |p , |X|p ) et des remarques faites plus haut. Il sut alors
dappliquer le thorme la suite (Yn )n1 .
14 CHAPITRE 1. QUI-INTGRABILIT

1.3 Une condition susante dqui-intgrabilit


La manire la plus simple de montrer lqui-intgrabilit dune famille est
de montrer sa bornitude dans Lp pour un certain p > 1.
En eet si E[|X|p ] C pour tout X A, on a pour tout X A,

|X|p E[|X|p ] C
E[|X|1
1{|X|M } ] E[ p1
11{XM } ] p1
p1 .
M M M
Ainsi, si (Xn )n1 converge en probabilit vers X et que la suite (Xn )n1 est
borne dans Lq , on sait que Xn converge vers X dans Lp pour p < q.

1.4 Une version du lemme de Sche


On dit parfois que lqui-intgrabilit est ce qui manque la convergence
presque sre pour avoir la convergence L1 . Le thorme suivant prcise (et
renforce) cet nonc.

Thorme 8. Soit (Xn )n1 une suite de variables alatoires positives, in-
tgrables, convergeant en loi vers une variable alatoire X intgrable. On
suppose que EXn tend vers EX. Alors les variables alatoires (Xn )n1 sont
uniformment intgrables.

Dmonstration. Comme

E[X 11{XM } ] = E[X] P(t < X < M ) d(t)
[0,M ]

est vraie pour toute variable alatoire positive X, on a la convergence de


E[Xn 11{Xn M } ] vers E[X 11{XM } ] si M est un point de continuit de X.
On peut trouver M tel que E[X 11{XM } ] < . Si M nest pas un point de
continuit de FX , on le remplace par un point de continuit M de FX tel
que M M . Pour n0 assez grand, on a E[Xn 11{Xn M } ] < pour n n0 .
Comme la famille finie X1 , . . . , Xn0 1 est qui-intgrable, il existe M tel que
E[Xn 11{Xn M } ] < pour tout n < n0 .
Ainsi si on prend M1 = max(M , M ), on a E[Xn 11{Xn M1 } ] < pour tout
n 1.

1.5 Caractrisation par lqui-continuit


Thorme 9. La famille A de variables alatoires dfinies sur lespace pro-
babilis (, F, P) est qui-intgrable si et seulement si elle est borne dans L1
1.6. QUI-INTGRABILIT DUNE FAMILLE DE LOIS 15

et vrifie
lim sup E[|X| 11A ] = 0.
XA
0 AF :P(A)

Dmonstration. On a dj vu quune famille qui-intgrable est borne. Main-


tenant Pour tout A F , X A et M > 0, on a

|X|1
1A |X|1
1{|X|M } + M11A .

Fixons > 0. Lhypothse dqui-intgrabilit nous dit quon peut trouver


M tel que pour tout X A E[|X|1
1{|X|M } ] /2. Maintenant, pour 2M

,
pour tout X A, P(A) entrane

E[|X|1
1A ] E[|X|1
1{|X|M } ] + M P(A) .

Rciproquement, supposons que la famille A est borne dans L1 et vrifie

lim sup E[|X| 11A ] = 0.


XA
0 AF :P(A)

Soit > 0. On peut trouver > 0 tel que pour tout X A, P(A)
sup E[|X|]
XA
entrane E[|X|1
1A ] . Maintenant, si M
, si je pose A = {|X|
E[|X|]
M }, on a P(A) M
, donc

E[|X|1
1{|X|M } ] = E[|X|1
1A ] .

1.6 qui-intgrabilit dune famille de lois


Dans ce qui prcde, lqui-intgrabilit a t prsent comme une pro-
prit dune famille de variables alatoires dfinies sur un mme espace pro-
babilis (, F, P). Cependant, si on convient de dire quune famille M de
mesures de probabilits sur R est qui-intgrable si et seulement

lim sup |x| d = 0,
M + A R\[M,M ]

on voit sans peine quune famille A de variables alatoires sur (, F, P) est


qui-intgrable si et seulement la famille M = {PX ; X A}.
16 CHAPITRE 1. QUI-INTGRABILIT

Ainsi, lqui-intgrabilit est essentiellement une notion qui concerne les


lois. En particulier, lqui-intgrabilit dune famille de variables alatoires
ne dpend que de la famille des lois individuelles, pas des lois jointes.
Un grand nombre de remarques faites pour les familles de variables qui-
intgrables sadaptent donc sans douleur aux familles de lois qui-intgrables.
En particulier le thorme 7 admet la variante suivante :

Thorme 10. Soit (n )n1 une suite qui-intgrable de mesures de proba-


bilit sur R. On

suppose que n converge en loi

vers lorsque n tend vers
linfini. Alors R |x| d(x) < + et la suite ( R x dn (x))n1 converge vers

R x d(x).

On applique parfois ce thorme des suites de variables alatoires qui


ne sont pas toutes dfinies sur le mme espace de probabilit.
1.7. EXERCICES SUR LQUI-INTGRABILIT 17

1.7 Exercices sur lqui-intgrabilit


1.7.1 Exercices corrigs
Exercice 2. Soit (Xn ) une suite de variables alatoires positives avec

sup E[Xn log(1 + Xn )] < +.


n1

Montrer que cette famille est qui-intgrable. lien vers lindication lien vers
la solution

Exercice
3. Soient (X1 , X2 , . . . , Xn ) une suite de v-a i.i.d U[0, 1]. Soit Zn =
n
ni=1 X2i . Le but de lexercice est de montrer que Zn converge presque sre-
i=1
X i
ment et dans L1 vers 32 .
1. Montrer la convergence presque sre.
N
2. Soit N un entier naturel. On pose QN = ( i=1 Xi2 )2 . Montrer que
pour tout n N , on a

Zn2 144 + n2 QN11{Nn <n/3} ,


n
o Nn = k=1 1
1{Xk 1/2} .
3. Montrer que Q9 est dans L2 .
4. Montrer que (Zn )n1 est qui-intgrable. Conclure.
lien vers lindication lien vers la solution

Exercice 4. Soit Xn suivant la loi binomiale B(n, n ). Montrer que (Xn )


est borne dans L3 . Retrouver alors simplement sans calcul lesprance et la
variance de la loi de Poisson. lien vers lindication lien vers la solution

1.7.2 Exercices non corrigs


Exercice 5.( Donner
) un quivalent en linfini de la suite (un ) dfinie par
n 2n
un = k=1 k n+k . lien vers lindication

Exercice 6. Loi des grands nombres L1 .


Soit (Xn )n1 des variables alatoires indpendantes identiquement distri-
bues avec un moment dordre 1. La loi faible des grands nombres nous
dit que la suite X1 ++X
n
n
converge en probabilit vers E[X1 ]. Montrer que
(Xn )n1 converge dans L vers E[X1 ]. lien vers lindication
1
18 CHAPITRE 1. QUI-INTGRABILIT

Exercice 7. Soient p et q positifs des exposants conjugus, cest dire que


1/p + 1/q = 1. Montrer que si (Xn )n1 est borne dans Lp et que (|Yn |q )n1
est qui-intgrable, alors la suite (Xn Yn )n1 est qui-intgrable. lien vers lin-
dication

Exercice 8. Soient (Xn )n1 une suite qui-intgrable et (Un ) une suite de
variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. On sup-
pose de plus que (Un )n1 est indpendante de (Xn )n1 . Pour ]0, 1], on pose
N = inf{n 1; Un }, puis Z = XN . Montrer que la famille (Z )]0,1]
est qui-intgrable. lien vers lindication

Exercice 9. Soit (Xn ) une suite de variables alatoires positives. On suppose


quil existe une variable alatoire intgrable X telle que

n 1 t > 0 P(Xn > t) P(X > t).

Montrer que (Xn )n1 est qui-intgrable. lien vers lindication


Chapitre 2

Esprance conditionnelle

2.1 Motivation
Soient (, F, P) un espace probabilis ; A1 , . . . , AN une partition de et
X une variable alatoire intgrable sur , F, P). Soit A la tribu engendre
par la partition {A1 , . . . , AN }.
On sintresse aux expressions de la forme EX1 1A , o A A.
Tout dabord, on va remarquer quil existe une correspondance entre A
et P({1, . . . , N } : tout lment A A peut scrire

A= Ai ,
iB

pour un certain B P({1, . . . , N }).


On a alors

( )

N
N
N
E(X1
1A ) = E X 11iB11Ai = E(1
1iB X1
1Ai ) = 11iB EX1
1Ai
i=1 i=1 i=1

Maintenant posons

N
EX1
1Aj
X = 11Ai .
j=1 P(Aj )

En remplaant dans la formule prcdente, on obtient


N
EX 11A = 11iB EX 11Ai
i=1

19
20 CHAPITRE 2. ESPRANCE CONDITIONNELLE

Mais

N
EX1
1Aj
EX 11Ai = E1
1Ai11Aj = EX1
1Ai .
j=1 P(Aj )
Il sensuit que pour tout A A, on a

1A = EX 11A
EX1 (2.1)
Ce qui est intressant ici, cest que X a une proprit que X na pas en
gnral : en eet, X est A-mesurable (car cest une combinaison linaire
dindicatrices dlments de A).
Si X est une variable alatoire A-mesurable et telle que (2.1) est vrifie,
on dit que X est une esprance conditionnelle de X par rapport la tribu
A.
Nous savons donc construire des esprances conditionnelles par rapport
des tribus finies. Le but de ce chapitre est de traiter le cas gnral et de
donner les premires proprits de ces objets.

2.2 construction
Lemme 3. Soient X et Y des variables alatoires intgrables et mesurables
par rapport une tribu A. On suppose que pour tout A A, on a

EX 11A EY 11A (2.2)


alors X Y P presque srement.

Dmonstration. On pose A = {X > Y } On a

EX 11A EY 11A .

Ainsi E(X Y )1
1A 0. Mais (X Y )1
1A est positive, donc (X Y )1
1A = 0

presque srement. Ainsi P ({X = Y } A ) = 1, do P (A ) = 1.
c c

Ainsi, si X et Y sont des esprances conditionnelles de X et Y par


rapport la mme tribu, on voit que X Y presque srement entrane que
X Y presque srement.
Cela a deux consquences faciles, mais importantes : dune part, on voit
que lesprance conditionnelle est unique, un ngligeable prs. Dautre part,
on voit que lesprance conditionnelle prserve lordre, en particulier lesp-
rance conditionnelle dune variable (presque srement) positive est (presque
srement) positive.
2.2. CONSTRUCTION 21

Soit (, F, P) un espace probabilis ; A une sous-tribu de F. Notons V1 =


L (, F, P), V2 = L2 (, F, P) et H = L2 (, A, P).
1

Ici, il convient de noter que les lments V1 et V2 sont des classes de


fonctions : Lp (, F, P) est le quotient de Lp (, F, P) par la relation dgalit
presque sre.
Ainsi V2 est un espace de Hilbert dont H est un sous-espace ferm.
On a
x V2 Ex = x, 1,
o 1 reprsente la classe de la fonction constante gale 1.
Notons P la projection orthogonale de V2 sur H : par dfinition on a

f V2 g H f P f, g = 0.
En particulier si A A, 11A H, et donc

f V2 f P f,11A = 0, (2.3)
soit f,11A = P f,11A , soit

Ef11A = EP f11A .

En particulier
Ef = EP f. (2.4)
Lquation (2.3) dit que P f est un bon candidat pour tre lesprance
conditionnelle. Les proprits de positivit voques plus haut sont galement
vrifies, mais il faut tre un peu soigneux car lon travaille ici avec des classes
de fonctions gales presque partout, non avec des fonctions.
Rappelons quelques proprits simples : si F et G sont deux fonctions
mesurables qui sont gales presque partout, alors pour tout borlien A les
ensembles F 1 (A) = {F A} et G1 (A) = {G A} sont gaux un
ngligeable prs : cela signifie que

P(F 1 (A)G1 (A)) = 0.


En eet
{F A}{G A} {F = G},
donc P ({F A}{G A}) P(F = G) = 0. Ainsi

|1
1{F A} 11{GA} | = 11{F A}{GA} = 0 P p.s.

ce qui signifie que 11{F A} et 11{GA} ont la mme classe dans Lp (avec p quel-
conque).
22 CHAPITRE 2. ESPRANCE CONDITIONNELLE

Ainsi, si f Lp , il est licite de noter 11{f A} la classe de lindicatrice de


{F A}, o F est un reprsentant quelconque de la classe f .
On peut ainsi parler des lments positifs de Lp : ce sont les lments f
qui sont la classe dune fonction positive.
Pour tout f Lp , on a f = f.1 = f (1 1f >0 +11f =0 +11f <0 ) = f (1
1f >0 +11f <0 ) =
f f , o f + = f11f >0 et f = f11f >0 . Il est facile de voir que f + = f11f >0
+

et f + = f11f >0
Dmontrons maintenant lanalogue du lemme 2.1 : si f est un lment
positif de L2 , on a

Ef11P f <0 = EP f11P f <0


Mais f11P f <0 est une classe de fonctions positives, donc Ef11P f <0 0, tandis
que P f11P f <0 est une classe de fonctions ngatives, donc EP f11P f <0 0,
finalement P f11P f <0 = 0, soit (P f ) = 0, ce qui signifie que P f est un
lment positif.
Soit maintenant f L2 :
Par linarit, on a P f = P f + P f , do

P f 1 P f + 1 + P f 1

Mais P f + est positive, donc P f + 1 = EP f + . En utilisant (2.4), il vient


que P f + 1 = Ef + . De la mme manire P f 1 = Ef . Finalement, on a

P f 1 Ef + + Ef = E|f | = f 1

Ainsi, P prend ses valeurs dans H V1 = L1 (, A, P) et dfinit une


application linaire continue de (V2 , .1 ) dans (L1 (, A, P), .1 ). Comme
V2 est une partie dense de V1 , lapplication P admet un unique prolongement
linaire continu P de (V1 , .1 ) dans (L1 (, A, P), .1 ).
Ce prolongement a la mme norme doprateur :

f L1 P f 1 f 1

Par ailleurs, lensemble des (classes de) fonctions positives est ferm dans
L1 , donc la proprit de positivit est conserve par P :

f L1 f 0 = P f 0
2.2. CONSTRUCTION 23

et
f, g L1 f g = P f P g.
Cet oprateur P est loprateur desprance conditionnelle sachant la
tribu A.
Vrifions dabord que P vrifie les proprits fondamentales requises : P f
est A-mesurable et pour toute fonction f F-mesurable dans L1 , pour tout g
A-mesurable dans L ,
Egf = Eg P f (2.5)
Preuve : pour f dans L , posons g (f ) = Egf et g (f ) = Eg P f . On a
|gf | g |f |, do |g (f )| f f 1 . Par ailleurs

|g (f )| = g (P f )| f P f 1 f f 1 .

Ainsi g et g sont deux formes linaires continues sur V1 . Comme elles


concident sur V2 qui est dense dans V1 , elles concident.
Pour tout f V1 , on notera dsormais E[f |A] = P f .
On remarquera que telle que nous lavons dfini, lobjet E[f |A] nest pas
une variable alatoire, mais une classe de variable alatoires. En ralit, faire
la confusion entre les deux objets est sans risque puisquon ne sintresse
jamais aux valeurs en un particulier, mais seulement aux intgrales sur un
ensemble mesurable, intgrales qui ne dpendent pas du reprsentant choisi.

2.2.1 Proprits
Daprs le lemme 3, on voit donc que les proprits :Y A-mesurable et

A A EX1
1A = EY 11A (2.6)

entranent que Y = E[X|A].


Ainsi, si X est A-mesurable, on a videmment E[X|A] = X. En particu-
lier, les fonctions constantes tant mesurables par rapport nimporte quelle
tribu, on a pour tout rel c E[c|A] = c.
Rappelons avec les nouvelles critures quelques proprits tablies : on
suppose que X et Y sont intgrables et que a et b sont des constantes relles :
E[aX + bY |A] = aE[X|A] + bE[Y |A]
X Y p.s. = E[X|A] E[Y |A] p.s.
X 0 p.s. = E[X|A] 0 p.s.
Si Y est borne et A-mesurable, alors EXY = E[E[X|A]Y ].
Et voici quelques consquences dont la preuve ne devrait pas laisser de
grandes dicults au lecteur :
EE[X|A] = EX
24 CHAPITRE 2. ESPRANCE CONDITIONNELLE

E[E[X|A]|A] = E[X|A]
|E[X|A]| E[|X| |A]
Un peu plus compliqu, le thorme de convergence domine condition-
nel :

Thorme 11. Soit (Xn )n1 une suite de variables alatoires convergeant
presque srement vers X. On suppose que

n 1|Xn | Y p.s.,

o Y est une variable alatoire intgrable. Alors

E[X|A] = lim E[Xn |A]p.s.


n+

Dmonstration. Posons Zn = supkn |Xn X|. (Zn )n1 est une suite dcrois-
sante de variables alatoires qui tend presque srement vers zro. Daprs la
positivit de lesprance conditionnelle, la suite E[Zn |A] est donc une suite
dcroissante de variables alatoires positives : elle converge donc vers une va-
riable alatoire positive Z. Pour tout n 1, on a Z Zn , donc EZ EZn .
Ainsi EZ inf n1 EZn , mais pour tout n |Zn | 2Y , donc daprs le tho-
rme de convergence domine EZn tend vers 0, ce qui montre que EZ = 0,
donc Z est presque srement nulle. Ainsi E[Zn |A] tend presque srement
vers 0. Finalement, pour tout n, on a

|E[X|A] E[Xn |A]| = |E[X Xn |A]|


E[|X Xn | |A]
E[Zn |A],

ce qui entrane donc le rsultat voulu.

On en dduit en particulier le rsultat trs important suivant :

Thorme 12. Si Y est A-mesurable, que X et XY sont intgrables, alors


E[XY |A] = Y E[X|A]

Dmonstration. On va dabord sintresser au cas o Y est born. Pour mon-


trer que Y E[X|A] est une version de lesprance conditionnelle de XY sa-
chant A, il sut de montrer
que Y E[X|A] est A-mesurable
que pour toute fonction Z A-mesurable borne, on a EZXY = EZY E[X|A].
Le premier point est clair, car Y E[X|A] est le produit de deux fonctions
A-mesurables. Le deuxime point provient du fait que ZY est une fonction
2.2. CONSTRUCTION 25

A-mesurable borne et de la proprit fondamentale de lesprance condi-


tionnelle.
Pour passer au cas gnral, il sut de poser Yn = Y 11|Y |n . Daprs ce qui
prcde, on sait que pour tout n, on a

E[XYn |A] = Yn E[X|A].


XYn converge presque srement vers XY et |XYn | |XY |. Daprs le
thorme de convergence domine conditionnel, E[XYn |A] converge presque
srement vers E[XY |A]. Comme Yn converge presque srement vers Y , on a
finalement
E[XY |A] = Y E[X|A].

On va terminer cette section par quelques proprits simples, mais utiles


lies la mesurabilit.
Thorme 13. Soit X une variable alatoire intgrable, A et B deux tribus
avec A B. Alors
E[E[X|B]|A] = E[X|A].
Dmonstration. Posons X = E[E[X|B]|A]. Soit Y une variable alatoire bor-
ne A-mesurable. Y est A-mesurable, donc Y E[E[X|B]|A] = E[Y E[X|B]|A].
Par ailleurs, Y est B-mesurable, donc Y E[X|B] = EXY |B, do EY X =
E[EXY |B] = EXY . Ainsi, pour tout Y A-mesurable borne, on a EY X =
EY X. Comme X est A-mesurable, cela montre bien que X = E[X|A].
Thorme 14. On suppose que A et B sont deux tribus indpendantes sous
P. Alors, pour toute variable alatoire intgrable X B-mesurable, on a

E[X|A] = EX.

Dmonstration. Soit Y une variable alatoire borne A-mesurable.

E[Y EX] = EY EX = EY X.

Comme la variable constante EX est lvidence A-mesurable, cela achve


la preuve.
Le rsultat suivant peut galement parfois tre utile :
Thorme 15. Si X est une variable intgrable, A et B des tribus telles que
B est indpendante de ((X), A), alors

E[X|(A, B)] = E[X|A].


26 CHAPITRE 2. ESPRANCE CONDITIONNELLE

Dmonstration. Par linarit, en crivant X = X + X , on peut se ramener


au cas o X est positive. Comme Y = E[X|A] est (A, B)-mesurable, il sut
de montrer que lon a E[1 1C X] = E[1 1C Y ] pour tout C (A, B). Comme
C 7 E[11C X] et C 7 E[1
1C Y ] sont des mesures finies, il sut de les identifier
sur un -systme qui engendre (A, B) : on prend naturellement les ensemble
de la forme C = A B, avec A A et B B. Et, en eet, on a
E[1
1C Y ] = E[1
1A11B Y ]
= E[1
1B ]E[1
1A Y ]
= E[1
1B ]E[1
1A X]
= E[1
1B11A X] = E[1
1C X],
ce qui conclut la preuve.

2.2.2 Ingalit de Jensen


Thorme 16. Soit X une variable alatoire intgrable valeurs dans lin-
tervalle I. Soit f une fonction continue convexe de I dans R. On suppose
que f (X) est intgrable. Alors, pour toute tribu A, on a
f (E[X|A]) E[f (X)|A].
Dmonstration. Pour donner du sens lingalit, remarquons dabord que
E[X|A] I presque srement. En eet, il est bien connu si X a presque
srement, on a alors E[X|A] a presque srement. Cependant, on va voir
que si X > a presque srement, on a encore E[X|A] > a presque srement.
Par linarit,on se ramne au cas o a = 0. On suppose donc que X > 0
et on pose Y = E[X|A]. On sait dj que Y 0 presque srement. Reste
montrer P(Y = 0) = 0. Comme lvnement {Y = 0} est A-mesurable,
on a E[11{Y =0} X] = E[11{Y =0} Y ] = 0, donc 11{Y =0} X = 0 presque srement.
Comme X > 0 presque srement, on a 11{Y =0} = 0 presque srement, donc
P(Y = 0) = 0.
Soit une famille dnombrable de fonctions anes telles que
x I (x) f (x).
Soit . On a presque srement
(X) f (X).
On a donc E[(X)|A] E[f (X)|A]. Mais comme est une fonction ane,
E[(X)|A] = (E[X|A]). Ainsi,
(E[X|A]) E[f (X)|A],
2.2. CONSTRUCTION 27

Comme est dnombrable, on a alors

sup (E[X|A]) E[f (X)|A].


Il reste donc dmontrer que la famille peut tre choisie de telle sorte que,
presque srement, au point x = E[X|A], on ait sup{(x); } = f (x)
En tout point rationnel q de I, on considre lapplication ane q tan-
gente droite (ou gauche) au point q la courbe reprsentative de f .
On prend alors = (q )qIQ . Lapplication x 7 sup (x) est convexe,
continue, et concide avec f sur I Q, donc, par densit et continuit, sur
I.
Pour retenir quel est le sens de lgalit, prendre la fonction convexe
(x) = |x|.

2.2.3 Esprance conditionnelle sachant une variable (ou


un vecteur) alatoire
Soient A est un vnement,A une tribu.
On note frquemment P(A|A) = E[1 1A |A].
Si Y ,X, X1 , . . . , Xn sont des variables alatoires (ou des vecteurs ala-
toires), on note frquemment
E[Y |X] pour E[Y |(X)], et encore E[Y |X1 , . . . , Xn ] pour E[Y |(X1 , . . . , Xn )].
Par ailleurs, si X est une variable alatoire (ou un vecteur alatoire), il
est bien vident que E[Y |X] est (X)-mesurable. Alors, daprs le lemme de
Doob, il existe une application mesurable f telle que

E[Y |X] = f (X) (2.7)


On crit souvent E[Y |X = x] = f (x) pour signifier que lapplication f
vrifie lquation (2.7). Bien sr, il sagit dun abus dcriture car la proprit
est une proprit globale de la fonction, qui na pas de sens point par point,
puisquen gnral (par exemple si la loi de X est densit) lvnement
{X = x} est de probabilit nulle.
Il est plus facile de donner un sens cette esprance conditionnelle et
aussi de la calculer dans le cas o X est une variable alatoire discrte.
Thorme 17. Soit Y L1 (, F, P), X une variable alatoire sur (, F, P),
et D un ensemble fini ou dnombrable avec P(X D) = 1 et P (X = n) > 0
pour tout n dans D. Alors, E[Y |X] = g(X) avec
E[1{X=n} Y ]
n D g(n) = ,
P(X = n)
28 CHAPITRE 2. ESPRANCE CONDITIONNELLE

ce qui scrit encore


E[1{X=n} Y ]
n D E[Y |X = n] = .
P(X = n)
E[1{X=n} Y ]
Dmonstration. Pour tout n dans A, posons g(n) = . Soit A
P(X = n)
D. Pour tout n dans A, on a
E[Y 11{X=n} ] = g(n)P(X = n) = E[g(n)1
1{X=n} ] = E[g(X)1
1{X=n} ]
En faisant la somme sur tous les n A, on obtient
E[Y 11{XA} ] = E[g(X)1
1{XA} ]
Comme tous les lments de (X) peuvent scrire sous la forme {X A}
avec A D et que g(X) est videmment (X)-mesurable, on a bien liden-
tification voulue.
Un autre cas pratique trs important est celui o la variable conditionne
est une fonction de deux variables indpendantes.
Thorme 18. Soit X et Y deux vecteurs alatoires indpendants, res-
pectivement valeurs dans Rn et Rp . Soit g une application de Rn Rp
dans R. On suppose que g(X, Y ) est une variable alatoire intgrable. Alors
E[g(X, Y )|X] = G(X), avec

G(x) = g(x, y)dPY (y) = Eg(x, Y ).
Autrement dit, E[g(X, Y )|X = x] = E[g(x, Y )].
Dmonstration. Dabord, il faut vrifier que G est dfini PX presque partout.
Pour cela, il faut montrer que pour PX presque tout x : |g(x, y)|dPY (y) <
+. Pour cela, il sut de montrer que
( )
|g(x, y)|dPY (y) dPX (x) < +,

ce qui dcoule facilement du thorme de Tonelli et de lintgrabilit de g(x, y)


sous PX PY .
Soit maintenant A un borlien

de Rn :
E1
1A (X)G(X) = 11A (x)G(x)dPX (x)
( )
= 11A (x) g(x, y)dPY (y) dPX (x)

= 11A (x)g(x, y)d(PX PY )(x, y)

= 11A (x)g(x, y)d(PX,Y )(x, y)
= E1
1A (X)g(X, Y )
2.2. CONSTRUCTION 29

Bien sr G(X) est (X)-mesurable, ce qui achve la preuve.


Dans le mme ordre dide, le rsultat suivant peut galement tre utile :

Thorme 19. On suppose que les vecteurs (X, Y ) et (X , Y ) valeurs dans


Rn Rp ont mme loi, que Y est intgrable avec E[Y |X] = f (X). Alors

E[Y |X ] = f (X ).

Dmonstration. Bien sr, f (X ) est (X )-mesurable. Il sut donc de faire


la vrification :

1A (X )Y ] = E[1
E[1 1A (X)Y ] car (X, Y ) et (X , Y ) ont mme loi
= E[1
1A (X)f (X)] par dfinition de lesprance conditionnelle
1A (X )f (X )] car X et X ont mme loi,
= E[1

ce qui donne le rsultat voulu.


30 CHAPITRE 2. ESPRANCE CONDITIONNELLE

2.3 Exercices sur lesprance conditionnelle


2.3.1 Exercices corrigs
Exercice 10. 1. Soit X une variable alatoire intgrable, N une variable
alatoire valeurs dans N. Soit Y une variable alatoire intgrable
(N )-mesurable.
Montrer que Y est une version de E[X|N ] si et seulement si pour tout
entier n N E[1
1{N =n} Y ] = E[1
1{N =n} X]
2. Soit (Xn )n0 une suite de variables alatoires indpendantes suivant
la loi de Bernoulli de paramtre q. On suppose que 1 + T suit la loi
gomtrique de paramtre p et que T est indpendante de ((Xk )k1 ).
On pose U = X1 + X2 + + XT (avec U = 0 si T = 0). Calculer
E[U |T ].
lien vers lindication lien vers la solution

Exercice 11. On reprends lnonc du (b) de lexercice prcdent. Dtermi-


ner des rels et tels que E[T |U ] = U + . lien vers lindication lien vers
la solution

2.3.2 Exercices non corrigs



Exercice 12. On note n,b = {(x1 , . . . , xn+b ) {0, 1}n+b ; n+b
i=1 xi = b}. On
note n,b la loi uniforme sur n,b . On note Qn,b la mesure de probabilits
dfinie par

n,b (A {x1 = 1})


Qn,b (A) = n,b (A|x1 = 1) = .
n,b (x1 = 1)

1. Montrer que la loi de (x2 , . . . , xn+b ) sous Qn,b est n1,b .


2. On suppose que (X1 , . . . , Xn+b ) suit la loi n,b . On note T = inf{k
0; Xk+1 = 0}. T reprsente le nombre de boules noires tires dans une
urne contenant initialement n boules noires et b boules rouges, o lon
eectue une srie de tirages en sarrtant au tirage de la premire boule
blanche. Montrer que E[T ] = b+1 n
(on pourra procder par rcurrence
sur n, en conditionnant par le premier tirage).
lien vers lindication

Exercice 13. Soient X et Y deux variables alatoires intgrables indpen-


dantes. Calculer E[(1 + X)(1 + Y )|X]. lien vers lindication
2.3. EXERCICES SUR LESPRANCE CONDITIONNELLE 31

Exercice 14. Soient X1 , . . . , Xn des variables alatoires indpendantes iden-


tiquement distribues admettant un moment dordre 1. Calculer

E[X1 |(X1 + X2 + . . . Xn )].

lien vers lindication

Exercice 15. Soient X et Y indpendantes, avec X B(n, p) et Y


B(n , p). Calculer E[X|X + Y ]
par un calcul direct
en utilisant le rsultat de lexercice prcdent.
lien vers lindication

Exercice 16. Soient X1 , . . . , Xn des variables alatoires indpendantes sui-


vant la loi uniforme sur [0, 1]. On note X(1), ..., X(n) les abscisses rordonnes
de la plus petite la plus grande. On pose

Mn = max(X(i + 1) X(i); 1 i n 1).

Le but de lexercice est de montrer que EMn = O( lnnn ).


1. Montrer que pour toute variable alatoire relle X valeurs dans [0, 1]
et tout h rel positif, on a

EX h + P(X h).

2. Pour i {1, . . . , n}, on note

Ai (h) = {j {1, . . . n}Xj Xi + h} {Xj ]X


/ i , Xi + h[}.
1jn,i=j

Montrer que
n
{Mn h} = Ai (h).
i=1

3. On pose

Yi (h) = 11]Xi ,Xi +h[c (Xj ).
j=i

Montrer que 11Ai (h) 11{Xi 1h} Yi (h).


4. Montrer que
E[Yi (h)|Xi ] = max(Xi , 1 h)n1
5. En dduire que P(Ai (h)) (1 h)n .
6. Conclure.
32 CHAPITRE 2. ESPRANCE CONDITIONNELLE

lien vers lindication

Exercice 17. On suppose que la loi du couple (X, Y ) sous P admet la densit
(x, y) 7 f (x, y) par rapport la mesure . Montrer que

xf (x, y)d(x)
E[X|Y = y] = .
f (x, y)d(x)

(On commencera par lucider les abus de langage de lnonc).


Montrer que pour toute fonction mesurable telle que (X) est intgrable,
on a
(x)f (x, y)d(x)
E[(X)|Y = y] = .
f (x, y)d(x)
lien vers lindication

Exercice 18. Soient X et Y deux variables alatoires valeurs dans un


ensemble dnombrable D. Montrer que pour toute fonction borne, et
pour tout i D avec P(X = i) > 0, on a

E[(Y )|X = i] = P(Y = j|X = i)(j).
jD

lien vers lindication

Exercice 19. Soit


2 1 1

M = 1 2 1
1 1 2
1. Montrer quon peut construire un vecteur gaussien centr (X, Y, Z)
admettant M comme matrice de covariance.
2. Calculer E[X|Y, Z].
lien vers lindication

Exercice 20. Soit


3 0 2

M = 0 2 1
2 1 2
1. Montrer quon peut construire un vecteur gaussien centr (X, Y, Z)
admettant M comme matrice de covariance.
2. Calculer E[X|Y, Z].
2.3. EXERCICES SUR LESPRANCE CONDITIONNELLE 33

3. Soit une fonction mesurable borne telle que (X) est intgrable.
Montrer que

E[(X)|Y = y, Z = z] = (x)fy,z (x) d(x),
R

o fy,z est la densit de la loi normale N ( 23 y + 43 z, 2 ), o


2 4
2 = M v, v avec v = (1, , ) .
3 3
lien vers lindication
Exercice 21. Soit (Yn )n1 une suite de variables alatoires positives int-
grables, A une tribu quelconque. On pose Y = lim Yn et Z = lim E[Yn |A].
n+ n+
Le but de lexercice est de montrer que si Z est fini presque srement, alors
Y est galement fini presque srement.
1. Soit M > 0. Montrer que E[1
1{Y >M } |A] = lim E[1
1{Yn >M } |A].
n+
2. Montrer que pour tout n 1, on a M E[1 1{Yn >M } |A] E[Yn |A].
3. En dduire que E[1 1{Y >M } |A] tend presque srement vers 0 lorsque M
tend vers linfini.
4. Conclure.
lien vers lindication
Exercice 22. Soit (Rn )n0 une suite dcroissante dentiers naturels, avec
R0 = N . On pose, pour n 0, Sn+1 = Rn Rn+1 et Fn = (S1 , . . . , Sn ). On
pose T = inf{n 0; Rn = 0}. On suppose en outre que
k 1 E[1T >k1 (Sk 1)|Fk1 ] = 0.
1. Montrer que pour tout entier naturel non nul k, on a
P(Sk = 0, T k) = E(1T k (Sk 1)+ ).
En dduire que P(T < +) = 1.
2. Que peut-on dire de la suite (Mi )i1 dfinie par

i
Mi = 1T k (Sk 1) ?
k=1

3. En dduire la valeur de E[T ].


4. Application : On considre n personnes. On met leur nom dans une
urne. Chacun tire un nom. Ceux qui ont tir leur nom se retirent et on
recommence avec les autres. On demande le nombre moyen de tirages
quil faut faire pour "liminer" tout le monde.
lien vers lindication
34 CHAPITRE 2. ESPRANCE CONDITIONNELLE
Chapitre 3

Martingales

3.1 Dfinitions
3.1.1 Filtrations et martingales
Soit (, F, P ) un espace probabilis.
Dfinition: On appelle filtration toute suite croissante (Fn )n0 de sous-
tribus de F.
Dfinition: Soit (Xn )n0 une suite de variables alatoires et (Fn )n0 une
filtration. On dit que la suite (Xn )n0 est (Fn )n0 adapte si pour tout n,
Xn est Fn -mesurable.
Dfinition: Soit (Xn )n0 une suite de variables alatoires. On appelle fil-
tration naturelle adapte la suite (Xn )n0 la filtration dfinie par Fn =
(X0 , X1 , . . . Xn ).
Dfinition: Soit (Fn )n0 une filtration et (Xn )n0 une suite de variables
alatoires. On dit que la suite (Xn )n0 est une martingale adapte la filtra-
tion (Fn )n0 si
1. la suite (Xn )n0 est (Fn )n0 adapte
2. Pour tout n, Xn est intgrable.
3. Pour tout n, Xn = E[Xn+1 |Fn ].
Exemples:
1. Soit (Fn )n0 une filtration, X une variable alatoire intgrable. La
suite dfinie par Xn = E[X|Fn ] est une martingale
2. Soit (Xn )n1 une suite de variables alatoires indpendantes centres.
On pose pour tout n 1 : Fn = (X1 , . . . Xn ) et Sn = X1 +X2 +. . . Xn .
Alors, (Sn )n1 est une martingale adapte la filtration (Fn )n1 .
Remarque: Une martingale est toujours adapte sa filtration naturelle.

35
36 CHAPITRE 3. MARTINGALES

3.1.2 Dirences de martingales


Si Xn est une martingale adapte la filtration (Fn )n0 , la suite Yn dfinie
par Yn = Xn Xn1 vrifie

n 1 E[Yn |Fn1 ] = 0. (3.1)


Rciproquement, si la suite (Yn )n1 est adapte la filtration (Fn )n0 et v-
rifie 3.1, la suite des sommes partielles dfinie par Xn = Y1 + + Yn est une
martingale adapte la filtration (Fn )n0 .

Dfinition: On appelle une telle suite (Yn ) une dirence de martingale.

Remarque: Si la suite de dirences de martingale (Yn )n1 est dans L2 , la


variable Yn est orthogonale toutes les variables Z de carr intgrable qui
sont Fn1 -mesurables. En particulier, les (Yn )n1 forment une suite orthogo-
nale dans L2 .

Comme on le verra dans les exercices, les martingales sont souvent utiles
pour udier des suites de variables alatoires qui ne sont pas elles-mmes des
martingales. Mettre en vidence une martingale partir dune suite nest pas
toujours facile. Une bonne ide est de commencer par exhiber une dirence
de martingale. Par exemple, si (Xn )n0 est une suite intgrable quelconque,
(Xn+1 E[Xn+1 |X0 , . . . Xn ])n0 est toujours une dirence de martingales.

3.1.3 Sous-martingales, sur-martingales


Dfinition: Soit (Fn )n0 une filtration et (Xn )n0 une suite de variables
alatoires. On dit que la suite (Xn )n0 est une sous-martingale adapte la
filtration (Fn )n0 si
1. la suite (Xn )n0 est (Fn )n0 adapte
2. Pour tout n, Xn est intgrable.
3. Pour tout n, Xn E[Xn+1 |Fn ].
Dfinition: Soit (Fn )n0 une filtration et (Xn )n0 une suite de variables
alatoires. On dit que la suite (Xn )n0 est une surmartingale adapte la
filtration (Fn )n0 si
1. la suite (Xn )n0 est (Fn )n0 adapte
2. Pour tout n, Xn est intgrable.
3. Pour tout n, Xn E[Xn+1 |Fn ].
3.2. PREMIRES INGALITS 37

Proposition 2. Soit (Xn )n0 une suite de variables alatoires intgrables.


La suite (EXn )n0 est
dcroissante si la suite (Xn )n0 est une surmartingale.
croissante si la suite (Xn )n0 est une sous-martingale.
constante si la suite (Xn )n0 est une martingale.

Dmonstration. On va juste prouver la premire assertion. Pour tout n, on


a Xn E[Xn+1 |Fn ].
En prenant lesprance, on a E[Xn ] E[E[Xn+1 |Fn ]] = E[Xn+1 ].

3.2 Premires ingalits


3.2.1 Martingales et fonctions convexes
Thorme 20. Soit (Fn )n0 une filtration et une fonction convexe.
Si la suite (Xn )n0 est une martingale adapte la filtration (Fn )n0 et
que les ((Xn ))n0 sont intgrables, alors la suite la suite ((Xn ))n0
est une sous-martingale adapte la filtration (Fn )n0 .
Si la suite (Xn )n0 est une sous-martingale adapte la filtration
(Fn )n0 , que est croissante et que les ((Xn ))n0 sont intgrables,
alors la suite ((Xn ))n0 est une sous-martingale adapte la filtra-
tion (Fn )n0 .

Dmonstration. Comme Xn = E[Xn+1 |Fn ], on a (Xn ) = (E[Xn+1 |Fn ])


E[(Xn+1 )|Fn ], daprs lingalit de Jensen conditionnelle.
Xn E[Xn+1 |Fn ] entrane, avec lhypothse de croissance (Xn )
(E[Xn+1 |Fn ]) et on conclut comme prcdemment avec lingalit de
Jensen conditionnelle.

Exemple: En particulier, si une suite (Xn )n0 de variables alatoires posi-


tives est une sous-martingale de carr intgrable, alors la suite (Xn2 )n0 est
une sous-martingale.

3.2.2 Ingalit de Kolmogorov


Thorme 21. Soit (Xn )n0 une sous-martingale. Pour tout > 0, on a

1
P( max Xi ) E|Xn |.
1in
38 CHAPITRE 3. MARTINGALES

Dmonstration. Notons = inf{i 1; Xi }. Il est clair que

{ max Xi } = { n}.
1in

Soit k entre 1 et n : lvnement = k est Fk -mesurable, donc daprs la


proprit de sous-martingale, on a

E[Xn11{ =k} ] = E E[Xn11{ =k} |Fk ] = E 11{ =k} E[Xn |Fk ] E 11{ =k} Xk .

Mais 11{ =k} Xk 1


1{ =k} . Ainsi, en intgrant, on obtient

E[Xn11{ =k} ] P( = k).

En faisant la somme pour k variant de 1 n, on obtient

E[Xn11{ n} ] P( n).

Si (Xn )n1 est une sous-martingale positive, on a fini, car alors

EXn E[Xn11{ n} ] P( n).

Sinon, comme (Xn+ )n1 est une sous-martingale positive, on peut lui appli-
quer le rsultat que lon vient de dmontrer, et lon a
1 1
P( max Xi ) = P( max Xi+ ) EXn+ E|Xn |,
1in 1in
ce qui donne le rsultat voulu.

3.3 Convergence des martingales de carr in-


tgrable
Thorme 22. Soit (Xn )n0 une martingale adapte la filtration (Fn )n1
telle que
sup EXn2 < +.
n1

Alors (Xn )n0 converge presque srement et dans L2 vers une variable X
de carr intgrable.

Dmonstration. La convergence quadratique sobtient par des mthodes hil-


bertiennes classiques : comme L2 est complet, il sut en eet de montrer que
la suite (Xn )n0 est de Cauchy. Soit p < n entiers. Comme Xn est dans L2 ,
3.3. CONVERGENCE DES MARTINGALES DE CARR INTGRABLE39

on sait que E[Xn |Fp ] = Xp est le projet orthogonal de Xn sur le sous-espace


des variables Fp -mesurables. Ainsi, on peut crire lidentit de Pythagore :
Xn 22 = Xp 22 + Xn Xp 22 ,
ou encore
EXn2 = EXp2 + E(Xn Xp )2 .
Il est alors clair que la suite (EXn2 )n1 est croissante : elle converge donc
vers = supn1 EXn2 que nous avons suppos fini. Soit > 0 et N tel que
EXn2 2 pour n N . Alors, pour n, p N , on a Xn Xp 2 ,
ce qui contre bien que la suite est de Cauchy, et donc convergente.
On va maintenant montrer la convergence presque sre. Pour cela, on va
montrer que la suite (Xn )n1 est presque srement de Cauchy, cest dire que
Rn = supi,jn |Xi Xj | tend presque srement vers 0. Comme la suite (Rn )n
est monotone dcroissante, il sut de montrer quelle admet une sous-suite
qui converge presque srement vers 0. Pour dmontrer que (Rn )n admet
une sous-suite qui converge presque srement vers zro, il sut (voir le cours
de licence) de montrer que Rn converge en probabilit vers 0.
Soit donc > 0. On a
{Rn > } in {|Xn Xi | > /2}.
Ainsi
P(Rn > ) P(sup |Xn Xi | /2)
in
P(sup |Xn Xi | > /3).
in

Daprs le thorme de continuit squentielle croissante, on a


P(sup |Xn Xi | > /3) = sup P( sup |Xn Xi | > /3).
in N n niN

La suite (Xn Xi )ni est une martingale, donc la suite ((Xn Xi )2 )ni
est une sous-martingale positive : on a donc
9
P( sup |Xn Xi |2 > 2 /9) E(Xn XN )2 .
niN 2
Ainsi
9
P(Rn > ) 2
sup E(Xn XN )2 ,
N n
cette dernire suite tend bien vers 0, puisque (Xn )n1 converge en moyenne
quadratique.
40 CHAPITRE 3. MARTINGALES

3.4 Temps darrts


On dit que variable alatoire T valeurs dans N {+} est un temps
darrt adapt la filtration (Fn )n0 si pour tout n N, lvnement T n
est Fn -mesurable.
Comme {T = n} = {T n}\{T n 1}, il sensuit que T = n est
galement Fn -mesurable.
Exemple: Toute constante est un temps darrt adapt toute filtration.

Dmonstration. Si T est constant, {T n} ne peut valoir que ou , et


est donc toujours dans Fn .

Exemple: Si (Xn )n1 est une suite de variables alatoires (Fn )n1 -adapte
valeurs dans S et A un borlien de S, alors

TA = inf{n 1; Xn A}
est un temps darrt (Fn )n1 -adapt.
Preuve : {TA n} = nk=1 {Xk A}.
Dfinition: On dit quun vnement A se produit avant T si pour tout n,
lvnement A {T n} est Fn -mesurable.
Remarque: Si deux temps darrts S et T adapts la filtration (Fn )n0
vrifient S T , alors tout vnement qui se produit avant S se produit avant
T.

Dmonstration. Soit A se produisant avant S. Comme S T , on a {T


n} A = (A {S n}) {T n}. Comme A se produit avant S, A {S
n} Fn . Par dfinition dun temps darrt, {T n} Fn . On en dduit
que {T n} A Fn . Comme n est quelconque, A se produit avant T .

Proposition 3. Soit T un temps darrt adapt une filtration (Fn )n0 .


Lensemble FT des vnements qui se produisent avant T forme une tribu.

Dmonstration. Montrons que FT . Pour tout n, on a {T


n} = Fn , car toute tribu contient donc on a bien FT .
Soit A FT . Montrons que Ac FT . Soit n entier. On a Ac {T
n} = {T n}\(A{T n}). Les vnements {T n} et A{T n}
sont tous deux Fn -mesurables, donc Ac {T n} est bien dans Fn .
Comme n est quelconque, Ac FT .
Soit (Ap )p1 une suite dlments de FT . Il faut montrer que A =
p1 Ap FT Soit n entier. On a

A {T n} = p1 (Ap {T n}),
3.4. TEMPS DARRTS 41

A est runion dnombrable dlments de Fn , donc A Fn , et finale-


ment A FT .

Remarque: T est FT mesurable.


Dmonstration. Il sut de montrer que pour tout t R {T t} FT . Soit
n N : Si on note i la partie entire de t, on a

{T t} {T n} = {T i} {T n} = {T i n} Fin Fn .

Thorme 23 (Thorme de Hunt). Soit (Fn )n0 une filtration et (Xn )n0
une sous-martingale adapte la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] XS .
Dmonstration. Il sagit de montrer que pour tout vnement A FS -mesurable,
on a EXT11A EXS11A . Soit M un entier dterministe tel que lon ait S T
M . Posons k = Xk Xk1 , avec X1 = 0. Notons, que comme (Xn ) est une
sous-martingale E1
1B k est positif pour tout ensemble B Fk1 -mesurable. On
a

M
E((XT XS )1
1A ) = E( k11S<kT11A )
k=0

M
= Ek11{S<kT }A
k=0

Pour conclure, il reste donc voir que {S < k T } A est Fk1 -mesurable,
ce qui vient de lidentit

{S < k T } A = ({S k 1} A) (T k 1)c .

On en dduit facilement les deux rsultats suivants :


Corollaire 2. Soit (Fn )n0 une filtration et (Xn )n0 une surmartingale adap-
te la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] XS .
42 CHAPITRE 3. MARTINGALES

Corollaire 3. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] = XS .
Thorme 24 (Thorme darrt). Soit (Fn )n0 une filtration et (Xn )n0
une sous-martingale adapte la filtration (Fn )n0 . Soit T un temps dar-
rt adapt la filtration (Fn )n0 . Alors la suite (XnT )n0 est une sous-
martingale adapte la filtration (Fn )n0 .
Dmonstration. Soit A un vnement Fn -mesurable et n un entier. On a
E1
1A X(n+1)T = E1
1A X(n+1)T11{T n} + E1
1A Xn+1T11{T >n}
= EXnT11A11{T n} + EX(n+1)T11A11{T >n}

Pour linstant, on a juste utilis que quand T n, on a (n + 1) T =


T = n T.

Montrons que A {T > n} est FnT -mesurable : soit p un entier ; on doit


montrer que A {T > n} {n T p} est dans Fp . Si n > p, lintersection
est lensemble vide, donc est Fp -mesurable. Si n p, alors {n T p} = ,
donc
A {T > n} {n T p} = A {T > n} Fn Fp .
Ainsi, en appliquant le thorme de Hunt aux temps darrts (n + 1) T
et n T , on a
EX(n+1)T11A11{T >n} EXnT11A11{T >n}
Do
E1
1A X(n+1)T = EXnT11A11{T n} + EX(n+1)T11A11{T >n}
EXnT11A11{T n} + EXnT11A11{T >n}
EXnT11A
ce qui achve la preuve.

On en dduit facilement les deux rsultats suivants :


Corollaire 4. Soit (Fn )n0 une filtration et (Xn )n0 une surmartingale adap-
te la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration
(Fn )n0 . Alors la suite (XnT )n0 est une surmartingale adapte la filtra-
tion (Fn )n0 .
3.5. CONVERGENCE L1 DES MARTINGALES 43

Corollaire 5. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration (Fn )n0 .
Alors la suite (XnT )n0 est une martingale adapte la filtration (Fn )n0 .
Remarque: Certains auteurs appellent thorme darrt ce que nous
avons appel thorme de Hunt . En fait, ces deux rsultats sont qui-
valents. Ici, nous avons choisi de dmontrer le thorme de Hunt et den
dduire le thorme darrt, tandis que dautres auteurs (par exemple Baldi,
Mazliak et Priouret) font le choix inverse.
Les deux lemmes suivants seront utiles par la suite. Leur preuve relve
des mthodes classiques.
Lemme 4. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration (Fn )n0 .
Alors, la variable alatoire 11{T <+} XT est FT -mesurable.
Dmonstration. Il sut de voir que pour tout borlien de R, lvnement
{1
1{T <+} XT A} est FT -mesurable. Soit n un entier : on a
{1
1{T <+} XT A} {T n} = in {Xi A; T = i},
qui est bien Fn -mesurable.
Lemme 5. Soit (Fn )n0 une filtration et (An )n0 une suite dvnements
adapte la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration
(Fn )n0 . Alors, la variable alatoire S dfinie par
S() = inf{n T (); An }.
est un temps darrt.
Dmonstration. Il sut de remarquer que pour tout n
{S n} = in Ai {T i},
qui est clairement Fn -mesurable.

3.5 Convergence L1 des martingales


3.5.1 Thorme des traverses montantes
Thorme 25. Soit (Xn )n1 une sous-martingale a, b deux rels avec a < b.
On note Un[a,b] le nombre de traverses montantes de a b entre les instants
1 et n. Alors, on a
E(Xn a)+
EUn[a,b]
ba
44 CHAPITRE 3. MARTINGALES

(Xn a)+
Dmonstration. Posons pour n 1 : Yn = ba
: comme |Yn | 1
ba
(|Xn |+
+
|a|) et que (x) = (xa)
ba
est croissante et convexe, (Yn )n1 est une sous-
martingale.
Posons 0 = 0, et pour k 1

k = inf{n k1 ; Xn a}

et
k = inf{n k ; Xn b}.
En utilisant le lemme 5, on voit facilement par rcurrence que les (k ) et les
(k ) sont des temps darrt. Dautre part, par construction, on a 0 1
1 2 n n .
On a

n
Un[a,b] = 11{k n} .
k=1

Montrons que 11{k n} Ynk Ynk : il y a trois cas possibles


si k > n, alors k > n : on a

11{k n} = 0 = Yn Yn = Ynk Ynk .

si k k n, alors on a Ynk = Yk 1 tandis que Ynk = Yk = 0,


de sorte que
11{k n} = 1 Ynk Ynk .
si k n < k , alors Ynk = Yn 0 tandis que Ynk = Yk = 0, de
sorte que
11{k n} = 0 Ynk Ynk .
On a donc

n
Un[a,b] Ynk Ynk .
k=1

On peut crire

Yn Y0 = Yn n Y0 n

n
= Yk n Yk1 n
k=1
n
= (Yk n Yk n ) + (Yk n Yk1 n )
k=1
3.5. CONVERGENCE L1 DES MARTINGALES 45

Il sensuit que

n
Un[a,b] Yn Y0 Yk n Yk1 n
k=1

n
Yn Yk n Yk1 n ,
k=1

soit, en prenant lesprance



n
EUn[a,b] EYn E[Yk n Yk1 n ].
k=1

Mais k n et k1 n sont des temps darrts borns avec k1 k . Daprs


le thorme de Hunt, on a donc, en rintgrant, E[Yk n Yk1 n ] 0, do

EUn[a,b] EYn ,
ce qui tait le rsultat voulu.

3.5.2 Le thorme de convergence de Doob


Thorme 26. Soit (Xn )n1 une sous-martingale.
Si K = sup E[Xn+ ] < +, alors la suite (Xn )n1 converge presque surement
n1
vers une variable alatoire X qui est telle que E|X| K.
Dmonstration. Faisons dabord une remarque danalyse : si une suite (xn )n1
ne converge pas dans R, alors il existe deux rationnels a et b tels que la suite
(xn )n1 traverse une infinit de fois lintervalle [a, b] de bas en haut : pour
cela, il sut de considrer deux rationnels a et b vrifiant limn+ xn <
a < b < limn+ xn . Ainsi, si lon note U [a,b] le nombre de traverses de
lintervalle [a, b], on a

{Xn ne converge pas dans R} {U [a,b] = +}.


a<b,(a,b)Q2

Cette runion est dnombrable. Pour achever la preuve, il sut donc de


montrer que pour tout couple (a, b) avec a < b, on a
P(U [a,b] = +) = 0.

Cependant on a par convergence monotone EU [a,b] = lim E[Un[a,b] ] K+|a|


ba
n+
daprs le thorme des traverses montantes et la dfinition de K. Comme
U [a,b] est intgrable, elle est presque srement finie.
46 CHAPITRE 3. MARTINGALES

Ainsi (Xn )n1 converge presque srement vers un lment X de R. Daprs


le lemme de Fatou, on a E|X| = E lim |Xn | lim E|Xn | K. Ainsi,
n+ n+
|X| est intgrable, ce qui implique quelle prend presque srement ses valeurs
dans R.

Corollaire 6. Soit (Xn )n0 une martingale positive adapte la filtration


(Fn )n1 . Alors (Xn )n0 converge presque srement vers une variable X
telle que E[X ] E[X1 ].
Dmonstration. Ici, on a E[Xn+ ] = E[Xn ] = E[X1 ] pour tout n, donc on
applique le thorme avec K = E[X1 ].
On a un rsultat un peu plus faible pour les surmartingales positives :
Thorme 27. Soit (Xn )n0 une surmartingale positive adapte la filtra-
tion (Fn )n1 . Alors (Xn )n0 converge presque srement vers une variable X
valeurs dans [0, +].
Dmonstration. La suite (Xn )n1 est une sous-martingale. On pose Yn =
exp(Xn ). On a 0 Yn 1. Comme la fonction exp est croissante et
convexe, Yn = (Xn ) est une sous-martingale

3.6 Dcomposition de Doob (*)


Dfinition: On dit quun processus (Fn )n0 - adapt (Cn )n0 est un processus
croissant prvisible si C0 = 0, Cn Cn+1 et si Cn+1 est Fn -mesurable.
Thorme 28. Toute sous-martingale (Xn )ge0 scrit de manire unique
comme somme dune martingale (Mn )n0 et dun processus croissant pr-
visible intgrable (Cn )n0 .
Dmonstration. Supposons quune telle dcomposition existe : on a alors
E[Xn+1 Xn |Fn ] = E[Mn+1 Mn |Fn ] + E[Cn+1 Cn |Fn ]
= 0 + (Cn+1 Cn )
= Cn+1 Cn ,
car (Mn )n0 est une martingale et Cn+1 Cn est Fn -mesurable. Comme
C0 = 0, on doit ncessairement avoir

Cn = E[Xi+1 Xi |Fi ].
i<n

Chaque terme de la somme est bien dans Fn1 et est positif, car (Xn )n0 est
une sous-martingale, donc Cn est bien croissant prvisible.
3.6. DCOMPOSITION DE DOOB (*) 47

On prsente maintenant une jolie application de la Dcomposition de


Doob. On va donner une nouvelle preuve du thorme de Hunt, base sur
son corollaire relatif aux martingales (lequel peut bien sr se montrer sans
utiliser la version sous-martingale du thorme de Hunt, voir par exemple
Stroock).

Corollaire 7 (Thorme de Hunt, version 2). Soit (Fn )n0 une filtration et
(Xn )n0 une sous-martingale adapte la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] XS .

Dmonstration. On crit la dcomposition de Doob Xn = Mn + An , avec la


martingale (Mn )n0 et le processus croissant prvisible intgrable (Cn )n0 .
XT = MT + CT MT + CS , car (Cn )n0 est croissant. Donc E[XT |FS ]
E[MT |FS ] + E[CS |FS ]. Daprs le thorme de Hunt sur les martingales,
E[MT |FS ] = MS . Dautre part , le processus (Cn )n0 est adapt, donc daprs
le lemme 4, CS est FS -mesurable et E[CS |FS ] = CS . Finalement, E[XT |FS ]
MS + CS = XS .
48 CHAPITRE 3. MARTINGALES

3.7 Exercices sur les martingales


3.7.1 Exercices corrigs
Exercice 23. Soit a R. Soit (Un )n1 une suite de variables alatoires
indpendantes suivant la loi uniforme sur [0, 1]. On dfinit par rcurrence
une suite Xn par X0 = a et Xn+1 = Un+1 + (1 Un+1 )Xn2 .
1. Montrer que la suite (Xn )n0 est une sous-martingale.
2. On suppose maintenant que a [0, 1].
(a) Montrer que (Xn )n0 converge presque srement vers une variable
alatoire X .
(b) Donner la valeur de X
lien vers lindication lien vers la solution

3.7.2 Exercices non corrigs


Exercice 24. Soient 1 et 2 des temps darrts adapts la filtration (Ft )t0 .
Montrer que = max(1 , 2 ) est un temps darrt et que F = (F1 , F2 ).
lien vers lindication

Exercice 25. Soit (Xn )n1 une suite de variables alatoires indpendantes
identiquement distribues admettant un moment dordre 3 et vrifiant EX1 =
EX13 = 0 et EX12 = 1. On note Fn = (X1 , . . . , Xn ) et on pose

n
Sn = Xi .
k=1

1. On pose Yn = Sn3 3nSn . Montrer que (Yn )n1 est une martingale par
rapport la filtration (Fn )n1 .
2. Soient a, b, c, d des rels. On pose

Q(x, t) = x2 + axt + bx + ct + d.

Pour quelles valeurs du quadruplet (a, b, c, d) la suite Zn = Q(Sn , n)


forme-t-elle une martingale rapport la filtration (Fn )n1 ?
lien vers lindication

Exercice 26. Soit (Xn )n1 une surmartingale (Fn )n1 -adapte. On suppose
que les (Xn )n1 ont toutes la mme loi.
1. Montrer que (Xn )n1 est une martingale.
3.7. EXERCICES SUR LES MARTINGALES 49


2. Montrer que pour tout rel a les suites (Xn a)+
n1 et (Xn a)n1
sont des martingales.
3. En dduire que pour n > p 1, Xn est presque srement suprieur
ou gal a sur lvnement {Xp a}.
4. En dduire que (Xn )n1 est presque srement constante.
lien vers lindication

Exercice 27. Soit (Xn )n1 une suite de variables alatoires indpendantes
identiquement distribues dont la loi commune est non dgnre et support
compact. On pose Sn = X1 + + Xn , (t) = log EetX1 et

Ynt = etSn n(t) .

1. Montrer que (Ynt )n1 est une martingale par rapport la filtration
naturelle associe aux (Xn )n1 .
2. On suppose dsormais que t est non-nul. Montrer que (t/2) < (t)/2.
3. En dduire que (Ynt )n1 converge presque srement vers 0.
4. Retrouver ce rsultat partir de la loi forte des grands nombres.
lien vers lindication

Exercice 28. Thorme de convergence L1 des martingales


Soit (Fn )n1 une filtration de lespace (, F, P ). On note F = (n1 Fn )).
Soit Z une variable alatoire possdant un moment dordre 1. On pose Yn =
E[Z|Fn ].
1. Montrer que (Yn )n1 est une martingale par rapport la filtration
(Fn )n1 .
2. Dmontrer quil existe une variable alatoire Y intgrable vers laquelle
(Yn )n1 converge presque srement.
3. Soit W une variable alatoire intgrable et (Tn ) une suite borne dans
L1 . Montrer que
( )
lim sup E |W |1
1{|Tn |a} = 0.
a+ n1

Remarque : on pourrait en fait remarquer quon a le rsultat plus


fort : si W est une variable alatoire intgrable, alors on a la proprit
duniforme intgrabilit :

lim sup E[|W |1


1A ] = 0.
0 AF :P(A)
50 CHAPITRE 3. MARTINGALES

4. Dmontrer que la suite (Yn ) est qui-intgrable sous P, cest dire que

lim sup |x| dPYn (x) = 0.
a+ n1 R\[a,a]

5. En dduire que Yn converge en norme 1 vers Y .


6. Montrer que Y = E[Z|F ].
lien vers lindication
Exercice 29. Soit a [0, /2]. Soit (Un )n1 une suite de variables alatoires
indpendantes suivant la loi uniforme sur [0, 1]. On dfinit par rcurrence une
suite Xn par X0 = a et Xn+1 = Un+1 sin Xn . Montrer que (Xn )n1 prend des
valeurs positives, puis que la suite (2n Xn )n0 est une surmartingale. lien vers
lindication
Exercice 30. Arrt optimal pour une marche alatoire.
On considre le jeu suivant. Jai un pion qui se dplace sur les entiers compris
entre 0 et n. A chaque point i {1, . . . , n 1} est associ un somme f (i)
strictement positive (on la prolonge par f (0) = f (n) = 0). On prolonge
encore f en une fonction continue par morceau dfinie sur [0, n] en posant
f (k + (1 )(k + 1)) = f (k) + (1 )f (k + 1) pour tout k {0, . . . , n 1}
et tout ]0, 1[.
Mon pion part dun point i0 {1, . . . , n 1} ; chaque tape, je peux
dcider de partir avec le gain correspondant ma position actuelle, ou alors
lancer une pice quilibre qui me donnera ma position suivante (juste
droite si pile, juste gauche si face). Si je touche 0 ou n je ne gagne rien
et je suis limin. Quelle stratgie adopter ?
Ce problme revient trouver un temps darrt T optimal pour la marche
alatoire. Notons Xn la position de mon pion linstant n, et Fn la tribu
engendre par X0 , . . . , Xn .
1. Soit g une fonction concave suprieure f . Montrer que (g(Xn ))nN
est une surmartingale.
2. Soit T un temps darrt fini p.s. Montrer que
E(f (XT )) E(g(XT )) g(i0 ).

3. Notons lenveloppe concave de f , cest dire


(x) = inf{g(x); g S(f )},
o S(f ) est lensemble des fonctions concaves de [0, n] dans R qui sont
suprieures f . Montrer que
E(f (XT )) (i0 ).
3.7. EXERCICES SUR LES MARTINGALES 51

4. Montrer que est une fonction concave. Soit ]s, t[ [0, n] tel que
{x [s, t]; f (x) = (x)} = {s, t}. Montrer que est ane sur [s, t].
5. On dfinit Topt = min{n N, f (Xn ) = (Xn )}, ainsi que

A = min{j i0 , f (j) = (j)} et B = max{j i0 , f (j) = (j)}.

Calculer E(f (XTopt )) en fonction de f (A) et f (B), et en dduire que

E(f (XTopt )) = (i0 ).

lien vers lindication

Exercice 31. Soit (Xn )n1 une suite de variables alatoires indpendantes
centres, de variance 1. Montrer que la srie de terme gnral Yn = an X1 . . . Xn
converge presque srement et dans L2 . lien vers lindication
52 CHAPITRE 3. MARTINGALES
Chapitre 4

Complments de thorie de la
mesure

4.1 Rappels de topologie


4.1.1 Topologie produit
Si les (Ei , di ) sont des espaces mtriques, on dfinit une distance sur
+
i=1 Ei par


+
+
(x, y) Ei d(x, y) = 2i arctan di (xi , yi ).
i=1 i=1

Notons i la projection sur la i-ime coordonne : i (x) = xi .


La suite (x(n) )n1 converge vers x si et seulement si pour tout i (i (x(n) )n1 =
(n)
(xi )n1 converge vers xi = i (x).
Dmonstration. En eet, on a dun ct lingalit
di (xni , xi ) = tan(arctan di (xni , xi )) tan(2i d(xn , x)).
Ainsi, si d(xn , x) tend vers 0, di (xni , xi ) tend vers 0. Rciproquement, si
di (xni , xi ) tend vers 0 pour tout i, on a
i 1 limn+ 2i arctan di (xi , xni ) = 0
i 1 n 1 |2i arctan di (xi , xni )| 2i /2

i1 2i /2 < +
Ainsi, le rsultat annonc dcoule du thorme de convergence domine pour
la mesure de comptage.
Corollaire 8. Un produit dnombrable despaces mtriques complets est com-
plet.

53
54 CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

4.1.2 Espaces polonais


Dfinition. On introduit les deux dfinitions suivantes :
Un espace mtrique est sparable sil contient une partie dnombrable
dense
Un espace polonais est un espace mtrique complet et sparable.
Par exemple, R muni de la mtrique usuelle est un espace polonais : R
est complet et Q est dense dans R.
Thorme 29 (Lemme de Doob). Soient 1 , 2 des ensembles. On suppose
que X est une application de 1 dans 2 , que F2 est une tribu sur 2 . On
note alors F1 la tribu engendre par X, cest dire la plus petite tribu F1 qui
rende lapplication X (1 , F1 ) (2 , F2 ) mesurable. Alors, si (E, B) est un
espace polonais muni de sa tribu borlienne, les fonctions (1 , F1 ) (E, B)
mesurables sont celles qui scrivent sous la forme

Y = f (X),

o f est une application (2 , F2 ) (E, B) mesurable.


Dmonstration. Prenons Y (1 , F1 )(E, B) est montrons quelle scrit sous
la forme demande (le sens inverse est immdiat). On commence par traiter
le cas o Y ne prend quun nombre fini de valeurs y1 , . . . , yn . Pour tout k
entre 1 et n, {yk } E, donc Y 1 ({yk }) F . Mais les lments F sont
exactement les images rciproques par X des lments de F2 , donc il existe

Ak F2 , avec Y 1 ({yk }) = X 1 (Ak ). Si lon pose f (x) = ki=1 yk11Ak , il
est alors clair que f est une application (2 , F2 ) (E, B) mesurable et que
Y = f (X).
Passons au cas gnral : considrons une suite (yn )n1 dlments de E
qui est dense dans E. On pose alors pour tout y E :

n
n (y) = 11{d(y,yi )>d(y,yk )} 11{d(y,yi )d(y,yk )} yk .
k=1 i<k k<in

Comme les fonctions y 7 d(y, yi ) sont continues, elles sont (E, B)(R, B(R))-
mesurable. Ainsi, les fonctions y 7 d(y, yi )d(y, yk ) sont (E, B)(R, B(R))-
mesurables : on en dduit que les ensembles {d(y, yi ) > d(y, yk )} et {d(y, yi )
d(y, yk )} sont dans B, puis que n est (E, B) (E, B)-mesurable. n (y) est
llment le plus proche de y parmi y1 , . . . , yk (on prend celui de plus petit
index en cas dgalit). Comme la suite (yn ) est dense dans E, n (y) converge
vers y quand n tend vers linfini. 1
nx
1. Si E = R ou E = Rd , on peut prendre plus simplement n (x) = n 11[0,n] (x).
4.1. RAPPELS DE TOPOLOGIE 55

Prenons maintenant Y gnrale. Si on pose Yn = n (Y ), Yn est une


fonction (1 , F1 )(E, B) qui ne prend quun nombre fini de valeurs : on peut
crire Yn = fn (X), o fn est une application (2 , F2 ) (E, B) mesurable.
Comme (E, d) est complet, si on pose C = {x 2 ; (fn (x))n1 converge },
on a
C = k1 N 1 n,pN {d(fn (x), fp (x)) 1/k},
donc C F2 . Soit z0 E quelconque. On pose gn (x) = 11C (x)fn (x) + z011C . Il
est ais de voir que gn est encore (2 , F2 ) (E, B) mesurable. Par construc-
tion, gn (x) converge pour tout x. La limite g est (2 , F2 ) (E, B) mesurable
comme limite simple dapplications (2 , F2 ) (E, B) mesurables. 2 Pour tout
1 , on a fn (X()) = n (Y ()) qui converge vers Y (), donc X() C,
et gn (X()) = fn (X()) converge vers Y (). Comme gn (X()) converge
vers g(X()), on a Y () = g(X()), ce qui est le rsultat voulu.
Thorme 30. Un produit dnombrable despaces polonais est polonais.
Dmonstration. Soient (Ei , di ) des espaces polonais. Vu le corollaire prc-

dent, il sut de montrer que + i=1 Ei a une partie dnombrable dense. Notons
Di une partie dnombrable dense dans Ei et x un lment quelconque de
+
i=1 Ei . Posons D = n1 En , avec


n
+
En = Di {xi }.
i=1 i=n

En est dnombrable pour tout n, donc D est dnombrable. Montrons que



D est dense dans + i=1 Ei . Soit x dans E Soit > 0. Il existe n tel que
n
2 . Par densit, on peut trouver y En tel que pour tout i entre 1 et
n, d(yi , xi ) 2 . On a alors

+
d(x, y) = 2i arctan di (xi , yi )
i=1

n
+
i
2 arctan di (xi , yi ) + 2i arctan di (xi , yi )
i=1 i=n+1

n
+
2i di (xi , yi ) + 2i /2
i=1 i=n+1
n
+
2i /2 + 2i /2
i=1 i=n+1
n
/2 + 2 /2
2. Cette proprit est bien connue pour des variables alatoires relles. Le cas des
variables valeur dans un espace mtrique sera trait en exercice.
56 CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE


En particulier RN est un espace polonais. Cest important en probabilits

car RN est typiquement lespace sur lequel on peut faire vivre une suite de
variables alatoires.

Thorme 31. Soient (E, d) un espace mtrique sparable et B sa tribu


borlienne. B est engendre par une famille dnombrable de boules ouvertes.

Dmonstration. Soit O un ouvert de E. E est un espace mtrique qui admet


une partie dense D, donc O scrit comme runion de boules ayant leur centre
dans O D et un rayon rationnel.
En eet, pour x O, on peut trouver nx N tel que B(x, 2/nx ) O.
Si on prend cx quelconque avec cx B(x, 1/nx ) D, alors x B(cx , 1/nx )
B(x, 2/nx ) O. On a alors O = B(cx , 1/nx ).
xO
Cette runion est ncessairement dnombrable, puisque les centres et les
rayons sont dnombrables, donc O est dans la tribu engendre par les boules
dont le centre est dans D et le rayon rationnel.

Thorme 32. La tribu B engendre par les ouverts de RN concide avec
la tribu engendre par les applications projection i

Dmonstration. On a vu que lapplication est continue de (RN , d) dans
(R, | |). Elle est donc mesurable entre les tribus borliennes associes. On a

donc ((i )i1 ) B. Pour y dans RN , la fonction


+
arctan |xi yi | N
|i (x) yi |
dy (x) = d(x, y) = = lim arctan
i=1 2i N +
i=1 2i

est une limite dapplications ((i )i1 )-mesurables donc est (i )-mesurable.

Il sensuit que les boules de (RN , d) sont des lments de ((i )i1 ). Or
daprs le thorme prcdent, les boules ouvertes engendrent la tribu bor-
lienne, donc B est incluse dans ((i )i1 ), ce qui achve la preuve.

Thorme 33. Soient (E, d) un espace mtrique sparable. Il existe une


famille dnombrable (Oi )iI douverts de (E, d) telles que deux mesures bo-
rliennes qui concident sur les Oi sont gales.

Dmonstration. Comme prcdemment, on a une famille dnombrable de


boules (Bd )dD telles que tout ouvert scrive comme runion dnombrable
de boules (Bdn )n1 avec dn D pour tout n. Soit I lensemble des parties
finies de D. I est dnombrable. Posons OA = Bi .
iA
4.2. NOTION DE LOI CONDITIONNELLE 57

Soit O un ouvert, avec O = Bdn . On a pour toute mesure :


n1

n
(O) = lim ( Bdk )
n+ k=1

= lim (1)|A|+1 (OA )
n+
A{d1 ,...,dn },A=

Ainsi, si deux mesures concident sur les OA , elles concident sur les ouverts,
donc sur la tribu borlienne.

4.2 Notion de loi conditionnelle


Soit un espace polonais. On note M1 () lensemble des mesures de
probabilits sur (, B()).

On munit M1 () de la tribu T engendre par
les applications 7 f d, o f dcrit lensemble des fonctions continues
bornes sur .

4.2.1 Le thorme gnral


Thorme 34. Soit un espace polonais. On pose F = B(). Soit P une
probabilit sur (, F). Pour toute sous-tribu S de F, il existe une application
M1 ()
7 PS
qui est (, S)-(M1 (), T ) mesurable et telle que pour tout A S et B F ,

P (A B) = PS (B) dP (). (4.1)
A

Cette application est P presque srement unique. Pour toute variable ala-
toire X valeurs dans [0, +], lapplication

7 X dPS

est une version de lesprance conditionnelle de X sachant S.


Avant de faire la preuve, on rappelle ( ?) un rsultat danalyse fonction-
nelle :
Proposition 4 (Thorme de reprsentation de Riesz). Pour toute forme li-
naire positive L sur (C([0, 1]d ), ), il existe une mesure sur (Rd , B(Rd ))
telle que
f C([0, 1] ) L(f ) =
d
f d.
[0,1]d
58 CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

Dmonstration. Il ny a pas de preuve simple du thorme de reprsentation


de Riesz. On devine vite quune bonne dfinition de - si elle existe est

(A) = sup{L(f ); 0 f 11A .}

Toute la dicult consiste montrer que lobjet ainsi dfini est bien une
mesure sur la tribu borlienne. Les preuves reposent de manire plus ou
moins explicite sur la notion de mesure extrieure, de manire trs explicite
dans BrianePags [1] (chapitre 10), de manire plus cache dans Rudin [4]
(chapitre 1) ou HirschLacombe [3] (chapitre 2).
En fait, le thorme de reprsentation de Riesz est la pierre de base de
la thorie de lintgration par rapport une mesure de Radon. Cette thorie
part de la notion dintgrale (une forme linaire positive sur les fonctions
continues support compact) pour aller la notion de mesure de Radon.
linverse, la thorie de lintgrale par rapport une mesure abstraite, telle
que dveloppe dans BrianePags [1] ou GaretKurtzmann [2] part dune
mesure (pas ncessairement de Radon) pour construire lintgrale. La mesure
de Lebesgue tant une mesure de Radon, la thorie de lintgrale par rapport
une mesure de Radon est susante pour la plupart des besoins en analyse,
en revanche, elle est incomplte aux yeux des probabilistes, qui ont besoin
dintgrer sur des espaces plus gnraux.
Dmonstration. Montrons lunicit. Soit 7 PS et 7 QS deux solutions.
Comme est polonais, il existe une famille dnombrable douverts (On )n1
telle que dcrite dans le thorme 33. Pour tout n, 7 PS (On ) et 7
QS (On ) sont des versions de lesprance conditionnelle de 11On sachant S.
Ainsi, lensemble

B= { : PS (On ) = QS (On )}
n1

est de mesure 1. Daprs le thorme 33, pour tout B, les mesures PS et


QS concident : cest ce que lon voulait dmontrer.
Passons lexistence. Afin dviter les dtails techniques danalyse fonc-
tionnelle, on va se contenter de donner la preuve dans le cas o = [0, 1]d . 3
On renvoie le lecteur louvrage de Stroock [5] pour une preuve dans le cas g-
nral. On sait que les polynmes forment une famille dense de C([0, 1]d , ).
On en dduit aisment que lensemble P des polynmes coecient rationnel
est une famille dnombrable dense de C([0, 1]d , ).
3. Cest une restriction minime. On verra dans la preuve du thorme de Kolmogorov
(thorme 59, voir aussi la note de bas de page suivant la preuve) que ds quun espace
permet de faire vivre une variable alatoire suivant la loi uniforme sur [0, 1], on peut y
faire vivre peu prs tout ce quon veut.
4.2. NOTION DE LOI CONDITIONNELLE 59

Posons g0,...,0 = 1, puis, pour n Nd \{(0, . . . , 0)}, notons gn une version



de lesprance conditionnelle de 7 di=1 ini sachant S. fix, il existe

une application linaire : R[X1 , . . . , Xd ] R telle que ( di=1 Xini ) =
gn () pour tout n. Il est ais de constater que pour tout f R[X1 , . . . , Xd ],
7 (f ) est une version de lesprance conditionnelle de f sachant S, cest
dire que (f ) est S-mesurable et que

A S f dP = (f ) dP() (4.2)
A A

Posons
N = { ; (f ) < 0}.
f Q[X1 ,...,Xd ];f

Comme runion dnombrable dlments de S de probabilit nulle, N est un


lment de S de probabilit nulle. Pour N c et f Q[X1 , . . . , Xd ], on
a pour tout > f avec rationnel : + f 0 et f 0, donc
( + f ) 0, soit (1) + (f ) 0 et (1) (f ) 0. Comme
(1) = 1, on en dduit | (f )| . Comme peut tre pris aussi proche
de f que lon veut, on a | (f )| f . On a donc montr

N c f P | (f )| f .

Comme P est dense dans C(, ), pour tout N c , se prolonge en


une application linaire de norme 1 de C(, ) dans R.
Soit f C() une fonction positive. On peut trouver f P avec f

f 1/n. On a

(f ) = (f + 1/n) + (f f 1/n)
(f + 1/n) f f 1/n
2
(f + 1/n)
n
Mais f+1/n est une fonction positive de P. Comme N c , (f+1/n) 0,
do (f ) 2/n. En faisant tendre n vers linfini, on obtient (f ) 0.
Posons pour f C() :

(f ) = EP (f )1
1N () + (f )1
1N c ().

Comme N S, (f ) pour f P. Mais pour f C(, il existe une suite fn


dlments de P telle que fn converge uniformment vers f et (fn ) converge
partout (pour tout ) vers (f ) : 7 (f ) est donc S-mesurable comme
limite ponctuelle dapplications S-mesurables.
60 CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

Comme N est de mesure nulle, on a encore pour tout f P :



A S f dP = (f ) dP() (4.3)
A A

Pour tout A, les formes linaires f 7 A f dP et f 7 A (f ) dP() sont
continues sur C(). Comme elles concident sur P, elles concident sur C().
Daprs le thorme de reprsentation de Riesz, pour tout , il existe
P telle que pour tout f C(), (f ) = f dPS .
S

Comme 7 f dPS est S-mesurable pour tout f C(), la dfinition
de T entrane, avec le thorme fondamental de la mesurabilit, que 7 PS
est S-mesurable 4 .
Soit maintenant K un compact de : on peut construire une suite (fn )
borne de fonctions continues telle que

fn converge simplement vers 11K . Par
convergence domine, pour tout , fn dPS converge vers PS (K), ce qui
entrane en particulier que 7 PS (K) est S-mesurable. Comme

A S fn dP = fn dPS dP(),
A A

En appliquant encore une fois le thorme de convergence domine, on a



A S 11K dP = 11K dPS dP().
A A

Passons maintenant au cas dun borlien quelconque : comme P est une


mesure de probabilits sur [0, 1]d Rd , P est rgulire, cest dire que
pour B borlien de , on peut trouver une suite (Kn ) de compacts et une
suite (On ) douverts, avec Kn B On et lim P(On \Kn ) = 0. Pour une
preuve de cette proprit, on pourra par exemple se reporter lannexe B.
de Garet-Kurtzmann [2].
Avec le lemme de Fatou

lim (PS (On ) PS (Kn )) dP lim (PS (On ) PS (Kn )) dP
n+ n+

= lim P(On \Kn ) = 0


n+

Comme la suite (PS (On )PS (Kn ))n0 est dcroissante, il sensuit que pour P-
presque tout , PS (On )PS (Kn ) tend vers 0. Ainsi, P-presque tout , PS (Kn )
tend vers P S (A). Ainsi, un P-ngligeable prs 7 PS(A) est S-mesurable.

Lidentit A 11Kn dP = A PS (Kn ) dP entrane la limite A 11B dP = A PS (B) dP.
4. voir lexercice 35
4.2. NOTION DE LOI CONDITIONNELLE 61

Ainsi, PS (B) est bien une version de la probabilit conditionnelle de B sa-


chant S.
Le passage au fonctions tages, puis aux fonctions mesurables positives,
est classique et laiss au lecteur.

4.2.2 Loi dun vecteur sachant un autre


Un cas particulier important est le cas o P est une loi sur le produit
E F de deux espaces polonais 5 et que S est la famille des ensembles de
la forme A F , o A dcrit lensemble des borliens de E. Autrement dit,
cest le cas o S est la tribu engendre par la variable X, projection sur la
premire coordonne. Notons x un lment de E, y un lment de F .
S
Dans ce cas, comme (x, y) 7 P(x,y) est S-mesurable, PS(x,y) ne dpend que
de x 6 . On se fixe y0 F quelconque et lon peut poser

Px (B) = PS(x,y0 ) (E B).

On peut vrifier que (x 7 Px ) est (E, B(E))-(M1 (F ), T )-mesurable. Pour


tous x, y, on a PS(x,y) (E B) = Px (B).
Cette mesure B 7 Px (B) est couramment appele loi de Y sachant
X = x. On a ainsi


P(A B) = 11A (x)PS(x,y) (E B) dP(x, y) (4.4)
EF

= 11A (x)Px (B) dP(x, y) = 11A (x)Px (B) dPX (x). (4.5)
EF E

Si P admet une densit f (x, y) par rapport la mesure produit ,


alors Px est presque srement la mesure x de densit

f (x, y)
y 7
F f (x, y) d(y)

par rapport .

En eet, on sait que X admet par rapport la densit x 7 fX (x) =


F f (x, y) d(y). fX est PX -presque partout strictement positif, donc x est

5. Typiquement E = Rn et F = Rp .
6. On laisse ce point prciser en exercice. On notera quon na pas besoin ici du lemme
de Doob.
62 CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

bien dfini pour PX presque tout x. Ainsi, pour PX presque tout x, on peut
11B (y)f (x,y) d(y) 11B (y)f (x,y) d(y)
crire x (B) = F f (x,y) d(y) = F fX (x)
. On a alors
F

( )
F1
1B (y)f (x, y) d(y)
11A (x)x (B) dPX (x) = 11A (x) fX (x) d(x)
E E fX (x)

= 11A (x)1
1B (y)f (x, y) d(y) d(x)
E F

= 11AB (x, y) dP(x, y) = P(A B),


EF

ce qui donne bien le rsultat voulu.

4.2.3 chantillonneur de Gibbs


Le rsultat qui suit est trs important en simulation : il exprime que si
on sait simuler (la loi de) X et les lois conditionnelles de Y sachant X, on
sait simuler le couple (X, Y ).
Thorme 35. Soit une loi sur E F . On note X la loi image de par
la projection canonique de E F sur E (la loi de la premire marginale).
On suppose quon a un espace probabilis sur lequelle vivent des variables
alatoires X et U (respectivement valeurs dans E et G) et quexiste une
fonction : E G F telle que
PX = X
U est indpendante de X
Pour tout x E, (x, U ) suit la loi x .
Alors (X, (X, U )) suit la loi .
Dmonstration. Soient A et B des borliens de E et F On a
P(X A, (X, U ) B) = E[1
1A (X)1
1B ((X, U ))].

Comme X et U sont indpendants, on a E[1


1A (X)1
1B ((X, U ))|X] = (X),
avec
(x) = E[1 1B ((x, U ))] = 11A (x)P((x, U ) B) = 11A (x)x (B).
1A (x)1

En rintgrant, on a maintenant

P(X A, (X, U ) B) = E[(X)] = (x) dPX
E

= (x) dX = (A B)
E

avec (4.4).
4.3. THORME DE RADON-NIKODM 63

Les hypothses dexistence dune telle fonction ne sont pas extrava-


gantes. Rappelons le rsultat classique suivant :

Thorme 36. Soit F une fonction de R dans R, croissante, continue


droite, dont la limite est nulle en et vaut 1 en +. On suppose que sur
(, F, P), U est une variable alatoire suivant la loi uniforme sur [0, 1]. On
pose
u ]0, 1[ Q (u) = min{x R : 1 F (x) u}.
Alors Q (U ) est une variable alatoire relle dont la fonction de rpartition
est F .

Dmonstration. Posons Q = 1 F . On a, comme 1 F est continue droite,

{x : Q (U ) > x} = {x : Q(x) > U },

donc
x R P(Q (U ) > x) = P(Q(x) > U ) = Q(x).
Il reste vrifier que Q (U ) prend presque srement ses valeurs dans R. Pour
u ]0, 1[, {x R; 1 F (x) u} nest ni lensemble vide, ni R tout entier,
car F admet 0 comme limite en et 1 en +. Comme P(U ]0, 1[) = 1,
le rsultat voulu sensuit.

Ainsi, si on pose

(x, u) = min{y R : x ([y, +[) x},

pour U variable alatoire suivant la loi uniforme sur [0, 1], la fonction
rpond aux hypothses du thorme.
Ainsi, en admettant que lon sache exprimer , on sait simuler (X, Y ) ds
lors que lon sait simuler X et une variable alatoire suivant la loi uniforme
sur [0, 1] indpendante de X.

4.3 Thorme de Radon-Nikodm


Dfinition. Soient et deux mesures sur (, F). On rappelle quon dit
quune mesure est une mesure absolument continue par rapport la mesure
, ce qui est not , si pour tout A F, on a : (A) = 0 implique
(A) = 0.

Lemme 6. Soient et deux mesures de probabilit sur (, F). Si ,


alors pour tout > 0, il existe > 0 tel que (A) = (A) .
64 CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

Dmonstration. On raisonne par labsurde : on suppose quil existe > 0,


tel que pour tout n, il existe An avec (An ) n12 et (An ) > . Si on pose
A = lim An = Ak , le lemme de Borel-Cantelli nous dit que
n+ n1 k1
(A) = 0. Cependant, daprs le lemme de Fatou, on a (A) lim(An ) ,
ce qui contredit lhypothse.

Thorme 37 (Radon-Nikodm). Soit (, F) un espace mesurable. P et Q


deux mesures de probabilits sur (, F). On suppose quil existe une suite
(An )n1 dlments de F tels que F = (An , n 1).
Alors Q P si et seulement si Q admet une densit par rapport P,
cest dire quon a la reprsentation,

Q(A) = (x) dP(x).
A

Dmonstration. Bien sr, si Q = P, on a Q P. Voyons la rciproque.


Notons Fn la tribu engendre par les ensembles A1 , . . . , An . Fn est engendre
par une partition finie mesurable Pn , et lon peut dfinir
Q(A)
Xn = 11A .
APn P(A)

Notons quune fonction f Fn -mesurable scrit f = 11A (A).
APn
Q(A)
Ainsi, on a f Xn = (A)1
1A et
APn P(A)

E[f Xn ] = Q(A)(A) = EQ [ 1A ] = EQ [f ].
(A)1 (4.6)
APn APn

Comme f est aussi Fn+1 -mesurable, on a E[f Xn+1 ] = EQ (f ), do E[f Xn ] =


E[f Xn+1 ]. Ainsi, on a E[Xn+1 |Fn ] = Xn et (Xn )n1 est une martingale posi-
tive.
Lquation (4.6) nous sera encore utile par la suite. Elle exprime que Xn
est la densit de Q par rapport P sur la tribu Fn . Montrons que (Xn )n1
est qui-intgrable. Soit > 0. Daprs le lemme, il existe tel que P(B)
= Q(B) . Soit c > 1/. Comme 11{Xn >c} est Fn -mesurable, on a

E[Xn11{Xn >c} ] = EQ [1
1{Xn >c} ] = Q(Xn > c).

Pour montrer que Q(Xn > c) , il sut de montrer que P(Xn > c) .
Or, lingalit de Markov nous donne
4.3. THORME DE RADON-NIKODM 65

1 1 1
P(Xn > c) E[Xn ] = EQ [1] = ,
c c c
ce qui donne lqui-intgrabilit de la suite (Xn ). Comme (Xn ) est une mar-
tingale positive, Xn converge presque srement vers une fonction positive ,
et on a E[] E[X1 ] = EQ [1] = 1. Soit A Fn . Pour tout p n, on a
A Fp , do
Q(A) = EQ [1 1A ] = EXp11A .

Comme (Xp11A )p est qui-intgrable, de limite P-presque sre 1


1A , on a lim E[Xp11A ] =
p+
E[1
1A ], soit Q(A) = E[1
1A ]. Ainsi, les mesures Q et P concident sur
Fn . Comme ce -systme engendre la tribu F, les deux mesures con-
n1
cident et est bien la densit de Q par rapport P sur F.

Le lemme suivant permet dtendre de nombreux rsultats des mesures


de probabilit aux mesures -finies.

Lemme 7. Si (, F, ) est un espace mesur -fini, alors il existe une pro-


babilit P sur (, F) et une fonction -presque srement positive f tels que
f est la densit de P par rapport et 1/f la densit de par rapport P.

Dmonstration. Soit (An )n1 une suite avec 0 < (An ) < + pour tout
n 1 et = n1 An . On pose


+
1
f= 11A .
n=1 2n (A)

P = f est une mesure. Avec Tonelli, on a



P() = f d

+
1
= 11A d
n=1 2n (A)


+
1
= n
(A) = 1
n=1 2 (A)

P est donc bien une mesure de probabilit, de densit



f par rapport

.
1 1
Maintenant, pour g mesurable positive, on a g d = g f f d = g f dP,
ce qui montre que 1/f est la densit de par rapport P.
66 CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

Corollaire 9 (Radon-Nikodm). Soient (, F) un espace mesurable. et


deux mesures de probabilits -finies sur (, F). On suppose quil existe une
suite (An )n1 dlments de F tels que F = (An , n 1).
Alors si et seulement si admet une densit par rapport ,
cest dire quon a la reprsentation,

(A) = (x) d(x).
A

Dmonstration. L encore, la condition est ncessaire. Ensuite, construisons


P et Q telles que donnes par le lemme 7. On a Q , , P, donc
Q P. Avec le thorme, Q admet une densit par rapport . Considrons
, dP , d de par rapport Q, Q par rapport P,
d dQ dP
les densits respectives dQ
P par rapport . En appliquant 3 fois le thorme de transfert, on voit que
d dQ dP

dQ dP d
est une densit de par rapport .

Remarque 4. Dans les thormes de Radon-Nicodm, lhypothse dexis-


tence dune famille dnombrable engendrant la tribu est par exemple vrifie
dans le cas o F est la tribu borlienne dun espace sparable. Toutefois, il
faut noter que cette hypothse nest pas ncessaire, les thormes de Radon-
Nicodm pouvant se dmontrer directement par des techniques hilbertiennes.
4.4. EXERCICES SUR LES COMPLMENTS 67

4.4 Exercices sur les complments


4.4.1 Exercices corrigs
Exercice 32. Soit (, F) un espace mesurable et (E, B) un espace mtrique
muni de sa tribu borlienne. On suppose que (Xn )n1 est une suite dappli-
cations (, F) (E, B) mesurables et que pour tout , Xn () X().
Montrer que X est (, F) (E, B) mesurables. lien vers lindication lien vers
la solution
Exercice 33. On considre les applications X et Y sur lespace mesur
(R2 , B(R2 )) dfinies par X(x, y) = x et Y (x, y) = y. On suppose que (, F)
est un espace mesur et que F contient les singletons. Montrer que pour
toute application Z de R2 dans qui est (R2 , (X)) (, F) mesurable, il
existe une application H (R, B(R) (, F) mesurable avec Z = H(X). lien
vers lindication lien vers la solution
Exercice 34. Soient X et Y deux variables alatoires indpendantes suivant
respectivement les lois P() et P().
1. Calculer la loi conditionnelle de X sachant X + Y .
2. En dduire la valeur de E[X 2 |X + Y ].
lien vers lindication lien vers la solution

4.4.2 Exercices non corrigs


Exercice 35. Soient (1 , F1 ), (2 , F2 ) et (3 , F3 ) des espaces mesurs.
On suppose que F2 est la plus petite tribu qui rend mesurable les appli-
cations (i )i1 de 2 dans (3 , F3 ). Montrer que f : 1 2 est (1 , F1 )
(2 , F2 ) mesurable si et seulement pour tout i i f est (1 , F1 ) (3 , F3 )
mesurable. lien vers lindication
Exercice 36. Soient , , des mesures -finies sur (, F)
1. Montrer que si et , alors , et les densits relatives
vrifient d
d
= d d .
d d
2. Montrer que si et seulement si d
est presque srement non
( )1 d
d d
nulle, et qualors d
= d
.
lien vers lindication
Exercice 37. Soient P et Q deux mesures de probabilit sur lespace mesur
(, F). On suppose quil existe une famille dnombrable A F engendrant
F et une constante C telles que
A A C 1 Q(A) P(A) Q(A).
68 CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

Montrer que P Q P et que, la fois P presque srement et Q presque


srement, on a
dP
C 1 C.
dQ
lien vers lindication
Chapitre 5

Ingalits

Le but de ce chapitre est de prsenter, en application de la thorie des


martingales, et, plus gnralement, de lesprance conditionnelle, quelques
ingalits utiles en probabilits. Il ne sagit pas ici dapplications scolaires :
elles sont choisies pour leur utilit dans la pratique courante dun chercheur
en probabilits et en statistiques.

5.1 Ingalit dEfronStein


On commence par une ingalit utile en statistiques.

Thorme 38. Soient X1 , . . . , Xn des variables alatoires indpendantes et


Z une variable alatoire de carr intgrable (X1 , . . . , Xn ) mesurable. Alors,
si lon pose Zi = E[Z|(Xj )j=i ], on a


n
Var Z E[(Z Zi )2 ].
i=1

Dmonstration. On pose Yi = E[Z|X1 , . . . , Xi ] E[Z|X1 , . . . , Xi1 ]. La suite


Yi est une suite de dirences de martingales, donc une suite orthogonale
dans L2 . On a donc

Var Z = E(Y1 + + Yn )2

n
= E[Yi2 ]
i=1

Comme (X1 , . . . , Xi1 ) est une sous-tribu de (Xj )j=i , on a

E[Zi |X1 , . . . Xi1 ] = E[Z|X1 , . . . Xi1 ].

69
70 CHAPITRE 5. INGALITS

Cependant la tribu engendre par Zi et X1 , . . . Xi1 est une sous-tribu de


(Xj )j=i qui est indpendante de Xi , donc daprs le thorme 15, on a

E[Zi |X1 , . . . Xi1 ] = E[Zi |X1 , . . . Xi1 , Xi ].

Finalement E[Z|X1 , . . . Xi1 ] = E[Zi |X1 , . . . Xi ] et Yi = E[(ZZi )|X1 , . . . , Xi ].


Avec lingalit de Jensen conditionnelle, on a

Yi2 = (E[(Z Zi )|X1 , . . . , Xi ])2 E[(Z Zi )2 |X1 , . . . , Xi ],

do E[Yi2 ] E[(Z Zi )2 ] et on a le rsultat voulu.

5.2 Lingalit de HoedingAzuma


5.2.1 Le thorme
Thorme 39. Soient (Fn )n0 une filtration et (Yn )n0 une martingale adap-
te la filtration (Fn )n0 .
On suppose quil existe des rels (kn )n1 tels que |Yn Yn1 | kn presque
srement.
On suppose que la srie de terme gnral kn2 est convergente, de somme
2 . Alors, si on note Y la limite de Yn , on a E[Y ] = E[Y0 ] et
( )
x2
x > 0 P(|Y Y0 | > x) 2 exp 2 .
2

Dmonstration. On va sappuyer sur un lemme :


Lemme 8. Soient X une variable alatoire valeurs dans [1, 1] et A une
sous-tribu de F. On suppose que E[X|A] = 0. Alors

2
E[eX |A] cosh exp( ).
2
Dmonstration. On pose f (x) = ex . f est convexe. Or on a la combinaison
convexe 1x2
(1) + 1+x
2
(1) (noter que 0 1x
2
1 et 1x
2
+ 1+x
2
= 1). Ainsi
f (x) 1x
2
f (1) + 1+x
2
f (1), soit
1 x 1 + x
ex e + e .
2 2
En substituant dans lingalit prcdente, on a

eX cosh + (sinh )X.


5.2. LINGALIT DE HOEFFDINGAZUMA 71

Par positivit de lexprance conditionnelle,

E[eX |A] cosh + (sinh )E[X|A] = cosh

On a

+
2n
cosh() = 1 +
n=1 (2n)!
et 2 n

( 2 )
+ 2n
+
2
exp( /2) = 1 + =1+ n
n=1 n! n=1 2 n!

Or pour tout n 1, on a

2n 2n 2 .2 ... 2 2n
= n n
(2n)! 2 n! (n + 1).(n + 2) . . . (2n) 2 n!
2
En sommant les ingalits, on obtient bien que cosh() exp 2 . Do fina-
lement

2
E[eX |A] exp( ).
2


On note la suite des sommes partielles : Ln = ni=1 ki2 .
e(Yn+p Yp ) = e(Yn+p Yn+p1 ) e(Yn+p1 Yp ) . e(Yn+p1 Yp ) est Fn+p1 -mesurable,
donc
( )
E[e(Yn+p Yp ) |Fn+p1 ] = e(Yn+p1 Yp ) E[eDn+p |Fn+p1 ],
o lon a pos Dn = Yn Yn1 . Cependant, comme (Yn )n1 est une martingale,

E[Yn+p Yn+p1 |Fn+p1 ] = E[Yn+p |Fn+p1 ] Yn+p1 = Yn+p1 Yn+p1 = 0.

Ainsi si lon pose X = Yn+pkY


n+p
n+p1
, = kn+p et A = Fn+p1 , X est
valeurs dans [1, 1] et E[X|A] = 0 : daprs le lemme, on a donc

2 2 2
E[e X
|Fn+p1 ] exp( ) = exp( kn+p ),
2 2
soit
2 2
E[eDn+p |Fn+p1 ] exp( k ),
2 n+p
do
1
E[e(Yn+p Yp ) |Fn+p1 ] e(Yn+p1 Yp ) exp( 2 kn+p
2
).
2
72 CHAPITRE 5. INGALITS

En prenant lesprance, on a
1
E[e(Yn+p Yp ) ] E[e(Yn+p1 Yp ) ] exp( 2 kn+p
2
),
2
soit
E[e(Yn+p Yp ) ] 1
exp( 2 kn+p
2
).
E[e (Y n+p1 Y p ) ] 2
En faisant le produit pour n variant de 1 , on obtient

E[e(Y+p Yp ) ]
1
exp( 2 kn+p
2
),
E[e(Y p Y p ) ] n=1 2
soit ( )
(Y+p Yp ) 1 2

1
E[e ] exp( 2
kn+p ) = exp 2 (L+p Lp ) .
2 n=1 2
Avec lingalit de Markov, on a

P(Y+p Yp x) P(e(Y+p Yp ) ex )
E(e(Y+p Yp ) )

(
ex )
1 2
exp x + (L+p Lp ) .
2
x
En prenant = L+p Lp
, on obtient
( )
1 1
P(Y+p Yp x) exp x2 ) .
2 L+p Lp

Cependant (Yn )n0 est galement une martingale, avec | Yn (Yn1 )|


kn , donc on a galement
( )
1 1
P(Y+p + Yp x) exp x2 .
2 L+p Lp

Finalement
( )
x2
P(|Y+p Yp | x) P(Y+p Yp x)+P(Y+p +Yp x) 2 exp .
2(L+p Lp )

On a pour tout n :
( )
+ + t2
E|Y0 Yn | =
2
2tP(|Y0 Yn | > t) dt 4t exp 2 dt = 4 2 .
0 0 2
5.2. LINGALIT DE HOEFFDINGAZUMA 73

(Yn Y0 )n0 est une martingale centre borne dans L2 : elle converge presque
srement et dans L2 vers une variable Y Y0 desprance nulle. Soient x > 0
et ]0, x[
P(|Y Y0 | > x) P(|Y Yn | > ) + P(|Y0 Yn | > x )
( )
(x )2
P(|Y Yn | > ) + 2 exp
2 2
En faisant tendre n vers +, puis vers 0, on obtient lingalit voulue.

5.2.2 Principe de Maurey


Thorme 40. Soient (X1 , . . . , Xn ) n des variables indpendantes valeurs
dans un ensemble E. Soit f une fonction telle que si (x1 , . . . , xn ) E n et
(y1 , . . . , yn ) E n vrifient xj = yj pour j = i, alors |f (x) f (y)| ki . On
suppose que Z = f (X1 , . . . , Xn ) est intgrable. Alors
( )
x2
P(|Z E[Z]| > x) 2 exp 2 ,
2
n
avec 2 = i=1 ki2 .
Dmonstration. On pose Y0 = E[Z], et pour tout entier i {1, . . . , n} :
Yi = E[Z|X1 , . . . , Xi ].
Pour pouvoir appliquer lingalit dHoeding-Azuma, il sut de vrifier que
|Yi1 Yi | ki . Soient (X1 , . . . , Xn ) indpendant de (X1 , . . . , Xn ) et de mme
loi. En appliquant successivement les thormes 19 et 15, on a
E[f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , . . . , Xi1 ]
= E[f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , . . . , Xi1 ]
= E[f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , . . . , Xi1 , Xi ]
Ainsi
Yi1 Yi
= E[f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , . . . , Xi1 , Xi ]
E[f
[ (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , . . . , Xi1 , Xi ] ]
f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )
= E X , . . . , Xi1 , Xi
f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn ) 1
qui est presque srement majore en norme par ki puisque
f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn ) f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )
lest.
74 CHAPITRE 5. INGALITS

tude dun exemple


On jette n boules dans n urnes de manire indpendante et uniforme.
Comment se concentre le nombre durnes vides ?
Notons X1 , . . . , Xn n variables alatoires indpendantes suivant la loi uni-
forme sur {1, . . . , n}. Le nombre durnes vides est Zn = f (X1 , . . . , Xn ), avec

n
n
f (x1 , . . . , xn ) = 11{xj =i} .
i=1 j=1

On a aisment E[Zn ] = n(1 n1 )n ne . Bien sr, si on change une boule


durne, on modifie au plus de 1 le nombre durnes vides, on peut donc appli-
quer le thorme 40, do
x2
P(|Zn EZn | > n) 2 exp( ).
2n

5.3 Ingalit de Harris


Thorme 41. Soient (X1 , . . . , Xn ) des variables alatoires indpendantes,
f et g deux fonctions de Rn dans R, croissantes en chacune de leurs coor-
donnes. Alors

E[f (X1 , . . . , Xn )g(X1 , . . . , Xn )] E[f (X1 , . . . , Xn )]E[g(X1 , . . . , Xn )].

Dmonstration. On va montrer le rsultat par rcurrence sur n.


On commence avec n = 1. Soit X1 indpendant de X1 de mme loi que X1 .
On a (f (X1 ) f (X1 ))(g(X1 ) g(X1 )) 0, do en prenant lesprance

E[f (X1 )g(X1 )] + E[f (X1 )g(X1 )] E[f (X1 )]E[g(X1 )] E[f (X1 )]E[g(X1 )] 0,

soit 2(E[f (X1 )g(X1 )]Ef (X1 )Eg(X1 )) 0, ce qui est lingalit voulue pour
n = 1.

Supposons le rsultat acquis jusqu n et soient f, g deux fonctions de


Rn+1
dans R. On pose

H(x1 , . . . , xn ) = E[f (x1 , . . . , xn , Xn+1 )g(x1 , . . . , xn , Xn+1 )],


F (x1 , . . . , xn ) = E[f (x1 , . . . , xn , Xn+1 )]
G(x1 , . . . , xn ) = E[g(x1 , . . . , xn , Xn+1 )].

On peut noter que


F et G sont des fonctions croissantes
5.3. INGALIT DE HARRIS 75

les fonctions H, F, G values en X1 , . . . , Xn sont des versions de les-


prance conditionnelle de f (X1 , . . . , Xn+1 )g(X1 , . . . , Xn+1 ), f (X1 , . . . , Xn+1 )
et g(X1 , . . . , Xn+1 ), sachant la tribu (X1 , . . . Xn ).
En appliquant lingalit de Harris pour n = 1, on obtient

(x1 , . . . , xn ) Rn H(x1 , . . . , xn ) F (x1 , . . . , xn )G(x1 , . . . , xn ),

do
E[H(X1 , . . . , Xn )] E[F (X1 , . . . , Xn )G(X1 , . . . , Xn )].
Mais F et G sont des fonctions croissantes, donc daprs lhypothse de r-
currence

E[F (X1 , . . . , Xn )G(X1 , . . . , Xn )] E[F (X1 , . . . , Xn )]E[G(X1 , . . . , Xn )].

Comme E[H(X1 , . . . , Xn )] = E[f (X1 , . . . , Xn+1 )g(X1 , . . . , Xn+1 )] tandis que


E[F (X1 , . . . , Xn )] = E[f (X1 , . . . , Xn+1 )] et E[G(X1 , . . . , Xn )] = E[g(X1 , . . . , Xn+1 )],
on a le rsultat voulu.
76 CHAPITRE 5. INGALITS

5.4 Exercices sur les ingalits


5.4.1 Exercices corrigs
Exercice 38. Soit

n = {(x1 , . . . , xn ) [0, 1]n ; i, j {1, . . . , n} i = j = xi = xj }.

Pour x n et Sn , on dfinit .x par (.x)i = x(i) . On dfinit une


application h de n dans Sn par

i {1, . . . , n} [h(x)](i) = |{j {1, . . . , n}, xj xi }|.

1. Montrer que h(.x) = h(x) .


2. Soient X1 , . . . , Xn des variables alatoires indpendantes suivant la loi
uniforme sur [0, 1]. Montrer que h(X1 , . . . , Xn ) suit la loi uniforme sur
Sn .
3. Soit n 1 un entier. On note i,j lunique permutation de Sn
telle que (i) = j et telle que la restriction de {1, . . . , n}\{i} est
croissante. Soit g une fonction de Sn dans R, telle que pour toute
permutation et tous i, j entre 1 et n, on a |f (i,j ) f ()| M .
Montrer que si n est une variable alatoire suivant la loi uniforme sur
Sn , alors pour tout x > 0, on a

x2
P(|g(n ) E(g(n ))| > x) 2 exp( ).
2nM 2
4. Application la loi hypergomtrique. Une urne contient r boules
rouges et b boules bleues. On en tire k boules sans remises. Soit X le
nombre de boules rouges tires. Montrer que
( )
kr x2

P X > x 2 exp( ).
b + r 2(b + r)

lien vers lindication lien vers la solution

Exercice 39. On a au temps zro n urnes vides. Puis, tout instant t N


on place une boule dans lune des urnes. On cherche lesprance du nombre
maximum durnes contenant exactement une boule.
On prend donc une suite (Yk )k1 de variables alatoires indpendantes
suivant la loi uniforme sur {1, . . . , n}. Yk est le numro de lurne dans laquelle

on dpose une boule au temps k. On pose Nk,p = ki=1 11{Yi =p} : Nk,p reprsente
le nombre de boules dans lurne p au temps k.
5.4. EXERCICES SUR LES INGALITS 77

Soit Xkn le nombre durnes contenant exactement une boule linstant k.


Le nombre maximum durnes contenant exactement une boule est

X n = max Xkn .
k0

1. Exprimer Xkn en fonction des Nk,p . En dduire que


( )k1
k 1
E[Xkn ] =n 1 .
n n

2. On pose vn = max E[Xkn ]. Montrer que vn ne .


0kn3/2

3. On pose Xn = max(Xkn , 0 k n3/2 ). On fixe > 0. Montrer quil


existe N tel que

n3/2

n N P(|Xn n/e| n) P(|Xkn E[Xkn ]| n).
k=0 2

4. En dduire que Xn /n converge en probabilit vers 1/e


5. Montrer linclusion
n
{X n = Xn } {Nn3/2 ,p < 2}.
p=1

En dduire que X n /n converge en probabilit vers 1/e.


6. Conclure.
7. Un tudiant dispose dune boite de pilules pour amliorer ses chances
de russite aux examens. Il doit en prendre une demie chaque matin
afin damliorer ses performances intellectuelles.
Chaque jour, il prend une pilule au hasard dans sa boite. Si cest une
pilule entire, il la coupe en deux avant den avaler une moiti et de
remettre lautre dans la boite. Si cest une demi pilule, il lavale. Il
continue sa cure jusquau jour o la boite est vide. Si la boite contient
initialement n pilules, montrer que lesprance du nombre maximal de
demi-pilules prsentes dans la boite est quivalent Kn quand n tend
vers linfini, K tant dterminer.
lien vers lindication lien vers la solution
78 CHAPITRE 5. INGALITS

5.4.2 Exercices non corrigs


Exercice 40. Lors dun vote, les deux candidats en prsence optiennent cha-
cun n voix. On note En lcart maximal observ dans les bulletins dpouills
au cours du scrutin. Montrer que pour tout x > 0,

x2
P(|En E(En )| > x) 2 exp( ).
2n
lien vers lindication

Exercice 41. Un rsultat sur les statistiques dordre, daprs Bjrnberg et


Broman
Soient X1 , . . . , Xn des variables alatoires indpendantes, admettant un mo-
ment dordre deux. On note X (1) X (2) . . . X (n) les statistiques dordres

associes. Soit A {1, . . . , n}. On pose SA = kA X(k) . Montrer que

Var SA Var(X1 + . . . Xn ).

lien vers lindication

Exercice 42. Dans une assemble de n personnes, chaque couple de deux


personnes se connat avec probabilit p, de manire indpendante des autres.
On leur donne des chemises de couleur, de telle manire que deux personnes
qui se connaissent ne portent pas des chemises de mme couleur On note
le nombre minimum de couleurs ncessaires. Montrer que pour tout > 0,

P(| E()| > n 1)| 2e /2 .
2

lien vers lindication


Chapitre 6

Statistiques exhaustives

On suppose ici que pour tout , P est une mesure de probabilit


sur (, F). Le problme fondamentale de la statistique est dobtenir des
informations sur la valeur du paramtre , rput inconnu, partir dune
observation. Une telle collection (P ) est appele un modle statistique.
On note X lobservation gnrique, cest dire que lon travaille directement
sur lespace observ : X() = . Les applications mesurables sur (, F) sont
appeles des statistiques.
un modle statistique (P ) sur (, F) est naturellement associ un
autre modle sur (n , F n ) : la (Pn
) : Dans ce cas, les projections cano-
niques X1 , . . . , Xn de n sur constituent sous Pn
un chantillon de la loi
P , cest dire n variables indpendantes suivant la loi P .

Dfinition. Une statistique S(X) est dite exhaustive (pour le paramtre )


si la probabilit conditionnelle dobserver X sachant S(X) est indpendante
de : il existe une famille de mesures (Ps ) telles que, pour tout :

P (S A0 , X A) = E [1
1{SA0 } PS (A)].

soit encore

P [X A|S] = PS (A) P -p.s (6.1)

Plus gnralement, on dira quune tribu S est exhaustive si on a des lois


conditionnelles P avec 7 P (A) S-mesurable avec

P [X A|S]() = P (A) P -p.s (6.2)

79
80 CHAPITRE 6. STATISTIQUES EXHAUSTIVES

6.1 Hypothse de domination dominante


privilgie
Dfinition. On dit quun modle statistique (P ) est domin sil existe
une mesure -finie telle que P pour tout .
Lemme 9 (lemme de Halmos et Savage). Si une famille de mesures (m )
est telle que chaque m est absolument continue par rapport une mme
mesure , alors on peut construire une mesure m par rapport laquelle les
m sont absolument continues et qui est un mlange dnombrable des m ,
cest dire que m scrit

m= i mi , (6.3)
iD

avec 0 < i pour tout i, D dnombrable et iD i = 1. Une telle mesure est
appele dominante privilgie de la famille (m ) .
Dmonstration. Dabord, on peut supposer sans perte de gnralit que
nest pas seulement finie, mais que cest une mesure finie : si (An )n1 est
une suite croissante densembles de runion avec (An ) < +, A0 =
n \An1 ))
et (An+1 ) > (An ) pour tout n, lidentit (A) = 2n (A(A
(An \An1 )
n1
dfinit une mesure de probabilit.
n \An1 ))
(A) = 0 si et seulement si (A(A
(An \An1 )
= 0 pour tout n, soit si et
seulement si (A (An \An1 )) = 0 pour tout n, ce qui arrive si et seulement
si (A) = 0. Les mesures et sont donc absolument continues lune par
rapport lautre.
Notons P lensemble des mesures de la forme (6.3), et regardons la classe

A= {A : (A) > 0, ( A) }.
P

Formons une suite (An ) telle (An ) converge vers sup (A). Soit i une
AA
mesure telle que ( Ai ) i . On pose

+
1
m= .
n i
n=1 2

Notons que si on pose A = Ai , on a ( A ) m. En eet, si


n1
m(C A ) = 0, on a i (C A ) = 0 pour tout i, donc (C Ai ) = 0 pour
tout i, ce qui entrane que (C A ) = 0.
6.2. THORME DE FACTORISATION DE NEYMAN-FISHER 81

Comme m P, on en dduit que

sup (A) = (A ).
AA

On va montrer que tous les lments de P sont absolument continus par


rapport m. Cela donnera le rsultat voulu puisque les m sont dans P.
Supposons que m(C) = 0 et prenons P. On va montrer que (C) = 0.
On a
(C) = (C A ) + (C Ac ).
Comme m(C) = 0 et ( A ) m, (C A ) = 0, ce qui entrane
(C A ) = 0 puisque . Il ny a plus qu montrer que (C Ac ) = 0.
Notons p(x) une version positive de la densit de parrapport . On
pose N = {x : p(x) = 0} et S = {x : p(x) > 0}. (N ) = N p(x)d d = 0.
On en dduit que (C Ac ) = (C Ac S). On pose R = C Ac S.
Montrons que ( R) . Posons f (x) = p(x)1 si x S, f (x) = 0 sinon
Soit E un ensemble tel que (R) = 0.

(E R) = 11E (x)1
1R f (x)p(x) d(x) = 11E (x)1
1R (x)p(x) d(x) = 0,

car 11R = 0 -presque srement : on a bien ( R) .


Il est maintenant ais de voir que ( (A R)) m+
2
, ce qui montre
que A R A. On en dduit

(A ) = sup (A) (A R) = (A ) + (R),


AA

ce qui entrane que (R) = 0. Comme , (R) = 0, ce qui achve la


preuve.

Remarque 5. Si les mesures m ont le mme support, on peut prendre tout


simplement m = m0 pour 0 quelconque !

6.2 Thorme de factorisation de Neyman-


Fisher
Le but des thormes de factorisation Neyman-Fisher est de caractriser
simplement lexistence de statistique exhaustive. En 1922, Fisher a dmontr
que la condition de factorisation que nous allons prsenter tait susante.
Plus tard, en 1935, Neyman a montr quelle tait galement susante, sous
82 CHAPITRE 6. STATISTIQUES EXHAUSTIVES

quelques hypothses supplmentaires. La forme gnrale que lon enseigne


aujourdhui est en ralit de Halmos et Savage, et a t dmontre en
1949.

Thorme 42. On suppose que la famille des lois (P ) est domine par
rapport une mme mesure -finie.
Alors, une statistique S est exhaustive si et seulement si il existe une
fonction h et des fonctions telles que la fonction de vraisemblance f (x)
scrive (S(x))h(x) presque partout.

et

Thorme 43. On suppose que la famille des lois (P ) admet une densit
par rapport une mme mesure -finie.
Alors, une tribu S est exhaustive si et seulement si il existe une fonction
h et des fonctions S-mesurables telles que la fonction de vraisemblance f
scrive
f (x) = (x)h(x) presque partout.

Vu le lemme de Doob, il sut de dmontrer le thorme 43 : en lappli-


quant une tribu engendre par une statistique, on obtient le thorme 42.
On va commencer par traiter le cas o la mesure de rfrence est une
dominante privilgie.

Thorme 44. On suppose que la famille des lois (P ) est domine et


que m en est une dominante privilgi.
Alors, une tribu S est exhaustive si et seulement pour tout , il existe
une fonction g S-mesurable telle que
g soit une densit de P par rapport m.

Dmonstration. Supposons que la statistique est exhaustive et prenons


. On note r la densit de P par rapport m.
Rappelons quon sait que pour tout

P [X A|S]() = P (A) P -p.s (6.4)

Comme m est un mlange dnombrable des P , on a encore

m[X A|S]() = P (A) m-p.s.


6.2. THORME DE FACTORISATION DE NEYMAN-FISHER 83

On a

P (X A) = P (X A|S) dP

= P (A) dP ()

= P (A) r () dm()

= P (A) g () dm(),

o lon a pos g () = Em [r |S].


Mais Em [1
1XA g |S] = g Em [1
1XA |S] = g P (A) m-presque srement,donc

P (A)g () dm() = Em [Em [1
1XA g |S]] = Em (1
1XA g ).

On a donc montr
P (X A) = Em (1
1XA g ),
cest dire que g est la densit de la loi P par rapport m.
Rciproquement, supposons que pour tout , il existe une fonction g
S-mesurable telle que pour tout A P (A) = Em (1 1A g ) et montrons que

P (A|S) = Pm (A|S) P p.s..

Fixons et A, et considrons sur S la mesure A, = P (A ). On va


calculer de deux manires direntes une densit de A, () par rapport m.
En utilisant tout de suite la forme particulire de la densit de P par
rapport m, on a

A, (C) = Em (1
1C11A g )
= Em [Em [1
1C11A g |S]]
= Em [1
1C g Pm [A|S]

donc la drive de Radon-Nicodym de A, () par rapport m est g (S)Pm [A|S].


Cependant, en commenant par un calcul direct, on obtient

A, (C) = E [1
1A11C ]
= E (E [1
1A11C |S])
= E (1
1C P [A|S])
= Em (11C P [A|S]g ),

donc la drive de Radon-Nicodym de A, () par rapport m est g P [A|S].


84 CHAPITRE 6. STATISTIQUES EXHAUSTIVES

On en dduit que

g P [A|S] = g (S)Pm [A|S] m p.s.

Comme P m, on a encore

g P [A|S] = g Pm [A|S] P p.s.

Notons enfin P (g = 0) = Em [1
1{g =0} g(S) ] = 0. Ceci permet de diviser
par g (S) et on obtient

P [A|S] = Pm [A|S] P p.s.

Preuve du thorme de Fisher 43. Si la statistique est exhaustive, le lemme


prcdent montre quon a une fonction g S-mesurable qui est la densit de
P par rapport la dominante privilgie m. Alors, g dm
d
est videmment la
densit de P par rapport .
Rciproquement, si la densit de P par rapport scrit (S)h, on
peut noter, comme on la dj vu plusieurs fois, quune densit est presque
partout non nulle par rapport la loi de la densit.
En particulier P (h = 0) = 0 pour tout , ce qui entrane que m(h = 0) =
0 par dfinition de m.
Par ailleurs, on peut calculer explicitement la densit de m par rapport
. En eet, pour tout A on a

m(A) = ai Pi (A)
iD

= ai 11A (x)i h(x) d(x) = 11A (x)r(x)h(x) d(x),
iD


o on a pos r(s) = iD ai i (s). La fonction r peut ventuellement tre
infinie, cependant lintgrale par rapport de r.h est 1, donc (r.h =
+) = 0, ce qui entrane m(r.h = +) = 0. Comme m(h = 0) = 0, on
a m(r = +) = 0, ce qui entrane que P (r = +) = 0 pour tout . r.h.
Ainsi r.h est la densit de m par rapport . Comme r.h est la densit de m
par rapport , m(r.h = 0) = 0. Comme P m, P (r.h = 0) = 0. Notons
Z = {r.h = 0}.
Pour tout A, on a
6.3. AMLIORATION DE RAO-BLACKWELL 85

P (A) = P (A Z)

= 11A11Z h d

rh
= 11A11Z h d
rh


= 11A11Z
rh d
r


= 11A11Z dm
r


= 11A dm
r
(s)
En posant g (s) = r(s)
, on peut alors appliquer le lemme.

6.3 Amlioration de Rao-Blackwell


Le thorme de Rao-Blackwell-Kolmogorov permet comment la connais-
sance dune statistique exhaustive permet damliorer des estimateurs.

Thorme 45. Soit g un estimateur de g() et S une statistique exhaustive.


Alors
E [g|S]
est un estimateur de g qui est prfrable g au sens o

E ((E [g|S] g())2 ) E (g g())2 .

fix, lgalit na lieu que si g = E [g|S] P -presque srement. E [g|S]


mme biais que g.

Dmonstration. Comme S est une statistique exhaustive, on peut crire



E [g|S] = (S), avec (s) = g dPs .

Ainsi, E [g|S] est bien un estimateur. E [g|S]g() est l esprance condition-


nelle de g g() sous E conditionnellement. Comme lesprance condition-
nelle est une contraction de L2 , le rsultat sensuit. Le cas dgalit dcoule
du thorme de Pythagore pour lesprance conditionnelle. Bien sr E [g|S]
et g ont mme esprance sous E : cest donc le mme biais.
86 CHAPITRE 6. STATISTIQUES EXHAUSTIVES

Dfinition. On dit quun estimateur sans biais g est uniformment de va-


riance minimum parmi les estimateurs sans biais (UVMB) si pour tout esti-
mateur sans biais g, on a

Var g Var g.

6.4 Statistiques exhaustives minimales


On dit quune tribu exhaustive S0 est minimimale si toute tribu exhaus-
tive S vrifie S0 S.
Une statistique exhaustive est dite minimale si la tribu quil engendre est
minimale.

Thorme 46. Soit une famille de mesures de probabilit (P ) telle que


chaque m est absolument continue par rapport une mme mesure . On
note f la densit de P par rapport . Alors, si, avec les notations du

lemme 9, on pose fm = iD fi et r = ffm , alors la tribu T = (r )D
est une tribu exhaustive minimale.

Dmonstration. On a P m , donc on peut crire

dP dP dm
= ,
d dm d

soit f = dP
dm m
f . Ainsi r est la densit de P par rapport m. videmment, r
est T -mesurable, donc daprs le thorme de Fisher, T est exhaustive. Soit
S une tribu quelconque suppose exhaustive pour (P ). Daprs le thorme
de Fisher, on a une criture
f = h,
o est S-mesurable. On a alors

fm = i fi = i i h
iD iD

et pour tout D, on a -presque srement :

f h
r = = =
fm iD i i h iD i i

(En eet h est -presque srement non nulle.) Cette identit montre que r
est S-mesurable, do T = ((r )D ) S, ce qui montre bien que T est
minimale.
6.5. STATISTIQUES COMPLTES 87

Corollaire 10. On suppose que les mesures P ont toutes le mme support
et que les hypothses du thorme de Factorisation sont vrifies :
f (x) = h(x) (S(x)).
1
Si il existe 1 , 2 avec 1 = 2 tels que lapplication x 7 2
est bijective,
alors S est une statistique exhaustive minimale.
Dmonstration. Par dfinition, la tribu minimale vrifie T (S). Daprs

le thorme prcdent 1 (S(x)) est T (T )-mesurable. Si q = 1 est
2 2

bijective, alors S = q 1 ( 1 (S(x)) est T (T )-mesurable, donc (S) T ,
2
ce qui donne lgalit voulue.

6.5 Statistiques compltes


Dfinition. On dit quune statistique S est complte relativement la famille
(P ) si pour tout fonction mesurable.

( E [(S)] = 0) = ( (S) = 0 P ).
La dfinition peut sembler trange : en ralit elle exprime linjectivit de
lapplication linaire
X 7 (E (X))

sur lensemble des statistiques (S)-mesurables qui sont dans L1 (P ).


Thorme 47 (thorme de Lehmann-Sche). Soit S une statistique ex-


haustive complte, et g un estimateur sans biais de g(). Alors
E (g|S) est un estimateur sans biais de g().
E (g|S) ne dpend pas du choix de g
E (g|S) est un estimateur sans biais UVMB : pour tout estimateur
sans biais T , on a
Var (E (g|S)) Var T.
Dmonstration. Daprs le thorme de Rao-Blackwell-Kolmogorov, E (g|S)
est bien un estimateur, qui plus est sans biais. Si T est un autre estimateur
sans biais de g(), E (g|S) et E (T |S) sont deux estimateurs (S)-mesurables
qui ont mme esprance : ils sont donc gaux car S est complte. Maintenant,
Rao-Blackwell-Kolmogorov nous dit que
Var (E (g|S)) = Var (E (T |S)) Var T,
ce qui achve la preuve.
88 CHAPITRE 6. STATISTIQUES EXHAUSTIVES

On peut galement noter le rsultat suivant :

Thorme 48. Une statistique exhaustive complte S est une statistique


exhaustive minimale.

Dmonstration. Quitte remplacer S par arctan S, on peut supposer que S


est borne (en eet la tribu engendre par S et celle engendre par arctan S
concident). Soit T une tribu exhaustive minimale. Bien sr T (S). No-
tons que comme T est exhaustive, on a

E (S|T )() = E (S).

Posons = S E(S) = S E (S|T ) : par construction est (S)-mesurable.


Les proprits de lesprance conditionnelle nous donne E = 0. Comme
est une statistique (S)-mesurable et que S est complte, on a = 0. Donc
S = E (S|T ) P presque srement pour tout , ce qui donne la mesurabilit
de S par rapport T : S est donc complte.

Montrer quune statistique est complte est essentiellement un problme


danalyse, qui peut tre dicile. Heureusement, on a un thorme gnrique
qui peut tre appliqu dans de nombreux cas.

6.6 Modles exponentiels


Dfinition. On dit quune famille (P ) forme un modle exponentiel si les
densits scrivent

f (x) = ()(x) exp((), S(x))


et sont valeurs dans R+ . est appel le paramtre naturel
et S sont valeurs dans Rd .

Remarque 6. Daprs le thorme de Neymann-Fisher, S est une


statistique exhaustive.
Si (P ) est un modle exponentiel, alors (Pn
) lest aussi. En
eet la densit de (X1 , . . . , Xn ) scrit
( )

n
n
() n
(xi ) exp (), S(xi ) ,
i=1 i=1
n
et i=1 S(Xi ) est la statistique naturelle associe.
6.6. MODLES EXPONENTIELS 89

Thorme 49. Dans un modle exponentiel, si limage de par le paramtre


naturel contient un ouvert de Rd ; alors la statistique naturelle du modle est
complte.

Dmonstration. Soit une application borne telle que pour tout



f (x)(S(x)) d = 0.

Pour tout , on a

(x)(+ (S(x)) (S(x))) exp((), S(x)) d = 0.

Si on note limage de par , et = , on a Pour tout , on a



(+ (S(x)) (S(x))) exp(, S(x)) d = 0,

soit encore

+ (y) exp(, y) dS (y) = + (y) exp(, y) dS (y)

Les mesures + S et S ont mme transforme de Laplace sur un ouvert :


elles sont gales + = S presque srement : donc 2+ = 2 = + = 0,
do = 0 S presque srement : On a donc

0= 1{(y)=0} dS

1{(S(x))=0} d

1{(S(x))=0} (x) d

Donc 1{(S(x))=0} (x) est presque partout nulle ; comme P , on a


1{(S(x))=0} (x) = 0 P presque partout. Comme est P presque partout non
nulle, donc 1{(S(x))=0} = 0 P presque partout, soit P ((S(x) = 0)) = 0, et
on peut dire que S est complte.
90 CHAPITRE 6. STATISTIQUES EXHAUSTIVES

6.7 Exercices sur les statistiques exhaustives


6.7.1 Exercices corrigs
Exercice 43. Soit (P ) un modle domin de dominante privilgie m, Z
une statistique et S une statistique exhaustive.
1. Montrer que si Z et S sont indpendantes sous m, alors Z est libre.
2. Thorme de Basu : Montrer que si Z est libre et S une statistique
exhaustive complte, alors Z et S sont indpendantes sous P , quelque
soit .
lien vers lindication

6.7.2 Exercices non corrigs


Exercice 44. On considle le modle (R, B(Rn ), P ) , avec = R]0, +[,
P(m,2 ) = N (m, 2 )n . laide du thorme de Neyman-Fisher, trouver une
statistique exhaustive pour ce modle. lien vers lindication

Exercice 45. On considle le modle (R, B(Rn ), P ) , avec =]0, +[,


P = P()n .
n
1. Montrer que Sn = i=1 Xi est une statistique exhaustive du modle.
2. Dterminer la loi de Sn sous P .
3. Soit f une fonction borne. Montrer que


+
(nz)k
F (z) = f (k)
k=0 k!

dfinit une fonction holomorphe sur C.


4. Montrer que Sn est une statistique exhaustive complte du modle.
lien vers lindication

Exercice 46. Soit (X1 , . . . , Xn ) un n-chantillon de la loi uniforme sur [0, ],


o dcrit ]0, +[.
1. Calculer lestimateur du maximum de vraisemblance pour . Montrer
que cet estimateur est une statistique exhaustive complte.
2. Construire un estimateur sans biais de .
3. En dduire sans calcul la valeur de E [X n | max(X1 , . . . , Xn )], o X n =
1
n
(X1 + + Xn ).
lien vers lindication
6.7. EXERCICES SUR LES STATISTIQUES EXHAUSTIVES 91

Exercice 47. Soit (X1 , . . . , Xn ) un n-chantillon de la loi uniforme sur [0, ],


o dcrit ]0, +[. On veut estimer P (X1 t).
1. Construire une statistique exhaustive complte du modle.
2. Construire un estimateur sans biais de P (X1 t).
3. Trouver le meilleur estimateur sans biais de P (X1 t).
lien vers lindication

Exercice 48. On se fixe > 0 connu, et on considre le modle (Pm )mR ,


o Pm = N (m, 2 )n et m dcrit R.
1. Donner une statistique exhaustive complte du modle.
2. laide du thorme de Basu (vu en exercice), montrer le thorme
de Fisher pour les chantillons gaussiens : si (X1 , . . . , Xn ) est un n-
chantillon de la loi N (m, 2 ), alors les variables

1 1 n
Xn = (X1 + + Xn ) et Sn2 = (Xi X n )2
n n 1 i=1

sont indpendantes.
lien vers lindication
92 CHAPITRE 6. STATISTIQUES EXHAUSTIVES
Chapitre 7

Information de Fisher

Soit un ouvert de R Dans tout ce qui suit, on suppose que ( ) est


une famille de lois sur Rd et une loi sur telles que :
P admet une densit f par rapport avec f > 0.
Pour presque tout x , f (x) est drivable par rapport .

7.1 Hypothses
Si h est une fonction mesurable borne, on a

E h(X) = h(x)f x d.

Si jamais


h(x)f (x) d = h(x) f (x) d,

alors on aura


E [h(X)] = E [W h(X)], (7.1)

avec

W = ( log f )(X).


h H E [h(X)] = E [W h(X)]. (7.2)

Il existe plusieurs types despaces H et dhypothses qui permettent cette
intervertion de la drive. Par exemple

93
94 CHAPITRE 7. INFORMATION DE FISHER

Thorme 50. Si lon prend pour H lensemble des fonctions bornes, alors
une condition susante pour (7.2) est la suivante :
Pour tout , il existe un voisinage V de tel que

sup f L1 ().
V
Dmonstration. Cest une simple application du thorme de drivation sous
le signe intgrale.
Le thorme suivant est plus subtil :

Thorme 51. Si lon prend pour H lensemble des fonctions h telles que
la fonction 7 E [h2 (X)] est borne au voisinage de tout point de , une
condition susante pour (7.2) est la suivante : pour -presque tout x, la
fonction 7 gx () = f (x) est de classe C1 , et la fonction

( )2

7 I() = (gx ())2 d(x) = f (x) d(x)

est continue, valeurs relles.

Dmonstration. La preuve sera vue en exercice.


Remarquons que pour vrifier la continuit de I(), il faudra dans la
plupart des cas utiliser le thorme de drivation sous le signe intgrale.
Remarques

La quantit ( log f )(X) est indpendante de la mesure de rfrence
. En eet si les ( ) ont des densits (f ) par rapport et (g ) par
rapport , alors les ( ) ont des densits (h ) par rapport +
et on a
d d d d d d
= et = .
d( + ) d d( + ) d( + ) d d( + )
d
d(+)
est + presque partout non-nulle. Soit x un point de Rd :
on suppose que f0 (x) > 0 (ce qui est + partout quivalent
h0 (x) > 0) : on a sur un voisinage V de 0 :

d
log h (x) = log f (x) + log (x),
d( + )

do lgalit des deux drives partielles par rapport .


Sous lhypothse (7.2), on a E (W ) = 0.
7.2. INGALIT DE CRAMER-RAO 95

Il peut exister au plus une collection (W ) vrifiant (7.2), car si (W1 )


et (W2 ) conviennent W1 W2 est orthogonal L2 (P ).
Dfinition : information de Fischer

Dfinition. On appelle score du modle (P ) la statistique W dfinie par


W = ( log f )(X),


avec la convention que log f est nulle en dehors des intervalles o f est
strictement positive. On appelle information de Fisher la quantit I() dfi-
nie par
I() = E W2

Remarque 7. Lhypothse (7.2) est trs importante. Cest elle qui donne du
sens linformation de Fisher. Nanmoins, il est intressant de dfinir I()
avant de savoir si (7.2) est ralise, car on verra que certaines proprits de
I peuvent parfois tre utiles pour dmontrer que (7.2) est vrifie.

7.2 Ingalit de Cramer-Rao


Thorme 52 (Ingalit de Cramer-Rao). On suppose que lhypothse (7.2)
est vrifie et que g = h(X) est un estimateur sans biais de g() avec h H.
Alors
g ()2
Var g .
I()

Dmonstration. Comme g est un estimateur sans biais de g(), on a g() =


E [h(X)W ]. En appliquant lhypothse (7.2), on a

g () = E [h(X)W ] = E [gW ].

Mais W est centre, donc on a galement

g () = E [(g E g)W ].

Lingalit de Cauchy-Schwartz donne alors

g ()2 E (g E g)2 E W2 = (Var g)I().


96 CHAPITRE 7. INFORMATION DE FISHER

Thorme 53 (Cas dgalit). On suppose que lhypothse (7.2) est vrifie


et que g = h(X) est un estimateur sans biais de g(). Alors si

g ()2
0 < Var g = ,
I()

g est une statistique exhaustive et le modle est exponentiel.


Rciproquement, un modle exponentiel vrifiant lhypothse (7.2) atteint
la borne de Cramer-Rao pour une certaine fonction g.

Dmonstration. Daprs le cas dgalit dans lingalit de Cauchy-Schwartz,


les variables g E g et W sont lies dans L2 (P ). Comme 0 < Var g, il existe
() avec

W = ()(g E g) = ()(h(X) g()) P p.s.

Ainsi, sous la dominante privilgie m, on a

W = ()(h(X) g()) m p.s.

En intgrant lgalit, on voit que la densit f sous m vrifie

ln f (X) = A()h(X) + B() + c(X),

et donc
f (x) = exp(A()h(X) + B() + c(X))
On a donc bien un modle exponentiel de paramtre naturel A() et h est
une statistique exhaustive du modle.
Rciproquement, considrons un modle exponentiel : W scrit W =
()S + (). Comme E [W ] = 0, on a ()E [S] + () = 0. Ainsi

W = ()(SE (S)), et on est dans le cas dgalit de lingalit de Cauchy-


Schwartz : S est un estimateur optimal pour la fonction g() = E (S).

7.3 Quelques proprits


7.3.1 Information de Fisher dun produit
Thorme 54. On suppose que (P1 ) et (P2 ) ont mme support pour tout
et que les modles (P1 ) et (P2 ) vrifient les hypothses du thorme 51. Alors,
le modle P = P1 P2 vrifie les hypothses du thorme 51, on a

W(1 ,2 ) (X) = W1 (X1 ) + W2 (X) et I() = I1 () + I2 ().


7.3. QUELQUES PROPRITS 97

Dmonstration. Le modle P admet la densit h(1 ,2 ) (x) = f1 (x1 )g2 (x), et


on a sur leur support commun

log h(1 ,2 ) (x) = log f1 (x1 ) + log h2 (x2 ),

ce qui donne la premire identit Lindpendance de X1 et X1 donne I() =
Var W (X) = Var W1 (X1 ) + Var (X2 ) = I1 () + I2 (), donc
I est 1continue
comme somme de deux fonctions continues. De mme, h est C comme
produit de deux fonctions C 1
Corollaire 11. Si le modles (P ) vrifient les hypothses du thorme 51 ,
le modle (Pn
) galement, et son information de Fisher In () vrifie In () =
nI.

7.3.2 Information de Fisher dune statistique


Thorme 55. Soit (, F, P ) un modle statistique vrifiant lhypothse (7.2),
avec H L2 (P ). Soit T : (, F) ( , F ) une statistique. Alors le


modle ( , F , (P )S ) vrifie lhypothse (7.2) et son information de Fisher
I T () vrifie

I S () I().
Si on suppose de plus que lhypothse (7.2) est vrifie, alors il y a galit
si et seulement si S est une statistique exhaustive pour ( , F , (P )S ).
Dmonstration. Daprs le thorme de transfert, on a pour tout et
tout h L2 ((P )S ),

h(x) d(P )S (x) = h(S(x)) dP (x) = E [(h(S(x))]

Daprs lhypothse (7.2), on a donc



h(x) d(P )S (x) = E [W h(S(x))]

= E [E [W |S]h(S(x))] = E [ (S)h(S(x))]
o est telle que E [W |S] = (S). Ainsi, avec le thorme de transfert
est un score pour ( , F , (P )S ) et lon a

S
I () = 2 (x) d(P )S (x)
= E [2 (x)] = E [E [W |S]2 ]
98 CHAPITRE 7. INFORMATION DE FISHER

Comme lesprance conditionnelle est la projection dans L2 . On a

I S () = E [E [W |S]2 ] E (W )2 = I(),

avec galit si et seulement si

E [W |S] = W ,

autrement dit W est S mesurable. Supposons quil y ait galit : on a


(log f ) = A (S(x)), do en intgrant par rapport : log f (x) = B (S(x))+
c(x), soit
f (x) = exp(B (S(x)) exp(c(X)),
ce qui montre que S est une statistique exhaustive. La rciproque est facile.
7.4. EXERCICES SUR LINFORMATION DE FISHER 99

7.4 Exercices sur linformation de Fisher


7.4.1 Exercices corrigs
Exercice 49. On appelle loi de Pareto Pa, de paramtre (a, ) la loi sur R

de densit xa
+111]a,+[ (x). On considre le modle (P1, )>0 .
1. Calculer le score W , puis I().
2. En dduire que T = log X est un estimateur sans biais de g() = 1 .
g ()2
3. Calculer Var T . Comparer avec la borne de Cramer-Rao I()
. Ex-
pliquer
4. Existe-til un estimateur sans biais de ?
lien vers lindication lien vers la solution
Exercice 50. Soit (X1 , . . . , Xd ) un d-chantillon sous la loi P() dans le
modle (P )>0 .

1. Calculer E X1 (X1 1). En dduire que Ed = d1 di=1 Xi (Xi 1) est
un estimateur sans biais de 2 .
2. Montrer que Sd = X1 + + Xd est une statistique exhaustive com-
plte.
3. En dduire que Sd (Sdd21) est le meilleur estimateur quadratique de 2 .
4. Montrer simplement que E [X12 + . . . Xd2 |Sd ] = Sd (Sd +d1)
d
.
5. Comparer la variance de Sd (Sdd21) avec la borne de Cramer-Rao. Sd (Sd 1)
d2
est-il un estimateur ecace ?
lien vers lindication lien vers la solution

7.4.2 Exercices non corrigs


Exercice 51. 1. calculer linformation de Fischer lorsque =]0, +[
et est la loi de Poisson de paramtre .
2. Mme question lorsque = P()n
lien vers lindication
Exercice 52. Le but de cet exercice est de dmontrer le thorme suivant
annonc en cours :
Soit (P ) un modle domin par , de densit
f . On suppose que
pour -presque tout x, la fonction 7 gx () = f (x) est de classe C1 , et
la fonction
( )2

7 I() = (gx ())2 d(x) = f (x) d(x)

100 CHAPITRE 7. INFORMATION DE FISHER

est continue, valeurs relles.


Alors pour toute fonction h telle que la fonction 7 E [h2 (X)] est borne
au voisinage de tout point de , on a :

E [h(X)] = E [W h(X)] avec W = ( log f )(X).


On convient que ( log f ) dsigne la fonction nulle sur les parties o f est
nulle.
On peut supposer sans perte de gnralit que est une mesure de pro-
babilit (on peut prendre par exemple la dominante privilgie).
Soit (, F, P) un espace probabilis sur lesquelles vivent des variables
alatoires X et U indpendantes, avec PX = et U suit la loi uniforme sur
[0, 1].
Soit et (n )n0 une suite quelconque de limite nulle, avec n
pour tout n.
On pose

Xn = 2h(X) f+U n (x) Yn = ( f+U n )(X), et Zn = Xn Yn .

1. Montrer que E[Yn2 |U ] = I( + U n ).

2. En dduire que lim E[Yn2 ] = I().


n+

3. Montrer que (Yn2 )n1 est qui-intgrable.


4. Montrer que (Xn )n1 est borne dans L2 .
5. Montrer que (Zn )n1 est qui-intgrable.

6. Montrer que lim E[Zn ] =
h(x) f (x) d(x).
n+
E+n h(X)E h(X)
7. Montrer que EZn = n
.
8. Conclure.
lien vers lindication
Chapitre 8

Loi dun processus

8.1 Loi dun processus


Dfinition: Un processus stochastique est une famille infinie (Xt )tT de va-
riables alatoires dfinies sur le mme espace de probabilit (, F, P)
Le plus souvent, T est un ensemble ordonn qui joue le rle du temps,
par exemple T = N, Z, R. Le cas T = Zd , qui voque plutt une structure
spatiale est galement intressant.
Dfinition: On appelle trajectoire de X tout lment X() = (Xn (), n
T), .
Dfinition: On dfinit la tribu borlienne sur RT , note B(RT ), comme tant
la plus petite tribu qui rend mesurable les projections i : RT R, =
(n )nT 7 i .
On a vu au chapitre 4 que dans le cas o T est dnombrable, B(RT )
concide avec la tribu borlienne de RT . Cest encore vrai lorsque T est infini
dnombrable, mais dans ce cas la topologie qui doit tre mise sur RT (la
topologie produit) nest pas mtrisable.
Dfinition: Pour toute parties non vides S et S de T telle que S S , on

appelle projection de RS sur RS la fonction SS : RS RS dfinie par

(xs , s S) RS , SS (xs , s S) = (xs , s S ).

Dfinition: - thorme : loi dun processus

Thorme 56. Soit (Xn )nT une suite de variables alatoires sur (, F, P).
Lapplication X : 7 (Xn ())nT est une application mesurable de (, F)
dans lespace des trajectoires (RT , B(RT )). La loi image PX de P par X est
appele loi de la suite (ou du processus) (Xn )nT

101
102 CHAPITRE 8. LOI DUN PROCESSUS

Dmonstration. Comme les ensembles de la forme 1 i (A), avec A borlien,


engendrent B, il sut de montrer que pour B de la forme B = 1i (A), avec
A borlien, on a X 1 (B) F . Or
X 1 (B) = X 1 (1 1 1
i (A)) = (i X) (A) = Xi (A),

qui est bien dans F puisque Xi est une variable alatoire.


Notation : P (T), F(T), D(T) dsignent respectivement lensemble des
parties non vides, lensemble des parties finies non vides et lensemble des
parties dnombrables non vides de T.
Il est clair que F(T) D(T) P (T).
Dfinition: On appelle loi de dimension finie dun processus X = (Xn )nT
la loi de tout vecteur extrait (Xn )nS , o S F (T).
Proposition 5. Les lois de dimension finie dun processus X = (Xn )nT o
n T, Xn : (, F, P) (R, B(R))
sont les images de la loi PX de X par les projections de RT sur les espaces-
produits finis RS , S F (T).
Thorme 57. Deux processus stochastiques X = (Xn )nT et X = (Xn )nT
o
n T, Xn : (, F, P) (R, B(R))
et
Xn : ( , F , P ) (R, B(R))
ont la mme loi si et seulement sils ont les mmes lois de dimension finie.
Dmonstration. La condition ncessaire est vidente, daprs la proposition
prcdente. Rciproquement, si X et X ont les mmes lois de dimension
finie, daprs la proposition prcdente, PX et PX ont les mmes images
par projection sur les espaces-produits de dimension finie (RS , B(RS )). On
considre

C={ An , n, An B(R), et N, n N An = R}
nT

PX et PX concident sur C , cest--dire X et X ont mme loi sur C. C est


un -systme qui engendre B(RT ), donc X et X ont la mme loi.
Dfinition: On appelle processus canonique associ un processus stochas-
tique X = (Xn , n T) o n T, Xn : (, F, P) (R, B(R)) le pro-
cessus = (n , n T) form par les projections n de RT sur R, qui
X = (Xk , k T) associe Xn , sa n-ime composante.
8.2. THORME DEXISTENCE DE KOLMOGOROV 103

Thorme 58. Tout processus stochastique a mme loi que son processus
canonique associ, quand on munit lespace de ses trajectoires de la loi PX .

Dmonstration. : (Xn )nT 7 (Xn (), )nT est lapplication identit


de RT . Donc limage de PX par est PX .

8.2 Thorme dexistence de Kolmogorov


Dfinition: Systme projectif
On considre une famille (QS , S F (T)) o pour tout S, QS dsigne
une probabilit sur (RS , B(RS )). On dit que (QS , S F(T)) est un systme
projectif de lois si pour tous S, S de F(T) tels que S S , QS est limage
de QS par SS
Remarque: Si on a seulement dfini QS pour des ensembles S de la forme
S = {1, . . . , n} et que lon sait que pour tout n 1, Q{1,...,n} est la mesure
{1,...,n+1}
image de Q{1,...,n+1} par {1,...,n} , alors on peut dfinir pour S partie finie de
{1,...,n}
N une mesure QS comme tant la mesure image de Q{1,...,max S} par S .
Il nest alors pas dicile de vrifier que (QS ) est un systme projectif de lois.

Thorme 59. Thorme dexistence de Kolmogorov.


On se place sur (RT , B(RT )). Pour toute partie S F(T), soit QS une me-
sure de probabilit sur (RS , B(RS )). Les trois conditions suivantes sont qui-
valentes :
1. Il existe un espace de probabilit (, F, P) et pour tout n T une
variable alatoire Xn : (, F, P) (R, B(R)) telle que (QS , S
F(T)) soit lensemble des lois de dimension finie du processus X =
(Xn , n T)
2. Il existe une mesure de probabilit Q sur (RT , B(RT )) dont limage par
S soit QS quelle que soit la partie finie, non vide S de T,
3. (QS , S F (T)) est un systme projectif de lois.

Dmonstration. On va seulement donner la preuve dans le cas o T = N. Le


cas o T est dnombrable sen dduit immdiatement ; en revanche la preuve
dans le cas gnral demanderait un argument supplmentaire.
(1)=(2) : il sut de prendre Q = PX .
(2)=(3) : si S S, on a S = SS S . QS est la mesure image de Q
par S , mais cest aussi la mesure image par SS de la mesure image
de Q par S , soit donc la mesure image de QS par SS , ce qui montre
bien que le systme (QS ) est projectif
104 CHAPITRE 8. LOI DUN PROCESSUS

(3)=(1) : cest videmment le gros morceau. Soit (, F, P) un espace de


probabilit sur lequel vit une suite (Un )n0 de variables alatoires ind-
pendantes suivant la loi uniforme sur [0, 1]. Daprs le thorme 3, les-
pace (, F, P) = ([0, 1[, B([0, 1[), [0,1[ ) convient. Notons F 0 la fonc-
tion de rpartition de Q0 , puis, pour x Rn , notons Fxn la fonction de
rpartition de la loi de n sachant {0,...,n1} = x sous Q{0,...,n} . Ainsi,
on a pour tout u rel
EQ{0,...,n} [n u|{0,...,n1} ] = Fn{0,...,n1} (u).

On pose encore Q0 (u) = min{y R : 1 F 0 (y) u} et


x Rn u R Qn (x, u) = min{y R : 1 Fxn (y) u},
puis on dfinit (Xn )n0 par X0 = Q0 (U0 ) et pour n 1 :
Xn = Qn ((X0 , . . . , Xn1 ), Un ).
Montrons par rcurrence que pour tout n, la loi de (X0 , . . . , Xn ) est
Q{0,...,n} . Pour n = 0, cest une consquence immdiate du tho-
rme 36. Sinon, supposons que (X0 , . . . , Xn1 ) a comme loi Q{0,...,n1} :
comme le systme est projectif (X0 , . . . , Xn1 ) ralise la loi des n
premires composantes de Q{0,...,n} . Comme (X0 , . . . , Xn1 ) est ind-
pendant de Un , le thorme de lchantillonneur de Gibbs dit que
(X0 , . . . , Xn1 , n ((X0 , . . . , Xn1 ), Un )) = (X0 , . . . , Xn1 , Xn ) suit la
loi Q{0,...,n} .

Au cours de la preuve, on a montr en particulier que lespace (, F, P) =


([0, 1[, B([0, 1[), [0,1[ ) est susamment gros pour y faire vivre tous les pro-
cessus rels temps discret que lon peut imaginer. 1
Corollaire 12. Pour tout entier n 1, soit Pn une mesure de probabilit
sur (Rn , B(Rn )). Pour quil existe une suite X = (Xn , n 1) de variables
alatoires relles simultanes telle que Pn soit la loi de (X1 , X2 , ..., Xn ) pour
tout n 1 il faut et il sut que
B B(Rn ), Pn+1 (B R) = Pn (B)().
1. Lexistence de la loi de n sachant {0,...,n1} = x sous Q{0,...,n} repose sur le tho-
rme 34 dexistence des lois conditionnelles. nonc dans le cadre des espaces polonais,
ce thorme na t dmontr dans ce cours que dans le cas = [0, 1]n . Cest susant
pour faire vivre une suite de variables alatoires support dans [0, 1] dont les lois fini-
dimensionnelles sont prescrites. Mais le cas dune suite de variables alatoires relles quel-
conques sen dduit : on commence par construire la suite 2 arctan X0 , . . . , 2 arctan Xn , . . .
sur (, F, P), puis X0 , X1 , . . . , Xn , . . . en composant avec la fonction x 7 tan(/2x).
8.2. THORME DEXISTENCE DE KOLMOGOROV 105

Dmonstration. En eet, sil existe une telle suite X de variables alatoires


relles simultanes, on a

B B(Rn ), Pn+1 (BR) = P((X1 , ..., Xn+1 ) BR) = P((X1 , ..., Xn ) B) = Pn (B).

Rciproquement, on suppose la condition () satisfaite. Pour toute partie


non vide S de N de cardinal p, note S = {s1 , . . . , sp }, on note PS limage
{1,...,max(S)}
de Pmax(S) par la projection S . Daprs le thorme dexistence de
Kolmogorov, il sut de vrifier que (PS , S F (T )) est un systme projectif
de loi. Pour cela, on vrifie que pour tout S de F(T ), et tout n max(S), PS
{1,...,n}
est limage de Pn par S , ce qui se fait facilement par rcurrence.

8.2.1 Variables indpendantes


tant donne une suite (n , n 1) de mesures de probabilit sur (R, B(R))
il existe toujours une suite de variables alatoires relles simultanes ind-
pendantes (Xn , n 1) telle que n 1, PXn = n . En eet, si pour tout
n 1, on pose Pn = 1 n , la condition () est satisfaite puisque
n 1, B B(Rn ),

Pn+1 (BR) = 1 n n+1 (BR) = 1 n (B)n+1 (R) = Pn (B)

Daprs lexemple prcdent, il existe une suite (Xn , n 1) de variables


alatoires simultanes telle que

n 1, P(X1 ,...,Xn ) = 1 n

On en dduit que n 1, PX1 = 1 , . . . , PXn = n et que les variables


alatoires relles X1 , . . . , Xn sont indpendantes.

8.2.2 Loi markovienne


Soit D un ensemble dnombrable, P = (pi,j )(i,j)D2 une matrice marko-

vienne, cest dire que pi,j 0 pour tout couple (i, j) et kD pi,k = 1 pour
tout i D. Alors, pour toute loi sur D, on peut construire une unique loi
P sur DN telle que pour tout entier n 0 et toute suite x0 , . . . xn dlments
de D, on ait


n1
P (0 = x0 , . . . , n = xn ) = (x0 ) pxi ,xi+1 .
i=0
106 CHAPITRE 8. LOI DUN PROCESSUS

Dmonstration. On dfinit par rcurrence une suite de mesures (Pn )n0 avec
P0 = , puis

Pn+1 ({(x0 , . . . , xn+1 )}) = Pn ({(x0 , . . . , xn )})pxn ,xn+1 .

Soit A Dn+1 . On a


Pn+1 (A D) = Pn+1 ({(x0 , . . . , xn+1 )})
(x0 ,...xn )A xn+1 D

= Pn ({(x0 , . . . , xn )})pxn ,xn+1
(x0 ,...xn )A xn+1 D

= Pn ({(x0 , . . . , xn )})1
(x0 ,...xn )A

= Pn (A)

Lidentit quon vient de montrer permet de montrer par rcurrence que


Pn (Dn+1 ) = 1. Elle exprime galement que la loi de (0 , . . . , n ) sous Pn+1
est Pn : on a donc un systme projectif de lois, ce qui permet dappliquer le
(corollaire du) thorme dexistence de Kolmogorov.

8.3 Processus rels stationnaires (temps dis-


cret)
On suppose ici que T = N ou T = Z.
Dfinition: Un processus stochastique rel (Xn , n T) est dit station-
naire si quels que soient les entiers d 1, n1 , . . . , nd choisis dans N, tels que
n1 < < nd , les vecteurs alatoires rels d-dimensionnels (Xn1 , . . . , Xnd ) et
(Xn1 +1 , . . . , Xnd +1 ) suivent la mme loi.
Il en rsulte videmment que (Xn1 , . . . , Xnd ) et (Xn1 +h , . . . , Xnd +h ) suivent
la mme loi quel que soit lentier h 0.
Dfinition: tant donn un espace de probabilit (, F, P), on dit quune
application T : (, F) (, F) conserve la mesure P si A F, P(A) =
P(T 1 (A)) ou si P est sa propre image par T .
Dfinition: On dit que T : est une bijection bimesurable si cest
une bijection (F, F)-mesurable et si lapplication rciproque T 1 est (F, F)-
mesurable .
Thorme 60. Soit (, F, P) un espace de probabilit et une application

T : (, F) (, F).
8.3. PROCESSUS RELS STATIONNAIRES (TEMPS DISCRET) 107

Si T conserve la mesure P, pour tout entier n 1, T n conserve P


Si T est une bijection bimesurable qui conserve P, T 1 conserve P.
Dmonstration. On raisonne par rcurrence. Au rang initial, A
F, P(A) = P(T 1 (A)) parce que T conserve P. Si pour un entier n 1,
on a dmontr que
A F , P(A) = P(T n (A)),
alors comme
P(T n (A)) = P(T 1 (T n (A))) = P(T (n+1) (A)),
et il vient
A F , P(A) = P(T (n+1) (A)).
Do la conclusion par rcurrence : pour tout n 1, T n conserve P.
A F , P(T (A)) = P(T 1 (T (A))) = P(A).

Thorme 61. Soit (, F, P) un espace de probabilit et C un -systme


dvnements engendrant F. Alors une application T : (, F) (, F)
conserve la mesure P si et seulement si
A C, P(A) = P(T 1 (A)).
Dmonstration. Le sens direct est vident.
Rciproquement, on suppose que P et son image par T concident sur C, donc
sur F.
Dfinition: Pour E = N ou E = Z, on notera lapplication de RE dans
RE appele oprateur de translation dfinie par
((xn )nE ) = (yn )nE ,
o n E, yn = xn+1 .
Thorme 62. Pour quun processus rel X = (Xn , n T) soit stationnaire,
il faut et il sut que loprateur de translation conserve sa loi PX .
Dmonstration. Dire que prserve PX , cest dire que X et X ont mme
loi. Mais on sait que deux lois sur RT sont gales si et seulement si toutes les
projections par les s1 ,...sn sont gales. Ainsi prserve PX si et seulement si
quels que soient s1 , . . . sn , s1 ,...sn X et s1 ,...sn X ont mme loi sous P.
Or la loi de s1 ,...sn X sous P est P(Xs1 ,...,Xsn ) et celle de s1 ,...sn X sous
P est P(Xs1 +1 ,...,Xsn +1 ) . Ainsi, par dfinition de la stationnarit, prserve PX
si et seulement si (Xn ) est stationnaire.
108 CHAPITRE 8. LOI DUN PROCESSUS

Les processus stationnaires fournissent ainsi un exemple fondamental de


transformation conservant la mesure.

Thorme 63. Soit (, F, P) un espace de probabilit et une application

T : (, F) (, F)

qui conserve la mesure P. Alors


quelle que soit la variable alatoire sur (, F, P), ( T n , n 0) est
un processus stationnaire.
si T est une bijection bimesurable de (, F), ( T n , n Z) est ga-
lement un processus stationnaire.

Dmonstration. Prenons, suivant le cas T = N ou T = Z et prenons n 1,


puis s1 < < sn dans T. Considrons le vecteur alatoire valeurs dans
Rn :

V = ( T s1 , . . . , T sn ) : (, F, P) (Rn , B(Rn )).

La loi de V T sous P est la loi de V sous PT , mais PT = P, donc V et V T


ont mme loi. Cependant, que T = N ou T = Z, on a dans les deux cas :

V T = ( T s1 +1 , . . . , T sn +1 ).

On vient de montrer que ( T s1 , . . . , T sn ) et ( T s1 +1 , . . . , T sn +1 ) ont


mme loi. Comme cest vrai pour tout n et pour s1 , . . . , sn quelconques, on
vieut prcisment de montrer que le processus ( T n )nT est stationnaire.

8.4 Processus gaussiens


8.4.1 Caractrisation
Dfinition: On dit quun processus (Xt )tT est gaussien si pour tout S
F(T ), le vecteur (Xs )sS est gaussien.
tout processus gaussien, on peut associer son esprance (EXt )tT et sa
fonction de covariance

CX : (s, t) 7 E(Xt EXt )(Xs EXs )).

Proposition 6. Deux processus gaussiens ont mme esprance et mme


fonction de covariance si et seulement si ils ont mme loi.
8.4. PROCESSUS GAUSSIENS 109

Dmonstration. Notons (Xs ) et (Ys ) les deux processus considrs.


Le sens mme loi implique mme esprance, mme covariance est
presque vident. Arrtons nous y tout de mme quelques instants.
On a
EXs = s dPX ()
RT

et
EYs = s dPY ().
RT

Dire que (Xs ) et (Ys ) ont mme loi, cest prcisment dire que PX =
PY . Cela implique donc quils ont les mmes esprances. Les identits

EXs Xt = s t dPX ()
RT

et
EYs Yt = s t dPY ()
RT

permettent alors de complter la preuve.


Soit F T , F fini. Les vecteurs (Xs )sS et (Ys )Y S sont gaussiens. Par
hypothse, ils ont mme esprance et mme matrice de covariance. Des
vecteurs gaussiens qui ont mme esprance et mme matrice de cova-
riance ont mme loi. Ainsi (Xs ) et (Ys ) ont mmes lois de dimension
finie. Ils ont donc la mme loi.

8.4.2 Condition dexistence


Thorme 64. Soit (mt )tT et (cs,t )(s,t)T T des rels. Il existe un processus
gaussien de moyenne (mt )tT et de covariance (cs,t )(s,t)T T si et seulement
si
Pour tous s, t T , on a cs,t = ct,s .
Four tous S fini inclus dans T et tout x RT , on a

cs,t (xs ms )(xt mt ) 0.
(s,t)SS

Dmonstration. La ncessit des deux conditions provient du fait que (cs,t )(s,t)SS
doit tre la matrice de covariance du vecteur (Xs )sS Pour voir que ces condi-
tions sont susantes, il sut dappliquer le thorme de Kolmogorov la
famille de mesures N (mS , CS ) o mS = (mt )tS et CS = (cs,t )(s,t)SS qui
est compatible.
110 CHAPITRE 8. LOI DUN PROCESSUS

8.4.3 Processus gaussiens stationnaires


Thorme 65. Soit (Xn )nZ un processus gaussien. (Xn )nZ est stationnaire
si et seulement si il existe une constante m et une fonction telle que
Pour tout n EXn = m
Pour tous n, p entiers on a E(Xn m)(Xp m) = (n p).
est appele fonction dautocovariance du processus.

Dmonstration. Supposons que le processus est stationnaire et posons m =


EX0 et (n) = E(Xn m)(X0 m). Pour tout n X0 et Xn ont mme loi, donc
EXn = EX0 = m. Dautre part, le couple (Xn , Xp ) a mme loi que le couple
(Xnp , X0 ) : on a donc E(Xn m)(Xp m) = E(Xnp )(X0 m)) = (n p).
Rciproquement, supposons que pour tout n EXn = m et que pour tous n, p
entiers on a E(Xn m)(Xp m) = (np). Il faut dmontrer que le processus
(Xn+1 )nZ a mme loi que le processus (Xn )nZ . Ces deux processus tant
gaussiens, ils sut de montrer quils ont mme esprance et mme covariance.
Or on a pour tout n :EXn+1 = m = EXn et pour tous n, p

E(Xn+1 EXn+1 )(Xp+1 EXp+1 ) = E(Xn+1 m)(Xp+1 m)


= ((n + 1) (p + 1))
= (n p)
= E(Xn m)(Xp m)
= E(Xn EXn )(Xp EXp ),

ce qui achve la preuve.


8.5. EXERCICES SUR LES PROCESSUS 111

8.5 Exercices sur les processus


8.5.1 Exercices corrigs
Exercice 53. Soit D R un ensemble dnombrable, P = (pi,j )(i,j)D2 une
matrice markovienne. Pour mesure de probabilit sur D, on note P la loi
markovienne associe. Si i D, on note simplement Pi pour Pi .
1. Dmontrer la proprit de Markov : pour toute mesure , pour tout
entier n, pour tout A (0 , . . . , n ), pour tout B B(RN ), on a

P (A, n = i, n (B)) = P (A, n = i)Pi (B).



2. Montrer que P = iD (i)Pi .

3. Montrer que si (j) = i (i)pi,j pour tout j, alors P est laisse
invariante par .
lien vers lindication lien vers la solution

Exercice 54. Soit une application mesurable de (RN , B(RN )) dans (R, B(R))
et (Xn )n0 un processus stationnaire. Dmontrer que le processus (Yn )n0
dfini par Yn = (Xn , Xn+1 , . . . ) = (n X) est stationnaire. lien vers
lindication lien vers la solution

Exercice 55. Le thorme des quatre couleurs stochastique, daprs Holroyd


et Liggett
Soit q un entier naturel non nul. On appelle mot ou coloriage sur lalphabet
{1, . . . , q} une suite finie x = (x1 , . . . , xn ) dlments de {1, . . . , q}. Le mot
vide est lunique mot de longueur 0. On dit quun mot x = (x1 , . . . , xn ) est
un mot propre si xi = xi+1 pour 1 i < n. On convient que le mot vide est
un coloriage propre.
Le but de ce problme est de construire et dtudier des processus sto-
chastiques (n )n1 qui sont tels que
Pour tout n, (1 , . . . , n ) est un coloriage propre sur lalphabet {1, . . . , q}
(n )n1 est stationnaire
Si x et y sont deux mots, on note x.y leur concatnation. Si x = (x1 , . . . , xn )
est un mot et i un entier compris entre 1 et n, xi dsigne le mot x dont on a ot
la i-me lettre. Ainsi (1, 2, 4).(7, 5) = (1, 2, 4, 7, 5) et (1,\ 2, 7, 8)3 = (1, 2, 8).
On doit encore introduire la notion dimmeuble. Soit x un mot de taille
n. Un immeuble propre de dernier tage x est une suite (y1 , . . . yn ) de mots
tels que
Pour tout i entre 1 et n, yi est un coloriage propre de taille i q
couleurs.
112 CHAPITRE 8. LOI DUN PROCESSUS

Pour 1 i < n, yi est obtenu en enlevant une lettre au mot yi+1 .


yn = x
Ainsi ((1), (1, 2), (2, 1, 2)) est un immeuble propre de dernier tage (2, 1, 2).
On note B(x) lensemble des immeubles propres de dernier tage x.
1. Montrer que pour tout mot propre x de taille n 0, on a

n
|B(x)| = |B(xi )|.
i=1

2. Montrer par rcurrence que pour tout n 0 et tout mot x de longueur


n, on a

|B(x.a)| = bn (q)|B(x)|, avec bn (q) = n(q 2) + q.
a{1,...,q}

3. On note S(q, n) le nombre dimmeubles propres de n tages. Montrer


que S(q, n + 1) = bn (q)S(q, n).
4. Montrer que la formule
|B((x1 , . . . , xn ))|
n ({x1 , . . . , xn }) =
S(q, n)
dfinit une mesure de probabilit sur {1, . . . , q}n .
5. laide du thorme dextension de Kolmogorov, dmontrer quil
existe une mesure de probabilit Pq sur {1, . . . , q}N telle que pour
tout entrier n et tout x = (x1 , . . . , xn ) {1, . . . , q}N , on ait
|B((x1 , . . . , xn ))|
Pq (1 = x1 , . . . n = xn ) = .
S(q, n)
6. Montrer que Pq est rversible, cest dire que pour tout n 1 et tout
x = (x1 , . . . , xn ) {1, . . . , q}N , on a
Pq (1 = x1 , . . . n = xn ) = Pq (1 = xn , . . . n = x1 ).

7. En dduire que Pq est invariante par le dcalage .


8. On sintresse maintenant au cas o q = 4.
(a) Montrer quil existe des constantes (cn,p )n0,p0 telles que pour
tout n, p 0, pour tout x {1, . . . , q}n et tout y {1, . . . , q}p , on
ait
|B(x.a.y)| = cn,p |B(x)|.|B(y)|.
a{1,...,q}

(b) En dduire que sous P4 , (1 , . . . , n ) est indpendant de (n+2 , . . . , n+p+1 ).


lien vers lindication lien vers la solution
8.5. EXERCICES SUR LES PROCESSUS 113

8.5.2 Exercices non corrigs


Exercice 56. Coloriages propres : un thorme de Schramm, par la mthode
de Fuxi Zhang
Soit = {1, . . . , q}N , F = B(), et P une probabilit sur , invariante
par le dcalage et ne chargeant que des coloriages propres (voir lexercice
prcdent). On suppose de plus que P est 1-dpendant, cest dire que pour
tout entier naturel n, (i , i < n) est indpendante sous P de (i , i > n),
o i est loprateur de projection canonique : i () = i ). On suppose
que la couleur c vrifie p = P(0 = c) > 0. On note P = P(|0 = c) et E
lintgrale sous P.

1. Posons, pour s B(0, 1) : S(s) = + 1{i =c} si . Montrer que
i=0 1
1 s + ps
E(S(s)) = .
1s
2. Posons T () = inf{n 1; n = c}.
Notons loprateur de dans lui mme dfini par

T (x) (x) si T (x) < +
(x) = .
x sinon.
Montrer que pour tout n 1 et A F , on a
P(T = n, 1 (A)) = P(T = n)P(A).
3. En dduire que les variables (T n )n0 sont indpendantes.
4. On note GT la fonction gnratrice de T sous P : pour s B(0, 1),

GT (s) = E[sT ]. En remarquant que S(s) = + Nk
n=0 s , avec N0 = 0 et
k1
Nk = i=0 T , montrer que E(S(s)) = 1GT (s) , puis que GT (s) =
k 1

ps2
1s+ps2
5. On rappelle le thorme de PringsheimHille : si une srie entire
coecients positifs a un rayon de convergence R < +, alors la fonc-
tion somme nadmet de prolongement analytique sur aucun voisinage
de R. la lumire de ce rsultat, montrer que p 14 .
6. En dduire quil nexiste aucun champ stationnaire 1-dpendant de
coloriages propres 3 couleurs.
lien vers lindication
Exercice 57. Soient (Xn )n1 , (Yn )n1 deux processus stationnaires ind-
pendants. Montrer que pour toute application mesurable de R R dans
R, le processus (Xn , Yn ) est stationnaire. Donner un exemple de processus
(Xn )n1 et (Yn )n1 stationnaires tels que Xn + Yn ne soit pas stationnaire.
lien vers lindication
114 CHAPITRE 8. LOI DUN PROCESSUS

Exercice 58. Soit (Xn )n1 un processus stationnaire. Montrer que le proces-
sus (Yn )n1 dfini par Yn = Xn + 2Xn+1 est stationnaire. lien vers lindication

Exercice 59. Soit (Xn )n0 une chane de Markov homogne dont lespace
dtat est fini. Montrer que (Xn )n0 est stationnaire si et seulement si X0 et
X1 ont mme loi. lien vers lindication

Exercice 60. Soit X0 une variable alatoire suivant la loi uniforme sur Z/7Z.
Soit (Tn )n1 une suite de variables alatoires indpendantes identiquement
distribues suivant la loi uniforme sur lensemble {1, 1}. On dfinit par
rcurrence une suite (Tn )n1 par Xn+1 = Xn + Tn+1 .On pose enfin Zn =
inf{k 0; Xn+k = 0}. Montrer que (Zn )n0 est un processus stationnaire.
lien vers lindication

Exercice 61. Montrer que lapplication de [0, 1] dans lui-mme qui x


associe la partie fractionnaire de 2x laisse invariante la mesure de Lebesgue
sur [0, 1]. lien vers lindication

Exercice 62. Soit un rel. Montrer que lapplication de [0, 1] dans lui-
mme qui x associe la partie fractionnaire de x + laisse invariante la
mesure de Lebesgue sur [0, 1]. Comment interprter ce rsultat si lon identifie
[0, 1[ au cercle unit par lapplication x 7 e2ix ? lien vers lindication

Exercice 63. On appelle bruit blanc une suite (Zn )nZ de variables alatoires
indpendantes suivant la loi N (0, 1). Soit (Zn )nZ un bruit blanc et =
(0 , . . . , q ) Rq+1 avec 0 = 0 et q = 0. On considre la moyenne mobile :


q
Xn = k Znq .
k=0

Dmontrer que (Zn )nZ est un processus stationnaire dont on calculera la


fonction dautocovariance. lien vers lindication
Chapitre 9

Chanes de Markov

9.1 Dfinition et caractrisations


9.1.1 Dfinition
Soit S un ensemble fini ou dnombrable, une mesure de probabilit sur
S et P = (pi,j )(i,j)SS une matrice coecients positifs. Soit (Xn )n0 une
suite de variables alatoires dfinies sur un espace (, F, P). On dit que la
suite (Xn )n0 est une chane de Markov de loi initiale et de matrice de
passage P si lon a, pour tout entier n 1 et toute suite x0 , . . . xn dlments
de S :


n1
P(X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x0 ) pxi ,xi+1 .
i=0

Exemple : une suite (Xn )n0 de variables alatoires indpendantes de


mme loi valeurs dans S dnombrable est une chane de Markov. En
eet, il sut de poser pour (i, j) S S pi,j = (j).

9.1.2 Caractrisation par lesprance conditionnelle


Thorme 66. Soit (Xn )n0 une suite de variables alatoires valeurs dans
S. Les trois proprits suivantes sont quivalentes :
1. (Xn )n0 est une chane de Markov de matrice de passage P valeurs
dans S
2. Quels que soient x0 , . . . , xn1 dans S tels que P(X0 = x0 , X1 = x1 , . . . Xn1 =
xn1 ) > 0, alors P(Xn = xn |X0 = x0 , X1 = x1 , . . . , Xn1 = xn1 ) =
pxn1 ,xn .

115
116 CHAPITRE 9. CHANES DE MARKOV

3.
P(Xn = xn |X0 , . . . , Xn1 ) = pXn1 ,xn . (9.1)

Cela signifie que toute linformation que X0 , . . . , Xn1 peuvent nous ap-
porter sur Xn est comprise dans Xn . Remarque : (9.1) implique que P(Xn =
xn |Xn1 ) = pXn1 ,xn

9.1.3 Dynamique markovienne


Quest ce concrtement, quune chane de Markov ? On va voir que cest
une suite de ralisations, au cours du temps, des tats dun systme soumis
des transformations alatoires, la suites des transformations est une suite de
transformations indpendantes, de mme loi. videmment, le rsultat de la
transformation dpend de la transformation choisie et de ltat du systme
avant la transformation.

Lemme 10. Soit S un ensemble fini ou dnombrable, une loi sur S et


une mesure sur S S = F(S, S).
Soit (fn )n1 une suite de v.a.i.i.d. de loi et X0 une variable alatoire
de loi indpendante de (fn )n1 . On dfinit (Xn )n1 par

n 0 Xn+1 = fn+1 (Xn )

Alors (Xn )n0 est une chane de Markov de loi initiale et de matrice de
transition M , o M est dfinie par

(i, j) S S mi,j = ({f S S ; f (i) = j}).

Dmonstration. Soit A S {0,...,n} .

P({(X0 , . . . , Xn ) A} {Xn = i} {Xn+1 = j})


= P({(X0 , . . . , Xn ) A} {Xn = i} {fn+1 (i) = j})
= P({(X0 , . . . , Xn ) A} {Xn = i})P(fn+1 (i) = j)
= P({(X0 , . . . , Xn ) A} {Xn = i})P(fn+1 S . . . {j} . . . S)
= P({(X0 , . . . , Xn ) A} {Xn = i})(S . . . {j} . . . S)
= P({(X0 , . . . , Xn ) A} {Xn = i})mi,j

Exemple : la marche de livrogne (ou marche alatoire sur Z)


Un ivrogne sort du caf passablement mch. chaque pas, il prend une
dcision (enfin, si tant est que cela lui soit possible...) : aller gauche, ou
9.2. MATRICE STOCHASTIQUE 117

aller droite. Si on repre par Xn sa position dans la rue au temps n, on a


S = Z, Xn+1 = fn+1 (Xn ), o fn est une suite de translations indpendantes :
P(fn = (x 7 x + 1)) = P(fn = (x 7 x 1)) = 1/2.
Comme on va le voir, ce procd permet de fabriquer toutes les chanes
de Markov.

9.2 Matrice stochastique


Dfinition: Soit S un ensemble dnombrable et P = (pi,j )(i,j)SS une ma-
trice coecients positifs. On dit que P est une matrice stochastique si on
a
i S pi,j = 1.
jS

9.2.1 Existence des chanes de Markov


Thorme 67. Soit S un ensemble dnombrable, P = (pi,j )(i,j)SS une
matrice stochastique et une mesure de probabilit sur S. Alors, on peut
construire une chane de Markov de loi initiale et de matrice de passage
P.

Dmonstration. Dfinissons une mesure P sur S S par

P = i ,
iS

o i est la mesure sur S dfinie par i (j) = pi,j . Alors P vrifie P (S


. . . {j} . . . S) = pi,j et il sut dappliquer le lemme prcdent.

Lorsque la matrice P est fixe, on note souvent P une probabilit sous


laquelle (Xn )n0 est une chane de Markov de matrice de transition P telle que
la loi de X0 sous P est . De mme, on note E lesprance correspondante.
Dans le cas o la loi initiale est une masse de Dirac, on crit simplement Pi
(resp. Ei ) au lieu de Pi (resp. Ei ).
Remarque : on est souvent amen raliser une telle chane sur lespace
canonique = S N . Dans ce cas, les (Xk )k0 sont les oprateurs de projection
canonique : Xk () = k et P est lunique mesure sur telle que pour tout
entier n 1 et toute suite x0 , . . . xn dlments de S :


n1
P (X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x0 ) pxi ,xi+1 .
i=0
118 CHAPITRE 9. CHANES DE MARKOV

Corollaire 13. Soit P une matrice markovienne sur S. Pour tout , on note
P la mesure markovienne sur S N de loi initiale et de matrice de passage
P , ainsi que Pi = Pi . Pour toute loi sur S, P admet la dsintgration

P =

Pi d (9.2)

cest dire que pour tout borlien A de S N , on a



P (A) =

Pi (A) d (9.3)

Dmonstration. Il sut de dfinir une mesure par



(A) = Pi (A) d

et de vrifier que lon a pour tout entier n 1 et toute suite x0 , . . . xn


dlments de S :


n1
(X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x0 ) pxi ,xi+1 .
i=0

Remarques :
On trouve parfois la notation Pi la place de Pi . Dans ce cas, il faut
faire attention quil peut y avoir ambiguit sur le sens de la notation
PX .

9.2.2 Point de vue fonctionnel (*)


Une matrice stochastique indexe par peut assez naturellement tre vue
comme un oprateur sur lespace des fonctions bornes sur S. Rappelons
que lespace des fonctions bornes, que lon note (S), est lensemble des
fonctions f telles que f = sup{|f (i); i S} < +, et que est une
norme sur (S).
Maintenant, si f (S), la fonction P f dfinie par

i S (P f )(i) = pi,j f (j)
jS

est une fonction borne. En eet, la majoration



|pi,j f (j)| pi,j f = f
jS jS
9.2. MATRICE STOCHASTIQUE 119

montre que la srie converge absolument. De plus, comme pour tout i, |P f (i)|
f , on a P f f : P est une contraction de lespace des fonctions
bornes.
Remarque : (P f )(i) est lintgrale de la fonction f par rapport la mesure
de probabilit sur S qui aecte la j la probabilit pi,j .

Thorme 68. Soit (Xn )n0 une suite de variables alatoires valeurs dans
S. On a quivalence entre
1. (Xn )n0 est une chane de Markov de matrice de passage P valeurs
dans S.
2. Pour toute fonction f (S) et pour tout entier n 0

E[f (Xn+1 )|X0 , . . . , Xn ] = (P f )(Xn ).

Dmonstration. Pour le sens direct, il sut de prendre f = i et dappliquer


la caractrisation vue en dbut de chapitre. Regardons la rciproque. Si f =
i , lidentit dcoule encore de la caractrisation vue en dbut de chapitre.
Par linarit, lidentit stend au cas des fonctions support fini. Passons
au cas dnombrable. Il existe une suite croissante densembles finis (Sp )p1
avec S = p1 Sp . f11Sp est une fonction borne, donc

E[(f11Sp )(Xn+1 )|X0 , . . . , Xn ] = (P (f11Sp )(Xn ).

Le thorme de convergence domine pour lesprance conditionnelle nous


dit que

lim E[(f11Sp )(Xn+1 )|X0 , . . . , Xn ] = E[f (Xn+1 )|X0 , . . . , Xn ].


p+

Pour conclure, il sut de montrer que pour tout i S

lim P (f11Sp )(i) = P (f )(i).


p+

Mais pour toute fonction borne, le thorme de transfert donne

(P g)(i) = Ei g(X1 ). (9.4)

Lidentit voulue dcoule alors immdiatement du thorme de convergence


domine.

Lidentit (9.4) est lmentaire, mais peut tre utile. On dduit de ce


thorme une autre remarque trs simple, mais trs puissante :
120 CHAPITRE 9. CHANES DE MARKOV

Corollaire 14. Soit (Xn )n0 est une chane de Markov de matrice de passage
P valeurs dans S, f (S). Si lon pose Fn = (X0 , . . . , Xn ), alors la
suite (Yn )n1 dfinie par

n 0 Yn+1 = f (Xn+1 ) (P f )(Xn )

est une suite de dirences de martingales adapte la filtration (Fn )n0 .

Dmonstration. Yn+1 est Fn+1 -mesurable et

E[Yn+1 |Fn ] = E[f (Xn+1 )|Fn ]E[(P f )(Xn )|Fn ] = (P f )(Xn )(P f )(Xn ) = 0.

9.2.3 Puissances des matrices stochastiques


Thorme 69. Soit (Xn ) une chane de Markov de matrice de transition P
et de loi initiale PX0 = . Alors, la loi n de la chane au temps n scrit
n = P n , o on a crit et n comme des vecteurs lignes.

Dmonstration. Il sut de montrer que n+1 = n P , puis procder par r-


currence sur n. Daprs le principe de partition, on a

n+1 (j) = P (Xn+1 = j)



= P (Xn = i, Xn+1 = j)
iS

= P (Xn = i)pi,j
iS

= n (i)pi,j
iS
= (n M )(j)

En particulier, en prenant = i , on a le corollaire important :

Corollaire 15. Soit (Xn ) une chane de Markov valeur dans S, de matrice
de transition P et de loi initiale i , avec i inS. Alors, pour tout j S, on a

Pi (Xn = j) = P n (i, j).


9.2. MATRICE STOCHASTIQUE 121

9.2.4 Graphe associ une matrice stochastique


Soit P = (pi,j )(i,j)SS une matrice stochastique. On peut associer la
matrice P (o aux chanes de Markov correspondantes) un graphe orient
G = (S, A) avec
A = {(x, y) S S; pi,j > 0}.
Considrons une chane de Markov associe la matrice stochastique P avec
la condition initiale dterministe x0 , autrement dit = x0 et notons Px0 la
mesure de probabilit correspondante Alors, comme

n1
Px0 (X0 = x0 , X1 = x1 , . . . , Xn = xn ) = pxi ,xi+1 ,
i=0

il est clair que Px0 (X0 = x0 , X1 = x1 , . . . , Xn = xn ) est non nul si et seulement


si (x0 , x1 , . . . , xn ) constitue un chemin dans le graphe G.
Daprs le principe de partition, on a pour une chane de Markov avec
une loi initiale i


Pi (Xn = xn ) = Pi (X0 = x0 , X1 = x1 , . . . Xn1 = xn1 , Xn = xn ).
(x0 ,...xn1 )S n
(9.5)
(n)
En particulier, si lon pose pi,j = P (Xn = j), on a
i

(n)
pi,j = Pi (X1 = x1 , X2 = X2 , . . . Xn1 = xn1 , Xn = j).
xS n1

(n)
Donc pi,j > 0, autrement dit il est possible daller en n tapes de ltat i
ltat j si et seulement si on peut trouver dans le graphe G un chemin de
longueur n allant de i j.
On en dduit que

Pi (n > 0; Xn = j) = Pi ( {Xn = j}),


n1

qui reprsente la probabilit que, partant de i, on puisse arriver j, est non


nulle si et seulement si il existe dans le graphe G un chemin allant de i j.
Dans ce cas, on dit que j est accessible partir de i et on crit i j.
Si il y a la fois un chemin de i vers j et un chemin de j vers i, on dit
que les tats i et j communiquent et on crit i j.
Si tous les tats communiquent, on dit que la chane de Markov est irr-
ductible.
122 CHAPITRE 9. CHANES DE MARKOV

On appelle priode dun tat x dune chane de Markov et on note d(x)


le pgcd (plus grand commun diviseur) des longueurs des circuits du graphe
G contenant x. Lorsque la priode est 1, on dit que ltat x est apriodique.
Lemme 11. Si deux tats communiquent, alors ils ont mme priode.
Dmonstration. Soient i, j avec i j. Soit un chemin de i j, un
chemin de j i. Soit C un circuit quelconque (ventuellement vide) contenant
j . et C sont deux circuits contenant i. Donc d(i) divise leurs
longueurs ainsi que la dirence de leurs longueurs, soit la longueur de C.
Ainsi d(i) divise les longueurs de tous les circuits contenant j, donc divise
leur pgcd, soit d(j). De la mme manire, on montre que d(j) divise d(i),
do d(i) = d(j).
Dfinition: Si une chane irrductible a ses tats de priode 1, on dit quelle
est apriodique.
Le lemme suivant et ses corollaires se rvleront trs utiles par la suite
Lemme 12. Soit x un tat de priode 1. Il existe un entier N (x) tel que pour
tout n N (x) le graphe associ la chane de Markov possde un circuit de
longueur n contenant x
Soit A lensemble des valeurs de n telles que le graphe associ la chane
de Markov possde un circuit de longueur n contenant x. Il est clair que
A est stable par addition (concatnation des circuits). Il existe p 1 et
n1 , n2 , . . . , np tels que le pgcd de n1 , n2 , . . . , np soit 1. Daprs le lemme de

Bezout, il existe des relatifs a1 , . . . ap tels que 1 = pk=1 ak nk . Posons P =

p:ap >0 ap np et N = p:ap <0 (ap )np . On a P A, N A et 1 = P N .
Soit n N (N 1). On peut crire n = bN + r, avec b N 1 et r
{0, 1, . . . N 1}. On a n = bN + r = bN + r(P N ) = rP + (b r)N A
car b r N et A est stable par addition.
Corollaire 16. Si x est un tat de priode 1 et quil existe un chemin de
longueur d(x, y) allant de x y, alors pour tout n N (x, y) = N (x)+d(x, y),
il existe un chemin de longueur n allant de x y. Ainsi, si P est la matrice
associe, P n (x, y) > 0.
Dmonstration. Il sut de concatner le chemin allant de x x avec un
chemin allant de x y.
Corollaire 17. Si une chane de Markov est irrductible, apriodique, va-
leurs dans un ensemble fini S, alors il existe un entier N tel que pour tout
n N et tout couple (i, j), il existe un chemin de longueur n allant de i j.
Ainsi, si P est la matrice associe, P n est coecients strictement positifs.
9.3. PROPRIT DE MARKOV 123

Dmonstration. Il sut de prendre N = max(N (x), x S) + diam(G).


La dfinition suivante est trs simple, mais sera abondamment utilise
dans les exercices.
Dfinition On appelle point absorbant dune chane tout point x tel que
P (X1 = x) = 1.
x

9.3 Proprit de Markov


9.3.1 Le thorme
Thorme 70. Soit (Xk )k0 une chane de Markov de matrice de passage
P . Soit p un entier naturel. La suite (Xk+p )k0 est une chane de Markov
de matrice de passage P et de loi initiale la loi de Xp . De plus, pour tout A
Fp -mesurable et tout i S, on a
P(A, Xp = i, Xp+. B) = P(A, Xp = i)Pi (X B).
De manire quivalente, on a P presque-srement :
P(Xp+. B|Fp ) = fB (Xp ), avec fB (x) = Px (X B).
Dmonstration. Comme tre une chane de Markov est une proprit de la
loi, on peut supposer que (Xn )n0 est obtenue par le procd dcrit plus
haut : Xn+1 = fn+1 (Xn ) o (fn )n1 est une suite de variables alatoires
indpendantes de loi M ,(fn )n1 tant de plus suppose indpendante de X0 .
Posons Yn = Xn+p Si lon pose gn = fn+p , on a la rcurrence Yn+1 = gn+1 (Yn ).
Mais la loi de (gn )1 est
M N , ce qui montre bien que (Yn )0 est une chane
de Markov de matrice de passage P et de loi initiale la loi de Xp . Maintenant,
soit B un borlien de S N . On pose
Gi ((hn )n1 ) = (i, h1 (i), h2 h1 (i), h3 h2 h1 (i), . . . )..

P(A, Xp = i, Xp+. B) = P(A, Xp = i, Gi (g) B)


A {Xp = i} est (X0 , f1 , . . . , fp )-mesurable tandis que {Gi (g) B} est
(fk ; k > p)-mesurable, donc
P(A, Xp = i, Gi (g) B) = P(A, Xp = i)P(Gi (g) B) = P(A, Xp = i)Pi (X B).
Pour la deuxime forme, il est clair que fB (Xp ) est Fp -mesurable : il sut
donc de vrifier donc que pour tout A Fp , on a
E1
1A11{Xp+. B} = E1
1A fB (Xp ).
124 CHAPITRE 9. CHANES DE MARKOV

Or

E1
1A11{Xp+. B} = E1
1A11{Xp =i}11{Xp+. B}
i

= P(A, Xp = i, Xp+. B)
i

= P(A, Xp = i)Pi (X B)
i

= E[1
1A{Xp =i} Pi (X B)]
i

= E[1
1A{Xp =i} fB (Xp )]
i
= E[1
1A fB (Xp )]

Remarque : on peut trouver dans la littrature lcriture


P(Xp+. B|Fp ) = PXp (X B).
Je mets le lecteur en garde contre le fait que PXp ne signifie pas la mme
chose que PPXp .
La proprit de Markov est souvent utilise sous la forme simple suivant :
si A est un borlien de Rn , B un borlien de Rp , alors

P((X0 , . . . Xn1 ) A, Xn = i, (Xn+1 , . . . , Xn+p ) B)


= P((X0 , . . . Xn1 ) A, Xn = i)Pi ((X1 , . . . , Xp B)).

9.3.2 Analyse au premier pas


Corollaire 18. Soit (Xn )n0 une chane de Markov de matrice de pas-
sage (pi,j ), B un borlien de RN . On note loprateur de translation :
((xn )n0 ) = ((xn+1 )n0 ).
Alors
P((X) B) = PPX1 (X B)

= P(X1 = j)Pj (X B)
j:P(X1 =j)>0

En particulier, si B est invariant par loprateur de translation (cest


dire que 1 (B) = B) , alors on a le systme dquations :

Pi (X B) = pi,j Pj (X B)
j:pi,j >0
9.3. PROPRIT DE MARKOV 125

Dmonstration. La premire galit traduit exactement la proprit de Mar-


kov : une chane de Markov observe partir du temps 1 a la mme loi
quune chane de Markov de mme dynamique commenant avec comme va-
leur initiale celle que prend la chane de Markov non dcale au temps 1.
La deuxime galit correspond une dcomposition suivant les valeurs que
peut prendre X1 .
Passons au cas o B est invariant :

Pi (X B) = Pi (X 1 (B))
= Pi ((X) B)

= Pi (X1 = j)Pj (X B)
i:P i (X1 =j)>0

= pi,j Pj (X B)
i:pi,j >0
126 CHAPITRE 9. CHANES DE MARKOV

9.4 Exercices sur les chanes de Markov


9.4.1 Exercices corrigs
Exercice 64. On lance un d quilibr 6 faces jusqu obtenir deux six
conscutifs. Calculer lesprance du nombre de lancers ncessaires. lien vers
lindication lien vers la solution
Exercice 65. Soit (Xn )n0 une chane de Markov irrductible valeurs dans
un espace dtats dnombrable S. Soit A S ,A = S. On pose = inf{n
0; Xn A}. Montrer que < + presque srement. lien vers lindication
lien vers la solution

9.4.2 Exercices non corrigs


Exercice 66. On pose Y0 = 0, puis, pour n 1, Yn est une suite de variables
indpendantes suivant la loi de Bernoulli de paramtre p. On pose ensuite
X0 = 0, et pour tout n 1 : Xn = max{k : Yn = Yn1 = . . . Ynk+1 = 1} 0.
1. Montrer que (Xn )n0 est une chane de Markov.
2. Dans la suite, on note Pi la loi dune chane de Markov avec la mme
dynamique partant de n, Ei lesprance correspondante. On note T n =
inf{n 0; Xi = n} Montrer que pour i < n, on a pour i < n
Ei [T n ] = 1 + pEi+1 [T n ] + (1 p)E0 T n .
3. En dduire la valeur de E0 T n .
4. Application : Une pice de monnaie a pour probabilit p, de tomber
sur face. On la lance indfiniment. Calculer lesprance du nombre de
jets quil faudra jusqu ce quune chane de r rsultats conscutifs de
type face apparaisse.
lien vers lindication
Exercice 67. Chane deux tats. Soit {Xn : n 0} une chane de Markov
valeurs dans {0, 1} et de probabilit de transition :
( )
1
P = , 0 , 1.
1
1. Montrer que pour (, ) = (0, 0) :
( ) ( )
n 1 (1 )n
P = + .
+ +
Que se passe-t-il lorsque = 0 ou = 0 ou = = 0 ? On supposera
pour la suite de lexercice que (, ) = (0, 0).
9.4. EXERCICES SUR LES CHANES DE MARKOV 127

2. Vrifier que pour toute loi initiale , on a


( )

P (Xn = 0) =

+ (1 )n (0) .
+ +

3. Si (, ) = (1, 1), montrer que (Xn )n0 converge en loi vers une loi
que lon dterminera. On supposera pour la suite de lexercice que
(, ) = (1, 1).
4. (Mesure stationnaire) Prouver que, pour tout n N,

P (Xn A) = (A).

lien vers lindication

Exercice 68. Reprsentation canonique et simulation des chanes de Mar-


kov.
1. Soit (Zn )n1 une suite de vaiid valeurs dans F , soit g : E F E
et soit X0 une variable alatoire valeurs dans E indpendante de
(Zn )n1 . Montrer que la suite (Xn )n0 dfinie par Xn+1 = g(Xn , Zn+1 )
est une chane de Markov homogne. Donner sa matrice de transition.
2. On suppose quon dispose dun gnrateur de nombres alatoire de loi
uniforme sur [0, 1], not rand. Soit une mesure de probabilit sur
N. Donner un algorithme pour gnrer des nombres alatoires suivant
la loi .
3. Soit P = (pi,j ) une matrice de transition sur N. On note si,k =
k
j=0 pi,j . Soit (Zn )n1 une suite de vaiid de loi uniforme sur [0, 1] et
X0 une variable alatoire valeurs dans N indpendante de (Zn )n1 .
On construit la suite (Xn )n0 par rcurrence de la faon suivante :

si Xn () = i et Zn+1 () ]si,j1 , si,j ] alors Xn+1 = j.

Montrer que la suite (Xn )n0 ainsi dfinie est une chane de Markov
homogne. Donner sa matrice de transition.
4. Application. Comment simuler une chane de Markov homogne de
matrice de transition P = (pi,j ) ? Ecrire un algorithme explicite si

0.25 0.5 0.25

P = 0.5 0 0.5 .
0.5 0.5 0

lien vers lindication


128 CHAPITRE 9. CHANES DE MARKOV

Exercice 69. Temps datteinte dun tat absorbant.


Soit (Xn ) une chane de Markov sur un ensemble dnombrable E et a E
un tat absorbant. On pose T = inf{n 0; Xn = a}. Montrer que P(Xn =
a) = P(T n). lien vers lindication

Exercice 70. Temps dentre : une proprit dinvariance.


Soit (Xn ) une chane de Markov sur un ensemble dnombrable E de ma-
trice de transition Q. Pour f : E R+ , soit Qf la fonction dfinie par

Qf (x) = Q(x, y)f (y).
yE

Pour A E on note TA = inf{n 0; Xn A} le temps dentre dans A.


Montrer que la fonction f dfinie sur E par f (x) = Px (TA < +) vrifie

f (x) = 1 pour x A et f (x) = (Qf )(x) pour x A.

lien vers lindication

Exercice 71. Chane de Markov arrte.


Soit (Xn ) une chane de Markov sur un ensemble dnombrable E de ma-
trice de transition Q. Etant donn un ensemble B E, on note

TB = inf{n 0; Xn B}

le temps dentre dans B et on pose Yn = XnTB . Montrer que (Yn )n0 est
une chane de Markov sur E dont on prcisera la matrice de transition. lien
vers lindication

Exercice 72. Soit (Xn )n0 une chane de Markov valeurs dans N. On note
A lensemble des points absorbant de la chane. Montrer que (Xn ) ne peut
converger que vers un lment de A.
Plus prcisment : si il existe un vnement B et une variable alatoire Y
telle que
B lim Xn () = Y (),
n+

alors P(B {Y A}) = 0. lien vers lindication

Exercice 73. La ruine du joueur Un joueur possdant une fortune de a


units joue pile ou face jusqu ce quil ait fait sauter la banque ou quil soit
ruin. Les rserves de la banque sont de b units. Chaque victoire rapporte
une unit et chaque dfaite en cote une. On suppose que les lancers sont
indpendants et que la probabilit de gain de la banque est p = 1 q. On
veut dterminer la probabilit pg que la banque rsiste.
9.4. EXERCICES SUR LES CHANES DE MARKOV 129

On note (Xn )n1 une suite de v.a.i.i.d. de loi p1 + q1 , puis



Sn = nk=1 Xk et T = inf{n 0; Sn = b ou Sn = a}. Si lon pose Sn =
SnT , il est ais de constater que Sn reprsente la suite des gains relatifs de
la banque.
1. Montrer que Sn est une chane de Markov homogne espace dtats
E = {b, . . . , a} dont on dterminera la loi initiale et la matrice de
transition.
2. Considrons les chanes de Markov ayant la mme matrice de transi-
tion que (Sn )n0 Montrer que la suite (un )bna dfinie par

un = Pn ({la banque rsiste})

vrifie la rcurrence linaire

pun+1 un + qun1 = 0.

Que valent ua et ub ?
3. Rsoudre lquation de rcurrence et en dduire

( pq )b 1
pg = . (9.6)
( pq )a+b 1

4. On note vn = En [T ]. Montrer que si b < n < a, on a

1
vn = 1 + (vn+1 + vn1 ).
2

5. Exprimer vn en fonction de n.
lien vers lindication

Exercice 74. Le joueur inruinable


Le problme est le mme que le prcdent, a ceci prs que lon suppose main-
tenant que le joueur est infiniment riche. On cherche toujours la probabilit
que la banque rsiste (ce qui ne signifie pas ici que le joueur est ruin).
Intuitivement, il sut de faire tendre a vers + dans la formule (9.6), le
tout tant de le justifier. . .

On suggre de poser T = inf{n; Sn b} et, pour tout a > 0, Ua =


inf{n; Sn a} et Ga = {Ua T }.
lien vers lindication
130 CHAPITRE 9. CHANES DE MARKOV

Exercice 75. Madame Brisby dans le labyrinthe


Madame Brisby sest perdue dans le labyrinthe que forment les galeries
o vivent les rats de Nim. Quelle est la probabilit quelle rencontre le sage
Nicodmus avant de croiser le belliqueux Rufus ?
4 (Brutus)
1

5 (Nicodmus)

lien vers lindication

Exercice 76. Soit M la matrice dune chane de Markov. Montrer que si


mi,i > 0, alors ltat i est apriodique. Quen dduire pour une chane irr-
ductible ? lien vers lindication

Exercice 77. Soit a et b des entiers suprieurs ou gaux 2, (Dn )n1 une
suite de variables alatoires i.i.d. valeurs dans Z/aZ Z/bZ vrifiant
1
P (D1 = (0, 1)) = P (D1 = (1, 0)) = .
2
Soit (Dn )n1 une suite de variables alatoires et S0 une variable alatoire
valeurs dans Z/aZ Z/bZ indpendante de (Dn )n1 Pour n 1, on pose


n
Sn = S0 + Dk .
k=1

Montrer que (Sn ) est une chane de Markov . Est-elle irrductible, aprio-
dique ?
lien vers lindication

Exercice 78. Proprit de Markov fonctionnelle



Soit (Xn )n1 une chane de Markov, F une application mesurable de RN
dans [0, +[. Montrer que pour tout entier p 1, pour tout A Fp =
(X1 , . . . , Xp ), on a
9.4. EXERCICES SUR LES CHANES DE MARKOV 131

E[1
1A F ((Xn+p )n1 )] = P(A)g(Xp ),
avec g(x) = Ex F ((Xn )n1 ).
On rappelle que pour toute variable alatoire Y positive et toute proba-
bilit P, on a EY = 0+ P(Y > t) dt. lien vers lindication
Exercice 79. Madame Brisby II
On reprend la chane de Markov des aventures de madame Brisby. On note
lespace dtats E = {1, 2, 3, 4, 5} et lon pose A = {4, 5} Soit f : E C
telle que x A f (x) = 0.

On pose F = + k=1 f (Xk ).
Montrer que E|F | (ET 1)f .
Montrer lidentit

E1 F E1 f (X1 )
2
(I N ) E F = E f (X1 )
2
,
E3 F E3 f (X1 )

o N est la matrice 3 3 telle que la matrice de la chane de Markov admette


une criture par blocs sous la forme
( )
N
0 I2

En dduire E1 T, E2 T, E3 T .
lien vers lindication
Exercice 80. volution dun gnotype avec fixation
Nous travaillons ici sur une population de taille fixe forme de 2N gnes. Il
y a deux types de gnes possibles : le type a et le type A. Chacun des
gnes au temps n + 1 est engendr par deux des 2N gnes prsents au temps
N . Son type est celui dun de ses deux parents (choisi au hasard).
On considre la variable alatoire Xn gale au nombre dindividus de type
A dans la population ltape n.
On admettra quon peut modliser lvolution par la rcurrence suivante :


2N
Xn+1 = 11{Yn+1,k Xn } ,
k=1

o (Yn,k )n1,k{1,...,2N } est une suite de variables alatoires indpendantes


suivant la loi uniforme sur lensemble fini {1, . . . , 2N }. X0 est indpendante
des (Yn,k ).
1. Montrer que Xn est une chane de Markov valeurs dans E = {0, . . . , 2N }.
132 CHAPITRE 9. CHANES DE MARKOV

2. Montrer que la loi de Xn+1 sachant Xn = k est une loi binomiale de


paramtre 2N et (k/2N ). Identifier les ventuels points absorbants.
3. Montrer que (Xn )n0 converge presque srement vers une variable
alatoire X .
4. Dterminer la loi de X en fonction de la loi de X0 .
lien vers lindication

Exercice 81. Limage dune chane de Markov nest pas (toujours) une
chane de Markov.
On considre

la chane de Markov (Xn ) sur E = {0, 1, 2} de matrice de tran-
0 0 1
sition 0 1 0

et de loi initiale 0 = ( 3 , 3 , 3 ). Soit f : E {0, 1} telle
1 1 1

1 0 0
que f (0) = f (1) = 0, f (2) = 1. Montrer que (f (Xn )) nest pas une chane de
Markov.
lien vers lindication

Exercice 82. Limage dune chane de Markov peut tre une chane de Mar-
kov.
Soit (Xn ) une chane de Markov sur un ensemble dnombrable E de matrice
de transition P . Soit une application surjective de E dans un ensemble F
telle que

z F x, y E (x) = (y) Px ((X1 ) = z) = Py ((X1 ) = z).

Montrer que la suite (Yn ) dfinie par Yn = (Xn ) est une chane de Markov
et dterminer sa matrice de transition. Montrer que si est une probabilit
stationnaire pour la chane (Xn ) alors limage de par est stationnaire
pour (Yn ).
lien vers lindication

Exercice 83. Soit , deux lois sur N. est appele loi de reproduction et
est la loi de la taille de la population initiale.
On appelle chane de Galton-Waltson de loi initiale et de loi de repro-
duction la chane de Markov de loi initiale et de matrice de transition

i (j) si i = 0
pi,j =
0 (j) si i = 0

Montrer que si (Xn )n0 et (Yn )n0 sont deux chanes de Markov indpen-
dantes, (Xn )n0 tant une chane de Galton-Waltson de loi initiale 1 et de
9.4. EXERCICES SUR LES CHANES DE MARKOV 133

loi de reproduction , et (Yn )n0 tant une chane de Galton-Waltson de loi


initiale 2 et de loi de reproduction , alors (Xn + Yn )n0 est une chane de
Galton-Waltson de loi initiale 1 2 et de loi de reproduction . lien vers
lindication
134 CHAPITRE 9. CHANES DE MARKOV
Chapitre 10

Rcurrence et mesures
invariantes

10.1 Temps darrt et proprit de Markov


forte
Thorme 71. Soit S un ensemble dnombrable, (Xk )k0 une chane de
Markov sur S de matrice de passage P et T un temps darrt adapt cette
suite. Soit A un vnement se produisant avant le temps T et i S.
Conditionnellement lvnement {T < +} A {XT = i}, la suite
(XT +k )k0 est une chane de Markov de matrice de passage P partant de i.
Ainsi, pour tout borlien B de S N , on a

P(T < +, XT = i, A, XT +. B) = P(T < +, XT = i, A)Pi (X B).

Dmonstration. Comme tre une chane de Markov est une proprit de la


loi, on peut supposer que (Xn )n0 est obtenue par le procd dcrit plus
haut : Xn+1 = fn+1 (Xn ) o (fn )n1 est une suite de variables alatoires
indpendantes de loi M indpendante de X0 .
Posons Yk = XT +k si T < + et Yk = Xk sinon. De mme posons
gk = fT +k si T < + et gk = fk sinon. Il est facile de voir que (Yk )k0 vrifie
la rcurrence Yn+1 = gn+1 (Yn )
Soit p un entier et B un borlien de F(S, S)N . On a

P(T = p, A, g B) = P(T = p, A, fp+. B)


= P(T = p, A)P(fp+. B)
= P(T = p, A)P(fp+. B)

135
136 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

car comme lvnement {T = p} A est (X0 , f1 , . . . , fp )-mesurable, il est


indpendant de lvnement {fp+. B} qui est (fp+1 , fp+2 , . . . )-mesurable.
N
Maintenant la loi de fp+. est la mme loi que celle de f : cest M . On a
donc P(T = p, A, g B) = P(T = p, A)P(f B). En faisant la somme pour
p variant de 1 +, on obtient
P(T < +, A, g B) = P(T < +, A)P(f B) (10.1)
Soit maintenant B un Borlien de S N et A un vnement FT -mesurable.
On a

{T < +, XT = i, XT +. B } = {T < +, XT = i; Gi (g) B },


o lon a pos
Gi ((hn )n1 ) = (i, h1 (i), h2 h1 (i), h3 h2 h1 (i), . . . )..
En appliquant lgalit (10.1) prcdemment dmontre avec A = A
{XT = i} et B = G1
i (B ), on obtient

P(T < +, XT = i, XT +. B , A ) = P(T < +, XT = i, A )P(f G1


i (B ))
= P(T < +, XT = i, A )Pi (X B )

Comprendre le sens de la proprit de Markov forte demande un certain


travail de rflexion, mais une fois cette rflexion faite, on constatera la re-
doutable ecacit de cette proprit, en particulier lorsque XT est constante
sur lvnement {T < +}.
Corollaire 19. Soit S un ensemble dnombrable, (Xk )k0 une chane de
Markov sur S de matrice de passage P et T un temps darrt adapt cette
suite. On suppose que P(T < +) > 0.
On dfinit la probabilit conditionnelle P par P(E) = P(E,T <+)
P(T <+)
.
N
Soit B un borlien de R . On a P presque-srement :
P(XXT +. B|FT ) = fB (XT ), avec fB (x) = Px (X B).
En particulier, sous P, XT +. est une chane de Markov de loi initiale la
loi de XT sous P.
Ces rsultats sont souvent employs dans le cas o P(T < ) = 1, puis-
qualors P = P.
10.2. CLASSIFICATION DES TATS 137

Dmonstration. Soit A FT . En partitionnant lespace, on a



P(A, T < +, XT +. B) = P(A, T < +, XT = i, XT +. B)
iS

= P(T < +, XT = i, A)Pi (X B),
iS

o la dernire galit vient de la proprit de Markov forte que lon a dmon-


tre. Ainsi,

P(A, T < +, XT +. B) = P(T < +, XT = i, A)fB (i)
iS

= E[1
1{T <+,XT =i,A} fB (i)]
iS

= E[1
1{T <+,XT =i,A} fB (XT )]
iS

= E[ 11{T <+,XT =i,A} fB (XT )]
iS
= E[1
1{T <+,A} fB (XT )].

(On a utilis le thorme de Tonelli pour changer la somme et lesprance.)


Soit, en divisant par P(T < +).

P(A, XT +. B) = E[1
1A fB (XT )]

Comme fB (XT ) est FT -mesurable, il dcoule que

P(XT +. B|FT ) = fB (XT ).

10.2 Classification des tats


Dfinition: Soit P = (pi,j )(i,j)SS une matrice stochastique. Pour i S, on
considre une chane de Markov (Xn )n0 partant de ltat i et de matrice de
passage P . On pose Ti = inf{n 1; Xn = i}. Si Pi (Ti < +) = 1, on dit
que ltat i est rcurrent. Inversement, si Pi (Ti < +) < 1, on dit que ltat
i est transient.

Thorme 72. Soit P = (pi,j )(i,j)SS une matrice stochastique. Pour i S,


on considre une chane de Markov (Xn )n0 partant de ltat i et de matrice

de passage P . On pose Ti = inf{n 1; Xn = i} et Ni = + k=1 1
1{i} (Xk ). Ni
reprsente le nombre de passage de la chane en i partir de linstant 1.
138 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Si i est transient, alors 1 + Ni suit la loi gomtrique de paramtre 1


Pi (Ti < +). En particulier Ni est presque srement fini et intgrable.
Si i est rcurrent, alors Ni est presque srement infinie sous Pi . En
particulier Ei [Ni ] = +.
Dmonstration. Si Ti < + (ou de manire quivalente si Ni > 0, on a

+
Ni = 1 + 11{i} (XT +k ).
k=1

Soit k un entier positif ou nul. On a



+
Pi (Ni k+1) = Pi (Ni k+1, Ti < +) = Pi (Ti < +)Pi ( 11{i} (XT +i k|Ti < +).
k=1

Or Ti est un temps darrt. Donc, daprs la proprit de Markov forte,


sachant Ti < +, (XT +i )i0 a la loi dune chane de Markov commenant
en i et de matrice de transition P , cest dire la mme loi que (Xi )i0 . On
en dduit
Pi (Ni k + 1) = Pi (Ti < +)Pi (Ni k).
Par rcurrence, on en dduit

Pi (Ni k) = Pi (Ti < +)k

Daprs le thorme de continuit squencielle dcroissante, on a P (Ni =


+) = limk+ Pi (Ni k). Cette limite vaut donc 0 si i est transient, 1 si
i est rcurrent. Pour k 1, on a

Pi (1 + Ni = k) = Pi (1 + Ni k) P (Ni k)
= Pi (Ti < +)k1 Pi (Ti < +)k
= Pi (Ti < +)k1 (1 Pi (Ti < +)),

ce qui montre que 1 + Ni suit bien une loi gomtrique de paramtre 1


Pi (Ti < +). De plus

+
+
Pi (Ti < +)
Ei Ni = Pi (Ni k) = = Pi (Ti < +)k = < +.
k=1 k=1 1 Pi (Ti < +)

Corollaire 20. Un tat i est transient si et seulement si



+
Pi (Xk = i) < +.
k=1
10.2. CLASSIFICATION DES TATS 139

Dmonstration. Daprs le thorme prcdent, i est transient si et seulement


si Ni est intgrable sous Pi . Or


+
Ei Ni = Ei 11{i} (Xk )
k=1

+
= i
E 11{i} (Xk )
k=1

+
= Pi (Xk = i)
k=1

(On utilise le thorme de Tonelli pour changer la somme et lesprance)


Ceci achve la preuve.

Corollaire 21. Soient i et j deux tats dune chane de Markov de matrice


de transition P = (pi,j )(i,j)SS . On suppose que i et j communiquent. Alors
i et j sont tous les deux transients ou tous les deux rcurrents
(n) (p)
Dmonstration. Soit n, p tels que pi,j > 0 et pj,i > 0. Pour tout k 0, on a

(n+p+k) (p) (k) (n)


pj,j pj,i pi,i pi,j .

(k) (k)
Ainsi, si la srie de terme gnral pi,i diverge, la srie de terme gnral pj,j
aussi. Comme les rles de i et j sont symtriques, les deux sries sont de
(k)
mme nature. Comme pi,i = Pi (Xk = i), le rsultat dcoule du corollaire
prcdent.

Corollaire 22. Considrons une chane de Markov irrductible de matrice


de transition P = (pi,j )(i,j)SS et pour tous les i S , notons Pi les lois
markoviennes correspondantes. Les proprits suivantes sont quivalentes
1. i, j S Pj (Ni = +) > 0.
2. i S, i est rcurrent
3. i S, i est rcurrent
4. i, j S Pj (Ni = +) = 1.

Dmonstration. (1) = (2). Soit l tel que Pi (Xl = j) > 0. On a



P (Ni = +) Pi (Xl = j, +
i
1{Xk+l =i} ) Pi (Xl = j)Pj (Ni =
k=1 1
+) > 0, donc i est rcurrent.
(2) = (3). Cest une consquence du corollaire prcdent.
140 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

(3) = (4). Considrons Pi (Tj < +, k > Tj Xk = i). Comme i et


j communiquent Pi (Tj < +) > 0). Daprs la proprit de Markov
forte, on a
Pi (Tj < +, k > Tj , Xk = i) = Pi (Tj < +)Pj (k > 0Xk = i)
= Pi (Tj < +)Pj (Ti = +)
Mais {Tj < +, k > Tj Xk = i} {Nj < +}, donc comme i est
rcurrent, Pi (Ni < +) = 0, donc Pj (Ti = +) = 0. Mais

+
Ni = 1 + 11{i} (Xk+Ti ),
k=1

Donc daprs la proprit de Markov forte



+
Pj (Ni = +) = Pi ( 11{i} (Xk ) = +) = Pi (Ni = +) = 1.
k=1

(4) = (1). vident.

Dfinition: Si une chane de Markov vrifie une des 4 proprits quivalentes


ci-dessus, on dit que cest une chane rcurrente.

10.3 Mesures invariantes


Dfinition: On dit quune mesure est invariante sous laction de la matrice
de transition markovienne M si M = , cest dire.

j S (i)mi,j = (j).
iS

Si est invariante sous laction de M , une rcurrence immdiate donne


n 0 M n = . Ainsi, si (Xn )n0 est une chane de Markov de matrice
de transition M et de mesure initiale PX0 = , alors pour tout n, la loi de
Xn est PXn = .
Dfinition: On dit quune mesure est rversible sous laction de la matrice
de transition markovienne M si
i, j S (i)mi,j = (j)mj,i .
Thorme 73. Soit (Xn )n0 une chane de Markov de loi initiale rversible
sous laction de M . Alors
n 1 (X0 , X1 , . . . Xn ) et (Xn , Xn1 , . . . , X0 ) ont mme loi sous P .
10.3. MESURES INVARIANTES 141

Dmonstration. Il sut de montrer par rcurrence sur n que (x0 , . . . xn )


S n+1 , on a

P (X0 = x0 , X1 = x1 , . . . , Xn = xn ) = P (X0 = xn , X1 = xn1 , . . . , Xn = x0 ).

Pour n = 1, il sut de voir que

P (X0 = x0 , X1 = x1 ) = (x0 )mx0 ,x1 = (x1 )mx1 ,x0 = P (X0 = x1 , X1 = x0 ).

Ensuite

P (X0 = x0 , X1 = x1 , . . . , Xn = xn ) = P (X0 = x0 , X1 = x1 , . . . , Xn1 = xn1 )mxn1 ,xn


= mxn1 ,xn P (X0 = xn1 , X1 = xn2 , . . . , Xn1 = x0 )

n1
= mxn1 ,xn (xn1 ) mxni ,xni1
i=1

n1
= (xn1 )mxn1 ,xn mxni ,xni1
i=1

n1
= (xn )mxn ,xn1 mxni ,xni1
i=1

n1
= (xn ) mxni ,xni1
i=0
= P (X0 = xn , X1 = xn1 , . . . , Xn = x0 ).

Il est facile de voir que toute mesure rversible est invariante.

Thorme 74. Si la matrice de transition M est irrductible et admet une


probabilit invariante, alors les chanes de Markov associes M sont
rcurrentes. De plus, charge tous les points de lespace dtats.

Dmonstration. Soit une probabilit invariante Pour tout n 0, on a


M n = , soit (n)
j S n 0 (i)mi,j = (j)
iS

Si une chane de Markov irrductible nest pas rcurrente, les tats sont
(n)
tous transitoires et lim (i)mi,j = 0 quels que soient i et j. Daprs le
n+
thorme de convergence domine, on a alors

j S 0 = (j),
142 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

ce qui est impossible. Le premier point est donc dmontr. Prenons mainte-
nant x E tel que (x) > 0 et soit y un autre lment de E. Il existe un
entier n et une suite x = x0 , x1 , . . . xn = y dlments de E avec pour tout i
entre 0 et n 1, mxi ,xi+1 > 0. Ainsi

n1
(y) = P (Xn = y) P (X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x) mxi ,xi+1 > 0.
i=0

Thorme 75. Toute chane de Markov sur un espace dtats S fini admet
une probabilit invariante.
Dmonstration. Lensemble M(S) des mesures de probabilit sur S siden-

tifie au compact K = {(x1 , . . . , xn ) Rn+ ; nk=1 xk = 1}, avec n = |S|. M(S)
est un convexe stable par 7 M . Ainsi, si est une mesure quelconque
sur S, la suite (n )n0 dfinie par

1 n1
n = M k
n k=0
n
est valeurs dans M(S). On a n (I M ) = (IM n
)
. Comme la suite
(I M n ))n0 , est borne, il sensuit que toute valeur dadhrence de (n )n0
est laisse fixe par M . Comme M(S) est compacte, (n )n0 a au moins une
valeur dadhrence donc M au moins une mesure invariante.
Corollaire 23. Une chane de Markov irrductible dont lespace dtats est
fini est rcurrente.
Remarque-exercice : Sil est vrai quune chane de Markov avec un
espace dtat fini admet toujours une mesure invariante ; en revanche elle
nadmet pas toujours de probabilit rversible. Voici un exemple simple. Soit
N 3 un entier et p ]0, 1]. Considrons une suite (Xn )n1 de variables
indpendantes valeurs dans Z/N Z avec P(Xn = 1) = 1 P(Xn = 0) = p.
On pose Sn = X1 + + Xn . On peut dmontrer que (Sn )n1 est une chane
de Markov, qui admet la probabilit uniforme comme probabilit invariante,
mais la seule mesure rversible pour la dynamique est la mesure nulle.

10.4 Thorme de la probabilit stationnaire


Thorme 76. Soit M la matrice de transition dune chane de Markov
irrductible apriodique admettant comme loi stationnaire. Alors pour toute
loi sur S, la chane de Markov de matrice de transition M et de loi initiale
converge vers .
10.4. THORME DE LA PROBABILIT STATIONNAIRE 143

Dmonstration. Soit X0 , X0 deux variables alatoires indpendantes, X0 sui-


vant la loi , X0 la loi . On note galement Y0 = X0 . Soit galement (fn )n1
et (fn )n1 deux suites de variables alatoires i.i.i.d. de loi M dfinie au lemme
1, ces deux suites tant indpendantes de X0 et X0 . On dfinit par rcurrence
les suites (gn )n1 , (Xn )n1 et (Xn )n1 , (Yn )n1 par


Xn+1 = fn+1 (Xn )



Y
= fn+1 (Yn )

n+1
f si Xn = Xn
n+1

gn+1 =

fn+1 sinon




Xn+1 = gn+1 (Xn )

Il nest pas dicile de voir quen tout point on a

(Xn () = Xn ()) = (fn+1 () = gn+1 ()) = (Xn+1 () = Xn+1



())

Ainsi, les processus Xn et Xn voluent de manire indpendante jusquau


moment o ils se rencontrent. partir de l, Xn demeure scotch Xn .
Lemme 13. Soit (Xn )n0 une chane de Markov de matrice de transition M
et de loi initiale , (Yn )n0 une chane de Markov de matrice de transition
N et de loi initiale . On suppose en outre que les suites (Xn )n0 et (Yn )n0
sont indpendantes sous P . Alors la suite (Zn )n0 dfinie par Zn = (Xn , Yn )
est une chane de Markov de matrice de transition M N , o M N est
dfinie par

((i, j), (k, l)) S 2 S 2 (M N )(i, j), (k, l) = M (i, k)N (j, l).

Dmonstration. Soient (x0 , . . . , xn ) S n+1 et (y0 , . . . , yn ) S n+1 .

P(i {0, n}(Xi , Yi ) = (xi , yi )) = P({i {0, n}Xi = xi } {i {0, n}Yi = yi })


= P(i {0, n}Xi = xi )P(i {0, n}Yi = yi )

n1
n1
= ({x0 }) mxi ,xi+1 ({y0 }) nyi ,yi+1
i=0 i=0

n1
= ({x0 })({y0 }) mxi ,xi+1 nyi ,yi+1
i=0

n1
= ( )({x0 , y0 }) (M N )((xi , yi ), (xi+1 , yi+1 ))
i=0
144 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Lemme 14. Soit U, V deux variables alatoires de loi . On suppose que


sous P, U et V sont indpendantes de la tribu A. Soit A un vnement
A mesurable. On dfinit W par
{
U () si A
W () =
V () si
/A

Alors, sous P, W suit la loi et W est indpendante de A.

Dmonstration. Soit A un vnement A mesurable et B un borlien

P(A {W B}) = P(A A {W B}) + P(Ac A {W B})


= P(A A {U B}) + P(Ac A {V B})
= P(A A )P(U B) + P(Ac A )P(V B)
= P(A A )(B) + P(Ac A )(B)
= (P(A A ) + P(Ac A ))(B)
= P(A )(B)

En prenant A = , on en dduit dabord que P(W B) = (B) pour


tout borlien B. est donc la loi de W sous P. En rinsrant dans la formule
prcdente, on a pour tout vnement Amesurable A et pour tout borlien
B:
P(A {W B}) = P(A )P(W B),
ce qui veut dire que W est indpendante de A.

En appliquant le lemme prcdent A = (X0 , X0 , f1 , . . . , fn , f1 , . . . , fn ),


A = {Xn = Xn }, U = fn+1 , V = fn+1
et W = gn+1 on voit que gn+1 suit
la loi M et que gn+1 est indpendante de (X0 , X0 , f1 , . . . , fn , f1 , . . . , fn ).
Comme (g1 , . . . , gn ) est (X0 , X0 , f1 , . . . , fn , f1 , . . . , fn )-mesurable, il sensuit
que (gn )n1 est une suite de v.a.i.i.d de loi M .
Daprs le lemme 10, (Xn ) est une chane de Markov de matrice de tran-
sition M et de loi initiale tandis que (Xn ) est une chane de Markov de
matrice de transition M et de loi initiale .
On va maintenant montrer que = inf{n; Xn = Xn } est presque srement
fini. Il est facile de voir que = inf{n; Xn = Yn }. Ce qui est intressant, cest
que (Xn )n0 et (Yn )n0 sont indpendants.
Ainsi, daprs le lemme 13, (Xn , Yn ) est une chane de Markov de loi
initiale et de matrice de transition M = M M . Soient (x, y, z, t) S 4 .
Comme M est la matrice dune chane de Markov irrductible et apriodique,
on peut, daprs le corollaire 16, trouver un entier n0 = max(N (x, z), N (z, t))
10.5. THORME ERGODIQUE DES CHANES DE MARKOV 145

tel que M n0 (x, z) et M n0 (y, t) soient strictement positifs. Or M n0 = (M


M )n0 = M n0 M n0 : on a

M 0 ((x, y), (z, t)) = M n0 (x, z)M n0 (y, t) > 0.


n

Ainsi ((Zn )n0 = ((Xn , Yn ))n0 est une chane de Markov irrductible. Comme
M M admet comme mesure invariante, la dynamique est donc r-
currente : (Zn )n0 passe donc presque srement en tout point de S S. En
particulier, elle passe presque srement sur sa diagonale, ce qui implique que
P( < +) = 1.
Soit f une fonction borne de S dans R. Pour n , on a f (Xn ) = f (Xn ).
Donc f (Xn ) f (Xn ) converge presque srement vers 0. Daprs le thorme
de convergence domine, on en dduit que E(f (Xn ) f (Xn )) converge vers
0. Comme est invariante E(f (Xn ) f (Xn)) = f d Ef (Xn ). Ainsi
pour toute fonction f , Ef (Xn ) converge vers f d, ce qui veut dire que Xn
converge en loi vers .

Remarque-exercice : lhypothse dapriodicit est importante. En ef-


fet, on peut construire deux chanes de Markov indpendantes (Xn )n0 et
(Yn )n0 ayant la mme matrice de transition irrductibles, telles que (Xn , Yn )n0
ne soit pas irrductible et que (Xn , Yn )n0 ne coupe jamais la diagonale.
Donner deux exemples dun tel phnomne, lun avec S fini, lautre avec S
infini.

10.5 Thorme ergodique des chanes de Mar-


kov
10.5.1 Convergence presque sre des frquences empi-
riques
Thorme 77. Soit (Xn )n0 une chane de Markov. Pour tout x S, on a


1 n1 11{T <+}
lim 11{x} (Xk ) = xx p.s.
n+ n
k=0 E Tx

En particulier, si la chane est irrductible, on a


1 n1 1
lim 11{x} (Xk ) = x .
n+ n
k=0 E Tx
146 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

n1
Dmonstration. Si Tx = +, lgalit est vidente, car n1 k=0 11{x} (Xk ) =
1 1 n1
11
n {X0 =x}
pour tout n. Si Tx < +, la suite de terme gnral n k=0 11{x} (Xk ) a
n1
le mme comportement asymptotique que la suite de terme gnral n1 k=0 11{x} (XTx +k ).
Or, daprs la proprit de Markov forte, la loi de la suite de terme gnral
1 n1
11 (XTx +k ) sous P est la mme que la loi de la suite de terme gnral
n k=0 {x}
1 n1
k=0 11{x} (Xk ) sous Px : on est ramen tudier le cas o P = Px .
n
Si x nest pas rcurrent, on a Ex [Tx ] = + et + k=0 1
1{x} (Xk ) est fini
Px -presque srement : cela donne lidentit voulue.
Passons donc au cas o x est rcurrent. Pour tout k 1, posons T k =

n
inf{n > 0, 11{x} (Xi ) k}. Les T k sont des temps darrt adapts la
i=1
filtration naturelle engendre par (Xn )n0 . Comme x rcurrent, les T k sont
presque srement finis. Il est ais de constater que la suite (T k )k1 est crois-
sante. Pour tout i {1, . . . k}, T i est FT i -mesurable (voir chapitre sur les
martingales). Comme T i T k , on a FT i FT k . Finalement, (T 1 , . . . , T k )
est une sous-tribu de FT k . Soit k 1 et A (T 1 , . . . , T k ) : il est clair que
A se produit avant T k . Ainsi, on va pouvoir utiliser la proprit de Markov
forte :
k
Px (A, T k+1 Tk > n) = Px (A, Tj=T+nk +111{x} (Xj ) = 0)
= Px (A)Px (nj=111{x} (Xj ) = 0)
= Px (A)Px (T 1 > n)

On en dduit que, sous la loi Px , les variables alatoires T 1 , T 2 T 1 , T 3


T 2 , . . . forment une suite de variables alatoires positives indpendantes
1
ayant mme loi que T ( = Tx . Daprs la loi forte des grands nombres ) on
n
en dduit que n = n T + (T T ) + (T T ) + . . . (T T
T 1 1 2 1 3 2 n n1
converge
presque srement vers E T . Le rsultat demeure si E [T ] = + (exercice
x x x x

classique de troncature) Posons Sn = n1 k=0 1
1{x} (Xk ). Un instant de rflexion
montre que T n < T
Sn Sn +1
. On en dduit
T Sn n T Sn +1 Sn + 1
<
Sn Sn Sn + 1 Sn
Si x est rcurrent limn+ Sn = +, donc limn+ Snn = Ex Tx , do le
Sn
rsultat. Si x est transient, lingalit TSn Snn sut a donner la convergence
de Sn /n vers 0.
Remarque. On peut observer que la limite presque sre apparaissant dans
ce thorme dpend assez peu de ltat initial de la chane. Dans le cas
1
irrductible, Ex [Tx]
reprsente la proportion asymptotique du temps pass
par la chane dans ltat x.
10.5. THORME ERGODIQUE DES CHANES DE MARKOV 147

Dfinition. Si x est un tat rcurrent, on convient de dire que x est rcurrent


1
positif si Ex [Tx]
> 0 (soit Ex [Tx ] < +), et que x est rcurrent nul si Ex [T
1
x]
=0
(soit E [Tx ] = +).
x 1

10.5.2 Frquences empiriques et probabilits invariantes


Thorme 78. Soit (Xn )n0 une chane de Markov irrductible admettant
une probabilit invariante . Pour tout x S, on a


1 n1 1
lim 11{x} (Xk ) = x = (x) > 0.
n+ n
k=0 E Tx

Dmonstration. Une chane de Markov irrductible admettant une probabi-


lit invariante est toujours rcurrente (voir Thorme 74). Le thorme ergo-
dique des chanes de Markov sapplique donc, et on a pour toute loi initiale
:

1 n1 1
lim 11{x} (Xk ) = x P p.s.
n+ n
k=0 E Tx

Comme | n1 n1 1{x} (Xk )| 1, le thorme de convergence domine sap-
k=0 1
plique et on a

1 n1 1
lim P (Xk = x) = x .
n+ n
k=0 E Tx
Si lon prend pour la mesure invariante , on a pour tout k 0 P (Xk =
x) = (x). On en dduit que Ex1Tx = (x), ce qui achve la preuve, puisque
le fait quune mesure invariante dune chane de Markov irrductible doive
charger tous les points a dj t dmontr.

Corollaire 24. Une chane de Markov irrductible a au plus une probabilit


invariante.

Corollaire 25. Une chane de Markov irrductible dont lespace dtat est
fini a exactement une mesure invariante. Ses tats sont tous rcurrents po-
sitifs.

Dmonstration. On sait dj que tous les tats dune chane de Markov ir-
rductible dont lespace dtat est fini sont rcurrents. On sait galement
1. On verra plus tard que pour une chane de Markov espace dtats fini, les tats
rcurrents sont tous rcurrents positifs. Les notions de rcurrence positive et de rcurrence
nulle que lon vient dintroduire nont donc pas vraiment de pertinence dans le cas de
ltude des chanes de Markov espace dtat finis.
148 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

quune chane de Markov sur un espace dtats fini admet au moins une mu-
sure invariante. Daprs le prcdent corollaire, cette mesure est unique. En
rappliquant le thorme, on voit que les tats sont tous rcurrents posi-
tifs.
Le thorme 78 admet une rciproque.
Thorme 79. Soit (Xn )n0 une chane de Markov irrductible et rcurrente
sur S. On suppose quil existe x S tel que Ex [Tx ] < +.
Alors, la chane admet une unique probabilit invariante qui est don-
ne par y S (y) = Ey [T 1
y]
> 0. Dans ce cas, on dit que la chane est
rcurrente positive.
1
Dmonstration. Posons m(y) = Ey [T y]
. m est une mesure positive sur S.
Ce nest pas la mesure nulle car m(x) > 0. Ainsi, si lon montre que la
mesure m est invariante sous la dynamique et que m est une mesure finie, la
probabilit = m/m(S) sera une probabilit invariante sous la dynamique.
1
Daprs le thorme 78, on aura (y) = Ey [T y]
pour tout y. De plus, daprs
le thorme 74, (y) > 0 pour tout y.
Montrons dj que m est finie : soit S une partie finie de S.
On a

1 n1
11x (Xk ) 1,
n k=0 xS
do en faisant tendre n vers linfini, on a avec le thorme 77 :

m(x) 1,
xS

ce qui montre que la somme des m(x) est finie.


Il sut alors de montrer que pour pour x S, on a

m(y)py,x = m(x).
yS

Posons Yn = n1 nk=1 11{x} (Xk ). On a vu que Yn /n tend presque srement vers
m(x), donc par convergence domine, E[Yn ]/n tend vers m(x). On a aussi
Yn 1 n
= 11{y} (Xk1 )1
1{x} (Xk )
n yS n k=1

do
E[Yn ] 1 n
= P(Xk1 = y, XXk = x)
n yS n k=1
1
n
= P(Xk1 = y)py,x
yS n k=1
10.5. THORME ERGODIQUE DES CHANES DE MARKOV 149

Soit S une partie finie de S : on a


E[Yn ] 1 n
P(Xk1 = y)py,x ,
n yS
n k=1

et en faisant tendre n vers linfini



m(x) m(y)py,x ,
yS

do en passant au sup
m(x) m(y)py,x .
yS

Cependant

m(y)py,x = m(y)py,x = m(y)1
xS yS yS xS yS

Ce qui entrane donc que pour tout x, on a bien



m(x) = m(y)py,x ,
yS

ce qui achve la preuve.


Bien sr, cette rciproque est sans intrt lorsque lespace dtat est fini,
puisque lexistence de la mesure invariante est assure demble.
On donne maintenant une preuve alternative, qui permet parfois de cal-
culer la mesure invariante.

10.5.3 Calcul dune mesure invariante partir de la loi


des trajectoires issues dun point
Thorme 80. Soit (Xn ) une chane de Markov sur E et x S tel que
x 1
Ex [Tx ] < +. Si lon pose Nyx = Tk=0 11{Xk =y} , alors la mesure x dfinie
par
Ex [N x ]
x (y) = x y .
E [Tx ]
1
est une mesure de probabilit invariante. En particulier x (x) = Ex [Tx ]

Dmonstration. On pose, S0 = 0, et pour n 1 : Sny = k=0 n1
11{Xk+1 =y} pXk ,y .
Sny est Fn -mesurable et Sny = Sn1
y
+ 11{Xn =y} pXn1 ,x , donc

E[Sny |Fn1 ] = Sn1


y
+ P(Xn = x|Fn1 ) pXn1 ,x = Sn1
y
,
150 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Ainsi (Sny )n1 est une martingale 2 . Comme T x est un temps darrt, le
y
thorme darrt dit que (SnT )
x n1
est aussi une martingale, en particulier
Ex [SnT
y
x
] = 0 pour tout n. S y
nTx tend presque srement vers STyx . Comme
|SnT
y
x
| Tx , le thorme de convergence domine nous donne Ex [STyx ] = 0.
Cependant,
x 1
T
STyx = 11{Xk+1 =y} pXk ,y
k=0

Tx x 1
T
= 11{Xk =y} 11{Xk =z} pz,y
k=1 k=0 zS
Tx
= 11{Xk =y} Nzx pz,y
k=1 zS

= 1
1{X0 =y} + 11{x=y} + Nyx Nzx pz,y
zS

En prenant lesprance sous P , on obtient, pour tout y S :


x


0 = Ey [Nyx ] Ex [Nzx ]pz,y ,
zS
x
ce qui dit bien que (E [Nzx ])zE
est une mesure invariante. Pour avoir une
mesure de probabilit, il sut de diviser par

Ex [Nzx ] = Ex [ Nzx ] = Ex [Tx ].
zE zE

Enfin, comme Nxx = 1, Px -presque srement, on a x (x) = 1


Ex [Tx ]
.

10.6 Retour la classification des tats (*)


Considrons une chane de Markov dont lespace dtats est S On dit que
x est un tat essentiel si
x S (x y) = (y x).
Il nest pas dicile de voir quun tat accessible depuis un tat essentiel est
lui-mme un tat essentiel.
2. Cette martingale ne sort pas de nulle part. Dans le corollaire 14, nous avions remar-
qu que pour une chane de Markov (Xn )n0 de matrice de passage P et une fonction f ,
la suite (Yn )n1 dfinie par

n 0 Yn+1 = f (Xn+1 ) (P f )(Xn )

est une suite de dirences de martingales adapte la filtration canonique des Xi . Ici, on
a simplement pris f =11i .
10.6. RETOUR LA CLASSIFICATION DES TATS (*) 151

Dmonstration. Supposons en eet que x est essentiel et que x y. Soit


z tel que que y z. On a (x y) et (y z) donc (x z). Comme x
est essentiel, (z x), or (x y), donc (z y), ce qui montre que y est
essentiel.
Soit (Ai )i I la partition de lensemble des points essentiels induite par la
relation dquivalence communique (). Chaque ensemble Ai est appel
une classe absorbante. Dun point x appartenant la classe absorbante Ai ,
on ne peut accder qu des points de Ai .
Dmonstration. En eet si x y, alors y x car x est essentiel et y est
essentiel : ainsi y est essentiel et x y, donc x et y sont dans la mme classe
dquivalence : y Ai .
Thorme 81. Les points rcurrents dune chane de Markov sont termi-
naux.
Dmonstration. Soient i un tat non terminal. Il existe j tel que i j mais
que j ne communique pas avec i. Soit n tel que Pi (Xn = j) > 0

Pi (Ni < +) Pi (Xn = j, k n Xk = i)


= Pi (Xn = j)Pj (k 0 Xk = i) = Pi (Xn = j).1 > 0,

ce qui montre que i nest pas rcurrent.


Thorme 82. Une mesure de probabilit invariante dune chane de Markov
ne charge que des tats rcurrents positifs.
Dmonstration. Soit une mesure invariante et x charg par . Posons

Mn = n1 n1 k=0 11{x} (Xk ). Daprs le thorme 77, Mn converge P -presque
11
srement vers {TEx <+}
xT
x
, donc daprs le thorme de convergence domine
P (Tx <+)
E [Mn ] converge vers

Ex Tx
. Comme E [Mn ] = (x) pour tout n, on a
(x) = P (TExx<+)

Tx
. Comme (x) > 0, on a Ex [Tx ] < +.
Thorme 83. Soit pi,j une matrice markovienne. Soient (Ai )iI les classes
absorbantes associes la chane, et J I lensemble des x tels que la chane
de Markov de matrice (pi,j )i,jAx soit rcurrente positive. La chane (pi,j )i,jE
possde au moins une probabilit invariante si et seulement si J est non-vide.
Dans ce cas, les probabilits invariantes sont exactements les probabilits

x x ,
xJ

o x est le prolongement S de lunique mesure invariante de la la chane de


markov de matrice (pi,j )i,jAx , et o les x sont des rels positifs de somme 1.
152 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Dmonstration. Soit une probabilit invariante, cest dire telle que



i S (i) = (j)pj,i .
jS

Daprs les deux thormes prcdents, ne charge que des tats rcurrents
positifs, terminaux : J est donc non-vide. Soit C = xJ Ax . On sait que (i)
est nul pour i E\C. Soit x J. On sait quon ne peut accder de Ax qu
des points de Ax : i Ax j S\Ax pi,j = 0. Ainsi

i Ax pi,j = pi,j pi,j = 1 0 = 1.
jAx jS jS\Ax


La matrice (pi,j )i,jAx est donc markovienne. On a galement jS (j)pj,i =

jAx (j)pj,i . On a donc le systme



i Ax (i) = (j)pj,i ,
jAx

ce qui signifie que la restriction de Ax est une mesure invariante finie


pour (pi,j )i,jAx . Daprs le thorme dunicit pour les chanes irrductibles,
on a
i Ax (i) = (Ax )x (i).
On a ainsi la reprsentation voulue en posant x = (Ax ), en notant x la
mesure sur E qui concide avec x sur Ax et est nulle sur S\Ax .
On a montr que les probabilits invariantes taient ncessairement de la
forme annonce. Montrons la rciproque. Montrons dabord que lextension
de x est invariante. On a dabord que

i Ax j (j)pj,i = x (j)pj,i = x (j)pj,i = x (j) = x (j).
jS jAx jAx


Par ailleurs, pour i S\Ax , observons les termes de la somme jS x (j)pj,i :
si j Ax , pj,i est nul, tandis que pour j S\Ax , j (j) = 0 : le produit
j (j)pj,i est toujours nul, et on a

j (j)pj,i = 0 = 0 = x (i).
jS jS

La mesure de probabilits x est donc bien invariante. Pour conclure, il est


ais de voir quun barycentre de probabilits invariantes est une probabilit
invariante.
10.7. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES153

10.7 Exercices sur la rcurrence et les me-


sures invariantes
10.7.1 Exercices corrigs
Exercice 84. On considre la chane de Markov dont la matrice de passage
est donne par
1 1 1

3 3 3

A = 0 0 1 (10.2)
0 1 0

Montrer quil existe une unique mesure invariante, puis la donner. lien vers
lindication lien vers la solution
Exercice 85. On suppose que est la mesure invariante dune chane de
Markov sur S. Montrer que si les points i et j de S sont tels que (i) > 0 et
i j pour cette chane de Markov, alors (j) > 0. lien vers lindication lien
vers la solution
Exercice 86. Retournement du temps et oprateurs associs
Soit S un ensemble fini ou dnombrable, une mesure finie sur S.
1. Soit P = (pi,j )(i,j)S 2 , une matrice markovienne. On suppose que P
laisse invariante. Pour f 2 (), on pose

i S (P f )(i) = pi,j f (j)
jS

ds que la srie est absolument convergente. Montrer que cest le cas


lorsque (i) > 0 ; montrer galement que P f 2 ().
2. Soit P = (pi,j )(i,j)S 2 et Q = (qi,j )(i,j)S 2 deux matrices markoviennes.
On suppose que

i, j S (i)pi,j = (j)qj,i .

Montrer que P et Q laissent invariante, puis que



f, g ()
2
f (x)P g(x) d(x) = Qf (x)g(x) d(x).

On dit alors que P et Q sont conjugus dans 2 ().


3. Soit P une matrice markovienne laissant invariante. Montrer que
P admet au moins une matrice markovienne conjugue, et quil y a
unicit si la chane associe est irrductible.
154 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

4. Soient P, Q deux matrices markoviennes conjugues dans 2 () . On


suppose que (Xn )n0 et (Xn )n0 sont deux chanes de Markov de loi
initiale et de dynamiques respectives P et Q. Montrer que pour
tout n 0, (X0 , X1 , . . . , Xn ) et (Xn , Xn1

, . . . , X0 ) ont mme loi.
Quel rsultat du cours retrouve-ton dans le cas o P = Q ?
5. Soit (Xn )n0 une chane de Markov stationnaire. Montrer que pour
tout n, (Xn , Xn1 , . . . , X0 ) est (la restriction d)une chane de Markov.
lien vers lindication lien vers la solution
Exercice 87. Trace dune chane sur un ensemble.
Soit (Xn )nN une chane de Markov homogne despace dtats E dnom-
brable et de matrice de transition P = (pi,j )i,jE . Soit A une partie de E.
On observe cette chane de Markov seulement lors de ses passages par A, et
on note Ym la mime observation. Plus formellement on note T 0 = 0 et, pour
m 1, { }

T m = inf n 1 + T m1 Xn A .

On suppose que x A, Px (T 1 ) < + = +,


1. Soit x A. Montrer que pour tout m 1, T m est un temps darrt
Px -presque srement fini, que XT m est mesurable pour FT m et que
pour k m, T k et XT k sont FT m -mesurables.
2. Soit x A. On pose Y0 = X0 et pour m 1, Ym = XT m . Montrer que
(Yn )nN est une chane de Markov homogne.
3. On suppose dsormais que la chane est irrductible, que A est fini et
que pour tout x A Ex [T 1 < +] < +. Montrer que la chane est
rcurrente positive.
lien vers lindication lien vers la solution
Exercice 88. Fonction de Lyapunov
1. Soit (Xn )n0 une suite de variables alatoires valeurs dans E. On
suppose quil existe un rel 0, une fonction h : E R+ et un
ensemble M tel que pour tout n 1, f (Xn ) est intgrable et

E[f (Xn )|X0 , . . . , Xn1 ] f (Xn1 ) sur {Xn1 M }.

On pose alors T = inf{n 0; Xn M }.


(a) Montrer que pour tout n 1, on a

n
E (f (XnT ) f (X0 )) P(T > i 1).
i=1
10.7. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES155

Ef (X0 )
(b) On suppose > 0. Montrer que E[T ]
.
2. Soit (Xn )n0 une chane de Markov valeurs dans E, de matrice de
passage (pi,j ). Dans toute cette question, on suppose quil existe un
rel 0, une fonction f : E R+ et un ensemble M tels que

i E (P f )(i) = pi,j f (j) < +
jE

et
i E\M (P f )(i) = pi,j f (j) f (i) .
jE

On pose T = inf{n 0; Xn M }.
(a) On suppose > 0. laide du thorme 68, montrer que E[T ]
Ef (X0 )

.
(b) Ici = 0. On suppose que la chane est irrductible, que M est
fini et que pour tout N , {x E; f (x) < N } est fini. On note N le
temps dentre dans {x E; f (x) N }. Montrer que pour pour
tout N assez grand, on a N P(N < T ) E(f (X0 )). En dduire
que P(T < +) = 1.
(c) Thorme de Foster
On suppose encore que la chane de Markov est irrductible et que
M est fini. laide de lexercice prcdent, montrer que la chane de
Markov (Xn ) est rcurrente, et mme rcurrente positive si > 0.
lien vers lindication lien vers la solution

10.7.2 Exercices non corrigs


Exercice 89. Chane observe quand elle bouge ou est morte.
Soit (Xn )nN une chane de Markov homogne sur lespace dtats E, de
matrice de transition P . Soit A lensemble des tats absorbants. On dfinit
la suite (Tk )kN par rcurrence comme suit : on pose T0 = 0 et

Tk+1 = Tk + 11{XTk A}
/ inf{n 0, XTk +n = XTk },

avec la convention 0. = 0.
1. Montrer que les (Tk )kN sont des temps darrt pour (Xn )nN , finis
presque srement.
2. On dfinit Yk = XTk . Montrer que (Yk )kN est une chane de Markov
homogne, donner son espace dtats et sa matrice de transition.
lien vers lindication
156 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Exercice 90. Soient p ]1/2, 1[ et (Xn )n1 une suite de variables alatoires
indpendantes de loi commune p1 + (1 p)1 . On pose S0 = 0, puis pour

tout n 1 : Sn = nk=1 Xk . Soient a et b des entiers relatifs strictement
positifs. On pose V =] , b] [a, +[. Soit T = inf{n 0; n V }.
Calculer
P(p T ; Sp = 0).
On pourra utiliser les rsultats de lexercice : le joueur inruinable.
lien vers lindication

Exercice 91. Marche alatoire sur Z/dZ. On considre X = {Xn : n 0}


la marche alatoire sur Z/dZ dont les pas sont indpendants de mme loi
p1 + (1 p)1 , avec 0 < p < 1. La loi initiale de X0 nest a priori pas gale
0 .
1. Quelle est sa matrice de transition P ? La chane est-elle irrductible ?
apriodique ?
2. On suppose que d est impair. Montrer que (Xn )n0 converge en loi et
prciser la limite.
3. On suppose que d est pair. Donner une condition ncessaire et su-
sante sur PX0 pour que (Xn )n0 converge.
lien vers lindication

Exercice 92. Modle dEhrenfest. On cherche modliser la diusion de N


particules dans un systme constitu de deux enceintes spares par une paroi
poreuse. A chaque instant, une particule prise au hasard (comprendre : avec
quiprobabilit) change denceinte. On reprsente ltat du systme chaque
instant par un vecteur x = (x(1), . . . , x(N )) (Z/2Z)N , o xi reprsente le
numro de la bote (0 ou 1) o est la particule i. Ainsi, si Xn est le vecteur
des positions, on a la modlisation

Xn+1 = Xn + Vn+1 ,

o Vn+1 est le numro de la particule qui change de bote. (1 , . . . , N ) est


la base canonique de (Z/2Z)N . (Vn )n1 est une suite de variables alatoires
indpendantes suivant la loi uniforme sur lensemble fini {1, . . . , N }. (Vn )n1
est indpendante de X0 .
1. Montrer que (Xn )n0 est une chane de Markov.
2. On pose

N
Yn = 11{Xn (i)=0} .
i=1
10.7. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES157

Yn est donc le nombre de particules dans la bote 0 au temps n. Mon-


trer que (Yn )n0 est une chane de Markov de matrice de transition
x N x
p(x, x 1) = , p(x, x + 1) = , 0 x N,
N N
les autres probabilits tant nulles.
3. On note U la loi uniforme sur (Z/2Z)N . Montrer que pour toute loi
sur (Z/2Z)N , on a U = U .
4. Montrer que si X0 suit la loi U , alors X0 (1), X0 (2), . . . X0 (N ) sont
indpendantes.
5. Montrer que U est une loi invariante pour la chane (Xn )n0 . En d-
duire que la loi binomiale B(N, 1/2) est une loi invariante pour la
chane (Yn )n0 .
6. Retrouver ce dernier rsultat par un calcul direct.
lien vers lindication
Exercice 93. Chane de Markov avec dcision.
Le nme Lundi de lanne, une petite entreprise reoit An propositions de
travail de type A, et Bn propositions de travail de type B. Un travail de type
A mobilise toute la capacit de travail de lentreprise durant une semaine et
lui rapporte 200 euros, alors quun travail de type B loccupe deux semaines
pour un rapport de 360 euros. Une semaine dinactivit cote 100 euros,
un travail non trait pendant la semaine o il arrive est perdu. On suppose
An ,Bn indpendants, les couples (An , Bn )n1 indpendants, et

P(An = 1) = 1 P(An = 0) = 0, 5, P(Bn = 1) = 1 P(Bn = 0) = 0, 6.

Modliser la situation par une chane de Markov , avec si possible un nombre


dtats minimal. Quelle est la meilleure stratgie, quand on reoit simulta-
nment une ore de chaque type : donner la prfrence celle de type A
ou celle de type B ? On pourra faire appel au Thorme ergodique pour
dpartager les deux politiques.
lien vers lindication
Exercice 94. Un modle de prdiction mto ( !) On suppose que le temps
quil fera demain depend des deux jours prcdents. On suppose que :

P( il pleut demain | il a plu hier et aujourdhui) = 0, 7


P( il pleut demain | il a plu aujourdhui mais pas hier) = 0, 5
P( il pleut demain | il a plu hier mais pas aujourdhui) = 0, 4
P( il pleut demain | il na pas plu ni hier, ni aujourdhui) = 0, 2
158 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Montrer quon peut modliser ceci par une chane de Markov. Quelle est la
probabilit, sachant quil a plu lundi et mardi quil pleuve jeudi ? Sur le long
terme, quelle proportion de jours de pluie observe-t-on ?
lien vers lindication

Exercice 95. Chane de Markov rversible


1. Soit P une matrice de transition sur un espace dtats E dnombrable.
On suppose quil existe une probabilit telle que

i pi,j = j pj,i .

Montrer que est stationnaire pour la P .


2. Trouver rapidement la probabilit stationnaire de la marche alatoire
symtrique sur les sommets de lhypercube de dimension d.
3. Marche alatoire symtrique sur un chiquier (8 8). Calculer les
temps de retours moyens des dirents points de lchiquier. (On trou-
vera 110 pour les coins, 220/3 pour les autres points du bord, 55 pour
les autres points.)
lien vers lindication

Exercice 96. Modle de LaplaceBernoulli.


N boules noires et N boules blanches sont places dans deux urnes de sorte
que chacune contienne N boules. Aprs chaque unit de temps on choisit
au hasard une boule de chaque urne ; les deux boules ainsi choisies changent
durne. On note Yn le nombre de boules noires dans la premire urne. Montrer
que (Yn )n0 est une chane de Markov irrductible rversible et trouver sa
mesure stationnaire.
lien vers lindication

Exercice 97. Loi de Pascal Soit (Xn )n1 une suite de variables alatoires
de Bernoulli de paramtre p. On pose, pour n 1, Sn = X1 + + Xn et
n = inf{n 1; Sn n}. On appelle loi de Pascal (ou loi binomiale ngative)
de paramtre n et p.
1. Montrer que la suite (i i1 ) est une suite de variables alatoires
indpendantes dont on prcisera la loi.
2. Donner une expression explicite de P(n = k), pour k n.
3. Calculer la fonction gnratrice de la loi de Pascal de paramtres n et
p.
lien vers lindication
Annexe A

Indications

A.1 Exercices sur les variables de Bernoulli


Indication 1 Noter que la connaissance de X donne celle des n .

A.2 Exercices sur lqui-intgrabilit


Indication 2 On peut sinspirer de la preuve de limplication borne dans
L2 entrane qui-intgrable.
Indication 3 1. Utiliser la loi forte des grands nombres.
2. Comme les Xi sont entre 0 et 1, on a Zn2 n2 (X12 + . . . Xn2 )2 .
3. Utiliser le thorme dintgration des fonctions radiales.
4. On pourra montrer que (Zn )n1 est borne dans L2 .
Indication 4 Deux mthodes possibles :
Pour simplifier les calculs, on peut crire Xn = Sn + , avec Sn centre
( mais pas symtrique !), de sorte que Xn3 = Sn3 + 3 + 3Sn2 + 32 Sn .
On peut calculer E(Xn (Xn 1)(Xn 2)) (par un calcul direct ou par
une interprtation combinatoire).
Indication 5 Introduire une somme de variables de Bernoulli indpendantes.
Indication 6 On pourra utiliser une caractrisation bien choisie de lqui-
intgrabilit.
Indication 7 On pourra utiliser une caractrisation bien choisie de lqui-
intgrabilit.
Indication 8 Partitionner suivant la valeur de N .
Indication 9 Exprimer E|Xn |1
1{|Xn |>M } laide de la fonction de queue.

159
160 ANNEXE A. INDICATIONS

A.3 Exercices sur lesprance conditionnelle


Indication 10 1. crire A = n0 A {N = n}.
2. On peut utiliser la question prcdente.

Indication
11 On pourra commencer par tablir que E[T |U = k] = (k +
n+1
( )x n
1) nk k+1
n 1, puis faire ventuellement une transformation dAbel.
nk ( k )
xn

Indication 12 1. Calculer Qn,b (x2 = y1 , . . . xn+b = yn+b1 ) en distin-


guant suivant que (y1 , . . . , yn+b1 est dans n1,b ou non.
2. crire T sous la forme T = 11{X1 =1} f (X2 , . . . , Xn+b1 ).

Indication 13 Revoir les proprits de lesprance conditionnelle.

Indication 14 On pourra crire fi (x) = xi11A (x1 + + xn ), remarquer que


si i,j est lapplication qui change la i-me et la j-me coordonne de x, on
a fi = f1 1,i et appliquer le thorme de transfert.

Indication 15 Pour la premire mthode, on pourra poser = E[xX y Y ],


g(x, y) = x
x
(x, y), puis comparer les coecients de degr s de g(x, x) et de
(x, x).
Pour la deuxime mthode, quitte changer despace, on pourra remarquer
que X peut scrire comme une somme dindicatrices.

Indication 16 1. = {X < h} {X h}.


2. Un max se ralise toujours en au moins un point.
3. Lindicatrice de lintersection est le produit des indicatrices.
4. crire Yi (h) sous la forme F (Xi , Z), avec Z indpendant de Xi .
5. Utiliser (c) et (d)
6. Prendre h = lnnn , avec bien choisi.

Indication 17 On peut sinspirer de la preuve du calcul de E[g(X, Y )|X]


lorsque X et Y sont indpendantes.

Indication 18 On peut le voir comme un cas particulier de lexercice pr-


cdent

Indication 19 On pourra remarquer que X + Y Z = 0.

Indication 20 1. Calculer les mineurs.


A.4. EXERCICES SUR LES MARTINGALES 161

2. On pourra crire X sous la forme X = Y + Z + R, avec R ind-


pendant de (Y, Z).
3. On pourra trouver une premire expression de fy,z (x) partir de
lexercice 7. On pourra ensuite remarquer que si

K exp((ax2 + bx + c))

est la densit dune variable alatoire, cette variable est ncessairement


gaussienne. On pourra identifier les paramtres par un choix judicieux
de .

Indication 21
Utiliser le thorme de convergence domine conditionnel.
On peut sinspirer de la preuve de lingalit de Markov.
On pourra remarquer que E[1
1{Y >M } |A] Z/M .
Il sagit de montrer que limn+ P(Y > M ) = 0.

Indication 22 1. pas dindication


2. Elle est dintgrale nulle (cest mme une martingale).
iT iT
3. On pourra noter que Mi = k=1 (Sk 1) = ( k=1 Sk ) (i T ).
4. On utilisera la linarit de lesprance pour calculer le nombre moyen
de points fixes dune permutation.

A.4 Exercices sur les martingales


Indication 23 1. Remarquer que x (x2 + 1)/2.
2. (a) On pourra remarquer que (Xn ) prend ses valeurs dans [0, 1]
(b) Appliquer le thorme de convergence domine

Indication 24 Soit A un vnement F mesurable. On peut crire A =


A+ A avec A+ = A {1 2 } et A = A {1 > 2 }. Il sut alors de
montrer que A+ est F2 mesurable, tandis que A est F1 mesurable.

Indication 25 Utiliser les proprits de lesprance conditionnelle

Indication 26 1. On rappelle que si Y 0 et EY = 0, alors Y est


nulle presque srement.
2. x 7 (x a)+ est une fonction convexe.
162 ANNEXE A. INDICATIONS

3. On pourra montrer que (Xn a) est presque srement nulle sur


lvnement {Xp a}.
4. Si deux nombres sont distincts, il y a un rationnel entre les deux.

Indication 27 1. Classique.
2. Utiliser lingalit de Cauchy-Schwarz.
3. On pourra montrer que Ynt = o(Ynt/2 ).
4. On pourra commencer par montrer que (t) > E(X1 )t, en commen-
ant par traiter le cas o X1 prend des valeurs positives.

Indication 28 1. Remarquer les conditionnements successifs.


2. On pourra montrer que (Yn )n1 est borne dans L1 .
3. On pourra remarquer que

E|W |1
1{|Tn a} tP(|Tn | a) + E|W |1
1{|W |t} .

4. On pourra dmontrer que

E|Yn |1
1{|Yn a} 2E|Z|1
1{|Yn a} .

5. Utiliser le (c) ; on pourra remarquer que

|Yn Y | |Yn |1
1{|Yn |a} + |Y |1
1{|Yn |a} + |Yn Y |1
1{|Yn |<a} .

6. Traiter dabord le cas o Z est positive et utiliser un critre didenti-


fication des mesures.

Indication 29 On rappelle que sin x x pour tout x 0.

Indication 30 1. g est convexe.


2. On pourra utiliser le thorme darrt.
3. Utiliser la question prcdente.
4. Lingalit (s+(1)t) f (s)+(1)f (t) dcoule de la concavit
de . Pour lingalit inverse, on peut considrer la fonction qui
concide avec extrieur de ]s, t[ et qui est ane sur [s, t].
5. On pourra montrer successivement

Ef (XT ) = E(XT ) = (EXT ) = (i0 ).

Indication 31 On pourra remarquer que les Yn sont non corrles et que


la suite des sommes partielles forme une martingale.
A.5. EXERCICES SUR LES COMPLEMENTS 163

A.5 Exercices sur les complements


Indication 32 Il sut (pourquoi ?) de montrer que limage rciproque dun
ferm est dans F.

Indication 33 Fixer y0 Y et poser H(x) = Z(x, y0 ).

Indication 34 1. Pour dterminer la loi conditionnelle, il sagit de d-


terminer P(X = k|X + Y = n).
2. Lesprance conditionnelle peut se calculer par intgration de la loi
conditionnelle. Ici, la loi conditionnelle est une loi dont les moments
sont bien connus.

Indication 35 Utiliser le thorme fondamental de la mesurabilit : (f 1 (C)) =


f 1 ((C)).

Indication 36 Utiliser le thorme de transfert.

Indication 37 On pourra sinspirer de la preuve du thorme de Radon-


Nicodm et montrer que pour f Fn mesurable positive borne, on a

C 1 EQ [f ] EP [f ] CEQ [f ].

A.6 Exercices sur les ingalits


Indication 38 1. Une permutation est une bijection, donc peut tre
utile un changement dindice.
2. Il sut montrer que h(X1 , . . . , Xn ) est valeurs dans Sn et quelle
charge galement tous les points.
3. Appliquer le principe de Maurey grce la reprsentation construite.
4. Appliquer la question prcdente avec n = b + r.

Indication 39 1. On trouvera Xkn = nk=1 11{Nk,p =1} . Noter que lesp-
rance est linaire et la loi de Nk,p connue.
2. Noter que vn E[Xnn ] et que 1 x exp(x) pour tout x 0.
3. On pourra traiter sparment les vnements {Xn n/e n} et
{Xn n/e n}.
4. Appliquer le principe de Maurey. Comment est modifi X n si on
change un seul tirage ?
164 ANNEXE A. INDICATIONS

5. Une fois que tout a t tir deux fois, X n est connu.


6. Remarquer que Xn /n est borne.
7. Modliser le problme.
Indication 40 On pourra utiliser la mthode de lexercice 38 en considrant

sur S2n la fonction g() = max{| kj=1 (1)(j) |; 1 k n}.
Indication 41 On pourra crire SA et S{1...,n}\A comme des fonctions de
X1 , . . . , Xn .
Indication 42 Notons D = B2 ({1, . . . , n}) et posons pour x {0, 1}D


(x) = inf N 1; c {1, . . . , N }n ; x{i,j}11{c(i)=c(j)} = 0 .

{i,j}C

On a = ((Xe )eD ) o les (Xe )eD sont des variables de Bernoulli ind-
pendantes de paramtre p.

A.7 Exercices sur les statistiques exhaustives


Indication 43 1. Exprimer E (Z) comme une intgrale par rapport
m et utiliser le thorme de factorisation de Neymann pour la do-
minante privilgie.
2. On pourra montrer quil existe une constante c() telle que E ((Z)|S) =
c().
n n
Indication 44 On pourra par exemple considrer i=1 Xi2 et i=1 Xi .
Indication 45 On pourra utiliser le thorme de Neyman-Fisher
Indication 46 1. On pourra remarquer que le modle est exponentiel.
2. Calculer E[X1 + + Xn ].
3. Utiliser la procdure classique damlioration des estimateurs sans
biais.
Indication 47 1. On notera que le modle est exponentiel.
2. E [1
1{Xi t} ] =. . ..
3. Utiliser la procdure classique damlioration des estimateurs sans
biais.
Indication 48 1. X n est une statistique exhaustive complte.
2
2. Sn est libre.
A.8. EXERCICES SUR LINFORMATION DE FISHER 165

A.8 Exercices sur linformation de Fisher


Indication 49 1. Un changement de variable peut galement tre utile.
2. Sous de bonnes hypothses W est centr.
3. Remarquer que le modle est exponentiel.
4. Si f (X) est un estimateur sans biais de , on pourra sintresser la
transforme de Laplace de mesures de probabilits construites laide
de f exp.

Indication 50 1. Appliquer le thorme de transfert.


2. Remarquer que le modle est exponentiel.
3. On pourra commencer par dterminer la loi de Sd .
4. Utiliser le lemme de Lehman-Sche.
5. Var Sd (Sdd21) = d14 Var Sd (Sd 1). La loi de Sd tant connu, on est
ramen un calcul de srie. On conseille dexprimer X 2 (X 1)2 dans
une base approprie de polynmes.

Indication 51 1. On trouve W (X) = (1 + X ) = 1 (X E (X)). On


est amen calculer (ou se souvenir) de la variance dune loi de
Poisson.
2. Un thorme du cours donne le rsultat sans calcul.

Indication 52 1. Exprimer Yn2 comme une fonction de deux variables


alatoires indpendantes.
2. Appliquer le thorme de convergence domin I( + U n ).
3. Noter que Yn2 est positive et converge presque srement.
4. Utiliser lhypothse de bornitude locale pour 7 E [h2 (X)].
5. Utiliser un critre appropri dqui-intgrabilit.
6. Zn converge presque srement et . . .
7. Appliquer le thorme de transfert.
8. Utiliser la caractrisation de la drive par les suites.

A.9 Exercices sur les processus


Indication 53
Tout vnement A scrit comme runion dnombrable dvnements de la
forme {0 = x0 , . . . , n = xn }.
166 ANNEXE A. INDICATIONS

Des probabilits sur RN sont caractrises par leurs lois de dimensions finies.
Utiliser la question 1 avec n = 1.

Indication 54 On peut considrer l application

: RN RN
((xn )n0 ) 7 ((n x))

Indication 55 1. Considrer une partition de B(x).


2. Si x nest pas un mot propre, lidentit est vidente. Sinon, on peut
remarquer que

B(x.a) = B(x.a)
a{1,...,q} a{1,...,q}\{xn }

et maintenant le x.a apparaissant dans la somme est un mot propre.


3. Sommer en x lidentit obtenue la question prcdente.
4. Il sut de vrifier que n ({1, . . . , q}n ) = 1.
5. On pourra calculer n+1 ({(x1 , . . . , xn )} {1, . . . , q}).
6. Si x = (x1 , . . . , xn ) et x = (xn , . . . , x1 ), il y a une bijection simple
entre B(x) et B(x).
7. On peut noter que

Pq (1 = x1 , . . . , n = xn ) = Pq (1 = xn , . . . , n = x1 )

q
= Pq (1 = xn , . . . , n = x1 , n+1 = a)
a=1

8. (a) Procder par rcurrence sur n + p en sinspirant de la preuve de la


question 2.
(b) On pourra sommer lidentit prcdente sur tous les (x, y) {1, . . . , q}n+p .

Indication 56 1. Dans le calcul de la srie, on traitera sparment les


cas i = 0, i = 1, i 2.
2. On peut noter que {T = n, 1 (A)} = {1 = c, 2 = c, n1 =
c, n = c, n (A)}, mais que P-presque srement, les autres conditions
entranent la n 1-ime.
3. Il sut de montrer que pour tout n, les variables (T k )0n , ce qui
peut se faire par rcurrence sur n.
4. On pourra montrer que (GT )k est la fonction gnratrice de Nk .
A.10. EXERCICES SUR LES CHANES DE MARKOV 167
2
5. Si p > 1/4, on pourra remarquer que s 7 1s+ps
ps
2 est un prolongement

analytique de GT sur un voisinage de la droite relle.


3
6. Noter que 4
< 1.

Indication 57 On peut considrer les applications

n : Rn Rn Rn
((x1 , . . . , xn ), (y1 , . . . , yn )) 7 (x1 + y1 , . . . , xn + yn )

Pour le contre-exemple, on peut prendre pour (Xn ) un bruit blanc et poser


Yn = (1)n Xn .

Indication 58 On peut considrer les applications

n : Rn+1 Rn
(x1 , . . . , xn ) 7 (x1 + 2x2 , x2 + 2x3 , . . . , xn1 + 2xn )

Indication 59 Si (Xn )n0 est une chane de Markov, (Xn+1 )n0 est aussi
une chane de Markov, ayant la mme matrice de passage.

Indication 60 On pourra commencer par montrer que (Xn )n0 est station-
naire. En particulier, il faut montrer que X0 et X1 ont mme loi.

Indication 61 On rappelle que deux mesures sur R sont gales si elles


concident sur les ensembles ] , a], o a dcrit R.

Indication 62 Mme remarque que pour lexercice prcdent. Par ailleurs,


on pourra considrer la mesure image de la loi uniforme sur [0, 1] par lappli-
cation x 7 e2ix .

Indication 63 Remarquer que E[Zi Zj ] = i,j .

A.10 Exercices sur les chanes de Markov


Indication 64 Le systme peut se reprsenter par une chane de Markov
3 tats, chaque tat tant induit par situation six/pas six de deux instants de
temps conscutifs. On pourra par exemple utiliser la technique de lanalyse
au premier pas

Indication 65 Commencer par dterminer n et > 0 tels que que pour


tout x S, Px ( n) .
168 ANNEXE A. INDICATIONS

Indication 66 1. crire Xn+1 = F (Xn , Yn+1 ).


2. Appliquer la mthode de lanalyse au premier pas.
3. Si lon pose ui = E 0 [T n ] E i [T n ], nous cherchons un = E 0 [T n ]
E n [T n ] = E 0 [T n ]. Comme on a la rcurrence ui = pui+1 1, il vient
n
facilement un = p 1p1 .
4. Cest une application immdiate de la question prcdente.

Indication 67 On peut remarquer que si M est une matrice 2 2 dont


est une valeur propre, alors les matrices (M I) et (M I)2 sont lies.
On rappelle que si (Xn )n0 est une chane de Markov dont la loi initiale est
donne par le vecteur ligne x, alors, la loi de Xn est donne par le vecteur
ligne xP n , o P est la matrice de passage.

Indication 68 1. Revoir le cours.


2. Dcouper lintervalle [0, 1] en morceaux de direntes longueurs.
3. Utiliser le (a).
4. Recoller les morceaux.

Indication 69 On pourra remarquer que {Xn = a} {T n} et que

{T n}\{Xn = a} {k < n; Xk = a et Xk+1 = a}.

Indication 70 Si on pose B = {u RN ; n 0; un A}, on peut remar-


quer que pour x A, on a Px (X A) = Px ((Xn+1 )n0 A) et utiliser la
proprit de Markov.

Indication 71 Il y a plusieurs mthodes possibles. Le plus simple est sans


doute de se ramener au cas o (Xn )n0 est donne par la reprsentation
canonique Xn+1 = fn+1 (Xn ) ou Xn+1 = g(Xn , Zn+1 ).

Indication 72 Si Ex = {Xn x}, alors Ex = N 1 nN {Xn = x},


donc pour montrer que P(Ex ) = 0, il sut de montrer que pour tout n,
P(nN {Xn = x}) = 0.

Indication 73 1. On peut tablir que Sn+1 = Sn + 11{Sn {b,a}} Xn+1 .
2. Comme dans lexercice 4, on utilisera la proprit de Markov.
3. On rappelle que les solutions dune rcurrence linaire forment un
espace vectoriel.
4. Comme dans lexercice 4, on utilisera la proprit de Markov.
A.10. EXERCICES SUR LES CHANES DE MARKOV 169

(n+1)2 +(n1)2
5. On peut remarquer que n2 = 1 + 2
.

Indication 74 On peut montrer que {T = +} = a1 Ga .

Indication 75 Raisonner comme dans lexercice 4 et rsoudre le systme


linaire.

Indication 76 Relire les dfinitions.


Indication 77 On pourra remarquer que si P( nk=1 Dk = (0, 0)) > 0, alors
il existe i, j positifs ou nuls avec i + j = n, a|i et b|j.

Indication 78 t fix, on pourra remarquer que P(1 1A F ((Xn )n1 > t) =


P(A, F ((Xn )n1 > t) et appliquer la proprit de Markov.

Indication 79 Pour x {1, 2, 3}, on a Ex F (X) = f (x) + Ex F ((Xn+1 )n1 ).


On peut alors appliquer le rsultat de lexercice prcdent.

Indication 80 1. La suite (Yn,1 , Yn,2 , . . . , Yn,2N )n1 est une suite de vec-
teurs alatoires indpendants de mme loi que lon peut utiliser pour
obtenir une reprsentation canonique.
2. Se ramener ltude dune somme de variables de Bernoulli.
3. Il y a plusieurs mthodes. On peut par exemple calculer [EXn+1 |(X1 , . . . , Xn )],
ou utiliser des techniques gnrales sur les chanes de Markov dont
lespace dtat est fini et qui possdent des points absorbants .
4. On pourra remarquer que la suite (EXn )n1 est constante.

Indication 81 Si (Yn )n0 est une chane de Markov avec Pa (Y1 = b) > 0 et
Pb (Y1 = c) > 0, alors Pa (Y1 = b, Y2 = c) > 0.

Indication 82 Commencer par trouver en candidat pour la matrice.

Indication 83 On peut commencer par montrer que (Xn , Yn )n0 est une
chane de Markov, puis utiliser lexercice prcdent.
170 ANNEXE A. INDICATIONS

A.11 Exercices sur la rcurrence et les me-


sures invariantes
Indication 84 On pourra ventuellement utiliser le thorme 80.

Indication 85 Considrer P (Xn = j), avec n bien choisi.

Indication 86 1. P f (j) peut sinterprter comme une intgrale.


2. Le premier point ne pose pas de dicult particulire. Pour le second
point, on pourra remarquer que les fonctions (i )iS engendrent un
sous-espace dense de 2 ().
3. On commencera par chercher des conditions ncessaires.
4. Le point dlicat est de montrer que E[f (Xk )|Xk+1 , . . . , Xn ] ne dpend
que de Xk+1 . cet eet, on pourra utiliser la reprsentation canonique
dynamique des chanes de Markov.
5. Combiner les questions prcdentes.

Indication 87 1. Penser utiliser la proprit de Markov forte. On



peut remarquer que T m = inf{n 1; nk=1 11Xk A m}.
2. On pourra commencer par calculer Px (XT m+1 = y|FT m ).
+
3. Remarquer que Tx = k+1
k=0 (TA TAk )1
1{S>k} , o S = inf{n 1; Yn =
x}.

Indication 88 1. (a) On pourra remarquer que f (XnT ) f (X0 ) =


n
1{i1<T } (f (Xi ) f (Xi1 )).
i=1 1
(b) Ne pas oublier que f est positive.
2. (a) Si E[f (X0 )] = +, il ny a rien montrer. Sinon, commen-
cer par montrer que pour tout i, f (Xi )1 1{i1<T } est intgrable et
E[f (Xi )1
1{i1<T } |Fi1 ] = (P f )(Xi1 )1
1{i1<T } .
(b) Appliquer le 1.(a) M = M {x E; f (x) n}.
(c) Faire partir la chane dun point x M .

Indication 89 1. Il y a plusieurs manires de montrer que Tk est un


temps darrt. On peut procder par rcurrence ou remarquer que

n1
Tk = inf{n 0; n A ou 11{ Xi = Xi+1 k}.
i=0

Pour montrer que les (Tk )kN sont finis presque srement, on peut
remarquer que Tk+1 = Tk + F (XTK +. ), o F (x) = inf{n 0, xn = x0 }
A.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES171

et montrer par rcurrence sur k que pour toute mesure initiale , Tk


est presque srement fini et (XTk +. ) est une chane de Markov de loi
initiale PXT .
k

2. On pourra calculer P(XTk+1 = j|FTk ). Pour ce faire, on peut remarquer


quil existe : RN S, avec XTk+1 = (XT +. ).

Indication 90 On remarque que si ST = b, la suite repassera ncessaire-


ment par zro. Si ST = a, on est ramen un problme de lutte contre un
joueur inruinable.

Indication 91 1. On discutera suivant la parit de d.


2. On pourra exhiber une mesure invariante.
3. Si X0 est pair, la suite (X2n )n0 ne prend que des valeurs paires.

Indication 92 1. Utiliser la reprsentation canonique.


2. On remarque que Yn+1 = Yn + (1)11{ Xn (Vn+1 )=1} .
3. Commencer par tudier le cas o est une masse de Dirac.
4. Calculer la probabilit de chaque N -uplet.
5. Utiliser les questions prcdentes.
6. On pourra montrer que la chane est rversible.

Indication 93 Si lon note Dn lindicatrice de lvnement la socit est


disponible le lundi de la semaine n, alors on a
pour la stratgie A : Dn+1 = 1 Dn (1 An )Bn .
pour la stratgie B : Dn+1 = 1 Dn Bn .
Quant au gain des travaux commencs la semaine n, il est
pour la stratgie A : Gn = Dn (200An + 360Bn 360An Bn ).
pour la stratgie B : Gn = Dn (200An + 360Bn 200An Bn ).
On peut remarquer que (Dn )n0 et (An , Bn , Dn )n0 sont des chanes de Mar-
kov.

Indication 94 Utiliser le thorme ergodique des chanes de Markov

Indication 95 1. Cest fait dans le cours !


2. De manire plus gnrale, on peut remarquer quune marche alatoire
symtrique sur un groupe fini admet toujours une probabilit rver-
sible trs simple.
3. Si est une mesure rversible et que x et y sont deux voisins, on a
(x)
d(x)
= (y)
d(y)
, o d(x) est le nombre de voisins de x.
172 ANNEXE A. INDICATIONS

Indication 96 On peut reprsenter ltat du systme au temps n par un


vecteur (x(1), x(2), . . . , x(2N )), o x(i) est le numro de lurne (0 ou 1) o
est la boule i. On peut supposer que les boules numrotes de 1 N sont
noires. Pour passer du temps n au temps n + 1, on choisit un 1 au temps
n que lon remplace par un 0 et un 0 au temps n que lon remplace
par un 1. Xn est une chane de Markov irrductible valeurs dans {x

{0, 1}2N ; 2N
i=1 xi = N }. Si deux tats communiquent, la probabilit de passer
de lun lautre est 1/N 2 .

Indication 97 1. Utiliser la proprit de Markov forte.


2. On pourra noter que {n = k} = {Sk1 = n 1, Xk = 1}.
3. Utiliser la premire question.
Annexe B

Solutions des exercices corrigs

B.1 Solutions des exercices corrigs sur les


variables de Bernoulli
Solution 1 Si p = 1, on a presque srement X = 1, donc 1 = 1 qui
na pas de densit par rapport la mesure de Lebesgue. Supposons donc
p [0, 1[). Posons An (x) = r(2n x, 2), o r(n, 2) est le rsultat de la division

euclidienne de n par 2, puis Ep = {x [0, 1[; limn+ n1 nk=1 An (x) = p}.
On a
1 n
p (Ep ) = P(X Ep ) P(X Ep , lim k (x) = p)
n+ n
k=1
1 n
P(k 1 Ak (X) = k ; lim k (x) = p)
n+ n
k=1
1 n
= P( lim k (x) = p) = 1
n+ n
k=1

o la dernire galit provient de la loi forte des grands nombres. Lavant-


dernire galit provient de lidentit
1 n
1 n
{k 1 Ak (X) = k ; lim k (x) = p)} = { lim k (x) = p},
n+ n n+ n
k=1 k=1

qui mrite sans doute quelques mots : soit (n )n1 une suite valeurs dans

{0, 1} telle que n1 nk=1 k (x) p.
Pour n 1, on peut crire


n1
+
k
n nk
2 X= 2 k + n + kn
k=0 k=n+1 2

173
174 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

On a pour tout k n, 0 k 1, do 0 + k=n+1 2kn 1. Ce-
k

pendant, il existe au moins un k n + 1 tel que k < 1, sinon on au-


k
rait limn+ n1 nk=1 k (x) = 1. Ainsi, on a +
k=n+1 2kn < 1, do comme
n1 nk
k=0 2 k + n est entier :


n1
2 X =
n
2nk k + n .
k=0
n1
Mais k=0 2nk k est pair et n {0, 1}, donc n = r(2n X, 2) = An (X).
Pour q = p, q (Ep ) = q (Ep Eq ) + q (Ep Eqc ) q () + q (Eqc ) = 0,
soit q (Ep ) = 0. Ep est de probabilit 1 sous p , 0 sous q si q = p : ces
mesures de probabilit sont trangres deux deux . En particulier pour
p = 1/2, p est trangre 1/2 qui est la restriction [0, 1] de la mesure de
Lebesgue. Finalement, p a une densit par rapport la mesure de Lebesgue
si et seulement si p = 1/2.

B.2 Solution des exercices sur lqui-intgrabilit


Solution 2 On a
Xn log(1 + Xn )
Xn11{Xn M }
log(1 + M )
Donc
supn1 E[Xn log(1 + Xn )]
sup E[Xn11{Xn M } ] ,
n1 log(1 + M )
qui tend vers 0 quand M tend vers linfini.
X1 +...Xn
Solution 3 1. Daprs la loi forte des grands nombres n
converge
1 X12 +...Xn2
presque srement vers E[X1 ] = 0 xdx = et 1
converge
1 2 2 n
presque srement vers E[X1 ] = 0 x dx = 3 . En faisant le quotient,
2 1

on a le rsultat.
2. Comme les Xi sont entre 0 et 1, on a Zn2 n2 (X12 + . . . Xn2 )2 .
Si Nn n/3, alors n2 (X12 + . . . Xn2 )2 144,
sinon, on a n2 (X12 + . . . Xn2 )2 n2 (X12 + . . . XN2 )211{Nn <n/3} .

3. EQ2N = [0,1]N (x2 ++x
1
2 )4 dx1 . . . . . . dxN 2N
1 1
B(0, N ) x82 dx1 . . . dxN ,
1 N
o la dernire boule est une boule pour la norme euclidienne de RN .
Daprs le thorme dintgration
des fonctions radiales , on a

1
. . . dxN = VN 0 N t8 N tN 1 dt, o VN est le volume
B(0, N ) x82 dx1
de la boule unit de dimension N . Ainsi pour N = 9, on a bien
lintgrabilit.
B.2. EXERCICES SUR LQUI-INTGRABILIT 175

4. En prenant N = 9 dans lingalit de 2. et en appliquant lingalit


de Cauchy-Schwarz, on a pour n 9

E(Zn2 ) 144 + n2 Q9 2 P(Nn < n/3). Ainsi pour voir que E(Zn2 ) est
borne, il sut de remarquer que P(Nn < n/3) dcrot exponentielle-
ment vite. On peut utiliser par exemple lingalit de Hoeding :

P(Nn < n/3) P(|Nn ENn | n/6)


(n/6)2 n
2 exp(2 ) = 2 exp( ),
n 18
mais nimporte quelle ingalit de type grandes dviations convient.
Ici, on peut facilement les retrouver la main : soit > 0. On a

P(Nn n/3) P(eNn en/3 )


1 + e n
en/3 E(eNn ) = en/3 ( ) = Cn ,
2

avec C = 2
(e + e2/3 ). Je choisis
1 /3
> 0 tel que e/3 = 1, 5 : jai
1 3
alors C = ( + 49 ) < 1. La suite Zn
2 2
est borne dans L2 , donc qui-
intgrable. La convergence presque sre ajoute lqui-intgrabilit
entrane la convergence dans L1 .

Solution 4 Comme (Xn )n est valeurs positives 1 , pour montrer que


(Xn )n est borne dans L3 , il sut de majorer EXn3 indpendamment de n.
Mthode 1.
Si Y1 , . . . , Yn sont des variables de Bernoulli de paramtre /n et que
lon pose Zk = Yk /n, puis Sk = Z1 + + Zk , on a

E(Xn3 ) = E(Sn +)3 = E(Sn3 )+3 +3E(Sn2 )+32 E(Sn ) = E(Sn3 )+3 +3E(Sn2 ).

On a ESn2 = Var Sn = Var Xn = n/n(1 /n) .


3
Comme Sk+1 3
= Sk3 + Zk+1 + 3Sk2 Yk+1 + 3Zk+1 Sk2 , on a par rcurrence

sur k n : ESk3 = ki=1 E(Zi3 ), do en particulier

ESn3 = nEZ13 = n(/n(1 /n)3 + (1 /n)(0 /n)2 )


= n/n(1 /n)((1 /n)2 + /n)

Ainsi EXn3 + 3 + 32 , donc (Xn ) est borne dans L3 .

1. Loubli de cette vrification est une source classique derreurs. Ainsi, si Xn suit la loi
uniforme sur [n, n], EXn3 est identiquement nulle, mais (Xn ) nest pas borne dans L3 .
176 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

Mthode 2.
Si B1 , . . . , Bn sont des nombres valant 0 ou 1, le nombre de triplets

(i, j, k) avec i < j < k et Bi = Bj = Bk = 1, vaut 1i<j<kn Bi Bj Bk .
Mais cest aussi le nombre de parties de cardinal 3 de lensemble des
i tels que Bi = 1. Comme il y a exactement Sn = B1 + + Bn tels
i, on a
Sn (Sn 1)(Sn 2)
Bi Bj Bk = .
1i<j<kn 6

Cest un raisonnement purement dterministe. Maintenant, si B1 , . . . , Bn


sont indpendants suivant la loi de Bernoulli de paramtre p, Sn suit
alors la loi binomiale B(n, p) ; par ailleurs, par linarit de lesprance,
on a ( )
n 3 1
p = E[Sn (Sn 1)(Sn 2)].
3 6
Ainsi E(Xn (Xn 1)(Xn 2)) = (/n)3 n(n 1)(n 2) 3 . Pour
tout x 3, on a

x x 9
x3 = x(x 1)(x 2) x(x 1)(x 2).
x1x2 2

On en dduit que pour tout k N, x3 8 + 92 x(x 1)(x 2). Ainsi


E(Xn3 ) 8 + 92 E(Xn (Xn 1)(Xn 2)) 8 + 92 3 . (Xn ) est donc borne
dans L3 .
Soit X une variable suivant la loi de Poisson de paramtre . Xn est
borne dans L3 , donc quiintgrable, et converge en loi vers X , donc EXn
converge vers E(X ). Comme EXn = , E(X ) = . Xn est borne dans
L3 , donc Xn2 est borne dans L3/2 , donc (Xn2 )n1 est qui-intgrable. (Xn2 )n1
converge en loi vers X , donc EXn2 converge vers E((X )2 ). Comme la va-
riance est lesprance du carr moins le carr de lesprance, la variance de
X est la limite de Var Xn = n/n(1 /n), soit .

B.3 Solutions des exercices sur lesprance


conditionnelle
Solution 10 1. La condition est videmment ncessaire daprs la dfi-
nition de lesprance conditionnelle car {N = n} est (N )-mesurable
Si A est (N )-mesurable, A scrit A = {N B}, o B est un bo-
rlien de R. notons que comme N est valeurs dans N, on a presque
B.3. EXERCICES SUR LESPRANCE CONDITIONNELLE 177

srement 11A = 11{N BN} . On a

X1
1A = X1
1{N BN}

+
N
= 11nB X1
1{N =n} = lim 11nB X1
1{N =n}
N +
n=0 n=0


Comme | N n=0 1
1nB X11{N =n} | X, avec le thorme de convergence

domine, on a E[X1 1A ] = limN + + 11nB E[X1
1{N =n} ]. Les mmes
+
n=0
arguments donnent E[Y 11A ] = limN + n=0 11nB E[Y 11{N =n} ]. Comme
E[X11{N =n} ] = E[Y 11{N =n} ], on a finalement E[X1 1A ] = E[Y 11A ], ce qui
donne le rsultat voulu puisque Y est (N )-mesurable.
2. E(U11{N =n} ) = E((X1 + + Xn )1
1N =n ) = E(X1 + + Xn )E(1
1N =n ) par
indpendance. On a donc E(U11{N =n} ) = nE(X1 )E(1 1N =n ) = E(X1 )E(n1 1N =n ) =
E(X1 )E(N11N =n ) = E[E(X1 )N11N =n ], o la dernire galit est encore
obtenue par indpendance. Avec la premire question, on en dduit
E(U |N ) = E(X1 )N = qN .

Solution 11 On a vu que E[U |T ] = E[X1 ]T = qT ; on en dduit E[U ] =


E(E[U |T ]) = E(qT ) = qE[T ] = q( p1 1), car 1 + T suit un loi gomtrique
de paramtre p.


ET11{U =k} nP(U = k, N = n)
E[T |U = k] = = nk
P(U = k) nk P(U = k, N = n)
( )
nk np(1 p) q k (1 q)nk
n n
k
= ( )
nk p(1 n
p) kn
q k (1 q)nk
( )
n
nk nxnk
= ( )
n
avec x = (1 p)(1 q)
n
nk x k
( ) ( )
n n+1
nk (n + 1)xn k nk (k + 1) k+1
xn
= ( )
n
1= ( )
n
1
nk xn k nk k
xn
( )
n+1 n
nk k+1 x
= (k + 1) (
n
) 1
n
nk k x

( )
n n+1
On fait une transformation dAbel : on pose rn = kn x cn = k+1
pour
n k et cn = 0 pour n < k :
178 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

Ainsi
( )
n+1 n
x = cn (rn rn+1 ) = cn rn cn rn+1
nk k+1 nk nk nk

= cn rn cn1 rn = cn rn cn1 rn
nk nk+1 nk nk

= (cn cn1 )rn
nk
( )
Pour n = k on a cn cn1 = ck ck1 = ck = 1 = n
. Pour n > k, on a
( ) ( ) ( ) n
xn
cn cn1 = n+1
k+1
n
k+1
= n
k
. Par ailleurs rn = 1x
Finalement

( )
n xn
nk k 1x
E[T |U = k] = (k + 1) ( )
n
1
n
nk k x
k+1 k x
= 1= +
1x 1x 1x
Finalement E[T |U ] = 1x
1 x
U + 1x = x+EU
1x
.
Pour mettre lpreuve nos calculs, on va vrifier que E(E[T |U ]) = E(T ).
On va vrifier que EU +x
1x
= E[T ] ou, de manire quivalente x = ET EU
ET +1
:

ET EU ( 1 1)(1 q)
= p1
ET + 1 ( p 1) + 1
( p1 1)(1 q)
= 1
p
= (1 p)(1 q)

B.4 Solutions des exercices sur les martin-


gales
Solution 23 1. Posons Fn = (U1 , . . . , Un ). Par rcurrence, on voit fa-
cilement que Xn est mesurable par rapport Fn . Ainsi E[Xn+1 |Fn ] =
E[Un+1 |Fn ] + Xn2 E[(1 Un+1 )|Fn ]. Dun autre ct, Un+1 est indpen-
dant de Fn . On en dduit que
1 + Xn2
E[Xn+1 |F\ ] = E[Un+1 ] + Xn2 E[1 Un+1 ] = Xn .
2
La suite (Xn )n0 est bien une sous-martingale.
B.5. EXERCICES SUR LES COMPLMENTS 179

2. (a) Xn+1 est une combinaison convexe de Xn2 et 1. Ainsi, si Xn est dans
[0, 1], Xn2 sera encore dans [0, 1], et par combinaison convexe, Xn+1
sera encore dans [0, 1]. Ainsi, pour a [0, 1], la suite (Xn ) sera
valeurs dans [0, 1], donc borne dans L1 . Comme (Xn )n0 est une
sous-martingale, le thorme de Doob assure que (Xn ) converge
presque srement vers une variable X .
2
(b) E[Xn+1 ] = E[E[Xn+1 |Fn ]] = E 1+X 2
n
. Par convergence domine (par
1), le membre de gauche converge vers E[X ] tandis que le membre
)2
de droite converge vers E 1+(X
2
. On a donc

1 + (X )2
EX = E .
2
2 1+(X )2
Mais comme X 1+(X
2
)
, on obtient que X = 2
presque

srement, do X = 1 presque srement.

B.5 Solutions des exercices sur les compl-


ments
Solution 32 Comme les ferms engendrent la tribu borlienne B, il sut
de montrer que limage rciproque dun ferm est dans F. Soit F un ferm.
x fix, x 7 d(x, F ) est 1-lipschtzienne, donc continue : on a donc d(X, F ) =
limn+ d(Xn , F ). Comme F est ferm, on a donc

{X F } = {d(X, F ) = 0} = {d(Xn , F ) 0} = p1 n1 kn {d(Xk , F ) 1/p}.

Comme x 7 d(x, F ) est continue, elle est borlienne ; par composition, lap-
plication 7 d(Xn (), F ) est borlienne, et donc {d(Xn , F ) 1/p} F.
Comme on eectue ensuite des oprations dunion et dintersection dnom-
brable, on reste dans F et {X F } = X 1 (F ) F.

Solution 33 Fixons y0 Y et posons H(x) = Z(x, y0 ). Lapplication x 7


(x, y0 ) est (R, B(R) (R2 , B(R2 ) mesurable et lapplication (x, y) 7 Z(x, y)
est (R2 , B(R2 ) (, F)-mesurable, donc par composition, H est (R, B(R)
(, F) mesurable. Reste voir que Z = H(X). Soit (x, y)2 R2 . On pose
u = Z(x, y). Comme {u} F, Z 1 ({u}) (X) car Z est (X)-mesurable.
Or (X) = {B R; B B(R)}, donc il existe B tel que Z 1 ({u}) = B R.
Bien sr (x, y) Z 1 ({u}), donc x B, ce qui entrane que (x, y0 ) =
B R = Z 1 ({u}), do Z(x, y0 ) = u = Z(x, y), soit H(X(x, y)) = Z(x, y).
180 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

Solution 34 1. Soit n N. Pour k entre 0 et n, on a


P(X = k, Y = n k)
P(X = k|X + Y = n) =
P(X + Y = n)
P(X = k) P(X = k)
= ( ) =
n
n
P {X = i, Y = n i} P(X = i, Y = n i)
i=0 i=0
( ) ( )
k nk
e e k! (nk)!
n
k
k nk n
k
k nk
= = n ( )
=

n i ni ( + )n
e e i! (ni)! n
i
i ni
i=0 i=0
( )( )i ( )ni
n
=
i + +
Comme X X + Y , les autres coecients sont nuls : la loi de X
sachant X + Y = n est la loi binomiale B(n, +

).
2. Lesprance du carr, cest le carr de lesprance plus la variance.
Pour une loi binomiale, ces quantits sont bien connues. On a donc
( )2
n
E[X |X + Y = n] =
2
+n ,
+ ( + )2
( )2
(X + Y )
do E[X |X + Y ] =
2
+ (X + Y ) .
+ ( + )2

B.6 Solutions des exercices corrigs sur les


ingalits
Solution 38 1.
h(.x)(i) = |{j {1, . . . , n}, x(j) x(i) }|
= |{j {1, . . . , n}, xj x(i) }|
= [h(x)]((i))

2. On a {X n } {Xi = xj }. Mais Xi Xj est la somme


1i<jn
de deux variables densit : elle est densit, donc sans atome : on
a donc P(Xi Xj ) = 0 do P(X n ) = 0. Ainsi n = h(X) est
valeurs dans Sn . Comme .X a mme loi que X, n a mme loi que
h(.X) = h(X) . Ainsi, pour toute permutation ,
P(n = ) = P(h(X) = ) = P(h(X) = Id),
B.6. EXERCICES SUR LES INGALITS 181

ce qui montre bien que toutes les permutations ont la mme masse.
3. Quitte changer despace de probabilit, on peut supposer que n
scrit n = h(X1 , . . . , Xn ), o X1 , . . . , Xn sont des variables ala-
toires indpendantes suivant la loi uniforme sur [0, 1]. On veut alors
appliquer le principe de Maurey f = g h. Soient (x1 , . . . , xn )
et (x1 , . . . , xn ) tels que xj = xj pour j = i0 . Posons = h(x)
et = h(x ). On a x1 (1) < . . . x1 et x1 (1) < . . . x1 . Si
xi0 ]x1 ((i0 )1) , x1 ((i0 )+1) [, on a simplement = . Sinon, si
xi0 < x1 ((i0 )1) , 1 est de la forme
( )
1 ... i i+1 i+2 ... i+1 i+k+1 ... n
,
1 (1) ... 1 (i) 1 (i
+ k) 1 (i
+ 1) ... 1 (i+ k 1) 1 (i
+ k + 1) ... 1 (n)

soit
( )
1 1 ... i i + 1 i + 2 ...
1 i+1 i + k + 1 ... n
= ,
1 ... i i + k i + 1 ... i + k 1 i + k + 1 ... n

cest dire = i+1,i+k . On en dduit que |f (x) f (x )| =


|g() g( )| M . Le cas o xi0 > x1 ((i0 )+1) se traite de manire
analogue. Il sut alors dappliquer lhypothse sur g et le principe de
Maurey pour avoir le rsultat voulu.
4. On numrote les boules de 1 n = b+r, les boules rouges tant num-
rotes de 1 r. Ordonner de manire alatoire uniforme les n boules
et ne garder que les k premires est la mme chose quen prendre k
sans remise. On pose donc g() = |(1, . . . , k) {1, . . . , r}. Ainsi g()

a la loi de X. On a g() = ki=1 11{(k){1,...,r} , do


k
k
r kr
E[X] = E[g()] = P((k) {1, . . . , r}) = = .
i=1 i=1 b + r b+r

g vrifie lhypothse de la question prcdente avec M = 1, do le


rsultat.

n
Solution 39 1. On a immdiatement Xkn = k=1 1
1{Nk,p =1} . Comme
Nk,p est une somme de k variables de Bernoulli indpendantes de pa-
ramtre 1/n, Nk,p B(k, 1/n) et
( )
k 1 1 k 1
E[1
1{Nk,p =1} ] = P(Nk,p = 1) = (1 )k1 = (1 )k1 ,
1 n n n n

et par linarit, on a E[Xkn ] = n nk (1 n1 )k1 .


182 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

2. On a
1 n 1 1
(1 ) = n1 (1 )E[Xnn ] n1 (1 )vn
n n n
( )k
k 1
= max 1
0kn3/2 n n
k
max exp(1/n)k
n
0kn3/2

sup x exp(x)
xR+

Comme log(1 1/n)n = n log(1 1/n) n(1/n) = 1, on a clas-


siquement lim (1 1/n)n = e1 . Dautre part, une petite tude
n+
de fonction montre que supxR+ x exp(x) = exp(1), donc par com-
paraison lim n1 (1 n1 )vn = 1/e, do lim n1 vn = 1/e, soit
n+ n+
vn ne .
3. Soit N tel que (1 1/n)n1 1
e
/2 et vn
n
1
e
+ /2 pour n N .
On a alors pour n N :
( ) ( )
1 1
P Xn n( ) P Xnn n( )
e (
e )
1 n1
P Xn n((1 )
n
/2)
n
= P (Xnn E[Xnn ] /2)

Dautre part
( ) ( )
1 n 1
P Xn n( + ) = P {Xnk
n( + )}
e k=1 e
n
3/2 ( )
1
P Xnk n( + )
k=1 e
n
3/2 ( )
P Xnk (vn + n/2)
k=1
n
3/2 ( )
P Xnk E[Xnk ] + n/2)
k=1

En additionnant les deux majorations, on obtient lingalit voulue.


B.6. EXERCICES SUR LES INGALITS 183

4. Posons, pour y {1, . . . , n}k :


n
k (y) = 11{1=k 11 }
.
j=1 {yj =u}
u=1

On a ainsi Xkn = ((Yi )1ik ). Si y et y dirent au temps t k


et seulement ce moment l, mettons que la boule au temps t est
mise en i dans la configuration y, alors quelle est mise au temps t est
mise en i dans la configuration y . Au temps k, seuls les eectifs des
eectifs des botes u = i et u = i direront, donc la dirence entre
k (y) et k (y ) ne peut excder deux units. On peut donc appliquer
le principe de Maurey avec ki = 2. Avec le principe de Maurey, on a

(/2n)2
P(|Xnk E[Xnk ]| /2n) 2 exp( ),
8k

de sorte que pour k n3/2 , on a

2
P(|Xnk E[Xnk ]| /2n) 2 exp( n).
32
Ainsi, finalement, on a

2
P(|X/n n e1 | > ) 2n3/2 exp( n),
32

ce qui entrane que Xn /n tend en probabilit vers e1 .


5. On a

{Nn3/2 ,u 2} {k n3/2 ; Nk,u 2}


{k n3/2 ;11{Nk,u =1} = 0},

donc
n
Nn3/2 2} {k n3/2 ; Xkn = 0}
u=1

{X n = Xn }

En passant au complmentaire, on a linclusion


n
{X n = Xn } {Nn3/2 ,p < 2},
p=1
184 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

6. On a alors

P(X n = Xn ) nP(Nn3/2 ,1 < 2)


= nB(n3/2 , 1/n)({0; 1})
= n((1 1/n)n
3/2
+ n3/2 (1/n)(1 1/n)n
3/2 1
)
n3/2
n(n3/2 + 1)(1 1/n)
3/2
Kn5/2 (1 1/n)n Kn5/2 exp( n)

Comme pour tout > 0,

P(|X n /n 1/e| > ) P(|Xn /n 1/e| > ) + P(X n = Xn ),

et que les deux termes de la somme de droite ont une limite nulle
quand n tend vers linfini, |X n /n tend en probabilit vers 1/e.
7. On a 0 X n /n 1. PX n /n tend en loi vers 1/e et est qui-intgrable
car borne dans L , donc la suite des moments converge vers 1/e
8. Pour se ramener au problme prcdent, il sut de considrer que
chaque numro tir est le numro dune pilule. Si on tire un numro
dune pilule pas compltement mange, on en mange la moiti, sinon
lessai est en chec et on retire un numro jusqu atteindre un numro
correspondant une pilule pas compltement mange ou quil ny ait
plus de pilule. On a donc le rsultat voulu avec K = 1/e.

B.7 Solutions des exercices sur les statistiques


exhaustives
Solution 43 1. Daprs le thorme de factorisation de Neymann, P a
une densit f par rapport m. Pour mesurable borne, on a alors
E ((Z)) = (Z)f (T ) dm. Comme Z et S sont indpendantes sous
m
E ((Z)) = Em [(Z)f (S)] = Em [(Z)]Em [f (S)]
En prenant = 1, on trouve Em [f (S)] = 1, do

E ((Z)) = Em [(Z)]

La loi de Z sous P est donc sa loi sous m, qui ne dpend pas de :


Z est libre.
B.8. EXERCICES SUR LINFORMATION DE FISHER 185

2. Soit mesurable borne. Comme Z est libre, il existe une constante


c() telle que E ((Z)) = c() pour tout . Comme S est ex-
haustive, E ((Z)|S) est une fonction (S) avec indpendante de
. Lapplication (S) c() est (S)-mesurable et desprance nulle
sous tout P . Comme S est complte, (S) c() est nulle. On a donc
E ((Z)|S) = c(), ce qui signifie que Z et S sont indpendantes sous
P . En eet pour tout g,
E [g(S)(Z)] = E [E [g(S)(Z)|S]]
= E [g(S)E [(Z)|S]]
= E [g(S)c()]
= c()E [g(S)] = E ((Z))E [g(S)]

B.8 Solution des exercices sur linformation


de Fisher
Solution 49 Les lois considres ont toutes le mme support [1, +[. Un
calcul simple donne W = 1 log x. On a donc
( 2 )
1
I= log x d(x)
[1,+[ x+1

1
= eu ( u)2 du
[0,+[
1
On reconnait la variance de la loi exponentielle de paramtre : cest 2
.

I() = 1 est C 1 sur ]0, +[, donc le modle vrifie les bonnes conditions :
on a donc E [W ] = 0. Comme W = 1 log X, on constate bien que T est
un estimateur sans biais de 1/.
Var T = E (E E [T ])2 = E (W2 ) = I(). On note que Var T = 2 =
g ()2 1
I()
: on a galit dans lingalit de Cramer-Rao. La densit f (x) = x+1
scrit aussi x exp( log X) : on a un modle exponentiel, et on retrouve le
rsultat du cours.
Si f est un estimateur sans biais de , on a pour tout

1
f (x) d(x) = ,
[1,+[ x+1

soit [0,+[ eu f (eu )d(u) = , ou encore

eu f (eu )d(u) = 1.
[0,+[
186 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

u
Posons g(u) = f (eu ). Fixons 0 > 0. Pour tout ]0 , +[, on a
e g(u) =
ueu g(u), do

u 2
| e | ue0 u g(u) e0 /2u g(u)
0

Comme cette fonction est intgrable, on obtient sur ]0 , +[ :




0 1= ueu g(u)d(u).
[0,+[

Comme ]0 peut tre pris aussi petit que lon veut, lidentit

est encore vraie
sur ]0, +[. Posons A = ] 0, +[xf+ (x)e dx. On a A = ] 0, +[xf (x)ex dx,
x

donc P1 = A1 xf+ ex et P2 = A1 xf ex sont deux mesures de probabilits


sur R+ . Elles ont la mme transforme de Laplace, donc f+ = f et f = 0.
Contradiction.

Solution 50 1. Cest un calcul classique :


+
EX1 (X1 1) = k(k 1)P(X = k)
k=0

+
+
k
= k(k 1)P(X = k) = k(k 1)e
k=2 k=2 k!


+
k2
= e 2 = e 2 e = 2
k=2 (k 2)!

Comme les Xi ont mme loi, le rsultat sensuit par linarit.


2. La densit de P() par rapport la mesure de comptage est n 7
e n! = e n!1 exp((log )n) : la famille (P())>0 est une famille
n

exponentielle et X est la statistique naturelle associe. Ainsi X1 +


+ Xd est la statistique naturelle associe au modle exponentiel
(P()d )>0 . Comme log(]0, +[) = R est dintrieur non-vide, la
statistique est complte.
3. La loi de Sd sous P est la loi de X1 sous Pd : on a donc E Sd (Sd 1) =
Ed X1 (X1 1) = (d)2 , do on dduit que Sd (Sdd21) est un estimateur
sans biais de 2 . Mais Sd (Sdd21) est (Sd ) mesurable et Sd est une
statistique exhaustive complte, donc daprs le thorme de Lehman-
Sche, Sd (Sdd21) est le meilleur estimateur quadratique de 2 .
B.9. EXERCICES SUR LES PROCESSUS 187

4. Ed tant un estimateur sans biais de 2 et Sd une statistique exhaustive


complte, lamlioration de Ed : E [Ed |Sd ] concide avec le meilleur
estimateur quadratique de 2 . On a E [Ed |Sd ] = Sd (Sdd21) , do on
dduit aisment la formule voulue.
5. Linformation de Fisher du modle a t calcule prcdemment : cest
d

. Avec la fonction g() = 2 , la borne de Cramer-Rao est

(g ())2 (2)2 43
= = .
I() d/ d
Dautre part
Sd (Sd 1) 1
Var 2
= 4 Var Sd (Sd 1)
d d
1
= 4 Varn X1 (X1 1).
d
On a dj vu que E X1 (X1 1) = 2 . On a aussi les identits
E X1 (X1 1)(X1 2) = 3 et E X1 (X1 1)(X1 2)(X1 3) = 4 .
On dcompose alors X 2 (X 1)2 sur cette base :

X 2 (X 1)2 = X(X 2 + 2)(X 1)(X 3 + 2)


= X(X 1)(X 2)(X 3) + 2X(X 1)(X 3)
+ 2X(X 1)(X 2) + 4X(X 1)
= X(X 1)(X 2)(X 3)
+ 2X(X 1)(X 2) 2X(X 1)
+ 2X(X 1)(X 2) + 4X(X 1)
= X(X 1)(X 2)(X 3)
+ 4X(X 1)(X 2) + 2X(X 1)

Do E X 2 (X 1)2 = 4 + 43 + 22 et Var X 2 (X 1)2 = 43 + 22 .


On a finalement
Sd (Sd 1) 1 4(d)3 + 2(d)2 3 2
Var = Varn X 1 (X 1 1) = = 4 +2 4 ,
d2 d4 d4 d d
qui dpasse la borne de Cramer-Rao : lestimateur nest pas ecace.

B.9 Solutions des exercices sur les processus


Solution 53 1. La loi du vecteur (0 , . . . , n ) tant discrte, tout en-
semble (0 , . . . , n )-mesurable peut scrire ( un ngligeable prs)
188 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

comme runion dnombrable disjointe dvnements de la forme

A = {0 = x0 , . . . , n = xn }.

Ainsi, avec le principe de partition, il sut de dmontrer lgalit


lorsque A scrit A = {0 = x0 , . . . , n = xn }, avec (x0 . . . , xn )
Dn+1 . Si i = xn , les deux membres de lgalit voulue sont nuls : il ny
a rien dmontrer. On doit donc montrer que pour tout B B(RN ),
on a

P (0 = x0 , . . . , n = xn , n (B)) = P (0 = x0 , . . . , n = xn )Pxn (B).

Bien sr, si P (0 = x0 , . . . , n = xn ) = 0, il ny a encore rien


dmontrer puisque les deux membres sont nuls. Soit C lensemble des
vnements qui scrivent

B = {0 = y0 , . . . , k = yk }

pour un certain k : il est ais de constater que les mesures de probabi-


lit B 7 P (n (B)|0 = x0 , . . . , n = xn ) et B 7 Pxn (B) concident
sur C. Comme C est un -systme qui engendre la tribu B(RN ), ces
deux probabilits sont gales, ce qui donne le rsultat voulu.

2. Ici encore, il est ais de constater que P et iD (i)Pi sont deux
mesures de probabilit qui concident sur C.
3. On a

P (1 (B)) = P (1 = i, 1 (B))
iD

= P (1 = i)Pi (B))
iD

= (i)Pi (B))
iD
= P (B))

Solution 54 Considrons l application

: RN RN
((xn )n0 ) 7 ((n x))

Comme est mesurable de (RN , B(RN )) dans lui mme et (RN , B(RN ))
(R, B(R)) mesurable, pour tout n (n X) est bien (RN , B(RN )) (R, B(R))
B.9. EXERCICES SUR LES PROCESSUS 189

mesurable, et donc est bien mesurable de (RN , B(RN )) dans lui mme. Ainsi
Y = (X). On peut noter que = . Ainsi
PY (1 (A)) = P(Y 1 (1 (A)))
= P(( Y )1 (A))
= P(( X)1 (A))
= P(( X)1 (A))
= P(X 1 (1 ( 1 (A))))
= PX (1 ( 1 (A))
= PX ( 1 (A)) = P(X 1 ( 1 (A))
= P(( X)1 (A))
= P(Y 1 (A)) = PY (A)

Solution 55 1. Pour tout y = (y1 , . . . , yn ) B(x), il existe i tel que


yn1 = xi . Cet entier i est unique, car sil existait deux tels entiers
i et j, on aurait xi = xi+1 , ce qui est impossible car x est propre.
Notons le i(y). On peut alors poser Bi (x) = {y B(x); i(y) = i}. On
a videmment n
|B(x)| = |Bi (x)|.
i=1

Or lapplication y 7 (y1 , . . . , yn1 ) ralise une bijection de Bi (x) dans


B(xi ), do la formule voulue.
2. On va procder par rcurrence sur n. Si n = 0, chaque terme de la
somme de gauche est gale 1 et le second membre vaut b0 (q)B() = q :
lidentit est vrifie. Supposons la proprit acquise au rang n et
montrons l au rang n + 1 Si x nest pas un mot propre, lidentit est
vidente car les deux termes sont nuls. Sinon, on peut remarquer que

|B(x.a)| = |B(x.a)|
a{1,...,q} a{1,...,q}\{xn }
(( ) )

n
= |B(xi .a)| + B(x)
a{1,...,q}\{xn } i=1
( )

n

n
= |B(xi .xn )| + |B(xi .a)| + (q 1)B(x)
i=1 a{1,...,q} i=1

n
= |B(x)| + bn1 (q)|B(xi )| + (q 1)|B(x)|
i=1
= (bn1 (q) + q 2)|B(x)| = bn (q)|B(x)|,
ce qui montre lhrdit.
190 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

3. Tous les mots n + 1 lettres scrivent x.a, o x est un mot de n


lettre et a {1, . . . , q}. Ainsi, les B(x.a) forment une partition de
lensemble des immeubles propres de hauteur n + 1 : on a

S(n + 1, q) = |B(x.a)|
x{1,...,q}n a{1,...,q}

= bn (q)|B(x)|
x{1,...,q}n

= bn (q)S(n, q)
4. n est une mesure positive. On a

n ({1, . . . , q}n ) = n (x)
x{1,...,q}n

= S(n, q)1 |B(x)| = S(n, q)1 S(n, q) = 1,
x{1,...,q}n

ce qui donne le rsultat


5. On a

n+1 ({(x1 , . . . , xn )} {1, . . . , q}) = n+1 ({(x1 , . . . , xn , a})
a{1,...,q}
|B(x.a)|
=
a{1,...,q} S(n + 1, q)
1
= |B(x.a)|
bn (q)S(n, q) a{1,...,q}
1
= bn (q)|B(x)|
bn (q)S(n, q)
= n ({(x1 , . . . , xn )})
Il sut alors dappliquer le thorme dextension de Kolmogorov.
6. Si on note x = (x1 , . . . , xn ) et x = (xn , . . . , x1 ), lapplication y =
(y1 , . . . , yn ) 7 (y1 , . . . , yn ) ralise une bijection entre B(x) et B(x), ce
qui entrane immdiatement le rsultat voulu.
7. Soient n 1 et x {1, . . . , q}n . En appliquant deux fois la rversibilit
puis le principe de partition, on a
Pq (1 = x1 , . . . , n = xn ) = Pq (1 = xn , . . . , n = x1 )

q
= Pq (1 = xn , . . . , n = x1 , n+1 = a)
a=1
q
= Pq (1 = a, 2 = x1 , . . . , n = x1 , n+1 = xn )
a=1
= Pq (2 = x1 , . . . , n = x1 , n+1 = xn ),
B.9. EXERCICES SUR LES PROCESSUS 191

ce qui donne linvariance par le dcalage.


8. (a) On va construire cn,p par rcurrence sur n + p. Pour n + p = 0,
il est facile de voir que la formule est vrifie avec c0,0 = q = 4.
Ensuite, on a


q

|B(x.a.y)| = |B(x.a.y)|
a=1 a=xn ,a=y1
( n )

p
= |B(xi .a.y)| + B(x.y) + |B(x.a.yi )|
a=xn ,a=y1 i=1 i=1

n

p
= |B(xi .a.y)| + |B(x.a.yi )|
a=xn i=1 a=y1 i=1

+ (q 2 + 1{xn =y1 } )B(x.y)

On a alors

n
n

n
|B(xi .a.y)| = |B(xi .xn .y)| + |B(xi .a.y)|
a=xn i=1 i=1 a{1,...,q} i=1


n
= B(x.y) + cn1,p |B(xi )|.|B(y)|
i=1
= B(x.y) + cn1,p |B(x)|.|B(y)|

En eet, dans la premire somme, seul le terme pour i = n est


non-nul. La deuxime somme est identifie par lhypothse de r-
currence.
De mme

p
|B(x.a.yi )| = B(x.y) + cn,p1 |B(x)|.|B(y)|,
a=y1 i=1

do

q
|B(x.a.y)| = (cn1,p + cn,p1 )|B(x)|.|B(y)| + (q 4 + 1{xn =y1 } )|B(x.y)|
a=1
= (cn1,p + cn,p1 )|B(x)|.|B(y)| + 1{xn =y1 } |B(x.y)|
= (cn1,p + cn,p1 )|B(x)|.|B(y)|,

ce qui donne le rsultat voulu en posant cn,p = cn1,p + cn,p1 .


(b) En sommant lidentit prcdente sur tous les (x, y) {1, . . . , q}n+p ,
on a S(n+p+1, 4) = cn,p S(n, 4)S(p, 4). En divisant lidentit de la
192 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

question prcdente par les deux membres de la nouvelle identit,


on a

q
|B(x.a.y)| |B(x)| |B(y)|
= . ,
a=1 S(n + p + 1, 4) S(n, 4) S(p, 4)

, soit


q
Pq (1 = x1 , n = xn , n+1 = a, n+2 = y1 , . . . , n+p+1 = yp )
a=1
= Pq (1 = x1 , . . . , n = xn )Pq (1 = y1 , . . . , n = yp ),

soit enfin en utilisant une partition et la stationnarit :

Pq (1 = x1 , n = xn , n+2 = y1 , . . . , n+p+1 = yp )
= Pq (1 = x1 , . . . , n = xn )Pq (n+2 = y1 , . . . , n+p+1 = yp ).

B.10 Solutions des exercices sur les chanes


de Markov
Solution 64 On choisit comme espace dtats lensemble E = {, 6, 66}.
(Il faut penser que reprsente un chire quelconque, un chire dirent
de 6.)
On a le graphe de transition probabiliste suivant :
5
6 1

1 1
6 6
* *6 66
5
6

Je note x = (xn )n0 une suite possible dlments de E, et

T (x) = inf{n 0; xn = 66 }.

Il est facile de voir que si x0 = 66 , alors T (x) = 0, sinon

T (x) = 1 + T (x),

o x est la suite obtenue par dcalage :

n 0 (x)n = xn+1 .
B.10. EXERCICES SUR LES CHANES DE MARKOV 193

Jusquici il ny a pas de probabilits. Notons maintenant X = (Xi )i0 la


suite des tats obtenus, et Pi (resp. Ei ) la probabilit (lesprance) sachant
que le systme part de ltat i (X0 = i) et posons xi = Ei [T (X)]. Evidemment
x66 = 0 et pour i = 66, on a

xi = Ei [1 + T (X)]
= 1 + Ei [T (X)]

= 1 + Ei [ 11X1 =j T (X)]
jE

=1+ Ei [1
1X1 =j T (X)]
jE

Maintenant la proprit de Markov dit que pour toute fonction F de la


trajectoire, on a

Ei [1
1X1 =j F (X)] = Pi (X1 = j)Ej [F (X)].

Jobtiens alors le systme

x66 = 0
5 1
x6 = 1 + x + x66
6 6
5 1
x = 1 + x + x6
6 6
On rsoud et on trouve x = 42 et x6 = 36.
Le problme initial pouvant tre reprsent avec un dpart en , le
nombre moyen de lancers ncessaires est donc x = 42.

Solution 65 Comme la chane est irrductible, pour tout x A, il existe


nx tel que Px (Xnx A) > 0.
Ainsi = min{Px (Xnx A); x A} > 0 et n = max{nx ; x A} < +.
Pour tout x A, on a Px (T n) Px (Xnx A) . Mais si x A, on a
Px (T n) Px (T = 0) = 1 , donc finalement

x S Px (T n) .

Posons uk = Px (i nk, Xi A). Avec la proprit de Markov, on a

Px (i n(k + 1), Xi A|Xn ) = Px (i nk, Xi A)PXn (i n, Xi A)


Px (i nk, Xi A)(1 ),
194 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

do en rintgrant uk+1 (1 )uk , et, par rcurrence uk (1 )k . Ainsi


Px ( = +) Px ( > kn) (1 )k , donc en faisant tendre k vers linfini,
Px ( = +) = 0. Mais en fait, on a un peu plus,

Px ( > k) Px ( > nk/n) (1 )nk/n (1 )kn ,

donc la variable alatoire a une queue sous-exponentielle.

Solution 77 Quitte changer a et b, avec Bezout il existe u et v positifs


avec au bv = 1.
nu nv au bv n
=n = 1,
b a ab ab
donc il existe p entier avec nu
b
p nv
a
. On a alors lcriture

a(nu bp) + b(ap nv) = n.

B.11 Solutions des exercices sur la rcurrence


et les mesures invariantes
Solution 84 On peut aller en un coup de 3 vers 2, de 2 vers 1, de 1 vers 3 :
la chane est donc irrductible. Par ailleurs on peut aller en un coup de 1 vers
1, donc la chane est apriodique : il y a donc une unique mesure invariante,
E1 [N 1 ]
qui est donne par (y) = E1 [T1y] . Sous P1 , on a N1 = 1, N2 = 11{X1 =1} ,
N3 = 11{X1 =3 et T1 = X1 , ce qui nous donne E1 [N 1 ] = 1, E1 [N 2 ] = 2/3,
E1 [N 3 ] = 1/3, [E[T1 ] = 2 puis (1) = 21 , (2) = 13 , (3) = 16 .

Solution 85 Soit P = (pi,j ) la matrice de la chane. Comme i j, il existe


(n)
n entier naturel tel que pi,j > 0. Comme la mesure est invariante, on a
(n)
(j) = P (Xn = j) P (X0 = i, Xn = j) = (i)pi,j > 0.

Solution 86 1. La quantit jS pi,j |f (j)| est toujours bien dfinie,
ventuellement infinie. Cest lintgrale de la fonction j 7 |f (j)| par
rapport la mesure de probabilit qui aecte la valeur pi,j au point
j. On a donc 2

pi,j |f (j)| pi,j |f (j)|2 ,
jS jS

do 2

(i) pi,j |f (j)| pi,j (i)|f (j)|2 ,
jS jS
B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES195

et en sommant
2

(i) pi,j |f (j)| pi,j (i)|f (j)|2 ,
iS jS iS jS

Daprs le thorme de Tonelli des sries,


( )

pi,j (j)|f (j)| = 2
pi,j (i) |f (j)|2 = (j)|f (j)|2 = f 22, < +.
iS jS jS iS jS

( )2
En particulier, pour tout i S, on a (i) jS pi,j |f (j)| < +.
Si (i) > 0, cela entrane que la srie de terme gnral (pi,j f (j))j
converge absolument, donc converge, ce qui montre que (P f )(i) est
( )2
bien dfini. On a bien sr |(P f )(i)|2 p
jS i,j |f (j)| , do en
combinant avec les ingalits ci-dessus : P (f )2, |f 2, .
2 2

2. Pour tout j S, on a

(i)pi,j = (j)pj,i (j) (j)(j).1 = (j),
iS iS iS

donc P laisse invariante. De mme, pour tout j S, on a



(i)qi,j = (j)pj,i (j) (j)(j).1 = (j)
iS iS iS

et Q laisse invariante. Daprs la question prcdente, P f et P g sont


des lments de 2 (). Comme le produit de deux lments de 2 ()
est dans 1 (), les intgrales considres sont bien dfinies.

(f, g) 7 f (x)P g(x) d(x)

est une forme bilinaire sur 2 (). Cest aussi une forme continue car,
daprs Cauchy-Schwarz,

| f (x)P g(x) d(x)| f 2, P g2, f 2, g2, .

Il en est de mme pour (f, g) 7 g(x)Qf (x) d(x). Ainsi, lensemble
des (f, g) 2 () 2 () tels que

f (x)P g(x) d(x) = Qf (x)g(x)
196 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

est un ferm de 2 ()2 () muni de la topologie produit. Si on trouve


une partie D de 2 () telle que

f, g D f (x)P g(x) d(x) = Qf (x)g(x),

on aura gagn car lidentit se prolongera alors D D = D D =


2 () 2 ().

On a P j (x) = iS px,i j (i) = px,j , ce qui nous donne

i (x)P j (x) d(x) = i (x)px,j (x) = pi,j (i).
xS

De mme Qi (x) = qx,i et



j (x)Qi (x) d(x) = j (x)qx,i (x) = qj,i (j).
xS

Or par hypothse (i)pi,j = (j)qj,i , donc lquation est vrifie pour


f et g de la forme (i )iS . Par bi-linarit, elle est encore vrifie si f
et g sont dans lensemble D des suites support fini. Or cet ensemble
est dense dans 2 (), ce qui donne le rsultat voulu.
3. Soit j S.
(i)
Si (j) > 0, on doit ncessairement avoir qj,i = (j) pi,j

si (j) = 0, comme est invariante, on a (j) = k (k)pk,j
(i)pi,j , donc (i)pi,j = 0 pour tout i, ce qui fait que pour nim-
porte quel choix de qj,i , on aura (i)pi,j = 0 = (j)qj,i .
Ce dernier cas ne peut se produire si la chane est irrductible, car alors
charge tous les points : il y a donc unicit de lventuelle solution.
On fait ici le choix de poser qj,i = i,j si (j) = 0. Il reste voir quun
candidat ainsi construit nous donne bien une matrice markovienne.

Bien sr, les coecients sont tous positifs. Posons S(j) = iS qj,i . Si
(j) = 0, (j) = 1. Sinon,

(i) 1
S(j) = pi,j = (i)pi,j .
iS (j) (j) iS


Mais comme est invariante, iS (i)pi,j = (j), do S(j) = 1 :
Q = (qi,j ) est bien une matrice markovienne.
B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES197

4. Quelles que soient les fonctions mesurables f et g, on a

E[f (Xk )g(Xk+1 )] = E[f (Xk )P g(Xk )]


1
= f (x)P g(x) d(x)
0
1
= Qf (x)g(x) d(x)
0
= E[Qf (Xk+1 )g(Xk+1 )]

Ce qui entrane E[f (Xk )|Xk+1 ] = Qf (Xk+1 ). Soit n > gek. Daprs le
lemme de Doob, il existe une fonction F telle que E[f (Xk )|Xk+1 , . . . , Xn ] =
F (Xk+1 , . . . , Xn ). Montrons que F ne dpend que de sa premire
coordonne. Quitte changer despace de probabilit, on peut sup-
poser que (Xn ) est construite par une dynamique alatoire Xn+1 =
fn+1 (Xn ), o X0 suit la loi et (fn )n1 une suite de fonctions alatoires
indpendantes, indpendantes de X0 . Comme (fk+2 , . . . , fn ) est ind-
pendant de (f (Xk ), Xk+1 ), on a E[f (Xk )|Xk+1 ] = E[f (Xk )|Xk+1 , fk+2 , . . . , fn ].
Mais (Xk+1 , fk+2 , . . . , fn ) = (Xk+1 , Xk+2 , . . . , Xn ), donc on obtient

E[f (Xk )|Xk+1 , . . . Xn ] = E[f (Xk )|Xk+1 ] = Qf (Xk+1 ).

Si pour 0 k n, on pose Zk = Xnk , on a donc



E[f (Zk+1 )|Zk , . . . Z0 ] = Qf (Zk ),

ce qui montre que (Zk )0kn ) est une chane de Markov qui a le mme
oprateur de transition que (Xn )n0 . Comme la loi initiale est la mme,
on a lgalit en loi entre (Z0 , . . . Zn ) et (X0 , X1 , . . . , Xn ), soit donc
entre (Xn , Xn1 , X0 ) et (X0 , X1 , . . . , Xn ).
Si P = Q, le systme est alors rversible : on retrouve le fait que pour
une mesure initiale rversible, (Xn , Xn1 , X0 ) et (X0 , X1 , . . . , Xn ) ont
mme loi.
5. Daprs la question 3., on peut toujours construire une matrice mar-
kovienne conjugue P . La question 4. donne alors le rsultat voulu.

Solution 87 1. Notons Fm = (X0 , . . . , Xm ). T m prend a priori ses


valeurs dans N {+}. Pour tout entier k 1, on a

k1
{T m = k} = { 11A (Xk ) = m 1, Xk A} Fk ,
i=0

Donc T m est un temps darrt adapt la filtration (Fm )m0 . Mon-


trons par rcurrence que T m est Px -presque srement fini. Cest vrai
198 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

pour m = 0 et m = 1. Supposons T m1 < + Px -presque srement.


On a
{Tm < +} = {Tm1 < +, ; n 1; XTm1 +n A},
donc avec la proprit de Markov forte, on a Px presque srement
Px (Tm < +|FTm ) = Px (Tm1 < +)PXTm1 (; n 1; XTm1 +n A)
= 1.PXTm1 (T 1 < +) = 1,
et en rintgrant Px (Tm < +) = Ex [Px (Tm < +|FTm )] = 1, ce qui
montre par rcurrence la proprit voulue. Enfin, pour tout borlien
B, on a
{XT m B, T m n} = ni=1 {Xi B} {T m = i}.
Mais pour tout i entre 1 et n, {Xi B} {T m = i} Fi Fn ,
donc {XT m B, T m n} Fn , ce qui montre que {XT m B}
FT m . Comme cest vrai pour B borlien quelconque, XT m est FT m -
mesurable. On a vu en cours que T m tait FT m -mesurable. Mainte-
nant, si k m, comme T k T m , on a linclusion FT k FT k FT m , ce
qui entrane que pour k m, T k et XT k sont FT m -mesurables.
2. En utilisant la proprit de Markov forte, on a

+
Px (XT m+1 = y|FT m ) = Px (inf{i 1; XT m +i A} = n, XT m +n = y|FT m )
n=1

+
= PXT m (inf{i 1; Xi A} = n, Xn = y)
n=1
=P XT m
(XT 1 = y)
Ainsi, si on pose qx,y = Px (XT 1 = y), on a Px (XT m+1 = y|FT m ) =
qXT m ,y . Daprs la question prcdente, (XT 0 , . . . XT m ) est une sous-
tribu de FT m , donc
Px (XT m+1 = y|(XT 0 , . . . XT m )) = Ex (Px (XT m+1 = y|FT m )|(XT 0 , . . . XT m ))
= Ex (qXT m ,y |(XT 0 , . . . XT m ))
= qXT m ,y

3. Comme les (TAm )m1 sont tous les moments o (Xn ) passe dans A, le
premier moment (sil existe) o Xn vaut x est un Tk , do

+
Tx = (TAk+1 TAk )1
1{S>k} ,
k=0
B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES199

o S = inf{n 1; Yn = x}. Comme les termes sont positifs, on a



+
Ex (Tx ) = Ex [(TAk+1 TAk )1
1{S>k} ],
k=0

{S > k} = ki=1 {XTi = x},


donc {S > k} est FT k mesurable, comme intersection dvnements
FT k mesurables. On a donc
1{S>k} |FTk ] = 11{S>k} Ex [(TAk+1 TAk )|FTk ].
Ex [(TAk+1 TAk )1
Mais TAk+1 TAk = inf{n 1; XTAk +n A}, donc avec la proprit de
Markov forte, on a
XT k XT k
Ex [(TAk+1 TAk )|FTk ] = E A inf{n 1, Xn A} = E A TA1 .
Ainsi, si on pose = max{E x (T 1 ); x A}, on a Ex [(TAk+1 TAk )1
1{S>k} |FTk ]
1
1{S>k} , et en rintgrant
Ex [(TAk+1 TAk )1
1{S>k} ] Px (S > k),

do en faisant la somme Ex (T x ) + x x
k=0 P (S > k) = E (S). Mais
S est le temps de retour en x pour une chane de Markov irrductible
sur un espace dtat fini : il est donc intgrable, car une chane de
Markov irrductible sur un espace dtats fini est toujours rcurrente
positive. On a donc E x (Tx ) < +, ce qui montre que la chane (Xn )
elle-mme est rcurrente.

Solution 88 (a) On a

nT
f (XnT ) f (X0 ) = (f (Xi ) f (Xi1 ))
i=1
n
= 11{iT } (f (Xi ) f (Xi1 ))
i=1
n
= 11{i1<T } (f (Xi ) f (Xi1 ))
i=1

En prenant lesprance, on a

n ( )
E(f (XnT ) f (X0 )) = E 11{i1<T } (f (Xi ) f (Xi1 ))
i=1

n ( ( ))
= E E 11{i1<T } f (Xi ) f (Xi1 )|Fi1 ,
i=1
200 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

o lon a pos Fn = (X0 , . . . , Xn ). Mais


( )
E 11{i1<T } (f (Xi ) f (Xi1 )|Fi1 = 11{i1<T } E ((f (Xi ) f (Xi1 )|Fi1 )
1
1{i1<T } ,
ce qui en rintgrant donne lingalit voulue.
(b) On a pour tout n 1,

n
+
P(T > i 1) = P(T (n 1) > i 1) = E[T (n 1)],
i=1 i=1

do E(T (n 1)) Ef (X0 ) Ef (XT n ) Ef (X0 ), soit


Ef (X0 )
E(T (n 1)) .

En faisant tendre n vers linfini, on obtient par convergence mo-
notone E(T ) Ef (X

0)
.
1. On suppose E[f (X0 )] < +. On montre lintgrabilit de fM (Xi )1
(a) 1{i1<T }
par rcurrence sur i. Pour i = 0, cest vident Posons fM = f M .
Avec le thorme 68, on a

E[fM (Xi )1
1{i1<T } |Fi1 ] = 11{i1<T } E[fM (Xi )|Fi1 ] (B.1)
= 11{i1<T } (P fM )(Xi1 ) (B.2)

On en dduit

E[fM (Xi )1
1{i1<T } |Fi1 ] 11{i1<T } (P fM )(Xi1 )
f (Xi1 )11{i1<T } f (Xi1 )1
1{i2<T } ,

do en intgrant E([fM (Xi )1


1{i1<T } ) E[f (Xi1 )1
1{i2<T } ]. En
passant au sup en M , on obtient

E([f (Xi )1
1{i1<T } ) f (Xi1 )1
1{i2<T } < +.
Avec le thorme de convergence domine conditionnel,(B.1) en-
trane E[f (Xi )1
1{i1<T } |Fi1 ] = (P f )(Xi1 )1
1{i1<T } . Par linarit,
on a alors
( )
E 11{i1<T } (f (Xi ) f (Xi1 )|Fi1 = 11{i1<T } ((P f )(Xi1 ) f (Xi1 ))
1
1{i1<T } ,
et la preuve de 1) et 2) se poursuit sans modification notable,
puisquon a vrifi les intgrabilits plus subtiles.
B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES201

(b) Soit N > max(f (x); x M ). Si TN est le temps dentre dans


M = M {x E : f (x) N }, le 1.(a) nous donne pour tout n :
E(f (XnTN )) Ef (X0 ), do

N P(N < T, TN n) = E(f (XnT )1


1{N <T,TN n} )) Ef (X0 )

T est le temps dentre dune chane irrductible dans le com-


plmentaire dun ensemble fini : il est presque srement fini. En
faisant tendre n vers linfini, on obtient N P(N < T ) Ef (X0 ).
Maintenant

P (T = +) = P(T = +, TN < +) P(N < T ) (Ef (X0 ))/N.

En faisant tendre N vers linfini, on obtient P(T = +) = 0.


(c) Daprs la premire question Px (TM < +) pour tout x M ,
donc pour x M , on peut faire partir une chane (Xn ) de x et
construire avec lexercice prcdent la suite (Yn ) des sites de M
successivement visits. (Yn ) est une chane de Markov irrductible
dun espace dtat fini : elle est donc rcurrente et passe une infinit
de fois en x. Par suite, la chane (Xn ) elle-mme passe une infinit
de fois en x et donc ltat x est rcurrent. Si > 0, on a pour
tout x M , Ex TM < +, et donc avec lexercice prcdent x est
rcurrent positif. Comme la chane est irrductible la rcurrence
(ou la rcurrence positive) dun tat entrane celle de la chane
elle-mme.
202 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS
Annexe C

Problmes

C.1 Problme 1 : nombres de Stirling


Partie I Soit X0 une variable alatoire valeurs dans N, (Un )n1 une suite
de variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. On
suppose de plus que X0 est indpendante de (Un )n1 . On dfinit une suite
de variables alatoires (Xn )n0 par la donne de X0 et la rcurrence Xn+1 =
Ent(Un Xn ).
1. Montrer que lon obtient ainsi une chane de Markov.
Dans la suite, on notera PN la loi sur lespace canonique de la chane
de Markov associe cette dynamique qui vrifie PN (X0 = N ) = 1.
2. On note T = inf{n 0; Xn = 0}. Montrer que PN (T < +) = 1.
3. On note n la fonction gnratrice de T sous la loi Pn , cest dire
n (x) = En [xT ]. laide de la proprit de Markov, tablir la formule
de rcurrence

x n1
n (x) = i (x).
n i=0
4. Montrer que

n 0 x [0, 1] n (x) = Pn (x),

o la suite de polynmes (Pn )n0 est dfinie par P0 = 1 et Pn (X) =


X(X+1)...(X+n1)
n!
pour n 1.
[ ]
n
5. On dfinit les nombres de Stirling de premire espce par lidentit
k
[ ]

n
n
X(X 1) . . . (X n + 1) = X k.
k=1
k

203
204 ANNEXE C. PROBLMES

Montrer que [ ]
(1)n+k n
P (T = k) =
n
.
n! k
6. Montrer que pour tout n 1, on a

n
1
En [T ] = .
k=1 k

Partie II On a N cartes avec des chires numrots de 1 N . On tire


au hasard une premire carte et on la garde. Ensuite, on tire au hasard les
cartes, et si le chire est infrieur la premire carte, on la garde, sinon, on
la jette. Et ainsi de suite, on jette toute carte de valeur suprieure la plus
grande des cartes tires prcdemment, jusqu puisement du paquet. On
sintresse au nombre final F de cartes gardes.
1. Montrer comment on peut modliser le problme laide de la loi
uniforme sur S(N ), avec
F () = |{i {1, . . . , N }; j < i = (i) < (j)}|.
2. On dfinit une suite (Zn )n0 par rcurrence comme suit :
On pose Z0 = N et pour k 1,
Zk = min((1), (2), . . . , (k)) 1,
avec la convention (i) = + pour i > N .
Montrer que n N j {0, . . . , N }
1 N n Zn
P(Zn+1 = j|(1), . . . , (n)) = 11{j<Zn } + 11{j=Zn } .
N n N n
En dduire que (Zn )n0 est une chane de Markov.
3. On dfinit la suite (Tk )kN par rcurrence comme suit : on pose T0 = 0
et
Tk+1 = Tk + 11{ZTk >0} min{n 0, ZTk +n = ZTk },
avec la convention 0. = 0. Montrer que la suite (ZTk )k0 a la mme
loi que la suite (Xn )n0 tudie en I sous la loi PN .
4. Montrer que F = inf{k 1; ZTk = 0}.
5. Montrer que {F = k} est en bijection avec les lments de S(N )
possdant exactement k cycles.
6. Dmontrer alors linterprtation combinatoriale
[ ] des nombres de Stir-
n
ling de premire espce : (1)n+k est le nombre de permutations
k
de n objets ayant exactement k cycles.
C.2. PROBLME 2 : THORME DERDS-FELLER ET POLLARD205

C.2 Problme 2 : thorme dErds-Feller et


Pollard
Processus de renouvellement
Soit (Un )n1 une suite de variables alatoires indpendante suivant la loi .
On suppose que pgcd(n 1; (n 1) > 0) = 1. Soit une loi quelconque
sur N. On dfinit une suite (Xn )n0 par la donne de X0 suivant la loi et
indpendante de (Un )n1 , puis, pour n 0

U si Xn = 0
n+1
Xn+1 =
Xn 1 sinon

1. Montrer que (Xn )n0 est une chane de Markov de loi initiale . crire
sa matrice.
2. Montrer que la chane est irrductible et apriodique.
3. La chane est-elle transiente, rcurrente ?
4. Montrer que

k N P (X1 = k) = (k + 1) + (0)(k).

5. Montrer que si (0) = 0, alors la chane nest pas stationnaire.


6. Pour k 0, on note

Tk = inf{n 1; Xn = k}.

Montrer que sous P0 , T0 et 1 + X1 ont mme loi.


7. En utilisant les questions prcdentes, montrer que si la chane admet
une mesure invariante, alors admet un moment dordre 1 et on a la
1
relation (0) = 1+E[U 1]
.
8. Rciproquement, montrer que si admet un moment dordre 1, alors
la chane admet une mesure invariante.
Indication : on pourra considrer la mesure dfinie par

P(U1 k)
(k) = .
1 + E[U1 ]

n1
9. Montrer que si admet un moment dordre 1, la suite n1 k=0 Xk
converge presque srement vers une limite que lon dterminera.
206 ANNEXE C. PROBLMES

10. On pose pk = P0 (T0 = k) et qk = P0 (Xk = 0). tablir la rcurrence



n
q0 = 1 et n 1 qn = pk qnk

.
k=1

11. Dmontrer le thorme de Erds, Feller et Pollard : Soient X1 , . . . , Xn . . .


des variables alatoires indpendantes identiquement distribues avec
P(X1 = k) = pk . On suppose que 0 < E[X1 ] < + et que le pgcd des
lments du support de X1 est 1. On note Sn = X1 + X2 + + Xn et


+
Nk = 11{Sn =k} .
n=1

Alors, si on pose


+
1
+
z BF (0, 1) P (z) = pn z n et z B(0, 1) Q(z) = = qn z n ,
n=0 1 P (z) n=0

on a E[Nk ] = qk et lim qk = 1
E[X1 ]
.
k+
Annexe D

Solutions des problmes

D.1 Solution du problme 1


Partie I
1. La rcurrence scrit Xn+1 = F (Xn , Un ), avec (Un )n0 iid et indpen-
dant de X0 , avec F (x, y) = Ent(x, y)
2. Si Xn > 0, on a presque srement Un Xn < Xn , or Xn est entier, donc
Xn+1 = Ent(Un Xn ) < Xn Xn 1, do T X0 = N et on a bien
PN (T < +) = 1.
3. Pour tout n, on a Pn (0 X1 < N ) = 1, donc


n1
En [xT ] = En [1
1{X1 =i} xT ]
i=0

n1
= 1{X1 =i} x1+T ]
En [1
i=0

n1
= En [(1
1{X1 =i} x)xT ]
i=0

n1
= En [(1
1{X1 =i} x]Ei [xT ]
i=0

n1
= xPn (X1 = i)i (x)
i=0

x
n1
= i (x)
n i=0

4. Preuve par rcurrence.

207
208 ANNEXE D. SOLUTIONS DES PROBLMES

5. Pn (x) = n (x) = En [xT ] = nk=0 Pn (T = k)xk , donc Pn (T = k) est le
coecient en xk du polynme Pn (x). Mais comme
[ ]

n
n
X(X 1) . . . (X n + 1) = X k,
k=1
k

par substitution
[ ]

n
n
(X)(X 1) . . . (X n + 1) = (1)k X k ,
k=1
k

et en multipliant par (1)n :


[ ]

n
n
X(X + 1) . . . (X + n 1) = (1)n+k X k ,
k=1
k

ce qui nous permet didentifier le coecient voulu et donne bien


[ ]
(1)n+k n
P (T = k) =
n
.
n! k

6. Daprs les proprits de la fonction gnratrice, on a


En [T ] = n (1) = Pn (1). Or

Pn
n1
1 P (1) n1
1 n
1
= , donc n = = ,
Pn i=0 X + i Pn (1) i=0 1 + i k=1 k

Comme Pn (1) = 1, on a donc finalement



n
1
En [T ] = .
k=1 k

Partie II
1. F () est le nombre de records descendants de la permutation .
2. On a
P((n + 1) = an+1 |(1) = a1 , . . . , (n) = an )
|{ SN : (1) = a1 , . . . , (n + 1) = an+1 }|/N !
=
|{ SN : (1) = a1 , . . . , (n) = an }|/N !
(N (n + 1))!
= 11{an+1 {a1 ,...,an }}
(N n)!
1
= 11{a {a ,...,a }}
N n n+1 1 n
D.1. SOLUTION DU PROBLME 1 209

Notons m = min(a1 , . . . , an ). Si j = m 1,

P(Zn+1 = j|(1) = a1 , . . . , (n) = an )


= P(Xn+1 > m|(1) = a1 , . . . , (n) = an )

= P(Xn+1 = a|(1) = a1 , . . . , (n) = an )
a>m,a{a1 ,...,an }
N m (n 1) N nj
= =
N n N n
et si j < m 1, on a

P(Zn+1 = j|(1) = a1 , . . . , (n) = an )


= P(Xn+1 = j + 1|(1) = a1 , . . . , (n) = an )
1
= ,
N n
ce qui donne lidentit
1 N n Zn
P(Zn+1 = j|(1), . . . , (n)) = 11{j<Zn } + 11{j=Zn } .
N n N n
La tribu Fn engendre par Z1 , . . . Zn est une sous-tribu de la tribu
engendre par (1), . . . (n), donc

P[Zn+1 = j|Fn ] = E[P(Zn+1 = j|(1), . . . , (n))|Fn ]


1 N n Zn
= E[ 11{j<Zn } + 11{j=Zn } |Fn ]
N n N n
1 N n Zn
= 11{j<Zn } + 11{j=Zn }
N n N n
= pZn ,j ,

avec pi,j = N 1n11{j<i} + NNni11


n {j=i}
, ce qui montre que (Zn )n0 est une
chane de Markov.
3. 0 est lunique point absorbant de la chane (Zn )n0 . Yk = ZTk est
la suite (Zn )n0 observe quand elle bouge ou est morte (voir exer-
cice 89). Ainsi, (Yk )k0 est une chane de Markov de matrice (qi,j )
donne par


si i = 0

0,j
qi,j = 0, si i = j > 0 ,



pi,j
1pi,i
si i > 0, i = j
210 ANNEXE D. SOLUTIONS DES PROBLMES

ce qui nous donne ici



0,j
si i = 0
qi,j = 0, si j i > 0 .
1
i
si i > 0, j < i

4. La chane (Zn ) bouge losquelle descend : le nombre de mouvements


est donc le nombre de records descendants.
5. Soient r1 , r2 , . . . rk les k records de : on peut associer la permu-
tation = (1 = r1 . . . r2 1)(r2 . . . r3 1) . . . (rk . . . N ).
On retrouve les rk , et donc , partir de : rk = (1), rk1 = (rk ),
rk2 = (rk1 ), . . . . Ainsi 7 est injective.
Voyons la surjectivit. Je pose rk = 1, rk1 = min{1, . . . N }\O (rk ),
rk2 = min{1, . . . N }\(O (rk1 ) O (rk )),. . . on associe la permu-
tation
( )
12 . . . . . . . . . . . . ............ ... .........N
r1 (r1 ) 2 (r1 ) . . . r2 (r2 ) 2 (r2 ) . . . . . . rk (rk ) . . .

Cest la rciproque.
6. Daprs la question II.3., comme (Xn )n0 a la mme loi que (Yn ))n0 ,
F a la mme loi que T . Do avec I.5 :
[ ]
(1)N +k N
P(F = k) = PN (T = k) = .
N! k
[ ]
N +kN
Donc (1) est le nombre de permutations avec k records,
k
donc daprs II.5 le nombre de permutations possdant exactement k
cycles.

D.2 Solution du problme 2


1. Si lon pose fn (x) = x 1 + (1 x + Un )0 (x), (fn ) est une suite de
fonctions indpendantes identiquement distribues, indpendantes de
X0 et on a Xn+1 = fn+1 (Xn ). (Xn )n0 est donc une chane de Markov
de loi initiale PX0 = . La loi de Xn+1 sachant Xn = x est x1 si
D.2. SOLUTION DU PROBLME 2 211

x > 0, sinon, ce qui donne la matrice de passage :



(0) (1) (2) . . . . . . . . .
1 ... ... ... ...
0

..
0 1 .

.. .. .. ..
. . . .

.. ... ... ...
.

2. Soit n N . 0 x car P0 (X1 = n) = (n) > 0. Dautre part, n 0


car Pn (X1 = n 1, X2 = n 2, . . . , Xn = 0) = 1. La chane est donc
irrductible. Comme la chane est irrductible, elle admet la priode
de 0 comme priode, mais la priode de 0 est 1 car P0 (X1 = 0) =
(0) > 0.
3. Notons A = {k 1; Xk = 0}. On a vu que pour tout n > 0,
Pn (X1 = n 1, X2 = n 2, . . . , Xn = 0) = 1 On en dduit que pour
tout n > 0 Pn (A) = 1. Maintenant

+
P0 (A) = P0 (X1 = j; k 1; Xk = 0)
j=0

+
= P0 (X1 = 0) + P0 (X1 = j; k 2; Xk = 0)
j=1

+
= P0 (X1 = 0) + P0 (X1 = j)Pj (A)
j=1

Mais on a vu que pour tout j > 0, Pj (A) = 1, donc finalement



+
P (A) =
0
P0 (X1 = j) = 1,
j=0

ce qui montre que 0 est rcurrent. Comme la chane est irrductible, la


chane est donc rcurrente. Elle nest donc videmment pas transiente.
4. Pour tout j / {0, k + 1},

P (X0 = j, X1 = k) = (j)Pj (X1 = k) = j j1 (k) = 0.

On a donc

P (X1 = k) = P (X0 = 0, X1 = k) + P (X0 = k + 1, X1 = k)


= (0)P0 (X1 = K) + (k + 1)Pk+1 (X1 = k)
= (0)(k) + (k + 1)
212 ANNEXE D. SOLUTIONS DES PROBLMES

5. La chane est stationnaire si et seulement si PX 1 = . Daprs la


question prcdente, est stationnaire si et seulement si

k N (k) = (0)(k) + (k + 1).

Si la chane tait stationnaire avec (0) = 0, on aurait

k N (k) = (k + 1),

ce qui donne par rcurrence k N (k) = 0 : contradiction.


6. En fait sous P0 , on a T0 = 1 + X1 . En eet, si X1 = 0, on a T0 =
1 = 1 + X1 . Dautre part si X1 = k, avec k > 0, on a : X2 =
k 1, X3 = k 2, . . . , Kk = k (k 1) = 1, Xk+1 = k k = 0, do
T0 = k + 1 = X0 + 1.
7. Comme la chane de Markov est irrductible, si elle admet une pro-
babilit invariante , on a ncessairement (0) = E01T0 . Mais on a vu
que si la chane admettait une probabilit invariante , on aurait n-
cessairement (0) > 0. Cela impose que E0 T0 < +. Mais comme on
la vu, 1 + X1 et T0 ont mme loi sous P 0 . Donc (E0 T0 < +)
(E0 1 + X1 ) < +) E0 X1 < +, ce qui signifie que admet
un moment dordre 1. Dautre part, on a bien
1 1
(0) = = .
E0 T0 1 + EX1
8. Considrons la mesure dfinie par
P(X1 k)
(k) = .
1 + EX1
Montrons que est une probabilit : elle est videmment positive et
1
+
(k) = P(X1 k)
k0 1 + EX1 k=0
1
+
= P(1 + X1 > k)
1 + EX1 k=0
1
= E(1 + X1 )
1 + EX1
= 1

Il reste vrifier que

k N (k) = (0)(k) + (k + 1),


D.2. SOLUTION DU PROBLME 2 213

cest dire que


1
k N (k) = (k) + (k + 1),
E(1 + X1 )

en multipliant par E(1 + X1 ), on se ramne vrifier la condition


quivalente :

k N P(X1 k) = (k) + P(X1 k + 1),

soit
k N P(X1 k) = P(X1 = k) + P(X1 k + 1),
ce qui est vident car X1 est valeurs entires.
9. Si a un moment dordre 1, on a vu que la chane de Markov est
irrductible, de loi invariante , et on peut appliquer le thorme er-
godique des chanes de Markov : X1 ++X
n
n
converge presque srement
(quelque soit la loi initiale) vers R+ x d(x).
10. Si Xn = 0, on a T0 n. Ainsi les vnements ({T0 = k} {Xn =
0})1kn forment une partition de {Xn = 0}. On a donc

n
P0 (Xn = j) = P0 (T0 = k, Xn = 0)
k=1
n
= P0 (T 0 = k, Xn = j)
k=1
n
= P0 (T0 = k)Pj (Xnk = 0)(proprit de Markov forte)
k=1

On applique ici la proprit de Markov forte avec le temps darrt T0 .



11. Prliminaire : si f (z) = + n
n=0 an z est une srie entire de rayon de
convergence R, alors pour tout r ]0, R[ et tout entier naturel k,
on a

1 2
ak = rk f (rei )eik d.
2 0
Cela peut tre vu comme une version simple de la formule de Cauchy,
mais on peut aussi le voir simplement partir de lidentit


+
f (rei )eik = an rn ei(nk) .
n=0
214 ANNEXE D. SOLUTIONS DES PROBLMES

En eet


N
+
| rn ei(nk) | |an |rn
n=0 n=0

et on peut appliquer le thorme de convergence domine, puisque la



fonction constante + n=0 |an |r est bien sr intgrable sur [0, 2].
n

La fonction gnratrice de X1 est P , donc par indpendance, la fonc-


tion gnratrice de Sn est P (z)n , soit


+
P (z)n = P(Sn = k)z k ,
k=0

avec la remarque prcdente, pour r ]0, 1[ quelconque, on a

k 1 2
P(Sn = k) = r P (rei )n eik d.
2 0
Avec lingalit triangulaire, on a

+
+
|P (rei )| pn r n pn 1n = 1,
n=0 n=0

car pn rn pn 1n pour tout n, mais il existe au moins un n 1 tel que



pn = 0 et donc pn rn < pn 1n : finalement + n
n=0 pn r = P (r) < 1.
On peut donc crire :
1

N
k 1 2 1 P (rei )N ik
P(Sn = k) = r e d.
n=0 2 0 1 P (rei )
Il ny a pas de problme dintgrabilit : |1P (rei )| 1|P (rei )|
1 P (r) > 0. En faisant tendre N vers linfini (par exemple conver-
gence domine, ou la main), on obtient


+
1 2 k 1
P(Sn = k) = r eik d
n=0 2 0 1 P (re ) i
2
k 1
= r Q(rei )eik d
2 0
= qk .

Avec Tonelli, on a alors



+
+
E[Nk ] = E[1
1{Sn =k} ] = P(Sn = k) = qk .
n=1 n=1
D.2. SOLUTION DU PROBLME 2 215

Reste tudier le comportement asymptotique. On sintresse dabord


au cas o p0 = 0.
Posons pour n N, (n) = pn+1 . On a pgcd(n 1; (n 1) >
0) = pgcd(n 1; pn > 0) = 1, donc on peut appliquer les questions
prcdentes. On avait remarqu que la suite (pk ) vrifie pk = (k 1),
donc on a en fait pk = pk pour tout k. Montrons que qn = qn pour
tout n : on a lidentit (1 P (z))Q(z) = 1, soit Q(z) = 1 + P (z)Q(z).
En identifiant les coecients (produit de Cauchy), on a


n
qn = 0 (n) + pk qnk .
k=0

q0 = Q(0) = 1
1P (0)
= 1
1p0
= 1
10
= 1. Pour n 1, on a

n
qn = pk qnk
k=1

Comme

n
n
qn = pk qnk

=
pk qnk ,
k=1 k=1
il est alors facile de montrer par rcurrence que qn = qn pour tout
n. Or, daprs le thorme de convergence des chanes de Markov
irrductibles,
1 1 1
lim qn = (0) = = = ,
n+ 1 + E[U1 ] E[(1 + U1 )] E[X1 ]
ce qui dmontre le thorme de Erds, Feller et Pollard dans le cas o
p0 = 0.
Passons au cas gnral. On pose p0 = 0 et pk = 1ppk
0
pour k 1. Les
(pk ) dfinissent bien une probabilit sur N, qui vrifie les hypothses
de la partie prcdente : si on pose

+
1
+
z BF (0, 1) P (z) = pn z n et z B(0, 1) Q(z) = = qn z n ,
n=0 1 P (z) n=0

on a lim qk = 1
E[X1 ]
, avec P(X1 = k) = pk . On a facilement E[X1 ] =
k+
E[X1 ] 1p0
1p0
, do lim qk = E[X1 ]
Cependant P (z) = p0 +(1+p0 )P (z), do
k+
1 1
Q(z) = 1p0
Q(z), ce qui entrane qn = q .
1p0 n
Finalement, on a bien
1
lim qk = E[X1 ]
.
k+
216 ANNEXE D. SOLUTIONS DES PROBLMES
Bibliographie

[1] M. Briane and G. Pags. Thorie de lintgration. Ellipses, Vuibert, 2009.


[2] O. Garet and A. Kurtzmann. De lintgration aux probabilits. Ellipses,
Paris, 2011.
[3] Francis Hirsch and Gilles Lacombe. lments danalyse fonctionnelle.
Enseignement des Mathmatiques. Masson, Paris, 1997. Cours et exer-
cices.
[4] W. Rudin. Analyse relle et complexe. Masson, Paris, 1980.
[5] Daniel W. Stroock. Probability theory. Cambridge University Press, Cam-
bridge, second edition, 2011. An analytic view.

217
Index

chantillonneur de Gibbs, 62 de HoedingAzuma, 70


tat essentiel, 150 de Jensen, 26
invariante, 140
accessible, 121 irrductible, 121
analyse au premier pas, 124
apriodique, 122 Jensen (ingalit de), 26

chane LaplaceBernoulli (modle de), 158


observe quand elle bouge, 155 lemme de Doob, 27, 54, 82, 197
rcurrente positive, 148 lemme de Fatou, 12
trace, 154 loi binomiale ngative, 158
chane de Markov, 115 loi dun processus, 101
chane rcurrente, 140 Loi de Pascal, 158
chane rversible, 158 loi des grands nombres L1 , 17
classe absorbante, 151 loi hypergomtrique, 76
convergence L1 des martingales, 49 Lyapunov (fonction de), 154
dominante privilgie, 80 marche alatoire, 156
Doob (lemme de), 27, 54, 82, 197 matrice stochastique, 117, 120, 121
Maurey (principe de), 73
EfronStein (ingalit de), 69 mesure
Ehrenfest (modle d), 156 invariante, 140
qui-intgrable, 11 rversible, 140
Fatou (lemme de), 12 mesure absolument continue, 63
modle
Gibbs (chantillonneur, 62 dEhrenfest, 156
de LaplaceBernoulli, 158
Harris (ingalit de), 74
HoedingAzuma (ingalit de), 70 oprateur markovien, 118, 153

ingalit priode, 122


dEfronStein, 69 principe de Maurey, 73
de Harris, 74 proprit de Markov

218
INDEX 219

forte, 135
simple, 123

rcurrent, 137
rcurrent nul, 147
rcurrent positif, 147, 148
rversible, 140
retournement du temps, 153

stochastique (matrice), 117, 120, 121

temps darrt, 40, 135


thorme de Foster, 155
thorme de Radon-Nikodm, 64, 66
thorme de Vitali, 13
trace dune chane, 154
transient, 137

uniformment intgrable, 11

Vitali (thorme de), 13

Vous aimerez peut-être aussi