Vous êtes sur la page 1sur 257

UNIVERSIT DE LORRAINE

Olivier GARET

Probabilits et Processus Stochastiques


VERSION DE TRAVAIL DU 11 janvier 2016

Table des matires


Table des matires

Table des matires

0 Variables de Bernoulli
0.1 La question de lexistence : de [0, 1] {0, 1}N . .
0.2 De {0, 1}N [0, 1] : o lon a envie des processus
0.3 Ingalits ; lois des grands nombres . . . . . . .
0.4 Variables de Rademacher et sries de Dirichlet .
0.4.1 Une srie de Dirichlet alatoire . . . . .
0.4.2 Comportement au bord . . . . . . . . . .
0.5 Exercices sur les variables de Bernoulli . . . . .
0.5.1 Exercices corrigs . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

1
1
3
4
6
6
7
9
9

.
.
.
.
.
.
.
.
.

11
11
13
13
14
14
15
16
16
16

.
.
.
.

19
19
20
23
26

1 qui-intgrabilit
1.1 Premires proprits . . . . . . . . . . . . .
1.2 Application la convergence dans Lp . . . .
1.3 Une condition susante dqui-intgrabilit
1.4 Une version du lemme de Sche . . . . . .
1.5 Caractrisation par lqui-continuit . . . . .
1.6 qui-intgrabilit dune famille de lois . . .
1.7 Exercices sur lqui-intgrabilit . . . . . . .
1.7.1 Exercices corrigs . . . . . . . . . . .
1.7.2 Exercices non corrigs . . . . . . . .
2 Esprance conditionnelle
2.1 Motivation . . . . . . . . .
2.2 construction . . . . . . . .
2.2.1 Proprits . . . . .
2.2.2 Ingalit de Jensen

.
.
.
.

.
.
.
.
i

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.

ii

TABLE DES MATIRES


2.2.3

2.3

Esprance conditionnelle sachant une variable


vecteur) alatoire . . . . . . . . . . . . . . . .
Le cauchemar des conventions dcriture . . .
Des techniques de calculs utiles . . . . . . . .
Exercices sur lesprance conditionnelle . . . . . . . .
2.3.1 Exercices corrigs . . . . . . . . . . . . . . . .
2.3.2 Exercices non corrigs . . . . . . . . . . . . .

3 Martingales
3.1 Dfinitions . . . . . . . . . . . . . . . . . . . . .
3.1.1 Filtrations et martingales . . . . . . . .
3.1.2 Dirences de martingales . . . . . . . .
3.1.3 Sous-martingales, sur-martingales . . . .
3.2 Premires ingalits . . . . . . . . . . . . . . . .
3.2.1 Martingales et fonctions convexes . . . .
3.2.2 Ingalit de Kolmogorov . . . . . . . . .
3.3 Convergence des martingales de carr intgrable
3.4 Temps darrts . . . . . . . . . . . . . . . . . .
3.5 Convergence des martingales bornes dans L1 .
3.5.1 Thorme des traverses montantes . . .
3.5.2 Le thorme de convergence de Doob . .
3.5.3 Martingales inverses . . . . . . . . . . .
3.6 Approximation L1 par des martingales . . . . .
3.7 Dcomposition de Doob (*) . . . . . . . . . . .
3.8 Exercices sur les martingales . . . . . . . . . . .
3.8.1 Exercices corrigs . . . . . . . . . . . . .
3.8.2 Exercices non corrigs . . . . . . . . . .
4 Complments de thorie de la mesure
4.1 Rappels de topologie . . . . . . . . . . .
4.1.1 Topologie produit . . . . . . . . .
4.1.2 Espaces polonais . . . . . . . . .
4.2 Notion de loi conditionnelle . . . . . . .
4.2.1 Le thorme gnral . . . . . . .
4.2.2 Loi dun vecteur sachant un autre
4.2.3 chantillonneur de Gibbs . . . .
4.3 Thorme de RadonNikodm . . . . . .
4.4 Exercices sur les complments . . . . . .
4.4.1 Exercices corrigs . . . . . . . . .
4.4.2 Exercices non corrigs . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

(ou un
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.

27
27
28
31
31
31

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

35
35
35
36
36
37
37
37
38
40
43
43
45
46
47
49
51
51
53

.
.
.
.
.
.
.
.
.
.
.

57
57
57
58
61
61
65
67
70
73
73
73

TABLE DES MATIRES


5 Ingalits
5.1 Ingalit dEfronStein . . . . .
5.2 Lingalit de HoedingAzuma
5.2.1 Le thorme . . . . . . .
5.2.2 Principe de Maurey . . .
tude dun exemple . . .
5.3 Ingalit de Harris . . . . . . .
5.4 Exercices sur les ingalits . . .
5.4.1 Exercices corrigs . . . .
5.4.2 Exercices non corrigs .

iii

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

75
75
76
76
79
80
80
82
82
83

6 Statistiques exhaustives
6.1 Hypothse de domination dominante privilgie
6.2 Thorme de factorisation de Neyman-Fisher . . .
6.3 Amlioration de Rao-Blackwell . . . . . . . . . .
6.4 Statistiques exhaustives minimales . . . . . . . .
6.5 Statistiques compltes . . . . . . . . . . . . . . .
6.6 Modles exponentiels . . . . . . . . . . . . . . . .
6.7 Exercices sur les statistiques exhaustives . . . . .
6.7.1 Exercices corrigs . . . . . . . . . . . . . .
6.7.2 Exercices non corrigs . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

85
86
87
91
91
92
94
96
96
96

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

99
99
101
102
102
103
105
105
105

.
.
.
.
.
.
.
.

107
. 107
. 109
. 111
. 111
. 112
. 114
. 114
. 115

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

7 Information de Fisher
7.1 Hypothses . . . . . . . . . . . . . . . . . . .
7.2 Ingalit de Cramer-Rao . . . . . . . . . . . .
7.3 Quelques proprits . . . . . . . . . . . . . . .
7.3.1 Information de Fisher dun produit . .
7.3.2 Information de Fisher dune statistique
7.4 Exercices sur linformation de Fisher . . . . .
7.4.1 Exercices corrigs . . . . . . . . . . . .
7.4.2 Exercices non corrigs . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

8 Loi dun processus


8.1 Loi dun processus . . . . . . . . . . . . . . . . .
8.2 Thorme dexistence de Kolmogorov . . . . . . .
8.2.1 Loi produit infini ; variables indpendantes
8.2.2 Loi markovienne . . . . . . . . . . . . . .
8.3 Processus rels stationnaires (temps discret) . . .
8.4 Processus gaussiens . . . . . . . . . . . . . . . . .
8.4.1 Caractrisation . . . . . . . . . . . . . . .
8.4.2 Condition dexistence . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

iv

TABLE DES MATIRES

8.5

8.4.3 Processus gaussiens stationnaires


Exercices sur les processus . . . . . . . .
8.5.1 Exercices corrigs . . . . . . . . .
8.5.2 Exercices non corrigs . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

9 Chanes de Markov
9.1 Dfinition et caractrisations . . . . . . . . . . . . . .
9.1.1 Dfinition . . . . . . . . . . . . . . . . . . . .
9.1.2 Caractrisation par lesprance conditionnelle
9.1.3 Dynamique markovienne . . . . . . . . . . . .
9.2 Matrice stochastique . . . . . . . . . . . . . . . . . .
9.2.1 Existence des chanes de Markov . . . . . . .
9.2.2 Point de vue fonctionnel (*) . . . . . . . . . .
9.2.3 Puissances des matrices stochastiques . . . . .
9.2.4 Graphe associ une matrice stochastique . .
9.3 Proprit de Markov . . . . . . . . . . . . . . . . . .
9.3.1 Le thorme . . . . . . . . . . . . . . . . . . .
9.3.2 Analyse au premier pas . . . . . . . . . . . . .
9.4 Exercices sur les chanes de Markov . . . . . . . . . .
9.4.1 Exercices corrigs . . . . . . . . . . . . . . . .
9.4.2 Exercices non corrigs . . . . . . . . . . . . .

.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

123
. 123
. 123
. 123
. 124
. 125
. 125
. 127
. 128
. 129
. 131
. 131
. 132
. 134
. 134
. 134

10 Rcurrence et mesures invariantes


10.1 Temps darrt et proprit de Markov forte . . . . . . . . . .
10.2 Classification des tats . . . . . . . . . . . . . . . . . . . . .
10.3 Mesures invariantes . . . . . . . . . . . . . . . . . . . . . . .
10.4 Thorme de la probabilit stationnaire . . . . . . . . . . . .
10.5 Thorme ergodique des chanes de Markov . . . . . . . . .
10.5.1 Convergence presque sre des frquences empiriques .
10.5.2 Frquences empiriques et probabilits invariantes . .
10.5.3 Calcul dune mesure invariante partir de la loi des
trajectoires issues dun point . . . . . . . . . . . . . .
10.6 Retour la classification des tats (*) . . . . . . . . . . . . .
10.7 Algorithme de Propp et Wilson . . . . . . . . . . . . . . . .
10.7.1 Loi 0-1 pour lalgorithme de Propp et Wilson . . . .
10.7.2 Algorithme de Propp et Wilson pour des dynamiques
monotones . . . . . . . . . . . . . . . . . . . . . . . .
10.8 Exercices sur la rcurrence et les mesures invariantes . . . .
10.8.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . .
10.8.2 Exercices non corrigs . . . . . . . . . . . . . . . . .

116
117
117
119

143
. 143
. 146
. 149
. 152
. 155
. 155
. 156
.
.
.
.

159
160
162
164

.
.
.
.

164
167
167
169

TABLE DES MATIRES


A Indications
A.1 Exercices
A.2 Exercices
A.3 Exercices
A.4 Exercices
A.5 Exercices
A.6 Exercices
A.7 Exercices
A.8 Exercices
A.9 Exercices
A.10 Exercices
A.11 Exercices

sur
sur
sur
sur
sur
sur
sur
sur
sur
sur
sur

les variables de Bernoulli .


lqui-intgrabilit . . . . .
lesprance conditionnelle .
les martingales . . . . . . .
les complements . . . . . .
les ingalits . . . . . . . .
les statistiques exhaustives
linformation de Fisher . .
les processus . . . . . . . .
les chanes de Markov . . .
la rcurrence et les mesures

B Solutions des exercices corrigs


B.1 Exercices sur les Bernoulli . . . . . . . .
B.2 Exercices sur lqui-intgrabilit . . . . .
B.3 Exercices sur lesprance conditionnelle .
B.4 Exercices sur les martingales . . . . . . .
B.5 Exercices sur les complments . . . . . .
B.6 Exercices sur les ingalits . . . . . . . .
B.7 Exercices sur les statistiques exhaustives
B.8 Exercices sur linformation de Fisher . .
B.9 Exercices sur les processus . . . . . . . .
B.10 Exercices sur les chanes de Markov . . .
B.11 Exercices sur la rcurrence et les mesures

. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
invariantes

. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
invariantes

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

173
. 173
. 173
. 174
. 175
. 177
. 177
. 178
. 179
. 180
. 182
. 184

.
.
.
.
.
.
.
.
.
.
.

187
. 187
. 188
. 191
. 195
. 201
. 202
. 205
. 206
. 209
. 215
. 217

C Problmes
225
C.1 Problme 1 : nombres de Stirling . . . . . . . . . . . . . . . . 225
C.2 Problme 2 : thorme dErds, Feller et Pollard . . . . . . . . 227
C.3 Problme 3 : thorme de De FinettiHewittSavage . . . . . 228
D Solutions des problmes
D.1 Solution du problme 1 . . . . . . . . . . . . . . . . . . . . .
D.2 Solution du problme 2 . . . . . . . . . . . . . . . . . . . . .
D.3 Solution du problme 3 . . . . . . . . . . . . . . . . . . . . .

231
. 231
. 234
. 240

Bibliographie

247

Index

248

vi

TABLE DES MATIRES

Chapitre 0
La premire gorge de
processus : les variables de
Bernoulli
Le premier processus que nous allons tudie est celui form par une
suite de variables de Bernoulli indpendantes. Cest un modle simple, mais
susamment riche pour permettre de voir, ou revoir, un certain nombre de
questions importantes de la thorie des probabilits.

0.1

La question de lexistence : de [0, 1] {0, 1}N

La premire question est la question de lexistence. Est-on capable de fabriquer un espace probabilis (, F, P) sur lequel vivent une suite de variables
indpendantes ? La rponse, positive, est donne par le thorme suivant :
Thorme 1. Soit g 2 un entier naturel fix.
On considre lespace probabilis (, F, P) = ([0, 1[, B([0, 1[), [0,1[ ).
Soit g 2 un entier. On pose X0g () = . On dfinit les variables Agi
g
et Xig par les rcurrences Xig = {gXi1
} et Agi = gXi . Alors, pour tout
[0, 1[, on a
= X0 () =

i=0

Agi ()
avec Agi {0, 1, . . . , g 1}.
i+1
g

La suite
contient une infinit de termes dirents de g 1 : cest
le dveloppement g-adique de . La suite (Agi )i0 est une suite de variables
alatoires indpendantes suivant la loi uniforme sur {0, . . . , g 1}. En particulier, pour g = 2, (Agi )i0 est une suite de variables alatoires indpendantes
de Bernoulli de paramtre 1/2.
Agi ()

CHAPITRE 0. VARIABLES DE BERNOULLI

Dmonstration. Par dfinition de la partie fractionnaire, il est immdiat que


la suite des Xig prend ses valeurs dans [0, 1[. Comme 0 gXig < g, il est
galement clair que Agi prend ses valeurs dans {0, . . . , g 1}. On a gXi =
i+1
i
gXi + {gXi }, soit gXi = Ai + Xi+1 , ou encore Xgii = gAi+1
+ Xgi+1
. Ainsi
n

Ai
i=j

g i+1

i=j

Xi Xi+1
i+1
gi
g

Xj
Xn+1
n+1 .
j
g
g

Ai
Soit en faisant tendre n vers linfini : Xgjj = +
i=j g i+1 . En particulier, pour j =
0, on obtient lcriture voulue. Reste voir que Ai ne peut tre constamment
gal j 1 partir dun certain rang. En eet, si on avait Ai = g 1 pour

g1
i > j, on aurait Xj = g j +
i=j g i+1 = 1, ce qui est exclu, car Xj [0, 1[.
On va montrer par rcurrence que pour tout n, on a Hn :
(A0 , . . . , An ) et Xn+1 sont indpendants
(A0 , . . . , An ) suit la loi uniforme sur {0, . . . , g 1}n+1
Xn+1 suit la loi uniforme sur [0, 1].
Notons dabord que pour tout n 1, on a

{An1 = bn , Xn J} = {gXn1 = bn , {gXn1 } J}


{

= {gXn1 J + bn } = Xn1

J + bn

Ainsi pour n = 1, on a
P(A0 = g0 , X1 J) = P(Xn1

J + bn
J + bn
1
) = (
) = (J),
g
g
g

ce qui montre que H0 est vraie. Ensuite, on procde par rcurrence : Comme
{A0 = b0 , . . . , An = bn , An+1 = bn+1 , Xn+1 J}
J + bn+1
= {A0 = b0 , . . . , An = bn , Xn
},
g
lhypothse de rcurrence nous donne
P(A0 = b0 , . . . , An = bn , An+1 = bn+1 , Xn+1 J)
J + bn
= P(A0 = b0 , . . . , An = bn )P(Xn
)
g
1
J + bn
1 1
= n+1 (
) = n (J)
g
g
g g
1
= n+2 (J)
g

0.2. DE {0, 1}N [0, 1] : O LON A ENVIE DES PROCESSUS

ce qui montre que lhypothse est vrifie au rang n + 1.


Ainsi pour tout n 1 (A0 , . . . An1 ) suit la loi uniforme sur {0, . . . , g1}n .
Cependant la loi uniforme sur un produit densembles finis, cest le produit
des lois uniformes sur les ensembles fini : les variables (A0 , . . . An1 ) sont des
variables alatoires indpendantes suivant la loi uniforme sur {0, . . . , g 1}.
Comme cest vrai pour tout n, la suite (An )n0 est une suite de variables
alatoires suivant la loi uniforme sur {0, . . . , g 1}.

0.2

De {0, 1}N [0, 1] : o lon a envie des processus

La section prcdente nous a dmontr que si un espace tait susamment


riche pour porter une variable alatoire suivant la loi uniforme sur [0, 1], alors
il supportait une suite de pile ou face indpendantes. Autrement dit, si on
sait simuler une variable alatoire suivant la loi uniforme sur [0, 1] , on sait
simuler une suite de pile ou face indpendantes. Le thorme qui suit montre
que la rciproque est vraie.
Thorme 2. Soit (, F, P) un espace probabilis et (Yn )n0 une suite de
variables de Bernoulli de paramtre 1/2 sur cet espace. Alors, la variable

Yi
alatoire V dfinie par V = +
i=0 2i+1 suit la loi uniforme sur [0, 1]
Dmonstration. La convergence de la srie est vidente. Il sut donc de
n1 xi
n1 Yi
caractriser la loi de V . Notons n (x0 , . . . , xn ) = i=0
et Vn = i=0
.
2i+1
2i+1
n
Comme Vn = n ((X0 , . . . , Xn1 )), si on note n = ber(1/2) et n la loi de
Vn , comme n est la loi de (X0 , . . . , Xn1 ), on peut dire que n est la loi
image de n par n .
n1 A2i
Revenons la suite de la section prcdente : si lon pose Sn = i=0
,
2i+1
2
n
de sorte que Sn = n (A0 , . . . , Ag ). Comme n est la loi de (X0 , . . . , Xn1 ), la
loi de Sn sous [0,1[ est galement n : pour toute fonction continue borne

[0,1]

f (Sn ()) d() =

[0,1]

f (x) dn (x).

Nous savons que Sn () tend vers pour tout [0, 1[. La convergence
presque sre entrane la convergence en loi, donc

limn+

[0,1]

f (Sn ()) d() =

soit
limn+

[0,1]

f (x) d(x),
[0,1]

f () dn () =

f (x) d(x),
[0,1]

CHAPITRE 0. VARIABLES DE BERNOULLI

Mais comme n est la loi de Vn , on vient de montrer que Vn converge en loi


vers U [0, 1]. Comme Vn converge presque srement vers V , Vn converge en
loi vers V , donc la loi de V est la loi uniforme sur [0, 1].
La preuve est un peu complique. On aurait envie de faire plus court et
de dire : daprs le Thorme 1 la loi image de ber(1/2)N par
x 7 (x) =

i=0

xi
2i+1

est U [0, 1]. Or, la loi de (Yn )n1 est ber(1/2)N , donc V = ((Xn )n0 est
U [0, 1]. Ce genre de raisonnement sera facile avec la notion de loi dun processus, que nous verrons au chapitre 8.
Mais ds prsent, nous pouvons en donner comme consquence le rsultat suivant :
Thorme 3. Sur (, F, P) = ([0, 1[, B([0, 1[), [0,1[ ), on peut faire vivre une
suite de variables indpendantes suivant la loi uniforme sur [0, 1].
+

Dmonstration. Il sut de poser Zj =


tivement les deux thormes prcdents.

0.3

i=0

A2

(2j+1)2i
2i

et dappliquer conscu-

Ingalits ; lois des grands nombres

Les variables de Bernoulli de paramtre 1/2 ont leurs soeurs jumelles :


les variables de Rademacher qui valent 1 et 1 avec probabilit 1/2. Ainsi
X suit une loi de Bernoulli de paramtre 1/2 si et seulement si Y = 2X 1
est une variable de Rademacher.
Les sommes Bn = X1 + . . . Xn et Sn = Y1 + + Yn sont lies par
Sn = 2Bn n. Ainsi, les (Sn ), qui forment une marche alatoire sur Z,
sont lies la loi binomiale. On transfre ainsi couramment et facilement les
rsultats de lun vers lautre.
On sait par exemple que si les (Yi ) sont des Rademacher indpendantes,
la loi des grands nombres dit que Sn = Y1 + + Yn vrifie Sn /n tend vers 0
presque srement. Peut-on faire mieux ? Oui.
Thorme 4. Soient (Yi )i1 des variables de Rademacher indpendantes.
Pour tout > 1/2,
Y1 + + Yn
= 0.
limn+
n
On va sappuyer sur un lemme :

0.3. INGALITS ; LOIS DES GRANDS NOMBRES

Lemme 1. Soient (Yi )i1 des variables de Rademacher indpendantes. On


pose Sn = Y1 + + Yn . Alors pour tout x > 0 et tout n 0 :
{

x2
P(|Sn ESn | > x) 2 exp
.
2n
Dmonstration. Rappelons lingalit de Hoeding (voir par exemple Garet
Kurtzmann, page 346)
Proposition 1. Soit (Xn )n une suite de variables alatoires relles indpendantes. Supposons quil existe deux suites de rels (an )n0 et (bn )n0 telles
que, pour tout n 0, an < bn et
P(an Xn bn ) = 1.
Posons Sn = X1 + . . . + Xn . On a alors pour tout x > 0 et tout n 0 :
{

2x2
P(|Sn ESn | > x) 2 exp n
.
2
i=1 (bi ai )
Ici, on peut prendre les bornes an = 1 et bn = 1, ce qui nous donne
P(|Sn | > x) 2 exp(

2x2
).
4n

On verra plus loin au chapitre 5 une forme plus gnrale de lingalit de


Hoeding, qui sapplique certaines variables dpendantes.
Mais pour lheure, si on ne veut pas admettre lingalit de Hoeding, il
est possible, dans ce cas particulier, de donner une preuve plus simple : on
a, pour tout > 0
P(|Sn | > x) 2P(Sn > x) 2P(eSn > ex ) 2
On a
Eec1 = cosh =

EeSn
(Eec1 )n
=
.
ex
ex

+
2k
2
2k

=
exp(
),
k k!
(2k)!
2
2
k=0
k=0
+

do

2
.
2
Il faut videmment rendre fn,x () maximal, ce qui est facile puisque cest un
polynme du second degr : on prend = x/n, do
P(|Sn | > x) 2 exp(fn,x ()) avec fn,x () = x n

P(|Sn | > x) 2 exp(

x2
).
2n

CHAPITRE 0. VARIABLES DE BERNOULLI


On peut maintenant passer la preuve du thorme :

Dmonstration. Daprs le lemme,


P(|Sn | > n1/2+ ) 2 exp(

n2
).
2

La srie de terme gnral exp( n2 ) converge (par exemple parce que n2


2 log n pour n assez grand), donc daprs le lemme de Borel-Cantelli, presque
srement |Sn | n1/2+ pour n assez grand, ce qui donne le rsultat voulu.

0.4
0.4.1

Variables de Rademacher et sries de Dirichlet


Une srie de Dirichlet alatoire

Thorme 5. Soit (cn )n1 une suite de variables alatoires indpendantes


identiquement distribues avec P(cn = 1) = P(cn = 1) = 12 . Alors la srie
de terme gnral ncns converge presque srement pour s > 12 .
Dmonstration. Il sagit de mettre ensemble deux rsultats :
un rsultat danalyse sur les sries de Dirichlet : si les sommes partielles

sn = nk=1 ck vrifient sn = O(n ) pour un certain 0, alors la srie

de Dirichet ncns converge pour s > . 1


un rsultat de probabilit : dans le cas qui nous intresse, on a presque
srement sn = O(n1/2+ ) pour tout > 0.
Le rsultat de probabilit a t montr plus haut. Il ny a plus qu montrer le
ck
rsultat danalyse : On va montrer que la srie de terme gnral k+
converge

ds que M = supn1 |sn n | < +.


n

ck

k=1

k +

=
=

(sk sk1 )

k=1
n

k=1

sk

1
k +

1
k +

n1

k=0

sk

1
(k + 1)+

n1

sn
1
1
+
sk ( +
)
+
n
k
(k + 1)+
k=1

1. Vous avez sans doute dj rencontr le cas o = 0 et cn = ein avec non congru
0 modulo 2.

0.4. VARIABLES DE RADEMACHER ET SRIES DE DIRICHLET

ck
sn
Comme limn+ n+
= 0, la srie de terme gnral k+
est de mme nature
1
1
que la srie de terme gnral sk ( k+ (k+1)+ ). Montrons que cette dernire
converge absolument. Daprs lingalit des accroissements finis, on a

1
k +

1
+
| ++1 .
+
(k + 1)
k

Comme |sk | M k , on a alors


|sk (

1
k +

1
M ( + )
)|

,
(k + 1)+
k 1+

ce qui assure la convergence voulue.


Remarquons que si on connait la thorie des sries de variables alatoires
indpendantes, on a une preuve beaucoup plus rapide, qui nutilise pas la
transformation dAbel : les variables ncns sont centres, et le terme gnral de la
srie des variances est 4n12s , qui converge pour s > 1/2, donc la srie converge
presque srement (et aussi dans L2 ). Voir par exemple GaretKurtzmann,
page 344.
Remarque culturelle : notons (n) la fonction de Moebius, dfinie par
(n) = (1)k si n est le produit de k nombre premiers distincts, 0 sinon. si
vous parvenez dmontrer que pour la suite cn = (n), on a sn = O(n1/2+ )
converge pour s > 1/2, alors vous
pour tout > 0, et donc que la srie des (n)
ns
avez dmontr un rsultat quivalent la fameuse conjecture de Riemann :
les zros non-triviaux de la fonction de Riemann sont tous de partie relle
1/2. Pour voir que cette proprit entrane la conjecture de Riemann, voir
par exemple Colmez, pages 319-320.

0.4.2

Comportement au bord

Thorme 6. Soit (cn )n1 une suite de variables alatoires indpendantes


identiquement distribues avec P(cn = 1) = P(cn = 1) = 21 On pose, pour

cn
s > 1/2, (s) = +
n=0 ns . Alors, on a la convergence en loi

1
2h ( + h) = N (0, 1) quand h tend vers 0 par valeurs positives
2

cn
Dmonstration. Posons SN (s) = N
n=0 ns . La fonction caractristique de
N
SN (s) vaut t 7 n=0 cos( nts ). Comme eitSn (s) converge presque srement

vers eit (s) , le thorme de convergence domine nous donne

(s) (t) =

n=0

cos(

t
),
ns

CHAPITRE 0. VARIABLES DE BERNOULLI

do
(1/2+h) (t) =
(1+2h)

cos(

n=0

t(1 + 2h)1/2
)
n1/2+h

Par ailleurs
+

t2
t2 (1 + 2h)1
exp( ) =
)
exp(
2
2
n1+2h
n=0

On en dduit
+

t2
t2 (1 + 2h)1
t(1 + 2h)1/2
| (1/2+h) (t)exp( )|
| cos(
)exp(
)|.
2
n1/2+h
2
n1+2h
(1+2h)
n=0
2

Mais il existe A tel que pour tout rel x | cos(x) exp( x2 )| Ax4 . On en
dduit pour h ]0, 1] :
At2
At2
t2
| (1/2+h) (t) exp( )|
(1 + 2h)2
(1 + 2h)2 .
2
(2 + 2h)
(4)
(1+2h)
Il est bien connu que (1 + h) h1 au voisinage de 0 : on en dduit la
2
convergence de (1/2+h) (t) vers exp( t2 ), et donc, daprs le thorme de
(1+2h)

(1/2+h)
Levy, la convergence en loi de
vers N (0, 1), puis, avec lquivalent
(1+2h)

(1 + 2h) (2h)1 , la convergence en loi voulue.


Donnons une preuve courte de lquivalent (1 + h) h1 au voisinage
de 0 : avec lingalit des accoissements finis, on a, pour h > 0
|

k=1

k 1+h

+
k+1
k=1 k

1
t1+h

do
(1 + h) =

dt|

k=1

k 2+h

1
+ O(1).
h

(2),

0.5. EXERCICES SUR LES VARIABLES DE BERNOULLI

0.5
0.5.1

Exercices sur les variables de Bernoulli


Exercices corrigs

Exercice 1. Considrons une suite (n )n1 de variables alatoires indpendantes suivant la loi de Bernoulli de paramtre p ]0, 1[. Soit X la variable
alatoire dfinie par :

n
X=

n
n=1 2
On note p la loi de X. Pour quelle(s) valeur(s) de p la variable X admet-elle
une densit par-rapport la mesure de Lebesgue ? lien vers lindication lien
vers la solution

10

CHAPITRE 0. VARIABLES DE BERNOULLI

Chapitre 1
qui-intgrabilit
Dfinition. On dit quune famille A de variables alatoires dfinies sur lespace probabilis (, F, P) est qui-intgrable (ou uniformment intgrable) si
limM + supXA E[|X| 1{|X|M } ] = 0.

1.1

Premires proprits

Remarque 1.
Une famille constitue dune seule variable intgrable
est qui-intgrable.
La runion de deux familles qui-intgrables est qui-intgrable. Par
suite une famille finie de variables intgrables est qui-intgrable.
Une famille qui-intgrable est toujours borne dans L1 .
En eet, si M est choisi tel que supXA E[|X| 1{|X|M } ] 1, alors
comme |X| M + |X| 1{|X|M } , on a E[|X|] M + 1 pour tout
X A.
Si la famille A est qui-intgrable et que pour tout Y B, il existe
X A avec |Y | |X|, alors la famille B est qui-intgrable.
Si la famille A est qui-intgrable, la famille (max(|X|, |Y |))(X,Y )A2
est qui-intgrable.
En eet, max(|X|, |Y |) 1{max(|X|,|Y |})M } |X| 1{|X|M } +|Y | 1{|Y |M }
entrane
E[max(|X|, |Y |) 1{max(|X|,|Y |})M } ] E[|X| 1{|X|M } ]+E[|Y | 1{|Y |M } ].
Par suite, si la famille A est qui-intgrable, la famille (X +Y )(X,Y )A2
est qui-intgrable.
En eet, il sut de remarquer que |X + Y | 2 max(|X|, |Y |) et dappliquer les remarques prcdentes.
11

12

CHAPITRE 1. QUI-INTGRABILIT
Le rsultat principal est le suivant.

Thorme 7. Soit (Xn )n1 une suite qui-intgrable de variables alatoires.


On suppose que Xn converge en loi vers X lorsque n tend vers linfini. Alors
X est intgrable et la suite (EXn )n1 converge vers EX.
Pour ce rsultat, on va avoir besoin dun lemme intermdiaire.
Lemme 2. Si (Xn )n1 converge en loi vers X, alors E|X| limn+ E|Xn |.
Dmonstration. Comme |Xn | converge en loi vers |X|, on peut se ramener
au cas o les variables Xn sont positives. On a pour tout n,
EXn =

[0,+[

P(Xn > t) d(t).

On sait que P(Xn > t) converge vers P(X > t) en tous les points de continuit
de FX . Or les points de discontinuit de FX sont au plus dnombrables, donc
P(Xn > t) converge -presque partout vers P(X > t). On peut donc appliquer
le lemme de Fatou
EX =

[0,+[

P(X > t) d(t) =

[0,+[

limn+ P(Xn > t) d(t)

limn+

[0,+[

P(Xn > t) d(t)

= limn+ EXn .

Remarque 2. Certains auteurs invoquent ce thorme sous le nom de lemme


de Fatou.
On peut maintenant passer la dmonstration du thorme.
Dmonstration du thorme 7. Daprs le lemme X est intgrable, donc {Xn ; n
1} {X} est qui-intgrable. tant fix, on peut trouver M tel que
supn1 E[Xn 1{Xn M } ] et E[X1{XM } ] .
Notons que

et

E[Xn ] = E[Xn M ] + E[(Xn M )1{Xn M } ]


E[X] = E[X M ] + E[(X M )1{XM } ].

Comme 0 (Xn M )1{Xn M } Xn 1{Xn M } et


0 (X M )1{XM } X1{XM } , on en dduit que
|E[Xn ] E[X]| |E[Xn M ] E[X M ]| + .

(1.1)

1.2. APPLICATION LA CONVERGENCE DANS LP

13

Mais la fonction x 7 x M est continue borne sur R+ , donc, par dfinition


de la convergence en loi limn+ E[Xn M ] = E[X M ], do
limn+ |E[Xn ] E[X]| ,
et comme est quelconque, limn+ |E[Xn ] E[X]| = 0, ce qui donne le
rsultat voulu.
Remarque 3. On pourrait dvelopper la notion dqui-intgrabilit sur un
espace mesur (pas ncessairement un espace probabilis) en disant que (fn )
est qui-intgrable si

limM + supn1

|fn | 1{|fn |M } d = 0.

Dans ce cas, le theorme 7 sappelle thorme de Vitali. Mais ce cadre est


beaucoup moins intressant car la convergence presque partout jointe lquiintgrabilit nimplique pas la convergence des intgrales.
Exemple: On prend pour la mesure de Lebesgue et fn = n1 1[n,2n] . Pour
M > 1, on a supn1 |fn | 1{|fn |M } d = 0 et fn converge partout vers 0.
Cependant, lintgrale de fn est constante gale 1.

1.2

Application la convergence dans Lp

Corollaire 1. Soit (Xn )n1 une suite de variables alatoires. On suppose que
Xn converge en probabilit vers X lorsque n tend vers linfini. Si la famille
(|Xn |p )n1 est qui-intgrable, alors X Lp et Xn converge dans Lp vers X.
Dmonstration. Si Xn converge en probabilit vers X, alors la suite (Yn )
dfinie par Yn = |Xn X|p converge en probabilit, donc en loi, vers 0. La
suite |Xn |p est qui-intgrable, donc |X|p est intgrable, soit X Lp .
Il reste voir que (Yn ) est qui-intgrable, ce qui dcoule de lingalit
Yn 2p max(|Xn |p , |X|p ) et des remarques faites plus haut. Il sut alors
dappliquer le thorme la suite (Yn )n1 .

1.3

Une condition susante dqui-intgrabilit

La manire la plus simple de montrer lqui-intgrabilit dune famille est


de montrer sa bornitude dans Lp pour un certain p > 1.
En eet si E[|X|p ] C pour tout X A, on a pour tout X A,
E[|X|1{|X|M } ] E[

E[|X|p ]
C
|X|p
1
]

p1 .
{XM }
p1
p1
M
M
M

14

CHAPITRE 1. QUI-INTGRABILIT

Ainsi, si (Xn )n1 converge en probabilit vers X et que la suite (Xn )n1 est
borne dans Lq , on sait que Xn converge vers X dans Lp pour p < q.

1.4

Une version du lemme de Sche

On dit parfois que lqui-intgrabilit est ce qui manque la convergence


presque sre pour avoir la convergence L1 . Le thorme suivant prcise (et
renforce) cet nonc.
Thorme 8. Soit (Xn )n1 une suite de variables alatoires positives, intgrables, convergeant en loi vers une variable alatoire X intgrable. On
suppose que EXn tend vers EX. Alors les variables alatoires (Xn )n1 sont
uniformment intgrables.
Dmonstration. Comme
E[X 1{XM } ] = E[X]

[0,M ]

P(t < X < M ) d(t)

est vraie pour toute variable alatoire positive X, on a la convergence de


E[Xn 1{Xn M } ] vers E[X 1{XM } ] si M est un point de continuit de X.
On peut trouver M tel que E[X 1{XM } ] < . Si M nest pas un point de
continuit de FX , on le remplace par un point de continuit M de FX tel
que M M . Pour n0 assez grand, on a E[Xn 1{Xn M } ] < pour n n0 .
Comme la famille finie X1 , . . . , Xn0 1 est qui-intgrable, il existe M tel que
E[Xn 1{Xn M } ] < pour tout n < n0 .
Ainsi si on prend M1 = max(M , M ), on a E[Xn 1{Xn M1 } ] < pour tout
n 1.

1.5

Caractrisation par lqui-continuit

Thorme 9. La famille A de variables alatoires dfinies sur lespace probabilis (, F, P) est qui-intgrable si et seulement si elle est borne dans L1
et vrifie
lim0 sup XA E[|X| 1A ] = 0.
AF:P(A)

Dmonstration. On a dj vu quune famille qui-intgrable est borne. Maintenant Pour tout A F , X A et M > 0, on a
|X|1A |X|1{|X|M } + M 1A .

1.6. QUI-INTGRABILIT DUNE FAMILLE DE LOIS

15

Fixons > 0. Lhypothse dqui-intgrabilit nous dit quon peut trouver M

tel que pour tout X A E[|X|1{|X|M } ] /2. Maintenant, pour 2M


,
pour tout X A, P(A) entrane
E[|X|1A ] E[|X|1{|X|M } ] + M P(A) .
Rciproquement, supposons que la famille A est borne dans L1 et vrifie
E[|X|
XA
AF :P(A)

lim0 sup

1A ] = 0.

Soit > 0. On peut trouver > 0 tel que pour tout X A, P(A)
supXA E[|X|]
entrane E[|X|1A ] . Maintenant, si M
, si je pose A =

{|X| M }, on a P(A)

E[|X|]
M

, donc

E[|X|1{|X|M } ] = E[|X|1A ] .

1.6

qui-intgrabilit dune famille de lois

Dans ce qui prcde, lqui-intgrabilit a t prsent comme une proprit dune famille de variables alatoires dfinies sur un mme espace probabilis (, F, P). Cependant, si on convient de dire quune famille M de
mesures de probabilits sur R est qui-intgrable si et seulement

limM + supA

R\[M,M ]

|x| d = 0,

on voit sans peine quune famille A de variables alatoires sur (, F, P) est


qui-intgrable si et seulement la famille M = {PX ; X A}.
Ainsi, lqui-intgrabilit est essentiellement une notion qui concerne les
lois. En particulier, lqui-intgrabilit dune famille de variables alatoires
ne dpend que de la famille des lois individuelles, pas des lois jointes.
Un grand nombre de remarques faites pour les familles de variables quiintgrables sadaptent donc sans douleur aux familles de lois qui-intgrables.
En particulier le thorme 7 admet la variante suivante :
Thorme 10. Soit (n )n1 une suite qui-intgrable de mesures de probabilit sur R. On
suppose que n converge en loi
vers lorsque n tend vers

linfini.
Alors
|x|
d(x)
<
+
et
la
suite
(
x
dn (x))n1 converge vers
R
R

R x d(x).
On applique parfois ce thorme des suites de variables alatoires qui
ne sont pas toutes dfinies sur le mme espace de probabilit.

16

CHAPITRE 1. QUI-INTGRABILIT

1.7

Exercices sur lqui-intgrabilit

1.7.1

Exercices corrigs

Exercice 2. Soit (Xn ) une suite de variables alatoires positives avec


sup E[Xn log(1 + Xn )] < +.
n1

Montrer que cette famille est qui-intgrable. lien vers lindication lien vers
la solution
Exercice
3. Soient (X1 , X2 , . . . , Xn ) une suite de v-a i.i.d U[0, 1]. Soit Zn =

ni=1 X2i . Le but de lexercice est de montrer que Zn converge presque sreX
i=1

ment et dans L1 vers 23 .


1. Montrer la convergence presque sre.
2. Soit N un entier naturel. On pose QN = (
pour tout n N , on a

N
i=1

Xi2 )2 . Montrer que

Zn2 144 + n2 QN 1{Nn <n/3} ,


o Nn =

n
k=1

1{Xk 1/2} .

3. Montrer que Q9 est dans L2 .


4. Montrer que (Zn )n1 est qui-intgrable. Conclure.
lien vers lindication lien vers la solution
Exercice 4. Soit Xn suivant la loi binomiale B(n, n ). Montrer que (Xn )
est borne dans L3 . Retrouver alors simplement sans calcul lesprance et la
variance de la loi de Poisson. lien vers lindication lien vers la solution
Exercice (5. Donner
un quivalent en linfini de la suite (un ) dfinie par
)
n

2n
. lien vers lindication lien vers la solution
un =
k
n+k
k=1

1.7.2

Exercices non corrigs

Exercice 6. Loi des grands nombres L1 .


Soit (Xn )n1 des variables alatoires indpendantes identiquement distribues avec un moment dordre 1. La loi faible des grands nombres nous
n
converge en probabilit vers E[X1 ]. Montrer que
dit que la suite X1 ++X
n
1
(Xn )n1 converge dans L vers E[X1 ]. lien vers lindication

1.7. EXERCICES SUR LQUI-INTGRABILIT

17

Exercice 7. Soient p et q positifs des exposants conjugus, cest dire que


1/p + 1/q = 1. Montrer que si (Xn )n1 est borne dans Lp et que (|Yn |q )n1
est qui-intgrable, alors la suite (Xn Yn )n1 est qui-intgrable. lien vers lindication
Exercice 8. Soient (Xn )n1 une suite qui-intgrable et (Un ) une suite de
variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. On suppose de plus que (Un )n1 est indpendante de (Xn )n1 . Pour ]0, 1], on pose
N = inf{n 1; Un }, puis Z = XN . Montrer que la famille (Z )]0,1]
est qui-intgrable. lien vers lindication
Exercice 9. Soit (Xn ) une suite de variables alatoires positives. On suppose
quil existe une variable alatoire intgrable X telle que
n 1 t > 0 P(Xn > t) P(X > t).
Montrer que (Xn )n1 est qui-intgrable. lien vers lindication

18

CHAPITRE 1. QUI-INTGRABILIT

Chapitre 2
Esprance conditionnelle
2.1

Motivation

Soient (, F, P) un espace probabilis ; A1 , . . . , AN une partition de et


X une variable alatoire intgrable sur , F, P). Soit A la tribu engendre
par la partition {A1 , . . . , AN }.
On sintresse aux expressions de la forme EX1A , o A A.
Tout dabord, on va remarquer quil existe une correspondance entre A
et P({1, . . . , N } : tout lment A A peut scrire
A = iB Ai ,
pour un certain B P({1, . . . , N }).
On a alors
(

E(X1A ) = E X

1iB 1Ai

i=1

E(1iB X1Ai ) =

i=1

i=1

Maintenant posons
X =

1Ai

j=1

EX1Aj
.
P(Aj )

En remplaant dans la formule prcdente, on obtient


EX 1A =

1iB EX 1Ai

i=1

Mais
EX 1Ai =

EX1Aj
j=1

P(Aj )
19

E1Ai 1Aj = EX1Ai .

1iB EX1Ai

20

CHAPITRE 2. ESPRANCE CONDITIONNELLE


Il sensuit que pour tout A A, on a
EX1A = EX 1A

(2.1)

Ce qui est intressant ici, cest que X a une proprit que X na pas en
gnral : en eet, X est A-mesurable (car cest une combinaison linaire
dindicatrices dlments de A).
Si X est une variable alatoire A-mesurable et telle que (2.1) est vrifie,
on dit que X est une esprance conditionnelle de X par rapport la tribu
A.
Nous savons donc construire des esprances conditionnelles par rapport
des tribus finies. Le but de ce chapitre est de traiter le cas gnral et de
donner les premires proprits de ces objets.

2.2

construction

Lemme 3. Soient X et Y des variables alatoires intgrables et mesurables


par rapport une tribu A. On suppose que pour tout A A, on a
EX 1A EY 1A

(2.2)

alors X Y P presque srement.


Dmonstration. On pose A = {X > Y } On a
EX 1A EY 1A .
Ainsi E(X Y )1A 0. Mais (X Y )1A est positive, donc (X Y )1A = 0
presque srement. Ainsi P ({X = Y } Ac ) = 1, do P (Ac ) = 1.
Ainsi, si X et Y sont des esprances conditionnelles de X et Y par
rapport la mme tribu, on voit que X Y presque srement entrane que
X Y presque srement.
Cela a deux consquences faciles, mais importantes : dune part, on voit
que lesprance conditionnelle est unique, un ngligeable prs. Dautre part,
on voit que lesprance conditionnelle prserve lordre, en particulier lesprance conditionnelle dune variable (presque srement) positive est (presque
srement) positive.
Soit (, F, P) un espace probabilis ; A une sous-tribu de F. Notons V1 =
1
L (, F, P), V2 = L2 (, F, P) et H = L2 (, A, P).
Ici, il convient de noter que les lments V1 et V2 sont des classes de
fonctions : Lp (, F, P) est le quotient de Lp (, F, P) par la relation dgalit
presque sre.

2.2. CONSTRUCTION

21

Ainsi V2 est un espace de Hilbert dont H est un sous-espace ferm.


On a
x V2 Ex = x, 1,
o 1 reprsente la classe de la fonction constante gale 1.
Notons P la projection orthogonale de V2 sur H : par dfinition on a
f V2 g H

f P f, g = 0.

En particulier si A A, 1A H, et donc
f V2

f P f, 1A = 0,

(2.3)

soit f, 1A = P f, 1A , soit
Ef 1A = EP f 1A .
En particulier
Ef = EP f.

(2.4)

Lquation (2.3) dit que P f est un bon candidat pour tre lesprance
conditionnelle. Les proprits de positivit voques plus haut sont galement
vrifies, mais il faut tre un peu soigneux car lon travaille ici avec des classes
de fonctions gales presque partout, non avec des fonctions.
Rappelons quelques proprits simples : si F et G sont deux fonctions
mesurables qui sont gales presque partout, alors pour tout borlien A les
ensembles F 1 (A) = {F A} et G1 (A) = {G A} sont gaux un
ngligeable prs : cela signifie que
P(F 1 (A)G1 (A)) = 0.
En eet
{F A}{G A} {F = G},
donc P ({F A}{G A}) P(F = G) = 0. Ainsi
|1{F A} 1{GA} | = 1{F A}{GA} = 0 P p.s.
ce qui signifie que 1{F A} et 1{GA} ont la mme classe dans Lp (avec p
quelconque).
Ainsi, si f Lp , il est licite de noter 1{f A} la classe de lindicatrice de
{F A}, o F est un reprsentant quelconque de la classe f .
On peut ainsi parler des lments positifs de Lp : ce sont les lments f
qui sont la classe dune fonction positive.

22

CHAPITRE 2. ESPRANCE CONDITIONNELLE

Pour tout f Lp , on a f = f.1 = f (1f >0 +1f =0 +1f <0 ) = f (1f >0 +1f <0 ) =
f + f , o f + = f 1f >0 et f = f 1f >0 . Il est facile de voir que f + = f 1f >0
et f + = f 1f >0
Dmontrons maintenant lanalogue du lemme 2.1 : si f est un lment
positif de L2 , on a
Ef 1P f <0 = EP f 1P f <0
Mais f 1P f <0 est une classe de fonctions positives, donc Ef 1P f <0 0, tandis
que P f 1P f <0 est une classe de fonctions ngatives, donc EP f 1P f <0 0,
finalement P f 1P f <0 = 0, soit (P f ) = 0, ce qui signifie que P f est un
lment positif.
Soit maintenant f L2 :
Par linarit, on a P f = P f + P f , do
P f 1 P f + 1 + P f 1
Mais P f + est positive, donc P f + 1 = EP f + . En utilisant (2.4), il vient
que P f + 1 = Ef + . De la mme manire P f 1 = Ef . Finalement, on a
P f 1 Ef + + Ef = E|f | = f 1
Ainsi, P prend ses valeurs dans H V1 = L1 (, A, P) et dfinit une
application linaire continue de (V2 , .1 ) dans (L1 (, A, P), .1 ). Comme
V2 est une partie dense de V1 , lapplication P admet un unique prolongement
linaire continu P de (V1 , .1 ) dans (L1 (, A, P), .1 ).
Ce prolongement a la mme norme doprateur :
f L1

P f 1 f 1

Par ailleurs, lensemble des (classes de) fonctions positives est ferm dans
L , donc la proprit de positivit est conserve par P :
1

f L1

f 0 = P f 0

et
f, g L1

f g = P f P g.

Cet oprateur P est loprateur desprance conditionnelle sachant la


tribu A.

2.2. CONSTRUCTION

23

Vrifions dabord que P vrifie les proprits fondamentales requises : P f


est A-mesurable et pour toute fonction f F-mesurable dans L1 , pour tout g
A-mesurable dans L ,
Egf = Eg P f
(2.5)
Preuve : pour f dans L , posons g (f ) = Egf et g (f ) = Eg P f . On a
|gf | g |f |, do |g (f )| f f 1 . Par ailleurs
|g (f )| = g (P f )| f P f 1 f f 1 .
Ainsi g et g sont deux formes linaires continues sur V1 . Comme elles
concident sur V2 qui est dense dans V1 , elles concident.
Pour tout f V1 , on notera dsormais E[f |A] = P f .
On remarquera que telle que nous lavons dfini, lobjet E[f |A] nest pas
une variable alatoire, mais une classe de variable alatoires. En ralit, faire
la confusion entre les deux objets est sans risque puisquon ne sintresse
jamais aux valeurs en un particulier, mais seulement aux intgrales sur un
ensemble mesurable, intgrales qui ne dpendent pas du reprsentant choisi.

2.2.1

Proprits

Daprs le lemme 3, on voit donc que les proprits :Y A-mesurable et


A A EX1A = EY 1A

(2.6)

entranent que Y = E[X|A].


Ainsi, si X est A-mesurable, on a videmment E[X|A] = X. En particulier, les fonctions constantes tant mesurables par rapport nimporte quelle
tribu, on a pour tout rel c E[c|A] = c.
Rappelons avec les nouvelles critures quelques proprits tablies : on
suppose que X et Y sont intgrables et que a et b sont des constantes relles :
E[aX + bY |A] = aE[X|A] + bE[Y |A]
X Y p.s. = E[X|A] E[Y |A] p.s.
X 0 p.s. = E[X|A] 0 p.s.
Si Y est borne et A-mesurable, alors EXY = E[E[X|A]Y ].
Et voici quelques consquences dont la preuve ne devrait pas laisser de
grandes dicults au lecteur :
EE[X|A] = EX
E[E[X|A]|A] = E[X|A]
|E[X|A]| E[|X| |A]
Un peu plus compliqu, le thorme de convergence domine conditionnel :

24

CHAPITRE 2. ESPRANCE CONDITIONNELLE

Thorme 11. Soit (Xn )n1 une suite de variables alatoires convergeant
presque srement vers X. On suppose que
n 1|Xn | Y p.s.,
o Y est une variable alatoire intgrable. Alors
E[X|A] = lim E[Xn |A]p.s.
n+

Dmonstration. Posons Zn = supkn |Xn X|. (Zn )n1 est une suite dcroissante de variables alatoires qui tend presque srement vers zro. Daprs la
positivit de lesprance conditionnelle, la suite E[Zn |A] est donc une suite
dcroissante de variables alatoires positives : elle converge donc vers une variable alatoire positive Z. Pour tout n 1, on a Z Zn , donc EZ EZn .
Ainsi EZ inf n1 EZn , mais pour tout n |Zn | 2Y , donc daprs le thorme de convergence domine EZn tend vers 0, ce qui montre que EZ = 0,
donc Z est presque srement nulle. Ainsi E[Zn |A] tend presque srement
vers 0. Finalement, pour tout n, on a
|E[X|A] E[Xn |A]| = |E[X Xn |A]|
E[|X Xn | |A]
E[Zn |A],
ce qui entrane donc le rsultat voulu.
On en dduit en particulier le rsultat trs important suivant :
Thorme 12. Si Y est A-mesurable, que X et XY sont intgrables, alors
E[XY |A] = Y E[X|A]
Dmonstration. On va dabord sintresser au cas o Y est born. Pour montrer que Y E[X|A] est une version de lesprance conditionnelle de XY sachant A, il sut de montrer
que Y E[X|A] est A-mesurable
que pour toute fonction Z A-mesurable borne, on a EZXY = EZY E[X|A].
Le premier point est clair, car Y E[X|A] est le produit de deux fonctions
A-mesurables. Le deuxime point provient du fait que ZY est une fonction
A-mesurable borne et de la proprit fondamentale de lesprance conditionnelle.
Pour passer au cas gnral, il sut de poser Yn = Y 1|Y |n . Daprs ce qui
prcde, on sait que pour tout n, on a
E[XYn |A] = Yn E[X|A].

2.2. CONSTRUCTION

25

XYn converge presque srement vers XY et |XYn | |XY |. Daprs le


thorme de convergence domine conditionnel, E[XYn |A] converge presque
srement vers E[XY |A]. Comme Yn converge presque srement vers Y , on a
finalement
E[XY |A] = Y E[X|A].

On va terminer cette section par quelques proprits simples, mais utiles


lies la mesurabilit.
Thorme 13. Soit X une variable alatoire intgrable, A et B deux tribus
avec A B. Alors
E[E[X|B]|A] = E[X|A].
Dmonstration. Posons X = E[E[X|B]|A]. Soit Y une variable alatoire borne A-mesurable. Y est A-mesurable, donc Y E[E[X|B]|A] = E[Y E[X|B]|A].
Par ailleurs, Y est B-mesurable, donc Y E[X|B] = EXY |B, do EY X =
E[EXY |B] = EXY . Ainsi, pour tout Y A-mesurable borne, on a EY X =
EY X. Comme X est A-mesurable, cela montre bien que X = E[X|A].
Thorme 14. On suppose que A et B sont deux tribus indpendantes sous
P. Alors, pour toute variable alatoire intgrable X B-mesurable, on a
E[X|A] = EX.
Dmonstration. Soit Y une variable alatoire borne A-mesurable.
E[Y EX] = EY EX = EY X.
Comme la variable constante EX est lvidence A-mesurable, cela achve
la preuve.
Le rsultat suivant peut galement parfois tre utile :
Thorme 15. Si X est une variable intgrable, A et B des tribus telles que
B est indpendante de ((X), A), alors
E[X|(A, B)] = E[X|A].
Dmonstration. Par linarit, en crivant X = X + X , on peut se ramener
au cas o X est positive. Comme Y = E[X|A] est (A, B)-mesurable, il sut
de montrer que lon a E[1C X] = E[1C Y ] pour tout C (A, B). Comme
C 7 E[1C X] et C 7 E[1C Y ] sont des mesures finies, il sut de les identifier

26

CHAPITRE 2. ESPRANCE CONDITIONNELLE

sur un -systme qui engendre (A, B) : on prend naturellement les ensemble


de la forme C = A B, avec A A et B B. Et, en eet, on a
E[1C Y ] =
=
=
=

E[1A 1B Y ]
E[1B ]E[1A Y ]
E[1B ]E[1A X]
E[1B 1A X] = E[1C X],

ce qui conclut la preuve.

2.2.2

Ingalit de Jensen

Thorme 16. Soit X une variable alatoire intgrable valeurs dans lintervalle I. Soit f une fonction continue convexe de I dans R. On suppose
que f (X) est intgrable. Alors, pour toute tribu A, on a
f (E[X|A]) E[f (X)|A].
Dmonstration. Pour donner du sens lingalit, remarquons dabord que
E[X|A] I presque srement. En eet, il est bien connu si X a presque
srement, on a alors E[X|A] a presque srement. Cependant, on va voir
que si X > a presque srement, on a encore E[X|A] > a presque srement.
Par linarit,on se ramne au cas o a = 0. On suppose donc que X > 0
et on pose Y = E[X|A]. On sait dj que Y 0 presque srement. Reste
montrer P(Y = 0) = 0. Comme lvnement {Y = 0} est A-mesurable,
on a E[1{Y =0} X] = E[1{Y =0} Y ] = 0, donc 1{Y =0} X = 0 presque srement.
Comme X > 0 presque srement, on a 1{Y =0} = 0 presque srement, donc
P(Y = 0) = 0.
Soit une famille dnombrable de fonctions anes telles que
x I

(x) f (x).

Soit . On a presque srement


(X) f (X).
On a donc E[(X)|A] E[f (X)|A]. Mais comme est une fonction ane,
E[(X)|A] = (E[X|A]). Ainsi,
(E[X|A]) E[f (X)|A],
Comme est dnombrable, on a alors
sup (E[X|A]) E[f (X)|A].

2.2. CONSTRUCTION

27

Il reste donc dmontrer que la famille peut tre choisie de telle sorte que,
presque srement, au point x = E[X|A], on ait sup{(x); } = f (x)
En tout point rationnel q de I, on considre lapplication ane q tangente droite (ou gauche) au point q la courbe reprsentative de f .
On prend alors = (q )qIQ . Lapplication x 7 sup (x) est convexe,
continue, et concide avec f sur I Q, donc, par densit et continuit, sur
I.
Pour retenir quel est le sens de lgalit, prendre la fonction convexe
(x) = |x|.

2.2.3

Esprance conditionnelle sachant une variable (ou


un vecteur) alatoire

Le cauchemar des conventions dcriture


Soient A est un vnement,A une tribu.
On note frquemment P(A|A) = E[1A |A].
Si Y ,X, X1 , . . . , Xn sont des variables alatoires (ou des vecteurs alatoires), on note frquemment
E[Y |X] pour E[Y |(X)], et encore E[Y |X1 , . . . , Xn ] pour E[Y |(X1 , . . . , Xn )].
Par ailleurs, si X est une variable alatoire (ou un vecteur alatoire), il
est bien vident que E[Y |X] est (X)-mesurable. Alors, daprs le lemme de
Doob, il existe une application mesurable f telle que
E[Y |X] = f (X)

(2.7)

On crit souvent E[Y |X = x] = f (x) pour signifier que lapplication f


vrifie lquation (2.7). Bien sr, il sagit dun abus dcriture car la proprit
est une proprit globale de la fonction, qui na pas de sens point par point,
puisquen gnral (par exemple si la loi de X est densit) lvnement
{X = x} est de probabilit nulle.
Il est plus facile de donner un sens cette esprance conditionnelle et
aussi de la calculer dans le cas o X est une variable alatoire discrte.
Thorme 17. Soit Y L1 (, F, P), X une variable alatoire sur (, F, P),
et D un ensemble fini ou dnombrable avec P(X D) = 1 et P (X = n) > 0
pour tout n dans D. Alors, E[Y |X] = g(X) avec
n D

g(n) =

E[1{X=n} Y ]
,
P(X = n)

28

CHAPITRE 2. ESPRANCE CONDITIONNELLE

ce qui scrit encore


n D

E[Y |X = n] =

E[1{X=n} Y ]
.
P(X = n)

Dmonstration. Pour tout n dans A, posons g(n) =


D. Pour tout n dans A, on a

E[1{X=n} Y ]
. Soit A
P(X = n)

E[Y 1{X=n} ] = g(n)P(X = n) = E[g(n)1{X=n} ] = E[g(X)1{X=n} ]


En faisant la somme sur tous les n A, on obtient
E[Y 1{XA} ] = E[g(X)1{XA} ]
Comme tous les lments de (X) peuvent scrire sous la forme {X A}
avec A D et que g(X) est videmment (X)-mesurable, on a bien lidentification voulue.
Corollaire 2. Soit X une variable alatoire sur (, F, P), et D un ensemble
fini ou dnombrable avec P(X D) = 1 et P (X = n) > 0 pour tout n dans
D. Soit A un vnement. Pour tout n D, on a
E[1A |X = n] =

E[1{X=n} 1A ]
P({X = n} A)
=
= P(A|X = n).
P(X = n)
P(X = n)

Ceci justifie que lon crive P(A|X) pour E(1A |X) sans quil y ait conflit
entre les direntes conventions dcriture.
Des techniques de calculs utiles
La premire technique nest que la particularisation de la formule prcdente au cas dun vecteur alatoire.
Corollaire 3. Soit Y L1 (, F, P), X1 , . . . , Xn des variables alatoires sur
(, F, P) valeurs dans S dnombrable, avec pour tous x1 , . . . , xn dans S
P(X1 = x1 , . . . , Xn = xn ) > 0. Alors, E[Y |X1 , . . . , Xn ] = g(X1 , . . . , Xn ) avec
n D

g(n) =

E[1{X1 =x1 ,...,Xn =xn } Y ]


,
P(X1 = x1 , . . . , Xn = xn )

ce qui scrit encore


(x1 , . . . , xn ) S n

E[Y |X1 = x1 , . . . , Xn = xn ] =

E[1{X1 =x1 ,...,Xn =xn } Y ]


.
P(X1 = x1 , . . . , Xn = xn )

2.2. CONSTRUCTION

29

On laisse au lecteur le soin de particulariser lnonc dans le cas o Y est


lindicatrice dun vnement.
Les thormes et corollaires prcdents permettent, dans le cas de variables alatoires discrtes, de calculer des esprances conditionnelles laide
doprations classiques sur les probabilits. En retour, les proprits des
esprances conditionnelles permettent souvent de simplifier des calculs de
probabilits. Car exemple, on peut noter que

P(X1 = x1 , . . . , Xn = xn ) = E(1{X1 =x1 ,...,Xn } )


= E(1{X1 =x1 ,...,Xn1=xn1 } 1{Xn =xn } )
= E(E(1{X1 =x1 ,...,Xn1=xn1 } 1{Xn =xn } |X1 , . . . , Xn1 ))
= E(1{X1 =x1 ,...,Xn1=xn1 } E(1{Xn =xn } |X1 , . . . , Xn1 ))
= E(1{X1 =x1 ,...,Xn1=xn1 } P(Xn = xn |X1 , . . . , Xn1 ))
Ce genre de manipulations sera trs utile dans le cadre de ltude des
chanes de Markov.
Un autre cas pratique trs important est celui o la variable conditionne
est une fonction de deux variables indpendantes.
Thorme 18. Soit X et Y deux vecteurs alatoires indpendants, respectivement valeurs dans Rn et Rp . Soit g une application de Rn Rp
dans R. On suppose que g(X, Y ) est une variable alatoire intgrable. Alors
E[g(X, Y )|X] = G(X), avec

G(x) =

g(x, y)dPY (y) = Eg(x, Y ).

Autrement dit, E[g(X, Y )|X = x] = E[g(x, Y )].


Dmonstration. Dabord, il faut vrifier que G est dfini PX presque partout.
Pour cela, il faut montrer que pour PX presque tout x : |g(x, y)|dPY (y) <
+. Pour cela, il sut de montrer que
(

|g(x, y)|dPY (y) dPX (x) < +,

ce qui dcoule facilement du thorme de Tonelli et de lintgrabilit de g(x, y)


sous PX PY .

30

CHAPITRE 2. ESPRANCE CONDITIONNELLE


Soit maintenant A un borlien de Rn :
E1A (X)G(X) =

1A (x)G(x)dPX (x)
(

1A (x)

g(x, y)dPY (y) dPX (x)

1A (x)g(x, y)d(PX PY )(x, y)


1A (x)g(x, y)d(PX,Y )(x, y)

= E1A (X)g(X, Y )
Bien sr G(X) est (X)-mesurable, ce qui achve la preuve.
Dans le mme ordre dide, le rsultat suivant peut galement tre utile :
Thorme 19. On suppose que les vecteurs (X, Y ) et (X , Y ) valeurs dans
Rn Rp ont mme loi, que Y est intgrable avec E[Y |X] = f (X). Alors
E[Y |X ] = f (X ).
Dmonstration. Bien sr, f (X ) est (X )-mesurable. Il sut donc de faire
la vrification :
E[1A (X )Y ] = E[1A (X)Y ] car (X, Y ) et (X , Y ) ont mme loi
= E[1A (X)f (X)] par dfinition de lesprance conditionnelle
= E[1A (X )f (X )] car X et X ont mme loi,

ce qui donne le rsultat voulu.

2.3. EXERCICES SUR LESPRANCE CONDITIONNELLE

2.3
2.3.1

31

Exercices sur lesprance conditionnelle


Exercices corrigs

Exercice 10.
1. Soit X une variable alatoire intgrable, N une variable
alatoire valeurs dans N. Soit Y une variable alatoire intgrable
(N )-mesurable.
Montrer que Y est une version de E[X|N ] si et seulement si pour tout
entier n N E[1{N =n} Y ] = E[1{N =n} X]
2. Soit (Xn )n0 une suite de variables alatoires indpendantes suivant
la loi de Bernoulli de paramtre q. On suppose que 1 + T suit la loi
gomtrique de paramtre p et que T est indpendante de ((Xk )k1 ).
On pose U = X1 + X2 + + XT (avec U = 0 si T = 0). Calculer
E[U |T ].
lien vers lindication lien vers la solution
Exercice 11. On reprends lnonc du (b) de lexercice prcdent. Dterminer des rels et tels que E[T |U ] = U + . lien vers lindication lien vers
la solution

n+b
xi = n}. On
Exercice 12. On note n,b = {(x1 , . . . , xn+b ) {0, 1}n+b ; i=1
note n,b la loi uniforme sur n,b . On note Qn,b la mesure de probabilits
dfinie par

Qn,b (A) = n,b (A|x1 = 1) =

n,b (A {x1 = 1})


.
n,b (x1 = 1)

1. On note X1 , . . . , Xn+b les projections canoniques de n,b dans R. Montrer que la loi de (X2 , . . . , Xn+b ) sous Qn,b est n1,b .
2. On suppose que (X1 , . . . , Xn+b ) suit la loi n,b . On note T = inf{k
0; Xk+1 = 0}. T reprsente le nombre de boules noires tires dans
une urne contenant n boules noires et b boules blanches, o lon eectue une srie de tirages en sarrtant au tirage de la premire boule
n
blanche. Montrer que E[T ] = b+1
(on pourra procder par rcurrence
sur n, en conditionnant par le premier tirage).
lien vers lindication lien vers la solution

2.3.2

Exercices non corrigs

Exercice 13. Soient X et Y deux variables alatoires intgrables indpendantes. Calculer E[(1 + X)(1 + Y )|X]. lien vers lindication

32

CHAPITRE 2. ESPRANCE CONDITIONNELLE

Exercice 14. Soient X1 , . . . , Xn des variables alatoires indpendantes identiquement distribues admettant un moment dordre 1. Calculer
E[X1 |(X1 + X2 + . . . Xn )].
lien vers lindication
Exercice 15. Soient X et Y indpendantes, avec X B(n, p) et Y
B(n , p). Calculer E[X|X + Y ]
par un calcul direct
en utilisant le rsultat de lexercice prcdent.
lien vers lindication
Exercice 16. Soient X1 , . . . , Xn des variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. On note X(1), ..., X(n) les abscisses rordonnes
de la plus petite la plus grande. On pose
Mn = max(X(i + 1) X(i); 1 i n 1).
Le but de lexercice est de montrer que EMn = O( lnnn ).
1. Montrer que pour toute variable alatoire relle X valeurs dans [0, 1]
et tout h rel positif, on a
EX h + P(X h).
2. Pour i {1, . . . , n}, on note
Ai (h) = {j {1, . . . n}Xj Xi + h} 1jn,i=j {Xj ]X
/ i , Xi + h[}.
Montrer que
{Mn h} = ni=1 Ai (h).
3. On pose
Yi (h) =

c (Xj ).
1
j=i ]Xi ,Xi +h[

Montrer que 1Ai (h) 1{Xi 1h} Yi (h).


4. Montrer que
E[Yi (h)|Xi ] = max(Xi , 1 h)n1
5. En dduire que P(Ai (h)) (1 h)n .
6. Conclure.
lien vers lindication

2.3. EXERCICES SUR LESPRANCE CONDITIONNELLE

33

Exercice 17. On suppose que la loi du couple (X, Y ) sous P admet la densit
(x, y) 7 f (x, y) par rapport la mesure . Montrer que

E[X|Y = y] =

xf (x, y)d(x)
.
f (x, y)d(x)

(On commencera par lucider les abus de langage de lnonc).


Montrer que pour toute fonction mesurable telle que (X) est intgrable,
on a

(x)f (x, y)d(x)


E[(X)|Y = y] =
.
f (x, y)d(x)
lien vers lindication
Exercice 18. Soient X et Y deux variables alatoires valeurs dans un
ensemble dnombrable D. Montrer que pour toute fonction borne, et
pour tout i D avec P(X = i) > 0, on a
E[(Y )|X = i] =

P(Y = j|X = i)(j).

jD

lien vers lindication


Exercice 19. Soit

2 1 1

M =
1 2 1
1
1 2

1. Montrer quon peut construire un vecteur gaussien centr (X, Y, Z)


admettant M comme matrice de covariance.
2. Calculer E[X|Y, Z].
lien vers lindication
Exercice 20. Soit

3 0 2

M = 0 2 1
2 1 2
1. Montrer quon peut construire un vecteur gaussien centr (X, Y, Z)
admettant M comme matrice de covariance.
2. Calculer E[X|Y, Z].
3. Soit une fonction mesurable borne telle que (X) est intgrable.
Montrer que
E[(X)|Y = y, Z = z] =

(x)fy,z (x) d(x),

34

CHAPITRE 2. ESPRANCE CONDITIONNELLE


o fy,z est la densit de la loi normale N ( 23 y + 43 z, 2 ), o
2 4
2 = M v, v avec v = (1, , ) .
3 3
lien vers lindication

Exercice 21. Soit (Yn )n1 une suite de variables alatoires positives intgrables, A une tribu quelconque. On pose Y = limn+ Yn et Z = limn+ E[Yn |A].
Le but de lexercice est de montrer que si Z est fini presque srement, alors
Y est galement fini presque srement.
1. Soit M > 0. Montrer que E[1{Y >M } |A] = limn+ E[1{Yn >M } |A].
2. Montrer que pour tout n 1, on a M E[1{Yn >M } |A] E[Yn |A].
3. En dduire que E[1{Y >M } |A] tend presque srement vers 0 lorsque M
tend vers linfini.
4. Conclure.
lien vers lindication
Exercice 22. Soit (Rn )n0 une suite dcroissante dentiers naturels, avec
R0 = N . On pose, pour n 0, Sn+1 = Rn Rn+1 et Fn = (S1 , . . . , Sn ). On
pose T = inf{n 0; Rn = 0}. On suppose en outre que
k 1 E[1T >k1 (Sk 1)|Fk1 ] = 0.
1. Montrer que pour tout entier naturel non nul k, on a
P(Sk = 0, T k) = E(1T k (Sk 1)+ ).
En dduire que P(T < +) = 1.
2. Que peut-on dire de la suite (Mi )i1 dfinie par
Mi =

1T k (Sk 1) ?

k=1

3. En dduire la valeur de E[T ].


4. Application : On considre n personnes. On met leur nom dans une
urne. Chacun tire un nom. Ceux qui ont tir leur nom se retirent et on
recommence avec les autres. On demande le nombre moyen de tirages
quil faut faire pour "liminer" tout le monde.
lien vers lindication

Chapitre 3
Martingales
3.1
3.1.1

Dfinitions
Filtrations et martingales

Soit (, F, P ) un espace probabilis.


Dfinition: On appelle filtration toute suite croissante (Fn )n0 de soustribus de F.
Dfinition: Soit (Xn )n0 une suite de variables alatoires et (Fn )n0 une
filtration. On dit que la suite (Xn )n0 est (Fn )n0 adapte si pour tout n,
Xn est Fn -mesurable.
Dfinition: Soit (Xn )n0 une suite de variables alatoires. On appelle filtration naturelle adapte la suite (Xn )n0 la filtration dfinie par Fn =
(X0 , X1 , . . . Xn ).
Dfinition: Soit (Fn )n0 une filtration et (Xn )n0 une suite de variables
alatoires. On dit que la suite (Xn )n0 est une martingale adapte la filtration (Fn )n0 si
1. la suite (Xn )n0 est (Fn )n0 adapte
2. Pour tout n, Xn est intgrable.
3. Pour tout n, Xn = E[Xn+1 |Fn ].
Exemples:
1. Soit (Fn )n0 une filtration, X une variable alatoire intgrable. La
suite dfinie par Xn = E[X|Fn ] est une martingale
2. Soit (Xn )n1 une suite de variables alatoires indpendantes centres.
On pose pour tout n 1 : Fn = (X1 , . . . Xn ) et Sn = X1 +X2 +. . . Xn .
Alors, (Sn )n1 est une martingale adapte la filtration (Fn )n1 .
Remarque: Une martingale est toujours adapte sa filtration naturelle.
35

36

CHAPITRE 3. MARTINGALES

3.1.2

Dirences de martingales

Si Xn est une martingale adapte la filtration (Fn )n0 , la suite Yn dfinie


par Yn = Xn Xn1 vrifie
n 1 E[Yn |Fn1 ] = 0.

(3.1)

Rciproquement, si la suite (Yn )n1 est adapte la filtration (Fn )n0 et vrifie 3.1, la suite des sommes partielles dfinie par Xn = Y1 + + Yn est une
martingale adapte la filtration (Fn )n0 .
Dfinition: On appelle une telle suite (Yn ) une dirence de martingale.
Remarque: Si la suite de dirences de martingale (Yn )n1 est dans L2 , la
variable Yn est orthogonale toutes les variables Z de carr intgrable qui
sont Fn1 -mesurables. En particulier, les (Yn )n1 forment une suite orthogonale dans L2 .
Comme on le verra dans les exercices, les martingales sont souvent utiles
pour udier des suites de variables alatoires qui ne sont pas elles-mmes des
martingales. Mettre en vidence une martingale partir dune suite nest pas
toujours facile. Une bonne ide est de commencer par exhiber une dirence
de martingale. Par exemple, si (Xn )n0 est une suite intgrable quelconque,
(Xn+1 E[Xn+1 |X0 , . . . Xn ])n0 est toujours une dirence de martingales.

3.1.3

Sous-martingales, sur-martingales

Dfinition: Soit (Fn )n0 une filtration et (Xn )n0 une suite de variables
alatoires. On dit que la suite (Xn )n0 est une sous-martingale adapte la
filtration (Fn )n0 si
1. la suite (Xn )n0 est (Fn )n0 adapte
2. Pour tout n, Xn est intgrable.
3. Pour tout n, Xn E[Xn+1 |Fn ].
Dfinition: Soit (Fn )n0 une filtration et (Xn )n0 une suite de variables
alatoires. On dit que la suite (Xn )n0 est une surmartingale adapte la
filtration (Fn )n0 si
1. la suite (Xn )n0 est (Fn )n0 adapte
2. Pour tout n, Xn est intgrable.
3. Pour tout n, Xn E[Xn+1 |Fn ].

3.2. PREMIRES INGALITS

37

Proposition 2. Soit (Xn )n0 une suite de variables alatoires intgrables.


La suite (EXn )n0 est
dcroissante si la suite (Xn )n0 est une surmartingale.
croissante si la suite (Xn )n0 est une sous-martingale.
constante si la suite (Xn )n0 est une martingale.
Dmonstration. On va juste prouver la premire assertion. Pour tout n, on
a Xn E[Xn+1 |Fn ].
En prenant lesprance, on a E[Xn ] E[E[Xn+1 |Fn ]] = E[Xn+1 ].

3.2
3.2.1

Premires ingalits
Martingales et fonctions convexes

Thorme 20. Soit (Fn )n0 une filtration et une fonction convexe.
Si la suite (Xn )n0 est une martingale adapte la filtration (Fn )n0 et
que les ((Xn ))n0 sont intgrables, alors la suite la suite ((Xn ))n0
est une sous-martingale adapte la filtration (Fn )n0 .
Si la suite (Xn )n0 est une sous-martingale adapte la filtration
(Fn )n0 , que est croissante et que les ((Xn ))n0 sont intgrables,
alors la suite ((Xn ))n0 est une sous-martingale adapte la filtration (Fn )n0 .
Dmonstration.
Comme Xn = E[Xn+1 |Fn ], on a (Xn ) = (E[Xn+1 |Fn ])
E[(Xn+1 )|Fn ], daprs lingalit de Jensen conditionnelle.
Xn E[Xn+1 |Fn ] entrane, avec lhypothse de croissance (Xn )
(E[Xn+1 |Fn ]) et on conclut comme prcdemment avec lingalit de
Jensen conditionnelle.

Exemple: En particulier, si une suite (Xn )n0 de variables alatoires positives est une sous-martingale de carr intgrable, alors la suite (Xn2 )n0 est
une sous-martingale.

3.2.2

Ingalit de Kolmogorov

Thorme 21. Soit (Xn )n0 une sous-martingale. Pour tout > 0, on a
P( max Xi )
1in

1
E|Xn |.

38

CHAPITRE 3. MARTINGALES

Dmonstration. Notons = inf{i 1; Xi }. Il est clair que


{ max Xi } = { n}.
1in

Soit k entre 1 et n : lvnement = k est Fk -mesurable, donc daprs la


proprit de sous-martingale, on a
E[Xn 1{ =k} ] = E E[Xn 1{ =k} |Fk ] = E 1{ =k} E[Xn |Fk ] E 1{ =k} Xk .
Mais 1{ =k} Xk 1{ =k} . Ainsi, en intgrant, on obtient
E[Xn 1{ =k} ] P( = k).
En faisant la somme pour k variant de 1 n, on obtient
E[Xn 1{ n} ] P( n).
Si (Xn )n1 est une sous-martingale positive, on a fini, car alors
EXn E[Xn 1{ n} ] P( n).
Sinon, comme (Xn+ )n1 est une sous-martingale positive, on peut lui appliquer le rsultat que lon vient de dmontrer, et lon a
P( max Xi ) = P( max Xi+ )
1in

1in

1
1
EXn+ E|Xn |,

ce qui donne le rsultat voulu.

3.3

Convergence des martingales de carr intgrable

Thorme 22. Soit (Xn )n0 une martingale adapte la filtration (Fn )n1
telle que
sup EXn2 < +.
n1

Alors (Xn )n0 converge presque srement et dans L2 vers une variable X
de carr intgrable.
Dmonstration. La convergence quadratique sobtient par des mthodes hilbertiennes classiques : comme L2 est complet, il sut en eet de montrer que
la suite (Xn )n0 est de Cauchy. Soit p < n entiers. Comme Xn est dans L2 ,

3.3. CONVERGENCE DES MARTINGALES DE CARR INTGRABLE39


on sait que E[Xn |Fp ] = Xp est le projet orthogonal de Xn sur le sous-espace
des variables Fp -mesurables. Ainsi, on peut crire lidentit de Pythagore :
Xn 22 = Xp 22 + Xn Xp 22 ,
ou encore
EXn2 = EXp2 + E(Xn Xp )2 .
Il est alors clair que la suite (EXn2 )n1 est croissante : elle converge donc
vers = supn1 EXn2 que nous avons suppos fini. Soit > 0 et N tel que
EXn2 2 pour n N . Alors, pour n, p N , on a Xn Xp 2 ,
ce qui contre bien que la suite est de Cauchy, et donc convergente.
On va maintenant montrer la convergence presque sre. Pour cela, on va
montrer que la suite (Xn )n1 est presque srement de Cauchy, cest dire que
Rn = supi,jn |Xi Xj | tend presque srement vers 0. Comme la suite (Rn )n
est monotone dcroissante, il sut de montrer quelle admet une sous-suite
qui converge presque srement vers 0. Pour dmontrer que (Rn )n admet
une sous-suite qui converge presque srement vers zro, il sut (voir le cours
de licence) de montrer que Rn converge en probabilit vers 0.
Soit donc > 0. On a
{Rn > } in {|Xn Xi | > /2}.
Ainsi
P(Rn > ) P(sup |Xn Xi | /2)
in

P(sup |Xn Xi | > /3).


in

Daprs le thorme de continuit squentielle croissante, on a


P(sup |Xn Xi | > /3) = sup P( sup |Xn Xi | > /3).
N n

in

niN

La suite (Xn Xi )ni est une martingale, donc la suite ((Xn Xi )2 )ni
est une sous-martingale positive : on a donc
P( sup |Xn Xi |2 > 2 /9)
niN

Ainsi
P(Rn > )

9
E(Xn XN )2 .
2

9
sup E(Xn XN )2 ,
2
N n

cette dernire suite tend bien vers 0, puisque (Xn )n1 converge en moyenne
quadratique.

40

3.4

CHAPITRE 3. MARTINGALES

Temps darrts

On dit que variable alatoire T valeurs dans N {+} est un temps


darrt adapt la filtration (Fn )n0 si pour tout n N, lvnement T n
est Fn -mesurable.
Comme {T = n} = {T n}\{T n 1}, il sensuit que T = n est
galement Fn -mesurable.
Exemple: Toute constante est un temps darrt adapt toute filtration.
Dmonstration. Si T est constant, {T n} ne peut valoir que ou , et
est donc toujours dans Fn .
Exemple: Si (Xn )n1 est une suite de variables alatoires (Fn )n1 -adapte
valeurs dans S et A un borlien de S, alors
TA = inf{n 1; Xn A}
est un temps darrt (Fn )n1 -adapt.
Preuve : {TA n} = nk=1 {Xk A}.
Dfinition: On dit quun vnement A se produit avant T si pour tout n,
lvnement A {T n} est Fn -mesurable.
Remarque: Si deux temps darrts S et T adapts la filtration (Fn )n0
vrifient S T , alors tout vnement qui se produit avant S se produit avant
T.
Dmonstration. Soit A se produisant avant S. Comme S T , on a {T
n} A = (A {S n}) {T n}. Comme A se produit avant S, A {S
n} Fn . Par dfinition dun temps darrt, {T n} Fn . On en dduit
que {T n} A Fn . Comme n est quelconque, A se produit avant T .
Proposition 3. Soit T un temps darrt adapt une filtration (Fn )n0 .
Lensemble FT des vnements qui se produisent avant T forme une tribu.
Dmonstration.
Montrons que FT . Pour tout n, on a {T
n} = Fn , car toute tribu contient donc on a bien FT .
Soit A FT . Montrons que Ac FT . Soit n entier. On a Ac {T
n} = {T n}\(A{T n}). Les vnements {T n} et A{T n}
sont tous deux Fn -mesurables, donc Ac {T n} est bien dans Fn .
Comme n est quelconque, Ac FT .
Soit (Ap )p1 une suite dlments de FT . Il faut montrer que A =
p1 Ap FT Soit n entier. On a
A {T n} = p1 (Ap {T n}),

3.4. TEMPS DARRTS

41

A est runion dnombrable dlments de Fn , donc A Fn , et finalement A FT .


Remarque: T est FT mesurable.
Dmonstration. Il sut de montrer que pour tout t R {T t} FT . Soit
n N : Si on note i la partie entire de t, on a
{T t} {T n} = {T i} {T n} = {T i n} Fin Fn .

Thorme 23 (Thorme de Hunt). Soit (Fn )n0 une filtration et (Xn )n0
une sous-martingale adapte la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] XS .
Dmonstration. Il sagit de montrer que pour tout vnement A FS -mesurable,
on a EXT 1A EXS 1A . Soit M un entier dterministe tel que lon ait
S T M . Posons k = Xk Xk1 , avec X1 = 0. Notons, que comme
(Xn ) est une sous-martingale E1B k est positif pour tout ensemble B Fk1 mesurable. On a
E((XT XS )1A ) = E(

k 1S<kT 1A )

k=0

Ek 1{S<kT }A

k=0

Pour conclure, il reste donc voir que {S < k T } A est Fk1 -mesurable,
ce qui vient de lidentit
{S < k T } A = ({S k 1} A) (T k 1)c .

On en dduit facilement les deux rsultats suivants :


Corollaire 4. Soit (Fn )n0 une filtration et (Xn )n0 une surmartingale adapte la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] XS .

42

CHAPITRE 3. MARTINGALES

Corollaire 5. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] = XS .
Thorme 24 (Thorme darrt). Soit (Fn )n0 une filtration et (Xn )n0
une sous-martingale adapte la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration (Fn )n0 . Alors la suite (XnT )n0 est une sousmartingale adapte la filtration (Fn )n0 .
Dmonstration. Soit A un vnement Fn -mesurable et n un entier. On a
E1A X(n+1)T = E1A X(n+1)T 1{T n} + E1A Xn+1T 1{T >n}
= EXnT 1A 1{T n} + EX(n+1)T 1A 1{T >n}
Pour linstant, on a juste utilis que quand T n, on a (n + 1) T =
T = n T.
Montrons que A {T > n} est FnT -mesurable : soit p un entier ; on doit
montrer que A {T > n} {n T p} est dans Fp . Si n > p, lintersection
est lensemble vide, donc est Fp -mesurable. Si n p, alors {n T p} = ,
donc
A {T > n} {n T p} = A {T > n} Fn Fp .
Ainsi, en appliquant le thorme de Hunt aux temps darrts (n + 1) T
et n T , on a
EX(n+1)T 1A 1{T >n} EXnT 1A 1{T >n}
Do
E1A X(n+1)T = EXnT 1A 1{T n} + EX(n+1)T 1A 1{T >n}
EXnT 1A 1{T n} + EXnT 1A 1{T >n}
EXnT 1A
ce qui achve la preuve.
On en dduit facilement les deux rsultats suivants :
Corollaire 6. Soit (Fn )n0 une filtration et (Xn )n0 une surmartingale adapte la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration
(Fn )n0 . Alors la suite (XnT )n0 est une surmartingale adapte la filtration (Fn )n0 .

3.5. CONVERGENCE DES MARTINGALES BORNES DANS L1

43

Corollaire 7. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration (Fn )n0 .
Alors la suite (XnT )n0 est une martingale adapte la filtration (Fn )n0 .
Remarque: Certains auteurs appellent thorme darrt ce que nous
avons appel thorme de Hunt . En fait, ces deux rsultats sont quivalents. Ici, nous avons choisi de dmontrer le thorme de Hunt et den
dduire le thorme darrt, tandis que dautres auteurs (par exemple Baldi,
Mazliak et Priouret) font le choix inverse.
Les deux lemmes suivants seront utiles par la suite. Leur preuve relve
des mthodes classiques.
Lemme 4. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration (Fn )n0 .
Alors, la variable alatoire 1{T <+} XT est FT -mesurable.
Dmonstration. Il sut de voir que pour tout borlien de R, lvnement
{1{T <+} XT A} est FT -mesurable. Soit n un entier : on a
{1{T <+} XT A} {T n} = in {Xi A; T = i},
qui est bien Fn -mesurable.
Lemme 5. Soit (Fn )n0 une filtration et (An )n0 une suite dvnements
adapte la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration
(Fn )n0 . Alors, la variable alatoire S dfinie par
S() = inf{n T (); An }.
est un temps darrt.
Dmonstration. Il sut de remarquer que pour tout n
{S n} = in Ai {T i},
qui est clairement Fn -mesurable.

3.5
3.5.1

Convergence des martingales bornes dans


L1
Thorme des traverses montantes

Thorme 25. Soit (Xn )n1 une sous-martingale a, b deux rels avec a < b.
On note Un[a,b] le nombre de traverses montantes de a b entre les instants
1 et n. Alors, on a
E(Xn a)+
EUn[a,b]
ba

44

CHAPITRE 3. MARTINGALES

Dmonstration. Posons pour n 1 : Yn =

(Xn a)+
ba

: comme |Yn |

1
(|Xn |+
ba

|a|) et que (x) = (xa)


est croissante et convexe, (Yn )n1 est une sousba
martingale.
Posons 0 = 0, et pour k 1
k = inf{n k1 ; Xn a}
et
k = inf{n k ; Xn b}.
En utilisant le lemme 5, on voit facilement par rcurrence que les (k ) et les
(k ) sont des temps darrt. Dautre part, par construction, on a 0 1
1 2 n n .
On a
Un[a,b] =

1{k n} .

k=1

Montrons que 1{k n} Ynk Ynk : il y a trois cas possibles


si k > n, alors k > n : on a
1{k n} = 0 = Yn Yn = Ynk Ynk .
si k k n, alors on a Ynk = Yk 1 tandis que Ynk = Yk = 0,
de sorte que
1{k n} = 1 Ynk Ynk .
si k n < k , alors Ynk = Yn 0 tandis que Ynk = Yk = 0, de
sorte que
1{k n} = 0 Ynk Ynk .
On a donc
Un[a,b]

Ynk Ynk .

k=1

On peut crire
Yn Y0 = Yn n Y0 n
=
=

Yk n Yk1 n

k=1
n

(Yk n Yk n ) + (Yk n Yk1 n )

k=1

3.5. CONVERGENCE DES MARTINGALES BORNES DANS L1

45

Il sensuit que
Un[a,b] Yn Y0

Yk n Yk1 n

k=1

Yn

Yk n Yk1 n ,

k=1

soit, en prenant lesprance


EUn[a,b] EYn

E[Yk n Yk1 n ].

k=1

Mais k n et k1 n sont des temps darrts borns avec k1 k . Daprs


le thorme de Hunt, on a donc, en rintgrant, E[Yk n Yk1 n ] 0, do
EUn[a,b] EYn ,
ce qui tait le rsultat voulu.

3.5.2

Le thorme de convergence de Doob

Thorme 26. Soit (Xn )n1 une sous-martingale. Les quantits


K = supn1 E[Xn+ ] et L = supn1 E[|Xn |]
sont simultanment finies ou infinies. Si elles sont finies, la suite (Xn )n1
converge presque surement vers une variable alatoire X intgrable, avec
E|X| L.
Dmonstration. On a pour tout n,
E(Xn+ ) E(|Xn |) = E(2Xn+ Xn ) = 2E(Xn+ ) E(Xn ) 2E(Xn+ ) E(X0 ),
do K L 2K E(X0 ). Passons la preuve de la convergence.
Faisons dabord une remarque danalyse : si une suite (xn )n1 ne converge
pas dans R, alors il existe deux rationnels a et b tels que la suite (xn )n1
traverse une infinit de fois lintervalle [a, b] de bas en haut : pour cela, il
sut de considrer deux rationnels a et b vrifiant limn+ xn < a < b <
limn+ xn . Ainsi, si lon note U [a,b] le nombre de traverses de lintervalle
[a, b], on a
{Xn ne converge pas dans R} a<b,(a,b)Q2 {U [a,b] = +}.

46

CHAPITRE 3. MARTINGALES

Cette runion est dnombrable. Pour achever la preuve, il sut donc de


montrer que pour tout couple (a, b) avec a < b, on a
P(U [a,b] = +) = 0.
Cependant on a par convergence monotone EU [a,b] = limn+ E[Un[a,b] ]
K+|a|
daprs le thorme des traverses montantes et la dfinition de K.
ba
Comme U [a,b] est intgrable, elle est presque srement finie.
Ainsi (Xn )n1 converge presque srement vers un lment X de R. Daprs
le lemme de Fatou, on a E|X| = Elimn+ |Xn | limn+ E|Xn | L. Ainsi,
|X| est intgrable, ce qui implique quelle prend presque srement ses valeurs
dans R.

Corollaire 8. Soit (Xn )n0 une surmartingale positive intgrable adapte


la filtration (Fn )n1 . Alors (Xn )n0 converge presque srement vers une
variable X telle que E[X ] E[X0 ].
Dmonstration. (Xn )n0 est une sous-martingale. Comme E(| Xn |) =
E(Xn ) E(X0 ), on applique le thorme avec L = E[X0 ].

3.5.3

Martingales inverses

Soit (Fn )n0 une suite dcroissante de sous-tribus de F. On dit quune


suite (Xn )n0 de variables alatoires intgrables est une surmartingale renverse adapte la filtration (Fn )n0 si
Pour tout n 0, Xn est Fn -mesurable.
Pour tout n 0, E(Xn |Fn+1 ) Xn+1 .
Thorme 27. Une surmartingale renverse (Xn ) adapte la filtration
(Fn )n0 converge presque srement vers une variable alatoire X mesurable
par rapport la tribu F = n0 Fn .
Dmonstration. On procde comme dans le thorme de Doob : si lon note
U [a,b] (resp. Un[a,b] ) le nombre de traverses de traverses de lintervalle [a, b]
(resp. le nombre de traverses entre 0 et n), on a par convergence monotone
EU [a,b] = limn+ E[Un[a,b] ]. Cependant, la suite (Xn , Xn1 , . . . , X0 ) est une
surmartingale, donc daprs le thorme des traverses montantes, on a pour
+
+
0 a)
0 a)
tout n : E[Un[a,b] ] E(Xba
. Ainsi EU [a,b] E(Xba
< +. On conclut
comme dans la preuve du thorme de Doob.

3.6. APPROXIMATION L1 PAR DES MARTINGALES

3.6

47

Approximation L1 par des martingales

Le but de cette section est de dmontrer les deux thormes suivants :


Thorme 28 (Convergence L1 des martingales). Soit (Fn )n1 une filtration de lespace (, F, P). On note F = (n1 Fn )). Soit Z une variable
alatoire possdant un moment dordre 1. On pose Yn = E[Z|Fn ]. La suite
Yn converge presque srement et dans L1 vers E[Z|F ]
Thorme 29 (Convergence L1 des martingales inverses). Soit (, F, P)
un espace probabilis, (Gn )n1 une suite dcroissante de sous-tribu de F .
On note G = n1 Gn . Soit Z une variable alatoire possdant un moment
dordre 1. On pose Zn = E[Z|Gn ]. La suite Yn converge presque srement et
dans L1 vers E[Z|G ]
On va sappuyer sur un lemme utile dans les deux preuves.
Lemme 6. Soient C et D deux tribus, a > 0. Pour Z variable positive
intgrable, on a
E[Z|C] E[Z|D]1 E[Z a|C] E[Z a|D]1
+ 2E[Z1{Z>a} ]
Dmonstration. On a
E(Z|C) E(Z a|C) = E((Z a)1{Z>a} |C)
Comme lesprance conditionnelle est une contraction dans L1 , on a
E(Z|C) E(Z a|C)1 E((Z a)1{Z>a} ).
De mme,
E(Z|D) E(Z a|D)1 E((Z a)1{Z>a} ).
En utilisant lingalit triangulaire dans L1 , on obtient lingalit voulue.
Passons aux preuves des thormes.
Dmonstration. Par linarit, avec Z = Z + Z , il sut de traiter le cas o
Z 0. On peut galement supposer sans restriction que EZ > 0. Daprs le
thorme de convergence des martingales de Doob, on sait que (Yn ) converge
presque srement. Montrons que (Yn ) est de Cauchy dans L1 . Soit > 0.
Par convergence domine, on peut se donner a tel que E(Z1{Z>a} ) /3.
La suite E(Z a|Fn ) est une martingale, borne dans L2 ( par a) , donc qui
converge dans L2 , et plus forte raison dans L1 .

48

CHAPITRE 3. MARTINGALES

Ainsi, la suite E(Z a|Fn ) est de Cauchy dans L1 : on peut trouver N


tels que pour n, p N , E(Z a|Fn ) E(Z a|Fp )1 /3. Avec le lemme,
on a E(Z|Fn ) E(Z a|Fp )1 pour n, p N , ce qui montre que la
suite (Yn ) est de Cauchy dans L1 , donc convergente dans L1 . Notons Y la
limite. Il reste voir que Y = E[Z|F ]. Pour tout n, Yn est Fn -mesurable,
donc F -mesurable, et la limite Y est F -mesurable.
Fixons un entier naturel n. Soit A Fn . Pour p n, comme A Fp , on
a E[Z1A ] = E[Yp 1A ], donc
|E[Z1A ] E[Y 1A ]| = |E[Yp 1A ] E[Y 1A ]|
E(|Yp Y ]1A ) E|Yp Y |
Finalement |E[Z1A ]E[Y 1A ]| lim E|Yp Y | = 0, do E[Z1A ] = E[Y 1A ].
En particulier, prenant A = , on a E(Z) = E(Y ). Les applications A 7
E[Z1A ]
E[Y 1A ]
et
A

7
sont des mesures ce sont en fait des mesures densit
EZ
EZ
par rapport P. Ce sont mme des probabilits. Daprs ce qui prcdent, ces
deux probabilits concident sur n1 Fn ) qui est un -systme engendrant
F : elles concident donc sur F , ce qui montre que Y est bien une version
de lesprance conditionnelle de Z sachant F .
Les deux preuves sont assez semblables, la deuxime tant peut-tre un
peu plus facile. On suggre donc la lectrice de lire la premire preuve, puis
dessayer de faire la seconde preuve seule avant de lire la preuve propose.
Dmonstration. Par linarit, avec Z = Z + Z , il sut de traiter le cas o
Z 0. Daprs les thormes de convergence des surmartingales renverses,
on sait que (Zn ) converge presque srement. Montrons quelle est de Cauchy
dans L1 . Soit > 0 et prenons a tel que E(Z1{Z>a} ) /3.
La suite E(Z a|Gn ) est une martingale renverse : elle converge presque
srement. Mais une suite de variables alatoires qui converge presque srement et est uniformment borne par une constante converge dans L1 . Ainsi,
il existe N tel que pour n, p N , E(Z a|Gn ) E(Z a|Gp )1 /3, ce qui
entrane avec le lemme que E(Z|Gn ) E(Z a|Gp )1 pour n, p N : la
suite (Zn ) est de Cauchy dans L1 , donc convergentes dans L1 . Notons Z la
limite. Il reste voir que Z = E[Z|G ].
Fixons n. Pour p n, Zp est Gp -mesurable, donc Gn -mesurable, et la
limite Z est Gn -mesurable. Mais si Z est Gn -mesurable pour tout n, elle est
G -mesurable. Soit A G . Comme A Gn , on a E[Z1A ] = E[Zn 1A ], donc
|E[Z1A ] E[Z 1A ]| = |E[Zn 1A ] E[Z 1A ]|
E(|Zn Z ]1A ) E|Zn Z |

3.7. DCOMPOSITION DE DOOB (*)

49

Finalement |E[Z1A ]E[Z 1A ]| lim E|Zn Z | = 0, do E[Z1A ] = E[Z 1A ] :


Z est bien une version de lesprance conditionnelle de Z sachant G .

3.7

Dcomposition de Doob (*)

Dfinition: On dit quun processus (Fn )n0 - adapt (Cn )n0 est un processus
croissant prvisible si C0 = 0, Cn Cn+1 et si Cn+1 est Fn -mesurable.
Thorme 30. Toute sous-martingale (Xn )ge0 scrit de manire unique
comme somme dune martingale (Mn )n0 et dun processus croissant prvisible intgrable (Cn )n0 .
Dmonstration. Supposons quune telle dcomposition existe : on a alors
E[Xn+1 Xn |Fn ] = E[Mn+1 Mn |Fn ] + E[Cn+1 Cn |Fn ]
= 0 + (Cn+1 Cn )
= Cn+1 Cn ,
car (Mn )n0 est une martingale et Cn+1 Cn est Fn -mesurable. Comme
C0 = 0, on doit ncessairement avoir
Cn =

E[Xi+1 Xi |Fi ].

i<n

Chaque terme de la somme est bien dans Fn1 et est positif, car (Xn )n0 est
une sous-martingale, donc Cn est bien croissant prvisible.
On prsente maintenant une jolie application de la Dcomposition de
Doob. On va donner une nouvelle preuve du thorme de Hunt, base sur
son corollaire relatif aux martingales (lequel peut bien sr se montrer sans
utiliser la version sous-martingale du thorme de Hunt, voir par exemple
Stroock).
Corollaire 9 (Thorme de Hunt, version 2). Soit (Fn )n0 une filtration et
(Xn )n0 une sous-martingale adapte la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] XS .
Dmonstration. On crit la dcomposition de Doob Xn = Mn + An , avec la
martingale (Mn )n0 et le processus croissant prvisible intgrable (Cn )n0 .
XT = MT + CT MT + CS , car (Cn )n0 est croissant. Donc E[XT |FS ]
E[MT |FS ] + E[CS |FS ]. Daprs le thorme de Hunt sur les martingales,

50

CHAPITRE 3. MARTINGALES

E[MT |FS ] = MS . Dautre part , le processus (Cn )n0 est adapt, donc daprs
le lemme 4, CS est FS -mesurable et E[CS |FS ] = CS . Finalement, E[XT |FS ]
MS + CS = XS .

3.8. EXERCICES SUR LES MARTINGALES

3.8
3.8.1

51

Exercices sur les martingales


Exercices corrigs

Exercice 23. Soit a R. Soit (Un )n1 une suite de variables alatoires
indpendantes suivant la loi uniforme sur [0, 1]. On dfinit par rcurrence
une suite Xn par X0 = a et Xn+1 = Un+1 + (1 Un+1 )Xn2 .
1. Montrer que la suite (Xn )n0 est une sous-martingale.
2. On suppose maintenant que a [0, 1].
(a) Montrer que (Xn )n0 converge presque srement vers une variable
alatoire X .
(b) Donner la valeur de X
lien vers lindication lien vers la solution
Exercice 24. Urne de Plya
Une urne contient des boules de m couleurs direntes. On suit le procd
suivant : on prend au hasard (avec quiprobabilit) une boule dans lurne,
puis on la replace dans lurne en mme temps quon y ajoute S boules de la
couleur tire. On sintresse au comportement asymptotique de la rpartition
des couleurs dans lurne.
On modlise le problme comme suit : on suppose que lurne contient
initialement d1 boules de couleur 1, . . ., dm boules de couleur m. On pose
d = d1 + +dm . On se donne un vecteur dterministe (B1 , . . . , Bd ) valeurs
dans {1, . . . , m} de telle sorte que di est le nombre dapparitions de i dans
la suite B1 , . . . , Bd . On prend maintenant (Un )n1 , une suite de variables
alatoires indpendantes telles que pour tout n, Un suive la loi uniforme sur
{1, . . . , d + (n 1)S}. On dfinit alors par rcurrence les suites (Bi )i>d et
(Tn )n1 en posant, pour n 1 :
Tn = BUn puis, pour i entre 1 et S : Bd+i+(n1)S = Tn .
(Bi )i1 reprsente la suite des couleurs des boules successivement ajoutes
dans lurne, tandis que (Ti )i1 reprsente la suite des tirages.

On note Vn = d+nS
k=1 eBk : Vn reprsente le vecteur des eectifs des diffrentes couleurs avant le n + 1-ime tirage. On a donc V0 = (d1 , . . . , dm ).
Notons que par construction Vn+1 = Vn + SeTn+1 . On pose Vni = Vn , ei :
cest le nombre de boules de couleur i dans lurne avant le n-ime tirage.
Pour n 1, n note Fn la tribu engendre par U1 , . . . , Un ; on pose galement F0 = {, }.
1. (a) Montrer que pour tout n 1 et pour tout i entre 1 et S, Bd+(n1)S+i
est Fn -mesurable.

52

CHAPITRE 3. MARTINGALES
i
(b) Montrer que Vn+1
= Vni + S

d+nS
k=1

i
(c) En dduire que E[Vn+1
|Fn ] = Vni +

1{Un+1 =k} 1{Bk =i}


SVni
.
d+Sn

Vn
(d) Montrer que ( Sn+d
)n0 est une martingale.

(e) En dduire que la suite de vecteurs alatoires Vn /(Sn+d) converge


presque srement vers un vecteur alatoire W .
(f) Montrer que pour tout n 1 et tout i {1, . . . , m}, on a P(Tn =
i) = ddi .
2. Dans la suite de lexercice, on va chercher dterminer la loi de W .
On a besoin cet eet de quelques rappels sur les lois de Dirichlet. Par
dfinition, la loi de Dirichlet de paramtre (a1 , . . . , am ) est la loi du
X1
Xm
vecteur (Y1 , . . . , Ym ) = ( X1 ++X
, . . . , X1 ++X
), o X1 , . . . , Xm sont
m
m
des variables alatoires indpendantes avec pour tout i entre 1 et m :
Xi (ai , 1). On peut dmontrer (et cest en fait la seule proprit
des lois de Dirichlet qui sera utile ici) que pour toute suite dentiers
(b1 , . . . , bm ), on a
E[

i=1

Yibi ]

m
+ b)
(ai )
B(a

.
, avec B(a)
= i=1
=
m
( i=1 ai )
B(a)

(a) Soit n 1, (t1 , . . . , tn ) {1, . . . , m}n . Montrer que


P(T1 = t1 , . . . Tn = tn ) =

di (di + S) . . . (di + (ai 1)S)


,
d(d + S) . . . (d + (n 1)S)
(3.2)

i=1

o ai est le nombre dapparitions de i dans la suite t1 , . . . , tn , puis


que
(

P(T1 = t1 , . . . Tn = tn ) = E

Yiai

(3.3)

i=1

o le vecteur (Y1 , . . . , Ym ) suit la loi de Dirichlet de paramtre Sd .


Remarque : pour k entre 1 et n, on pourra avoir intrt noter aki
le nombre dapparitions de i dans la suite t1 , . . . , tk .
(b) Montrer que pour toute suite dentiers a1 , . . . , am avec a1 +. . . am =
n, on a
(

n
P((Vn d)/S = (a1 , . . . , am )) =
E[ Yiai ].
a1 , . . . , a m
i=1

3.8. EXERCICES SUR LES MARTINGALES

53
(

On rappelle que le coecient multinomial a1 ,a2n,...,am est, par dfinition, le nombre dapplications de {1, . . . , n} dans {1, . . . , m}
prenant ai fois la valeur i. On a la formule du multinme :
(
m

)n

j=1

Xj

(a1 ,...,am )

m
n
X ak ,
k=1 k
a1 , a 2 , . . . , a m

o la sommation a lieu sur les m-uplets dentiers naturels de somme


n.
(c) On note n (u) la fonction caractristique du vecteur (Vn d)/S.
Montrer que
(m
)n

iuk
n (u) = E
Yk e
.
k=1

(d) Montrer que Vn /(Sn + d) converge en loi vers Y .


(e) Identifier la loi de W .
Toute la preuve semble reposer sur lidentit miraculeuse (3.3). En
ralit, lquation (3.2) entrane que les Ti sont changeables, cest
dire que leur loi est invariante par permutation dun nombre fini de
coordonnes. Dans ce cas, un thorme de De FinettiHewittSavage
entrane que conditionnellement une certaine tribu T , les Ti sont
indpendants et de mme loi. Ici, par exemple on peut dmontrer que
P(T1 = t1 , . . . Tn = tn |W ) =

Wti ,

i=1

ce qui entrane (3.3).


lien vers lindication lien vers la solution

3.8.2

Exercices non corrigs

Exercice 25. Soient 1 et 2 des temps darrts adapts la filtration (Ft )t0 .
Montrer que = max(1 , 2 ) est un temps darrt et que F = (F1 , F2 ).
lien vers lindication
Exercice 26. Soit (Xn )n1 une suite de variables alatoires indpendantes
identiquement distribues admettant un moment dordre 3 et vrifiant EX1 =
EX13 = 0 et EX12 = 1. On note Fn = (X1 , . . . , Xn ) et on pose
Sn =

k=1

Xi .

54

CHAPITRE 3. MARTINGALES
1. On pose Yn = Sn3 3nSn . Montrer que (Yn )n1 est une martingale par
rapport la filtration (Fn )n1 .
2. Soient a, b, c, d des rels. On pose
Q(x, t) = x2 + axt + bx + ct + d.
Pour quelles valeurs du quadruplet (a, b, c, d) la suite Zn = Q(Sn , n)
forme-t-elle une martingale rapport la filtration (Fn )n1 ?
lien vers lindication

Exercice 27. Soit (Xn )n1 une surmartingale (Fn )n1 -adapte. On suppose
que les (Xn )n1 ont toutes la mme loi.
1. Montrer que (Xn )n1 est une martingale.

2. Montrer que pour tout rel a les suites (Xn a)+


n1 et (Xn a)n1
sont des martingales.

3. En dduire que pour n > p 1, Xn est presque srement suprieur


ou gal a sur lvnement {Xp a}.
4. En dduire que (Xn )n1 est presque srement constante.
lien vers lindication
Exercice 28. Soit (Xn )n1 une suite de variables alatoires indpendantes
identiquement distribues dont la loi commune est non dgnre et support
compact. On pose Sn = X1 + + Xn , (t) = log EetX1 et
Ynt = etSn n(t) .
1. Montrer que (Ynt )n1 est une martingale par rapport la filtration
naturelle associe aux (Xn )n1 .
2. On suppose dsormais que t est non-nul. Montrer que (t/2) < (t)/2.
3. En dduire que (Ynt )n1 converge presque srement vers 0.
4. Retrouver ce rsultat partir de la loi forte des grands nombres.
lien vers lindication
Exercice 29. Retour sur les thormes dapproximation L1 par des martingales
Lors de la preuve des thormes de convergence dapproximation L1 par des
martingales (thormes 28 et 29) , on a vu quune tape importante de la
preuve tait de passer de la convergence presque sre la convergence L1 .
Pour cela, on sest appuy sur le lemme 6. Une solution un peu plus longue,

3.8. EXERCICES SUR LES MARTINGALES

55

mais clairante, est de passer par lqui-intgrabilit.


Soit X une variable alatoire intgrable sur (, F, P). Montrer que la
famille de variables E(X|G), o G dcrit lensemble des sous-tribus de F est
qui-intgrable. Conclure. lien vers lindication
Exercice 30. Soit a [0, /2]. Soit (Un )n1 une suite de variables alatoires
indpendantes suivant la loi uniforme sur [0, 1]. On dfinit par rcurrence une
suite Xn par X0 = a et Xn+1 = Un+1 sin Xn . Montrer que (Xn )n1 prend des
valeurs positives, puis que la suite (2n Xn )n0 est une surmartingale. lien vers
lindication
Exercice 31. Arrt optimal pour une marche alatoire.
On considre le jeu suivant. Jai un pion qui se dplace sur les entiers compris
entre 0 et n. A chaque point i {1, . . . , n 1} est associ un somme f (i)
strictement positive (on la prolonge par f (0) = f (n) = 0). On prolonge
encore f en une fonction continue par morceau dfinie sur [0, n] en posant
f (k + (1 )(k + 1)) = f (k) + (1 )f (k + 1) pour tout k {0, . . . , n 1}
et tout ]0, 1[.
Mon pion part dun point i0 {1, . . . , n 1} ; chaque tape, je peux
dcider de partir avec le gain correspondant ma position actuelle, ou alors
lancer une pice quilibre qui me donnera ma position suivante (juste
droite si pile, juste gauche si face). Si je touche 0 ou n je ne gagne rien
et je suis limin. Quelle stratgie adopter ?
Ce problme revient trouver un temps darrt T optimal pour la marche
alatoire. Notons Xn la position de mon pion linstant n, et Fn la tribu
engendre par X0 , . . . , Xn .
1. Soit g une fonction concave suprieure f . Montrer que (g(Xn ))nN
est une surmartingale.
2. Soit T un temps darrt fini p.s. Montrer que
E(f (XT )) E(g(XT )) g(i0 ).
3. Notons lenveloppe concave de f , cest dire
(x) = inf{g(x); g S(f )},
o S(f ) est lensemble des fonctions concaves de [0, n] dans R qui sont
suprieures f . Montrer que
E(f (XT )) (i0 ).

56

CHAPITRE 3. MARTINGALES
4. Montrer que est une fonction concave. Soit ]s, t[ [0, n] tel que
{x [s, t]; f (x) = (x)} = {s, t}. Montrer que est ane sur [s, t].
5. On dfinit Topt = min{n N, f (Xn ) = (Xn )}, ainsi que
A = min{j i0 , f (j) = (j)} et B = max{j i0 , f (j) = (j)}.
Calculer E(f (XTopt )) en fonction de f (A) et f (B), et en dduire que
E(f (XTopt )) = (i0 ).

lien vers lindication


Exercice 32. Soit (Xn )n1 une suite de variables alatoires indpendantes
centres, de variance 1. Montrer que la srie de terme gnral Yn = an X1 . . . Xn
converge presque srement et dans L2 . lien vers lindication

Chapitre 4
Complments de thorie de la
mesure
4.1
4.1.1

Rappels de topologie
Topologie produit

Si les (Ei , di ) sont des espaces mtriques, on dfinit une distance sur
i=1 Ei par

(x, y)

Ei

d(x, y) =

i=1

2i arctan di (xi , yi ).

i=1

Notons i la projection sur la i-ime coordonne : i (x) = xi .


La suite (x(n) )n1 converge vers x si et seulement si pour tout i (i (x(n) )n1 =
(n)
(xi )n1 converge vers xi = i (x).
Dmonstration. En eet, on a dun ct lingalit
di (xni , xi ) = tan(arctan di (xni , xi )) tan(2i d(xn , x)).
Ainsi, si d(xn , x) tend vers 0, di (xni , xi ) tend vers 0. Rciproquement, si
di (xni , xi ) tend vers 0 pour tout i, on a
i 1 limn+ 2i arctan di (xi , xni ) = 0
i 1 n 1 |2i arctan di (xi , xni )| 2i /2

i1 2i /2 < +
Ainsi, le rsultat annonc dcoule du thorme de convergence domine pour
la mesure de comptage.
Corollaire 10. Un produit dnombrable despaces mtriques complets est
complet.
57

58

CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

4.1.2

Espaces polonais

Dfinition. On introduit les deux dfinitions suivantes :


Un espace mtrique est sparable sil contient une partie dnombrable
dense
Un espace polonais est un espace mtrique complet et sparable.
Par exemple, R muni de la mtrique usuelle est un espace polonais : R
est complet et Q est dense dans R.
Thorme 31 (Lemme de Doob). Soient 1 , 2 des ensembles. On suppose
que X est une application de 1 dans 2 , que F2 est une tribu sur 2 . On
note alors F1 la tribu engendre par X, cest dire la plus petite tribu F1 qui
rende lapplication X (1 , F1 ) (2 , F2 ) mesurable. Alors, si (E, B) est un
espace polonais muni de sa tribu borlienne, les fonctions (1 , F1 ) (E, B)
mesurables sont celles qui scrivent sous la forme
Y = f (X),
o f est une application (2 , F2 ) (E, B) mesurable.
Dmonstration. Prenons Y une variable (1 , F1 ) (E, B) mesurable et montrons quelle scrit sous la forme demande (le sens inverse est immdiat).
On commence par traiter le cas o Y ne prend quun nombre fini de valeurs y1 , . . . , yn . Pour tout k entre 1 et n, {yk } E, donc Y 1 ({yk }) F1 .
Mais les lments F1 sont exactement les images rciproques par X des lments de F2 , donc il existe Ak F2 , avec Y 1 ({yk }) = X 1 (Ak ). Si lon pose

f (x) = ki=1 yk 1Ak , il est alors clair que f est une application (2 , F2 )(E, B)
mesurable et que Y = f (X).
Pour traiter le cas gnral, on a besoin dune technique dapproximation :
considrons une suite (yn )n1 dlments de E qui est dense dans E. On pose
alors pour tout y E :
n (y) =

k=1 i<k

1{d(y,yi )>d(y,yk )}

1{d(y,yi )d(y,yk )} yk .

k<in

Comme les fonctions y 7 d(y, yi ) sont continues, elles sont (E, B)(R, B(R))mesurable. Ainsi, les fonctions y 7 d(y, yi )d(y, yk ) sont (E, B)(R, B(R))mesurables : on en dduit que les ensembles {d(y, yi ) > d(y, yk )} et {d(y, yi )
d(y, yk )} sont dans B, puis que n est (E, B) (E, B)-mesurable. n (y) est
llment le plus proche de y parmi y1 , . . . , yk (on prend celui de plus petit
index en cas dgalit). Comme la suite (yn ) est dense dans E, n (y) converge
vers y quand n tend vers linfini. 1
1. Si E = R ou E = Rd , on peut prendre plus simplement n (x) =

nx
n 1[0,n] (x).

4.1. RAPPELS DE TOPOLOGIE

59

Prenons maintenant Y gnrale. Si on pose Yn = n (Y ), Yn est une fonction (1 , F1 )(E, B) mesurable qui ne prend quun nombre fini de valeurs : on
peut crire Yn = fn (X), o fn est une application (2 , F2 )(E, B) mesurable.
Comme (E, d) est complet, si on pose C = {x 2 ; (fn (x))n1 converge },
on a
C = k1 N 1 n,pN {d(fn (x), fp (x)) 1/k},
donc C F2 . Soit z0 E quelconque. On pose gn (x) = 1C (x)fn (x) +
z0 1C . Il est ais de voir que gn est encore (2 , F2 ) (E, B) mesurable. Par
construction, gn (x) converge pour tout x. La limite g est (2 , F2 ) (E, B)
mesurable comme limite simple dapplications (2 , F2 )(E, B) mesurables. 2
Pour tout 1 , on a fn (X()) = n (Y ()) qui converge vers Y (), donc
X() C, et gn (X()) = fn (X()) converge vers Y (). Comme gn (X())
converge vers g(X()), on a Y () = g(X()), ce qui est le rsultat voulu.
Thorme 32. Un produit dnombrable despaces polonais est polonais.
Dmonstration. Soient (Ei , di ) des espaces polonais. Vu le corollaire prc
dent, il sut de montrer que +
i=1 Ei a une partie dnombrable dense. Notons
Di une partie dnombrable dense dans Ei et x un lment quelconque de
+
i=1 Ei . Posons D = n1 En , avec
En =

Di

i=1

{xi }.

i=n

En est dnombrable pour tout n, donc D est dnombrable. Montrons que

D est dense dans +


i=1 Ei . Soit x dans E Soit > 0. Il existe n tel que
n
2 . Par densit, on peut trouver y En tel que pour tout i entre 1 et
n, d(yi , xi ) 2 . On a alors
d(x, y) =

2i arctan di (xi , yi )

i=1

arctan di (xi , yi ) +

i=1

i=1
n

2i arctan di (xi , yi )

i=n+1
+

2i di (xi , yi ) +

2i /2

i=n+1

2i /2 +

i=1

/2 + 2

2i /2

i=n+1
n

/2

2. Cette proprit est bien connue pour des variables alatoires relles. Le cas des
variables valeur dans un espace mtrique sera trait en exercice.

60

CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

En particulier RN est un espace polonais. Cest important en probabilits

car RN est typiquement lespace sur lequel on peut faire vivre une suite de
variables alatoires.
Thorme 33. Soient (E, d) un espace mtrique sparable et B sa tribu
borlienne. B est engendre par une famille dnombrable de boules ouvertes.
Dmonstration. Soit O un ouvert de E. E est un espace mtrique qui admet
une partie dense D, donc O scrit comme runion de boules ayant leur centre
dans O D et un rayon rationnel.
En eet, pour x O, on peut trouver nx N tel que B(x, 2/nx ) O.
Si on prend cx quelconque avec cx B(x, 1/nx ) D, alors x B(cx , 1/nx )
B(x, 2/nx ) O. On a alors O = xO B(cx , 1/nx ).
Cette runion est ncessairement dnombrable, puisque les centres et les
rayons sont dnombrables, donc O est dans la tribu engendre par les boules
dont le centre est dans D et le rayon rationnel.

Thorme 34. La tribu B engendre par les ouverts de RN concide avec


la tribu engendre par les applications projection i

Dmonstration. On a vu que lapplication est continue de (RN , d) dans


(R, | |). Elle est donc mesurable entre les tribus borliennes associes. On a

donc ((i )i1 ) B. Pour y dans RN , la fonction


dy (x) = d(x, y) =

i=1

|i (x) yi |
arctan |xi yi |
=
lim
arctan
N +
2i
2i
i=1

est une limite dapplications ((i )i1 )-mesurables donc est (i )-mesurable.

Il sensuit que les boules de (RN , d) sont des lments de ((i )i1 ). Or
daprs le thorme prcdent, les boules ouvertes engendrent la tribu borlienne, donc B est incluse dans ((i )i1 ), ce qui achve la preuve.
Thorme 35. Soient (E, d) un espace mtrique sparable. Il existe une
famille dnombrable (Oi )iI douverts de (E, d) telles que deux mesures borliennes qui concident sur les Oi sont gales.
Dmonstration. Comme prcdemment, on a une famille dnombrable de
boules (Bd )dD telles que tout ouvert scrive comme runion dnombrable
de boules (Bdn )n1 avec dn D pour tout n. Soit I lensemble des parties
finies de D. I est dnombrable. Posons OA = iA Bi .

4.2. NOTION DE LOI CONDITIONNELLE

61

Soit O un ouvert, avec O = n1 Bdn . On a pour toute mesure :


(O) = lim (nk=1 Bdk )
n+

= lim

n+

(1)|A|+1 (OA )

A{d1 ,...,dn },A=

Ainsi, si deux mesures concident sur les OA , elles concident sur les ouverts,
donc sur la tribu borlienne.

4.2

Notion de loi conditionnelle

Soit un espace polonais. On note M1 () lensemble des mesures de


probabilits sur (, B()).
On munit M1 () de la tribu T engendre par

les applications 7 f d, o f dcrit lensemble des fonctions continues


bornes sur .

4.2.1

Le thorme gnral

Thorme 36. Soit un espace polonais. On pose F = B(). Soit P une


probabilit sur (, F). Pour toute sous-tribu S de F, il existe une application
M1 ()
7 PS
qui est (, S)-(M1 (), T ) mesurable et telle que pour tout A S et B F ,
P (A B) =

PS (B) dP ().

(4.1)

Cette application est P presque srement unique. Pour toute variable alatoire X valeurs dans [0, +], lapplication
7

X dPS

est une version de lesprance conditionnelle de X sachant S.


Avant de faire la preuve, on rappelle ( ?) un rsultat danalyse fonctionnelle :
Proposition 4 (Thorme de reprsentation de Riesz). Pour toute forme linaire positive L sur (C([0, 1]d ), ), il existe une mesure sur (Rd , B(Rd ))
telle que

f C([0, 1]d ) L(f ) =


f d.
[0,1]d

62

CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

Dmonstration. Il ny a pas de preuve simple du thorme de reprsentation


de Riesz. On devine vite quune bonne dfinition de - si elle existe est
(A) = sup{L(f ); 0 f 1A .}
Toute la dicult consiste montrer que lobjet ainsi dfini est bien une
mesure sur la tribu borlienne. Les preuves reposent de manire plus ou
moins explicite sur la notion de mesure extrieure, de manire trs explicite
dans BrianePags [1] (chapitre 10), de manire plus cache dans Rudin [4]
(chapitre 1) ou HirschLacombe [3] (chapitre 2).
En fait, le thorme de reprsentation de Riesz est la pierre de base de
la thorie de lintgration par rapport une mesure de Radon. Cette thorie
part de la notion dintgrale (une forme linaire positive sur les fonctions
continues support compact) pour aller la notion de mesure de Radon.
linverse, la thorie de lintgrale par rapport une mesure abstraite, telle
que dveloppe dans BrianePags [1] ou GaretKurtzmann [2] part dune
mesure (pas ncessairement de Radon) pour construire lintgrale. La mesure
de Lebesgue tant une mesure de Radon, la thorie de lintgrale par rapport
une mesure de Radon est susante pour la plupart des besoins en analyse,
en revanche, elle est incomplte aux yeux des probabilistes, qui ont besoin
dintgrer sur des espaces plus gnraux.
Dmonstration. Montrons lunicit. Soit 7 PS et 7 QS deux solutions.
Comme est polonais, il existe une famille dnombrable douverts (On )n1
telle que dcrite dans le thorme 35. Pour tout n, 7 PS (On ) et 7
QS (On ) sont des versions de lesprance conditionnelle de 1On sachant S.
Ainsi, lensemble
B = n1 { : PS (On ) = QS (On )}
est de mesure 1. Daprs le thorme 35, pour tout B, les mesures PS et
QS concident : cest ce que lon voulait dmontrer.
Passons lexistence. Afin dviter les dtails techniques danalyse fonctionnelle, on va se contenter de donner la preuve dans le cas o = [0, 1]d . 3
On renvoie le lecteur louvrage de Stroock [5] pour une preuve dans le cas gnral. On sait que les polynmes forment une famille dense de C([0, 1]d , ).
On en dduit aisment que lensemble P des polynmes coecient rationnel
est une famille dnombrable dense de C([0, 1]d , ).
3. Cest une restriction minime. On verra dans la preuve du thorme de Kolmogorov
(thorme 61, voir aussi la note de bas de page suivant la preuve) que ds quun espace
permet de faire vivre une variable alatoire suivant la loi uniforme sur [0, 1], on peut y
faire vivre peu prs tout ce quon veut.

4.2. NOTION DE LOI CONDITIONNELLE

63

Posons g0,...,0 = 1, puis, pour n Nd \{(0, . . . , 0)}, notons gn une version

de lesprance conditionnelle de 7 di=1 ini sachant S. fix, il existe

une application linaire : R[X1 , . . . , Xd ] R telle que ( di=1 Xini ) =


gn () pour tout n. Il est ais de constater que pour tout f R[X1 , . . . , Xd ],
7 (f ) est une version de lesprance conditionnelle de f sachant S, cest
dire que (f ) est S-mesurable et que
A S

f dP =
A

(f ) dP()

(4.2)

Posons
N = f Q[X1 ,...,Xd ];f { ; (f ) < 0}.
Comme runion dnombrable dlments de S de probabilit nulle, N est un
lment de S de probabilit nulle. Pour N c et f Q[X1 , . . . , Xd ], on
a pour tout > f avec rationnel : + f 0 et f 0, donc
( + f ) 0, soit (1) + (f ) 0 et (1) (f ) 0. Comme
(1) = 1, on en dduit | (f )| . Comme peut tre pris aussi proche
de f que lon veut, on a | (f )| f . On a donc montr
N c

f P

| (f )| f .

Comme P est dense dans C(, ), pour tout N c , se prolonge en


une application linaire de norme 1 de C(, ) dans R.
Soit f C() une fonction positive. On peut trouver f P avec f
f 1/n. On a
(f ) = (f + 1/n) + (f f 1/n)
(f + 1/n) f f 1/n
(f + 1/n)

2
n

Mais f+1/n est une fonction positive de P. Comme N c , (f+1/n) 0,


do (f ) 2/n. En faisant tendre n vers linfini, on obtient (f ) 0.
Posons pour f C() :
(f ) = EP (f )1N () + (f )1N c ().

(f ) pour f P. Mais pour f C(, il existe une suite fn


Comme N S,
(fn ) converge
dlments de P telle que fn converge uniformment vers f et

partout (pour tout ) vers (f ) : 7 (f ) est donc S-mesurable comme


limite ponctuelle dapplications S-mesurables.

64

CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE


Comme N est de mesure nulle, on a encore pour tout f P :

A S

f dP =
A

(f ) dP()

(4.3)

(f ) dP() sont
Pour tout A, les formes linaires f 7 A f dP et f 7 A
continues sur C(). Comme elles concident sur P, elles concident sur C().
Daprs le thorme de reprsentation de Riesz, pour tout , il existe
S
(f ) = f dPS .
P telle que pour tout f C(),

S
Comme 7 f dP est S-mesurable pour tout f C(), la dfinition
de T entrane, avec le thorme fondamental de la mesurabilit, que 7 PS
est S-mesurable 4 .
Soit maintenant K un compact de : on peut construire une suite (fn )
borne de fonctions continues telle que
f converge simplement vers 1K . Par
n
convergence domine, pour tout , fn dPS converge vers PS (K), ce qui
entrane en particulier que 7 PS (K) est S-mesurable. Comme

A S

fn dP =

fn dPS dP(),

En appliquant encore une fois le thorme de convergence domine, on a


A S

1K dP =

1K dPS dP().

Passons maintenant au cas dun borlien quelconque : comme P est une


mesure de probabilits sur [0, 1]d Rd , P est rgulire, cest dire que
pour B borlien de , on peut trouver une suite (Kn ) de compacts et une
suite (On ) douverts, avec Kn B On et lim P(On \Kn ) = 0. Pour une
preuve de cette proprit, on pourra par exemple se reporter lannexe B.
de Garet-Kurtzmann [2].
Avec le lemme de Fatou

limn+ (PS (On ) PS (Kn )) dP limn+

(PS (On ) PS (Kn )) dP

= limn+ P(On \Kn ) = 0


Comme la suite (PS (On )PS (Kn ))n0 est dcroissante, il sensuit que pour Ppresque tout , PS (On )PS (Kn ) tend vers 0. Ainsi, P-presque tout , PS (Kn )
est S-mesurable.
tend vers P S (A). Ainsi, un P-ngligeable prs 7 PS (A)

Lidentit A 1Kn dP = A PS (Kn ) dP entrane la limite A 1B dP = A PS (B) dP.


Ainsi, PS (B) est bien une version de la probabilit conditionnelle de B sachant S.
Le passage au fonctions tages, puis aux fonctions mesurables positives,
est classique et laiss au lecteur.
4. voir lexercice 36

4.2. NOTION DE LOI CONDITIONNELLE

4.2.2

65

Loi dun vecteur sachant un autre

Un cas particulier important est le cas o P est une loi sur le produit
E F de deux espaces polonais 5 et que S est la famille des ensembles de
la forme A F , o A dcrit lensemble des borliens de E. Autrement dit,
cest le cas o S est la tribu engendre par la variable X, projection sur la
premire coordonne. Notons x un lment de E, y un lment de F .
S
Dans ce cas, comme (x, y) 7 P(x,y)
est S-mesurable, PS(x,y) ne dpend que
de x 6 . On se fixe y0 F quelconque et lon peut poser
x (B) = PS (E B).
P
(x,y0 )
x ) est (E, B(E))-(M1 (F ), T )-mesurable. Pour
On peut vrifier que (x 7 P
S
x (B).
tous x, y, on a P(x,y) (E B) = P
x (B) est couramment appele loi de Y sachant
Cette mesure B 7 P
X = x. On a ainsi
P(A B) =

EF

=
EF

1A (x)PS(x,y) (E B) dP(x, y)

(4.4)

x (B) dP(x, y) =
1A (x)P

(4.5)

x (B) dPX (x).


1A (x)P

Si P admet une densit f (x, y) par rapport la mesure produit ,


x est presque srement la mesure x de densit
alors P
y 7

f (x, y)
f (x, y)
=

fX (x)
F f (x, y ) d(y )

par rapport .
En eet, on sait que X admet par rapport la densit x 7 fX (x) =

F f (x, y) d(y). fX est PX -presque partout strictement positif, donc x est


bien dfini pour PX presque tout x. Ainsi, pour PX presque tout x, on peut
crire x (B) =

1 (y)f (x,y) d(y)

B
F

f (x,y) d(y)

1B (y)f (x,y) d(y)


.
fX (x)

1A (x)x (B) dPX (x) =

=
E

1A (x)
F

=
EF

On a alors

1B (y)f (x, y) d(y)


fX (x) d(x)
fX (x)

1A (x)1B (y)f (x, y) d(y) d(x)


1AB (x, y) dP(x, y) = P(A B),

5. Typiquement E = Rn et F = Rp .
6. On laisse ce point prciser en exercice. On notera quon na pas besoin ici du lemme
de Doob.

66

CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

ce qui donne bien le rsultat voulu.


Exemple: supposons que (X, Y ) est
( gaussien
) de centrage (mX , mY ) = (EX, EY )
A C
inversible.
et de matrice de covariance M =
C B
(
)
A C
1
En posant M =
, on a
C B

1/2

f (x, y) =

(det M )
(2)(n+p)/2

A (x mX ), (x mX )
1

exp +2C (x mX ), (y mY )
2
+B (y mY ), (y mY )

do la densit de x :
(

1
y
7 kx exp (2C (x mX ), (y mY ) + B (y mY ), (y mY )) .
2
Posant x = x mX , y = x mY , et [x, y] = Bx, y, on note que
2C x, y + B y, y = B y, y + 2BB 1 C x, y
= [y, y] + 2[B 1 C x, y]
= [y + B 1 C x, y + B 1 C x] 2[B 1 C x, B 1 C x]
= (y + B 1 C x), B (y + B 1 C x) + cx

On reconnait ici ( une constante prs) la densit dun vecteur gaussien :


on a ainsi x = N (mY B 1 C (x mX ), B 1 ). Cependant en identifiant
par bloc les termes du produit M 1 .M = In+p , on obtient C A + B C = 0,
do B 1 (C A + B C )A1 = 0, soit B 1 C + C A1 = 0. On a donc
galement
x = N (mY + C A1 (x mX ), B 1 ).
En particulier, on note que E[Y |X] = mY + C A1 (X mX ) : il nest pas
ncessaire dinverser M pour obtenir le centrage.
On a galement
C C + B B = Ip
C AA1 C + B B = Ip
B C A1 C + B B = Ip
B (B C A1 C) = Ip ,
Soit B 1 = B C A1 C.

4.2. NOTION DE LOI CONDITIONNELLE

4.2.3

67

chantillonneur de Gibbs

Le rsultat qui suit est trs important en simulation : il exprime que si


on sait simuler (la loi de) X et les lois conditionnelles de Y sachant X, on
sait simuler le couple (X, Y ).
Thorme 37. Soit une loi sur E F . On note X la loi image de par
la projection canonique de E F sur E (la loi de la premire marginale).
On suppose quon a un espace probabilis sur lequelle vivent des variables
alatoires X et U (respectivement valeurs dans E et G) et quexiste une
fonction : E G F telle que
PX = X
U est indpendante de X
Pour tout x E, (x, U ) suit la loi
x .
Alors (X, (X, U )) suit la loi .
Dmonstration. Soient A et B des borliens de E et F On a
P(X A, (X, U ) B) = E[1A (X)1B ((X, U ))].
Comme X et U sont indpendants, on a E[1A (X)1B ((X, U ))|X] = (X),
avec
(x) = E[1A (x)1B ((x, U ))] = 1A (x)P((x, U ) B) = 1A (x)
x (B).
En rintgrant, on a maintenant
P(X A, (X, U ) B) = E[(X)] =

=
E

(x) dPX

(x) dX = (A B)

avec (4.4).
Les hypothses dexistence dune telle fonction ne sont pas extravagantes. Rappelons le rsultat classique suivant :
Thorme 38. Soit F une fonction de R dans R, croissante, continue
droite, dont la limite est nulle en et vaut 1 en +. On suppose que sur
(, F, P), U est une variable alatoire suivant la loi uniforme sur [0, 1]. On
pose
u ]0, 1[ Q (u) = min{x R : 1 F (x) u}.
Alors Q (U ) est une variable alatoire relle dont la fonction de rpartition
est F .

68

CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

Dmonstration. Posons Q = 1 F . On a, comme 1 F est continue droite,


{x : Q (U ) > x} = {x : Q(x) > U },
donc

x R P(Q (U ) > x) = P(Q(x) > U ) = Q(x).

Il reste vrifier que Q (U ) prend presque srement ses valeurs dans R. Pour
u ]0, 1[, {x R; 1 F (x) u} nest ni lensemble vide, ni R tout entier,
car F admet 0 comme limite en et 1 en +. Comme P(U ]0, 1[) = 1,
le rsultat voulu sensuit.
Ainsi, si on pose
(x, u) = min{y R :
x ([y, +[) x},
pour U variable alatoire suivant la loi uniforme sur [0, 1], la fonction
rpond aux hypothses du thorme.
Ainsi, en admettant que lon sache exprimer , on sait simuler (X, Y ) ds
lors que lon sait simuler X et une variable alatoire suivant la loi uniforme
sur [0, 1] indpendante de X.
Mais en ralit, le principe de lchantillonneur de Gibbs est plutt utilis
pour exhiber des chanes de Markov qui admettent une mesure donne
comme mesure invariante.
Avec un peu de chance, la dynamique ainsi forme convergera vers la
mesure limit, ce qui donne un manire de simuler (ou dapprocher une simulation de la loi).
Corollaire 11. Soit un ensemble fini, une mesure sur R . On note
X i : R R la projection canonique sur la i-me coordonne. Pour tout
i et x R\{i} , on note
ix la loi conditionnelle de Xi sachant X j = xj
pour tout j \{i}. On suppose que pour tout x R\{i} , si U suit la loi U,
alors i (x, U ) suit la loi
ix .
Soit maintenant (Un ) une suite de variables alatoires indpendantes de
loi U, (Vn ) une suite de variables alatoires indpendantes suivant la loi uniforme sur . Alors, si X0 est indpendantes de (Un , Vn , n 1) la suite
dfinie par Xn+1 = (XnVn , Vn (Xn , Un )) est une chane de Markov admettant
comme mesure invariante.
Dmonstration. Le caractre markovien ne fait pas de mystre vu la reprsentation par rcurrence. Il faut montrer que si X0 suit la loi , X1 aussi.
Soit une fonction mesurable borne de R dans R. Par indpendance, on
a
E((X1 )|V0 ) = g(V0 ),

4.2. NOTION DE LOI CONDITIONNELLE

69

o g(i) = E(X0i , i (X0 , U0 )). Or, daprs le thorme, (X0i , i (X0 , U0 )) a


mme loi que X0 , donc E(X0i , i (X0 , U0 )) = E(X0 ). Ainsi, E((X1 )|V0 ) =
E(X0 ), et en rintgrant E((X1 )) = E(X0 ). Comme est prise mesurable borne quelconque, X0 et X1 ont mme loi.
Dans le cadre de ce cours, les chanes de Markov sont espace dtat fini
et la situation est trs favorable. Disons que lespace dtats S est inclus dans
E , o E et sont des ensembles finis.
Voil comment on passe de ltat au temps n ltape au temps n + 1 :
On note x la configuration au temps n.
1. Choisir uniformment k .
2. Choisir e E suivant la loi conditionne par le fait que la configuration coincide avec x en tout point de \k.
3. Dfinir la configuration y au temps n + 1 par
yl =

si l \k
si l = k

Ainsi, si deux configurations x et y dirent en plus dun site, la probabilit


de passage p(x, y) de x y vaut zro. En revanche, si x et y dirent en un
unique site k, on a
p(x, y) =

1
(y)
.

|| zS;zkc =xkc (z)

La chane est apriodique car


p(x, x) =

)1
(
(x)
(z)
> 0.
zS;zkc =xkc
|| k

Le seul point un peu critique quil faut vrifier pour pouvoir appliquer le
thorme de convergence des chanes de Markov est celui de lirrductibilit :
il nest pas automatique quon puisse passer de nimporte quel tat de S en
changeant un point la fois.
Une condition susante est que les lois conditionnelles dune coordonnes
sachant tous les autres chargent tous les points de E : dans ce cas, on peut
passer dune configuration lautre en changeant une coordonne la fois
et || tapes susent.

70

4.3

CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

Thorme de RadonNikodm

Dfinition. Soient et deux mesures sur (, F). On rappelle quon dit


quune mesure est une mesure absolument continue par rapport la mesure
, ce qui est not , si pour tout A F, on a : (A) = 0 implique
(A) = 0.
Lemme 7. Soient et deux mesures de probabilit sur (, F). Si ,
alors pour tout > 0, il existe > 0 tel que (A) = (A) .
Dmonstration. On raisonne par labsurde : on suppose quil existe > 0,
tel que pour tout n, il existe An avec (An ) n12 et (An ) > . Si on pose
A = limn+ An = n1 k1 Ak , le lemme de Borel-Cantelli nous dit que
(A) = 0. Cependant, daprs le lemme de Fatou, on a (A) lim(An ) ,
ce qui contredit lhypothse.
Thorme 39 (RadonNikodm). Soit (, F) un espace mesurable. P et Q
deux mesures de probabilits sur (, F). On suppose quil existe une suite
(An )n1 dlments de F tels que F = (An , n 1).
Alors Q P si et seulement si Q admet une densit par rapport P,
cest dire quon a la reprsentation,
Q(A) =

(x) dP(x).
A

Dmonstration. Bien sr, si Q = P, on a Q P. Voyons la rciproque.


Notons Fn la tribu engendre par les ensembles A1 , . . . , An . Fn est engendre
par une partition finie mesurable Pn , et lon peut dfinir
Xn =

Q(A)
APn

P(A)

1A .

Notons quune fonction f Fn -mesurable scrit f =


Q(A)

Ainsi, on a f Xn =

APn

E[f Xn ] =

APn

P(A)

1A (A).

APn

(A)1A et

Q(A)(A)

= EQ [

(A)1A ] = EQ [f ].

(4.6)

APn

Comme f est aussi Fn+1 -mesurable, on a E[f Xn+1 ] = EQ (f ), do E[f Xn ] =


E[f Xn+1 ]. Ainsi, on a E[Xn+1 |Fn ] = Xn et (Xn )n1 est une martingale positive.

4.3. THORME DE RADONNIKODM

71

Lquation (4.6) nous sera encore utile par la suite. Elle exprime que Xn
est la densit de Q par rapport P sur la tribu Fn . Montrons que (Xn )n1
est qui-intgrable. Soit > 0. Daprs le lemme, il existe tel que P(B)
= Q(B) . Soit c > 1/. Comme 1{Xn >c} est Fn -mesurable, on a
E[Xn 1{Xn >c} ] = EQ [1{Xn >c} ] = Q(Xn > c).
Pour montrer que Q(Xn > c) , il sut de montrer que P(Xn > c) .
Or, lingalit de Markov nous donne
1
1
1
P(Xn > c) E[Xn ] = EQ [1] = ,
c
c
c
ce qui donne lqui-intgrabilit de la suite (Xn ). Comme (Xn ) est une martingale positive, Xn converge presque srement vers une fonction positive ,
et on a E[] E[X1 ] = EQ [1] = 1. Soit A Fn . Pour tout p n, on a
A Fp , do
Q(A) = EQ [1A ] = EXp 1A .
Comme (Xp 1A )p est qui-intgrable, de limite P-presque sre 1A , on a
limp+ E[Xp 1A ] = E[1A ], soit Q(A) = E[1A ]. Ainsi, les mesures Q et
P concident sur n1 Fn . Comme ce -systme engendre la tribu F, les
deux mesures concident et est bien la densit de Q par rapport P sur
F.
Le lemme suivant permet dtendre de nombreux rsultats des mesures
de probabilit aux mesures -finies.
Lemme 8. Si (, F, ) est un espace mesur -fini, alors il existe une probabilit P sur (, F) et une fonction -presque srement positive f tels que
f est la densit de P par rapport et 1/f la densit de par rapport P.
Dmonstration. Soit (An )n1 une suite avec 0 < (An ) < + pour tout
n 1 et = n1 An . On pose
f=

n=1

1A .
2n (A)

P = f est une mesure. Avec Tonelli, on a


P() =
=
=

f d

n=1
+

1A
2n (A)

1
(A) = 1
n
n=1 2 (A)

72

CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

P est donc bien une mesure de probabilit, de densit


f par rapport
.

1
1
Maintenant, pour g mesurable positive, on a g d = g f f d = g f dP,
ce qui montre que 1/f est la densit de par rapport P.
Corollaire 12 (RadonNikodm). Soient (, F) un espace mesurable. et
deux mesures de probabilits -finies sur (, F). On suppose quil existe
une suite (An )n1 dlments de F tels que F = (An , n 1).
Alors si et seulement si admet une densit par rapport ,
cest dire quon a la reprsentation,

(A) =

(x) d(x).
A

Dmonstration. L encore, la condition est ncessaire. Ensuite, construisons


P et Q telles que donnes par le lemme 8. On a Q , , P, donc
Q P. Avec le thorme, Q admet une densit par rapport . Considrons
d dQ dP
les densits respectives dQ
, dP , d de par rapport Q, Q par rapport P,
P par rapport . En appliquant 3 fois le thorme de transfert, on voit que
d dQ dP

dQ dP d
est une densit de par rapport .
Remarque 4. Dans les thormes de RadonNicodm, lhypothse dexistence dune famille dnombrable engendrant la tribu est par exemple vrifie
dans le cas o F est la tribu borlienne dun espace sparable. Toutefois, il
faut noter que cette hypothse nest pas ncessaire, les thormes de Radon
Nicodm pouvant se dmontrer directement par des techniques hilbertiennes.

4.4. EXERCICES SUR LES COMPLMENTS

4.4
4.4.1

73

Exercices sur les complments


Exercices corrigs

Exercice 33. Soit (, F) un espace mesurable et (E, B) un espace mtrique


muni de sa tribu borlienne. On suppose que (Xn )n1 est une suite dapplications (, F) (E, B) mesurables et que pour tout , Xn () X().
Montrer que X est (, F) (E, B) mesurables. lien vers lindication lien vers
la solution
Exercice 34. On considre les applications X et Y sur lespace mesur
(R2 , B(R2 )) dfinies par X(x, y) = x et Y (x, y) = y. On suppose que (, F)
est un espace mesur et que F contient les singletons. Montrer que pour toute
application Z de R2 dans qui est (R2 , (X)) (, F) mesurable, il existe
une application H (R, B(R)) (, F) mesurable avec Z = H(X). lien vers
lindication lien vers la solution
Exercice 35. Soient X et Y deux variables alatoires indpendantes suivant
respectivement les lois P() et P().
1. Calculer la loi conditionnelle de X sachant X + Y .
2. En dduire la valeur de E[X 2 |X + Y ].
lien vers lindication lien vers la solution

4.4.2

Exercices non corrigs

Exercice 36. Soient (1 , F1 ), (2 , F2 ) et (3 , F3 ) des espaces mesurs.


On suppose que F2 est la plus petite tribu qui rend mesurable les applications (i )i1 de 2 dans (3 , F3 ). Montrer que f : 1 2 est (1 , F1 )
(2 , F2 ) mesurable si et seulement pour tout i i f est (1 , F1 ) (3 , F3 )
mesurable. lien vers lindication
Exercice 37. Soient , , des mesures -finies sur (, F)
1. Montrer que si et , alors , et les densits relatives
vrifient d
= d
d .
d
d d
2. Montrer que si et seulement si
nulle, et qualors
lien vers lindication

d
d

d
d

)1

d
d

est presque srement non

Exercice 38. Soient P et Q deux mesures de probabilit sur lespace mesur


(, F). On suppose quil existe une famille dnombrable A F engendrant
F et une constante C telles que
A A C 1 Q(A) P(A) Q(A).

74

CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE

Montrer que P Q P et que, la fois P presque srement et Q presque


srement, on a
dP
C 1
C.
dQ
lien vers lindication

Chapitre 5
Ingalits
Le but de ce chapitre est de prsenter, en application de la thorie des
martingales, et, plus gnralement, de lesprance conditionnelle, quelques
ingalits utiles en probabilits. Il ne sagit pas ici dapplications scolaires :
elles sont choisies pour leur utilit dans la pratique courante dun chercheur
en probabilits et en statistiques.

5.1

Ingalit dEfronStein

On commence par une ingalit utile en statistiques.


Thorme 40. Soient X1 , . . . , Xn des variables alatoires indpendantes et
Z une variable alatoire de carr intgrable (X1 , . . . , Xn ) mesurable. Alors,
si lon pose Zi = E[Z|(Xj )j=i ], on a
Var Z

E[(Z Zi )2 ].

i=1

Dmonstration. On pose Yi = E[Z|X1 , . . . , Xi ] E[Z|X1 , . . . , Xi1 ]. La suite


Yi est une suite de dirences de martingales, donc une suite orthogonale
dans L2 . On a donc
Var Z = E(Y1 + + Yn )2
=

E[Yi2 ]

i=1

Comme (X1 , . . . , Xi1 ) est une sous-tribu de (Xj )j=i , on a


E[Zi |X1 , . . . Xi1 ] = E[Z|X1 , . . . Xi1 ].
75

76

CHAPITRE 5. INGALITS

Cependant la tribu engendre par Zi et X1 , . . . Xi1 est une sous-tribu de


(Xj )j=i qui est indpendante de Xi , donc daprs le thorme 15, on a
E[Zi |X1 , . . . Xi1 ] = E[Zi |X1 , . . . Xi1 , Xi ].
Finalement E[Z|X1 , . . . Xi1 ] = E[Zi |X1 , . . . Xi ] et Yi = E[(ZZi )|X1 , . . . , Xi ].
Avec lingalit de Jensen conditionnelle, on a
Yi2 = (E[(Z Zi )|X1 , . . . , Xi ])2 E[(Z Zi )2 |X1 , . . . , Xi ],
do E[Yi2 ] E[(Z Zi )2 ] et on a le rsultat voulu.

5.2
5.2.1

Lingalit de HoedingAzuma
Le thorme

Thorme 41. Soient (Fn )n0 une filtration et (Yn )n0 une martingale adapte la filtration (Fn )n0 .
On suppose quil existe des rels (kn )n1 tels que |Yn Yn1 | kn presque
srement.
On suppose que la srie de terme gnral kn2 est convergente, de somme
2 . Alors, si on note Y la limite de Yn , on a E[Y ] = E[Y0 ] et pour tout
x > 0, on a
(

x2
P(Y Y0 x) exp 2
2

x2
et P(Y Y0 x) exp 2 ,
2
(

x
de sorte que P(|Y Y0 | x) 2 exp 2
2 .

Dmonstration. On va sappuyer sur un lemme :


Lemme 9. Soient X une variable alatoire valeurs dans [1, 1] et A une
sous-tribu de F. On suppose que E[X|A] = 0. Alors
E[eX |A] cosh exp(

2
).
2

Dmonstration. On pose f (x) = ex . f est convexe. Or on a la combinaison


(1) + 1+x
(1) (noter que 0 1x
1 et 1x
+ 1+x
= 1). Ainsi
convexe 1x
2
2
2
2
2
1+x
f (x) 1x
f
(1)
+
f
(1),
soit
2
2
ex

1 x 1 + x
e +
e .
2
2

5.2. LINGALIT DE HOEFFDINGAZUMA

77

En substituant dans lingalit prcdente, on a


eX cosh + (sinh )X.
Par positivit de lexprance conditionnelle,
E[eX |A] cosh + (sinh )E[X|A] = cosh
On a
cosh() = 1 +
et

2n
n=1 (2n)!

+
2n
( 2 )
exp( /2) = 1 +
=1+
n
n=1 2 n!
n=1 n!
2

Or pour tout n 1, on a
2n
2 .2
... 2
2n
2n
= n
n
(2n)!
2 n! (n + 1).(n + 2) . . . (2n)
2 n!
2

En sommant les ingalits, on obtient bien que cosh() exp 2 . Do finalement


E[eX |A] exp(

2
).
2

On note la suite des sommes partielles : Ln = ni=1 ki2 .


e(Yn+p Yp ) = e(Yn+p Yn+p1 ) e(Yn+p1 Yp ) . e(Yn+p1 Yp ) est Fn+p1 -mesurable,
donc
(

E[e(Yn+p Yp ) |Fn+p1 ] = e(Yn+p1 Yp ) E[eDn+p |Fn+p1 ],


o lon a pos Dn = Yn Yn1 . Cependant, comme (Yn )n1 est une martingale,
E[Yn+p Yn+p1 |Fn+p1 ] = E[Yn+p |Fn+p1 ] Yn+p1 = Yn+p1 Yn+p1 = 0.
n+p1
Ainsi si lon pose X = Yn+pkY
, = kn+p et A = Fn+p1 , X est
n+p
valeurs dans [1, 1] et E[X|A] = 0 : daprs le lemme, on a donc

E[eX |Fn+p1 ] exp(

2 2
2
) = exp( kn+p
),
2
2

soit
E[eDn+p |Fn+p1 ] exp(

2 2
k ),
2 n+p

78

CHAPITRE 5. INGALITS

do

1
2
E[e(Yn+p Yp ) |Fn+p1 ] e(Yn+p1 Yp ) exp( 2 kn+p
).
2
En prenant lesprance, on a
1
2
E[e(Yn+p Yp ) ] E[e(Yn+p1 Yp ) ] exp( 2 kn+p
),
2

soit

E[e(Yn+p Yp ) ]
1 2 2

exp(
k ).
E[e(Yn+p1 Yp ) ]
2 n+p

En faisant le produit pour n variant de 1 , on obtient


E[e(Y+p Yp ) ]
1 2 2

exp(
k ),
n=1
E[e(Yp Yp ) ]
2 n+p
soit
E[e

(Y+p Yp )

1
1
2
] exp( 2
kn+p
) = exp 2 (L+p Lp ) .
2 n=1
2

Avec lingalit de Markov, on a


P(Y+p Yp x) P(e(Y+p Yp ) ex )
E(e(Y+p Yp ) )

ex
(
)
1 2
exp x + (L+p Lp ) .
2
En prenant =

x
,
L+p Lp

on obtient
(

1
1
P(Y+p Yp x) exp x2
) .
2 L+p Lp
Cependant (Yn )n0 est galement une martingale, avec | Yn (Yn1 )|
kn , donc on a galement
(

1
1
.
P(Y+p + Yp x) exp x2
2 L+p Lp
Finalement
(

x2
P(|Y+p Yp | x) P(Y+p Yp x)+P(Y+p +Yp x) 2 exp
.
2(L+p Lp )

5.2. LINGALIT DE HOEFFDINGAZUMA

79

On a pour tout n :
E|Y0 Yn | =

2tP(|Y0 Yn | > t) dt

t2
4t exp 2
2

dt = 4 2 .

(Yn Y0 )n0 est une martingale centre borne dans L2 : elle converge presque
srement et dans L2 vers une variable Y Y0 desprance nulle. Soient x > 0
et ]0, x/2[
P(Y Y0 x) P(|Y Yn | > ) + P(Yn Y0 > x 2)
(
)
(x 2)2
P(|Y Yn | > ) + exp
2 2
En faisant tendre n vers +, puis vers 0, on obtient une des deux ingalits
voulue. Lautre sobtient de la mme manire.

5.2.2

Principe de Maurey

Thorme 42. Soient (X1 , . . . , Xn ) n des variables indpendantes valeurs


dans un ensemble E. Soit f une fonction telle que si (x1 , . . . , xn ) E n et
(y1 , . . . , yn ) E n vrifient xj = yj pour j = i, alors |f (x) f (y)| ki . On

suppose que Z = f (X1 , . . . , Xn ) est intgrable. Alors, si on pose 2 = ni=1 ki2 ,


on a pour tout x > 0,
(

x2
P(Z E[Z] x) exp 2
2
et

do

x2
P(Z E[Z] x) exp 2 ,
2
x2
P(|Z E[Z]| x) 2 exp 2 .
2

Dmonstration. On pose Y0 = E[Z], et pour tout entier i {1, . . . , n} :


Yi = E[Z|X1 , . . . , Xi ].
Pour pouvoir appliquer lingalit dHoeding-Azuma, il sut de vrifier que
|Yi1 Yi | ki . Soient (X1 , . . . , Xn ) indpendant de (X1 , . . . , Xn ) et de mme
loi. En appliquant successivement les thormes 19 et 15, on a
E[f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , . . . , Xi1 ]
= E[f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , . . . , Xi1 ]
= E[f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , . . . , Xi1 , Xi ]

80

CHAPITRE 5. INGALITS

Ainsi
Yi1 Yi
E[f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , . . . , Xi1 , Xi ]
E[f
]
[ (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , . . . , Xi1 , Xi ]
f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )
X , . . . , Xi1 , Xi
= E
f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn ) 1
=

qui est presque srement majore en norme par ki puisque


f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn ) f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )
lest.
tude dun exemple
On jette n boules dans n urnes de manire indpendante et uniforme.
Comment se concentre le nombre durnes vides ?
Notons X1 , . . . , Xn n variables alatoires indpendantes suivant la loi uniforme sur {1, . . . , n}. Le nombre durnes vides est Zn = f (X1 , . . . , Xn ), avec
f (x1 , . . . , xn ) =

n
n

1{xj =i} .

i=1 j=1

On a aisment E[Zn ] = n(1 n1 )n ne . Bien sr, si on change une boule


durne, on modifie au plus de 1 le nombre durnes vides, on peut donc appliquer le thorme 42, do
P(|Zn EZn | > x) 2 exp(

5.3

x2
).
2n

Ingalit de Harris

Thorme 43. Soient (X1 , . . . , Xn ) des variables alatoires indpendantes,


f et g deux fonctions de Rn dans R, croissantes en chacune de leurs coordonnes. Alors
E[f (X1 , . . . , Xn )g(X1 , . . . , Xn )] E[f (X1 , . . . , Xn )]E[g(X1 , . . . , Xn )].
Dmonstration. On va montrer le rsultat par rcurrence sur n.
On commence avec n = 1. Soit X1 indpendant de X1 de mme loi que X1 .
On a (f (X1 ) f (X1 ))(g(X1 ) g(X1 )) 0, do en prenant lesprance
E[f (X1 )g(X1 )] + E[f (X1 )g(X1 )] E[f (X1 )]E[g(X1 )] E[f (X1 )]E[g(X1 )] 0,

5.3. INGALIT DE HARRIS

81

soit 2(E[f (X1 )g(X1 )]Ef (X1 )Eg(X1 )) 0, ce qui est lingalit voulue pour
n = 1.
Supposons le rsultat acquis jusqu n et soient f, g deux fonctions de
R
dans R. On pose
n+1

H(x1 , . . . , xn ) = E[f (x1 , . . . , xn , Xn+1 )g(x1 , . . . , xn , Xn+1 )],


F (x1 , . . . , xn ) = E[f (x1 , . . . , xn , Xn+1 )]
G(x1 , . . . , xn ) = E[g(x1 , . . . , xn , Xn+1 )].
On peut noter que
F et G sont des fonctions croissantes
les fonctions H, F, G values en X1 , . . . , Xn sont des versions de lesprance conditionnelle de f (X1 , . . . , Xn+1 )g(X1 , . . . , Xn+1 ), f (X1 , . . . , Xn+1 )
et g(X1 , . . . , Xn+1 ), sachant la tribu (X1 , . . . Xn ).
En appliquant lingalit de Harris pour n = 1, on obtient
(x1 , . . . , xn ) Rn

H(x1 , . . . , xn ) F (x1 , . . . , xn )G(x1 , . . . , xn ),

do
E[H(X1 , . . . , Xn )] E[F (X1 , . . . , Xn )G(X1 , . . . , Xn )].
Mais F et G sont des fonctions croissantes, donc daprs lhypothse de rcurrence
E[F (X1 , . . . , Xn )G(X1 , . . . , Xn )] E[F (X1 , . . . , Xn )]E[G(X1 , . . . , Xn )].
Comme E[H(X1 , . . . , Xn )] = E[f (X1 , . . . , Xn+1 )g(X1 , . . . , Xn+1 )] tandis que
E[F (X1 , . . . , Xn )] = E[f (X1 , . . . , Xn+1 )] et E[G(X1 , . . . , Xn )] = E[g(X1 , . . . , Xn+1 )],
on a le rsultat voulu.

82

CHAPITRE 5. INGALITS

5.4
5.4.1

Exercices sur les ingalits


Exercices corrigs

Exercice 39. Soit


n = {(x1 , . . . , xn ) [0, 1]n ; i, j {1, . . . , n} i = j = xi = xj }.
Pour x n et Sn , on dfinit .x par (.x)i = x(i) . On dfinit une
application h de n dans Sn par
i {1, . . . , n} [h(x)](i) = |{j {1, . . . , n}, xj xi }|.
1. Montrer que h(.x) = h(x) .
2. Soient X1 , . . . , Xn des variables alatoires indpendantes suivant la loi
uniforme sur [0, 1]. Montrer que h(X1 , . . . , Xn ) suit la loi uniforme sur
Sn .
3. Soit n 1 un entier. On note i,j lunique permutation de Sn
telle que (i) = j et telle que la restriction de {1, . . . , n}\{i} est
croissante. Soit g une fonction de Sn dans R, telle que pour toute
permutation et tous i, j entre 1 et n, on a |f (i,j ) f ()| M .
Montrer que si n est une variable alatoire suivant la loi uniforme sur
Sn , alors pour tout x > 0, on a
P(|g(n ) E(g(n ))| > x) 2 exp(

x2
).
2nM 2

4. Application la loi hypergomtrique. Une urne contient r boules


rouges et b boules bleues. On en tire k boules sans remises. Soit X le
nombre de boules rouges tires. Montrer que

(
)

kr
x2

P X
> x 2 exp(
).
b + r
2(b + r)

lien vers lindication lien vers la solution


Exercice 40. On a au temps zro n urnes vides. Puis, tout instant t N
on place une boule dans lune des urnes. On cherche lesprance du nombre
maximum durnes contenant exactement une boule.
On prend donc une suite (Yk )k1 de variables alatoires indpendantes
suivant la loi uniforme sur {1, . . . , n}. Yk est le numro de lurne dans la
quelle on dpose une boule au temps k. On pose Nk,p = ki=1 1{Yi =p} : Nk,p
reprsente le nombre de boules dans lurne p au temps k.

5.4. EXERCICES SUR LES INGALITS

83

Soit Xkn le nombre durnes contenant exactement une boule linstant k.


Le nombre maximum durnes contenant exactement une boule est
X n = maxk0 Xkn .
1. Exprimer Xkn en fonction des Nk,p . En dduire que
(

k
1 k1
.
=n 1
n
n
2. On pose vn = max0kn3/2 E[Xkn ]. Montrer que vn ne .
E[Xkn ]

3. On pose Xn = max(Xkn , 0 k n3/2 ). On fixe > 0. Montrer quil


existe N tel que
P(|Xn

n N

n/e| n)

n3/2

k=0

Xn /n

4. En dduire que
5. Montrer linclusion

P(|Xkn E[Xkn ]| n).


2

converge en probabilit vers 1/e

{X n = Xn } np=1 {Nn3/2 ,p < 2}.


En dduire que X n /n converge en probabilit vers 1/e.
6. Conclure.
7. Un tudiant dispose dune boite de pilules pour amliorer ses chances
de russite aux examens. Il doit en prendre une demie chaque matin
afin damliorer ses performances intellectuelles.
Chaque jour, il prend une pilule au hasard dans sa boite. Si cest une
pilule entire, il la coupe en deux avant den avaler une moiti et de
remettre lautre dans la boite. Si cest une demi pilule, il lavale. Il
continue sa cure jusquau jour o la boite est vide. Si la boite contient
initialement n pilules, montrer que lesprance du nombre maximal de
demi-pilules prsentes dans la boite est quivalent Kn quand n tend
vers linfini, K tant dterminer.
lien vers lindication lien vers la solution

5.4.2

Exercices non corrigs

Exercice 41. Lors dun vote, les deux candidats en prsence optiennent chacun n voix. On note En lcart maximal observ dans les bulletins dpouills
au cours du scrutin. Montrer que pour tout x > 0,
P(|En E(En )| > x) 2 exp(
lien vers lindication

x2
).
2n

84

CHAPITRE 5. INGALITS

Exercice 42. Un rsultat sur les statistiques dordre, daprs Bjrnberg et


Broman
Soient X1 , . . . , Xn des variables alatoires indpendantes, admettant un moment dordre deux. On note X (1) X (2) . . . X (n) les statistiques dordres

associes. Soit A {1, . . . , n}. On pose SA = kA X(k) . Montrer que


Var SA Var(X1 + . . . Xn ).
lien vers lindication
Exercice 43. Dans une assemble de n personnes, chaque couple de deux
personnes se connat avec probabilit p, de manire indpendante des autres.
On leur donne des chemises de couleur, de telle manire que deux personnes
qui se connaissent ne portent pas des chemises de mme couleur On note
le nombre minimum de couleurs ncessaires. Montrer que pour tout > 0,

2
P(| E()| > n 1)| 2e /2 .
lien vers lindication

Chapitre 6
Statistiques exhaustives
On suppose ici que pour tout , P est une mesure de probabilit
sur (, F). Le problme fondamentale de la statistique est dobtenir des
informations sur la valeur du paramtre , rput inconnu, partir dune
observation. Une telle collection (P ) est appele un modle statistique.
On note X lobservation gnrique, cest dire que lon travaille directement
sur lespace observ : X() = . Les applications mesurables sur (, F) sont
appeles des statistiques.
un modle statistique (P ) sur (, F) est naturellement associ un
autre modle sur (n , F n ) : la (Pn
) : Dans ce cas, les projections canon
niques X1 , . . . , Xn de sur constituent sous Pn
un chantillon de la loi

P , cest dire n variables indpendantes suivant la loi P .


Dfinition. Une statistique S(X) est dite exhaustive (pour le paramtre )
si la probabilit conditionnelle dobserver X sachant S(X) est indpendante
de : il existe une famille de mesures (Ps ) telles que, pour tout :
P (S A0 , X A) = E [1{SA0 } PS (A)].
soit encore
P [X A|S] = PS (A) P -p.s

(6.1)

Plus gnralement, on dira quune tribu S est exhaustive si on a des lois


conditionnelles P avec 7 P (A) S-mesurable avec

P [X A|S]() = P (A)
85

P -p.s

(6.2)

86

6.1

CHAPITRE 6. STATISTIQUES EXHAUSTIVES

Hypothse de domination dominante


privilgie

Dfinition. On dit quun modle statistique (P ) est domin sil existe


une mesure -finie telle que P pour tout .
Lemme 10 (lemme de Halmos et Savage). Si une famille de mesures (m )
est telle que chaque m est absolument continue par rapport une mme
mesure , alors on peut construire une mesure m par rapport laquelle les
m sont absolument continues et qui est un mlange dnombrable des m ,
cest dire que m scrit
m=

i mi ,

(6.3)

iD

avec 0 < i pour tout i, D dnombrable et iD i = 1. Une telle mesure est


appele dominante privilgie de la famille (m ) .
Dmonstration. Dabord, on peut supposer sans perte de gnralit que
nest pas seulement finie, mais que cest une mesure finie : si (An )n1 est
une suite croissante densembles de runion avec (An ) < +, A0 =

n \An1 ))
et (An+1 ) > (An ) pour tout n, lidentit (A) = n1 2n (A(A
(An \An1 )
dfinit une mesure de probabilit.
n \An1 ))
(A) = 0 si et seulement si (A(A
= 0 pour tout n, soit si et
(An \An1 )
seulement si (A (An \An1 )) = 0 pour tout n, ce qui arrive si et seulement
si (A) = 0. Les mesures et sont donc absolument continues lune par
rapport lautre.
Notons P lensemble des mesures de la forme (6.3), et regardons la classe
A = P {A : (A) > 0, ( A) }.
Formons une suite (An ) telle (An ) converge vers supAA (A). Soit i
une mesure telle que ( Ai ) i . On pose
m=

1
.
n i
n=1 2

Notons que si on pose A = n1 Ai , on a ( A ) m. En eet, si


m(C A ) = 0, on a i (C A ) = 0 pour tout i, donc (C Ai ) = 0 pour
tout i, ce qui entrane que (C A ) = 0.
Comme m P, on en dduit que
supAA (A) = (A ).

6.2. THORME DE FACTORISATION DE NEYMAN-FISHER

87

On va montrer que tous les lments de P sont absolument continus par


rapport m. Cela donnera le rsultat voulu puisque les m sont dans P.
Supposons que m(C) = 0 et prenons P. On va montrer que (C) = 0.
On a
(C) = (C A ) + (C Ac ).
Comme m(C) = 0 et ( A ) m, (C A ) = 0, ce qui entrane
(C A ) = 0 puisque . Il ny a plus qu montrer que (C Ac ) = 0.
Notons p(x) une version positive de la densit de parrapport . On
pose N = {x : p(x) = 0} et S = {x : p(x) > 0}. (N ) = N p(x)d d = 0.
On en dduit que (C Ac ) = (C Ac S). On pose R = C Ac S.
Montrons que ( R) . Posons f (x) = p(x)1 si x S, f (x) = 0 sinon
Soit E un ensemble tel que (R) = 0.
(E R) =

1E (x)1R f (x)p(x) d(x) =

1E (x)1R (x)p(x) d(x) = 0,

car 1R = 0 -presque srement : on a bien ( R) .


Il est maintenant ais de voir que ( (A R)) m+
, ce qui montre
2
que A R A. On en dduit
(A ) = supAA (A) (A R) = (A ) + (R),
ce qui entrane que (R) = 0. Comme , (R) = 0, ce qui achve la
preuve.

Remarque 5. Si les mesures m ont le mme support, on peut prendre tout


simplement m = m0 pour 0 quelconque !

6.2

Thorme de factorisation de NeymanFisher

Le but des thormes de factorisation Neyman-Fisher est de caractriser


simplement lexistence de statistique exhaustive. En 1922, Fisher a dmontr
que la condition de factorisation que nous allons prsenter tait susante.
Plus tard, en 1935, Neyman a montr quelle tait galement susante, sous
quelques hypothses supplmentaires. La forme gnrale que lon enseigne
aujourdhui est en ralit de Halmos et Savage, et a t dmontre en
1949.

88

CHAPITRE 6. STATISTIQUES EXHAUSTIVES

Thorme 44. On suppose que la famille des lois (P ) est domine par
rapport une mme mesure -finie.
Alors, une statistique S est exhaustive si et seulement si il existe une
fonction h et des fonctions telles que la fonction de vraisemblance f (x)
scrive (S(x))h(x) presque partout.
et
Thorme 45. On suppose que la famille des lois (P ) admet une densit
par rapport une mme mesure -finie.
Alors, une tribu S est exhaustive si et seulement si il existe une fonction
h et des fonctions S-mesurables telles que la fonction de vraisemblance f
scrive
f (x) = (x)h(x) presque partout.
Vu le lemme de Doob, il sut de dmontrer le thorme 45 : en lappliquant une tribu engendre par une statistique, on obtient le thorme 44.
On va commencer par traiter le cas o la mesure de rfrence est une
dominante privilgie.
Thorme 46. On suppose que la famille des lois (P ) est domine et
que m en est une dominante privilgi.
Alors, une tribu S est exhaustive si et seulement pour tout , il existe
une fonction g S-mesurable telle que
g soit une densit de P par rapport m.
Dmonstration. Supposons que la statistique est exhaustive et prenons
. On note r la densit de P par rapport m.
Rappelons quon sait que pour tout
P [X A|S]() = P (A) P -p.s
Comme m est un mlange dnombrable des P , on a encore
m[X A|S]() = P (A) m-p.s.
On a
P (X A) =

P (X A|S) dP
P (A) dP ()
P (A) r () dm()
P (A) g () dm(),

(6.4)

6.2. THORME DE FACTORISATION DE NEYMAN-FISHER

89

o lon a pos g () = Em [r |S].


Mais Em [1XA g |S] = g Em [1XA |S] = g P (A) m-presque srement,donc

P (A)g () dm() = Em [Em [1XA g |S]] = Em (1XA g ).

On a donc montr
P (X A) = Em (1XA g ),
cest dire que g est la densit de la loi P par rapport m.
Rciproquement, supposons que pour tout , il existe une fonction g
S-mesurable telle que pour tout A P (A) = Em (1A g ) et montrons que
P (A|S) = Pm (A|S) P p.s..
Fixons et A, et considrons sur S la mesure A, = P (A ). On va
calculer de deux manires direntes une densit de A, () par rapport m.
En utilisant tout de suite la forme particulire de la densit de P par
rapport m, on a
A, (C) = Em (1C 1A g )
= Em [Em [1C 1A g |S]]
= Em [1C g Pm [A|S]
donc la drive de RadonNicodm de A, () par rapport m est g (S)Pm [A|S].
Cependant, en commenant par un calcul direct, on obtient
A, (C) = E [1A 1C ]
= E (E [1A 1C |S])
= E (1C P [A|S])
= Em (1C P [A|S]g ),
donc la drive de RadonNicodm de A, () par rapport m est g P [A|S].
On en dduit que
g P [A|S] = g (S)Pm [A|S] m p.s.
Comme P m, on a encore
g P [A|S] = g Pm [A|S] P p.s.
Notons enfin P (g = 0) = Em [1{g =0} g(S) ] = 0. Ceci permet de diviser
par g (S) et on obtient
P [A|S] = Pm [A|S] P p.s.

90

CHAPITRE 6. STATISTIQUES EXHAUSTIVES

Preuve du thorme de Fisher 45. Si la statistique est exhaustive, le lemme


prcdent montre quon a une fonction g S-mesurable qui est la densit de
P par rapport la dominante privilgie m. Alors, g dm
est videmment la
d
densit de P par rapport .
Rciproquement, si la densit de P par rapport scrit (S)h, on
peut noter, comme on la dj vu plusieurs fois, quune densit est presque
partout non nulle par rapport la loi de la densit.
En particulier P (h = 0) = 0 pour tout , ce qui entrane que m(h = 0) =
0 par dfinition de m.
Par ailleurs, on peut calculer explicitement la densit de m par rapport
. En eet, pour tout A on a
m(A) =

ai Pi (A)

iD

ai

1A (x)i h(x) d(x)

1A (x)r(x)h(x) d(x),

iD

o on a pos r(s) = iD ai i (s). La fonction r peut ventuellement tre


infinie, cependant lintgrale par rapport de r.h est 1, donc (r.h =
+) = 0, ce qui entrane m(r.h = +) = 0. Comme m(h = 0) = 0, on
a m(r = +) = 0, ce qui entrane que P (r = +) = 0 pour tout . r.h.
Ainsi r.h est la densit de m par rapport . Comme r.h est la densit de m
par rapport , m(r.h = 0) = 0. Comme P m, P (r.h = 0) = 0. Notons
Z = {r.h = 0}.
Pour tout A, on a

P (A) = P (A Z)

1A 1Z h d

1A 1Z h

rh
d
rh

rh d
r

= 1A 1Z
dm
r

dm
= 1A
r
=

En posant g (s) =

(s)
,
r(s)

1A 1Z

on peut alors appliquer le lemme.

6.3. AMLIORATION DE RAO-BLACKWELL

6.3

91

Amlioration de Rao-Blackwell

Le thorme de Rao-Blackwell-Kolmogorov permet comment la connaissance dune statistique exhaustive permet damliorer des estimateurs.
Thorme 47. Soit g un estimateur de g() et S une statistique exhaustive.
Alors
E [
g |S]
est un estimateur de g qui est prfrable g au sens o

E ((E [
g |S] g())2 ) E (
g g())2 .

fix, lgalit na lieu que si g = E [


g |S] P -presque srement. E [
g |S]
mme biais que g.
Dmonstration. Comme S est une statistique exhaustive, on peut crire
E [g|S] = (S), avec (s) =

g dPs .

Ainsi, E [g|S] est bien un estimateur. E [


g |S]g() est l esprance conditionnelle de g g() sous E conditionnellement. Comme lesprance conditionnelle est une contraction de L2 , le rsultat sensuit. Le cas dgalit dcoule
du thorme de Pythagore pour lesprance conditionnelle. Bien sr E [
g |S]
et g ont mme esprance sous E : cest donc le mme biais.
Dfinition. On dit quun estimateur sans biais g est uniformment de variance minimum parmi les estimateurs sans biais (UVMB) si pour tout estimateur sans biais g, on a

6.4

Var g Var g.

Statistiques exhaustives minimales

On dit quune tribu exhaustive S0 est minimimale si toute tribu exhaustive S vrifie S0 S.
Une statistique exhaustive est dite minimale si la tribu quil engendre est
minimale.
Thorme 48. Soit une famille de mesures de probabilit (P ) telle que
chaque m est absolument continue par rapport une mme mesure . On
note f la densit de P par rapport . Alors, si, avec les notations du

lemme 10, on pose fm = iD fi et r = ffm , alors la tribu T = (r )D


est une tribu exhaustive minimale.

92

CHAPITRE 6. STATISTIQUES EXHAUSTIVES

Dmonstration. On a P m , donc on peut crire


dP
dP dm
=
,
d
dm d

soit f = dP
f . Ainsi r est la densit de P par rapport m. videmment, r
dm m
est T -mesurable, donc daprs le thorme de Fisher, T est exhaustive. Soit
S une tribu quelconque suppose exhaustive pour (P ). Daprs le thorme
de Fisher, on a une criture
f = h,

o est S-mesurable. On a alors


fm =

iD

i fi =

i i h

iD

et pour tout D, on a -presque srement :


r =

h
f

=
=
fm
iD i i h
iD i i

(En eet h est -presque srement non nulle.) Cette identit montre que r
est S-mesurable, do T = ((r )D ) S, ce qui montre bien que T est
minimale.
Corollaire 13. On suppose que les mesures P ont toutes le mme support
et que les hypothses du thorme de Factorisation sont vrifies :
f (x) = h(x) (S(x)).
Si il existe 1 , 2 avec 1 = 2 tels que lapplication x 7
alors S est une statistique exhaustive minimale.

1
2

est bijective,

Dmonstration. Par dfinition, la tribu minimale vrifie T (S). Daprs

le thorme prcdent 1 (S(x)) est T (T )-mesurable. Si q = 1 est

bijective, alors S = q 1 ( 1 (S(x)) est T (T )-mesurable, donc (S) T ,


2
ce qui donne lgalit voulue.

6.5

Statistiques compltes

Dfinition. On dit quune statistique S est complte relativement la famille


(P ) si pour tout fonction mesurable.

6.5. STATISTIQUES COMPLTES

93

( E [(S)] = 0) = ( (S) = 0 P p.s.).


La dfinition peut sembler trange : en ralit elle exprime linjectivit de
lapplication linaire
X 7 (E (X))
sur lensemble des statistiques (S)-mesurables qui sont dans L1 (P ).
Thorme 49 (thorme de Lehmann-Sche). Soit S une statistique exhaustive complte, et g un estimateur sans biais de g(). Alors
E (
g |S) est un estimateur sans biais de g().
E (
g |S) ne dpend pas du choix de g
E (
g |S) est un estimateur sans biais UVMB : pour tout estimateur
sans biais T , on a
Var (E (
g |S)) Var T.
Dmonstration. Daprs le thorme de Rao-Blackwell-Kolmogorov, E (
g |S)
est bien un estimateur, qui plus est sans biais. Si T est un autre estimateur
sans biais de g(), E (
g |S) et E (T |S) sont deux estimateurs (S)-mesurables
qui ont mme esprance : ils sont donc gaux car S est complte. Maintenant,
Rao-Blackwell-Kolmogorov nous dit que
Var (E (
g |S)) = Var (E (T |S)) Var T,
ce qui achve la preuve.
On peut galement noter le rsultat suivant :
Thorme 50. Une statistique exhaustive complte S est une statistique
exhaustive minimale.
Dmonstration. Quitte remplacer S par arctan S, on peut supposer que S
est borne (en eet la tribu engendre par S et celle engendre par arctan S
concident). Soit T une tribu exhaustive minimale. Bien sr T (S). Notons que comme T est exhaustive, on a
E (S|T )() = E (S).
Posons = S E(S) = S E (S|T ) : par construction est (S)-mesurable.
Les proprits de lesprance conditionnelle nous donne E = 0. Comme
est une statistique (S)-mesurable et que S est complte, on a = 0. Donc
S = E (S|T ) P presque srement pour tout , ce qui donne la mesurabilit
de S par rapport T : S est donc complte.

94

CHAPITRE 6. STATISTIQUES EXHAUSTIVES

Montrer quune statistique est complte est essentiellement un problme


danalyse, qui peut tre dicile. Heureusement, on a un thorme gnrique
qui peut tre appliqu dans de nombreux cas.

6.6

Modles exponentiels

Dfinition. On dit quune famille (P ) forme un modle exponentiel si les


densits scrivent
f (x) = ()(x) exp((), S(x))
et sont valeurs dans R+ . est appel le paramtre naturel
et S sont valeurs dans Rd .
Remarque 6.
Daprs le thorme de Neymann-Fisher, S est une
statistique exhaustive.
Si (P ) est un modle exponentiel, alors (Pn
) lest aussi. En
eet la densit de (X1 , . . . , Xn ) scrit
n

()

(xi ) exp (),

i=1

et

n
i=1

S(xi ) ,

i=1

S(Xi ) est la statistique naturelle associe.

Thorme 51. Dans un modle exponentiel, si limage de par le paramtre


naturel contient un ouvert de Rd ; alors la statistique naturelle du modle est
complte.
Dmonstration. Soit une application borne telle que pour tout

f (x)(S(x)) d = 0.
Pour tout , on a

(x)(+ (S(x)) (S(x))) exp((), S(x)) d = 0.

limage de par , et = , on a Pour tout , on a


Si on note

(+ (S(x)) (S(x))) exp(, S(x)) d = 0,

soit encore

+ (y) exp(, y) dS (y) =

+ (y) exp(, y) dS (y)

6.6. MODLES EXPONENTIELS

95

Les mesures + S et S ont mme transforme de Laplace sur un ouvert :


elles sont gales + = S presque srement : donc 2+ = 2 = + = 0,
do = 0 S presque srement : On a donc

0=

1{(y)=0} dS
1{(S(x))=0} d
1{(S(x))=0} (x) d

Donc 1{(S(x))=0} (x) est presque partout nulle ; comme P , on a


1{(S(x))=0} (x) = 0 P presque partout. Comme est P presque partout non
nulle, donc 1{(S(x))=0} = 0 P presque partout, soit P ((S(x) = 0)) = 0, et
on peut dire que S est complte.

96

CHAPITRE 6. STATISTIQUES EXHAUSTIVES

6.7
6.7.1

Exercices sur les statistiques exhaustives


Exercices corrigs

Exercice 44. Soit (P ) un modle domin de dominante privilgie m, Z


une statistique et S une statistique exhaustive.
1. Montrer que si Z et S sont indpendantes sous m, alors Z est libre.
2. Thorme de Basu : Montrer que si Z est libre et S une statistique
exhaustive complte, alors Z et S sont indpendantes sous P , quelque
soit .
lien vers lindication

6.7.2

Exercices non corrigs

Exercice 45. On considle le modle (R, B(Rn ), P ) , avec = R]0, +[,


P(m,2 ) = N (m, 2 )n . laide du thorme de NeymanFisher, trouver une
statistique exhaustive pour ce modle. lien vers lindication
Exercice 46. Soit n un entier naturel non nul. On considle le modle
(R, B(Rn ), P ) , avec =]0, +[, P = P()n .
1. Montrer que Sn =

i=1

Xi est une statistique exhaustive du modle.

2. Dterminer la loi de Sn sous P .


3. Soit f une fonction borne. Montrer que
F (z) =

(nz)k
f (k)
k=0 k!

dfinit une fonction holomorphe sur C.


4. Montrer que Sn est une statistique exhaustive complte du modle.
lien vers lindication
Exercice 47. Soit (X1 , . . . , Xn ) un n-chantillon de la loi uniforme sur [0, ],
o dcrit ]0, +[.
1. Calculer lestimateur du maximum de vraisemblance pour . On le
notera Mn dans la suite. Montrer que cet estimateur est une statistique
exhaustive.
2. Dterminer la loi de Mn , puis montrer Mn est une statistique exhaustive complte.
3. Construire un estimateur sans biais de .

6.7. EXERCICES SUR LES STATISTIQUES EXHAUSTIVES

97

4. En dduire sans calcul la valeur de E [X n | max(X1 , . . . , Xn )], o X n =


1
(X1 + + Xn ).
n
lien vers lindication
Exercice 48. Soit (X1 , . . . , Xn ) un n-chantillon de la loi uniforme sur [0, ],
o dcrit ]0, +[. On veut estimer P (X1 t).
1. Construire une statistique exhaustive complte du modle.
2. Construire un estimateur sans biais de P (X1 t).
3. Trouver le meilleur estimateur sans biais de P (X1 t).
lien vers lindication
Exercice 49. On se fixe > 0 connu, et on considre le modle (Pm )mR ,
o Pm = N (m, 2 )n et m dcrit R.
1. Donner une statistique exhaustive complte du modle.
2. laide du thorme de Basu (vu en exercice), montrer le thorme
de Fisher pour les chantillons gaussiens : si (X1 , . . . , Xn ) est un nchantillon de la loi N (m, 2 ), alors les variables
Xn =

n
1
1
(Xi X n )2
(X1 + + Xn ) et Sn2 =
n
n 1 i=1

sont indpendantes.
lien vers lindication

98

CHAPITRE 6. STATISTIQUES EXHAUSTIVES

Chapitre 7
Information de Fisher
Soit un ouvert de R Dans tout ce qui suit, on suppose que ( ) est
une famille de lois sur Rd et une loi sur telles que :
P admet une densit f par rapport avec f > 0.
Pour presque tout x , f (x) est drivable par rapport .

7.1

Hypothses

Si h est une fonction mesurable borne, on a


E h(X) =
Si jamais

h(x)f x d.

h(x)f (x) d = h(x) f (x) d,


alors on aura

E [h(X)] = E [W h(X)],

avec
W = (

h H

(7.1)

log f )(X).

E [h(X)] = E [W h(X)].

(7.2)

Il existe plusieurs types despaces H et dhypothses qui permettent cette


intervertion de la drive. Par exemple
99

100

CHAPITRE 7. INFORMATION DE FISHER

Thorme 52. Si lon prend pour H lensemble des fonctions bornes, alors
une condition susante pour (7.2) est la suivante :
Pour tout , il existe un voisinage V de tel que
sup
V

f L1 ().

Dmonstration. Cest une simple application du thorme de drivation sous


le signe intgrale.
Le thorme suivant est plus subtil :
Thorme 53. Si lon prend pour H lensemble des fonctions h telles que
la fonction 7 E [h2 (X)] est borne au voisinage de tout point de , une
condition susante pour
(7.2) est la suivante : pour -presque tout x, la
fonction 7 gx () = f (x) est de classe C1 , et la fonction
7 I() =

(gx ())2

d(x) =

)2

f (x)

d(x)

est continue, valeurs relles.


Dmonstration. La preuve sera vue en exercice.
Remarquons que pour vrifier la continuit de I(), il faudra dans la
plupart des cas utiliser le thorme de drivation sous le signe intgrale.
Remarques

La quantit (
log f )(X) est indpendante de la mesure de rfrence
. En eet si les ( ) ont des densits (f ) par rapport et (g ) par
rapport , alors les ( ) ont des densits (h ) par rapport +
et on a
d
d
d
d
d
d
=
et
=
.
d( + )
d d( + )
d( + )
d d( + )
est + presque partout non-nulle. Soit x un point de Rd :
on suppose que f0 (x) > 0 (ce qui est + partout quivalent
h0 (x) > 0) : on a sur un voisinage V de 0 :
d
d(+)

log h (x) = log f (x) + log

d
(x),
d( + )

do lgalit des deux drives partielles par rapport .


Sous lhypothse (7.2), on a E (W ) = 0.

7.2. INGALIT DE CRAMER-RAO

101

Il peut exister au plus une collection (W ) vrifiant (7.2), car si (W1 )


et (W2 ) conviennent W1 W2 est orthogonal L2 (P ).
Dfinition : information de Fischer
Dfinition. On appelle score du modle (P ) la statistique W dfinie par
W = (

log f )(X),

avec la convention que


log f est nulle en dehors des intervalles o f est
strictement positive. On appelle information de Fisher la quantit I() dfinie par
I() = E W2

Remarque 7. Lhypothse (7.2) est trs importante. Cest elle qui donne du
sens linformation de Fisher. Nanmoins, il est intressant de dfinir I()
avant de savoir si (7.2) est ralise, car on verra que certaines proprits de
I peuvent parfois tre utiles pour dmontrer que (7.2) est vrifie.

7.2

Ingalit de Cramer-Rao

Thorme 54 (Ingalit de Cramer-Rao). On suppose que lhypothse (7.2)


est vrifie et que g = h(X) est un estimateur sans biais de g() avec h H.
Alors
g ()2
Var g
.
I()
Dmonstration. Comme g est un estimateur sans biais de g(), on a g() =
E [h(X)W ]. En appliquant lhypothse (7.2), on a
g () = E [h(X)W ] = E [
g W ].
Mais W est centre, donc on a galement
g () = E [(
g E g)W ].
Lingalit de Cauchy-Schwartz donne alors
g ()2 E (
g E g)2 E W2 = (Var g)I().

102

CHAPITRE 7. INFORMATION DE FISHER

Thorme 55 (Cas dgalit). On suppose que lhypothse (7.2) est vrifie


et que g = h(X) est un estimateur sans biais de g(). Alors si
0 < Var g =

g ()2
,
I()

g est une statistique exhaustive et le modle est exponentiel.


Rciproquement, un modle exponentiel vrifiant lhypothse (7.2) atteint
la borne de Cramer-Rao pour une certaine fonction g.
Dmonstration. Daprs le cas dgalit dans lingalit de Cauchy-Schwartz,
les variables g E g et W sont lies dans L2 (P ). Comme 0 < Var g, il existe
() avec
W = ()(
g E g) = ()(h(X) g()) P p.s.
Ainsi, sous la dominante privilgie m, on a
W = ()(h(X) g()) m p.s.
En intgrant lgalit, on voit que la densit f sous m vrifie
ln f (X) = A()h(X) + B() + c(X),
et donc
f (x) = exp(A()h(X) + B() + c(X))
On a donc bien un modle exponentiel de paramtre naturel A() et h est
une statistique exhaustive du modle.
Rciproquement, considrons un modle exponentiel : W scrit W =
()S + (). Comme E [W ] = 0, on a ()E [S] + () = 0. Ainsi
W = ()(SE (S)), et on est dans le cas dgalit de lingalit de CauchySchwartz : S est un estimateur optimal pour la fonction g() = E (S).

7.3
7.3.1

Quelques proprits
Information de Fisher dun produit

Thorme 56. On suppose que (P1 ) et (P2 ) ont mme support pour tout
et que les modles (P1 ) et (P2 ) vrifient les hypothses du thorme 53. Alors,
le modle P = P1 P2 vrifie les hypothses du thorme 53, on a
W(1 ,2 ) (X) = W1 (X1 ) + W2 (X)

et I() = I1 () + I2 ().

7.3. QUELQUES PROPRITS

103

Dmonstration. Le modle P admet la densit h(1 ,2 ) (x) = f1 (x1 )g2 (x), et


on a sur leur support commun

log h(1 ,2 ) (x) =


log f1 (x1 ) +
log h2 (x2 ),

ce qui donne la premire identit Lindpendance de X1 et X1 donne I() =


Var W (X) = Var W1 (X1 ) + Var (X2 ) = I1 () + I2 (), donc
I est continue
comme somme de deux fonctions continues. De mme, h est C 1 comme
produit de deux fonctions C 1
Corollaire 14. Si le modles (P ) vrifient les hypothses du thorme 53 ,
le modle (Pn
) galement, et son information de Fisher In () vrifie In () =
nI.

7.3.2

Information de Fisher dune statistique

Thorme 57. Soit (, F, P ) un modle statistique vrifiant lhypothse (7.2),


avec H L2 (P ). Soit T : (, F) ( , F ) une statistique. Alors le
modle ( , F , (P )S ) vrifie lhypothse (7.2) et son information de Fisher
I T () vrifie

I S () I().

Si on suppose de plus que lhypothse (7.2) est vrifie, alors il y a galit


si et seulement si S est une statistique exhaustive pour ( , F , (P )S ).
Dmonstration. Daprs le thorme de transfert, on a pour tout et
tout h L2 ((P )S ),

h(x) d(P )S (x) =

h(S(x)) dP (x) = E [(h(S(x))]

Daprs lhypothse (7.2), on a donc



h(x) d(P )S (x) = E [W h(S(x))]

= E [E [W |S]h(S(x))]

= E [ (S)h(S(x))]

o est telle que E [W |S] = (S). Ainsi, avec le thorme de transfert


est un score pour ( , F , (P )S ) et lon a

I () =

2 (x) d(P )S (x)

= E [2 (x)] = E [E [W |S]2 ]

104

CHAPITRE 7. INFORMATION DE FISHER

Comme lesprance conditionnelle est la projection dans L2 . On a


I S () = E [E [W |S]2 ] E (W )2 = I(),
avec galit si et seulement si
E [W |S] = W ,
autrement dit W est S mesurable. Supposons quil y ait galit : on a
(log f ) = A (S(x)), do en intgrant par rapport : log f (x) = B (S(x))+
c(x), soit
f (x) = exp(B (S(x)) exp(c(X)),
ce qui montre que S est une statistique exhaustive. La rciproque est facile.

7.4. EXERCICES SUR LINFORMATION DE FISHER

7.4
7.4.1

105

Exercices sur linformation de Fisher


Exercices corrigs

Exercice 50. On appelle loi de Pareto Pa, de paramtre (a, ) la loi sur R

de densit xa
+1 1]a,+[ (x). On considre le modle (P1, )>0 .
1. Calculer le score W , puis I().
2. En dduire que T = log X est un estimateur sans biais de g() = 1 .
3. Calculer Var T . Comparer avec la borne de Cramer-Rao
pliquer
4. Existe-til un estimateur sans biais de ?
lien vers lindication lien vers la solution

g ()2
.
I()

Ex-

Exercice 51. Soit (X1 , . . . , Xd ) un d-chantillon sous la loi P() dans le


modle (P )>0 .

1. Calculer E X1 (X1 1). En dduire que Ed = d1 di=1 Xi (Xi 1) est


un estimateur sans biais de 2 .
2. Montrer que Sd = X1 + + Xd est une statistique exhaustive complte.
3. En dduire que Sd (Sdd21) est le meilleur estimateur quadratique de 2 .
4. Montrer simplement que E [X12 + . . . Xd2 |Sd ] =

Sd (Sd +d1)
.
d

5. Comparer la variance de Sd (Sdd21) avec la borne de Cramer-Rao.


est-il un estimateur ecace ?
lien vers lindication lien vers la solution

7.4.2

Sd (Sd 1)
d2

Exercices non corrigs

Exercice 52.
1. calculer linformation de Fischer lorsque =]0, +[
et est la loi de Poisson de paramtre .
2. Mme question lorsque = P()n
lien vers lindication
Exercice 53. Le but de cet exercice est de dmontrer le thorme suivant
annonc en cours :
Soit (P ) un modle domin par , de densit
f . On suppose que

pour -presque tout x, la fonction 7 gx () = f (x) est de classe C1 , et


la fonction
7 I() =

(gx ())2

d(x) =

)2

f (x)

d(x)

106

CHAPITRE 7. INFORMATION DE FISHER

est continue, valeurs relles.


Alors pour toute fonction h telle que la fonction 7 E [h2 (X)] est borne
au voisinage de tout point de , on a :

E [h(X)] = E [W h(X)] avec W = ( log f )(X).

log f ) dsigne la fonction nulle sur les parties o f est


On convient que (
nulle.
On peut supposer sans perte de gnralit que est une mesure de probabilit (on peut prendre par exemple la dominante privilgie).
Soit (, F, P) un espace probabilis sur lesquelles vivent des variables
alatoires X et U indpendantes, avec PX = et U suit la loi uniforme sur
[0, 1].
Soit et (n )n0 une suite quelconque de limite nulle, avec n
pour tout n.
On pose


Xn = 2h(X) f+U n (x) Yn =
( f+U n )(X),

et Zn = Xn Yn .

1. Montrer que E[Yn2 |U ] = I( + U n ).


2. En dduire que limn+ E[Yn2 ] = I().
3. Montrer que (Yn2 )n1 est qui-intgrable.
4. Montrer que (Xn )n1 est borne dans L2 .
5. Montrer que (Zn )n1 est qui-intgrable.
6. Montrer que limn+ E[Zn ] =
7. Montrer que EZn =
8. Conclure.
lien vers lindication

h(x)
f (x) d(x).

E+n h(X)E h(X)


.
n

Chapitre 8
Loi dun processus
8.1

Loi dun processus

Dfinition: Un processus stochastique est une famille infinie (Xt )tT de variables alatoires dfinies sur le mme espace de probabilit (, F, P)
Le plus souvent, T est un ensemble ordonn qui joue le rle du temps,
par exemple T = N, Z, R. Le cas T = Zd , qui voque plutt une structure
spatiale est galement intressant.
Dfinition: On appelle trajectoire de X tout lment X() = (Xn (), n
T), .
Dfinition: On dfinit la tribu borlienne sur RT , note B(RT ), comme tant
la plus petite tribu qui rend mesurable les projections i : RT R, =
(n )nT 7 i .
On a vu au chapitre 4 que dans le cas o T est dnombrable, B(RT )
concide avec la tribu borlienne de RT . Cest encore vrai lorsque T est infini
dnombrable, mais dans ce cas la topologie qui doit tre mise sur RT (la
topologie produit) nest pas mtrisable.
Dfinition: Pour toute parties non vides S et S de T telle que S S , on

appelle projection de RS sur RS la fonction SS : RS RS dfinie par


(xs , s S) RS , SS (xs , s S) = (xs , s S ).
Dfinition: - thorme : loi dun processus
Thorme 58. Soit (Xn )nT une suite de variables alatoires sur (, F, P).
Lapplication X : 7 (Xn ())nT est une application mesurable de (, F)
dans lespace des trajectoires (RT , B(RT )). La loi image PX de P par X est
appele loi de la suite (ou du processus) (Xn )nT
107

108

CHAPITRE 8. LOI DUN PROCESSUS

Dmonstration. Comme les ensembles de la forme 1


i (A), avec A borlien,
engendrent B, il sut de montrer que pour B de la forme B = 1
i (A), avec
A borlien, on a X 1 (B) F . Or
1
1
X 1 (B) = X 1 (1
i (A)) = (i X) (A) = Xi (A),

qui est bien dans F puisque Xi est une variable alatoire.


Notation : P (T), F(T), D(T) dsignent respectivement lensemble des
parties non vides, lensemble des parties finies non vides et lensemble des
parties dnombrables non vides de T.
Il est clair que F(T) D(T) P (T).
Dfinition: On appelle loi de dimension finie dun processus X = (Xn )nT
la loi de tout vecteur extrait (Xn )nS , o S F (T).
Proposition 5. Les lois de dimension finie dun processus X = (Xn )nT o
n T, Xn : (, F, P) (R, B(R))
sont les images de la loi PX de X par les projections de RT sur les espacesproduits finis RS , S F (T).
Thorme 59. Deux processus stochastiques X = (Xn )nT et X = (Xn )nT
o
n T, Xn : (, F, P) (R, B(R))
et

Xn : ( , F , P ) (R, B(R))

ont la mme loi si et seulement sils ont les mmes lois de dimension finie.
Dmonstration. La condition ncessaire est vidente, daprs la proposition
prcdente. Rciproquement, si X et X ont les mmes lois de dimension
finie, daprs la proposition prcdente, PX et PX ont les mmes images
par projection sur les espaces-produits de dimension finie (RS , B(RS )). On
considre
C={

An , n, An B(R), et N, n N An = R}

nT

PX et PX concident sur C , cest--dire X et X ont mme loi sur C. C est


un -systme qui engendre B(RT ), donc X et X ont la mme loi.
Dfinition: On appelle processus canonique associ un processus stochastique X = (Xn , n T) o n T, Xn : (, F, P) (R, B(R)) le processus = (n , n T) form par les projections n de RT sur R, qui
X = (Xk , k T) associe Xn , sa n-ime composante.

8.2. THORME DEXISTENCE DE KOLMOGOROV

109

Thorme 60. Tout processus stochastique a mme loi que son processus
canonique associ, quand on munit lespace de ses trajectoires de la loi PX .
Dmonstration. : (Xn )nT 7 (Xn (), )nT est lapplication identit
de RT . Donc limage de PX par est PX .

8.2

Thorme dexistence de Kolmogorov

Dfinition: Systme projectif


On considre une famille (QS , S F (T)) o pour tout S, QS dsigne
une probabilit sur (RS , B(RS )). On dit que (QS , S F(T)) est un systme
projectif de lois si pour tous S, S de F(T) tels que S S , QS est limage
de QS par SS
Remarque: Si on a seulement dfini QS pour des ensembles S de la forme
S = {1, . . . , n} et que lon sait que pour tout n 1, Q{1,...,n} est la mesure
{1,...,n+1}
image de Q{1,...,n+1} par {1,...,n} , alors on peut dfinir pour S partie finie de
{1,...,n}

.
N une mesure QS comme tant la mesure image de Q{1,...,max S} par S
Il nest alors pas dicile de vrifier que (QS ) est un systme projectif de lois.
Exemple: Si pour tout i T, i est une mesure de probabilit sur R, la
famille (QS )SF (T ) dfinie par QS = iS i est un systme projectif de lois.
Thorme 61. Thorme dexistence de Kolmogorov.
On se place sur (RT , B(RT )). Pour toute partie S F(T), soit QS une mesure de probabilit sur (RS , B(RS )). Les trois conditions suivantes sont quivalentes :
1. Il existe un espace de probabilit (, F, P) et pour tout n T une
variable alatoire Xn : (, F, P) (R, B(R)) telle que (QS , S
F(T)) soit lensemble des lois de dimension finie du processus X =
(Xn , n T)
2. Il existe une mesure de probabilit Q sur (RT , B(RT )) dont limage par
S soit QS quelle que soit la partie finie, non vide S de T,
3. (QS , S F (T)) est un systme projectif de lois.
Dmonstration. On va seulement donner la preuve dans le cas o T = N. Le
cas o T est dnombrable sen dduit immdiatement ; en revanche la preuve
dans le cas gnral demanderait un argument supplmentaire.
(1)=(2) : il sut de prendre Q = PX .
(2)=(3) : si S S, on a S = SS S . QS est la mesure image de Q
par S , mais cest aussi la mesure image par SS de la mesure image
de Q par S , soit donc la mesure image de QS par SS , ce qui montre
bien que le systme (QS ) est projectif

110

CHAPITRE 8. LOI DUN PROCESSUS

(3)=(1) : cest videmment le gros morceau. Soit (, F, P) un espace de


probabilit sur lequel vit une suite (Un )n0 de variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. Daprs le thorme 3, lespace (, F, P) = ([0, 1[, B([0, 1[), [0,1[ ) convient. Notons F 0 la fonction de rpartition de Q0 , puis, pour x Rn , notons Fxn la fonction de
rpartition de la loi de n sachant {0,...,n1} = x sous Q{0,...,n} . Ainsi,
on a pour tout u rel
EQ{0,...,n} [n u|{0,...,n1} ] = Fn{0,...,n1} (u).
On pose encore Q0 (u) = min{y R : 1 F 0 (y) u} et
x Rn

u R Qn (x, u) = min{y R : 1 Fxn (y) u},

puis on dfinit (Xn )n0 par X0 = Q0 (U0 ) et pour n 1 :


Xn = Qn ((X0 , . . . , Xn1 ), Un ).
Montrons par rcurrence que pour tout n, la loi de (X0 , . . . , Xn ) est
Q{0,...,n} . Pour n = 0, cest une consquence immdiate du thorme 38. Sinon, supposons que (X0 , . . . , Xn1 ) a comme loi Q{0,...,n1} :
comme le systme est projectif (X0 , . . . , Xn1 ) ralise la loi des n
premires composantes de Q{0,...,n} . Comme (X0 , . . . , Xn1 ) est indpendant de Un , le thorme de lchantillonneur de Gibbs dit que
(X0 , . . . , Xn1 , n ((X0 , . . . , Xn1 ), Un )) = (X0 , . . . , Xn1 , Xn ) suit la
loi Q{0,...,n} .
Au cours de la preuve, on a montr en particulier que lespace (, F, P) =
([0, 1[, B([0, 1[), [0,1[ ) est susamment gros pour y faire vivre tous les processus rels temps discret que lon peut imaginer. 1
Corollaire 15. Pour tout entier n 1, soit Pn une mesure de probabilit
sur (Rn , B(Rn )). Pour quil existe une suite X = (Xn , n 1) de variables
alatoires relles simultanes telle que Pn soit la loi de (X1 , X2 , ..., Xn ) pour
tout n 1 il faut et il sut que
B B(Rn ), Pn+1 (B R) = Pn (B)().
1. Lexistence de la loi de n sachant {0,...,n1} = x sous Q{0,...,n} repose sur le thorme 36 dexistence des lois conditionnelles. nonc dans le cadre des espaces polonais,
ce thorme na t dmontr dans ce cours que dans le cas = [0, 1]n . Cest susant
pour faire vivre une suite de variables alatoires support dans [0, 1] dont les lois finidimensionnelles sont prescrites. Mais le cas dune suite de variables alatoires relles quelconques sen dduit : on commence par construire la suite 2 arctan X0 , . . . , 2 arctan Xn , . . .
sur (, F, P), puis X0 , X1 , . . . , Xn , . . . en composant avec la fonction x 7 tan(/2x).

8.2. THORME DEXISTENCE DE KOLMOGOROV

111

Dmonstration. En eet, sil existe une telle suite X de variables alatoires


relles simultanes, on a
B B(Rn ), Pn+1 (BR) = P((X1 , ..., Xn+1 ) BR) = P((X1 , ..., Xn ) B) = Pn (B).
Rciproquement, on suppose la condition () satisfaite. Pour toute partie
non vide S de N de cardinal p, note S = {s1 , . . . , sp }, on note PS limage
{1,...,max(S)}
. Daprs le thorme dexistence de
de Pmax(S) par la projection S
Kolmogorov, il sut de vrifier que (PS , S F (T )) est un systme projectif
de loi. Pour cela, on vrifie que pour tout S de F(T ), et tout n max(S), PS
{1,...,n}
est limage de Pn par S
, ce qui se fait facilement par rcurrence.

8.2.1

Loi produit infini ; variables indpendantes

On a dj remarqu que lorsque pour tout i T, i est une mesure


de probabilit sur R, la famille (QS )SF (T ) dfinie par QS = iS i est un
systme projectif de lois. Daprs le thorme de Kolmogorov, il existe une
loi sur RT dont la projection sur un ensemble fini dindices S quelconques est
iS i : on notera dsormais iT i cette loi.
Si on note (Xi )iS la famille des projections sur les dirents indices, il
est alors clair que sous iT i , les variables Xi sont des variables alatoires
indpendantes, et que pour tout i, la loi de Xi est i .
Ainsi, tant donne une suite (n , n 1) de mesures de probabilit sur
(R, B(R)) il existe toujours une suite de variables alatoires relles simultanes indpendantes (Xn , n 1) telle que n 1, PXn = n .

8.2.2

Loi markovienne

Soit D un ensemble dnombrable, P = (pi,j )(i,j)D2 une matrice marko


vienne, cest dire que pi,j 0 pour tout couple (i, j) et kD pi,k = 1 pour
tout i D. Alors, pour toute loi sur D, on peut construire une unique loi
P sur DN telle que pour tout entier n 0 et toute suite x0 , . . . xn dlments
de D, on ait
P (0 = x0 , . . . , n = xn ) = (x0 )

n1

pxi ,xi+1 .

i=0

Dmonstration. On dfinit par rcurrence une suite de mesures (Pn )n0 avec
P0 = , puis
Pn+1 ({(x0 , . . . , xn+1 )}) = Pn ({(x0 , . . . , xn )})pxn ,xn+1 .

112

CHAPITRE 8. LOI DUN PROCESSUS

Soit A Dn+1 . On a
Pn+1 (A D) =

Pn+1 ({(x0 , . . . , xn+1 )})

(x0 ,...xn )A xn+1 D

Pn ({(x0 , . . . , xn )})pxn ,xn+1

(x0 ,...xn )A xn+1 D

Pn ({(x0 , . . . , xn )})1

(x0 ,...xn )A

= Pn (A)
Lidentit quon vient de montrer permet de montrer par rcurrence que
Pn (Dn+1 ) = 1. Elle exprime galement que la loi de (0 , . . . , n ) sous Pn+1
est Pn : on a donc un systme projectif de lois, ce qui permet dappliquer le
(corollaire du) thorme dexistence de Kolmogorov.

8.3

Processus rels stationnaires (temps discret)

On suppose ici que T = N ou T = Z.


Dfinition: Un processus stochastique rel (Xn , n T) est dit stationnaire si quels que soient les entiers d 1, n1 , . . . , nd choisis dans N, tels que
n1 < < nd , les vecteurs alatoires rels d-dimensionnels (Xn1 , . . . , Xnd ) et
(Xn1 +1 , . . . , Xnd +1 ) suivent la mme loi.
Il en rsulte videmment que (Xn1 , . . . , Xnd ) et (Xn1 +h , . . . , Xnd +h ) suivent
la mme loi quel que soit lentier h 0.
Dfinition: tant donn un espace de probabilit (, F, P), on dit quune
application T : (, F) (, F) conserve la mesure P si A F, P(A) =
P(T 1 (A)) ou si P est sa propre image par T .
Dfinition: On dit que T : est une bijection bimesurable si cest
une bijection (F, F)-mesurable et si lapplication rciproque T 1 est (F, F)mesurable .
Thorme 62. Soit (, F, P) un espace de probabilit et une application
T : (, F) (, F).
Si T conserve la mesure P, pour tout entier n 1, T n conserve P
Si T est une bijection bimesurable qui conserve P, T 1 conserve P.

8.3. PROCESSUS RELS STATIONNAIRES (TEMPS DISCRET)

113

Dmonstration.
On raisonne par rcurrence. Au rang initial, A
F, P(A) = P(T 1 (A)) parce que T conserve P. Si pour un entier n 1,
on a dmontr que
A F , P(A) = P(T n (A)),
alors comme
P(T n (A)) = P(T 1 (T n (A))) = P(T (n+1) (A)),
et il vient

A F , P(A) = P(T (n+1) (A)).

Do la conclusion par rcurrence : pour tout n 1, T n conserve P.


A F , P(T (A)) = P(T 1 (T (A))) = P(A).
Thorme 63. Soit (, F, P) un espace de probabilit et C un -systme
dvnements engendrant F. Alors une application T : (, F) (, F)
conserve la mesure P si et seulement si
A C, P(A) = P(T 1 (A)).
Dmonstration. Le sens direct est vident.
Rciproquement, on suppose que P et son image par T concident sur C, donc
sur F.
Dfinition: Pour E = N ou E = Z, on notera lapplication de RE dans
RE appele oprateur de translation dfinie par
((xn )nE ) = (yn )nE ,
o n E, yn = xn+1 .
Thorme 64. Pour quun processus rel X = (Xn , n T) soit stationnaire,
il faut et il sut que loprateur de translation conserve sa loi PX .
Dmonstration. Dire que prserve PX , cest dire que X et X ont mme
loi. Mais on sait que deux lois sur RT sont gales si et seulement si toutes les
projections par les s1 ,...sn sont gales. Ainsi prserve PX si et seulement si
quels que soient s1 , . . . sn , s1 ,...sn X et s1 ,...sn X ont mme loi sous P.
Or la loi de s1 ,...sn X sous P est P(Xs1 ,...,Xsn ) et celle de s1 ,...sn X sous
P est P(Xs1 +1 ,...,Xsn +1 ) . Ainsi, par dfinition de la stationnarit, prserve PX
si et seulement si (Xn ) est stationnaire.

114

CHAPITRE 8. LOI DUN PROCESSUS

Les processus stationnaires fournissent ainsi un exemple fondamental de


transformation conservant la mesure.
Thorme 65. Soit (, F, P) un espace de probabilit et une application
T : (, F) (, F)
qui conserve la mesure P. Alors
quelle que soit la variable alatoire sur (, F, P), ( T n , n 0) est
un processus stationnaire.
si T est une bijection bimesurable de (, F), ( T n , n Z) est galement un processus stationnaire.
Dmonstration. Prenons, suivant le cas T = N ou T = Z et prenons n 1,
puis s1 < < sn dans T. Considrons le vecteur alatoire valeurs dans
Rn :
V = ( T s1 , . . . , T sn ) : (, F, P) (Rn , B(Rn )).
La loi de V T sous P est la loi de V sous PT , mais PT = P, donc V et V T
ont mme loi. Cependant, que T = N ou T = Z, on a dans les deux cas :
V T = ( T s1 +1 , . . . , T sn +1 ).
On vient de montrer que ( T s1 , . . . , T sn ) et ( T s1 +1 , . . . , T sn +1 ) ont
mme loi. Comme cest vrai pour tout n et pour s1 , . . . , sn quelconques, on
vieut prcisment de montrer que le processus ( T n )nT est stationnaire.

8.4
8.4.1

Processus gaussiens
Caractrisation

Dfinition: On dit quun processus (Xt )tT est gaussien si pour tout S
F(T ), le vecteur (Xs )sS est gaussien.
tout processus gaussien, on peut associer son esprance (EXt )tT et sa
fonction de covariance
CX : (s, t) 7 E(Xt EXt )(Xs EXs )).
Proposition 6. Deux processus gaussiens ont mme esprance et mme
fonction de covariance si et seulement si ils ont mme loi.
Dmonstration. Notons (Xs ) et (Ys ) les deux processus considrs.

8.4. PROCESSUS GAUSSIENS

115

Le sens mme loi implique mme esprance, mme covariance est


presque vident. Arrtons nous y tout de mme quelques instants.
On a

EXs =
s dPX ()
RT

et
EYs =

RT

s dPY ().

Dire que (Xs ) et (Ys ) ont mme loi, cest prcisment dire que PX =
PY . Cela implique donc quils ont les mmes esprances. Les identits
EXs Xt =
et
EYs Yt =

RT

s t dPX ()

RT

s t dPY ()

permettent alors de complter la preuve.


Soit F T , F fini. Les vecteurs (Xs )sS et (Ys )Y S sont gaussiens. Par
hypothse, ils ont mme esprance et mme matrice de covariance. Des
vecteurs gaussiens qui ont mme esprance et mme matrice de covariance ont mme loi. Ainsi (Xs ) et (Ys ) ont mmes lois de dimension
finie. Ils ont donc la mme loi.

8.4.2

Condition dexistence

Thorme 66. Soit (mt )tT et (cs,t )(s,t)T T des rels. Il existe un processus
gaussien de moyenne (mt )tT et de covariance (cs,t )(s,t)T T si et seulement
si
Pour tous s, t T , on a cs,t = ct,s .
Four tous S fini inclus dans T et tout x RT , on a

cs,t (xs ms )(xt mt ) 0.

(s,t)SS

Dmonstration. La ncessit des deux conditions provient du fait que (cs,t )(s,t)SS
doit tre la matrice de covariance du vecteur (Xs )sS Pour voir que ces conditions sont susantes, il sut dappliquer le thorme de Kolmogorov la
famille de mesures N (mS , CS ) o mS = (mt )tS et CS = (cs,t )(s,t)SS qui
est compatible.

116

CHAPITRE 8. LOI DUN PROCESSUS

8.4.3

Processus gaussiens stationnaires

Thorme 67. Soit (Xn )nZ un processus gaussien. (Xn )nZ est stationnaire
si et seulement si il existe une constante m et une fonction telle que
Pour tout n EXn = m
Pour tous n, p entiers on a E(Xn m)(Xp m) = (n p).
est appele fonction dautocovariance du processus.
Dmonstration. Supposons que le processus est stationnaire et posons m =
EX0 et (n) = E(Xn m)(X0 m). Pour tout n X0 et Xn ont mme loi, donc
EXn = EX0 = m. Dautre part, le couple (Xn , Xp ) a mme loi que le couple
(Xnp , X0 ) : on a donc E(Xn m)(Xp m) = E(Xnp )(X0 m)) = (n p).
Rciproquement, supposons que pour tout n EXn = m et que pour tous n, p
entiers on a E(Xn m)(Xp m) = (np). Il faut dmontrer que le processus
(Xn+1 )nZ a mme loi que le processus (Xn )nZ . Ces deux processus tant
gaussiens, ils sut de montrer quils ont mme esprance et mme covariance.
Or on a pour tout n :EXn+1 = m = EXn et pour tous n, p
E(Xn+1 EXn+1 )(Xp+1 EXp+1 ) =
=
=
=
=
ce qui achve la preuve.

E(Xn+1 m)(Xp+1 m)
((n + 1) (p + 1))
(n p)
E(Xn m)(Xp m)
E(Xn EXn )(Xp EXp ),

8.5. EXERCICES SUR LES PROCESSUS

8.5
8.5.1

117

Exercices sur les processus


Exercices corrigs

Exercice 54. Soit D R un ensemble dnombrable, P = (pi,j )(i,j)D2 une


matrice markovienne. Pour mesure de probabilit sur D, on note P la loi
markovienne associe. Si i D, on note simplement Pi pour Pi .
1. Dmontrer la proprit de Markov : pour toute mesure , pour tout
entier n, pour tout A (0 , . . . , n ), pour tout B B(RN ), on a
P (A, n = i, n (B)) = P (A, n = i)Pi (B).
2. Montrer que P =

iD

3. Montrer que si (j) =


invariante par .

(i)Pi .

(i)pi,j pour tout j, alors P est laisse

lien vers lindication lien vers la solution


Exercice 55. Soit une application mesurable de (RN , B(RN )) dans (R, B(R))
et (Xn )n0 un processus stationnaire. Dmontrer que le processus (Yn )n0
dfini par Yn = (Xn , Xn+1 , . . . ) = (n X) est stationnaire. lien vers
lindication lien vers la solution
Exercice 56. On dit dune famille de variables (Xn )n1 dfinies sur un espace
(, F, P) quelconque quelles sont changeables si pour tout n et pour tout
Sn , les vecteurs (X1 , . . . , Xn ) et (X(1) , . . . , X(n) ) ont mme loi (sous P).
1. Montrer quune famille de variables changeables est stationnaire.
2. Soit (Xn )n1 une famille de variables changeables de carr intgrables.
Exprimer la variance de X1 + + Xn en fonction de Var X1 et
Covar(X1 , X2 ). En dduire que les Xi sont positivement corrls.
3. Montrer qu partir dun bruit blanc (une famille (Yi )i0 de variables
indpendantes suivant la loi N (0, 1)), on peut fabriquer (la loi de)
nimporte quel processus gaussien de variables changeables en posant
Xi = m + aY0 + bYi .
4. Soit (Xn )n1 un processus gaussien de variables changeables. Montrer
quil existe une variable alatoire Z telle que, sachant Z, les variables
alatoires Xi , sont des variables alatoires indpendantes. Ce rsultat
constitue un cas particulier dun rsultat plus gnral, le thorme
de De FinettiHewittSavage, qui sera propos un peu plus loin en
exercice.

118

CHAPITRE 8. LOI DUN PROCESSUS

lien vers lindication lien vers la solution


Exercice 57. Le thorme des quatre couleurs stochastique, daprs Holroyd
et Liggett
Soit q un entier naturel non nul. On appelle mot ou coloriage sur lalphabet
{1, . . . , q} une suite finie x = (x1 , . . . , xn ) dlments de {1, . . . , q}. Le mot
vide est lunique mot de longueur 0. On dit quun mot x = (x1 , . . . , xn ) est
un mot propre si xi = xi+1 pour 1 i < n. On convient que le mot vide est
un coloriage propre.
Le but de ce problme est de construire et dtudier des processus stochastiques (n )n1 qui sont tels que
Pour tout n, (1 , . . . , n ) est un coloriage propre sur lalphabet {1, . . . , q}
(n )n1 est stationnaire
Si x et y sont deux mots, on note x.y leur concatnation. Si x = (x1 , . . . , xn )
est un mot et i un entier compris entre 1 et n, xi dsigne le mot x dont on a ot
la i-me lettre. Ainsi (1, 2, 4).(7, 5) = (1, 2, 4, 7, 5) et (1,\
2, 7, 8)3 = (1, 2, 8).
On doit encore introduire la notion dimmeuble. Soit x un mot de taille
n. Un immeuble propre de dernier tage x est une suite (y1 , . . . yn ) de mots
tels que
Pour tout i entre 1 et n, yi est un coloriage propre de taille i q
couleurs.
Pour 1 i < n, yi est obtenu en enlevant une lettre au mot yi+1 .
yn = x
Ainsi ((1), (1, 2), (2, 1, 2)) est un immeuble propre de dernier tage (2, 1, 2).
On note B(x) lensemble des immeubles propres de dernier tage x.
1. Montrer que pour tout mot propre x de taille n 0, on a
|B(x)| =

|B(
xi )|.

i=1

2. Montrer par rcurrence que pour tout n 0 et tout mot x de longueur


n, on a

|B(x.a)| = bn (q)|B(x)|, avec bn (q) = n(q 2) + q.

a{1,...,q}

3. On note S(q, n) le nombre dimmeubles propres de n tages. Montrer


que S(q, n + 1) = bn (q)S(q, n).
4. Montrer que la formule
n ({x1 , . . . , xn }) =

|B((x1 , . . . , xn ))|
S(q, n)

dfinit une mesure de probabilit sur {1, . . . , q}n .

8.5. EXERCICES SUR LES PROCESSUS

119

5. laide du thorme dextension de Kolmogorov, dmontrer quil


existe une mesure de probabilit Pq sur {1, . . . , q}N telle que pour
tout entrier n et tout x = (x1 , . . . , xn ) {1, . . . , q}N , on ait
Pq (1 = x1 , . . . n = xn ) =

|B((x1 , . . . , xn ))|
.
S(q, n)

6. Montrer que Pq est rversible, cest dire que pour tout n 1 et tout
x = (x1 , . . . , xn ) {1, . . . , q}N , on a
Pq (1 = x1 , . . . n = xn ) = Pq (1 = xn , . . . n = x1 ).
7. En dduire que Pq est invariante par le dcalage .
8. On sintresse maintenant au cas o q = 4.
(a) Montrer quil existe des constantes (cn,p )n0,p0 telles que pour
tout n, p 0, pour tout x {1, . . . , q}n et tout y {1, . . . , q}p , on
ait

|B(x.a.y)| = cn,p |B(x)|.|B(y)|.


a{1,...,q}

(b) En dduire que sous P4 , (1 , . . . , n ) est indpendant de (n+2 , . . . , n+p+1 ).


lien vers lindication lien vers la solution

8.5.2

Exercices non corrigs

Exercice 58. Coloriages propres : un thorme de Schramm, par la mthode


de Fuxi Zhang
Soit = {1, . . . , q}N , F = B(), et P une probabilit sur , invariante
par le dcalage et ne chargeant que des coloriages propres (voir lexercice
prcdent). On suppose de plus que P est 1-dpendant, cest dire que pour
tout entier naturel n, (i , i < n) est indpendante sous P de (i , i > n),
o i est loprateur de projection canonique : i () = i ). On suppose
que la couleur c vrifie p = P(0 = c) > 0. On note P = P(|0 = c) et E
lintgrale sous P.

i
1. Posons, pour s B(0, 1) : S(s) = +
i=0 1{i =c} s . Montrer que
E(S(s)) =

1 s + ps
.
1s

2. Posons T () = inf{n 1; n = c}.


Notons loprateur de dans lui mme dfini par

(x)
=

T (x) (x)
x

si T (x) < +
.
sinon.

120

CHAPITRE 8. LOI DUN PROCESSUS


Montrer que pour tout n 1 et A F , on a
P(T = n, 1 (A)) = P(T = n)P(A).
3. En dduire que les variables (T n )n0 sont indpendantes.
4. On note GT la fonction gnratrice de T sous P : pour s B(0, 1),

Nk
GT (s) = E[sT ]. En remarquant que S(s) = +
k=0 s , avec N0 = 0 et
k1
Nk = i=0 T i , montrer que E(S(s)) = 1G1T (s) , puis que GT (s) =
ps2
1s+ps2

5. On rappelle le thorme de PringsheimHille : si une srie entire


coecients positifs a un rayon de convergence R < +, alors la fonction somme nadmet de prolongement analytique sur aucun voisinage
de R. la lumire de ce rsultat, montrer que p 14 .
6. En dduire quil nexiste aucun champ stationnaire 1-dpendant de
coloriages propres 3 couleurs.
lien vers lindication
Exercice 59. Soient (Xn )n1 , (Yn )n1 deux processus stationnaires indpendants. Montrer que pour toute application mesurable de R R dans
R, le processus (Xn , Yn ) est stationnaire. Donner un exemple de processus
(Xn )n1 et (Yn )n1 stationnaires tels que Xn + Yn ne soit pas stationnaire.
lien vers lindication
Exercice 60. Soit (Xn )n1 un processus stationnaire. Montrer que le processus (Yn )n1 dfini par Yn = Xn + 2Xn+1 est stationnaire. lien vers lindication
Exercice 61. Soit (Xn )n0 une chane de Markov homogne dont lespace
dtat est fini. Montrer que (Xn )n0 est stationnaire si et seulement si X0 et
X1 ont mme loi. lien vers lindication
Exercice 62. Soit X0 une variable alatoire suivant la loi uniforme sur Z/7Z.
Soit (Tn )n1 une suite de variables alatoires indpendantes identiquement
distribues suivant la loi uniforme sur lensemble {1, 1}. On dfinit par
rcurrence une suite (Tn )n1 par Xn+1 = Xn + Tn+1 .On pose enfin Zn =
inf{k 0; Xn+k = 0}. Montrer que (Zn )n0 est un processus stationnaire.
lien vers lindication
Exercice 63. Montrer que lapplication de [0, 1] dans lui-mme qui x
associe la partie fractionnaire de 2x laisse invariante la mesure de Lebesgue
sur [0, 1]. lien vers lindication

8.5. EXERCICES SUR LES PROCESSUS

121

Exercice 64. Soit un rel. Montrer que lapplication de [0, 1] dans luimme qui x associe la partie fractionnaire de x + laisse invariante la
mesure de Lebesgue sur [0, 1]. Comment interprter ce rsultat si lon identifie
[0, 1[ au cercle unit par lapplication x 7 e2ix ? lien vers lindication
Exercice 65. On appelle bruit blanc une suite (Zn )nZ de variables alatoires
indpendantes suivant la loi N (0, 1). Soit (Zn )nZ un bruit blanc et =
(0 , . . . , q ) Rq+1 avec 0 = 0 et q = 0. On considre la moyenne mobile :
Xn =

k Znq .

k=0

Dmontrer que (Zn )nZ est un processus stationnaire dont on calculera la


fonction dautocovariance. lien vers lindication

122

CHAPITRE 8. LOI DUN PROCESSUS

Chapitre 9
Chanes de Markov
9.1
9.1.1

Dfinition et caractrisations
Dfinition

Soit S un ensemble fini ou dnombrable, une mesure de probabilit sur


S et P = (pi,j )(i,j)SS une matrice coecients positifs. Soit (Xn )n0 une
suite de variables alatoires dfinies sur un espace (, F, P). On dit que la
suite (Xn )n0 est une chane de Markov de loi initiale et de matrice de
passage P si lon a, pour tout entier n 1 et toute suite x0 , . . . xn dlments
de S :
P(X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x0 )

n1

pxi ,xi+1 .

i=0

Exemple : une suite (Xn )n0 de variables alatoires indpendantes de


mme loi valeurs dans S dnombrable est une chane de Markov. En
eet, il sut de poser pour (i, j) S S pi,j = (j).

9.1.2

Caractrisation par lesprance conditionnelle

Thorme 68. Soit (Xn )n0 une suite de variables alatoires valeurs dans
S. Les trois proprits suivantes sont quivalentes :
1. (Xn )n0 est une chane de Markov de matrice de passage P valeurs
dans S
2. Quels que soient x0 , . . . , xn1 dans S tels que P(X0 = x0 , X1 = x1 , . . . Xn1 =
xn1 ) > 0, alors P(Xn = xn |X0 = x0 , X1 = x1 , . . . , Xn1 = xn1 ) =
pxn1 ,xn .
123

124

CHAPITRE 9. CHANES DE MARKOV


3.
P(Xn = xn |X0 , . . . , Xn1 ) = pXn1 ,xn .

(9.1)

Cela signifie que toute linformation que X0 , . . . , Xn1 peuvent nous apporter sur Xn est comprise dans Xn . Remarque : (9.1) implique que P(Xn =
xn |Xn1 ) = pXn1 ,xn

9.1.3

Dynamique markovienne

Quest ce concrtement, quune chane de Markov ? On va voir que cest


une suite de ralisations, au cours du temps, des tats dun systme soumis
des transformations alatoires, la suite des transformations est une suite de
transformations indpendantes, de mme loi. videmment, le rsultat de la
transformation dpend de la transformation choisie et de ltat du systme
avant la transformation.
Si (, F) est un espace mesur, on appelle fonction alatoire toute application mesurable de (, F) dans (S S , B(S S )). Comme B(S S ) est engendre
par les projections sur les coordonnes, f : S S = F(S, S) est une fonction alatoire si et seulement si pour tout i S, lapplication 7 f ()(i)
est une variable alatoire. La tribu engendre par une variable alatoire f est
la tribu engendre par les variables f ()(i), o i dcrit S.
Si f est une fonction alatoire et X une variable alatoire, f (X) est une
variable alatoire car
{f (X) B} = iS {X = i} {f (i) B}.
Lemme 11. Soit S un ensemble fini ou dnombrable, une loi sur S et
une mesure sur (S S , B(S S )).
Soit (fn )n1 une suite de fonctions alatoires indpendantes de loi et X0
une variable alatoire de loi indpendante de (fn )n1 . On dfinit (Xn )n1
par
n 0

Xn+1 = fn+1 (Xn )

Alors (Xn )n0 est une chane de Markov de loi initiale et de matrice de
transition M , o M est dfinie par
(i, j) S S

mi,j = ({f S S ; f (i) = j}).

9.2. MATRICE STOCHASTIQUE

125

Dmonstration. Soit A S {0,...,n} .

=
=
=
=
=

P({(X0 , . . . , Xn ) A} {Xn
P({(X0 , . . . , Xn ) A} {Xn
P({(X0 , . . . , Xn ) A} {Xn
P({(X0 , . . . , Xn ) A} {Xn
P({(X0 , . . . , Xn ) A} {Xn
P({(X0 , . . . , Xn ) A} {Xn

= i} {Xn+1 = j})
= i} {fn+1 (i) = j})
= i})P(fn+1 (i) = j)
= i})P(fn+1 S . . . {j} . . . S)
= i})(S . . . {j} . . . S)
= i})mi,j

Exemple : la marche de livrogne (ou marche alatoire sur Z)


Un ivrogne sort du caf passablement mch. chaque pas, il prend une
dcision (enfin, si tant est que cela lui soit possible...) : aller gauche, ou
aller droite. Si on repre par Xn sa position dans la rue au temps n, on a
S = Z, Xn+1 = fn+1 (Xn ), o fn est une suite de translations indpendantes :
P(fn = (x 7 x + 1)) = P(fn = (x 7 x 1)) = 1/2.
Comme on va le voir, ce procd permet de fabriquer toutes les chanes
de Markov.

9.2

Matrice stochastique

Dfinition: Soit S un ensemble dnombrable et P = (pi,j )(i,j)SS une matrice coecients positifs. On dit que P est une matrice stochastique si on
a

i S
pi,j = 1.
jS

9.2.1

Existence des chanes de Markov

Thorme 69. Soit S un ensemble dnombrable, P = (pi,j )(i,j)SS une


matrice stochastique et une mesure de probabilit sur S. Alors, on peut
construire une chane de Markov de loi initiale et de matrice de passage
P.
Dmonstration. Dfinissons une mesure P sur S S par
P = iS i ,
o i est la mesure sur S dfinie par i (j) = pi,j . Alors P vrifie P (S
. . . {j} . . . S) = pi,j et il sut dappliquer le lemme prcdent.

126

CHAPITRE 9. CHANES DE MARKOV

Lorsque la matrice P est fixe, on note souvent P une probabilit sous


laquelle (Xn )n0 est une chane de Markov de matrice de transition P telle que
la loi de X0 sous P est . De mme, on note E lesprance correspondante.
Dans le cas o la loi initiale est une masse de Dirac, on crit simplement Pi
(resp. Ei ) au lieu de Pi (resp. Ei ).
Remarque : on est souvent amen raliser une telle chane sur lespace
canonique = S N . Dans ce cas, les (Xk )k0 sont les oprateurs de projection
canonique : Xk () = k et P est lunique mesure sur telle que pour tout
entier n 1 et toute suite x0 , . . . xn dlments de S :
P (X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x0 )

n1

pxi ,xi+1 .

i=0

Corollaire 16. Soit P une matrice markovienne sur S. Pour tout , on note
P la mesure markovienne sur S N de loi initiale et de matrice de passage
P , ainsi que Pi = Pi . Pour toute loi sur S, P admet la dsintgration
P =

Pi d

(9.2)

cest dire que pour tout borlien A de S N , on a


P (A) =

Pi (A) d

(9.3)

Dmonstration. Il sut de dfinir une mesure par

(A) =

Pi (A) d

et de vrifier que lon a pour tout entier n 1 et toute suite x0 , . . . xn


dlments de S :
(X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x0 )

n1

pxi ,xi+1 .

i=0

Remarques :
On trouve parfois la notation Pi la place de Pi . Dans ce cas, il faut
faire attention quil peut y avoir ambiguit sur le sens de la notation
PX .

9.2. MATRICE STOCHASTIQUE

9.2.2

127

Point de vue fonctionnel (*)

Une matrice stochastique indexe par peut assez naturellement tre vue
comme un oprateur sur lespace des fonctions bornes sur S. Rappelons
que lespace des fonctions bornes, que lon note (S), est lensemble des
fonctions f telles que f = sup{|f (i)|; i S} < +, et que est une
norme sur (S).
Maintenant, si f (S), la fonction P f dfinie par
i S

(P f )(i) =

pi,j f (j)

jS

est une fonction borne. En eet, la majoration

jS

|pi,j f (j)|

pi,j f = f

jS

montre que la srie converge absolument. De plus, comme pour tout i, |P f (i)|
f , on a P f f : P est une contraction de lespace des fonctions
bornes.
Remarque : (P f )(i) est lintgrale de la fonction f par rapport la mesure
de probabilit sur S qui aecte la j la probabilit pi,j .
Thorme 70. Soit (Xn )n0 une suite de variables alatoires valeurs dans
S. On a quivalence entre
1. (Xn )n0 est une chane de Markov de matrice de passage P valeurs
dans S.
2. Pour toute fonction f (S) et pour tout entier n 0
E[f (Xn+1 )|X0 , . . . , Xn ] = (P f )(Xn ).
Dmonstration. Pour le sens direct, il sut de prendre f = i et dappliquer
la caractrisation vue en dbut de chapitre. Regardons la rciproque. Si f =
i , lidentit dcoule encore de la caractrisation vue en dbut de chapitre.
Par linarit, lidentit stend au cas des fonctions support fini. Passons
au cas dnombrable. Il existe une suite croissante densembles finis (Sp )p1
avec S = p1 Sp . f 1Sp est une fonction borne, donc
E[(f 1Sp )(Xn+1 )|X0 , . . . , Xn ] = (P (f 1Sp )(Xn ).
Le thorme de convergence domine pour lesprance conditionnelle nous
dit que
lim E[(f 1Sp )(Xn+1 )|X0 , . . . , Xn ] = E[f (Xn+1 )|X0 , . . . , Xn ].

p+

128

CHAPITRE 9. CHANES DE MARKOV

Pour conclure, il sut de montrer que pour tout i S


lim P (f 1Sp )(i) = P (f )(i).

p+

Mais pour toute fonction borne, le thorme de transfert donne


(P g)(i) = Ei g(X1 ).

(9.4)

Lidentit voulue dcoule alors immdiatement du thorme de convergence


domine.
Lidentit (9.4) est lmentaire, mais peut tre utile. On dduit de ce
thorme une autre remarque trs simple, mais trs puissante :
Corollaire 17. Soit (Xn )n0 est une chane de Markov de matrice de passage
P valeurs dans S, f (S). Si lon pose Fn = (X0 , . . . , Xn ), alors la
suite (Yn )n1 dfinie par
n 0

Yn+1 = f (Xn+1 ) (P f )(Xn )

est une suite de dirences de martingales adapte la filtration (Fn )n0 .


Dmonstration. Yn+1 est Fn+1 -mesurable et
E[Yn+1 |Fn ] = E[f (Xn+1 )|Fn ]E[(P f )(Xn )|Fn ] = (P f )(Xn )(P f )(Xn ) = 0.

9.2.3

Puissances des matrices stochastiques

Thorme 71. Soit (Xn ) une chane de Markov de matrice de transition P


et de loi initiale PX0 = . Alors, la loi n de la chane au temps n scrit
n = P n , o on a crit et n comme des vecteurs lignes.
Dmonstration. Il sut de montrer que n+1 = n P , puis procder par rcurrence sur n. Daprs le principe de partition, on a
n+1 (j) = P (Xn+1 = j)

P (Xn = i, Xn+1 = j)
=
iS

P (Xn = i)pi,j

iS

n (i)pi,j

iS

= (n M )(j)

9.2. MATRICE STOCHASTIQUE

129

En particulier, en prenant = i , on a le corollaire important :


Corollaire 18. Soit (Xn ) une chane de Markov valeur dans S, de matrice
de transition P et de loi initiale i , avec i S. Alors, pour tout j S, on a
Pi (Xn = j) = P n (i, j).

9.2.4

Graphe associ une matrice stochastique

Soit P = (pi,j )(i,j)SS une matrice stochastique. On peut associer la


matrice P (o aux chanes de Markov correspondantes) un graphe orient
G = (S, A) avec
A = {(x, y) S S; pi,j > 0}.
Considrons une chane de Markov associe la matrice stochastique P avec
la condition initiale dterministe x0 , autrement dit = x0 et notons Px0 la
mesure de probabilit correspondante Alors, comme
Px0 (X0 = x0 , X1 = x1 , . . . , Xn = xn ) =

n1

pxi ,xi+1 ,

i=0

il est clair que Px0 (X0 = x0 , X1 = x1 , . . . , Xn = xn ) est non nul si et seulement


si (x0 , x1 , . . . , xn ) constitue un chemin dans le graphe G.
Daprs le principe de partition, on a pour une chane de Markov avec
une loi initiale i

Pi (Xn = xn ) =

Pi (X0 = x0 , X1 = x1 , . . . Xn1 = xn1 , Xn = xn ).

(x0 ,...xn1 )S n

(9.5)
En particulier, si lon pose
(n)

pi,j =

(n)
pi,j

= P (Xn = j), on a
i

Pi (X1 = x1 , X2 = X2 , . . . Xn1 = xn1 , Xn = j).

xS n1
(n)

Donc pi,j > 0, autrement dit il est possible daller en n tapes de ltat i
ltat j si et seulement si on peut trouver dans le graphe G un chemin de
longueur n allant de i j.
On en dduit que
Pi (n > 0; Xn = j) = Pi (n1 {Xn = j}),

130

CHAPITRE 9. CHANES DE MARKOV

qui reprsente la probabilit que, partant de i, on puisse arriver j, est non


nulle si et seulement si il existe dans le graphe G un chemin allant de i j.
Dans ce cas, on dit que j est accessible partir de i et on crit i j.
Si il y a la fois un chemin de i vers j et un chemin de j vers i, on dit
que les tats i et j communiquent et on crit i j.
Si tous les tats communiquent, on dit que la chane de Markov est irrductible.
On appelle priode dun tat x dune chane de Markov et on note d(x)
le pgcd (plus grand commun diviseur) des longueurs des circuits du graphe
G contenant x. Lorsque la priode est 1, on dit que ltat x est apriodique.
Lemme 12. Si deux tats communiquent, alors ils ont mme priode.
Dmonstration. Soient i, j avec i j. Soit un chemin de i j, un
chemin de j i. Soit C un circuit quelconque (ventuellement vide) contenant
j . et C sont deux circuits contenant i. Donc d(i) divise leurs
longueurs ainsi que la dirence de leurs longueurs, soit la longueur de C.
Ainsi d(i) divise les longueurs de tous les circuits contenant j, donc divise
leur pgcd, soit d(j). De la mme manire, on montre que d(j) divise d(i),
do d(i) = d(j).
Dfinition: Si une chane irrductible a ses tats de priode 1, on dit quelle
est apriodique.
Le lemme suivant et ses corollaires se rvleront trs utiles par la suite
Lemme 13. Soit x un tat de priode 1. Il existe un entier N (x) tel que pour
tout n N (x) le graphe associ la chane de Markov possde un circuit de
longueur n contenant x
Soit A lensemble des valeurs de n telles que le graphe associ la chane
de Markov possde un circuit de longueur n contenant x. Il est clair que
A est stable par addition (concatnation des circuits). Il existe p 1 et
n1 , n2 , . . . , np tels que le pgcd de n1 , n2 , . . . , np soit 1. Daprs le lemme de

Bezout, il existe des relatifs a1 , . . . ap tels que 1 = pk=1 ak nk . Posons P =

p:ap >0 ap np et N =
p:ap <0 (ap )np . On a P A, N A et 1 = P N .
Soit n N (N 1). On peut crire n = bN + r, avec b N 1 et r
{0, 1, . . . N 1}. On a n = bN + r = bN + r(P N ) = rP + (b r)N A
car b r N et A est stable par addition.
Corollaire 19. Si x est un tat de priode 1 et quil existe un chemin de
longueur d(x, y) allant de x y, alors pour tout n N (x, y) = N (x)+d(x, y),
il existe un chemin de longueur n allant de x y. Ainsi, si P est la matrice
associe, P n (x, y) > 0.

9.3. PROPRIT DE MARKOV

131

Dmonstration. Il sut de concatner le chemin allant de x x avec un


chemin allant de x y.
Corollaire 20. Si une chane de Markov est irrductible, apriodique, valeurs dans un ensemble fini S, alors il existe un entier N tel que pour tout
n N et tout couple (i, j), il existe un chemin de longueur n allant de i j.
Ainsi, si P est la matrice associe, P n est coecients strictement positifs.
Dmonstration. Il sut de prendre N = max(N (x), x S) + diam(G).
La dfinition suivante est trs simple, mais sera abondamment utilise
dans les exercices.
Dfinition On appelle point absorbant dune chane tout point x tel que
Px (X1 = x) = 1.

9.3
9.3.1

Proprit de Markov
Le thorme

Thorme 72. Soit (Xk )k0 une chane de Markov de matrice de passage
P . Soit p un entier naturel. La suite (Xk+p )k0 est une chane de Markov
de matrice de passage P et de loi initiale la loi de Xp . De plus, pour tout A
Fp -mesurable et tout i S, on a
P(A, Xp = i, Xp+. B) = P(A, Xp = i)Pi (X B).
De manire quivalente, on a P presque-srement :
P(Xp+. B|Fp ) = fB (Xp ), avec fB (x) = Px (X B).
Dmonstration. Comme tre une chane de Markov est une proprit de la
loi, on peut supposer que (Xn )n0 est obtenue par le procd dcrit plus
haut : Xn+1 = fn+1 (Xn ) o (fn )n1 est une suite de variables alatoires
indpendantes de loi M ,(fn )n1 tant de plus suppose indpendante de X0 .
Posons Yn = Xn+p Si lon pose gn = fn+p , on a la rcurrence Yn+1 = gn+1 (Yn ).

Mais la loi de (gn )1 est


M N , ce qui montre bien que (Yn )0 est une chane
de Markov de matrice de passage P et de loi initiale la loi de Xp . Maintenant,
soit B un borlien de S N . On pose
Gi ((hn )n1 ) = (i, h1 (i), h2 h1 (i), h3 h2 h1 (i), . . . )..
P(A, Xp = i, Xp+. B) = P(A, Xp = i, Gi (g) B)

132

CHAPITRE 9. CHANES DE MARKOV

A {Xp = i} est (X0 , f1 , . . . , fp )-mesurable tandis que {Gi (g) B} est


(fk ; k > p)-mesurable, donc
P(A, Xp = i, Gi (g) B) = P(A, Xp = i)P(Gi (g) B) = P(A, Xp = i)Pi (X B).
Pour la deuxime forme, il est clair que fB (Xp ) est Fp -mesurable : il sut
donc de vrifier donc que pour tout A Fp , on a
E1A 1{Xp+. B} = E1A fB (Xp ).
Or
E1A 1{Xp+. B} =

E1A 1{Xp =i} 1{Xp+. B}

P(A, Xp = i, Xp+. B)

P(A, Xp = i)Pi (X B)

E[1A{Xp =i} Pi (X B)]

E[1A{Xp =i} fB (Xp )]

= E[1A fB (Xp )]

Remarque : on peut trouver dans la littrature lcriture


P(Xp+. B|Fp ) = PXp (X B).
Je mets le lecteur en garde contre le fait que PXp ne signifie pas la mme
chose que PPXp .
La proprit de Markov est souvent utilise sous la forme simple suivant :
si A est un borlien de Rn , B un borlien de Rp , alors
P((X0 , . . . Xn1 ) A, Xn = i, (Xn+1 , . . . , Xn+p ) B)
= P((X0 , . . . Xn1 ) A, Xn = i)Pi ((X1 , . . . , Xp B)).

9.3.2

Analyse au premier pas

Corollaire 21. Soit (Xn )n0 une chane de Markov de matrice de passage (pi,j ), B un borlien de RN . On note loprateur de translation :
((xn )n0 ) = ((xn+1 )n0 ).

9.3. PROPRIT DE MARKOV

133

Alors
P((X) B) = PPX1 (X B)

=
P(X1 = j)Pj (X B)
j:P(X =j)>0
1

En particulier, si B est invariant par loprateur de translation (cest


dire que 1 (B) = B) , alors on a le systme dquations :
Pi (X B) =

j
j:pi,j >0 pi,j P (X

B)

Dmonstration. La premire galit traduit exactement la proprit de Markov : une chane de Markov observe partir du temps 1 a la mme loi
quune chane de Markov de mme dynamique commenant avec comme valeur initiale celle que prend la chane de Markov non dcale au temps 1.
La deuxime galit correspond une dcomposition suivant les valeurs que
peut prendre X1 .
Passons au cas o B est invariant :
Pi (X B) = Pi (X 1 (B))
= Pi ((X) B)

=
Pi (X1 = j)Pj (X B)
i:P i (X =j)>0
=

p P
i:pi,j >0 i,j

(X B)

134

CHAPITRE 9. CHANES DE MARKOV

9.4
9.4.1

Exercices sur les chanes de Markov


Exercices corrigs

Exercice 66. On lance un d quilibr 6 faces jusqu obtenir deux six


conscutifs. Calculer lesprance du nombre de lancers ncessaires. lien vers
lindication lien vers la solution
Exercice 67. Soit (Xn )n0 une chane de Markov irrductible valeurs dans
un espace dtats fini ou dnombrable S. Soit A S, avec A fini et A = S.
On pose = inf{n 0; Xn A}. Montrer que < + presque srement.
lien vers lindication lien vers la solution
Exercice 68. Limage dune chane de Markov nest pas (toujours) une
chane de Markov.
On considre
lachane de Markov (Xn ) sur E = {0, 1, 2} de matrice de tran
0 0 1

sition 0 1 0 et de loi initiale 0 = ( 31 , 31 , 13 ). Soit f : E {0, 1} telle que


1 0 0
f (0) = f (1) = 0, f (2) = 1. Pour n 0, on pose Yn = f (Xn ). Montrer que
(Yn )n1 nest pas une chane de Markov.
lien vers lindication lien vers la solution
Exercice 69. Limage dune chane de Markov peut tre une chane de Markov.
Soit (Xn ) une chane de Markov sur un ensemble dnombrable E de matrice
de transition P . Soit une application surjective de E dans un ensemble F
telle que
z F

x, y E

(x) = (y) Px ((X1 ) = z) = Py ((X1 ) = z).

Montrer que la suite (Yn ) dfinie par Yn = (Xn ) est une chane de Markov
et dterminer sa matrice de transition. Montrer que si est une probabilit
stationnaire pour la chane (Xn ) alors limage de par est stationnaire
pour (Yn ).
lien vers lindication lien vers la solution

9.4.2

Exercices non corrigs

Exercice 70. On pose Y0 = 0, puis, pour n 1, Yn est une suite de variables


indpendantes suivant la loi de Bernoulli de paramtre p. On pose ensuite
X0 = 0, et pour tout n 1 : Xn = max{k : Yn = Yn1 = . . . Ynk+1 = 1} 0.
1. Montrer que (Xn )n0 est une chane de Markov.

9.4. EXERCICES SUR LES CHANES DE MARKOV

135

2. Dans la suite, on note Pi la loi dune chane de Markov avec la mme


dynamique partant de n, Ei lesprance correspondante. On note T n =
inf{n 0; Xi = n} Montrer que pour i < n, on a pour i < n
Ei [T n ] = 1 + pEi+1 [T n ] + (1 p)E0 T n .
3. En dduire la valeur de E0 T n .
4. Application : Une pice de monnaie a pour probabilit p, de tomber
sur face. On la lance indfiniment. Calculer lesprance du nombre de
jets quil faudra jusqu ce quune chane de r rsultats conscutifs de
type face apparaisse.
lien vers lindication
Exercice 71. Chane deux tats. Soit {Xn : n 0} une chane de Markov
valeurs dans {0, 1} et de probabilit de transition :
(

P =

, 0 , 1.

1. Montrer que pour (, ) = (0, 0) :


1
P =
+
n

(1 )n
+
+

Que se passe-t-il lorsque = 0 ou = 0 ou = = 0 ? On supposera


pour la suite de lexercice que (, ) = (0, 0).
2. Vrifier que pour toute loi initiale , on a
(

P (Xn = 0) =
+ (1 )n (0)
.
+
+

3. Si (, ) = (1, 1), montrer que (Xn )n0 converge en loi vers une loi
que lon dterminera. On supposera pour la suite de lexercice que
(, ) = (1, 1).
4. (Mesure stationnaire) Prouver que, pour tout n N,
P (Xn A) = (A).
lien vers lindication
Exercice 72. Reprsentation canonique et simulation des chanes de Markov.

136

CHAPITRE 9. CHANES DE MARKOV


1. Soit (Zn )n1 une suite de vaiid valeurs dans F , soit g : E F E
et soit X0 une variable alatoire valeurs dans E indpendante de
(Zn )n1 . Montrer que la suite (Xn )n0 dfinie par Xn+1 = g(Xn , Zn+1 )
est une chane de Markov homogne. Donner sa matrice de transition.
2. On suppose quon dispose dun gnrateur de nombres alatoire de loi
uniforme sur [0, 1], not rand. Soit une mesure de probabilit sur
N. Donner un algorithme pour gnrer des nombres alatoires suivant
la loi .
3. Soit P = (pi,j ) une matrice de transition sur N. On note si,k =
k
j=0 pi,j . Soit (Zn )n1 une suite de vaiid de loi uniforme sur [0, 1] et
X0 une variable alatoire valeurs dans N indpendante de (Zn )n1 .
On construit la suite (Xn )n0 par rcurrence de la faon suivante :
si Xn () = i et Zn+1 () ]si,j1 , si,j ] alors Xn+1 = j.
Montrer que la suite (Xn )n0 ainsi dfinie est une chane de Markov
homogne. Donner sa matrice de transition.
4. Application. Comment simuler une chane de Markov homogne de
matrice de transition P = (pi,j ) ? Ecrire un algorithme explicite si

0.25 0.5 0.25

P = 0.5 0 0.5 .
0.5 0.5 0
lien vers lindication
Exercice 73. Temps datteinte dun tat absorbant.
Soit (Xn ) une chane de Markov sur un ensemble dnombrable E et a E
un tat absorbant. On pose T = inf{n 0; Xn = a}. Montrer que P(Xn =
a) = P(T n). lien vers lindication
Exercice 74. Temps dentre : une proprit dinvariance.
Soit (Xn ) une chane de Markov sur un ensemble dnombrable E de matrice de transition Q. Pour f : E R+ , soit Qf la fonction dfinie par
Qf (x) =

Q(x, y)f (y).

yE

Pour A E on note TA = inf{n 0; Xn A} le temps dentre dans A.


Montrer que la fonction f dfinie sur E par f (x) = Px (TA < +) vrifie
f (x) = 1 pour x A et f (x) = (Qf )(x) pour x A.
lien vers lindication

9.4. EXERCICES SUR LES CHANES DE MARKOV

137

Exercice 75. Chane de Markov arrte.


Soit (Xn ) une chane de Markov sur un ensemble dnombrable E de matrice de transition Q. Etant donn un ensemble B E, on note
TB = inf{n 0; Xn B}
le temps dentre dans B et on pose Yn = XnTB . Montrer que (Yn )n0 est
une chane de Markov sur E dont on prcisera la matrice de transition. lien
vers lindication
Exercice 76. Soit (Xn )n0 une chane de Markov valeurs dans N. On note
A lensemble des points absorbant de la chane. Montrer que (Xn ) ne peut
converger que vers un lment de A.
Plus prcisment : si il existe un vnement B et une variable alatoire Y
telle que
B
lim Xn () = Y (),
n+

alors P(B {Y A}) = 0. lien vers lindication


Exercice 77. La ruine du joueur Un joueur possdant une fortune de a
units joue pile ou face jusqu ce quil ait fait sauter la banque ou quil soit
ruin. Les rserves de la banque sont de b units. Chaque victoire rapporte
une unit et chaque dfaite en cote une. On suppose que les lancers sont
indpendants et que la probabilit de gain de la banque est p = 1 q. On
veut dterminer la probabilit pg que la banque rsiste.
On note (Xn )n1 une suite de v.a.i.i.d. de loi p1 + q1 , puis

Sn = nk=1 Xk et T = inf{n 0; Sn = b ou Sn = a}. Si lon pose Sn =


SnT , il est ais de constater que Sn reprsente la suite des gains relatifs de
la banque.
1. Montrer que Sn est une chane de Markov homogne espace dtats
E = {b, . . . , a} dont on dterminera la loi initiale et la matrice de
transition.
2. Considrons les chanes de Markov ayant la mme matrice de transition que (Sn )n0 Montrer que la suite (un )bna dfinie par
un = Pn ({la banque rsiste})
vrifie la rcurrence linaire
pun+1 un + qun1 = 0.
Que valent ua et ub ?

138

CHAPITRE 9. CHANES DE MARKOV


3. Rsoudre lquation de rcurrence et en dduire
( pq )b 1

pg =

( pq )a+b 1

(9.6)

4. On note vn = En [T ]. Montrer que si b < n < a, on a


1
vn = 1 + (vn+1 + vn1 ).
2
5. Exprimer vn en fonction de n.
lien vers lindication
Exercice 78. Le joueur inruinable
Le problme est le mme que le prcdent, a ceci prs que lon suppose maintenant que le joueur est infiniment riche. On cherche toujours la probabilit
que la banque rsiste (ce qui ne signifie pas ici que le joueur est ruin).
Intuitivement, il sut de faire tendre a vers + dans la formule (9.6), le
tout tant de le justifier. . .
On suggre de poser T = inf{n; Sn b} et, pour tout a > 0, Ua =
inf{n; Sn a} et Ga = {Ua T }.
lien vers lindication
Exercice 79. Madame Brisby dans le labyrinthe
Madame Brisby sest perdue dans le labyrinthe que forment les galeries
o vivent les rats de Nim. Quelle est la probabilit quelle rencontre le sage
Nicodmus avant de croiser le belliqueux Rufus ?
4 (Brutus)
1

5 (Nicodmus)

lien vers lindication

9.4. EXERCICES SUR LES CHANES DE MARKOV

139

Exercice 80. Soit M la matrice dune chane de Markov. Montrer que si


mi,i > 0, alors ltat i est apriodique. Quen dduire pour une chane irrductible ? lien vers lindication
Exercice 81. Soit a et b des entiers suprieurs ou gaux 2, (Dn )n1 une
suite de variables alatoires i.i.d. valeurs dans Z/aZ Z/bZ vrifiant
1
P (D1 = (0, 1)) = P (D1 = (1, 0)) = .
2
Soit (Dn )n1 une suite de variables alatoires et S0 une variable alatoire
valeurs dans Z/aZ Z/bZ indpendante de (Dn )n1 Pour n 1, on pose
Sn = S0 +

Dk .

k=1

Montrer que (Sn ) est une chane de Markov . Est-elle irrductible, apriodique ?
lien vers lindication
Exercice 82. Proprit de Markov fonctionnelle

Soit (Xn )n1 une chane de Markov, F une application mesurable de RN


dans [0, +[. Montrer que pour tout entier p 1, pour tout A Fp =
(X1 , . . . , Xp ), on a
E[1A F ((Xn+p )n1 )] = P(A)g(Xp ),
avec g(x) = Ex F ((Xn )n1 ).
On rappelle que pour toute variable alatoire Y positive et toute probabilit P, on a EY = 0+ P(Y > t) dt. lien vers lindication
Exercice 83. Madame Brisby II
On reprend la chane de Markov des aventures de madame Brisby. On note
lespace dtats E = {1, 2, 3, 4, 5} et lon pose A = {4, 5} Soit f : E C
telle que x A f (x) = 0.

On pose F = +
k=1 f (Xk ).
Montrer que E|F | (ET 1)f .
Montrer lidentit

E1 F
E1 f (X1 )
2
2
(I N ) E F = E f (X1 )
,
3
3
EF
E f (X1 )

140

CHAPITRE 9. CHANES DE MARKOV

o N est la matrice 3 3 telle que la matrice de la chane de Markov admette


une criture par blocs sous la forme
(

N
0 I2

En dduire E1 T, E2 T, E3 T .
lien vers lindication
Exercice 84. volution dun gnotype avec fixation
Nous travaillons ici sur une population de taille fixe forme de 2N gnes. Il
y a deux types de gnes possibles : le type a et le type A. Chacun des
gnes au temps n + 1 est engendr par deux des 2N gnes prsents au temps
N . Son type est celui dun de ses deux parents (choisi au hasard).
On considre la variable alatoire Xn gale au nombre dindividus de type
A dans la population ltape n.
On admettra quon peut modliser lvolution par la rcurrence suivante :
Xn+1 =

2N

1{Yn+1,k Xn } ,

k=1

o (Yn,k )n1,k{1,...,2N } est une suite de variables alatoires indpendantes


suivant la loi uniforme sur lensemble fini {1, . . . , 2N }. X0 est indpendante
des (Yn,k ).
1. Montrer que Xn est une chane de Markov valeurs dans E = {0, . . . , 2N }.
2. Montrer que la loi de Xn+1 sachant Xn = k est une loi binomiale de
paramtre 2N et (k/2N ). Identifier les ventuels points absorbants.
3. Montrer que (Xn )n0 converge presque srement vers une variable
alatoire X .
4. Dterminer la loi de X en fonction de la loi de X0 .
lien vers lindication
Exercice 85. Soit , deux lois sur N. est appele loi de reproduction et
est la loi de la taille de la population initiale.
On appelle chane de Galton-Waltson de loi initiale et de loi de reproduction la chane de Markov de loi initiale et de matrice de transition
pi,j

i (j) si i = 0
=
0 (j) si i = 0

Montrer que si (Xn )n0 et (Yn )n0 sont deux chanes de Markov indpendantes, (Xn )n0 tant une chane de Galton-Waltson de loi initiale 1 et de

9.4. EXERCICES SUR LES CHANES DE MARKOV

141

loi de reproduction , et (Yn )n0 tant une chane de Galton-Waltson de loi


initiale 2 et de loi de reproduction , alors (Xn + Yn )n0 est une chane de
Galton-Waltson de loi initiale 1 2 et de loi de reproduction . lien vers
lindication

142

CHAPITRE 9. CHANES DE MARKOV

Chapitre 10
Rcurrence et mesures
invariantes
10.1

Temps darrt et proprit de Markov


forte

Avant dnoncer la proprit de Markov forte, on va commencer par en


donner une version simple dans le cas dune famille de variables indpendantes.
Thorme 73. Soit (, F, P) un espace probabilis sur lequel vivent des
variables alatoires (Xn )n1 indpendantes de loi . On suppose que (Fn )n1
est une filtration laquelle sont adaptes (Xn )n1 et un temps darrt T qui
est tel que P(T < +) > 0.
On pose alors = {T < +} et P = P(|) et on dfinit sur (, F, P) :
Yn () = Xn+T () (). Alors, sur (, F, P), (Yn )n1 est une suite de variables
alatoires indpendantes de loi , et la tribu ((Yi )i1 ) est indpendante de
FT .
Dmonstration. On commence par montrer que pour tout n 1 et tout
A FT , la loi de (1A , Y1 , . . . , Yn ) sous P est Ber(P(A))n . Soit (t0 , . . . , tn )
des rels. On a
1{T <+} eit0 1A

k=1

eitk Yk = lim 1{T N } eit0 1A


N +

= lim

N +

= lim

N +

143

eitk Yk

k=1
N

1{T =j} e

it0 1A

j=1
N

j=1

eitk Yk

k=1

1{T =j} eit0 1A

k=1

eitk Xj+k

144

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Avec le thorme de convergence domine, on en dduit que


(

E 1{T <+} e

it0 1A

itk Yk

= lim

N +

k=1

E 1{T =j} e

it0 1A

j=1

)
itk Xj+k

k=1

On peut rcrire 1{T =j} eit0 1A = 1{T =j}A eit0 + 1{T =j}Ac . Comme T est un
temps darrt, {T = j} A et {T = j} Ac sont dans Fj , ce qui montre que
1{T =j} eit0 1A est Fj mesurable. Par indpendance, on a donc
N

E 1{T =j} eit0 1A

j=1

eitk Xj+k

E 1{T =j} eit0 1A E

j=1

k=1

E 1{T =j} e

it0 1A

j=1

= E 1{T N } e

it0 1A

eitk Xj+k

k=1

k=1

(tk )
)

(tk ) ,

k=1

o on a pos (t) = E(eitX1 ). En utilisant encore le thorme de convergence


domine, on obtient alors
(

E 1{T <+} e

it0 1A

itk Yk

= E 1{T <+} e

it0 1A

(tk )

k=1

k=1

En divisant par P(T < +), on obtient enfin


(

E e

it0 1A

k=1

)
itk Yk

=E e

it0 1A

(tk ) ,

k=1

ce qui nous permet, laide de la fonction caractristique, de reconnatre la


loi de (1A , Y1 , . . . , Yn ) sous P. Ainsi, pour tout n 1 et tout A FT , la loi de
(1A , Y1 , . . . , Yn ) sous P est Ber(P(A)) n . Les variables (Yn )n1 sont donc
indpendantes de mme loi et pour tout A FT , on sait que pour tout n,
A est indpendant de (Y1 , . . . , Yn ). On en dduit que A est indpendant de
((Yk )k1 ) qui est la tribu engendre par lalgbre n1 (Y1 , . . . , Yn ).
Exemple : : soit (Xn )n1 une suite de variables alatoires suivant la loi
de Bernoulli de paramtre 1/2. On note Sn = X1 + +Xn , puis T = inf{n
3; Snn 1/3}. Les moments o Xn = 1 reprsentent les moments o on tire
pile dans une srie de lancers pile/face avec une pice quilibre. Sachant
que T < +, le thorme dit que les lancers aprs le temps T sont encore
des lancers indpendants pile/face non biaiss, contrairement une croyance
populaire qui voudrait que les lancers se rattrapent en tirant davantage
de piles pour respecter la loi des grands nombres.

10.1. TEMPS DARRT ET PROPRIT DE MARKOV FORTE

145

Thorme 74. Soit (Xn )n0 une chane de Markov. On note (Fn )n0 sa
filtration canonique. Soit T un temps darrt adapt la filtration et A FT
avec P(A{T < +}) > 0. On pose alors = {T < +}A et P = P(|)
et on dfinit sur (, F, P) : Yn () = Xn+T () (). Alors, sur (, F, P), (Yn )n1
est une chane de Markov suivant la mme dynamique que (Xn )n0 et de loi
initiale PXT .
En particulier, pour tout E borlien de RN , on a
P(Y E) = PPXT (X E).
Dmonstration. On peut supposer sans perte de gnralit que (Xn )n0 scrit
sous la forme Xn+1 = F (Xn , Un+1 ), o (Un )n1 est une suite de variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. Dans ce cas la filtration
canonique des (Xn ) coincide avec Fn = (X0 , U1 , Un ). Sur {T < +}, posons Un = UT +n . Soit B un borlien de RN . Daprs le thorme prcdent,
on a
P(A, U B|T < +) = P(A|T < +)P(U B),
soit

P(A, T < +)
P(A, U B, T < +)
=
P(U B),
P(T < +)
P(T < +)

ou encore
P(U B|(A {T < +})) = P(U B).
Ainsi, sous P(|Y B, T < +), (Un ) a la mme loi que (Un ). Maintenant,
pour tout n, on a XT +n+1 = F (XT +n , UT +n+1 ), soit Yn+1 = F (Yn , Un ) : sous
P(|Y B, T < +), (Yn ) est donc une chane de Markov avec la mme
dynamique que (Xn ). La loi initiale est la loi de Y0 sous P, soit PXT .
Comprendre le sens de la proprit de Markov forte demande un certain
travail de rflexion, mais une fois cette rflexion faite, on constatera la redoutable ecacit de cette proprit, en particulier lorsque XT est constante
sur lvnement {T < +}.
Corollaire 22. Soit S un ensemble dnombrable, (Xk )k0 une chane de
Markov sur S de matrice de passage P et T un temps darrt adapt cette
suite. Soit A un vnement se produisant avant le temps T et i S.
Conditionnellement lvnement {T < +} A {XT = i}, la suite
(XT +k )k0 est une chane de Markov de matrice de passage P partant de i.
Ainsi, pour tout borlien B de S N , on a
P(T < +, XT = i, A , XT +. B) = P(T < +, XT = i, A )Pi (X B).

146

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Dmonstration. Il sut dappliquer le thorme prcdent avec A = A


{XT = i} et remarquer que dans ce cas PXT = i .
Corollaire 23. Soit S un ensemble dnombrable, (Xk )k0 une chane de
Markov sur S de matrice de passage P et T un temps darrt adapt cette
suite. On suppose que P(T < +) > 0.
<+)
On dfinit la probabilit conditionnelle P par P(E) = P(E,T
.
P(T <+)
N
Soit B un borlien de R . On a P presque-srement :
P(XT +. B|FT ) = fB (XT ), avec fB (x) = Px (X B).
Ces rsultats sont souvent employs dans le cas o P(T < ) = 1, puisqualors P = P.
Dmonstration. fB (XT ) est videmment FT -mesurable, donc il sagit de montrer que E[1{XT +. B} 1A ] = E[fB (XT )1A ], soit en multipliant par P(T < +),
que
E[1{XT +. B} 1A{T <+} ] = E[fB (XT )1A{T <+} ],
soit encore P(XT +. B|(A {T < +}) = E[fB (XT )|(A {T < +})].
Notons P = P(|(A {T < +}). On a, avec les notations du thorme

P(XT +. B|(A {T < +}) = P(Y


B)

= PPXT (X B)

X (i)
Pi (X B) dP
T
X (i)
fB (i) dP
T
= E(f
B (XT )),
fB (XT ) dP

ce que lon voulait dmontrer.

10.2

Classification des tats

Dfinition: Soit P = (pi,j )(i,j)SS une matrice stochastique. Pour i S, on


considre une chane de Markov (Xn )n0 partant de ltat i et de matrice de
passage P . On pose Ti = inf{n 1; Xn = i}. Si Pi (Ti < +) = 1, on dit
que ltat i est rcurrent. Inversement, si Pi (Ti < +) < 1, on dit que ltat
i est transient.
Thorme 75. Soit P = (pi,j )(i,j)SS une matrice stochastique. Pour i S,
on considre une chane de Markov (Xn )n0 partant de ltat i et de matrice

de passage P . On pose Ti = inf{n 1; Xn = i} et Ni = +


k=1 1{i} (Xk ). Ni
reprsente le nombre de passage de la chane en i partir de linstant 1.

10.2. CLASSIFICATION DES TATS

147

Si i est transient, alors 1 + Ni suit la loi gomtrique de paramtre 1


Pi (Ti < +). En particulier Ni est presque srement fini et intgrable.
Si i est rcurrent, alors Ni est presque srement infinie sous Pi . En
particulier Ei [Ni ] = +.
Dmonstration. Si Ti < + (ou de manire quivalente si Ni > 0, on a
Ni = 1 +

1{i} (XT +k ).

k=1

Soit k un entier positif ou nul. On a


Pi (Ni k+1) = Pi (Ni k+1, Ti < +) = Pi (Ti < +)Pi (

1{i} (XT +i k|Ti < +).

k=1

Or Ti est un temps darrt. Donc, daprs la proprit de Markov forte,


sachant Ti < +, (XT +i )i0 a la loi dune chane de Markov commenant
en i et de matrice de transition P , cest dire la mme loi que (Xi )i0 . On
en dduit
Pi (Ni k + 1) = Pi (Ti < +)Pi (Ni k).
Par rcurrence, on en dduit
Pi (Ni k) = Pi (Ti < +)k
Daprs le thorme de continuit squencielle dcroissante, on a P (Ni =
+) = limk+ Pi (Ni k). Cette limite vaut donc 0 si i est transient, 1 si
i est rcurrent. Pour k 1, on a
Pi (1 + Ni = k) = Pi (1 + Ni k) P (Ni k)
= Pi (Ti < +)k1 Pi (Ti < +)k
= Pi (Ti < +)k1 (1 Pi (Ti < +)),
ce qui montre que 1 + Ni suit bien une loi gomtrique de paramtre 1
Pi (Ti < +). De plus
Ei Ni =

k=1

Pi (Ni k) =

= Pi (Ti < +)k =

k=1

Pi (Ti < +)
< +.
1 Pi (Ti < +)

Corollaire 24. Un tat i est transient si et seulement si


+

k=1

Pi (Xk = i) < +.

148

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Dmonstration. Daprs le thorme prcdent, i est transient si et seulement


si Ni est intgrable sous Pi . Or
Ei Ni = Ei
=
=

1{i} (Xk )

k=1
+

E 1{i} (Xk )

k=1
+

Pi (Xk = i)

k=1

(On utilise le thorme de Tonelli pour changer la somme et lesprance)


Ceci achve la preuve.
Corollaire 25. Soient i et j deux tats dune chane de Markov de matrice
de transition P = (pi,j )(i,j)SS . On suppose que i et j communiquent. Alors
i et j sont tous les deux transients ou tous les deux rcurrents
(n)

(p)

Dmonstration. Soit n, p tels que pi,j > 0 et pj,i > 0. Pour tout k 0, on a
(n+p+k)

pj,j

(p) (k) (n)

pj,i pi,i pi,j .


(k)

(k)

Ainsi, si la srie de terme gnral pi,i diverge, la srie de terme gnral pj,j
aussi. Comme les rles de i et j sont symtriques, les deux sries sont de
(k)
mme nature. Comme pi,i = Pi (Xk = i), le rsultat dcoule du corollaire
prcdent.
Corollaire 26. Considrons une chane de Markov irrductible de matrice
de transition P = (pi,j )(i,j)SS et pour tous les i S , notons Pi les lois
markoviennes correspondantes. Les proprits suivantes sont quivalentes
1. i, j S Pj (Ni = +) > 0.
2. i S, i est rcurrent
3. i S, i est rcurrent
4. i, j S Pj (Ni = +) = 1.
Dmonstration.
(1) = (2). Soit l tel que Pi (Xl = j) > 0. On a
+
i
P (Ni = +) Pi (Xl = j, k=1
1{Xk+l =i} ) Pi (Xl = j)Pj (Ni =
+) > 0, donc i est rcurrent.
(2) = (3). Cest une consquence du corollaire prcdent.

10.3. MESURES INVARIANTES

149

(3) = (4). Considrons Pi (Tj < +, k > Tj Xk = i). Comme i et


j communiquent Pi (Tj < +) > 0). Daprs la proprit de Markov
forte, on a
Pi (Tj < +, k > Tj , Xk = i) = Pi (Tj < +)Pj (k > 0Xk = i)
= Pi (Tj < +)Pj (Ti = +)
Mais {Tj < +, k > Tj Xk = i} {Ni < +} et, comme i est
rcurrent, Pi (Ni < +) = 0, donc Pi (Tj < +)Pj (Ti = +) = 0.
Comme Pi (Tj < +) > 0, on a finalement Pj (Ti = +) = 0. Mais
Ni = 1 +

1{i} (Xk+Ti ),

k=1

Donc daprs la proprit de Markov forte


Pj (Ni = +) = Pi (

1{i} (Xk ) = +) = Pi (Ni = +) = 1.

k=1

(4) = (1). vident.


Dfinition: Si une chane de Markov vrifie une des 4 proprits quivalentes
ci-dessus, on dit que cest une chane rcurrente.

10.3

Mesures invariantes

Dfinition: On dit quune mesure est invariante sous laction de la matrice


de transition markovienne M si M = , cest dire.
j S

(i)mi,j = (j).

iS

Si est invariante sous laction de M , une rcurrence immdiate donne


n 0 M n = . Ainsi, si (Xn )n0 est une chane de Markov de matrice
de transition M et de mesure initiale PX0 = , alors pour tout n, la loi de
Xn est PXn = .
Dfinition: On dit quune mesure est rversible sous laction de la matrice
de transition markovienne M si
i, j S

(i)mi,j = (j)mj,i .

Par extension, on dit dune chane de Markov dont la loi au temps zro est
une mesure de probabilit rversible sous laction de la matrice de transition
de la chane quelle est une chane rversible.

150

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Thorme 76. Soit (Xn )n0 une chane de Markov de loi initiale rversible
sous laction de M . Alors
n 1 (X0 , X1 , . . . Xn ) et (Xn , Xn1 , . . . , X0 ) ont mme loi sous P .
Dmonstration. Il sut de montrer par rcurrence sur n que (x0 , . . . xn )
S n+1 , on a
P (X0 = x0 , X1 = x1 , . . . , Xn = xn ) = P (X0 = xn , X1 = xn1 , . . . , Xn = x0 ).
Pour n = 1, il sut de voir que
P (X0 = x0 , X1 = x1 ) = (x0 )mx0 ,x1 = (x1 )mx1 ,x0 = P (X0 = x1 , X1 = x0 ).
Ensuite
P (X0 = x0 , X1 = x1 , . . . , Xn = xn ) = P (X0 = x0 , X1 = x1 , . . . , Xn1 = xn1 )mxn1 ,xn
= mxn1 ,xn P (X0 = xn1 , X1 = xn2 , . . . , Xn1 = x0 )
= mxn1 ,xn (xn1 )
= (xn1 )mxn1 ,xn
= (xn )mxn ,xn1

n1

i=1
n1

mxni ,xni1
mxni ,xni1

i=1
n1

mxni ,xni1

i=1

= (xn )

n1

mxni ,xni1

i=0

= P (X0 = xn , X1 = xn1 , . . . , Xn = x0 ).

Il est facile de voir que toute mesure rversible est invariante.


Thorme 77. Si la matrice de transition M est irrductible et admet une
probabilit invariante, alors les chanes de Markov associes M sont
rcurrentes. De plus, charge tous les points de lespace dtats.
Dmonstration. Soit une probabilit invariante Pour tout n 0, on a
M n = , soit

(n)
(i)mi,j = (j)
j S n 0
iS

10.3. MESURES INVARIANTES

151

Si une chane de Markov irrductible nest pas rcurrente, les tats sont
(n)
tous transitoires et limn+ (i)mi,j = 0 quels que soient i et j. Daprs le
thorme de convergence domine, on a alors
j S

0 = (j),

ce qui est impossible. Le premier point est donc dmontr. Prenons maintenant x E tel que (x) > 0 et soit y un autre lment de E. Il existe un
entier n et une suite x = x0 , x1 , . . . xn = y dlments de E avec pour tout i
entre 0 et n 1, mxi ,xi+1 > 0. Ainsi
n1

(y) = P (Xn = y) P (X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x)

i=0

mxi ,xi+1 > 0.

Thorme 78. Toute chane de Markov sur un espace dtats S fini admet
une probabilit invariante.
Dmonstration. Lensemble M(S) des mesures de probabilit sur S siden
tifie au compact K = {(x1 , . . . , xn ) Rn+ ; nk=1 xk = 1}, avec n = |S|. M(S)
est un convexe stable par 7 M . Ainsi, si est une mesure quelconque
sur S, la suite (n )n0 dfinie par
n =

1 n1
M k
n k=0
n

)
est valeurs dans M(S). On a n (I M ) = (IM
. Comme la suite
n
(I M n )n0 , est borne, il sensuit que toute valeur dadhrence de (n )n0
est laisse fixe par M . Comme M(S) est compacte, (n )n0 a au moins une
valeur dadhrence donc M au moins une mesure invariante.

Corollaire 27. Une chane de Markov irrductible dont lespace dtats est
fini est rcurrente.
Remarque-exercice : Sil est vrai quune chane de Markov avec un
espace dtat fini admet toujours une mesure invariante ; en revanche elle
nadmet pas toujours de probabilit rversible. Voici un exemple simple. Soit
N 3 un entier et p ]0, 1]. Considrons une suite (Xn )n1 de variables
indpendantes valeurs dans Z/N Z avec P(Xn = 1) = 1 P(Xn = 0) = p.
On pose Sn = X1 + + Xn . On peut dmontrer que (Sn )n1 est une chane
de Markov, qui admet la probabilit uniforme comme probabilit invariante,
mais la seule mesure rversible pour la dynamique est la mesure nulle.

152

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

10.4

Thorme de la probabilit stationnaire

Thorme 79. Soit M la matrice de transition dune chane de Markov


irrductible apriodique admettant comme loi stationnaire. Alors pour toute
loi sur S, la chane de Markov de matrice de transition M et de loi initiale
converge vers .

Dmonstration. Soit X0 , X0 deux variables alatoires indpendantes, X0 suivant la loi , X0 la loi . On note galement Y0 = X0 . Soit galement (fn )n1
et (fn )n1 deux suites de variables alatoires i.i.i.d. de loi M dfinie au lemme
1, ces deux suites tant indpendantes de X0 et X0 . On dfinit par rcurrence
les suites (gn )n1 , (Xn )n1 et (Xn )n1 , (Yn )n1 par

Xn+1

n+1

gn+1

Xn+1

= fn+1 (Xn )

= fn+1
(Yn )
f
si Xn = Xn
n+1
=
f
sinon
n+1

= gn+1 (Xn )

Il nest pas dicile de voir quen tout point on a

(Xn () = Xn ()) = (fn+1 () = gn+1 ()) = (Xn+1 () = Xn+1


())

Ainsi, les processus Xn et Xn voluent de manire indpendante jusquau


moment o ils se rencontrent. partir de l, Xn demeure scotch Xn .

Lemme 14. Soit (Xn )n0 une chane de Markov de matrice de transition M
et de loi initiale , (Yn )n0 une chane de Markov de matrice de transition
N et de loi initiale . On suppose en outre que les suites (Xn )n0 et (Yn )n0
sont indpendantes sous P . Alors la suite (Zn )n0 dfinie par Zn = (Xn , Yn )
est une chane de Markov de matrice de transition M N , o M N est
dfinie par
((i, j), (k, l)) S 2 S 2

(M N )(i, j), (k, l) = M (i, k)N (j, l).

10.4. THORME DE LA PROBABILIT STATIONNAIRE

153

Dmonstration. Soient (x0 , . . . , xn ) S n+1 et (y0 , . . . , yn ) S n+1 .


P(i {0, n}(Xi , Yi ) = (xi , yi )) = P({i {0, n}Xi = xi } {i {0, n}Yi = yi })
= P(i {0, n}Xi = xi )P(i {0, n}Yi = yi )
= ({x0 })

n1

mxi ,xi+1 ({y0 })

i=0

= ({x0 })({y0 })

n1

nyi ,yi+1

i=0
n1

mxi ,xi+1 nyi ,yi+1

i=0
n1

= ( )({x0 , y0 })

(M N )((xi , yi ), (xi+1 , yi+1 ))

i=0

Lemme 15. Soit U, V deux variables alatoires de loi . On suppose que


sous P, U et V sont indpendantes de la tribu A. Soit A un vnement
A mesurable. On dfinit W par
{

W () =

U () si A
V () si
/A

Alors, sous P, W suit la loi et W est indpendante de A.


Dmonstration. Soit A un vnement A mesurable et B un borlien
P(A {W B}) =
=
=
=
=
=

P(A A {W B}) + P(Ac A {W B})


P(A A {U B}) + P(Ac A {V B})
P(A A )P(U B) + P(Ac A )P(V B)
P(A A )(B) + P(Ac A )(B)
(P(A A ) + P(Ac A ))(B)
P(A )(B)

En prenant A = , on en dduit dabord que P(W B) = (B) pour


tout borlien B. est donc la loi de W sous P. En rinsrant dans la formule
prcdente, on a pour tout vnement Amesurable A et pour tout borlien
B:
P(A {W B}) = P(A )P(W B),
ce qui veut dire que W est indpendante de A.

154

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

En appliquant le lemme prcdent A = (X0 , X0 , f1 , . . . , fn , f1 , . . . , fn ),

A = {Xn = Xn }, U = fn+1 , V = fn+1


et W = gn+1 on voit que gn+1 suit
la loi M et que gn+1 est indpendante de (X0 , X0 , f1 , . . . , fn , f1 , . . . , fn ).
Comme (g1 , . . . , gn ) est (X0 , X0 , f1 , . . . , fn , f1 , . . . , fn )-mesurable, il sensuit
que (gn )n1 est une suite de v.a.i.i.d de loi M .
Daprs le lemme 11, (Xn ) est une chane de Markov de matrice de transition M et de loi initiale tandis que (Xn ) est une chane de Markov de
matrice de transition M et de loi initiale .
On va maintenant montrer que = inf{n; Xn = Xn } est presque srement
fini. Il est facile de voir que = inf{n; Xn = Yn }. Ce qui est intressant, cest
que (Xn )n0 et (Yn )n0 sont indpendants.
Ainsi, daprs le lemme 14, (Xn , Yn ) est une chane de Markov de loi
initiale et de matrice de transition M = M M . Soient (x, y, z, t) S 4 .
Comme M est la matrice dune chane de Markov irrductible et apriodique,
on peut, daprs le corollaire 19, trouver un entier n0 = max(N (x, z), N (z, t))
tel que M n0 (x, z) et M n0 (y, t) soient strictement positifs. Or M n0 = (M
M )n0 = M n0 M n0 : on a
M 0 ((x, y), (z, t)) = M n0 (x, z)M n0 (y, t) > 0.
n

Ainsi ((Zn )n0 = ((Xn , Yn ))n0 est une chane de Markov irrductible. Comme
M M admet comme mesure invariante, la dynamique est donc rcurrente : (Zn )n0 passe donc presque srement en tout point de S S. En
particulier, elle passe presque srement sur sa diagonale, ce qui implique que
P( < +) = 1.
Soit f une fonction borne de S dans R. Pour n , on a f (Xn ) = f (Xn ).
Donc f (Xn ) f (Xn ) converge presque srement vers 0. Daprs le thorme
de convergence domine, on en dduit que E(f (Xn ) f (Xn )) converge vers
0. Comme est invariante E(f (Xn ) f (Xn)) = f d Ef (Xn ). Ainsi
pour toute fonction f , Ef (Xn ) converge vers f d, ce qui veut dire que Xn
converge en loi vers .

Remarque-exercice : lhypothse dapriodicit est importante. En effet, on peut construire deux chanes de Markov indpendantes (Xn )n0 et
(Yn )n0 ayant la mme matrice de transition irrductibles, telles que (Xn , Yn )n0
ne soit pas irrductible et que (Xn , Yn )n0 ne coupe jamais la diagonale.
Donner deux exemples dun tel phnomne, lun avec S fini, lautre avec S
infini.

10.5. THORME ERGODIQUE DES CHANES DE MARKOV

155

10.5

Thorme ergodique des chanes de Markov

10.5.1

Convergence presque sre des frquences empiriques

Thorme 80. Soit (Xn )n0 une chane de Markov. Pour tout x S, on a

1{Tx <+}
1 n1
1{x} (Xk ) =
n+ n
Ex Tx
k=0

lim

p.s.

En particulier, si la chane est irrductible, on a

1 n1
1
lim
1{x} (Xk ) = x .
n+ n
E Tx
k=0

n1
Dmonstration. Si Tx = +, lgalit est vidente, car n1 k=0
1{x} (Xk ) =
1
1 n1
1
pour tout n. Si Tx < +, la suite de terme gnral n k=0 1{x} (Xk )
n {X0 =x}
n1
a le mme comportement asymptotique que la suite de terme gnral n1 k=0
1{x} (XTx +k ).
Or, daprs la proprit de Markov forte, la loi de la suite de terme gnral
1 n1
1 (XTx +k ) sous P est la mme que la loi de la suite de terme gnral
n k=0 {x}
n1
1
x
o P = Px .
k=0 1{x} (Xk ) sous P : on est ramen tudier le cas
n

Si x nest pas rcurrent, on a Ex [Tx ] = + et +


k=0 1{x} (Xk ) est fini
x
P -presque srement : cela donne lidentit voulue.
Passons donc au cas o x est rcurrent. Pour tout k 1, posons T k =

inf{n > 0,

1{x} (Xi ) k}. Les T k sont des temps darrt adapts la

i=1

filtration naturelle engendre par (Xn )n0 . Comme x rcurrent, les T k sont
presque srement finis. Il est ais de constater que la suite (T k )k1 est croissante. Pour tout i {1, . . . k}, T i est FT i -mesurable (voir chapitre sur les
martingales). Comme T i T k , on a FT i FT k . Finalement, (T 1 , . . . , T k )
est une sous-tribu de FT k . Soit k 1 et A (T 1 , . . . , T k ) : il est clair que
A se produit avant T k . Ainsi, on va pouvoir utiliser la proprit de Markov
forte :
k

T +n
Px (A, T k+1 Tk > n) = Px (A, j=T
k +1 1{x} (Xj ) = 0)
x
x
n
= P (A)P (j=1 1{x} (Xj ) = 0)

= Px (A)Px (T 1 > n)
On en dduit que, sous la loi Px , les variables alatoires T 1 , T 2 T 1 , T 3
T 2 , . . . forment une suite de variables alatoires positives indpendantes

156

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

1
ayant mme loi que T
on
( = Tx . Daprs la loi forte des grands nombres
)
n
T
1
1
2
1
3
2
n
n1
en dduit que n = n T + (T T ) + (T T ) + . . . (T T
converge
x x
x
x
presque srement vers E T . Le rsultat demeure si E [T ] = + (exercice
n1
classique de troncature) Posons Sn = k=0
1{x} (Xk ). Un instant de rflexion
Sn
Sn +1
montre que T n < T
. On en dduit

T Sn
n
T Sn +1 Sn + 1

<
Sn
Sn
Sn + 1 Sn
Si x est rcurrent limn+ Sn = +, donc limn+ Snn = Ex Tx , do le
Sn
rsultat. Si x est transient, lingalit TSn Snn sut a donner la convergence
de Sn /n vers 0.
Remarque. On peut observer que la limite presque sre apparaissant dans
ce thorme dpend assez peu de ltat initial de la chane. Dans le cas
1
irrductible, Ex [T
reprsente la proportion asymptotique du temps pass
x]
par la chane dans ltat x.
Dfinition. Si x est un tat rcurrent, on convient de dire que x est rcurrent
1
1
positif si Ex [T
> 0 (soit Ex [Tx ] < +), et que x est rcurrent nul si Ex [T
=0
x]
x]
x
1
(soit E [Tx ] = +).

10.5.2

Frquences empiriques et probabilits invariantes

Thorme 81. Soit (Xn )n0 une chane de Markov irrductible admettant
une probabilit invariante . Pour tout x S, on a

1 n1
1
lim
1{x} (Xk ) = x = (x) > 0.
n+ n
E Tx
k=0

Dmonstration. Une chane de Markov irrductible admettant une probabilit invariante est toujours rcurrente (voir Thorme 77). Le thorme ergodique des chanes de Markov sapplique donc, et on a pour toute loi initiale
:

1 n1
1
lim
1{x} (Xk ) = x P p.s.
n+ n
E Tx
k=0

Comme | n1 n1
k=0 1{x} (Xk )| 1, le thorme de convergence domine sapplique et on a

1 n1
1
lim
P (Xk = x) = x .
n+ n
E Tx
k=0
1. On verra plus tard que pour une chane de Markov espace dtats fini, les tats
rcurrents sont tous rcurrents positifs. Les notions de rcurrence positive et de rcurrence
nulle que lon vient dintroduire nont donc pas vraiment de pertinence dans le cas de
ltude des chanes de Markov espace dtat finis.

10.5. THORME ERGODIQUE DES CHANES DE MARKOV

157

Si lon prend pour la mesure invariante , on a pour tout k 0 P (Xk =


x) = (x). On en dduit que Ex1Tx = (x), ce qui achve la preuve, puisque
le fait quune mesure invariante dune chane de Markov irrductible doive
charger tous les points a dj t dmontr.
Corollaire 28. Une chane de Markov irrductible a au plus une probabilit
invariante.
Corollaire 29. Une chane de Markov irrductible dont lespace dtat est
fini a exactement une mesure invariante. Ses tats sont tous rcurrents positifs.
Dmonstration. On sait dj que tous les tats dune chane de Markov irrductible dont lespace dtat est fini sont rcurrents. On sait galement
quune chane de Markov sur un espace dtats fini admet au moins une musure invariante. Daprs le prcdent corollaire, cette mesure est unique. En
rappliquant le thorme, on voit que les tats sont tous rcurrents positifs.
Le thorme 81 admet une rciproque.
Thorme 82. Soit (Xn )n0 une chane de Markov irrductible et rcurrente
sur S. On suppose quil existe x S tel que Ex [Tx ] < +.
Alors, la chane admet une unique probabilit invariante qui est don1
ne par y S (y) = Ey [T
> 0. Dans ce cas, on dit que la chane est
y]
rcurrente positive.
1
. m est une mesure positive sur S.
Dmonstration. Posons m(y) = Ey [T
y]
Ce nest pas la mesure nulle car m(x) > 0. Ainsi, si lon montre que la
mesure m est invariante sous la dynamique et que m est une mesure finie, la
probabilit = m/m(S) sera une probabilit invariante sous la dynamique.
1
pour tout y. De plus, daprs
Daprs le thorme 81, on aura (y) = Ey [T
y]
le thorme 77, (y) > 0 pour tout y.
Montrons dj que m est finie : soit S une partie finie de S.
On a

1 n1
1x (Xk ) 1,
n k=0 xS

do en faisant tendre n vers linfini, on a avec le thorme 80 :

xS

m(x) 1,

158

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

ce qui montre que la somme des m(x) est finie.


Il sut alors de montrer que pour pour x S, on a

m(y)py,x = m(x).

yS

Posons Yn = n1 nk=1 1{x} (Xk ). On a vu que Yn /n tend presque srement vers


m(x), donc par convergence domine, E[Yn ]/n tend vers m(x). On a aussi
n
1
Yn
1{y} (Xk1 )1{x} (Xk )
=
n
yS n k=1

do
n
1
E[Yn ]
=
P(Xk1 = y, XXk = x)
n
yS n k=1

n
1
yS

n k=1

P(Xk1 = y)py,x

Soit S une partie finie de S : on a


n
1
E[Yn ]

P(Xk1 = y)py,x ,
n
n k=1
yS

et en faisant tendre n vers linfini


m(x)

m(y)py,x ,

yS

do en passant au sup
m(x)

m(y)py,x .

yS

Cependant

m(y)py,x =

xS yS

m(y)py,x =

yS xS

m(y)1

yS

Ce qui entrane donc que pour tout x, on a bien


m(x) =

m(y)py,x ,

yS

ce qui achve la preuve.


Bien sr, cette rciproque est sans intrt lorsque lespace dtat est fini,
puisque lexistence de la mesure invariante est assure demble.
On donne maintenant une preuve alternative, qui permet parfois de calculer la mesure invariante.

10.5. THORME ERGODIQUE DES CHANES DE MARKOV

10.5.3

159

Calcul dune mesure invariante partir de la loi


des trajectoires issues dun point

Thorme 83. Soit (Xn ) une chane de Markov sur E et x S tel que
x 1
Ex [Tx ] < +. Si lon pose Nyx = Tk=0
1{Xk =y} , alors la mesure x dfinie
par
Ex [Nyx ]
x
(y) = x
.
E [Tx ]
est une mesure de probabilit invariante. En particulier x (x) =

1
Ex [Tx ]

Dmonstration. On pose, S0 = 0, et pour n 1 : Sny = n1


k=0 1{Xk+1 =y}
y
y
y
pXk ,y . Sn est Fn -mesurable et Sn = Sn1 + 1{Xn =y} pXn1 ,x , donc
y
y
E[Sny |Fn1 ] = Sn1
+ P(Xn = x|Fn1 ) pXn1 ,x = Sn1
,

Ainsi (Sny )n1 est une martingale 2 . Comme T x est un temps darrt, le
y
)
est aussi une martingale, en particulier
thorme darrt dit que (SnT
x n1
y
y
tend
presque srement vers STyx . Comme
]
=
0
pour
tout
n.
S
Ex [SnT
nTx
x
y
|SnTx | Tx , le thorme de convergence domine nous donne Ex [STyx ] = 0.
Cependant,
STyx =
=
=

T
x 1

1{Xk+1 =y} pXk ,y

k=0
Tx

1{Xk =y}

k=1
Tx

T
x 1

1{Xk =z} pz,y

k=0 zS

1{Xk =y}

k=1

Nzx pz,y

zS

= 1{X0 =y} + 1{x=y} + Nyx

Nzx pz,y

zS

En prenant lesprance sous Px , on obtient, pour tout y S :


0 = Ey [Nyx ]

Ex [Nzx ]pz,y ,

zS

2. Cette martingale ne sort pas de nulle part. Dans le corollaire 17, nous avions remarqu que pour une chane de Markov (Xn )n0 de matrice de passage P et une fonction f ,
la suite (Yn )n1 dfinie par
n 0 Yn+1 = f (Xn+1 ) (P f )(Xn )
est une suite de dirences de martingales adapte la filtration canonique des Xi . Ici, on
a simplement pris f = 1i .

160

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

ce qui dit bien que (Ex [Nzx ])zE est une mesure invariante. Pour avoir une
mesure de probabilit, il sut de diviser par

Ex [Nzx ] = Ex [

zE

Nzx ] = Ex [Tx ].

zE

Enfin, comme Nxx = 1, Px -presque srement, on a x (x) =

10.6

1
.
Ex [Tx ]

Retour la classification des tats (*)

Considrons une chane de Markov dont lespace dtats est S On dit que
x est un tat essentiel si
x S

(x y) = (y x).

Il nest pas dicile de voir quun tat accessible depuis un tat essentiel est
lui-mme un tat essentiel.
Dmonstration. Supposons en eet que x est essentiel et que x y. Soit
z tel que que y z. On a (x y) et (y z) donc (x z). Comme x
est essentiel, (z x), or (x y), donc (z y), ce qui montre que y est
essentiel.
Soit (Ai )i I la partition de lensemble des points essentiels induite par la
relation dquivalence communique (). Chaque ensemble Ai est appel
une classe absorbante. Dun point x appartenant la classe absorbante Ai ,
on ne peut accder qu des points de Ai .
Dmonstration. En eet si x y, alors y x car x est essentiel et y est
essentiel : ainsi y est essentiel et x y, donc x et y sont dans la mme classe
dquivalence : y Ai .
Thorme 84. Les points rcurrents dune chane de Markov sont terminaux.
Dmonstration. Soient i un tat non terminal. Il existe j tel que i j mais
que j ne communique pas avec i. Soit n tel que Pi (Xn = j) > 0
Pi (Ni < +) Pi (Xn = j, k n Xk = i)
= Pi (Xn = j)Pj (k 0 Xk = i) = Pi (Xn = j).1 > 0,
ce qui montre que i nest pas rcurrent.

10.6. RETOUR LA CLASSIFICATION DES TATS (*)

161

Thorme 85. Une mesure de probabilit invariante dune chane de Markov


ne charge que des tats rcurrents positifs.
Dmonstration. Soit une mesure invariante et x charg par . Posons

Mn = n1 n1
k=0 1{x} (Xk ). Daprs le thorme 80, Mn converge P -presque
1
srement vers {TExx<+}
, donc daprs le thorme de convergence domine
Tx
P (Tx <+)

E [Mn ] converge vers


. Comme E [Mn ] = (x) pour tout n, on a
Ex Tx

(x) = P (TExx<+)
. Comme (x) > 0, on a Ex [Tx ] < +.
Tx
Thorme 86. Soit pi,j une matrice markovienne. Soient (Ai )iI les classes
absorbantes associes la chane, et J I lensemble des x tels que la chane
de Markov de matrice (pi,j )i,jAx soit rcurrente positive. La chane (pi,j )i,jE
possde au moins une probabilit invariante si et seulement si J est non-vide.
Dans ce cas, les probabilits invariantes sont exactements les probabilits

x
x ,

xJ

o
x est le prolongement S de lunique mesure invariante de la la chane de
markov de matrice (pi,j )i,jAx , et o les x sont des rels positifs de somme 1.
Dmonstration. Soit une probabilit invariante, cest dire telle que
i S

(i) =

(j)pj,i .

jS

Daprs les deux thormes prcdents, ne charge que des tats rcurrents
positifs, terminaux : J est donc non-vide. Soit C = xJ Ax . On sait que (i)
est nul pour i E\C. Soit x J. On sait quon ne peut accder de Ax qu
des points de Ax : i Ax j S\Ax pi,j = 0. Ainsi
i Ax

pi,j =

jAx

pi,j

jS

pi,j = 1 0 = 1.

jS\Ax

La matrice (pi,j )i,jAx est donc markovienne. On a galement

jAx (j)pj,i . On a donc le systme


i Ax

(i) =

jS

(j)pj,i =

(j)pj,i ,

jAx

ce qui signifie que la restriction de Ax est une mesure invariante finie


pour (pi,j )i,jAx . Daprs le thorme dunicit pour les chanes irrductibles,
on a
i Ax (i) = (Ax )x (i).

162

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

On a ainsi la reprsentation voulue en posant x = (Ax ), en notant


x la
mesure sur E qui concide avec x sur Ax et est nulle sur S\Ax .
On a montr que les probabilits invariantes taient ncessairement de la
forme annonce. Montrons la rciproque. Montrons dabord que lextension
de
x est invariante. On a dabord que
i Ax

j (j)pj,i =

jS

x (j)pj,i =

jAx

x (j)pj,i = x (j) =
x (j).

jAx

Par ailleurs, pour i S\Ax , observons les termes de la somme jS


x (j)pj,i :
si j Ax , pj,i est nul, tandis que pour j S\Ax ,
j (j) = 0 : le produit
j

(j)pj,i est toujours nul, et on a

jS

j (j)pj,i =

0=0=
x (i).

jS

La mesure de probabilits
x est donc bien invariante. Pour conclure, il est
ais de voir quun barycentre de probabilits invariantes est une probabilit
invariante.

10.7

Algorithme de Propp et Wilson

Soit S un ensemble fini. On note F(S, S) lensemble des fonctions de S


dans S. On remarquera que F(S, S) est fini.
Avant de dcrire lalgorithme de Propp et Wilson, il convient de rappeler
la reprsentation dynamique des chanes de Markov. Une matrice de passage
(pi,j )(i,j)SS tant donne, on peut toujours construire une chane de Markov
(Xn )n0 valeurs dans S de loi initiale donne PX0 quelconque, admettant
(pi,j )(i,j)SS comme matrice de passage, et vrifiant la rcurrence
Xn+1 = fn+1 (Xn ),
o (fn )n1 est une suite de fonctions alatoires indpendantes, identiquement
distribues, indpendante de X0 . Comme fn F(S, S), on peut toujours la
reprsenter par un vecteur de taille |S| dont les entres sont valeur dans S,
mais cest rarement comme cela quon procde.
Dans la pratique, la suite fn est souvent gnre de la manire suivante :
on construit un ensemble X, une suite i.i.d. Zn de variables alatoires aisment simulables et une fonction dterministe f : X S S telle que la suite
fn dfinie par fn (y) = f (Zn , y) vrifie les conditions mentionnes ci-dessus.
On a donc pour tout n 1, Xn = fn fn1 . . . f1 (X0 ).
Lide simple, mais diablement ecace, de Propp et Wilson, consiste
regarder la suite des les itres prises dans lautre sens : (f1 f2 . . . fn )n1 .

10.7. ALGORITHME DE PROPP ET WILSON

163

Thorme 87. Soit M la matrice dune chane de Markov irrductible


valeurs dans S admettant comme mesure invariante et (fn )n1 une suite
de fonctions alatoires indpendantes suivant une loi sur F = F(S, S) telle
que
(i, j) S S (f F, f (i) = j) = mi,j .
On pose g0 = IdS , puis pour n 0 gn+1 = gn fn+1 . Soit A une partie
infinie de N. On note
T = inf{n A, gn est une fonction constante}.
Si P(T < +) = 1, alors gT (x0 ) suit la loi , o x0 S est quelconque.
Dmonstration. Soit X0 une variable alatoire suivant la loi indpendante
de la suite (fn )n1 . Pour n T , comme gn = gT (fT +1 fT +2 fn ), on a
gn (X0 ) = gT (x0 ). On en dduit que pour y S et n T , on a 1{gn (X0 )=y} =
1{gT (x0 )=y} . On a donc presque srement limn+ 1{gn (X0 )=y} = 1{gT (x0 )=y} .
On appliquant le thorme de convergence domine, on obtient
lim P (gn (X0 ) = y) = P (gT (x0 ) = y).

n+

Or gn (X0 ) = f1 f2 fn (X0 ) a la mme loi que fn fn1 f1 (X0 ), cest


dire la loi que suit au temps n une chane de Markov de mesure initiale et
de matrice de transition M , cest dire . (Attention : (gn (X0 ))n0 nest pas
une chane de Markov !) On a donc pour tout n 0 P (gn (X0 ) = y) = (y),
do P(gT (X0 ) = y) = (y).
On peut lgitimement se demander pourquoi on ne prend pas tout simplement A = N. Thoriquement, en eet, rien ne lempche. Cependant il
faut voir que passer de n n + 1 naugmente que trs peu la probabilit que
la fonction soit constante et tester si gn est constante augmente de manire
non ngligeable le temps de calcul.
Explication : si A = {a1 , a2 , . . . , } et que inf n 0; n est constante = n0 .

lon a ak1 < t n0 ak , le temps de calcul est proportionnel ki=1 ai .


Ainsi, le choix ak = k (cest dire A = N) conduit un temps
n0

i=1

i=

n2
n0 (n0 + 1)
0,
2
2

tandis que le choix ak = 2k1 , conduit pour k:2k2 <n0 2k1 . Cette somme
vaut 2n0 1 si n0 est une puissance de 2, et au pire 4(n0 1) 1.
Ainsi, on considre gnralement que le choix A = {2k ; k 0} est un bon
choix.

164

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

10.7.1

Loi 0-1 pour lalgorithme de Propp et Wilson

Thorme 88. On reprend les hypothses du thorme prcdent


Si il existe n 0 tel que P(gn est une fonction constante) > 0, alors
P(T < +) = 1.
Sinon P(T < +) = 0.
En particulier, lissue ne dpend pas du choix de A.
Dmonstration. Il est clair que si
n 0 P(gn ) est une fonction constante) = 0,
alors par runion dnombrable on a P(T < +) = 0. Supposons donc quil
existe n tel que P(gn est une fonction constante) > 0. Comme A (n, +)
est une partie infinie de N, il est possible den extraire un ensemble infini B
tel que la dirence entre deux lments distincts quelconques de B dpasse
n. Pour k B , notons
Ak = {fkn+1 fkn+2 fk1 fk est une fonction constante}.
Les vnements (Ak )kB sont des lments indpendants, de mme probabilit P(gn est une fonction constante.) > 0. On en dduit que
P(kB Ak ) = 1.
Comme gk = f1 f2 fk , il est facile de voir que Ak {gk est une fonction constante},
do
P(T < +) = P({kA} gk est une fonction constante)
P({kB} gk est une fonction constante) = 1.

10.7.2

Algorithme de Propp et Wilson pour des dynamiques monotones

On suppose ici que S est un ensemble fini muni dun ordre partiel, possdant un plus grand lment et un plus petit lment. Un exemple classique
de tel ensemble est S = E L , o L est un ensemble fini et E une partie finie
de R. Dans le cas qui nous intresse ici, on prendra simplement S = E.
Dfinition On dit quune dynamique associe une matrice de Markov M
est monotone si on peut construire un ensemble F F(S, S) et une mesure
sur F(S, S) tel que

10.7. ALGORITHME DE PROPP ET WILSON

165

i, j S (f F, f (i) = j) = mi,j .
F ne comprend que des fonctions croissantes.
Mise en oeuvre
Dans la pratique, la mesure est souvent construite comme limage dune
mesure aisment simulable par lapplication
x 7 (y 7 f (x, y)),
o f est une fonction de deux variables qui est croissante par rapport
chacune des variables.
En fait, la classe des dynamiques monotones recouvre un grand nombre
de chanes de Markov classiques. Par exemple, les marches alatoires sur Z et
les marches alatoires sur Z avec barrires sont des dynamiques monotones.
Thorme 89. Soit M la matrice dune chane de Markov irrductible admettant comme mesure invariante. On suppose quon a construit un ensemble F F (S, S) et une loi support dans F telle que
i, j S (f F, f (i) = j) = mi,j .
F ne contient que des fonctions croissantes.
(Ceci signifie que la dynamique est monotone).
Soit maintenant (fn )n1 une suite de variables alatoires indpendantes
suivant la loi .
On pose g0 = IdS , puis pour n 0 gn+1 = gn fn+1 .
Soit A une partie infinie de N. On note
T = inf{n A, gn est une fonction constante}.
Alors P(T < +) = 1 et gT (x0 ) suit la loi , o x0 S est quelconque.
Dmonstration. Notons min le plus petit lment de S et Max le plus grand
lment de S. Commenons par une remarque simple : si une fonction croissante h de S dans S vrifie h(min) = Max, alors elle est constante, car
x S;

Max = h(min) h(x) Max,

ce qui montre que h est une fonction constante.


Maintenant, comme la chane de Markov est irrductible, il existe n tel
que P(fn . . . f1 (min) = Max) > 0. Or, comme les fn sont indpendantes
identiquement distribues, on a
P(fn . . . f1 (min) = Max) = P(f1 . . . fn (min) = Max) > 0.
Finalement, on a

166

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

P(f1 . . . fn constante) P(f1 . . . fn (min) = Max) > 0,


do P(T < +) grce au thorme 88.

10.8. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES167

10.8

Exercices sur la rcurrence et les mesures invariantes

10.8.1

Exercices corrigs

Exercice 86. On considre la chane de Markov dont la matrice de passage


est donne par
1
3

1
3

1
3

A = 0 0 1
0 1 0

(10.1)

Montrer quil existe une unique mesure invariante, puis la donner. lien vers
lindication lien vers la solution
Exercice 87. On suppose que est la mesure invariante dune chane de
Markov sur S. Montrer que si les points i et j de S sont tels que (i) > 0 et
i j pour cette chane de Markov, alors (j) > 0. lien vers lindication lien
vers la solution
Exercice 88. Retournement du temps et oprateurs associs
Soit S un ensemble fini ou dnombrable, une mesure finie sur S.
1. Soit P = (pi,j )(i,j)S 2 , une matrice markovienne. On suppose que P
laisse invariante. Pour f 2 (), on pose
i S

(P f )(i) =

pi,j f (j)

jS

ds que la srie est absolument convergente. Montrer que cest le cas


lorsque (i) > 0 ; montrer galement que P f 2 ().
2. Soit P = (pi,j )(i,j)S 2 et Q = (qi,j )(i,j)S 2 deux matrices markoviennes.
On suppose que
i, j S

(i)pi,j = (j)qj,i .

Montrer que P et Q laissent invariante, puis que


f, g ()
2

f (x)P g(x) d(x) =

Qf (x)g(x) d(x).

On dit alors que P et Q sont conjugus dans 2 ().


3. Soit P une matrice markovienne laissant invariante. Montrer que
P admet au moins une matrice markovienne conjugue, et quil y a
unicit si la chane associe est irrductible.

168

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES


4. Soient P, Q deux matrices markoviennes conjugues dans 2 () . On
suppose que (Xn )n0 et (Xn )n0 sont deux chanes de Markov de loi
initiale et de dynamiques respectives P et Q. Montrer que pour

tout n 0, (X0 , X1 , . . . , Xn ) et (Xn , Xn1


, . . . , X0 ) ont mme loi.
Quel rsultat du cours retrouve-ton dans le cas o P = Q ?
5. Soit (Xn )n0 une chane de Markov stationnaire. Montrer que pour
tout n, (Xn , Xn1 , . . . , X0 ) est (la restriction d)une chane de Markov.

lien vers lindication lien vers la solution


Exercice 89. Trace dune chane sur un ensemble.
Soit (Xn )nN une chane de Markov homogne despace dtats E dnombrable et de matrice de transition P = (pi,j )i,jE . Soit A une partie de E.
On observe cette chane de Markov seulement lors de ses passages par A, et
on note Ym la mime observation. Plus formellement on note T 0 = 0 et, pour
m 1,

{
}

T m = inf n 1 + T m1 Xn A .

On suppose que x A, Px (T 1 ) < + = +,


1. Soit x A. Montrer que pour tout m 1, T m est un temps darrt
Px -presque srement fini, que XT m est mesurable pour FT m et que
pour k m, T k et XT k sont FT m -mesurables.
2. Soit x A. On pose Y0 = X0 et pour m 1, Ym = XT m . Montrer que
(Yn )nN est une chane de Markov homogne.
3. On suppose dsormais que la chane est irrductible, que A est fini et
que pour tout x A Ex [T 1 < +] < +. Montrer que la chane est
rcurrente positive.
lien vers lindication lien vers la solution
Exercice 90. Fonction de Lyapunov
1. Soit (Xn )n0 une suite de variables alatoires valeurs dans E. On
suppose quil existe un rel 0, une fonction h : E R+ et un
ensemble M tel que pour tout n 1, f (Xn ) est intgrable et
E[f (Xn )|X0 , . . . , Xn1 ] f (Xn1 ) sur {Xn1 M }.
On pose alors T = inf{n 0; Xn M }.
(a) Montrer que pour tout n 1, on a
E (f (XnT ) f (X0 ))

i=1

P(T > i 1).

10.8. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES169


(b) On suppose > 0. Montrer que E[T ]

Ef (X0 )
.

2. Soit (Xn )n0 une chane de Markov valeurs dans E, de matrice de


passage (pi,j ). Dans toute cette question, on suppose quil existe un
rel 0, une fonction f : E R+ et un ensemble M tels que
i E

(P f )(i) =

pi,j f (j) < +

jE

et
i E\M

(P f )(i) =

pi,j f (j) f (i) .

jE

On pose T = inf{n 0; Xn M }.
(a) On suppose > 0. laide du thorme 70, montrer que E[T ]
Ef (X0 )
.

(b) Ici = 0. On suppose que la chane est irrductible, que M est


fini et que pour tout N , {x E; f (x) < N } est fini. On note N le
temps dentre dans {x E; f (x) N }. Montrer que pour pour
tout N assez grand, on a N P(N < T ) E(f (X0 )). En dduire
que P(T < +) = 1.
(c) Thorme de Foster
On suppose encore que la chane de Markov est irrductible et que
M est fini. laide de lexercice prcdent, montrer que la chane de
Markov (Xn ) est rcurrente, et mme rcurrente positive si > 0.
lien vers lindication lien vers la solution

10.8.2

Exercices non corrigs

Exercice 91. Chane observe quand elle bouge ou est morte.


Soit (Xn )nN une chane de Markov homogne sur lespace dtats E, de
matrice de transition P . Soit A lensemble des tats absorbants. On dfinit
la suite (Tk )kN par rcurrence comme suit : on pose T0 = 0 et
Tk+1 = Tk + 1{XTk A}
inf{n 0, XTk +n = XTk },
/
avec la convention 0. = 0.
1. Montrer que les (Tk )kN sont des temps darrt pour (Xn )nN , finis
presque srement.
2. On dfinit Yk = XTk . Montrer que (Yk )kN est une chane de Markov
homogne, donner son espace dtats et sa matrice de transition.
lien vers lindication

170

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Exercice 92. Soient p ]1/2, 1[ et (Xn )n1 une suite de variables alatoires
indpendantes de loi commune p1 + (1 p)1 . On pose S0 = 0, puis pour

tout n 1 : Sn = nk=1 Xk . Soient a et b des entiers relatifs strictement


positifs. On pose V =] , b] [a, +[. Soit T = inf{n 0; n V }.
Calculer
P(p T ; Sp = 0).
On pourra utiliser les rsultats de lexercice : le joueur inruinable.
lien vers lindication
Exercice 93. Marche alatoire sur Z/dZ. On considre X = {Xn : n 0}
la marche alatoire sur Z/dZ dont les pas sont indpendants de mme loi
p1 + (1 p)1 , avec 0 < p < 1. La loi initiale de X0 nest a priori pas gale
0 .
1. Quelle est sa matrice de transition P ? La chane est-elle irrductible ?
apriodique ?
2. On suppose que d est impair. Montrer que (Xn )n0 converge en loi et
prciser la limite.
3. On suppose que d est pair. Donner une condition ncessaire et susante sur PX0 pour que (Xn )n0 converge.
lien vers lindication
Exercice 94. Modle dEhrenfest. On cherche modliser la diusion de N
particules dans un systme constitu de deux enceintes spares par une paroi
poreuse. A chaque instant, une particule prise au hasard (comprendre : avec
quiprobabilit) change denceinte. On reprsente ltat du systme chaque
instant par un vecteur x = (x(1), . . . , x(N )) (Z/2Z)N , o xi reprsente le
numro de la bote (0 ou 1) o est la particule i. Ainsi, si Xn est le vecteur
des positions, on a la modlisation
Xn+1 = Xn + Vn+1 ,
o Vn+1 est le numro de la particule qui change de bote. (1 , . . . , N ) est
la base canonique de (Z/2Z)N . (Vn )n1 est une suite de variables alatoires
indpendantes suivant la loi uniforme sur lensemble fini {1, . . . , N }. (Vn )n1
est indpendante de X0 .
1. Montrer que (Xn )n0 est une chane de Markov.
2. On pose
Yn =

i=1

1{Xn (i)=0} .

10.8. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES171


Yn est donc le nombre de particules dans la bote 0 au temps n. Montrer que (Yn )n0 est une chane de Markov de matrice de transition
p(x, x 1) =

x
N x
, p(x, x + 1) =
, 0 x N,
N
N

les autres probabilits tant nulles.


3. On note U la loi uniforme sur (Z/2Z)N . Montrer que pour toute loi
sur (Z/2Z)N , on a U = U .
4. Montrer que si X0 suit la loi U , alors X0 (1), X0 (2), . . . X0 (N ) sont
indpendantes.
5. Montrer que U est une loi invariante pour la chane (Xn )n0 . En dduire que la loi binomiale B(N, 1/2) est une loi invariante pour la
chane (Yn )n0 .
6. Retrouver ce dernier rsultat par un calcul direct.
lien vers lindication
Exercice 95. Chane de Markov avec dcision.
Le nme Lundi de lanne, une petite entreprise reoit An propositions de
travail de type A, et Bn propositions de travail de type B. Un travail de type
A mobilise toute la capacit de travail de lentreprise durant une semaine et
lui rapporte 200 euros, alors quun travail de type B loccupe deux semaines
pour un rapport de 360 euros. Une semaine dinactivit cote 100 euros,
un travail non trait pendant la semaine o il arrive est perdu. On suppose
An ,Bn indpendants, les couples (An , Bn )n1 indpendants, et
P(An = 1) = 1 P(An = 0) = 0, 5,

P(Bn = 1) = 1 P(Bn = 0) = 0, 6.

Modliser la situation par une chane de Markov , avec si possible un nombre


dtats minimal. Quelle est la meilleure stratgie, quand on reoit simultanment une ore de chaque type : donner la prfrence celle de type A
ou celle de type B ? On pourra faire appel au Thorme ergodique pour
dpartager les deux politiques.
lien vers lindication
Exercice 96. Un modle de prdiction mto ( !) On suppose que le temps
quil fera demain depend des deux jours prcdents. On suppose que :
P(
P(
P(
P(

il
il
il
il

pleut
pleut
pleut
pleut

demain
demain
demain
demain

|
|
|
|

il
il
il
il

a plu hier et aujourdhui) = 0, 7


a plu aujourdhui mais pas hier) = 0, 5
a plu hier mais pas aujourdhui) = 0, 4
na pas plu ni hier, ni aujourdhui) = 0, 2

172

CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES

Montrer quon peut modliser ceci par une chane de Markov. Quelle est la
probabilit, sachant quil a plu lundi et mardi quil pleuve jeudi ? Sur le long
terme, quelle proportion de jours de pluie observe-t-on ?
lien vers lindication
Exercice 97. Chane de Markov rversible
1. Soit P une matrice de transition sur un espace dtats E dnombrable.
On suppose quil existe une probabilit telle que
i pi,j = j pj,i .
Montrer que est stationnaire pour la P .
2. Trouver rapidement la probabilit stationnaire de la marche alatoire
symtrique sur les sommets de lhypercube de dimension d.
3. Marche alatoire symtrique sur un chiquier (8 8). Calculer les
temps de retours moyens des dirents points de lchiquier. (On trouvera 110 pour les coins, 220/3 pour les autres points du bord, 55 pour
les autres points.)
lien vers lindication
Exercice 98. Modle de LaplaceBernoulli.
N boules noires et N boules blanches sont places dans deux urnes de sorte
que chacune contienne N boules. Aprs chaque unit de temps on choisit
au hasard une boule de chaque urne ; les deux boules ainsi choisies changent
durne. On note Yn le nombre de boules noires dans la premire urne. Montrer
que (Yn )n0 est une chane de Markov irrductible rversible et trouver sa
mesure stationnaire.
lien vers lindication
Exercice 99. Loi de Pascal Soit (Xn )n1 une suite de variables alatoires
de Bernoulli de paramtre p. On pose, pour n 1, Sn = X1 + + Xn et
n = inf{n 1; Sn n}. On appelle loi de Pascal (ou loi binomiale ngative)
de paramtre n et p.
1. Montrer que la suite (i i1 ) est une suite de variables alatoires
indpendantes dont on prcisera la loi.
2. Donner une expression explicite de P(n = k), pour k n.
3. Calculer la fonction gnratrice de la loi de Pascal de paramtres n
et p.
lien vers lindication

Annexe A
Indications
A.1

Exercices sur les variables de Bernoulli

Indication 1 Noter que la connaissance de X donne celle des n .

A.2

Exercices sur lqui-intgrabilit

Indication 2 On peut sinspirer de la preuve de limplication borne dans


L2 entrane qui-intgrable.
Indication 3
1. Utiliser la loi forte des grands nombres.
2. Comme les Xi sont entre 0 et 1, on a Zn2 n2 (X12 + . . . Xn2 )2 .
3. Utiliser le thorme dintgration des fonctions radiales.
4. On pourra montrer que (Zn )n1 est borne dans L2 .
Indication 4 Deux mthodes possibles :
Pour simplifier les calculs, on peut crire Xn = Sn + , avec Sn centre
( mais pas symtrique !), de sorte que Xn3 = Sn3 + 3 + 3Sn2 + 32 Sn .
On peut calculer E(Xn (Xn 1)(Xn 2)) (par un calcul direct ou par
une interprtation combinatoire).
Indication 5 Introduire une somme de variables de Bernoulli indpendantes.
Indication 6 On pourra utiliser une caractrisation bien choisie de lquiintgrabilit.
Indication 7 On pourra utiliser une caractrisation bien choisie de lquiintgrabilit.
Indication 8 Partitionner suivant la valeur de N .
Indication 9 Exprimer E|Xn |1{|Xn |>M } laide de la fonction de queue.
173

174

ANNEXE A. INDICATIONS

A.3

Exercices sur lesprance conditionnelle

Indication 10

1. crire A = n0 A {N = n}.

2. On peut utiliser la question prcdente.


Indication
11 On pourra commencer par tablir que E[T |U = k] = (k +

n+1
n
x
(
)
1) nk k+1
1, puis faire ventuellement une transformation dAbel.
n
xn
nk ( k )
Indication 12
1. Calculer Qn,b (X2 = y1 , . . . Xn+b = yn+b1 ) en distinguant suivant que (y1 , . . . , yn+b1 est dans n1,b ou non.
2. crire T sous la forme T = 1{X1 =1} f (X2 , . . . , Xn+b1 ).
Indication 13 Revoir les proprits de lesprance conditionnelle.
Indication 14 On pourra crire fi (x) = xi 1A (x1 + + xn ), remarquer que
si i,j est lapplication qui change la i-me et la j-me coordonne de x, on
a fi = f1 1,i et appliquer le thorme de transfert.
Indication 15 Pour la premire mthode, on pourra poser = E[xX y Y ],
g(x, y) = x
(x, y), puis comparer les coecients de degr s de g(x, x) et de
x
(x, x).
Pour la deuxime mthode, quitte changer despace, on pourra remarquer
que X peut scrire comme une somme dindicatrices.
Indication 16

1. = {X < h} {X h}.

2. Un max se ralise toujours en au moins un point.


3. Lindicatrice de lintersection est le produit des indicatrices.
4. crire Yi (h) sous la forme F (Xi , Z), avec Z indpendant de Xi .
5. Utiliser (c) et (d)
6. Prendre h = lnnn , avec bien choisi.
Indication 17 On peut sinspirer de la preuve du calcul de E[g(X, Y )|X]
lorsque X et Y sont indpendantes.
Indication 18 On peut le voir comme un cas particulier de lexercice prcdent
Indication 19 On pourra remarquer que X + Y Z = 0.
Indication 20

1. Calculer les mineurs.

A.4. EXERCICES SUR LES MARTINGALES

175

2. On pourra crire X sous la forme X = Y + Z + R, avec R indpendant de (Y, Z).


3. On pourra trouver une premire expression de fy,z (x) partir de
lexercice 7. On pourra ensuite remarquer que si
K exp((ax2 + bx + c))
est la densit dune variable alatoire, cette variable est ncessairement
gaussienne. On pourra identifier les paramtres par un choix judicieux
de .
Indication 21
Utiliser le thorme de convergence domine conditionnel.
On peut sinspirer de la preuve de lingalit de Markov.
On pourra remarquer que E[1{Y >M } |A] Z/M .
Il sagit de montrer que limn+ P(Y > M ) = 0.
Indication 22

1. pas dindication

2. Elle est dintgrale nulle (cest mme une martingale).


3. On pourra noter que Mi =

iT

k=1 (Sk

1) = (

iT

k=1

Sk ) (i T ).

4. On utilisera la linarit de lesprance pour calculer le nombre moyen


de points fixes dune permutation.

A.4

Exercices sur les martingales

Indication 23

1. Remarquer que x (x2 + 1)/2.

2. (a) On pourra remarquer que (Xn ) prend ses valeurs dans [0, 1]
(b) Appliquer le thorme de convergence domine
Indication 24

1. (a) Procder par rcurrence sur n.

(b) Remarquer que 1 =

d+nS
k=1

1{Un+1 =k} .

(c) Noter que Un+1 est indpendant de la tribu Fn .


(d) Revoir la dfinition dune martingale.
(e) Remarquer que la suite considre prend ses valeurs dans [0, 1].
(f) On pourra calculer P(Tn+1 = i|Fn ).
2. (a) Procder par rcurrence sur n.

176

ANNEXE A. INDICATIONS
(b) Expliciter le lien entre
lvnement considr.

Vn d
S

et les Ti et utiliser une partition de

(c) Appliquer le thorme de transfert et utiliser la formule du multinme.


(d) Utiliser le thorme de Lvy. On sera amen dmontrer que si

iuk /n n
y1 . . . , ym sont des rels positifs de somme 1, la suite ( m
)
k=1 yk e
m
converge vers exp( k=1 iyk uk ) lorsque n tend vers linfini. Une
preuve analytique ou une preuve probabiliste est possible.
(e) Noter que la convergence presque sre entrane la convergence en
loi.
Indication 25 Soit A un vnement F mesurable. On peut crire A =
A+ A avec A+ = A {1 2 } et A = A {1 > 2 }. Il sut alors de
montrer que A+ est F2 mesurable, tandis que A est F1 mesurable.
Indication 26 Utiliser les proprits de lesprance conditionnelle
Indication 27
1. On rappelle que si Y 0 et EY = 0, alors Y est
nulle presque srement.
2. x 7 (x a)+ est une fonction convexe.
3. On pourra montrer que (Xn a) est presque srement nulle sur
lvnement {Xp a}.
4. Si deux nombres sont distincts, il y a un rationnel entre les deux.
Indication 28

1. Classique.

2. Utiliser lingalit de Cauchy-Schwarz.


3. On pourra montrer que Ynt = o(Ynt/2 ).
4. On pourra commencer par montrer que (t) > E(X1 )t, en commenant par traiter le cas o X1 prend des valeurs positives.
Indication 29 On pourra utiliser une caractrisation adapte de lquiintgrabilit.
Indication 30 On rappelle que sin x x pour tout x 0.
Indication 31

1. g est convexe.

2. On pourra utiliser le thorme darrt.


3. Utiliser la question prcdente.

A.5. EXERCICES SUR LES COMPLEMENTS

177

4. Lingalit (s+(1)t) f (s)+(1)f (t) dcoule de la concavit


qui
de . Pour lingalit inverse, on peut considrer la fonction
concide avec extrieur de ]s, t[ et qui est ane sur [s, t].
5. On pourra montrer successivement
Ef (XT ) = E(XT ) = (EXT ) = (i0 ).
Indication 32 On pourra remarquer que les Yn sont non corrles et que
la suite des sommes partielles forme une martingale.

A.5

Exercices sur les complements

Indication 33 Il sut (pourquoi ?) de montrer que limage rciproque dun


ferm est dans F.
Indication 34 Fixer y0 Y et poser H(x) = Z(x, y0 ).
Indication 35
1. Pour dterminer la loi conditionnelle, il sagit de dterminer P(X = k|X + Y = n).
2. Lesprance conditionnelle peut se calculer par intgration de la loi
conditionnelle. Ici, la loi conditionnelle est une loi dont les moments
sont bien connus.
Indication 36 Utiliser le thorme fondamental de la mesurabilit : (f 1 (C)) =
f 1 ((C)).
Indication 37 Utiliser le thorme de transfert.
Indication 38 On pourra sinspirer de la preuve du thorme de RadonNicodm et montrer que pour f Fn mesurable positive borne, on a
C 1 EQ [f ] EP [f ] CEQ [f ].

A.6

Exercices sur les ingalits

Indication 39
1. Une permutation est une bijection, donc peut tre
utile un changement dindice.
2. Il sut montrer que h(X1 , . . . , Xn ) est valeurs dans Sn et quelle
charge galement tous les points.
3. Appliquer le principe de Maurey grce la reprsentation construite.

178

ANNEXE A. INDICATIONS
4. Appliquer la question prcdente avec n = b + r.

Indication 40
1. On trouvera Xkn = nk=1 1{Nk,p =1} . Noter que lesprance est linaire et la loi de Nk,p connue.
2. Noter que vn E[Xnn ] et que 1 x exp(x) pour tout x 0.
3. On pourra traiter sparment les vnements {Xn n/e n} et
{Xn n/e n}.
4. Appliquer le principe de Maurey. Comment est modifi X n si on
change un seul tirage ?
5. Une fois que tout a t tir deux fois, X n est connu.
6. Remarquer que Xn /n est borne.
7. Modliser le problme.
Indication 41 On pourra utiliser la mthode de lexercice 39 en considrant

sur S2n la fonction g() = max{| kj=1 (1)(j) |; 1 k n}.


Indication 42 On pourra crire SA et S{1...,n}\A comme des fonctions de
X1 , . . . , Xn .
Indication 43 Notons D = B2 ({1, . . . , n}) et posons pour x {0, 1}D

(x) = inf N 1; c {1, . . . , N }n ;

x{i,j} 1{c(i)=c(j)} = 0 .

{i,j}C

On a = ((Xe )eD ) o les (Xe )eD sont des variables de Bernoulli indpendantes de paramtre p.

A.7

Exercices sur les statistiques exhaustives

Indication 44
1. Exprimer E (Z) comme une intgrale par rapport
m et utiliser le thorme de factorisation de Neyman pour la dominante privilgie.
2. On pourra montrer quil existe une constante c() telle que E ((Z)|S) =
c().
Indication 45 On pourra par exemple considrer
Indication 46

n
i=1

Xi2 et

n
i=1

Xi .

1. On pourra utiliser le thorme de NeymanFisher.

2. On trouvera que la loi de Sn sous P est P(n).

A.8. EXERCICES SUR LINFORMATION DE FISHER

179

3. Une limite uniforme sur tout compact de fonctions holomorphes est


holomorphe.
4. Noter que E (f (Sn )) = en F () et appliquer le principe des zros
isols.
Indication 47

1. On pourra appliquer le thorme de Neyman-Fisher.

2. On montrera que E ((Mn )) =

1
n

(t)ntn1 dt.

3. Calculer E[X1 + + Xn ].
4. Utiliser la procdure classique damlioration des estimateurs sans
biais.
Indication 48

1. On notera que le modle est exponentiel.

2. E [1{Xi t} ] =. . ..
3. Utiliser la procdure classique damlioration des estimateurs sans
biais.
Indication 49

1. X n est une statistique exhaustive complte.

2. Sn2 est libre.

A.8

Exercices sur linformation de Fisher

Indication 50

1. Un changement de variable peut galement tre utile.

2. Sous de bonnes hypothses W est centr.


3. Remarquer que le modle est exponentiel.
4. Si f (X) est un estimateur sans biais de , on pourra sintresser la
transforme de Laplace de mesures de probabilits construites laide
de f exp.
Indication 51

1. Appliquer le thorme de transfert.

2. Remarquer que le modle est exponentiel.


3. On pourra commencer par dterminer la loi de Sd .
4. Utiliser le lemme de Lehman-Sche.
5. Var Sd (Sdd21) = d14 Var Sd (Sd 1). La loi de Sd tant connu, on est
ramen un calcul de srie. On conseille dexprimer X 2 (X 1)2 dans
une base approprie de polynmes.

180

ANNEXE A. INDICATIONS

Indication 52
1. On trouve W (X) = (1 + X ) = 1 (X E (X)). On
est amen calculer (ou se souvenir) de la variance dune loi de
Poisson.
2. Un thorme du cours donne le rsultat sans calcul.
Indication 53
1. Exprimer Yn2 comme une fonction de deux variables
alatoires indpendantes.
2. Appliquer le thorme de convergence domin I( + U n ).
3. Noter que Yn2 est positive et converge presque srement.
4. Utiliser lhypothse de bornitude locale pour 7 E [h2 (X)].
5. Utiliser un critre appropri dqui-intgrabilit.
6. Zn converge presque srement et . . .
7. Appliquer le thorme de transfert.
8. Utiliser la caractrisation de la drive par les suites.

A.9

Exercices sur les processus

Indication 54
Tout vnement A scrit comme runion dnombrable dvnements de la
forme {0 = x0 , . . . , n = xn }.
Des probabilits sur RN sont caractrises par leurs lois de dimensions finies.
Utiliser la question 1 avec n = 1.
Indication 55 On peut considrer l application
: RN RN
((xn )n0 ) 7 ((n x))
Indication 56

1. Considrer le cycle de Sn+1 : = (1

. . . n n + 1).

2. On trouvera que n Var X1 + n(n 1) Covar(X1 , X2 ) 0 pour tout n.


3. Noter quun processus gaussien est caractris par sa fonction de corrlation, et que la valeur de celle-ci est maximale en zro. On a intrt
considrer la permutation qui change 2 et n de manire comparer
Covar(X1 , X2 ) et Covar(X1 , Xn ).
4. Utiliser le concept de loi dun processus et reconstruire Y0 partir des
Xi .

A.9. EXERCICES SUR LES PROCESSUS

181

Indication 57
1. Considrer une partition de B(x).
2. Si x nest pas un mot propre, lidentit est vidente. Sinon, on peut
remarquer que

B(x.a) =
a{1,...,q}

3.
4.
5.
6.
7.

a{1,...,q}\{xn }

B(x.a)

et maintenant le x.a apparaissant dans la somme est un mot propre.


Sommer en x lidentit obtenue la question prcdente.
Il sut de vrifier que n ({1, . . . , q}n ) = 1.
On pourra calculer n+1 ({(x1 , . . . , xn )} {1, . . . , q}).
Si x = (x1 , . . . , xn ) et x = (xn , . . . , x1 ), il y a une bijection simple
entre B(x) et B(
x).
On peut noter que
Pq (1 = x1 , . . . , n = xn ) = Pq (1 = xn , . . . , n = x1 )
=

Pq (1 = xn , . . . , n = x1 , n+1 = a)

a=1

8. (a) Procder par rcurrence sur n + p en sinspirant de la preuve de la


question 2.
(b) On pourra sommer lidentit prcdente sur tous les (x, y) {1, . . . , q}n+p .
Indication 58
1. Dans le calcul de la srie, on traitera sparment les
cas i = 0, i = 1, i 2.
2. On peut noter que {T = n, 1 (A)} = {1 = c, 2 = c, n1 =
c, n = c, n (A)}, mais que P-presque srement, les autres conditions
entranent la n 1-ime.
3. Il sut de montrer que pour tout n, les variables (T k )0n , ce qui
peut se faire par rcurrence sur n.
4. On pourra montrer que (GT )k est la fonction gnratrice de Nk .
2

ps
5. Si p > 1/4, on pourra remarquer que s 7 1s+ps
2 est un prolongement
analytique de GT sur un voisinage de la droite relle.
6. Noter que 34 < 1.

Indication 59 On peut considrer les applications


n : Rn Rn Rn
((x1 , . . . , xn ), (y1 , . . . , yn )) 7 (x1 + y1 , . . . , xn + yn )
Pour le contre-exemple, on peut prendre pour (Xn ) un bruit blanc et poser
Yn = (1)n Xn .

182

ANNEXE A. INDICATIONS

Indication 60 On peut considrer les applications


n : Rn+1 Rn
(x1 , . . . , xn ) 7 (x1 + 2x2 , x2 + 2x3 , . . . , xn1 + 2xn )
Indication 61 Si (Xn )n0 est une chane de Markov, (Xn+1 )n0 est aussi
une chane de Markov, ayant la mme matrice de passage.
Indication 62 On pourra commencer par montrer que (Xn )n0 est stationnaire. En particulier, il faut montrer que X0 et X1 ont mme loi.
Indication 63 On rappelle que deux mesures sur R sont gales si elles
concident sur les ensembles ] , a], o a dcrit R.
Indication 64 Mme remarque que pour lexercice prcdent. Par ailleurs,
on pourra considrer la mesure image de la loi uniforme sur [0, 1] par lapplication x 7 e2ix .
Indication 65 Remarquer que E[Zi Zj ] = i,j .

A.10

Exercices sur les chanes de Markov

Indication 66 Le systme peut se reprsenter par une chane de Markov


3 tats, chaque tat tant induit par situation six/pas six de deux instants de
temps conscutifs. On pourra par exemple utiliser la technique de lanalyse
au premier pas
Indication 67 Commencer par dterminer n et > 0 tels que que pour
tout x S, Px ( n) .
Indication 68 Si (Yn )n0 est une chane de Markov avec Pa (Y1 = b) > 0 et
Pb (Y1 = c) > 0, alors Pa (Y1 = b, Y2 = c) > 0.
Indication 69 Commencer par trouver en candidat pour la matrice.
Indication 70

1. crire Xn+1 = F (Xn , Yn+1 ).

2. Appliquer la mthode de lanalyse au premier pas.


3. Si lon pose ui = E 0 [T n ] E i [T n ], nous cherchons un = E 0 [T n ]
E n [T n ] = E 0 [T n ]. Comme on a la rcurrence ui = pui+1 1, il vient
n
facilement un = p 1p1 .
4. Cest une application immdiate de la question prcdente.

A.10. EXERCICES SUR LES CHANES DE MARKOV

183

Indication 71 On peut remarquer que si M est une matrice 2 2 dont


est une valeur propre, alors les matrices (M I) et (M I)2 sont lies.
On rappelle que si (Xn )n0 est une chane de Markov dont la loi initiale est
donne par le vecteur ligne x, alors, la loi de Xn est donne par le vecteur
ligne xP n , o P est la matrice de passage.
Indication 72

1. Revoir le cours.

2. Dcouper lintervalle [0, 1] en morceaux de direntes longueurs.


3. Utiliser le (a).
4. Recoller les morceaux.
Indication 73 On pourra remarquer que {Xn = a} {T n} et que
{T n}\{Xn = a} {k < n; Xk = a et Xk+1 = a}.
Indication 74 Si on pose B = {u RN ; n 0; un A}, on peut remarquer que pour x A, on a Px (X A) = Px ((Xn+1 )n0 A) et utiliser la
proprit de Markov.
Indication 75 Il y a plusieurs mthodes possibles. Le plus simple est sans
doute de se ramener au cas o (Xn )n0 est donne par la reprsentation
canonique Xn+1 = fn+1 (Xn ) ou Xn+1 = g(Xn , Zn+1 ).
Indication 76 Si Ex = {Xn x}, alors Ex = N 1 nN {Xn = x},
donc pour montrer que P(Ex ) = 0, il sut de montrer que pour tout n,
P(nN {Xn = x}) = 0.
Indication 77

1. On peut tablir que Sn+1


= Sn + 1{Sn {b,a}} Xn+1 .

2. Comme dans lexercice 4, on utilisera la proprit de Markov.


3. On rappelle que les solutions dune rcurrence linaire forment un
espace vectoriel.
4. Comme dans lexercice 4, on utilisera la proprit de Markov.
5. On peut remarquer que n2 = 1 +

(n+1)2 +(n1)2
.
2

Indication 78 On peut montrer que {T = +} = a1 Ga .


Indication 79 Raisonner comme dans lexercice 4 et rsoudre le systme
linaire.
Indication 80 Relire les dfinitions.

184

ANNEXE A. INDICATIONS

Indication 81 On pourra remarquer que si P( nk=1 Dk = (0, 0)) > 0, alors


il existe i, j positifs ou nuls avec i + j = n, a|i et b|j.
Indication 82 t fix, on pourra remarquer que P(1A F ((Xn )n1 > t) =
P(A, F ((Xn )n1 > t) et appliquer la proprit de Markov.
Indication 83 Pour x {1, 2, 3}, on a Ex F (X) = f (x) + Ex F ((Xn+1 )n1 ).
On peut alors appliquer le rsultat de lexercice prcdent.
Indication 84
1. La suite (Yn,1 , Yn,2 , . . . , Yn,2N )n1 est une suite de vecteurs alatoires indpendants de mme loi que lon peut utiliser pour
obtenir une reprsentation canonique.
2. Se ramener ltude dune somme de variables de Bernoulli.
3. Il y a plusieurs mthodes. On peut par exemple calculer [EXn+1 |(X1 , . . . , Xn )],
ou utiliser des techniques gnrales sur les chanes de Markov dont
lespace dtat est fini et qui possdent des points absorbants .
4. On pourra remarquer que la suite (EXn )n1 est constante.
Indication 85 On peut commencer par montrer que (Xn , Yn )n0 est une
chane de Markov, puis utiliser lexercice prcdent.

A.11

Exercices sur la rcurrence et les mesures invariantes

Indication 86 On pourra ventuellement utiliser le thorme 83.


Indication 87 Considrer P (Xn = j), avec n bien choisi.
Indication 88

1. P f (j) peut sinterprter comme une intgrale.

2. Le premier point ne pose pas de dicult particulire. Pour le second


point, on pourra remarquer que les fonctions (i )iS engendrent un
sous-espace dense de 2 ().
3. On commencera par chercher des conditions ncessaires.
4. Le point dlicat est de montrer que E[f (Xk )|Xk+1 , . . . , Xn ] ne dpend
que de Xk+1 . cet eet, on pourra utiliser la reprsentation canonique
dynamique des chanes de Markov.
5. Combiner les questions prcdentes.
Indication 89
1. Penser utiliser la proprit de Markov forte. On

peut remarquer que T m = inf{n 1; nk=1 1Xk A m}.

A.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES185


2. On pourra commencer par calculer Px (XT m+1 = y|FT m ).
3. Remarquer que Tx =
x}.

k+1
TAk )1{S>k} ,
k=0 (TA

o S = inf{n 1; Yn =

1. (a) On pourra remarquer que f (XnT ) f (X0 ) =


i=1 1{i1<T } (f (Xi ) f (Xi1 )).

Indication 90
n

(b) Ne pas oublier que f est positive.


2. (a) Si E[f (X0 )] = +, il ny a rien montrer. Sinon, commencer par montrer que pour tout i, f (Xi )1{i1<T } est intgrable et
E[f (Xi )1{i1<T } |Fi1 ] = (P f )(Xi1 )1{i1<T } .
(b) Appliquer le 1.(a) M = M {x E; f (x) n}.
(c) Faire partir la chane dun point x M .
Indication 91
1. Il y a plusieurs manires de montrer que Tk est un
temps darrt. On peut procder par rcurrence ou remarquer que
Tk = inf{n 0; n A ou

n1

1{ Xi = Xi+1 k}.

i=0

Pour montrer que les (Tk )kN sont finis presque srement, on peut
remarquer que Tk+1 = Tk + F (XTK +. ), o F (x) = inf{n 0, xn = x0 }
et montrer par rcurrence sur k que pour toute mesure initiale , Tk
est presque srement fini et (XTk +. ) est une chane de Markov de loi
initiale PXT .
k

2. On pourra calculer P(XTk+1 = j|FTk ). Pour ce faire, on peut remarquer


quil existe : RN S, avec XTk+1 = (XT +. ).
Indication 92 On remarque que si ST = b, la suite repassera ncessairement par zro. Si ST = a, on est ramen un problme de lutte contre un
joueur inruinable.
Indication 93

1. On discutera suivant la parit de d.

2. On pourra exhiber une mesure invariante.


3. Si X0 est pair, la suite (X2n )n0 ne prend que des valeurs paires.
Indication 94

1. Utiliser la reprsentation canonique.

2. On remarque que Yn+1 = Yn + (1)1{ Xn (Vn+1 )=1} .


3. Commencer par tudier le cas o est une masse de Dirac.
4. Calculer la probabilit de chaque N -uplet.

186

ANNEXE A. INDICATIONS
5. Utiliser les questions prcdentes.
6. On pourra montrer que la chane est rversible.

Indication 95 Si lon note Dn lindicatrice de lvnement la socit est


disponible le lundi de la semaine n, alors on a
pour la stratgie A : Dn+1 = 1 Dn (1 An )Bn .
pour la stratgie B : Dn+1 = 1 Dn Bn .
Quant au gain des travaux commencs la semaine n, il est
pour la stratgie A : Gn = Dn (200An + 360Bn 360An Bn ).
pour la stratgie B : Gn = Dn (200An + 360Bn 200An Bn ).
On peut remarquer que (Dn )n0 et (An , Bn , Dn )n0 sont des chanes de Markov.
Indication 96 Utiliser le thorme ergodique des chanes de Markov
Indication 97

1. Cest fait dans le cours !

2. De manire plus gnrale, on peut remarquer quune marche alatoire


symtrique sur un groupe fini admet toujours une probabilit rversible trs simple.
3. Si est une mesure rversible et que x et y sont deux voisins, on a
(x)
= (y)
, o d(x) est le nombre de voisins de x.
d(x)
d(y)
Indication 98 On peut reprsenter ltat du systme au temps n par un
vecteur (x(1), x(2), . . . , x(2N )), o x(i) est le numro de lurne (0 ou 1) o
est la boule i. On peut supposer que les boules numrotes de 1 N sont
noires. Pour passer du temps n au temps n + 1, on choisit un 1 au temps
n que lon remplace par un 0 et un 0 au temps n que lon remplace
par un 1. Xn est une chane de Markov irrductible valeurs dans {x

{0, 1}2N ; 2N
i=1 xi = N }. Si deux tats communiquent, la probabilit de passer
de lun lautre est 1/N 2 .
Indication 99

1. Utiliser la proprit de Markov forte.

2. On pourra noter que {n = k} = {Sk1 = n 1, Xk = 1}.


3. Utiliser la premire question.

Annexe B
Solutions des exercices corrigs
B.1

Solutions des exercices corrigs sur les


variables de Bernoulli

Solution 1 Si p = 1, on a presque srement X = 1, donc 1 = 1 qui


na pas de densit par rapport la mesure de Lebesgue. Supposons donc
p [0, 1[). Posons An (x) = r(2n x, 2), o r(n, 2) est le rsultat de la division

euclidienne de n par 2, puis Ep = {x [0, 1[; limn+ n1 nk=1 An (x) = p}.


On a
n
1
k (x) = p)
p (Ep ) = P(X Ep ) P(X Ep , lim
n+ n
k=1
n
1
k (x) = p)
n+ n
k=1

P(k 1 Ak (X) = k ; lim

n
1
k (x) = p) = 1
n+ n
k=1

= P( lim

o la dernire galit provient de la loi forte des grands nombres. Lavantdernire galit provient de lidentit
n
n
1
1
k (x) = p)} = { lim
k (x) = p},
n+ n
n+ n
k=1
k=1

{k 1 Ak (X) = k ; lim

qui mrite sans doute quelques mots : soit (n )n1 une suite valeurs dans

{0, 1} telle que n1 nk=1 k (x) p.


Pour n 1, on peut crire
n

2 X=

n1

nk

k + n +

k=0

187

k
kn
k=n+1 2

188

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

k
On a pour tout k n, 0 k 1, do 0 +
k=n+1 2kn 1. Cependant, il existe au moins un k n + 1 tel que k < 1, sinon on au

k
rait limn+ n1 nk=1 k (x) = 1. Ainsi, on a +
k=n+1 2kn < 1, do comme
n1 nk
k + n est entier :
k=0 2

2n X =

n1

2nk k + n .

k=0

n1

Mais k=0 2nk k est pair et n {0, 1}, donc n = r(2n X, 2) = An (X).
Pour q = p, q (Ep ) = q (Ep Eq ) + q (Ep Eqc ) q () + q (Eqc ) = 0,
soit q (Ep ) = 0. Ep est de probabilit 1 sous p , 0 sous q si q = p : ces
mesures de probabilit sont trangres deux deux . En particulier pour
p = 1/2, p est trangre 1/2 qui est la restriction [0, 1] de la mesure de
Lebesgue. Finalement, p a une densit par rapport la mesure de Lebesgue
si et seulement si p = 1/2.

B.2

Solution des exercices sur lqui-intgrabilit

Solution 2 On a
Xn 1{Xn M }

Xn log(1 + Xn )
log(1 + M )

Donc

supn1 E[Xn log(1 + Xn )]


,
log(1 + M )
n1
qui tend vers 0 quand M tend vers linfini.
sup E[Xn 1{Xn M } ]

Solution 3

1. Daprs la loi forte des grands nombres


1

X1 +...Xn
n
X12 +...Xn2
n

converge

presque srement vers E[X1 ] = 0 xdx =


et
converge
1 2
1
2
presque srement vers E[X1 ] = 0 x dx = 3 . En faisant le quotient,
on a le rsultat.
2. Comme les Xi sont entre 0 et 1, on a Zn2 n2 (X12 + . . . Xn2 )2 .
Si Nn n/3, alors n2 (X12 + . . . Xn2 )2 144,
sinon, on a n2 (X12 + . . . Xn2 )2 n2 (X12 + . . . XN2 )2 1{Nn <n/3} .

1
1
1

3. EQ2N = [0,1]N (x2 ++x


2 )4 dx1 . . . . . . dxN 2N
B(0, N ) x82 dx1 . . . dxN ,
1
N
o la dernire boule est une boule pour la norme euclidienne de RN .
Daprs le thorme dintgration
des fonctions radiales , on a

N 8
1

t N tN 1 dt, o VN est le volume


B(0, N ) x82 dx1 . . . dxN = VN 0
de la boule unit de dimension N . Ainsi pour N = 9, on a bien
lintgrabilit.
1
2

B.2. EXERCICES SUR LQUI-INTGRABILIT

189

4. En prenant N = 9 dans lingalit de 2. et en appliquant lingalit


de Cauchy-Schwarz, on a pour n 9

E(Zn2 ) 144 + n2 Q9 2 P(Nn < n/3). Ainsi pour voir que E(Zn2 ) est
borne, il sut de remarquer que P(Nn < n/3) dcrot exponentiellement vite. On peut utiliser par exemple lingalit de Hoeding :
P(Nn < n/3) P(|Nn ENn | n/6)
(n/6)2
n
2 exp(2
) = 2 exp( ),
n
18
mais nimporte quelle ingalit de type grandes dviations convient.
Ici, on peut facilement les retrouver la main : soit > 0. On a
P(Nn n/3) P(eNn en/3 )
en/3 E(eNn ) = en/3 (
avec C =
alors C =
intgrable.
entrane la

1 + e n
) = Cn ,
2

1 /3
(e + e2/3 ). Je choisis
2
1 3
( + 49 ) < 1. La suite Zn
2 2

> 0 tel que e/3 = 1, 5 : jai


est borne dans L2 , donc quiLa convergence presque sre ajoute lqui-intgrabilit
convergence dans L1 .

Solution 4 Comme (Xn )n est valeurs positives 1 , pour montrer que


(Xn )n est borne dans L3 , il sut de majorer EXn3 indpendamment de n.
Mthode 1.
Si Y1 , . . . , Yn sont des variables de Bernoulli de paramtre /n et que
lon pose Zk = Yk /n, puis Sk = Z1 + + Zk , on a
E(Xn3 ) = E(Sn +)3 = E(Sn3 )+3 +3E(Sn2 )+32 E(Sn ) = E(Sn3 )+3 +3E(Sn2 ).
On a ESn2 = Var Sn = Var Xn = n/n(1 /n) .
3
3
+ 3Sk2 Yk+1 + 3Zk+1 Sk2 , on a par rcurrence
= Sk3 + Zk+1
Comme Sk+1

sur k n : ESk3 = ki=1 E(Zi3 ), do en particulier


ESn3 = nEZ13 = n(/n(1 /n)3 + (1 /n)(0 /n)2 )
= n/n(1 /n)((1 /n)2 + /n)
Ainsi EXn3 + 3 + 32 , donc (Xn ) est borne dans L3 .
1. Loubli de cette vrification est une source classique derreurs. Ainsi, si Xn suit la loi
uniforme sur [n, n], EXn3 est identiquement nulle, mais (Xn ) nest pas borne dans L3 .

190

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

Mthode 2.
Si B1 , . . . , Bn sont des nombres valant 0 ou 1, le nombre de triplets

(i, j, k) avec i < j < k et Bi = Bj = Bk = 1, vaut 1i<j<kn Bi Bj Bk .


Mais cest aussi le nombre de parties de cardinal 3 de lensemble des
i tels que Bi = 1. Comme il y a exactement Sn = B1 + + Bn tels
i, on a

Sn (Sn 1)(Sn 2)
Bi Bj Bk =
.
6
1i<j<kn
Cest un raisonnement purement dterministe. Maintenant, si B1 , . . . , Bn
sont indpendants suivant la loi de Bernoulli de paramtre p, Sn suit
alors la loi binomiale B(n, p) ; par ailleurs, par linarit de lesprance,
on a
( )
n 3 1
p = E[Sn (Sn 1)(Sn 2)].
3
6
Ainsi E(Xn (Xn 1)(Xn 2)) = (/n)3 n(n 1)(n 2) 3 . Pour
tout x 3, on a
x3 = x(x 1)(x 2)

x
9
x
x(x 1)(x 2).
x1x2
2

On en dduit que pour tout k N, x3 8 + 92 x(x 1)(x 2). Ainsi


E(Xn3 ) 8 + 92 E(Xn (Xn 1)(Xn 2)) 8 + 92 3 . (Xn ) est donc borne
dans L3 .
Soit X une variable suivant la loi de Poisson de paramtre . Xn est
borne dans L3 , donc quiintgrable, et converge en loi vers X , donc EXn
converge vers E(X ). Comme EXn = , E(X ) = . Xn est borne dans
L3 , donc Xn2 est borne dans L3/2 , donc (Xn2 )n1 est qui-intgrable. (Xn2 )n1
converge en loi vers X , donc EXn2 converge vers E((X )2 ). Comme la variance est lesprance du carr moins le carr de lesprance, la variance de
X est la limite de Var Xn = n/n(1 /n), soit .
Solution 5 Soient (Xn )n1 une suite de variables de Bernoulli de paramtre
1/2. On pose Sn = X1 + . . . Xn . Si lon pose (x) = x+ , on a
E(S2n n) =
=
=

P(S2n n = k)(k)

k=n
n

k=n
n

k=1
2n

=2

P(S2n n = k).0 +
(
2n

un

2n
k
n+k

k=1

P(S2n n = k).k

B.3. EXERCICES SUR LESPRANCE CONDITIONNELLE


On a E(S2n ) = 2n

1
2

191

= n et Var S2n = 2n Var X1 = n/2. Ainsi

un = 2 E(S2n n) = 2
2n

2n

S2n E(2n)

n/2E
.
Var Sn

Soit Z suivant la loi normale N (0, 1), daprs le thorme central limite, la
E(2n)
suite S2nVar
tend en loi vers Z.
Sn
2n E(2n)
) converge en loi vers (Z).
Comme est continue, la suite Yn = ( S
Var Sn
E(2n))
E(2n))
, do E(Yn2 ) E(S2nVar
= 1. (Yn ) est borne
On a Yn2 (S2nVar
Sn
Sn
2
dans L donc qui-intgrable. Comme elle converge en loi vers (Z), E(Yn )
converge vers E(Z). On a
2

1 + x2 /2
xe
dx
E(Z) =
2 0
M
1
2
= lim
xex /2 dx
M +
2 0
)
1
1 (
2
1 eM /2 =
= lim
M +
2
2
Finalement

un 22n n/2E(Z) = 22n1 n/.

B.3

Solutions des exercices sur lesprance


conditionnelle

Solution 10
1. La condition est videmment ncessaire daprs la dfinition de lesprance conditionnelle car {N = n} est (N )-mesurable
Si A est (N )-mesurable, A scrit A = {N B}, o B est un borlien de R. notons que comme N est valeurs dans N, on a presque
srement 1A = 1{N BN} . On a
X1A = X1{N BN}
=

n=0

1nB X1{N =n}

= lim

N +

1nB X1{N =n}

n=0

avec le thorme de convergence


Comme | N
n=0 1nB X1{N =n} | X,
+
domine, on a E[X1A ] = limN + n=0 1nB E[X1{N =n} ]. Les mmes

arguments donnent E[Y 1A ] = limN + +


n=0 1nB E[Y 1{N =n} ]. Comme
E[X1{N =n} ] = E[Y 1{N =n} ], on a finalement E[X1A ] = E[Y 1A ], ce qui
donne le rsultat voulu puisque Y est (N )-mesurable.

192

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


2. E(U 1{N =n} ) = E((X1 + +Xn )1N =n ) = E(X1 + +Xn )E(1N =n ) par
indpendance. On a donc E(U 1{N =n} ) = nE(X1 )E(1N =n ) = E(X1 )E(n1N =n ) =
E(X1 )E(N 1N =n ) = E[E(X1 )N 1N =n ], o la dernire galit est encore
obtenue par indpendance. Avec la premire question, on en dduit
E(U |N ) = E(X1 )N = qN .

Solution 11 On a vu que E[U |T ] = E[X1 ]T = qT ; on en dduit E[U ] =


E(E[U |T ]) = E(qT ) = qE[T ] = q( p1 1), car 1 + T suit un loi gomtrique
de paramtre p.

ET 1{U =k}
nP(U = k, N = n)
E[T |U = k] =
= nk
P(U = k)
nk P(U = k, N = n)

np(1 p)n

nk

=
=

n k
q (1 q)nk
k
( )
p)n nk q k (1 q)nk

p(1

nk

( )

n
k
( )

n
n
nk x k
n
nk nx

avec x = (1 p)(1 q)

n
nk (n + 1)x

xn

nk

( )
n
k

= (k + 1)

( )

( )
n
k

1=

nk (k + 1)

nk

n
k

n+1
k+1

xn

xn

xn , ainsi que cn =

n+1
k+1

kn

pour n k et cn = 0 pour n < k :


Alors
(

On fait une transformation dAbel : on pose rn =

( )

nk

n+1
xn
k+1
(
)

n
n
nk k x
nk

n+1 n
x =
cn (rn rn+1 ) =
cn rn
cn rn+1
k+1
nk
nk
nk

cn rn

nk

nk+1

cn1 rn =

cn rn

nk

cn1 rn

nk

(cn cn1 )rn

nk

Pour n = k on a cn cn1 = ck ck1 = ck = 1 =


cn cn1 =

n+1
k+1

n
k+1

( )
n
k

. Par ailleurs rn =

( )

xn
1x

n
n

. Pour n > k, on a

Finalement

B.3. EXERCICES SUR LESPRANCE CONDITIONNELLE

( )

E[T |U = k] = (k + 1)
=

193

n xn
k 1x
( )

n
n
nk k x
nk

k+1
k
x
1=
+
1x
1x 1x

1
x
Finalement E[T |U ] = 1x
U + 1x
= x+EU
.
1x
Pour mettre lpreuve nos calculs, on va vrifier que E(E[T |U ]) = E(T ).
+x
EU
On va vrifier que EU
= E[T ] ou, de manire quivalente x = ET
:
1x
ET +1

( p1 1)(1 q)
ET EU
= 1
ET + 1
( p 1) + 1
=

( p1 1)(1 q)
1
p

= (1 p)(1 q)
Solution 12
1. Il est clair que Qn,b est une mesure de probabilits (cest
une application probabilit conditionnelle).
Par construction Qn,b est support dans {0, 1}n+b1 . Soit (y1 , . . . , yn+b1 )
{0, 1}n+b1 . On pose A = {X2 = y1 , . . . Xn+b = yn+b1 }.
Par dfinition,
n,b ({1, y1 , . . . , yn+b1 })
n,b (X1 = 1)
11+y1 ++yn+b1 =n}
=
n,b (X1 = 1)|n,b |
1y ++yn+b1 =n1}
= 1
n,b (X1 = 1)|n,b |

Qn,b (A) =

On a donc
1y1 ++yn+b1 =n1}
tandis que
n,b (X1 = 1)|n,b |
1y ++yn+b1 =n1}
n1,b ({y1 , . . . , yn+b1 }) = 1
.
|n1,b |

Qn,b (X2 = y1 , . . . Xn+b = yn+b1 ) =

Ainsi, la loi de (X2 , . . . Xn+b ) sous Qn,b concide, un facteur prs,


avec n1,b . Mais deux mesures de probabilits qui concident un
facteur prs sont gales.

194

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


|

Par ailleurs, on obtient que n,b (X1 = 1) = |n1,b


. Lapplication
n,b |
1
x 7 x ({1}) tablit une bijection entre n,b et Bn ({1, . . . , n + b}),
donc |n,b | = |Bn ({1, . . . , n + b})| = (n+b)!
, soit aprs calculs,
n!b!
n,b (X1 = 1) =

n
,
n+b

qui sera utile dans la suite.


2. Notons
n : {0, 1}n {0, . . . , n 1} {+}
(xi )1in 7 inf{i {0, . . . , n 1}; xi+1 = 0}.
On a
n+b (X1 , . . . , Xn+b ) = 1{X1 =1} (1 + n+b1 (X2 , . . . , Xn+b )),
do
En,b n+b (X1 , . . . , Xn+b ) = n,b (X1 = 1)En,b (1+n+b1 (X2 , . . . , Xn+b )|X1 = 1),
Cependant, posant f = 1 + n+b1 et dcoupant suivant les valeurs
prises par (X2 , . . . , Xn+b ), on voit que
En,b (f (X2 , . . . , Xn+b )|X1 = 1)

1
=
E (1{(X2 ,...,Xn+b )=y} 1{X1 =1} f (y)
n,b (X1 = 1) yn1,b n,b
=

Pn,b ((X2 , . . . , Xn+b ) = y|X1 = 1)f (y)

yn1,b

Qn,b ((X2 , . . . , Xn+b ) = y)f (y)

yn1,b

n1,b ({y})f (y)

yn1,b

= En1,b (1 + n+b1 (X1 , . . . , Xn+b1 ))


Ce qui, posant un = En,b , et b tant fix, nous donne la jolie rcurrence
un =

n
(1 + un1 ),
n+b

Si n = 0, n+b = b est constante gale 0, do u0 = 0, et on peut


n
alors montrer par une rcurrence simple que un = b+1
pour tout n 0.

B.4. EXERCICES SUR LES MARTINGALES

B.4

195

Solutions des exercices sur les martingales

Solution 23
1. Posons Fn = (U1 , . . . , Un ). Par rcurrence, on voit facilement que Xn est mesurable par rapport Fn . Ainsi E[Xn+1 |Fn ] =
E[Un+1 |Fn ] + Xn2 E[(1 Un+1 )|Fn ]. Dun autre ct, Un+1 est indpendant de Fn . On en dduit que
E[Xn+1 |F\ ] = E[Un+1 ] + Xn2 E[1 Un+1 ] =

1 + Xn2
Xn .
2

La suite (Xn )n0 est bien une sous-martingale.


2. (a) Xn+1 est une combinaison convexe de Xn2 et 1. Ainsi, si Xn est dans
[0, 1], Xn2 sera encore dans [0, 1], et par combinaison convexe, Xn+1
sera encore dans [0, 1]. Ainsi, pour a [0, 1], la suite (Xn ) sera
valeurs dans [0, 1], donc borne dans L1 . Comme (Xn )n0 est une
sous-martingale, le thorme de Doob assure que (Xn ) converge
presque srement vers une variable X .
2

n
(b) E[Xn+1 ] = E[E[Xn+1 |Fn ]] = E 1+X
. Par convergence domine (par
2
1), le membre de gauche converge vers E[X ] tandis que le membre
)2
. On a donc
de droite converge vers E 1+(X
2

EX = E
2

1 + (X )2
.
2

)
, on obtient que X =
Mais comme X 1+(X
2
srement, do X = 1 presque srement.

1+(X )2
2

presque

Solution 24
1. (a) On procde par rcurrence sur n. Pour n = 1 et
i entre 1 et S, on a Bd+i = T1 = BU1 . Or, on a 1 U1 d,
or B1 , . . . , Bd sont dterministes, donc Bd+i = BU1 est (U1 ) =
F1 -mesurable. Supposons le rsultat acquis jusquau rang n 1.
Comme Bd+i+(n1)S = Tn , il sagit de montrer que Tn est Fn d+(n1)S
mesurable. Or Tn = k=1
1{Un =k} Bk . Les variables B1 , . . . , Bd
sont dterministes. Si on fait varier i de 1 S et k de 1 n 1, d +
(k 1)S +i prend toutes les valeurs entre d+1 et d+(n2)S +S =
d+(n1)S Comme la suite des tribus (Fk )k1 est croissante et que
des variables constantes sont mesurables par rapport nimporte
quelle tribu, les variables B1 , . . . , Bd+(n1)S sont Fn1 -mesurables,
donc en particulier Fn -mesurables. Comme pour tout k entre 1 et
d+(n1)S, la variable 1{Un =k} est Fn -mesurable, il sensuit que Tn
est Fn -mesurable, ce qui montre la proprit dhrdit recherche.

196

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


(b) Comme 1 =

d+nS
k=1

1{Un+1 =k} , on a

Vn+1 = Vn + SeTn+1 = Vn + SeBUn+1


= Vn + S(
= Vn + S(
= Vn + S(

d+nS

k=1
d+nS

k=1
d+nS

1{Un+1 =k} )eBUn+1


1{Un+1 =k} eBUn+1 )
1{Un+1 =k} eBk )

k=1

En faisant le produit scalaire par ei , on obtient


d+nS

i
Vn+1
= Vni + S(

k=1
d+nS

= Vni + S(

1{Un+1 =k} eBk , ei )


1{Un+1 =k} 1{Bk =i}

k=1

(c) Comme on la dj not, pour k d + nS, Bk est Fn -mesurable.


On en dduit que Vn , et donc Vni , est Fn -mesurable. On a donc
avec la question prcdente
i
E(Vn+1
|Fn ) = Vni + S

= Vni + S
= Vni + S
= Vni + S

d+nS

k=1
d+nS

k=1
d+nS

k=1
d+nS

E(1{Un+1 =k} 1{Bk =i} |Fn )


E(1{Un+1 =k} 1{Bk =i} |Fn )
1{Bk =i} E(1{Un+1 =k} |Fn )
1{Bk =i} E(1{Un+1 =k} )

k=1

o la dernire ingalit vient du fait que Un+1 est indpendant de


la tribu Fn = (U1 , . . . , Un ). On a donc

S d+nS
1{Bk =i}
d + Sn k=1
d + S(n + 1) i
S
Vni =
Vn
= Vni +
d + Sn
d + Sn

i
E(Vn+1
|Fn ) = Vni +

B.4. EXERCICES SUR LES MARTINGALES

197

(d) En divisant par d + S(n + 1), on obtient


(

i
Vn+1
Vni
E
|Fn =
;
d + S(n + 1)
d + Sn

comme

Vni
d+Sn

est Fn mesurable et que (Fn )n0 est une filtration,


i

Vn
cela montre que ( d+Sn
)n0 est une Fn -martingale.
i

Vn
(e) Pour tout i, la suite ( d+Sn
)n1 est une martingale borne (comme
i
0 Vn d + Sn, la martingale prend ses valeurs dans [0, 1]),
elle converge donc presque srement. Comme ses composantes
Vn
convergent, la suite de vecteurs alatoires ( d+Sn
)n1 converge presque
srement.
V i V i
(f) Soit n 0. On a 1{Tn+1 =i} = n+1S n , do

E(1{Tn+1 =i} |Fn ) = E(

i
Vn+1
Vni
Vni
|Fn ) =
,
S
d + Sn
i

Vn
). Or,
daprs 1c. En rintgrant, on a P(Tn+1 = i) = E( d+Sn
i

Vi

Vn
Vn
( d+Sn
)n0 est une martingale, donc E( d+Sn
) = E( d0 ) = ddi . Ainsi,
pour tout n 1, P(Tn = i) = ddi .
2. (a) Les vnement {Un = k}, o k varie de 1 d + (n 1)S forment
une partition de lespace. On a donc
d+(n1)S

1{T1 =t1 ,...,Tn =tn } =

1{T1 =t1 ,...,Tn =tn } 1{Un =k}

k=1
d+(n1)S

1{T1 =t1 ,...,Tn1 =tn1 ,Bk =tn } 1{Un =k}

k=1

Donc, comme {T1 = t1 , . . . , Tn1 = tn1 , Bk = tn } Fn1 et que


Un est indpendant de Fn , on a
d+(n1)S

E(1{T1 =t1 ,...,Tn =tn } |Fn1 =

1{T1 =t1 ,...,Tn1 =tn1 ,Bk =tn } P(Un = k)

k=1
d+(n1)S

1{T1 =t1 ,...,Tn1 =tn1 } 1{Bk =tn } P(Un = k)

k=1

1
d + (n 1)S
dt + San1
tn
= 1{T1 =t1 ,...,Tn1 =tn1 } n
d + (n 1)S
tn
= 1{T1 =t1 ,...,Tn1 =tn1 } Vn1

198

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


En rintgrant, on obtient
P(T1 = t1 , . . . , Tn = tn ) = P(T1 = t1 , . . . , Tn1 = tn1 )

dtn + Satn1
n
.
d + (n 1)S

Montrons la formule demande par rcurrence.


d
Comme P(T1 = t1 ) = dt1 , la formule est vraie pour n = 1. Si elle
est vraie au rang n 1, on a alors
P(T1 = t1 , . . . , Tn = tn )
m

di (di + S) . . . (di + (ain1 1)S)


dt + Satn1
n
n
d(d + S) . . . (d + (n 2)S)
d + (n 1)S
m
n1
1)S)
i=1 di (di + S) . . . (di + (ai
=
(dtn + Satn1
)
n
d(d + S) . . . (d + (n 1)S)

i=1

Pour i {1, . . . , m}\{tn }, on a ain1 = ani , donc


di (di + S) . . . (di + (an1
1)S) = di (di + S) . . . (di + (ani 1)S).
i
Pour lunique i tel que i = tn , ain1 = ani 1, donc
di (di + S) . . . (di + (an1
1)S) (dtn + Satn1
)
i
n
= di (di + S) . . . (di + (ani 2)S) (di + S(ani 1)),
ce qui donne
P(T1 = t1 , . . . Tn = tn ) =

di (di + S) . . . (di + (ani 1)S)


.
d(d + S) . . . (d + (n 1)S)

i=1

En divisant le numrateur et le dnominateur par S n , on obtient


P(T1 = t1 , . . . Tn = tn ) =
En crivant x =

(x+1)
(x)

+ 1) . . . (di /S + (ani 1))


(d/S)(d/S + 1) . . . (d/S + (n 1))

i=1 (di /S)(di /S

et en simplifiant les produits apparaissant,

on obtient (di /S)(di /S + 1) . . . (di /S + (ani 1)) =


(d/S)(d/S + 1) . . . (d/S + (n 1)) =

(d/S+n)
,
(d/S)

(di /S+an
i )
(di /S)

do

m
(d/S)
(di /S + ani )
P(T1 = t1 , . . . Tn = tn ) =
(d/S + n) i=1 (di /S)

n
( m
i=1 (di /S + ai ))/(d/S + n)
=
m
( i=1 (di /S))/(d/S)

B(d/S
+ a)
=
,
B(d/S)

et

B.4. EXERCICES SUR LES MARTINGALES

199

ce qui donne le rsultat voulu compte tenu des rsultats admis sur
les lois de Dirichlet.

n S
n
(b) Vn d = d+nS
k=1
i=1 eBd+(k1)S =
k=1 SeTk , donc
j=d+1 eBj =
n
Vn d
= k=1 eTk , et
S
P(

Vn d
= (a1 , . . . , am )) = P( eTk = (a1 , . . . , am ))
S
k=1

P(T1 = t1 , . . . , Tn = tn ),

tA(a)

o A(a) est lensemble des applications de {1, . . . , n} dans {1, . . . , m}


prenant ai fois la valeur i. Or, daprs la question prcdente

ai
P(T1 = t1 , . . . , Tn = tn ) = E ( m
i=1 Yi ) pour tout t A(a), On
en dduit
(

Vn d
= (a1 , . . . , am )) = |A(a)|E
Yiai
P(
S
i=1

(c) Posons Wn =

Vn d
.
S

n
=
E[ Yiai ].
a1 , . . . , am
i=1

Daprs le thorme de transfert

E(exp(iWn , u)) =

P(Wn = a) exp(ia, u)

a{1,...,m}n

a{1,...,m}n

a{1,...,m}n

a{1,...,m}n

m
m

n
E[ Yiai ]
eiak uk
a1 , . . . , a m
i=1
k=1

m
m

n
E[ Ykak ] (eiuk )ak
a1 , . . . , a m
k=1
k=1

n
E[ (Yk eiuk )ak ]
a1 , . . . , a m
k=1

= E[

a{1,...,m}n

= E

n
(Yk eiuk )ak ]
a1 , . . . , am k=1

Yj eiuj ,

j=1

o la dernire galit vient de la formule du multinme.


(d) On commence par montrer que VnSnd = Y . Daprs le thorme
de Lvy, il sut de montrer que pour tout u Rm ,

Vn d
E exp(i
, u) = n (u/n) = E Yj eiuj /n
Sn
j=1

200

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


converge vers E exp(iY, u). Or, pour tout , le vecteur (Y1 (), . . . , Ym ())
est un vecteur de nombres positifs de somme 1 : on a donc
|

Yj e

iuj /n

j=1

|Yj e

iuj /n

|=

j=1

do

Yj = 1,

j=1


n



m
iuj /n

Yj e
1.


j=1

Comme 1 est intgrable, il sut de montrer que si y1 . . . , ym sont

iuk /n n
des rels positifs de somme 1, la suite ( m
) converge
k=1 yk e
m
vers exp( k=1 iyk uk ) lorsque n tend vers linfini. Le thorme de
convergence domine permettra alors de conclure. Si je pose zn =
m

iuk /n

et zn = exp( m
k=1 yk e
k=1 iyk uk /n), on a |zn | 1 et |zn | 1,
n
n

iuk /n
donc |zn zn | n|zn zn |. Cependant, pour tout k, on a e
=
uk
1
1 + i n + O( n2 ), donc
m

k=1

yk eiuk /n =

k=1

yk (1 + i

uk
1
) + O( 2 )
n
n

m
i
1
= 1 + ( yk uk ) + O( 2 )
n k=1
n

= zn + O(

1
)
n2

Ainsi |znn znn | n|zn zn | = O(1/n), ce qui donne la convergence


voulue. Ceci achve la preuve analytique.
Alternativement, on peut considrer une suite (Rn ) de variables

alatoires indpendantes de mme loi nk=1 yk uk . Daprs la loi


faible des grands nombres, (R1 + +Rn )/n converge en probabilit

vers E(R1 ) = nk=1 yk uk . Elle converge donc en loi vers nk=1 yk uk ,


donc la fonction caractristique de (R1 + + Rn )/n converge

vers la fonction caractristique de la variable constante nk=1 yk uk .


En particulier, il y a convergence au point 1, et il est ais de de

iuk /n n
) , ce qui donne le
constater que (R1 ++Rn )/n (1) = ( m
k=1 yk e
rsultat voulu.
On sait donc que VnSnd = Y . Comme d/(Sn) tend vers 0, le
Vn
Sn
lemme de Slutsky entrane que Sn
= Y . Comme Sn+d
tend vers
Vn
1, le lemme de Slutsky entrane encore que Sn+d = Y
Vn
(e) On sait Sn+d
W presque srement, et la convergence presque
Vn
sre entrane la convergence en loi, donc Sn+d
= W . Daprs la
question prcdente, W a la mme loi que Y , savoir la loi de
Dirichlet de paramtre d/S.

B.5. EXERCICES SUR LES COMPLMENTS

B.5

201

Solutions des exercices sur les complments

Solution 33 Comme les ferms engendrent la tribu borlienne B, il sut


de montrer que limage rciproque dun ferm est dans F. Soit F un ferm.
x fix, x 7 d(x, F ) est 1-lipschtzienne, donc continue : on a donc d(X, F ) =
limn+ d(Xn , F ). Comme F est ferm, on a donc
{X F } = {d(X, F ) = 0} = {d(Xn , F ) 0} = p1 n1 kn {d(Xk , F ) 1/p}.
Comme x 7 d(x, F ) est continue, elle est borlienne ; par composition, lapplication 7 d(Xn (), F ) est borlienne, et donc {d(Xn , F ) 1/p} F.
Comme on eectue ensuite des oprations dunion et dintersection dnombrable, on reste dans F et {X F } = X 1 (F ) F.
Solution 34 Fixons y0 Y et posons H(x) = Z(x, y0 ). Lapplication x 7
(x, y0 ) est (R, B(R) (R2 , B(R2 ) mesurable et lapplication (x, y) 7 Z(x, y)
est (R2 , B(R2 ) (, F)-mesurable, donc par composition, H est (R, B(R)
(, F) mesurable. Reste voir que Z = H(X). Soit (x, y)2 R2 . On pose
u = Z(x, y). Comme {u} F, Z 1 ({u}) (X) car Z est (X)-mesurable.
Or (X) = {B R; B B(R)}, donc il existe B tel que Z 1 ({u}) = B R.
Bien sr (x, y) Z 1 ({u}), donc x B, ce qui entrane que (x, y0 ) =
B R = Z 1 ({u}), do Z(x, y0 ) = u = Z(x, y), soit H(X(x, y)) = Z(x, y).
1. Soit n N. Pour k entre 0 et n, on a

Solution 35

P(X = k, Y = n k)
P(X + Y = n)
P(X = k)
P(X = k)
=
= n
n
P (i=0 {X = i, Y = n i})
i=0 P(X = i, Y = n i)

P(X = k|X + Y = n) =

nk
(nk)!
n i ni
e i! (ni)!
i=0 e
)i (
( )(

e e k!

( )

=
=

n
i

n
k

= n (n)

( )

k nk

i=0 i
)ni

i ni

n
k

k nk

( + )n

Comme X X + Y , les autres coecients sont nuls : la loi de X

sachant X + Y = n est la loi binomiale B(n, +


).
2. Lesprance du carr, cest le carr de lesprance plus la variance.
Pour une loi binomiale, ces quantits sont bien connues. On a donc
(

E[X |X + Y = n] =
2

n
+

)2

+n

,
( + )2

202

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


(

do E[X |X + Y ] =
2

B.6

(X + Y )
+

)2

+ (X + Y )

.
( + )2

Solutions des exercices corrigs sur les


ingalits

Solution 39

1.
h(.x)(i) = |{j {1, . . . , n}, x(j) x(i) }|
= |{j {1, . . . , n}, xj x(i) }|
= [h(x)]((i))

2. On a {X n } 1i<jn {Xi = xj }. Mais Xi Xj est la somme


de deux variables densit : elle est densit, donc sans atome : on
a donc P(Xi Xj ) = 0 do P(X n ) = 0. Ainsi n = h(X) est
valeurs dans Sn . Comme .X a mme loi que X, n a mme loi que
h(.X) = h(X) . Ainsi, pour toute permutation ,
P(n = ) = P(h(X) = ) = P(h(X) = Id),
ce qui montre bien que toutes les permutations ont la mme masse.
3. Quitte changer despace de probabilit, on peut supposer que n
scrit n = h(X1 , . . . , Xn ), o X1 , . . . , Xn sont des variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. On veut alors
appliquer le principe de Maurey f = g h. Soient (x1 , . . . , xn )
et (x1 , . . . , xn ) tels que xj = xj pour j = i0 . Posons = h(x)
et = h(x ). On a x1 (1) < . . . x1 et x1 (1) < . . . x1 . Si
xi0 ]x1 ((i0 )1) , x1 ((i0 )+1) [, on a simplement = . Sinon, si
xi0 < x1 ((i0 )1) , 1 est de la forme
(

1 (1)

...
...

1 (i)

i+1
+ k)

1 (i

i+2
+ 1)

1 (i

...
...

i+1
+ k 1)

1 (i

i+k+1
+ k + 1)

1 (i

...
...

soit
(

1 ...
=
1 ...
1

i i + 1 i + 2 ...
i+1
i + k + 1 ... n
,
i i + k i + 1 ... i + k 1 i + k + 1 ... n

cest dire = i+1,i+k . On en dduit que |f (x) f (x )| =


|g() g( )| M . Le cas o xi0 > x1 ((i0 )+1) se traite de manire
analogue. Il sut alors dappliquer lhypothse sur g et le principe de
Maurey pour avoir le rsultat voulu.

1 (n)

B.6. EXERCICES SUR LES INGALITS

203

4. On numrote les boules de 1 n = b+r, les boules rouges tant numrotes de 1 r. Ordonner de manire alatoire uniforme les n boules
et ne garder que les k premires est la mme chose quen prendre k
sans remise. On pose donc g() = |(1, . . . , k) {1, . . . , r}. Ainsi g()

a la loi de X. On a g() = ki=1 1{(k){1,...,r} , do


E[X] = E[g()] =

P((k) {1, . . . , r}) =

i=1

r
kr
=
.
b+r
i=1 b + r

g vrifie lhypothse de la question prcdente avec M = 1, do le


rsultat.

Solution 40
1. On a immdiatement Xkn = nk=1 1{Nk,p =1} . Comme
Nk,p est une somme de k variables de Bernoulli indpendantes de paramtre 1/n, Nk,p B(k, 1/n) et
( )

k 1
1
k
1
(1 )k1 = (1 )k1 ,
1 n
n
n
n

E[1{Nk,p =1} ] = P(Nk,p = 1) =

et par linarit, on a E[Xkn ] = n nk (1 n1 )k1 .


2. On a
1
1
1
(1 )n = n1 (1 )E[Xnn ] n1 (1 )vn
n
n
n

1 k
k
= max0kn3/2 1
n
n
k
max0kn3/2 exp(1/n)k
n
sup x exp(x)
xR+

Comme log(1 1/n)n = n log(1 1/n) n(1/n) = 1, on a classiquement limn+ (1 1/n)n = e1 . Dautre part, une petite tude de
fonction montre que supxR+ x exp(x) = exp(1), donc par comparaison limn+ n1 (1 n1 )vn = 1/e, do limn+ n1 vn = 1/e, soit
vn ne .
3. Soit N tel que (1 1/n)n1 1e /2 et vnn 1e + /2 pour n N .
On a alors pour n N :
P

Xn

1
1
n( ) P Xnn n( )
e
e
)
(
1 n1
n
/2)
P Xn n((1 )
n
= P (Xnn E[Xnn ] /2)

204

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


Dautre part
P

Xn

1
1
n( + ) = P nk=1 {Xnk n( + )}
e
e
)
n3/2 (
1
k
k=1 P Xn n( + )
e

n3/2 (

k=1

P Xnk (vn + n/2)

k=1

P Xnk E[Xnk ] + n/2)

n3/2 (

En additionnant les deux majorations, on obtient lingalit voulue.


4. Posons, pour y {1, . . . , n}k :
k (y) =

u=1

1{1=k

j=1

1{yj =u} }

On a ainsi Xkn = ((Yi )1ik ). Si y et y dirent au temps t k


et seulement ce moment l, mettons que la boule au temps t est
mise en i dans la configuration y, alors quelle est mise au temps t est
mise en i dans la configuration y . Au temps k, seuls les eectifs des
eectifs des botes u = i et u = i direront, donc la dirence entre
k (y) et k (y ) ne peut excder deux units. On peut donc appliquer
le principe de Maurey avec ki = 2. Avec le principe de Maurey, on a
P(|Xnk E[Xnk ]| /2n) 2 exp(

(/2n)2
),
8k

de sorte que pour k n3/2 , on a


P(|Xnk E[Xnk ]| /2n) 2 exp(

2
n).
32

Ainsi, finalement, on a
P(|X/n n e1 | > ) 2n3/2 exp(

2
n),
32

ce qui entrane que Xn /n tend en probabilit vers e1 .


5. On a
{Nn3/2 ,u 2} {k n3/2 ; Nk,u 2}
{k n3/2 ; 1{Nk,u =1} = 0},

B.7. EXERCICES SUR LES STATISTIQUES EXHAUSTIVES

205

donc
nu=1 Nn3/2 2} {k n3/2 ; Xkn = 0}
{X n = Xn }
En passant au complmentaire, on a linclusion
{X n = Xn } np=1 {Nn3/2 ,p < 2},
6. On a alors
P(X n = Xn ) nP(Nn3/2 ,1 < 2)
= nB(n3/2 , 1/n)({0; 1})
= n((1 1/n)n
n(n

3/2

3/2

+ n3/2 (1/n)(1 1/n)n

3/2 1

n3/2

+ 1)(1 1/n)

Kn5/2 (1 1/n)n

3/2

Kn5/2 exp( n)

Comme pour tout > 0,


P(|X n /n 1/e| > ) P(|Xn /n 1/e| > ) + P(X n = Xn ),
et que les deux termes de la somme de droite ont une limite nulle
quand n tend vers linfini, |X n /n tend en probabilit vers 1/e.
7. On a 0 X n /n 1. PX n /n tend en loi vers 1/e et est qui-intgrable
car borne dans L , donc la suite des moments converge vers 1/e
8. Pour se ramener au problme prcdent, il sut de considrer que
chaque numro tir est le numro dune pilule. Si on tire un numro
dune pilule pas compltement mange, on en mange la moiti, sinon
lessai est en chec et on retire un numro jusqu atteindre un numro
correspondant une pilule pas compltement mange ou quil ny ait
plus de pilule. On a donc le rsultat voulu avec K = 1/e.

B.7

Solutions des exercices sur les statistiques


exhaustives

Solution 44
1. Daprs le thorme de factorisation de Neyman, P a
une densit f par rapport m. Pour mesurable borne, on a alors
E ((Z)) = (Z)f (T ) dm. Comme Z et S sont indpendantes sous
m
E ((Z)) = Em [(Z)f (S)] = Em [(Z)]Em [f (S)]

206

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


En prenant = 1, on trouve Em [f (S)] = 1, do
E ((Z)) = Em [(Z)]
La loi de Z sous P est donc sa loi sous m, qui ne dpend pas de :
Z est libre.
2. Soit mesurable borne. Comme Z est libre, il existe une constante
c() telle que E ((Z)) = c() pour tout . Comme S est exhaustive, E ((Z)|S) est une fonction (S) avec indpendante de
. Lapplication (S) c() est (S)-mesurable et desprance nulle
sous tout P . Comme S est complte, (S) c() est nulle. On a donc
E ((Z)|S) = c(), ce qui signifie que Z et S sont indpendantes sous
P . En eet pour tout g,
E [g(S)(Z)] = E [E [g(S)(Z)|S]]
= E [g(S)E [(Z)|S]]
= E [g(S)c()]
= c()E [g(S)] = E ((Z))E [g(S)]

B.8

Solution des exercices sur linformation


de Fisher

Solution 50 Les lois considres ont toutes le mme support [1, +[. Un
calcul simple donne W = 1 log x. On a donc

2
1

log
x
d(x)

[1,+[ x+1

1
=
eu ( u)2 du

[0,+[

I=

On reconnait la variance de la loi exponentielle de paramtre : cest

1
.
2

I() = 1 est C 1 sur ]0, +[, donc le modle vrifie les bonnes conditions :
on a donc E [W ] = 0. Comme W = 1 log X, on constate bien que T est
un estimateur sans biais de 1/.
Var T = E (E E [T ])2 = E (W2 ) = I(). On note que Var T = 2 =
g ()2
1
: on a galit dans lingalit de Cramer-Rao. La densit f (x) = x+1
I()
scrit aussi x exp( log X) : on a un modle exponentiel, et on retrouve le
rsultat du cours.

B.8. EXERCICES SUR LINFORMATION DE FISHER

207

Si f est un estimateur sans biais de , on a pour tout

soit

[0,+[

1
[1,+[ x+1

f (x) d(x) = ,

eu f (eu )d(u) = , ou encore

eu f (eu )d(u) = 1.

[0,+[

Posons g(u) = f (eu ). Fixons 0 > 0. Pour tout ]0 , +[, on a


ueu g(u), do
|

u
e g(u)

u
2
e | ue0 u g(u) e0 /2u g(u)

Comme cette fonction est intgrable, on obtient sur ]0 , +[ :


0

1=
ueu g(u)d(u).

[0,+[

Comme ]0 peut tre pris aussi petit que lon veut, lidentit
est encore vraie

sur ]0, +[. Posons A = ] 0, +[xf+ (x)ex dx. On a A = ] 0, +[xf (x)ex dx,
donc P1 = A1 xf+ ex et P2 = A1 xf ex sont deux mesures de probabilits
sur R+ . Elles ont la mme transforme de Laplace, donc f+ = f et f = 0.
Contradiction.
Solution 51

1. Cest un calcul classique :

EX1 (X1 1) =
=

k=0
+

k(k 1)P(X = k)
k(k 1)P(X = k) =

k=2

= e 2

k(k 1)e

k=2

k!

k2
= e 2 e = 2
(k

2)!
k=2

Comme les Xi ont mme loi, le rsultat sensuit par linarit.


2. La densit de P() par rapport la mesure de comptage est n 7
n
e n! = e n!1 exp((log )n) : la famille (P())>0 est une famille
exponentielle et X est la statistique naturelle associe. Ainsi X1 +
+ Xd est la statistique naturelle associe au modle exponentiel
(P()d )>0 . Comme log(]0, +[) = R est dintrieur non-vide, la
statistique est complte.

208

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


3. La loi de Sd sous P est la loi de X1 sous Pd : on a donc E Sd (Sd 1) =
Ed X1 (X1 1) = (d)2 , do on dduit que Sd (Sdd21) est un estimateur
sans biais de 2 . Mais Sd (Sdd21) est (Sd ) mesurable et Sd est une
statistique exhaustive complte, donc daprs le thorme de LehmanSche, Sd (Sdd21) est le meilleur estimateur quadratique de 2 .
4. Ed tant un estimateur sans biais de 2 et Sd une statistique exhaustive
complte, lamlioration de Ed : E [Ed |Sd ] concide avec le meilleur
estimateur quadratique de 2 . On a E [Ed |Sd ] = Sd (Sdd21) , do on
dduit aisment la formule voulue.
5. Linformation de Fisher du modle a t calcule prcdemment : cest
d
. Avec la fonction g() = 2 , la borne de Cramer-Rao est

(g ())2
(2)2
43
=
=
.
I()
d/
d
Dautre part
Var

Sd (Sd 1)
1
= 4 Var Sd (Sd 1)
2
d
d
1
= 4 Varn X1 (X1 1).
d

On a dj vu que E X1 (X1 1) = 2 . On a aussi les identits


E X1 (X1 1)(X1 2) = 3 et E X1 (X1 1)(X1 2)(X1 3) = 4 .
On dcompose alors X 2 (X 1)2 sur cette base :
X 2 (X 1)2 = X(X 2 + 2)(X 1)(X 3 + 2)
= X(X 1)(X 2)(X 3) + 2X(X 1)(X 3)
+ 2X(X 1)(X 2) + 4X(X 1)
= X(X 1)(X 2)(X 3)
+ 2X(X 1)(X 2) 2X(X 1)
+ 2X(X 1)(X 2) + 4X(X 1)
= X(X 1)(X 2)(X 3)
+ 4X(X 1)(X 2) + 2X(X 1)
Do E X 2 (X 1)2 = 4 + 43 + 22 et Var X 2 (X 1)2 = 43 + 22 .
On a finalement
Var

1
4(d)3 + 2(d)2
3 2
Sd (Sd 1)
=
Var
X
(X
1)
=
=
4
+2 4 ,
n
1
1
d2
d4
d4
d
d

qui dpasse la borne de Cramer-Rao : lestimateur nest pas ecace.

B.9. EXERCICES SUR LES PROCESSUS

B.9

209

Solutions des exercices sur les processus

Solution 54
1. La loi du vecteur (0 , . . . , n ) tant discrte, tout ensemble (0 , . . . , n )-mesurable peut scrire ( un ngligeable prs)
comme runion dnombrable disjointe dvnements de la forme
A = {0 = x0 , . . . , n = xn }.
Ainsi, avec le principe de partition, il sut de dmontrer lgalit
lorsque A scrit A = {0 = x0 , . . . , n = xn }, avec (x0 . . . , xn )
Dn+1 . Si i = xn , les deux membres de lgalit voulue sont nuls : il ny
a rien dmontrer. On doit donc montrer que pour tout B B(RN ),
on a
P (0 = x0 , . . . , n = xn , n (B)) = P (0 = x0 , . . . , n = xn )Pxn (B).
Bien sr, si P (0 = x0 , . . . , n = xn ) = 0, il ny a encore rien
dmontrer puisque les deux membres sont nuls. Soit C lensemble des
vnements qui scrivent
B = {0 = y0 , . . . , k = yk }
pour un certain k : il est ais de constater que les mesures de probabilit B 7 P (n (B)|0 = x0 , . . . , n = xn ) et B 7 Pxn (B) concident
sur C. Comme C est un -systme qui engendre la tribu B(RN ), ces
deux probabilits sont gales, ce qui donne le rsultat voulu.
2. Ici encore, il est ais de constater que P et
mesures de probabilit qui concident sur C.

iD

(i)Pi sont deux

3. On a
P (1 (B)) =

P (1 = i, 1 (B))

iD

P (1 = i)Pi (B))

iD

(i)Pi (B))

iD

= P (B))
Solution 55 Considrons l application
: RN RN
((xn )n0 ) 7 ((n x))

210

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

Comme est mesurable de (RN , B(RN )) dans lui mme et (RN , B(RN ))
(R, B(R)) mesurable, pour tout n (n X) est bien (RN , B(RN )) (R, B(R))
mesurable, et donc est bien mesurable de (RN , B(RN )) dans lui mme. Ainsi
Y = (X). On peut noter que = . Ainsi
PY (1 (A)) = P(Y 1 (1 (A)))
= P(( Y )1 (A))
= P(( X)1 (A))
= P(( X)1 (A))
= P(X 1 (1 ( 1 (A))))
= PX (1 ( 1 (A))
= PX ( 1 (A)) = P(X 1 ( 1 (A))
= P(( X)1 (A))
= P(Y 1 (A)) = PY (A)
Solution 56
1. Il sut de montrer que pour tout n, (X1 , . . . , Xn ) et
(X2 , . . . , Xn+1 ) ont mme loi. Or si on considre la permutation cyclique de Sn+1 : = (1 2 . . . n + 1), lhypothse dchangeabilit entrane que (X1 , . . . , Xn , Xn+1 ) a mme loi que (X(1) , . . . , X(n) , X(n+1) ) =
(X2 , . . . , Xn+1 , X1 ). Par projection sur les n premires composantes,
(X1 , . . . , Xn ) et (X2 , . . . , Xn+1 ) ont mme loi.
Remarque : alternativement, on peut remarquer que changeable =
rversible = stationnaire.
2. Par bilarit et symtrie
V arSn =

k=1

Var Xk + 2

Covar(Xi , Xj ).

1i<jn

Par stationnarit, Var Xk = Var X1 pour tout k. Pour 1 i < j n,


considrons la permutation de Sn : = (1 i)(2 j). Par projection,
les vecteurs (X1 , X2 ) et (X(1) , X(2) ) = (Xi , Xj ) ont mme loi, donc
Covar(X1 , X2 ) = Covar(Xi , Xj ), do
V arSn = n Var X1 + n(n 1) Covar(X1 , X2 )
En divisant par n2 , on a
0 (Var Sn )/n2 = (Var X1 ) + (n 1)/n Covar(X1 , X2 ).
En faisant tendre n vers linfini, on obtient 0 Covar(X1 , X2 ) =
Covar(Xi , Xj ) : les Xi sont positivement corrls.

B.9. EXERCICES SUR LES PROCESSUS

211

3. Soit (Xn )n1 un processus gaussien changeable. Daprs ce qui prcde, il existe m tel que E(Xi ) = m pour tout i (stationnarit), 2 0
tel que Var Xi = 2 pour tout i, et c tel que
Covar(Xi , Xj ) = c2 pour
i = j. videmment c = Covar(X1 , X2 ) Var X1 Var X2 = . Rciproquement, supposons que nous sont donns des rels m, 2 0
et c avec c 2 . Soient a, b rels, (Yi )i0 un bruit blanc. Si lon pose
Xi = m+aY0 +bYi , (Xi )i1 est un processus gaussien. On a E(Xi ) = m
et Var Xi = a2 Var Y0 + b2 Var Yi = a2 + b2 , tandis que pour i = j
Covar(Xi , Xj ) = Covar(aY0 + bYi , aY0 + bYj )
= a2 Var Y0 + ab(Covar(X0 , Xj ) + Covar(X0 , Xj )) + b2 Covar(Yi , Yj )
= a2 Var Y0 = a2

Ainsi, si on prend a = c et b = 2 c, le processus (Xi )i1 aura


bien la fonction desprance et la famille des covariances espres.
Comme la fonction desprance et la famille des covariances caractrisent les processus gaussiens, on a construit le processus voulu.
4. Traitons dabord le cas o le processus est construit, comme prcdemment, partir dun bruit blanc : Xi = m + aY0 + bYi . Dans ce cas,
la loi forte des grands nombres entrane que n1 (X1 + . . . Xn ) converge
presque srement vers Z = aY0 . Si a = 0, il ny a rien dmontrer car
les Xi sont alors indpendants. Soit 1 , . . . , n des fonctions bornes.
Comme Z est indpendant de Y1 , . . . , Yn
E(1 (X1 )2 (X2 ) . . . n (Xn )|Z) = E(1 (Z + bY1 )2 (Z + bY2 ) . . . n (Z + bYn )|Z)
= (Z),
avec
(z) = E(1 (z + bY1 )2 (z + bY2 ) . . . n (z + bYn ))
=

Ei (z + bY1 )

i=1

De manire similaire, on montre que E(i (Xi )|Z) = i (Z), avec i (z) =
E(i (z + bY1 )). Ainsi
E(1 (X1 )2 (X2 ) . . . n (Xn )|Z) =

i=1

ce qui donne lindpendance voulue.

E(i (Xi )|Z),

212

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


Passons au cas gnral. On peut toujours dfinir Z = lim n1 (X1 + +
Xn ). On veut montrer que sachant Z les Xi sont indpendants, autrement dit, pour tout n, la loi conditionnelle de (Xi , . . . , Xn ) sachant Z
est une loi produit. Or, la loi conditionnelle de (Xi , . . . , Xn ) sachant
Z est compltement dtermine par la loi de (Xi , . . . , Xn , Z), qui ellemme est compltement dtermine par la loi du processus (Xn )n1 ,
puisque cest la loi image de PX par 7 (1 , . . . , n , lim(1 +. . . k )/k).
Comme on peut toujours construire un processus Xn sous la forme
Xi = m + aY0 + bYi avec PX = PX , le rsultat sensuit.

Solution 57
1. Pour tout y = (y1 , . . . , yn ) B(x), il existe i tel que
yn1 = xi . Cet entier i est unique, car sil existait deux tels entiers
i et j, on aurait xi = xi+1 , ce qui est impossible car x est propre.
Notons le i(y). On peut alors poser Bi (x) = {y B(x); i(y) = i}. On
a videmment
|B(x)| =

|Bi (x)|.

i=1

Or lapplication y 7 (y1 , . . . , yn1 ) ralise une bijection de Bi (x) dans


B(
xi ), do la formule voulue.
2. On va procder par rcurrence sur n. Si n = 0, chaque terme de la
somme de gauche est gale 1 et le second membre vaut b0 (q)B() = q :
lidentit est vrifie. Supposons la proprit acquise au rang n et
montrons l au rang n + 1 Si x nest pas un mot propre, lidentit est
vidente car les deux termes sont nuls. Sinon, on peut remarquer que

|B(x.a)| =
a{1,...,q}
=

a{1,...,q}\{xn }

|B(x.a)|
(( n

a{1,...,q}\{xn }
n

|B(
xi .xn )| +

i=1

= |B(x)| +

|B(
xi .a)| + B(x)

i=1

a{1,...,q}

|B(
xi .a)| + (q 1)B(x)

i=1

bn1 (q)|B(
xi )| + (q 1)|B(x)|

i=1

= (bn1 (q) + q 2)|B(x)| = bn (q)|B(x)|,


ce qui montre lhrdit.
3. Tous les mots n + 1 lettres scrivent x.a, o x est un mot de n
lettre et a {1, . . . , q}. Ainsi, les B(x.a) forment une partition de

B.9. EXERCICES SUR LES PROCESSUS

213

lensemble des immeubles propres de hauteur n + 1 : on a


S(n + 1, q) =
=

x{1,...,q}n

a{1,...,q}

|B(x.a)|

b (q)|B(x)|
x{1,...,q}n n

= bn (q)S(n, q)
4. n est une mesure positive. On a
n ({1, . . . , q}n ) =
=

(x)
x{1,...,q}n n

x{1,...,q}n

S(n, q)1 |B(x)| = S(n, q)1 S(n, q) = 1,

ce qui donne le rsultat


5. On a
n+1 ({(x1 , . . . , xn )} {1, . . . , q}) =
=

({(x1 , . . . , xn , a})
a{1,...,q} n+1

|B(x.a)|
+ 1, q)

a{1,...,q} S(n

1
|B(x.a)|
bn (q)S(n, q) a{1,...,q}
1
=
bn (q)|B(x)|
bn (q)S(n, q)
= n ({(x1 , . . . , xn )})

Il sut alors dappliquer le thorme dextension de Kolmogorov.


6. Si on note x = (x1 , . . . , xn ) et x = (xn , . . . , x1 ), lapplication y =
(y1 , . . . , yn ) 7 (y1 , . . . , yn ) ralise une bijection entre B(x) et B(
x), ce
qui entrane immdiatement le rsultat voulu.
7. Soient n 1 et x {1, . . . , q}n . En appliquant deux fois la rversibilit
puis le principe de partition, on a
Pq (1 = x1 , . . . , n = xn ) = Pq (1 = xn , . . . , n = x1 )
=
=

a=1
q

Pq (1 = xn , . . . , n = x1 , n+1 = a)
Pq (1 = a, 2 = x1 , . . . , n = x1 , n+1 = xn )

a=1

= Pq (2 = x1 , . . . , n = x1 , n+1 = xn ),
ce qui donne linvariance par le dcalage.

214

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


8. (a) On va construire cn,p par rcurrence sur n + p. Pour n + p = 0,
il est facile de voir que la formule est vrifie avec c0,0 = q = 4.
Ensuite, on a
q

|B(x.a.y)| =

a=xn ,a=y1

a=1

=
=

|B(x.a.y)|
(

a=xn ,a=y1

a=xn

|B(
xi .a.y)| + B(x.y) +

i=1

|B(x.a.
yi )|

i=1

|B(
xi .a.y)| +

i=1

a=y1

|B(x.a.
yi )|

i=1

+ (q 2 + 1{xn =y1 } )B(x.y)


On a alors

a=xn

|B(
xi .a.y)| =

|B(
xi .xn .y)| +

i=1

i=1

= B(x.y) +

a{1,...,q}

|B(
xi .a.y)|

i=1

cn1,p |B(
xi )|.|B(y)|

i=1

= B(x.y) + cn1,p |B(x)|.|B(y)|


En eet, dans la premire somme, seul le terme pour i = n est
non-nul. La deuxime somme est identifie par lhypothse de rcurrence.
De mme

a=y1

|B(x.a.
yi )| = B(x.y) + cn,p1 |B(x)|.|B(y)|,

i=1

do
q

|B(x.a.y)| = (cn1,p + cn,p1 )|B(x)|.|B(y)| + (q 4 + 1{xn =y1 } )|B(x.y)|

a=1

= (cn1,p + cn,p1 )|B(x)|.|B(y)| + 1{xn =y1 } |B(x.y)|


= (cn1,p + cn,p1 )|B(x)|.|B(y)|,
ce qui donne le rsultat voulu en posant cn,p = cn1,p + cn,p1 .
(b) En sommant lidentit prcdente sur tous les (x, y) {1, . . . , q}n+p ,
on a S(n+p+1, 4) = cn,p S(n, 4)S(p, 4). En divisant lidentit de la
question prcdente par les deux membres de la nouvelle identit,
on a
|B(x)| |B(y)|
|B(x.a.y)|
=
.
,
S(n, 4) S(p, 4)
a=1 S(n + p + 1, 4)
q

B.10. EXERCICES SUR LES CHANES DE MARKOV

215

, soit
q

Pq (1 = x1 , n = xn , n+1 = a, n+2 = y1 , . . . , n+p+1 = yp )

a=1

= Pq (1 = x1 , . . . , n = xn )Pq (1 = y1 , . . . , n = yp ),
soit enfin en utilisant une partition et la stationnarit :
Pq (1 = x1 , n = xn , n+2 = y1 , . . . , n+p+1 = yp )
= Pq (1 = x1 , . . . , n = xn )Pq (n+2 = y1 , . . . , n+p+1 = yp ).

B.10

Solutions des exercices sur les chanes


de Markov

Solution 66 On choisit comme espace dtats lensemble E = {, 6, 66}.


(Il faut penser que reprsente un chire quelconque, un chire dirent
de 6.)
On a le graphe de transition probabiliste suivant :
5
6

1
1
6
5
6

*6

1
6

66

Je note x = (xn )n0 une suite possible dlments de E, et


T (x) = inf{n 0; xn = 66 }.
Il est facile de voir que si x0 = 66 , alors T (x) = 0, sinon
T (x) = 1 + T (x),
o x est la suite obtenue par dcalage :
n 0 (x)n = xn+1 .
Jusquici il ny a pas de probabilits. Notons maintenant X = (Xi )i0 la
suite des tats obtenus, et Pi (resp. Ei ) la probabilit (lesprance) sachant
que le systme part de ltat i (X0 = i) et posons xi = Ei [T (X)]. Evidemment
x66 = 0 et pour i = 66, on a

216

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

xi = Ei [1 + T (X)]
= 1 + Ei [T (X)]

= 1 + Ei [

1X1 =j T (X)]

jE

=1+

Ei [1X1 =j T (X)]

jE

Maintenant la proprit de Markov dit que pour toute fonction F de la


trajectoire, on a
Ei [1X1 =j F (X)] = Pi (X1 = j)Ej [F (X)].
Jobtiens alors le systme
x66 = 0
5
1
x6 = 1 + x + x66
6
6
5
1
x = 1 + x + x6
6
6
On rsoud et on trouve x = 42 et x6 = 36.
Le problme initial pouvant tre reprsent avec un dpart en , le
nombre moyen de lancers ncessaires est donc x = 42.
Solution 67 Comme la chane est irrductible et que le complmentaire de
A est non-vide, pour tout x A, il existe nx tel que Px (Xnx A) > 0.
Ainsi = min{Px (Xnx A); x A} > 0 et, comme A est fini, n =
max{nx ; x A} < +. Pour tout x A, on a Px (T n) Px (Xnx A)
. Mais si x A, on a Px (T n) Px (T = 0) = 1 , donc finalement
x S

Px (T n) .

Posons uk = Px (i nk, Xi A). Avec la proprit de Markov, on a


Px (i n(k + 1), Xi A|Xn ) = Px (i nk, Xi A)PXn (i n, Xi A)
Px (i nk, Xi A)(1 ),
do en rintgrant uk+1 (1 )uk , et, par rcurrence uk (1 )k . Ainsi
Px ( = +) Px ( > kn) (1 )k , donc en faisant tendre k vers linfini,
Px ( = +) = 0. Mais en fait, on a un peu plus,
Px ( > k) Px ( > nk/n) (1 )nk/n (1 )kn ,
donc la variable alatoire a une queue sous-exponentielle.

B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES217


Solution 68 De trois choses lune :
Si X0 = 0, alors (X0 , X1 , X2 ) = (0, 2, 0) et (Y0 , Y1 , Y2 ) = (0, 1, 0)
Si X0 = 1, alors (X0 , X1 , X2 ) = (1, 1, 1) et (Y0 , Y1 , Y2 ) = (0, 0, 0)
Si X0 = 2, alors (X0 , X1 , X2 ) = (2, 0, 0) et (Y0 , Y1 , Y2 ) = (1, 0, 1)
En particulier P(Y0 = 1, Y1 = 0) P(X0 = 2) > 0, donc P(Y1 = 0|Y0 = 1) >
0. De mme P(Y1 = 0, Y2 = 0) P(X0 = 1) > 0, donc P(Y2 = 0|Y1 = 0) > 0.
Si (Yn )n0 tait une chane de Markov, on aurait P(Y0 = 1, Y1 = 0, Y2 = 0) =
P(Y0 = 1, Y1 = 0)P(Y2 = 0|Y1 = 0) > 0. Or P(Y0 = 1, Y1 = 0, Y2 = 0) = 0,
donc (Yn )n0 nest pas une chane de Markov.
Solution 69 Soient z et z dans F . Comme est surjective, il existe x0
E (x0 ) = z. On pose alors qz,z = Px0 ((X1 ) = z ). Daprs lhypothse
particulire faite sur f , on a qz,z = Px ((X1 ) = z ) pour tout x E tel que
(x) = z. Daprs la proprit de Markov, on a pour tout n,
P(Yn = z |X0 , . . . , Xn1 ) = P(Xn 1 (z )|X0 , . . . , Xn1 )
= PXn1 (X1 1 (z ))
= PXn1 ((X1 ) = z )
= q(Xn1 ),z = qYn1 ,z
Comme (Y0 , . . . Yn1 ) est une sous-tribu de (X0 , . . . Xn1 ), on obtient que
P(Yn = z |Y0 , . . . , Yn1 ) = qYn1 ,z , ce qui montre que (Yn )n0 est une chane
de Markov de matrice de passage q.
Si la chane (Xn ) est invariante, soit (Xn ) une chane partant sous la loi
invariante. On a P(Y1 A) = P(X1 1 (A)) = P(X0 1 (A)) = P(Y0
A), donc (Yn ) est invariante, et la loi de Y0 est la loi image de PX0 par .
Solution 81 Quitte changer a et b, avec Bezout il existe u et v positifs
avec au bv = 1.
nu nv
au bv
n

=n
=
1,
b
a
ab
ab
donc il existe p entier avec

nu
b

nv
.
a

On a alors lcriture

a(nu bp) + b(ap nv) = n.

B.11

Solutions des exercices sur la rcurrence


et les mesures invariantes

Solution 86 On peut aller en un coup de 3 vers 2, de 2 vers 1, de 1 vers 3 :


la chane est donc irrductible. Par ailleurs on peut aller en un coup de 1 vers

218

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS

1, donc la chane est apriodique : il y a donc une unique mesure invariante,


E1 [N 1 ]
qui est donne par (y) = E1 [T1y] . Sous P1 , on a N1 = 1, N2 = 1{X1 =1} ,
N3 = 1{X1 =3 et T1 = X1 , ce qui nous donne E1 [N 1 ] = 1, E1 [N 2 ] = 2/3,
E1 [N 3 ] = 1/3, [E[T1 ] = 2 puis (1) = 21 , (2) = 13 , (3) = 16 .
Solution 87 Soit P = (pi,j ) la matrice de la chane. Comme i j, il existe
(n)
n entier naturel tel que pi,j > 0. Comme la mesure est invariante, on a
(n)
(j) = P (Xn = j) P (X0 = i, Xn = j) = (i)pi,j > 0.

Solution 88
1. La quantit jS pi,j |f (j)| est toujours bien dfinie,
ventuellement infinie. Cest lintgrale de la fonction j 7 |f (j)| par
rapport la mesure de probabilit qui aecte la valeur pi,j au point
j. On a donc

pi,j |f (j)|

(i)

pi,j |f (j)|

iS

(i)

pi,j (i)|f (j)|2 ,

jS

jS

et en sommant

pi,j |f (j)|2 ,

jS

jS

do

pi,j |f (j)|

jS

pi,j (i)|f (j)|2 ,

iS jS

Daprs le thorme de Tonelli des sries,

pi,j (j)|f (j)| =

iS jS

jS

iS

pi,j (i) |f (j)|2 =

(j)|f (j)|2 = f 22, < +.

jS

)2

< +.
En particulier, pour tout i S, on a (i)
jS pi,j |f (j)|
Si (i) > 0, cela entrane que la srie de terme gnral (pi,j f (j))j
converge absolument, donc converge, ce qui montre que (P f )(i) est
(
)2
bien dfini. On a bien sr |(P f )(i)|2
p
|f
(j)|
, do en
i,j
jS
2
2
combinant avec les ingalits ci-dessus : P (f )2, |f 2, .
2. Pour tout j S, on a

(i)pi,j =

(j)pj,i (j)

(j)(j).1 = (j),

iS

iS

iS

donc P laisse invariante. De mme, pour tout j S, on a

iS

(i)qi,j =

iS

(j)pj,i (j)

iS

(j)(j).1 = (j)

B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES219


et Q laisse invariante. Daprs la question prcdente, P f et P g sont
des lments de 2 (). Comme le produit de deux lments de 2 ()
est dans 1 (), les intgrales considres sont bien dfinies.
(f, g) 7

f (x)P g(x) d(x)

est une forme bilinaire sur 2 (). Cest aussi une forme continue car,
daprs Cauchy-Schwarz,
|

f (x)P g(x) d(x)| f 2, P g2, f 2, g2, .

Il en est de mme pour (f, g) 7 g(x)Qf (x) d(x). Ainsi, lensemble


des (f, g) 2 () 2 () tels que

f (x)P g(x) d(x) =

Qf (x)g(x)

est un ferm de 2 ()2 () muni de la topologie produit. Si on trouve


une partie D de 2 () telle que
f, g D

f (x)P g(x) d(x) =

Qf (x)g(x),

on aura gagn car lidentit se prolongera alors D D = D D =


2 () 2 ().

On a P j (x) = iS px,i j (i) = px,j , ce qui nous donne

i (x)P j (x) d(x) =

i (x)px,j (x) = pi,j (i).

xS

De mme Qi (x) = qx,i et

j (x)Qi (x) d(x) =

j (x)qx,i (x) = qj,i (j).

xS

Or par hypothse (i)pi,j = (j)qj,i , donc lquation est vrifie pour


f et g de la forme (i )iS . Par bi-linarit, elle est encore vrifie si f
et g sont dans lensemble D des suites support fini. Or cet ensemble
est dense dans 2 (), ce qui donne le rsultat voulu.
3. Soit j S.
(i)
Si (j) > 0, on doit ncessairement avoir qj,i = (j)
pi,j

si (j) = 0, comme est invariante, on a (j) = k (k)pk,j


(i)pi,j , donc (i)pi,j = 0 pour tout i, ce qui fait que pour nimporte quel choix de qj,i , on aura (i)pi,j = 0 = (j)qj,i .

220

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


Ce dernier cas ne peut se produire si la chane est irrductible, car alors
charge tous les points : il y a donc unicit de lventuelle solution.
On fait ici le choix de poser qj,i = i,j si (j) = 0. Il reste voir quun
candidat ainsi construit nous donne bien une matrice markovienne.

Bien sr, les coecients sont tous positifs. Posons S(j) = iS qj,i . Si
(j) = 0, (j) = 1. Sinon,
S(j) =

(i)
iS

(j)

pi,j =

1
(i)pi,j .
(j) iS

Mais comme est invariante, iS (i)pi,j = (j), do S(j) = 1 :


Q = (qi,j ) est bien une matrice markovienne.
4. Quelles que soient les fonctions mesurables f et g, on a
E[f (Xk )g(Xk+1 )] = E[f (Xk )P g(Xk )]

f (x)P g(x) d(x)

0
1

Qf (x)g(x) d(x)
0

= E[Qf (Xk+1 )g(Xk+1 )]


Ce qui entrane E[f (Xk )|Xk+1 ] = Qf (Xk+1 ). Soit n > gek. Daprs le
lemme de Doob, il existe une fonction F telle que E[f (Xk )|Xk+1 , . . . , Xn ] =
F (Xk+1 , . . . , Xn ). Montrons que F ne dpend que de sa premire
coordonne. Quitte changer despace de probabilit, on peut supposer que (Xn ) est construite par une dynamique alatoire Xn+1 =
fn+1 (Xn ), o X0 suit la loi et (fn )n1 une suite de fonctions alatoires
indpendantes, indpendantes de X0 . Comme (fk+2 , . . . , fn ) est indpendant de (f (Xk ), Xk+1 ), on a E[f (Xk )|Xk+1 ] = E[f (Xk )|Xk+1 , fk+2 , . . . , fn ].
Mais (Xk+1 , fk+2 , . . . , fn ) = (Xk+1 , Xk+2 , . . . , Xn ), donc on obtient
E[f (Xk )|Xk+1 , . . . Xn ] = E[f (Xk )|Xk+1 ] = Qf (Xk+1 ).
Si pour 0 k n, on pose Zk = Xnk , on a donc

)|Zk , . . . Z0 ] = Qf (Zk ),
E[f (Zk+1

ce qui montre que (Zk )0kn ) est une chane de Markov qui a le mme
oprateur de transition que (Xn )n0 . Comme la loi initiale est la mme,
on a lgalit en loi entre (Z0 , . . . Zn ) et (X0 , X1 , . . . , Xn ), soit donc
entre (Xn , Xn1 , X0 ) et (X0 , X1 , . . . , Xn ).
Si P = Q, le systme est alors rversible : on retrouve le fait que pour
une mesure initiale rversible, (Xn , Xn1 , X0 ) et (X0 , X1 , . . . , Xn ) ont
mme loi.

B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES221


5. Daprs la question 3., on peut toujours construire une matrice markovienne conjugue P . La question 4. donne alors le rsultat voulu.
Solution 89
1. Notons Fm = (X0 , . . . , Xm ). T m prend a priori ses
valeurs dans N {+}. Pour tout entier k 1, on a
k1

{T m = k} = {

1A (Xk ) = m 1, Xk A} Fk ,

i=0

Donc T m est un temps darrt adapt la filtration (Fm )m0 . Montrons par rcurrence que T m est Px -presque srement fini. Cest vrai
pour m = 0 et m = 1. Supposons T m1 < + Px -presque srement.
On a
{Tm < +} = {Tm1 < +, ; n 1; XTm1 +n A},
donc avec la proprit de Markov forte, on a Px presque srement
Px (Tm < +|FTm ) = Px (Tm1 < +)PXTm1 (; n 1; XTm1 +n A)
= 1.PXTm1 (T 1 < +) = 1,
et en rintgrant Px (Tm < +) = Ex [Px (Tm < +|FTm )] = 1, ce qui
montre par rcurrence la proprit voulue. Enfin, pour tout borlien
B, on a
{XT m B, T m n} = ni=1 {Xi B} {T m = i}.
Mais pour tout i entre 1 et n, {Xi B} {T m = i} Fi Fn ,
donc {XT m B, T m n} Fn , ce qui montre que {XT m B}
FT m . Comme cest vrai pour B borlien quelconque, XT m est FT m mesurable. On a vu en cours que T m tait FT m -mesurable. Maintenant, si k m, comme T k T m , on a linclusion FT k FT k FT m , ce
qui entrane que pour k m, T k et XT k sont FT m -mesurables.
2. En utilisant la proprit de Markov forte, on a
Px (XT m+1 = y|FT m ) =
=

n=1
+

Px (inf{i 1; XT m +i A} = n, XT m +n = y|FT m )
PXT m (inf{i 1; Xi A} = n, Xn = y)

n=1
XT m

=P

(XT 1 = y)

222

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


Ainsi, si on pose qx,y = Px (XT 1 = y), on a Px (XT m+1 = y|FT m ) =
qXT m ,y . Daprs la question prcdente, (XT 0 , . . . XT m ) est une soustribu de FT m , donc
Px (XT m+1 = y|(XT 0 , . . . XT m )) = Ex (Px (XT m+1 = y|FT m )|(XT 0 , . . . XT m ))
= Ex (qXT m ,y |(XT 0 , . . . XT m ))
= qXT m ,y
3. Comme les (TAm )m1 sont tous les moments o (Xn ) passe dans A, le
premier moment (sil existe) o Xn vaut x est un Tk , do
Tx =

(TAk+1 TAk )1{S>k} ,

k=0

o S = inf{n 1; Yn = x}. Comme les termes sont positifs, on a


Ex (Tx ) =

Ex [(TAk+1 TAk )1{S>k} ],

k=0

{S > k} = ki=1 {XTi = x},


donc {S > k} est FT k mesurable, comme intersection dvnements
FT k mesurables. On a donc
Ex [(TAk+1 TAk )1{S>k} |FTk ] = 1{S>k} Ex [(TAk+1 TAk )|FTk ].
Mais TAk+1 TAk = inf{n 1; XTAk +n A}, donc avec la proprit de
Markov forte, on a
XT k

Ex [(TAk+1 TAk )|FTk ] = E

XT k

inf{n 1, Xn A} = E

TA1 .

Ainsi, si on pose = max{E x (T 1 ); x A}, on a Ex [(TAk+1 TAk )1{S>k} |FTk ]


1{S>k} , et en rintgrant
Ex [(TAk+1 TAk )1{S>k} ] Px (S > k),

x
x
do en faisant la somme Ex (T x ) +
k=0 P (S > k) = E (S). Mais
S est le temps de retour en x pour une chane de Markov irrductible
sur un espace dtat fini : il est donc intgrable, car une chane de
Markov irrductible sur un espace dtats fini est toujours rcurrente
positive. On a donc E x (Tx ) < +, ce qui montre que la chane (Xn )
elle-mme est rcurrente.

B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES223


Solution 90

1. (a) On a
f (XnT ) f (X0 ) =
=
=

nT

i=1
n

i=1
n

(f (Xi ) f (Xi1 ))
1{iT } (f (Xi ) f (Xi1 ))
1{i1<T } (f (Xi ) f (Xi1 ))

i=1

En prenant lesprance, on a
E(f (XnT ) f (X0 )) =

i=1

E 1{i1<T } (f (Xi ) f (Xi1 ))


( (

E E 1{i1<T } f (Xi ) f (Xi1 )|Fi1

))

i=1

o lon a pos Fn = (X0 , . . . , Xn ). Mais


(

E 1{i1<T } (f (Xi ) f (Xi1 )|Fi1 = 1{i1<T } E ((f (Xi ) f (Xi1 )|Fi1 )


1{i1<T } ,
ce qui en rintgrant donne lingalit voulue.
(b) On a pour tout n 1,
n

i=1

P(T > i 1) =

P(T (n 1) > i 1) = E[T (n 1)],

i=1

do E(T (n 1)) Ef (X0 ) Ef (XT n ) Ef (X0 ), soit


E(T (n 1))

Ef (X0 )
.

En faisant tendre n vers linfini, on obtient par convergence mo0)


.
notone E(T ) Ef (X

2. (a) On suppose E[f (X0 )] < +. On montre lintgrabilit de fM (Xi )1{i1<T }


par rcurrence sur i. Pour i = 0, cest vident Posons fM = f M .
Avec le thorme 70, on a
E[fM (Xi )1{i1<T } |Fi1 ] = 1{i1<T } E[fM (Xi )|Fi1 ]
= 1{i1<T } (P fM )(Xi1 )

(B.1)
(B.2)

224

ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS


On en dduit
E[fM (Xi )1{i1<T } |Fi1 ] 1{i1<T } (P fM )(Xi1 )
f (Xi1 )1{i1<T } f (Xi1 )1{i2<T } ,
do en intgrant E([fM (Xi )1{i1<T } ) E[f (Xi1 )1{i2<T } ]. En
passant au sup en M , on obtient
E([f (Xi )1{i1<T } ) f (Xi1 )1{i2<T } < +.
Avec le thorme de convergence domine conditionnel,(B.1) entrane E[f (Xi )1{i1<T } |Fi1 ] = (P f )(Xi1 )1{i1<T } . Par linarit,
on a alors
(

E 1{i1<T } (f (Xi ) f (Xi1 )|Fi1 = 1{i1<T } ((P f )(Xi1 ) f (Xi1 ))


1{i1<T } ,
et la preuve de 1) et 2) se poursuit sans modification notable,
puisquon a vrifi les intgrabilits plus subtiles.
(b) Soit N > max(f (x); x M ). Si TN est le temps dentre dans
M = M {x E : f (x) N }, le 1.(a) nous donne pour tout n :
E(f (XnTN )) Ef (X0 ), do
N P(N < T, TN n) = E(f (XnT )1{N <T,TN n} )) Ef (X0 )
T est le temps dentre dune chane irrductible dans le complmentaire dun ensemble fini : il est presque srement fini. En
faisant tendre n vers linfini, on obtient N P(N < T ) Ef (X0 ).
Maintenant
P (T = +) = P(T = +, TN < +) P(N < T ) (Ef (X0 ))/N.
En faisant tendre N vers linfini, on obtient P(T = +) = 0.
(c) Daprs la premire question Px (TM < +) pour tout x M ,
donc pour x M , on peut faire partir une chane (Xn ) de x et
construire avec lexercice prcdent la suite (Yn ) des sites de M
successivement visits. (Yn ) est une chane de Markov irrductible
dun espace dtat fini : elle est donc rcurrente et passe une infinit
de fois en x. Par suite, la chane (Xn ) elle-mme passe une infinit
de fois en x et donc ltat x est rcurrent. Si > 0, on a pour
tout x M , Ex TM < +, et donc avec lexercice prcdent x est
rcurrent positif. Comme la chane est irrductible la rcurrence
(ou la rcurrence positive) dun tat entrane celle de la chane
elle-mme.

Annexe C
Problmes
C.1

Problme 1 : nombres de Stirling

Partie I Soit X0 une variable alatoire valeurs dans N, (Un )n1 une suite
de variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. On
suppose de plus que X0 est indpendante de (Un )n1 . On dfinit une suite
de variables alatoires (Xn )n0 par la donne de X0 et la rcurrence Xn+1 =
Ent(Un Xn ).
1. Montrer que lon obtient ainsi une chane de Markov.
Dans la suite, on notera PN la loi sur lespace canonique de la chane
de Markov associe cette dynamique qui vrifie PN (X0 = N ) = 1.
2. On note T = inf{n 0; Xn = 0}. Montrer que PN (T < +) = 1.
3. On note n la fonction gnratrice de T sous la loi Pn , cest dire
n (x) = En [xT ]. laide de la proprit de Markov, tablir la formule
de rcurrence

x n1
n (x) =
i (x).
n i=0
4. Montrer que
n 0 x [0, 1] n (x) = Pn (x),
o la suite de polynmes (Pn )n0 est dfinie par P0 = 1 et Pn (X) =
X(X+1)...(X+n1)
pour n 1.
n!
[ ]

5. On dfinit les nombres de Stirling de premire espce


X(X 1) . . . (X n + 1) =

[ ]
n

n
k=1

225

n
par lidentit
k

X k.

226

ANNEXE C. PROBLMES
Montrer que

[ ]

(1)n+k n
P (T = k) =
.
k
n!
n

6. Montrer que pour tout n 1, on a


En [T ] =

1
k=1

Partie II On a N cartes avec des chires numrots de 1 N . On tire


au hasard une premire carte et on la garde. Ensuite, on tire au hasard les
cartes, et si le chire est infrieur la premire carte, on la garde, sinon, on
la jette. Et ainsi de suite, on jette toute carte de valeur suprieure la plus
grande des cartes tires prcdemment, jusqu puisement du paquet. On
sintresse au nombre final F de cartes gardes.
1. Montrer comment on peut modliser le problme laide de la loi
uniforme sur S(N ), avec
F () = |{i {1, . . . , N }; j < i = (i) < (j)}|.
2. On dfinit une suite (Zn )n0 par rcurrence comme suit :
On pose Z0 = N et pour k 1,
Zk = min((1), (2), . . . , (k)) 1,
avec la convention (i) = + pour i > N .
Montrer que n N j {0, . . . , N }
P(Zn+1 = j|(1), . . . , (n)) =

1
N n Zn
1{j<Zn } +
1{j=Zn } .
N n
N n

En dduire que (Zn )n0 est une chane de Markov.


3. On dfinit la suite (Tk )kN par rcurrence comme suit : on pose T0 = 0
et
Tk+1 = Tk + 1{ZTk >0} min{n 0, ZTk +n = ZTk },
avec la convention 0. = 0. Montrer que la suite (ZTk )k0 a la mme
loi que la suite (Xn )n0 tudie en I sous la loi PN .
4. Montrer que F = inf{k 1; ZTk = 0}.
5. Montrer que {F = k} est en bijection avec les lments de S(N )
possdant exactement k cycles.
6. Dmontrer alors linterprtation combinatoriale
des nombres de Stir[ ]
n
ling de premire espce : (1)n+k
est le nombre de permutations
k
de n objets ayant exactement k cycles.

C.2. PROBLME 2 : THORME DERDS, FELLER ET POLLARD227

C.2

Problme 2 : thorme dErds, Feller et


Pollard

Processus de renouvellement
Soit (Un )n1 une suite de variables alatoires indpendante suivant la loi .
On suppose que pgcd(n 1; (n 1) > 0) = 1. Soit une loi quelconque
sur N. On dfinit une suite (Xn )n0 par la donne de X0 suivant la loi et
indpendante de (Un )n1 , puis, pour n 0

si Xn = 0
n+1
Xn+1 =
Xn 1 sinon
1. Montrer que (Xn )n0 est une chane de Markov de loi initiale . crire
sa matrice.
2. Montrer que la chane est irrductible et apriodique.
3. La chane est-elle transiente, rcurrente ?
4. Montrer que
k N P (X1 = k) = (k + 1) + (0)(k).
5. Montrer que si (0) = 0, alors la chane nest pas stationnaire.
6. Pour k 0, on note
Tk = inf{n 1; Xn = k}.
Montrer que sous P0 , T0 et 1 + X1 ont mme loi.
7. En utilisant les questions prcdentes, montrer que si la chane admet
une mesure invariante, alors admet un moment dordre 1 et on a la
1
relation (0) = 1+E[U
.
1]
8. Rciproquement, montrer que si admet un moment dordre 1, alors
la chane admet une mesure invariante.
Indication : on pourra considrer la mesure dfinie par
(k) =

P(U1 k)
.
1 + E[U1 ]

n1
Xk
9. Montrer que si admet un moment dordre 1, la suite n1 k=0
converge presque srement vers une limite que lon dterminera.
10. On pose pk = P0 (T0 = k) et qk = P0 (Xk = 0). tablir la rcurrence

q0 = 1 et n 1 qn =

k=1

pk qnk
.

228

ANNEXE C. PROBLMES

11. Dmontrer le thorme de renouvellement, appel galement, en lhonneur de ses auteurs, thorme dErds, Feller et Pollard :
Soient X1 , . . . , Xn . . . des variables alatoires indpendantes identiquement distribues avec P(X1 = k) = pk . On suppose que 0 <
E[X1 ] < + et que le pgcd des lments du support de X1 est 1.
On note
Sn = X1 + X2 + + Xn et Nk =

1
.
n=1 {Sn =k}

Alors, si on pose
z BF (0, 1) P (z) =

pn z n

n=0
+

1
et Q(z) =
=
qn z n ,
1 P (z) n=0

on a E[Nk ] = qk et limk+ qk =

C.3

1
.
E[X1 ]

Problme 3 : thorme de De Finetti


HewittSavage

Soit = RN lespace canonique. Pour n N , on note Xk la projection


de sur la k-ime coordonne : Xk () = k . On note Sn lensemble des
permutations de N qui laissent invariants point par point les lments de
{n + 1, . . . , }. Pour Sn et , on note T () = ((k) )k1 et
In = {A B(); Sn

T (A) = A}.

On note enfin
I = n1 In et S = n1 Sn .
On dit quune mesure P sur (, B()) est changeable si
S

PT = P.

(C.1)

On dit dune famille de variables (Xn )n1 dfinies sur un espace (, F, P)


quelconque quelle est changeable si pour tout n et pour tout Sn , les
vecteurs (X1 , . . . , Xn ) et (X(1) , . . . , X(n) ) ont mme loi (sous P).
1. Vrifier que la famille de variables (Xk )k1 est changeable si et seulement si sa loi est changeable. Ds lors, pour tudier les proprits des
familles de variables changeables, il sut dtudier les proprits des
lois changeables sur lespace canonique.

C.3. PROBLME 3 : THORME DE DE FINETTIHEWITTSAVAGE229


2. On se donne donc une mesure de probabilit changeable sur lespace
canonique = RN . On se propose de montrer que, conditionnellement
la tribu I des vnements invariants par les permutations support
fini, les variables Xi sont indpendantes, cest dire que pour tout p,
si f1 , . . . , fp sont des fonctions mesurables bornes de R dans R, on a
E(

fi (Xi )|I) =

i=1

E(fi (Xi )|I).

i=1

(a) Montrer que (In )n1 est une suite dcroissante de tribus.
(b) Soit n 1, F une fonction (, B()) (R, B(R)) mesurable telle
que F T = F pour tout Sn . Montrer que F est In -mesurable.
(c) Soit n un entier naturel non nul et f une fonction borne de R
dans R. Montrer que pour tout A In et tout k entre 1 et n,
E[1A f (X1 )] = E[1A f (Xk )]. En dduire que pour tout i entre 1 et
n,
n
1
E[f (Xi )|In ] =
f (Xk ).
n k=1

(d) laide dun thorme de martingales, montrer que n1 nk=1 f (Xk )


converge presque srement vers E[f (X1 )|I], qui concide avec E[f (Xi )|I]
pour tout entier naturel non nul i.
(e) Soient f1 , . . . , fp des fonctions mesurables bornes de R dans R.
Pour n p, Notons In,p lensemble des injections de {1, . . . , p}
dans {1, . . . , n}. Montrer que
(

fi (Xi )|In =

i=1

|In,p | gIn,p i=1

fi (Xg(i) )

et tudier le comportement asymptotique lorsque n tend vers linfini.

1
(f) Comparer |In,p
|
En dduire que

lim

n+

gIn,p

i=1

fi (Xg(i) ) et

|In,p | gIn,p i=1

1
g{1,...,n}p
np

fi (Xg(i) ) =

E(

i=1

fi (Xi )|I) =

i=1

i=1

E(fi (X1 )|I).

i=1

(g) Montrer enfin que


p

E(fi (Xi )|I).

fi (Xg(i) ).

230

ANNEXE C. PROBLMES
(h) En suivant les notations introduites dans le thorme 36, pour
, on note PI la valeur au point dune loi conditionnelle de

P sachant la tribu I. On note alors M = ((PI )X1 )N . Montrer


que pour tout A B(), A 7 M (A) est mesurable et que
P(A) =

M (A) dP(),

Ainsi, la mesure P apparat comme un mlange de mesures produits.


3. Retour sur lurne de Plya
On suppose maintenant que P est la loi du processus des tirages (Ti )
dans le modle durne de Plya vu lexercice 24.
(a) Vrifier que P est changeable.
(b) Montrer que sachant I, les variables alatoires (Ti )i1 sont des
variables alatoires indpendantes dont la loi est donne par le
vecteur de probabilit W .

Annexe D
Solutions des problmes
D.1

Solution du problme 1

Partie I
1. La rcurrence scrit Xn+1 = F (Xn , Un ), avec (Un )n0 iid et indpendant de X0 , avec F (x, y) = Ent(x, y)
2. Si Xn > 0, on a presque srement Un Xn < Xn , or Xn est entier, donc
Xn+1 = Ent(Un Xn ) < Xn Xn 1, do T X0 = N et on a bien
PN (T < +) = 1.
3. Pour tout n, on a Pn (0 X1 < N ) = 1, donc
En [xT ] =
=
=
=
=
=

n1

i=0
n1

i=0
n1

i=0
n1

i=0
n1

En [1{X1 =i} xT ]
En [1{X1 =i} x1+T ]
En [(1{X1 =i} x)xT ]
En [(1{X1 =i} x]Ei [xT ]
xPn (X1 = i)i (x)

i=0
n1

x
n

i=0

4. Preuve par rcurrence.


231

i (x)

232

ANNEXE D. SOLUTIONS DES PROBLMES

5. Pn (x) = n (x) = En [xT ] = nk=0 Pn (T = k)xk , donc Pn (T = k) est le


coecient en xk du polynme Pn (x). Mais comme
[ ]
n

X(X 1) . . . (X n + 1) =

k=1

X k,

par substitution
(X)(X 1) . . . (X n + 1) =

[ ]
n

n
k=1

(1)k X k ,

et en multipliant par (1)n :


X(X + 1) . . . (X + n 1) =

[ ]
n

n
k=1

(1)n+k X k ,

ce qui nous permet didentifier le coecient voulu et donne bien


[ ]

(1)n+k n
.
P (T = k) =
k
n!
n

6. Daprs les proprits de la fonction gnratrice, on a


En [T ] = n (1) = Pn (1). Or
n1
n

1
P (1) n1
1
Pn
=
, donc n
=
=
,
Pn
Pn (1)
i=0 X + i
i=0 1 + i
k=1 k

Comme Pn (1) = 1, on a donc finalement


En [T ] =

1
k=1

Partie II
1. F () est le nombre de records descendants de la permutation .
2. On a
P((n + 1) = an+1 |(1) = a1 , . . . , (n) = an )
|{ SN : (1) = a1 , . . . , (n + 1) = an+1 }|/N !
=
|{ SN : (1) = a1 , . . . , (n) = an }|/N !
(N (n + 1))!
1{an+1 {a1 ,...,an }}
=
(N n)!
1
=
1{a {a ,...,a }}
N n n+1 1 n

D.1. SOLUTION DU PROBLME 1

233

Notons m = min(a1 , . . . , an ). Si j = m 1,
P(Zn+1 = j|(1) = a1 , . . . , (n) = an )
= P(Xn+1 > m|(1) = a1 , . . . , (n) = an )

P(Xn+1 = a|(1) = a1 , . . . , (n) = an )


=
a>m,a{a1 ,...,an }

N m (n 1)
N nj
=
N n
N n

et si j < m 1, on a
P(Zn+1 = j|(1) = a1 , . . . , (n) = an )
= P(Xn+1 = j + 1|(1) = a1 , . . . , (n) = an )
1
=
,
N n
ce qui donne lidentit
P(Zn+1 = j|(1), . . . , (n)) =

1
N n Zn
1{j<Zn } +
1{j=Zn } .
N n
N n

La tribu Fn engendre par Z1 , . . . Zn est une sous-tribu de la tribu


engendre par (1), . . . (n), donc
P[Zn+1 = j|Fn ] = E[P(Zn+1 = j|(1), . . . , (n))|Fn ]
1
N n Zn
= E[
1{j<Zn } +
1{j=Zn } |Fn ]
N n
N n
1
N n Zn
=
1{j<Zn } +
1{j=Zn }
N n
N n
= pZn ,j ,
avec pi,j = N 1n 1{j<i} +
une chane de Markov.

N ni
1{j=i} ,
N n

ce qui montre que (Zn )n0 est

3. 0 est lunique point absorbant de la chane (Zn )n0 . Yk = ZTk est


la suite (Zn )n0 observe quand elle bouge ou est morte (voir exercice 91). Ainsi, (Yk )k0 est une chane de Markov de matrice (qi,j )
donne par

0,j

qi,j =

0,

pi,j
1pi,i

si i = 0
si i = j > 0 ,
si i > 0, i = j

234

ANNEXE D. SOLUTIONS DES PROBLMES


ce qui nous donne ici

0,j

qi,j = 0,

1
i

si i = 0
si j i > 0 .
si i > 0, j < i

4. La chane (Zn ) bouge losquelle descend : le nombre de mouvements


est donc le nombre de records descendants.
5. Soient r1 , r2 , . . . rk les k records de : on peut associer la permutation = (1 = r1 . . . r2 1)(r2 . . . r3 1) . . . (rk . . . N ).
On retrouve les rk , et donc , partir de : rk = (1), rk1 = (rk ),
rk2 = (rk1 ), . . . . Ainsi 7 est injective.
Voyons la surjectivit. Je pose rk = 1, rk1 = min{1, . . . N }\O (rk ),
rk2 = min{1, . . . N }\(O (rk1 ) O (rk )),. . . on associe la permutation
(

12 . . . . . . . . . . . .
r1 (r1 ) 2 (r1 ) . . .

............
...
r2 (r2 ) 2 (r2 ) . . . . . .

.........N
rk (rk ) . . .

Cest la rciproque.
6. Daprs la question II.3., comme (Xn )n0 a la mme loi que (Yn ))n0 ,
F a la mme loi que T . Do avec I.5 :
[

(1)N +k N
.
P(F = k) = PN (T = k) =
k
N!
[

N
Donc (1)
est le nombre de permutations avec k records,
k
donc daprs II.5 le nombre de permutations possdant exactement k
cycles.
N +k

D.2

Solution du problme 2

1. Si lon pose fn (x) = x 1 + (1 x + Un )0 (x), (fn ) est une suite de


fonctions indpendantes identiquement distribues, indpendantes de
X0 et on a Xn+1 = fn+1 (Xn ). (Xn )n0 est donc une chane de Markov
de loi initiale PX0 = . La loi de Xn+1 sachant Xn = x est x1 si

D.2. SOLUTION DU PROBLME 2

235

x > 0, sinon, ce qui donne la matrice de passage :

(0) (1) (2) . . . . . . . . .


1
0
... ... ... ...

...

..

..
..
..
.

.
.
.

..
..
.. ..
.
.
.
.
2. Soit n N . 0 x car P0 (X1 = n) = (n) > 0. Dautre part, n 0
car Pn (X1 = n 1, X2 = n 2, . . . , Xn = 0) = 1. La chane est donc
irrductible. Comme la chane est irrductible, elle admet la priode
de 0 comme priode, mais la priode de 0 est 1 car P0 (X1 = 0) =
(0) > 0.
3. Notons A = {k 1; Xk = 0}. On a vu que pour tout n > 0,
Pn (X1 = n 1, X2 = n 2, . . . , Xn = 0) = 1 On en dduit que pour
tout n > 0 Pn (A) = 1. Maintenant
P0 (A) =

P0 (X1 = j; k 1; Xk = 0)

j=0

= P (X1 = 0) +
0

P0 (X1 = j; k 2; Xk = 0)

j=1

= P0 (X1 = 0) +

P0 (X1 = j)Pj (A)

j=1

Mais on a vu que pour tout j > 0, Pj (A) = 1, donc finalement


P0 (A) =

P0 (X1 = j) = 1,

j=0

ce qui montre que 0 est rcurrent. Comme la chane est irrductible, la


chane est donc rcurrente. Elle nest donc videmment pas transiente.
4. Pour tout j
/ {0, k + 1},
P (X0 = j, X1 = k) = (j)Pj (X1 = k) = j j1 (k) = 0.
On a donc
P (X1 = k) = P (X0 = 0, X1 = k) + P (X0 = k + 1, X1 = k)
= (0)P0 (X1 = K) + (k + 1)Pk+1 (X1 = k)
= (0)(k) + (k + 1)

236

ANNEXE D. SOLUTIONS DES PROBLMES


5. La chane est stationnaire si et seulement si PX 1 = . Daprs la
question prcdente, est stationnaire si et seulement si
k N (k) = (0)(k) + (k + 1).
Si la chane tait stationnaire avec (0) = 0, on aurait
k N (k) = (k + 1),
ce qui donne par rcurrence k N (k) = 0 : contradiction.
6. En fait sous P0 , on a T0 = 1 + X1 . En eet, si X1 = 0, on a T0 =
1 = 1 + X1 . Dautre part si X1 = k, avec k > 0, on a : X2 =
k 1, X3 = k 2, . . . , Kk = k (k 1) = 1, Xk+1 = k k = 0, do
T0 = k + 1 = X0 + 1.
7. Comme la chane de Markov est irrductible, si elle admet une probabilit invariante , on a ncessairement (0) = E01T0 . Mais on a vu
que si la chane admettait une probabilit invariante , on aurait ncessairement (0) > 0. Cela impose que E0 T0 < +. Mais comme on
la vu, 1 + X1 et T0 ont mme loi sous P 0 . Donc (E0 T0 < +)
(E0 1 + X1 ) < +) E0 X1 < +, ce qui signifie que admet
un moment dordre 1. Dautre part, on a bien
(0) =

1
E0 T0

1
.
1 + EX1

8. Considrons la mesure dfinie par


(k) =

P(X1 k)
.
1 + EX1

Montrons que est une probabilit : elle est videmment positive et

(k) =

k0

1
P(X1 k)
1 + EX1 k=0

1
=
P(1 + X1 > k)
1 + EX1 k=0
1
=
E(1 + X1 )
1 + EX1
= 1

Il reste vrifier que


k N (k) = (0)(k) + (k + 1),

D.2. SOLUTION DU PROBLME 2

237

cest dire que


k N (k) =

1
(k) + (k + 1),
E(1 + X1 )

en multipliant par E(1 + X1 ), on se ramne vrifier la condition


quivalente :
k N P(X1 k) = (k) + P(X1 k + 1),
soit
k N P(X1 k) = P(X1 = k) + P(X1 k + 1),
ce qui est vident car X1 est valeurs entires.
9. Si a un moment dordre 1, on a vu que la chane de Markov est
irrductible, de loi invariante , et on peut appliquer le thorme ern
godique des chanes de Markov : X1 ++X
converge presque srement
n
(quelque soit la loi initiale) vers R+ x d(x).
10. Si Xn = 0, on a T0 n. Ainsi les vnements ({T0 = k} {Xn =
0})1kn forment une partition de {Xn = 0}. On a donc
P0 (Xn = j) =
=
=

k=1
n

k=1
n

P0 (T0 = k, Xn = 0)
P0 (T0 = k, Xn = j)
P0 (T0 = k)Pj (Xnk = 0)(proprit de Markov forte)

k=1

On applique ici la proprit de Markov forte avec le temps darrt T0 .

n
11. Prliminaire : si f (z) = +
n=0 an z est une srie entire de rayon de
convergence R, alors pour tout r ]0, R[ et tout entier naturel k,
on a

1 2
f (rei )eik d.
2 0
Cela peut tre vu comme une version simple de la formule de Cauchy,
mais on peut aussi le voir simplement partir de lidentit
ak = rk

f (rei )eik =

n=0

an rn ei(nk) .

238

ANNEXE D. SOLUTIONS DES PROBLMES


En eet
|

rn ei(nk) |

n=0

|an |rn

n=0

et on peut appliquer le thorme de convergence domine, puisque la

n
fonction constante +
n=0 |an |r est bien sr intgrable sur [0, 2].
La fonction gnratrice de X1 est P , donc par indpendance, la fonction gnratrice de Sn est P (z)n , soit
+

P (z)n =

P(Sn = k)z k ,

k=0

avec la remarque prcdente, pour r ]0, 1[ quelconque, on a


P(Sn = k) = r

1 2
P (rei )n eik d.
2 0

Avec lingalit triangulaire, on a


|P (rei )|

pn r n

n=0

pn 1n = 1,

n=0

car pn rn pn 1n pour tout n, mais il existe au moins un n 1 tel que

n
pn = 0 et donc pn rn < pn 1n : finalement +
n=0 pn r = P (r) < 1.
On peut donc crire :
N
1

P(Sn = k) = r

n=0

1
2

1 P (rei )N ik
e
d.
1 P (rei )

Il ny a pas de problme dintgrabilit : |1P (rei )| 1|P (rei )|


1 P (r) > 0. En faisant tendre N vers linfini (par exemple convergence domine, ou la main), on obtient
1
1 2
eik d
P(Sn = k) = r
i
2 0 1 P (re )
n=0
2
k 1
= r
Q(rei )eik d
2 0
= qk .
+

Avec Tonelli, on a alors


E[Nk ] =

n=1

E[1{Sn =k} ] =

n=1

P(Sn = k) = qk .

D.2. SOLUTION DU PROBLME 2

239

Reste tudier le comportement asymptotique. On sintresse dabord


au cas o p0 = 0.
Posons pour n N, (n) = pn+1 . On a pgcd(n 1; (n 1) >
0) = pgcd(n 1; pn > 0) = 1, donc on peut appliquer les questions
prcdentes. On avait remarqu que la suite (pk ) vrifie pk = (k 1),
donc on a en fait pk = pk pour tout k. Montrons que qn = qn pour
tout n : on a lidentit (1 P (z))Q(z) = 1, soit Q(z) = 1 + P (z)Q(z).
En identifiant les coecients (produit de Cauchy), on a
qn = 0 (n) +

pk qnk .

k=0

q0 = Q(0) =

1
1P (0)

1
1p0

1
10

qn =

= 1. Pour n 1, on a

pk qnk

k=1

Comme
qn =

pk qnk
=

k=1

pk qnk
,

k=1

il est alors facile de montrer par rcurrence que qn = qn pour tout


n. Or, daprs le thorme de convergence des chanes de Markov
irrductibles,
lim qn = (0) =

n+

1
1
1
=
=
,
1 + E[U1 ]
E[(1 + U1 )]
E[X1 ]

ce qui dmontre le thorme de Erds, Feller et Pollard dans le cas o


p0 = 0.
pk
Passons au cas gnral. On pose p0 = 0 et pk = 1p
pour k 1. Les
0
(
pk ) dfinissent bien une probabilit sur N, qui vrifie les hypothses
de la partie prcdente : si on pose
z BF (0, 1) P (z) =

pn z n et z B(0, 1) Q(z)
=

n=0

1
=
qn z n ,
1 P (z) n=0

on a limk+ qk = E[X
k . On a facilement
1 ] , avec P(X1 = k) = p
1p0
1 ] = E[X1 ] , do lim
E[X
k = E[X
Cependant P (z) = p0 + (1 +
k+ q
1p0
1]
1

Q(z),
ce qui entrane qn = 1 qn . Finalep0 )P (z), do Q(z) =
1p0

ment, on a bien limk+ qk =

1
.
E[X1 ]

1p0

240

ANNEXE D. SOLUTIONS DES PROBLMES

D.3

Solution du problme 3

1. Notons n la projection canonique de sur Rn .


Supposons que PX est changeable. Soit n 1 et Sn quelconque.
On a (X(1) , . . . , X(n) ) = n T , donc P(X(1) ,...,X(n) ) est la loi image
de PT par n . Comme P est changeable, cest la loi image de P par
n , cest dire P(X1 ,...,Xn ) . Comme n et Sn sont quelconques, on
a bien montr que la famille (Xn )n1 est changeable.
Rciproquement, supposons que la famille (Xn )n1 est changeable.
On sait bien que pour identifier les probabilits PT et P, il sut de
les identifier sur les vnements cylindriques, (X1 , . . . , Xn ) A, o n
dcrit N et A lensemble des borliens de Rn . Or P((X1 , . . . , Xn )
A) = P(X1 ,...,Xn ) (A) et
PT ((X1 , . . . , Xn ) A) = P((X1 , . . . , Xn ) T A)
= P((X(1) , . . . , X(n) ) A)
= P(X(1) ,...,X(n) ) (A),
et P(X1 ,...,Xn ) et P(X(1) ,...,X(n) ) concident, daprs lhypothse dchangeabilit de la famille (Xn )n1 . Cela montre le rsultat voulu.
2. (a) Cest une consquence de la dfinition de In et de linclusion Sn
Sn+1 .
(b) Soit B B(R) ; pour tout Sn , on a 1 Sn , avec T1 = T1 .
On a alors
1
F 1 (B) = (F T1 )1 (B) = T1
(B)) = T (F 1 (B)).
1 (F

Comme peut tre pris quelconque dans Sn , cela montre que


F 1 (B) In . Comme B est un borlien quelconque, F est In mesurable.
(c) Soit la transposition qui change les points 1 et k. Comme P est
invariante par T ,
E(1A f (X1 )) = E(1A f (X1 ) T ) = E(1A T .f (X1 ) T ).
Or f (X1 ) T = f X1 T = f Xk = f (Xk ) et 1A T =
1T1 (A) = 1A car A In . Finalement, E(1A f (X1 )) = E(1A f (Xk )).
Soit i entre 1 et n : on a E(1A f (Xi )) = E(1A f (X1 )) = E(1A f (Xk )).
En sommant pour k variant de 1 n et en divisant par n, on a

D.3. SOLUTION DU PROBLME 3

241

E(1A f (Xi )) = E(1A

n
1
f (Xk )).
n k=1

Ainsi, si lon pose F = n1 nk=1 f (Xk ),on a E(1A f (Xi )) = E(1A F )


pour tout A In . Si on montre que F est In -mesurable, on saura
alors que F est un reprsentant de lesprance conditionnelle de
f (Xi ) sachant In .
Pour Sn et k quelconque, on a
Xk T = X1 (k)

(D.1)

Notons cette formule, qui resservira. Maintenant,


F T =

n
n
n
1
1
1
f (Xk ) T =
f (X1 (k) ) =
f (Xk ) = F.
n k=1
n k=1
n k=1

En eet, un lment de Sn induit en restriction une permutation


de {1, . . . , n}. Le rsultat dcoule alors de (2b).
(d) Soit i un entier naturel fix. Comme la suite (In )n1 , la suite
E(f (Xi )|In ), le thorme de convergence des martingales inverses
entrane que la suite E(f (Xi )|In ) converge presque srement vers

E(f (Xi )|I). Or pour n i, E(f (Xi )|In ) = n1 nk=1 f (Xk ), donc la

suite ( n1 nk=1 f (Xk ))n1 converge presque srement vers E(f (Xi )|I).
Par unicit de la limite presque sre, on a pour tout i E(f (Xi )|I) =
E(f (X1 )|I) presque srement.
(e) Soit A In et g In,p . Soit une permutation de {1, . . . , n}, que
lon tend en un lment de Sn . On a
(

fi (Xg(i) )) T =

i=1

fi (X1 (g(i)) )).

i=1

On peut construire une permutation de {1, . . . , n} qui envoie 1


sur g(1), 2 sur g(2),. . .p sur g(p). Dans ce cas, on a lidentit
(

i=1

fi (Xg(i) )) T =

fi (Xi )).

i=1

Comme 1A T = 1A , en multipliant on a
(1A

i=1

fi (Xg(i) )) T = 1A

i=1

fi (Xi )),

242

ANNEXE D. SOLUTIONS DES PROBLMES


soit, en utilisant le thorme de transfert et linvariance de P par
T :
E(1A

fi (Xg(i) )) = E(1A

i=1

fi (Xi )).

i=1

En sommant pour g variant dans In,p et en divisant par |In,p |, on


obtient
E(1A G) = E(1A

fi (Xi )),

i=1

G=

|In,p | gIn,p i=1

fi (Xg(i) ),

Comme A est quelconque dans In , comme prcdmment, pour


montrer que G est un reprsentant de lesprance conditionnelle

de pi=1 fi (Xg(i) ) sachant In , il sut de montrer que G est In mesurable. Daprs (2b), il sut de montrer que G = G T pour
tout Sn . Or pour Sn , on a

F T =

|In,p | gIn,p i=1

fi (X1 (g(i)) ) =

|In,p | gIn,p i=1

fi (X(1 g)(i) ),

Or g 7 1 g g ralise une bijection de In,p dans lui-mme, donc


1

|In,p | gIn,p i=1

fi (X

( 1 g)(i)

)=

|In,p | gIn,p i=1

fi (Xi ) = F,

ce qui donne donc lidentit voulue. Daprs le thorme des mar


tingales inverses, la suite (E ( pi=1 fi (Xi )|In ))n1 converge presque

srement vers E ( pi=1 fi (Xi )|I) lorsque n tend vers linfini.


(f) Soit M = max(f1 , . . . , fp ). On pose An =

et Bn = g{1,...,n}p pi=1 fi (Xg(i) ).


Bn An =

g{1,...,n}p \In,p

gIn,p

i=1

fi (Xg(i) )

fi (Xg(i) ),

i=1

donc
|Bn An |

g{1,...,n}p \In,p

M p = (np |In,p |)M p = o(np ),

D.3. SOLUTION DU PROBLME 3

243

car |In,p | = n(n 1) . . . (n p + 1) np . Ainsi Anpn = Bnpn + o(1), et


p
n
n
comme |Inn,p | = 1+o(1), on a |IAn,p
= Bnpn +o(1) Comme |IAn,p
converge
|
p |
presque srement vers E ( i=1 fi (Xi )|I), il en est de mme pour
Bn
. Or, on peut rcrire
np
p
n

p
Bn
(f
(X
)/n)
=
(fi (Xj )/n).
=
i
g(i)
i=1
g{1,...,n}p
np
i=1
j=1

On a utilis ici la formule de dveloppement dun produit de sommes


en somme de produits.

Pour i quelconque entre 1 et p, on sait daprs (2d) que nj=1 (fi (Xj )/n) =

n
1
j=1 fi (Xj ) converge presque srement vers E(fi (X1 )|I). Finan

lement, Bnpn converge vers pi=1 E(fi (X1 )|I), ce qui donne le rsultat
voulu.
(g) On a vu en (2d) que pour f quelconque borne E(f (Xi )|I) =
E(f (X1 )|I). Cest vrai en particulier pour f = fi , donc la limite de

Bn
n
se rcrit pi=1 E(fi (X1 )|I). Comme cest aussi la limite de |IAn,p
np
|

qui est E ( pi=1 fi (Xi )|I), les deux expressions concident presque
srement.
(h) Soit E lensemble des
A B() tels que A 7 M (A) est mesu
rable, avec P(A) = M (A) dP().
E, car 7 M () est identiquement
nulle, donc mesu
rable et on a videmment 0 = 0 dP.
Si A E, M (Ac ) = 1 M (A), donc 7 M(Ac ) est
mesurable,
et M (Ac ) dP = (1 M ) dP() = 1 dP

M (A) dP() = 1 P(A) = P(Ac ), donc Ac E.


Soient (An )n1 , une suite dlments de E deux deux disjoints. Si on pose A = n1 Ai , on a pour tout a M (A) =

limn+ nk=1 M (Ak ), et donc 7 M (A) est mesurable


comme limite dapplications mesurables. Par convergence monotone, il vient

n

M (A) dP = lim

n+

M (Ak ) dP().

k=1

Or

n

M (Ak ) dP() =

k=1

do

M (Ak ) dP() =

M (A) dP = lim

n+

P(Ak ),

k=1

k=1

k=1

P(Ak ) =

k=1

P(Ak ).

244

ANNEXE D. SOLUTIONS DES PROBLMES


Ainsi A E.
On a donc montr que E est une tribu. Montrons que E contient

les cylindres C = pi=1 Bi RN \{1,...,p} , o les Bi sont des borliens


de R. Posons fi = 1Bi . On a
P(C) = E(

fi (Xi )) = E(E(

i=1

E(

fi (Xi )|I))

i=1

fi (Xi )|I) dP

i=1

i=1
p

i=1
p

=
=

E(fi (Xi )|I) dP, avec (2g).


E(fi (X1 )|I) dP, avec (2d).
E(1X 1 (Bi ) |I) dP,
1

i=1

Cependant, par dfinition de C et de la mesure produit infini, on

a pour tout , M (C) = pi=1 (PI )X1 (Bi ) = pi=1 (PI )(X11 (Bi ))
Mais on sait que PI (X11 (Bi )) est un reprsentant de E(1X 1 (Bi ) |I),
1
donc
p
M (C) =
p

(PI )(X11 (Bi ))

i=1

est un reprsentant de i=1 E(1X 1 (Bi ) |I). Comme 7 PI )(X11 (Bi ))


1
est mesurable pour tout i, 7 M (E) est bien mesurable comme
produit dapplications mesurables, et il dcoule de ce qui prcde
que

P(C) = M (C) dP(),


ce qui montre bien que C E. E est une tribu qui contient les
vnements cylindriques : cest B() tout entier.
3. (a) Daprs la quesion 1), il sut de montrer que la suite (Ti )i1 est
changeable. Soit n 1 et une permutation de {1, . . . , n}. On
a P(X(1) = t1 , . . . , X(n) = t1 ) = P(X1 = t1 , . . . , Xn = tn ), avec
ti = t1 (i) . Le nombre ai dapparition de i dans la suite t1 , . . . , tn
concide avec le nombre ai dapparition de i dans la suite t1 , . . . , tn ,
donc daprs la formule (3.2) ou la formule (3.3), les probabilits
P(X1 = t1 , . . . , Xn = tn ) et P(X1 = t1 , . . . , Xn = tn ) concident, ce
qui donne le rsultat voulu.

D.3. SOLUTION DU PROBLME 3

245

(b) Fixons t1 , . . . tp . Avec (2d), P(Xi = ti |I) est la limite presque sre
de
n
1
1{Xk =ti } .
n k=1
Or

n
1
(V ti V0ti )/S
,
1{Xk =ti } = n
n k=1
n

qui converge presque srement vers Wti daprs la question 1.(e)


de lexercice 24 sur lurne de Plya. Ainsi P(Xi = ti |I) = Wti . En
particulier, Wti est I-mesurable. Maintenant, avec (2g),
P(T1 = t1 , . . . , Tp = tp |I) =

P(Xi = ti |I) =

i=1

Wti ,

i=1

ce qui montre bien que, conditionnellement I, les Ti sont des


variables alatoires indpendantes dont la loi discrte donne par
le vecteur W . Comme W est I-mesurable, (W ) I, et en reconditionnant, on a la formule
P(T1 = t1 , . . . , Tp = tp |W ) =

Wti ,

i=1

qui avait t annonce en commentaire de lexercice sur lurne de


Plya.

246

ANNEXE D. SOLUTIONS DES PROBLMES

Bibliographie
[1] M. Briane and G. Pags. Thorie de lintgration. Ellipses, Vuibert, 2009.
[2] O. Garet and A. Kurtzmann. De lintgration aux probabilits. Ellipses,
Paris, 2011.
[3] Francis Hirsch and Gilles Lacombe. lments danalyse fonctionnelle.
Enseignement des Mathmatiques. Masson, Paris, 1997. Cours et exercices.
[4] W. Rudin. Analyse relle et complexe. Masson, Paris, 1980.
[5] Daniel W. Stroock. Probability theory. Cambridge University Press, Cambridge, second edition, 2011. An analytic view.

247

Index
echangeable, 117, 228
accessible, 130
analyse au premier pas, 132
apriodique, 130
chane
observe quand elle bouge, 169
rcurrente, 149
rcurrente positive, 157
rversible, 149, 172
trace, 168
chane de Markov, 123
classe absorbante, 160
convergence L1 des martingales, 54

Harris (ingalit de), 80


HoedingAzuma (ingalit de), 76
ingalit
dEfronStein, 75
de Harris, 80
de HoedingAzuma, 76
de Jensen, 26
invariante, 149
irrductible, 130
Jensen (ingalit de), 26

LaplaceBernoulli (modle de), 172


lemme de Doob, 27, 58, 88, 220
lemme de Fatou, 12
loi
Dirichlet (loi de), 52
binomiale ngative, 172
dominante privilgie, 86
de Dirichlet, 52
Doob (lemme de), 27, 58, 88, 220
de Pascal, 172
hypergomtrique, 82
chantillonneur de Gibbs, 67
loi conditionnelle
EfronStein (ingalit de), 75
dun vecteur gaussien, 66
Ehrenfest (modle d), 170
dun vecteur sachant un autre, 65
qui-intgrable, 11
existence, 61
ErdsFellerPollard (thorme de),
loi
dun
processus, 107
227, 228
loi des grands nombres L1 , 16
tat
Lyapunov (fonction de), 168
essentiel, 160
Fatou (lemme de), 12
formule du multinme, 53
Gibbs (chantillonneur de), 67

marche alatoire, 170


martingales et convexit, 37
matrice stochastique, 125, 128, 129
Maurey (principe de), 79
248

INDEX
mesure
invariante, 149
rversible, 149, 151
mesure absolument continue, 70
modle
dEhrenfest, 170
durne de Plya, 51, 230
de LaplaceBernoulli, 172
oprateur markovien, 127, 167
Plya (urne de), 51, 230
priode, 130
principe de Maurey, 79
ProppWilson (mthode, algorithme
de), 162
proprit de Markov
forte, 143
simple, 131
rcurrent, 146
rcurrent nul, 156
rcurrent positif, 156, 157
rversible, 149
RadonNikodm, 70, 89
renouvellement, 227, 228
retournement du temps, 167
stochastique (matrice), 125, 128, 129
temps darrt, 40, 145
thorme
de De FinettiHewittSavage, 117,
228
de ErdsFellerPollard, 227, 228
de RadonNikodm, 70, 72, 89
de renouvellement, 227, 228
thorme de Foster, 169
thorme de Vitali, 13
trace dune chane, 168
transient, 146
uniformment intgrable, 11

249
Vitali (thorme de), 13