Académique Documents
Professionnel Documents
Culture Documents
Olivier GARET
0 Variables de Bernoulli 1
0.1 La question de lexistence : de [0, 1] {0, 1}N . . . . . . . . . . 1
0.2 De {0, 1}N [0, 1] : o lon a envie des processus . . . . . . . . 3
0.3 Ingalits ; lois des grands nombres . . . . . . . . . . . . . . . 4
0.4 Variables de Rademacher et sries de Dirichlet . . . . . . . . . 6
0.4.1 Une srie de Dirichlet alatoire . . . . . . . . . . . . . 6
0.4.2 Comportement au bord . . . . . . . . . . . . . . . . . . 7
0.5 Exercices sur les variables de Bernoulli . . . . . . . . . . . . . 9
0.5.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 9
1 qui-intgrabilit 11
1.1 Premires proprits . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Application la convergence dans Lp . . . . . . . . . . . . . . 13
1.3 Une condition susante dqui-intgrabilit . . . . . . . . . . 14
1.4 Une version du lemme de Sche . . . . . . . . . . . . . . . . 14
1.5 Caractrisation par lqui-continuit . . . . . . . . . . . . . . . 14
1.6 qui-intgrabilit dune famille de lois . . . . . . . . . . . . . 15
1.7 Exercices sur lqui-intgrabilit . . . . . . . . . . . . . . . . . 17
1.7.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 17
1.7.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 17
2 Esprance conditionnelle 19
2.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 construction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1 Proprits . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.2 Ingalit de Jensen . . . . . . . . . . . . . . . . . . . . 26
i
ii TABLE DES MATIRES
3 Martingales 35
3.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.1 Filtrations et martingales . . . . . . . . . . . . . . . . 35
3.1.2 Dirences de martingales . . . . . . . . . . . . . . . . 36
3.1.3 Sous-martingales, sur-martingales . . . . . . . . . . . . 36
3.2 Premires ingalits . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.1 Martingales et fonctions convexes . . . . . . . . . . . . 37
3.2.2 Ingalit de Kolmogorov . . . . . . . . . . . . . . . . . 37
3.3 Convergence des martingales de carr intgrable . . . . . . . . 38
3.4 Temps darrts . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.5 Convergence L1 des martingales . . . . . . . . . . . . . . . . . 43
3.5.1 Thorme des traverses montantes . . . . . . . . . . . 43
3.5.2 Le thorme de convergence de Doob . . . . . . . . . . 45
3.6 Dcomposition de Doob (*) . . . . . . . . . . . . . . . . . . . 46
3.7 Exercices sur les martingales . . . . . . . . . . . . . . . . . . . 48
3.7.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 48
3.7.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 48
5 Ingalits 69
5.1 Ingalit dEfronStein . . . . . . . . . . . . . . . . . . . . . . 69
5.2 Lingalit de HoedingAzuma . . . . . . . . . . . . . . . . . 70
5.2.1 Le thorme . . . . . . . . . . . . . . . . . . . . . . . . 70
TABLE DES MATIRES iii
6 Statistiques exhaustives 79
6.1 Hypothse de domination dominante privilgie . . . . . . . 80
6.2 Thorme de factorisation de Neyman-Fisher . . . . . . . . . . 81
6.3 Amlioration de Rao-Blackwell . . . . . . . . . . . . . . . . . 85
6.4 Statistiques exhaustives minimales . . . . . . . . . . . . . . . 86
6.5 Statistiques compltes . . . . . . . . . . . . . . . . . . . . . . 87
6.6 Modles exponentiels . . . . . . . . . . . . . . . . . . . . . . . 88
6.7 Exercices sur les statistiques exhaustives . . . . . . . . . . . . 90
6.7.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 90
6.7.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 90
7 Information de Fisher 93
7.1 Hypothses . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.2 Ingalit de Cramer-Rao . . . . . . . . . . . . . . . . . . . . . 95
7.3 Quelques proprits . . . . . . . . . . . . . . . . . . . . . . . . 96
7.3.1 Information de Fisher dun produit . . . . . . . . . . . 96
7.3.2 Information de Fisher dune statistique . . . . . . . . . 97
7.4 Exercices sur linformation de Fisher . . . . . . . . . . . . . . 99
7.4.1 Exercices corrigs . . . . . . . . . . . . . . . . . . . . . 99
7.4.2 Exercices non corrigs . . . . . . . . . . . . . . . . . . 99
A Indications 159
A.1 Exercices sur les variables de Bernoulli . . . . . . . . . . . . . 159
A.2 Exercices sur lqui-intgrabilit . . . . . . . . . . . . . . . . . 159
A.3 Exercices sur lesprance conditionnelle . . . . . . . . . . . . . 160
A.4 Exercices sur les martingales . . . . . . . . . . . . . . . . . . . 161
A.5 Exercices sur les complements . . . . . . . . . . . . . . . . . . 163
A.6 Exercices sur les ingalits . . . . . . . . . . . . . . . . . . . . 163
A.7 Exercices sur les statistiques exhaustives . . . . . . . . . . . . 164
A.8 Exercices sur linformation de Fisher . . . . . . . . . . . . . . 165
TABLE DES MATIRES v
C Problmes 203
C.1 Problme 1 : nombres de Stirling . . . . . . . . . . . . . . . . 203
C.2 Problme 2 : thorme dErds-Feller et Pollard . . . . . . . . 205
Bibliographie 217
Index 218
vi TABLE DES MATIRES
Chapitre 0
La premire gorge de
processus : les variables de
Bernoulli
Le premier processus que nous allons tudie est celui form par une
suite de variables de Bernoulli indpendantes. Cest un modle simple, mais
susamment riche pour permettre de voir, ou revoir, un certain nombre de
questions importantes de la thorie des probabilits.
1
2 CHAPITRE 0. VARIABLES DE BERNOULLI
Xj
+
Ai
Soit en faisant tendre n vers linfini : gj
= g i+1
. En particulier, pour j =
i=j
0, on obtient lcriture voulue. Reste voir que Ai ne peut tre constamment
gal j 1 partir dun certain rang. En eet, si on avait Ai = g 1 pour
+
i > j, on aurait Xj = g j g1
g i+1
= 1, ce qui est exclu, car Xj [0, 1[.
i=j
On va montrer par rcurrence que pour tout n, on a Hn :
(A0 , . . . , An ) et Xn+1 sont indpendants
(A0 , . . . , An ) suit la loi uniforme sur {0, . . . , g 1}n+1
Xn+1 suit la loi uniforme sur [0, 1].
Notons dabord que pour tout n 1, on a
{An1 = bn , Xn J} = {gXn1 = bn , {gXn1 } J}
{ }
J + bn
= {gXn1 J + bn } = Xn1
g
Ainsi pour n = 1, on a
J + bn J + bn 1
P(A0 = g0 , X1 J) = P(Xn1 ) = ( ) = (J),
g g g
ce qui montre que H0 est vraie. Ensuite, on procde par rcurrence : Comme
{A0 = b0 , . . . , An = bn , An+1 = bn+1 , Xn+1 J}
J + bn+1
= {A0 = b0 , . . . , An = bn , Xn },
g
lhypothse de rcurrence nous donne
P(A0 = b0 , . . . , An = bn , An+1 = bn+1 , Xn+1 J)
J + bn
= P(A0 = b0 , . . . , An = bn )P(Xn )
g
1 J + bn 1 1
= n+1 ( ) = n (J)
g g g g
1
= n+2 (J)
g
0.2. DE {0, 1}N [0, 1] : O LON A ENVIE DES PROCESSUS 3
Nous savons que Sn () tend vers pour tout [0, 1[. La convergence
presque sre entrane la convergence en loi, donc
lim f (Sn ()) d() = f (x) d(x),
n+ [0,1] [0,1]
soit
lim f () dn () = f (x) d(x),
n+ [0,1] [0,1]
4 CHAPITRE 0. VARIABLES DE BERNOULLI
+
xi
x 7 (x) =
i=0 2i+1
est U [0, 1]. Or, la loi de (Yn )n1 est ber(1/2)N , donc V = ((Xn )n0 est
U [0, 1]. Ce genre de raisonnement sera facile avec la notion de loi dun pro-
cessus, que nous verrons au chapitre 8.
Mais ds prsent, nous pouvons en donner comme consquence le rsul-
tat suivant :
Thorme 3. Sur (, F, P) = ([0, 1[, B([0, 1[), [0,1[ ), on peut faire vivre une
suite de variables indpendantes suivant la loi uniforme sur [0, 1].
+ A2
(2j+1)2i
Dmonstration. Il sut de poser Zj = i=0 2i
et dappliquer conscu-
tivement les deux thormes prcdents.
n2
P(|Sn | > n1/2+ ) 2 exp( ).
2
2 2
La srie de terme gnral exp( n2 ) converge (par exemple parce que n2
2 log n pour n assez grand), donc daprs le lemme de Borel-Cantelli, presque
srement |Sn | n1/2+ pour n assez grand, ce qui donne le rsultat voulu.
n
ck
n
1
= (sk sk1 )
k=1 k + k=1 k +
n
1
n1
1
= sk sk
k=1 k + k=0 (k + 1)+
sn
n1
1 1
= +
+ sk ( + )
n k=1 k (k + 1)+
1. Vous avez sans doute dj rencontr le cas o = 0 et cn = ein avec non congru
0 modulo 2.
0.4. VARIABLES DE RADEMACHER ET SRIES DE DIRICHLET 7
sn ck
Comme lim n+
= 0, la srie de terme gnral k+
est de mme nature
n+
1
que la srie de terme gnral sk ( k+ (k+1)1 + ). Montrons que cette dernire
converge absolument. Daprs lingalit des accroissements finis, on a
1 1 +
| | .
k + (k + 1)+ k ++1
Comme |sk | M k , on a alors
1 1 M ( + )
|sk ( )| ,
k + (k + 1) + k 1+
ce qui assure la convergence voulue.
Remarquons que si on connait la thorie des sries de variables alatoires
indpendantes, on a une preuve beaucoup plus rapide, qui nutilise pas la
transformation dAbel : les variables ncns sont centres, et le terme gnral de la
srie des variances est 4n12s , qui converge pour s > 1/2, donc la srie converge
presque srement (et aussi dans L2 ). Voir par exemple GaretKurtzmann,
page 344.
Remarque culturelle : notons (n) la fonction de Moebius, dfinie par
(n) = (1)k si n est le produit de k nombre premiers distincts, 0 sinon. si
vous parvenez dmontrer que pour la suite cn = (n), on a sn = O(n1/2+ )
pour tout > 0, et donc que la srie des (n)
ns
converge pour s > 1/2, alors vous
avez dmontr un rsultat quivalent la fameuse conjecture de Riemann :
les zros non-triviaux de la fonction de Riemann sont tous de partie relle
1/2. Pour voir que cette proprit entrane la conjecture de Riemann, voir
par exemple Colmez, pages 319-320.
do
+
t(1 + 2h)1/2
(1/2+h) (t) = cos( )
(1+2h) n=0 n1/2+h
Par ailleurs
t2
+
t2 (1 + 2h)1
exp( ) = exp( )
2 n=0 2 n1+2h
On en dduit
t2
+
t(1 + 2h)1/2 t2 (1 + 2h)1
| (1/2+h) (t)exp( )| | cos( )exp( )|.
(1+2h) 2 n=0 n1/2+h 2 n1+2h
2
Mais il existe A tel que pour tout rel x | cos(x) exp( x2 )| Ax4 . On en
dduit pour h ]0, 1] :
t2 At2 At2
| (1/2+h) (t) exp( )| (1 + 2h)2 (1 + 2h)2 .
(1+2h) 2 (2 + 2h) (4)
+
1 k+1
+
1
+
1
| dt| (2),
k=1 k 1+h k=1 k t1+h k=1 k 2+h
do
1
(1 + h) = + O(1).
h
0.5. EXERCICES SUR LES VARIABLES DE BERNOULLI 9
qui-intgrabilit
11
12 CHAPITRE 1. QUI-INTGRABILIT
Lemme 2. Si (Xn )n1 converge en loi vers X, alors E|X| lim E|Xn |.
n+
On sait que P(Xn > t) converge vers P(X > t) en tous les points de continuit
de FX . Or les points de discontinuit de FX sont au plus dnombrables, donc
P(Xn > t) converge -presque partout vers P(X > t). On peut donc appliquer
le lemme de Fatou
EX = P(X > t) d(t) = lim P(Xn > t) d(t)
[0,+[ [0,+[ n+
lim P(Xn > t) d(t)
n+ [0,+[
= lim EXn .
n+
Notons que
|X|p E[|X|p ] C
E[|X|1
1{|X|M } ] E[ p1
11{XM } ] p1
p1 .
M M M
Ainsi, si (Xn )n1 converge en probabilit vers X et que la suite (Xn )n1 est
borne dans Lq , on sait que Xn converge vers X dans Lp pour p < q.
Thorme 8. Soit (Xn )n1 une suite de variables alatoires positives, in-
tgrables, convergeant en loi vers une variable alatoire X intgrable. On
suppose que EXn tend vers EX. Alors les variables alatoires (Xn )n1 sont
uniformment intgrables.
Dmonstration. Comme
E[X 11{XM } ] = E[X] P(t < X < M ) d(t)
[0,M ]
et vrifie
lim sup E[|X| 11A ] = 0.
XA
0 AF :P(A)
|X|1
1A |X|1
1{|X|M } + M11A .
E[|X|1
1A ] E[|X|1
1{|X|M } ] + M P(A) .
Soit > 0. On peut trouver > 0 tel que pour tout X A, P(A)
sup E[|X|]
XA
entrane E[|X|1
1A ] . Maintenant, si M
, si je pose A = {|X|
E[|X|]
M }, on a P(A) M
, donc
E[|X|1
1{|X|M } ] = E[|X|1
1A ] .
R x d(x).
Montrer que cette famille est qui-intgrable. lien vers lindication lien vers
la solution
Exercice
3. Soient (X1 , X2 , . . . , Xn ) une suite de v-a i.i.d U[0, 1]. Soit Zn =
n
ni=1 X2i . Le but de lexercice est de montrer que Zn converge presque sre-
i=1
X i
ment et dans L1 vers 32 .
1. Montrer la convergence presque sre.
N
2. Soit N un entier naturel. On pose QN = ( i=1 Xi2 )2 . Montrer que
pour tout n N , on a
Exercice 8. Soient (Xn )n1 une suite qui-intgrable et (Un ) une suite de
variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. On sup-
pose de plus que (Un )n1 est indpendante de (Xn )n1 . Pour ]0, 1], on pose
N = inf{n 1; Un }, puis Z = XN . Montrer que la famille (Z )]0,1]
est qui-intgrable. lien vers lindication
Esprance conditionnelle
2.1 Motivation
Soient (, F, P) un espace probabilis ; A1 , . . . , AN une partition de et
X une variable alatoire intgrable sur , F, P). Soit A la tribu engendre
par la partition {A1 , . . . , AN }.
On sintresse aux expressions de la forme EX1 1A , o A A.
Tout dabord, on va remarquer quil existe une correspondance entre A
et P({1, . . . , N } : tout lment A A peut scrire
A= Ai ,
iB
( )
N
N
N
E(X1
1A ) = E X 11iB11Ai = E(1
1iB X1
1Ai ) = 11iB EX1
1Ai
i=1 i=1 i=1
Maintenant posons
N
EX1
1Aj
X = 11Ai .
j=1 P(Aj )
N
EX 11A = 11iB EX 11Ai
i=1
19
20 CHAPITRE 2. ESPRANCE CONDITIONNELLE
Mais
N
EX1
1Aj
EX 11Ai = E1
1Ai11Aj = EX1
1Ai .
j=1 P(Aj )
Il sensuit que pour tout A A, on a
1A = EX 11A
EX1 (2.1)
Ce qui est intressant ici, cest que X a une proprit que X na pas en
gnral : en eet, X est A-mesurable (car cest une combinaison linaire
dindicatrices dlments de A).
Si X est une variable alatoire A-mesurable et telle que (2.1) est vrifie,
on dit que X est une esprance conditionnelle de X par rapport la tribu
A.
Nous savons donc construire des esprances conditionnelles par rapport
des tribus finies. Le but de ce chapitre est de traiter le cas gnral et de
donner les premires proprits de ces objets.
2.2 construction
Lemme 3. Soient X et Y des variables alatoires intgrables et mesurables
par rapport une tribu A. On suppose que pour tout A A, on a
EX 11A EY 11A .
Ainsi E(X Y )1
1A 0. Mais (X Y )1
1A est positive, donc (X Y )1
1A = 0
presque srement. Ainsi P ({X = Y } A ) = 1, do P (A ) = 1.
c c
f V2 g H f P f, g = 0.
En particulier si A A, 11A H, et donc
f V2 f P f,11A = 0, (2.3)
soit f,11A = P f,11A , soit
Ef11A = EP f11A .
En particulier
Ef = EP f. (2.4)
Lquation (2.3) dit que P f est un bon candidat pour tre lesprance
conditionnelle. Les proprits de positivit voques plus haut sont galement
vrifies, mais il faut tre un peu soigneux car lon travaille ici avec des classes
de fonctions gales presque partout, non avec des fonctions.
Rappelons quelques proprits simples : si F et G sont deux fonctions
mesurables qui sont gales presque partout, alors pour tout borlien A les
ensembles F 1 (A) = {F A} et G1 (A) = {G A} sont gaux un
ngligeable prs : cela signifie que
|1
1{F A} 11{GA} | = 11{F A}{GA} = 0 P p.s.
ce qui signifie que 11{F A} et 11{GA} ont la mme classe dans Lp (avec p quel-
conque).
22 CHAPITRE 2. ESPRANCE CONDITIONNELLE
et f + = f11f >0
Dmontrons maintenant lanalogue du lemme 2.1 : si f est un lment
positif de L2 , on a
P f 1 P f + 1 + P f 1
P f 1 Ef + + Ef = E|f | = f 1
f L1 P f 1 f 1
Par ailleurs, lensemble des (classes de) fonctions positives est ferm dans
L1 , donc la proprit de positivit est conserve par P :
f L1 f 0 = P f 0
2.2. CONSTRUCTION 23
et
f, g L1 f g = P f P g.
Cet oprateur P est loprateur desprance conditionnelle sachant la
tribu A.
Vrifions dabord que P vrifie les proprits fondamentales requises : P f
est A-mesurable et pour toute fonction f F-mesurable dans L1 , pour tout g
A-mesurable dans L ,
Egf = Eg P f (2.5)
Preuve : pour f dans L , posons g (f ) = Egf et g (f ) = Eg P f . On a
|gf | g |f |, do |g (f )| f f 1 . Par ailleurs
|g (f )| = g (P f )| f P f 1 f f 1 .
2.2.1 Proprits
Daprs le lemme 3, on voit donc que les proprits :Y A-mesurable et
A A EX1
1A = EY 11A (2.6)
E[E[X|A]|A] = E[X|A]
|E[X|A]| E[|X| |A]
Un peu plus compliqu, le thorme de convergence domine condition-
nel :
Thorme 11. Soit (Xn )n1 une suite de variables alatoires convergeant
presque srement vers X. On suppose que
n 1|Xn | Y p.s.,
Dmonstration. Posons Zn = supkn |Xn X|. (Zn )n1 est une suite dcrois-
sante de variables alatoires qui tend presque srement vers zro. Daprs la
positivit de lesprance conditionnelle, la suite E[Zn |A] est donc une suite
dcroissante de variables alatoires positives : elle converge donc vers une va-
riable alatoire positive Z. Pour tout n 1, on a Z Zn , donc EZ EZn .
Ainsi EZ inf n1 EZn , mais pour tout n |Zn | 2Y , donc daprs le tho-
rme de convergence domine EZn tend vers 0, ce qui montre que EZ = 0,
donc Z est presque srement nulle. Ainsi E[Zn |A] tend presque srement
vers 0. Finalement, pour tout n, on a
E[X|A] = EX.
E[Y EX] = EY EX = EY X.
Il reste donc dmontrer que la famille peut tre choisie de telle sorte que,
presque srement, au point x = E[X|A], on ait sup{(x); } = f (x)
En tout point rationnel q de I, on considre lapplication ane q tan-
gente droite (ou gauche) au point q la courbe reprsentative de f .
On prend alors = (q )qIQ . Lapplication x 7 sup (x) est convexe,
continue, et concide avec f sur I Q, donc, par densit et continuit, sur
I.
Pour retenir quel est le sens de lgalit, prendre la fonction convexe
(x) = |x|.
E[Y |X ] = f (X ).
1A (X )Y ] = E[1
E[1 1A (X)Y ] car (X, Y ) et (X , Y ) ont mme loi
= E[1
1A (X)f (X)] par dfinition de lesprance conditionnelle
1A (X )f (X )] car X et X ont mme loi,
= E[1
EX h + P(X h).
Montrer que
n
{Mn h} = Ai (h).
i=1
3. On pose
Yi (h) = 11]Xi ,Xi +h[c (Xj ).
j=i
Exercice 17. On suppose que la loi du couple (X, Y ) sous P admet la densit
(x, y) 7 f (x, y) par rapport la mesure . Montrer que
xf (x, y)d(x)
E[X|Y = y] = .
f (x, y)d(x)
3. Soit une fonction mesurable borne telle que (X) est intgrable.
Montrer que
E[(X)|Y = y, Z = z] = (x)fy,z (x) d(x),
R
Martingales
3.1 Dfinitions
3.1.1 Filtrations et martingales
Soit (, F, P ) un espace probabilis.
Dfinition: On appelle filtration toute suite croissante (Fn )n0 de sous-
tribus de F.
Dfinition: Soit (Xn )n0 une suite de variables alatoires et (Fn )n0 une
filtration. On dit que la suite (Xn )n0 est (Fn )n0 adapte si pour tout n,
Xn est Fn -mesurable.
Dfinition: Soit (Xn )n0 une suite de variables alatoires. On appelle fil-
tration naturelle adapte la suite (Xn )n0 la filtration dfinie par Fn =
(X0 , X1 , . . . Xn ).
Dfinition: Soit (Fn )n0 une filtration et (Xn )n0 une suite de variables
alatoires. On dit que la suite (Xn )n0 est une martingale adapte la filtra-
tion (Fn )n0 si
1. la suite (Xn )n0 est (Fn )n0 adapte
2. Pour tout n, Xn est intgrable.
3. Pour tout n, Xn = E[Xn+1 |Fn ].
Exemples:
1. Soit (Fn )n0 une filtration, X une variable alatoire intgrable. La
suite dfinie par Xn = E[X|Fn ] est une martingale
2. Soit (Xn )n1 une suite de variables alatoires indpendantes centres.
On pose pour tout n 1 : Fn = (X1 , . . . Xn ) et Sn = X1 +X2 +. . . Xn .
Alors, (Sn )n1 est une martingale adapte la filtration (Fn )n1 .
Remarque: Une martingale est toujours adapte sa filtration naturelle.
35
36 CHAPITRE 3. MARTINGALES
Comme on le verra dans les exercices, les martingales sont souvent utiles
pour udier des suites de variables alatoires qui ne sont pas elles-mmes des
martingales. Mettre en vidence une martingale partir dune suite nest pas
toujours facile. Une bonne ide est de commencer par exhiber une dirence
de martingale. Par exemple, si (Xn )n0 est une suite intgrable quelconque,
(Xn+1 E[Xn+1 |X0 , . . . Xn ])n0 est toujours une dirence de martingales.
1
P( max Xi ) E|Xn |.
1in
38 CHAPITRE 3. MARTINGALES
{ max Xi } = { n}.
1in
E[Xn11{ =k} ] = E E[Xn11{ =k} |Fk ] = E 11{ =k} E[Xn |Fk ] E 11{ =k} Xk .
E[Xn11{ n} ] P( n).
Sinon, comme (Xn+ )n1 est une sous-martingale positive, on peut lui appli-
quer le rsultat que lon vient de dmontrer, et lon a
1 1
P( max Xi ) = P( max Xi+ ) EXn+ E|Xn |,
1in 1in
ce qui donne le rsultat voulu.
Alors (Xn )n0 converge presque srement et dans L2 vers une variable X
de carr intgrable.
La suite (Xn Xi )ni est une martingale, donc la suite ((Xn Xi )2 )ni
est une sous-martingale positive : on a donc
9
P( sup |Xn Xi |2 > 2 /9) E(Xn XN )2 .
niN 2
Ainsi
9
P(Rn > ) 2
sup E(Xn XN )2 ,
N n
cette dernire suite tend bien vers 0, puisque (Xn )n1 converge en moyenne
quadratique.
40 CHAPITRE 3. MARTINGALES
Exemple: Si (Xn )n1 est une suite de variables alatoires (Fn )n1 -adapte
valeurs dans S et A un borlien de S, alors
TA = inf{n 1; Xn A}
est un temps darrt (Fn )n1 -adapt.
Preuve : {TA n} = nk=1 {Xk A}.
Dfinition: On dit quun vnement A se produit avant T si pour tout n,
lvnement A {T n} est Fn -mesurable.
Remarque: Si deux temps darrts S et T adapts la filtration (Fn )n0
vrifient S T , alors tout vnement qui se produit avant S se produit avant
T.
A {T n} = p1 (Ap {T n}),
3.4. TEMPS DARRTS 41
{T t} {T n} = {T i} {T n} = {T i n} Fin Fn .
Thorme 23 (Thorme de Hunt). Soit (Fn )n0 une filtration et (Xn )n0
une sous-martingale adapte la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] XS .
Dmonstration. Il sagit de montrer que pour tout vnement A FS -mesurable,
on a EXT11A EXS11A . Soit M un entier dterministe tel que lon ait S T
M . Posons k = Xk Xk1 , avec X1 = 0. Notons, que comme (Xn ) est une
sous-martingale E1
1B k est positif pour tout ensemble B Fk1 -mesurable. On
a
M
E((XT XS )1
1A ) = E( k11S<kT11A )
k=0
M
= Ek11{S<kT }A
k=0
Pour conclure, il reste donc voir que {S < k T } A est Fk1 -mesurable,
ce qui vient de lidentit
Corollaire 3. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] = XS .
Thorme 24 (Thorme darrt). Soit (Fn )n0 une filtration et (Xn )n0
une sous-martingale adapte la filtration (Fn )n0 . Soit T un temps dar-
rt adapt la filtration (Fn )n0 . Alors la suite (XnT )n0 est une sous-
martingale adapte la filtration (Fn )n0 .
Dmonstration. Soit A un vnement Fn -mesurable et n un entier. On a
E1
1A X(n+1)T = E1
1A X(n+1)T11{T n} + E1
1A Xn+1T11{T >n}
= EXnT11A11{T n} + EX(n+1)T11A11{T >n}
Corollaire 5. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration (Fn )n0 .
Alors la suite (XnT )n0 est une martingale adapte la filtration (Fn )n0 .
Remarque: Certains auteurs appellent thorme darrt ce que nous
avons appel thorme de Hunt . En fait, ces deux rsultats sont qui-
valents. Ici, nous avons choisi de dmontrer le thorme de Hunt et den
dduire le thorme darrt, tandis que dautres auteurs (par exemple Baldi,
Mazliak et Priouret) font le choix inverse.
Les deux lemmes suivants seront utiles par la suite. Leur preuve relve
des mthodes classiques.
Lemme 4. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration (Fn )n0 .
Alors, la variable alatoire 11{T <+} XT est FT -mesurable.
Dmonstration. Il sut de voir que pour tout borlien de R, lvnement
{1
1{T <+} XT A} est FT -mesurable. Soit n un entier : on a
{1
1{T <+} XT A} {T n} = in {Xi A; T = i},
qui est bien Fn -mesurable.
Lemme 5. Soit (Fn )n0 une filtration et (An )n0 une suite dvnements
adapte la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration
(Fn )n0 . Alors, la variable alatoire S dfinie par
S() = inf{n T (); An }.
est un temps darrt.
Dmonstration. Il sut de remarquer que pour tout n
{S n} = in Ai {T i},
qui est clairement Fn -mesurable.
(Xn a)+
Dmonstration. Posons pour n 1 : Yn = ba
: comme |Yn | 1
ba
(|Xn |+
+
|a|) et que (x) = (xa)
ba
est croissante et convexe, (Yn )n1 est une sous-
martingale.
Posons 0 = 0, et pour k 1
k = inf{n k1 ; Xn a}
et
k = inf{n k ; Xn b}.
En utilisant le lemme 5, on voit facilement par rcurrence que les (k ) et les
(k ) sont des temps darrt. Dautre part, par construction, on a 0 1
1 2 n n .
On a
n
Un[a,b] = 11{k n} .
k=1
On peut crire
Yn Y0 = Yn n Y0 n
n
= Yk n Yk1 n
k=1
n
= (Yk n Yk n ) + (Yk n Yk1 n )
k=1
3.5. CONVERGENCE L1 DES MARTINGALES 45
Il sensuit que
n
Un[a,b] Yn Y0 Yk n Yk1 n
k=1
n
Yn Yk n Yk1 n ,
k=1
EUn[a,b] EYn ,
ce qui tait le rsultat voulu.
Chaque terme de la somme est bien dans Fn1 et est positif, car (Xn )n0 est
une sous-martingale, donc Cn est bien croissant prvisible.
3.6. DCOMPOSITION DE DOOB (*) 47
Corollaire 7 (Thorme de Hunt, version 2). Soit (Fn )n0 une filtration et
(Xn )n0 une sous-martingale adapte la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] XS .
Exercice 25. Soit (Xn )n1 une suite de variables alatoires indpendantes
identiquement distribues admettant un moment dordre 3 et vrifiant EX1 =
EX13 = 0 et EX12 = 1. On note Fn = (X1 , . . . , Xn ) et on pose
n
Sn = Xi .
k=1
1. On pose Yn = Sn3 3nSn . Montrer que (Yn )n1 est une martingale par
rapport la filtration (Fn )n1 .
2. Soient a, b, c, d des rels. On pose
Q(x, t) = x2 + axt + bx + ct + d.
Exercice 26. Soit (Xn )n1 une surmartingale (Fn )n1 -adapte. On suppose
que les (Xn )n1 ont toutes la mme loi.
1. Montrer que (Xn )n1 est une martingale.
3.7. EXERCICES SUR LES MARTINGALES 49
2. Montrer que pour tout rel a les suites (Xn a)+
n1 et (Xn a)n1
sont des martingales.
3. En dduire que pour n > p 1, Xn est presque srement suprieur
ou gal a sur lvnement {Xp a}.
4. En dduire que (Xn )n1 est presque srement constante.
lien vers lindication
Exercice 27. Soit (Xn )n1 une suite de variables alatoires indpendantes
identiquement distribues dont la loi commune est non dgnre et support
compact. On pose Sn = X1 + + Xn , (t) = log EetX1 et
1. Montrer que (Ynt )n1 est une martingale par rapport la filtration
naturelle associe aux (Xn )n1 .
2. On suppose dsormais que t est non-nul. Montrer que (t/2) < (t)/2.
3. En dduire que (Ynt )n1 converge presque srement vers 0.
4. Retrouver ce rsultat partir de la loi forte des grands nombres.
lien vers lindication
4. Dmontrer que la suite (Yn ) est qui-intgrable sous P, cest dire que
lim sup |x| dPYn (x) = 0.
a+ n1 R\[a,a]
4. Montrer que est une fonction concave. Soit ]s, t[ [0, n] tel que
{x [s, t]; f (x) = (x)} = {s, t}. Montrer que est ane sur [s, t].
5. On dfinit Topt = min{n N, f (Xn ) = (Xn )}, ainsi que
Exercice 31. Soit (Xn )n1 une suite de variables alatoires indpendantes
centres, de variance 1. Montrer que la srie de terme gnral Yn = an X1 . . . Xn
converge presque srement et dans L2 . lien vers lindication
52 CHAPITRE 3. MARTINGALES
Chapitre 4
Complments de thorie de la
mesure
+
+
(x, y) Ei d(x, y) = 2i arctan di (xi , yi ).
i=1 i=1
53
54 CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE
Y = f (X),
Comme les fonctions y 7 d(y, yi ) sont continues, elles sont (E, B)(R, B(R))-
mesurable. Ainsi, les fonctions y 7 d(y, yi )d(y, yk ) sont (E, B)(R, B(R))-
mesurables : on en dduit que les ensembles {d(y, yi ) > d(y, yk )} et {d(y, yi )
d(y, yk )} sont dans B, puis que n est (E, B) (E, B)-mesurable. n (y) est
llment le plus proche de y parmi y1 , . . . , yk (on prend celui de plus petit
index en cas dgalit). Comme la suite (yn ) est dense dans E, n (y) converge
vers y quand n tend vers linfini. 1
nx
1. Si E = R ou E = Rd , on peut prendre plus simplement n (x) = n 11[0,n] (x).
4.1. RAPPELS DE TOPOLOGIE 55
n
+
En = Di {xi }.
i=1 i=n
En particulier RN est un espace polonais. Cest important en probabilits
car RN est typiquement lespace sur lequel on peut faire vivre une suite de
variables alatoires.
+
arctan |xi yi | N
|i (x) yi |
dy (x) = d(x, y) = = lim arctan
i=1 2i N +
i=1 2i
est une limite dapplications ((i )i1 )-mesurables donc est (i )-mesurable.
Il sensuit que les boules de (RN , d) sont des lments de ((i )i1 ). Or
daprs le thorme prcdent, les boules ouvertes engendrent la tribu bor-
lienne, donc B est incluse dans ((i )i1 ), ce qui achve la preuve.
n
(O) = lim ( Bdk )
n+ k=1
= lim (1)|A|+1 (OA )
n+
A{d1 ,...,dn },A=
Ainsi, si deux mesures concident sur les OA , elles concident sur les ouverts,
donc sur la tribu borlienne.
Cette application est P presque srement unique. Pour toute variable ala-
toire X valeurs dans [0, +], lapplication
7 X dPS
Toute la dicult consiste montrer que lobjet ainsi dfini est bien une
mesure sur la tribu borlienne. Les preuves reposent de manire plus ou
moins explicite sur la notion de mesure extrieure, de manire trs explicite
dans BrianePags [1] (chapitre 10), de manire plus cache dans Rudin [4]
(chapitre 1) ou HirschLacombe [3] (chapitre 2).
En fait, le thorme de reprsentation de Riesz est la pierre de base de
la thorie de lintgration par rapport une mesure de Radon. Cette thorie
part de la notion dintgrale (une forme linaire positive sur les fonctions
continues support compact) pour aller la notion de mesure de Radon.
linverse, la thorie de lintgrale par rapport une mesure abstraite, telle
que dveloppe dans BrianePags [1] ou GaretKurtzmann [2] part dune
mesure (pas ncessairement de Radon) pour construire lintgrale. La mesure
de Lebesgue tant une mesure de Radon, la thorie de lintgrale par rapport
une mesure de Radon est susante pour la plupart des besoins en analyse,
en revanche, elle est incomplte aux yeux des probabilistes, qui ont besoin
dintgrer sur des espaces plus gnraux.
Dmonstration. Montrons lunicit. Soit 7 PS et 7 QS deux solutions.
Comme est polonais, il existe une famille dnombrable douverts (On )n1
telle que dcrite dans le thorme 33. Pour tout n, 7 PS (On ) et 7
QS (On ) sont des versions de lesprance conditionnelle de 11On sachant S.
Ainsi, lensemble
B= { : PS (On ) = QS (On )}
n1
Posons
N = { ; (f ) < 0}.
f Q[X1 ,...,Xd ];f
N c f P | (f )| f .
f 1/n. On a
(f ) = (f + 1/n) + (f f 1/n)
(f + 1/n) f f 1/n
2
(f + 1/n)
n
Mais f+1/n est une fonction positive de P. Comme N c , (f+1/n) 0,
do (f ) 2/n. En faisant tendre n vers linfini, on obtient (f ) 0.
Posons pour f C() :
(f ) = EP (f )1
1N () + (f )1
1N c ().
Comme la suite (PS (On )PS (Kn ))n0 est dcroissante, il sensuit que pour P-
presque tout , PS (On )PS (Kn ) tend vers 0. Ainsi, P-presque tout , PS (Kn )
tend vers P S (A). Ainsi, un P-ngligeable prs 7 PS(A) est S-mesurable.
Lidentit A 11Kn dP = A PS (Kn ) dP entrane la limite A 11B dP = A PS (B) dP.
4. voir lexercice 35
4.2. NOTION DE LOI CONDITIONNELLE 61
P(A B) = 11A (x)PS(x,y) (E B) dP(x, y) (4.4)
EF
= 11A (x)Px (B) dP(x, y) = 11A (x)Px (B) dPX (x). (4.5)
EF E
f (x, y)
y 7
F f (x, y) d(y)
par rapport .
5. Typiquement E = Rn et F = Rp .
6. On laisse ce point prciser en exercice. On notera quon na pas besoin ici du lemme
de Doob.
62 CHAPITRE 4. COMPLMENTS DE THORIE DE LA MESURE
bien dfini pour PX presque tout x. Ainsi, pour PX presque tout x, on peut
11B (y)f (x,y) d(y) 11B (y)f (x,y) d(y)
crire x (B) = F f (x,y) d(y) = F fX (x)
. On a alors
F
( )
F1
1B (y)f (x, y) d(y)
11A (x)x (B) dPX (x) = 11A (x) fX (x) d(x)
E E fX (x)
= 11A (x)1
1B (y)f (x, y) d(y) d(x)
E F
En rintgrant, on a maintenant
P(X A, (X, U ) B) = E[(X)] = (x) dPX
E
= (x) dX = (A B)
E
avec (4.4).
4.3. THORME DE RADON-NIKODM 63
donc
x R P(Q (U ) > x) = P(Q(x) > U ) = Q(x).
Il reste vrifier que Q (U ) prend presque srement ses valeurs dans R. Pour
u ]0, 1[, {x R; 1 F (x) u} nest ni lensemble vide, ni R tout entier,
car F admet 0 comme limite en et 1 en +. Comme P(U ]0, 1[) = 1,
le rsultat voulu sensuit.
Ainsi, si on pose
pour U variable alatoire suivant la loi uniforme sur [0, 1], la fonction
rpond aux hypothses du thorme.
Ainsi, en admettant que lon sache exprimer , on sait simuler (X, Y ) ds
lors que lon sait simuler X et une variable alatoire suivant la loi uniforme
sur [0, 1] indpendante de X.
E[Xn11{Xn >c} ] = EQ [1
1{Xn >c} ] = Q(Xn > c).
Pour montrer que Q(Xn > c) , il sut de montrer que P(Xn > c) .
Or, lingalit de Markov nous donne
4.3. THORME DE RADON-NIKODM 65
1 1 1
P(Xn > c) E[Xn ] = EQ [1] = ,
c c c
ce qui donne lqui-intgrabilit de la suite (Xn ). Comme (Xn ) est une mar-
tingale positive, Xn converge presque srement vers une fonction positive ,
et on a E[] E[X1 ] = EQ [1] = 1. Soit A Fn . Pour tout p n, on a
A Fp , do
Q(A) = EQ [1 1A ] = EXp11A .
Dmonstration. Soit (An )n1 une suite avec 0 < (An ) < + pour tout
n 1 et = n1 An . On pose
+
1
f= 11A .
n=1 2n (A)
+
1
= n
(A) = 1
n=1 2 (A)
Ingalits
n
Var Z E[(Z Zi )2 ].
i=1
Var Z = E(Y1 + + Yn )2
n
= E[Yi2 ]
i=1
69
70 CHAPITRE 5. INGALITS
2
E[eX |A] cosh exp( ).
2
Dmonstration. On pose f (x) = ex . f est convexe. Or on a la combinaison
convexe 1x2
(1) + 1+x
2
(1) (noter que 0 1x
2
1 et 1x
2
+ 1+x
2
= 1). Ainsi
f (x) 1x
2
f (1) + 1+x
2
f (1), soit
1 x 1 + x
ex e + e .
2 2
En substituant dans lingalit prcdente, on a
On a
+
2n
cosh() = 1 +
n=1 (2n)!
et 2 n
( 2 )
+ 2n
+
2
exp( /2) = 1 + =1+ n
n=1 n! n=1 2 n!
Or pour tout n 1, on a
2n 2n 2 .2 ... 2 2n
= n n
(2n)! 2 n! (n + 1).(n + 2) . . . (2n) 2 n!
2
En sommant les ingalits, on obtient bien que cosh() exp 2 . Do fina-
lement
2
E[eX |A] exp( ).
2
On note la suite des sommes partielles : Ln = ni=1 ki2 .
e(Yn+p Yp ) = e(Yn+p Yn+p1 ) e(Yn+p1 Yp ) . e(Yn+p1 Yp ) est Fn+p1 -mesurable,
donc
( )
E[e(Yn+p Yp ) |Fn+p1 ] = e(Yn+p1 Yp ) E[eDn+p |Fn+p1 ],
o lon a pos Dn = Yn Yn1 . Cependant, comme (Yn )n1 est une martingale,
2 2 2
E[e X
|Fn+p1 ] exp( ) = exp( kn+p ),
2 2
soit
2 2
E[eDn+p |Fn+p1 ] exp( k ),
2 n+p
do
1
E[e(Yn+p Yp ) |Fn+p1 ] e(Yn+p1 Yp ) exp( 2 kn+p
2
).
2
72 CHAPITRE 5. INGALITS
En prenant lesprance, on a
1
E[e(Yn+p Yp ) ] E[e(Yn+p1 Yp ) ] exp( 2 kn+p
2
),
2
soit
E[e(Yn+p Yp ) ] 1
exp( 2 kn+p
2
).
E[e (Y n+p1 Y p ) ] 2
En faisant le produit pour n variant de 1 , on obtient
E[e(Y+p Yp ) ]
1
exp( 2 kn+p
2
),
E[e(Y p Y p ) ] n=1 2
soit ( )
(Y+p Yp ) 1 2
1
E[e ] exp( 2
kn+p ) = exp 2 (L+p Lp ) .
2 n=1 2
Avec lingalit de Markov, on a
P(Y+p Yp x) P(e(Y+p Yp ) ex )
E(e(Y+p Yp ) )
(
ex )
1 2
exp x + (L+p Lp ) .
2
x
En prenant = L+p Lp
, on obtient
( )
1 1
P(Y+p Yp x) exp x2 ) .
2 L+p Lp
Finalement
( )
x2
P(|Y+p Yp | x) P(Y+p Yp x)+P(Y+p +Yp x) 2 exp .
2(L+p Lp )
On a pour tout n :
( )
+ + t2
E|Y0 Yn | =
2
2tP(|Y0 Yn | > t) dt 4t exp 2 dt = 4 2 .
0 0 2
5.2. LINGALIT DE HOEFFDINGAZUMA 73
(Yn Y0 )n0 est une martingale centre borne dans L2 : elle converge presque
srement et dans L2 vers une variable Y Y0 desprance nulle. Soient x > 0
et ]0, x[
P(|Y Y0 | > x) P(|Y Yn | > ) + P(|Y0 Yn | > x )
( )
(x )2
P(|Y Yn | > ) + 2 exp
2 2
En faisant tendre n vers +, puis vers 0, on obtient lingalit voulue.
E[f (X1 )g(X1 )] + E[f (X1 )g(X1 )] E[f (X1 )]E[g(X1 )] E[f (X1 )]E[g(X1 )] 0,
soit 2(E[f (X1 )g(X1 )]Ef (X1 )Eg(X1 )) 0, ce qui est lingalit voulue pour
n = 1.
do
E[H(X1 , . . . , Xn )] E[F (X1 , . . . , Xn )G(X1 , . . . , Xn )].
Mais F et G sont des fonctions croissantes, donc daprs lhypothse de r-
currence
x2
P(|g(n ) E(g(n ))| > x) 2 exp( ).
2nM 2
4. Application la loi hypergomtrique. Une urne contient r boules
rouges et b boules bleues. On en tire k boules sans remises. Soit X le
nombre de boules rouges tires. Montrer que
( )
kr x2
P X > x 2 exp( ).
b + r 2(b + r)
X n = max Xkn .
k0
n3/2
n N P(|Xn n/e| n) P(|Xkn E[Xkn ]| n).
k=0 2
x2
P(|En E(En )| > x) 2 exp( ).
2n
lien vers lindication
Var SA Var(X1 + . . . Xn ).
Statistiques exhaustives
P (S A0 , X A) = E [1
1{SA0 } PS (A)].
soit encore
79
80 CHAPITRE 6. STATISTIQUES EXHAUSTIVES
A= {A : (A) > 0, ( A) }.
P
Formons une suite (An ) telle (An ) converge vers sup (A). Soit i une
AA
mesure telle que ( Ai ) i . On pose
+
1
m= .
n i
n=1 2
sup (A) = (A ).
AA
Thorme 42. On suppose que la famille des lois (P ) est domine par
rapport une mme mesure -finie.
Alors, une statistique S est exhaustive si et seulement si il existe une
fonction h et des fonctions telles que la fonction de vraisemblance f (x)
scrive (S(x))h(x) presque partout.
et
Thorme 43. On suppose que la famille des lois (P ) admet une densit
par rapport une mme mesure -finie.
Alors, une tribu S est exhaustive si et seulement si il existe une fonction
h et des fonctions S-mesurables telles que la fonction de vraisemblance f
scrive
f (x) = (x)h(x) presque partout.
On a
P (X A) = P (X A|S) dP
= P (A) dP ()
= P (A) r () dm()
= P (A) g () dm(),
On a donc montr
P (X A) = Em (1
1XA g ),
cest dire que g est la densit de la loi P par rapport m.
Rciproquement, supposons que pour tout , il existe une fonction g
S-mesurable telle que pour tout A P (A) = Em (1 1A g ) et montrons que
A, (C) = Em (1
1C11A g )
= Em [Em [1
1C11A g |S]]
= Em [1
1C g Pm [A|S]
A, (C) = E [1
1A11C ]
= E (E [1
1A11C |S])
= E (1
1C P [A|S])
= Em (11C P [A|S]g ),
On en dduit que
Comme P m, on a encore
Notons enfin P (g = 0) = Em [1
1{g =0} g(S) ] = 0. Ceci permet de diviser
par g (S) et on obtient
o on a pos r(s) = iD ai i (s). La fonction r peut ventuellement tre
infinie, cependant lintgrale par rapport de r.h est 1, donc (r.h =
+) = 0, ce qui entrane m(r.h = +) = 0. Comme m(h = 0) = 0, on
a m(r = +) = 0, ce qui entrane que P (r = +) = 0 pour tout . r.h.
Ainsi r.h est la densit de m par rapport . Comme r.h est la densit de m
par rapport , m(r.h = 0) = 0. Comme P m, P (r.h = 0) = 0. Notons
Z = {r.h = 0}.
Pour tout A, on a
6.3. AMLIORATION DE RAO-BLACKWELL 85
P (A) = P (A Z)
= 11A11Z h d
rh
= 11A11Z h d
rh
= 11A11Z
rh d
r
= 11A11Z dm
r
= 11A dm
r
(s)
En posant g (s) = r(s)
, on peut alors appliquer le lemme.
Var g Var g.
dP dP dm
= ,
d dm d
soit f = dP
dm m
f . Ainsi r est la densit de P par rapport m. videmment, r
est T -mesurable, donc daprs le thorme de Fisher, T est exhaustive. Soit
S une tribu quelconque suppose exhaustive pour (P ). Daprs le thorme
de Fisher, on a une criture
f = h,
o est S-mesurable. On a alors
fm = i fi = i i h
iD iD
f h
r = = =
fm iD i i h iD i i
(En eet h est -presque srement non nulle.) Cette identit montre que r
est S-mesurable, do T = ((r )D ) S, ce qui montre bien que T est
minimale.
6.5. STATISTIQUES COMPLTES 87
Corollaire 10. On suppose que les mesures P ont toutes le mme support
et que les hypothses du thorme de Factorisation sont vrifies :
f (x) = h(x) (S(x)).
1
Si il existe 1 , 2 avec 1 = 2 tels que lapplication x 7 2
est bijective,
alors S est une statistique exhaustive minimale.
Dmonstration. Par dfinition, la tribu minimale vrifie T (S). Daprs
le thorme prcdent 1 (S(x)) est T (T )-mesurable. Si q = 1 est
2 2
bijective, alors S = q 1 ( 1 (S(x)) est T (T )-mesurable, donc (S) T ,
2
ce qui donne lgalit voulue.
( E [(S)] = 0) = ( (S) = 0 P ).
La dfinition peut sembler trange : en ralit elle exprime linjectivit de
lapplication linaire
X 7 (E (X))
Pour tout , on a
(x)(+ (S(x)) (S(x))) exp((), S(x)) d = 0.
soit encore
+ (y) exp(, y) dS (y) = + (y) exp(, y) dS (y)
+
(nz)k
F (z) = f (k)
k=0 k!
1 1 n
Xn = (X1 + + Xn ) et Sn2 = (Xi X n )2
n n 1 i=1
sont indpendantes.
lien vers lindication
92 CHAPITRE 6. STATISTIQUES EXHAUSTIVES
Chapitre 7
Information de Fisher
7.1 Hypothses
Si h est une fonction mesurable borne, on a
E h(X) = h(x)f x d.
Si jamais
h(x)f (x) d = h(x) f (x) d,
alors on aura
E [h(X)] = E [W h(X)], (7.1)
avec
W = ( log f )(X).
h H E [h(X)] = E [W h(X)]. (7.2)
Il existe plusieurs types despaces H et dhypothses qui permettent cette
intervertion de la drive. Par exemple
93
94 CHAPITRE 7. INFORMATION DE FISHER
Thorme 50. Si lon prend pour H lensemble des fonctions bornes, alors
une condition susante pour (7.2) est la suivante :
Pour tout , il existe un voisinage V de tel que
sup f L1 ().
V
Dmonstration. Cest une simple application du thorme de drivation sous
le signe intgrale.
Le thorme suivant est plus subtil :
Thorme 51. Si lon prend pour H lensemble des fonctions h telles que
la fonction 7 E [h2 (X)] est borne au voisinage de tout point de , une
condition susante pour (7.2) est la suivante : pour -presque tout x, la
fonction 7 gx () = f (x) est de classe C1 , et la fonction
( )2
7 I() = (gx ())2 d(x) = f (x) d(x)
d
log h (x) = log f (x) + log (x),
d( + )
W = ( log f )(X),
avec la convention que log f est nulle en dehors des intervalles o f est
strictement positive. On appelle information de Fisher la quantit I() dfi-
nie par
I() = E W2
Remarque 7. Lhypothse (7.2) est trs importante. Cest elle qui donne du
sens linformation de Fisher. Nanmoins, il est intressant de dfinir I()
avant de savoir si (7.2) est ralise, car on verra que certaines proprits de
I peuvent parfois tre utiles pour dmontrer que (7.2) est vrifie.
g () = E [h(X)W ] = E [gW ].
g () = E [(g E g)W ].
g ()2
0 < Var g = ,
I()
et donc
f (x) = exp(A()h(X) + B() + c(X))
On a donc bien un modle exponentiel de paramtre naturel A() et h est
une statistique exhaustive du modle.
Rciproquement, considrons un modle exponentiel : W scrit W =
()S + (). Comme E [W ] = 0, on a ()E [S] + () = 0. Ainsi
I S () I().
Si on suppose de plus que lhypothse (7.2) est vrifie, alors il y a galit
si et seulement si S est une statistique exhaustive pour ( , F , (P )S ).
Dmonstration. Daprs le thorme de transfert, on a pour tout et
tout h L2 ((P )S ),
h(x) d(P )S (x) = h(S(x)) dP (x) = E [(h(S(x))]
I S () = E [E [W |S]2 ] E (W )2 = I(),
E [W |S] = W ,
Thorme 56. Soit (Xn )nT une suite de variables alatoires sur (, F, P).
Lapplication X : 7 (Xn ())nT est une application mesurable de (, F)
dans lespace des trajectoires (RT , B(RT )). La loi image PX de P par X est
appele loi de la suite (ou du processus) (Xn )nT
101
102 CHAPITRE 8. LOI DUN PROCESSUS
Thorme 58. Tout processus stochastique a mme loi que son processus
canonique associ, quand on munit lespace de ses trajectoires de la loi PX .
B B(Rn ), Pn+1 (BR) = P((X1 , ..., Xn+1 ) BR) = P((X1 , ..., Xn ) B) = Pn (B).
n 1, P(X1 ,...,Xn ) = 1 n
n1
P (0 = x0 , . . . , n = xn ) = (x0 ) pxi ,xi+1 .
i=0
106 CHAPITRE 8. LOI DUN PROCESSUS
Dmonstration. On dfinit par rcurrence une suite de mesures (Pn )n0 avec
P0 = , puis
Soit A Dn+1 . On a
Pn+1 (A D) = Pn+1 ({(x0 , . . . , xn+1 )})
(x0 ,...xn )A xn+1 D
= Pn ({(x0 , . . . , xn )})pxn ,xn+1
(x0 ,...xn )A xn+1 D
= Pn ({(x0 , . . . , xn )})1
(x0 ,...xn )A
= Pn (A)
T : (, F) (, F).
8.3. PROCESSUS RELS STATIONNAIRES (TEMPS DISCRET) 107
T : (, F) (, F)
V T = ( T s1 +1 , . . . , T sn +1 ).
et
EYs = s dPY ().
RT
Dire que (Xs ) et (Ys ) ont mme loi, cest prcisment dire que PX =
PY . Cela implique donc quils ont les mmes esprances. Les identits
EXs Xt = s t dPX ()
RT
et
EYs Yt = s t dPY ()
RT
Dmonstration. La ncessit des deux conditions provient du fait que (cs,t )(s,t)SS
doit tre la matrice de covariance du vecteur (Xs )sS Pour voir que ces condi-
tions sont susantes, il sut dappliquer le thorme de Kolmogorov la
famille de mesures N (mS , CS ) o mS = (mt )tS et CS = (cs,t )(s,t)SS qui
est compatible.
110 CHAPITRE 8. LOI DUN PROCESSUS
Exercice 54. Soit une application mesurable de (RN , B(RN )) dans (R, B(R))
et (Xn )n0 un processus stationnaire. Dmontrer que le processus (Yn )n0
dfini par Yn = (Xn , Xn+1 , . . . ) = (n X) est stationnaire. lien vers
lindication lien vers la solution
ps2
1s+ps2
5. On rappelle le thorme de PringsheimHille : si une srie entire
coecients positifs a un rayon de convergence R < +, alors la fonc-
tion somme nadmet de prolongement analytique sur aucun voisinage
de R. la lumire de ce rsultat, montrer que p 14 .
6. En dduire quil nexiste aucun champ stationnaire 1-dpendant de
coloriages propres 3 couleurs.
lien vers lindication
Exercice 57. Soient (Xn )n1 , (Yn )n1 deux processus stationnaires ind-
pendants. Montrer que pour toute application mesurable de R R dans
R, le processus (Xn , Yn ) est stationnaire. Donner un exemple de processus
(Xn )n1 et (Yn )n1 stationnaires tels que Xn + Yn ne soit pas stationnaire.
lien vers lindication
114 CHAPITRE 8. LOI DUN PROCESSUS
Exercice 58. Soit (Xn )n1 un processus stationnaire. Montrer que le proces-
sus (Yn )n1 dfini par Yn = Xn + 2Xn+1 est stationnaire. lien vers lindication
Exercice 59. Soit (Xn )n0 une chane de Markov homogne dont lespace
dtat est fini. Montrer que (Xn )n0 est stationnaire si et seulement si X0 et
X1 ont mme loi. lien vers lindication
Exercice 60. Soit X0 une variable alatoire suivant la loi uniforme sur Z/7Z.
Soit (Tn )n1 une suite de variables alatoires indpendantes identiquement
distribues suivant la loi uniforme sur lensemble {1, 1}. On dfinit par
rcurrence une suite (Tn )n1 par Xn+1 = Xn + Tn+1 .On pose enfin Zn =
inf{k 0; Xn+k = 0}. Montrer que (Zn )n0 est un processus stationnaire.
lien vers lindication
Exercice 62. Soit un rel. Montrer que lapplication de [0, 1] dans lui-
mme qui x associe la partie fractionnaire de x + laisse invariante la
mesure de Lebesgue sur [0, 1]. Comment interprter ce rsultat si lon identifie
[0, 1[ au cercle unit par lapplication x 7 e2ix ? lien vers lindication
Exercice 63. On appelle bruit blanc une suite (Zn )nZ de variables alatoires
indpendantes suivant la loi N (0, 1). Soit (Zn )nZ un bruit blanc et =
(0 , . . . , q ) Rq+1 avec 0 = 0 et q = 0. On considre la moyenne mobile :
q
Xn = k Znq .
k=0
Chanes de Markov
n1
P(X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x0 ) pxi ,xi+1 .
i=0
115
116 CHAPITRE 9. CHANES DE MARKOV
3.
P(Xn = xn |X0 , . . . , Xn1 ) = pXn1 ,xn . (9.1)
Cela signifie que toute linformation que X0 , . . . , Xn1 peuvent nous ap-
porter sur Xn est comprise dans Xn . Remarque : (9.1) implique que P(Xn =
xn |Xn1 ) = pXn1 ,xn
Alors (Xn )n0 est une chane de Markov de loi initiale et de matrice de
transition M , o M est dfinie par
P = i ,
iS
n1
P (X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x0 ) pxi ,xi+1 .
i=0
118 CHAPITRE 9. CHANES DE MARKOV
Corollaire 13. Soit P une matrice markovienne sur S. Pour tout , on note
P la mesure markovienne sur S N de loi initiale et de matrice de passage
P , ainsi que Pi = Pi . Pour toute loi sur S, P admet la dsintgration
P =
Pi d (9.2)
n1
(X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x0 ) pxi ,xi+1 .
i=0
Remarques :
On trouve parfois la notation Pi la place de Pi . Dans ce cas, il faut
faire attention quil peut y avoir ambiguit sur le sens de la notation
PX .
montre que la srie converge absolument. De plus, comme pour tout i, |P f (i)|
f , on a P f f : P est une contraction de lespace des fonctions
bornes.
Remarque : (P f )(i) est lintgrale de la fonction f par rapport la mesure
de probabilit sur S qui aecte la j la probabilit pi,j .
Thorme 68. Soit (Xn )n0 une suite de variables alatoires valeurs dans
S. On a quivalence entre
1. (Xn )n0 est une chane de Markov de matrice de passage P valeurs
dans S.
2. Pour toute fonction f (S) et pour tout entier n 0
Corollaire 14. Soit (Xn )n0 est une chane de Markov de matrice de passage
P valeurs dans S, f (S). Si lon pose Fn = (X0 , . . . , Xn ), alors la
suite (Yn )n1 dfinie par
E[Yn+1 |Fn ] = E[f (Xn+1 )|Fn ]E[(P f )(Xn )|Fn ] = (P f )(Xn )(P f )(Xn ) = 0.
Corollaire 15. Soit (Xn ) une chane de Markov valeur dans S, de matrice
de transition P et de loi initiale i , avec i inS. Alors, pour tout j S, on a
Pi (Xn = xn ) = Pi (X0 = x0 , X1 = x1 , . . . Xn1 = xn1 , Xn = xn ).
(x0 ,...xn1 )S n
(9.5)
(n)
En particulier, si lon pose pi,j = P (Xn = j), on a
i
(n)
pi,j = Pi (X1 = x1 , X2 = X2 , . . . Xn1 = xn1 , Xn = j).
xS n1
(n)
Donc pi,j > 0, autrement dit il est possible daller en n tapes de ltat i
ltat j si et seulement si on peut trouver dans le graphe G un chemin de
longueur n allant de i j.
On en dduit que
Or
E1
1A11{Xp+. B} = E1
1A11{Xp =i}11{Xp+. B}
i
= P(A, Xp = i, Xp+. B)
i
= P(A, Xp = i)Pi (X B)
i
= E[1
1A{Xp =i} Pi (X B)]
i
= E[1
1A{Xp =i} fB (Xp )]
i
= E[1
1A fB (Xp )]
Pi (X B) = Pi (X 1 (B))
= Pi ((X) B)
= Pi (X1 = j)Pj (X B)
i:P i (X1 =j)>0
= pi,j Pj (X B)
i:pi,j >0
126 CHAPITRE 9. CHANES DE MARKOV
3. Si (, ) = (1, 1), montrer que (Xn )n0 converge en loi vers une loi
que lon dterminera. On supposera pour la suite de lexercice que
(, ) = (1, 1).
4. (Mesure stationnaire) Prouver que, pour tout n N,
P (Xn A) = (A).
Montrer que la suite (Xn )n0 ainsi dfinie est une chane de Markov
homogne. Donner sa matrice de transition.
4. Application. Comment simuler une chane de Markov homogne de
matrice de transition P = (pi,j ) ? Ecrire un algorithme explicite si
0.25 0.5 0.25
P = 0.5 0 0.5 .
0.5 0.5 0
TB = inf{n 0; Xn B}
le temps dentre dans B et on pose Yn = XnTB . Montrer que (Yn )n0 est
une chane de Markov sur E dont on prcisera la matrice de transition. lien
vers lindication
Exercice 72. Soit (Xn )n0 une chane de Markov valeurs dans N. On note
A lensemble des points absorbant de la chane. Montrer que (Xn ) ne peut
converger que vers un lment de A.
Plus prcisment : si il existe un vnement B et une variable alatoire Y
telle que
B lim Xn () = Y (),
n+
pun+1 un + qun1 = 0.
Que valent ua et ub ?
3. Rsoudre lquation de rcurrence et en dduire
( pq )b 1
pg = . (9.6)
( pq )a+b 1
1
vn = 1 + (vn+1 + vn1 ).
2
5. Exprimer vn en fonction de n.
lien vers lindication
5 (Nicodmus)
Exercice 77. Soit a et b des entiers suprieurs ou gaux 2, (Dn )n1 une
suite de variables alatoires i.i.d. valeurs dans Z/aZ Z/bZ vrifiant
1
P (D1 = (0, 1)) = P (D1 = (1, 0)) = .
2
Soit (Dn )n1 une suite de variables alatoires et S0 une variable alatoire
valeurs dans Z/aZ Z/bZ indpendante de (Dn )n1 Pour n 1, on pose
n
Sn = S0 + Dk .
k=1
Montrer que (Sn ) est une chane de Markov . Est-elle irrductible, aprio-
dique ?
lien vers lindication
E[1
1A F ((Xn+p )n1 )] = P(A)g(Xp ),
avec g(x) = Ex F ((Xn )n1 ).
On rappelle que pour toute variable alatoire Y positive et toute proba-
bilit P, on a EY = 0+ P(Y > t) dt. lien vers lindication
Exercice 79. Madame Brisby II
On reprend la chane de Markov des aventures de madame Brisby. On note
lespace dtats E = {1, 2, 3, 4, 5} et lon pose A = {4, 5} Soit f : E C
telle que x A f (x) = 0.
On pose F = + k=1 f (Xk ).
Montrer que E|F | (ET 1)f .
Montrer lidentit
E1 F E1 f (X1 )
2
(I N ) E F = E f (X1 )
2
,
E3 F E3 f (X1 )
En dduire E1 T, E2 T, E3 T .
lien vers lindication
Exercice 80. volution dun gnotype avec fixation
Nous travaillons ici sur une population de taille fixe forme de 2N gnes. Il
y a deux types de gnes possibles : le type a et le type A. Chacun des
gnes au temps n + 1 est engendr par deux des 2N gnes prsents au temps
N . Son type est celui dun de ses deux parents (choisi au hasard).
On considre la variable alatoire Xn gale au nombre dindividus de type
A dans la population ltape n.
On admettra quon peut modliser lvolution par la rcurrence suivante :
2N
Xn+1 = 11{Yn+1,k Xn } ,
k=1
Exercice 81. Limage dune chane de Markov nest pas (toujours) une
chane de Markov.
On considre
la chane de Markov (Xn ) sur E = {0, 1, 2} de matrice de tran-
0 0 1
sition 0 1 0
et de loi initiale 0 = ( 3 , 3 , 3 ). Soit f : E {0, 1} telle
1 1 1
1 0 0
que f (0) = f (1) = 0, f (2) = 1. Montrer que (f (Xn )) nest pas une chane de
Markov.
lien vers lindication
Exercice 82. Limage dune chane de Markov peut tre une chane de Mar-
kov.
Soit (Xn ) une chane de Markov sur un ensemble dnombrable E de matrice
de transition P . Soit une application surjective de E dans un ensemble F
telle que
Montrer que la suite (Yn ) dfinie par Yn = (Xn ) est une chane de Markov
et dterminer sa matrice de transition. Montrer que si est une probabilit
stationnaire pour la chane (Xn ) alors limage de par est stationnaire
pour (Yn ).
lien vers lindication
Exercice 83. Soit , deux lois sur N. est appele loi de reproduction et
est la loi de la taille de la population initiale.
On appelle chane de Galton-Waltson de loi initiale et de loi de repro-
duction la chane de Markov de loi initiale et de matrice de transition
i (j) si i = 0
pi,j =
0 (j) si i = 0
Montrer que si (Xn )n0 et (Yn )n0 sont deux chanes de Markov indpen-
dantes, (Xn )n0 tant une chane de Galton-Waltson de loi initiale 1 et de
9.4. EXERCICES SUR LES CHANES DE MARKOV 133
Rcurrence et mesures
invariantes
135
136 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES
P(A, XT +. B) = E[1
1A fB (XT )]
Pi (1 + Ni = k) = Pi (1 + Ni k) P (Ni k)
= Pi (Ti < +)k1 Pi (Ti < +)k
= Pi (Ti < +)k1 (1 Pi (Ti < +)),
+
Ei Ni = Ei 11{i} (Xk )
k=1
+
= i
E 11{i} (Xk )
k=1
+
= Pi (Xk = i)
k=1
(k) (k)
Ainsi, si la srie de terme gnral pi,i diverge, la srie de terme gnral pj,j
aussi. Comme les rles de i et j sont symtriques, les deux sries sont de
(k)
mme nature. Comme pi,i = Pi (Xk = i), le rsultat dcoule du corollaire
prcdent.
Ensuite
Si une chane de Markov irrductible nest pas rcurrente, les tats sont
(n)
tous transitoires et lim (i)mi,j = 0 quels que soient i et j. Daprs le
n+
thorme de convergence domine, on a alors
j S 0 = (j),
142 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES
ce qui est impossible. Le premier point est donc dmontr. Prenons mainte-
nant x E tel que (x) > 0 et soit y un autre lment de E. Il existe un
entier n et une suite x = x0 , x1 , . . . xn = y dlments de E avec pour tout i
entre 0 et n 1, mxi ,xi+1 > 0. Ainsi
n1
(y) = P (Xn = y) P (X0 = x0 , X1 = x1 , . . . Xn = xn ) = (x) mxi ,xi+1 > 0.
i=0
Thorme 75. Toute chane de Markov sur un espace dtats S fini admet
une probabilit invariante.
Dmonstration. Lensemble M(S) des mesures de probabilit sur S siden-
tifie au compact K = {(x1 , . . . , xn ) Rn+ ; nk=1 xk = 1}, avec n = |S|. M(S)
est un convexe stable par 7 M . Ainsi, si est une mesure quelconque
sur S, la suite (n )n0 dfinie par
1 n1
n = M k
n k=0
n
est valeurs dans M(S). On a n (I M ) = (IM n
)
. Comme la suite
(I M n ))n0 , est borne, il sensuit que toute valeur dadhrence de (n )n0
est laisse fixe par M . Comme M(S) est compacte, (n )n0 a au moins une
valeur dadhrence donc M au moins une mesure invariante.
Corollaire 23. Une chane de Markov irrductible dont lespace dtats est
fini est rcurrente.
Remarque-exercice : Sil est vrai quune chane de Markov avec un
espace dtat fini admet toujours une mesure invariante ; en revanche elle
nadmet pas toujours de probabilit rversible. Voici un exemple simple. Soit
N 3 un entier et p ]0, 1]. Considrons une suite (Xn )n1 de variables
indpendantes valeurs dans Z/N Z avec P(Xn = 1) = 1 P(Xn = 0) = p.
On pose Sn = X1 + + Xn . On peut dmontrer que (Sn )n1 est une chane
de Markov, qui admet la probabilit uniforme comme probabilit invariante,
mais la seule mesure rversible pour la dynamique est la mesure nulle.
((i, j), (k, l)) S 2 S 2 (M N )(i, j), (k, l) = M (i, k)N (j, l).
Ainsi ((Zn )n0 = ((Xn , Yn ))n0 est une chane de Markov irrductible. Comme
M M admet comme mesure invariante, la dynamique est donc r-
currente : (Zn )n0 passe donc presque srement en tout point de S S. En
particulier, elle passe presque srement sur sa diagonale, ce qui implique que
P( < +) = 1.
Soit f une fonction borne de S dans R. Pour n , on a f (Xn ) = f (Xn ).
Donc f (Xn ) f (Xn ) converge presque srement vers 0. Daprs le thorme
de convergence domine, on en dduit que E(f (Xn ) f (Xn )) converge vers
0. Comme est invariante E(f (Xn ) f (Xn)) = f d Ef (Xn ). Ainsi
pour toute fonction f , Ef (Xn ) converge vers f d, ce qui veut dire que Xn
converge en loi vers .
1 n1 11{T <+}
lim 11{x} (Xk ) = xx p.s.
n+ n
k=0 E Tx
1 n1 1
lim 11{x} (Xk ) = x .
n+ n
k=0 E Tx
146 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES
n1
Dmonstration. Si Tx = +, lgalit est vidente, car n1 k=0 11{x} (Xk ) =
1 1 n1
11
n {X0 =x}
pour tout n. Si Tx < +, la suite de terme gnral n k=0 11{x} (Xk ) a
n1
le mme comportement asymptotique que la suite de terme gnral n1 k=0 11{x} (XTx +k ).
Or, daprs la proprit de Markov forte, la loi de la suite de terme gnral
1 n1
11 (XTx +k ) sous P est la mme que la loi de la suite de terme gnral
n k=0 {x}
1 n1
k=0 11{x} (Xk ) sous Px : on est ramen tudier le cas o P = Px .
n
Si x nest pas rcurrent, on a Ex [Tx ] = + et + k=0 1
1{x} (Xk ) est fini
Px -presque srement : cela donne lidentit voulue.
Passons donc au cas o x est rcurrent. Pour tout k 1, posons T k =
n
inf{n > 0, 11{x} (Xi ) k}. Les T k sont des temps darrt adapts la
i=1
filtration naturelle engendre par (Xn )n0 . Comme x rcurrent, les T k sont
presque srement finis. Il est ais de constater que la suite (T k )k1 est crois-
sante. Pour tout i {1, . . . k}, T i est FT i -mesurable (voir chapitre sur les
martingales). Comme T i T k , on a FT i FT k . Finalement, (T 1 , . . . , T k )
est une sous-tribu de FT k . Soit k 1 et A (T 1 , . . . , T k ) : il est clair que
A se produit avant T k . Ainsi, on va pouvoir utiliser la proprit de Markov
forte :
k
Px (A, T k+1 Tk > n) = Px (A, Tj=T+nk +111{x} (Xj ) = 0)
= Px (A)Px (nj=111{x} (Xj ) = 0)
= Px (A)Px (T 1 > n)
1 n1 1
lim 11{x} (Xk ) = x = (x) > 0.
n+ n
k=0 E Tx
Corollaire 25. Une chane de Markov irrductible dont lespace dtat est
fini a exactement une mesure invariante. Ses tats sont tous rcurrents po-
sitifs.
Dmonstration. On sait dj que tous les tats dune chane de Markov ir-
rductible dont lespace dtat est fini sont rcurrents. On sait galement
1. On verra plus tard que pour une chane de Markov espace dtats fini, les tats
rcurrents sont tous rcurrents positifs. Les notions de rcurrence positive et de rcurrence
nulle que lon vient dintroduire nont donc pas vraiment de pertinence dans le cas de
ltude des chanes de Markov espace dtat finis.
148 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES
quune chane de Markov sur un espace dtats fini admet au moins une mu-
sure invariante. Daprs le prcdent corollaire, cette mesure est unique. En
rappliquant le thorme, on voit que les tats sont tous rcurrents posi-
tifs.
Le thorme 78 admet une rciproque.
Thorme 79. Soit (Xn )n0 une chane de Markov irrductible et rcurrente
sur S. On suppose quil existe x S tel que Ex [Tx ] < +.
Alors, la chane admet une unique probabilit invariante qui est don-
ne par y S (y) = Ey [T 1
y]
> 0. Dans ce cas, on dit que la chane est
rcurrente positive.
1
Dmonstration. Posons m(y) = Ey [T y]
. m est une mesure positive sur S.
Ce nest pas la mesure nulle car m(x) > 0. Ainsi, si lon montre que la
mesure m est invariante sous la dynamique et que m est une mesure finie, la
probabilit = m/m(S) sera une probabilit invariante sous la dynamique.
1
Daprs le thorme 78, on aura (y) = Ey [T y]
pour tout y. De plus, daprs
le thorme 74, (y) > 0 pour tout y.
Montrons dj que m est finie : soit S une partie finie de S.
On a
1 n1
11x (Xk ) 1,
n k=0 xS
do en faisant tendre n vers linfini, on a avec le thorme 77 :
m(x) 1,
xS
do
E[Yn ] 1 n
= P(Xk1 = y, XXk = x)
n yS n k=1
1
n
= P(Xk1 = y)py,x
yS n k=1
10.5. THORME ERGODIQUE DES CHANES DE MARKOV 149
do en passant au sup
m(x) m(y)py,x .
yS
Cependant
m(y)py,x = m(y)py,x = m(y)1
xS yS yS xS yS
Ainsi (Sny )n1 est une martingale 2 . Comme T x est un temps darrt, le
y
thorme darrt dit que (SnT )
x n1
est aussi une martingale, en particulier
Ex [SnT
y
x
] = 0 pour tout n. S y
nTx tend presque srement vers STyx . Comme
|SnT
y
x
| Tx , le thorme de convergence domine nous donne Ex [STyx ] = 0.
Cependant,
x 1
T
STyx = 11{Xk+1 =y} pXk ,y
k=0
Tx x 1
T
= 11{Xk =y} 11{Xk =z} pz,y
k=1 k=0 zS
Tx
= 11{Xk =y} Nzx pz,y
k=1 zS
= 1
1{X0 =y} + 11{x=y} + Nyx Nzx pz,y
zS
0 = Ey [Nyx ] Ex [Nzx ]pz,y ,
zS
x
ce qui dit bien que (E [Nzx ])zE
est une mesure invariante. Pour avoir une
mesure de probabilit, il sut de diviser par
Ex [Nzx ] = Ex [ Nzx ] = Ex [Tx ].
zE zE
est une suite de dirences de martingales adapte la filtration canonique des Xi . Ici, on
a simplement pris f =11i .
10.6. RETOUR LA CLASSIFICATION DES TATS (*) 151
Tx
. Comme (x) > 0, on a Ex [Tx ] < +.
Thorme 83. Soit pi,j une matrice markovienne. Soient (Ai )iI les classes
absorbantes associes la chane, et J I lensemble des x tels que la chane
de Markov de matrice (pi,j )i,jAx soit rcurrente positive. La chane (pi,j )i,jE
possde au moins une probabilit invariante si et seulement si J est non-vide.
Dans ce cas, les probabilits invariantes sont exactements les probabilits
x x ,
xJ
Daprs les deux thormes prcdents, ne charge que des tats rcurrents
positifs, terminaux : J est donc non-vide. Soit C = xJ Ax . On sait que (i)
est nul pour i E\C. Soit x J. On sait quon ne peut accder de Ax qu
des points de Ax : i Ax j S\Ax pi,j = 0. Ainsi
i Ax pi,j = pi,j pi,j = 1 0 = 1.
jAx jS jS\Ax
La matrice (pi,j )i,jAx est donc markovienne. On a galement jS (j)pj,i =
Par ailleurs, pour i S\Ax , observons les termes de la somme jS x (j)pj,i :
si j Ax , pj,i est nul, tandis que pour j S\Ax , j (j) = 0 : le produit
j (j)pj,i est toujours nul, et on a
j (j)pj,i = 0 = 0 = x (i).
jS jS
Montrer quil existe une unique mesure invariante, puis la donner. lien vers
lindication lien vers la solution
Exercice 85. On suppose que est la mesure invariante dune chane de
Markov sur S. Montrer que si les points i et j de S sont tels que (i) > 0 et
i j pour cette chane de Markov, alors (j) > 0. lien vers lindication lien
vers la solution
Exercice 86. Retournement du temps et oprateurs associs
Soit S un ensemble fini ou dnombrable, une mesure finie sur S.
1. Soit P = (pi,j )(i,j)S 2 , une matrice markovienne. On suppose que P
laisse invariante. Pour f 2 (), on pose
i S (P f )(i) = pi,j f (j)
jS
i, j S (i)pi,j = (j)qj,i .
Ef (X0 )
(b) On suppose > 0. Montrer que E[T ]
.
2. Soit (Xn )n0 une chane de Markov valeurs dans E, de matrice de
passage (pi,j ). Dans toute cette question, on suppose quil existe un
rel 0, une fonction f : E R+ et un ensemble M tels que
i E (P f )(i) = pi,j f (j) < +
jE
et
i E\M (P f )(i) = pi,j f (j) f (i) .
jE
On pose T = inf{n 0; Xn M }.
(a) On suppose > 0. laide du thorme 68, montrer que E[T ]
Ef (X0 )
.
(b) Ici = 0. On suppose que la chane est irrductible, que M est
fini et que pour tout N , {x E; f (x) < N } est fini. On note N le
temps dentre dans {x E; f (x) N }. Montrer que pour pour
tout N assez grand, on a N P(N < T ) E(f (X0 )). En dduire
que P(T < +) = 1.
(c) Thorme de Foster
On suppose encore que la chane de Markov est irrductible et que
M est fini. laide de lexercice prcdent, montrer que la chane de
Markov (Xn ) est rcurrente, et mme rcurrente positive si > 0.
lien vers lindication lien vers la solution
Tk+1 = Tk + 11{XTk A}
/ inf{n 0, XTk +n = XTk },
avec la convention 0. = 0.
1. Montrer que les (Tk )kN sont des temps darrt pour (Xn )nN , finis
presque srement.
2. On dfinit Yk = XTk . Montrer que (Yk )kN est une chane de Markov
homogne, donner son espace dtats et sa matrice de transition.
lien vers lindication
156 CHAPITRE 10. RCURRENCE ET MESURES INVARIANTES
Exercice 90. Soient p ]1/2, 1[ et (Xn )n1 une suite de variables alatoires
indpendantes de loi commune p1 + (1 p)1 . On pose S0 = 0, puis pour
tout n 1 : Sn = nk=1 Xk . Soient a et b des entiers relatifs strictement
positifs. On pose V =] , b] [a, +[. Soit T = inf{n 0; n V }.
Calculer
P(p T ; Sp = 0).
On pourra utiliser les rsultats de lexercice : le joueur inruinable.
lien vers lindication
Xn+1 = Xn + Vn+1 ,
Montrer quon peut modliser ceci par une chane de Markov. Quelle est la
probabilit, sachant quil a plu lundi et mardi quil pleuve jeudi ? Sur le long
terme, quelle proportion de jours de pluie observe-t-on ?
lien vers lindication
i pi,j = j pj,i .
Exercice 97. Loi de Pascal Soit (Xn )n1 une suite de variables alatoires
de Bernoulli de paramtre p. On pose, pour n 1, Sn = X1 + + Xn et
n = inf{n 1; Sn n}. On appelle loi de Pascal (ou loi binomiale ngative)
de paramtre n et p.
1. Montrer que la suite (i i1 ) est une suite de variables alatoires
indpendantes dont on prcisera la loi.
2. Donner une expression explicite de P(n = k), pour k n.
3. Calculer la fonction gnratrice de la loi de Pascal de paramtres n et
p.
lien vers lindication
Annexe A
Indications
159
160 ANNEXE A. INDICATIONS
Indication
11 On pourra commencer par tablir que E[T |U = k] = (k +
n+1
( )x n
1) nk k+1
n 1, puis faire ventuellement une transformation dAbel.
nk ( k )
xn
K exp((ax2 + bx + c))
Indication 21
Utiliser le thorme de convergence domine conditionnel.
On peut sinspirer de la preuve de lingalit de Markov.
On pourra remarquer que E[1
1{Y >M } |A] Z/M .
Il sagit de montrer que limn+ P(Y > M ) = 0.
Indication 27 1. Classique.
2. Utiliser lingalit de Cauchy-Schwarz.
3. On pourra montrer que Ynt = o(Ynt/2 ).
4. On pourra commencer par montrer que (t) > E(X1 )t, en commen-
ant par traiter le cas o X1 prend des valeurs positives.
E|W |1
1{|Tn a} tP(|Tn | a) + E|W |1
1{|W |t} .
E|Yn |1
1{|Yn a} 2E|Z|1
1{|Yn a} .
|Yn Y | |Yn |1
1{|Yn |a} + |Y |1
1{|Yn |a} + |Yn Y |1
1{|Yn |<a} .
C 1 EQ [f ] EP [f ] CEQ [f ].
On a = ((Xe )eD ) o les (Xe )eD sont des variables de Bernoulli ind-
pendantes de paramtre p.
Des probabilits sur RN sont caractrises par leurs lois de dimensions finies.
Utiliser la question 1 avec n = 1.
: RN RN
((xn )n0 ) 7 ((n x))
Pq (1 = x1 , . . . , n = xn ) = Pq (1 = xn , . . . , n = x1 )
q
= Pq (1 = xn , . . . , n = x1 , n+1 = a)
a=1
n : Rn Rn Rn
((x1 , . . . , xn ), (y1 , . . . , yn )) 7 (x1 + y1 , . . . , xn + yn )
n : Rn+1 Rn
(x1 , . . . , xn ) 7 (x1 + 2x2 , x2 + 2x3 , . . . , xn1 + 2xn )
Indication 59 Si (Xn )n0 est une chane de Markov, (Xn+1 )n0 est aussi
une chane de Markov, ayant la mme matrice de passage.
Indication 60 On pourra commencer par montrer que (Xn )n0 est station-
naire. En particulier, il faut montrer que X0 et X1 ont mme loi.
(n+1)2 +(n1)2
5. On peut remarquer que n2 = 1 + 2
.
Indication 77 On pourra remarquer que si P( nk=1 Dk = (0, 0)) > 0, alors
il existe i, j positifs ou nuls avec i + j = n, a|i et b|j.
Indication 80 1. La suite (Yn,1 , Yn,2 , . . . , Yn,2N )n1 est une suite de vec-
teurs alatoires indpendants de mme loi que lon peut utiliser pour
obtenir une reprsentation canonique.
2. Se ramener ltude dune somme de variables de Bernoulli.
3. Il y a plusieurs mthodes. On peut par exemple calculer [EXn+1 |(X1 , . . . , Xn )],
ou utiliser des techniques gnrales sur les chanes de Markov dont
lespace dtat est fini et qui possdent des points absorbants .
4. On pourra remarquer que la suite (EXn )n1 est constante.
Indication 81 Si (Yn )n0 est une chane de Markov avec Pa (Y1 = b) > 0 et
Pb (Y1 = c) > 0, alors Pa (Y1 = b, Y2 = c) > 0.
Indication 83 On peut commencer par montrer que (Xn , Yn )n0 est une
chane de Markov, puis utiliser lexercice prcdent.
170 ANNEXE A. INDICATIONS
Pour montrer que les (Tk )kN sont finis presque srement, on peut
remarquer que Tk+1 = Tk + F (XTK +. ), o F (x) = inf{n 0, xn = x0 }
A.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES171
qui mrite sans doute quelques mots : soit (n )n1 une suite valeurs dans
{0, 1} telle que n1 nk=1 k (x) p.
Pour n 1, on peut crire
n1
+
k
n nk
2 X= 2 k + n + kn
k=0 k=n+1 2
173
174 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS
On a pour tout k n, 0 k 1, do 0 + k=n+1 2kn 1. Ce-
k
n1
2 X =
n
2nk k + n .
k=0
n1
Mais k=0 2nk k est pair et n {0, 1}, donc n = r(2n X, 2) = An (X).
Pour q = p, q (Ep ) = q (Ep Eq ) + q (Ep Eqc ) q () + q (Eqc ) = 0,
soit q (Ep ) = 0. Ep est de probabilit 1 sous p , 0 sous q si q = p : ces
mesures de probabilit sont trangres deux deux . En particulier pour
p = 1/2, p est trangre 1/2 qui est la restriction [0, 1] de la mesure de
Lebesgue. Finalement, p a une densit par rapport la mesure de Lebesgue
si et seulement si p = 1/2.
on a le rsultat.
2. Comme les Xi sont entre 0 et 1, on a Zn2 n2 (X12 + . . . Xn2 )2 .
Si Nn n/3, alors n2 (X12 + . . . Xn2 )2 144,
sinon, on a n2 (X12 + . . . Xn2 )2 n2 (X12 + . . . XN2 )211{Nn <n/3} .
3. EQ2N = [0,1]N (x2 ++x
1
2 )4 dx1 . . . . . . dxN 2N
1 1
B(0, N ) x82 dx1 . . . dxN ,
1 N
o la dernire boule est une boule pour la norme euclidienne de RN .
Daprs le thorme dintgration
des fonctions radiales , on a
1
. . . dxN = VN 0 N t8 N tN 1 dt, o VN est le volume
B(0, N ) x82 dx1
de la boule unit de dimension N . Ainsi pour N = 9, on a bien
lintgrabilit.
B.2. EXERCICES SUR LQUI-INTGRABILIT 175
avec C = 2
(e + e2/3 ). Je choisis
1 /3
> 0 tel que e/3 = 1, 5 : jai
1 3
alors C = ( + 49 ) < 1. La suite Zn
2 2
est borne dans L2 , donc qui-
intgrable. La convergence presque sre ajoute lqui-intgrabilit
entrane la convergence dans L1 .
E(Xn3 ) = E(Sn +)3 = E(Sn3 )+3 +3E(Sn2 )+32 E(Sn ) = E(Sn3 )+3 +3E(Sn2 ).
1. Loubli de cette vrification est une source classique derreurs. Ainsi, si Xn suit la loi
uniforme sur [n, n], EXn3 est identiquement nulle, mais (Xn ) nest pas borne dans L3 .
176 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS
Mthode 2.
Si B1 , . . . , Bn sont des nombres valant 0 ou 1, le nombre de triplets
(i, j, k) avec i < j < k et Bi = Bj = Bk = 1, vaut 1i<j<kn Bi Bj Bk .
Mais cest aussi le nombre de parties de cardinal 3 de lensemble des
i tels que Bi = 1. Comme il y a exactement Sn = B1 + + Bn tels
i, on a
Sn (Sn 1)(Sn 2)
Bi Bj Bk = .
1i<j<kn 6
x x 9
x3 = x(x 1)(x 2) x(x 1)(x 2).
x1x2 2
X1
1A = X1
1{N BN}
+
N
= 11nB X1
1{N =n} = lim 11nB X1
1{N =n}
N +
n=0 n=0
Comme | N n=0 1
1nB X11{N =n} | X, avec le thorme de convergence
domine, on a E[X1 1A ] = limN + + 11nB E[X1
1{N =n} ]. Les mmes
+
n=0
arguments donnent E[Y 11A ] = limN + n=0 11nB E[Y 11{N =n} ]. Comme
E[X11{N =n} ] = E[Y 11{N =n} ], on a finalement E[X1 1A ] = E[Y 11A ], ce qui
donne le rsultat voulu puisque Y est (N )-mesurable.
2. E(U11{N =n} ) = E((X1 + + Xn )1
1N =n ) = E(X1 + + Xn )E(1
1N =n ) par
indpendance. On a donc E(U11{N =n} ) = nE(X1 )E(1 1N =n ) = E(X1 )E(n1 1N =n ) =
E(X1 )E(N11N =n ) = E[E(X1 )N11N =n ], o la dernire galit est encore
obtenue par indpendance. Avec la premire question, on en dduit
E(U |N ) = E(X1 )N = qN .
ET11{U =k} nP(U = k, N = n)
E[T |U = k] = = nk
P(U = k) nk P(U = k, N = n)
( )
nk np(1 p) q k (1 q)nk
n n
k
= ( )
nk p(1 n
p) kn
q k (1 q)nk
( )
n
nk nxnk
= ( )
n
avec x = (1 p)(1 q)
n
nk x k
( ) ( )
n n+1
nk (n + 1)xn k nk (k + 1) k+1
xn
= ( )
n
1= ( )
n
1
nk xn k nk k
xn
( )
n+1 n
nk k+1 x
= (k + 1) (
n
) 1
n
nk k x
( )
n n+1
On fait une transformation dAbel : on pose rn = kn x cn = k+1
pour
n k et cn = 0 pour n < k :
178 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS
Ainsi
( )
n+1 n
x = cn (rn rn+1 ) = cn rn cn rn+1
nk k+1 nk nk nk
= cn rn cn1 rn = cn rn cn1 rn
nk nk+1 nk nk
= (cn cn1 )rn
nk
( )
Pour n = k on a cn cn1 = ck ck1 = ck = 1 = n
. Pour n > k, on a
( ) ( ) ( ) n
xn
cn cn1 = n+1
k+1
n
k+1
= n
k
. Par ailleurs rn = 1x
Finalement
( )
n xn
nk k 1x
E[T |U = k] = (k + 1) ( )
n
1
n
nk k x
k+1 k x
= 1= +
1x 1x 1x
Finalement E[T |U ] = 1x
1 x
U + 1x = x+EU
1x
.
Pour mettre lpreuve nos calculs, on va vrifier que E(E[T |U ]) = E(T ).
On va vrifier que EU +x
1x
= E[T ] ou, de manire quivalente x = ET EU
ET +1
:
ET EU ( 1 1)(1 q)
= p1
ET + 1 ( p 1) + 1
( p1 1)(1 q)
= 1
p
= (1 p)(1 q)
2. (a) Xn+1 est une combinaison convexe de Xn2 et 1. Ainsi, si Xn est dans
[0, 1], Xn2 sera encore dans [0, 1], et par combinaison convexe, Xn+1
sera encore dans [0, 1]. Ainsi, pour a [0, 1], la suite (Xn ) sera
valeurs dans [0, 1], donc borne dans L1 . Comme (Xn )n0 est une
sous-martingale, le thorme de Doob assure que (Xn ) converge
presque srement vers une variable X .
2
(b) E[Xn+1 ] = E[E[Xn+1 |Fn ]] = E 1+X 2
n
. Par convergence domine (par
1), le membre de gauche converge vers E[X ] tandis que le membre
)2
de droite converge vers E 1+(X
2
. On a donc
1 + (X )2
EX = E .
2
2 1+(X )2
Mais comme X 1+(X
2
)
, on obtient que X = 2
presque
srement, do X = 1 presque srement.
Comme x 7 d(x, F ) est continue, elle est borlienne ; par composition, lap-
plication 7 d(Xn (), F ) est borlienne, et donc {d(Xn , F ) 1/p} F.
Comme on eectue ensuite des oprations dunion et dintersection dnom-
brable, on reste dans F et {X F } = X 1 (F ) F.
ce qui montre bien que toutes les permutations ont la mme masse.
3. Quitte changer despace de probabilit, on peut supposer que n
scrit n = h(X1 , . . . , Xn ), o X1 , . . . , Xn sont des variables ala-
toires indpendantes suivant la loi uniforme sur [0, 1]. On veut alors
appliquer le principe de Maurey f = g h. Soient (x1 , . . . , xn )
et (x1 , . . . , xn ) tels que xj = xj pour j = i0 . Posons = h(x)
et = h(x ). On a x1 (1) < . . . x1 et x1 (1) < . . . x1 . Si
xi0 ]x1 ((i0 )1) , x1 ((i0 )+1) [, on a simplement = . Sinon, si
xi0 < x1 ((i0 )1) , 1 est de la forme
( )
1 ... i i+1 i+2 ... i+1 i+k+1 ... n
,
1 (1) ... 1 (i) 1 (i
+ k) 1 (i
+ 1) ... 1 (i+ k 1) 1 (i
+ k + 1) ... 1 (n)
soit
( )
1 1 ... i i + 1 i + 2 ...
1 i+1 i + k + 1 ... n
= ,
1 ... i i + k i + 1 ... i + k 1 i + k + 1 ... n
k
k
r kr
E[X] = E[g()] = P((k) {1, . . . , r}) = = .
i=1 i=1 b + r b+r
n
Solution 39 1. On a immdiatement Xkn = k=1 1
1{Nk,p =1} . Comme
Nk,p est une somme de k variables de Bernoulli indpendantes de pa-
ramtre 1/n, Nk,p B(k, 1/n) et
( )
k 1 1 k 1
E[1
1{Nk,p =1} ] = P(Nk,p = 1) = (1 )k1 = (1 )k1 ,
1 n n n n
2. On a
1 n 1 1
(1 ) = n1 (1 )E[Xnn ] n1 (1 )vn
n n n
( )k
k 1
= max 1
0kn3/2 n n
k
max exp(1/n)k
n
0kn3/2
sup x exp(x)
xR+
Dautre part
( ) ( )
1 n 1
P Xn n( + ) = P {Xnk
n( + )}
e k=1 e
n
3/2 ( )
1
P Xnk n( + )
k=1 e
n
3/2 ( )
P Xnk (vn + n/2)
k=1
n
3/2 ( )
P Xnk E[Xnk ] + n/2)
k=1
n
k (y) = 11{1=k 11 }
.
j=1 {yj =u}
u=1
(/2n)2
P(|Xnk E[Xnk ]| /2n) 2 exp( ),
8k
2
P(|Xnk E[Xnk ]| /2n) 2 exp( n).
32
Ainsi, finalement, on a
2
P(|X/n n e1 | > ) 2n3/2 exp( n),
32
donc
n
Nn3/2 2} {k n3/2 ; Xkn = 0}
u=1
{X n = Xn }
6. On a alors
et que les deux termes de la somme de droite ont une limite nulle
quand n tend vers linfini, |X n /n tend en probabilit vers 1/e.
7. On a 0 X n /n 1. PX n /n tend en loi vers 1/e et est qui-intgrable
car borne dans L , donc la suite des moments converge vers 1/e
8. Pour se ramener au problme prcdent, il sut de considrer que
chaque numro tir est le numro dune pilule. Si on tire un numro
dune pilule pas compltement mange, on en mange la moiti, sinon
lessai est en chec et on retire un numro jusqu atteindre un numro
correspondant une pilule pas compltement mange ou quil ny ait
plus de pilule. On a donc le rsultat voulu avec K = 1/e.
E ((Z)) = Em [(Z)]
I() = 1 est C 1 sur ]0, +[, donc le modle vrifie les bonnes conditions :
on a donc E [W ] = 0. Comme W = 1 log X, on constate bien que T est
un estimateur sans biais de 1/.
Var T = E (E E [T ])2 = E (W2 ) = I(). On note que Var T = 2 =
g ()2 1
I()
: on a galit dans lingalit de Cramer-Rao. La densit f (x) = x+1
scrit aussi x exp( log X) : on a un modle exponentiel, et on retrouve le
rsultat du cours.
Si f est un estimateur sans biais de , on a pour tout
1
f (x) d(x) = ,
[1,+[ x+1
soit [0,+[ eu f (eu )d(u) = , ou encore
eu f (eu )d(u) = 1.
[0,+[
186 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS
u
Posons g(u) = f (eu ). Fixons 0 > 0. Pour tout ]0 , +[, on a
e g(u) =
ueu g(u), do
u 2
| e | ue0 u g(u) e0 /2u g(u)
0
Comme ]0 peut tre pris aussi petit que lon veut, lidentit
est encore vraie
sur ]0, +[. Posons A = ] 0, +[xf+ (x)e dx. On a A = ] 0, +[xf (x)ex dx,
x
+
EX1 (X1 1) = k(k 1)P(X = k)
k=0
+
+
k
= k(k 1)P(X = k) = k(k 1)e
k=2 k=2 k!
+
k2
= e 2 = e 2 e = 2
k=2 (k 2)!
(g ())2 (2)2 43
= = .
I() d/ d
Dautre part
Sd (Sd 1) 1
Var 2
= 4 Var Sd (Sd 1)
d d
1
= 4 Varn X1 (X1 1).
d
On a dj vu que E X1 (X1 1) = 2 . On a aussi les identits
E X1 (X1 1)(X1 2) = 3 et E X1 (X1 1)(X1 2)(X1 3) = 4 .
On dcompose alors X 2 (X 1)2 sur cette base :
A = {0 = x0 , . . . , n = xn }.
B = {0 = y0 , . . . , k = yk }
: RN RN
((xn )n0 ) 7 ((n x))
Comme est mesurable de (RN , B(RN )) dans lui mme et (RN , B(RN ))
(R, B(R)) mesurable, pour tout n (n X) est bien (RN , B(RN )) (R, B(R))
B.9. EXERCICES SUR LES PROCESSUS 189
mesurable, et donc est bien mesurable de (RN , B(RN )) dans lui mme. Ainsi
Y = (X). On peut noter que = . Ainsi
PY (1 (A)) = P(Y 1 (1 (A)))
= P(( Y )1 (A))
= P(( X)1 (A))
= P(( X)1 (A))
= P(X 1 (1 ( 1 (A))))
= PX (1 ( 1 (A))
= PX ( 1 (A)) = P(X 1 ( 1 (A))
= P(( X)1 (A))
= P(Y 1 (A)) = PY (A)
= bn (q)S(n, q)
4. n est une mesure positive. On a
n ({1, . . . , q}n ) = n (x)
x{1,...,q}n
= S(n, q)1 |B(x)| = S(n, q)1 S(n, q) = 1,
x{1,...,q}n
q
|B(x.a.y)| = |B(x.a.y)|
a=1 a=xn ,a=y1
( n )
p
= |B(xi .a.y)| + B(x.y) + |B(x.a.yi )|
a=xn ,a=y1 i=1 i=1
n
p
= |B(xi .a.y)| + |B(x.a.yi )|
a=xn i=1 a=y1 i=1
On a alors
n
n
n
|B(xi .a.y)| = |B(xi .xn .y)| + |B(xi .a.y)|
a=xn i=1 i=1 a{1,...,q} i=1
n
= B(x.y) + cn1,p |B(xi )|.|B(y)|
i=1
= B(x.y) + cn1,p |B(x)|.|B(y)|
do
q
|B(x.a.y)| = (cn1,p + cn,p1 )|B(x)|.|B(y)| + (q 4 + 1{xn =y1 } )|B(x.y)|
a=1
= (cn1,p + cn,p1 )|B(x)|.|B(y)| + 1{xn =y1 } |B(x.y)|
= (cn1,p + cn,p1 )|B(x)|.|B(y)|,
, soit
q
Pq (1 = x1 , n = xn , n+1 = a, n+2 = y1 , . . . , n+p+1 = yp )
a=1
= Pq (1 = x1 , . . . , n = xn )Pq (1 = y1 , . . . , n = yp ),
Pq (1 = x1 , n = xn , n+2 = y1 , . . . , n+p+1 = yp )
= Pq (1 = x1 , . . . , n = xn )Pq (n+2 = y1 , . . . , n+p+1 = yp ).
1 1
6 6
* *6 66
5
6
T (x) = inf{n 0; xn = 66 }.
T (x) = 1 + T (x),
n 0 (x)n = xn+1 .
B.10. EXERCICES SUR LES CHANES DE MARKOV 193
xi = Ei [1 + T (X)]
= 1 + Ei [T (X)]
= 1 + Ei [ 11X1 =j T (X)]
jE
=1+ Ei [1
1X1 =j T (X)]
jE
Ei [1
1X1 =j F (X)] = Pi (X1 = j)Ej [F (X)].
x66 = 0
5 1
x6 = 1 + x + x66
6 6
5 1
x = 1 + x + x6
6 6
On rsoud et on trouve x = 42 et x6 = 36.
Le problme initial pouvant tre reprsent avec un dpart en , le
nombre moyen de lancers ncessaires est donc x = 42.
x S Px (T n) .
do 2
(i) pi,j |f (j)| pi,j (i)|f (j)|2 ,
jS jS
B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES195
et en sommant
2
(i) pi,j |f (j)| pi,j (i)|f (j)|2 ,
iS jS iS jS
( )2
En particulier, pour tout i S, on a (i) jS pi,j |f (j)| < +.
Si (i) > 0, cela entrane que la srie de terme gnral (pi,j f (j))j
converge absolument, donc converge, ce qui montre que (P f )(i) est
( )2
bien dfini. On a bien sr |(P f )(i)|2 p
jS i,j |f (j)| , do en
combinant avec les ingalits ci-dessus : P (f )2, |f 2, .
2 2
2. Pour tout j S, on a
(i)pi,j = (j)pj,i (j) (j)(j).1 = (j),
iS iS iS
est une forme bilinaire sur 2 (). Cest aussi une forme continue car,
daprs Cauchy-Schwarz,
| f (x)P g(x) d(x)| f 2, P g2, f 2, g2, .
Il en est de mme pour (f, g) 7 g(x)Qf (x) d(x). Ainsi, lensemble
des (f, g) 2 () 2 () tels que
f (x)P g(x) d(x) = Qf (x)g(x)
196 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS
(i) 1
S(j) = pi,j = (i)pi,j .
iS (j) (j) iS
Mais comme est invariante, iS (i)pi,j = (j), do S(j) = 1 :
Q = (qi,j ) est bien une matrice markovienne.
B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES197
Ce qui entrane E[f (Xk )|Xk+1 ] = Qf (Xk+1 ). Soit n > gek. Daprs le
lemme de Doob, il existe une fonction F telle que E[f (Xk )|Xk+1 , . . . , Xn ] =
F (Xk+1 , . . . , Xn ). Montrons que F ne dpend que de sa premire
coordonne. Quitte changer despace de probabilit, on peut sup-
poser que (Xn ) est construite par une dynamique alatoire Xn+1 =
fn+1 (Xn ), o X0 suit la loi et (fn )n1 une suite de fonctions alatoires
indpendantes, indpendantes de X0 . Comme (fk+2 , . . . , fn ) est ind-
pendant de (f (Xk ), Xk+1 ), on a E[f (Xk )|Xk+1 ] = E[f (Xk )|Xk+1 , fk+2 , . . . , fn ].
Mais (Xk+1 , fk+2 , . . . , fn ) = (Xk+1 , Xk+2 , . . . , Xn ), donc on obtient
ce qui montre que (Zk )0kn ) est une chane de Markov qui a le mme
oprateur de transition que (Xn )n0 . Comme la loi initiale est la mme,
on a lgalit en loi entre (Z0 , . . . Zn ) et (X0 , X1 , . . . , Xn ), soit donc
entre (Xn , Xn1 , X0 ) et (X0 , X1 , . . . , Xn ).
Si P = Q, le systme est alors rversible : on retrouve le fait que pour
une mesure initiale rversible, (Xn , Xn1 , X0 ) et (X0 , X1 , . . . , Xn ) ont
mme loi.
5. Daprs la question 3., on peut toujours construire une matrice mar-
kovienne conjugue P . La question 4. donne alors le rsultat voulu.
3. Comme les (TAm )m1 sont tous les moments o (Xn ) passe dans A, le
premier moment (sil existe) o Xn vaut x est un Tk , do
+
Tx = (TAk+1 TAk )1
1{S>k} ,
k=0
B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES199
Solution 88 (a) On a
nT
f (XnT ) f (X0 ) = (f (Xi ) f (Xi1 ))
i=1
n
= 11{iT } (f (Xi ) f (Xi1 ))
i=1
n
= 11{i1<T } (f (Xi ) f (Xi1 ))
i=1
En prenant lesprance, on a
n ( )
E(f (XnT ) f (X0 )) = E 11{i1<T } (f (Xi ) f (Xi1 ))
i=1
n ( ( ))
= E E 11{i1<T } f (Xi ) f (Xi1 )|Fi1 ,
i=1
200 ANNEXE B. SOLUTIONS DES EXERCICES CORRIGS
E[fM (Xi )1
1{i1<T } |Fi1 ] = 11{i1<T } E[fM (Xi )|Fi1 ] (B.1)
= 11{i1<T } (P fM )(Xi1 ) (B.2)
On en dduit
E[fM (Xi )1
1{i1<T } |Fi1 ] 11{i1<T } (P fM )(Xi1 )
f (Xi1 )11{i1<T } f (Xi1 )1
1{i2<T } ,
E([f (Xi )1
1{i1<T } ) f (Xi1 )1
1{i2<T } < +.
Avec le thorme de convergence domine conditionnel,(B.1) en-
trane E[f (Xi )1
1{i1<T } |Fi1 ] = (P f )(Xi1 )1
1{i1<T } . Par linarit,
on a alors
( )
E 11{i1<T } (f (Xi ) f (Xi1 )|Fi1 = 11{i1<T } ((P f )(Xi1 ) f (Xi1 ))
1
1{i1<T } ,
et la preuve de 1) et 2) se poursuit sans modification notable,
puisquon a vrifi les intgrabilits plus subtiles.
B.11. EXERCICES SUR LA RCURRENCE ET LES MESURES INVARIANTES201
Problmes
203
204 ANNEXE C. PROBLMES
Montrer que [ ]
(1)n+k n
P (T = k) =
n
.
n! k
6. Montrer que pour tout n 1, on a
n
1
En [T ] = .
k=1 k
1. Montrer que (Xn )n0 est une chane de Markov de loi initiale . crire
sa matrice.
2. Montrer que la chane est irrductible et apriodique.
3. La chane est-elle transiente, rcurrente ?
4. Montrer que
k N P (X1 = k) = (k + 1) + (0)(k).
Tk = inf{n 1; Xn = k}.
P(U1 k)
(k) = .
1 + E[U1 ]
n1
9. Montrer que si admet un moment dordre 1, la suite n1 k=0 Xk
converge presque srement vers une limite que lon dterminera.
206 ANNEXE C. PROBLMES
+
Nk = 11{Sn =k} .
n=1
Alors, si on pose
+
1
+
z BF (0, 1) P (z) = pn z n et z B(0, 1) Q(z) = = qn z n ,
n=0 1 P (z) n=0
on a E[Nk ] = qk et lim qk = 1
E[X1 ]
.
k+
Annexe D
n1
En [xT ] = En [1
1{X1 =i} xT ]
i=0
n1
= 1{X1 =i} x1+T ]
En [1
i=0
n1
= En [(1
1{X1 =i} x)xT ]
i=0
n1
= En [(1
1{X1 =i} x]Ei [xT ]
i=0
n1
= xPn (X1 = i)i (x)
i=0
x
n1
= i (x)
n i=0
207
208 ANNEXE D. SOLUTIONS DES PROBLMES
5. Pn (x) = n (x) = En [xT ] = nk=0 Pn (T = k)xk , donc Pn (T = k) est le
coecient en xk du polynme Pn (x). Mais comme
[ ]
n
n
X(X 1) . . . (X n + 1) = X k,
k=1
k
par substitution
[ ]
n
n
(X)(X 1) . . . (X n + 1) = (1)k X k ,
k=1
k
Pn
n1
1 P (1) n1
1 n
1
= , donc n = = ,
Pn i=0 X + i Pn (1) i=0 1 + i k=1 k
Partie II
1. F () est le nombre de records descendants de la permutation .
2. On a
P((n + 1) = an+1 |(1) = a1 , . . . , (n) = an )
|{ SN : (1) = a1 , . . . , (n + 1) = an+1 }|/N !
=
|{ SN : (1) = a1 , . . . , (n) = an }|/N !
(N (n + 1))!
= 11{an+1 {a1 ,...,an }}
(N n)!
1
= 11{a {a ,...,a }}
N n n+1 1 n
D.1. SOLUTION DU PROBLME 1 209
Notons m = min(a1 , . . . , an ). Si j = m 1,
0,j
si i = 0
qi,j = 0, si j i > 0 .
1
i
si i > 0, j < i
Cest la rciproque.
6. Daprs la question II.3., comme (Xn )n0 a la mme loi que (Yn ))n0 ,
F a la mme loi que T . Do avec I.5 :
[ ]
(1)N +k N
P(F = k) = PN (T = k) = .
N! k
[ ]
N +kN
Donc (1) est le nombre de permutations avec k records,
k
donc daprs II.5 le nombre de permutations possdant exactement k
cycles.
On a donc
k N (k) = (k + 1),
soit
k N P(X1 k) = P(X1 = k) + P(X1 k + 1),
ce qui est vident car X1 est valeurs entires.
9. Si a un moment dordre 1, on a vu que la chane de Markov est
irrductible, de loi invariante , et on peut appliquer le thorme er-
godique des chanes de Markov : X1 ++X
n
n
converge presque srement
(quelque soit la loi initiale) vers R+ x d(x).
10. Si Xn = 0, on a T0 n. Ainsi les vnements ({T0 = k} {Xn =
0})1kn forment une partition de {Xn = 0}. On a donc
n
P0 (Xn = j) = P0 (T0 = k, Xn = 0)
k=1
n
= P0 (T 0 = k, Xn = j)
k=1
n
= P0 (T0 = k)Pj (Xnk = 0)(proprit de Markov forte)
k=1
1 2
ak = rk f (rei )eik d.
2 0
Cela peut tre vu comme une version simple de la formule de Cauchy,
mais on peut aussi le voir simplement partir de lidentit
+
f (rei )eik = an rn ei(nk) .
n=0
214 ANNEXE D. SOLUTIONS DES PROBLMES
En eet
N
+
| rn ei(nk) | |an |rn
n=0 n=0
+
P (z)n = P(Sn = k)z k ,
k=0
k 1 2
P(Sn = k) = r P (rei )n eik d.
2 0
Avec lingalit triangulaire, on a
+
+
|P (rei )| pn r n pn 1n = 1,
n=0 n=0
+
1 2 k 1
P(Sn = k) = r eik d
n=0 2 0 1 P (re ) i
2
k 1
= r Q(rei )eik d
2 0
= qk .
n
qn = 0 (n) + pk qnk .
k=0
q0 = Q(0) = 1
1P (0)
= 1
1p0
= 1
10
= 1. Pour n 1, on a
n
qn = pk qnk
k=1
Comme
n
n
qn = pk qnk
=
pk qnk ,
k=1 k=1
il est alors facile de montrer par rcurrence que qn = qn pour tout
n. Or, daprs le thorme de convergence des chanes de Markov
irrductibles,
1 1 1
lim qn = (0) = = = ,
n+ 1 + E[U1 ] E[(1 + U1 )] E[X1 ]
ce qui dmontre le thorme de Erds, Feller et Pollard dans le cas o
p0 = 0.
Passons au cas gnral. On pose p0 = 0 et pk = 1ppk
0
pour k 1. Les
(pk ) dfinissent bien une probabilit sur N, qui vrifie les hypothses
de la partie prcdente : si on pose
+
1
+
z BF (0, 1) P (z) = pn z n et z B(0, 1) Q(z) = = qn z n ,
n=0 1 P (z) n=0
on a lim qk = 1
E[X1 ]
, avec P(X1 = k) = pk . On a facilement E[X1 ] =
k+
E[X1 ] 1p0
1p0
, do lim qk = E[X1 ]
Cependant P (z) = p0 +(1+p0 )P (z), do
k+
1 1
Q(z) = 1p0
Q(z), ce qui entrane qn = q .
1p0 n
Finalement, on a bien
1
lim qk = E[X1 ]
.
k+
216 ANNEXE D. SOLUTIONS DES PROBLMES
Bibliographie
217
Index
218
INDEX 219
forte, 135
simple, 123
rcurrent, 137
rcurrent nul, 147
rcurrent positif, 147, 148
rversible, 140
retournement du temps, 153
uniformment intgrable, 11