Vous êtes sur la page 1sur 86

Master de mathématiques

MU4MA011

PROBABILITÉS APPROFONDIES

Fascicule d’exercices

Année 2023–2024

Cours : Thierry Lévy


Travaux dirigés : David Garcı́a-Zelada, Sébastien Martineau, Raphaël Roux
2
Chapitre 0

Rappels de probabilités

Espaces de probabilité et variables aléatoires


Exercice 0.1. Un document a été perdu. La probabilité pour qu’il se trouve dans un
meuble est p, avec 0 < p < 1. Ce meuble comporte sept tiroirs. On explore six tiroirs sans
trouver le document. Quelle est la probabilité de le trouver dans le septième ?

Exercice 0.2. Soient A1 , A2 , · · · , An des événements d’un espace de probabilité (Ω, F , P).
1. Montrer que 1Tnk=1 Ak = nk=1 1Ak .
Q

2. Montrer que 1Snk=1 Ak = 1 − nk=1 (1 − 1Ak ) .


Q
P
3. On pose pk,n = 1≤i1 <i2 <···<ik ≤n P(Ai1 ∩ Ai2 ∩ · · · ∩ Aik ). Montrer que
n
X
P (A1 ∪ · · · ∪ An ) = (−1)k−1 pk .
k=1

4. On considère n personnes qui participent à un père Noël secret. Les n noms (que
l’on suppose tous différents) sont écrits sur des étiquettes et chaque personne tire
au hasard une étiquette (et la garde) — le nom écrit sur cette étiquette est celui
de la personne à qui elle doit faire un cadeau. On note p(n) la probabilité qu’au
moins une personne tire une étiquette avec son propre nom. Expliciter p(n). Calculer
limn→∞ p(n).

Exercice 0.3. Soient X et Y deux variables aléatoires indépendantes prenant toutes les
valeurs entières entre 1 et n suivant les probabilités :

P(X = k) = P(Y = k) = 1/n, k ∈ {1, · · · , n}.

Calculer P(X = Y ) et P(X ≥ Y ). Déterminer la loi de X − Y .

Exercice 0.4. Soit T une variable aléatoire à valeurs dans N := {0, 1, 2, · · · } définie sur
un espace de probabilité (Ω, F , P). On suppose que, pour tout n ≥ 1, P(T ≥ n) > 0
et, pour tous m, n ≥ 1, P(T ≥ m + n | T ≥ n) = P(T ≥ m). Montrer que T suit une loi
géométrique.

3
Exercice 0.5. Soit (Ω, F , P) un espace de probabilité. On considère ε et X des variables
aléatoires réelles indépendantes définies sur cet espace. On suppose que ε a pour loi :
P(ε = −1) = P(ε = 1) = 1/2.
1. Montrer que εX et ε sont indépendantes si et seulement si la loi de X est symétrique
(c’est-à-dire, X a la même loi que −X).
2. Construire un espace de probabilité (Ω, F , P) pour lequel il existe deux sous-tribus
A et B indépendantes et une variable aléatoire Y telle que :
(a) Y est σ(A ∪ B)-mesurable,
(b) Y est indépendante de B,
(c) Y n’est pas A -mesurable.
3. Construire un espace de probabilité (Ω, F , P) pour lequel il existe deux sous-tribus
A et B indépendantes et une variable aléatoire Z telle que :
(a) Z est σ(A ∪ B)-mesurable,
(b) Z est indépendante de B,
(c) Z est indépendante de A .
Exercice 0.6. On considère n variables aléatoires indépendantes X1 , · · · , Xn à valeurs
{1, 2, · · · , r} et de même loi donnée par P(X1 = i) = pi , 1 ≤ i ≤ r. On définit
dans P
Zi = nj=1 1{Xj =i} .
1. Déterminer la loi de Z1 . À quelle condition les variables aléatoires Zi et Zj ont-elles
même loi ?
2. Calculer la covariance de Z1 et Z2 . Les variables aléatoires Z1 et Z2 sont-elles
indépendantes ?
Exercice 0.7. On dit qu’une variable aléatoire réelle X suit la loi gamma de paramètre
a > 0 si X admet la densité
Z ∞
1 −x a−1
e x 1{x>0} , où Γ(a) = e−x xa−1 dx.
Γ(a) 0

1. Soit U une variable aléatoire de loi gamma de paramètre a. Calculer explicitement


les moments E(U n ), n ∈ N.
2. Soient U et V deux variables aléatoires indépendantes de loi gamma de paramètres
respectifs a et b. Montrer que les variables aléatoires U/(U + V ) et U + V sont
indépendantes et expliciter les lois de U/(U + V ) et U + V .
Exercice 0.8. Soient X1 , X2 , · · · , Xn des variables aléatoires indépendantes de même loi
exponentielle de paramètre λ > 0. Pour k ∈ {1, . . . , n}, on pose Sk = X1 + X2 + · · · + Xk .
1. Déterminer la loi du vecteur aléatoire (S1 , S2 , · · · , Sn ).
2. Montrer que la variable aléatoire Sn = X1 + X2 + · · · + Xn admet pour densité
sn−1
fSn (sn ) = λn e−λsn n
1{s >0} .
(n − 1)! n
3. Déterminer la fonction caractéristique de Sn .
4. Calculer E(Sn ) et Var (Sn ).

4
Convergences de suites de variables aléatoires
Exercice 0.9. Dans les cas suivants, quels sont les différents modes de convergence que
la suite de variables aléatoires réelles (Xn )n≥1 est susceptible de réaliser ?
1. P Xn = 1 − n1 = P Xn = 1 + n1 = 12 ;
 

2. P (Xn = n) = 21n , P(Xn = n1 ) = 1 − 21n ;


3. P (Xn = 0) = 1 − n12 , P(Xn = n2 ) = n12 ;
4. P(Xn = 0) = 1 − n1 , P(Xn = 1) = n1 ;
5. P(Xn = 0) = 1 − n−3/2 , P(Xn = n) = n−3/2 ;
6. P(Xn = 0) = 1 − pn , P(Xn = 1) = pn , où les Xn sont supposées indépendantes ;
dans ce cas, donner une condition nécessaire et suffisante portant sur la suite (pn )
pour que
(a) (Xn ) converge p.s. ;
(b) (Xn ) converge dans L1 ;
(c) (Xn ) converge en loi, c’est-à-dire E(f (Xn )) → E(f (X)) quand n → ∞ pour
toute application continue bornée f : R → R.
Exercice 0.10. Soient (Xn )n≥1 une suite de variables aléatoires réelles indépendantes et
X une variable aléatoire réelle.
P
1. Montrer que, si pour tout ε > 0, n≥1 P(|Xn − X| > ε) < ∞, alors Xn → X p.s.
quand n → ∞.
2. On suppose que Xn → X p.s. Montrer que, pour tout ε > 0, on a
X
P(|Xn − X| > ε) < ∞.
n≥1

3. Conclure.
Exercice 0.11. Soit (Xn )n≥1 une suite de variables aléatoires réelles convergeant en
probabilité vers une variable aléatoire X. Montrer qu’il existe une sous-suite (Xφ(n) )n≥1
telle que P(|Xφ(n) − X| > n1 ) ≤ n12 . Soit (Xφ(n) )n≥1 une telle sous-suite : montrer qu’elle
converge presque sûrement.
Exercice 0.12. Soit (Xn )n≥1 une suite de variables aléatoires telle que Xn suit la loi de
Bernoulli de paramètre 1/n.
1. Montrer que la suite (Xn ) converge en probabilité et trouver sa limite.
2. Montrer que la suite (Xn2 ) converge presque sûrement.
Exercice 0.13. — Pas de convergence en probabilité pour la moyenne de Cesàro
Soit (Xn )n≥1 une suite de variables aléatoires indépendantes, la fonction de répartition de
Xn étant donnée par
1
Fn (x) = 0 si x < 0 et Fn (x) = 1 − si x ≥ 0.
x+n
On pose Sn = nk=1 Xk , et Yn = Snn . Montrer que la suite (Xn )n≥1 converge en probabilité
P
vers 0 mais pas la suite (Yn )n≥1 .

5
Exercice 0.14. Soit (Xn )n≥1 une suite de variables aléatoires i.i.d. de loi de Bernoulli de
paramètre p ∈ ]0, 1[. On définit
n
X Xk
Yn = k
.
k=1
2
1. Montrer que, presque sûrement, Yn converge, vers une limite que l’on notera Y .
2. Si p = 1/2, donner la loi de Y .
Indication : utiliser la convergence de la fonction de répartition.

Exercice 0.15. Soit (Xn )n≥1 une suite


Pn de variables aléatoiresP
indépendantes avec E[Xn ] =
0 pour tout n ≥ 1. On pose Sn = i=1 Xi . On suppose que +∞ n=1 Var(Xn ) < +∞.
2
1. Montrer que Sn converge dans L vers une variable aléatoire S.
Indication : on pourra utiliser le fait que L2 est complet, c’est-à-dire que toute suite de Cauchy
converge.
2. En déduire que E[S] = 0 et Var(S − Sn ) = +∞
P
k=n+1 Var(Xk ) pour tout n.
P+∞
3. Montrer que si on a de plus n=1 n Var(Xn ) < +∞, alors la convergence a lieu
presque sûrement.
Exercice 0.16. 1. Soit U une variable aléatoire uniformément répartie sur [0, 1] et
(Un )n≥1 une suite de variables aléatoires indépendantes ayant chacune la même
loi que U . Soit d’autre part Y une variable aléatoire exponentielle de paramètre
1, ayant donc comme densité exp(−x)1R+ (x). Pour tout n ≥ 1, on pose Zn =
n min{U1 , . . . , Un }. Montrer que Zn converge en loi vers Y .
2. Soit maintenant X une variable aléatoire à valeurs dans [0, ∞[ et (Xn )n≥1 une suite
de variables aléatoires indépendantes ayant chacune la même loi que X. Montrer
que
(a) Si P(X > x) = o(1/x) lorsque x → +∞ alors
1
Zn = max{X1 , · · · , Xn }
n
converge en loi vers 0.
(b) Si P(X > x) ∼ α/xλ lorsque x → +∞, avec α, λ > 0 alors
1
Zn = max{X1 , · · · , Xn }
n1/λ
converge vers une variable aléatoire Y de loi de Fréchet, c’est-à-dire dont la
fonction de répartition est donnée par P(Y ≤ t) = exp(−αt−λ )1R+ (t).
Exercice 0.17. — Lemme de Slutsky
1. En utilisant des fonctions caractéristiques, montrer que si (Xn ) converge en loi vers
X, et si (Yn ) converge en loi vers une constante c, alors le couple (Xn , Yn ) converge
en loi vers le couple (X, c).
2. Trouver des suites de variables aléatoires telles que (Xn ) converge en loi vers X,
(Yn ) converge en loi vers Y (une variable aléatoire non constante) mais où le couple
(Xn , Yn ) ne converge pas en loi.

6
Exercice 0.18. Soit (Xn )n≥1 une suite de variables aléatoires positives intégrables conver-
geant presque sûrement vers une variable aléatoire X intégrable. On suppose de plus que
E(Xn ) → E(X) quand n → ∞. Montrer que la suite (Xn ) converge vers X dans L1 .

Exercice 0.19. Soient X1 , X2 , . . . des variables


Qn aléatoire réelles indépendantes, de loi
exponentielle de paramètre 1. On pose Yn := i=1 Xi .
1. Que vaut E[Yn ] ?
√ √ √
2. Montrer que E[ X1 ] = π/2. En déduire la valeur de E[ Yn ].

3. Montrer que, pour tout t > 0, P(Yn ≥ t) ≤ √1t ( π/2)n .
4. En déduire que Yn converge presque sûrement vers 0.

Exercice 0.20. Soit 1 ≤ p < q < ∞. En utilisant la fonction convexe x 7→ xq/p ou


la fonction concave x 7→ xp/q , montrer que pour toute variable aléatoire réelle X, on
a (E|X|p )1/p ≤ (E|X|q )1/q .
En déduire l’inclusion Lq ⊂ Lp . Montrer que si une suite de variable aléatoires converge
dans Lq , alors elle converge aussi dans Lp .

Autour de la marche aléatoire simple sur Z


Dans les exercices qui suivent, (Xn , n ≥ 1) est une famille de variables aléatoires
P que P(X1 = 1) = p, P(X1 = −1) = 1 − p, 0 < p < 1. On pose S0 = 0 et
i.i.d. telle
Sn = nk=1 Xk pour n ≥ 1.

Exercice 0.21. 1. Pour n ≥ 1, calculer P(Sn = 0).


P
2. Étudier n≥1 P(Sn = 0). Que peut-on en conclure ?
3. Si p ̸= 1/2, retrouver cette conclusion en utilisant la loi des grands nombres.

Exercice 0.22. On suppose que p = 1/2, et on cherche à montrer que presque sûrement,
on a lim sup Sn = +∞ et lim inf Sn = −∞.
1. Pour K ≥ 1, on considère les événements

An = XnK+1 = · · · = X(n+1)K = +1 n ≥ 1.

Montrer que pour tout K, P-p.s. An est réalisé infiniment souvent.



2. En déduire que pour tout K, P − K/2 < Sn < K/2 pour tout n ≥ 1 = 0, puis
que 
P {lim sup Sn = +∞} ∪ {lim inf Sn = −∞} = 1.
3. Montrer que l’événement
T {lim sup Sn = +∞} appartient à la tribu queue de la suite
(Xn ), définie par n∈N σ(Xn+k , k ≥ 0), et utiliser la loi du 0 − 1 de Kolmogorov
pour conclure que P lim sup Sn = +∞ = 1.

Exercice 0.23. On suppose de nouveau dans cette question que p = 1/2, et on pose
Mn = max0≤i≤n Si .

7
1. Soit k ∈ Z, et y ≥ k, y ≥ 1. Montrer que P(Sn = k, Mn ≥ y) = P(Sn = 2y − k).
Indication : on pourra introduire le temps τ = inf{i; Si = y}, et utiliser un argument dit de
réflexion (faire un dessin).
2. En déduire que P(Mn ≥ y) = 2P(Sn ≥ y) − P(Sn = y) pour tout y ≥ 1.
3. On pose M∞ = limn→∞ Mn . Montrer que pour tout y ≥ 1, P(M∞ ≤ y) = 0.

On admettra qu’il existe une constante C > 0 telle que P(Sn = y) ≤ C/ n pour tout n, y ≥ 1
(pas si dur, mais calculatoire).
4. En déduire que P(M∞ = +∞) = 1.

Exercice 0.24. On prend p = 1/2 de nouveau. On note T0 = inf{n ≥ 1; Sn = 0}, et


fn = P(T0 = n), un = P(Sn = 0). En particulier, u0 = 1.
1. Montrer que pour tout n ≥ 1

un = f1 un−1 + f2 un−2 + · · · + fn u0 .

fn sn et U (s) = un sn pour
P P
2. On considère les fonction génératrices F (s) = n≥1 n≥0
s ∈ [0, 1[. Montrer que U (s) = 1 + U (s)F (s).
3. Calculer un pour tout n, puis calculer U (s). En déduire F (s), puis la valeur de fn
pour tout n.

Exercices supplémentaires
Exercice 0.25. 1. Une urne contient N boules numérotées de 1 à N . On tire succes-
sivement sans remise n boules de l’urne (1 ≤ n ≤ N ). Quel est l’ensemble Ω des
résultats possibles ? Calculer card(Ω), le cardinal de Ω.
2. Désormais, on suppose que les résultats possibles sont équiprobables. Les boules
numérotées de 1 à M sont rouges (M < N ) et les boules numérotées de M + 1 à
N sont blanches. On introduit les événements Ak , 1 ≤ k ≤ n, définis par Ak =
{la k-ième boule tirée est rouge}.
(a) Calculer les P(Ak ).
(b) Calculer, pour k ̸= l, les P(Ak ∩ Al ).
3. On introduit les variables aléatoires Zk , 1 ≤ k ≤ n, définies par Zk = 1 si la k-ième
boule tirée est rouge, et Zk = 0 sinon. On pose Sn = Z1 + · · · + Zn . On note p le
rapport M/N .
(a) Calculer Var(Sn ) en fonction de n et p.
(b) Calculer la limite de Var(Sn ), n fixé, quand M et N tendent vers l’infini de
telle sorte que p tende vers un réel p0 , 0 < p0 < 1.

Exercice 0.26. Montrer qu’une suite de variables aléatoires (Xn , n ≥ 1) converge en


probabilité vers une variable aléatoire X si et seulement si
 |X − X| 
n
lim E = 0.
n→∞ 1 + |Xn − X|

8
Exercice 0.27. — Loi des grands nombres : preuve dans L4
Soit (Xn )n≥1 une suite de variables aléatoires réelles i.i.d. telles que E(X14 ) < ∞. On pose
Zn = (X1 + · · · + Xn )/n.
1. On suppose pour l’instant que E(X1 ) = 0.
(a) Montrer que les espérances E(X13 X2 ), E(X12 X2 X3 ) et E(X1 X2 X3 X4 ) sont bien
définies et donner leur valeur.
(b) Calculer EZn4 .
(c) Montrer que la variable n∈N Zn4 est intégrable et en déduire que (Zn ) converge
P
presque sûrement vers 0.
2. En retirant l’hypothèse EX1 = 0, déduire de la question précédente que (Zn )
converge vers EX1 presque sûrement.

Exercice 0.28. — Loi des grands nombres : preuve dans L2


Soit (Xn )n≥1 une suite de variables aléatoires réelles i.i.d. telles ques E(X12 ) < ∞. On
pose Zn = (X1 + · · · + Xn )/n.
1. Calculer la variance de Zn . En utilisant l’inégalité de Bienaymé-Tchebychev, montrer
que (Zn2 ) converge presque sûrement vers EX1 .

2. Pour tout n, on note qn la partie√ entière de n, de sorte que qn2 ≤ n < (qn + 1)2 .
En déduire que 0 ≤ n − qn2 ≤ 2 n + 1.
2
qn
3. En raisonnant comme en question 1, montrer que la suite (Zn − Z 2)
n qn
converge
presque sûrement vers 0.
4. En déduire que (Zn ) converge presque sûrement vers EX1 .

Exercice 0.29. — Loi des grands nombres : preuve dans L1


Soit (Yn )n≥1 une suite de variables aléatoires réelles i.i.d. On suppose que E(|Y1 |) < ∞.
On pose, pour n ≥ 1,

Sn = Y1 + . . . + Yn , Tn = max(S1 , . . . , Sn ), T = sup Sk
k∈N

S n = Y2 + . . . + Yn , T n = max(S 1 , . . . , S n ), T = sup S k .
k∈N

1. Montrer que P(T = ∞) = P(T = ∞).


2. Déduire de la loi 0 − 1 de Kolmogorov que P(T = ∞) = 0 ou 1.
3. Prouver la relation Tn − T n = max(Y1 − T n , Y1 ).
4. En déduire que si T = ∞ p.s, alors E(Y1 ) ≥ 0.
5. Soit (Xn )n≥1 une suite de variables aléatoires réelles i.i.d et intégrables. En ap-
pliquant la conclusion précédente aux variables Yn = Xn − EXn − ε et Yn′ =
−Xn + EXn − ε (pour ε > 0 arbitraire), en déduire la loi forte des grands nombres :
(X1 + . . . + Xn )/n converge presque sûrement vers EX1 .

9
10
Chapitre 1

Espérance conditionnelle

Sauf mention du contraire, toutes les variables aléatoires sont définies sur l’espace de
probabilité (Ω, F , P).

Généralités et calculs
Exercice 1.1. — Questions de cours
Soient A un événement et X une variable aléatoire réelle positive, resp. intégrable.
1. Soit B ∈ F tel que l’on ait P(B) > 0 et P(B c ) > 0. On introduit la sous-tribu G
de F définie par G = {∅, B, B c , Ω}. Donner :
— les probabilités conditionnelles de A sachant B, de A sachant B c .
— la probabilité conditionnelle de A sachant G .
— l’espérance conditionnelle de X sachant B, de X sachant B c .
— l’espérance conditionnelle de X sachant G .
2. Soit (B1 , B2 , · · · , Bk , · · · ) une partition dénombrable (finie ou infinie) de Ω dans F
telle que P(Bk ) > 0, ∀k. Soit G := σ(B1 , B2 , · · · , Bk , · · · ). Donner
— la probabilité conditionnelle de A sachant G .
— l’espérance conditionnelle de X sachant G .
3. Soit Y une variable aléatoire réelle discrète prenant les valeurs y1 , y2 , · · · , yk , · · ·
Donner
— la probabilité conditionnelle de A sachant Y .
— l’espérance conditionnelle de X sachant Y .

Exercice 1.2. Soit (Xn )n≥1 une famille de variables aléatoires à valeurs dans N. On
suppose ces variables aléatoires indépendantes, de même loi et d’espérance µ = E[X1 ].
Soit N une
Pvariable aléatoire à valeurs dans N, indépendante de la famille (Xn )n≥1 . On
N
pose S = i=1 Xi . Si N = 0, on pose par convention S = 0.
1. Pour n ∈ N, calculer E[S | N = n]. En déduire E[S | N ] puis E[S].
2. Pour r ∈ [0, 1], calculer E[rS | N ] en fonction de φX1 (r) = E[rX1 ]. En déduire la
fonction génératrice de S en fonction de celle de X1 et de celle de N .

11
Exercice 1.3. Soit N une variable aléatoire de loi de Poisson de paramètre λ et soit
(Tn )n∈N une suite de variables aléatoires i.i.d de loi uniforme sur [0, 1] et indépendantes
de N . On note T = min{T1 , . . . , TN }, en utilisant la convention min ∅ = 1 (c’est-à-dire
que T vaut 1 sur l’événement {N = 0}).
1. Calculer P(T > t | N = n) pour t ∈ [0, 1].
1
2. Montrer que E[T | N = n] = n+1
, et en déduire E[T | N ].
3. En déduire E[T ].

Exercice 1.4. Soient X1 et X2 des variables aléatoires indépendantes de loi de Poisson


de paramètres respectifs λ1 et λ2 .
1. Déterminer P(X1 = k | X1 + X2 = n).
2. Déterminer l’espérance conditionnelle E(X1 | X1 + X2 ).
3. Mêmes questions en supposant que les variables X1 et X2 sont indépendantes, de
loi binomiale de paramètres respectifs (n1 , p) et (n2 , p). On pourra utiliser le fait
que si (ξ1 , . . . , ξn ) sont
Pn des variables aléatoires indépendantes de loi de Bernoulli de
paramètre p, alors k=1 ξk suit la loi binomiale de paramètre (n, p).

Exercice 1.5. Soient X et Y des variables aléatoires réelles sur (Ω, F , P), et G une
sous-tribu de F . Que peut-on dire, sous réserve d’hypothèses convenables, des espérances
conditionnelles suivantes ?
1. E(X | G ) si X est G -mesurable ;
2. E(XY | G ) si X est G -mesurable ;
3. E(X | G ) si X est indépendante de G ;
4. E(E(X | G )).

Exercice 1.6. Soit X une variable aléatoire réelle de carré intégrable et soit G une sous-
tribu de F . Que peut-on dire de X si (E(X | G ))2 = E(X 2 | G ) p.s. ?

Exercice 1.7. Soient X1 et X2 des variables aléatoires indépendantes à valeurs dans des
espaces mesurés E1 et E2 respectivement, de lois respectives ν1 et ν2 . Soit f : E1 ×E2 → R
une fonction mesurable bornée (resp. positive).
1. Montrer que Z
E[f (X1 , X2 ) | X1 ] = f (X1 , u)dν2 (u) p.s.
E2

2. Soit Z une variable aléatoire à valeurs dans [0, 1] et soit N une variable
P aléatoire à
valeurs dans N, indépendante de Z et de fonction génératrice φ(x) = n∈N P(N =
n)xn . Montrer que E(Z N |Z) = φ(Z) p.s.
3. Soient X et U deux variables aléatoires réelles indépendantes et soit F la fonction
de répartition de U . Montrer que E(1U ≤X |X) = F (X) p.s. Exprimer également la
quantité E(exp(21U ≤X )|X) à partir de F (X).

Exercice 1.8. Soient X et Y deux variables aléatoires réelles indépendantes de loi uni-
forme sur [0, 1]. Quelle est l’espérance conditionnelle de (Y − X)+ sachant X ?

12
Exercice 1.9. — Partiel 2017
Soient λ et µ sont deux réels strictement positifs, et soient X et Y deux variables aléatoires
à valeurs dans N et R+ respectivement telles que, pour tout n ∈ N et tout t ∈ R+ ,
t
(λy)n −(λ+µ)y
Z
P(X = n, Y ≤ t) = µ e dy .
0 n!

1. Quelle est la loi marginale de X ? Quelle est celle de Y ?


R∞
On rappelle que pour tout a > 0 et n ≥ 1, 0
an+1 y n e−ay dy = n! .
2. Calculer E[Y |X].
Y
3. Calculer E[ X+1 ].
4. Calculer P(X = n|Y ) = E[1X=n |Y ] ainsi que E[X|Y ].

Exercice 1.10. Soient X1 et X2 des variables aléatoires indépendantes, de lois exponen-


tielles de même paramètre λ.
1. Calculer E[max(X1 , X2 ) | X1 ] puis E[max(X1 , X2 )].
2. Calculer E[max(X1 , X2 ) | X1 + X2 ].
3. Calculer E[X1 | min(X1 , X2 )].

Exercice 1.11. — Partiel 2016


Soit α > 0. Soient B et U deux variables indépendantes telles que U est uniforme sur
l’intervalle ]0, 1[, B est à valeurs positives et B α est intégrable. On définit la variable C
par
C = f (B, U ) = 2U (B + U 2 )α .
Justifier que C est intégrable et calculer E(C|B).

Exercice 1.12. Soit X une variable aléatoire réelle intégrable. On suppose que la loi de
X est symétrique (c’est-à-dire, X a la même loi que −X), et on pose Y = |X|.
1. Montrer que E(X | Y ) = E(X) p.s.
2. Les variables aléatoires X et Y sont-elles indépendantes ?

Exercice 1.13. Soient X et Y des variables aléatoires réelles intégrables, et soit G une
sous-tribu de F .
1. Montrer que E(X | G ) ≤ E(Y | G ) p.s., si et seulement si E(X 1A ) ≤ E(Y 1A ) pour
tout A ∈ G .
2. Montrer que E(X | G ) = E(Y | G ) p.s., si et seulement si E(X 1A ) = E(Y 1A ) pour
tout A ∈ G .
3. Montrer que |E(X|G )| ≤ E(|X||G ).

Exercice 1.14. Soit X une variable aléatoire réelle intégrable. Soient Z et Ze des variables
aléatoires à valeurs dans (E, E ) et (E,
e Ee), respectivement. On suppose que E(X | Z, Z) e
est σ(Z)-mesurable. Montrer que E(X | Z, Z) e = E(X | Z) p.s.

13
Variables gaussiennes
Exercice 1.15. Soient X1 , X2 , X3 trois variables aléatoires réelles gaussiennes centrées
réduites indépendantes. On pose U = 2X1 − X2 − X3 , V = X1 + X2 + X3 , W = 3X1 +
X2 − 4X3 .
1. Quelles sont les lois de U , V et W ? Quels sont les couples indépendants parmi les
couples (U, V ), (U, W ), (V, W ) ?
2. Montrer qu’il existe a ∈ R tel que W = aU + Z avec U et Z indépendantes. En
déduire E(W | U ), E(W 2 | U ) et E(W 3 | U ).
Exercice 1.16. Soient X et Y deux variables aléatoires réelles gaussiennes centrées
réduites indépendantes. On pose Z = X + Y , W = X − Y .
1. Montrer que Z et W sont indépendantes. Quelle est la loi de W ?
2. En déduire l’espérance conditionnelle de X sachant Z.
3. Calculer E(XY | Z) et E(XY Z | Z).
Exercice 1.17. — Partiel 2016
Soient X et Y deux variables aléatoires normales centrées réduites N (0, 1) indépendantes.
On pose Z = X + 2Y . Montrer qu’il existe un unique a tel que X = aZ + W avec W
indépendant de Z. En déduire l’expression de E(X|Z) et E(X 2 |Z).
Exercice 1.18. Soit Z = (X, Y ) un vecteur aléatoire gaussien à valeurs dans R2 . On
suppose que E(X) = E(Y ) = 0, Var(X) p = Var(Y ) = 1 et que Cov(X, Y ) = ρ avec
|ρ| < 1. On pose U = X − ρY , V = 1 − ρ2 Y .
1. Calculer E(X | Y ).
2. Quelles sont les lois de U et de V ? Les variables aléatoires U et V sont-elles
indépendantes ?
3. Calculer E(U 2 V 2 ), E(U V 3 ), E(V 4 ). En déduire E(X 2 Y 2 ).
Exercice 1.19. Soit (X1 , X2 ) un couple de variables aléatoires admettant la densité de
probabilité
 
1 1 2 2
f (x1 , x2 ) = p exp − (x − 2ρx1 x2 + x2 ) ,
2π 1 − ρ2 2(1 − ρ2 ) 1
où ρ ∈] − 1, 1[.
1. Vérifier que f est une densité de probabilité sur R2 et trouver les densités margi-
nales de X1 et X2 . À quelle condition les variables aléatoires X1 et X2 sont-elles
indépendantes ?
p
2. On intoduit les coordonnées polaires (R, Φ) du couple (X1 , X2 ) : R = X12 + X22
et Φ ∈ [0, 2π[ est définie par
X1 X2
cos Φ = et sin Φ = si R > 0, Φ = 0 si R = 0.
R R
Déterminer la densité du couple (R, Φ), puis celle de Φ.
3. Déterminer la densité de R lorsque ρ = 0. Que peut-on dire des variables aléatoires
R et Φ dans ce cas ?

14
Chapitre 2

Filtration, temps d’arrêt et


martingales

On rappelle les notations

s ∧ t := min{s, t}, s ∨ t := max{s, t}, s, t ∈ R.

Sauf mention du contraire, toutes les martingales sont définies sur l’espace de probabilité
filtré (Ω, F , (Fn ), P).

2.1 Filtrations, temps d’arrêt, martingales


Exercice 2.1. Soient (Ω, F , (Fn ), P) un espace de probabilité filtré, T et S deux temps
d’arrêt, FT et FS les tribus respectives des événements antérieurs à T et S. Montrer que
(cf. cours)
1. S ∧ T , S ∨ T , S + T sont des temps d’arrêt.
2. Si T est un temps d’arrêt constant (T = p avec p ∈ N), alors FT = Fp ,
3. T est FT -mesurable,
4. Si S ≤ T , FS ⊂ FT ,
5. FS∧T = FS ∩ FT ,
6. T + S est FS∨T -mesurable,
7. {S < T } ∈ FS ∩ FT , {S = T } ∈ FS ∩ FT .
Exercice 2.2. On considère une suite (Xn )n≥0 de variables aléatoires définies sur un
espace de probabilité (Ω, F , P), à valeurs dans [0, 1], indépendantes et de même loi uni-
forme sur [0, 1]. On pose, pour n ≥ 0, Fn = σ(Xk , k ≤ n). On introduit la variable
aléatoire
T = inf{n ≥ 1; Xn > X0 },
avec la convention inf ∅ = ∞.
1. Montrer que T est un temps d’arrêt de la filtration (Fn )n≥0 .
2. Déterminer la loi de T . Calculer son espérance.

15
Exercice 2.3. Soit (Xn )n≥0 une suite de variables aléatoires définies sur un espace de
probabilité (Ω, F , P). Pour tout n ≥ 0, on note (En , En ) l’espace d’arrivée de Xn et on
pose Fn = σ(Xk , k ≤ n). On se donne un temps d’arrêt TQpour la filtration (Fn )n≥0 .
On introduit enfin une variable aléatoire Y à valeurs dans n≥0 En qui encode le “film
(Xn )n≥0 arrêté à l’instant T ”. Q
Plus précisément, on pose Y = (Xn∧T )n≥0 et la tribu sur n≥0 En est Q la plus pe-
tite tribu rendant mesurable, pour tout k, la projection (xn )n≥0 7→ xk de n≥0 En vers
(Ek , Ek ).
1. Montrer que la tribu FT est la tribu engendrée par les variables aléatoires T et Y .
2. Montrer que toute filtration peut être engendrée par une suite de variables aléatoires
à valeurs dans des (En , En ) bien choisis. La caractérisation de FT mise en évidence à
la question précédente s’applique donc à des filtrations et temps d’arrêt absolument
quelconques.
Exercice 2.4. — Marche aléatoire et martingales
Soit p ∈ ]0, 1[. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes identiquement
distribuées vérifiant P(X1 = +1) = p et P(X1 = −1) = 1 − p, et soit la filtration
F0 = {∅, Ω}, Fn = σ(X1 , . . . , Xn ). On note µ = E[X1 ] et σ 2 = VarX1 . On pose, S0 = 0
et pour n ≥ 1, Sn = X1 + · · · + Xn .
1. Montrer que Sn − nµ et Mn := (Sn − nµ)2 − nσ 2 sont des martingales relativement
à la filtration (Fn )n≥0 .
Sn
2. Montrer que 1−p p
est une martingale relativement à la filtration (Fn )n≥0 .
3. On définit ψ(x) = pex + (1 − p)e−x , pour x ∈ R. Montrer que, pour tout θ ∈ R,
eθSn /ψ(θ)n est une martingale relativement à la filtration (Fn )n≥0 .
Exercice 2.5. Soit (ξn , n ≥ 0), une suite de variables réelles, indépendantes, centrées et
de carrés intégrables : E[ξn ] = 0 et σn2 = E[ξn2 ] < ∞. On pose Sn = ξ0 + · · · + ξn et on
définit la filtration (Fn )n≥0 par Fn = σ(ξ0 , . . . , ξn ).
1. Montrer que (Sn )n≥0 est une martingale relativement à la filtration (Fn )n≥0 .
2. Montrer que τ = inf{n ; |Sn | ≥ x} est un temps d’arrêt.
3. En utilisant τ , montrer l’inégalité de Kolmogorov :
P max |Si | ≥ x ≤ x−2 Var(Sn ) ,

0≤i≤n

valable pour tout réel x > 0 et tout n ∈ N. La quantité Var(Sn ) est la variance de
Sn , que l’on calculera en fonction de (σi2 , i ≥ 0).
Exercice 2.6. Soit (ξn , n ≥ 0), une suite de variables aléatoires réelles indépendantes,
(p) (p)
intégrables telles que E[ξn ] = 0, pour tout n ≥ 0. On fixe p ≥ 1, on pose X0 = X1 =
(p)
· · · = Xp−1 = 0 et pour tout n ≥ p, on pose
X
Xn(p) = ξi1 ξi2 · · · ξip .
1≤i1 <i2 <···<ip ≤n

(p)
Montrer que (Xn , n ≥ 0) est une martingale relativement à la filtration (Fn ), donnée
par Fn = σ(ξ1 , · · · , ξn ) si n ≥ 1 et F0 = {∅, Ω}.

16
Exercice 2.7. Soient (Xn , n ≥ 0) et (Yn , n ≥ 0) deux sous-martingales pour une même
filtration. Montrer que (Xn ∨ Yn , n ≥ 0) est également une sous-martingale.

Exercice 2.8. Trouver une sous-martingale dont le carré n’est pas une sous-martingale
(Indication : faire très simple).

Exercice 2.9. Soit T une variable aléatoire à valeurs dans N∗ dont la loi est donnée
par P(T = n) = 1/(n(n + 1)). On considère la suite de variables aléatoires réelles Xn =
(n + 1) 1T >n .
1. Montrer que (Xn ) est une martingale positive. Vérifier que Xn → 0 p.s. Xn converge-
t-elle dans L1 ?

2. Quelle est la loi de supn≥0 Xn ? En déduire E supn≥0 Xn .

Exercice 2.10. Soient (Xn ) et (Yn ) deux (Fn )-martingales de carré intégrable.
1. Montrer que, pour n ≥ m, E(Xm Yn | Fm ) = Xm Ym p.s. et donc en particulier que
E(Xm Xn | Fm ) = Xm Xm p.s.
2. Montrer que, pour m < n ≤ p < q, Cov(Xn − Xm , Yq − Yp ) = 0.
3. Montrer que
n
X
2
E((Xn − X0 ) ) = E((Xk − Xk−1 )2 ).
k=1

Exercice 2.11. 1. Décomposition de Doob. Soit (Xn ) une sous-martingale pour une
filtration (Fn ). Démontrer que Xn s’écrit de manière unique sous la forme

Xn = Mn + An

où Mn est une martingale et An un processus croissant prévisible, i.e. 0 = A0 ≤


A1 ≤ · · · An ≤ · · · et, pour n ≥ 1, An est Fn−1 -mesurable. (Indication : introduire
les différences Xk − E[Xk |Fk−1 ].) On appelle cette décomposition la décomposition de
Doob.
2. Exemple 1. Soit Y1 , Y2 , · · · , Yn , · · · des variables aléatoires réelles i.i.d., définies sur
un espace de probabilité (Ω, F , P). On suppose que E(Y1 ) = 0 et que E(Y12 ) < ∞.
On pose X0 = 0, F0 = {Ω, ∅} et, pour n ≥ 1, Xn = Y1 + · · · + Yn , Fn =
σ(Y1 , Y2 , · · · , Yn ).
(a) Montrer que (Xn ) est une martingale de carré intégrable et déterminer la
décomposition de Doob de la sous-martingale (Xn2 ) (on posera σ 2 = E(Y12 )).
(b) Soit T un temps d’arrêt (pour la filtration Fn ) intégrable. Montrer que

sup E(XT2 ∧n ) < ∞.


n

En déduire que E(XT2 ) = E(T )σ 2 .


3. Exemple 2. On garde les hypothèses et notations précédentes. On suppose en parti-
culier que les variables aléatoires Yn ont pour loi commune : P(Yn = −1) = P(Yn =

17
1) = 1/2.
On pose
n
X
M0 = 0 et, pour n ≥ 1, Mn = sgn(Xk−1 )Yk
k=1

où sgn(x) = 1 si x > 0, = −1 si x < 0, = 0 si x = 0.


(a) Montrer que (Mn ) est une martingale de carré intégrable et déterminer la
décomposition de Doob de la sous-martingale (Mn2 ).
(b) Quelle est la décomposition de Doob de la sous-martingale (|Xn |, n ≥ 0) ?
(c) Montrer que pour tout n ≥ 1, Mn est σ(|X1 |, · · · , |Xn |)-mesurable.

Exercice 2.12. On considère l’évolution du capital d’une assurance au cours du temps.


Soit S0 = x > 0, le capital initial, c > 0 le montant des revenus des cotisations par an
et Xn ≥ 0 le coût des Pndommages pour l’année n. Le capital à la fin de l’année n est
donc Sn = x + nc − k=1 Xk . L’assurance est dite ruinée si son capital devient négatif,
c’est-à-dire si le temps d’arrêt τ = inf{k ≥ 0; Sk < 0} est fini.
On suppose (Xk , k ≥ 1) i.i.d. positives avec E(eλXk ) < ∞, ∀ λ > 0. Le but ici est de
majorer la probabilité de ruine P(τ < ∞). On pose Fn := σ(X1 , · · · , Xn ).
1. Vérifier que E(X1 ) > c implique P(τ < ∞) = 1.
2. On suppose dorénavant que E(X1 ) < c et P(X1 > c) > 0. Soit φ(λ) := E(eλ(X1 −c) ),
λ ∈ R. Montrer que φ′′ > 0, φ′ (0) < 0 et

lim φ(λ) = ∞.
λ→∞

Dessiner le graphe de φ et montrer qu’il existe un et un seul λ0 > 0 tel que


E(eλ0 X1 ) = eλ0 c .
3. Montrer que Vn = exp(−λ0 Sn + λ0 x) est une martingale positive.
4. Pour N ≥ 1 montrer que
N
X
E(VN 1{τ ≤N } ) = E(Vk 1{τ =k} ) ≥ eλ0 x P(τ ≤ N ).
k=1

5. En déduire que P(τ < ∞) ≤ e−λ0 x .

Théorèmes d’arrêt
Exercice 2.13. — Partiel 2016
Soit (Xi )i≥1 une suite de variables aléatoires i.i.d. de loi P(X1 = +1) = P(X1 = −1) =
1/2, et soit la filtration F0 = {∅, Ω}, Fn = σ(X1 , . . . , Xn ). On fixe un entier N ≥ 1, et
pour x ∈ P {0, . . . , N }, on considère la marche aléatoire issue de x : S0 = x et pour n ≥ 1
Sn = x + nk=1 Xi .
1. Montrer que Sn et Mn := Sn2 − n sont des martingales relativement à la filtration
(Fn )n≥0 .

18
2. On considère le temps T := inf{n ; Sn = 0 ou Sn = N }. Montrer que T est un temps
d’arrêt.
3. Pour m ≥ 0, on introduit l’événement Am = {XmN +1 = · · · = X(m+1)N = +1}.
Montrer que pour q ≥ 1, {T > qNP} ⊂ q−1 c
T
m=0 Am , et en déduire une majoration de
P(T > qN ). Montrer que E[T ] = j≥0 P(T > j) < +∞ et que T < +∞ p.s.
4. Calculer E[ST ] et en déduire que P(ST = 0) = 1 − x/N .
5. Calculer E[MT ] et en déduire E[T ].

Exercice 2.14. — Un jeu de cartes à un seul joueur


On prend un jeu de 52 cartes, on les retourne une à une ; le joueur peut, une et une seule
fois au cours du jeu, dire “rouge la prochaine !”, il gagne si la carte suivante est rouge,
sinon il perd. On se demande quelles sont les stratégies de jeu qui optimisent la probabilité
de victoire.
1. Soit Rn (pour 0 ≤ n ≤ 51) le nombre de cartes rouges encore dans le jeu après
avoir retourné n cartes. Soit An l’événement {la n-ième carte retournée est rouge}.
Calculer P(An+1 | Rn = j), pour j ∈ {0, · · · , 26}, n ∈ {0, · · · , 51}, 0 ≤ j ≤ 52 − n.
2. Calculer P(Rn+1 = j | Rn ) = P(Rn+1 = j | Fn ), où Fn := σ(R0 , · · · , Rn ), n ∈
{0, · · · , 50}, j ∈ {0, · · · , 26}. Montrer que

Rn
E(Rn+1 | Fn ) = Rn − , n = 0, · · · , 51.
52 − n

Montrer que Xn := Rn /(52 − n), n = 0, · · · , 51, est une martingale par rapport à la
filtration (Fn ) et que Xn = P(An+1 | Fn ).
3. Le joueur décide d’annoncer “rouge la prochaine !” après avoir retourné τ cartes,
où τ est un temps d’arrêt. Montrer que la probabilité de victoire est E(Xτ ). En
déduire que pour toute stratégie, la probabilité de victoire dans ce jeu est toujours
la même et la calculer.

Exercice 2.15. Soit (ξn , n ≥ 1) une suite de variables aléatoires i.i.d. telle que P(ξ1 =
1) = P(ξ1 = −1) = 1/2. La variable aléatoire ξn s’interprète comme un pari qui est gagné
si ξn = 1 et qui est perdu si ξn = −1. À l’étape n du jeu, un joueur mise une certaine
somme Sn > 0, il remporte 2Sn (en faisant ainsi un gain de Sn ) si ξn = 1 (il gagne le pari)
et perd sa mise si ξn = −1 (il perd le pari). On pose X0 = S0 = 0 et F0 = {∅, Ω} et pour
tout n ≥ 1, on pose
n
X
Xn = Sk ξk et Fn = σ(ξ1 , · · · , ξn ) .
k=1

La variable aléatoire Xn représente le gain algébrique du joueur après la n-ième partie.


Comme le joueur ne devine pas l’avenir, Sn ne dépend que de (ξ1 , · · · , ξn−1 ), c’est-à-dire
que (Sn , n ≥ 1) est (Fn )-prévisible. On suppose que pour tout n ≥ 1, Sn est intégrable.
1. Montrer que (Xn , n ≥ 0) est une (Fn )-martingale.

19
2. Le joueur adopte la stratégie suivante : à chaque pari qu’il perd, le joueur double la
mise pour le pari suivant. Il arrête de jouer lorsqu’il gagne au moins une fois. On
suppose qu’il part d’une mise initiale de un euros. On a alors Sn = 2n−1 1{T ≥n} où
T désigne la première fois où le joueur gagne.

T = inf{n ≥ 1 : ξn = 1}.

Montrer que P(T < ∞) = 1. Calculer le gain moyen du joueur, c’est-à-dire E[XT ].
Si cela vous semble merveilleux, calculez E[XT −1 ] qui est la perte moyenne du joueur
juste avant qu’il ne gagne. Que pensez-vous de cette stratégie ?
3. On suppose que le joueur ne dispose que d’une réserve d’argent égale à 2n0 − 1 euros
(avec n0 ≥ 1) et que les mises doivent être payées comptant, ce qui force le joueur
à quitter le jeu lorsqu’il n’a plus d’argent. Il choisit prudemment de s’arrêter la
première fois qu’il gagne. Quelle est la probabilité qu’il termine le jeu faute d’argent
à jouer ? Si on ne joue qu’une fois à ce jeu dans sa vie, faut-il jouer ? Quelle est le
gain (algébrique) moyen ?

Exercice 2.16. — Partiel 2017


Soit (Zn ) une suite de variables aléatoires i.i.d. dont la loi est donnée par

P (Zn = 1) = P (Zn = −1) = 1/2.

Soit S0 = 0 et Sn = Z1 + · · · Zn pour n ≥ 1. On définit F0 = {Ω, ∅} et Fn =


σ(Z1 , · · · , Zn ) pour n ≥ 1.
Soit a ∈ N∗ et λ tel que 0 < λ < 2a π
. Enfin, on définit τ = inf{k ∈ N : |Sk | = a} le
temps de sortie de l’intervalle ] − a, a[.
1. Montrer que τ est un temps d’arrêt.
2. Montrer que Xn = (cos(λ))−n cos(λSn ) est une martingale.
3. Montrer que E(Xn∧τ ) ≥ cos(λa)E(cos(λ)−n∧τ ).
4. Montrer que E(cos(λ)−τ ) ≤ (cos(λa))−1 et que τ < ∞ p.s..
5. Montrer que la martingale (Xn∧τ ) est fermée.
6. Que vaut E(cos(λ)−τ ) ? Est-il vrai que τ appartient à Lp pour tout p ∈ [1, ∞[ ?

Exercice 2.17. — Examen 2019


Donner un énoncé précis et une démonstration du fait suivant : lorsqu’une sur-martingale
positive atteint 0, elle y reste.

Convergence de martingales
Exercice 2.18. Soient Y1 , Y2 , · · · des variables aléatoires i.i.d. telles que

P(Y1 = −1) = q, P(Y1 = 1) = p, avec p + q = 1, 0 < p < q < 1.


 q Xn
On pose X0 = 0, Z0 = 1, et pour n ≥ 1, Xn = Y1 + · · · + Yn , Zn = .
p

20
1. Montrer que (Zn ) est une martingale positive. Montrer que Zn → 0 p.s.
2. On pose, pour k ∈ N∗ , Tk = inf{n ≥ 0 ; Xn ≥ k}. En considérant la martingale
(ZTk ∧n ) et la décomposition

ZTk ∧n = ZTk ∧n 1{Tk <∞} + ZTk ∧n 1{Tk =∞} ,

montrer que
 p k
P(Tk < ∞) = .
q
3. En déduire que supn≥0 Xn suit une loi géométrique de paramètre 1 − p/q, et ainsi
que
p
E(sup Xn ) = .
n≥0 q−p
Exercice 2.19. Soient Y1 , Y2 , · · · des variables aléatoires i.i.d. telles que P(Y1 = 1) = p,
P(Y1 = −1) = q = 1 − p, avec 0 < p < 1. On pose

S0 = 0 , Sn = Y1 + · · · + Yn , n ≥ 1 , Fn = σ(S0 , · · · , Sn )

et, pour tout θ réel ,


eθSn
φ(θ) = E(eθY1 ) , Xn = .
φ(θ)n
1. Donner le tableau de variation de la fonction θ 7→ φ(θ).
2. Montrer que (Xn ) est une martingale et que, dans le cas où θ ̸= 0, Xn converge p.s.
vers 0.
3. Soit T = inf {n > 0; Sn = 1}. Montrer que, pour θ > max(0, ln(q/p)), on a

E φ(θ)−T 1{T <∞} = e−θ .




En déduire que P(T < ∞) = 1 si p ≥ q, P(T < ∞) = p/q si p < q, et


p
T
 1 − 1 − 4pqs2
E s 1{T <∞} = (0 ≤ s ≤ 1).
2qs

Exercice 2.20. Soit (σn , n ≥ 1) une suite i.i.d. telle que P(σn = 1) = P(σn = −1) = 12 .
Introduire une martingale opportune pour montrer la convergence p.s. de la série

X σn
.
n=1
n

Exercice 2.21. On considère un jeu de hasard entre un joueur et le croupier d’un casino.
Le capital total en jeu est 1 : après la n-ième partie le capital du joueur est Xn ∈ [0, 1]
et le capital du croupier est 1 − Xn . Au début le capital du joueur est une constante
X0 = p ∈]0, 1[ et le capital du croupier est 1 − p.
La règle du jeu est que, après les n premières parties, la probabilité pour le joueur de
gagner l’(n + 1)-ième partie est Xn , et la probabilité de perdre est 1 − Xn ; si le joueur

21
gagne, il obtient la moitié du capital du croupier ; s’il perd, il cède la moitié de son capital
au croupier.
Plus précisément, on se donne une suite de variables aléatoires (Un )n≥1 de loi uniforme
sur [0, 1], indépendantes entre elles et indépendantes de X0 , et on pose :
 
1 − Xn Xn
Xn+1 = Xn + 1Un+1 <Xn + 1Un+1 ≥Xn .
2 2
On considère alors la filtration Fn = σ(X0 , U1 , U2 , . . . , Un ).
1. Prouver que (Xn ) est une martingale pour la filtration (Fn )n≥0 .
2. Prouver que Xn converge p.s. et dans L2 vers une variable Z.
2
3. Prouver que E(Xn+1 ) = E(3Xn2 + Xn )/4. En déduire que E(Z 2 ) = E(Z) = p.
4. Prouver que toute variable aléatoire W , telle que 0 ≤ W ≤ 1 et E(W (1 − W )) = 0,
est une variable aléatoire de Bernoulli. En déduire la loi de Z.
5. Pour tout n ≥ 0, soit Yn := 2Xn+1 − Xn . Montrer que
P(Yn = 0 | Fn ) = 1 − Xn , P(Yn = 1 | Fn ) = Xn ,
et en déduire la loi de Yn .
6. Considérer les événements Gn := {Yn = 1}, Pn := {Yn = 0}. Prouver que Yn
converge presque sûrement vers Z et en déduire que
   
P lim inf Gn = p, P lim inf Pn = 1 − p.
n→∞ n→∞

Les variables aléatoires Yn , n ≥ 0, sont-elles indépendantes ?


7. Quelle est l’interprétation des résultats des points 4, 5 et 6 en termes de vic-
toire/perte du joueur ?
Exercice 2.22. On a une population de taille fixée N ∈ N∗ qui se renouvelle entièrement
à chaque génération et dont chaque individu est de type a ou A. Chaque individu de
la génération n + 1 choisit son (seul) parent de la génération n de façon uniforme et
indépendante des autres individus et hérite le type du parent.
On note Xn le nombre d’individus de type a dans la génération n et on pose Fn :=
σ(X0 , · · · , Xn ). On a alors P(Xn+1 = i | Fn ) = Ni ( XNn )i (1 − XNn )N −i , pour tout i ∈
{0, · · · , N }. On suppose que p.s. X0 = k ∈ {0, · · · , N }.
1. Montrer que (Xn , n ≥ 0) est une martingale et discuter la convergence de Xn vers
une variable X∞ quand n → ∞.
n
2. Montrer que Mn := NN−1 Xn (N − Xn ) est une martingale.
3. Calculer E(X∞ ) et E(X∞ (N − X∞ )).
4. Calculer la loi de X∞ et commenter.
Exercice 2.23. Soient (ξn , n ≥ 1) une suite de variables aléatoires réelles indépendantes
de même loi N (0, 1) et (αn , n ≥ 1) une suite de réels. On pose X0 := 1 et F0 := {∅, Ω},
et pour n ≥ 1,
n n
X 1 X 2
Fn = σ(ξ1 , · · · , ξn ) , Xn = exp αk ξk − αk .
k=1
2 k=1

22
1. Montrer que (Xn ) est une (Fn )-martingale et que Xn converge p.s.
2. On suppose que ∞ 2 λ
P
k=1 αk = ∞. En considérant la suite (Xn )n≥1 pour un λ > 0 bien
choisi, montrer que limn→∞ Xn = 0 p.s. La martingale (Xn ) est-elle fermée ?

Exercice 2.24. — Urne de Polya à deux couleurs


On considère qu’une urne contient, à l’instant 0, a > 0 boules rouges et b > 0 boules
blanches. On suppose que l’on dispose, à côté, d’un stock illimité de boules blanches et
de boules rouges. À l’étape 1, on tire une boule au hasard dans l’urne : si elle est blanche,
on remet cette boule en y ajoutant une boule blanche prise dans le stock ; si la boule
tirée est rouge, on la remet et on y ajoute une boule rouge prise dans le stock. On fait
de même à l’étape 2, 3 ... etc, en supposant qu’à chaque étape les tirages sont uniformes
et indépendants. On note Bn le nombre de boules blanches à l’instant n, d’où il y a au
total a + b + n boules dans l’urne. La proportion de boules blanches à l’instant n est notée
Xn = Bn /(a + b + n). Pour tout n ∈ N, on pose Fn = σ(B0 , · · · , Bn ).
1. Montrer que (Xn , n ≥ 0) est une (Fn )-martingale positive avec |Xn | ≤ 1, ∀n ≥ 0.
En déduire que la limite limn→∞ Xn = X∞ a lieu presque sûrement et dans Lp , pour
tout p ∈ [1, ∞[.
2. Montrer que la limite X∞ vérifie P(X∞ = 0) < 1 et P(X∞ = 1) < 1. Qu’est-ce-que
cela signifie sur la coloration de l’urne au cours du temps et asymptotiquement ?
3. On fixe k ∈ N, et pose, pour tout n ≥ 0,
Bn (Bn + 1) · · · (Bn + k − 1)
Yn(k) = .
(a + b + n)(a + b + n + 1) · · · (a + b + n + k − 1)
(k) (k)
Montrer que (Yn , n ≥ 0) est une (Fn )-martingale positive, avec |Yn | ≤ 1, ∀n. En
(k) (k)
déduire qu’elle converge p.s. et dans L1 vers une limite notée Y∞ . Calculer E[Y∞ ]
en fonction de b et de a.
(k)
4. Montrer que Y∞ = (X∞ )k p.s. En déduire E[(X∞ )k ] explicitement en fonction de
b et de a.
5. Soit Z une variable aléatoire à valeurs dans [0, 1] dont la loi admet la densité f (x) =
Ca,b (1 − x)a−1 xb−1 par rapport à la mesure de Lebesgue. Trouver la constante Ca,b .
Montrer que E[Z k ] = E[(X∞ )k ], pour tout k ∈ N. En déduire que Z et X∞ ont la
même loi, autrement dit que X∞ suit la loi bêta de paramètres a et b.

Exercice 2.25. Soit (Un )n≥0 une suite de variables aléatoires indépendantes identique-
ment distribuées telles que P(Un = 1) = p, P(Un = 0) = q = 1 − p, 0 < p < 1. On
pose
T = inf{n ≥ 0 ; Un = 1}, T = ∞ si Un = 0 pour tout n ≥ 0.
Pour tout n ≥ 0, on pose Xn = q −n 1{T >n} .
1. Montrer que (Xn ) est une martingale (on précisera la filtration (Fn )).
2. Montrer que Xn converge p.s. vers 0.
3. A-t-on supn E(|Xn |) < ∞ ? A-t-on supn E(Xn2 ) < ∞ ?
4. La martingale (Xn ) est-elle fermée ?

23

5. La suite Yn = Xn est-elle uniformément intégrable ?
Exercice 2.26. Soit X une variable aléatoire réelle de loi N (0, σ 2 ), avec σ 2 ∈ ]0, ∞[. Pour
tout k ∈ N, soit ηk une variable aléatoire de loi N (0, ε2k ), avec εk > 0. On suppose que
X, η0 , η1 , · · · sont indépendantes. On définit Yk = X + ηk , k ∈ N et Fn = σ(Y0 , · · · , Yn ),
n ∈ N, F∞ = σ(Yn , n ≥ 0).
Nous essayons de mesurer une quantité aléatoire X avec une suite indépendante
d’expériences. L’expérience k donne comme résultat Yk = X + ηk , où ηk est une erreur
qui dépend de la précision des instruments. Après n expériences, la meilleure prévision
possible sur X est
Xn := E(X | Fn ) = E(X | Y0 , · · · , Yn ).
On se demande s’il est possible d’obtenir la valeur de X quand n tend vers l’infini, et
notamment si Xn converge vers X.
1. Montrer que (Xn ) est une martingale et que Xn converge p.s. et dans L1 vers une
variable aléatoire X∞ . Quelle est la relation entre X et X∞ ?
2. Montrer que supn E(Xn2 ) < ∞. Montrer que les trois propriétés suivantes sont
équivalentes :
a) Xn → X dans L2 ; b) Xn → X dans L1 ; c) X est F∞ -mesurable.
3. Calculer E(Yi Yj ), E(Yi2 ) et E(XYi ) pour i, j ≥ 0, i ̸= j. Montrer que pour tous
n ≥ 0 et i = 0, · · · , n, on a E(Zn Yi ) = 0, où
n
σ2 X
Zn := X − 2
P n −2 ε−2
j Yj .
1+σ k=0 εk j=0

4. Montrer que pour tout n ≥ 0 la variable Zn est indépendante de {Y0 , · · · , Yn } et en


déduire que Xn = X − Zn .
5. Calculer E((X−Xn )2 ) et montrer que Xn → X dans L2 si et seulement si ∞ −2
P
i=0 εi =
∞.
6. Discuter le cas εi = ε > 0 pour tout i ≥ 0, notamment les liens avec la loi des grands
nombres.
Exercice 2.27. — D’après l’examen 2020
Alexandre affirme qu’une sur-martingale (Xn )n≥0 ne peut pas tendre presque sûrement
vers +∞. Il argumente qu’une telle sur-martingale serait minorée et par conséquent
convergerait vers une variable aléatoire finie. Bertrand est assez d’accord avec Alexandre
et donne un autre argument par l’absurde : la suite (E(Xn ))n≥0 est décroissante, et si
lim inf n Xn = limn Xn = +∞ p.s on aurait par Fatou :
+∞ = E[lim inf Xn ] ≤ lim inf E[Xn ] ≤ E[X0 ] < +∞.
n n

Cécile n’est pas d’accord avec les arguments précédents et affirme qu’elle sait construire
un exemple de sur-martingale qui tend presque sûrement vers +∞. Qui croire ?
Exercice 2.28. Soit (Yn , n ≥ 0) une suite de variables aléatoires réelles positives définies
sur un espace de probabilité (Ω, F , P) indépendantes et de même espérance 1. On pose,
pour n ≥ 0, Fn = σ(Y0 , · · · , Yn ) et Xn = Y0 · · · Yn .

24

1. Montrer que Xn , resp. Xn , est une (Fn )-martingale, resp. surmartingale.

2. Montrer que le produit infini ∞
Q
E( Y ) converge dans R+ . On note ℓ sa limite.
k=0
√k
3. On suppose que ℓ = 0. Montrer que Xn → 0 p.s. La martingale (Xn ) est-elle
fermée ?

4. On suppose ℓ > 0. Montrer que Xn est une suite de Cauchy dans L2 . En déduire
que (Xn ) est fermée.
5. Application
Soient p et q deux probabilités distinctes sur un ensemble dénombrable E et (Zn )
une suite de variables aléatoires indépendantes à valeurs dans E et de même loi q.
On suppose que, pour tout x ∈ E, q(x) > 0 (notations : p(x) := p({x}) et q(x) :=
q({x}), x ∈ E). On pose
p(Z0 ) p(Zn )
Xn = ··· .
q(Z0 ) q(Zn )
À partir de ce qui précède, montrer que Xn → 0 p.s.
Exercice 2.29. On sait (cf. cours) que, pour une martingale (Xn ), E[(supn≥0 |Xn |)2 ] ≤
4 supn≥0 E(Xn2 ) : ainsi, si supn≥0 E(Xn2 ) < ∞, alors, supn≥0 |Xn | ∈ L2 .
Dans cet exercice on se propose de prouver que, si supn≥0 E[|Xn | ln+ (|Xn |)] < ∞, alors
supn |Xn | ∈ L1 . [Notation : ln+ x := ln max{x, 1}.]
Soit (Xn ) une martingale.
1 1
1. Montrer que, pour u ≥ 1, ln u ≤ . En déduire que pour tous réels 0 < x ≤ y, on
u e
a x ln y ≤ x ln x + ye , puis x ln y ≤ x ln+ x + ye , et enfin x ln+ y ≤ x ln+ x + ye .
2. Rappelons la version suivante de l’inégalité maximale : si (Mn )n∈N est une sous-
martingale, alors
λ P( max Mk ≥ λ) ≤ E(Mn 1{max0≤k≤n Mk ≥λ} )
0≤k≤n

pour tout entier n ≥ 0 et tout réel λ ≥ 0.


À partir de l’inégalité maximale appliquée à la sous-martingale (|Xn |), montrer que
Z ∞
P max |Xk | ≥ a da ≤ E|Xn | ln+ max |Xk | .
 
1 0≤k≤n 0≤k≤n

3. Conclure que
e
1 + sup E(|Xn | ln+ |Xn |) .
 
E sup |Xn | ≤
n≥0 e−1 n≥0

Exercice 2.30. — Pour aller plus loin


Le but de cet exercice atypique est de traiter de manière probabiliste par la théorie
des martingales deux questions d’analyse. Pour cela, nous allons construire un espace de
probabilité filtré explicite. Soit Ω = [0, 1[ et F la tribu borélienne sur Ω. Soit P la mesure
de Lebesgue sur Ω. Pour tout n ∈ N et 0 ≤ k ≤ 2n − 1[, soit Bn,k = [k/2n , (k + 1)/2n [.
Soit Fn la sous-tribu de F engendrée par la partition (Bn,k )0≤k<2n . Nous rappelons que
la tribu engendrée par toutes les Fn est la tribu borélienne.
Toute fonction mesurable F sur [0, 1[ à valeurs réelles peut ainsi être considérée comme
une variable aléatoire sur Ω.

25
1. Montrer que les Fn forment une filtration sur (Ω, F ).
2. Montrer que pour tout n ≥ 1 et 0 ≤ k < 2n , E(1Bn,k |Fn−1 ) = (1/2)1Bn−1,p(k) où
p(k) est l’unique entier tel que k = 2p(k) ou k = 2p(k) + 1.
3. Supposons F intégrable sur [0, 1[. Soit Fn = E(F |Fn ). Montrer que, pour presque
tout x ∈ Ω,
n −1
2X Z !
Fn (x) = 2n F (x)dx 1Bn,k (x).
k=0 Bn,k

4. Montrer que (Fn , n ≥ 0) est une martingale et étudier sa convergence presque sûre
et dans L1 .
5. En déduire le résultat d’analyse suivant : toute fonction f intégrable
R sur [0, 1[ est
n
égale presque partout à la limite de ses moyennes locales 2 Bn,⌊2n x⌋ f (y)dy.
6. Supposons que F admette une limite l en 1 et que F étendue sur [0, 1] soit K-
Lipschitzienne. Soit Gn la fonction définie pour tout x ∈ Ω par :
n −1
2X     
n k+1 k
Gn (x) = 2 F n
−F 1Bn,k (x).
k=0
2 2n

avec la convention F (1) = l. Montrer que |Gn (x)| < K pour tout x ∈ [0, 1[ et que,
pour tout x ∈ [0, 1[, on a
Z x
Fn (x) − F (0) − Gn (u)du ≤ 2K/2n
0

7. Montrer que Gn est une martingale pour la filtration (Fn , n ≥ 0) et montrer que
supn E(G2n ) < ∞. Conclure au sujet de la convergence presque sûre, Rdans L1 et
x
dans L2 de Gn vers une variable aléatoire G. Montrer que pour tout x, 0 Gn (u)du
converge quand n → ∞.
8. En déduire le résultat d’analyse suivant : pour tout fonction f : [0, 1] → R intégrable
et K-Lipschitzienne, il existe une fonctionR g mesurable bornée sur [0, 1] telle que,
x
pour tout x ∈ [0, 1], on ait f (x) = f (0) + 0 g(u)du.

26
Chapitre 3

Chaı̂nes de Markov

Matrices de transition, calculs


Exercice 3.1. Soient p et q dans [0, 1]. Une chaı̂ne de Markov à valeurs dans {1, 2} a
toujours une matrice de transition de la forme
 
1−p p
M=
q 1−q

1. Décrire la chaı̂ne dans le cas particulier où p et q sont tous les deux dans {0, 1}.
On supposera par la suite que (p, q) est différent de (1, 1) et de (0, 0).
2. Calculer M n . En déduire limn→+∞ P(Xn = j | X0 = i) pour tout i, j ∈ {1, 2}.
3. Un virus peut exister sous N formes différentes. À chaque instant, avec probabilité
1 − a, il reste sous la forme où il est, ou avec la probabilité respective a, il mute sous
une forme différente, uniformement choisie parmi les autres N − 1 formes. Quelle
est la probabilité que la forme du virus au temps n soit la même qu’au temps 0 ?
Suggestion : réduire le problème à l’analyse d’une chaı̂ne de Markov à deux états.

Exercice 3.2. À une probabilité quelconque (pi )i≥1 sur {1, 2, · · · } on associe une chaı̂ne
de Markov (Xn , n ≥ 0) à valeurs dans N, de loi initiale δ0 et de matrice de transition Q
définie par
Q(0, i) = pi+1 , Q(i + 1, i) = 1 , i ≥ 0 .
On pose S = inf{n ≥ 1; Xn = 0}, avec la convention inf ∅ = ∞ (premier temps de retour
à l’origine). Quelle est la loi de S ?

Exercice 3.3. Un joueur fréquente trois casinos numérotés 1, 2 et 3. Chaque jour il


choisit l’un des deux casinos où il n’est pas allé la veille suivant une même probabilité 21 .
Le premier jour, jour 0, il choisit l’un des trois casinos suivant une loi de probabilité µ
sur E := {1, 2, 3}. On note Xn la variable aléatoire égale au numéro du casino fréquenté
par le joueur le jour n. On considérera la suite (Xn , n ≥ 0) comme une chaı̂ne de Markov
définie sur (Ω, F ) sous les lois Pµ ; on précisera la matrice de transition Q.
1. Calculer les puissances Qn de Q, puis limn→∞ Qn .

27
2. Calculer limn→∞ Pµ (Xn = j), pour j = 1, 2 et 3.
Exercice 3.4. Soient (Yn , n ≥ 1) une suite i.i.d. de variables aléatoires de Bernoulli de
paramètre p ∈ ]0, 1[ et X0 := 0, Xn := Y1 +· · ·+Yn pour n ≥ 1. Remarquer que Xn+1 ≥ Xn
p.s. pour tout n. Soit pour tout y ∈ N le temps d’arrêt Ty := inf{n ≥ 0 : Xn = y}
(inf ∅ := ∞).
1. Montrer, à l’aide de la loi des grands nombres, que limn→∞ Xn = ∞ p.s. et en
déduire que P(Ty < ∞) = 1.
2. Montrer que Mn := Xn − np est une martingale par rapport à la filtration (Fn )
engendrée par (Xn ).
3. Calculer E(Ty ), en utilisant la martingale arrêtée (Mn∧Ty ).
Soit N (y) := ∞
P
k=0 1{Xk =y} le nombre de visites de (Xn ) à y ∈ N.
4. Calculer 1{Xk =y} sur les événements {k < Ty }, {Ty ≤ k < Ty+1 } et {k ≥ Ty+1 },
respectivement. En déduire que N (y) = Ty+1 − Ty p.s. et la valeur de E[N (y)].
On remarque que (Xn ) est une chaı̂ne de Markov de matrice de transition Q donnée par
Q(x, x) = 1 − p, Q(x, x + 1) = p, x ∈ N (on ne demande pas de le prouver).
5. Calculer la loi de Xn et la loi de T1
6. Prouver, à l’aide de la loi de Markov forte et du point 4, que N (y) a même loi que
T1 .
7. Calculer la loi de Ty .
Exercice 3.5. On travaille avec les variables aléatoires (Xn )n≥0 de l’espace canonique
correspondant à un ensemble dénombrable E. Sous la probabilité Pµ , la suite (Xn )n∈N
est une chaı̂ne de Markov à de loi initiale µ et de matrice de transition Q.
1. Soit T un temps d’arrêt tel que Pµ (T < ∞) = 1. Que peut-on dire de la suite
(XT +n , n ≥ 0) ?
2. Soit S = S ((Xn )n≥0 ) un temps d’arrêt tel que, pour tout x ∈ E, Px (S < ∞) = 1.
On pose S0 = 0 et pour n ≥ 0,

Sn+1 = Sn + S ((XSn +k )k≥0 ).

(a) Montrer que, pour tout x ∈ E, les Sn sont Px -p.s. finis.


(b) Montrer que la suite (XSn , n ≥ 0) associée à la filtration (FSn , n ≥ 0) est une
chaı̂ne de Markov dont la matrice de transition est donnée par

QS (x, y) = Px (XS = y).

Exercice 3.6. Dans cet exercice, on considère une suite (Xk )k≥0 de variables aléatoires
à valeurs dans N∗ et une famille de probabilités Pµ telles que sous Pµ , X0 suive la loi µ
et la suite (Xk )k≥1 est i.i.d. de loi géométrique de paramètre p ∈ ]0, 1[ et indépendante
de X0 : P(X1 = y) = py−1 (1 − p). On peut voir (Xk )k≥0 comme une chaı̂ne de Markov à
valeurs dans N∗ , de matrice de transition

Q(x, y) = py−1 (1 − p), x, y ∈ N∗ .

28
Comme d’habitude, la filtration est définie en posant Fn = σ(X0 , . . . , Xn ).
On introduit le temps d’arrêt τ défini par
τ = T ((Xk )k≥0 ) := inf{k ≥ 1 : Xk > X0 },
avec la convention inf ∅ = ∞. La fonction T permet de définir les temps des records
successifs de la suite (Xn ) par τ0 = 0 et
τn+1 := τn + T ((Xτn +k )k≥0 ) = inf{k > τn : Xk > Xτn }.
On note Zk := Xτk , les records successifs.
1. Soit x, y et m trois entiers strictement positifs. Calculer
Px (X1 ≤ x, · · · , Xm−1 ≤ x, Xm > y).

2. Calculer Px (τ = m, Xm > y) en séparant les cas y ≤ x et x < y. Montrer que, sous


Px , τ est une variable géométrique avec un paramètre que l’on déterminera et que
Xτ a la même loi que x + X1 . Le couple (τ, Xτ ) est-il indépendant sous Px ?
3. Montrer que π(x) = px−1 (1−p), x ∈ N∗ , est la seule mesure de probabilité invariante
pour Q. Montrer que Pπ (τ < ∞) = 1 et Eπ (τ ) = ∞.
4. Montrer que (Zk , k ≥ 0) est une chaı̂ne de Markov dans N∗ sous Px . Calculer sa
matrice de transition et sa loi initiale.
5. Calculer pour toute fonction bornée f : N∗ → R l’espérance conditionnelle de
f (Zk+1 − Zk ) sachant Fτk . Montrer que la suite (Zk − Zk−1 , n ≥ 1) est i.i.d. sous
Px .
6. Calculer la limite Px -presque sûre de Zk /k, pour tout x ∈ N∗ .

Récurrence, transience, irréductibilité


Exercice 3.7. On considère une chaı̂ne de Markov (Xn , n ≥ 0) dans E = {1, 2, 3} avec
matrice de transition  
0 1 0
Q := 1/2 1/2 0 
1/3 1/3 1/3
1. Classer les états. Quelles sont les classes de récurrence/transience ? Déterminer les
états x tels que G(x, x) = ∞, où G est la fonction de Green. Déterminer également
si G(x, y) = 0.
2. Montrer que G satisfait la formule G = I + QG, où I est la matrice identité. En
déduire la valeur de G et donc les valeurs de Ex (Ny ) pour tous x, y ∈ E, où Ny est
le nombre de visite de X à y.
3. On s’intéresse à présent au temps de première visite en 1 (i.e., T{1} = inf{n ≥
0; Xn = 1}) en fonction du point de départ. On introduit alors v(x) = Ex (T{1} ).
Montrer que
v(x) = 1 + (Qv)(x), x ∈ {2, 3}, v(1) = 0.
En déduire la valeur de Ex (T{1} ) pour tout x ∈ E.

29
4. Que peut-on dire de Ex (T{3} ) où T{3} est le temps de première visite de {3} ?
5. Calculer une mesure de probabilité invariante et dire si elle est unique.
6. Soit T{1,2} le premier temps de visite de X à l’ensemble {1, 2}. Quelle est la loi de
T{1,2} sous P3 ?
7. Remarquer que E3 (T{1,2} ) = E3 (N3 ). Quelle en est la raison ?
Exercice 3.8. Soit (Xn ) une chaı̂ne de Markov à valeurs dans E dénombrable, de matrice
de transition Q. Soient x, y, z ∈ E. Prouver que si y transient, alors, en notant Ty =
inf{n ≥ 0, Xn = y},
 X 
Ex 1{Ty <∞} 1{Xn =z} = Px (Ty < ∞)G(y, z)
n≥Ty

G(x, y)
= G(y, z),
G(y, y)
où l’x en indice signifie qu’on prend pour loi initiale la masse de Dirac en x, c’est-à-dire
Px (X0 = x) = 1.
Exercice 3.9. Soit Q := (Q(x, y), x, y ∈ E) une matrice de transition sur un espace
d’états dénombrable E et soit π une mesure de probabilité invariante telle que π(x) > 0
pour tout x ∈ E. Soit Q∗ := (Q∗ (x, y), x, y ∈ E) définie par
Q(y, x)π(y)
Q∗ (x, y) := , x, y ∈ E.
π(x)
1. Montrer que Q∗ est une matrice de transition sur E et que π est une mesure de
probabilité invariante pour Q∗ . Donner une condition nécessaire et suffisante pour
que Q∗ = Q.
2. Soit (Xn , n ≥ 0) une chaı̂ne de Markov avec matrice de transition Q et telle que X0
soit de loi π. Soit N ∈ N fixé et Xn∗ := XN −n . Calculer P(X0∗ = x0 , · · · , XN∗ = xN )
et en déduire que (Xn∗ , n ∈ [0, N ]) est, sous P, une chaı̂ne de Markov avec loi initiale
π et matrice de transition Q∗ .
3. Soit maintenant p ∈ ]0, 1[ et Q la matrice de transition sur N = {0, 1, · · · } donnée
par
Q(x, y) = p1{y=x+1} + (1 − p)1{y=0} , x, y ∈ N.
Calculer une mesure de probabilité invariante π et dire si elle est unique. Calculer
Q∗ et vérifier que dans ce cas
Q∗ (x, y) = 1{y=x−1} + π(y)1{x=0} , x, y ∈ N.
Dessiner les trajectoires typiques de X et X ∗ dans ce cas.
Exercice 3.10. On considère la chaı̂ne de Markov d’espace d’états N et de matrice de
transition Q := (Q(i, j), i, j ∈ N) définie par
Q(i, 0) = qi et Q(i, i + 1) = pi pour tout i ∈ N ,
où, pour tout i, pi + qi = 1, pi > 0, qi > 0.

30
1. Vérifier que la chaı̂ne est irréductible.
2. À quelle condition sur les pi existe-t-il une mesure invariante ? Dans ce cas prouver
que la chaı̂ne est récurrente.
3. Sous quelle condition sur les pi la chaı̂ne est-elle récurrente positive ?
Exercice 3.11. Soit (Xn , n ≥ 1) une suite de variables aléatoires i.i.d. à valeurs dans
{0, 1} avec P(Xn = 0) = P(Xn = 1) = 1/2. On s’intéresse aux blocs de 3 zéros consécutifs
sans compter 2 fois 2 blocs de 3 zéros consécutifs qui se chevauchent. Lorsqu’il y a 2 blocs
de 3 zéros consécutifs qui se chevauchent, on compte seulement le premier.
On note Nn le nombre de blocs comptés entre les instants 1 et n. On veut calculer la
limite de la fréquence empirique de ces blocs, i.e., la limite p.s. de Nn /n.
Pour ce faire on utilise une chaı̂ne de Markov Y = (Yn , n ≥ 0) à 4 états 0, 1, 2, 3, d’état
initial 0 (0 état de repos) qui mémorise le nombre de zéros consécutifs et retombe à l’état
de repos lorsqu’on a compté 3 zéros consécutifs. Par exemple : si

(X1 , X2 , X3 , X4 , X5 , X6 , X7 , · · · ) = (0, 1, 0, 0, 0, 0, 1, · · · ),

alors
(Y1 , Y2 , Y3 , Y4 , Y5 , Y6 , Y7 , · · · ) = (1, 0, 1, 2, 3, 1, 0, · · · )
P7
et N7 = 1 = k=1 1{Yk =3} . La matrice de transition Q := (p(x, y), x, y ∈ {0, 1, 2, 3}) de
la chaı̂ne Y est donnée par
1 1
p(0, 0) = p(0, 1) = , p(1, 0) = p(1, 2) =
2 2
1 1
p(2, 0) = p(2, 3) = , p(3, 0) = p(3, 1) = .
2 2

1. Vérifier que la chaı̂ne Y est irréductible récurrente positive. Calculer sa probabilité


invariante.
2. En déduire la limite p.s. de Nn /n.
Exercice 3.12. — Examen 2017
On considère la marche au hasard sur le graphe suivant :

c d
• •

s• t• •u


e

qu’on étudie comme une chaı̂ne de Markov sur l’espace d’états {e, s, t, u, c, d}.

31
1. Cette chaı̂ne de Markov est-elle irréductible ? Quels sont ses états récurrents ?
2. Déterminer toutes les mesure de probabilités invariantes de cette chaı̂ne de Markov.
3. Entre deux visites en t, combien de fois la chaı̂ne de Markov passe-t-elle, en moyenne,
en c ?
4. Partant de u, combien de temps la chaı̂ne met-elle, en moyenne, à revenir en u ?
5. Partant de e, quelle proportion du temps la chaı̂ne passe-t-elle, asymptotiquement,
dans le sous-ensemble {c, d} de E ?
6. Partant de e, combien de temps la chaı̂ne met-elle, en moyenne, à atteindre d ?

Convergence vers la loi stationnaire


Exercice 3.13. On considère une chaı̂ne de Markov (Xn ) dans E = {1, 2, 3} avec matrice
de transition Q := (Q(x, y), x, y ∈ E)
 
0 1/2 1/2
Q := 1/2 0 1/2
1 0 0

1. Quelles sont les classes de récurrence/transience ?


2. Calculer une mesure de probabilité invariante et dire si elle est unique et si elle est
réversible.
3. Calculer pour tout x ∈ E le temps moyen de retour à x, Ex (Sx ).
4. Calculer la période de tout x ∈ E. Quelle est la limite des probabilités de transition
[Qn ](x, y), quand n → ∞ ?

Exercice 3.14. — Deuxième session 2017


Un professeur possède un nombre entier N ≥ 1 de parapluies, répartis entre son bureau
et son domicile. Il se rend à son bureau à pied le matin et rentre chez lui à pied le
soir. S’il pleut, et s’il en a un à sa disposition, il prend un parapluie. S’il fait beau, il n’en
prend pas. On suppose qu’à chaque trajet du professeur il pleut avec probabilité p ∈ ]0, 1[,
indépendamment des trajets précédents.
1. Écrire la matrice de transition d’une chaı̂ne de Markov sur l’espace d’états {0, ..., N }
qui modélise convenablement ce problème, l’entier k correspondant à la situation où
il y a k parapluies à l’endroit où se trouve le professeur.
2. Cette chaı̂ne de Markov est-elle irréductible ? Quels sont ses états récurrents ?
3. Déterminer toutes les mesures invariantes de cette chaı̂ne.
4. Quelle est, asymptotiquement, la proportion des trajets durant lesquels le professeur
marche sous la pluie sans parapluie ? Vérifier que pour p = 21 , cette proportion vaut
1
4N +2
.
5. Quelle est la période de la chaı̂ne de Markov que nous sommes en train d’étudier ?

32
Exercice 3.15. — Produit de 2 chaı̂nes indépendantes
Soient X = (Xn ) et Y = (Yn ) deux chaı̂nes de Markov indépendantes d’espaces d’états E
et F , de matrice de transition Q et R respectivement. La chaı̂ne produit est par définition
la chaı̂ne Z = (Zn ) où Zn = (Xn , Yn ). On vérifie sans peine que la chaı̂ne Z est une chaı̂ne
de Markov de matrice de transition

S (x, y), (x′ , y ′ ) = Q(x, x′ )R(y, y ′ ), x, x′ ∈ E, y, y ′ ∈ F.




1. Exprimer les coefficients de S n en fonction des coefficients de Qn et Rn .


2. Montrer que si X et Y sont irréductibles de période 1, alors la chaı̂ne Z = (Zn ) est
irréductible de période 1.
3. Donner un contre-exemple pour lequel X et Y sont irréductibles de période 2 et
pour lequel Z n’est pas irréductible.
4. Supposons que Q et R admettent des probabilités invariantes respectives ρ et σ.
Trouver une probabilité invariante π pour la chaı̂ne produit.
5. On considère un damier à 16 cases (numérotées successivement de 1 à 16 de gauche à
droite, de haut en bas ; les cases sont de couleur noire ou blanche alternée) sur lequel
se déplacent indépendamment l’une de l’autre deux souris ; chaque souris passe d’une
case à l’une des k cases voisines avec la probabilité 1/k (les déplacements diagonaux
sont proscrits).
Quel est l’intervalle de temps moyen séparant deux rencontres successives sur la case
7?

Exercice 3.16. — Problème de Dirichlet discret et formule de Feynman–Kac


Soit (Xn ) une chaı̂ne de Markov irréductible à valeurs dans un ensemble fini E, de matrice
de transition P . On considère un sous-ensemble A de E (avec A ̸= ∅ et A ̸= E), et deux
fonctions f : A → R et g : Ac → R définies respectivement sur A et son complémentaire.
On note TA = min{n ≥ 0, Xn ∈ A} le premier temps d’atteinte de A pour la chaı̂ne,
et on considère la fonction u : E → R définie par :
A −1
" TX
#
u(x) = Ex f (XTA ) + g(Xk )
k=0

Montrer que la fonction u vérifie :

u(x) = f (x) pour x ∈ A,


(I − P )u(x) = g(x) pour x ∈ Ac .

Exercice 3.17. — Examen 2018


Soit (Xn )n≥0 une chaı̂ne de Markov à valeurs dans E dénombrable. On suppose que la
chaı̂ne est irréductible et qu’il existe une mesure de probabilité π sur E qui soit invariante.
On fixe x ∈ E et on considère un temps d’arrêt S = S ((Xn )n≥0 ) tel que Px -presque
sûrement, on a 1 ≤ S < +∞ et XS = x. On suppose de plus que Ex [S] < +∞. Plus
généralement, on définit la suite de temps d’arrêts successifs S1 = S et Si+1 = Si +
S ((XSi +n )n≥0 ). On pose S0 = 0 par convention.

33
1. Soit y ∈ E. Que peut-on dire de la convergence presque sûre et dans L1 de la suite
n−1
1X
1{Xk =y} ?
n k=0

2. Montrer que, sous Px , les variables aléatoires


Si+1 −1
X
1{Xk =y} i ≥ 0,
k=Si

sont indépendantes et de même loi.


3. À l’aide de la loi forte des grands nombres et de la question 1, montrer que, quel
que soit y ∈ E, " S−1 #
X
Ex 1{Xk =y} = π(y)Ex [S].
k=0

4. Pour z ∈ E, on note Tz = inf{n ≥ 1, Xn = z}. Soit S le premier temps de passage


par x après avoir visité y. Exprimer Ex S en fonction de Tx et Ty .
5. En considérant le temps d’arrêt S, montrer que pout tous x ̸= y ∈ E on a

π(y)Py (Tx < Ty )(Ex (Ty ) + Ey (Tx )) = 1.

Exercice 3.18. Serge aime beaucoup le vin. Après avoir trop bu, il s’endort et fait le
rêve suivant : au départ il a une somme d’argent x ∈ N (en Euros) ; à chaque minute il
boit un verre de vin, qui lui coûte un Euro ; chaque fois qu’il épuise son capital, il trouve
un porte monnaie qui contient un nombre entier et aléatoire de pièces d’un Euro, et il
recommence instantanément à acheter du vin et boire. Le rêve continue de la même façon
indéfiniment.
On modélise le capital Xn à disposition de Serge à chaque minute n ∈ N à l’aide d’une
chaı̂ne de Markov sur N = {0, 1, · · · }, avec matrice de transition P := (p(x, y), x, y ∈ N)
définie par 
f (y + 1) si x = 0, y ≥ 0,

p(x, y) = 1 si x > 0, y = x − 1,

0 sinon,

où f est une probabilité sur N∗ = {1, 2, · · · }, f : N∗ → ]0, 1[, n f (n) = 1, avec f (y) > 0
P
pour tout y ∈ N∗ . Sous Px , (Xn ) est une chaı̂ne de Markov sur N = {0, 1, · · · } avec
probabilité de transition P et état initial déterministe X0 = x ∈ N. Si au temps i le
capital de Serge est y > 0, au temps i + 1 le capital sera y − 1. Si au temps i le capital de
Serge est nul, il trouve une quantité y ≥ 1 de pièces avec probabilité f (y), et il en dépense
instantanément une, ainsi que son capital au temps i + 1 sera y − 1 avec probabilité f (y).
Soient S0 := 0, Sn+1 := inf{i > Sn : Xi = 0}, les retours successifs à l’état 0.
1. Quelles sont les classes de communication de la chaı̂ne de Markov (Xn ) ?
2. Montrer que P0 (S1 = n) = f (n), n ≥ 1. En déduire la classification des états en
classes récurrentes/transitoires.

34
3. Montrer que la mesure sur N définie par

X
λ(x) := f (y), x ∈ N,
y=x+1

est invariante pour P et que toute mesure invariante est un multiple de λ.


4. Donner une condition nécessaire et suffisante pour que (Xn ) soit récurrente positive.
Montrer qu’il existe une seule mesure de probabilité invariante si et seulement si
X
m := n f (n) < ∞.
n

On suppose la condition m < ∞ satisfaite dans la suite.


5. Calculer la limite limn→∞ Px (Xn = y), pour tous x, y ∈ N.
6. Définir u(n) := P0 (Xn = 0). Montrer que {X0 = Xn = 0} = ∪z≤n {X0 = Xn =
0, S1 = z} et en déduire que
n
X
u(n) = f (z) u(n − z) = [f ∗ u](n), n ≥ 1.
z=1

7. Soit ti := Si −Si−1 , i ≥ 1. Montrer que (ti )i≥1 est, sous P0 , une suite i.i.d. et calculer
P0 (ti = n), pour n ≥ 1.
8. Montrer que P0 (Si = n) = f i∗ (n), où f i∗ = f ∗ · · · ∗ f est la convolution de f itérée
i fois, pour i ≥ 1.
S
9. Montrer que {Xn = 0} = i≥0 {Si = n} et en déduire que

X
u(n) = f i∗ (n), n ≥ 1.
i=1

10. Montrer le Théorème du renouvellement : si u est définie par la formule précédente,


alors
1
lim u(n) = .
n→∞ m

35
36
Problème : Processus de
branchement

Le but de ce problème est d’étudier un type de processus, appelé processus de bran-


chement, qui est largement utilisé en biologie pour décrire l’évolution d’une population
dont la reproduction des individus est aléatoire ou, de manière plus générale, tous les
problèmes où des structures d’arbres aléatoires apparaissent.
La problématique est la suivante : on considère des générations discrètes dont on
renouvelle tous les individus d’une génération à la suivante. Chaque individu a un nombre
aléatoire d’enfants, indépendamment de tous les autres individus et ce nombre peut être
éventuellement nul. On s’intéresse alors à la taille de la population (Zn , n ≥ 0) au cours
du temps, sachant que l’on commence avec un unique individu (Z0 = 1).
Pour décrire le nombre d’enfants de chaque individu (réel ou virtuel), on introduit une
famille de variables aléatoires (Xk,n )(k,n)∈N∗ ×N∗ à valeurs entières, indépendantes, et de
même loi ξ. Chaque Xk,n représente le nombre d’enfants de l’individu k à la génération n
(s’il existe). Nous introduisons alors la filtration associée Fn = σ(Xk,i ; k ∈ N∗ , 1 ≤ i ≤ n)
et F0 = {∅, Ω}. La loi ξ est appelée la loi de branchement.
La taille de la population suit ainsi l’évolution suivante :
(
0 si Zn = 0
∀n ∈ N, Zn+1 = PZn
k=1 Xk,n+1 si Zn > 0

1. (Un premier cas simple) Nous supposons tout d’abord ξ(0) + ξ(1) = 1. Interpréter
cette condition en termes de nombre d’enfants. Comment évolue Zn lorsque n augmente ?
Nous supposons ensuite ξ(0) = 0 : la population peut-elle s’éteindre ?
Nous supposerons désormais que ξ(0) + ξ(1) < 1 et ξ(0) > 0.
Nous introduisons les notations
X X
m= kξ(k), φ(r) = ξ(k)rk pour r ∈ [0, 1]
k∈N k∈N

qui sont la moyenne du nombre d’enfants d’un individu et la fonction génératrice de


ce nombre. Nous définissons également les itérées de la fonction φ par φ0 (r) = r et
φn+1 (r) = φ(φn (r)) = φn (φ(r)) pour n ∈ N.

2. Calculer E(Zn+1 | Fn ) puis E(Zn ) pour tout n. Montrer que, pour tout n ∈ N et tout
r ∈ [0, 1],
E(rZn+1 | Fn ) = φ(r)Zn

37
En déduire E(rZn ).

3. Nous étudions les points fixes de la fonction φ selon la valeur de m. Étudier la fonction
r 7→ φ(r) et en déduire le nombre de solutions de l’équation φ(r) = r sur [0, 1].
Nous appellerons q la plus petite solution de l’équation φ(r) = r sur [0, 1]. Montrer
que la suite (φn (0), n ≥ 0) est une suite croissante qui converge vers q.
Nous voulons savoir si la population survit ou s’éteint aux temps longs et introduisons
dans ce but la variable aléatoire :
T = inf {n ∈ N; Zn = 0} ,
avec la convention inf ∅ = ∞.

4. Montrer que {Zn = 0} ⊂ {Zn+1 = 0}. Montrer, en utilisant les résultats précédents
sur la fonction φ, que
P(T < ∞) = q .
Nous appellerons extinction l’événement {T < ∞} et survie l’événement {T = ∞}. Le
cas critique correspond à m = 1, le cas surcritique à m > 1 et le cas sous-critique à
m < 1. Faire le lien avec la probabilité de survie.

5. Nous supposerons dans cette question m > 1 et introduisons les variables Mn = q Zn .


Montrer que (Mn , n ≥ 0) est une martingale dont on étudiera la convergence. En déduire
l’égalité presque sûre
lim q Zn 1{T =∞} = 0
n→∞
puis en déduire l’égalité presque sûre
1{T =∞} = 1{limn→∞ Zn =∞} .
Conclure sur le comportement de la population lorsqu’elle ne s’éteint pas.

6. Nous supposons toujours m > 1 et supposons en plus que σ 2 = k∈N k 2 ξ(k) − m2 <
P
∞. En introduisant une martingale idoine, nous pouvons être en fait beaucoup plus précis
sur le comportement de Zn lorsque n → ∞ ! Soit la suite définie pour tout n ∈ N par
Wn = Zn /mn .
1. Montrer que (Wn , n ≥ 0) est une martingale.
2. Montrer que pour tout n ∈ N,
2
E(Zn+1 | Fn ) = m2 Zn2 + σ 2 Zn
En déduire que supn∈N E(Wn2 ) < ∞. Conclure sur la convergence de la martingale
(Wn ), dont on notera la limite W∞ .
3. Introduisons la fonction L : R+ → R+ , L(λ) = E(e−λW∞ ). Écrire une identité
fonctionnelle faisant intervenir φ, L et m. Montrer que P(W∞ = 0) = limλ→∞ L(λ).
Conclure sur la valeur de P(W∞ = 0).
4. En déduire l’égalité presque sûre 1{T =∞} = 1{W∞ >0} et en déduire que, si la popu-
lation survit, alors Zn croı̂t exponentiellement et donner un équivalent.

38
7. Nous supposons à présent m < 1. Quelle est la limite presque sûre de (Wn ) ? Est-ce
une martingale fermée ?

Le point de vue des chaı̂nes de Markov


Nous nous focalisons à nouveau au cas sur le plus intéressant ξ(0) > 0 et ξ(0)+ξ(1) < 1.

8. Montrer que (Zn ) est une chaı̂ne de Markov dont on précisera la loi de transition en
fonction des convolutions de la loi ξ.

9. Que peut-on dire de l’état 0 ? Quelles sont les classes d’états ? Discuter le caractère
transient ou récurrent de ces classes d’états.

10. En déduire que, P-presque sûrement, on a ou bien extinction ou bien divergence de


la taille Zn vers ∞, i.e.,

P(∃n ∈ N, ∀k ≥ n, Zk = 0) + P( lim Zn = ∞) = 1.
n→∞

Quelques compléments pour réfléchir


Supposons à nouveau que k k 2 ξ(k) < ∞. Nous nous plaçons à présent dans le cas
P
où m < 1. Nous considérons à présent une modification du problème de départ. Nous
conservons les mêmes variables aléatoires Xk,n mais considérons une probabilité Q telle
que les Xk,n sont indépendantes, les Xk,n avec k > 1 ont pour loi ξ(k) et la variable X1,n
a pour loi kξ(k)/m. Nous supposerons qu’une telle probabilité Q existe et nous noterons
EQ l’espérance associée.

11.
1. Montrer que EQ (rZn+1 | Fn ) = rφ′ (r)φ(r)Zn −1 /m. Le processus (Zn ) s’éteint-il sous
Q?
2. Montrer que E(Wn+1 rZn+1 | Fn ) = Wn rφ′ (r)φ(r)Zn −1 /m. Le processus (Zn ) s’éteint-
il sous P ?
3. Montrer que pour tout n ∈ N et tout f : Nn+1 → R, bornée mesurable, on a

EQ (f (Z0 , Z1 , · · · , Zn )) = E(Wn f (Z0 , Z1 , · · · , Zn ))

En déduire la densité de Q par rapport à P lorsque ces mesures sont restreintes à


la tribu Gn = σ(Z0 , · · · , Zn ).
Vous pouvez à présent utiliser ce changement de probabilité et étudier Q en détail
pour en tirer des renseignements plus précis sur l’extinction de Zn sous la probabilité P.

39
40
Indications pour les exercices

41
42
Chapitre 0

Indications du chapitre “Rappels”

Espaces de probabilité et variables aléatoires


p
Indications pour l’exercice 0.1. On trouve une probabilité de 7−6p
.

1. Il suffit de remarquer que ω ∈ nk=1 Ak si et


T
Indications pour l’exercice 0.2.
seulement si ω ∈ Ak pour tout k = 1, · · · , n, c’est à dire si et seulement si 1Ak (ω) = 1
pour tout k = 1, · · · , n.
2. Cela s’obtient à partir de la relation précédente en passant au complémentaire.
3. On développe le produit en utilisant la relation :
n
Y X Y Y
(ak + bk ) = ak × bk ,
k=1 E⊂{1,...,n} k∈E
/ k∈E

ou encore, en notant i1 < . . . < iq les éléments de E (de cardinal 0 ≤ q ≤ n)


n n q
Y X Y X X Y
(1 + bk ) = bk = bi q
k=1 E⊂{1,...,n} k∈E q=0 i1 ≤...≤iq i=1

Pour conclure, on passe à l’espérance.

Pn {l’étiquette
4. On applique la formule précédente avec Ak l’événement
k−1
k est attribuée
au nom k}. On trouve pour p(n) la valeur p(n) = k=1 (−1) /k!, qui tend vers
1 − 1/e.

Indications pour l’exercice 0.3. On trouve P(X = Y ) = n1 et P(X ≥ Y ) = n+1


2n
. La
loi de X − Y est donnée par P(X − Y = k) = n−|k|
n2
pour −n < k < n.

Indications pour l’exercice 0.4. On remarque que l’hypothèse peut se récrire

P(T ≥ m + n) = P(T ≥ n)P(T ≥ m).

En particulier, pour m = 1 on voit que la suite P(T ≥ n) est géométrique de raison p =


P(T ≥ 1).

43
Indications pour l’exercice 0.5. 1. L’indépendance de εX et εX est équivalente à
l’égalité
P(εX ≤ t, ε = a) = P(εX ≤ t)P(ε = a)
pour tout t ∈ R et tout a ∈ {−1, 1}.
2. Il suffit de prendre Y = εX, A = σ(X), B = σ(ε), pour ε et X tels que dans la
question précédente, avec X symétrique et non presque sûrement nul.
3. Il suffit de prendre Y = ε, A = σ(X), B = σ(εX), pour ε et X tels que dans la
question précédente, avec X symétrique et presque sûrement non nul.

Indications pour l’exercice 0.6. 1. La variable Z1 suit donc la loi binomiale de pa-
ramètres n et p1 . En particulier, Zi et Zj ont même loi si et seulement si pi = pj .
2. On a Cov(Z1 , Z2 ) = −np1 p2 . En particulier, Z1 et Z2 ne sont pas indépendantes dès
que p1 ̸= 0 et p2 ̸= 0.

Indications pour l’exercice 0.7. 1. On trouve

Γ(a + n)
E(U n ) = = (a + n − 1)(a + n − 2) . . . (a + 1)a.
Γ(a)

2. Après un changement de variables (x, y) = (u/(u + v), u + v) dans une intégrale


double, on trouve que les variables X = U/(U +V ) et Y = U +V sont indépendantes,
et que leur lois admettent respectivement les densités

Γ(a + b) a−1
x (1 − x)b−1 1[0,1] (x) (loi bêta de paramètres a et b)
Γ(a)Γ(b)

et
1
e−y y a+b−1 1[0,∞[ (y) (loi gamma de paramètre a).
Γ(a + b)

Indications pour l’exercice 0.8. 1. On trouve pour la loi de (S1 , ..., Sn ) la densité

fS1 ,..,Sn (s1 , s2 , · · · , sn ) = λn exp(−λsn )1{0<s1 <s2 <···<sn } .

2. Il suffit d’intégrer la densité précédente par rapport aux n − 1 premières variables.


3. La fonction caractéristique de Sn est
 n
λ
φSn (t) = .
λ − it

4. On peut raisonner en dérivant la fonction caractéristique, ou bien en utilisant la


densité de Sn , ou encore en écrivant Sn comme somme de variables indépendantes.
On trouve
n n
E(Sn ) = et Var(Sn ) = 2 .
λ λ
44
Convergences de suites de variables aléatoires
Indications pour l’exercice 0.9. 1. La suite (Xn ) converge vers 1 presque sûrement
p
et dans tous les L , (p ≥ 1), et donc aussi en probabilité et en loi.
2. On a une convergence presque sûre (utiliser Borel–Cantelli) et dans tous les Lp
vers 0.
3. On a une convergence vers 0 presque sûrement (et donc en probabilité et en loi),
mais pas dans L1 , ni dans aucun Lp , p ≥ 1.
4. On a convergence dans tous les Lp (p ≥ 1) vers 0, et donc en probabilité et en loi.
Pour ce qui est de la convergence presque sûre, on ne peut rien déduire. Si on
rajoute que les (Xn ) sont indépendantes, on n’a pas convergence presque sûre (Borel–
Cantelli). Si en revanche, on fixe U de loi uniforme sur [0, 1] et que l’on définit Xn =
1U ≤1/n , les Xn ont bien la loi de l’énoncé et convergent presque sûrement vers 0.
5. On a convergence presque sûre vers 0, et convergence dans Lp si et seulement si p <
3/2.
6. (a) Si (Xn ) converge presque sûrement, sa limite est une variable aléatoire à valeur
dans {0, 1}. Par la loi du 0 − 1, elle est en fait déterministe.
P Par Borel–Cantelli,
on trouve que Xn convergeP presque sûrement vers 0 si n pn < ∞, converge
presque sûrement vers 1 si n 1 − pn < ∞, et ne converge pas dans les autres
cas.
(b) Une suite qui converge dans L1 admet une sous suite qui converge presque
sûrement, par conséquent, la limite éventuelle dans L1 de (Xn ) est soit la
constante 0 soit la constante 1. On voit que Xn converge vers 0 si pn converge
vers 0 et que Xn converge vers 1 si pn converge vers 1. Dans les autres cas, la
suite diverge.
(c) La convergence en loi a lieu si et seulement si (pn ) converge.
Indications pour l’exercice 0.10. 1. Par Borel–Cantelli, les Ωε = lim inf{|Xn −
X| ≤ ε} ont probabilité 1 (l’hypothèse d’indépendance n’est pas utile dans cette
question). On remarque
T ensuite que Xn (ω) converge vers X(ω) pour tout ω de
l’événement Ω̃ = n≥1 Ω1/n qui est de probabilité 1.
2. La loi du 0 − 1 assure que X est presque sûrement constante. Par conséquent, les
événements {|Xn − X| > ε} sont indépendants, et il suffit d’appliquer le deuxième
lemme de Borel–Cantelli.
3. On conclut que, pour une suite (Xn ) de variables aléatoires réelles indépendantes,
X
Xn → X p.s. si et seulement si, ∀ε > 0, P(|Xn − X| > ε) < ∞
n

Indications pour l’exercice 0.11. On définit φ(1) = 1 et φ(n+1) = max(φ(n)+1, Kn )


où Kn est tel que pour tout k ≥ Kn ,
1 1
P(|Xk − X| > ) ≤ 2.
n n
On conclut par Borel–Cantelli.

45
Indications pour l’exercice 0.12. 1. La suite converge en probabilité vers 0.
2. C’est le lemme de Borel–Cantelli
Indications pour l’exercice 0.13. La convergence en probabilité de Xn vers 0 est un
simple calcul à partir de la définition. Pour Yn , on montre que la probabilité P(|Yn −0| > 1)
ne tend pas vers 0 en utilisant l’inclusion
n
[
{Xi > n} ⊂ {Yn > 1}.
i=1
Sn
L’indépendance des Xi permet de montrer (passer au complémentaire) que i=1 {Xi > n}
a pour probabilité 1/2.
Indications pour l’exercice 0.14. 1. C’est presque sûrement une série absolument
convergence (|Xk /2n | ≤ 1/2n ).
2. En voyant les Xk comme les chiffres binaires de Yn , on voit que Yn suit la loi uniforme
sur {k/2n , 0 ≤ k < 2n }. En passant par les fonction de répartition, on voit que la
fonction de répartition limite est celle d’une loi uniforme sur [0, 1].
Indications pour l’exercice 0.15. 1. Pour des variables centrées Var(Sn ) = ∥Sn ∥L2 ,
2
et on utilise la completude de L .
2. La convergence L2 implique la convergence L1 qui implique la convergence des
espérances. Pour la variance, l’indépendance implique que la variance de la somme
est la somme des variances. Le passage à la limite est autorisé dans la variance grâce
à la convergence L2 .
P∞
3. On remarque que +∞
P
n=1 n Var(X n ) = k=1 Var(S −Sk−1 ). On utilise alors l’inégalité
de Bienaymé-Tchebychev et le lemme de Borel–Cantelli.
Indications pour l’exercice 0.16. Pour les trois questions, passer par la catactérisation
de la convergence en loi par la fonction de répartition.
Indications pour l’exercice 0.17. (Lemme de Slutsky)
1. Avec les fonctions caractéristiques, on écrit

φ(Xn ,Yn ) (t, s) − φ(X,c) (t, s) =φ(Xn ,Yn ) (t, s) − φX (t)eics


= φ(Xn ,Yn ) (t, s) − φXn (t)eics + eics (φXn (t) − φX (t)) ,


et on montre que les deux termes du membre de droite tendent vers 0.


2. On considère une variable W de loi N (0, 1) (par exemple), et on pose Xn = (−1)n W ,
Yn = W .
Indications pour l’exercice 0.18. On voit que

|Xn − X| = Xn + X − 2 min(X, Xn ).

On passe à l’espérance, et on remarque que E min(X, Xn ) converge vers EX par conver-


gence dominée.

46
Indications pour l’exercice 0.19. 1. Par indépendance, on a E[Yn ] = 1.y
√ √
2. En se ramenant √ à une intégrale
√ Gaussienne, on trouve E[ X1 ] = π/2, puis par
indépendance E[ Yn ] = ( π/2)n .

3. C’est l’inégalité de Markov appliquée à Y n .

4. On peut appliquer Borel–Cantelli, en remarquant π/2 < 1.
Indications pour l’exercice 0.20. C’est l’inégalité de Jensen. L’inégalité obtenue peut
se récrire avec les normes ∥X∥Lp ≤ ∥X∥Lq , ce qui s’interprète sur les espaces Lp et Lq
comme indiqué.

Autour de la marche aléatoire simple


2k
 k
Indications pour l’exercice 0.21. 1. P(S2k+1 = 0) = 0 et P(S2k = 0) = k
p (1 −
p) . On a en particulier l’équivalent P(S2n = 0) ∼ √1πn (4p(1 − p))n .
k

2. Si p ̸= 1/2, d’après Borel–Cantelli, (Sn ) passe presque sûrement qu’un nombre fini
de fois en 0. Pour p = 1/2, on ne peut pas conclure.
3. La loi des grands nombres donne l’équivalent presque sûr Sn ∼ n(2p−1). Qui permet
de conclure dans le cas p ̸= 1/2.
Indications pour l’exercice 0.22. 1. C’est Borel–Cantelli.
2. Le premier point découle de
\ \
{−K/2 < Sn < K/2} ⊂ Acn
n≥1 n∈N

et le deuxième de
[ [
{lim sup Sn = +∞} = {Sn ≥ K/2} et {lim sup Sn = −∞} = {Sn ≤ −K/2}.
n n
n≥1 n≥1

3. On peut écrire {lim supn Sn = +∞} = {lim supn Sn+k − Sk = +∞}, or Sn+k − Sk
est σ((Xn+k )n≥1 )-mesurable.
Indications pour l’exercice 0.23. 1. On écrit
n
[
{Sn = k, Mn ≥ y} = {S1 < y, . . . , Sq−1 < y, Sq = y, Sn = k}
q=1
[n
= {S1 < y, . . . , Sq−1 < y, Sq = y, Sn − Sq = k − y},
q=1

et
n
[
{Sn = 2y − k} = {S1 < y, . . . , Sq−1 < y, Sq = y, Sn = 2y − k, }
q=1
[n
= {S1 < y, . . . , Sq−1 < y, Sq = y, Sn − Sq = y − k, },
q=1

47
où les unions sont disjointes, puis on remarque que

P(S1 < y, . . . , Sq−1 < y, Sq = y, Sn − Sq = k − y)

et
P(S1 < y, . . . , Sq−1 < y, Sq = y, Sn − Sq = y − k).
sont égaux.
2. On écrit X X
P(Mn ≥ y) = P(Mn ≥ y, Sn = k) + P(Sn > k)
k≤y k>y

et on utilise la relation de la question précédente.



3. La majoration P(Sn = y) ≤ C/ n permet de déduire P(Sn = y) → 0 et P(0 ≤
Sn < y) → 0 quand n → ∞. On en déduit par symétrie que P(Sn ≥ 0) converge
vers 1/2, puis que 2P(Sn ≥ y) − P(Sn = y) converge vers 2 × 1/2 + 0 = 1. On a
ensuite par monotonie P(M∞ ≥ y) = limn P(Mn ≥ y).
4. On a bien P(M∞ = ∞) = limy→∞ P(M∞ ≥ y).

Indications pour l’exercice 0.24. 1. La relation à montrer se déduit de l’égalité


entre événements
n
[
{Sn = 0} = {S1 ̸= 0, . . . , Sk−1 ̸= 0, Sk = 0, Sn = 0}
k=1
[n
= {S1 ̸= 0, . . . , Sk−1 ̸= 0, Sk = 0, Sn − Sk = 0},
k=1

où l’union est disjointe.


2. Cela s’obtient à partir de l’équation précédente en multipliant par sn et en sommant
sur n. Les calculs sont justifiés car on manipule des séries entières dont le rayon de
convergence est ≥ 1.
3. On a l’expression u2n = 4−n 2n (et u2n+1 = 0), d’où on déduit U (s) = (1 − s2 )−1/2 .


n
Par conséquent, F (s) = 1 − 1 − s2 . En développant en série, on trouve
 
1 2n
P(T0 = 2n) = n .
4 (2n − 1) n

Pour les entiers impairs, on a P(T0 = 2n + 1) = 0.

Exercices supplémentaires
Indications pour l’exercice 0.25. 1. Le nombre de résultats possible est N (N −
1) · · · (N − n + 1).
2. On a P(Ak ) = M/N et P(Ak ∩ Al ) = M (M − 1)/(N (N − 1)).

48
3. On trouve  n−1
Var(Sn ) = np(1 − p) 1 − ,
N −1
qui tend, dans le régime indiqué, vers np0 (1 − p0 ).
Indications pour l’exercice 0.26. L’équivalence se déduit des inégalités, pour x ≥ 0,
 
ε x
1x≥ε ≤ ≤ ε + 1x≥ε .
1+ε 1+x
Indications pour l’exercice 0.27. 1. On trouve
n
1 X 1 X 1 n−1
E(Zn4 ) = E(X 4
i ) + E(X 2 2
i X j ) = E(X 4
1 ) + E(X12 )2 .
n4 k=1 n4 1≤i̸=j≤n n3 2n3
4 4
P P
Par conséquent, n≥1 E(Zn ) converge, donc par Fubini n≥1 Zn est intégrable,
donc presque sûrement finie, donc (Zn )n≥1 converge presque sûrement vers 0.
2. Il suffit d’appliquer le résultat de la question précédente à la suite (Xn − EX1 )n∈N .
Indications
P pour l’exercice 0.28. 1. La variance de Zn vaut Var(X1 )/n, de sorte
que Var(Zn2 ) converge. Avec Bienaymé-Tchebychev puis Borel–Cantelli, on ob-
tient la convergence presque sûre de (Zn2 ) vers EX1 .

2. On a n − qn2 ≤ (qn + 1)2 − qn2 = 2qn + 1 ≤ 2 n + 1.
2
3. La variance de Zn − qnn Zqn2 vaut Var(X1 )(n − qn2 )/n2 ≤ Var(X1 )n−3/2 . Il s’agit encore
du terme général d’une série convergente, et on peut raisonner comme en 1.
 2
 2
4. On écrit Zn = Zn − qnn Zqn2 + qnn Zqn2 . Le premier terme converge presque sûrement
vers 0, le deuxième vers EX1 .
Indications pour l’exercice 0.29. 1. On a T = supk∈N Sk = supk∈N S k+1 . Or Sk
et S k+1 ont même loi. Les variables T et T ont donc la même loi.
2. On a les égalités entre événements, pour tout q ≥ 1,
{T = ∞} = {sup(Sk+q − Sq ) = ∞},
k

donc {T = ∞} est σ((Xq+n )n≥1 )-mesurable pour tout q, et est donc asympotique.
3. On a Tn = max(Y1 + 0, Y1 + S 1 , . . . , Y1 + S n ) = Y1 + max(0, T n ), d’où le résultat.
4. Si T = ∞ p.s., alors max(Y1 − T n , Y1 ) converge presque sûrement vers Y1 , en
décroissant. Par convergence dominée, E(Tn − T n ) converge donc vers EY1 . Or,
comme Tn−1 et T n ont même loi, on a E(Tn − T n ) = E(Tn − Tn−1 ) ≥ 0, d’où le
résultat.
5. Yn admet une espérance négative, donc d’après la question précédente, la suite
(X1 + . . . + Xn − nEX1 − nε) est presque sûrement majorée, d’où (pour tout ε > 0)
X1 + . . . + Xn
lim sup − EX1 ≤ ε.
n n
X1 +...+Xn
De même, en appliquant le résultat à Yn′ , on trouve lim inf n n
− EX1 ≥ −ε.
Ces deux inégalités étant valables pour tous ε, on conclut.

49
50
Chapitre 1

Corrigé : Espérance conditionnelle

1.1 Généralités et calculs


Indications pour l’exercice 1.1. 1. De la définition même des probabilités condi-
tionnelles résulte que

P(A ∩ B) P(A ∩ B c )
P(A | B) = , P(A | B c ) = .
P(B) P(B c )
P(A | G ) = E(A | B)1B + E(A | B c )1B c
E(X1B ) E(X1B c )
E(X | B) = , E(X | B c ) =
P(B) P(B c )
E(X | G ) = E(X | B)1B + E(X | B c )1B c

2. On a
X X E(X1B )
P(A | G ) = P(A | Bk )1Bk , et E(X | G ) = k
1Bk
k≥1 k≥1
P(Bk)

3. On a
X X E(X1{Y =y } )
k
P(A | Y ) = P(A | Y = yk )1{Y =yk } et E(X | Y ) = 1{Y =yk }
k≥1 k≥1
P(Y = yk )

Indications pour l’exercice 1.2. 1. On a E[S|N = n] = nµ, puis E[S|N ] = N µ


et E[S] = E[N ]µ
2. On trouve, E[rS |N = n] = φX1 (r)n , puis E[rS |N ] = φX1 (r)N et

E[rS ] = E[φX1 (r)N ] = φN φX1 (r) .




Indications pour l’exercice 1.3. 1. Sur l’événement {N = n}, T est donné par T =
min(T1 , . . . , Tn ), puis l’indépendance donne

P(T > t|N = n) = (1 − t)n .

51
2. On s’est en fait ramené au calcul de l’espérance d’une variable de fonction de
répartition t 7→ (1 − t)n , dont la moyenne est 1/(n + 1). On a donc E[T | N ] =
1/(N + 1).
3. On a E[T ] = E E[T | N ] = (1 − e−λ )/λ.
 

Indications pour l’exercice 1.4. 1. Comme X1 + X2 suit aussi une loi de Poisson,
on trouve pour 0 ≤ k ≤ n,
  k n−k
n λ1 λ2
P(X1 = k|X1 + X2 = n) = .
k (λ1 + λ2 )n

2. Par le calcul, ou en reconnaissant une loi binomiale, on trouve


λ1
E(X1 |X1 + X2 = n) = n
λ1 + λ2
puis
λ1
E(X1 |X1 + X2 ) = (X1 + X2 ).
λ1 + λ2
3. Comme X1 + X2 suit aussi une loi binomiale, on trouve pour 0 ≤ k ≤ min(n1 , n)
et 0 ≤ n ≤ n1 + n2 ,
n1
 n2 
k n−k
P(X1 = k|X1 + X2 = n) = n1 +n2
 .
n

Pour l’espérance
Pn1 conditionnelle,
Pn1 +n2  on remarque que (X1 , X1 + X2 ) a même loi que
le couple i=1 iξ , i=1 ξi où les (ξi ) sont des variables de Bernoulli i.i.d. La
linéarité de l’espérance conditionnelle donne alors :
n1 nX
! ! !
1 +n2 nX
1 +n2 nX
1 +n2
X n1
E ξi ξi = n1 E ξ1 ξi = ξi .
i=1 i=1 i=1
n1 + n 2 i=1

On en déduit
n1
E(X1 |X1 + X2 ) = (X1 + X2 ).
n1 + n2
Indications pour l’exercice 1.5. Ce sont essentiellement des propriétés de cours :
pour X G -mesurable, on a E[X|G ] = X, et E[XY |G ] = XE[Y |G ]. Pour X indépendante
de G , on a E[X|G ] = EX, et enfin, on a toujours E[E[X|G ]] = EX.

Indications pour l’exercice 1.6. La quantité E[X 2 |G ] − E[X|G ]2 s’appelle la variance


conditionnelle de X sachant G , et on est donc en train de considérer une variable de
variance conditionnelle nulle.
En raisonnant comme pour montrer qu’une variable de variance nulle est presque
sûrement constante, on montre que la variance conditionnelle de X sachant G est nulle si
et seulement si X est G -mesurable (ou plutôt si et seulement si X est presque sûrement
égale à une variable G -mesurable).

52
R
Indications pour l’exercice 1.7. 1. La variable E2 f (X1 , x2 )dν2 (x2 ) étant bien me-
surable pour la tribu σ(X1 ), il suffit de montrer que pour tout événement A = {X1 ∈
B} de σ(X1 ), on a
Z 
E f (X1 , x2 )dν2 (x2 )1A = E[f (X1 , X2 )1A ],
E2

ce qui est une simple récriture en utilisant le théorème de Fubini.


2. C’est un cas particulier du calcul précédent avec E1 = R, E2 = N, X1 = Z, X2 = N
et f (z, n) = z n .
3. C’est encore un cas particulier avec E1 = E2 = R et f (x, u) = 1u≤x . Pour le
second calcul, on remarque que l’on peut écrire e21A = e2 1A + 1Ac , et on trouve
E(e21U ≤X |X) = (e2 − 1)F (X) + 1.
Indications pour l’exercice 1.8. On trouve
Z 1
+ 1
E[(Y − X) |X] = (y − X)+ dy = (1 − X)2 .
0 2
Indications pour l’exercice 1.9. 1. En faisant t → +∞, on obtient
 n
µ λ
P(X = n) = lim P(X = n, Y ≤ t) = ,
t→∞ λ+µ λ+µ
ce qui correspond à une loi géométrique. De même, en sommant sur tous les n, on
trouve Z t
X
P(Y ≤ t) = P(X = n, Y ≤ t) = µ e−µy dy,
n 0

ce qui est la fonction de répartition d’une variable de loi exponentielle.


2. On a
n+1
E[Y |X = n] = ,
λ+µ
donc
X +1
E[Y |X] = .
λ+µ
3. On utilise un conditionnement par rapport à X :
  " " ##    
Y Y 1 1 1
E =E E X =E E[Y |X] = E = .
X +1 X +1 X +1 λ+µ λ+µ
n
4. On obtient P(X = n|Y ) = e−λY (λYn!) , soit une loi de Poisson de paramètre λY . En
particulier, E[X|Y ] = λY .
Indications pour l’exercice 1.10. 1. Par calcul, on obtient :

E[max(X1 , X2 )|X1 ] = X1 + e−λX1 /λ.


3
En passant à l’espérance, on obtient E[max(X1 , X2 )] = 2λ
.

53
2. On obtient E[max(X1 , X2 )|X1 + X2 ] = 43 (X1 + X2 ).
3. On trouve :
1
E[X1 | min(X1 , X2 )] = min(X1 , X2 ) + .

Indications pour l’exercice 1.11. L’intégrabilité vient de 0 ≤ C ≤ 2(B + 1)α ≤
2 × 2α max(B α , 1) ≤ 2α+1 (B α + 1). Pour le calcul de l’espérance conditionnelle, on trouve :
Z 1
2 α
E(2U (B + U ) ) = 2u(B + u2 )α du
0
(B + 1)α+1 − B α+1
= .
α+1
   
Indications pour l’exercice
 1.12.
 1. On remarque que E X | |X| et E −X | |X|
sont égales, donc E X | |X| = 0 = E[X].
2. Si X et |X| sont indépendantes, alors |X| est indépendante d’elle-même, donc
constante. Dans ce cas, on a P(X = a) = P(X = −a) = 1/2.

Indications pour l’exercice 1.13. 1. Il suffit de traiter le cas X = 0. Si E[Y |G ] ≥ 0,


alors E[Y 1A ] = E (E[Y |G ]1A ) ≥ 0. Pour la réciproque, il suffit de choisir A =
{E[Y |G ] < 0}.
2. C’est une conséquence immédiate de la question 1.
3. On applique le point 1 aux variables Z et −Z.

Indications pour l’exercice 1.14. Il suffit d’appliquer la propriété E[ E(X | G ) | H ] =


E(X | H ) (pour toutes sous-tribus H ⊂ G ⊂ F ) à G := σ(Z, Z) e et H := σ(Z).

Variables gaussiennes
Indications pour l’exercice 1.15. 1. La matrice de covariance de (U, V, W ) est
 
6 0 9
0 3 0  .
9 0 26

Autrement dit, on a U ∼ N (0, 6), V ∼ N (0, 3), W ∼ N (0, 26), et les vecteurs (U, V )
et (V, W ) ont leurs coordonnées indépendantes, contrairement au vecteur (U, W ).
2. La covariance de W − aU et U vaut 9 − 6a. Donc en posant Z = W − 32 U , les
variables U et Z sont indépendantes. On trouve alors
3 9 25 27 3 225
E(W | U ) = U, E(W 2 | U ) = U 2 + , E(W 3 | U ) = U + U.
2 4 2 8 4
Indications pour l’exercice 1.16. 1. Le vecteur Gaussien (Z, W ) a pour matrice
de covariance 2I (où I est la matrice identité). Par conséquent, Z et W sont
indépendantes et de loi N (0, 2).

54
2. On a E(X | Z) = (X + Y )/2.
3. On a
Z2 1 Z3 Z
E(XY | Z) = − , et E(XY Z | Z) = − .
4 2 4 2
Indications pour l’exercice 1.17. En calculant la covariance de W et Z, on trouve que
seul a = 1/5 assure l’indépendance. On a alors

Z Z2 4
E[X|Z] = , E[X 2 |Z] = + .
5 25 5
Indications pour l’exercice 1.18. 1. L’espérance E[X|Y ] vaut ρY .
2. Le couple (U, V ) est Gaussien centré de covariance :
 
1 − ρ2 0
,
0 1 − ρ2

autrement dit U et V sont indépendantes de loi N (0, 1 − ρ2 ).


3. On trouve :

E[U 2 V 2 ] = (1 − ρ2 )2 , E[U V 3 ] = 0, E[V 4 ] = 3(1 − ρ2 )2 , E[X 2 Y 2 ] = 1 + 2ρ2 .

Indications pour l’exercice 1.19. 1. Les variables aléatoires X1 et X2 suivent la


loi N (0, 1). Elles sont indépendantes si et seulement si ρ = 1.
2. La densité du couple (R, Φ) est donnée par
!
r r2 (1 − ρ sin(2φ))
f (r, φ) = p exp − 1r>0 10<φ<2π .
2π 1 − ρ2 2(1 − ρ2 )

La densité de Φ est donnée par


p
1 − ρ2 1]0,2π] (φ)
fΦ (φ) = .
2π (1 − ρ sin 2φ)
2
3. Pour ρ = 0, R admet pour densité re−r /2 1r>0 , Φ est de loi uniforme sur [0, 2π], et
les variables R et Φ sont indépendantes.

55
56
Chapitre 2

Corrigé : Filtrations, temps d’arrêt


et martingales

Filtrations, temps d’arrêt, martingales


Indications pour l’exercice 2.1. 1. Cela découle des égalités

{S ∧ T ≤ n} = {S ≤ n} ∪ {T ≤ n},
{S ∨ T ≤ n} = {S ≤ n} ∩ {T ≤ n},
[n
{S + T = n} = {S = k} ∪ {T = n − k}.
k=0

2. Cela vient du fait que {T = n} vaut Ω si n = p et est vide sinon.


3. Les événements {T = k} sont dans FT car {T = k} ∩ {T = n} est dans Fn pour
tout n.
4. Pour A ∈ FS , on peut écrire A ∩ {T ≤ n} = A ∩ {S ≤ n} ∩ {T ≤ n} qui est bien
dans Fn .
5. D’après la question 4, comme S ∧ T ≤ S et S ∧ T ≤ T , on a FS∧T ⊂ FS ∩ FT .
Pour l’inclusion inverse, cela découle de

A ∩ {S ∧ T ≤ n} = (A ∩ {S ≤ n}) ∪ (A ∩ {T ≤ n}).

6. S est FS -mesurable, mais S ≤ T ∨ S, donc S est FS∨T -mesurable. La même chose


vaut pour T et on fait la somme.
7. On écrit
{S < T } ∩ {S ∧ T = n} = {S = n} ∩ {T ≤ n}c
et
{S = T } ∩ {S ∧ T = n} = {S = n} ∩ {T = n}.
Indications pour l’exercice 2.2. 1. Cela vient de

{T = n} = {X1 ≤ X0 , . . . , Xn−1 ≤ X0 , Xn > X0 }.

57
1
2. On trouve P(T = n) = n(n+1)
, et l’espérance de T est infinie.

Indications pour l’exercice 2.3. 1. Déroulez méticuleusement les définitions : for-


mulez ce que vous cherchez à obtenir, puis reformulez-le en détaillant les définitions
qui apparaissent, et poursuivez ainsi jusqu’à finir par tomber sur des choses vraies
par définition.
2. Pour n ≥ 0, poser En = Ω, En = Fn et Xn l’identité de Ω vers En , puis vérifier que
cela fonctionne.
   
Indications pour l’exercice 2.4. 1. On a Sn+1 −(n+1)µ − Sn −nµ = Xn+1 −µ
qui a bien une espérance nulle conditionnellement à Fn , de même que Mn+1 − Mn =
(Xn+1 − µ)2 + 2(Sn+1 − µ)Mn − σ 2 .
 Sn+1  Sn  Xn+1
1−p
2. On écrit p
= 1−p p
× 1−pp
, où le deuxième terme du produit est
indépendant de Fn et de moyenne 1.
3. C’est essentiellement la même chose qu’en question 2.

Indications pour l’exercice 2.5. 1. C’est le même raisonnement qu’en exercice 2.4,
question 1.
2. Cela se déduit de {τ > n} = nk=0 {|Sk | < x}.
T

3. Cela découle de la propriété de sous-martingale et de l’écriture


  n
[
max |Si | ≥ x = {τ = i}.
0≤i≤n
i=0

En effet   n n
X X
2
x P max |Si | ≥ x ≤ E(Si2 1τ =i ) ≤ E(Sn2 1τ =i ).
0≤i≤n
i=0 i=0

Indications pour l’exercice 2.6. Cela se déduit de l’égalité


(p)
Xn+1 = Xn(p) + Xn(p−1) ξn+1 .

Indications pour l’exercice 2.7. On montre successivement E[Xn+1 ∨ Yn+1 |Fn ] ≥ Xn


et E[Xn+1 ∨ Yn+1 |Fn ] ≥ Yn , ce qui permet de conclure.

Indications pour l’exercice 2.8. Il suffit de prendre Xn = − n1 (qui est donc déterministe).
On est obligé de considérer un processus prenant des valeurs négatives car le carré d’une
sous-martingale positive est une sous-martingale.

Indications pour l’exercice 2.9. 1. Le fait que Xn soit une martingale se ramène
au calcul de P(T > n + 1 | T > n). Pour la convergeance L1 , si Xn convergeait
dans L1 vers 0, son espérance convergerait vers 0.
2. La variable supn≥0 Xn est égale à T , qui n’est pas intégrable.
Remarque : toute surmartingale positive converge
 p.s. ; dans le cas où elle ne converge pas
dans L1 , on a nécessairement E supn≥0 Xn = ∞.

58
Indications pour l’exercice 2.10. 1. On écrit

E(Xm Yn | Fm ) = Xm E(Yn | Fm ) = Xm Ym .

2. En remarquant que Yq − Yp et Xn − Xm sont centrées, on obtient :


 
Cov(Xn − Xm , Yq − Yp ) = E E[(Xn − Xm )(Yq − Yp )|Fn ] = E (Xn − Xm )(Yn − Yn )

(on aurait pu aussi conditionner par Fp ou par n’importe quel Fk avec n ≤ k ≤ p).
3. C’est le théorème de Pythagore (la question 2 implique que les (Xk − Xk−1 ) sont
orthogonaux, au sens où E[(Xk − Xk−1 )(Xq − Xq−1 )] = 0 pour k ̸= q).

Indications pour l’exercice 2.11. 1. Pour l’unicité, si on a Mn + An = Mn′ + A′n ,


alors Mn − Mn′ = A′n − An est une martingale prévisible, et est donc constante égale
à A′0 − A0 = 0.
Pour l’existence, on vérifie que
n
X n
X
Mn = X0 + (Xk − E[Xk |Fk−1 ]) et An = (E[Xk |Fk−1 ] − Xk−1 )
k=1 k=1

conviennent.
2. Exemple 1.
(a) La décomposition de Doob obtenue est Xn2 = (Xn2 − nσ 2 ) + nσ 2 .
(b) Par le théorème d’arrêt, appliqué à la partie martingale de la décomposition
de Doob de (Xn2 ), on a E(XT2 ∧n ) = E(T ∧ n)σ 2 .
Par convergence monotone, E(T ∧ n) converge vers E(T ), donc E(XT2 ∧n ) est
borné. La martingale (XT ∧n ) est donc bornée dans L2 , donc converge dans L2 ,
ce qui permet de conclure.
3. Exemple 2.
(a) La décomposition de Doob est
n−1
! n−1
X X
Mn2 = Mn2 − 1{Xk ̸=0} + 1{Xk ̸=0} .
k=0 k=0

(b) Pour la sous-martingale (|Xn |), la décomposition de Doob est


n−1
X
|Xn | = Mn + 1{Xk =0} .
k=0

(c) Cela se déduit de


n−1
X n−1
X
Mn = |Xn | − 1{Xk =0} = |Xn | − 1{|Xk |=0} .
k=0 k=0

59
Indications pour l’exercice 2.12. 1. C’est une conséquence de la loi forte des grands
nombres.
2. Les signes de φ′ (0) et φ′′ se déduisent du théorème de dérivation sous l’espérance.
La limite de φ en ∞ se montre avec le théorème de convergence monotone.
L’existence et l’unicité de λ0 se montre en établissant un tableau de variations.
3. On écrit Vn = Vn−1 eλ0 (Xn −c) et on utilise la définition de λ0 .
4. La première égalité s’obtient en écrivant
N
X
E(VN 1{τ ≤N } ) = E(VN 1{τ =k} ).
k=1

et en conditionnant par rapport à Fk . Ensuite, sur {τ = k}, on a Vk ≥ eλ0 x .


5. C’est une conséquence de

E(VN 1{τ ≤N } ) ≤ E(VN ) = E(V0 ) = 1.

Théorèmes d’arrêt
Indications pour l’exercice 2.13. 1. Voir exercice 2.4, question 1.
2. C’est une conséquenc de l’écriture
n
[
{T ≤ n} = {Si = 0} ∪ {Si = N }.
i=0

3. La relation ensembliste est une conséquence de

Am ⊂ {S(m+1)N = SmN + N } ⊂ {SmN ≤ 0} ∪ {S(m+1)N > N }.

Ensuite, comme P(Am ) = 1/2N et par indépendance des Am


 q
P(T > qN ) ≤ 1 − 2−N .

On conclut en remarquant que P(T > j) ≤ P(T > qN ) pour tout j ∈ {qN +
1, . . . , (q + 1)N }.
4. Comme (Sn∧T )n≥0 est une martingale, E[Sn∧T ] = x. On passe à la limite n → ∞
grâce au théorème de convergence dominée. Comme ST est à valeurs dans {0, N },
on a E(ST ) = N P(ST = N ).
5. De même, (Mn∧T )n≥0 est une martingale, E[Mn∧T ] = x2 . Le passage à la limite se fait
toujours par convergence dominée. On en déduit E[MT ] = x2 et E[T ] = x(N − x).

Indications pour l’exercice 2.14. 1. On trouve


j Rn
P(An+1 | Rn = j) = , ou encore P(An+1 | Rn ) = .
52 − n 52 − n

60
2. On a (
Rn
P(Rn+1 = Rn − 1 | Rn ) = 52−n
,
52−n−Rn
P(Rn+1 = Rn | Rn ) = 52−n
,
On en conclut
Rn
E(Rn+1 | Fn ) = Rn − .
52 − n
3. La probabilité de victoire est P(Aτ +1 ). La relation P(Aτ +1 ) = E(Xτ ) se déduit
de P(An+1 |Fn ) = Xn en conditionnant par la valeur de τ . Par le théorème d’arrêt,
on a E(Xτ ) = E(X0 ) = 1/2. La probabilité de victoire dans ce jeu est donc toujours
égale à 1/2.
Indications pour l’exercice 2.15. 1. On écrit Xn+1 = Xn + Sn+1 ξn+1 , et on utilise
le fait que Sn+1 est Fn -mesurable et que ξn+1 est centré et indépendant de Fn .
2. T est fini presque sûrement car il suit une loi géométrique de paramètre 1/2. En
considérant les différentes valeurs possibles prises par T , on trouve
X
E(XT ) = E(Xk 1{T =k} ) = 1.
k≥1

et X
E(XT −1 ) = E(Xk−1 1{T =k} ) = −∞.
k≥1

Le gain moyen est de 1 euro, mais il faut en moyenne miser une somme infinie.
3. En partant de 2n0 − 1 euros, le joueur n’aura plus d’argent après la n0 -ième partie
s’il ne fait que perdre, ce qui se produit avec probabilité 2−n0 .
Le gain moyen sera donc E[XT ∧n0 ] = 0 par le théorème d’arrêt, ou par un calcul
direct.
Indications pour l’exercice 2.16. 1. Cela vient de l’écriture :
n
[
{τ ≤ n} = {|Sk | = a}.
k=0

2. La propriété de martingale se prouve en écrivant

cos(λSn+1 ) = cos(λSn + λZn+1 ) = cos(λSn ) cos(λZn+1 ) − sin(λSn ) sin(λZn+1 ).

3. On a n ∧ τ ≤ τ , donc h π πi
λZn∧τ ∈ [−λa, λa] ⊂ − ,
2 2
donc cos(λZn∧τ ) ≥ cos(λa).
4. Comme (Xn∧τ ) est une martingale, on a E[Xn∧τ ] = EX0 = 1, et on utilise le
théorème de convergence monotone.
5. La martingale (Xn∧τ ) est dominée par la variable intégrable cos(λ)−τ , donc uni-
formément intégrable.

61
6. Les questions précédentes permettent de déduire :
 
  cos(λa)
1 = lim E(Xn∧τ ) = E lim Xn∧τ = E
n→∞ n→∞ cos(λ)τ
Par conséquent
E(cos(λ)−τ ) = cos(λa)−1 .
Cette égalité signifie que τ admet des moments exponentiels, et est donc dans tous
les Lp , pour 1 ≤ p < ∞ (puisque xp est négligeable devant cos(λ)−x pour x grand).
Indications pour l’exercice 2.17. Plusieurs solutions sont possibles :
— Une première possibilité est l’énoncé, pour deux entiers n ≤ m,
“la variable Mm est nulle sur l’événement {Mn = 0}”,
ou, ce qui revient au même

“Mm 1{Mn =0} = 0”.

— Une autre possibilité est d’utiliser le temps d’arrêt τ = inf{n ≥ 0, Mn = 0}.


L’énoncé recherché est alors
“la variable Mτ +k est nulle sur l’événement {τ < ∞}”,
ce qui peut aussi s’écrire
“Mτ +k 1{τ <∞} = 0”.
— Encore une possibilité :
“Si τ et σ sont deux temps d’arrêt vérifiant τ ≤ σ et tels que Mτ soit nulle sur
l’évènemt {τ < ∞}, alors Mσ est nulle sur l’événement {σ < ∞}.”
Le premier énoncé se montre en écrivant

E[Mm 1{Mn =0} ] = E[Mm 1{Mn =0} |Fn ] ≤ E[Mn 1{Mn =0} |Fn ] = 0.

Les troisième énoncé peut se démontrer en écrivant (avec le théorème d’arrêt et en utili-
sant {τ ≤ n} ∈ Fτ ∧n )

E[Mσ∧n 1{τ ≤n} |Fτ ∧n ] ≤ E[Mτ ∧n 1{τ ≤n} |Fτ ∧n ] = 0,

d’où Mσ∧n 1{τ ≤n} = 0, et on passe à la limite n → ∞.


Le deuxième énoncé est un cas particulier du troisième.

Convergence de martingales
Indications pour l’exercice 2.18. 1. C’est une conséquence de la loi des grands
nombres (selon laquelle (Xn ) converge vers −∞), mais cela peut aussi se démontrer
par une méthode de martingale : (Zn ), comme martingale positive, converge presque
sûrement vers un Z∞ , et sur {Z∞ > 0}, le quotient (Zn+1 /Zn ) converge presque
sûrement vers 1. Donc P(Z∞ > 0) = 0.
 k
2. La martingale ZTk ∧n converge presque sûrement vers ZTk 1{Tk <∞} = pq 1{Tk <∞} ,
et on utilise le théorème d’arrêt et le théorème de convergence dominée.

62
3. C’est une conséquence de l’égalité

{sup Xn ≥ k} = {Tk < ∞}.


n≥0

Indications pour l’exercice 2.19. 1. Le graphe de φ est, dans le cas q > p :


s
s = φ(θ)
1

2 pq

0 1
ln(q/p) ln(q/p) θ
2

et dans le cas q < p :


s
s = φ(θ)
1

2 pq

ln(q/p) 1
ln(q/p) 0 θ
2

2. Une martingale positive converge presque sûrement, on note X∞ la limite de (Xn ).


Sur l’événement {X∞ > 0}, la suite Xn+1 /Xn converge vers 1, ce qui n’arrive avec
probabilité strictement positive que pour θ = 0.

Une autre preuve de X∞ = 0 consiste à remarquer que Xn converge dans L1 vers 0
pour θ ̸= 0.
3. Pour θ > ln(q/p), la martingale (XT ∧n ) converge presque sûrement vers eθ φ(θ)−T 1{T <∞} ,
et est majorée. En appliquant le théorème d’arrêt et le théorème de convergence do-
minée, on obtient que E(φ(θ)−T 1{T <∞} ) = e−θ .
En faisant décroı̂tre θ vers max(0, ln(q/p), on obtient la valeur de P(T < ∞) par
convergence monotone. La valeur de E[sT 1{T <∞} ] s’obtient en posant s = φ(θ)−1 .
Indications pour l’exercice 2.20. On vérifie que la suite (Mn ) définie par
n
X σk
Mn :=
k=1
k

est une martingale bornée dans L2 .


Indications pour l’exercice 2.21. 1. Cela peut se déduire de l’expression Xn+1 =
Xn
2
+ 12 1{Un+1 <Xn } .
2. (Xn ) est une martingale bornée (elle prend ses valeurs dans [0, 1]), donc on est bien
sous les hypothèses du théorème de convergence des martingales.

63
2
3. La premier égalité se prouve en passant par E[Xn+1 ] = E[E[Xn+1 |Fn ]].
On conclut par le fait que la convergence L2 implique E[Z 2 ] = E[(3Z 2 + Z)/4]
et EZ = limn EXn = EX0 .
4. Pour une telle W , on a W (1 − W ) ≥ 0 et E(W (1 − W )) = 0, donc W (1 − W ) = 0.
C’est donc une variable de Bernoulli. La variable Z suit donc la loi de Bernoulli de
paramètre p.
5. On peut remarquer que Yn = 1{Un+1 <Xn } , d’où le résultat demandé. Yn est donc une
variable de loi de Bernoulli de paramètre EXn = p.
6. Yn → Z se déduite de Yn = 2Xn+1 − Xn . Comme Yn est à valeurs dans {0, 1}, elle
converge si et seulement si elle est constante à partir d’un certain rang (aléatoire).
Les Yn ne peuvent pas être indépendants, par exemple car cela contredirait le lemme
de Borel–Cantelli ou la loi du 0-1.
7. On a démontré qu’au bout d’un certain moment le joueur finira ou bien par gagner
toutes les parties ou bien par toutes les perdre.

Indications pour l’exercice 2.22. On peut remarquer que la loi conditionnelle de Xn+1
sachant Fn est la loi binomiale de paramètres N et Xn /N , ce qui permet de calcu-
2
ler E(Xn+1 |Fn ) ou E(Xn+1 |Fn ).
1. (Xn ) étant une martingale bornée, elle converge presque sûrement et dans tous
les Lp , 1 ≤ p < ∞.
2. On utilise la moyenne et la variance de la loi binomiale.
3. Comme (Xn ) converge, en particulier, dans L1 et L2 , on a EX∞ = limn EXn
2
et E(X∞ ) = limn E(Xn2 ). Par ailleurs, (Xn ) et (Mn ) sont des martingales, donc
de moyenne constante. On trouve EX∞ = k/N et E(X∞ (N − X∞ )) = 0.
4. X∞ vaut 0 avec probabilité 1 − k/N et N avec probabilité k/N .

Indications pour l’exercice 2.23. On utilisera la formule, pour ξ de loi normale centrée
réduite :
Z Z
1 αx−x2 /2 1 2 2
αξ
Ee = √ e dx = √ e−(x−α) /2+α /2 dx
2π R 2π ZR
1 2 2
=√ e−y /2 dy × eα /2
2π R
α2 /2
=e .

1. (Xn ) est une martingale en conséquence du calcul ci-dessus. Par ailleurs, une mar-
tingale positive converge presque sûrement.
2. Par le calcul, on voit que pour tout 0 < λ < 1, la suite (Xnλ ) converge dans L1
λ
vers 0. Comme elle converge presque sûrement vers X∞ , on en déduit que X∞ = 0.

Indications pour l’exercice 2.24. 1. On peut écrire

Bn+1 = Bn 1{Bn+1 =Bn } + (Bn + 1)1{Bn+1 =Bn +1} ,

64
où les deux événements ont pour probabilités conditionnelles sachant Fn :
(
Bn
P(Bn+1 = Bn |Fn ) = 1 − a+b+n
Bn
P(Bn+1 = Bn + 1|Fn ) = a+b+n .

On en déduit que (Xn ) est une martingale, et comme elle est bornée, elle converge
presque sûrement et dans tous les Lp , 0 ≤ p < ∞.
2. (Xn ) est d’espérance constante car c’est une martingale, et elle converge dans L1 ,
donc EX∞ = EX0 = b/(a + b). Comme 0 < b/(a + b) < 1, X∞ ne vaut donc pas
presque sûrement 1, ni presque sûrement 0.
3. On procède comme en question 1. On trouve
b(b + 1) . . . (b + k − 1) (b + k − 1)!(a + b − 1)!
EY∞(k) = = .
(a + b)(a + b + 1) . . . (a + b + k − 1) (b − 1)!(a + b + k − 1)!
4. On a, pour toutes constantes p et q,
Bn + p Bn p Bn 1 p
= + = × + .
n+q n+q n+q n 1 + q/n n + q
Par conséquent, on a presque sûrement limn (Bn + p)/(n + q) = limn Bn /n = X∞ .
(k) k
On en déduit Y∞ = X∞ .
5. En faisant n intégrations par parties, on trouve
Z 1
n!m!
(1 − x)m xn dx = .
0 (m + n)!
(a+b−1)!
On en déduit Ca,b = (a−1)!(b−1)!
et

Ca,b (a + b − 1)! (a − 1)!(b + k − 1)!


E[Z k ] = = × = E[(X∞ )k ].
Ca,b+k (a − 1)!(b − 1)! (a + b + k − 1)!
Comme les variables aléatoires Z et X∞ sont à supports compacts et ont les même
moments, on déduit du théorème de Stone-Weierstrass que E(f (Z)) = E(f (X∞ ))
pour tout fonction f continue sur [0, 1], c’est-à-dire que Z et X∞ ont même loi.
Indications pour l’exercice 2.25. 1. On peut utiliser l’égalité
1 1{Un+1 =0}
Xn+1 = 1 1
n+1 {T >n} {Un+1 =0}
= Xn .
q q

2. On remarque que la suite (Xn ) est nulle à partir du rang n = T . On conclut par le
fait que T est fini presque sûrement.
3. Comme (Xn ) est une martingale positive, on a E|Xn | = EXn = EX0 . En revanche, si
supn E(Xn2 ) était fini, (Xn ) serait une martingale bornée dans L2 , donc convergerait
dans L2 , et on aurait 0 = E limn Xn = limn EXn = 1.
On peut également calculer explicitement EXn = q −n P(T > n) = 1 et E(Xn2 ) =
q −2n P(T > n) = q −n .

65
4. Si la martingale (Xn ) était fermée, elle convergerait dans L1 , ce qui n’est pas le cas
(voir question précédente).
5. Comme E(Yn2 ) = E(Xn ) = EX0 , on a supn E(Yn2 ) < ∞ ; la suite (Yn ) est donc
uniformément intégrable.

Indications pour l’exercice 2.26. 1. On voit que Xn est une martingale fermée par
la variable X. Elle converge donc presque sûrement et dans L1 vers E(X|F∞ ).
2. Par l’inégalité de Jensen

E(Xn2 ) = E((E(X | Fn ))2 ) ≤ E(E(X 2 | Fn )) = E(X 2 ),

donc, supn E(Xn2 ) < ∞. La suite Xn converge donc dans L2 vers E(X|F∞ ). On
conclut par unicité de la limite.
3. On trouve E(Yi2 ) = σ 2 + ε2i , E(XYi ) = σ 2 , et pour i ̸= j, E(Yi Yj ) = σ 2 .
4. L’indépendance est une conséquence du fait que le vecteur (Zn , Y0 , · · · , Yn ) est gaus-
sien.
5. On trouve
σ2
E((X − Xn )2 ) = E(Zn2 ) = 2
P n −2 .
1+σ j=0 εj

6. Si εi = ε > 0 pour tout i ≥ 0 alors on a

(n + 1)σ 2 η0 + · · · + ηn
Xn = 2 2
X+ 2 .
ε + (n + 1)σ ε + (n + 1)σ 2

Donc Xn → X presque sûrement et dans L2 par la loi des grands nombres.

Indications pour l’exercice 2.27. — Le premier argument est erroné car il confond
“être minoré par une constante” et “être minoré par une variable aléatoire”, cette
deuxième hypothèse étant plus faible que la première : une suite (Xn ) tendant
presque sûrement vers +∞ est minorée par une variable aléatoire (par exemple,
par inf n Xn ), alors que pour conclure qu’une sur-martingale minorée converge, la
bonne hypothèse est d’être minorée par une constante.
— Le deuxième argument est également erroné, car le lemme de Fatou suppose que
les variables aléatoires sont positives (ou minorées par une même constante).
— On peut en fait construire un exemple de sur-martingale qui converge presque
sûrement vers +∞. Par exemple, Xn = Y1 + . . . + Yn , avec des (Yn ) indépendants
vérifiant (
P(Yn = 1) = 1 − n12 ,
P(Yn = −n2 ) = n12 .
Par Borel–Cantelli, les Yn vaudront tous 1 à partir d’un certain rang, et Xn tendra
vers +∞, mais les Yn sont d’espérance négative, donc (Xn ) est une sur-martingale.

Indications√pour l’exercice 2.28. 1. La suite (Xn ) est clairement une martingale,


pour ( Xn ), on applique l’inégalité de Jensen.

66
√ √
2. Par l’inégalité de Jensen, E( Yk ) ≤ 1, donc la suite nk=0 E( Yk ) est décroissante
Q
et positive.
3. Comme (Xn ) est une martingale
√ positive, elle converge presque sûrement vers un X∞ .
Si de plus ℓ =√0, alors ( Xn ) converge dans L1 vers 0, or elle converge presque
sûrement vers X∞ .
Si (Xn ) était fermée, on aurait Xn = E[X∞ |Fn ] = 0.
p √ 2  √ √
4. En explicitant E Xp − X n en fonction des E Yn , on montre que la suite ( Xn )
est de Cauchy dans L2 . On a donc convergence de (Xn ) dans L1 et (Xn ) est donc
fermée.
5. On se ramène au cas précédent en posant √
Yn = p(Zn )/q(Zn ). Du fait que p et q sont
deux probabilités distinctes, on déduit E Yn < 1, et on est donc dans le cadre de
la question 3.

Indications pour l’exercice 2.29. 1. C’est une étude de fonction ( x1 ln(x) atteint
son maximum en 1/e). On remarque ensuite que
x y y
x ln x − x ln y = y × ln ≤ .
y x e

2. Après avoir appliqué l’inégalité maximale, on remarque que


Z ∞
1
1{x≥a} da = ln+ x.
1 a

3. Dans l’inégalité de la question précédente, le membre de gauche est supérieur à


 
E max |Xk | − 1,
0≤k≤n

et le membre de droite est majoré, d’après l’inégalité de la question 1, par


 
+
 1
E |Xn | ln |Xn | + E max |Xk | .
e 0≤k≤n

On conclut par convergence monotone.

Indications pour l’exercice 2.30. 1. L’inclusion Fn ⊂ Fn+1 se déduit de Bn,k =


Bn+1,2k ∪ Bn+1,2k+1 .
2. La tribu Fn est engendrée par la partition finie (Bn,k )0≤k<2n , donc
n −1
2X
E(X|Fn ) = E(X|Bn,k )1Bn,k .
k=0

3. Idem.
4. (Fn ) est une martingale fermée, elle converge donc presque sûrement et dans L1 vers
E(F |F∞ ) = F .

67
5. Cela découle de x ∈ Bn,⌊2n x⌋ .
6. Sur chaque Bn,k , on a
   
n k+1 k
G(x) = 2 F −F ≤ K.
2n 2n
R k/2n
La deuxième égalité se déduit de Fn (k/2n −) − F (0) = 0
Gn (x)dx.
7. E[Gn+1 |Fn ] se calcule en utilisant la formule pour E[X|Fn ]. On a donc une martin-
gale bornée, donc elle converge presque sûrement et Rdans tous les Lp , 1 ≤ p < ∞.
x
La convergence L1 de Gn entraı̂ne la convergence de 0 Gn (u)du pour tout x.
8. C’est la question précédente.

68
Chapitre 3

Corrigé : Chaı̂nes de Markov

Matrices de transition, calculs


Indications pour l’exercice 3.1. 1. — Dans le cas (p, q) = (0, 0), la suite (Xn ) est
constante en n : on a presque sûrement Xn = X0 .
— Dans le cas (p, q) = (0, 1), on a presque sûrement Xn = 1 pour n ≥ 1 et dans
le cas (p, q) = (1, 0), on a Xn = 2 pour n ≥ 1. Dans ces deux cas, X0 peut être
aléatoire.
— Si (p, q) = (1, 1), la chaı̂ne change d’état à chaque étape : Xn = X0 pour n pair,
et Xn = 1 − X0 pour n impair.
2. En diagonalisant M , on trouve :
   
1 1 p 1 0 q p
M= ,
p + q 1 −q 0 1−p−q 1 −1

d’où
   
n 1 1 p 1 0 q p
M =
p + q 1 −q 0 (1 − p − q)n 1 −1
n
   
1 q p (1 − p − q) p −p
= + .
p+q q p p+q −q q

En particulier, P(Xn = 1|X0 = i) converge vers q/(p + q) et P(Xn = 2|X0 = i)


vers p/(p + q) et ce quel que soit i.
3. En considérant les deux états “forme identique à la forme initiale” et “forme différente
de l’état initiale”, on est ramené à la situation des premières questions, avec p = a
et q = a/N . La probabilité limite est alors N1 NN−1 .


Indications pour l’exercice 3.2. On remarque que, pour tout k ≥ 1

{X1 = k − 1, X2 = k − 2, . . . , Xk−1 = 1, Xk = 0} ⊂ {X1 = k − 1}

et que ces deux événements ont même probabilité. Ils sont donc égaux (à un ensemble
négligeable près).

69
Par ailleurs

{X1 = k − 1} = {X1 = k − 1, X2 = k − 2, . . . , Xk−1 = 1, Xk = 0} ⊂ {S = k}.

Comme les événements ({X1 = k − 1})k≥1 constituent une partition de Ω, on a donc

{X1 = k − 1} = {S = k},

et notamment P(S = k) = P(X1 = k − 1) = pk .


Toute probabilité sur {1, 2, · · · } peut donc être considéré comme la loi du temps de
retour à un état pour une certaine chaı̂ne de Markov appropriée.

Indications pour l’exercice 3.3. 1. On a affaire à une chaı̂ne de matrice de transi-


tion  
0 1/2 1/2
Q = 1/2 0 1/2 .
1/2 1/2 0
On trouve alors
   
1 1 1 2 −1 −1
−1 n 1 
Qn = 31 1 1 1 +

2 3
−1 2 −1 .
1 1 1 −1 −1 2

Cela peut par exemple se montrer en écrivant Q = (M − I)/2, où M est la matrice
dont tous les coefficients sont des 1. On peut alors appliquer la formule du binôme,
en remarquant que M n = 3n M si n ≥ 1.
En particulier,  
1/3 1/3 1/3
lim Qn = 1/3 1/3 1/3 .
n→∞
1/3 1/3 1/3

2. Quel que soit µ, Pµ (Xn = j) converge vers 1/3.

Indications pour l’exercice 3.4. 1. La suite (Yn ) est i.i.d. et Yn ∈ L1 , avec E(Yn ) =
p. Par la loi des grands nombres, limn→∞ Xnn = p > 0 p.s., donc limn→∞ Xn = ∞
p.s. Puisque Xn − Xn−1 ∈ {0, 1} pour tout n, X0 = 0 et limn→∞ Xn = ∞ p.s., on
obtient que (Xn ) visite tout y ∈ N et donc Ty < ∞ p.s..
2. Mn := Xn − np = ni=1 (Yi − p) est une martingale, car (Yi − p, i ≥ 1) est une suite
P
i.i.d. de variables aléatoires centrées.
3. Puisque n ∧ Ty est un temps d’arrêt borné, on a E(Mn∧Ty ) = E(M0 ) = 0, donc
E(n ∧ Ty ) = E(Xn∧Ty )/p. Puisque Ty < ∞ et |Xn∧Ty | ≤ y p.s., on a, par convergence
dominée, limn→∞ E(Xn∧Ty ) = E(XTy ) = y. Par convergence monotone limn→∞ E(n∧
Ty ) = E(Ty ). Donc

y
E(Ty ) = .
p

70
4. Puisque Xn+1 ≥ Xn p.s. pour tout n, on a

1(Xk =y) = 0, si k < Ty ou k ≥ Ty+1 ,


et
1(Xk =y) = 1, si Ty ≤ k < Ty+1 .
Donc
Ty+1 −1
X
N (y) = 1 = Ty+1 − Ty ,
i=Ty
y+1 y 1
E[N (y)] = E(Ty+1 − Ty ) = − = .
p p p

5. On voit que Xn est une variable aléatoire binomiale de paramètres (n, p), tandis
que T1 est une variable aléatoire géométrique de paramètre p, car pour tout n ≥ 1,

P(T1 = k) = P(X1 = · · · = Xk−1 = 0, Xk = 1)

= P(Y1 = · · · = Yk−1 = 0, Yk = 1) = (1 − p)k−1 p.


6. On veut calculer P(N (y) = k). Par le point 4 on a

N (y) = Ty+1 − Ty = Ty+1 ◦ θTy .

Par la propriété de Markov forte,

P(N (y) = k) = P(Ty+1 ◦ θTy = k) = E(PXTy (Ty+1 = k))

= Py (Ty+1 = k) = P0 (T1 = k) = P(T1 = k).


7. Soit y ≥ 2 et k ≥ y. On a

P(Ty = k) = P(Xk−1 = y − 1, Xk = y) = P(Xk−1 = y − 1, Yk = 1)


 
k−1
= py (1 − p)k−y .
y−1
Indications pour l’exercice 3.5. 1. La suite (XT +n ) est une chaı̂ne de Markov de
matrice de transition Q et dont la loi initiale est celle de la variable aléatoire XT .
Pour voir cela, il suffit d’appliquer la propriété de Markov forte au temps T à une
espérance de la forme
Ex (f (XT , XT +1 , . . . , XT +n )).
2. (a) On utilise la propriété de Markov forte au temps Sn pour calculer (par récurrence)

Px (Sn+1 < ∞) = Ex 1{Sn <∞} Px (S ((XSn +k )k≥0 ) < ∞|FSn )

= Ex 1{Sn <∞} PXSn (S < ∞)
= 1.

71
(b) La propriété de Markov forte en Sn permet de montrer :

Px (XSn+1 = y | FSn ) = PXSn (XS = y) = QS (XSn , y).

En particulier, on peut exprimer Px (XS1 = x1 , . . . , XSn = xn ) à partir de QS .

Indications pour l’exercice 3.6. 1. Par indépendance, on a

Px (X1 ≤ x, · · · , Xk−1 ≤ x, Xk > y) = (1 − px )k−1 py .

2. La probabilité Px (τ = k, Xk > y) est égale à

Px (X1 ≤ X0 , . . . , Xk−1 ≤ X0 , Xk > X0 , Xk > y),

et sous Px , on a X0 = x presque sûrement. Par conséquent Px (τ = k, Xk > y)


vaut 1 si y ≤ x, et vaut la probabilité calculée dans la question 1 si y > x.
La loi de τ s’obtient en prenant y = x, et la loi de Xτ s’obtient en sommant en k :
on obtient Px (Xτ > y) = py−x . Les variables τ et Xτ sont indépendantes.
3. Pour toute mesure de probabilité µ, on a µQ = π. On ne peut donc avoir µQ = µ
que si µ = π.
x (τ < ∞) = 1 pour tout x, ce qui
Sous Px , τ est de loi géométrique, donc PP
entraı̂ne Pπ (τ < ∞) = 1. De même Eπ (τ ) = x≥1 Ex (τ )π(x) = ∞.
4. On calcule Px (Z0 = x, Z1 = x1 , . . . , Zk+1 = xk+1 ) par récurrence en conditionnant
par Fτk et en appliquant la propriété de Markov forte au temps τk .
La matrice de transition de (Zk ) est

QZ (x, y) = 1{y>x} py−x−1 (1 − p).

Sous Px , la suite (Zk )k≥0 part de Z0 = x.


5. C’est une conséquence de la propriété de Markov forte au temps τk .
6. On écrit
k
X
Zk = x + (Zi − Zi−1 )
i=1

avec une somme de variables i.i.d. de loi géométrique. La loi des grands nombres
permet de conclure que Zk /k converge vers 1/p.

Récurrence, transience, irréductibilité


Indications pour l’exercice 3.7. 1. Les états 1 et 2 sont récurrents. L’état 3 est
transient. On a G(x, x) = ∞ si et seulement si x = 1 ou x = 2. On a G(x, y) = 0 si
et seulement si (x, y) = (1, 3) ou (x, y) = (2, 3).

72
2. La formule G = I + QG se montre à partir de la propriété de Markov faible. En
effet, en définissant

Φ((Xn )n≥0 ) = card{n ∈ N, Xn = y}

on a
Ny = Φ((Xn )n≥0 ) = 1{X0 =y} + Φ((Xn+1 )n≥0 ).
On obtient alors  
∞ ∞ 0
G = ∞ ∞ 0  .
∞ ∞ 23
3. On a clairement v(1) = 0. En posant

Ψ((Xn )n≥0 ) = inf{n ≥ 1; Xn = 1},

on a Px -p.s. (pour x ̸= 1)

T{1} = Ψ((Xn )n≥0 ) = 1 + Ψ((Xn+1 )n≥0 ).

On peut donc encore utiliser la propriété de Markov faible pour obtenir v(x) =
1 + Qv(x) pour x ̸= 1. La solution est alors
 
1
v = 2 .

5
2

4. On a E3 (T{3} ) = 0 et Ex (T{3} ) = ∞ si x ∈ {1, 2}.


5. Le système linéaire caractérisant une probabilité invariante admet pour unique so-
lution π = ( 13 , 23 , 0).
6. Partant de 3, la chaı̂ne reste en 3 avec probabilité 31 et entre dans {1, 2} avec pro-
babilité 32 . Donc T{1,2} a sous P3 loi géométrique de paramètre 32 .
7. En effet, E3 (T{1,2} ) = 32 = E3 (N3 ). La raison est que, une fois quitté l’état 3, la
chaı̂ne n’y revient jamais ; donc P3 -p.s. les événements {T{1,2} = k} et {X0 = X1 =
· · · = Xk−1 = 3, Xj ̸= 3 ∀j ≥ k} coı̈ncident et, par conséquence, P3 -p.s. T{1,2} = N3 .

Indications pour l’exercice 3.8. On applique la propriété de Markov forte au temps Ty :


  !!
X X
Ex 1{Ty <∞} 1{Xn =z}  = Ex 1{Ty <∞} Ex 1{Xn+Ty =z} FTy
n≥Ty n≥0
 
= Ex 1{Ty <∞} EXTy (Nz )
= Px (Ty < ∞)G(y, z).
G(x,y)
Si y est transient, on a de plus Px (Ty < ∞) = G(y,y)
.

73
Indications pour l’exercice 3.9. 1. On a
X X Q(y, x)π(y) πQ(x) π(x)
Q∗ (x, y) = = = = 1,
y∈E y∈E
π(x) π(x) π(x)

X X Q(y, x)π(y) X
π(x) Q∗ (x, y) = π(x) = Q(y, x)π(y) = π(y).
x∈E x∈E
π(x) x∈E

L’égalité Q∗ = Q est vraie si et seulement si π(x)Q(x, y) = π(y)Q(y, x) pour tout


x, y ∈ E, c’est-à-dire si et seulement si π est réversible pour Q.
2. En utilisant la relation π(x)Q(x, y) = π(y)Q∗ (y, x), on obtient par récurrence

Pπ (X0∗ = x0 , · · · , XN∗ = xN ) = Pπ (X0 = xN , · · · , XN = x0 )


= π(xN )Q(xN , xN −1 ) · · · Q(x1 , x0 )
= π(x0 )Q∗ (x0 , x1 ) · · · Q∗ (xN −1 , xN ).

3. L’unique probabilité invariante est π(y) = (1 − p)py .


Une trajectoire typique de (Xn ) issue de la mesure π est :

• •

• • • •

• • •

• • • • •

Une trajectoire typique de (Xn∗ ) issue de la mesure π est :


• •

• • • •

• • •

• • • • •

Indications pour l’exercice 3.10. 1. On a Qj (0, j) ≥ p0 . . . pj−1 > 0, donc

Qj+1 (i, j) ≥ Q(i, 0)Qj (0, j) > 0.

La chaı̂ne est donc bien irréductible.

74
2. On remarque qu’une mesure µ est invariante si et seulement elle est de la forme

µ(i) = λp0 p1 . . . pi−1

pour λ > 0 et qu’elle vérifie µ(0) = λ = λ(1 − limn p0 . . . pn ).


On a donc existence d’une mesure invariante si et seulement si p0 . . . pn tend vers 0
lorsque n tend vers l’infini.
Pour montrer que la chaı̂ne est récurrente, on note T0 le temps de retour en 0 et il
suffit de remarquer que
X X
P(T0 < ∞) = P(T0 = n) = (p0 . . . pn−1 − p0 . . . pn ) = 1 − lim p0 . . . pn = 1.
n
n≥1 n≥1

3. La chaı̂ne est récurrentePpositive si et seulement si elle


P admet une probabilité inva-
riante, ce qui revient à i µ(i) < ∞, c’est-à-dire à i p0 p1 . . . pi < ∞.

Indications pour l’exercice 3.11. 1. La probabilité invariante de la chaı̂ne est

1 
π= 7 4 2 1 .
14

2. Par le théorème ergodique, on a limn7→∞ Nn /n = 1/14 p.s.

Indications pour l’exercice 3.12. 1. La chaı̂ne est irréductible (graphe connexe) et


tous les états sont récurents (espace d’état fini).
2. Les mesures invariantes sont les multiples de la mesure uniforme :

µ = α(δc + δd + δe + δs + δt + δu ),

avec α > 0. Par conséquent, l’unique probabilité invariante π est la loi uniforme
(α = 1/6 dans l’expression de µ ci-dessus).
3. On Ppasse en moyenne une fois en c entre deux passages en t (car µ définie par µ(x) =
Et ( Tk=1
t
1{Xk =x} ) est une mesure invariante).
4. Le temps de retour moyen en u vaut 6 (= 1/π(c)).
5. Asymptotiquement, on passe un tiers du temps en dans l’ensemble {c, d}. Cela
découle du théorème ergodique en remarquant π({c, d}) = 1/3.
6. On note Td = inf{n ≥ 0, Xn = d}. En appliquant la propriété de Markov (faible)
au temps t = 1, on trouve que la fonction u(x) = Ex (Td ) vérifie
(
u(d) = 0,
u(x) = 1 + Qu(x) si x ̸= d.

On en déduit Ee (Td ) = 6.

75
Convergence vers la loi stationnaire
Indications pour l’exercice 3.13. 1. La chaı̂ne est irréductible et tous les états sont
stationnaires.
2. L’unique mesure invariante est
1 
π= 4 2 3 .
9
Elle n’est pas réversible.
3. Pour tout x ∈ E, Ex (Sx ) = π(x)−1 , donc E1 (S1 ) = 49 , E2 (S2 ) = 9
2
et E3 (S3 ) = 9
3
= 3.
2
4. Par l’irréductibilité, la période est la même pour tout x ∈ E. Comme Q (1, 1) >
0 et Q3 (1, 1) > 0, la chaı̂ne est apériodique. On a donc la convergence en loi :
limn Qn (x, y) = π(y).

Indications pour l’exercice 3.14. 1. La matrice de transition (de taille (N + 1) ×


(N + 1)) est
 
0 ... 0 0 1
 0
 . 0 1 − p p 
 .
 . 1−p p 0

 0 0 0
 
 .. 
 0 1−p p .
1−p p 0 0 ... 0
2. La chaı̂ne est irréductible et tous les états sont récurrents.
3. Par irréductibilité, il y a unicité de la mesure invariante à constante près. Toutes les
mesures invariantes sont colinéaires à

1 − p 1 1 ... 1 1 .

4. L’unique probabilité invariante est


 
1−p 1 1 1 1
N +1−p N +1−p N +1−p
... N +1−p N +1−p
. .

Par le théorème ergodique, la proportion du temps passé par le professeur dans un


lieu avec 0 parapluie est N1−p
+1−p
. La proportion du temps passé sous la pluie et sans
parapluie est donc p fois cette proportion-là, soit
p(1 − p)
.
N +1−p
Pour p = 1/2, on trouve bien
1
.
4N + 2
5. La période est 1. En effet, si N est pair, on a Q(N/2, N/2) = 1 − p > 0, et si N est
impair, alors Q((N + 1)/2, (N + 1)/2) = p > 0.

76
1. On a S n (x, y), (x′ , y ′ ) = Qn (x, x′ )Rn (y, y ′ ).

Indications pour l’exercice 3.15.
2. Par irréductibilité et apériodicité, pour tout x, x′ , y et y ′ dans E, on a Qn (x, x′ ) > 0
et Rn (y, y ′ ) > 0 à partir d’un certain rang. On a donc S n (x, y), (x′ , y ′ ) > 0 à partir
d’un certain rang.
3. Le produit de deux marches aléatoires simples symétriques sur Z possède deux
classes de communication.
4. La probabilité π(x, y) = ρ(x)σ(y) est invariante pour la chaı̂ne produit.
5. La mesure invariante du déplacement d’une souris est, après calcul,

1
ρ(1) = ρ(4) = ρ(13) = ρ(16) =
24
1
ρ(2) = ρ(3) = ρ(5) = ρ(9) = ρ(14) = ρ(15) = ρ(8) = ρ(12) =
16
1
ρ(6) = ρ(7) = ρ(10) = ρ(11) = .
12

La mesure π(x, y) = ρ(x)ρ(y) est invariante pour la chaı̂ne modélisant le mouve-


ment des deux souris. Mais cette chaı̂ne produit admet deux classes de récurrence
disjointes : la classe C1 des couples de cases de même couleur et la classe C2 des
couples de cases de couleurs différentes. Comme π(Ci ) = 1/2, la probabilité inva-
riante (unique) sur C1 est π1 (x, y) = 2π(x, y)1C1 (x, y). Par conséquent, l’intervalle
de temps moyen entre deux rencontres des souris en case 7 est

1
E(7,7) (S(7,7) ) = = 72.
π1 (7, 7)

Indications pour l’exercice 3.16. Si x ∈ A, on a TA = 0 Px -presque sûrement,


d’où u(x) = f (x). Si x ∈
/ A, on applique la propriété de Markov (faible) au temps k = 1
pour obtenir u(x) = P u(x) + g(x).

Indications pour l’exercice 3.17. 1. Par irréductibilité, la probabilité invariante π


est unique
P et charge E tout entier. Le théorème ergodique permet d’affirmer que la
suite n1 n−1 1
k=0 {Xk =y} converge presque sûrement et dans L 1
vers π(y).
PSi+1 −1
2. Posons Ui = k=S i
1{Xk =y} On applique la propriété de Markov forte au temps Si :
pour toute fonction f : E → R,

S−1
!! S−1
!!
X X
Ex (f (Ui )|FSi ) = EXSi f 1{Xk =y} = Ex f 1{Xk =y} .
k=0 k=0

L’expression obtenue étant déterministe, la variable Ui est donc indépendante de FSi .


En particulier (par récurrence),
 P les variables
 (U1 , . . . , Ud ) sont indépendantes. De
S−1
plus, Ex (f (Ui )) = Ex f k=0 1{Xk =y} ne dépend pas de i, donc tous les Ui ont
même loi.

77
3. On écrit
 
Si −1 i−1 Sq+1 −1
1 X i 1X X
1{Xk =y} = ×  1{Xk =y} 
Si k=0
Si i q=0 k=Sq
!−1  
i−1 i−1 Sq+1 −1
1 X 1 X X
= Sq+1 − Sq ×  1{Xk =y} 
i q=0
i q=0 k=Sq

D’une part, par la question 1, le membre de gauche converge presque sûrement


vers π(y) (remarquer que Si ≥ i, donc Si tend vers ∞), d’autre part, par la
loi des P
grands nombres classique, le membre de droite converge presque sûrement
vers E( S−1
k=0 1{Xk =y} )/Ex S.
4. En appliquant la propriété de Markov forte en Ty , on obtient pour x ̸= y, Ex S =
Ex Ty + Ey Tx .
5. L’égalité à démontrer se ramène à
S−1
!
X 1
Ex 1{Xk =y} = .
k=0
Py (Tx < Ty )

Cette égalité se démontre en appliquant la propriété de Markov forte en Ty pour


écrire !
x −1
S−1 TX
!
X
Ex 1{Xk =y} = Ey 1{Xk =y} ,
k=0 k=0

et une autre application de la propriété de Markov forte (en Ty ), montre que la


P x −1
variable Tk=0 1{Xk =y} suit sous Py une loi géométrique de paramètre Py (Tx < Ty ).
Indications pour l’exercice 3.18. 1. L’état 0 conduit à tout état x > 0 puisque
Q(0, x) = f (x) > 0 ; tout état x > 0 conduit à x − 1 et donc à 0 après x étapes. La
chaı̂ne est donc irréductible.
2. Par les définitions, on voit que

P0 (S1 = n) = P0 (Xn = 0, Xn−1 = 1, · · · , X1 = n − 1) = P0 (X1 = n − 1) = f (n).


P
Donc P0 (S1 < ∞) = n f (n) = 1 et la chaı̂ne est irréductible récurrente.
3. On voit que
X ∞
X ∞
X ∞
X
λ(x) Q(x, y) = f (y + 1) f (z) + f (z) = f (z) = λ(y)
x z=1 z=y+2 z=y+1

donc λ est invariante. Toute mesure µ sur N est invariante si


X
µ(y) = µ(x) Q(x, y) = f (y + 1) µ(0) + µ(y + 1),
x

78
ce qui donne

X
µ(y) = µ(0) − µ(0)(f (y) + f (y − 1) + · · · + f (1)) = µ(0) f (z) = µ(0) λ(y).
z=y+1
P
4. (Xn ) est récurrente positive si et seulement si E0 (S1 ) = n n f (n) = m < ∞. Il
existe une mesure de probabilité invariante si et seulement si λ est normalisable :
X ∞ X
X ∞ ∞
X z−1
X ∞
X
λ(x) = f (z) = f (z) 1= z f (z) = m,
x x=0 z=x+1 z=1 x=0 z=1

donc si et seulement si m < ∞. On suppose cette condition satisfaite dans la suite


de l’exercice et on appelle π la seule mesure de probabilité invariante :

1 X
π(x) = f (z), x ∈ N.
m z=x+1

5. La chaı̂ne est irréductible, récurrente positive et apériodique, car Q(0, 0) = f (1) > 0.
Donc ∞
1 X
lim Px (Xn = y) = π(y) = f (z),
n→∞ m z=y+1
pour tous x, y ∈ N.
6. Soit u(n) := P0 (Xn = 0). Si X0 = Xn = 0, alors S1 ∈ {1, · · · , n} et donc {X0 =
Xn = 0} = ∪z≤n {X0 = Xn = 0, S1 = z}. Par la propriété forte de Markov nous
obtenons, puisque S1 est un temps d’arrêt,
n
X n
X 
P0 (Xn = 0) = P0 (S1 = z, Xn = 0) = E0 1(S1 =z) PXz (Xn−z = 0)
z=1 z=1
n
X n
X
= P0 (S1 = z) P0 (Xn−z = 0) = f (z) u(n − z) = f ∗ u(n).
z=1 z=1

7. Soit ti := Si − Si−1 , i ≥ 1. On peut voir que ti+1 = S1 ◦ θSi , c’est-à-dire le premier


temps de retour à 0 après Si , pour tous i ≥ 0. Par la propriété forte de Markov, on
trouve que la suite (ti )i≥1 est sous P0 une suite i.i.d. et
P0 (ti = n) = P0 (t1 = n) = P0 (S1 = n) = f (n), n ≥ 1.
8. Puisque Si = t1 + · · · + ti et les (ti ) sont i.i.d. avec distribution commune f (·), alors
P0 (Si = n) = f i∗ (n), où f i∗ = f ∗ · · · ∗ f est la convolution i fois de f pour i ≥ 1.
9. La suite aléatoire (Si ) décrit tous les temps de retour à 0, donc il est clair que
{Xn = 0} = ∪i {Si = n}. Puisque les événements ({Si = n})i sont disjoints, on
obtient

X ∞
X
u(n) = P0 (Xn = 0) = P0 (Si = n) = f i∗ (n), n ≥ 1.
i=1 i=1

10. Par le point 5, u(n) = P0 (Xn = 0) → π(0) = 1/m.

79
80
Chapitre 4

Corrigé du problème : Processus de


branchement

1. (Un premier cas simple) Nous avons ξ(0) + ξ(1) = P(Xk,n ≤ 1) = 1. Cela signifie
donc que chaque individu a au plus un enfant p.s.. Nous avons ainsi Zn+1 ≤ Zn et la
population décroı̂t presque sûrement. Si, de plus Z0 = 1 comme supposé, alors Zn est à
valeurs dans {0, 1} p.s..
Si ξ(0) = 0 alors, Zn = 1 p.s. pour tout n. Si ξ(0) > 0, alors T = inf{n ∈ N; Zn =
0} = inf{n ∈ N; ξ1,n = 0} et P(T < ∞) = 1 (loi géométrique). La population finit donc
par s’éteindre.

2. Calculons l’espérance conditionnelle suivante


X k
X  X k
X
E(Zn+1 | Fn ) =E 1{Zn =k} Xl,n+1 Fn = 1{Zn =k} E(Xl,n+1 | Fn )
k∈N l=1 k∈N l=1
k
XX X
= 1{Zn =k} E(Xl,n+1 ) = 1{Zn =k} km = mZn
k∈N l=1 k∈N

où, dans la première ligne, nous avons utilisé le théorème d’interversion espérance-somme
positive puis, dans la deuxième ligne, la Fn -mesurabilité de Zn puis l’indépendance entre
les Xk,n+1 et Fn .
En prenant ensuite l’espérance, on a E(Zn+1 ) = m E(Zn ) avec E(Z0 ) = 1 d’où la suite
géométrique E(Zn ) = mn .
Pour r ∈ [0, 1], la fonction N → R, n → rn est positive et bornée par 1. Les variables
rZn sont donc intégrables, et
X Pℓ 
E(r Zn+1
| Fn ) = E 1{Zn =ℓ} r k=1 Xk,n+1
Fn
ℓ∈N
X Pℓ
= 1{Zn =ℓ} E(r k=1 Xk,n+1
| Fn )
ℓ∈N

par interversion série positive-espérance conditionnelle (comme dans le calcul précédent)


puis Fn -mesurabilité de Zn . De plus, nous avons à partir de la définition de Fn et

81
l’indépendance des Xk,n :

Pℓ Y
E(r k=1 Xk,n+1
| Fn ) = E(rXk,n+1 ) = φ(r)ℓ ,
k=1

et l’on conclut en recollant les morceaux.


En prenant ensuite l’espérance de la formule précédente, on obtient l’égalité E(rZn+1 ) =
E[φ(r)Zn ] et on conclut par récurrence que
E(rZn ) = φn (r).

3. Nous avons une série entière de rayon de convergence R ≥ 1. Par dérivation sous la
somme, on obtient que pour tout r ∈ [0, 1[ (attention, l’intervalle est ouvert en 1), nous
obtenons ainsi : X
φ′′ (r) = k(k − 1)ξ(k)rk−2 ,
k≥2
′′
et φ (r) > 0 si r > 0 puisque sous l’hypothèse ξ(0) + ξ(1) < 1, la somme ci-dessus est
non-vide. La fonction r → φ(r) − r est donc strictement convexe. De plus m = φ′ (1−) par
convergence monotone lorsque r ↑ 1 ; la fonction φ(r) − r est donc strictement au-dessus
de sa tangente en 1 (si m est fini) sur ]0, 1[ et l’on a
φ(r) − r > (m − 1)(r − 1) > 0 .
si r ∈ [0, 1[ et m ≤ 1. De plus, nous avons φ(1) = 1 donc si m ≤ 1, il n’y a qu’un
unique point fixe de φ sur [0, 1] donné par q = 1.
D’autre part, nous avons φ(0) = ξ(0) > 0 et φ(1 − ε) − (1 − ε) < 0 pour ε suffisamment
petit si m > 1 (pente de φ(r) − r strictement négative en 1). De plus, φ est continue sur
[0, 1] donc il existe au moins un c ∈]0, 1[ tel que φ(c) − c = 0. Par convexité, il est de plus
unique. Si m > 1, il existe seulement deux points fixes de φ sur [0, 1] donnés par
q = c ∈]0, 1[ et 1.
D’après ce qui précède, nous avons ainsi φ(r) > r si r < q et φ(r) < r si r > q donc
la suite (φn (0))n∈N est une suite croissante qui converge vers q, le plus petit point fixe
stable rencontré en allant de 0 vers 1.

4. Par définition du processus (Zn ), nous avons Zn (ω) = 0 ⇒ Zn+1 (ω) = 0 donc {Zn =
0} ⊂ {Zn+1 = 0}. Nous avons une suite croissante d’événement donc :
[ 
P {Zn = 0} = lim ↑ P(Zn = 0).
n→∞
n

D’autre part, E(rZn ) = φn (r) = E(1{Zn =0} ) + E(rZn 1{Zn ≥1} ) donc φn (0) = P(Zn = 0).
D’une part {T < ∞} = ∪n {Zn = 0} et d’autre part l’étude de suite précédente donne
φn (0) ↑ q et l’on obtient le résultat voulu P(T < ∞) = q. Ainsi, on a
(
1 si m ≤ 1 (sous-critique),
P(T < ∞) =
q < 1 si m > 1 (surcritique).
L’extinction est presque sûre dans le cas sous-critique.

82
5. Les variables aléatoires Mn sont Fn -mesurables et 0 ≤ Mn ≤ 1 p.s. pour tout n donc
elles sont intégrables. De plus, nous avons E(Mn+1 | Fn ) = φ(q)Zn = q Zn = Mn (point
fixe) donc (Mn ) est une (Fn )-martingale.
Elle est positive et supn∈N E(|Mn |p ) < ∞ (pour tout p ∈ [1, ∞[ ) : c’est donc une
martingale fermée qui converge p.s., dans L1 et dans Lp pour tout p ∈ [1, ∞[ , vers une
variable aléatoire M∞ à valeurs dans [0, 1] p.s.
Nous avons l’égalité p.s.
Mn∧T = Mn 1{T =∞} + Mn∧T 1{T <∞}
Le passage à l’espérance donne
E(M0 ) = q = E(Mn 1{T =∞} ) + E(Mn∧T 1{T <∞} ).
Toutes les variables aléatoires sont comprises p.s. entre 0 et 1. Le théorème de conver-
gence dominée donne alors E(Mn∧T 1{T <∞} ) = E(MT 1{T <∞} ) = E(1{T <∞} ) = q pour le
deuxième terme et ainsi,
E(M∞ 1{T =∞} ) = 0
Par positivité, on a ainsi M∞ 1{T =∞} = 0 p.s. ; d’où limn→∞ q Zn 1{T =∞} = 0 p.s. comme
désiré.
Pour presque tout ω ∈ {T = ∞}, nous avons ainsi limn→∞ q Zn (ω) = 0 et donc
limn→∞ Zn (ω) = ∞. On a ainsi 1{T =∞} ≤ 1{limn→∞ Zn =∞} p.s. D’autre part il est clair
que 1{limn→∞ Zn =∞} ≤ 1{T =∞} . On obtient ainsi l’égalité presque sûre attendue 1{T =∞} =
1{limn→∞ Zn =∞} .
Lorsqu’elle ne s’éteint pas, la population voit sa taille diverger p.s. Pour remettre
ensemble les cas d’extinction et de survie on a limn→∞ Zn = Z∞ = (∞) 1{T =∞} .

6.
1. La suite (Wn ) est trivialement (Fn )-adaptée. De plus, on montre aisément par
récurrence que E(Zn ) = mn donc les variables Wn sont intégrables. Nous avons
vu à la question 1 que E(Zn+1 | Fn ) = mZn donc on en déduit immédiatement par
division par mn+1 que Wn est une martingale.
2. Commençons par étudier E(Zn+1 2
| Fn ) en procédant comme à la question 1 (ou bien
en dérivant la fonction génératrice conditionnelle avec les théorèmes adéquats). Un
calcul direct avec interversion espérance-série positive donne :
l
!2
X X 
2
E(Zn+1 | Fn ) = E 1{Zn =l} Xk,n+1 Fn
l∈N k=1

X l
X l
X
= 1{Zn =l} E(Xk1 ,n+1 Xk2 ,n+1 | Fn )
l∈N k1 =1 k2 =1

X l X
X l
= 1{Zn =l} E(Xk1 ,n+1 Xk2 ,n+1 )
l∈N k1 =1 k2 =1
X
1{Zn =l} l(σ 2 + m2 ) + l(l − 1)m2 = σ 2 Zn + m2 Zn2

=
l∈N

83
Prenons l’espérance et normalisons par m2(n+1) pour obtenir

2 σ2
E(Wn+1 ) = E(Wn2 ) +
m2+n
La suite un+1 = un + σ 2 m−2−n , u0 = 1 est convergente (vers 1 + σ 2 /(m(m − 1)))
lorsque m > 1 et est donc bornée. On a ainsi,

sup E(Wn2 ) < ∞,


n

et la martingale (Wn ) converge p.s., dans L2 et donc dans L1 vers W∞ qui est une
variable aléatoire réelle intégrable positive.
3. pour tout n ∈ N, nous avons
n n n 
E(e−λ m Wn+1 ) = E[(e−λ/m )Zn+1 ] = φn+1 (e−λ/m ) = φ φn (e−λ/m )
n 
= φ E[e−λZn /m ] = φ E[e−λWn ]



Nous avons 0 ≤ e−λ Wn ≤ 1 p.s. pour tout λ′ ≥ 0 et φ est continue. Par convergence
dominée, on a ainsi,
∀λ ≥ 0, L(λ m) = φ(L(λ)).
Décomposons selon la valeur W∞ puis appliquons le théorème de convergence do-
minée (0 ≤ e−λW∞ ≤ 1 p.s.),

L(λ) = E(1{W∞ =0} ) + E(e−λW∞ 1{W∞ >0} ),

pour obtenir P(W∞ = 0) = limλ→∞ L(λ) = l. D’après l’équation fonctionnelle de


point fixe pour L, nous obtenons par passage à la limite φ(l) = l et ainsi l ∈ {q, 1}
lorsque m > 1. La valeur 1 est exclue car (Wn ) est fermée et donc E(W∞ ) = 1 ̸= 0
donc P(W∞ = 0) ̸= 1. On a ainsi,

P(W∞ = 1) = q .

4. On observe trivialement que 1{W∞ >0} ≤ 1{T =∞} p.s. car W∞ > 0 donne Zn ≃ mn W∞
p.s. et donc Zn → ∞ p.s. D’autre part, on a E(1{W∞ } − 1{T =∞} ) = q − q = 0 et, par
positivité, on a ainsi 1{W∞ >0} = 1{T =∞} p.s. Comme expliqué ci-dessus, lorsque T =
∞, la population voit sa taille exploser, avec l’équivalent mn W∞ . L’exponentielle mn
capture la croissance moyenne alors que W∞ , qui est aléatoire et dont la distribution
est non-triviale, capture les fluctuations initiales.

7. Lorsque m < 1, nous avons T < ∞ p.s. puis Zn = 0 et donc Wn = 0 pour n


suffisamment grand p.s. On obtient ainsi Wn → 0 = W∞ p.s. On a E(W∞ ) ̸= E(W0 ) donc
ce ne peut pas être une martingale fermée.

Le point de vue des chaı̂nes de Markov


Nous nous focalisons à nouveau sur cas le plus intéressant ξ(0) > 0 et ξ(0) + ξ(1) < 1.

84
8. Réinterprétons l’égalité E(rZn+1 | Fn ) = φ(r)Zn en termes de chaı̂ne de Markov : par
interversion série-espérance conditionnelle positive, nous obtenons p.s.
X X X
rk E(1{Zn+1 =k} | Fn ) = rk 1{Zn =l} αk (l) ,
k∈N k∈N l∈N

où αk (l) est le coefficient de rk dans la série entière de φl . On a ainsi égalité presque sûre
au niveau des indicatrices :

E(1{Zn+1 =k} | Fn ) = αk (Zn ) .

Donnons une description de αk en termes des convolutions de la loi ξ. La convolution l-ième


· · + Xl,n . On a d’autre part φ(r)l = E(rX1,n +···+Xl,n )
de ξ est la loi de la variable X1,n + ·P
et donc par transfert, on a φ(r) = k∈N ξ ∗l (k)rk . On a ainsi αk (l) = ξ ∗l (k). On a alors
l

pour f bornée mesurable,

E(1{Zn+1 =k} | Fn ) = ξ ∗Zn (k) = p(Zn , k) .

Cela montre ainsi que (Zn ) est une chaı̂ne de Markov de loi d’entrée m = δ1 et de matrice
de transition Q = (p(i, j))i,j∈N avec p(i, j) = ξ ∗i (j).

9. On a Pn (T0 < ∞) ≥ p(n, 0) = ξ(0)n > 0 donc i → 0. En revanche i n’est pas


accessible par 0 car 0 est absorbant d’après la définition du processus Zn . La classe R = {0}
est donc récurrente et tous les autres états sont transients T = N∗ .

10. La classification des états implique que soit Zn entre dans la classe R à partir d’un
temps fini TR et y reste indéfiniment. Soit elle ne visite que chaque n ∈ N∗ qu’un nombre
fini de fois. Dans ce dernier cas, on a nécessairement limn→∞ Zn = ∞. En effet, pour
presque tout ω, pour tout N ∈ N, il existe n0 (ω) tel que Zn sort de {1, 2, · · · , N − 1}
pour n ≥ n0 (ω). On a ainsi, selon que TR < ∞ ou TR = ∞ :

P(∃n ∈ N, ∀k ≥ n, Zn+k = 0) + P( lim Zn = ∞) = 1.


n→∞

Quelques compléments pour réfléchir


11.
1. Par définition, (Zn ) est (Fn )-adapté et est intégrable (preuve par récurrence comme
précédemment). On a de plus, pour les mêmes raisons que sous P :
X
EQ (rZn+1 | Fn ) = 1{Zn =k} EQ (rX1,n rX2,n +···+Xk,n )
k∈N
X rφ′ (r) rφ′ (r)
= 1{Zn =k} φ(r) k−1
= φ(r)Zn −1
k∈N
m m

Le processus (Zn ) ne s’éteint jamais car P(X1,n = 0) = 0 donc il y a toujours au


moins un survivant à la génération suivante !

85
2. Nous avons déjà vu que Wn+1 est intégrable donc Wn+1 rZn+1 l’est aussi pour r ∈
[0, 1]. On a de plus
X  1 n+1
E(rZn+1 | Fn ) = 1{Zn =k} EQ ((X1,n + · · · + Xk,n )rX1,n +···+Xk,n )
k∈N
m
X 1{Zn =k} rφ′ (r)
= krφ′ (r)φ(r)k−1 = Wn φ(r)Zn −1
k∈N
mn+1 m

3. Commençons par une remarque simple déjà utilisée précédemment : la fonction


r 7→ E(rZn +1 | Fn ) est une série entière dont on peut extraire tous les nombres
E(1{Zn+1 =k} | Fn ). Montrer la formule demandée revient, quitte à décomposer sur
les indicatrices, à montrer que pour tout vecteur (r0 , r1 , · · · , rn ) dans [0, 1]n+1 , il
sufft de montrer que

EQ (r0Z0 r1Z1 · · · rnZn ) = E(Wn r0Z0 r1Z1 · · · rnZn ) .

Procédons par récurrence. Le résultat est trivialement vrai pour n = 0 puisque


Z0 = 1, Q-p.s. et P-p.s. Supposons que la propriété soit vraie au rang n. Nous
avons
Z Z
E(Wn+1 r0Z0 r1Z1 · · · rn+1
n+1
) = E(r0Z0 · · · rnZn E(rn+1
n+1
Wn+1 | Fn ))
rn φ′ (rn )φ(rn+1 )Zn −1
= E(r0Z0 · · · rnZn Wn )
m
L’hypothèse de récurrence donne alors

Z rn φ′ (rn )φ(rn+1 )Zn −1


E(Wn+1 r0Z0 r1Z1 · · · rn+1
n+1
) = EQ (r0Z0 · · · rnZn )
m
Le même calcul sous Q donne le même résultat et le résultat est prouvé.
La formule présente montre ainsi que EQ (1A ) = E(Wn 1A ) pour tout A ∈ Gn et
ainsi la densité de Radon-Nikodým de Q par rapport à P sur Gn est donnée par Wn .
Un tel procédé permet ainsi d’étudier un processus qui s’éteint P-p.s. en considérant
un second processus qui survit éternellement sous une probabilité modifiée !

86

Vous aimerez peut-être aussi