Académique Documents
Professionnel Documents
Culture Documents
1 Mise en scène 4
1.1 Probabilité et espérance conditionnelle par rapport à un événement . . . . . 4
1.2 Les lois de la probabilité et de l’espérance totale . . . . . . . . . . . . . . . . 4
1.3 Variables aléatoires discrètes, continues et hybrides, et transformations . . . 5
1.4 Couples aléatoires et vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . 8
1.5 La loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.6 V.a. i.i.d. (variables indépendantes, identiquement distribuées), sommes des
v.a. i.i.d. et sommes aléatoires des v.a. i.i.d. . . . . . . . . . . . . . . . . . . 12
1.7 Variables aléatoires – au sense de Kolmogorov . . . . . . . . . . . . . . . . . 15
1.8 Le paradoxe des anniversaires (*) . . . . . . . . . . . . . . . . . . . . . . . . 17
1
5.6 Equations de stationnarité/invariance/équilibre global . . . . . . . . . . . . . 48
5.7 Un exemple de chaı̂ne reducible, avec plusieures classes de communication . . 50
5.8 Quelques exemples de modélisation par les chaı̂nes de Markov . . . . . . . . 53
5.9 Le paradoxe du singe savant . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.10 La dernière ampoule a s’éteindre, le coureur et la tortue, les statistiques
d’ordre, et la competition des exponentielles . . . . . . . . . . . . . . . . . . 58
5.11 Processus de Markov en temps continu(*) . . . . . . . . . . . . . . . . . . . 59
2
10.7 Problèmes d’entrainement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
10.8 Contrôle continu 2012 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
11 Martingales 115
11.1 Le théorème d’arrêt des martingales . . . . . . . . . . . . . . . . . . . . . . . 117
11.2 ”La martingale interdite” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
11.3 Comment justifier l’application du théorème d’arrêt des martingales ? Exemples122
11.4 Comment démontrer qu’un temps d’arrêt T est fini p.s. . . . . . . . . . . . . 124
11.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
12 Exercices de révision 130
13 Examen de probabilités avancées 2012-2013 140
3
Chapitre 1
Mise en scène
Remarque 1.1 a) est un cas particulier de b), correspondant a une variable indicatrice
X(w) = 11A (w).
4
Si on sait quelles sont les probabilitées d’un evenement A dans toutes les cas possibles
E1 , E2 , ...EI d’ une partition finie de l’espace probabilisé Ω = E1 ∪E2 ..., alors on peut trouver
aussi la “probabilite totale” en appliquant la loi des probabilités totales :
∑ ∑
P (A) = P (A ∩ Ei ) = P (Ei ) P (A | Ei )
Exercice 1.1 Un marchand vend des articles dont 30 % proviennent d’un fournisseur B1
et 70% d’un fournisseur B2 ; 6 % de la production de B1 est dèfectueuse, contre 3% pour B2 .
a. Calculer la probabilitè qu’un article choisi au hasard soit dèfectueux (considèrer que
l’article a des probabilitè 0.3 et 0.7 de provenir de chacun des deux fournisseurs, ce qui vous
met sur la voix pour l’utilisation de la formule des probabilitès totales). b. (la loi de Bayes)
Sachant que l’article est dèfectueux, quelle est la probabilitè qu’il provienne de B1 ? de B2 ?
(R : .018
.039
.)
Exercice 1.2 On jete trois monnaies de 10c, 20c, et 50c respectivement. Soı̂t Y la somme
des monnaies tombées face. a) Quelle est l’espèrance de Y ? (40c) b) Quelle est l’espèrance
de Y , en sachant que le nombre N des monnaies tombées face est deux ? (160/3 = 53.33)
Les exemples les plus importants des variables continues sont les variables uniformes,
Gaussiennes et exponentielles.
Exercice 1.4 Soit X une v.a. continue de loi uniforme sur [0, 1]. Déterminer les lois de
Zi = hi (x), i = 1, 2, où h1 (x) = 1 − x et h2 (x) = min(x, 1 − x).
5
Définition 1.3 Une variable aléatoire prenant un nombre au plus dénombrable des valeurs
xi s’apelle discrète.
Dans ce cas, la mesure µX (]a, b]) := FX (b) − FX (a) associé avec la variable est une
mesure de Dirac ∑
µX = pi δxi ,
i
Les exemples les plus importants des variables discrètes sont les variables binomiales,
géométriques et Poisson.
Exercice 1.5 Soit X une v.a. continue uniforme sur [0, 1] et p ∈]0, 1[.
1. Soit Y = 1I[X≤p] . Est-ce que la loi de Y est continue ?
Ind : Utiliser la méthode de l’exercice precedent, ou faire une ”simulation mentale” de
Y un grand nb. de fois, et deviner sa mesure.
2. Construire à l’aide de X une variable aléatoire Z prenant les valeurs a, b et c avec
probabilité p, q et r si p, q, r sont trois réels de [0, 1] tels que p + q + r = 1.
Donnez une formule pour Z, une pour sa mesure associée, et une pour la fonction de
répartition de Z.
1
Exercice 1.6 Soit X une variable qui suit la loi de Cauchy avec densité π(1+x 2 ) . Verifier
qu’il s’agı̂t d’une densité. Montrer que 1/X a la même loi que X. Déterminer la fonction de
répartition de T = max(X, 0) où . Est-ce que la v.a. T est continue (le cas échéant, donnez
sa densité) ?
∫Exercice
∞
1.7 Soit∫ X une variable continue positive. L’integration par parties EX =
∞
0
xf X (x)dx = 0 F̄X (x)dx − limx→∞ xF̄X (x) suggère l’existence d’une formule pour
l’espérance, à partir de la fonction de survie F̄X (x).
1. Proposer et démontrer un analogue de cette formule pour une variable discrète avec
valeurs X ∈ {0, 1, 2, ...}.
2. Démontrer une formule pour l’espérance d’une variable continue positive X, à partir
de sa fonction de survie F̄X (x).
R 1)∑ Le cas discret est simple, il s’agı̂t de changer l’ordre de sommation. On trouve :
EX = k≥1 P [X ≥ k].
2) Sur deuxième reflexion, ća marche egalement dans le cas (∫continu, )après avoir écrit
∫
l’espérance comme une integrale double E(X) = 0≤x f (x) 0≤u≤x du dx et appliqué
Fubini-Tonelli.
Remarque 1.2 Dans le cas continu, la formule de l’integration par parties suggère notre
nouvelle formule, mais ļa démonstration demande de considerer une limite qui n’est pas
immédiate. Par contre, le truc de passer a une integrale double et d’utiliser Fubini-Tonelli
rends le résultat immédiat.
Remarque 1.3 Cette formule est parfois – par exemple dans le cas des lois exponentielles et
géométrique – plus vite a appliquer que la formule classique (de conditionnement sur toutes
les valeurs possibles).
6
1. Calculer F̄Xa (x) = P [Xa > x]. Donner une formule pour la mesure µXa (dx).
2. Calculer
∫∞ E[Xa ], par 1) la definition de l’espérance et 2) par la formule E[X] =
0
F̄X (x)dx.
Remarque 1.4 Xa est une variable aléatoire hybride/melangée (avec une partie discrète,
et une continue).
{
F̄X (x) 0 ≤ x < a
R : 1. F̄Xa (x) = ,
0 a≤x
µXa (dx) =∫ fX (x)1I{0≤x<a} dx + F̄X (a)δ
∫ aa (dx)
a
2. EXa = 0 xfX (x)dx + aF̄X (a) = 0 F̄X (x)dx.
Exercice 1.9∑Soit X une variable continue positive, Y une variable discrète positive indépendante,
avec L(Y ) = 2i=1 ci δai et soit Xa = min[X, Y ].
1. Calculer la fonction de survie F̄Xa (x) = P [Xa > x]. Donner une formule pour la mesure
µXa (dx).
2. Proposer une généralisation où Y est une variable discrète arbitraire.
F̄X (x) 0 ≤ x < a1
R : F̄Xa (x) = c2 F̄X (x) = F̄Y (a1 )F̄X (x) a1 ≤ x < a2
0 a2 ≤ x
µXa (dx) =
fX (x)1I{0≤x<a1 } dx + c2 fX (x)1I{a1 ≤x<a2 } dx + (1 − c2 )F̄X (a1 )δa1 (dx) + c2 F̄X (a2 )δa2 (dx)
Exercice 1.12 Soit X une v.a. suivant la loi exponentielle de paramètre λ > 0. Quelle est
la loi de la v.a. Y = 1 + ⌊X⌋ ? (⌊x⌋ désigne la partie entière de x).
Exercice 1.13 Soit F une fonction de répartition absolument continue, et soit x un point
de continuité de f (x). Montrer que F est differentiable en x, et que
F ′ (x) = f (x)
7
1.4 Couples aléatoires et vecteurs aléatoires
Les probabilités deviennent plus intéressantes quand on a faire avec plusieures v.a., et le
cas le plus simple et celui des v.a. i.i.d., avec des probabilités (ou densités) conjointes qui sont
des produits des probabilités (ou densités) marginales. Rappelons aussi les probabilités (ou
densités) conditionnelles, définis comme quotients des probabilités conjointes et probabilités
marginales.
Exercice 1.14 On dispose d’un dé équilibré et d’une pièce de monnaie qui tombe sur pile
avec une probabilité p = 1/3. On lance le dé une fois puis on lance la pièce un nombre de
fois égal au chiffre obtenu avec le dé.
1. Si le dé est tombé sur le chiffre k, quelle est la probabilité de n’obtenir que des faces avec
la pièce ? D’obtenir au moins un pile ? (il s’agit donc de probabilités conditionnellement
au chiffre k obtenu avec le dé).
2. Utiliser la formule des probabilités totales pour déduire de a) la probabilité (non condi-
tionnelle) d’obtenir au moins un pile.
3. L’éspérance du nombre total des piles.
Exercice 1.15 Soit X, Y deux v.a. de Poisson independantes, des paramètres λ1 , λ2 .
1. Quelle est la loi de Z = X + Y ?
2. Pout tout entier n ≥ 0, déterminer la loi conditionelle de X sachant que Z = X + Y =
n.
3. Déterminer E (X | Z = n) , et E (X | Z) (”fonction de Doob”).
Exercice 1.16 Soit Z = (X, Y ) un couple aléatoire de densité donnée par fX,Y (x, y) =
ke−y si 0 < x < y et fX,Y (x, y) = 0 sinon.
1. Dessiner le domaine du plan sur lequel f n’est pas nulle. Calculer k.
2. Déterminer les densités marginales et conditionelles de X et Y. Ces variables sont-elles
indépendantes ?
8
3. Déterminer la loi de Y − X, puis celle de X/Y
R:
1. Soit T = {(x, y) : 0 ≤ x ≤ y}. k = ∫ 1
e−y dydx
=1
T
2.
( )( )
fX,Y (x, y) = e−y 1I{0≤x≤y} = e−x 1I{0≤x} e−(y−x) 1I{0≤y−x}
( )
( −y ) 1
= ye 1I{0≤y} 1I{0≤x≤y}
y
Donc, L(X) = Exp(1), L(Y − x|x) = Exp(1), L(Y ) = Γ(2, 1), L(X|y) = U nif [0, y]
3. L(Y − X) = Exp(1), L(X|Y ) = U nif [0, 1].
Exercice 1.17 Un point U est choisi uniformement sur [0, 1]. En suite, un point T est
choisi uniformement sur [0, U ].
1. Calculer la densité conjointe f (t, u) et dessiner le domaine du plan sur lequel elle n’est
pas nulle.
2. Quelle est la densité marginale de T et la probabilité que T > 1/2 ?
R. Dans cet exercice, l’espace des probabilités est le triangle {0 ≤ t ≤ u ≤ 1}, doté par
la mesure u1 dtdu. Utilisons la decomposition des probabilités marginales (1.4)
∫ 1 ∫ 1
1
fT (t) = fT /U =u (t, u)dtdu = 1It≤u du = log u|1t = − log t
u=0 u=0 u
∫1
De lors, P [T > 1/2] = 1 − log tdt = 12 (1 − Log2).
2
Une fois une loi marginale obtenue, ses espérances se calculent comme pour toutes les
lois. Rémarquer la loi ”chaı̂ne” pour les espérances :
∫ ∫ (∫ )
EY = yfX,Y (x, y)dxdy = yfY /X (y/x)dy fX (x)dx = E[E[Y /X]] (1.5)
x,y x y
Exercice 1.18 Couple aléatoire. Une étudiante donne rendez-vous à son ami entre 0 h.
et 1 h. On suppose qu’ils arrivent indépendamment et à des instants uniformément distribués
dans l’heure convenue. Les deux amis conviennent de n’attendre pas plus de 15 minutes (à
l’initiative du jeune homme, qui est habitué à la ponctualité douteuse de sa copine, mais
redoute sa susceptibilité). Soit X, Y les heures d’arrivée des deux copains, et A l’événement
que les deux se rencontrent.
1. Tracer graphiquement le domaine du plan où la densité conjointe fX,Y (x, y) est nonnule,
et le domaine du plan représentant l’événement A.
2. Quelle est la probabilité pour que les deux amis se rencontrent ?
3. Supposons que le jeune homme arrive à une heure donnée t. Quelle est la probabilité
qu’il rencontre sa copine ? Comment retrouver la réponse de la question précédente à
partir de ce nouveau résultat ?
R:
1. P [A] = P [|x − y|] ≤ 1/4] = 7
16
9
t + 1/4 t ≤ 1/4
2. P [A|X = t] = 1/2 1/4 ≤ t ≤ 3/4
5/4 − t t ≥ 3/4
∫1
P [A] = t=0 fX (t)P [A|X = t]dt.
Exercice 1.19 Soient X et Y deux v.a. indépendantes continues et positives, de densités
respectives p(x) et q(y).
∫z
1. Montrer que S = X +Y a une densité fS (z) = x=0 p(x)q(z − x)dx.
2. Qu’obtient-on si X et Y suivent la loi Exp(λ) ?
3. Qu’obtient-on si X et Y suivent respectivement les loi Exp(λ) et Exp(µ), λ ̸= µ ?
Exercice 1.20 Un système de trois composantes i.i.d. en parallèle, avec probabilité de fonc-
tionner p, fonctionne si au moins deux composantes fonctionnent. p est une variable de loi
uniforme U [0, 1]. Trouver la probabilité que le systême fonctionne.
Nous allons illustrer maintenant l’utilité de la loi des probabilités totales par un exemple
plus subtile.
Exemple en fiabilité : calcul des probabilités nonconditionnelles, par condi-
tionnement (”divide et impera”) Calculer la probabilité P [RF ] que le réseau suivant
fonctionne : (sans simplications algébriques !)
p p
p p
Figure 1.1 – p,r sont les probabilités que les composantes fonctionnent
Démonstration : Si X suit une loi exponentielle de paramètre λ > 0 alors pour tous
t, h ≥ 0 on a :
P ([X ≥ t + h] ∩ [X ≥ t]) P [X ≥ t + h]
P [X ≥ t + h | X ≥ t] = =
P [X ≥ t] P [X ≥ t]
F̄X (t + h) e−λ(t+h)
= = = e−λh = F̄X (h) = P [X ≥ h]
F̄X (t) e−λt
10
où F̄ = F̄X = 1 − FX .
Réciproquement , si on suppose que ∀t, h ≥ 0 , P [X − t ≥ h | X ≥ t] = P [X ≥ h] c’est-à-
dire :
∀t, h ≥ 0 , P [X ≥ t + h] = P [X ≥ t] P [X ≥ h] ,
alors la fonction de survie F̄ vérifie l’équation fonctionnelle
En prenant logarithmes, on trouve que la fonction f (x) = log(F̄ (x) vérifie l’équation
fonctionnelle
(∗∗) f (t + h) = f (t) + f (h) pour tous t, h ≥ 0
On utilise maintenant le résultat :
Théorème 1.2 Une fonction monotone f satisfaisant l’équation fonctionnelle
Remarque 1.6 Il suffit de supposer que la fonction f soit mesurable, mais alors le théorème
est beaucoup plus difficile à démontrer.
Montrons que f (1) ̸= 0 : si f (1) = 0 alors d’après ce qui précède f est nulle sur Q+ ,
or on sait que pour tout réel x > 0 , il existe r dans Q+ tels que r ≤ x , comme f est
décroissante, on aura alors 0 ≤ f (x) ≤ f (r) = 0 donc f (x) = 0 et f = 0, ce qui est faux.
Par conséquent les fonctions f et x 7→ (f (1))x = ex ln f (1) coı̈ncident sur Q+ , comme ces
fonctions sont continues sur R+ , on peut alors affirmer que ∀x ≥ 0 , f (x) = ex ln f (1)
On sait que limx→+∞ f (x) = 1 − limx→+∞ FX (x) = 0 donc ln f (1) < 0 et on peut écrire
que
∀x ≥ 0 , FX (x) = 1 − e−λx avec λ = − ln f (1) > 0
et on en déduit que la loi de X est une loi exponentielle
La fonction
P [X ≤ t + h | X ≥ t] f (t) F̄ ′ (t)
λ(t) := lim = =−
h→0 h F̄ (t) F̄ (t)
Exercice 1.21 Montrez que la seule loi avec un taux de hasard constant λ(t) = λ est la loi
exponentielle.
11
∫∞
Exercice 1.22 Montrez qu’à chaque fonction bornée λ : R+ − > R+ avec integrale 0 λ(u)du =
∫t
∞ on peut associer une loi de probabilité avec fonction de survie F̄ (t) = e− 0 λ(u)du et taux
de hasard λ(u).
Remarque 1.7 Le ”taux de hasard/mort” immédiat λ(0) coincide pour une variable positive
avec la densité f (0)
Fh ≈ f (0)h
est souvent utilisée pour conditionner sur une arrivée en temps continu avant h. Pour une
variable exponentielle X à paramètre λ par exemple, on utilise souvent
Fh ≈ λh,
Exercice 1.24 Soient X et Y deux v.a. discrétes, indépendantes et positives, de pmf respec-
tives p(x) et q(y).
∑
1. Montrer que S = X +Y a une pmf pS (z) = zx=0 p(x)q(z − x).
2. Qu’obtient-on si X et Y suivent la loi géométrique p(k) = q(k) = (1 − p)pk , k ≥ 0 ?
Exercice 1.25 Soit X une variable de loi Poisson de paramètre Y, où Y est une variable
de loi exponentielle de paramètre λ. a) Trouver la loi de X.
b) Trouver la loi conditionelle L[Y |X = k].
∑
Exercice 1.26 Soit T = N i=1 Zi , où Zi sont des variables exponentielles i.i.d de paramètre
λ, et N est indépendante de Zi , avec P [N = k] = (1 − p)pk−1 , k = 1, 2, .... Détérminer la
fonction génératrice des moments de T, et sa fonction de survie.
∑∞
R : EesT = k=1 (1 − p)pk−1 ( 1+s/λ
1
)k = (1 − p)( 1+s/λ
1
) 1−p( 11
)
= 1−p
1−p+s/λ
= 1
1+s/(λ(1−p))
1+s/λ
12
Exercice 1.27 Soit S une variable binomiale avec paramètres N, p, où N, p peuvent-être
des variables alèatoires. Détérminer la loi de S, si
a) N est une variable de Poisson avec paramètre λ
b) N est une variable binomiale avec paramètres n, q
c) (*) p est une variable de loi U [0, 1].
R:
∑ k ∑∞
a) P [S = k] = ∞ (λ(1−p))n−k k
−λ λn
n=k e
n!
n! (n−k)!k!
pk (1 − p)n−k = e−λ (λp)
k! n=k (n−k)!
= e−λp (λp)
k!
1 ∑ ∞
= (k + 1)xk ,
(1 − x)2 k=0
∑∞
si |x| ≤ 1, en differenciant 1
(1−x)1
= k=0 xk .
1 1
2. Calculer le developpement limité autour de x = 0 de , en differenciant =
∑∞ k (1−x)3 (1−x)1
k=0 x .
3. Pour n ∈ N et |x| ≤ 1, montrer que
∑∞ ( )
1 n+k k
= x ,
(1 − x)n+1 k=0
k
1
∑∞
en differenciant (1−x)1
= k=0 xk .
P (z) = (1−p)2 (1+pz+p2 z 2 +pk z k ...)(1+pz+p2 z 2 +pk z k ...) = (1−p)2 (1+2pz+3p2 z 2 +...,
avec l’interpretaion qu’il faut choisir la place de la première parmi les k + 1 lancées
qui precedent la deuxième pile.
2. Pout tout entier n ≥ 0, déterminer la loi conditionelle de X sachant que Z = X + Y =
n.
3. Déterminer E (X | Z = n) et la fonction de Doob h(Z) = E (X | Z).
13
4. Calculer la loi (binomiale négative) d’une somme des r v.a. géométriques Yi indepen-
dantes, des paramètres p. Donner une interpretation combinatoire du résultat.
R : Nous allons effectivement redecouvrir ici l’expansion binomiale negative de Newton.
Començons par la fgp d’une somme des trois v. géométriques, qui est
α(α − 1) 2 2
(1 − pz)−1 = 1 − (−1)pz + p z − ... = 1 + pz + p2 z 2 + ...
2
est juste la série géométrique, donc la formule tienne aussi dans ce cas, sauf que l’expansion
est infinie. A partir de α = −1, on demontre par récurrence, comme ci-dessus, que la
formule tienne pour k = −2, −3, .... Il s’avère que la formule binomiale gńéralisée de Newton
est valable pour chaque α ∈ C, si |pz| < 1. http ://en.wikipedia.org/wiki/Binomial series
Exercice 1.30 Soit S une variable binomiale negative avec paramètres N, p, i.e.
( )
r+k−1 r(k)
P [S = k|N = r] = (1 − p)r pk = (1 − p)r pk ,
k k!
où N est une variable alèatoire géométrique avec paramètre β, et r(k) := r(r + 1)...(r + k − 1).
Détérminer la loi de S.
14
1.7 Variables aléatoires – au sense de Kolmogorov
La loi d’une v.a. (variable aléatoire)=résultat d’un experiment aléatoire X (le vecteur
des probabilités dans le cas discret et la densité au cas continu) permet a priori de repondre
a toutes les questions concernant X.
De lors, les premiéres trois siecles de l’histoire des probabilites ont été concerné exclusi-
vement avec ce qu’on apelle aujourd’hui les lois des probabilité (géométrique, exponentielle,
etc). Il s’agissait de preciser une tabèle f (x) associant aux valeurs possibles x de la va-
riable des ”poids de probabilités” correspondants (alternativement, on donnait la fonction
de répartition cumulative F (x), la fonction de survie F̄ (x) = 1 − F (x), ou la fonction gene-
ratrice des moments/charactèristique).
Tout ça a changé quand Kolmogorov a remarqué que la description de la formule produi-
sant le résultat X à partir de ”l”ensemble mère Ω” des toutes les experiments(éventualités)
possibles produisant la variable X pourrait être utile en lui même parfois, et cette observa-
tion a changé le sense du concept d’une variable aleatoire. La definition moderne identifie
une variable aléatoire avec une fonction définie sur un ”ensemble mère” Ω (des toutes les
éventualités possibles), doté par une mesure mère” P .
PX (B) = P [X −1 (B)], ∀B ⊂ V,
15
Question 1 Soit Un la loi de la variable uniforme avec valeurs { n1 , n2 , ..., nk , ..., nn = 1}.
Comment simuler cette loi ?
Exercice 1.31 Calculer l’espérance de la variable uniforme avec valeurs { n1 , n2 , ..., nk , ..., 1},
ainsi que sa transformée de Laplace et fonction génératrice des probabilités, à partir de
1. la loi induite Un
2. la mesure mère P .
Les avantages de la definition de Kolmogorov apparaitront plus tard dans l’étude des
ensemble infinies des v.a. (les processus stochastiques) § . Mais un premier avantage peut
être deja perçu en considerant la convergence ”en loi” des lois Un quand n → ∞ (vers la loi
uniforme sur [0, 1]). Même que cette exercice n’est pas difficile, il est encore plus facile de
verifier la convergence des fonctions de Kolmogorov
⌈nu⌉
lim fn (u) = lim =u
n→∞ n→∞ n
(et de remarquer que la fonction u induit la loi uniforme sur [0, 1]).
Finalement, l’avantage principal de la définition de Kolmogorov est d’assimiler les va-
riable aléatoires et les fonctions, qui sont les charactères principales de l’analyse. Depuis
Kolmogorov, les probabilités et l’analyse restent sur les mêmes fondations.
Exercice 1.32 1. Soit X une variable aléatoire de loi uniforme sur [0, 1]. Déterminer la
fonction de répartition de Y = −ln(1 − X).
2. Soit X une variable aléatoire de loi uniforme sur [0, 1]. Déterminer la fonction de
répartition de Y ∫= F −1 (X), oú F (y) est une fonction de répartition absolumment
y
continue F (y) = −∞ f (u)du arbitraire.
3. Montrer que la v.a. X = F∫ [Y ], où Y est une v.a. avec fonction de répartition abso-
y
lumment continue F (y) = −∞ f (u)du arbitraire, a une loi uniforme sur [0, 1].
4. Preciser un triple de Kolmogorov (méthode de simulation) ayant comme loi induite la
loi exponentielle.
5. Preciser un triple de Kolmogorov ayant comme loi induite une loi avec fonction de
répartition absolumment continue F (x) arbitraire.
§. Au lieu de décrire les processus par ”familles consistentes des lois jointes”, il est plus satisfaisant de
voir toutes ces lois comme images d’une seule probabilité mère.
16
6. Preciser un triple de Kolmogorov (méthode de simulation) ayant comme loi induite la
loi géométrique de paramètre p.
Ind : Considerer la fonction f : [0, 1]− > R, f (u) = ⌊−λ−1 ln(u)⌋ + 1.
P [f (u) = k] = P [k−1 ≤ −λ−1 ln(u) < k] = P [e−λ(k−1) ≥ u > e−λk ] = e−λ(k−1) −e−λk =
(e−λ )k−1 (1 − e−λ ).
R:
∑
n
1 1 2 k 1 2 n−1
Qn = E[N ] = P [N ≥ k] = 1+(1− )+(1− )(1− )...(1− )+...(1− )(1− )...(1− )
k=1
n n n n n n n
Cf. Mathematica 5.2, il semble impossible de simplifier, ou de trouver une récurrence simple
satisfaite par cette suite. Par contre, il existe plusieures approximations asymptotiques, ob-
tenues souvent par des variations de la méthode de Laplace, qui donnent pour la valeur
1 + e365 ≈ 24, 6112 avec precision 10−4 !
Un peu d’histoire (*). Le premières résultats/questions sur l’approximation de la fonc-
tion de Ramanujan Qn (un cas particulier du taux de hasard Gamma) ont été implicitement
formulés comme ”exercices” par Ramanujan en 1911 et 1913 (première lettre à Hardy).
Ces exercices ont été resolus et peaufinés par Szegó, Watson (1928), Knuth (1962),
Flajolet et al (1992), et Jaansen, Leeuwaarden et Zwart (2007).
La fonction Qn donne aussi l’esperance du nombre d’essais N jusqu’a la repetition d’une
anniversaire, et le pb. d’approximer la mediane de N a été resolu par Brink (2012). Ce
dernier pb. date d’une observation de Davenport (1927), qui stipule que dans une classe de
23 etudiants, la probabilité d’avoir une coincidence d’anniversaires est plus grande que .5.
§. Voila aussi un autre scenario, ramenant à la même va : un pot contient n billets, numerotés 1, 2, ..., n.
On tire un billet et on le remet dans le pot. En suite un retire encore un, et ainsi de suite, en arretant au
premier moment quand un nombre deja tire reaparaı̂t. Soit N le nombre des billets vu précedant la première
reapparition.
17
L’interêt des probabilistes dans la fonction Qn de Ramanujan vient surtout du fait qu’elle
est intimement liée à la distribution de Poisson, car :
n−1
( n−1 )
−n n Q(n) −n n nn−2 nn−k
e =e + + ... + ... + 1 = P [P o(n) ≤ n − 1]
(n − 1)! (n − 1)! (n − 2)! (n − k)!
Rémarquons que
∫∞
P [P o(n) ≤ n − 1] γn (u)du xn−1
Q(n) = = n
, où γn (x) = e−x
P [P o(n) = n − 1] γn (n) Γ(n)
ou d’approximer
∫∞
P [P o(n) ≤ s] γs+1 (u)du
Qs (n) = = n
:= Bs−1 (n)
P [P o(n) = s] γs+1 (n)
est de grand interêt pratique dans la théorie des files d’attente, car Bs (n) represente la
probabilité de perte d’Erlang dans un systéme avec s serveurs et intensité des arrivées n.
La voie la plus simple pour obtenir de telles bornes passe par des representations inte-
grales. Par exemple, Ramanujan, voir aussi Flajolet et Sedgewick, pg 115, avait proposé
∫ ∞ √
−t πn 2
Qn = e (1 + t/n) dt ≈
n−1
+ + ...,
0 2 3
un cas particulier de ∫ ∞
Qn (s) = e−t (1 + t/n)s−1 dt ≈ ...
0
18
Chapitre 2
s:conv Convergence des variables aléatoires
Ind : Pour les v.a. discrètes, la convergence en loi est équivalente a la convergence des
probabilités pn (k) = P [Xn = k].
ex:key Exercice 2 Soit Xn une v.a. de loi uniforme sur i/n, i = 1, ..., n. Montrer que Xn converge
en loi vers X de loi uniforme sur [0, 1], par toutes les trois méthodes de démontrer conver-
gence en loi.
∑ ∑
b) EesXn /n = ∞ k=1 e
sk/n
(1 − nλ )k−1 nλ = nλ ∞
k=0 (e
s/n
(1 − nλ ))k = nλ 1−es/n1(1− λ ) → 1
λ−s
, ∀s
∑⌈yn⌉ ∑ n
Exercice 4 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi uniforme
sur [0, 1] (i.e. fXn (x) = I[0,1] (x)). On pose Mn = max{X1 , . . . , Xn } pour n ≥ 1. Montrer que
L
n(1 − Mn ) −→ X et donner la fonction de répartition de X.
Généraliser pour Xn de loi arbitraire avec support [0, b].
Exercice 5 Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de loi exponentielle
E(λ) où λ > 0 (i.e. fXn (x) = λe−λx I(x > 0)). On pose Mn = max{X1 , . . . , Xn } pour n ≥ 1.
a. Déterminer la fonction de répartition de Mn .
b. Montrer que
FMn −λ−1 log n (x)
convergent vers une fonction F (x), et verifier que F (x) est une fonction de répartition.
c. Généraliser pour le cas de Xn de loi arbitraire avec support [0, ∞), qui satisfont limx→∞ F̄ (x)
e−λx
=
k > 0.
19
Exercice 6 Soit (Xn )n≥1 une suite de variables aléatoires réelles de f.d.r. FXn définies par
{
0 si x < 0,
FXn (x) = x− sin(2πnx)
2πn
si x ∈ [0, 1],
1 si x > 1.
2.0
1.5
1.0
0.5
20
Exercice 9 L’inégalité de Markov. Soit X une variable aléatoire, définie sur un espace
probabilisé, prenant des valeurs positives X ∈ I ⊂ R+ p.s. Alors
EX
b ∈ I =⇒ P [X ≥ b] ≤
b
b) L’inégalité de Markov généralisé. Soit f : I− > R une fonction croissante et
positive. Alors,
Ef (X)
b ∈ I =⇒ P [X ≥ b] ≤
f (b)
c) L’inégalité de Bienaymé-Tchebychev. Soit une variable aléatoire d’espérance m
et de variance finie σ 2 (l’hypothèse de variance finie garantit l’existence de l’espérance).
Montrer que pour tout réel strictement positif
1
b > 0 =⇒ P [|X − m| ≥ kσ] ≤
k2
Exercice 10 Soit (Xn )n≥1 une suite de variables aléatoires.
a. Montrer que si la suite converge en moyenne quadratique vers une variable aléatoire X,
alors elle converge aussi en moyenne.
Ind : Utiliser l’inegalité de Cauchy-Schwartz E|X| ≤ [E(X 2 )]1/2 .
b. Montrer que si la suite converge en moyenne vers une variable aléatoire X, alors elle
converge aussi en probabilité.
Ind : Utiliser l’inegalité de Markov
c. Montrer que si la suite converge presque partout vers une variable aléatoire X, alors elle
converge aussi en probabilité.
Ind : Utiliser la convergence dominée.
Exercice 11 Montrer que la convergence en probabilité implique convergence en loi.
Ind : Soit Cn,ϵ = {|Xn − X| ≤ ϵ}, ∫ Dn,ϵ = {|Xn − X| > ϵ},∫ oú ϵ est tq P [Dn,ϵ ] ≤ δ,
et φ(x) = eitx . E|φ(Xn ) − φ(Xn )| = Cn,ϵ |φ(Xn ) − φ(X)|dP + Dn,ϵ |φ(Xn ) − φ(X)|dP ≤
∫
Cn,ϵ
|φ(Xn − X)|dP + 2δ. Sur Cn,ϵ , Xn − X est bornée. Utilisant le fait qu’une fonction
continue sur un interval borné est uniformement continue, on aurait pu choisir ϵ aussi tq
φ(z) ≤ ϵ, ∀z ∈ [0, ϵ]. Pour ce choix, E|φ(Xn ) − φ(Xn )| < 3δ → 0.
21
b. En déduire une preuve de la loi faible des grands nombres en moyenne quadratique pour
des variables aléatoires i.i.d. de variance finie.
c. En déduire une preuve de la loi faible des grands nombres en probabilité, pour des variables
aléatoires i.i.d. de variance finie, par l’inegalité de Bienaymé-Tchebychev.
Remarque 2.1 Cette ”loi forte” des grands nombres, au sense de convergence presque par-
tout et dans L1 , et sans supposer rien de plus que l’existence du premier moment, a une
demonstration très compliquée, obtenue par Kolmogorov. Une demonstration étonnement
courte est possible en utilisant un théorème de convergence des martingales.
Exercice 15 Soit (fn )n≥1 une suite de fonctions définies par fn (x) = n3/2 1+nx2 x2 sur [0, 1].
a. Etudier la convergence ponctuelle sur [0, 1] de (fn )n≥1 .
b. Etudier la convergence uniforme sur [0, 1] de (fn )n≥1 .
∫
c. Montrer que limn→+∞ [0,1] fn (x)dx = 0. Est-ce qu’il s’agı̂t d’une convergence monotone
des fn (x) ?
2.0
1.5
1.0
0.5
22
2.5 Théorème de limite centrale
Le théorème de limite centrale, le premier grand théorème des probabilités, concerne la
convergence en loi de la fonction de distribution Fn (x) d’une somme des v.a. Zi i.i.d., avec
Var Z = σ 2 :
∑n
i=1 (Zi − EZi )
(L)
lim = N(0,1) , (2.1)
n→∞ σn1/2
i.e.
∑n
i=1 (Zi − EZi )
P [S̃n ≤ x] → Φ(x), S̃n = ,
σn1/2
où Φ(x) est la fonction de répartition de la loi normale.
Ce théorème a une longue histoire, qui commence par le théorème De Moivre-Laplace
des convergence des sommes binomiales– voir
http ://w3.mi.parisdescartes.fr/smel/articles/ etoiles/cadre etoiles.html
La demonstration a pris des siècles, avant d’arriver à la forme fuselée d’aujourd’hui.
Exercice 2.1 1. Montrer que la fonction génératrice des moments de la variable normale
est
2
EeuN0,v = evu /2 .
Remarquer le fait que la loi normale est characterisée
( uNpar) le fait que tous ses cumulants
(les coefficients du developpement limité de log Ee 0,v ) d’ordre plus grand que trois
sont nuls.
2. Calculer les premiers quatres moments de la loi normale directement par le developpe-
2
ment limité de la fonction génératrice des moments evu /2 , ou à partir des cumulants,
en utilisant les formules
(Ces formules sont obtenues par des developpements limités. En Mathematica par
exemple)
Series[Exp[κ1u + κ2 u2 /2 + κ3 u3 /6 + κ4 u4 /24], u, 0, 4]
Series[Log[1 + m1 u + m2 u2 /2 + m3 u3 /6 + m4 u4 /24], u, 0, 4]
23
Exercice 2.2 1. Soit X, Y deux variables i.i.d. ayant des moments d’ordre k. Montrer
que
κk (X + Y ) = κk (X)κk (Y )
∑n
Soit Sn = i=1 Zi une somme des variables i.i.d. ayant des moments d’ordre k. Mon-
trer que
κk (Sn ) = nκk (Z1 )
2. Conclure que les variables Zi ayant tous les moments d’ordre k = 1, 2, ... obeissent le
théorème de limite centrale (2.1).
3. (*) Montrer directement la convergence des premiers quatre moments (ou cumulants)
d’une variable binomiale centrée vers ceux de la variable normale.
Exercice 2.3 Démontrer le théorème de limite centrale en supposant que EZi3 < ∞.
Remarque 2.2 On verra que l’hypothèse EZi3 n’est pas finalement necessaire pour le CLT,
car il existe une meilleure majorization de r(x) – voir Lemme 2.1.
l:fd Lemme 2.1 Montrer que
∫ 6 3 ∫
t2 t tx
|φX (t) − (1 + itEX − E(X )) ≤ t (
2 2
dFX (x) + x2 dFX (x)) = o(t2 )
2 − 6t 6 x∈[−
/ 6t , 6t ]
24
2 ∫x 3 iu 3
Ind : eix − (1 + ix − x2 ) = r(x) = 0 (x − u)2 i e2 du, |r(x)| ≤ min[x2 , x6 ] (admis)
Il suit que le premier integral dans la Lemme 2.1 converge vers 0 par convergence dominée
(par x2 ), et le deuxième integral converge vers 0 par l’existence du deuxième moment.
Remarque 2.3 En généralisant cet argument on trouve que dans la presence des n mo-
2 (it)n
ments, il suit que |φX (t) = (1 + itEX − t2 E(X 2 )... + (n−1)! E(X n )) + o(tn )
R : 2. Xn ∼ B(pn )
4. Soit An,ϵ = {Xn ≥ ϵ}. La condition necessaire et suffisante pour avoir convergence
1, ∀ϵ. Dans notre
presque sûre (en fait la définition) est P [{An,ϵ i.s.}] = 0 ⇐⇒ P [{Acn,ϵ p.t.}] =∏
exercice, An,ϵ = An , ∀ϵ < 1, ∑et P [{An p.t.}] = limk→∞ P [∩n=k An ] = limk→∞ ∞
c ∞ c
n=k (1−pn )] = 1
ssi le produit converge, ssi ∞ n=1 np < ∞.
25
∑
b) P [An ] < ∞ ⇐⇒ P [{An r.i.}] = P [∩∞ ∞
n=1 ∪k=n An ] = 0
n
⇐⇒ P [{Acn p.t.}] = P [∪∞ ∞
n=1 ∩k=n An ] = 1
c
∑
c) P [An ] = ∞ ⇐⇒ P [{An r.i.}] = P [∩∞ ∞
n=1 ∪k=n An ] = 1
n
⇐⇒ P [{Acn p.t.}] = P [∪∞ ∞
n=1 ∩k=n An ] = 0
c
Exercice 21 Soit (Xn )n≥1 une suite de vecteurs aléatoires à valeurs dans Rd .
a. Soit (Xn )n≥1 une suite de v.a. réelles i.i.d. telle que E(X1k ) = µk pour k = 1, 2.
Déterminer la limite presque sûre de
1 ∑( )2
n
Sn = Xi − X̄n .
n i=1
b. Soit (Xn )n≥1 une suite de v.a. réelles i.i.d. telle que E(X1k ) = µk pour k = 1, 2 et µ2 > 0.
Déterminer la limite presque sûre de
X1 + · · · + Xn
.
X12 + · · · + Xn2
p.s.
Ind : Si Xn −→ X où X est un vecteur aléatoire à valeur dans D ⊂ Rd et f : Rd → Rk
p.s.
est continue sur D, alors f (Xn ) −→ f (X).
Exercice 22 Soit (Xn )n≥1 une suite de variables aléatoires i.i.d. de loi U(0, 1).
P
a. Montrer que X(n) −→ X ∼ δ1 .
p.s.
b. Montrer que X(n) −→ X ∼ δ1 .
L
c. Montrer directement que X(n) −→ X ∼ δ1 .
Exercice 23 Soit (Xn )n≥1 une suite de variables aléatoires à valeurs dans {−1, 1} telle que
P (Xn = 1) = p ∈]0, 1[\{1/2}. On appelle marche aléatoire la ligne brisée reliant les points
(n, Sn )n≥0 où Sn = X0 + X1 + · · · + Xn avec X0 = 0 pour n ≥ 0.
a. Tracer les graphe de la marche aléatoire pour lorsque les 10 premières observées de
(Xn )n≥1 sont −1, −1, 1, 1, 1, −1, 1, −1, 1, 1.
b. On note An = {Sn = 0}. Calculer P (An ).
c. Montrer que la série de terme général P (An ) est convergente.
d. Montrer qu’avec probabilité 1, la marche aléatoire traverse l’axe des abscisses un nombre
fini de fois.
Exercice 24 Soit (Xn,1 , Xn,2 )n≥1 une suite de vecteurs aléatoires. Montrer qu’il y a équivalence
entre :
p.s.
(i) Xn,i −→ Xi pour i = 1, 2.
p.s.
(ii) (Xn,1 , Xn,2 ) −→ (X1 , X2 ).
26
2.7 Exercices
1. Soit (Xn )n≥1 une suite de variables aléatoires qui converge en probabilité vers une
variable aléatoire X.
a. Montrer que P (A\B) ≥ P (A) − P (B).
b. Montrer que pour ε > 0 on a
4. Soit (εn )n≥1 une suite de variables aléatoires indépendantes et identiquement dis-
tribuées de loi N (0, σ 2 ) où σ 2 > 0. Soit a ∈]0, 1[ et (Xn )n≥0 une suite de variables
aléatoires telle que X0 = x0 presque sûrement et Xn = aXn−1 + εn pour n ≥ 1.
a. Montrer que pour n ≥ 1
∑
n−1
n
Xn = a x 0 + ak εn−k .
k=0
27
Solution : Pour n = 1 on a X1 = ax0 + ε1 = aX ( 0n + ε1 .∑Supposons )la relation
vraie au rang n ≥ 1 alors Xn+1 = aXn + εn+1 = a a x0 + k=0 a εn−k + εn+1 =
n−1 k
∑ ∑ ′
an+1 x0 + n−1
∑ k=0 ak+1 εn+1−(k+1) +εn+1 = an+1 x0 + nk′ =1 ak εn+1−k′ +εn+1 = an+1 x0 +
n k′
k′ =0 a εn+1−k′ . Donc relation établie par récurrence.
L
b. Déterminer la loi de Xn et montrer que Xn −→ X où X ∼ N (0, σ 2 /(1 − a2 )).
Solution : Xn étant une combinaison linéaire de variables aléatoires normales
indépendantes, elle est normale de moyenne et variance : E(Xn ) = an x0 et
var(Xn ) = σ 2 (1 + a2 + · · · + a2(n−1) ) = σ 2 (1 − a2n )/(1 − a2 ). Donc si Φ est la
fdr d’une loi N (0, 1) on a pour tout x ∈ R
( ) ( √ )
x − an x0 x 1 − a2
P (Xn ≤ x) = Φ √ →Φ
σ (1 − a2n )/(1 − a2 ) σ
5. Soit (Xn )n≥1 une suite de variables aléatoires indépendantes et identiquement dis-
tribuées suivant une loi de Poisson de paramètre λ > 0.
a. Calculer E[X1 ] puis E[X1 (X1 − 1)]. En déduire µ2 = E[X21 ].
∑ ∑
Solution : E[X1 ] = k≥0 k λk! e−λ = λ k≥1 (k−1)!
λk−1 −λ
e = λeλ e−λ = λ. De même on
k
∑ ∑
obtient E[X1 (X1 − 1)] = k≥0 k(k − 1) λk! e−λ = λ2 k≥2 (k−2)!
λk−2 −λ
e = λ2 eλ e−λ = λ2 ,
k
28
p.s. p.s.
(i) Montrer que µ̂2 −→ µ2 et µ̃2 −→ µ2 .
Solution : Comme les Xi2 sont i.i.d. et admettent une espérance mathématique
p.s.
égale à λ2 +λ on a µ̂2 −→ λ2 +λ = µ2 d’après la loi forte des grands nombres.
Comme les Xi sont i.i.d. et admettent une espérance mathématique égale à
p.s.
λ on a X̄n −→ λ d’après la loi forte des grands nombres. Or µ̃2 = g(X̄n )
où g : x 7→ x(x + 1) est continue sur R. Donc d’après le théorème des
p.s.
applications continues µ̃2 = g(X̄n ) −→ g(λ) = µ2 .
√ L
(ii) Montrer que n(µ̂2 − µ2 ) −→ X où l’on précisera la loi de X.
Solution : Les v.a. Xi2 étant i.i.d. et admettant une moyenne µ2 et une va-
riance 4λ3 + 6λ2 + λ une application directe du théorème de la limite centrale
donne √ L
n(µ̂2 − µ2 ) −→ X ∼ N (0, 4λ3 + 6λ2 + λ).
√ L
(iii) Montrer que n(X̄n − λ) −→ Y où l’on précisera la loi de Y .
Solution : Les v.a. Xi étant i.i.d. et admettant une moyenne λ et une variance
λ une application directe du théorème de la limite centrale donne
√ L
n(X̄n − λ) −→ Y ∼ N (0, λ).
√ L
(iv) Déduire de la question précédente que n(µ̃2 − µ2 ) −→ Z où l’on précisera
la loi de Z. √ √
Solution : remarquons que n(µ̃2 − µ2 ) = n(g(X̄n ) − g(λ)) où g est définie
√ L
par g(x) = x(x + 1) sur R. D’après la question (iii) n(X̄n − λ) −→ Y , de
plus g est continûment dérivable sur R, donc les hypothèses du théorème de
la δ-méthode sont réunies et on a
√ L
n(g(X̄n ) − g(λ)) −→ g ′ (λ)Y = Z.
c. Soit (Xn )n≥1 une suite de variables aléatoires i.i.d. de loi U(a, b) avec a < b. Soit
Sn = X1 + · · · + Xn pour n ≥ 1.
a. Déterminer la loi approchée de Sn lorsque n → +∞.
b. Déterminer la loi approchée de Sn3 lorsque n → +∞.
√
c. Déterminer la limite en loi n (exp(Sn /n)Sn /n − exp((a + b)/2)(a + b)/2) lorsque
n → +∞.
d. Soit (Xn )n≥1 une suite de variables aléatoires i.i.d. de loi B(x) où x ∈ [0, 1] et
f : [0, 1] 7→ R continue. On note
Sn = (X1 + · · · + Xn )/n
29
et pour δ > 0
ω(f, δ) = sup |f (x) − f (y)|
|x−y|≤δ
le module de continuité de f .
a. Déterminer Bn (f, x) = E[f (Sn )].
b. Donner une majoration de P (|Sn − x| > δ).
c. Démontrer que si fn est définie sur [0, 1] par fn (x) = Bn (f, x) alors
e. Soit (Xn )n≥0 une suite de variables aléatoires i.i.d. de moyenne µ et de variance
σ 2 < +∞. On pose pour a ∈ R et n ≥ 1, Yn = aXn +Xn−1 et Sn = (Y1 +· · ·+Yn )/n.
Déterminer la limite en probabilité de (Sn )n≥1 lorsque n → +∞.
6. Soit Y ∼ γ(α, p) = (xp)α−1 e−px p, et soit (Xn )n≥1 une suite de variables aléatoires i.i.d.
de loi N (0, 1).
(a) Déterminer la fonction génératrice des moments et la fonction caractéristique de
Y.
(b) Déterminer la densité d’une loi du chi-deux à 1 degré de liberté. De quelle loi
gamma s’agit-il ?
∑
(c) Quelle est la loi de Yn = nk=1 Xk2 (loi du chi-deux à k ∈ N∗ degrés de liberté) ?
(d) Quelle est la limite en loi de (Yn /n)n≥1 ? [Est-ce que le résultat est en accord avec
la loi des grands nombres ?]
√
(e) Quelle est la limite en loi de ((Yn − n)/ n)n≥1 ? En déduire une approximation
de la fonction de répartition de Yn lorsque n → +∞.
(n) (n)
(f) Soit n ≥ 1 et Z1 , . . . , Zk k variables aléatoires indépendantes de loi géométrique
(n) (n)
de paramètre 1/n. On pose Sn = Z1 + · · · + Zk (une v.a. binomiale negative)
et Un = 2Sn /n. Montrer que (Un )n≥1 converge en loi vers une v.a. U dont on
déterminera la distribution.
30
Chapitre 3
Esperance conditionnelle par rapport
a des tribus et variables arbitraires
E (X | A1 ) si w ∈ A1
∑ E (X | A2 ) si w ∈ A2
E (X | Y ) (w) = E (X | Y = yi ) 11{Y =yi } (w) = . (3.2)
..
i∈I
E (X | A ) si w ∈ A
I I
31
2. Le coté droit de l’égalité (3.2) depend de Y seulement par la tribu σ(Y ) = {A1 , ..., AI }
engendrée par Y (i.e. la tribu minimale par rapport a la quelle Y est mesurable) et
pas sur les valeurs spécifiques yi . Par conséquent, elle defini plutot E [X | σ(Y )] , ce
qui sugère de voir (3.2) plutôt comme une définition de E [X | B] , où B est la tribu
engendrée par la partition. En suite,
Définition 3.1 Pour toute variable aléatoire discrète Y on definira l’espérance condi-
tionnelle de X par rapport à Y par
Remarque 3.1 Si nous savions aussi definir E[X | B], où B est une tribu arbitraire,
nous saurions immédiatement par la même stratégie definir E[X | Y ] = E [X | σ(Y )] ,
où Y est une v.a. arbitraire.
3. Pour Y discret, une propriété intéréssante de léspérance conditionnelle (3.2) est :
∫ ∫
E (X | Y ) dP = E (X | Ai ) P [Ai ] = XdP, ∀Ai ∈ σ(Y )
Ai Ai
Kolmogorov a introduit une définition générale (mais non constructive) de E[X | B],
comme une v.a satisfaisant aux propriétés ci-dessu –voir la prochaine section. L’unicité de
cette definition vient de :
l:z Lemme 3.1 Si une variable X ∈ B satisfait
∫
X = 0, ∀B ∈ B, alors X = 0 p.p.
B
Kolmogorov a introduit l’espérance conditionnelle par rapport à une sous tribu B (ou
une variable Y ) arbitraire, pas forcement discrète comme une fonction satisfaisant cette
propriété :
t:K Théorème 3.1 - (définition de l’espérance conditionnelle pour des tribus arbitraires) -
Soit X une variable aléatoire réelle intégrable définie sur (Ω, A, P ) . Alors
1. Pour toute sous tribu B il existe une variable aléatoire appelée espérance conditionnelle de X
sachant B, et notée E (X | B) ou E B (X), telle que :
32
Finalement, la probabilité conditionnelle par rapport à une tribu est juste un cas parti-
culier de l’espérance conditionnelle :
P (A | B) = E (11A | B)
Idée intuitive : On a defini ainsi l’espérance conditionnelle E[X|B] avant qu’on sait
dans quel ensemble B ∈ B (ou dans quelle partie d’une partition finie B = A1 ∪ A2 ...) on se
trouve. Le résultat est une variable aléatoire representant toute l’information qu’on pourra
obtenir plus tard sur X quand on va decouvrir le cas Ai qui s’est passé.
Bien sur, après avoir decouvert l’ensemble Ai , l’espérance conditionnelle de X devienne
juste une moyenne ponderée
∫
1
E (X | Ai ) = XdP.
P (Ai ) Ai
Avant de connaitre le cas pourtant, l’espérance conditionnelle est elle même une variable aléatoire,
mesurable par rapport a la tribu plus “grossiere” B, ce qui revient à dire dans le cas ou B
est fini qu’elle est constante sur les ensembles generateurs de B.
Remarque 3.2 (*) Il n’y a pas d’unicité ”absolue” de E (X | B), mais seulement p.s.-
P . Chaque v.a. vérifiant (i) et (ii) est appelée une version de l’espérance conditionnelle.
Toutefois, deux versions
∫ Y1 et ∫Y2 sont presque-sûrement égales (p.s. ou p.p.-P ) par la lemme
3.1, car ∀B ∈ B , B Y1 dP = B Y2 dP .
Il y a donc unicité p.s.-P et on parle de l’espérance conditionnelle en choisissant l’une
des versions.
Exemples : 1 B = {∅, Ω} :
Soit X une v.a.r. intégrable.
(i) ⇒ E (X | B) = k constante réelle.
• Supposons que X ≥ 0 : on définit une mesure positive ν sur B en posant :
∫
∀B ∈ B , ν (B) = XdP
B
Comme X est intégrable, ν est une mesure finie et elle est absolument continue par rapport à P (en effet : P (B) =
0 ⇒ ν (B) = 0 car on intègre sur un ensemble négligeable). D’après le théorème de Radon-Nikodym, il existe une fonction f ,
B-mesurable et intégrable telle que : ∫
∀B ∈ B , ν (B) = f dP
B
(en toute rigueur, on devrait écrire P|B au lieu de P mais ces deux mesures coı̈ncident sur B ...). Il est alors clair que f
vérifie les propriétés (i) et (ii).
• Si X n’est pas positive alors on écrit X = X + − X − avec X + = Sup (X, 0) et X − = Sup (−X, 0) = −Inf (X, 0) . Les
variables X + et X − sont alors positives (et intégrables) et on pose alors :
( ) ( )
E (X | B) = E X + | B − E X − | B
Remarque : Si X est dans L2 (Ω, A, P ) espace de Hilbert, alors on peut également définir E (X | B) = E B (X) comme la
projection orthogonale de X sur le sous-espace vectoriel fermé L2 (B) formé des classes d’équivalences f (pour l’égalité p.s.) des
éléments f de L2 (Ω, B, P|B ). Cet espace L2 (B) est souvent identifié à L2 (Ω, B, P|B ) car ils sont isomorphes (sans être forcément
égaux !).
33
D’où :
∫ ∫
E (X | B) dP = kdP = kP (Ω) = k
Ω ∫Ω
= XdP = E (X) d’après (ii)
Ω
E (X | B) = X
(le coté droit satisfait evidemment la définition de l’espérance conditionnelle, et l’unicité p.p.
est assuré par la Lemme 3.1).
Remarque 3.3 En prenant en (ii) pour B tout l’espace Ω, où en prenant U = 1 en (ii)
on obtient une loi ET
EE (X | B) = EX
34
3.2 Conditionnement par rapport à une tribu arbi-
s:va traire
Définition 3.3 Pour toute variable aléatoire Y on defini l’espérance conditionnelle de X
sachant Y par
E (X | Y ) = E [X | σ(Y )] , ∀Y ∈ σ(Y ). (3.4)
La difficulté d’appliquer cette définition consiste au fait qu’elle n’est pas explicite. Si
nous aurions une formule, il serait a priori facile de verifier qu’elle satisfait la definition.
Q : Mais comment trouver une telle formule ? L’exemple 2.4 et les exercices 2.6-2.17 de
Brzezniak nous montrent comment procéder, cas par cas...
Remarque 3.4 Exemple 2.4 decortiqué. L’exemple 2.4 pour le calcul de E (X | Y ) où
X = ξ(W ), Y = η(W ) est déconcertant par rapport à la specification traditionelle des v.a.
par densités/distributions de masse, et par rapport à la méthode traditionelle de calcul de
E (X | Y ) à partir de la distribution jointe. Mais, la distribution jointe n’est pas specifié dans
l’exemple, et ça ne rajoute pas grande chose a la calculer.
Par contre, l’exemple nous devoile un peu la vision alternative de Kolmogorov, qui rem-
place toutes les distributions jointes dans un problème par une seule variable monde/universelle
W ”traditionnelle” avec distribution P (dw). Les autres v.a. sont des fonctions specifiques de
W , et leur distributions sont induites par cette dependence fonctionnelle.
L’espérance conditionelle E (X | Y ) est très simple quand X = ξ(W ), Y = η(W ) sont
produits pas des fonctions injectives, car dans ce cas
L’exemple 2.4 nous illustre le cas où la variable monde est trés simple, car la mesure de
Lebesgue sur [0, 1] est juste la distribution d’une v.a. uniforme sur [0, 1], est la variable Y est
un mélange d’une variable discrète Y = 2 et une variable continue produite pas une fonction
injective identité. L’espérance conditionelle se construi en moyennant les valeurs de X sur
la partie discrète, et par composition des fonctions sur la partie continue.
Remarque 3.5 Le cas du conditionnement par des valeurs des variables continues
Y ou discrètes ramènent aux formules usuelles, comme
∫ ∫
xfX,Y (x, y)dx
E (X | Y = y) = φ(y) = xfX/Y (x/y)dx = ∫ (3.6)
fX,Y (x, y)dx
Aussi, les lois PT et ET pour le cas quand on conditionne sur les valeurs prises par une
variable réele discrète ou continue se reduisent aux formules bien connues :
35
∫
P (A) = P (A | Y = y) fY (y)dy,
∫ y
EX = E(X | Y = y) fY (y)dy
y
∑
EX = E(X | Y = yi ) P (Y = yi )
i
Exercice 3.3 Modelisation : Brzezniak Exercices 2.13 (parametriser sur [0, 1]2 ).
Exercice 3.4 Fonction de Doob-Dynkin : Brzezniak Exercices 2.7-2.9. Sol : Par (3.6),
∫
x(x + y)dx 1/3 + y/2 2 + 3y
E (X | Y = y) = φ(y) = ∫ = =
(x + y)dx 1/2 + y 3 + 6y
Nous avons vue deux cas simples où la fonction de Doob-Dynkin EX|Y = φ(Y) est
calculable : le cas (plutôt théorique) où les variables X, Y sont produites de la ”variable
monde par des fonctions injectives, et le cas où les variables X, Y ont une distribution joint
connue.
Exercice 3.5 L’exercice 2.6 ajoute un nouveau cas : η bijective. Une approche générale
pour determiner la fonction de Doob-Dynkin commence par fixer un ensemble infinitesimal
y + = [y, y + dy] des valeurs possibles de Y = η(w), et en suite par determiner l’ensemble des
preimages Ady = η −1 (y+ ) = ∪Ii=1 yi+ , où I est le nombre des images inverses correspondant a
P [yi+ ]
y + . En suite, on associe a chaque images inverse la mesure wi = ∑I + . Finalement,
i=1 P [yi ]
∑
I
φ(y) = ξ(yi )wi .
i=1
Dans l’exercice 2.6 la mesure wi est uniforme par symmetrie ce qui resulte en
ξ(y/2) + ξ(1 − y/2)
φ(y) = , y ∈ [0, 1].
2
Ou, comme y/2 = w pour w ≤ 1/2,
ξ(w) + ξ(1 − w)
E[X|Y](w) =
2
qui est valable en effet pour tout w ≤ 1.
Défi 1 : Repetons cet exercice, quand P est une mesure nonuniforme, par exemple avec
densité proportionelle à x−1/2 § .
Défi 2 (*) : Repetons cet exercice, quand η est la fonction de Cantor.
§. Soit Y une variable aléatoire définie sur (Ω, A, P ), à valeurs dans (Ω1 , A1 ) avec Ω1 ⊂ Rn et soit X
une variable aléatoire intégrable à valeurs dans (Ω2 , A2 ) avec Ω2 ⊂ R.
Alors on a : E (X | Y ) = φ (Y ) où φ est définie sur A = {y ∈ Ω1 ; fY (y) ̸= 0} par :
∫ ∫
[Y =y] [Y =y]
φ (y) = xdPX (x) = xfX (x) dµ2 (x)
où on a supposé pour la deuxième formule que PX admet une densité fX par rapport à une mesure σ-finie
µ2 sur Ω2 et que P(X,Y ) admet une densité f(X,Y ) par rapport à µ2 ⊗ µ1 où µ1 est une mesure σ-finie sur Ω1 .
36
Exercice 3.6 Brzezniak 2.14-2.15 (application de la definition de Kolmogorov), et 2.17.
Remarque 3.6 Il ne faut pas oublier que dans le cas continu, les fonctions conditionnelles
P (A | Y = y) , E(X | Y = y), f(X|Y ) (x | y) sont seulement definies p.p, et que en fixant une
valeure precise pour y on peut arriver a des contradictions, comme le paradoxe de Borel-voir
(Pitman, http ://www.stat.berkeley.edu/users/pitman/s205f02/index.html lec 15 : pour une
v.a. uniforme dans le demicercle x2 + y 2 ≤ 1, y ≥ 0 on a
3 1
lim P [Y ≥ 1/2||θ − π/2| ≤ α] = ̸= P [Y ≥ 1/2|θ = π/2] =
α→0 4 2
We will only establish this for discrete random variables and in its simplest form stating
that
37
∑ ∑ ∑
E E[X/Y ] = py E[X/Y = y] = py ( xpx/y )
y y x
∑ ∑ ∑
= xpy px/y = xpx,y = xpx
y,x y,x y
= E[X]
38
Chapitre 4
Processus et champs aléatoires, en
temps discret et continu
39
4.1 Premiers exemples des processus stochastiques
Les processus les plus simples sont les processus à variables i.i.d. Le cas particulier des
va avec un nb. fini des valeurs mérite une mention a part.
Définition 4.3 La famille des processus i.i.d. inclue les processus ”multi-Bernoulli” à va-
riables Xt ∈ {1, 2, ...K}, t ∈ Z, avec Xt i.i.d. ayant une loi discrète p = (p1 , p2 , ..., pJ ) qu’on
peut voir comme des resultats X0 , X1 , ..., Xt ... des jetées d’un dé ou d’une monnaie biaisée,
avec un nb fini des faces. Dans ce cas, les lois jointes sont simplement des produits de la loi
marginale p.
Exercice 4.1 Des femmes et des hommes arrivent dans un magasin, après des temps fixes,
unitaires. Chaque instant, une femme arrive avec probabilité λF , ou un homme arrive avec
probabilité λH , ou il n’y a pas d’arrivée, avec probabilité q = 1 − λF − λH . On a donc un
processus stochastique Xt ∈ {H, F, 0}, t ∈ N, defini par des distributions jointes produits de
la loi discrète (λH , λF , q). On considère le temps d’arrêt T = inf{t : Xt ∈ {H, F }}
a. Trouver la probabilité qu’une femme entre avant un homme, i.e.
P [XT = F ]
Indication : Conditionnez sur le premier instant t = 1, ou sur le nombre T d’instants jusqu’à
la première arrivée.
b. Trouver la probabilité que au moins trois femmes entre avant le premier homme, et
que exactement trois femmes entre avant le premier homme.
c. Reformulez et resolvez l’exercice en temps continu, en utilisant la ”competition des
exponentielles” de l’exercice 5.10.
Remarque 4.2 Dans cet exercice nous utilisons la très importante méthode de condition-
nenent sur le premier pas. Un autre exemple qui illustre son utilité est le calcul de l’espérance
m de la variable géometrique, i.e. du nombre des essaies necessaires jusqu’à lárrivée de la
première pile (en l’incluant). On a
1
m = p × 1 + (1 − p)(1 + m), =⇒ m =
1−p
Pour comprendre cette méthode, il est utile de dessiner l’arbre de toutes les possibilités,
en indiquant sur chaque branche a) la proba associée et b) la modification du ”côut” associée
(dans le cas des problèmes de nombre des essaies esperé, le côut est 1)
En suite, il y aura des branches la contribution des quelles peut être déterminée après
le premier pas, et des branches où on ”recommence” après le premier pas, après avoir tenu
compte du côut du premier pas.
Après les processus multi-Bernoulli et les sommes des v.a.’s independants, le prochaı̂ne
degré de complexité en modélisation est obtenu en utilisant les processus Markoviens.
En temps discret, ce sont des processus controlés par des ”monnaies biaisées”, qui de-
pendent du dernier résultat pour decider la prochaine position (i.e. la loi de Xt =la ”monnaie
jetée” depend de la position précédente Xt−1 ). En temps continu, ce sont des competitions
des competitions d’exponentielles qui decident la prochaine position.
40
Chapitre 5
Introduction aux processus de
s:Mark Markov
Cet exercice nous montre que les lois jointes ont une structure assez compliquée, en
général. La situation devienne plus simple pour les processus de Markov.
Définition 5.1 -Proprietè de Markov
Un processus X = (Xt )t≥0 , avec t unidimmensionel a la proprietè de Markov si, et
seulement si ses probabilités conditionelles ne depend pas du passé que par le passé imediat,
i.e.
P [Xt ∈ A | Xt0 = ei0 , ..., Xtk = eik ] = P [Xt ∈ A | Xtk = eik ]
∀ 0 ≤ t0 < t1 < · · · < tk < t , ti ∈ R, et ∀ ei0 , ei1 , ..., eik , ei ∈ E.
Un processus ayant la proprietè de Markov s’apelle processus de Markov.
Oz Exercice 5.2 Le temps au pays d’Oz. Soit Xn une chaı̂ne supposée (à tort) Markovienne
sur les états { pluie, nuageux, soleil}, avec matrice des transitions
( )
3/8 1/2 1/8
P = 1/6 1/2 1/3
0 1/4 3/4
Calculer :
41
1. La probabilité de pluie demain, en sachant qu’il est nuageux aujourd’hui
2. La probabilité de pluie demain et soleil le lendemain, en sachant qu’il est nuageux
aujourd’hui
3. La probabilité de soleil le lendemain, en sachant qu’il est nuageux aujourd’hui.
Remarque 5.1 La distribution de X1 conditionné par (en partant de) X0 = i, est donné
par la ligne i de la matrice P . Par conséquent, la réponse à la première question est 1/6.
La réponse à la deuxième question est 1/6 × 1/8 (par la loi d’evolution conditionée). La
troisième question concerne une transition après deux pas (sans s’interesser a la situation
après un pas).
Cette question nous suggère l’importance d’étudier les probabilités de transition entre
deux moments arbitraires.
Définition 5.3 Homogeneité des transitions Un processus est dit homogène si, et
seulement si :
∀ i, j ∈ I , ∀ 0 ≤ s ≤ t , pij (s, t) = pij (0, t − s) .
On note alors pij (s, t)= pij (t − s), et la matrice pij (t) est appellée matrice de transition
après temps t.
Remarque 5.2 La propriété P 1 = 1 des matrices stochastiques équivaut au fait que 1 est
une valeur propre, avec vecteur propre à droite 1.
Exercice 5.3 Montrez que si λ est une valeur propre d’une matrice stochastique P , alors
forcemment |λ| ≤ 1.
42
Ind : Pour fixez les idées, considérez d’abord le cas où n = dim(P ) = 2.En suite,
normaliser le vecteur propre v de λ tq son élément de valeur absolue maximale soit 1, et
utiliser l’équation P v = λv correspondant a ce vecteur.
Remarque 5.3 Même qu’on utilise parfois le terme ”matrice” si l’espace d’états E est
infini, la théorie dans ce cas est plus compliquée.
Exercice 5.4 Démontrer la ”loi d’evolution” pour les chaı̂nes de Markov homogènes
P [X1 = ei1 , X2 = ei2 ..., Xk = eik |X0 = ei0 ] = P (i0 , i1 )P (i1 , i2 )..., P (ik−1 , ik ),
En revenant a notre Exercice 5.2, conditionnons sur toutes les cas possibles aprés un
jour. On trouve :
∗ ∗ ∗ ∗ ∗ 1
1
8
1 11 11 13 7
(2) 1
P (N, S) = 6 2 3 1
∗ ∗ 3
= + + = = P 2 (N, S)
68 23 34 16
∗ ∗ ∗ 3
4
En conclusion, la réponse a la question sur la transition après deux pas se trouve dans
la matrice 43 15 59
192 32 192
P2 = 7
48
5
12
7
16
1 5 31
24 16 48
0.0982749 0.3665 0.535225 0.0979365 0.366194 0.53587
P 10 = 0.09786 0.366124 0.536016 , P 11 = 0.0977182 0.365996 0.536286
0.0972273 0.365551 0.537221 0.0973855 0.365695 0.53692
Clairement, y a convergence vers une matrice avec lignes egales (on démontrera ça plus tard
en utilisant la decomposition spectrale de P ).
L’exercice 5.2 illustre le resultat le plus important de la théorie des chaı̂nes de Markov :
Théorème 5.1 Les matrices de transition en n étapes ont une structure de semi-group, i.e.
43
Démonstration: Soit (Xn )n∈N une chaı̂ne de Markov homogène de matrice de transition
P et de loi initiale µ (0), à valeurs dans (E = {ei ; i ∈ I} , P (E)). En conditionnant sur la
position k après m pas, on a :
(m+n)
∑ (m) (n)
∀ i, j ∈ I , ∀ m, n ∈ N , pij = pik pkj
k∈I
QED
Corollaire 5.1 La matrice des probabilités de transition en n étapes (sans s’interesser dans
l’évolution intermediaire) est simplement la puissance n de la matrice de transition P :
P (n) = P n , i.e. le semi-groupe des matrices de transition est ”generé” par la matrice P
de transition après temps 1.
Définition 5.5 Soient ei et ej deux éléments de E. On dit que ei conduit à ej (on note
(n)
ei → ej ) ssi il existe n > 0 tel que pij > 0 et on dit que ei et ej communiquent (et on note
ei ↔ ej ) si ei conduit à ej et ej conduit à ei .
Définition 5.7 Une classe d’equivalence dans une chaı̂ne de Markov finie qui n’a pas de
transitions vers l’exterieur est dite récurente ; les autres classes s’appellent transientes.
Remarque 5.4 Les classes récurentes sont les classes maximales de la relation d’ordre in-
duite par → sur les classes.
Définition 5.8 Le graphe de communication d’une chaı̂ne est un graphe sur les états (in-
diqués par des points du plan), avec des cotés représentant les transitions possibles, ayant
des probabilité de transition pij > 0. Les transitions possibles sont indiqués par des flèches,
avec la valeur de la probabilité de transition notée parfois au dessus.
44
L’identification des classes récurrentes et transientes est souvent plus facile en inspectant
le graphe de communication, qui permet de determiner visuellement les classes de communi-
cation.
e:cl Exercice 5.5 Exemple d’une chaı̂ne avec des elements transients et récurrents.
L’espace des etats d’une chaine est S = 1, 2, 3, 4, 5, 6 et la matrice de transition est
0 14 12 14 0 0
0 1 01 0 02 0
0 0 0 3 0
P = 3
0 0 0 0 0 1
0 0 1 0 3 0
4 4
1
4
0 0 0 34 0
a) Dessinez le graphe de communication.
b) Identifiez les classes de la chaîne. Classifier les classes en récurrentes et transientes.
Remarque 5.5 La matrice obtenue en rangeant les elements de la même classe ensemble
(par exemple {2, 1,4,6, 3,5} dans l’exemple anterieur) a une structure des blocques. Les
sous-blocs correspondant a une classe recurrente sont des matrices stochastiques (qu’on peut
analyser séparément plus facilement), et le bloc correspondant a tous les elements transients
est une matrice sous-stochastique.
Remarque 5.7 La distinction entre elements transients et recurents a une grande portée
sur la valeur des limites limn→∞ P n (i, j). On verra que pour j transient, elle est toujours 0
Définition 5.9 Une chaı̂ne de Markov est dite irréductible si elle n’admet qu’une seule
classe recurente.
µ (n + 1) = µ (n) P (5.2)
45
Exemple 5.1 Soit (Xn )n∈N une chaı̂ne de Markov homogène sur(l’ensemble {1, ) 2}, de dis-
tribution initiale µ(0) = (µ1 , µ2 ) et de matrice de transition P = 1 −
b
a a
1−b
Calculez P{X0 = 2, X1 = 2}, c2 (1) = P{X1 = 2}, P{X0 = 2|X1 = 2}, P{X0 = 2, X1 =
2, X2 = 1}, c2 (2) et P{X0 = 2, X2 = 1}.
Comme illustré dans les exemple ci-dessus, en utilisant la distribution initale µ (0) et la
matrice de transition P on peut calculer la distribution µ (n) a n’importe quel temps, par
exemple µ (1) , µ (2) .... et aussi les distributions jointes pour n’importe quel ensemble fini
des temps (en utilisant la loi de multiplication des probabilités conditionnelles). En effet, on
peut donner une formule explicite pour les distributions jointes d’ordre fini d’une chaı̂ne, en
fonction de la matrice de transition P et la distribution initiale µ(0).
Théorème 5.2 Pour une chaı̂ne de Markov, les distribution jointes sont données pour :
∀t0 < t1 < · · · < tk , ti ∈ R, et ∀ ei0 , ei1 , ..., eik ∈ E explicitement par
t −t
P [Xt0 = ei0 , ..., Xtk = eik ] = µi0 (t0 )Pit01,i−t
1
0
...Pikk,ik−1
k−1
(5.4)
Définition 5.11 La chaı̂ne de Markov associé à une matrice stochastique P est la famille
des mesures Pµ(0) définies par (5.4), avec operateurs d’espérance associés Eµ(0) (donc pour
obtenir une seule mesure, il faut encore specifiér la mesure initiale µ(0)).
Remarque 5.8 Algébriquement, une chaı̂ne de Markov est characterisée par un ”duo”
(P, µ(0)), l’element principal du duo étant la matrice de transition P .
Définition 5.12 On appellera une chaı̂ne ergodique lorce’qu’il existe une distribution li-
mite π(∞) = limn→∞ µ (n) , independamment de la distribution de départ.
( b) Montrez
) que avec a, b ̸= (0, 0), et a, b ̸= (1, 1), la limite P = limn→∞ P n =
b a
a+b a+b . En suite, calculez cette limite dans tous les cas possibles.
b a
a+b a+b
Remarque 5.9 En conclusion, on voit que avec a, b ∈ (0, 1), la limite matrice P =
b a
limn→∞ P n existe et qu’elle a des lignes identiques, la distribution limite π = ( , )
a+b a+b
étant independante du point de départ. On apelle cette propriété ergodicité.
46
5.5 Lois invariantes/stationnaires et lois limites/asymptotiq
Une question très importante pour les chaı̂nes de Markov est de déterminer l’ensemble
des distributions “limites/asymptotiques/a la longue” d’une chaı̂ne specifié par µ(0) et P ,
définies
Remarque 5.10 A priori, il pourrait y exister une limite (5.5) différente pour chaque dis-
tribution de départ µ(0), et en particulier pour chaque point de départ deterministe specifié
par µ(0) = ei = (0, 0, ..., 1, 0, ..., 0), mais il se trouve que sous des conditions verifiées assez
fréquement, la limite est unique, indépendante de µ(0).
Pour clarifier dans quel cas on se trouve, il suffit d’investiguer les limites
π(∞)i = lim ei P n
n→∞
obtenues pour chaque point de départ deterministe ei , i ∈ {1, ..., I} possible. Comme ei P n
est précisement la ligne i de la matrice P n , la question revient a investiguer si la limite
P := lim P n
n→∞
Définition 5.13 L’ensemble des distributions limite π(∞)µ(0) d’une chaine P, obtenues en
variant la distribution initiale µ(0), sera appellé l’ensemble des distributions asympto-
tiques.
47
5.6 Equations de stationnarité/invariance/équilibre glo-
bal
Req Remarque 5.11 En supposant que la limite (5.5) existe (ce qui n’est pas toujours le cas),
on déduit à partir de µ(n + 1) = µ(n)P que chacune des distributions limite doit satisfaire
les équations π(∞) = π(∞)P
π = πP (5.6)
Autrement dit : une distribution invariante π est un vecteur de probabilités qui est aussi
vecteur propre a gauche de P associé à la valeur propre 1.
Remarque 5.12 Le nom invariant vient du fait que si µ(0) = π, alors on a µ(n) = π pour
chaque n.
Le système d’équilibre (5.6) est donc la clé du calcul des distributions asymptotiques. Deux
questions fondamentales ici sont celles de l’existence d’au moins une solution, et de l’unicité.
Questions (E-U) : 1) Est-ce que c’est possible qu’il n’existent pas des vecteurs
des probabilités qui satisfont le système d’équilibre (5.6) (i.e. est-ce que c’est
possible qu’il n’y ait pas des vecteurs propres pour la valeur propre 1 qui ont
toutes les composants nonnégatives) ? 2) Est-ce que c’est possible qu’il existent
plusieurs vecteurs des probabilités qui satisfont le système d’équilibre (5.6) ?
Exercice 5.7 Les équations d’équilibre sont linéaires, et donc leur solution explicite est
toujours possible en principe, même symboliquement, avec deux bemols : 1) la matrice G =
P − I est singulière, et 2) si la réponse (après simplification, bien sûr) est trop longue, notre
vie ne suffira peut être pas pour la lire !
Soyons quand même optimimistes. Demander a votre logiciel symbolique préféré quelle
est la solution du systême πG = 0, pour G de dimension 3. Est-ce que la réponse pour π(1)
peut être interprété en termes des chemins conduisant à 1, i.e. {2, 3, 1}, {3, 2, 1}, {2, 1}, {3, 1} ?
48
Remarque 5.13 Dans le cas d’une seule classe récurente, la singularité du système peut être
enlevé en efaçant une ligne. Plus généralement, on peut obtenir les solutions d’un système
singulier (quand elles existent) en utilisant des ”PseudoInverses”. Comme il y en a plusieures
possibilités, le résultat du logiciel symbolique ne peut pas être garanti, si on utilise cette
commande. Par contre, la commande Solve devine souvent ce qu’on attend d’elle.
Notons aussi ne observation intéréssante de Stewart : en définissant GI = (G + tu′ )−1
(qui s’apelle perturbation de rang 1 de la matrice G) avec t, u ”presque arbitraires”, permet
de trouver π en normalisant u′ G.
inc Remarque 5.14 Une chaı̂ne ayant des distributions limite en partant de chaque point i,
ayant
1. une distribution stationnaire unique π, et
2. au moins une distribution limite (qui sera forcemment egale à π, par le corrollaire
(5.2))
est ergodique. En effet, 1) implique l’unicité de la classe recurrente, et 2) le fait que cette
classe n’est pas périodique.
Le cas ergodique est très important dans les applications, a cause du :
moy Théorème 5.3 (*) Soit X(n) une chaı̂ne de Markov ergodique à distribution
∑ asymptotiques
π, et soit une fonction ”coût” f tel que la ”moyenne spatiale” Eπ f(X. ) = j∈E πj fj est bien
definie. Alors, la moyenne temporelle des coûts converge presque partout vers la moyenne
spatiale, for any initial distribution :
∑
n ∑
−1
lim n f (Xn ) = πj fj
n→∞
i=1 j∈E
f:pap A C
2) Montrez que la marche aléatoire sur le graph papillon a une distribution stationnaire
unique π.
3) Calculez l’espérance du coût moyenne de cette marche, si f (A) = 10, f (B) = 1 et les
autres coûts sont 0.
49
Remarque 5.15 Dans le cas des espace d’états dénombrables, avec une seule classe
récurrente B, on distingue deux cas :
1. ergodique positive, quand la distribution limite satisfait πi > 0, ∀i ∈ B et
2. ergodique nul, quand elle satisfait πi = 0, ∀i ∈ B (ce dernier cas étant impossible
pour des espace d’états finies).
Dans la literature, le terme ergodique signifie parfois ce que nous appelons ici ergodique
positive.
Ces équations ont comme solution π = (a, 0, a, b, 2b) avec 2a+3b = 1, donc pas d’unicité.
Cette chaı̂ne étale des “pathologies”, qu’on peut percevoir en examinant le graphe de
communication de la chaı̂ne :
Remarque : afin d’apercevoir la structure de la chaı̂ne et de calculer plus facilement
n
P , il peut être intéressant de renuméroter les états en sorte que des états qui conduisent
l’un à l’autre) soient groupés ensemble.
Dans cet exemple, si on échange les états e2 et e3 , on obtient, après le rangement facilitant
des éléments dans l’ordre 1, 3, 2, 4, 5, la matrice de transition :
1 1
2 2
0 0 0
1 1 0 0 0
2 2 1 1 1
0 0
2 4 4
0 0 0 1 1
2 2
1 3
0 0 0 4 4
a une structure : ( )
B1 0
P =
0 B
( 1 1
) 1 1 1
B1 0 0
2 4 4
avec B1 = 2
1
2
1 et B = 0 1
2
1
2
et encore P = 0 Q q2 .
2 2 1 3
0 4 4
0 0 B2
50
Remarque 5.16 Il y’a deux ”traits speciaux” dans cet exemple :
1. il existe un élément “transient” 2 (qu’on peut quitter sans retour pour toujours)
2. le graph de communication se décompose en deux classes : (1, 3) et (2, 4, 5) qui ne
communiquent pas et la matrice de transition a une structure block diagonale, appellée
“réducibilité” en probas.
Le fait que la réducibilité se traduise dans une structure de matrice à ”blocs”, montre
immédiatement qu’on peut traiter (1, 3) et (2, 4, 5) séparément. Aussi, en enlevant l’élément
“ transient” 2, il nous restent deux ”classes de communication fermées”, (1, 3) et (4, 5),
appellées ”classes de récurrence”, où on reste pour toujours une fois entré.
Remarque 5.17 Rémarquons que B1 et B2 , correspondant respectivement aux états récurrents
(1, 3) et aux états récurrents (4, 5), sont des matrices stochastiques, et Q, correspondant à
l’état transient 2, est une matrice sous-stochastique.
Remarque 5.18 On voit clairement que dans la presence des deux classes recurrentes im-
plique qu’il n’y a pas d’unicité de la distribution stationnaire/vecteur
(1 propre
) a (gauche. 1Par )
exemple, les distributions stationnaires des classes recurrentes 2 , 0, 2 , 0, 0 et 0, 0, 0, 3 , 23
1
sont des vecteurs propres a gauche, ainsi que toutes leurs combinaisons convexes.
i.e. la limite des probabilités de transition entre les états transients est 0.
51
Il reste encore à déterminer x1 , x2 . Une approche directe par un systéme des récurrences
nous montrera que ces deux quantités sont aussi x1 = 31 , x2 = 23 .
Ce dernier problème peut être aussi abordé algébriquement via la décomposition spec-
trale, et aussi par un raisonnement probabiliste, basé sur le fait qu’une fois arrivé dans la
classe ergodique {4, 5}, la chaı̂ne oubliera sa position initiale et finira dans la distribution
(d’incertitude) stationnaire. Dans notre cas, on sait aussi que la chaı̂ne arrivera dans la classe
ergodique {4, 5} avec probabilité 1, d’ou le resultat.
Donc, dans notre exemple, le fait qu’il existe une seule classe destination possible pour
l’élément transient 2, et donc que l’absorption dans cette classe est sûre, implique p2 (4̂) =
p2 (5̂) = 1. En conclusion 1 1
2 2
0 0 0
1 1 0 0 0
2 2
P = 0 0 0 1
3
2
3
0 0 0 1 2
3 3
0 0 0 31 23
En general, intuitivement, avec plusieures destinations (classes ergodiques) possibles, il
va faloir encore multiplier leurs distributions stationnaires par les probabilités d’absorbtion
respectives § .
Définition 5.15 Soit i un élément transient d’une chaı̂ne Xn , et soit j un élément aparte-
nant à une classe de récurrence ĵ. On appelera probabilité d’absorbtion pi (ĵ) la proba-
bilité que la chaı̂ne commençée en i finisse en ĵ § .
où on a dénoté par pi (ĵ) la probabilité d’absorption dans la classe de récurrence de j et par
π(j) la probabilité stationnaire de j dans sa classe (qui coincide avec limn→∞ P n (i, j) pour
i ∈ ĵ). Ce deuxième facteur reflète le fait évident qu’une fois absorbée dans une classe fermée,
la marche oubliera sa position initiale et donc aura exactement les probabilités limites de la
classe.
Mais, si dans l’exemple 6.3 l’élément transient aurait eu des possibilités de passage vers
les deux classes récurrentes existantes, ça nous aurait obligé de résoudre un problème d’ab-
sorbtion avant de calculer la limite limn→∞ P n .
Considerons par exemple
1 1
2 2
0 0 0
1 1 0 0 0
2 21
P = 0 5
0 1
5
3
5
0 0 0 1 1
2 2
0 0 0 14 34
§. Rigoureusement, on utilise une décomposition de ”la vie de la chaı̂ne” dans la partie qui précede
l’absorbtion, et la partie qui s’ensuit.
§. Le calcul des probabilités d’absorbtion sera abordé en detail plus tard.
52
Ici, evidemment,
1 1
2 2
0 0 0
1 1
0 0 0
2 2
P =
11
25
11
25
0 14
35
24
35
0 0 0 1 2
3 3
1 2
0 0 0 3 3
Considerons maintenant 1 1
2
0 0 0
2
1
0 0 0
1
2 2
P =
0 1
5
1
5
0 3
5
0 0 0 12 12
0 0 0 14 34
Ici,
1 1
2 2
0 0 0
1 1
0 0 0
2 2
P =
11
24
11
24
0 13
34
23
34
0 0 0 1 2
3 3
1 2
0 0 0 3 3
1 1 1 1
x= + x + × 0, =⇒ x =
5 5 5 4
Exemple 5.4 Supposons que une pluie eventuelle demain depend de la situation du temps
dans les trois jours précédents, ainsi : a) S’il y a eu de la pluie dans les deux jours précédents,
alors il va pleuvoir avec probabilité .8. b) S’il y a pas eu de la pluie dans aucun des trois
jours précédents, alors il va pleuvoir avec probabilité .2. c) Autrement, la situation va etre
la meme comme dans le jour precedent avec probabilité .6. Modéliser cette situation par une
chaı̂ne de Markov, en donnant l’espace des états et la matrice de transition.
53
Exemple 5.5 Un processus qui n’est pas une chaı̂ne de Markov a priori, mais qu’on peut
”rendre” Markov par un bon choix de l’espace d’états . Soit (Xn )n∈N un processus à deux
états, notés e1 et e2 . On suppose que les transitions entre les étapes n et n + 1 s’effectuent
selon le procédé suivant :
{
Si Xn−1 = Xn alors P ([Xn+1 = e1 ] | [Xn = ei ]) = 34
Si Xn−1 ̸= Xn alors P ([Xn+1 = e1 ] | [Xn = ei ]) = 12
a) Montrer que (Xn )n∈N n’est pas une chaı̂ne de Markov. b) Construire un espace d’états
permettant de modéliser ce processus par une chaı̂ne de Markov et donner alors son graphe.
Exemple 5.6 Une companie d’assurance voiture a un système de bonus avec cinq
niveau 1 : 0% réduction
niveau 2 : 25%réduction
niveaux pour les assurés sans sinistres déclarés : niveau 3 : 40% réduction Pour
niveau 4 : 50% réduction
niveau 5 : 60% réduction
un assuré, la probabilité de ne pas avoir de sinistre dans un an est de 0.8. Les regles selon
on passe d’un niveau (état)à l’autre sont :
Aprs̀ une année sans sinistre on passe au niveau supérieur suivant ou on reste au
niveau 5
Aprs̀ une année avec un ou plusieurs sinistres
on diminue d’un niveau si l’année précedente, il n’y a pas eu de déclaration de
sinistre.
on diminue de deux niveaux si l’année précedente il y a eu au moins une
déclaration de sinistre.
1. Notons par X(t) le niveau,soit 1, 2, 3, 4 ou 5, de l’assuré pour l’année t. Expliquez
pourquoi {X(t)}∞ t=1 n’est pas une chaı̂ne de Markov.
2. En augmentant le nombre de niveaux, définissez un nouveau processus stochastique
{Y (t)}∞ t=1 qui soit Markov et de telle manière que Y (t) représente le niveau de réduction
pour l’assuré dans l’année t.
3. Déduire la matrice de transition pour la chaı̂ne de Markov {Y (t)}∞ t=1 .
Solution :
1. {X(t)} n’est pas Markov parce que, par exemple, P[Xt+1 = 3 | Xt = 4, Xt−1 = 3, . . .]
ne peut pas se réduire à P[Xt+1 = 3 | Xt = 4].
2. Définition des nouveaux niveaux :
3=40% réduction cette année, aprs̀ 25% l’année dernière
4=50% réduction cette année, aprs̀ 40% l’année dernière
3a=40% réduction cette année, aprs̀ 50% l’année dernière
4a=50% réduction cette année, aprs̀ 60% l’ann’ee dernière
3. La matrice de transition est alors
54
1 2 3 4 5 3a 4a
1 0.2 0.8 0 0 0 0 0
2 0.2 0 0.8 0 0 0 0
3 0 0.2 0 0.8 0 0 0
4 0 0 0 0 0.8 0.2 0
5 0 0 0 0 0.8 0 0.2
3a 0.2 0 0 0.8 0 0 0
4a 0 0.2 0 0 0.8 0 0
8. (*) Soit k = 2. Abordez les mêmes questions pour φ∗N (k) (z), ainsi que pour φ∗N (k)′ (z),
où la dernière variable représente le nombre des essais jusqu’à ce qu’on obtient k piles
consécutives, en incluant la suite finale des piles.
Trouver les probabilités P [N (2) = k] pour q = 1/3.
§. on utilise la relation L(N |X1 = F ) = L(1+N ), qui est une conséquence de la décomposition ”premier
pas + le reste” N = 1 + N ′ et du fait que les distributions conditionnées par le premier pas du ”reste” N ′
sont connues : a) (N ′ |X1 = P ) ≡ 0 et b) L(N ′ |X1 = F ) = L(N ) par le fait que la seule difference entre
les réalisations possibles de N ′ et ceux de N est le moment ”de départ de la montre”, qui n’affecte pas la
distribution d’une chaı̂ne homogène
55
9. (*) Reabordez la question précédente pour k = 3.
Solutions :
1. L’espace des experiments se decompose en : E = {P, F P, F F P, F F F P, ...} = {P } ∪
F (E). En representant l’espace comme un arbre, on trouve une branche avec une seule
feuille {P }, et une branche qui est identique au arbre initial, après avoir enlevé la
feuille initiale {F }. Rémarquons cette structure recursive, qui est la clé du pb !
Les probas sont pk = pq k , k = 0, 1, .... On a à faire avec une distribution bien connue
(la géométrique ! !).
2. Il est quand même intéressant de remarquer que l’espérance peut aussi se calculer par
un conditionnement sur le premier pas :
q
m = p × 0 + q(1 + m) ⇔ m = §
p
′
Note : Pour l’autre définition d’une variable g’eométrique N (1) := N + 1 ∈ {1, 2, ...}
(en incluant la première face), on obtient par le résultat précedent
1
n := EN (1)+1 = E(N + 1) = ,
p
ou encore par conditionnement sur le premier pas :
n = E[N (1)+1 ] = P[X1 = P ]E[N (1)+1 |{X1 = P }] + P[X1 = F ]E[N (1)+1 |{X1 = F }]
= P[X1 = P ]1 + P[X1 = F ](1 + E[N (1)+1 ]) = p ∗ 1 + q ∗ (1 + n) = 1 + q ∗ n
3. Méthode A : Cherchons encore une fois une decomposition de l’espace des experiments,
en regardant simultanement l’arbre associé : E = {F P P, F F P P, ..., P F P P, P F F P P, ..., P P, } =
F (E) ∪ P F (E) ∪ {P P }.
Les trois evenements F (E), P F (E), P P fournissent une decomposition de l’espace
d’états . Par conséquant, la formule ET donne :
q + 2p 1+p
m2 = q(m2 + 1) + pq(m2 + 2) + 2p2 ⇔ m2 = =
1 − q − pq p2
Méthode B : Après le premier pas, on a une decomposition
E = F (E) ∪ P (E1 )
où on a dénoté E1 l’arbre de toutes les experiments pour arriver a deux piles, en partant
d’une pile.
Cette decomposition donne m2 = q(1 + m2 ) + p(1 + m1 ). Finalement, la decomposition
E1 = F (E) ∪ {P P }
donne m1 = q(1 + m2 ) + p(1 + 0)
§. Cela est une conséquence de la décomposition ”premier pas + le reste”
N1 = 1 + N ′
et du fait que les distributions conditionnées par départ du ”reste” sont connues : a) (N ′ |X1 = P ) ≡ 0 et
b) L(N ′ |X1 = F ) = L(N1 ) par la proprieté de Markov (oubli du passé), et par le fait que la seule difference
entre les réalisations possibles de N ′ et ceux de N1 est le moment ”de départ de la montre”, qui n’affecte
pas la distribution d’une chaı̂ne avec matrice de transition stationnaire.
56
4. Remarquons que les quatre evenements F, P F, P P F, P P P fournissent une decompo-
sition de l’espace d’états qui permet soit de constater que notre evenement d’arrêt
est arrivé, soit de relancer le processus du debut. Le conditionnement ces evenements
2 )+3p3 2
donne : n = q(n + 1) + pq(n + 2) + p2 q(n + 3) + 3p2 ⇔ n = q(1+2p+3pp3 = 1+p+p
p3
2 k−1
On devine que pour k piles consecutives, le résultat sera 1+p+ppk+p .
Méthode C : Alternativement, on peut utiliser une chaı̂ne de Markov sur l’espace
{0P, 1P, 2P, 3P }, avec état absorbant 3P (X(t) = nP signifie ici que la suite observé
au temps t contient exactement n piles à la fin. Pour illustrer, voila un exemple d’un
experiment possible et de l’evolution associé pour la chaı̂ne de Markov
( )
P F F P F P P P
0 1 0 0 1 0 1 2 3
q p 0
Soit Q = q 0 p la matrice des transitions entre les états transients 0, 1, 2. Le
q 0 0
vecteur m des trois espérances inconnues m = (x0 , x1 , x2 ) satisfait m = 1 + Qm =⇒
m = (I − Q)−1 1. La réponse est
1 1+p 1 + p + p2
x2 = , x 1 = , x 0 =
p3 p3 p3
5. La méthode des fonctions génératrices.
Le calcul de Ez N demande de remplaçer chaque terme de l’espace des experiments
E = {P, F P, F F P, F F F P, ...} = {P } ∪ F (E) par pnb.P q nb.F z nb.F +nb.P (avec nb.P = 1).
Soit φ(z) le résulat obtenu en ajoutant tous les termes. Observons qu’en rajoutant tous
les termes avec nb.H + nb.T = n, on obtient precisement ∑ pn z n , et donc la somme totale
est la fonction génératrice des probabiltés φ(z) = n pn z n .
∑
En rajoutant tous les termes, utilisant la formule de pn , on obtient φ(z) = ∞ n
n=0 pn z =
p
1−qz
.
Mais, il est beaucoup plus efficace d’exploiter la structure recursive, qui implique la
p
décomposition φ(z) = p + qzp(z), qui implique encore φ(z) = 1−qz .
′ q
Finalement, EN = φ (1) = p .
Rem : La méthode des fonctions génératrices (qui n’est pas vraiment necessaire
dans cet exercice simple) s’avère une des méthodes les plus puissantes pour les espaces
d’états infinis.
6. Les probabilités pk sont moins evidentes à obtenir. Ind : Utilisons la chaı̂ne de Markov
associé sur l’espace E = {0P, 1P, 2P }, avec état absorbant 2P .
p0 = p2 , p1 = qp2 , p2 = q 2 p2 , p3 = qp2 + pqp1 , ...pn = qpn−1 + pqpn−2 , ∀n ≥ 3. On trouve
n n
√ une récurrence à coefficients constants, qui donne pn = C+ λ+ + C− λ− , λ± =
ainsi
q± q(4−3q) p2 (q−λ− )
2
. Le systême C+ + C− = p2 , C+ /λ+ + C− /λ− = 0 donne C+ = λ+ −λ−
, C+ =
p2 (λ+ −q)
λ+ −λ−
.
On peut trouver la même réponse à partir de la mgf
p2 C+ C−
= + .
1 − qz − pqz 2 1 − z/λ+ 1 − z/λ−
57
7. Utilisons la chaı̂ne de Markov sur l’espace {0P, 1P, 2P, 3P }, avec état absorbant 3P .
Soit Q la matrice des transitions entre les états transients 0, 1, 2. Le vecteur φ des
fonctions génératrices des moments satisfait φ(z) = z(Qφ(z) + t).
Rem : On peut aussi trouver une formule generale pour m = φ′ (1). En differentiant
le système, on trouve φ′ (z) − zQφ′ (z) = Qφ(z) + t ⇒ (I − Q)φ′ (1) = Q1 + t = 1.
Dans le chapitre 11 on vera une solution plus simple, qui nous permettra de calcluler
l’espace d’états du temps pour qu’un chimpanzé qui tape au hasard produit le mot ABRA-
CADABRA (et le pb. analogue pour produire Hamlet sera asigné en devoir maison).
58
Comme P [I = 2|U > t] ne depend pas de t, il suit que U, I sont des variables indepen-
dantes § ! La généralisation de ce fait pour une competition des n exponentielles est la
fondation de la construction des processus de Markov en temps continu.
5. Soit W = V − U . Calculer P [W > t|I = 1] et P [W > t|I = 2]
6. Calculer la fonction de survie P [W > t] de W .
7. Montrer que U et W sont independantes.
8. Trouver la loi du minimum de n variables exponentielles indépendantes {Xi , i =
1, ..., n}, à paramètres λi , i = 1, ..., n, ainsi que la loi de la variable I qui donne l’index
qui realise le minimum.
9. Obtenez la loi du maximum Vn de n variables exponentielles indépendantes, avec pa-
ramètres egaux λ.
R : Vn = W0 + W1 + W2 + Wn−1 , où Wi sont des va independantes, de loi E(λ(n − i)).
59
Chapitre 6
Chaı̂nes de Markov :
ch:Mark approfondissement
Remarque 6.1 Cet ensemble est fermé sous l’opération d’addition, i.e. cet ensemble est un
sous groupe de N.
{ }
(n)
Définition 6.1 Soit ei dans E. On appelle période de ei l’entier d (i) = p gcd n > 0 ; pii > 0
(autrement dit : pii > 0 ⇒ ∃m ∈ N∗ tel que n = md (i) ).
(n)
Remarque 6.2 La période ne dépend que de la classe. Une classe de période 1 est dite
apériodique.
60
On peut aussi detecter la periodicité en calculant les valeurs propres, i.e. les racines du
pol char. Dans l’exercice (5.5), elles sont : [(1 − x)(1 − 12x)](1 − 16x3 )(1 − x) (les trois
termes correspondent aux projections sur les trois classes). Rémarquer que les trois racines
cubiques satisfaisant λ3i = 1/16, i = 1, 2, 3 provenant de la classe transiente à Q = P{1,4,6 }
qui satisfait Q3 = 1/2Id, exhibent aussi une périodicité de degré 3, ”diminuant vers 0”.
Remarque 6.4 L’existence d’une boucle, i.e. pii > 0, assure l’apériodicité.
Exemple 6.1 Une classe de communication à matrice de transition P̃ , pour laquelle il existe
un entier c tel que P̃ c = I, apellée cyclique d’ordre c, est forcement périodique, et la période
d est parmi les diviseurs de c. Par exemple, en changeant la classe transitoire dans l’exemple
ci-dessus en sorte qu’elle contient un cycle de longueur 4 et un de longueur 2, on obtient
une classe cyclique d’ordre 4 et période 2.
Remarque 6.5 On vera que la périodicité des classes transitoires n’empêche pas du tout
le calcul de la matrice de distributions à la longue, parce que la masse totale de la partie
transitoire d’une chaı̂ne converge vers 0 (voir la troisième remarque qui suit le théorème
??).
61
Par contre, la périodicité dans une classe récurrente rend la convergence impossible. On
peut démontrer que son absence assure la convergence, car cela est équivalent à l’absence
des valeurs propres qui sont racines de l’unité, et à l’absence des valeurs propres de valeur
absolue |λ| = 1, sauf λ = 1 (par Perron-Frobenius). Finalement, le fait que λn converge pour
chaque valeur propre λ assure l’existence de la limite limn→∞ P n .
Donc, la limite à la longue P = limn→∞ P n (i, j) d’une chaı̂ne existe ssi il n’y a
pas des classes récurrentes périodiques.
P = limn→∞ P n . (6.2)
62
1. les chaı̂nes (faiblement) ergodiques, donc avec I = 1 classes récurrentes, et matrice de
transition ( )
Q q
P =
0 Pr
et où q contient les probabilités de trasition dans les états récurents.
2. les chaı̂nes absorbantes, i.e avec les classes récurrentes étant toutes de cardinalité 1.,
i.e. avec
Q q (1) q (2) ...
0 1 0 ...
..
P =
0 0 1 .
0 ..
.
..
0 .
.. .. .. ..
. . . .
Exercice 6.1 Calculez la matrice X dans le cas d’un seul element absorbant.
Exercice 6.2 Que devient la décomposition spectrale (7.3) et les vecteurs propres à droite
et gauche de la valeur 1 dans le cas absorbant ?
63
Solution : Cherchons à trouver un vecteur propre à droite v j et un vecteur propre à
gauche π j pour chaque élément absorbant j.
On trouve π j = ej = (0, 0, ..., 1, ..., 0). Décomposant v j = (aj , 0, 0, ..., 1, ..., 0) on trouve
que aj contiens les probabilités d’absorbtion dans la classe j.
erg Théorème 6.1 Soit Xn une chaı̂ne de Markov finie avec une seule classe récurrente, qui
est apériodique.
a) Cela est algébriquement équivalent à une multiplicité un pour la valeur propre λ = 1,
et à l’absence des autres valeurs propres de valeur absolue |λ| = 1.
b) La distribution limite est unique et la limite P est une matrice de rang 1 :
P = lim P n = 1 × (0 |π ∞ ) (6.3)
n→∞
pt Q = pt , pt q + p1 P1 = p1 ⇐⇒
pt = (I − Q)−1 0 = 0, p1 = π
P =1p
où p est le vecteur π ∞ completé avec des zeros. Rémarquons encore que 1, p sont des vecteurs
propres à droite et gauche, normalisés tel que p est un vecteur des probabilités et tel que
< p, 1 >= 1, et donc la décomposition ci-dessus est un cas particulier de la forme specifiée
en (7.3).
64
6.2.3 Echauffement pour le cas general
Nous allons examiner maintenant une chaı̂ne decomposable (pour la quelle la distribu-
tion stationnaire n’est pas unique, mais peut prendre toute valeur possible dans l’ensemble
convexe engendré par les distributions stationnaires des classes recurents).
Cette chaı̂ne étale des “pathologies”, qu’on peut percevoir en examinant le graphe de
communication de la chaı̂ne :
Remarque : afin d’apercevoir la structure de la chaı̂ne et de calculer plus facilement
P n , il peut être intéressant de renuméroter les états en sorte que des états qui conduisent
l’un à l’autre) soient groupés ensemble.
Dans cet exemple, si on échange les états e2 et e3 , on obtient, après le rangement facilitant
des éléments dans l’ordre 1, 3, 2, 4, 5, la matrice de transition :
1 1
2 2
0 0 0
1 1 0 0 0
2 2 1 1 1
0 0
2 4 4
0 0 0 1 1
2 2
0 0 0 14 34
1 1 1
( ) ( 1 1 )
A 0 2 4 4
a structure : P = avec A = 2
1
2
1 et B = 0 1 1
et encore P =
0 B 2 2
2 2 1 3
0 4 4
A 0 0
0 B1 B1,2 où A, correspondant aux états (1, 3) (qui conduisent l’un à l’autre) et
0 0 B2
B2 , correspondant aux états (4, 5) (qui conduisent l’un à l’autre aussi) sont des matrices
stochastiques, et B1 , correspondant aux transitions entre les états transitoires ((2) est une
matrices sous-stochastique.
Il y’a ici deux pathologies par rapport au cas ergodique :
1. il existe un élément transitoire 2 (qu’on peut quitter sans retour pour toujours)
2. le graph de communication se décompose en deux classes : (1, 3) et (2, 4, 5) qui ne
communiquent pas et la matrice de transition a une structure block diagonale, appellée
“réducibilité” en proba.
65
La structure de matrice à ”blocs”, montre immédiatement qu’on peut traiter (1, 3) et
(2, 4, 5) séparément. Aussi, en enlevant l’élément “ transitoire” 2, il nous restent deux ”classes
de communication fermées”, (1, 3) et (4, 5), appellées ”classes de récurrence”, où on reste
pour toujours une fois entré. n
A 0 0
On verifie facilement que : P n = 0 B1n B1,2,(n)
0 0 B2n
en reflexion du fait qu’on peut étudier les trois chaı̂nes correspondant aux A, B1 et B2
séparément.
Concernant la matrice B1 contenant les probabilités de transition entre les éléments
transitoires (appellée aussi projection de la matrice P sur la réunion des classes transitoires),
remarquons d’abord que elle est une matrice sous-stochastique.
Définition 6.2 Une matrice Q s’appelle sous-stochastique si la somme des éléments de
chaque ligne est ≤ 1, avec inegalité stricte dans au moins une ligne.
Théorème 6.2 Toutes les valeurs propres d’une matrice sous-stochastique Q ont valeurs
absolues strictement inferieurs à 1. Par conséquent
lim Qn = 0
n→∞
i.e. la limite des probabilités de transition entre les états transitoires est 0.
Définition 6.3 Soit i un élément transitoire d’une chaı̂ne Xn , et soit j un élément aparte-
nant à une classe de récurrence ĵ. On appelera probabilité d’absorbtion pi (ĵ) la proba-
bilité que la chaı̂ne commençée en i finisse en ĵ.
66
Le calcul des probabilités d’absorbtion sera abordé en detail plus tard.
Finalement, on arrivera à la conclusion que si la limite P = limn→∞ P n existe, elle
satisfait :
où on a dénoté par pi (ĵ) la probabilité d’absorption dans la classe de récurrence de j et par
π(j) la probabilité stationnaire de j dans sa classe (qui coincide avec limn→∞ P n (i, j) pour
i ∈ ĵ). Ce deuxième facteur reflète le fait évident qu’une fois absorbée dans une classe fermée,
la marche oubliera sa position initiale et donc aura exactement les probabilités limites de la
classe.
Dans notre exemple, le fait qu’il existe une seule classe destination possible pour l’élément
transitoire 2, et donc que l’absorption dans cette classe est sûre, implique p2 (4̂) = p2 (5̂) = 1.
En conclusion 1 1
2 2
0 0 0
1 1 0 0 0
2 2
P = 1
0 0 0 31 32
2
0 0 0
3 3
1 2
0 0 0 3 3
Mais, si dans l’exemple 6.3 l’élément transitoire aurait eu des possibilités de passage
vers les deux classes récurrentes existantes, ça nous aurait obligé de résoudre un problème
d’absorbtion avant de calculer la limite limn→∞ P n .
En conclusion, une procédure qui fournisse la limite P doit :
1. établir si elle existe, ce qui n’est pas toujours le cas, comme on voit en examinant les
chaı̂nes de Markov qui bougent cycliquement sur les noeuds d’un graphe
2. inclure la résolution des problèmes de Dirichlet concernant l’absorbtion de la chaı̂ne
de Markov dans les classes récurentes
3. calculer la distribution stationnaire des classes récurentes.
67
Chapitre 7
L’approche algébrique aux chaı̂nes de
Markov
e:er Exercice 7.1 Déterminer la limite P := limn→∞ P n pour une chaı̂ne ayant
1. des valeurs propres de P distinctes (ce qui est ”le cas générique”), et
2. 1 comme la seule valeur propre de module 1.
R : Il suit immediatement par la décomposition spectrale que
1 0 ... 0
n n −1
lim P = D lim Diag(λi )D = D 0 0 ... 0 D−1 = 1 π
n→∞ n→∞
... ... ... ...
68
Alternativement, par la Lemme 7.1
∑
lim P n = lim λni di g i = 1 π
n→∞ n→∞
i
Remarque 7.1 La première condition dans l’exercice 7.1 n’est pas nécéssaire. L’abondance
du cas ergodique s’explique donc par la décomposition spectrale, par la rarité du cas des
valeurs propres qui tombent précisement sur le cercle unitaire.
Remarque 7.2 Si des valeurs propres de module 1 différentes de 1 existent, il suit imme-
diatement que limn→∞ P n n’existe pas. Ces valeurs doivent satisfaire λm = 1, m ≤ dim(P ) !
Ce cas, appelée périodique, sera examiné dans la section 6.1.
∑
Remarque 7.3 Sauf la decomposition spectrale P = DDiag(λi )D−1 = i λi di g i , d’autres
méthodes de solution sont possibles, comme le Thm. de Cayley-Hamilton p(P ) = 0, où p(z) =
det(zI − P ). Dans l’exercice 5.6, on trouve
P n = xn P − yn I, x2 = 2 − a − b, y2 = 1 − a − b, ....
Aussi, ∑
pour un element fixe, une decomposition avec coefficients indeterminés comme
n
P11 (n) = i ai λi peut-être obtenue, à partir de premières valeurs de la suite (avec des
valeurs numériques, une recherche sur http ://oeis.org/ pourrait aussi aboutir)
Remarque 7.4 Il est aussi possible de determiner les classes de communication
∑ en identi-
fiant les elements nonnuls dans la matrice fondamentale (I − sP )−1 = ∞ i=0 sn n
P , mais
dans des exemples de grande dimension cela demande l’utilisation des logiciels.
P V = V Λ ⇔ P = V ΛV −1
P = V ΛΠ (7.1)
69
où Π = V −1 et une matrice dont les lignes π i sont des vecteurs propres à gauche,
normalisés tq π i v j = δi,j .
La représentation spectrale (7.1) de P s’écrit aussi (vérifier !) comme
∑
P = λi v i π i (7.2)
i
Rq : La représentation (7.2) nous permet d’écrire une matrice arbitraire comme somme
de n matrices de rang 1.
En utilisant la représentation (7.2), on trouve dans le cas diagonalisable que
∑
P n = V Λn Π = λni v i π i
i
et que convergence peut avoir lieu seulement dans l’absence des valeurs propres λi ̸= λP F tq
|λi | = λP F (i.e., de périodicités). Finalement
∑
R
n
P =⇒ P = viπi = V Π (7.3)
i:λi =1
où R est le nb des classes recurrentes, et V Π sont les matrices ayant vi et π i comme colonnes
et lignes, respectivement.
Cette formule reste encore valable dans le cas général, même que la décomposition de
Jordan peut contenir des blocs nondiagonales, car les blocs de Jordan associées à des valeurs
propres tq |λ(i) | < 1 disparaissent dans la limite n → ∞ (vérifier !). On obtient donc que dans
l’absence des périodicités dans les classes récurrentes, la limite de P n est donnée toujours
par (7.3).
Théorème 7.1 1. La multiplicité de la val. propre 1 est egale au nombre R des classes
recurentes.
2. Les vecteurs propres à gauche/droite correspondant à une classe recurente r sont res-
pectivement de la forme π r 1r , où πr est la distribution stationnaire de la classe r
(completé en suite par des 0 en multipliant par 1r ), et vr = (ar , 1r ), où ar denote le
vecteur des probabilité d’absorbtion dans la classe r.
3. La limite P = limn→∞ P n existe ssi la matrice P n’a pas des valeurs propres avec
|λ| = 1 à part la valeur propre de Perron-Frobenius λP F = 1 (i.e. s’il n y a pas des
périodicités), dans quel cas elle
∑ est donnée par (7.3).
Dans ce cas, elle est egale à A v A πA .
Corollaire 7.1 1. La distribution stationnaire est unique ssi la valeur propre de Perron-
Frobenius λ = 1 a multiplicité 1.
2. Une chaı̂ne de Markov est ergodique, i.e. P n =⇒ 1π ssi les deux conditions ci dessus
sont verifiées.
En conclusion, l’étude de l’existence et l’unicité de distributions à la longue, et l’étude
du comportement asymptotique de P n , peuvent être abordés algébriquement.
Il convient quand même de s’intéresser aussi aux interprétations probabilistes, comme
par exemple, au fait que νP F coincide avec le nombre de classes récurrentes, et nous abor-
derons ensuite plusieurs aspects probabilistes du théorème de Perron-Frobenius (en fait, la
théorie des chaı̂nes de Markov finies/dénombrables peut être conçue comme une explication
probabiliste du théorème de Perron-Frobenius).
70
7.2.1 La structure probabiliste de la matrice de distributions a la
longue
Nous donnerons maintenant une méthode pour la détermination des distributions “a la
longue” d’une chaı̂ne, dans l’absence des classes récurrentes périodiques. Soit
Qt T1 ... ... TI
0 P1 0 ... 0
..
P = 0 0 P2 0 .
0 0 . . . . . . ...
0 0 ... ... PI
une décomposition de la matrice de transition P , avec Pi , i = 1, ..., I étant les projections de
la matrice P sur les classes récurrentes, et avec Qt étant la projection de la matrice P sur
les classes transitoires. Il est facile de verifier que la puissance P n est de la forme :
n
Qt T1,n ... ... TI,n
0 P1n 0 ... 0
..
Pn = 0 0 P2n 0 .
..
0 0
.. ..
. . .
0 0 ... ... PIn
Cette formule de décomposition reflète les idées suivantes :
1. Les classes récurrentes ”ne savent” pas du tout qu’il existe un ”monde extérieur” ;
par conséquent, la projection Pi de la matrice P sur une classe récurrente î est elle
même une matrice stochastique et la projection de la puissance P n sur la classe i
est précisément Pin ; ce calcul peut être effectué en ignorant le reste des éléments. Le
même est vrai pour les probabilités de transition Qn (i, j) entre i et j transitoires, i.e.
la projection de la puissance P n sur les classes transitoires est précisément Qn et peut
être donc aussi calculée en ignorant le reste des éléments.
2. Les probabilités P n (i, j) pour i, j récurrentes mais dans des classes différentes sont
toujours 0 (comme pour n = 1) et alors la limite est aussi 0. Le même est vrai pour
les probabilités P n (i, j) pour i récurrent et j transitoire.
3. La limite de Qn sera toujours 0, parce que la matrice Q est sous-stochastique, et les
limites de Pin seront donné par le théorème ergodique.
En conclusion, si la limite P existe, elle est de la forme :
0 X1 ... ... XI
0 Π1 0 ... 0
..
P = 0 0 Π2 0 .
0 0 . . . . . . ...
0 0 ... ... ΠI
où X1 , ..., XI sont encore à détérminer, cf. la lemme 7.2 ci-dessous, en résolvant un pb
d’absorbtion.
Exercice 7.2 Que devient la décomposition spectrale (7.3) dans le cas décomposable et sans
éléments transitoires ?
71
7.2.2 Le calcul de la distribution limite dans le cas général
Nous considerons maintenant le cas général à plusieurs classes récurrentes. Il nous reste
seulement de calculer les limites X(i, j) := limn→∞ P n (i, j) pour i transitoire et j récurrent.
Nous avons vu dans nos exemples qu’il y a deux vecteurs de probabilités à déterminer :
a) pi (ĵ), de finir dans la classe de récurrence de j à partir de l’élément transitoire i, et
b) π(j) la probabilité stationnaire que la chaı̂ne soit observée dans l’état j (ou la pro-
portion de temps passé dans l’état j.
Pour cela, on utilisera :
mult Lemme 7.2
où on a dénoté par pi (ĵ) la probabilité d’absorption dans la classe de récurrence de j (et par
π(j) la probabilité stationnaire de j dans sa classe).
En forme matricielle, Xĵ = pĵ × π ĵ
Cette loi multiplicative est assez claire intuitivement : elle reflète l’indépendance entre
le comportement avant et après absorption, et se verifie facilement 1 .
Donc, le calcul des limites limn→∞ P n (i, j) pour i transitoire et j récurrent demande le
calcul des probabilités d’absorbtion pi (ĵ) et l’application de la lemme 7.2.
p1 Exemple 7.1 Calculer la matrice P = limn→∞ P n pour l’exemple :
0 a b 1−a−b 0 0
0 1 0 0 0 0
0 0 12 0 1
0
P = 0 0 0 0
2
0 1
0 0 12 0 1
0
2
1 0 0 0 0 0
Solution : Après le rangement facilitant des éléments dans l’ordre 1, 4, 6, 2, 3, 5 la matrice
de transition devient :
0 1−a−b 0 a b 0
0 0 1 0 0 0
1 0 0 0 0 0
P =
0 0 0 1 0 0
0 0 0 0 2 2
1 1
0 0 0 0 12 12
1. En conditionnant sur la position k d’arrivée dans la classe de récurrence ĵ de j après le temps T de
transition de la partie transitoire, on trouve que :
∑
limn→∞ P n (i, j) = Pi {XT = k} limn→∞ P n (k, j) (par propr. Markov) (7.5)
k∈ĵ
∑
= Pi {XT = k} π(j)(par ergodicité de la classe récurrente) (7.6)
k∈ĵ
∑
= π(j) Pi {XT = k} = pi (ĵ) π(j) (7.7)
k∈ĵ
72
On aperçoit par la structure de matrice à ”blocs” qu’on peut traiter les classes (2) et
(3, 5) séparément. Ici, l’absorption dans les classes récurrentes se fait toujours en partant de
1, et alors les probabilités d’absorption de 4 et 6 sont identiques aux celles de 1. En plus,
l’absorption se fait avec les probabilités données a, b dans les classes récurrentes (2) et (3, 5),
respectivement.
Finalement, on trouve par la lemme (7.2)
a b 1 b 1
0 0 0 a+b a+b 2 a+b 2
0 0 0 a b 1 b 1
a+b a+b 2 a+b 2
0 0 0 a b 1 b 1
P = 0 0 0 1
a+b a+b 2 a+b 2
0 0
0 0 0 0 1 1
2 2
1 1
0 0 0 0 2 2
Le problème du calcul de P a été simplifié ci-dessus par la connaisance immédiate des
probabilités d’absorption pi (ĵ) dans chaqune des classes récurrentes.
En applications, il faudra calculer les probabilités d’absorption pi (ĵ) séparément pour
chaque classe, sauf une, en résolvant un système d’absorption correspondant, obtenu en
”collant ensemble” toutes les éléments de chaque classe (pour la dernière classe, on peut
obtenir les probabilités d’absorption comme complémentaires de celles dans les autres classes)
donne p1 (2) = 3/5 = p6 (2) et p4 (2) = 4/5, et alors les probabilités complémentaires sont :
p1 (3̂) = 2/5 = p6 (3̂) et p4 (3̂) = 1/5 (les résultats auraient pu être dévinés, en observant que
73
l’absorption dans les classes récurrentes se fait seulement en partant de 1 et de 4, tandis que
a b
6 a les mêmes probabilités d’abs. que 1. Posant ã = a+b , b̃ = a+b on trouve finalement :
0 0 0 35 25 b̃ 25 ã
0 0 0 4 1 b̃ 1 ã
5 5 5
0 0 0 3 2 b̃ 2 ã
P = 0 0 0 15 50 50
0 0 0 0 1 1
2 2
0 0 0 0 12 12
Théorème 7.2 (Perron-Frobenius) Soit P une matrice finie sans éléments négatifs. Alors :
1. Parmi les valeurs propres de module maximal il existe toujours une, λ = λP F qui est
réelle positive, qu’on apellera la valeur propre PF (de Perron-Frobenius). Dès
lors, toutes les autres valeurs propres ont une valeur absolue inférièure ou égale à la
valeur propre λP F .
2. Le bloc de Jordan correspondant à λP F a une structure diagonale (i.e. la multiciplité
algebrique νP F de λP F est égale à la dimension de son espace de vecteurs propres), et les
espaces des vecteurs propres à droite et à gauche de λP F contiennent chacun une base
(P F ) (P F )
de vecteurs propres v i , π i , i = 1, 2, ..., νP F ayant toutes leurs composantes
nonnégatives.
3. S’il y a d’autres valeurs propres égales à λP F en valeur absolue, elles doivent être des
1/p
racines de λP F , i.e. de la forme λP F , p ∈ N.
74
Exercice 7.6 Montrez que le théorème de Perron-Frobenius implique :
1. Une chaı̂ne homogène à espace d’états fini a au moins une distribution stationnaire.
2. La dimension de l’espace d’états des distributions stationnaires coincide avec le nb des
classes de récurrence.
75
Chapitre 8
Problèmes de Dirichlet/premier
passage/absorbtion pour les chaı̂nes
et processus de Markov
Exercice 8.1 On lance une monnaie biaisée, avec la probabilité de sortir face égale à q et
celle de sortir pile égale à p = 1 − q, jusqu’à ce qu’on obtient une pile. Soit N (1) le nombre
de faces précedant la première pile (N (1) = 0, 1, 2, ...). Par exemple, si X1 = F, ...Xj−1 = F
et Xj = P, j ≥ 1, la valeur de N (1) est j − 1.
1. Calculez pk = P [N (1) ] = k, k = 0, .... Quelle est la loi (distribution) de N (1) ?
2. Trouvez les moments m1 = EN(1) , et m2 = E(N(1) )2 par la méthode du conditionnement
sur le premier pas, en utilisant la relation L(N (1) |X1 = F ) = L(1 + N (1) ) (qui est une
conséquence de la décomposition ”premier pas + le reste”
′
N (1) = 1 + N ′
et du fait que les distributions conditionnées par le premier pas du ”reste” N ′ sont
connues : a) (N ′ |X1 = P ) ≡ 0 et b) L(N ′ |X1 = F ) = L(N (1) ) par le fait que la
seule difference entre les réalisations possibles de N ′ et ceux de N (1) est le moment ”de
départ de la montre”, qui n’affecte pas la distribution d’une chaı̂ne homogène).
3. Trouvez l’espérance m = EN(2) du nombre des essais jusqu’à ce qu’on obtient deux
piles consécutives.
4. Généraliser pour k = 3 piles consécutives, et pour k arbitraire.
5. ”Mieux que les moments :” Trouvez la fonction génératrice des probabilités φ∗N (1) (z) =
∑
EzN = ∞ ′
(1) k (1)
k=0 pk z , et deduisez l’espérance EN , en calculant φ (1).
6. Les mêmes questions pour φ∗N (2) (z) et pour φ∗N (3) (z), ainsi que pour φ∗N (2)′ (z) et pour
φ∗N (3)′ (z), où les dernières variables représentent les nombres des essais jusqu’à ce qu’on
obtient deux/trois piles consécutives, en incluant la suite finale des piles.
Solutions :
1. L’espace des experiments est : E = {P, F P, F F P, F F F P, ...} = {P } ∪ F E.
pk = pq k , k = 0, 1, .... On a à faire avec une distribution bien connue (la géométrique ! !).
2. Il est quand même intéressant de remarquer que l’espérance peut aussi se calculer par
un conditionnement sur le premier pas :
q
m1 = p × 0 + q(1 + m1 ) ⇔ m1 =
p
76
′
Note : Pour l’autre définition d’une variable g’eométrique N (1) := N (1) + 1 ∈ {1, 2, ...}
(en incluant la première face), on obtient par le résultat précedent
1
n := EN (1)+1 = E(N (1) + 1) = ,
p
n = E[N (1)+1 ] = P[X1 = P ]E[N (1)+1 |{X1 = P }] + P[X1 = F ]E[N (1)+1 |{X1 = F }]
= P[X1 = P ]1 + P[X1 = F ](1 + E[N (1)+1 ]) = p ∗ 1 + q ∗ (1 + n) = 1 + q ∗ n
G = {F G} ∪ {P F G} ∪ {P P }
de l’espace d’états qui permet soit de constater que notre evenement d’arrêt est arrivé,
soit de relancer le processus du debut. Par conséquant :
77
Exercice 8.2 Etant donnée une chaı̂ne finie avec deux états absorbants 0, B et le reste des
états transitoires, Obtenez un système et une formule explicite pour le vecteur b = (bi =
Pi [XT = B], i ∈ T ).
Définition 8.2 Soit Xt une chaı̂ne absorbante, soit ∂ l’ensemble des états absorbants, et soit
T le sous-ensemble (complémentaire) d’états transitoires. On appélera temps de premier
passage/sortie/absorbtion N le premier temps quand le processus Xt n’est plus en T (et
donc est arrivé en ∂)
N = inf{t : Xt ∈ / T } ∈ {1, 2, ...}
78
Remarque 8.1 N est precisement le nombre de temps t ∈ {0, 1, 2, ...N − 1} passés en T ,
en incluant la position initiale.
t:mv Théorème 8.1 a) Pour une chaı̂ne de Markov absorbante à matrice de transition
( )
Q | q (T ,∂)
0 | I
P (k) = Qk ,
∑
∞
P ∗ (z) := z k P (k) = (I − zQ)−1
k=0
k−1 (T ,∂)
p(k) = Q q ,
k−1 (T ,∂)
p(k)1I∂ = Q q 1I∂ = Qk−1 q = (I − Q)Qk−1 1IT ,
79
Exercice 8.3 Démontrez le théorème. Ind : Les matrices p(k), P (k) satisfont les recur-
rences :
p(k) = Qp(k − 1), p(1) = q, et P (k) = QP (k − 1), P (0) = I
qui ramènent (en itérant) au résultat :
∑
Démonstration alternative : IN =k = x0 ,x1 ,...,xk−1 ∈T ,y∈∂ IX0 =x0 ,X1 =x1 ,...,Xk−1 =xk−1 ,Xk =y∈∂∈T .
Dès lors,
∑
Px0 {N = k, Xk = y} = Qx0 ,x1 Qx1 ,x2 ...Qxk−2 ,xk−1 q (T ,∂)
xk−1 ,y = Q
k−1 (T ,∂)
q (x0 , y)
x1 ,...,xj−1 ∈T
Les résultats en b) sont obtenus en prenant somme en y et somme en x, ponderé par les
poids α.
Remarque 8.2 Cette demonstration peut-être visualisée en utilisant ”l’arbre de toutes les
cas possibles”.
Définition 8.3 Une variable n ∈ N ayant une loi representable comme
P{N = k} = α(I − Q)Qk−1 1, k ≥ 1
où Q est une matrice sous-stochastique, et α est un vecteur ligne des probabilités, sera
appellée de type matrice-géométrique, et aussi de type ”phase”.
n̄ = EN = α(I − Q)−1 1
Remarque 8.3 Comme toujours, le système et la méthode donné au point a) sont plus im-
portants que la formule explicite donnée en b) ; en effet, l’inversion des matrices n’est pas
forcement la meilleure solution pour résoudre un système. Aussi, il existe beaucoup de varia-
tions de ce problème, ramènant a une diversité des formules expilcites, pendant que le principe
pour obtenir les systèmes et toujours le même : conditionnement sur le premier pas.
Ce problème fournit donc une illustration du fait que conceptuellement et numériquement,
les systèmes d’équations sont plus utiles que leurs solutions explicites !
Demonstration par conditionnement sur le premier pas : a) est équivalent au
système ∑ ∑ (T ,∂)
ni = Qi,j (nj + 1) + qi,j ∗ 1,
j∈T j ∈T
/
80
Exercice 8.4 Montrez que
∑
∞
EN = P{N ≥ k}
k=1
Rémarque : Cet exercice nous fournit une deuxième démonstration du Théorème 8.2,
à partir du théorème 8.1 :
∑
∞ ∑
∞
n = P{N ≥ k} = P{N ≥ k, X(k − 1) = .}1IT
k=1 k=1
∑
∞
= Qk−1 1IT = (I − Q)−1 1IT
k=1
Dir1 Corollaire 8.1 Soit G e := Q − I. Les espérances des temps d’absorbtion à partir des tous
les états transitoires n satisfont le satisfont le système
e +1=0
Gn (8.2)
ni = 0, ∀i ∈ ∂
Remarque 8.4 Ceci est notre premier exemple de ”système de Dirichlet” faisant intervenir
e Formulé comme ci-dessus, il est valable aussi en temps continu (et en fait pour
l’operateur G.
tous les processus de Markov).
Remarque 8.5 La matrice G e a seulement ses valeurs propres avec partie réelle negative,
étant par conséquent inversible.
[∑
∞
]
n = (I − Q)−1 1 = (Q)i 1
i=1
où Ik,j est l’indicateur d’être en position j ∈ T au temps k. Ces décompositions nous four-
nissent une troisième démonstration du Théorème 8.2
∑
∞ ∑ ∑
∞ ∑
ni = Ei Ik,j = (Q)ki,j
k=0 j∈T k=0 j∈T
81
Changeant l’ordre de sommation nous ramène à
(∞ )
∑ ∑ ∑ ∑
ni = k
(Q)i,j = (I − Q)i,j := ni,j
j∈T k=0 j∈T j∈T
où
ni,j = (I − Q)i,j
est le temps total esperé passé en j avant le passage dehors les états transitoires.
La ligne i de la ”matrice fondamentale” (I − Q)−1 nous fournit ”le bilan de la vie”, avec
état initial i !
Exercice 8.7 a) Pour une chaı̂ne a deux états 0, 1 avec P0,1 = λ, P1,0 = µ, calculez l’espe-
rance t0 du temps de retour T0 (retour en 0, conditionné par un départ en 0).
b) Verifiez l’identité t0 = π0−1 /P0 [X1 ̸= 0], valable pour toutes les chaı̂nes ergodiques.
c) Quelle est la distribution du T0 ?
82
8.6 Les probabilités d’absorbtion
Définition 8.4 Soit Xt un processus, soit E un sous-ensemble arbitraire de l’espace d’états
, et soit ∂ son complémentaire. On appelera processus absorbé en l’ensemble d’arrêt ∂
le processus X̃t obtenu à partir de Xt en modifiant tous les états en ∂ en sorte qu’ils soient
absorbants.
Exemple 8.2 Pour une marche aléatoire Xt , t = 0, 1, 2, ... sur le graphe papillon
ci-dessous, calculer :
O U
A C
Théorème 8.3 Le vecteur p̂ d’espérances d’un ”prix final” f satisfait le système d’ab-
sorbtion
p̂ = Qp̂ + q (T ,∂) f
En particulier
83
Théorème 8.4 Les probabilités d’absorbtion p̂(j) dans un état absorbant fixe j satisfont le
système d’absorbtion
(j)
p̂(j) = Qp̂(j) + p(T ,∂)
(j)
où p(T ,∂) denote le vecteur des probabilités de transition dans l’état absorbant j.
La matrice P (abs) des probabilités d’absorbtion satisfait :
Dir2 Corollaire 8.2 Soit G := P − I. Avec un prix final arbitraire f , les prix finaux espérés p
à partir de tous les états satisfont le système d’absorbtion
Gp = 0 (8.3)
pi = fi , ∀i ∈ ∂ (8.4)
Corollaire 8.3 Avec une distribution initiale α, avec un prix final arbitraire f , on a l’espace
d’états :
Exercice 8.8 Pour une matrice (sous)stochastique arbitraire, la matrice G = P − I est une
matrice (sous) génératrice.
Remarque 8.8 Il est facile de verifier que la matrice G = P − I a les mêmes vecteurs
propres comme P , et que ses valeurs propres sont translatées par −1.
Les équations de Dirichlet –voir ci dessus– concernant les chaı̂nes de Markov en temps
discret peuvent être formulées egalement en termes de P ou de G, mais l’avantage de la
dernière formulation et qu’elle generalise pour le temps continu.
84
Chapitre 9
Les marches aléatoires/sommes des
ch:MA variables i.i.d. au temps fixes
Motivation : Les marches aléatoires sont parmi les modèles probabilistes les plus utiles
(par exemple en physique, mathématiques financières, files d’attente, statistique, etc...). Ils
sont aussi parmi les modèles les meilleurs compris, car ils permettent souvent des solutions
analytiques.
Xn = X0 + Z1 + Z2 + · · · + Zn , n∈N (9.1)
s’appelle marche aléatoire. Comme alternative, la marche aléatoire peut être definie
récursivement par la récurrence
Xn = Xn−1 + Zn (9.2)
Exemple 9.1 Marches aléatoires sur Zd Typiquement, on s’interesse au cas où l’espace
d’états est un maillage régulier comme Zd , i.e. X0 , Zn ∈ Zd ont une loi discrète p = (pi , i ∈
Zd ) (dans ce cas, nous avons à faire à une chaı̂ne de Markov à espace d’états dénombrable).
Exemple 9.2 Si en plus |Zn | = 1, i.e. pi ̸= 0 ssi i est un voisin de l’origine, le processus
(9.1) est appelé une marche aléatoire simple.
Exemple 9.3 Pour une marche aléatoire simple en dimension d = 1, la loi de Zn est de
la forme pδ1 + (1 − p) δ−1 , i.e. P [Zn = 1] = p et P [Zn = −1] = 1 − p avec 0 < p < 1. Si
p = q = .5 on parle d’une marche aléatoire symmetrique, et avec p ̸= q on parle d’une
marche aléatoire biaisée.
n
∑n Notes : 1) On a à faire ici à des sommes des v.a. i.i.d.. Donc, P (0, :) la loi de la somme
i=1 Zi , est donnée par la n-ième convolution de la loi p de Zi (et la fonction génératrice des
moments est la puissance n de la fonction génératrice des moments de p). Le comportement
des puissances P n pour n → ∞ est lié au théorème de la limite centrale.
85
9.2 Moments et cumulants des marches aléatoires
Exercice 9.1 Les moments et cumulants de la marche simple. Soit X0 = 0 ∈ N le
capital initial d’un joueur. Au temps n = 1, 2, ..., le joueur gagnera Zn = 1 avec probabilité p
et perdera Zn = −1 avec probabilité 1 − p, où 0 < p < 1. Soit Xn = X0 + Z1 + Z2 + · · · + Zn
son capital au temps n.
Calculez :
1. L’espérance du son gain en = EXn .
2. La variance du son gain vn = Var Xn .
3. La fonction génératrice des moments M (u, n) = EeuXn .
4. La fonction génératrice des cumulants κ(u, n) = log(EeuXn ).
5. La fonction génératrice des cumulants κ̃(u, n) = log(EeuX̃n ) de la variable ”norma-
lisée” X̃n = X√n −e
vn
n
Notes : 1) Il est clair que ces propriétés de linéarité (de l’espérance , de la variance, et
de la fonction génératrice des cumulants), sont vraies pour chaque marche aléatoire.
2) La connaissance de la loi ou de la fonction génératrice ∑n des moments d’une variable
X sont typiquement equivalents. Mais, pour une somme i=1 Zi des v.a. i.i.d., pendant
∗,n
que la loi est
∑n
la n-ième convolution p de la loi p de Zi , la fonction génératrice des mo-
ments Eeθ i=1 Zi est beaucoup plus simple à obtenir (ètant la n-im̀e puissance de la fonction
génératrice des moments EeθZ1 ).
Nt : 1) Le cumulant d’un ordre donné est un polynome dans les moments d’ordre plus
petit ou égal, et reciproquement.
2) Les coefficients de l’expansion des moments en fonction des cumulants sont donné par
des nombres des partitions (de Stirling).
3) Les cumulants d’une variable centré (m1 = 0) coincident avec les moments jusqu’au
troisième ordre. C’est le quatrième cumulant, la ”kurtosis”, donné dans le cas centré par
c4 = m4 − 3m22 , qui joue un role important dans certaines tests statistiques (comme de
nonnormalité, par exemple).
86
Un des pb les plus anciennes des probas a été d’etablir que la repetition d’un expe-
riment (comme la jetée d’une monnaie) un grand nb des fois devoile sa moyenne), et que
le histogramme (loi) des deviations de la moyenne converge vers ”la courbe en cloche de
Gauss”. Pour reviser ces lois importants et d’autres, nous ferons un detour par les modes de
convergence possibles, dans la Section 2.
Théorème 9.1 Les marches aléatoires sont des processus de Markov. Les marches
aléatoires sur Rd ont la propriété de Markov.
Xn+1 = f (Xn , Zn )
87
Chapitre 10
Problèmes de premier passage des
marches aléatoires et relations de
récurrence
bi = P (E | [Xt0 = i])
88
contre, une approche ”diviser por conquérir” de décomposition de l’arbre dans ses branches
obtenues en conditionnent sur le premier pas rammène à des’équations linéaires faciles à
résoudre.
Cet exercice illustre trois idées :
1. La puissance de la méthode du conditionnement sur le premier pas.
2. Le calcul des espérances pour les chaı̂nes de Markov comporte des systèmes linéaires
avec une inconnue pour chaque état initial possible.
3. Les systèmes associés avec un processus fixe implique toujours la même partie ho-
mogène appellée ”operateur”. Dans le cas des chaı̂nes de Markov en temps discret
et à espace d’états fini ou dénombrable, l’ operateur est ”essentielement” la matrice
P − I, où P est la matrice de transition P .
Plus precisement, la matrice P de la marche symmetrique (absorbante) pour B = 4
est
1 0 0 ... ...
1 ..
2 0 1 .
2
0 2 1
0 1
0
. . 2
.. . . 1 1
2
0 2
.. . . . .
. . . 0 1
et on verifie facilement que l’operateur P − I agit sur un vecteur ⃗v = (v0 , ..., v4 ) par la
formule (P − I)⃗v = (0, v0 +v
2
2
− v1 , v1 +v
2
3
− v2 , ..., vn−1 +v
2
n+1
− vn , ..., 0).
Ces idées seront aprofondies dans les chapitres suivants, où nous regarderons quelques
autres problèmes résolubles par le conditionnement sur le(s) premier(s) pas.
89
E = {xT = B} = [∃n ∈ N tel que Xn = B, Xi > 0, i = 1, ..., n − 1] .
Pour tout i de {0, ..., B}, on pose :
bi = P (E | [Xt0 = i]) .
1. Quelles sont les valeurs de b0 et bB ?
2. Montrer que :
∀ i ∈ {1, ..., B − 1} , bi = p bi+1 + q bi−1 (on rappelle que q = 1 − p).
3. Obtener une expression explicite de bi pour tout i de {1, ..., B} . Indication : Remarquez
que la solution satisfaisant b0 = 0 est de la forme :
{
k (1 − ( pq )i ) quand p ̸= q
bi =
ki quand p = q
90
2. Le calcul des espérances pour les chaı̂nes de Markov comporte des systèmes linéaires
avec une inconnue pour chaque état initial possible.
3. Les systèmes associés avec un processus fixe implique toujours la même partie ho-
mogène appellée ”operateur”. Dans le cas des chaı̂nes de Markov en temps discret
et à espace d’états fini ou dénombrable, l’ operateur est ”essentielement” la matrice
P − I, où P est la matrice de transition P .
Plus precisement, la matrice P de la chaı̂ne de Markov (absorbante) associée est
( )
1 0 . . . ...
Ces idées seront aprofondies dans les chapitres suivants, où nous regarderons quelques
autres problèmes résolubles par le conditionnement sur le(s) premier(s) pas.
En plus, ils se regrouperont en deux types de questions :
1. ”Gain final esperé”, satisfaisant :
∑T−1
fn = En [ h(Xi )] = h(n) + pfn+1 + qfn−1 ⇐⇒ (Gf)n = 0, f(0) = 0, f(B) = 0
0
Solution :
1. b0 = 0, bB = 1
2. Gain final esperé, g(x) = 1x=B .
En conditionnant, on trouve :
bn = Pn [X(T ) = B]
= p Pn [X(T ) = B/X(1) = n + 1] + q Pn [X(T ) = B/X(1) = n − 1]
= p bn+1 + q n−1 1 ≤ n ≤ B − 1
car
bn+1 bn−1
bn = + for any 1 ≤ n ≤ B − 1
2 2
bB = 1
b0 = 0
91
La méthode de résolution des équations de récurrence homogènes à coefficients constants
commence en cherchant des solutions de la forme bn = rn . Si les racines de l’équation
auxiliaire sont distinctes, la solution générale est :
bn = k1 r1n + k2 r2n
fx+1 fx−1
fx = + for any 1 ≤ x ≤ B − 1
2 2
fB = B
f0 = 0
(C’est aussi une fonction ”harmonique”, mais avec conditions frontière différentes.)
6. tx = Ex [T ] (temps de sortie ésperé) est un coût total accumulé esperé (obtenu en
prenant h(x) = 1), qui satisfait le système inhomogène Gt(x) + 1 = 0, t(0) = 0, t(B) =
0.
Pour p = q
tx+1 tx−1
tx = + + 1 for any 1 ≤ x ≤ B − 1
2 2
tB = 0
t0 = 0
tx = tp (x) + h(x)
où tp (x) est une solution particulière et h(x) est la solution générale de l’équation
homogène. Commençons par l’équation homogène.
La solution générale homogène (”fonction harmonique”) h(x) = A + Bx pour cet
opérateur a été déjà obtenue ci-dessus.
92
Nous aimerions maintenant trouver une solution particulière tp (x) de l’équation Gtp (x) =
−1 de la même forme que la partie nonhomogène −1 de l’équation, donc tp (x) = C;
mais, comme les constantes, et puis aussi les fonctions linéaires vérifient l’équation
homogène Gtp (x) = 0, nous devrons modifier deux fois cette forme en multipliant par
x, en arrivant donc à t( x) = Cx2 . Comme Gx2 = 2x(p − q) + 1 = 1, on trouve C = −1
et finalement la solution particulière tp (x) = −x2 .
La solution générale est donc t(x) = −x2 + A + Bx et les conditions frontière ramènent
à tx = x(B − x).
Pour p ̸= q
tx = ptx+1 + qtx−1 + 1 for any 1 ≤ x ≤ B − 1
tB = 0
t0 = 0
La solution generale homogène avec p ̸= q est h(x) = k1 (q/p)n + k2 et le terme
nonhomogène 1 sugere une solution particulière constante k, mais comme ça satisfait
1
l’équation homogène, on modifie à kn. Finalement, k = q−p .
x
La solution particulière est tp (x) = q−p ; elle satisfait deja tp (0) = 0. La partie homogène
h(x) = tx − tp (x) devra aussi satisfaire h(0) = 0 et donc elle sera de la forme h(x) =
Ah̃(x) où h̃(x) = ((q/p)x − 1).
En demandant que tn = q−p n
+ A(q/p)n − 1) satisfait la condition frontière tB = 0 on
trouve :
h̃(n) n B (q/p)n − 1
tn = tp (n) − tp (B) = − .
h̃(B) q − p q − p (q/p)B − 1
{
∞ si p > q
La limite quand B → ∞ est tn = n
; on peut aussi obtenir ce
tp (n) = q−p si p < q
resultat en utilisant l’approximation détérmiste Xn − X0 ∼ nE(Z1 ), appellée aussi
limite fluide.
∑
7. cx = Ex [ T0 −1 X(t)] (coût total d’inventaire ésperé) satisfait le système inhomogène
Gc(x) + x = 0, c(0) = 0, c(B) = 0.
Pour p = q :
cx+1 cx−1
cx = + + x for any 1 ≤ x ≤ B − 1
2 2
cB = 0
c0 = 0
−x3 x(B 2 −x2 )
Une solution particulière est cp (x) = 3
. Finalement, on arrive à c(x) = 3
.
x2
Pour p ̸= q, une solution particulière est cp (x) = 2(q−p)
(elle satisfait deja cp (0) = 0).
La partie homogène satisfaisant h(0) = 0 sera toujours h(x) = Ah̃(x) où h̃(x) =
((q/p)x − 1).
En demandant que cn = cp (n) + A(q/p)n − 1) satisfait la condition frontière cB = 0 on
trouve :
h̃(n)
cn = cp (n) − cp (B)
h̃(B)
93
{
∞ si p > q
La limite quand B → ∞ est cn = .
cp (n) si p < q
8. On arrive a w(x) = A1 z1x + A2 z2x , où zi sont les racines de pz 2 − a−1 z + q = 0, et Ai
z x −z x +z x z x (z B−x −z2B−x )
satisfont A1 z1B + A2 z2B = 1, A1 + A2 = 1 et w(x) = 1 2 1zZ2 −z1B
1 2
Exercice 10.2 Calculer les probabilités de ruine ψx , x ∈{N, pour une marche sur les nombres
}
8 1 1
naturelles, avec la distribution de chaque pas donné par : p1 = 10 , p−1 = 10 , p−2 = 10 . Mon-
trer qu’elles sont positives.
8
R : La moyenne est m1 = 1/2 > 0. Les probabilités de ruine satisfont ψx = 10 ψx+1 +
1
ψ
10 x−1
+ 10 ψx−2 , x ∈ N. Elles sont des combinaisons de puissances ρx , avec ρ une racine de
1
8 3 1 1 8 2 1 8
ρ − ρ2 + ρ + = (ρ − 1)( ρ2 − ρ − ) = (ρ − 1)(ρ − 1/2)(ρ + 1/4)
10 10 10 10 10 10 10
94
ψx = A1 ( 12 )x + A2 ( −1
4
)x satisfait ψ0 = ψ−1 = 1 ssi A1 = 5/6, A2 = 1/6. Les probabilités
de ruine sont : ( )x ( )x ( )x
5 1 1 1 5 1
ψx = + − ≈
6 2 6 4 6 2
{ }
Exercice 10.3 Calculer les probabilités de ruine pour une marche avec p2 = 83 , p1 = 18 , p−1 = 12
Une autre approche possible est par le théorème d’arrêt des martingales.
Examinons maintenant la méthode de fonctions génératrices (analogues à la transformée de Laplace), qui n’est pas
réellement necessaire pour la marche simple, mais qui est la méthode la plus puissante pour la resolution des èquations de
differences (différentielles).
On ajoute les équations ψ n = pψ n+1 + qψ n−1 multipliées respectivement par z n , n = 1, 2, .. On obtient ainsi une èquation
∗ ∑
pour la fonction ψ (z) := ∞ n
n=1 z ψ n :
∗ pψ 1
ψ (z) =
Φ(z) − 1
où Φ(z) = Ez Z1 = pz −1 + qz
De lors,
1 zpψ 1 p − qz − pzψ 1 p − qz − z(p − q) p
ψ ∗ (z) = − = = =
1−z p + qz 2 − z (1 − z)(p − qz) (1 − z)(p − qz) p − qz
95
10.4.1 L’équation de récurrence linéaire à coefficients constants
Les deux équations de récurrence linéaire de deuxième ordre ci-dessous
L’équation homogène
Si les coefficients a, b et c sont constants, on sait qu’ils existent des solutions de la forme
un = xn pour tout n ( fonctions exponentielles ). Pour trouver x on remplace xn en (10.2)
et on trouve que x doit satisfaire l’équation auxiliaire :
L’équation nonhomogène
La résolution du problème nonhomogène (10.3) comporte quatre pas :
1. Trouver un basis pour l’espace vectoriel des solutions de l’équation auxiliaire homogène
(10.2), et donc la solution générale un pour cette équation.
2. Déterminer une solution particulière de (10.3), par exemple en utilisant une expression
”essai” ṽn qui a la même forme générale que le membre droit dn ,, mais des coefficients
non-déterminés. Par exemple, si dn est un polynôme d’ordre k, on essaie un polynôme
général d’ordre k.
3. Néanmoins, si votre expression d’essai a des termes qui sont inclus dans l’espace vec-
toriel des solutions de l’équation homogène obtenue au pas 1 (et donc qui vont être
annihilés par l’operateur des différences), il faut multiplier l’expression d’essai par
n, n2 , ... jusqu’à ce qu’il n’y a plus des termes inclus dans cet’espace .
4. Aprés la decision de la forme d’essai, on trouvent les valeurs des coefficients de ṽn à
partir de (10.3), par la méthode des coefficients non-déterminés.
5. La solution générale de (10.3) est de la forme vn = ṽn + un . On trouve finalement les
coeficients encore non déterminés en un , en utilisant les conditions sur la frontière pour
vn .
96
Exemple 10.2 On considére l’ensemble E des suites (un )n∈N qui vérifient la relation sui-
vante :
3
(R) ∀n∈ N, un+2 + un+1 − un = 0.
2
1. Rechercher les suites géométriques qui vérifient cette relation (R).
2. On note r1 et r2 leurs raisons et on admet que E est un espace vectoriel de dimension
2, i.e. toute suite de E s’écrit sous la forme
un = αr1n + βr2n , ∀n∈ N.
Soit (an ) la suite de E qui vérifie a0 = 1 et a1 = 0. Calculer an .
Exemple 10.3 On considére l’ensemble E ′ des suites (vn ) qui vérifient la relation :
3
(R′ ) ∀n∈ N,
vn+2 + vn+1 − vn = 4n + 1.
2
1. On pose ∀n∈ N, un = an + b. Déterminer a et b pour que (un ) soit une solution
particuliére de (R′ ).
2. Soit (vn ) une suite de E ′ .
(a) Pour toute suite (tn ) de E ′ on définit la suite (un ) par ∀n∈ N, un = vn − tn .
Vérifier que (un ) ∈ E.
(b) En déduire que ∀n∈ N, vn = αr1n + βr2n + an + b.
(c) Déterminer vn pour v0 = − 59 et v1 = − 26
9
.
Exemple 10.4 Obtenez les formules analytiques des suites décrites par les relations de
récurrence ci-dessous, et vérifiez-les en utilisant les premiers termes de la suite t2 , t3 .
1. ti = 2ti−1 + i − 1, t0 = 0
2. ti = 2ti−1 + 5 · 2i , t0 = 0
3. ti = 3ti−1 − 2ti−2 + 2, t0 = 0, t1 = 2
4. ti = 2ti−1 − ti−2 + 2, t0 = 0, t1 = 2
Solution :
1. C’est une équation nonhomogène, alors nous aurons :
ti = t̃i + A2i , t̃i = c1 i + c2 avec c1 i + c2 = 2(c1 i − c1 + c2 ) + i − 1
et alors c1 = 2c1 + 1 et c1 = −1
c2 = −2c1 + 2c2 − 1 et c2 = 2c1 + 1 = −1
t̃i = −i − 1 Finalement,
t0 = = 0 = −1 + A et A = 1
ti = −i − 1 + 2i
2. C’est une équation nonhomogène, alors :
ti = t̃i + A2i , t̃i = ci2i avec ci2i = 2(c(i − 1)2i /2) + 52i
97
3. C’est une équation de différences nonhomogène et l’équation quadratique attachée a
les racines 1, 2, alors nous aurons :
ti = t̃i + A1 2i + A2 , t̃i = ci avec ci = 3(ci − c) − 2(ci − 2c) + 2
et alors c = −2 et c2 = 2c1 + 1 = −1
t̃i = −i − 1 Finalement,
t0 = = 0 = −1 + A et A = 1
ti = −i − 1 + 2i
4. C’est une équation de différences nonhomogène dont les racines de l’équation quadra-
tique attachée sont confondues égales à 1 donc nous aurons :
ti = t̃i + A1 + A2 i, t̃i = c1 i + c2 avec c1 i + c2 = 2(c1 i − c1 + c2 ) + i − 1
et alors c1 = 2c1 + 1 et c1 = −1
c2 = −2c1 + 2c2 − 1 et c2 = 2c1 + 1 = −1
t̃i = −i − 1 Finalement,
t0 = = 0 = −1 + A et A = 1
ti = −i − 1 + 2i
98
Sol : a)
1
(a + 3/4) 3n − (3 + 2n)
4
a + 3/4 1/4 1/2 a(z − 1)2 + z
− − =
1 − 3z 1 − z (z − 1)2 (z − 1)2 (3z − 1)
Exercice 10.6
a) Obtenez une formule explicite pour la suite décrite par la relation de récurrence ci-dessous
(et verifiez-la en utilisant les premiers termes de la suite)
99
Solution : a)
1
(a + 3/4) 3n − (3 + 2n)
4
b)
a + 3/4 1/4 1/2 a(z − 1)2 + z
− − =
1 − 3z 1 − z (z − 1)2 (z − 1)2 (3z − 1)
100
10.5 Exercices d’entrainement
1. L’espace des états d’une chaine est S = 1, 2, 3, 4, 5, 6 et la matrice de transition est
1 1
1
0 4 2
0 0 4
0 1 0 0 0 0
0 0 13 0 23 0
P =
0 0 0 0 0 1
0 0 14 0 34 0
1
4
0 0 0 34 0
(a) Dessinez le graphe de communication et identifiez les classes de la chaîne. Classifier
les classes en récurrents et transientes. Y’ a-t-il des classes periodiques ?
(b) Trouvez la distribution stationnaire des classes récurrentes.
(c) Trouvez la limite quand n → inf de la matrice de transition apres n étapes
Pn
2. Considérez une particule effectuant une marche aléatoire simple Xt , t = 0, 1, 2, ...
sur le graphe (A) ci-dessous : i.e. à chaque moment t = 1, 2, ..., la particule se déplace
vers l’un de ses voisins sur le graphe à sa position actuelle, avec la même probabilité
pour chaque choix.
(A) (B)
1
1
2 3 2 3
0 0
5 4 5 4
(a) Calculer :
i. Les probabilités stationnaires de chaque noeud.
ii. L’éspérance en sortant de 1 du nombre de pas T0 jusq’au noeud 0. Indication :
Utiliser la symmetrie.
iii. L’éspérance en sortant de 0 du nombre de pas T̃0 jusq’au premier retour en
0.
(b) i. La probabilité x2 = P2 {XT = 1}, où T = min[T1 , T0 ].
ii. Les probabilités pk en partant de 2 que la marche visite 1 exactement k fois
(k = 0, 1, 2, ...) avant le premier retour en 0.
101
iii. Les probabilités pk en partant de 5 que la marche visite 1 exactement
∑∞ k fois
(k = 0, 1, 2, ...) avant le premier retour en 0. Vérifier la somme k=0 pk .
iv. Les probabilités pk en partant de 1 que la marche visite 0 exactement k fois
(k = 0, 1, 2, ...) avant le premier retour en 1.
(c) À un moment donné, le passage sur certaines arrêtes du graphe devient impossible,
ou possible seulement dans une direction, comme indiqué par des flèches dans le
graphe (B). La particule continue de choisir des destinations suivant le graphe
initial (A) comme dans la question précédente, mais les choix qui ne sont plus
disponibles résultent cette fois dans un pas annulé, donc sur place.
i. Donnez la matrice de transition de la marche.
ii. Identifiez les classes de la chaı̂ne, et classifiez les en récurrentes et transitoires.
iii. Trouvez la distribution stationnaire de chaque classe récurrente.
iv. Est-ce que la limite quand n → ∞ de la matrice de transition apres n étapes
P n existe ?
v. Le cas écheant, trouvez-la.
3. La marche paresseuse : Soit Xn = X0 + Z1 + Z2 + · · · + Zn une marche aléatoire
sur Z, avec (Zn ) une suite de variables aléatoires réelles indépendantes de même loi
P [Zn = 1] =p, P [Zn = −1] =q et P [Zn = 0] =1- p-q, avec 0 < p + q < 1. Pour tout
x de N, on note par Ex l’espérance en commençant de x (conditionnant sur X0 = x).
Nous arrêtons le processus au temps d’arrêt T auquel le processus sort de l’intervalle
[0, K] pour 0 < K donnés.
(a) Classifiez les pbs suivantes
∑T −1 px = Px {XT ∑= K}, fx = Ex [XT ], gx = Ex [XT2 ],
tx = Ex T, cx = Ex [ 0 Xt ], et dx = Ex [ T0 −1 Xt2 ] comme des pbs de prix final
ou de coût accumulé. Quelles sont les équations de récurrence et les conditions
frontière corespondant a chaque pb ?
(b) (*) Obtenez l’équation de récurrence et les conditions frontière satisfaites par
wx = Ex aT .
(c) Rappeler les etapes principales de la resolution des équations de récurrence avec
coefficients constants qui en résultent pour a) px , b) fx , c) tx , et d) cx , dans les
deux cas possibles p < q et p = q < 1/2. Donner les réponses finales dans le cas
p = q < 1/2.
4. Calculer les probabilités de ruine px , x ∈ N, pour une { marche sur les nombres}
naturels, avec la distribution de chaque pas donnée par : p1 = 7 , p−1 = 0, p−2 = 17 .
6
102
6. Des femmes et des hommes arrivent dans un magasin, après des temps fixes, unitaires.
Chaque instant, une femme arrive avec probabilité λF , ou un homme arrive avec pro-
babilité λH , ou il n’y a pas d’arrivée, avec probabilité q = 1 − λF − λH .
a. Trouver la probabilité qu’une femme entre avant un homme. Indication : Condition-
nez sur le premier instant, ou sur le nombre d’instants sans arrivées.
b. Trouver la probabilité que deux femme entrent avant un homme.
c. Quelle est la probabilité qu’au moins deux hommes soient entrés consecu-
tivement, avant que trois femmes ne soient entrées consecutivement
Indication : Considèrez un processus de Markov sur l’espace des états : (H1, H2, H3, ...)∪
(F 1, F 2, F 3, ...), qui enregistre la longueur k du nombre des clients k ∈ {1, 2, ...} du
même sexe entrés consecutivement jusq’au temps t, et leur sexe (H/F) ; formulez des
equations d’arrêt pour les états d’arrêt indiqués.
7. Une particule décrit une marche aléatoire sur E = {1, 2, ..., 2n − 1} : si la particule est
en i < n, alors elle se déplace en j = i + 1, et si la particule est en i > n, alors elle se
déplace en j = i − 1 ; si la particule est en i = n, alors elle se déplace en une position
j choisie avec probabilités egales parmi les elements de E différentes de n. La position
Xk au temps k constitue une chaı̂ne de Markov.
(a) Donner la matrice de transition.
(b) Déterminer la loi stationnaire (invariante) de la chaı̂ne.
(c) Calculer la position moyenne de la particule en regime stationnaire.
(d) Calculer l’espérance du temps de retour d’une particule qui part de n.
8. Soit Xt une chaı̂ne de Markov représentant le nombre de clients en attente dans
un arrêt de bus, dans le quel à chaque instant t = 1, 2, .. (en temps discret !) une seule
personne arrive (ou pas) avec probabilité p < 1, et en suite le bus arrive (ou pas) avec
probabilité q < 1, et prend tous les voyageurs (le dernier arrivé inclu).
a) Dessinez le graph de transitions de ce processus, en indiquant les probabilités λ et
µ pour que le nombre de voyageurs augmente et diminue respectivement, ainsi que la
probabilité z pour que ce nombre reste inchangé. Donnez la matrice des probabilités
de transition pour la chaı̂ne Xt .
b) Calculez la distribution stationnaire de Xt .
c) Calculez, en utilisant un système de conditionnement, l’éspérance en sortant de 0
du nombre des pas T̃0 jusqu’au premier retour en 0.
d) Reprenez les question précédentes pour une file d’attente M(λ)/M(µ)/1, dans la
quelle le serveur sert chaque fois simultanément tous les clients qu’il trouve en
attente dans le tampon (arrivés dans la file après le début de son dernier service). Plus
précisément, donnez la matrice génératrice pour le processus Xt . Indiquer les valeurs
des probabilités λ̃ et µ̃ pour que le nombre de clients augmente/diminue, au moment
du premier saut à partir d’un état n ≥ 0. Reprenez ensuite les questions b), c).
9. Marche reversible ?
(a) Considerez une chaı̂ne de Markov sur {1, 2, 3} avec matrice des transitions
0 1/6 5/6
P = 6/7 0 1/7
30/31 1/31 0
103
Combien d’équations d’équilibre detaillé
10.6 Solutions
1. a) Les classes récurrentes sont 2 et 3,5. La classe transiente 1,4,6 est périodique de
période 3 (par exemple en regardant le graph, ou en remarquant que les puissances de
P projeté sur 1,4,6 ont la même structure des elts nonnuls.
Algébriquement, on peut aussi calculer les valeurs propres, i.e. les racines du pol char :
(1 − x)2 (1 − 12x)(1 − 16x3 ). Les trois racines li = 1/2 ∗ (1/2)1/3 , i = 1, 2, 3 exhibent une
périodicité de degré 3, ”diminuant vers 0” (en fait, la réponse depend de la definition,
car souvent on n’inclut pas ce genre de périodicité dans les classes transientes).
c) Pour obtenir la limite, on a juste besoin des probabilités d’absorbtion dans la classe
2, qui satisfont :
104
2. (a) i. πi sont proportionels aux degrés di des sommets. En divisant par la somme
D = 2 + 4 ∗ 3 + 3 ∗ 2 = 20, on trouve πi = ∑didj , donnant (π1 = 2/20 =
j
1
10
, π2 = π3 = π0 = 4/20 = 15 , π4 = π5 = 3
20
)
ii. Soit
ti = Ei T0 = Ei [ nombre esperé de pas jusq’au noeud 0].
Rq : Pour cette question, le noeud 0 est effectivement absorbant.
La symmetrie implique t2 = t3 , t5 = t4 , donc trois équations suffiront (au lieu
de 5). En conditionnant sur le premier pas, on trouve que ti satisfont :
t1 = 1 + t2
1 1 1
t2 = 1 + t1 + t2 + t5
4 4 4
1 1
t5 = 1 + t5 + t2
3 3
Rq : C’est la structure typique Gt + 1 = 0 pour les pbs de temps esperé.
Ça donne : t5 = 11
3
, t2 = 13
3
, t1 = 16
3
105
(c) i. Après la détérioration, la matrice de transition est :
1 0 0 0 0 0
0 0 12 12 0 0
1
1
0 1
0 1
P =
1
4 4 4 4
4
1
4
1
4
0 14 0
0 0 0 0 23 13
0 0 0 0 13 23
1 1
x1 = x2 + x3
2 2
1 1 1
x 2 = x3 + x1 +
4 4 4
1 1 1
x 3 = x2 + x1 +
4 4 4
et x1 = x2 = x3 = 12 .
v. La matrice des distributions asymptotique est :
1 0 0 0 0 0
1 0 0 0 14 14
21
0 0 0 14 14
P = 2
1 0
2 0 0 14 14
0 0 0 0 21 12
0 0 0 0 21 12
106
Les équations sont respectivement :
(Gp)x = 0, pK = 1, p0 =0
(Gf )x = 0, fK = K, f0 =0
(Gg)x = 0, gK = K 2 , d0 =0
(Gt)x + 1 = 0, tK = 0, t0 =0
(Gc)x + x = 0, cK = 0, c0 =0
(Gw)x + (1 − a−1 )wx , wK = 1, w0 =1
Ces sont exactement les mêmes équations comme pour une marche non-paresseuse,
sauf que l’opérateur est different.
(c) Pour px et fx on obtient donc les mêmes équations comme pour une marche sym-
metrique avec p = 1/2, par exemple :
solution est
cx = c0 (x) − c0 (K) h(K)
h(x)
où h(x) = 1 − (q/p)x est une solution homogène satisfaisant
h(0) = 0. Pour K = ∞, q > p on obtient c(x) = c0 (x).
Remarque : Le fait que les équations sont identiques pour ces deux marches (pares-
seuse et non-paresseuse) n’est pas une coincidence. En fait, il s’avère que les réponses
obtenues sont les mêmes por n’importe quel processus Markovien homogène, si on de-
fini l’opérateur de la façon juste. Donc, la réponse pour tous les problèmes concernant
espérances va impliquer un seul opérateur G (seulement les conditions frontière et la
partie non-homogène changent d’un problème à l’autre)- en fait, la famille des processus
aléatoires Markoviens est isomorphe à une famille d’opérateurs déterministes.
En plus, la structure des réponses en fonction de G est la même pour toutes les
processus aléatoires Markoviens, malgré leur diversité ; c’est un fait remarquable, qui
démontre la puissance de ce concept.
107
4. Les probabilités de ruine satisfont px = 67 px+1 + 17 px−2 , x ∈ N. Elles sont des combinai-
sons de puissances ρx , avec ρ une racine de
6 3 1 6 1 1 6
ρ − ρ2 + = (ρ − 1)( ρ2 − ρ − ) = (ρ − 1)(ρ − 1/2)(ρ + 1/3)
7 7 7 7 7 7
px = A1 ( 12 )x + A2 ( −1
3
)x satisfait p0 = p−1 = 1 ssi A1 = 4/5, A2 = 1/5.
5. Considerons le processus de Markov sur des états specifiant les deux dernièrs résultats
posibles : {P F }, {∗P }, {P c F }, ∅. Les deux inconnues x1 = x{∗P } , x2 = x{P c F } satisfont :
y 1 = p H + p F x1
x1 = p H y 1 + p F x2
x2 = pH y1
∑k
Generalisant pour m hommes et n femmes et posant SF,k = piF , SH,k =
∑k i i=1
i=1 pH , nous trouvont
pm−1
H pm
H SF,n−2
y1 = , x1 =
1 − pH pF SH,m−2 SF,n−2 1 − pH pF SH,m−2 SF,n−2
et finalement
pm
H (1 + pF SF,n−2 ) pmH SF,n−1 )
p H y 1 + p F x1 = =
1 − pH pF SH,m−2 SF,n−2 1 − pH pF SH,m−2 SF,n−2
Pour m = 2, n = 3, on trouve :
pH p2H (1 + pF )
y1 = , x1 =
1 − pH pF (1 + pF ) 1 − pH pF (1 + pF )
et
p2H (1 + pF + p2F )
pH y 1 + p F x 1 =
1 − pH pF (1 + pF )
108
7. (a) La matrice de transition est :
0 1 0 ... 0 0 0
0 0 1 0 ... 0 0
0 0 0 1 0 ... 0
1
P =
2n−2
1
2n−2
... 0 ... 1
2n−2
1
2n−2
... 0 0 1 0 0 0
0 0 0 0 1 0 0
0 0 0 ... 0 1 0
k
(b) πk = 2(n−1) πn , ∀k < n et la symmetrie πk = π2n−k impliquent πn (1 + (n−1)n
2(n−1)
) =
n 2
πn (1 + 2 ) = 1 et πn = 2+n )
(c) ES [Xn ] = n
2+n
(d) tn = 2
8. a) Soitλ = p(1−q), µ = q. On a z0 = 1−λ, et ∀n ≥ 1, zn = z = 1−λ−µ = (1−p)(1−q).
Le graph de communication est :
λ λ λ λ
0 1 2 n
µ
µ µ
µ
Figure 10.1 – Exe 2 : Le serveur sert tous les clients
109
Il ne reste qu’a normaliser par la somme :
1
π= (36, 37, 31).
74
110
pourrait utiliser un processus de Markov qui retient l’information minimale nécessaire
pour décider si l’événement désiré a eu lieu, et qui contient dans ce cas l’état final
desiré, et tous ses prefixes.
b)(*) Trouvez l’espérance n = EN quand K=3. Proposez une formule valable pour
un nb. arbitraire K.
2. On lance une monnaie biaisée avec probabilité de sortir pile p, et on s’arrête la premiére
fois quand une pile arrive après un nombre impaire de faces. Trouvez l’espérance du
temps de ce jeu. Indication : Utilisez un processus de Markov qui retient toujours
l’information minimale necessaire pour decider si l’evenement desiré a eu lieu.
3. n points indépendents sont choisis uniformement sur le perimètre d’un cercle. Quelle
est la probabilité pn qu’il existe un démi-cercle contenant tous les points ?
Ind. Trouvez p2 , p3 . Fixez un point i et trouvez la probabilité p que le démi-cercle
voisin, dans le sense des aiguilles d’une montre, contient tous les points.
Solutions :
1. a) Considerons le processus de Markov sur les états suivants, qui specifient une de-
composition en trois cas possibles pour la longueur de la dernière suite des deux piles :
A = {P P }, P = {P c P }, P c = {P c P }, et soit x0 , x1 , x2 = 0 le nombre esperé des futurs
pas jusq’á(l’arrêt, )
conditionné par ces états initiaux.
q p
Soit Q = . Les deux inconnues v = (x0 , x1 ) satisfont (Q − I)v + 1 = 0. La
q 0
réponse est
1 1+p
x1 = 2 , x 0 = .
p p2
b) Considerons le processus de Markov sur les états suivants, qui specifient une de-
composition en trois cas possibles pour la longueur de la dernière suite des piles :
A = {P P P }, P P = {P c P P }, P = {P c P }, P c = {P c }, et soit x0 , x1 , x2 , x3 = 0 le
nombre esperé
des futurs pas jusq’á l’arrêt, conditionné par ces états initiaux.
q p 0
Soit Q = q 0 p. Les trois inconnues v = (x0 , x1 , x2 ) satisfont (Q − I)v + 1 = 0.
q 0 0
La réponse est
1 1+p 1 + p + p2
x2 = 3 , x1 = , x 0 =
p p3 p3
2. Soit N le nombre de pas jusqu’à la premiére fois quand une pile arrive après un nombre
impaire de faces, et n son espérance . Le conditionnement sur le premier pas ne marche
pas, mais il y d’autres approches possibles :
a) Remarquons que les trois evenements F P, P, F F constitue une decomposition de
l’espace d’états qui permet soit de constater que notre evenement d’arrêt est arrivé,
soit de relancer le processus du debut. Par conéquant :
p + 2q 1+q
n = pq2 + p(1 + n) + q 2 (2 + n) ⇔ n = =
q(1 − q) qp
b) On peut aussi ”habiller” cette solution en langage Markovien, en définissant une
chaı̂ne qui enregistre les ètats finaux transients 1 =nb paire des F, 2 =nb quelqonque
111
des P, 3 =nb impaire des F, ∂ =nb impaire des F suivi par P. Le système pour
l’espérance du temps d’arrêt est :
n = n1 = 1 + pn2 + qn3
n2 = qn3 + 1
n3 1 + qn1
E = {P, F P, F F P, F F F P, F F F F P, ..}
Dans le premier, troisième, ...cas, on recommence. Dans le dexième, quatrième, ..., on
conclut N = 2, 4, .... Le temps d’arrêt permettant une solution est donc le temps T de
la premiére pile. En conditionnant sur T , on trouve :
∑
∞ ∑
∞
n = E[N ] = q 2k−1 p(2k) + q 2k p(2k + 1 + n)
k=1 k=1
q 2 ∑∞
−1
= (1 + n)p + pq(1 + q ) 2kq 2k−1
1 − q2 k=1
∑∞ 1 ′ 2q q(2+pq)
Comme k=1 2kq 2k−1 = ( 1−q 2) = (1−q 2 )2
, on trouve finalement : n = 1+q 3
.
112
10.8 Contrôle continu 2012
1. L’espace des états d’une chaine est S = 1, 2, 3, 4, 5, 6 et la matrice de transition est
1 1 1 1
0 3 6 3 6
0
0 1 0 0 0 0
0 0 1−a 0 a 0
P =
1 1
0 2
0 0 0 2
0 0 b 0 1−b 0
1 0 0 0 0 0
(a) Dessinez le graphe de communication et identifiez les classes de la chaîne. Classifier
les classes en récurrents et transientes.
(b) Trouvez la distribution stationnaire des classes récurrentes.
(c) Trouvez la limite quand n → inf de la matrice de transition apres n étapes P n
2. Probabilités de ruine . Soit
1, avec probabilité p1 = 34
∑
n
Xn = x + Zi , Zi = −1, p−1 = 121
,
i=1 −2, p−2 = 6 1
P (i, i + 1) = p fi ,
P (i, i − 1) = q fi ,
P (i, i) = 1 − (p + q)fi ,
P (i, i + k) = 0 pour|k| > 2, ∀i ∈ {1, 2, ..., B − 1}
113
Solutions contrôle continu :
1.(a,b) 2+2 p Les classes récurrentes sont 2 et 3,5.
c) 3+1 p Pour obtenir la limite, on a juste besoin des probabilités d’absorbtion dans
la classe 2, qui satisfont :
1 1 1 1 3 4
y4 = y6 + , y6 = y1 , y1 = y4 + =⇒ y1 = = y6 , y4 =
2 2 3 3 5 5
(Gp)x = 0, pK = 1, p0 = 0
(Gg)x = 0, gK = K, g0 = 0
fx (Gt)x + 1 = 0, tK = 0, t0 = 0
La partie homogène des équations est exactement la même comme pour une marche
”non-paresseuse”, mais la partie non-homogène des équations est differente.
(b) 3 p Pour px et gx on obtient les mêmes équations (dans les deux cas de fi ) comme
pour une marche symmetrique avec p = 1/2, i.e. :
114
Chapitre 11
ch:Mart Martingales
Les martingales sont une famille des processus stochastiques, inspirée par la théorie des
jeux, qui a trouvé des applications dans plusieures branches des probabilités.
Le terme désigne dans la théorie des jeux une statégie permettant de gagner à coup sûr
dans un jeu équitable (comme le pile ou face).
Pour la martingale mathématique, on se place dans un espace probabilisé (Ω, A, P ),
avec une suite des variables Xn , n ∈ N, qui represente la fortune d’un joueur au temps n,
et une deuxième suite Yn , n ∈ N, qui represente des informations acquises au temps n. Par
exemple, Yn pourrait être la mise du jeux n, et alors
∑
n
Xn+1 = X0 + Yk = Xn + Yn+1
k=1
Si Yi sont i.i.d., alors on est dans le cadre des probabilités classiques, mais justement les
martingales généralisent ce cadre considerablement (les mises peuvent dépendre de ”l’infor-
mation du passé” Fn = σ(Y1 , Y2 , ..., Yn )).
Un jeux est charactérisé par la suite E[Xn+1 |Y1 , Y2 , ..., Yn ] = E[Xn+1 |σ(Y1 , Y2 , ..., Yn )] =
E[Xn+1 |Fn ]. Il est appellé martingale (ou jeu juste) si E[Xn+1 |Fn ] = 0, ∀n.
Exemple 11.1 Prenons un exemple de jeu dû à D’Alembert : on parie x euros sur pile. Si
la pièce tombe sur pile, on ramasse 2x euros (soit un gain de x euros), et si elle tombe sur
face, on perd tout. A chaque coup, on est libre de se retirer ou de continuer à jouer. Une
stratégie gagnante à coup sûr est la suivante : au 1er coup, on mise 1 euro : si on gagne, on
se retire (et on empoche 1 euro) ; sinon, on continue (et on a perdu 1 euro). au 2ème coup,
on double la mise, 2 euros : si on gagne, on se retire, et on a gagné 2-1=1 euro. Sinon on
continue, on a perdu 2+1=3 euros. au 3ème coup, on double encore la mise, en jouant 4
euros. Si on gagne, on se retire, avec en poche un gain de 4-3=1 euro. Sinon, on continue
la partie, et on double au coup suivant la mise, etc...
La théorie des martingales modélise en théorie des probabilités le concept de jeu équitable
(ou juste), en stipulant que l’espérance du gain doit être 0 a chaque mise. Rémarquons que
notre exemple est un jeu juste. Mais, comme pile va bien finir par tomber, on est sûr de finir
par gagner 1 euro (à condition d’avoir une fortune infinie). Cela contredit l’intuition ”qu’un
ne peut pas gagner contre un jeu juste”, qui est formalisée dans un théorème qui affirme que
si un joueur a une fortune initiale finie, il n’existe pas de stratégie pour gagner à coup sûr,
dans un jeu juste et ”raisonnable”.
On verra plus tard comment definir ”raisonnable” ; pour l’instant, rémarquons que si pile
met du temps a sortir, il va falloir miser beaucoup ( si la pile sort qu’au 8è tirage, alors on
aura déjà misé 1+2+4+8+16+32+64+128=255 euros, et tout cela pour gagner 1 euro).
La théorie des martingales jetera de la lumière sur ce paradoxe de ”gagner dans un jeu
juste”, sans avoir aucun capital.
115
Rapellons les definitions de base de la théorie des martingales.
Définition 11.1 Une filtration est une suite croissante (au sens de l’inclusion) (Ft )t∈T
de sous-tribus de A, oú T est un ensemble ordonné (muni d’une rélation d’ordre).
Définition 11.2 Un processus Xt est dit adapté à une filtration (Ft ) si Xt est (Ft )- me-
surable pour chaque t. La notation est Xt ∈ Ft .
Définition 11.3 Un jeu est une paire formée par une filtration Ft et par une suite des v.a.
Xt ∈ Ft .
Définition 11.5 Martingales en temps discret. Soit (Yn )n∈N une suite de variables
aléatoires réelles définies sur (Ω, A, P ), intégrables, indépendantes et centrées. Pour tout
n de N , la suite de tribus : Fn = σ (Y0 , Y1 , ..., Yn ) est une filtration.
Une suite (Xn ) ∈ (Fn )n∈N , n ∈ N de variables aléatoires réelles intégrables est une
martingale en temps discret par rapport à (Fn ) si elle vérifie :
∀n ∈ N , E (Xn+1 | Fn ) = Xn .
Xn = Y0 + Y1 + · · · + Yn
116
Exemple 11.3 Martingale multiplicative=Produit de variables aléatoires indépendantes de
moyenne 1. Si (Yn )n∈N est une suite de variables aléatoires intégrables, indépendantes avec
moyennes 1, alors la suite des produits :
∏
n
Xn = Y0 × Y1 × · · · × Yn = Yk
k=0
E(ζ|F∞ ) = ζn
Exercice 11.1 Soit (Xn )n∈N une martingale par rapport à une filtration (Fn )n∈N . Soient m
et n deux entiers positifs tels que m < n , calculer E ((Xm+1 − Xm ) (Xn+1 − Xn )) .
Sol : La demo est trés facile, car pour les martingales additives et multiplicatives, les
espérances conditionnelles se reduisent a des espérances non-conditionnelles.
En effet
∑
k
E[Xk+n |Fn ] = E[Xn + Zn+i |Fn ]
i=1
∑
k
= Xn + E[ Zn+i ] = Xn
i=1
117
The case of multiplicative martingales ∑
is similar.
t
Interprétation : Une somme X(t) = i=1 Zi , où Zi = ui , li a.p. pi , qi , peut être vue
comme les gains cumulés d’un joueur qui mise Zi au temps i. Si le jeu est ”juste” au sense
que EZi = 0, alors il est evident que
EXt = 0, ∀t,
i.e. les gains esperés sont 0. Outrement dit, le joueur qui s’arrête a un temps fixe ne peut
pas améliorer l’espace d’états de ses gains cumulés à un moment futur fixe, juste en variant
les mises Zi (tant que EZi = 0).
Il se pose alors la question si des mises plus sohistiqués, conditionnées par le passé,
ou d’autres strategies d’arrêt T, par exemple T = min(TL , TK ), peuvent améliorer ses
chances.
Les exercices ci-dessus nous montre que tant que le jeu est une martingale est que le temps
d’arrêt et fixe, cela est impossible, et cela restera vrai pour des temps d’arrêt ”raisonnables”,
cf. le théorème de Doob ci-dessous.
Exercice 11.3 Montrer qu’une martingale en temps discret satisfait :
E[Xt+k |σ(X1 , X2 , Xt )] = Xt ∀k ≥ 1
et il nous reste a montrer E[Zt+i |Ft ] = 0, ∀i ≥ 2. On procède par recurrence. It is true for
i = 1, so suppose we proved it up to i = j. Pour obtenir le résultat pour j + 1, on conditionne
sur l’information supplementaire au temps t + j E[Zt+j+1 |Ft ] = E E[Zt+j+1 /Ft , Ft+j ]] =
E[E[Zt+j+1 |Ft+j ]|Ft ] = E[0] = 0.
t:os Théorème 11.1 Optional stopping theorem Si X est une martingale (resp. sur-martingale,
sous-martingale) et T un temps d’arrêt alors X T = (XT ∧n )n≥0 est appelée martingale (resp.
sur-martingale, sous-martingale) arrêtée en T . C’est une martingale (resp. sur-martingale,
sous-martingale). En particulier, on a pour tout entier n,
E(XnT ) = E(XT ∧n ) = E(X0 ), (resp. ≤, ≥)
118
Remarque 11.1 Ce théorème dit en outre que pour tout n ∈ N , XT ∧n est dans L1 . Il ne
suppose aucune condition sur le temps d’arrêt.
∑
n−1
XT ∧n (ω) = Xk (ω)1T (ω)=k + Xn (ω)1{T (ω)≥n}
k=0
∑
n−1
E(XT ∧n |Fn−1 ) = E(Xk 1T =k |Fn−1 ) + E(Xn 1T ≥n |Fn−1 )
k=0
∑
n−1
= 1T =k E(Xk |Fn−1 ) + 1T ≥n E(Xn |Fn−1 )
k=0
∑
n−1
≤ 1T =k Xk + 1T ≥n Xn−1 = XT ∧n−1
k=0
Si (Xn )n est une martingale et si T est un temps d’arrêt alors pour tout entier n, on a
E(XT ∧n ) = E(X0 )
A-t-on E(XT ) = E(X0 ) ? Un contre exemple est le suivant. Soit (Xn )n une marche aléatoire
telle que X0 = 0 et E(Xn+1 − Xn ) = 0. (Xn )n est une martingale. Soit T = inf{n ∈ N ; Xn =
1} le temps d’entrée en 1. On a vu que c’était un temps d’arrêt (par rapport à la filtration
naturelle de X). Pourtant, on a
E(XT ) = 1 ̸= E(X0 ) = 0
Remarque 11.2 Le théorème 11.1 est la version la plus simple du fameux théorème d’arrêt
des martingales, et va être aussi utilisé comme pas intermediaire pour le démontrer.
A very useful result of martingale theory, le théorème d’arrêt des martingales, states
that no matter how clever the gambler tries to be, subject to some ”reasonable restrictions”
(like gambling for a time T with finite expectation and keeping the amount of your losses
bounded), the gambler cannot escape the law
E[ST ] = S0
119
Remarque 11.3 Cette propriété generalise ESt = S0 , ∀t, qui est une conséquence imme-
diate de la définition, pour t fixe. The fact that we may extend this to the case of stopping
times T has the interpretation that even the most clever stopping rules T (which obey some
restrictions) cannot break the odds.
Remarque 11.4 Comme il n’existent pas des conditions necessaires et suffisantes simples
qui assurent la validité du théorème d’arrêt des martingales, nous donnons ci-dessous une
réunion des plusieurs versions intéréssantes (prises des livres de Williams, Grimmett et
Ross).
Théorème 11.2 (Théorème d’arrêt des martingales) Si St est une martingale par
rapport a une filtration Fn , et T un temps d’arrêt ({T = n} ∈ Fn ), alors
E[ST |F0 ] = S0
dans chacun des cas suivants :
1) T < C, où C est une constante.
2) ET < ∞, max{1<t<T} |St − St−1 | ≤ C, où C est une constante. La condition d’une
durée du jeu à espérance finie est plus faible, mais on rajoute la condition que les mises du
jeu sont bornées (c’est moins fort que de supposer les gains/pertes restent bornées, comme
dans le prochain cas.
3) P [T < ∞] = 1 ⇔ P [T = ∞] = 0, max{1<t<T } |St | ≤ C, où C est une constante. Le
jeu fini surement, et les gains/pertes restent bornées.
4) ET < ∞, max{1<t} E[|St − St−1 |Ft−1 ] ≤ C, où C est une constante.
5)
P [T < ∞] = 1 ⇔ P [T = ∞] = 0,
E|ST | < ∞,
lim E[Sn 1IT>n ] = 0
n→∞
Les premières trois cas sont rangés pedagoqiquement dans ordre croissante des demandes sur
St , et diminuante sur T . Le plus facile à vérifier semble le quatrième, et le plus général est par
contre le dernièr cas, qui illustre le fait que c’est le couple (T, ST ) qui doit être ”raisonnable”.
avec n → ∞.
Com Exercice 11.4 En supposant que le théorème d’arrêt des martingales est applicable, calcu-
ler :
a) l’espérance v(x) = Ex XT des gains d’un joueur qui mise Yi = ±1, avec pi = qi = 21 ,
dans les limites [−L, K].
b) la probabilité de gagner p(x) = Px [XT = K].
c) Comment peut on justifier l’application du théorème d’arrêt des martingales ?
Remarque 11.5 Sur un interval fini, ce genre des problèmes peut être resolu facilement à
partir de l’équation des differences obtenu par conditionnement sur le premier pas, qui est
ici :
1 1
vx = vx+1 + vx−1 , v0 = 0, vK = K.
2 2
120
Sol : a) L’application du theorème d’arrêt a la martingale Xt donne
v(x) = Ex XT = X0 = x
b)
Ex XT = Ex X0 = x = K Px {XT = K} + L (1 − Px {XT = K}) = x,
et donc
(x − L)
px = Px {XT = K} = .
(K − L)
c) L’application pourrait être justifié par les cas 2) ou 3) du theorème d’arrêt. En effet,
les conditions que les gains |Xt | ≤ max(|L|, K) et les mises sont bornées sont evidentes.
Par contre, les conditions Ex T < ∞ et P[T < ∞] = 1 demandent plus de travail.
1. Le calcul direct. La meilleure justification ici est de passer à une autre méthode, car
pour les marches aléatoires sur un interval fini on obtient facilement
121
11.2 ”La martingale interdite”
The doubling ”martingale” strategy. We examine now the strategy which gave
martingales their names (nowadays outlawed in casinos).
A gambler with no initial capital has as goal to win 1 pound. His first bet is s1 = 1
pound. If he loses, he bets whatever it takes to bring him up to 1 pound (s2 = 2 pounds at
the second bet, s3 = 4 at the third, and in general sn = 2n−1 on the n′ th bet. The stopping
time is T1 . We note immediately that this strategy creates a dollar out of nothing and does
not satisfy le théorème d’arrêt des martingales, i.e.
Remarque 11.6 While the assumptions of le théorème d’arrêt des martingales may look
at first technical, they have however a clear meaning : by using ”reckless” strategies (with
unbounded stakes or borrowing) for very long times, a gambler may ”beat” the odds, as
illustrated by the doubling strategy, originally called ”martingale”, which gave this field its
name.
122
Supposons que x et b soient deux entiers avec 0 < x < b. On définit
Sn := x + X1 + · · · + Xn , T := inf{n, Sn = 0 ou Sn = b}.
La fortune initiale du joueur de pile ou face est représentée par x et il compte s’arréter s’il
a atteint b ou 0. On peut aussi interpréter ce modèle comme un jeu à deux : alors la fortune
initiale du premier joueur est x et celle du second est b − x. Sn − x représente alors le gain
cumulé du premier joueur et x−Sn les pertes cumulées du second. Chacun des joueurs stoppe
quand il est ruiné, i.e. quand Sn = 0 ou Sn = b. Soit Fn = σ(X1 , . . . , Xn ) et F0 = {∅, Ω}.
1) Calculer px = P(ST = 0) et tx = E(T ) par le théorême d’arrêt des martingales appliqué
aux martingales Mn = ρSn et Nn = Sn − nm, avec des valeurs de ρ, m choisies tel que ce
sont des martingales, et en supposant que le théorême d’arrêt est applicable
R : Mn est un produit de v. a. indépendantes, positives et de moyenne 1 ssi : E[ρZi ] =
pρ + qρ−1 = 1. Les racines sont ρ = 1 (pas intéréssant) et ρ = pq . Nn est une somme de v.a.
aléatoires indépendantes sommables de moyenne
x
nulle ssi m = p − q.
Le théorême d’arrêt donne : px = 1−ρ
1−ρb x
, t = x−Kpx
q−p
.
2) Comment justifier l’application du théorême d’arrêt ?
R : La martingale de Wald Mn est bornée, et la deuxième martingale a des mises bornées.
Comme au cas symmétrique (Exercice 11.4), Ex T < ∞ est une conséquence du théorème
PF. On peut aussi appliquer la méthode de 11.9 : ”Tout ce qui a une chance raisonnable
d’arriver se produira tôt ou tard”.
Exercice 11.6 Calculer, en utilisant le{théorème d’arrêt des martingales,
} les probabilités de
ruine sur [0, ∞) pour une marche avec p2 = 38 , p1 = 81 , p−1 = 12
Sol : EZ1 > 0 et la loi des grandes nombres implique P[T = ∞] > 0] et donc aucun des
cas du théorème d’arrêt ne s’applique pas, car le théorème d’arrêt ne permet pas des temps
d’arrêt tq. P[T = ∞] > 0 !
Dommage, car ∑ on trouve facilement une martingale de Wald Mt = ρXt , en resolvant
p(ρ) := E[ρZ. = i pi ρi = 1, ρ ∈ (0, 1). Par une ”application erronée” du théorème d’arrêt a
cette martingale, on trouve la réponse raisonnable ψ(x) = ρx , avec une interprétation claire,
ρ = Px [Tx−1 < ∞].
Heureusement, pour une ”application correcte,” il suffit de remplacer T par le temps
d’arrêt borné TN = min(T, N ), avec N → ∞. On trouve
ρx = EρXTN = ρXN Px [T > N] + ρ0 Px [T ≤ N] →N→∞ Px [T < ∞] = ψ(x) (11.2)
(le premier terme converge vers 0, car P[XN → ∞] = 1).
Exercice 11.7 Calculer la probabilité de ruine ψx , x ∈ N,{pour une marche sur les nombres
}
8 1 1
naturelles, avec la distribution de chaque pas donné par : p−1 = 10 , p1 = 10 , p2 = 10 .
Exercice 11.8 Soit
∑
n 1, avec probabilité 8
p1 = 10
Xn = x + Zi , Zi = −1, p−1 = 101
,
i=1 −2, p−2 = 101
123
Solution
8 1 1
a) E(Z1 ) = 1. 10 +(−1). 10 +(−2). 10= 21 > 0
b) On decompose ψ(x) = φ0 (x) + φ1 (x), φi (x) = Px [T < ∞, XT = −i], i = 0, 1. On applique
le théorème d’arrêt appliqué aux
∑ deux martingales arrêtées de Wald Mt = ρX
i
t
(comme en
−j
(11.2)), où p(ρi ) = 0 ⇔ ρi = j=0 φj (x) , ρi ∈ (0, 1). Ici, ρ1 = 1/2, ρ2 = −1/4. On résout
x 1
∑
1
ψ(x) = Px [T0 < ∞] = P [Z1 = i].Px [T0 < ∞|x + Z1 = x + i]
−2
∑
1 ∑
1
= P [Z1 = i].Px+i [T0 < ∞] = pi .ψ(x + i)
−2 −2
8 1 1
= .ψ(x + 1) + .ψ(x − 1) + .ψ(x − 2), (x ∈ N)
10 10 10
Les CF sont :
ψ(∞) = 0
ψ(0) =1
ψ(−1) = 1.
(il est aussi vrai que ψ(−2) = 1, ... mais −2 n’est pas dans l’espace d’états).
On cherche ψ(x) = ρx .
8 x+1 1 1
On a ρx = .ρ + .ρx−1 + .ρx−2
10 10 10
8 1 1
⇒ρ2 = .ρ3 + .ρ +
10 10 10
⇒(ρ − 1)(2.ρ − 1)(4ρ + 1) = 0
1 1
⇒ψ(x) = A1 ( )x + A2 (− )x
2 4
ψ(0) = ψ(−1) = 1 sont satisfaites ssi A1 = 65 , A2 = 61 . Les probabilités de ruine sont :
5 1 1 1
ψ(x) = .( )x + .(− )x
6 2 6 4
124
outfinitunjour Exercice 11.9 ”Tout ce qui a une chance positive d’arriver aprés un nombre fini
des pas se produira tôt ou tard” (Williams, exercice E10.5 p. 233)
Soit F une filtration (avec F0 = {∅, Ω} et T un temps d’arrêt tels que pour un certain
N ∈ N et un certain ε > 0,
∀n, P(T ≤ n + N |Fn ) > ε, p.s.
1) Montrer par récurrence en utilisant P(T > kN ) = P(T > kN ; T > (k − 1)N ) que pour
k = 1, 2, . . . ,,
P(T > kN ) ≤ (1 − ε)k .
1) Réponse : On procède par récurrence. Quand n = 0, on a bien la propriété par hypothèse car
F0 = {∅, Ω} et donc P(T > N )11Ω = P(T > N |F0 ) = 1 − P(T ≤ N |F0 ) ≤ 1 − ε. De plus,
∫ ∫
P(T > kN ) = P(T > kN ; T > (k − 1)N ) = 11T >kN = E(11T>kN |F(k−1)N )
T >(k−1)N T >(k−1)N
Exemple 11.7 ABRACADABRA, cf. poly Morel : une très longue attente (Grimmett-
Stirzaker One thousand exercises in probability, exercice 16 p. 124 et Williams,
exercice E10.6 p. 233) On va résoudre par martingale le problème suivant :
Quelle est l’attente moyenne au jeu de pile ou face pour qu’une séquence préfixée se produise ?
Prenons l’exemple de la séquence P P P (pile trois fois).
Un très grand casino contient une infinité de joueurs G1 , G2 , . . . qui disposent chacun d’une
fortune de 1 euro. Un croupier tire à pile ou face (probabilités p et q = 1 − p toutes les
secondes. Au temps n, le joueur Gn se met à parier de la manière suivante : il place 1 sur
Pile. Le casino étant équitable, il touche en cas de succès p1 (expliquer pourquoi). Il place
alors à nouveau cette fortune sur Pile. Il continue ainsi à parier toute sa fortune sur Pile
jusqu’à ce qu’il aie gagné trois fois de suite (P P P ) ou qu’il perde tout. Dans les deux cas, il
quitte alors le casino.
1) Soit Sn le profit (ou la perte) cumulé(e) du casino après le n-ième tirage. Montrer que Sn
est une martingale.
125
1) Réponse : Soit Yn la v.a. associée au n-ième tirage (Yn = F ou P ) et Fn = σ(Y1 , . . . , Yn ). Soit
Xn la somme des gains et pertes des joueurs après le n-ième coup. Comme Xn est une fonction
déterministe des résultats Yn des n coups précédents, elle est Fn -mesurable. Comme le jeu est
équitable, la moyenne de Xn est nulle. De plus, le nombre de joueurs est plus petit que 3 et leur
enjeu plus petit que p−3 . Donc Xn est sommable. Sn est donc l’exemple classique de martingale, à
savoir une somme de v.a. sommables indépendantes et de moyenne nulle Xn .
2) Soit T le nombre de tirages effectués avant la première apparition de P P P . Montrer que
T est un temps d’arrêt, montrer que E(T ) < ∞. Utiliser le résultat de l’exercice 11.9.
2) Réponse : La décision T = n est une fonction déterministe des résultats de Y1 , . . . , Yn et
est donc Fn -mesurable. C’est donc un temps d’arrêt. Pour montrer que E(T ) < ∞, il suffit de
vérifier que l’hypothèse de l’exercice 11.9 est vérifiée : P(T ≤ n + N |Fn ) > ε, a.s.. On le montre
pour N = 3. Notons Ωn = {P, F }n l’ensemble des résultats possibles pour les n premiers tirages.
La tribu Fn est engendrée par la partition en événements atomiques Bi = [(Y ∑1 , . . . , Yn ) = i], i
décrivant Ωn . Par la formule (PT), on a pour tout événement A, P(A|Fn ) = i∈Ωn P(A|Bi )11Bi .
On choisit A = [T ≤ n + 3]. En effet, une séquence P P P peut se produire aux trois coups suivants
avec probabilité ε = p3 et on a
∑ ∑
P(T ≤ n + 3|Fn ) ≥ P([(Xn+1 Xn+2 Xn+3 ) = (P P P )]|Bi )11Bi = p3 11Bi = p3 .
i∈Ωn i
11.5 Exercices
∏
1. a) Montrer que Xn = ni=1 Zi , où Zi sont i.i.d. et prennent les valeurs 2 et 0 avec
probabilités égales, est une martingale, par rapport à σ(Z1 , ..., Zn ).
b) Est-ce que le théorème d’arrêt des martingales est applicable à Xn , arrêtée au temps
d’atteinte T0 ?
∑
2. Soit Zi une suite des va tq Sn = ni=1 Zi est une martingale.
∑ Démontrer que a) EZi = 0.
b) Ces variables sont noncorrélés. c) V ar(Sn ) = V ar(Zi )
126
3. Démontrer l’identité de Wald. Soit Zn , n ≥ 1 une suite iid tel que Z1 soit intègrable
et soit T un temps darrêt pour la filtration associè à Zn , n ≥ 1, satisfaisant ET < ∞,
et soit Sn = Z1 + ... + Zn . Alors
Mn = Sn2 − n.
EST−1 = −∞
(les martingales de Wald sont les cas particuliers obtenues en choisissant θ tq E[eθZ. ] =
1].
127
Pour tout n ∈ N , considerons la martingale arrêtée en T MTθ ∧n . On a :
( )T ∧n
1
E(MTθ ∧n ) = 1 = E exp(θST ∧n )
cosh θ
Soit θ > 0. On remarque que la martingale arrêtée est bornée uniformement par
(cosh θ)−1 , et que P presque sûrement,
eθ
lim MTθ ∧n = 1{T <∞}
n→∞ (cosh θ)T
(car sur {T = ∞} la martingale arrètée converge vers 0). Donc d’après le théorème de
convergence dominée, [ ]
1
E 1{T <+∞} T
= e−θ
(cosh θ)
En faisant tendre θ vers 0 et en utilisant le théorème de convergence monotone,
on déduit que P(T < +∞) = 1. On peut donc oublier l’indicatrice dans l’égalité
précédente. Effectuant alors le changement de variables α = 1/ cosh(θ), on obtient
1[ √ ]
E(αT ) = 1 − 1 − α2
α
En particulier, on a
Solutions :
1. We check first that Xn is a multiplicative martingale (since EZ1 = 1). Le théorème
d’arrêt des martingales Ex ST0 = x = 1 applied to the stopping time T0 (without
checking the conditions) would yield here a wrong conclusion, that 1 = 0.
Of course, none of the alternative conditions provided for the theorem holds here. For
example, condition (2) (which is the most widely applicable) does not hold since a
martingale which may double its value an arbitrary number of time does not have
bounded increments.
Note : This exercise is similar to the martingale doubling strategy.
2. The case of additive martingales (when the increments are independent) is easy. For
the general case, use EZn Sn−1 ) = E[Zn Sn−1 |Fn−1 ] = Sn−1 E[Zn |Fn−1 ] = 0.
3. L’identité de Wald est une conséquence immédiate du théorème d’arrêt des martingales,
cas 4).
4. a) To show that Mn is indeed a martingale we obtain first a formula for its increments :
Mn+1 − Mn = (Sn + Zn+1 )2 − n − 1 − (Xn2 − n) = 2Zn+1 Xn + Zn+12
− 1 = 2Zn+1 Xn .
We check now the conditional expectation of the increments.
128
b) We apply now the Optional Stopping Theorem to the martingale Mn = Xn2 − n.
The Optional Stopping Theorem yields :
x−L K −x
P [XT = K] = , P [XT = L] =
K −L K −L
x−L K −x
K2 + L2 − Ex T = x2
K −L K −L
which after simplifying yields
tx = Ex [min(TL , TK )] = (K − x)(x − L)
c) This martingale is not bounded below (since T can take arbitrarily large values), so
we can’t apply the third set of conditions. Pour la deuxième pair des conditions, nous
savons que les increments de Mn sont bornés :
|2Zn+1 Xn + Zn+12
− 1| = |2Zn+1 Xn | ≤ 2 max(|L|, K)
Aussi, comme remarqué déj‘a dans la solution de l’exercice 11.4, le fait que ET < ∞
est assuré par la théorie spectrale des matrices sous-stochastiques. L’option du calcul
direct (très simple ici) par conditionnement sur le premier pas serait illogique ici, car
ça reviendra a justifier cette méthode en la remplaçant par une autre !
Remarque 11.7 Pour la marche symmétrique qui reste sur place avec proba 1−2p > 0
on trouve
(K − x)(x − L)
tx = Ex [min(TL , TK )] = . (11.6)
2p
Remarque 11.8 Letting L → −∞ and K = x + 1 we find that the expected duration
of a game for winning just one buck (with no lower bound on the losses) is infinite,
which is quite surprising.
129
Chapitre 12
Exercices de révision
2 3 2 3
0 0
5 4 5 4
(a) Calculer :
i. L’éspérance en sortant de 1 du nombre de pas T0 jusq’au noeud 0. Indication :
Utiliser la symmetrie.
ii. L’éspérance en sortant de 0 du nombre de pas T̃0 jusq’au premier retour en
0.
iii. Les probabilités stationnaires de chaque noeud. Indication : On peut utiliser
les èquations d’équilibre local.
iv. La probabilité x2 = P2 {XT = 1}, où T = min[T1 , T0 ].
v. Les probabilités pk en partant de 1 que la marche visite 0 exactement k fois
(k = 0, 1, 2, ...) avant le premier retour en 1.
(b) À un moment donné, le passage sur certaines arrêts du graphe devient impossible,
ou possible seulement dans une direction, comme indiqué par des flèches dans le
graphe (B). Plus précisement, la particule continue de choisir des destinations
suivant le graphe (B) (”aveuglement”, entre les routes qui restent visibles, mais
130
les choix qui ne sont plus disponibles résultent dans un pas annulé, donc sur
place).
i. Donnez la matrice de transition de la marche.
ii. Identifiez les classes de la chaı̂ne, et classifiez les en récurrentes et transitoires.
iii. Trouvez la distribution stationnaire de chaque classe récurrente.
iv. Est-ce que la limite quand n → ∞ de la matrice de transition apres n étapes
P n existe ? Le cas écheant, trouvez-la.
2. Des femmes et des hommes arrivent dans un magasin, après des temps fixes, unitaires.
Chaque instant, une femme arrive avec probabilité λF , ou un homme arrive avec pro-
babilité λH , ou il n’y a pas d’arrivée, avec probabilité λ0 = 1 − λF − λH .
(a) Trouver la probabilité pF qu’une femme entre avant un homme. Indication : Condi-
tionnez sur le premier instant, ou sur le nombre d’instants sans arrivées.
(b) Trouver la probabilité que deux femme entrent consecutivement (i.e. avec aucun
homme entre eux, mais pas forcement aux moments consecutifs) avant qu’un
homme entre.
(c) Trouver la probabilité qu’au moins deux hommes soient entrés consecutivement
(i.e. avec aucune femme entre eux, mais pas forcement aux moments consecutifs),
avant que trois femmes ne soient entrées consecutivement. Indication : Considèrez
un processus de Markov sur l’espace des états : (H1, H2, H3, ...)∪(F 1, F 2, F 3, ...),
qui enregistre au temps t la longueur k de la dernière série des clients k ∈ {1, 2, ...}
du même sexe entrés consecutivement, et leur sexe (H/F) ; formulez des equations
d’arrêt pour les états d’arrêt indiqués.
(d) Quelle est la probabilité qu’au moins m hommes soient entrés consecutivement,
avant que n femmes ne soient entrées consecutivement ?
(e) Qu’est qu’y change en temps continu ?
Exercice 12.1 Un spéolog est obligé a faire une marche aléatoire entre les sommets
d’un triangle {1, 2, 3}, avec toutes les chemins ayant des chances égales d’être prises.
Il y a deux chemins entre 1, 2, deux chemins entre 1, 3, et 1 chemin entre 2, 3. Il y a
aussi deux chemins boucles (partant et finissant) en 2, deux chemins boucles en 3, et
six chemins boucles en 1.
Calculer
(a) La matrice de transition P de la marche et ses valeurs propres
(b) les probabilités stationnaires de chaque noeud
(c) La matrice symmétrique π(i)P (i, j).
(d) La matrice de transition P n
(e) La fonction gńératrice (I − xP )−1 et
(f ) l’espérance en sortant de 3 du nombre de pas Ñ3 jusqu’au premier retour à 3.
R : 1)
3 1 1
5 5 5
2 2 1
5 5 5
2 1 2
5 5 5
131
Le polynôme charactéristique est
7x2 11x 1 x−1
−x3 + − + =− (5x − 1)2 ,
5 25 25 25
avec valeurs propres 1, −1/5, −1/5.
4) La solution la plus simple est par la decomposition spectrale. Une autre est de
chercher des scalaires
P n = an P 2 + bn P + cn I
où an = ..., bn = .., cn = ..., et l’initialisation vient de Cayley-Hamilton P 3 = 75 P 2 −
11 1
25
P + 25 I. Finalement,
5−k 5−k 5−k
1
+ 1
− 1
−
21 5−k 2 4 4
−k
4
5−k
4
2 − 2 14 + 354 1
4
− 4
5−k 5−k 35−k
1
2
− 2 4− 4 1 1
4
+ 4
Exercice 12.2 Un message electronique doit être transmis par lutilisateur dune ma-
chine A vers lutilisateur dune machine C. Ce transfert seffectue par lintermédiaire
dune machine B. Mais Mickey Markov est administrateur du réseau et il y a parfois
des messages perdus ou détruits. On suppose que le transfert de A vers B est effectif
avec la probabilité p et échoue avec la probabilit é 1 - p. En cas déchec, le message est
retourné ‘a lutilisateur A ; le transfert de B vers C est effectif avec la probabilité q et
échoue avec la probabilit é 1 - q. En cas déchec, le message est ‘a nouveau retourné ‘a
lutilisateur A ; en cas déchec, A renouvelle lenvoi du message ; tous les transferts sont
indépendants entre eux. On note Xn , n ≥ 0 la succession des machines sur lesquelles
le message transite. a) Démontrer que Xn , n ≥ 0 est une chaı̂ne de Markov homogène
despace détats A,B,C, de condition initiale X0 = A, dont on écrira le matrice de tran-
sition P. b) On sintéresse au nombre N de transitions nécessaires pour que le message
atteigne son destinataire : N = inf n ≥ 1, Xn = C. 1) Démontrer que, pour tout entier
n, P (N ≤ n) = pAC (n), o‘u pAC (n) est le coefficient correspondant à la ligne A et à la
colonne C de la matrice P n , puissance n de P. 2) En utilisant lidentité P n+1 = P P n ,
démontrer la relation suivante : pAC (n + 1) = (1 − p)pAC (n) + p(1 − q)pAC (n − 1) + pq
. 3) Existe-t-il une suite constante solution particulière de léquation de récurrence
un+1 = (1 − p)un + p(1 − q)un−1 + pq 4) Que valent pAC (0) et pAC (1) ? On suppose
maintenant p = q = 1/ 2 . Pour tout n ≥ 0, on pose vn = un−1 . Quelle est la forme
générale de la solution de léquation de récurrence satisfaite par la suite vn , n ≥ 0 ? 5)
En déduire P (N ≤ n) pour tout n 2 IN. 6) Calculer E[N].
3. a) Une mouche effectue une marche cyclique sur les sommets {1, 2, 3} d’un triangle,
avec matrice de transition ”circulante”
a b c
P = c a b
b c a
132
(b) On cherche une formule explicite, aussi simple que possible, pour la probabilité
an = P n (1, 1) qu’après n étapes, la mouche soit retournée au sommet 1 d’où elle
est partie. Soit vn = (bn , cn ). Trouvez une récurrence pour le vecteur vn .
(c) Résolvez cette récurrence et trouvez an , au cas a = b = c = 1/3 et au cas
b = c = 1/2.
(d) Résolvez la récurrence, au cas où la mouche a deux fois plus de chances de sauter
dans le sens des aiguilles d’une montre, i.e. b = 2/3, c = 1/3.
(e) Généraliser au cas d’une marche cyclique sur les sommets d’un polygone avec
k sommets (utilisant eventuellement votre language formel de choix, comme
xmaxima,...). Ind : Cela nous ramène à ètudier, eventuellement l̀’aide de Maxima,
les puissances des matrices circulantes stochastiques :
A :=matrix([1-b-c,b,c],[c,1-c-b,b],[b,c,1-c-b]) ;
Vérifier que la matrice est entré correctement en calculant A1 = subst(1, b, A); A2 =
subst(0, b, A1); A23 ;
Note : Maxima n’est pas capable de calculer puissances matricielles symboliques,
et elle refuse de faire même les matrices diagonales ; mais elle accepte les produits
de Hadmard symboliques, et comme les deux coincides, elle reussi aussi les pro-
duits matricielles symboliques, avec un peu d’aide :
V :eigenvectors(A) ; V1 :V[2] ;V2 :V[3] ;V3 :V[4] ; VD :transpose(matrix(V1,V2,
V3)) ;
M :ratsimp(invert(VD).A.VD) ; An :ratsimp(VD.M n .invert(VD)) ;
4. Soit Xt une chaı̂ne de Markov absorbante, soit ∂ l’ensemble de ses états absorbantes,
soit B, A une decomposition de l’ensemble des états transitoires, et soit
où
(a) Quel type de distribution on trouve pour px (k, B), quand B = {x} ? (Specifiez les
paramètres). Quel est le résultat pour la chaı̂ne associé à :
0 1−a a 0 0
1−b 0 b 0 0
x1 x 0 x 1 − x − x − x où B = {3}, et en particulier pour
2 4 1 2 4
0 0 c 0 1−c
0 0 0 0 1
a = b = c = 1/2, x1 = x2 = x4 = 1/4 (”le papillon”).
(b) Pour B quelqonque, en conditionnant sur le premier pas, trouvez une relation
entre les variables px (k, B), x ∈ A, k ∈ N, et finalement une récurrence vectorielle
p(k) = M p(k − 1), en spécifiant comment obtenir la matrice M à partir de la
matrice P de transition de la chaı̂ne. Vérifiez votre formule avec le cas B = A.
133
O U
A C
(c) Retrouvez le résultat pour le ”papillon généralisé” ci-dessus, dans le cas qu’on
cherche la probabilité pk en partant de U = 5 que la marche visite O = 1 exac-
tement k fois (k = 0, 1, 2, ...) avant le premier retour à U ) (les autres sommets
seront libelés A = 2, B = 3, C = 4), à partir de la formule générale.
(d) Considerez aussi le ”papillon
∑∞ généralisé”, en prenant B = {1, 2, 3}. Vérifiez pour
cet exemple que la somme k=0 pk (i, B) = 1, ∀i ∈ {1, 2, 3}.
(e) Ecrivez un program dans votre language de choix qui calcule p(k, B) et une
approximation p(k, B) ≈ cλk pour une chaı̂ne et ensemble B arbitraires et
démontrez sa performance sur les exemples 3.5, 3.6 (pages 23-24) et ensembles B
de votre choix.
5. a) Quelle est la probabilité que la marche aléatoire simple est de retour en 0 après
√ 2n
n! √
pas ? b) Approximer cette quantité par la formule de Stirling limn→∞ (n/e)n n = 2π.
p1 p | 1 − p1 − p
6. Soit Xt une chaı̂ne absorbante sur {1, 2, a} avec matrice de transition 0 p2 | 1 − p2 =
0 0 | 1
Q| 1 − p1 − p ( )
| p1 p
1 − p2 où Q = , et avec distribution initiale (1, 0, 0).
0 p2
0 0| 1
Soit N le nombre des pas (transitions) jusqu’à l’absorbtion en a.
(a) Quelle est la valeur de N si X0 = X1 = ... = Xk−2 = 1, Xk−1 = 2 et Xk = a ?
(b) Trouvez l’espérance du nombre des pas N jusq’à l’absorbtion.
(c) Demontrez que pour i, j ∈ {1, 2}, et k ∈ {1, 2, ...}, il est vrai que
134
(f) Calculez la matrice génératrice (I − xQ)−1 .
(g) Calculez la matrice fondamentale (I − Q)−1 , et verifiez la réponse du point b).
(h) (*) Calculez Qk , en utilisant le developpement limite (en serie de puissances) de
la matrice génératrice (I − xQ)−1 .
(i) (*) Trouvez les probabilités P [N ≥ k|X0 = 1].
Solutions
1. (a) i. Soit
ti = Ei T0 = Ei [ nombre de pas jusq’au noeud 0]
La symmetrie implique t2 = t3 , t5 = t4 , donc trois équations suffiront (au lieu
de 5). En conditionnant sur le premier pas, on trouve que ti satisfont :
t1 = 1 + t2
1 1 1
t2 = 1 + t1 + t2 + t5
4 4 4
1 1
t5 = 1 + t5 + t2
3 3
Ça donne : t5 = 113
, t2 = 13
3
, t1 = 16
3
Rq : Pour cette question, le noeud 0 est effectivement absorbant, et la struc-
ture générale des équations pour les pbs de temps esperé Gt + 1 = 0.
ii. ET̃0 = 1 + 41 (t2 + t3 + t4 + t5 ) = 1 + 12
3
= 5 (= π10 )
iii. πi sont proportionels aux degrés di des sommets, i.e. πi = ∑di , donnant
j dj
(π1 = 2/(2 + 4 ∗ 3 + 3 ∗ 2) = 10
1
, π2 = 4/20 = 15 , π0 = 20
3
) (en vérifiant ainsi le
1
théorème ET̃0 = π0 ).
iv. Rq : Pour cete question, les noeuds 0, 1 sont effectivement absorbants. Le
système d’absorption, tenant compte de x2 = x3 , x4 = x5 est :
1 1 1
x2 = x 2 + x4 +
4 4 4
1 1
x4 = x2 + x4
3 3
Ça donne : x2 = 25 , x4 = 51 .
Rq : C’est la structure typique Gp = 0 pour les pbs de prix final esperé.
v. p0 = 25 , pk = 35 ( 10 ) 10 , k ≥ 1.
7 k−1 3
135
Sans les pas sur place, elle serait
1 0 0 0 0 0
0 0 12 12 0 0
1
1
0 14 0 1
P = 1
4 4 4
4
1
4
1
4
0 14 0
0 0 0 0 1 0
0 0 0 0 0 1
136
∑k
Generalisant pour m hommes et n femmes et posant SF,k = piF , SH,k =
∑k i i=1
i=1 pH , nous trouvont
pm−1
H pm
H SF,n−2
y1 = , x1 =
1 − pH pF SH,m−2 SF,n−2 1 − pH pF SH,m−2 SF,n−2
et finalement
pm
H (1 + pF SF,n−2 ) pm
H SF,n−1
p H y 1 + pF x 1 = =
1 − pH pF SH,m−2 SF,n−2 1 − pH pF SH,m−2 SF,n−2
Pour m = 2, n = 3, on trouve :
pH p2H (1 + pF )
y1 = , x1 =
1 − pH pF (1 + pF ) 1 − pH pF (1 + pF )
et
p2H (1 + pF + p2F )
pH y1 + pF x1 =
1 − pH pF (1 + pF )
3. a) L’équation de Chapman-Kolmogorov donne imédiatement une formule explicite :
P n (1, 1). On note aussi que les marches cycliques ont la matrice de transition P circu-
lante, et donc nous avons une decomposition spectrale bien-connue explicite, qui utilise
les racines (complexes) de l’unité. Mais, on peut faire mieux. La matrice P n est aussi
circulante, et contient donc seulement deux inconnues : bn = P n (1, 2), cn = P n (1, 3).
Soit b = P (1, 2), c = P (1, 3), a = P (1, 1) = 1 − b − c les probabilités après un pas. On
trouve la récurrence
( ) ( : )( )
bn+1 − 1/3 a−b c−b bn − 1/3
=
cn+1 − 1/3 b−c a−c cn − 1/3
Le cas b = c = 1/2 et a = b = c = 1/3 donnent des récurrences ”decouplées”. Le cas
b = 2/3, c = 1/3 est plus difficile. En utilisant l’ordinateur, on rémarque que :
137
la partition de la matrice de transition contenant les états dans l’ordre A−B, B, ∂.
On a b0 = 0, b1 = q B + QB,A a0 et
Comme
b1 = (IB − QB )1B − QB,A 1A + QB,A (I − QA )−1 ((IA − QA )1A − QA,B 1B ) = (IB − M )1B )
on trouve
138
5.
1 p
6. a) N = k, b) E1 N = 1−p1
+ (1−p1 )(1−p2 )
,
c) Pour i, j transients, l’evenement [Xk = j|X0 = i] implique, est inclu et en effet
coincide avec [N ≥ k, Xk = j|X0 = i]
d) Q2 (i, j) = ...
e) On devine et comprends facilement que ai = Qk (i, i) = pki , i = 1, 2
f) La matrice génératrice est
( )
1 xp
−1
(I − xQ) = 1−xp1 (1−xp1 )(1−xp2 )
1
0 1−xp2
1 1 p
n2 = E2 N = , n1 = E1 N = +
1 − p2 1 − p1 (1 − p1 )(1 − p2 )
(∑ )
k−1
h) On retrouve Qk (1, 1) = pk1 , Qk (2, 2) = pk2 , et on trouve Qk (1, 2) = p i=0 pi1 pk−1−i
2 .
Pour interpreter probabilistiquement la formule de Qk (1, 2), il est utile de remarquer
qu’il s’agit de la distribution phase la plus simple (∑qui n’est ni )serie, ni parallèle
i) P [N ≥ k|X0 = 1] = Qk (1, 1) + Qk (1, 2) = pk1 + p k−1 i k−1−i
i=0 p1 p2 . La somme verifie
la réponse b).
139
Chapitre 13
Examen de probabilités avancées
2012-2013
1. On considère une pièce non équilibrée que l’on lance un nombre indéterminé de fois.
La probabilité d’obtenir pile est p ∈]0, 1[, et la probabilité de sortir face est égale à
q = 1 − p. Les lancers sont indépendants. On note N le temps d’attente du premier
pile, c’est-à-dire le nombre de lancers qu’il faut effectuer pour obtenir le premier pile,
en incluant le pile (N ∈ {1, 2, ...}).
(a) Formuler une équation pour le premier moment m = EN par la méthode du
conditionnement sur le premier pas, et la résoudre.
Quelle est la loi de N ? (on ne demande pas de justifier)
(b) Trouvez l’espérance m2 = EN2 du nombre des essais jusqu’à ce qu’on obtient
deux piles consécutives, en incluant les deux derniers résultats.
(c) Trouvez l’espérance m̃ du nombre des essais jusqu’à ce qu’on obtient pile-face-
pile, en incluant les trois derniers résultats.
Indication : On pourrait utiliser un processus de Markov qui retient l’information
minimale nécessaire pour décider si l’événement désiré a eu lieu, et qui contient
l’état final desiré, ainsi que tous ses prefixes.
2. Soit (Xn )n≥1 une suite de variables aléatoires réelles indépendantes telle que pour n ≥ 1
Xn suit une loi exponentielle de paramètre λn = n.
(a) Calculer la fonction de répartition (f.d.r.) de Yn = min{X1 , . . . , Xn } pour n ≥ 1.
P
(b) Montrer que Yn −→ 0.
p.s.
(c) Montrer que que Yn −→ 0.
140
3. Soit
−1, avec probabilité p−1 = 12
∑
n
Xn = x + Zi , Zi = 1, p1 = 81 ,
i=1 2, p2 = 38
avec Zi i.i.d. Soit T0 = inf{n : Xn ≤ 0}
141
Solutions :
1. (a) Le conditionnement après un pas donne m = p + q(1 + m), l’espérance est m = p1 .
(b) Le
{ conditionnement après un pas donne
m2 = p(1 + m1 ) + q(1 + m2 )
=⇒ m2 = p+1 p2
, m1 = p12 . La méthode ”arbre
m1 = p + q(1 + m2 )
developpé jusqu’au feuilles succés/recommence” (”divide et conquera”) produit
directement l’équation m2 = q(1 + m2 ) + pq(2 + m2 ) + 2p2
(c) Le conditionnement après un pas donne
m3 = p(1 + m2 ) + q (1 + m3 )
m2 = q(1 + m1 ) + p (1 + m2 )
m1 = p + q (1 + m3 )
142