Académique Documents
Professionnel Documents
Culture Documents
ALGORITHME DE SIMULATION
DE PROPP-WILSON
présenté par
DRIF Zina ,
2
Table des matières
Introduction 4
Conclusion 48
Bibliographie 49
3
TABLE DES MATIÈRES
Introduction
Nous nous intéréssons aux méthodes de simulation d’une loi de proba-
bilité, c’est à dire à l’échantillonage d’une loi de probabilité donnée π. Les
méthodes classiques de simulation sont en général basées sur une approxima-
tion de la loi π. De nombreux auteurs ont élaboré des méthodes (algorithmes)
à cet effet ( [1], [2], [3], [10], [12], . . . ). Nous faisons une synthèse de ces mé-
thodes.
X0x = x;
et pour n > 0
x
Xnx = fYn (Xn−1 ).
H0x = x;
et pour n > 0
Hnx (x) = fY1 ◦ · · · ◦ fYn−1 (x).
4
TABLE DES MATIÈRES
H0 = h;
l’algorithme de Propp-Wilson est fondé sur le faît que sous certaines condi-
tions (Cf. [1], [6], [7], [8], [13], . . .), limn Hn est une fonction constante.
La rechèrche de ces conditions a fait l’objet de nombreux travaux, ces
dernières années (Cf. [1], [6], [7], [8], . . .).
5
TABLE DES MATIÈRES
6
Chapitre 1
∀x0 , x1 , . . . , xn−1 , x, y ∈ E, et ∀n ∈ N,
N.B : Dans toute la suite, les chaînes de Markov considérées sont toutes
homogènes et à espace des états au plus dénombrable.
7
1.1. DÉFINITIONS ET PROPRIÉTÉS GÉNÉRALES
P
c’est à dire ∀y ∈ E, πy = x πx pxy .
inf n {Xn = x}, si ∪n {Xn = x} =
6 ∅;
Tx =
∞, sinon.
alors on a :
1
πx = .
Ex [Tx ]
8
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV
9
1.2. DISTANCE EN VARIATION TOTALE
Lemme 1. (Cf.[11]).
La distance en variation totale est donnée par :
Démonstration.
1. On montre d’abord que :
∀A ⊂ E, on a :
10
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV
donc :
Z Z Z Z
= | dP − dQ| + | dP − dQ|
A A A A
Z Z
= | d(P − Q)| + | d(P − Q)|
A A
Z Z
= | d(P − Q)| = | d(P − Q)|.
A∪A E
R
Donc : 2|P (A) − Q(A)| = | E
d(P − Q)|.
Z Z
| d(P − Q)| ≤ sup | ϕ(ω)d(P − Q)|, ∀A ⊂ E
E E
11
1.2. DISTANCE EN VARIATION TOTALE
2. Montrons que :
= µ(A) − µ(B)
= (P − Q)(A) − (P − Q)(B)
B = A, donc :
12
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV
D’où :
||P − Q|| ≤ 2 sup |P (A) − Q(A)|.
A⊂E
dP dQ
p(x) = , et q(x) = .
dx dx
Alors : Z
||P − Q|| = |p(x) − q(x)|dx.
R
13
1.2. DISTANCE EN VARIATION TOTALE
On a :
Z Z Z Z
= | dP − dQ| + | dP − dQ|
A A A A
Z Z Z Z
= | p(x)dx − q(x)dx| + | p(x)dx − q(x)dx|
A A A A
Z Z
= | (p(x) − q(x))dx| + | (p(x) − q(x))dx|
A A
Z Z
≤ |p(x) − q(x)|dx + |p(x) − q(x)|dx
A A
Z Z
= |p(x) − q(x)|dx = |p(x) − q(x)|dx.
A∪A R
Donc :
Z
∀A ⊂ R, 2|P (A) − Q(A)| ≤ |p(x) − q(x)|dx,
R
d’où : Z
2 sup |P (A) − Q(A)| ≤ |p(x) − q(x)|dx.
A R
14
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV
Z Z
dP = dQ = 1,
R R
c’est à dire : Z Z
p(x)dx = q(x)dx = 1,
R R
donc :
Z Z
0 = p(x)dx − q(x)dx
R R
Z
= (p(x) − q(x))dx
R
Z Z
= (p(x) − q(x))dx + (p(x) − q(x))dx,
{p(x)>q(x)} {p(x)<q(x)}
Z Z
=⇒ (p(x) − q(x))dx = − (p(x) − q(x))dx
{p(x)>q(x)} {p(x)<q(x)}
Z
= (q(x) − p(x))dx.
{p(x)<q(x)}
15
1.2. DISTANCE EN VARIATION TOTALE
Z Z
=⇒ (p(x) − q(x))dx = (q(x) − p(x))dx.
{p(x)>q(x)} {p(x)<q(x)}
R
Comme : R
(p(x) − q(x))dx = 0, donc on a :
Z Z
|p(x) − q(x)|dx = (p(x) − q(x))dx
R R
Z Z
= (p(x) − q(x))dx + (q(x) − p(x))dx
{p(x)>q(x)} {p(x)<q(x)}
Z
= 2 (p(x) − q(x))dx
{p(x)>q(x)}
Z
= 2 (q(x) − p(x))dx.
{p(x)<q(x)}
2. On montre que :
Z
|p(x) − q(x)|dx ≤ 2 sup |P (A) − Q(A)|.
R A
On a :
||P − Q|| = 2 sup |P (A) − Q(A)| =⇒ ||P − Q|| ≥ 2|P (A) − Q(A)|.
A
Posons B = {x : p(x) > q(x)} ; donc : ||P − Q|| ≥ 2|P (B) − Q(B)|.
16
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV
Z Z
= 2| dP − dQ|
B B
Z Z
= 2| p(x)dx − q(x)dx|
B B
Z Z
= 2| p(x)dx − q(x)dx|
{p(x)>q(x)} {p(x)>q(x)}
Z
= 2| (p(x) − q(x))dx|
{p(x)>q(x)}
Z
= 2 (p(x) − q(x))dx.
{p(x)>q(x)}
Z
2 sup |P (A) − Q(A)| ≥ 2 (p((x) − q(x))dx
A {p(x)>q(x)}
Z
= |p(x) − q(x)|dx.
R
Donc : Z
2 sup |P (A) − Q(A)| ≥ |p(x) − q(x)|dx.
A R
17
1.3. APPLICATION AU CAS FINI OU DÉNOMBRABLE
Z
2 sup |P (A) − Q(A)| = |p(x) − q(x)|dx,
A R
c’est à dire :
Z
||P − Q|| = |p(x) − q(x)|dx.
R
18
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV
Comme : A1 ∩ B = ∅, alors :
=⇒ (µ − ν)(A) ≤ (µ − ν)(B).
Comme : A2 ∩ B = ∅, alors :
= (ν − µ)(B) + (ν − µ)(B)
19
1.3. APPLICATION AU CAS FINI OU DÉNOMBRABLE
1
= (µ(B) − ν(B) + ν(B) − µ(B))
2
1
= [(µ(B) − ν(B)) − (µ(B) − ν(B))]
2
1 1
[ (µ(B) − ν(B)) − (µ(B) − ν(B)) ] = [ |µ − ν|(B) + |µ − ν|(B) ]
2 2
1
= [ |µ − ν|(B ∪ B) ]
2
1
= [ |µ − ν|(E) ]
2
1X
= |µ(x) − ν(x)|.
2 x∈E
20
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV
Donc :
1X
|(µ − ν)(A)| = |µ(x) − ν(x)|.
2 x∈E
d’où le résultat.
Démonstration. (i) dV T (µ , ν) = 0 ⇐⇒ µ = ν :
=⇒]
1X
dV T (µ, ν) = 0 ⇐⇒ |µ(x) − ν(x)| = 0
2 x∈E
X
=⇒ |µ(x) − ν(x)| = 0
x∈E
=⇒ µ = ν, ∀x ∈ E.
(1.1) est vraie, car on a les tèrmes de la somme sont positifs ou nuls.
⇐=] µ = ν, donc ∀x ∈ E, on a :
21
1.3. APPLICATION AU CAS FINI OU DÉNOMBRABLE
X
=⇒ |µ(x) − ν(x)| = 0
x∈E
1X
=⇒ |µ(x) − ν(x)| = 0 = dV T (µ, ν).
2 x∈E
(ii) dV T (µ, ν) = dV T (ν µ) :
1X
dV T (µ, ν) = |µ(x) − ν(x)|
2 x∈E
1X
= |ν(x) − µ(x)| = dV T (ν, µ).
2 x∈E
1
P
On a : dV T (µ, ν) = 2 x∈E |µ(x) − ν(x)|,
22
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV
X X X
⇒ |µ(x) − ν(x)| ≤ |µ(x) − η(x)| + |η(x) − ν(x)|
x∈E x∈E x∈E
1X 1X 1X
⇒ |µ(x) − ν(x)| ≤ |µ(x) − η(x)| + |η(x) − ν(x)|
2 x∈E 2 x∈E 2 x∈E
Conclusion :
23
1.3. APPLICATION AU CAS FINI OU DÉNOMBRABLE
24
Chapitre 2
25
2.2. SIMULATION D’UNE LOI DE FONCTION DE RÉPARTITION
INVERSIBLE
Tout le problème est de disposer alors d’une méthode
√ de developpement
décimal d’un irrational quelconque, par exemple : 2, e, π, . . .
Si par exemple on veut calculer le developpement décimal de π, alors on
exploite la formule :
∞
π X 1
= (−1)n ,
4 n=0
2n + 1
Pour des besoins de précision, on peut faire appel à cette méthode. Malgrés
la puissance de calcul accrue des machines actuelles, son caractère ardu (Le
calcul des décimales d’un irrationnel est non trivial) et le caractère pratique
des géérateurs usuels de nombres aléatoires dans les machines et surtout leurs
satisfactions aux tests courants, font que c’est un luxe inutile. On se satisfait
donc des algoithmes usuels de génération de nombres aléatoires
Pour la suite, on suppose que nous disposons d’une machine muni d’un
générateur de nombres aléatoires uniformément répartis sur [0, 1].
26
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS
Conséquence :
Ce qui signifie que chaque variable aléatoire Xk suit une loi dont la fonction
de répartition est F. Les variables aléatoires Xk sont indépendantes puisque
ils sont de la forme F −1 (Uk ) où les Uk sont indépendantes.
27
2.3. SIMULATION DE CHAÎNES DE MARKOV
x, si u ∈ [ 0, µ(0) (x) [ ;
y, si u ∈ [ µ(0) (x), µ(0) (x) + µ(0) (y) [ ;
..
.
ψ(u) = Ph−1 Ph
h, si u ∈ [ µ(0) (l), µ(0) (l) [ ;
l=x l=x
..
.
Pk−1
µ(0) (l), 1 ].
k, si u ∈ [
l=x
= µ(ψ(u) = h)
h
X h−1
X
(0)
= µ (l) − µ(0) (l)
l=x l=x
28
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS
De même, on considère la fonction φ (fonction de mise à jour) tel que :
x, si u ∈ [ 0, px1 [ ;
y, si u ∈ [ px1 , px1 + px2 [ ;
..
.
φ(x, u) =
h, si u ∈ [ h−1
P Ph
l=x pxl , l=x pxl [ ;
..
.
Pk−1
k, si u ∈ [ l=1 pxl , 1 ].
Démonstration.
= P [φ(x, Un+1 ) = h]
Z 1
= I(φ(x,u)=h) dµ
0
= µ(φ(x, u) = h)
h
X h−1
X
= pxl − pxl = pxh .
l=x l=x
29
2.3. SIMULATION DE CHAÎNES DE MARKOV
– on affiche Xn .
Exemple 2. Soit E = {x, y, z} un espace des états fini, (Xn )n≥0 une
chaîne de Markov sur E de loi initiale µ(0) = (1/4, 1/2, 1/4) et de matrice
de transition P telque :
1/2 0 1/2
P = 1/3 1/3 1/3
1 0 0
(Ui )0≤i≤5 une suite de variables aléatoires i.i.d. de loi uniforme U[0, 1], donc
on a :
x, si u ∈ [ 0, 1/4 [ ;
y, si u ∈ [ 1/4, 3/4 [ ;
ψ(u) =
z, si u ∈ [ 3/4, 1 ].
30
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS
x, si u ∈ [ 0, 1/2 [ ;
y, si u = 1/2;
φ(x, u) =
z, si u ∈ [ 1/2, 1 ].
x, si u ∈ [ 0, 1/3 [ ;
y, si u ∈ [ 1/3, 2/3 [ ;
φ(y, u) =
z, si u ∈ [ 2/3, 1 ].
X0 = ψ(U0 ); X1 = φ(X0 , U1 );
X2 = φ(X1 , U2 ); X3 = φ(X2 , U3 );
X4 = φ(X3 , U4 ); X5 = φ(X4 , U5 ).
31
2.4. SIMULATION D’UNE LOI DE PROBABILITÉ
dV t (µ(n) , π) −→ 0.
Soient (Xn )n≥0 et (Yn )n≥0 deux chaînes de Markov indépendantes définies
sur le même ensemble E.
(Xn )n est de loi initiale µ(0) quelconque, (Yn )n est de loi initiale π qui est
stationnaire.
T : Ω −→ N ∪ ∞
S
inf n {n > 0, Xn = Yn }, si n {Xn = Yn } =
6 ∅;
T (ω) =
∞, sinon.
P [T > n] = 1 − P [T ≤ n].
n
[
{T ≤ n} = {Xk = Yk } = {X1 = Y1 } ∪ . . . ∪ {Xn = Yn }.
k=1
32
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS
– Pour n = m; P [T ≤ m] ≥ P [Xm = Ym ].
{Xm = Ym = y} ⊂ {Xm = Ym }.
P [T ≤ m] ≥ P [Xm = Ym ]
≥ P [Xm = Ym = y] = P [Xm = y, Ym = y]
X X
P [Xm = y] = P [Xm = y/X0 = x] P [X0 = x] = µ(0) (x) pxy
(m)
;
x∈E x∈E
X X
(m)
P [Ym = y] = P [Ym = y/Y0 = x] P [Y0 = x] = πx pxy .
x∈E x∈E
donc : X X
P [T ≤ m] ≥ ( µ(0) (x) pxy
(m)
)( (m)
πx pxy ). (2.1)
x∈E x∈E
(m)
Comme (Xn )n est irréductible, alors ∃m < ∞ tel que : pxy > 0.
(m) (m)
On pose α = minm (pxy ) ⇒ α > 0 et pxy > α, donc :
X X
(1.2) ≥ (α µ(0) (x)) (α πx ) = α2 .
x∈E x∈E
33
2.4. SIMULATION D’UNE LOI DE PROBABILITÉ
P P
Car µ, π ∈ P(E) ⇒ x∈E µ(x) = x∈E πx = 1.
donc :
P [T ≤ m] ≥ P [Xm = Ym ] ≥ α2
Comme P [T > m] ≤ 1 − α2 , on a :
≤ (1 − α2 ) (1 − α2 ) = (1 − α2 )2 .
34
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS
(m) (m)
On a : α = minm (pxy ); de plus : pxy ≤ 1 (matrice de transition),
donc : 0 < α ≤ 1.
2. On construit une chaîne de Markov (Zn )n≥0 définie sur E tel que :
Xn , si n ≤ T ;
Zn =
Yn , si n > T.
P [Yn = x] = πx .
Or :
P [Zn = x] − P [Yn = x] = P [Zn = x, Yn 6= x]
car :
{Yn = x} ⊂ {Zn = x}.
35
2.4. SIMULATION D’UNE LOI DE PROBABILITÉ
De plus :
≤ P [Zn 6= Yn ]
= P [T > n].
Donc :
µ(n) (x) − π(x) ≤ P [T > n].
1 X (n)
lim |µ(n) (x) − πx | = 0 ⇐⇒ lim ( |µ (x) − πx |) = 0
n→∞ n→∞ 2 x∈E
⇐⇒ dV T (µ(n) , π) −→ 0.
Nous avons le théorème suivant (Cf.[1]).
36
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS
lim dV T (µ(n) , π) = 0.
n
lim dV T (π ′ , π) = 0.
n
lim dV T (π ′ , π) = 0 ⇐⇒ dV T (π ′ , π) −→ 0.
n
.
donc π = π ′ (contradiction).
D’aprés la proposition 8, on a alors :
37
2.5. APPLICATION : ALGORITHME DE METROPOLIS
Pour x 6= y, on pose :
πy qyx
h( πx qxy
) si qxy 6= 0;
α(x, y) =
0 sinon.
38
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS
πy qyx
min( πx qxy
, 1) si qxy 6= 0;
α(x, y) =
0 sinon.
Etape 0 : Initialiser X0
Etape n + 1 :
Xn+1 = y ;
Xn+1 = Xn .
39
2.5. APPLICATION : ALGORITHME DE METROPOLIS
qxy α(x, y) si x 6= y;
pxy =
0 sinon.
πy q(x − y)
α = min(1, ).
πx q(y − x)
40
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS
Etape 0 : Initialiser X0 ;
Etape n + 1 :
1
space*2.3cm On pose y = xn − 1 ou y = xn + 1 avec probabilité 2
;
Xn !
Si U < min(1, λy−Xn y!
) accepter la selection :
Xn+1 = y ;
Xn+1 = Xn .
41
2.5. APPLICATION : ALGORITHME DE METROPOLIS
42
Chapitre 3
43
3.1. PRÉSENTATION DE L’ALGORITHME DE PROPP ET WILSON
x
Xnx = fYn (Xn−1 ), ∀n > 0.
Hnx = fY1 ◦ fY2 ◦ . . . fYn (x), ∀n > 0.
Dans les conditions (H) que nous allons présiser, l’algorithme est basé
sur le fait que :
2. Si (Xn )n admet la loi stationnaire π, alors limn Hnx est une variable
aléatoire de loi π.
44
CHAPITRE 3. SIMULATION EXACTE : L’ALGORITHME DE
PROPP-WILSON
Z1 = lim Hnx1 ,
n
Z2 = lim Hnx2 ,
n
..
.
Zn = lim Hnxn ,
n
avec les Zn distribués suivant la loi π, car si π est une loi stationnaire pour
Xnx , c’est aussi la loi de Hnx , car les processus (Xnx )n et (Hnx )n sont de même
loi. Il en résult que limn Hnx est une variable aléatoire de loi π.
45
3.2. VALIDITÉ DU PRINCIPE DE L’ALGORITHME
alors on a :
1. La CM (Xnx )n admet une unique distribution stationnaire.
Remarque :
Dans la proposition suivante, Benaîme (Cf.[2]), montre que T est fini p.s.
46
CHAPITRE 3. SIMULATION EXACTE : L’ALGORITHME DE
PROPP-WILSON
Propsition 11. Si E est fini, alors les seules classes récurrentes pour (Hn )n
sont les constantes.
h = ha , avec a ∈ E; et ha (x) = a, ∀x ∈ E,
alors si : Hn = ha , on a :
Hn+1 = ha ◦ Hn = ha ;
d’où {ha } est un ensemble fermé, donc ha est un point absorbant. Donc :
Si Hn = ha , alors Hn+k = ha , ∀k ≥ 1.
Comme la chaîne de Markov (Hn )n est finie, donc elle est absorbée dans une
classe récurrente au bout d’un temps fini. Ce qui est l’implication dans un
sens. Dans l’autre nous n’arrivons pas à conclure.
47
3.2. VALIDITÉ DU PRINCIPE DE L’ALGORITHME
Conclusion
Dans ce mémoire nous avons introduit et résumé les principales méthodes
de simulation de lois de Probabilités. Notre but est une introduction à l’al-
gorithme de simulation exacte de Propp-Wilson. L’étude des conditions de
validité de cet algorithme est une motivation à l’étude des chaînes de Markov
itératives. Les pérspectives qui s’ouvrent sont nombreuses et de deux types :
48
Bibliographie
49
BIBLIOGRAPHIE
50