Vous êtes sur la page 1sur 50

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique


UNIVERSITE MOULOUD MAMMERI DE TIZI-OUZOU
FACULTE DE SCIENCES - DEPARTEMENT DE MATHEMATIQUES

Mémoire de Master de Mathématiques


Appliquées / Option : Processus
Aléatoires et Statistique de la Décision

ALGORITHME DE SIMULATION
DE PROPP-WILSON
présenté par

DRIF Zina ,

sous la Direction de Mr. BOUDIBA Mohand Arezki,

le 01/10/2013, devant le jury :

HAMADOUCHE DJAMEL, Pr, UMMTO, Président ;


BOUDIBA MOHAND AREZKI, MCA, UMMTO, Rapporteur ;
FELLAG HOCINE, Pr, UMMTO, Examinateur
Remerciements

J’adresse mes vifs remerciements à Monsieur Hamadouche Djamel, pour


l’honneur qu’il me fait en présidant le jury.

Je remercie également Monsieur Fellag Hocine pour avoir accepté de lire


ce mémoire et de faire partie du jury.

Je présente mes sinsères remerciements à mon directeur de mémoire,


Monsieur Boudiba Mohand Arezki, pour m’avoir proposer ce thème, pour
ses orientations, et sa grande contribution à l’aboutissement de ce projet.

Enfin, il m’est agréable d’adresser mes remerciements à tous ceux qui


ont contribué de prés ou de loin à la réalisation de ce travail.

2
Table des matières

Introduction 4

1 Quelques propriétés de chaînes de Markov 7


1.1 Définitions et propriétés générales . . . . . . . . . . . . . . . . 7
1.2 Distance en variation totale . . . . . . . . . . . . . . . . . . . 10
1.3 Application au cas fini ou dénombrable . . . . . . . . . . . . . 18

2 Quelques méthodes de simulation d’une loi de probabilités 25


2.1 Echantillon uniforme sur [0, 1] . . . . . . . . . . . . . . . . . . 25
2.2 Simulation d’une loi de fonction de répartition inversible . . . 26
2.3 Simulation de chaînes de Markov . . . . . . . . . . . . . . . . 27
2.4 Simulation d’une loi de probabilité . . . . . . . . . . . . . . . 31
2.5 Application : Algorithme de Metropolis . . . . . . . . . . . . . 38

3 Simulation exacte : L’algorithme de Propp-Wilson 43


3.1 Présentation de l’algorithme de Propp et Wilson . . . . . . . . 43
3.2 Validité du principe de l’algorithme . . . . . . . . . . . . . . . 45

Conclusion 48

Bibliographie 49

3
TABLE DES MATIÈRES

Introduction
Nous nous intéréssons aux méthodes de simulation d’une loi de proba-
bilité, c’est à dire à l’échantillonage d’une loi de probabilité donnée π. Les
méthodes classiques de simulation sont en général basées sur une approxima-
tion de la loi π. De nombreux auteurs ont élaboré des méthodes (algorithmes)
à cet effet ( [1], [2], [3], [10], [12], . . . ). Nous faisons une synthèse de ces mé-
thodes.

Nous nous intéréssons en particulier aux méthodes actuelles de simula-


tion exacte, plus particulièrement au premier algorithme dans ce sens qui est
l’algorithme de Propp-Wilson (Cf. [6] et [7]), à notre connaissance. L’étude
et le perfectionnement de cet algorithme, auxquels de nombreux auteurs se
sont intérésés, sont basées sur l’étude des chaînes de Markov engendrées par
l’itération de fonctions aléatoires.

Plus exactement, soit (E, E) un espace mesurable, et (Yn )n une suite


de variables aléatoires, à valeurs dans E, indépendantes et identiquement
distribuées. Pour y fixé dans E, soit x 7→ fy (x) une fonction de E dans E.
Si X0x est une variable aléatoire indépendante des Yn , on considère la chaîne
de Markov (Xnx )n définie pour x ∈ E par

X0x = x;

et pour n > 0
x
Xnx = fYn (Xn−1 ).

Soit (Hnx )n le processus associé à (Xnx )n , défini pour x ∈ E, par

H0x = x;

et pour n > 0
Hnx (x) = fY1 ◦ · · · ◦ fYn−1 (x).

Dans le cas où E est fini, l’algorithme de Propp-Wilson découle de l’étude


du processus (Hnx )n associé à (Xnx )n , appelé aussi “backward process.”

4
TABLE DES MATIÈRES

Si nous considérons la chaîne de Markov (Hn )n d’espace des états les


fonctions de E dans E définie par :

H0 = h;

Hn = Hn−1 ◦ fYn , ∀n > 0;

l’algorithme de Propp-Wilson est fondé sur le faît que sous certaines condi-
tions (Cf. [1], [6], [7], [8], [13], . . .), limn Hn est une fonction constante.
La rechèrche de ces conditions a fait l’objet de nombreux travaux, ces
dernières années (Cf. [1], [6], [7], [8], . . .).

Notre but est d’étudier et de synthétiser les résultats nécessaires pour la


mise en œuvre de cet algorithme.

5
TABLE DES MATIÈRES

6
Chapitre 1

Quelques propriétés de chaînes de


Markov

1.1 Définitions et propriétés générales


Définition 1. 1. Soit (E, E) un espace mesurable et (Xn )n≥0 une suite
de variables aléatoires à valeurs dans E. On dit que (Xn )n≥0 est une
chaîne de Markov d’espace des états E quelconque, si ∀B ∈ E,

P [Xn+1 ∈ B|Xn , Xn−1 , . . . , X0 ] = P [Xn+1 ∈ B|Xn ].

2. Si E est un ensemble fini ou dénombrable, et (Xn )n≥0 une suite de


variables aléatoire à valeurs dans E, alors on dit que (Xn )n≥0 est une
chaîne de Markov (CM) d’espace des états E et de matrice de transition
P = (pxy )x,y∈E si :

∀x0 , x1 , . . . , xn−1 , x, y ∈ E, et ∀n ∈ N,

P [Xn+1 = y|X0 = x0 , X1 = x1 , . . . , Xn = x] = P [Xn+1 = y|Xn = x] = pxy .

Si le nombre pxy ne dépend pas de n, alors la chaîne de Markov est dite


homogène.

N.B : Dans toute la suite, les chaînes de Markov considérées sont toutes
homogènes et à espace des états au plus dénombrable.

7
1.1. DÉFINITIONS ET PROPRIÉTÉS GÉNÉRALES

Soit E = {x, y, . . .} un ensemble fini, (Xn )n une chaîne de Markov sur E


de matrice de transition P = (pxy )x,y∈E .

Définition 2. Soit π = (πx )x∈E une loi de probabilité sur E.


1. π est une loi stationnaire (invariante) pour la chaîne de Markov (Xn )n ,
si π = π P , c’est à dire, si pour tout y ∈ E, on a :
X X
πy = πx pxy ⇐⇒ πy = πx p(n)
xy .
x∈E x∈E

2. La loi π est dite réversible ou que la matrice P est π-réversible, si

∀x, y ∈ E, πx pxy = πy pyx .

Remarque 1. Si π est réversible, alors elle est stationnaire.


En effet ;
πx pxy = πy pyx .
En sommant par rapport à x, on obtient :
X X X
πx pxy = πy pyx = πy pyx = πy , y ∈ E.
x∈E x∈E x∈E

P
c’est à dire ∀y ∈ E, πy = x πx pxy .

Propsition 1. Soit π = (πx )x∈E la loi stationnaire d’une chaîne de Mar-


kov (Xn )n . Si on désigne par Tx l’instant du premier retour en x, c’est à dire :



 inf n {Xn = x}, si ∪n {Xn = x} =
6 ∅;

Tx =


∞, sinon.

alors on a :
1
πx = .
Ex [Tx ]

8
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV

Définition 3. Une chaîne de Markov (Xn )n , est dite irréductible si elle ne


possède qu’une unique classe de communication, c’est à dire que tous ses élé-
ments communiquent (x ↔ y).

Définition 4. Soit (Xn )n une chaîne de Markov irréductible. La période d’un


état x ∈ E est le PGCD (plus grand commun diviseur) de {n ∈ N∗ ; pnxx > 0}.
Un état est dit apériodique si sa période est 1, sinon il est dit périodique.

Note : La périodicité est une propriété de classe. Si une classe de com-


munication est de période 1, on dit qu’elle est apériodique. Une chaîne de
Markov irréductible est dite apériodique si elle admet une classe apériodique.

Exemple 1. Marche aléatoire sur Z.

Soit (Yn )n une suite de variables aléatoires indépendantes identiquement


distribées (i.i.d.) tel que :

P [Yn = +1] = p, et P [Yn = −1] = q, p + q = 1,

et X0 une variable aléatoire indépendante de (Yn )n . On cosidère la suite


(Xn )n définie par :
n
X
X0 , et ∀n > 0, Xn = Yk .
k=1

Alors (Xn )n est une chaîne de Markov sur Z de matrice de transition :




 p, si y=x+1;



pxy = q, si y=x-1;




0, sinon.

De plus, (Xn )n est irréductible et apériodique.

9
1.2. DISTANCE EN VARIATION TOTALE

1.2 Distance en variation totale


A présent nous avons besoin de comparer deux mesures de probabilités.
Si (E, E) est un espace mesurable et P(E) l’ensemble des lois de probabi-
lités sur cet espace, nous introduisons une distance sur P(E) : La distance
en variation totale, qui est adaptée pour la comparaison de lois discrètes,
ce qui est notre cas, car E est un ensemble dénombrable comme espace d’
états d’une chaîne de Markov. Il s’agit donc de munir P(E) d’une topolo-
gie. Remarquons que P(E) est déjà muni de la topologie de la convergence
vague de mesures. Pour une comparaison entre ces deux topologie nous nous
contentons de signaler les remarques faites dans [11].

Dans cette section, on considère que (E, E) est un espace mesurable et P, Q


sont deux mesures de probabilité sur cet espace.

Définition 5. La distance en variation totale entre P et Q est le nombre


réel positif noté ||P − Q||, défini par :
Z
||P − Q|| = sup | ϕ(ω)d(P − Q)|.
A⊂E E

avec ϕ une fonction E-mesurable tel que : |ϕ(ω)| ≤ 1.

Lemme 1. (Cf.[11]).
La distance en variation totale est donnée par :

||P − Q|| = 2 sup |P (A) − Q(A)|.


A⊂E

Démonstration.
1. On montre d’abord que :

2 sup |P (A) − Q(A)| ≤ ||P − Q||.


A⊂E

∀A ⊂ E, on a :

P (A) − Q(A) = 1 − P (A) − 1 + Q(A) = Q(A) − P (A),

10
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV

donc :

2|P (A) − Q(A)| = |P (A) − Q(A)| + |Q(A) − P (A)|

= |P (A) − Q(A)| + |P (A) − Q(A)|

Z Z Z Z
= | dP − dQ| + | dP − dQ|
A A A A

Z Z
= | d(P − Q)| + | d(P − Q)|
A A

Z Z
= | d(P − Q)| = | d(P − Q)|.
A∪A E

R
Donc : 2|P (A) − Q(A)| = | E
d(P − Q)|.

Or ∀ϕ une fonction E-mesurable tel que |ϕ(ω)| ≤ 1, on a par défi-


nition :

Z Z
| d(P − Q)| ≤ sup | ϕ(ω)d(P − Q)|, ∀A ⊂ E
E E

=⇒ 2|P (A) − Q(A)| ≤ ||P − Q||,

d’où : ∀A ⊂ E, 2 supA⊂E |P (A) − Q(A)| ≤ ||P − Q||.

11
1.2. DISTANCE EN VARIATION TOTALE

2. Montrons que :

||P − Q|| ≤ 2 sup |P (A) − Q(A)|.


A⊂E

On va utiliser la décomposition de Hahn pour une mesure signée.


Soit µ = P − Q une mesure signée. ∃(A, B) une partition de E pour µ,
tel que A est l’ensemble positif de µ, et B son ensemble négatif.

La variation totale de µ est : ||µ|| = |µ|(E), tel que :

|µ|(E) = µ+ (E) + µ− (E)


avec :
µ+ (E) = µ(A), µ− (E) = −µ(B).
Donc :

||P − Q|| = ||µ|| = µ+ (E) + µ− (E)

= µ(A) − µ(B)

= (P − Q)(A) − (P − Q)(B)

= P (A) − Q(A) − P (B) + Q(B)

= (P (A) − Q(A)) + (Q(B) − P (B)).

Comme (A, B) est une partition de E, alors A ∪ B = E, c’est à dire :

B = A, donc :

||P − Q|| = (P (A) − Q(A)) + (Q(A) − P (A)).

12
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV

Or on a déja vue que : P (A) − Q(A) = Q(A) − P (A), donc :

||P − Q|| = 2(P (A) − Q(A)) ≤ 2|P (A) − Q(A)|

≤ 2 sup |P (A) − Q(A)|.


A⊂E

D’où :
||P − Q|| ≤ 2 sup |P (A) − Q(A)|.
A⊂E

D’aprés (1) et (2), on conclue que :

||P − Q|| = 2 sup |P (A) − Q(A)|.


A⊂E

Propsition 2. (Cf. [4]).


Soient P et Q deux mesures de probabilité sur (R, BR ) de densités respectives
(par rapport à la mesure de Lebesgue dx) p(x) et q(x), c’est à dire :

dP dQ
p(x) = , et q(x) = .
dx dx
Alors : Z
||P − Q|| = |p(x) − q(x)|dx.
R

Démonstration. Il faut montrer que : ∀A ⊂ R,


Z
2 sup |P (A) − Q(A)| = |p(x) − q(x)|.
A R

13
1.2. DISTANCE EN VARIATION TOTALE

1. On montre en premier lieu que :


Z
2 sup |P (A) − Q(A)| ≤ |p(x) − q(x)|.
A R

On a :

2|P (A) − Q(A)| = |P (A) − Q(A)| + |P (A) − Q(A)|

Z Z Z Z
= | dP − dQ| + | dP − dQ|
A A A A

Z Z Z Z
= | p(x)dx − q(x)dx| + | p(x)dx − q(x)dx|
A A A A

Z Z
= | (p(x) − q(x))dx| + | (p(x) − q(x))dx|
A A

Z Z
≤ |p(x) − q(x)|dx + |p(x) − q(x)|dx
A A

Z Z
= |p(x) − q(x)|dx = |p(x) − q(x)|dx.
A∪A R

Donc :
Z
∀A ⊂ R, 2|P (A) − Q(A)| ≤ |p(x) − q(x)|dx,
R

d’où : Z
2 sup |P (A) − Q(A)| ≤ |p(x) − q(x)|dx.
A R

14
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV

Remarque 2. Pour la suite, on a besoin de montrer que :


Z Z Z
|p(x)−q(x)| = 2 (p(x)−q(x))dx = 2 (q(x)−p(x))dx.
R {p(x)>q(x)} {p(x)<q(x)}

Comme : P et Q sont deux lois de probabilité, donc on a :

Z Z
dP = dQ = 1,
R R

c’est à dire : Z Z
p(x)dx = q(x)dx = 1,
R R

donc :
Z Z
0 = p(x)dx − q(x)dx
R R

Z
= (p(x) − q(x))dx
R

Z Z
= (p(x) − q(x))dx + (p(x) − q(x))dx,
{p(x)>q(x)} {p(x)<q(x)}

Z Z
=⇒ (p(x) − q(x))dx = − (p(x) − q(x))dx
{p(x)>q(x)} {p(x)<q(x)}

Z
= (q(x) − p(x))dx.
{p(x)<q(x)}

15
1.2. DISTANCE EN VARIATION TOTALE

Z Z
=⇒ (p(x) − q(x))dx = (q(x) − p(x))dx.
{p(x)>q(x)} {p(x)<q(x)}

R
Comme : R
(p(x) − q(x))dx = 0, donc on a :

Z Z
|p(x) − q(x)|dx = (p(x) − q(x))dx
R R

Z Z
= (p(x) − q(x))dx + (q(x) − p(x))dx
{p(x)>q(x)} {p(x)<q(x)}

Z
= 2 (p(x) − q(x))dx
{p(x)>q(x)}

Z
= 2 (q(x) − p(x))dx.
{p(x)<q(x)}

2. On montre que :

Z
|p(x) − q(x)|dx ≤ 2 sup |P (A) − Q(A)|.
R A

On a :

||P − Q|| = 2 sup |P (A) − Q(A)| =⇒ ||P − Q|| ≥ 2|P (A) − Q(A)|.
A

Posons B = {x : p(x) > q(x)} ; donc : ||P − Q|| ≥ 2|P (B) − Q(B)|.

16
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV

||P − Q|| ≥ 2|P (B) − Q(B)|

Z Z
= 2| dP − dQ|
B B

Z Z
= 2| p(x)dx − q(x)dx|
B B

Z Z
= 2| p(x)dx − q(x)dx|
{p(x)>q(x)} {p(x)>q(x)}

Z
= 2| (p(x) − q(x))dx|
{p(x)>q(x)}

Z
= 2 (p(x) − q(x))dx.
{p(x)>q(x)}

Daprés la remarque 2, on aura :

Z
2 sup |P (A) − Q(A)| ≥ 2 (p((x) − q(x))dx
A {p(x)>q(x)}

Z
= |p(x) − q(x)|dx.
R

Donc : Z
2 sup |P (A) − Q(A)| ≥ |p(x) − q(x)|dx.
A R

17
1.3. APPLICATION AU CAS FINI OU DÉNOMBRABLE

De (1) et (2), on conclue que :

Z
2 sup |P (A) − Q(A)| = |p(x) − q(x)|dx,
A R

c’est à dire :
Z
||P − Q|| = |p(x) − q(x)|dx.
R

Corollaire 1. Dans le cas où P et Q sont deux mesures discrètes, on a :



X
||P − Q|| = |p(xi ) − q(xi )|.
i=1

1.3 Application au cas fini ou dénombrable


Si E est un ensemble fini ou dénombrable, alors nous avons (Cf. [5]) :

Définition 6. Soient µ et ν deux mesures de probabilité sur E. La distance


en variation totale entre µ et ν est le nombre réel positif noté dV T (µ, ν),
défini par :
dV T (µ, ν) = max |µ(A) − ν(A)|.
A⊂E

Propsition 3. Etant donnée deux mesures de probabilité µ et ν sur E, on


a l’identité suivante :
1X
dV T (µ, ν) = |µ(x) − ν(x)|.
2 x∈E

18
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV

Démonstration. Soit B = {x : µ(x) ≥ ν(x)}. Si on considère que A ⊂ E


est un ensemble quelconque, donc il peut s’écrire sous la forme suivante :

A = A1 ∪ B, tel que : A1 = {x : µ(x) < ν(x)}.

Comme : A1 ∩ B = ∅, alors :

(µ − ν)(A) = (µ − ν)(A1 ∪ B) = (µ − ν)(A1 ) + (µ − ν)(B),

=⇒ (µ − ν)(A) − (µ − ν)(A1 ) = (µ − ν)(B)


or :

(µ − ν)(A1 ) < 0 =⇒ −(µ − ν)(A1 ) > 0

=⇒ (µ − ν)(A) ≤ (µ − ν)(B).

De la même manière, on considère : B = {x : µ(x) < ν(x)}, donc :

A = A2 ∪ B, tel que : A2 = {x : µ(x) ≥ ν(x)} = B.

Comme : A2 ∩ B = ∅, alors :

(ν − µ)(A) = (ν − µ)(A2 ∪ B) = (ν − µ)(A2 ) + (ν − µ)(B)

= (ν − µ)(B) + (ν − µ)(B)

=⇒ (ν − µ)(A) − (ν − µ)(B) = (ν − µ)(B)


or :

19
1.3. APPLICATION AU CAS FINI OU DÉNOMBRABLE

(ν − µ)(B) > 0 =⇒ (ν − µ)(A) ≥ (ν − µ)(B).

Comme : (µ − ν)(B) = (ν − µ)(B), donc : |(µ − ν)(A)| = (µ − ν)(B).

|(µ − ν)(A)| = (µ − ν)(B)

1
= (µ(B) − ν(B) + ν(B) − µ(B))
2

1
= [(µ(B) − ν(B)) − (µ(B) − ν(B))]
2

Sur B : |(µ−ν)|(B) = µ(B)−ν(B), sur B : |(µ−ν)|(B) = −[µ(B)−ν(B)] ;

1 1
[ (µ(B) − ν(B)) − (µ(B) − ν(B)) ] = [ |µ − ν|(B) + |µ − ν|(B) ]
2 2

1
= [ |µ − ν|(B ∪ B) ]
2

1
= [ |µ − ν|(E) ]
2

1X
= |µ(x) − ν(x)|.
2 x∈E

20
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV

Donc :
1X
|(µ − ν)(A)| = |µ(x) − ν(x)|.
2 x∈E

Comme : |(µ − ν)(A)| est une constante, donc :

|(µ − ν)(A)| = max |(µ − ν)(A)| = ||µ − ν||.


A

d’où le résultat.


Propsition 4. Avec ces notations, on a dV T est une distance.

Démonstration. (i) dV T (µ , ν) = 0 ⇐⇒ µ = ν :
=⇒]

1X
dV T (µ, ν) = 0 ⇐⇒ |µ(x) − ν(x)| = 0
2 x∈E

X
=⇒ |µ(x) − ν(x)| = 0
x∈E

=⇒ |µ(x) − ν(x)| = 0 (1.1)

=⇒ µ = ν, ∀x ∈ E.

(1.1) est vraie, car on a les tèrmes de la somme sont positifs ou nuls.

⇐=] µ = ν, donc ∀x ∈ E, on a :

21
1.3. APPLICATION AU CAS FINI OU DÉNOMBRABLE

µ(x) − ν(x) = 0 ⇐⇒ |µ(x) − ν(x)| = 0

X
=⇒ |µ(x) − ν(x)| = 0
x∈E

1X
=⇒ |µ(x) − ν(x)| = 0 = dV T (µ, ν).
2 x∈E

(ii) dV T (µ, ν) = dV T (ν µ) :

1X
dV T (µ, ν) = |µ(x) − ν(x)|
2 x∈E

1X
= |ν(x) − µ(x)| = dV T (ν, µ).
2 x∈E

(iii) dV T (µ, ν) ≤ dV T (µ, η) + dV T (η, ν), η ∈ P(E) :

1
P
On a : dV T (µ, ν) = 2 x∈E |µ(x) − ν(x)|,

|µ(x) − ν(x)| = |µ(x) − η(x) + η(x) − ν(x)|

≤ |µ(x) − η(x)| + |η(x) − ν(x)|

22
CHAPITRE 1. QUELQUES PROPRIÉTÉS DE CHAÎNES DE MARKOV

X X X
⇒ |µ(x) − ν(x)| ≤ |µ(x) − η(x)| + |η(x) − ν(x)|
x∈E x∈E x∈E

1X 1X 1X
⇒ |µ(x) − ν(x)| ≤ |µ(x) − η(x)| + |η(x) − ν(x)|
2 x∈E 2 x∈E 2 x∈E

⇒ dV T (µ, ν) ≤ dV T (µ, η) + dV T (η, ν).

Conclusion :

De (i), (ii) et (iii), on conclue que dV T est une distance.




23
1.3. APPLICATION AU CAS FINI OU DÉNOMBRABLE

24
Chapitre 2

Quelques méthodes de simulation


d’une loi de probabilités

Nous présentons dans ce chapitre quelques méthodes de simulation de


variables aléatoires dites méthodes de Monte-Carlo.

2.1 Echantillon uniforme sur [0, 1]


Le problème de la génération d’un échantiollon aléatoire (U1 , U2 , . . . , Un )
où les Ui sont uniformement réparties dans [0, 1], est en principe réglé par
l’existence dans le système, d’un générateur de nombres aléatoires. De nom-
breux algorithmes existent, pour cela. Une méthode possible néanmoins, se-
rait de s’appuer sur le théorème de Borel, que nous rappelons cdi-après.

Théorème 1 (Théorème de Borel). Si x ∈ [0, 1]∩QC , et si x = 0.X1 X2 . . . Xn , · · ·


est le developpement décimal de x, alors les Xi sont uniformement réparties
sur {0, 1, 2, · · · , 9} c’est à dire :
1
P [Xi = a] = ,
10
avec a ∈ {0, 1, . . . , 9}.

Ce théorème contient un algorithme de génération des variables aléatoires


Ui uniformement réparties sur [0, 1].

25
2.2. SIMULATION D’UNE LOI DE FONCTION DE RÉPARTITION
INVERSIBLE
Tout le problème est de disposer alors d’une méthode
√ de developpement
décimal d’un irrational quelconque, par exemple : 2, e, π, . . .
Si par exemple on veut calculer le developpement décimal de π, alors on
exploite la formule :

π X 1
= (−1)n ,
4 n=0
2n + 1

Pour des besoins de précision, on peut faire appel à cette méthode. Malgrés
la puissance de calcul accrue des machines actuelles, son caractère ardu (Le
calcul des décimales d’un irrationnel est non trivial) et le caractère pratique
des géérateurs usuels de nombres aléatoires dans les machines et surtout leurs
satisfactions aux tests courants, font que c’est un luxe inutile. On se satisfait
donc des algoithmes usuels de génération de nombres aléatoires

Pour la suite, on suppose que nous disposons d’une machine muni d’un
générateur de nombres aléatoires uniformément répartis sur [0, 1].

2.2 Simulation d’une loi de fonction de répar-


tition inversible
Notre problème est la simulation d’une variable aléatoire X suivant une
loi de fonction de répartition F . Nous voulons donc construire un échantillon
aléatiore (X1 , . . . , Xn ) de X.

Notre point de départ est la proposition suivante :

Propsition 5. Soit X une variable aléatoire de fonction de répartition F.


Si F est inversible, alors la variable aléatoire F (X), suit la loi uniforme
U[0, 1].

Démonstration. Si x ∈ [0, 1], alors on a :

P [F (X) ≤ x] = P [X ≤ F −1 (x)] = F (F −1 (x)) = x.

26
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS

Conséquence :

Si (U0 , . . . , Un ) une suite de variables aléatoires indépendantes suivant la


loi uniforme sur [0, 1], et si Xk = F −1 (Uk ) sont indépendantes, alors les
Xk sont indépendantes et (X1 , . . . , Xn ) est un échantillon de taile n de X
suivant la loi de fonction de répartition F .

En effet, d’aprés la proposition 1 et pour Uk ∼ U[0, 1], ona :

P [Xk ≤ x] = P [F −1(Uk ) ≤ x] = P [Uk ≤ F (x)] = F (x).

Ce qui signifie que chaque variable aléatoire Xk suit une loi dont la fonction
de répartition est F. Les variables aléatoires Xk sont indépendantes puisque
ils sont de la forme F −1 (Uk ) où les Uk sont indépendantes.

Résumé : La proposition 1 contient un algorithme de simulation de la


variable aléatoire X. Dans ce cas, pour appliquer cette méthode, on a l’algo-
rithme suivant :
1. Générer Uk selon une loi uniforme sur [0, 1] ;

2. Effectuer la transformation Xk = F −1 (Uk ).

Remarque 3. Cette méthode ne permet de simuler que des variables aléa-


toires dont on connaît leur fonction de répartition F et celle ci doit être
inversible. Il existe cependant des cas où F −1 n’existe pas, donc la méthode
est limitée dans ses applications.

2.3 Simulation de chaînes de Markov


Supposons qu’on veut simuler une chaîne de Markov (Xn )n≥0 definie sur
ensemble fini E = {x, y, . . .}, de matrice de transition P = (pxy )x,y∈E et de
loi initiale µ(0) .

27
2.3. SIMULATION DE CHAÎNES DE MARKOV

On suppose donnée une suite U0 , U1 , . . . , Un de variables aléatoires indépen-


dantes identiqument distribuées (i.i.d.) tel que :
∀i, Ui ∼ U[0, 1].
Soit la fonction ψ (fonction d’initialisation) tel que : ψ : [0, 1] −→ E,
définie par :



 x, si u ∈ [ 0, µ(0) (x) [ ;




y, si u ∈ [ µ(0) (x), µ(0) (x) + µ(0) (y) [ ;



..





 .
ψ(u) = Ph−1 Ph
h, si u ∈ [ µ(0) (l), µ(0) (l) [ ;


 l=x l=x
..


.



 Pk−1
µ(0) (l), 1 ].

k, si u ∈ [



 l=x

On a alors X0 = ψ(U0 ) car nous avons d’aprés [1] :

Propsition 6. La loi de ψ(U0 ) est égale à µ(0) .


Démonstration.
Z 1
P [ψ(U0 ) = h] = I(ψ(u)=h) dµ
0

= µ(ψ(u) = h)

h
X h−1
X
(0)
= µ (l) − µ(0) (l)
l=x l=x

= µ(0) (l) = P [X0 = l].

28
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS


De même, on considère la fonction φ (fonction de mise à jour) tel que :

φ : [0, 1] × E −→ [0, 1], définie par :



 x, si u ∈ [ 0, px1 [ ;




y, si u ∈ [ px1 , px1 + px2 [ ;



..



 .
φ(x, u) =
h, si u ∈ [ h−1
P Ph
 l=x pxl , l=x pxl [ ;
..


.




 Pk−1



 k, si u ∈ [ l=1 pxl , 1 ].

Propsition 7. Si Xn+1 = φ(Xn , Un+1 ), alors on a

P [Xn+1 = y/Xn = x] = pxy .

Démonstration.

P [Xn+1 = h/Xn = x] = P [φ(Xn , Un+1 ) = h/Xn = x]

= P [φ(x, Un+1 ) = h]
Z 1
= I(φ(x,u)=h) dµ
0

= µ(φ(x, u) = h)

h
X h−1
X
= pxl − pxl = pxh .
l=x l=x

29
2.3. SIMULATION DE CHAÎNES DE MARKOV

Or la deusième égalité est vraie car on a : Un+1 est indépendante de (U0 , . . . , Un );


et comme la suite (U0 , . . . , Un ) est indépendante de Xn (hypothèse), donc
Un+1 est indépendante de Xn .

Application :

Cette méthode nous donne une définition d’une chaîne de Markov, et


donne aussi un moyen de la simuler.
A l’aide d’une fonction ψ, nous avons X0 , et à l’aide de φ nous avons Xn à
partir de Xn+1 , et on donne une suite de variables aléatoires (Un )n i.i.d. de
loi uniforme sur [0, 1]. Pour simuler (Xn )n :

– on simule X0 tel que : X0 = ψ(U0 );

– on pose Xn+1 = φ(Xn , Un+1 ), ∀n ≥ 0;

– on affiche Xn .

L’algorithme donne alors une trajectoire (X0 , X1 , . . . , Xn ) de (Xn )n .

Exemple 2. Soit E = {x, y, z} un espace des états fini, (Xn )n≥0 une
chaîne de Markov sur E de loi initiale µ(0) = (1/4, 1/2, 1/4) et de matrice
de transition P telque :
 
1/2 0 1/2
P =  1/3 1/3 1/3 
1 0 0

(Ui )0≤i≤5 une suite de variables aléatoires i.i.d. de loi uniforme U[0, 1], donc
on a :


 x, si u ∈ [ 0, 1/4 [ ;




y, si u ∈ [ 1/4, 3/4 [ ;

ψ(u) =


z, si u ∈ [ 3/4, 1 ].




30
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS



 x, si u ∈ [ 0, 1/2 [ ;




y, si u = 1/2;

φ(x, u) =


z, si u ∈ [ 1/2, 1 ].






 x, si u ∈ [ 0, 1/3 [ ;




y, si u ∈ [ 1/3, 2/3 [ ;

φ(y, u) =


z, si u ∈ [ 2/3, 1 ].




et ∀u ∈ [0, 1], on a : φ(z, u) = x.

D’où, on obtient l’échantillon suivant :

X0 = ψ(U0 ); X1 = φ(X0 , U1 );
X2 = φ(X1 , U2 ); X3 = φ(X2 , U3 );
X4 = φ(X3 , U4 ); X5 = φ(X4 , U5 ).

2.4 Simulation d’une loi de probabilité


Nous avons la proposition suivante (Cf. [1])

Propsition 8. Soit (Xn )n≥0 une chaîne de Markov irréductible et apério-


dique sur un ensemble fini E, de matrice de transition P = (pxy )x,y∈E . Si on
désigne par π = (πx )x∈E la loi stationnaire de (Xn )n≥0 , alors pour toute loi
initiale µ(0) , on a :
VT
µ(n) −→ π, n → ∞

31
2.4. SIMULATION D’UNE LOI DE PROBABILITÉ

avec µ(n) = £(Xn ).

Démonstration. Il faut montrer que :

dV t (µ(n) , π) −→ 0.

Soient (Xn )n≥0 et (Yn )n≥0 deux chaînes de Markov indépendantes définies
sur le même ensemble E.
(Xn )n est de loi initiale µ(0) quelconque, (Yn )n est de loi initiale π qui est
stationnaire.

Soit T la variable aléatoire définie par :

T : Ω −→ N ∪ ∞
 S

 inf n {n > 0, Xn = Yn }, si n {Xn = Yn } =
6 ∅;

T (ω) =


∞, sinon.

T est donc le premier instant où Xn = Yn .

1. Montrons que : limn→∞ P [T > n] = 0.

P [T > n] = 1 − P [T ≤ n].
n
[
{T ≤ n} = {Xk = Yk } = {X1 = Y1 } ∪ . . . ∪ {Xn = Yn }.
k=1

P [Xn = Yn ] ≤ P [T ≤ n], car on a : {Xn = Yn } ⊂ {T ≤ n}.

32
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS

– Pour n = m; P [T ≤ m] ≥ P [Xm = Ym ].

{Xm = Ym } = {Xm = Ym = x}∪{Xm = Ym = y}∪. . .∪{Xm = Ym = z}.

Or : P [Xm = Ym = y] ≤ P [Xm = Ym ], car on a :

{Xm = Ym = y} ⊂ {Xm = Ym }.

P [T ≤ m] ≥ P [Xm = Ym ]

≥ P [Xm = Ym = y] = P [Xm = y, Ym = y]

= P [Xm = y] P [Ym = y] par indépendance.

D’aprés la formule des probabilités totales, on a :

X X
P [Xm = y] = P [Xm = y/X0 = x] P [X0 = x] = µ(0) (x) pxy
(m)
;
x∈E x∈E
X X
(m)
P [Ym = y] = P [Ym = y/Y0 = x] P [Y0 = x] = πx pxy .
x∈E x∈E

donc : X X
P [T ≤ m] ≥ ( µ(0) (x) pxy
(m)
)( (m)
πx pxy ). (2.1)
x∈E x∈E

(m)
Comme (Xn )n est irréductible, alors ∃m < ∞ tel que : pxy > 0.
(m) (m)
On pose α = minm (pxy ) ⇒ α > 0 et pxy > α, donc :

X X
(1.2) ≥ (α µ(0) (x)) (α πx ) = α2 .
x∈E x∈E

33
2.4. SIMULATION D’UNE LOI DE PROBABILITÉ

P P
Car µ, π ∈ P(E) ⇒ x∈E µ(x) = x∈E πx = 1.

donc :
P [T ≤ m] ≥ P [Xm = Ym ] ≥ α2

=⇒ [T > m] ≤ P [Xm 6= Ym ] ≤ 1 − α2 . (2.2)

– Pour n = 2m; P [T > 2m] = P [T > 2m, T > m]

= P [T > 2m/ T > m] P [T > m].

Comme P [T > m] ≤ 1 − α2 , on a :

P [T > 2m, T > m] = P [T > 2m/ T > m] P [T > m]

≤ (1 − α2 ) P [T > 2m/ T > m].

Or : P [T > 2m] ≤ P [X2m 6= Y2m ] ≤ 1 − α2 , d’aprés (2.2).

P [T > 2m/ T > m] P [T > m] ≤ (1 − α2 ) P [T > 2m/ T > m]

≤ (1 − α2 ) P [X2m 6= Y2m / T > m]

≤ (1 − α2 ) (1 − α2 ) = (1 − α2 )2 .

Donc : ∀l, n = lm, P [T > lm] ≤ (1 − α2 )l .

34
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS

(m) (m)
On a : α = minm (pxy ); de plus : pxy ≤ 1 (matrice de transition),

donc : 0 < α ≤ 1.

0 < α ≤ 1 ⇒ 0 < 1 − α2 ≤ 1 ⇒ lim (1 − α2 )l = 0.


l→∞

Conclusion : ∀n, P [T > n] → 0.

2. On construit une chaîne de Markov (Zn )n≥0 définie sur E tel que :



 Xn , si n ≤ T ;

Zn =


Yn , si n > T.

3. Soient (Zn )n et (Yn )n deux chaînes de Markov indépendantes définies


sur E. (Zn )n est de loi initiale µ(0) , et (Yn )n est de loi initiale la loi
stationnaire π. Si µ(n) = £(Zn ), alors on a :

P [Zn = x] = P [Xn = x, n ≤ T ] = µ(n) (x);

P [Yn = x] = πx .

µ(n) (x) − πx = P [Xn = x, n ≤ T ] − P [Yn = x]

= P [Zn = x] − P [Yn = x].

Or :
P [Zn = x] − P [Yn = x] = P [Zn = x, Yn 6= x]
car :
{Yn = x} ⊂ {Zn = x}.

35
2.4. SIMULATION D’UNE LOI DE PROBABILITÉ

De plus :

{Zn 6= Yn } = {Zn = x, Yn 6= x}∪{Zn 6= x, Yn = x}∪. . .∪{Zn 6= z, Yn = z}

⇒ {Zn = x, Yn 6= x} ⊂ {Zn 6= Yn } ⇒ P [Zn = x, Yn 6= x] ≤ P [Zn 6= Yn ];


donc :

µ(n) (x) − π(x) = P [Zn = x, Yn 6= x]

≤ P [Zn 6= Yn ]

= P [T > n].

Donc :
µ(n) (x) − π(x) ≤ P [T > n].

Comme : P [T > n] → 0, (d’aprés conclusion 1) on a :

µ(n) (x) − π(x) → 0 ⇐⇒ lim |µ(n) (x) − πx | = 0.


n→∞

1 X (n)
lim |µ(n) (x) − πx | = 0 ⇐⇒ lim ( |µ (x) − πx |) = 0
n→∞ n→∞ 2 x∈E

⇐⇒ dV T (µ(n) , π) −→ 0.


Nous avons le théorème suivant (Cf.[1]).

Théorème 2. Soit (Xn )n une chaîne de Markov irréductible et apériodique


sur un ensemble fini E, alors elle possède une unique loi stationnaire π.

36
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS

Démonstration. On démontre par l’absurde. Soit (Xn )n une chaîne de Mar-


kov irréductible et apériodique de lois stationnaires π et π ′ , tel que π 6= π ′ .

On suppose que la loi initiale de (Xn )n est µ(0) , telque µ(0) = π ′ . Si on


désigne par µ(n) la loi de (Xn )n à l’instant n, alors on a µ(n) = π ′ , car π ′ est
la loi stationnaire de (Xn )n .

D’aprés la proposition précédente, on a :


VT
µ(n) −→ π, n → ∞
donc :

lim dV T (µ(n) , π) = 0.
n

Comme µ(n) = π ′ (hypothèse), donc :

lim dV T (π ′ , π) = 0.
n

Or dV T (π, π ′ ) ne dépend pas de n, donc :

lim dV T (π ′ , π) = 0 ⇐⇒ dV T (π ′ , π) −→ 0.
n
.

donc π = π ′ (contradiction).


D’aprés la proposition 8, on a alors :

µ(n) (j) → π(j), n → ∞

donc on peut conclure que : ∀ǫ > 0, n grand,

|µ(n) (j) − π(j)| < ǫ

37
2.5. APPLICATION : ALGORITHME DE METROPOLIS

c’est à dire, on peut prendre comme valeur de π(j), µ(n) (j).

Problème : Comment construire la chaîne (Xn )n et donc construire


des variables aléatoitres de loi π?

2.5 Application : Algorithme de Metropolis


Soit π une loi de probabilité sur un ensemble fini E. On chèrche à construire
un échantillon de valeurs tirées selon la loi π. L’idée est de construire une
chaîne de Markov qui admet π comme loi stationnaire (Cf.[2]).

On se donne une matrice de transition Q = (qxy )x,y∈E sur E, appellée matrice


de selection tel que :

qxy > 0 ⇒ qyx > 0, ∀x, y ∈ E.

Soit h :]0, ∞[→]0, 1[ une fonction tel que :


1
h(u) = h(u).
u

Note : On peut prendre : h(u) = min(u, 1).

Pour x 6= y, on pose :

 πy qyx

 h( πx qxy
) si qxy 6= 0;

α(x, y) =


0 sinon.

38
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS

Donc si h(u) = min(u, 1), alors on a :

 πy qyx

 min( πx qxy
, 1) si qxy 6= 0;

α(x, y) =


0 sinon.

L’algorithme de Metropolis correspondant est le suivant :

Etape 0 : Initialiser X0

Etape n + 1 :

(Selection) Choisir y avec la loi Q(Xn , y)

Tirer un nombre U au hasard dans [0, 1]

Si U < α(Xn , y) accepter la selection :

Xn+1 = y ;

Sinon, refuser la selection :

Xn+1 = Xn .

39
2.5. APPLICATION : ALGORITHME DE METROPOLIS

Etude de la chaîne construite :

(Xn )n est une chaîne de Markov de matrice de transition P définie par :



 qxy α(x, y) si x 6= y;

pxy =


0 sinon.

Alors on a la proposition suivante (Cf.[2]) :

Propsition 9. La matrice de transition P définie ci-dessus, est reversible


par rapport à π.
Si Q est irréductible, alors P est irréductible. Si de plus h(u) < 1, alors elle
est apériodique.

Exemple 3. Utilisons l’ algorithme de Metropolis à marche aléatoire équi-


probable pour simuler une loi de Poisson de paramètre λ.

On chèrche à simuler la loi de Poisson,


λx
πx = exp(−λ) , pour x ∈ N.
x!

Dans le cas de la marche aléatoire, Q(x, y) = q(y − x) ; donc :

πy q(x − y)
α = min(1, ).
πx q(y − x)

Si q est symétrique, q(t) = q(−t), on a :


πy x!
α(x, y) = min(1, ) = min(1, λy−x ).
πx y!

40
CHAPITRE 2. QUELQUES MÉTHODES DE SIMULATION D’UNE LOI
DE PROBABILITÉS

On considère ici le cas de la marche aléatoire, dont la matrice de transition


est alors donnée par :
1 1
qxy = δx−1 (y) + δx+1 (y).
2 2

L’algorithme s’écrit alors sous la forme suivante :

Etape 0 : Initialiser X0 ;

Etape n + 1 :

1
space*2.3cm On pose y = xn − 1 ou y = xn + 1 avec probabilité 2
;

Tirer un nombre U au hasard dans [0, 1]

Xn !
Si U < min(1, λy−Xn y!
) accepter la selection :

Xn+1 = y ;

Sinon, refuser la selection :

Xn+1 = Xn .

41
2.5. APPLICATION : ALGORITHME DE METROPOLIS

42
Chapitre 3

Simulation exacte : L’algorithme


de Propp-Wilson

Les méthodes classiques de simulation présentées dans le chapitre pré-


cédent, sont en général basées sur des méthodes d’approximation d’une loi
de probabilité. En 1996, Propp et Wilson (P-W) ont developpé une nouvelle
méthode (algorithme) (Cf. [6] et [7]), dite de simulation exacte ou parfaite.
Cette méthode rompt avec la conception classique (approximation) car elle
donne la possibilité de construire un échantillon distribué exactement suivant
la loi cible. Elle est fondée sur les propriétés des chaînes de Markov itératives.

3.1 Présentation de l’algorithme de Propp et


Wilson
Soit E un ensemble fini et π une loi de probabilités sur E. L’algorithme
de P-W est basé sur la construction d’une chaîne de Markov (Xnx )n itérative
de loi stationnaire π (Cf. [8]), et du processus (Hnx )n associé appelé "backward
process". Plus précisement :

– Soit (Yn )n une suite de variables aléatoires i.i.d. à valeurs dans E, et


de loi µ.
– Pour x, y ∈ E, soit la fonction x 7→ fY (x) définie de E dans E.

43
3.1. PRÉSENTATION DE L’ALGORITHME DE PROPP ET WILSON

La chaîne de Markov (Xnx )n d’espace des états E définie par :


 x
X = x;
 0


 x
Xnx = fYn (Xn−1 ), ∀n > 0.

On suppose que la chaîne de Markov (Xnx )n est de loi stationnaire π. De


plus on suppose qu’elle est irréductible et apériodique.

Définition 7. On appelle "backward process" associé à (Xnx )n , le processus


(Hnx )n définie par :
 x
H = x;
 0



Hnx = fY1 ◦ fY2 ◦ . . . fYn (x), ∀n > 0.

Dans les conditions (H) que nous allons présiser, l’algorithme est basé
sur le fait que :

1. limn Hnx est constante.

2. Si (Xn )n admet la loi stationnaire π, alors limn Hnx est une variable
aléatoire de loi π.

3. Si T est la variable aléatoire définie par :

T = inf {n ∈ N, Hnx = cte},


n

alors T est fini, p.s.

L’algorithme consiste donc à construire un échantillon (Z1 , Z2 , . . . , Zn ) de


loi stationnaire π, en considérant :

44
CHAPITRE 3. SIMULATION EXACTE : L’ALGORITHME DE
PROPP-WILSON

Z1 = lim Hnx1 ,
n

Z2 = lim Hnx2 ,
n
..
.
Zn = lim Hnxn ,
n

avec les Zn distribués suivant la loi π, car si π est une loi stationnaire pour
Xnx , c’est aussi la loi de Hnx , car les processus (Xnx )n et (Hnx )n sont de même
loi. Il en résult que limn Hnx est une variable aléatoire de loi π.

3.2 Validité du principe de l’algorithme


Diaconis et Freedman ont donné les conditions (Cf. [8]), pour que limn Hnx
existe, et que cette limite soit une constante.
Soit (E, d) un espace métrique, (fy )y∈E une famille de fonctions Lipschi-
zienne de rapport Ky , c’est à dire :

∀x, x′ ∈ E, d(fy (x), f (x′ )) ≤ Ky d(x, x′ ).

Selon Diaconis et Freedman (Cf. [8]), si on a les conditions suivantes :

1. Soit la fonction f 7→ Kf tel que :


α
∀u > 0, ∃α, β > 0, telque : µ{Kf > u} < .

2. Soit la fonction f 7→ A(f ) = d(f (x0 ), x0 ), x0 ∈ E, tel que :
α
∀u > 0, ∃α, β > 0, telque : µ{d(f (x0 ), x0 ) > u} < .

3. Les fonctions fy sont contractantes en moyenne, c’est à dire :
Z
log(Kf )µ(dy) < 0.
E

45
3.2. VALIDITÉ DU PRINCIPE DE L’ALGORITHME

alors on a :
1. La CM (Xnx )n admet une unique distribution stationnaire.

2. Le processus (Hnx )n converge p.s et sa limite est une constante.

Remarque :

Si l’algorithme de P-W s’arrête, alors le résultat est la variable aléatoire

Z = HTx (x), tel que :

T = inf{n ∈ N : Hnx = cte}.

C’est le temps de coalescence.

Dans la proposition suivante, Benaîme (Cf.[2]), montre que T est fini p.s.

Propsition 10. Si (Xnx )n est une chaîne de Markov irréductible et apério-


dique, et si la variable aléatoire Z est distribuée selon la loi stationnaire π,
alors la variable aléatoire T est fini p.s.

Soit F = E E = {f : E −→ E}, h ∈ F , et soit (Hn )n le processus défini


sur F par :


 H0 = h;



Hn = h ◦ fY1 ◦ fY2 ◦ . . . fYn (x), ∀n > 0.

Alors (Hn )n est une chaîne de Markov sur F (Cf.[3]).

La proposition de Benaîme peut se formuler alors de la façon suivante :

46
CHAPITRE 3. SIMULATION EXACTE : L’ALGORITHME DE
PROPP-WILSON

Propsition 11. Si E est fini, alors les seules classes récurrentes pour (Hn )n
sont les constantes.

Démonstration. Remarquons que si h : E −→ E est constante, avec :

h = ha , avec a ∈ E; et ha (x) = a, ∀x ∈ E,
alors si : Hn = ha , on a :

Hn+1 = ha ◦ Hn = ha ;

d’où {ha } est un ensemble fermé, donc ha est un point absorbant. Donc :

Si Hn = ha , alors Hn+k = ha , ∀k ≥ 1.

Comme la chaîne de Markov (Hn )n est finie, donc elle est absorbée dans une
classe récurrente au bout d’un temps fini. Ce qui est l’implication dans un
sens. Dans l’autre nous n’arrivons pas à conclure.


47
3.2. VALIDITÉ DU PRINCIPE DE L’ALGORITHME

Conclusion
Dans ce mémoire nous avons introduit et résumé les principales méthodes
de simulation de lois de Probabilités. Notre but est une introduction à l’al-
gorithme de simulation exacte de Propp-Wilson. L’étude des conditions de
validité de cet algorithme est une motivation à l’étude des chaînes de Markov
itératives. Les pérspectives qui s’ouvrent sont nombreuses et de deux types :

1. Trouver des systèmes itératifs explicites qui verifient les conditions de


validité de l’algorithme en liaison avec un temps moyen d’arrêt accep-
table ( temps moyen que met le backward process pour être constant ) ;

2. Les conditions de Diaconis et Freedman sont assez lourdes, il s’agit de


trouver des systèmes itératifs avec des conditions moins contraignantes ;

Ces deux directions de travail nous semblent retenir le plus d’attention


dans les travaux actuels (Cf. [13],...).

48
Bibliographie

[1] Häggström, O. Finite Markov chains and algorithmic applications. Cam-


bridge University Press 2002.
[2] Michel Benaîm et Nicole El Karoui. Promonade aléatoire, Chaînes de
Markov et simulations ; martingales et stratégies. Editions de l’ecole Po-
lytechnique - Novembre 2007.
[3] Bernard. Ycart. Algorithmes markoviens. Département de l’ingenieur de
mathématique. Université de Chile. Decembre 1997.
[4] LACHAUD Béatrice. Détection de la convergence de processus de Markov.
Thèse de doctorat. Option probabilité. Université RENE DESCARTES
- PARIS 5. Septembre 2005.
[5] David A. Levin, Yuval Peres, Elizabeth L. Wilmer. Markov Chains and
Mixing Times. 2005. http ://www.uoregon.edu/∼ dlevin.
[6] J.G. Propp, D.B. Wilson. Exact sampling with coupled Markov chaîns and
application to statistical mechanics, Random structures and algorithms,
9, pp. 223-252, 1996.
[7] J.G. Propp, D.B. Wilson. How to get a perfectly random sample from a
generic Markov chain and generate a random spanning tree of a directed
graph. Journal of Algorithms 27, 170-217, 1998.
[8] Persi Diaconis et David Freedman. Iterated Random Functions. SIAM
Review, 41, 1, pp. 45- 76, 1999.
[9] B. BESSAD, F. LADJIMI, M.A. BOUDIBA. Itération de fonctions aléa-
toires et application à la simulation. Communication en workshop, EP-
QOS, Bejaia. Mai 2013.
[10] J.N. Corcoran, R.L. Tweedie Perfect sampling from independent
Metropolis-Hastings chains. Journal of Statistical Planning and Inference
104, 297-314, 2002.

49
BIBLIOGRAPHIE

[11] A.N. Shiryaev. Probability. Second Edition. Springer. 1989.


[12] P. Diaconis et L. Saloff-Coste. What Do We Know about the Metropolis
Algorithm ? Journal of Computer and System Sciences 57, 20-36 (1998).
[13] KRISHNA B. ATHREYA et ORJAN STENFLO. Perfect sampling for
Doblin chains. (Prepublication).

50

Vous aimerez peut-être aussi