Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Simulation
Présenté par
ISSAADI Badredine
Pour Master I
U.M.B.B B. ISSAADI
1.6.2 Génération de variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . 31
1.6.2.1 Distribution de Poisson . . . . . . . . . . . . . . . . . . . . 31
1.6.2.2 Distribution géométrique . . . . . . . . . . . . . . . . . . . 31
I
1. Génération de variables aléatoires
AD e
in
Introduction
SA
ed
des processus stochastiques avec des lois de probabilité prescrites. Par exemple,
les arrivées de clients sont souvent générées selon un processus de Poisson, c’est-à-
dire que les temps inter-arrivée sont exponentiels. (De même, le nombre d’arrivées
obéit à la distribution de Poisson appropriée, mais il est beaucoup plus pratique de
générer des temps inter-arrivées dans la simulation). Bien que nous utilisions le
IS
U.M.B.B B. ISSAADI
1.1 Méthode de la transformation inverse 2
I
appropriée, peut réduire le risque d’erreurs numériques. L’utilisateur consciencieux
d’un tel programme voudra s’assurer que la méthode sur laquelle il s’appuie est
1.1
AD
techniquement valable et que son implémentation conserve l’erreur inévitable dans
une limite acceptable. Ce chapitre vise à aider le lecteur à faire cette évaluation
en le familiarisant avec les méthodologies exactes de génération d’échantillons. En
outre, il vise à fournir au lecteur la capacité d’écrire un programme de génération, si
nécessaire.
U.M.B.B B. ISSAADI
1.1 Méthode de la transformation inverse 3
I
l’échantillon
x1 = F −1 ( u 1 ), x2 = F −1 ( u 2 ), . . . , xn = F −1 ( u n ),
AD
issu d’une population distribuée selon F . La figure 1.1 illustre la méthode de la
transformation inverse donnée par l’algorithme suivant.
1
Ba
IS
0
U.M.B.B B. ISSAADI
1.1 Méthode de la transformation inverse 4
I
la forme
λ e−λ x si x Ê 0
(
f ( x) =
0 si x < 0
AD
La fonction de répartition est donnée par :
F ( x) =
(
1 − e−λ x si x Ê 0
0 si x < 0
X = −(log U )/λ
dr
x=-(log u)/λ;
Renvoyer(x);
U.M.B.B B. ISSAADI
1.1 Méthode de la transformation inverse 5
x−a
Soit u ∼ U (0,1) , nous devons chercher la fonction inverse de u = . Cela donne
b−a
x = ( b − a) u + a.
I
Algorithme (Exemple 1.1.3)
Générer u ∼ U(0,1) ;
1.1.2
AD
x = (b-a)u+a;
Renvoyer(x);
Distribution discrète
P
Soit X une variable aléatoire discrète avec P( X = x i ) = p i , i = 1, 2, . . . , vérifiant
p i = 1 et x1 < x2 < . . .. La fonction de distribution cumulative F de X est donnée
i
e
P
par F ( x) = x i ≤ x p i , i = 1, 2, . . . et est illustrée dans la figure 1.2. La fonction inverse
in
SA
ed
dr
Ba
1
IS
0
U.M.B.B B. ISSAADI
1.1 Méthode de la transformation inverse 6
Exemple 1.1.4 Supposons qu’on veut générer une variable aléatoire selon une loi
I
de probabilité résumé dans le tableau suivant :
AD
xi 1 2 3 4 5
P
ni 10 20 30 30 10 n= n i =100
P( X = x i ) = p i 0.1 0.2 0.3 0.3 0.1
où i = 1, 5.
La fonction de distribution cumulative est donnée par :
X
F ( x) = P( X < x) = pi,
xi ≤x
ine
SA
X <1 : F ( x) = 0,
ed
1≤ X <2 : F ( x) = p 1 = 0.1,
dr
2≤ X <3 : F ( x) = p 1 + p 2 = 0.3,
Ba
3≤ X <4 : F ( x) = p 1 + p 2 + p 3 = 0.6,
4≤ X <5 : F ( x) = p 1 + p 2 + p 3 + p 4 = 0.9,
X ≥5 : F ( x) = p 1 + p 2 + p 3 + p 4 + p 5 = 1.
Le diagramme des fréquences cumulées est donné comme suit :
IS
U.M.B.B B. ISSAADI
1.1 Méthode de la transformation inverse 7
1
0.1
0.9
0.3
0.6
0.3
I
0.3
0.2
0.1
AD
0.1
0 1 2 3 4 5
~ ,
e
in
SA
ed
générer et les différents morceaux constituant l’intervalle [0,1]. À cet effet, une
Ba
−1
F ( u) = 3 pour 0.3 < u ≤ 0.6,
4 pour 0.6 < u ≤ 0.9,
5 pour 0.9 < u ≤ 1.
U.M.B.B B. ISSAADI
1.1 Méthode de la transformation inverse 8
x=2;
Sinon
Si u≤ 0.6 Alors
x=3;
Sinon
Si u≤ 0.9 Alors
x=4;
Sinon
x=5;
I
Finsi
Finsi
AD
Finsi
Finsi
Renvoyer(x);
De la même façon, nous pouvons réécrire cette algorithme sous une forme plus
simple, qui est la suivante :
x=1; x=0;
in
SA
F=pr(x); Générer u ∼ U(0,1) ;
ed
x=x+1; F=F+pr(x);
F=F+pr(x); Jusqu’à (u ≤ F)
Fin tant que Renvoyer(x);
Renvoyer(x);
IS
U.M.B.B B. ISSAADI
1.1 Méthode de la transformation inverse 9
P( X = x) = p x (1 − p)1− x , x ∈ {0, 1}
Donc,
X <0 : F ( x) = 0,
0≤ X <1 : F ( x) = P( X = 0) = 1 − p,
I
X ≥1 : F ( x) = P( X = 0) + P( X = 1) = 1.
Considérons le schéma de génértion suivant :
AD 0
0
~
e
,
1
1
SA
in
Générer u ∼ U(0,1) ;
dr
x=0;
Sinon
x=1;
IS
Finsi
Renvoyer(x);
L’algorithme de simulation d’une variable de bernoulli, peut être donner sous une
autre forme plus simple. Par changement de repère nous obtenons :
U.M.B.B B. ISSAADI
1.2 Méthode de Rejet-Acceptation 10
~ ,
0 1 1
0 1
1 0
I
AD
Renvoyer(x);
Weibull,. . .). Mais cette situation ne couvre qu’un petit nombre de cas. C’est pour
SA
ed
U.M.B.B B. ISSAADI
1.2 Méthode de Rejet-Acceptation 11
I
𝑐𝑐
AD 𝑎𝑎
𝑓𝑓(𝑥𝑥)
e 𝑏𝑏
𝑥𝑥
(𝑥𝑥, 𝑦𝑦)
𝑦𝑦 ×
𝑓𝑓(𝑥𝑥) 𝑓𝑓(𝑥𝑥)
𝑦𝑦 × (𝑥𝑥, 𝑦𝑦)
𝑥𝑥 𝑥𝑥
(𝑎𝑎) (𝑏𝑏)
U.M.B.B B. ISSAADI
1.2 Méthode de Rejet-Acceptation 12
1. Générer x ∼ U(a,b) ;
2. Générer y ∼ U(0,c) ; % indépendamment de x
3. Si y ≤ f(x) Alors
Renvoyer(x);
I
Sinon
Aller à l’étape 1;
Finsi
AD
Lorsqu’on fait des simulations, on utilise souvent des générateurs de nombres
aléatoires qui obéissent à une loi uniforme sur [0, 1], et nous avons déja montrer
(exemple 1.1.3) comment combiner un tel générateur avec une transformation af-
fine pour générer des nombres aléatoires qui obéissent à une loi uniforme sur un
intervalle [a, b].
tient a la région d’acceptation) est donnée par le rapport de l’aire comprise sous la
courbe et de l’aire du rectangle,
Rb
a f ( x) 1
P(( x, y) est accepté) = = ,
aire du rectangle c ( b − a)
On voit que pour a et b fixés, plus c est petit plus le nombre de points rejetés sera
petit. L’algorithme est donc d’autant plus performant que c est petit.
U.M.B.B B. ISSAADI
1.2 Méthode de Rejet-Acceptation 13
I
1.2.2 Méthode de Rejet-Acceptation, pour les densités à support quelconque
Le principe de la méthode de Rejet-Acceptation peut se généraliser, en remplaçant
AD
le rectangle par une surface délimitée par le graphe d’une fonction non négative
opportunément choisie. Pour les densités à longues queues il est préférable d’utiliser
une courbe enveloppante g( x) de forme semblable à f ( x) (c’est à dire f et g ont des
supports compatibles), et par conséquent distincte d’un rectangle.
Évidemment, l’efficacité exige que g soit aussi proche que possible de f afin
d’éviter de gaspiller les simulations. Une remarque importante est que, à cause de
la contrainte f ( x) ≤ g( x), g (Figure 1.5) ne peut pas être une densité de probabilité.
Nous écrivons alors
e
Z
in
g( x) = M ≥ 1,
SA
ed
g ( x)
φ( x ) = .
Ba
M
φ( x) est appelée densité instrumentale ou candidate, et nous supposons que φ( x) est
facile à simuler (c’est à dire d’en générer des variables aléatoires).
IS
𝑔𝑔(𝑥𝑥)
𝑓𝑓(𝑥𝑥)
𝑥𝑥
𝑏𝑏
Pour tout x,
0 ≤ f ( x) ≤ M φ( x).
U.M.B.B B. ISSAADI
1.2 Méthode de Rejet-Acceptation 14
𝑀𝑀∅(𝑥𝑥) 𝑀𝑀∅(𝑥𝑥)
I
𝑦𝑦 ×
𝑓𝑓(𝑥𝑥) 𝑓𝑓(𝑥𝑥)
𝑦𝑦 ~ 𝑈𝑈�0,𝑀𝑀∅(𝑥𝑥)� 𝑦𝑦 ~ 𝑈𝑈�0,𝑀𝑀∅(𝑥𝑥)�
𝑦𝑦 ×
AD 𝑥𝑥 ~ ∅(𝑥𝑥)
(𝑎𝑎)
𝑥𝑥 ~ ∅(𝑥𝑥)
(𝑏𝑏)
Autrement dit, X de loi f peut être simulé comme suit. Premièrement, nous générons
x ∼ φ et, indépendamment, nous générons y ∼ U (0,M φ(x)) . Si
in e
SA
y ≤ f ( x),
ed
alors nous posons X = x. Si, au contraire, l’inégalité n’est pas satisfaite, nous re-
dr
1. Générer x ∼ φ;
2. Générer y ∼ U(0,Mφ(x)) ;
IS
3. Si y ≤ f(x) Alors
Renvoyer(x);
Sinon
Aller à l’étape 1;
Finsi
U.M.B.B B. ISSAADI
1.2 Méthode de Rejet-Acceptation 15
𝑔𝑔(𝑥𝑥) 𝑔𝑔
I
𝑓𝑓(𝑥𝑥) 𝑓𝑓
AD 𝑥𝑥 ~ ∅(𝑥𝑥)
𝑥𝑥
0 ≤ f ( x) ≤ M φ( x),
in
SA
𝑓𝑓(𝑥𝑥)
ed
normalisons cette inégalité par M φ( x), alors pour tout x nous obtenons
dr
f ( x)
Ba
0 ≤ h( x) = ≤ 1. (1.3)
M φ( x )
U.M.B.B B. ISSAADI
1.2 Méthode de Rejet-Acceptation 16
~ ,
0 ∅ 1
si alors est accepté sinon est rejeté
I
Figure 1.8 – Illustration de la probabilité f ( x)/ g( x).
AD
Algorithme (Méthode de Rejet-Acceptation, en deux façon)
Générer x ∼ φ;
Générer u ∼ U(0,1) ;
Tant que u > f(x)/(Mφ(x)) Faire
Générer x ∼ φ;
Générer u ∼ U(0,1) ;
Répéter
Générer x ∼ φ;
Générer u ∼ U(0,1) ;
Jusqu’à u ≤ f(x)/(Mφ(x))
Renvoyer(x);
Fin tant que
e
Renvoyer(x);
in
SA
ed
que :
Ba
sin( x) pour 0 ≤ x ≤ π/2,
f ( x) =
0 sinon.
Utilisant la méthode de Rejet-Acceptation, et prenons g( x) = x, 0 ≤ x ≤ π/2. Un
R π/2
simple calcul montre que M = 0 g( x) = π2 /8, ce qui implique φ( x) = g( x)/ M =
IS
U.M.B.B B. ISSAADI
1.2 Méthode de Rejet-Acceptation 17
I
suit une loi demi-normale de densité,
p
AD
2
f ( x) = 2/πe− x /2 , 0 ≤ x < ∞. (1.4)
Et, en se basant sur la forme de la probabilité h( x) donnée dans (1.3), nous écrivons
dr
φ( x) = e− x ,
2
h( x) = e−(x−1) /2 ,
p
M = 2e/π.
IS
U.M.B.B B. ISSAADI
1.3 Méthode de composition 18
I
La technique de composition exploite le fait que la fonction de répartition F ( x)
d’une variable aléatoire X , peut parfois être exprimée comme une combinaison
convexe de n fonctions de répartitions {F i }, c’est-à-dire :
où
AD F ( x) =
p i > 0,
n
X
i =1
n
X
i =1
e
p i F i ( x),
p i = 1.
La méthode est motivée par le fait que la génération directe de X à partir de F ( x) peut
SA
in
Générer u ∼ U(0,1) ;
Si u ≤ p1 Alors
Générer x ∼ F1 (x);
IS
Sinon
Si u ≤ p1 +p2 Alors
Générer x ∼ F2 (x);
Sinon
Si u ≤ p1 +p2 +p3 Alors
Générer x ∼ F3 (x);
Sinon;
.
.
.
Finsi;
Finsi;
Finsi;
Renvoyer(x);
D’une manière plus simple, cet algorithme peut s’écrire comme suit :
U.M.B.B B. ISSAADI
1.3 Méthode de composition 19
I
f ( x) = x pour 0 ≤ x < 1,
1
AD
f ( x) = f 2 ( x) = 2 − x pour 1 ≤ x ≤ 2,
0 sinon.
F ( x) = p 1 F1 ( x) + p 2 F2 ( x), p 1 + p 2 = 1.
e
Nous avons,
in
SA
1
ed
Z
p1 = f 1 ( x) d x = 1/2,
0
dr
Z 2
p2 = f 2 ( x) d x = 1 − p 1 = 1/2.
Ba
De même,
Z x Z x
p 1 F1 ( x) = f 1 ( t) d t = t d t = x2 /2,
Z0 x Z0 x
IS
p 2 F2 ( x) = f 2 ( t) d t = (2 − t) d t = − x2 /2 + 2 x − 3/2.
1 1
F1 ( x) = x2 ,
F 2 ( x ) = − x 2 + 4 x − 3.
U.M.B.B B. ISSAADI
1.3 Méthode de composition 20
I
p
x= u1 ;
Sinon
AD
Générer u2 ∼ U(0,1) ;
p
x=2- 1-u2 ;
Finsi
Renvoyer(x);
Générer u, v ∼ U(0,1) ;
Si u ≤ 1/2 Alors
p
x= v;
Sinon
p
IS
x=2- 1-v;
Finsi
Renvoyer(x);
U.M.B.B B. ISSAADI
1.3 Méthode de composition 21
Nous avons,
Z 1
I
p1 = f 1 ( x) d x = 1/2,
0
p 2 = 1 − p 1 = 1/2.
AD
La fonction de répartition est donnée par :
X <0 :
0≤ X <1 :
1≤ X ≤2 :
F ( x) = 0,
Rx
F ( x) = P( X < x) =
F ( x) = 0 f 1 ( t) d t = x2 /2,
R1 Rx
Z
−∞
x
f ( t) d t,
F ( x) = 0 f 1 ( t) d t + 1 f 2 ( t) d t = − x2 /2 + 2 x − 1,
in e
Générer u ∼ U(0,1) ;
dr
Si u ≤ p1 Alors
Ba
U.M.B.B B. ISSAADI
1.4 Méthode de convolution 22
I
Sinon
p
x=2- 2(1-u);
AD
Finsi
Renvoyer(x);
i =1
in
SA
où, les { X i } sont des variables aléatoires indépendantes, de loi spécifiées. Donc le
ed
d’où la deuxième définition de la loi binomiale " X suit une loi binomiale B ( n, p)
si X est une somme de n variables de Bernoulli B ( p) indépendantes et de même
paramètre p". En d’autres termes, X ∼ B ( n, p) alors sa fonction de densité de
probabilité est de la forme
à !
n k
P( X = k) = p (1 − p)n−k , k = 0, 1, . . . , n.
k
U.M.B.B B. ISSAADI
1.4 Méthode de convolution 23
I
X=0;
Pour i all de 1 à n Faire
AD
Générer u ∼ U(0,1) ;
Si u ≤ p Alors
X=X+1;
Finsi
Fin pour
Renvoyer(X);
La distribution d’Erlang est une loi de probabilité continue, dont l’intérêt est dû à
SA
ed
λk x k−1 exp(−λ x)
f ( x; k, λ) = pour x > 0.
( k − 1)!
Nous voulons simuler une variable aléatoire X ∼ Er( k, λ). Dans ce cas, X peut
être représentée comme la somme de k variables aléatoires i.i.d. X 1 , . . . , X k de loi
exponentielle de paramètre λ. C’est-à-dire,
k
où X 1 , . . . , X k ∼ E xp(λ).
X
X= Xi
i =1
U.M.B.B B. ISSAADI
1.5 Génération de nombres aléatoires suivant une loi normale 24
1
X i = − log u i avec u i ∼ U (0,1) ,
λ
d’où
k
X 1X k 1 Y k
X= Xi = − log u i = − log ui.
i =1 λ i=1 λ i =1
I
Renvoyer X = - λ1 log ki=1 ui ∼ Er (k,λ);
Q
X=1;
AD
Ces étapes suggèrent l’algorithme de génération suivant :
X=-(log X)/λ;
dr
Renvoyer(X);
Ba
1 2 2
f ( z) = p e−(z−µ) /2σ σ2 > 0, −∞ < z < ∞
2πσ 2
Propriété 1.5.1
1. Si X suit N (0, 1), alors Z = µ + σ X est distribuée selon N (µ, σ2 ).
2. Si Z1 , . . . , Z n sont indépendants et proviennent respectivement de N (µ1 , σ21 ),
U.M.B.B B. ISSAADI
1.5 Génération de nombres aléatoires suivant une loi normale 25
I
suivent une loi normale centrée réduite N (0, 1).
AD
1.5.1 Application du Théorème Central Limite
Théorème 1.5.1 Soit X 1 , . . . , X n une suite de variables aléatoires indépendantes et
obéissant à la même loi de probabilité, admettant une moyenne µ et une variance
S −E(S)
σ2 . Si S = X 1 + · · · + X n , alors la somme réduite S ∗ = p converge en loi vers la
Var(S)
variable aléatoire de loi N (0, 1), ce que nous écrivons conventionnellement :
S − nµ
S∗ = p −−−−→ N (0, 1).
σ n n→∞
in e
SA
Une application immédiate du théorème central limite donne une méthode très
ed
uniforme, chaque élément u i suit une loi U (0,1) . Posons S = ni=1 U i , alors l’espérance
P
de la somme de n variables aléatoires uniformes est E(S ) = n/2 et sa variance est égale
à Var(S ) = n/12. D’après le théorème central limite la distribution asymptotique de
S = ni=1 U i suit une loi normale. Pour des valeurs finies de n on obtient de bonnes
P
IS
U.M.B.B B. ISSAADI
1.5 Génération de nombres aléatoires suivant une loi normale 26
I
1.5.2 Méthode de Box-Müller
On présente ici une méthode qui permet de simuler un couple des variables
AD
aléatoires normales, centrées, réduites et indépendantes. Cette méthode exacte
découle du théorème suivant :
Théorème 1.5.2 (Box-Müller, 1958)
Soient U1 et U2 deux variables aléatoires uniformes et indépendantes sur l’inter-
valle [0, 1], alors X et Y définies par :
X =
p
−2 log(U1 ) cos(2πU2 )
e
p
Y = −2 log(U1 ) sin(2πU2 )
in
SA
ed
Démonstration. Soient X et Y deux variables aléatoires de loi N (0, 1), nous avons
alors :
1 2
f X ( x) = p e− x /2 ,
2π
1 − y2 /2
IS
f Y ( y) = p e .
2π
Les deux variables étant indépendantes, leur densité conjointe est donnée par :
1 −(x2 + y2 )/2
f X ,Y ( x, y) = f X ( x) × f Y ( y) = e .
2π
Le passage des coordonnées cartésiennes ( x, y) aux coordonnées polaires (ρ , θ ) s’effec-
tue par la transformation :
x = r cos(θ ),
y = r sin(θ ).
p
C’est à dire, le point ( x, y) est situé à une distance r = x2 + y2 de l’origine, et la
droite passant par (0, 0) et ( x, y) forme un angle θ avec l’axe des x, tel que tan(θ ) = y/ x.
U.M.B.B B. ISSAADI
1.5 Génération de nombres aléatoires suivant une loi normale 27
D’où,
I
1
¶ ³ µ
2
´
f R,Θ ( r, θ ) = × r e−r /2 = f Θ (θ ) × f R ( r ).
2π
Cela montre que les variables aléatoires R et Θ, sont aussi deux variables aléatoires
AD
indépendantes de densités respectives :
f R ( r ) = r e−r
f Θ (θ ) =
1
2π
.
2
/2
,
f Z ( z) = F Z0 ( z) = FR ( z) = ( z)0 f R ( z) = p ze = e .
2 z 2
dr
Z = R2.
On a donc les lois de Z = R 2 et Θ :
Z = R 2 ∼ E xp(1/2), Θ ∼ U (0,2π) .
IS
Finalement,
= R cos(Θ) =
p
X −2 log(U1 ) cos(2πU2 ),
= R sin(Θ) = −2 log(U1 ) sin(2πU2 ).
p
Y
U.M.B.B B. ISSAADI
1.6 Génération à partir de distributions fréquemment utilisées 28
y = -2log(u1 ) sin(2πu2 );
p
Renvoyer(x,y);
I
variables aléatoires à partir de distributions continues et discrètes couramment utili-
sées. Parmi les nombreux algorithmes disponibles, nous avons essayé de sélectionner
AD
ceux qui sont raisonnablement efficaces et relativement simples à mettre en œuvre.
où Γ est la fonction gamma. Notons que la loi de khi-deux représente un cas particu-
dr
i =1
U.M.B.B B. ISSAADI
1.6 Génération à partir de distributions fréquemment utilisées 29
I
Algorithme (Distribution de Student, t(n) )
Générer Y ∼ N (0, 1);
AD
Générer Z ∼ χ2n ;
X=Y/ Z/n;
Renvoyer(X);
Pour n = 1 la loi de Student est la loi de Cauchy, loi du quotient de deux variables
aléatoires normales indépendantes, dont la densité est :
f ( x) =
1
π(1 + x2 )
in e
Une variable aléatoire réelle distribuée selon la loi de Fisher peut être construite
comme le quotient de deux variables aléatoires indépendantes, Y et Z , distribuées
dr
chacune selon une Loi du χ2 et ajustées pour leurs nombres de degrés de liberté,
Ba
respectivement n 1 et n 2 ,
Y /n1
F (n1 , n2 ) ∼ .
Z /n2
Propriété 1.6.1
IS
1
1. Si X ∼ F ( n 1 , n 2 ), alors ∼ F ( n 2 , n 1 ).
X
2. Si X ∼ t (n) est distribuée selon une loi de Student alors X 2 ∼ F (1, n).
n1 X /n2
3. Si X ∼ F ( n 1 , n 2 ) et Y = alors Y ∼ B ( n 1 /2, n 2 /2) est distribuée selon
1 + n1 X /n2
une loi bêta.
■
U.M.B.B B. ISSAADI
1.6 Génération à partir de distributions fréquemment utilisées 30
Renvoyer(X);
β
f ( x) = − ∞ < α < ∞, β > 0, −∞ < x < ∞,
π[β2 + ( x − α)2 ]
Propriété 1.6.2
I
1. Si Y ∼ C (0, 1), alors X = α + βY ∼ C (α, β).
2. Si X 1 , . . . , X n sont indépendants de C (α1 , β), . . . , C (αn , β) respectivement, alors
X = X 1 + · · · + X n suit la loi C (α1 + · · · + αn , β).
AD
3. Si Y1 et Y2 sont indépendants de loi N (0, 1), alors X = Y1 /Y2 ∼ C (0, 1).
4. Si le point (Y1 , Y2 ) est uniformément réparti dans le cercle unitaire y12 + y22 = 1/4,
alors X = Y1 /Y2 est de loi C (0, 1).
Générer U ∼ U(0,1) ;
X=tan(π(U-1/2));
IS
Renvoyer(X);
U.M.B.B B. ISSAADI
1.6 Génération à partir de distributions fréquemment utilisées 31
Propriété 1.6.3
1. Si Y1 , Y2 , . . . sont des variables aléatoires i.i.d. de loi E xp(1) et X est le plus
I
petit entier positif tel que Y1 + · · · + Yk+1 > λ, alors X = k a la distribution de
Poisson P (λ).
2. Si U1 , U2 , . . . sont des variables aléatoires i.i.d. de loi U (0,1) et X est le plus
AD
petit entier positif tel que 1k+1 U i < e−λ , alors X = k a la distribution de
Q
Poisson P (λ).
■
Répéter
dr
Générer U ∼ U(0,1) ;
Ba
Prod=Prod * U;
k=k+1;
Jusqu’à Prod < e−λ
Renvoyer(X=k-1);
IS
Cette méthode est simple, mais elle n’est vraiment pratique que pour les petites
valeurs de λ. En moyenne, le nombre de variables uniformes requises est λ, ce qui
pourrait être trop élevé pour les grandes valeurs de λ. Dans ces conditions, Atkinson
(1979), Ahrens et Dieter (1982), Devroye (1981), Schmeiser et Kachitvichyanukul
(1981), et Ahrens et Dieter (1991) proposent tous des algorithmes de génération de
variables de loi de Poisson avec des temps de calcul moyens limités.
U.M.B.B B. ISSAADI
1.6 Génération à partir de distributions fréquemment utilisées 32
Propriété 1.6.4
1. Si ( X i ) i∈N∗ sont des variables aléatoires indépendantes de Bernoulli de para-
mètre p. alors X = min{ i : X i = 1} suit une loi géométrique de paramètre
p.
2. Soit β = −1/ log(1 − p) et X représente une variable aléatoire de E xp(β). Alors
b X c suit la loi G ( p).
■
I
AD e
in
SA
ed
dr
Ba
IS
U.M.B.B B. ISSAADI