Vous êtes sur la page 1sur 35

UNIVERSITE D’ANTSIRANANA

ECOLE NORMALE SUPERIEURE POUR L’ENSEIGNEMENT TECHNIQUE


Mention : Education-Apprentissage-Didactique et Ingénierie en Mathématiques et
Informatique
Parcours : Professorat d’Enseignement en Génie Mathématiques

MEMOIRE DE LICENCE
présenté à l’Université d’Antsiranana
pour l’obtention du grade de
LICENCE D’APTITUDE AU PROFESSORAT DE L’ECOLE NORMALE

Simulation des variables aléatoires

par

FENOMANANA Hugo Chantaise

présenté et soutenu publiquement le 18 juillet 2021, devant le jury composé de :

Av TOTOHASINA André Professeur Titulaire, Président


A RAMIFIDISOA Lucius Maı̂tre de conférences, Examinateur
A BEMARISIKA Parfait Maı̂tre de conférences, Encadreur

Année Universitaire : 2019 – 2020


Remerciements

Remerciements

Je remercie en premier lieu Monsieur le Directeur Dr Ramifidisoa Lucius et tous


les enseignants chercheurs de l’ENSET qui nous ont accompagné pendant la période de
notre semestre 6 (S6). En effet, ces derniers m’ont donné des notions pour approfondir
mes humbles compétences et m’ont permis de remettre voire rehausser mon niveau. Leurs
idées, leurs multitudes directives et leurs soutiens morales permanents m’ont donné des
inspirations afin que je puisse améliorer mes savoirs. Ils m’ont fourni satisfaction à tout
moment opportun. Ledit S6 est étroitement réalisé grâce à leurs collaborations ; ce qui m’a
permis de faire évoluer mes connaissances car la collaboration mentionnée a servi de guide
fiable, menant ainsi à l’objectif académique souhaité sans trébucher.

Je remercie également Docteur Bemarisika Parfait le responsable de la mention EA-


DIMI et mon encadreur, d’abord sur ses encouragements de suivre S6 afin que je puisse
avoir le diplôme LISENCE et pour m’avoir proposé ce sujet, et m’avoir supporté dans
toutes les étapes de ce mémoire. Ses avis, ses nombreux conseils et son soutien constant
m’ont permis de m’améliorer sur de nombreux points. Qu’il trouve ici l’expression de mon
plus grand respect et qu’il reçoive mes plus vifs remerciements.

J’adresse plus particulièrement mes remerciements aux membres du Jury. Je profite


de cette occasion pour leur adresser mes sincères respects et leur exprimer ma profonde
gratitude pour leur commentaire et jugements très pertinents et constructifs sur mon mé-
moire, tant sur le fond que sur la forme. La qualité de leurs jugements fait que leurs points
de vue me sont précieux, et j’en suis fier.

Par la même occasion, je ne peux pas m’empêcher de remercier tous les étudiants is-
sus de l’ENSET, plus particulièrement ceux qui ont spécifiquement collaboré avec moi. En
effet, ces derniers m’ont donné des notions pour approfondir tous mes remises au niveau
à travers le semestre 6 (S6).

Je remercie mille fois mes parents et toute ma famille qui m’ont toujours soutenu dans
tout ce que j’ai entrepris. Il m’est impossible d’imaginer de parvenir au stade actuel sans
eux.

Je tiens à remercier tous ceux qui, de près ou de loin, m’ont aidé pour la réalisation
du présent travail, sans oublier toutes les personnes que j’ai eu l’honneur de rencontrer
durant la préparation de ce mémoire.

i
Remerciements

ii
Table des matières

Table des matières

Remerciements i

Table des figures v

Glossaire vi

Introduction générale 1

1
Concepts de base.

1.1 Notes bibliographiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2


1.2 Génération des nombres aléatoire . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Loi uniforme entre 0 et 1. . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Générateurs à Congruence Linéaire GCL . . . . . . . . . . . . . . . . . . . 4
1.3.1 Simulateur de la loi uniforme U[0;1] . . . . . . . . . . . . . . . . . . 5
1.3.2 Algorithme de Wichman et Hill . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Tests du bonne générateurs . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Les variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.1 Loi de Bernoulli : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 Loi Binomiale : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.3 Loi géométrique : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.4 Cas général sur la simulation de la variable discrète . . . . . . . . . 11

2
Méthodes de Simulation.

2.1 Méthode de transformation inverse . . . . . . . . . . . . . . . . . . . . . . 12


2.1.1 Exemple sur la loi uniforme entre a et b par. . . . . . . . . . . . . . 14

iii
Table des matières

2.1.2 Simulation de la loi uniforme entre a et b par la méthode par


inversion de fonction de répartition . . . . . . . . . . . . . . . . . . 14
2.1.3 Une mise au point sur la simulation d’une loi Weibull W (a, b, c) . . 15
2.1.4 Simulation de la loi de Cauchy . . . . . . . . . . . . . . . . . . . . . 16
2.2 Utilisation de la relation fonctionnelles [Nic10] . . . . . . . . . . . . . . . . 16
2.2.1 Simulation d’une loi normale N (0, 1) par l’approche de Box et Muller : 17
2.3 Méthode du rejet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1 Fondement mathématique de la méthode de rejet . . . . . . . . . . 18
2.3.2 Procédure pratique de simulation . . . . . . . . . . . . . . . . . . . 19
2.3.3 Simulation d’une loi normale par rejet : . . . . . . . . . . . . . . . 20

3
Simulation pratique avec R

3.1 Quelques notions de la simulation . . . . . . . . . . . . . . . . . . . . . . . 22


3.1.1 Présentation du logicielle R . . . . . . . . . . . . . . . . . . . . . . 22
3.1.2 Les commandes utiliser pour la simulation des quelques loi usuel en R 22

Conclusion

Références Bibliographiques 28

iv
Table des figures

Table des figures

3.1 Loi uniforme(0,1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24


3.2 générateur aléatoire G1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3 générateur aléatoire G2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.4 Méthode de Box-Muller . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5 Densités d’échantillons exponentiels. . . . . . . . . . . . . . . . . . . . . . 26

v
Glossaire

Glossaire

EN SET : École Normale Supérieure pour l’Enseignement Technique


LAP EN : Licence d’Aptitude au Professorat de l’École Normale.
LM D : Licence Master Doctorat
MMC : Méthode de Monte-Carlo.
GCL : Générateurs à Congruence Linéaire
ACF : auto corrélation function
v.a : Variable aléatoire
i.i.d : indépendant identiquement distribué
LF G : Loi forte des grands nombres.
P.S : presque sûrement.
T CL : Théorème centrale limite.
IC : Intervalles de confiance
V ar : Variance
Cov : Covariance
exp : exponentielle

vi
Introduction générale

Introduction générale

Dans cette travail, nous nous intéressons à la simulation de variable aléatoires sous R à
travers des exemple pratique. Les méthodes de simulation reposent toutes sur la capacité
à produire une suite des variables aléatoires indépendantes suivant une distribution f
donnée. La production d’une telle suite dépend elle-même de la capacité que l’on à produire
une séquence des variables aléatoires uniformes et indépendantes.
Théoriquement, la génération de nombres aléatoires suivant une loi donnée se ramène à
la génération de suites de variables aléatoires indépendantes de loi uniforme sur [0, 1].
Les méthodes de simulation permettent seulement d’obtenir une valeur pseudo-aléatoire
(Xi )i∈N , au lien d’une valeur aléatoire [Cha08]. En effet, dans les application, on a souvent
de générer de façon artificielle ( à l’aide d’un ordinateur) une suite Xi , ..., Xn , ou n ∈ N de
nombres aléatoire i.i.d suivant la loi donnée f . Le dut de cette traille ne sera pas de nous
expliquer les théories sous-jacentes, ce n’est pas non plus un travail de programmation
informatique, mais une initiation à la modélisation mathématique à des problèmes grande
dimension.
Pour ce faire, nous adaptons le plan suivants. Le premier chapitre présente la présentation
de logiciel R avec les fonction qui simules les loi usuelles et variable aléatoire discrète, la
deuxième chapitre présente la simulation de loi continue et méthode de simulation. Avant
la conclusion, l’initiation de la méthode Monte-carlo et application pédagogie.

FENOMANANA Hugo Chantaise 1 GMI-Maths


Concepts de base.

Chapitre 1

Concepts de base.

Cette première partie a pour objectif de réaliser un tour d’horizon de l’existant dans
les principaux domaines abordés par cette mémoire et concept sur la simulation des lois
de variable aléatoire discrète. Nous commençons brièvement sur le problème de simulation
de loi sous R.

1.1 Notes bibliographiques


Le problème de la simulation consiste à trouver des méthode qui permettent de pro-
duire ou générer des échantillons finis de variables (ou vecteurs) aléatoires de loi données.
En réalité, une suite générée par un algorithme connu est rarement aléatoire : connaissant
la valeur initiale de l’algorithme, on peut en dérouler les commandes pour trouver la valeur
retrouvée. Une simulation permet de provoquer le déroulement d’une expérience de façon
rapide et économique, et permet aussi d’éviter les dangers liés à la réalisation de certaines
expériences à échelle réelle. Elle permet aussi de répéter l’expérience en faisant varier les
paramètres. Enfin elle aide à l’élaboration de techniques de prévision et d’amélioration
[MFD01]. Les méthodes pour simuler les variables aléatoires, par exemples : la méthode
de la transformation inverse, on utiliser pour générer n’importe quelle variable aléatoire
à condition que l’on connaisse analytiquement la fonction de répartition inverse [Rob96].
Elle est basée sur le théorème de la transformation inverse, mais la principale insuffisance
de la méthode est qu’elle nécessite la connaissance de l’expression explicite de la fonction
de répartition. Or plusieurs lois de probabilité dont notamment la loi normale n’ont pas
cette propriété . La méthode de Box et Muller est une autre méthode pour obtenir des
réalisations de variables dont la distribution est normale. Cette méthode est fondée sur la
transformation des coordonnées polaires en coordonnées cartésiennes [BAI12]. La méthode
de rejet peut s’utiliser pour la génération de n’importe quel type de variable aléatoire.
Elle consiste générer des données suivant une distribution de fonction de densité proche
de celle désirée et d’ensuite éliminer une certaine proportion de ces données de manière se
ramener des données qui suivent la distribution attendue [Emm13]. Elle est aussi utilisée
pour engendrer indirectement une variable aléatoire, de densité de probabilité lorsqu’on
ne sait pas simuler directement la loi de densité de probabilité, mais cette méthode est évi-
demment plus lente que les autre méthodes de simulation. On l’utilise seulement lorsque

FENOMANANA Hugo Chantaise 2 GMI-Maths


1.2 Génération des nombres aléatoire

ces autres méthodes ne sont pas applicables.


Si on sait simuler la variable aléatoire, alors en utilisant la loi forte des grands nombres,
ce qui permet d’estimer la valeur d’une intégrale et l’erreur commise est contrôlée par
le théorème central limite [KHA96]. Son rôle primordial dans le critère d’arrêt de la
procédure basée sur les intervalles de confiance.
Dans la lignée de ces travail, nous nous intéressions à un domaine assez particulier, la
simulation de variable aléatoire sous R.

1.2 Génération des nombres aléatoire


Description de la méthode Pour réaliser des simulations probabilistes, c’est-à-dire
mettre en ouvre un modèle contenant une part d’aléatoire, on souhaite pouvoir générer des
suites (xn )n , de nombres dans [0, 1] qui représentent une suite (Un )n de variables aléatoires
(Ω, A , P) → [0, 1] ∀n ≥ 0, où Un sont indépendantes et uniformément distribuées sur [0, 1].
Bien que nous ne pouvons pas atteindre informatiquement toutes les valeurs réelles sur
[0, 1], au moins peut-on considérer
 1 2un3 grand nombre de valeurs espacées de façon régulière
k−1
en considérant l’ensemble : 0, k , k , k , ..., k où k est un entier assez grand. Ainsi on ne
s’intéresse plus aux suites dans [0, 1] mais dans {0, 1, ..., m − 1} [MED17]. De plus pour
rendre compte de l’indépendance, nous avons besoin d’une certaine imprédictibilité lors
du passage d’un terme à l’autre, ce qui en théorie demeure relatif puisque la suite choisie
est bien une suite déterministe.Le coût de l’incrémentation informatique sera également
un critère à retenir.

1.2.1 Loi uniforme entre 0 et 1.


Définition 1. Une variable aléatoire réelle X est dite suit la loi uniforme sur l’intervalle
[0; 1], si la fonction de densité de probabilité fX est définie par :
(
1 si x ∈ [0; 1],
∀x ∈ R, fX (x) =
0 sinon

Remarque 1. Remarquons bien que


Z +∞ Z 0 Z 1 Z +∞
f (x)dx = 0dx + 1dx + 0dx
−∞ −∞ 0 1
Z +∞
f (x)dx = 1
−∞

On écrire X U[0;1] , la v.a.r suit la loi uniforme sur l’intervalle [0; 1].
Déterminons la fonction de répartition FX de X pour cette v.a.rX qui suit U[0;1] . Or
par défition même de la fonction de répartition, on a :
Z t
1 − ∀t ∈ R, FX = fX (x)dx
−∞

FENOMANANA Hugo Chantaise 3 GMI-Maths


1.3 Générateurs à Congruence Linéaire GCL

2 − limt→+∞ FX (t) = limt→+∞ (P (X < t)) = 1


D’après le preuve que nous savons vie si-dessus on écrire :

 0 si t 6 0
X U[0;1] ⇐⇒ ∀t ∈ R, FX (t) = t si 0 < t 6 1
1 si t > 1

Théorème 1. : Si X U[0;1] , alors ∀α, β ∈ [0; 1] tel que α > β, P (α 6 X 6 β) = β −α.

Démonstration. On peut démontre comme de la façon suivent :


Si X U[0;1] , alors ∀α, β ∈ [0; 1], avec α > β, on a :

P (α 6 X 6 β) = FX (β) − FX (α)
=β−α

Pour la simulation de la loi uniforme [0; 1],beaucoup des méthode pour la génération
des nombres pseudo-aléatoires entre 0 et 1. D’une part pour ces méthode est la méthode
par générateurs à Congruence Linéaire des nombres pseudo-aléatoires.

1.3 Générateurs à Congruence Linéaire GCL


Un générateur congruent est une des méthodes les plus usitées et les plus utile pour
générer des nombres pseudo-aléatoires. Son fonctionnement repose sur la programmation
d’une suite récurrente qui prend la forme d’une fonction linéaire. La particularité de cette
fonction linéaire est qu’elle est basée sur des congruences .
On définit la suite récurrente suivante : ∀n ∈ N∗ , xn+1 = axn +c mod m, où a est appelé
le multiplicateur avec a vérifient 1 ≤ a < m, c l’incrément avec c vérifient 0 ≤ c < m
et m est le module. De plus, comme toute suite définie par récurrence il est nécessaire
de définir le premier terme x0 qu’on appelle : la graine. C’est en effet à partir de cette
graine que la suite de nombres aléatoires sera générée. Toute modification de cette graine
modifiera la suite de nombres générés. C’est pour cette raison que nous disons que la suite
est déterministe. Nous devrons s’intéresser aux méthodes qui permettent de modifier la
graine à chaque simulation, afin d’augmenter le caractère aléatoires des séries produites.
Notons que du fait de la présence du modulo (qui est le reste de la division euclidienne
axn + b par m), xn+1 est compris entre 0 et m − 1. Il en ressort que puisque la suite prend
ses valeurs dans un ensemble de card < 1, elle est amenée à se répéter au bout d’un
certain temps [RAZ18].

Du bon choix des paramètres : La qualité du générateur semble totalement dépendre


du choix de a, c et m. En effet, on cherche à obtenir un générateur qui produise le plus
aléatoirement possible une suite de nombres.
– Choix de x0 : ce paramètre est choisi au hasard(selon des procédés électroniques)
parmi les éléments de Zm = {0, 1, ..., m − 1}

FENOMANANA Hugo Chantaise 4 GMI-Maths


1.3 Générateurs à Congruence Linéaire GCL

– Choix de m : Dans ce type de modèle, le nombre de termes possibles du générateur


vaut m. On en déduit que la période maximale vaut m. Il convient en conséquence
de choisir m le pus élevé possible afin que le générateur ne se répète pas. En général,
on le choisit de la forme 2k , k est le nombre maximum de bits permis par la capacité
de l’ordinateur. D’autre part ce choix permet de gagner du temps de calcul car il
permet d’éviter la division.
– Choix de a et b : Choisir m, la période maximale, la plus élevée possible ne suffit
par car cette période maximale peut ne pas être atteinte. Néanmoins, il est possible
d’atteindre cette période maximale grâce à un choix adéquat des paramètres a et c.
On a à cet effet, la proposition suivante :

Proposition : Le paramètre m étant donné, pour atteindre la période maximale soit


m, il faut et il suffit que :
1. c et m soient premiers entre eux (leur pgcd(c, m) = 1)
2. Pour chaque nombre premier p divisant m, (a − 1) soit multiple de p.
3. Si m est multiple de 4, (a − 1) soit multiple de 4.

Détermination de la période optimale : Un générateur aléatoire est souvent répé-


ter plusieurs fois au cours d’un programme ; ainsi la présence d’une division euclidienne
risque d’entrainer des coûts de calcul assez importants. Or, les ordinateurs calculent na-
turellement en base binaire, ainsi en choisissant une période de la forme : 2e , le processeur
effectuera donc ce calcul de façon transparente. C’est pourquoi pour un processeur de 32-
bits (ie. un processeur dont la largeur des registres est de 32-bits) la période maximale est
pour e = 31 soit 231 . Toutefois, nous devons souligner que dans la représentation binaire,
un mot de k bits avec k < e on aura alors les k bits faibles (ie. ceux qui sont le plus vers
la droite) qui sont beaucoup moins aléatoires (période 2k) que les bits dits forts, les plus
à gauche. On peut utiliser l’algorithme suivent :

Algorithme 1. Etant donnés deux paramètres entiers A et m,


1. Choisir une racine x0 .
xn
2. à l’étape n > 0,construire xn = Axn−1 mod(m) et retourner un = m
.

Il apparait ici clairement que ce type de générateur est périodique, de période p stric-
tement inférieure à m. Si l’on souhaite s’approcher le plus possible d’une distribution
continue uniforme sur [0; 1], il convient donc de choisir A et m de sorte que la période p
soit la plus grande possible.

1.3.1 Simulateur de la loi uniforme U[0;1]


Description de la construction d’un générateur de la loi uniforme sur [0; 1] par une
méthode transformation congruent.
Soit a, b et m trois entiers naturels non nuls.

FENOMANANA Hugo Chantaise 5 GMI-Maths


1.3 Générateurs à Congruence Linéaire GCL

Soit (Xn )n∈N une suite d’élément de Z, Zm = {0, 1, ..., m − 1} définie par :
(
X0 donné dans Z,
Xn+1 = (a ∗ Xn + b) mod m

La suite (Un )n∈N d’éléments de [0; 1] définie par :


(
U0 = Xm0 donné dans Z,
Xn
∀n ∈ N, Un = m
est un génération de la loi uniforme sur [0; 1].
Pour simuler la variable aléatoire suit la loi uniforme sur l’intervalle [0; 1] par généra-
teur congruent, on peut suivre les étapes suivent :

Etape1 : On se donne 3 entiers :


– Le multiplicateur a.
– L’incrémente b.
– Le module M , de préférence un nombre premier très grand.
– Le germe x0 , un entier quelconque.

Etape2 : On donne l’équation suivent :



X1 = (a ∗ X0 + b) mod M
U1 = XM1 , U1 ∈]0; 1]

Etape3 : 
Xn = (a ∗ Xn−1 + b) mod M
Un = XMn , Un ∈]0; 1]
Stocker : U1 , U2 , ..., Un

Générateur congruentielle de la loi uniforme suit U[0;1] .


1. On se donne un germe : x0 ∈ N∗ , et le module M .
2. Etape n Xn = (a ∗ Xn−1 + b) mod M .
Xn
3. Stocker les nombres : M
.

Résultat : (Un )n simule U[0;1] , quand n assez grand. On peut programmer suivant la
logiciel R de façon dans exemple (1).

FENOMANANA Hugo Chantaise 6 GMI-Maths


1.3 Générateurs à Congruence Linéaire GCL

1.3.2 Algorithme de Wichman et Hill

Xi = (171 ∗ Xi−1 ) mod 30269, germeX0


Yi = (172 ∗ Yi−1 ) mod 30307, germeY0
Zi = (170 ∗ Yi−1 ) mod 30323, germeZ0
1
Ui = (X i + Y i + Z i ) ∈ [0; 1]
3 30269 30307 30323

Alors (Un )n simule U[0;1] .

1.3.3 Tests du bonne générateurs


Etant donné un problème de test, c’est-à-dire une hypothèse nulle H0 et une hypothèse
alternative H1 , il s’agit au vu d’une suite de réalisations x1 , x2 , ..., xn indépendantes d’une
variable aléatoire réelle X de prendre une décision : Accepter ou de refuser H0 au risque
α de se tromper( α étant donné).

Test de la moyenne [Has15] Soit x1 , x2 , ..., xn n nombres donnés par un générateur.


Il s’agit de tester l’hypothèse (H0 ) selon la quelle ces nombres peuvent être considérés
comme des réalisation indépendantes d’une variable aléatoire réelle suivant la loi uni-
forme continue sur [0, 1]. Intuitivement, si le générateur utilisé est un bon générateur, la
moyenne arithmétique des nombres qu’il donne doit se situer à proximité de la valeur 0.5
qui est l’espérance mathématique de la loi uniforme continue sur [0, 1]. En conséquence,
une moyenne très différente de 0.5 doit nous conduire à douter de la qualité de ce géné-
rateur. Plus formellement, désignons par X1 , X2 , ..., Xi , ..., Xn les variable aléatoires dont
sont issues les réalisation x1 , x2 , ..., xi , ..., xn . Lorsque H0 est vraie, ces variables sont iden-
tiquement et indépendamment distribuées. Leur loi commune est la loi uniforme continue
sur [0, 1] et donc :
1
E(Xi ) = ∀i = 1 : n
2
1
V ar(Xi ) = ∀i = 1 : n
12
considérons maintenant la statistique X n = n1 nk=1 Xi (moyenne empirique). On calcule
P
aisément :
1
E(X n ) =
2
et
1
V ar(X n ) =
12n
On sait alors d’après théorème central limite que suite {Zn } définie par :
1 √
Zn = (X n − ) 12n
12
converge en loi vers la loi normale centre réduite.

FENOMANANA Hugo Chantaise 7 GMI-Maths


1.3 Générateurs à Congruence Linéaire GCL

Dés lors, on peut considérer Zn comme la statistique fondant notre test puisque sa
loi de probabilité sous H0 est connue (asymptotiquement). Comme la loi normale est
symétrique, il s’ensuit la région critique suivante :

W = (x1 , x2 , ..., xi , ..., xn )/Zn < zα/2 ouzn > z1−α/2

Test d’adéquation de khi-deux : Avec le test de la moyenne, il s’agissait de com-


parer la moyenne empirique avec la moyenne théorique. On a fait remarquer qu’une telle
procédure est insuffisante pour juger la qualité d’un générateur. L’idée intuitive derrière
le test d’adéquation de khi-deux est de comparer toute la distribution empirique, avec
son équivalent théorique sous l’hypothèse nulle. En effet, lorsque le générateur utilisé est
mauvais, ces deux distributions doivent se distinguer assez significativement.
D’une manière formelle, soit x1 , x2 , ..., xn n nombre donnés par un générateur. Notons
n1 , n2 , ..., nj , ..., nk les effectifs correspondant à une répartition en k classes d’amplitude
égale de de ces n nombres. Ces effectifs sont des variables aléatoires. On les appelle les
effectifs empiriques.
On définit également des effectifs théoriques qu’on note n∗1 , n∗2 , ..., n∗j , ..., n∗k , ceux qui
prévalent lorsque H0 est vraie. Par définition, l’on a ainsi :
n∗j = nk∀j = 1k
A ce niveau, on démontre que la statistique Dn définie par :
k 2
X nj − n∗j
Dn =
j=1
n∗j

converge en loi sous H0 vers la loi de Khi deux à (k − 1) degrés de liberté.


C’est cette statistique qui fond le test d’adéquation de Khi deux. Intuitivement, cette
statistique devrait prendre des valeurs assez proche de zéro lorsque H0 est vraie, c’est-à-
dire lorsque le générateur utilisé est de bonne qualité. En effet, sous cette hypothèse, il
ne devrait pas y avoir de différences significatives entre les effectifs empiriques et leurs
équivalents théoriques.
La région critique s’en déduit directement étant donné un niveau de risque de première
espèce α :
W = {(x1 , x2 , ..., xi , ..., xn )/dn > d1−α (k − 1)} ,
où la quantité d1−α (k − 1) représente la quantile d’ordre (1 − α) de la loi de Khi deux à
(k − 1) degrés de liberté.
Pour appliquer en pratique un test d’adéquation de Khi deux sur un jeu de données
issues d’un générateur (x1 , x2 , ..., xn ), on passe par les étapes suivantes :
– Construire la distribution empirique en se donnant d’abord le nombre k de ses
classes et en comptant pour chacune de ces classes les nombres d’observations y
appartenant. Ces nombres définissent les effectifs empiriques notés nj .
– On calcule pour chaque classes j la distance de Khi deux correspondante définie par
dj = (nj − n∗j )2 /n∗j ) et leur somme dn .
– On compare cette somme avec la quantité d1−α (k − 1) représentant la qualité du
générateur.

FENOMANANA Hugo Chantaise 8 GMI-Maths


1.4 Les variables aléatoires discrètes

1.4 Les variables aléatoires discrètes


Sur cette section considérons à simuler quelques lois discrètes comme la loi de Bernoulli
de paramètre p, la loi binomiale B(n, p) et la loi Géométrique de paramètre α.

1.4.1 Loi de Bernoulli :


Un variable aléatoire suivant la loi Bernoulli est appelée variable de Bernoulli. La loi de
Bernoulli est la loi de la variable aléatoire qui code le résultat d’une épreuve qui n’admet
que deux issues (épreuve de Bernoulli) : 1 pour "succès" et 0 pour "‘échec", ou quel soit
le nom qu’on donne eux deux issues d’une telle expérience aléatoire. La distribution de la
loi de Bernoulli représente comme suit : P (X = x) = px (1 − p)1−x 1{0,1} (x).
Son espérance mathématique E(X) = p et sa variance V ar(X) = p(1 − p).

Méthode de simulation : En rappelant qu’une variable aléatoire X suit la loi de


Bernoulli de paramètre p ∈ [0; 1] et on note X B(p) si et seulement si P (X = 0) = 1−p,
P (X = 1) = p.
Lemme 1. Soit (Ω, A , P ) un espace probabilisé et ε ∈ F . Notons p = P (ε) ∈ [0; 1]. Alors
Xε B(p). Ou Xε la fonction indicatrice.

Etape1 : Générer U U[0;1]

Etape2 : On teste U par rapport au paramètre p. si U < p, alors Y=1, si non Y=0

Résultat : Y B(p), alors Y simule X qui suit B(p)


Pour simuler une loi de Bernoulli de paramètre p ∈ [0; 1]. L’intuition nous guide
naturellement vers l’algorithme suivant :
Algorithme 2. 1. Si U < p répondre 1
2. Sinon répondre 0 comme P (U < p) = p, cet algorithme répond naturellement a la
question. Donc, pour simuler une loi de Bernoulli de paramètre p a partir d’une loi
uniforme U , renvoyer 1 si U < p, et 0 sinon. Par ceux ci, on peut programmer cet
algorithme comme ci dessous.

1.4.2 Loi Binomiale :


La loi Binomiale décrit le comportement d’une expérience aléatoire qui possède deux
résultats possibles traditionnellement appelés succès et échec. Une telle expérience s’ap-
pelle une épreuve de Binomiale. Par exemple, lors d’une lancer de jeux pile ou face, on peut
considérer qu’obtenir face est une succès et obtenir pile si non ou échec. Dans ce modèle,
la probabilité de succès est une valeur fixe, c’est-à-dire qui reste constante à chaque re-
nouvellement de l’expérience aléatoire. La loi Binomiale est une loi de probabilité discrète
à deux paramètre : n ∈ N∗ et p ∈ [0 ; 1]. Il est fréquent d’utiliser également le paramètre
q = 1 − p pour avoir des expressions plus concises. Plusieurs définition équivalentes sont
utilisées pour la loi binomiale comme nous citons ci dessous :

FENOMANANA Hugo Chantaise 9 GMI-Maths


1.4 Les variables aléatoires discrètes

Définition 2. La loi binomiale, de paramètre n et p, est la loi de probabilité d’une


variable aléatoire X telle que : Y = Y1 , Y2 , Y3 , ..., Yn , ou Y1 , Y2 , Y3 , ..., Yn , sont des variables
aléatoire indépendantes de la loi de Bernoulli de même paramètre p.

Définition 3. La loi binomiale, paramètres n et p, est la loi de probabilité discrète


 d’une
variable aléatoire X dont la fonction de masse est donnée par :P (X = k) = nk pk pn−k
pour k = 0, 1, ..., n.

Méthode de simulation d’une Binomiale de paramètres n et p, B(n, p) :


N.B :
– n le nombre de répétitions indépendantes de l’expérience de Ber-
noulli ;
– p la probabilité de succès.
Xn
Soit X B(n, p). Comment simuler X. On X = Xi , avec Xi B(p) et les Xi
i=1
sont indépendantes.

Algorithme 3. D’où son algorithme de simulation :

Etape1 : Générer U U[0;1]

Etape2 : Considérer Yi tel que : si U < p, alors Yi = 1, si non Yi = 0

Etape3 :
n
X n
X
Z= Yi = 11(U <P )
i=1 i=1

Résultat : Z simule X qui suit B(n, p)

1.4.3 Loi géométrique :


On considère une épreuve de Bernoulli dont la probabilité de succès est p et celle
d’échec q = 1 − p. On renouvelle cette épreuve de manière indépendante jusqu’au premier
succès. On appelle X la variable aléatoire donnant le rang du premier succès. Les valeurs
de X sont les entiers naturels non nuls 1, 2, 3, ...La probabilité que X = k est alors, pour
k = 1, 2, 3, ... : p(X = k) = (1 − p)k−i p. On dit que X suit une loi géométrique de
paramètre p. La probabilité p(X = k) correspond à la probabilité d’obtenir dans une
succession de k épreuves de Bernoulli, k − 1 échecs suivi d’un succès. Les épreuves étant
indépendants, cette probabilité est de p(X = k) = (1 − p)k−1 p.
Les lois géométriques correspondent au nombre expérience nécessaires pour faire appa-
raitre un événement aléatoire donnée. Ces distributions temporelles ou de logeurs discrètes
sont des modèle simplifiés de phénomènes aléatoire naturels souvent plus complexe. En
biologie, ces loi sont parfois utilisés pour simuler des phénomènes de morphogénèse dans

FENOMANANA Hugo Chantaise 10 GMI-Maths


1.4 Les variables aléatoires discrètes

la croissance des confères, des longueur d’axons de gènes. En physique, la loi géométriques
est plutôt utilisée pour d’écrire grossièrement des instantes radioactives, ou d’autre type
d’absorption de particules dans des puits de potentiels. En économie, ces lois peuvent
représenter des dates de hausse ou de chute des valeurs de produits financiers.

Méthode de simulation : On rappelle que la loi géométrique de paramètre p est


définie par P (X = k) = (1 − p)k−1 p. Il s’agit d’une répétition d’une loi de Bernoulli Y de
paramètre p jusqu’à tomber sur Y = 1, ce qui donne immédiatement un algorithme pour la
simuler. On considère par Xi , i ≥ 1) est une suite de variable identique et indépendamment
distribuée qui suit la loi de Bernoulli de paramètre p (Xi B(p)), l’indice de premier
succès G = inf i : Xi = 1 Geom(p), et ou dit que G suit une loi géométrique de
paramètre p.
En suite, pour simuler une loi géométrique de paramètre p jusqu’à que la réponse soit
1. Le résultat est alors le nombre total de lancers.

Algorithme 4. D’où son algorithme de simulation :

Etape1 : Initialisation X : X = 1 Générer U U[0;1]

Etape2 : Tant que :


U >p
X =X +1

Résultat : X Geom(p)

1.4.4 Cas général sur la simulation de la variable discrète


On veut simuler un échantillon provenant d’une variable aléatoire discrète X satisfai-
sant P (X = xi ) = pi pour tout i dans N (ou l’un de ses sous-ensembles). On définit U
comme étant une variable aléatoire de la loi U(0; 1) qui pourra être obtenue à l’aide de la
fonction runif (), et on utilise l’algorithme suivant :

Algorithme 5. (
X = x0 si 0 < U ≤ p0 ,
Pi−1
pj < U ≤ ij=0 pj
P
X = xi si j=0

Remarque 2. Pour implémenter cette méthode très générale, il faut programmer une
boucle sur i avec comme test d’arrêt p1 , p2 , ..., pn ≥ U . Ce la peut s’avérer couteux en
temps de calcul lorsque la série de terme général pi converge lentement vers 1.

FENOMANANA Hugo Chantaise 11 GMI-Maths


Méthodes de Simulation.

Chapitre 2

Méthodes de Simulation.

Dans cette section nous nous abordons à la méthode de simulation des variable à
densité et ces algorithme de fonctionnement comme la méthode de transformation inverse,
méthode d’utilisation de Relations fonctionnelles ou méthode Box-Muller et méthode
d’acceptation rejet :

2.1 Méthode de transformation inverse


Tout d’abord la méthode de la transformation inverse est la méthode la plus facile
et la plus directe pour générer les variables aléatoire. Elle a l’inconvénient d’exiger la
connaissance de trouver explicitement F −1 ou F est la fonction de répartition.
Soit X une variable aléatoire réelle de fonction de répartition F , définie par :
F (x) = P (X ≤ x)
Rappelons que F est croissante, continue à droite et limitée à gauche en tout point de R,
que l’ensemble de ses discontinuités est au plus dénombrable et que F a pour limite 0 en
−∞ et 1 en +∞. Dans le cas particulier où F est continue et strictement croissante sur
tout R, elle réalise une bijection de R sur ]0 ; 1[ et admet donc un inverse F −1 : ]0 ; 1[→ R au
sens classique. Si U est une variable aléatoire de loi uniforme sur ]0 ; 1[, alors Y = F −1 (u)
a même loi que X.
Dans cette suite d’égalités, la deuxième repose sur la croissance de F et de F −1 qui
légitiment l’équivalence F −1 (u) ≤ xu ≤ F (x). La dernière égalité est due au calcule de la
fonction de la loi uniforme, sur ]0 ; 1[,et au fait que F (x) ∈ [0 ; 1]. Cette propriété permet
donc à partir d’un générateur aléatoire fournissant des réalisations d’une v.a de même loi
que X, en admettant que l’on sache calculer F −1 . Dans une souci de génération, ce ci
nous conduit à poser la définition suivante.
Définition 4. Si F est la fonction de répartition d’une variable aléatoire, son inverse
généralisée est définie par :
∀u ∈]0 ; 1[, F −1 (u) = inf {x ∈ R, F (x) ≥ u}
L’équation F (x) = u peut avoir sait une solution unique soit aucune solution, une
infinité de solution, soit une infinité de solution.

FENOMANANA Hugo Chantaise 12 GMI-Maths


2.1 Méthode de transformation inverse

Théorème 2. Pour toute v.a.r continue X à fonction de répartition Fx fonction stric-


tement croissante. Pour toute v.a.r U qui suit U[0;1] , la v.a.r Y = FX−1 (U ) suit la loi X,
c’est à dire FY = FX . Soit encore que Y simule X.

Démonstration. En effet, soit X une v.a.r continue de fonction répartition FX . Considé-


rons la v.a.r y = FX−1 (U ) ou U U[0;1] . Il vient :

∀t > 0, FY (t) = P (y < t)


= P (FX−1 (U ) < t)
= P (FX (FX−1 (U )) < FX (t))
= P (U < FX (t))
= FX (t), FX (t) ∈ [0, 1]

Une application directe de ce théorème permet, à partir d’une loi uniforme, de générer
n’importe quelle autre loi. Ainsi, pour générer un échantillon . Fictif issu d’une variable
aléatoire X, il faut connaitre F (x) et avoir une suite de nombres y1 , y2 , ..., yn issus d’une
variable U uniforme sur [0, 1]. L’égalité x = F −1 (y) permet d’obtenir l’échantillon

x1 = F −1 (y1 ), x2 = F −1 (y2 ), ..., xn = F −1 (yn )

issu d’une population distribuée selon F . La seule difficulté est celle de calculer F −1 en
connaissant F . Dans certains cas cela n’est pas possible de manière explicite, et dans ces
cas d’autres technique, que l’on verra plus loin, permettent de simuler un échantillon de
X.

Algorithme 6. L’algorithme pour générer une observation d’une variable aléatoire X par
l’inverse généralisé va comme suit :
1. Générer aléatoirement U , une réalisation d’une loi uniforme sur [0, 1].
2. Poser x = F −1 (U )

Exemple 1. Traitons un exemple sur une loi E(λ)avecλ > 0 : Si X est de loi
exponentielle(λ) on à F (x) = 1 − e−λx . Résoudre l’équation u = 1 − e−λx conduit à
x = −log(1 − u)/λ. Donc, si U U[0,1] alors X = −logU exp(λ) ou bien :

F (x) = 1 − e−λx , x > 0


D’où F −1 (u) = −log(1 − u)/λ

Algorithme 7. Pour la loi exponentielle de paramètre λ.


1. Générer aléatoirement U , une réalisation d’une loi uniforme sur [0, 1].
2. Poser x = −log(1 − u)/λ.

FENOMANANA Hugo Chantaise 13 GMI-Maths


2.1 Méthode de transformation inverse

2.1.1 Exemple sur la loi uniforme entre a et b par.


Les lois uniformes continues forment une famille de lois de probabilité à densité carac-
térisées par la propriété suivant :
Propriété 1. Tous les intervalles de même longueur inclus dans le support de la loi ont
la même probabilité. Cela se traduit par le fait que la densité de probabilités de ces lois est
constante sur leur support.
La loi uniforme continue est une généralisation de la fonction rection rectangle à cause
de la forme de sa fonction densité de probabilité. Elle est paramétrée par les plus petites
et plus grandes valeurs a et b que la variable aléatoire uniforme peut prendre. Cette loi
continue est souvent notée U(a; b).

Densité de probabilité : Soit U(a; b) suit la loi uniforme continue sur l’intervalle [a; b].
On note par f sa fonction de densité. La densité de probabilité de la loi uniforme continue
est une fonction porte sur l’intervalle [a; b] :
 1
b−a
si a 6 x 6 b
f (x) =
0 si non

Fonction de répartition : On suppose que f est intégrable sur l’intervalle [a; b].
Comme f est intégrable sur I = [a; b] donc, sa fonction de répartition est donnée par :

 0 pour x < a
x−a
F (x) = pour a 6 x < b
 x−b
1 pour x ≥ b

Inversion de fonction de répartition : On suppose que F admet une bijection sur


[a; b], donc il existe une fonction inversible de F tel que F −1 ∈ [a; b]. On calculer la fonction
inverse de la fonction de répartition d’après la section(2.1) :
F (x) = u
x−a
F (x) =
x−b
u(b − a) = x − a
x = a + u(b − a)
Donc, l’inverse de cette fonction f (u) = a + (b − a)u

2.1.2 Simulation de la loi uniforme entre a et b par la méthode


par inversion de fonction de répartition
On a vu toute à l’heure que l’inverse du fonction de répartition de F est donnée par
f (u) = a + (b − a)u. A partir de la fonction inverse on peut facilement de simuler cet
variable aléatoire selon la fonction runif(n ,a,b), ensuite on propose l’algorithme suivant
en simulent :

FENOMANANA Hugo Chantaise 14 GMI-Maths


2.1 Méthode de transformation inverse

Algorithme 8. 1. Générer U U[0;1]


2. Z a + (b − a)U
3. Retourner Z

2.1.3 Une mise au point sur la simulation d’une loi Weibull


W (a, b, c)
Soit X une v.a.r qui suit W (a, b, c). Alors la fonction de répartition de X est FX
définie par :
t−a b
∀t ∈ R, FX = P (X < t) = 1 − e−( c ) , t ≥ 0

La stratégie consiste à utiliser le théorème d’inversion d’âpres la section(2.1)


si U[0;1] , alors y = FX−1 (U ) X, alors FX−1 (U ) simule X.

Calculons FX−1 (y) : Posons y = FX (t), pour t ≥ 0. Alors y = FX (t) :


t−a b
y = 1 − e−( c
)

−( t−a )b
e c = 1−y
t−a b
−( ) = ln(1 − y)
c
t−a b
( ) = − ln(1 − y)
c
t−a 1 1 1
( )b = (ln()) b
c 1−y
t−a 1 1
=
(ln( )) b
c 1−y
1 1
t = c(ln( )) b + a
1−y

Donc on a :
1 1
FX−1 (y) = c(ln( )) b + a
1−y
Algorithme 9. de simulation de X qui suit W (a, b, c)
1. Générer U U[0;1]
2. Générer un n-échantillon de la v.a.r
1 1
y = c(ln( )) b + a
1−U

Résultat : y simule X qui suit W (a, b, c).

FENOMANANA Hugo Chantaise 15 GMI-Maths


2.2 Utilisation de la relation fonctionnelles [Nic10]

2.1.4 Simulation de la loi de Cauchy


Soit une distribution de Cauchy de paramètre (α, β) notée C(α, β) la fonction de
densité est :
β
f (x) = , α, x ∈ R, β > 0
π(β + (x − α)2 )
2

La fonction de répartition est :


1 x−α
F (x) = + π −1 tan−1 ( )
2 β
En appliquent la méthode de transformation inverse (2.1) nous obtenons :
x = FX−1 (U )
1
= α + β tan(π(U − ))
2
β
=α−
tan(πU )
Algorithme 10. simulation de la loi de Cauchy de paramètre (α, β).
1. Générer U U[0;1]
β
2. Pour x = α − tan(πU )

La génération de variables aléatoires uniformes est par conséquent un élément déter-


minant des méthodes de simulation pour d’autres distributions de probabilité, puisque
ces distributions peuvent être représentées comme transformations déterministes de va-
riables uniformes. Dans des fonctions à densité l’inverse de fonction de répartition n’est
pas connue de façon analytique comme cas de la loi normale, donc il est nécessaire d’autre
méthode pour simuler cette cas, comme l’utilisation de la relation fonctionnelle appliquant
par l’algorithme de Box-Müller.

2.2 Utilisation de la relation fonctionnelles [Nic10]


L’intérêt de la méthode de simulation par inversion de répartition est d’exhiber une
relation fonctionnelle simple entre une loi élémentaire (loi uniforme sur [0, 1] ) et une
loi plus complexe que l’on souhaite simuler. Une telle approche se généralise grâce au
théorème suivant :
Théorème 3. [Nic10] Soit X une variable aléatoire de densité g sur ∆ ⊂ Rd et ϕ :
∆ → S ∈ Rd un C 1 -difféomorphisme : ϕ−1 est C 1 et Jϕ−1 (x) = det(ϕ−1 )0 6= 0 pour x ∈ S.
Alors, la variable Y = ϕ(x) a pour densité :
g[ϕ−1 (x)] | Jϕ−1 (x) |, x ∈ S
.
Ce théorème permet d’obtenir de nombreuse distributions sous la forme de une où
plusieurs fonctions de variables aléatoires relativement simples.

FENOMANANA Hugo Chantaise 16 GMI-Maths


2.2 Utilisation de la relation fonctionnelles [Nic10]

2.2.1 Simulation d’une loi normale N (0, 1) par l’approche de Box


et Muller :
Dans cette partie, il est possible de simuler de façon exacte deux lois normales centrées
réduites indépendantes à partir de deux lois iid U (0, 1) : si U1 et U2 sont deux lois uniformes
sur [0, 1] et indépendantes, alors les variables X et Y définie par :
p
X = −2ln(U1 ) sin 2πU2
p
Y = −2ln(U1 ) cos 2πU2
sont indépendantes, de la loi N (0, 1).
Démonstration. On va montre à partir de la théorème(3) l’équation les variables X et Y
suite la loi normale centre réduite.

p
x= −2ln(u1 ) sin 2πu2
p
y = −2ln(u1 ) cos 2πu2
On à donc :
x2 + y 2 = −2ln(u1 )
x
y
= tan(2πu2 )
1 2 2
u1 = e− 2 (x +y )
1
u2 = 2π arctan( xy )
1 2 +y 2 )
(u1 , u2 ) = (e− 2 (x 1
, 2π arctan( xy ))
Le Jacobien de la transformation est donné par :
∂u1 ∂u1
∂x ∂y
J= ∂u2 ∂u2
∂x ∂y

1 2 +y 2 ) 1 2 2)
−xe− 2 (x −ye− 2 (x +y
J= 1 1 x
− 2πy 1
(2πy) x2 2 x2
(1+ ) (1+ )
y2 y2
1
1 − 2 (x2 +y 2 )
J= 2π
e
Ainsi,

fX,Y (x, y) = fU1 ,U2 (u1 , u2 )|J|


1
1 − 2 (x2 +y 2 )
= 2π
e
1 2 1 2
= √1 e− 2 (x ) √1 e− 2 (y )
2π 2π
= fX (x)fY (y)

FENOMANANA Hugo Chantaise 17 GMI-Maths


2.3 Méthode du rejet

Finalement, X et Y sont des variables de lois normales centrées de variance 1 et les


variables X et Y sont indépendantes et suit la même loi normale.
Algorithme 11. Soit U1 et U2 deux variable aléatoires suit la loi uniforme de [0, 1].
1. Générer U1 et U2 selon des lois uniformes indépendantes sur [0, 1].
2. Calculer X et Y en utilisant les formules suivantes :
p
X = −2ln(U1 ) sin 2πU2
p
Y = −2ln(U1 ) cos 2πU2

2.3 Méthode du rejet


Principe général Il nous faut souligner que pour beaucoup de variables aléatoires,
ni la méthode de transformation inverse ni celle des transformations plus générales ne
permettent de fournir une simulation de ces distributions. Pour ces cas là, nous devons
nous orienter vers d’autres méthodes, souvent moins naturelles. Le principe général de ces
méthodes est de générer une variable aléatoire dite "candidate" puis de la soumettre à
un test .L’acceptation de ce test conduit à conserver la valeur simulée, son rejet à répéter
la simulation. La méthode de rejet peut utiliser la génération de n’importe quel type de
variable aléatoire. Elle consiste à générer des observations suivant une distribution de
fonction de densité instrumentale et à ensuite éliminer une certaine proportion de ces
observation à partir d’un test de manière à des observations qui suivent la distribution
désirée.
Plus précisément, soient f la densité désirée de la variable aléatoire à générer, g une
fonction de densité instrumentale et C une constante positive telle que f (x) ≤ Cg(x)
pour toute valeur de X.
Pour effectuer la méthode d’acceptation-rejet, on considère X une variables générée
selon de densité f telle que :

f (x) = Ch(x)g(x) (2.1)

où C ≥ 1, g est une fonction densité, φ(x) = Cg(x) est une fonction qui majore la densité
f.

2.3.1 Fondement mathématique de la méthode de rejet


La méthode de rejet est basée sur la proposition suivante : Soient f et g deux densités
de probabilités sur R vérifiant la relation suivante :

∃c > 0/∀x ∈ R, f (x) 6 c.g(x)

Considérons une variable aléatoire réelle X ayant g pour densité de probabilité et Y une
autre variable aléatoire réelle indépendante de X et suivant loi uniforme standard U(0, 1).
On établit alors que la loi conditionnelle de X sachant Y < f (X)/c.g(X) a pour densité
f (en supposant évidement g(X) 6= 0 presque partout).

FENOMANANA Hugo Chantaise 18 GMI-Maths


2.3 Méthode du rejet

Démonstration. Notons que q(x) = f (x)/c.g(x) et remarquons que 0 ≤ q(x) ≤ 1. Cal-


culons maintenant P (Y < q(X)) en nous plaçant dans le cas absolument continu. Par
définition : Z x=+∞
Z y=q(x)
P (Y < q(X)) = h(x, y)dxdy
x=−∞ y=0

où h est la densité de probabilité de probabilité du couple (X, Y ). Mais comme X et Y


sont indépendantes h(x, y) = 1.g(x) = g(x). Il s’en suit que :
Z x=+∞ Z y=q(x)
P (Y < q(X)) = g(x)[ dy]dx
x=−∞ y=0

soit comme Y suit U(0, 1),


Z x=+∞
P (Y < q(X)) = g(x)q(x)dx
x=−∞

D’où étant donné la définition de q(x) :


Z x=+∞
1 1
P (Y < q(X)) = f (x)dx =
c x=−∞ c
Cherchons maintenant P (X ∈ B|Y < q(x)). Par définition, l’on a :
T
P (X ∈ B Y < q(x))
P (X ∈ B|Y < q(x)) =
P (Y < q(x))
D’après ce qui précède, il vient que :
\
P (X ∈ B|Y < q(x)) = cP (X ∈ B Y < q(x))

Ou encore : Z Z y=q(x)
P (X ∈ B|Y < q(x)) = c g(x)[ dy]dx
x∈B y=0

Soit étant donné que Y suit U(0, 1) et en remplaçant :


Z Z
P (X ∈ B|Y < q(x)) = c g(x)q(x)dx = f (x)dx
x∈B x∈B

Ce qui prouve que f est la densité de probabilité de la loi conditionnelle de X sachant


f (X)
Y < c.g(X) .

2.3.2 Procédure pratique de simulation


Soit une variable X telle que sa simulation selon un densité f ne peut pas être effectuée
selon une les méthodes précédentes. S’il existe une autre densité de probabilité g de X
facile à simuler et ayant le même support que f et un réel c vérifiant : ∀x ∈ R, f (x) <
c.g(x), alors d’après ce qui précède on peut utiliser la procédure suivante, connue sous le
nom de méthode de rejet, pour simuler une valeur de X selon f .

FENOMANANA Hugo Chantaise 19 GMI-Maths


2.3 Méthode du rejet

Algorithme 12. Méthode de rejet On voudrait simuler une variable une variable aléatoire
réelle X de densité de probabilité f . On suppose qu’il existe une autre densité de probabilité
g telle que le ration fg soit borné, disons par c(i.ef 6 cg), et qu’on sache simuler Y de
densité g. La version basique de la méthode de rejet prend la forme suivante :
1. : On simule Y selon g. Soit y la valeur obtenue.
2. : On simule U selon U(0, 1) d’une manière indépendante à Y .
f (Y )
3. : Tant que U > c.g(Y )
, reprendre en 1.
4. : Accepter Y comme un tirage aléatoire de densité de probabilité f .
Remarque 3. On remarque que l’algorithme comporte une boucle dont la condition
porte sur des variables aléatoires. Le nombre d’itérations, notons le N est donc lui-même
aléatoire. On peut montrer que N suit la loi géométrique de paramètre 1c .
Par suite, l’espérance de N ( c-à-d le nombre moyen d’itérations à effectuer avant
d’obtenir une réalisation de la densité f ) vaut c. On a donc tout intérêt à choisir c le plus
petit possible. En pratique, une fois la fonction g choisie, le meilleur choix de c est donc
la plus petite constante qui majore le ratio fg , c’est-à-dire :

f (x)
c = Sup
g(x)
Notons que, soit c est supérieur strict à 1, soit f 6= g la deuxième alternative étant assez
théorique en effet, comme cg − f > 0. On a donc intérêt à choisir c le plus proche de
1 possible, pour que le nombre d’itérations moyen soit proche de 1 lui aussi. De plus, le
choix de g est primordial :
– Le tirage de la loi g doit être facile ;
– L’évaluation de fg(x)
(x)
doit être aisée ;
– La constante c doit être la plus petite possinle ;
– La fonction cg doit majorer la densité f .

2.3.3 Simulation d’une loi normale par rejet :


Pour simuler une variable aléatoire
p centrée réduite X par la méthode du rejet, on
−y e
choisira g(y) = e pour y > 0 et c = 2π ' 0, 6577.

Exemple 2. Soit f (x) la densité d’une distribution normale centrée réduite, et g(x) =
e−x pour x > 0. Application de la méthode du rejet est utilisée pour simuler des réalisation
de la loi normale en accord avec la procédure décrire plus haut.

Choix de la constante c : La constante c à utiliser doit être telle que l’exponentielle


soit toujours plus grande que la courbe normale mais la plus proche possible pour maxi-
miser l’efficacité des tirages. Pour que la courbe cg(x) soit toujours plus grande que f (x)
il faut, dans le cas présent que :
1 −x2
c ∗ e−x ≥ √ e− 2 ∀x ≥ 0

FENOMANANA Hugo Chantaise 20 GMI-Maths


2.3 Méthode du rejet

soit √
1 − −x2 −2x e −x2 −2x+1
c≥ √ e 2 = √ e− 2
2π 2π

e (x−1)2
c ≥ √ e− 2 ∀x ≥ 0

Le terme de droite de cette expression prend sa valeur maximum en x = 1 et vaut alors :

e
c= √

la valeur maximum à donner à c.

Algorithme 13. Méthode de rejet pour simuler loi normale.


1. Générer U selon la loi uniforme U(0,1) ;
2. Générer Y de densité g,
3. Tester si U ≤ f (Y )/cg(Y ) c’est-à-dire si :

1 − y2 e
U ≤ √ e 2 / √ e−y
2π 2π

4. Si cette condition n’est pas vérifiée retourner à l’étape 1, sinon continuer,


5. Accepter Y comme un tirage aléatoire de densité de probabilité de f .

Efficacité : L’efficacité de cette méthode est définie comme la moyenne de la fréquence


relative des points acceptes et se mesure par le rapport entre les surfaces sous les courbes
f et Cg. Comme f et g sont des fonction densité, ce rapport vaut C1 .

FENOMANANA Hugo Chantaise 21 GMI-Maths


Simulation pratique avec R

Chapitre 3

Simulation pratique avec R

3.1 Quelques notions de la simulation


Dans ce section nous aborderons l’étude de la simulation des variables aléatoires dis-
crète. Mais avant tout, on va voir les fonction à utiliser qui simule les loi usuel et présen-
tation de la logiciel R.

3.1.1 Présentation du logicielle R


Le logicielle R est un logiciel de statistique crée par Ross Ihaka and Rober Gent-
leman [RI96]. Il est à la fois un langage informatique et un environnement de travail : les
commandes sont exécutées grâce à des instructions codées dans un langage relativement
simple, les résultats sont affiches sous forme de texte et les graphiques sont visualisés
directement dans une fénêtre qui leur est propre. C’est un clone du logiciel S plus qui est
fondé sur le langage de programmation orienté objet S, par AT and T Bell Laborato-
ries en 1988 [RAB88]. Ce logiciel sert à manipule des données, à tracer des graphique
et à faire des analyses statistiques sur ces données.

3.1.2 Les commandes utiliser pour la simulation des quelques loi


usuel en R
Dans la logiciel R les fonction suivent sont utilisable pour la génération des nombres
aléatoire suivent la loi donner.
– sample(x=1 :m,size=n,TRUE) La syntaxe qui simulent la variable aléatoire
suite la loi uniforme discrète.
– X=runif(n,min=a,max=b) La syntaxe qui simulent une variable aléatoire sui-
vant la loi uniforme sur [a, b].
– X=rbinom(n,size=m,prob=p) La syntaxe qui simulent une variable aléatoire
suivant la loi binomiale de paramètres (m ;p).
– X=rgeom(n,prob=p) La syntaxe qui simulent une variable aléatoire suivant la
loi géométrique de paramètre p.

FENOMANANA Hugo Chantaise 22 GMI-Maths


3.1 Quelques notions de la simulation

– X=rhyper(nn,m=m,n=n,k=k) La syntaxe qui simulent une variable aléatoire


suivant la loi hypergéométrique de paramètre (m,n,k).
– X=rnbinom(n,size=m,prob=p) La syntaxe qui simulent une variable aléatoire
suivant la loi binomiale négatifs de paramètre (m,p).
– X=rpois(n,λ) La syntaxe qui simulent une variable aléatoire suivant la loi Poisson
de paramètre λ.
– X= rnorm(n,mean = µ, sd = σ) La syntaxe qui simulent une variable aléatoire
suivant la loi normale de paramètre (µ, σ).
N.B :
Pour une var X suivant une loi notée loi dans R, la syntaxe
générale est la suivante :

– La commande est :dloi ; on ajoute la lettre d devant loi, pour


obtenir "‘la densité" de X.
– La commande est :ploi ; on ajoute la lettre p devant loi, pour
obtenir la fonction de répartition de X.
– La commande est :qloi ; on ajoute la lettre q devant loi, pour
obtenir le quantile de X.
– La commande est :rloi ; on ajoute la lettre r devant loi pour
simuler des réalisations de var suivant la même loi que X.

Exemple 3. On code avec logiciel R cette algorithme(1) de fassions suivant : Consi-


dérons deux générateurs : G1 et G2 tels que : G1 définit par a = 25, c = 16, et m = 256
avec X0 = 12 : xn+1 := 25xn + 16[256] G2 définit par a = 65539, c = 0, et m = 231
avec X0 = 7 : xn+1 := 65539xn + 0[231 ] On programme sur R ces deux suites de la façon
suivante :

#Nombre d’observation N
N=500
par(mfrow=c(3, 1))
h=runif(N)
plot(h)
u=rep(0,N)
u[1]=12
# fonction modulo %%
for(i in 1:N) u[i+1]=(25*u[i]+16)%%256
plot(u,main = "a=25 c=16 m=256", col.main= "blue")
v=rep(0,N)
#Initialisation par un nombre impaire
v[1]=7
#fonction modulo %%
for(i in 1:N) v[i+1]=(65539*v[i] )%%2^31
v2=v/2^31
v2
plot(v,main="RANDU a=65539 c=0 m=2^31", col.main= "blue")

FENOMANANA Hugo Chantaise 23 GMI-Maths


3.1 Quelques notions de la simulation

On obtient les graphiques suivants :

Figure 3.1 – Loi uniforme(0,1)

Figure 3.2 – générateur aléatoire G1

Figure 3.3 – générateur aléatoire G2

FENOMANANA Hugo Chantaise 24 GMI-Maths


3.1 Quelques notions de la simulation

Ainsi, il ressort clairement que G1 n’est pas un générateur aléatoire au sens où la suite
de nombres est d’une période bien trop petite, au contraire G2 qui est connu sous le nom
de générateur de RANDU semble fournir une suite pseudo-aléatoire convenable. Nous
serons amener plus loin à rediscuter de son efficacité. Le choix d’une période assez grande
semble donc ressortir comme une condition nécessaire pour l’efficacité d’un générateur .

Exemple 4. On code avec logiciel R cette algorithme(11) de fassions suivant :

set.seed(120)
N=1000
m=0
sigma=1
U1=runif(N)
U2=runif(N)
par(mfrow=c(1, 3))
X=m+sigma*sqrt(-2*log(U1))*sin(2*pi*U2)
hist(X,col="light blue",xlim=c(-10,10),ylim=c(0,0.5),
probability=TRUE,main="X1")
par(new=TRUE)
curve(ylim=c(0,0.5),xlim=c(-10,10),dnorm(x),lwd=2,col="red",main="")
mean(X)
Y=m+sigma*sqrt(-2*log(U2))*cos(2*pi*U1)
hist(Y,col="light blue",xlim=c(-10,10),ylim=c(0,0.5),
probability=TRUE,main="X2")
par(new=TRUE)
curve(ylim=c(0,0.5),xlim=c(-10,10),dnorm(x),lwd=2,col="red",main="")
mean(Y)
X3=rnorm(N,mean=m, sd=sigma)
hist(X3,col="light blue",xlim=c(-10,10),ylim=c(0,0.5),
probability=TRUE,main="rnorm")
par(new=TRUE)
curve(ylim=c(0,0.5),xlim=c(-10,10),dnorm(x),lwd=2,col="red",main="")
mean(X3)

Figure 3.4 – Méthode de Box-Muller

FENOMANANA Hugo Chantaise 25 GMI-Maths


3.1 Quelques notions de la simulation

Exemple 5. On code avec logiciel R cette algorithme(7) de fassions suivant :

#loi exponentielle(lambda,N) par inversion fonction répartition.


set.seed(120)
x=0.6
u=runif(200)
P=-log(1-u)/x
par(mfrow=c (1,2))
hist(P, probability=TRUE,main="Exp(lambda)_par_inversion_F. r ",
col=" light blue " )
#loi exponentielle(lambda) par fonction Rexp
N=200
exp2=rexp(N, 0.6)
hist (exp2, probability=TRUE,main="Exp(lambda) par fonction R" ,
col="light blue")

On obtient les densités suivantes qui montrent une grande ressemblance entre la fonc-
tion R rexp et linversion de la fonction de répartition comme nous pouvons lobserver dans
la figure suivent :

Figure 3.5 – Densités d’échantillons exponentiels.

FENOMANANA Hugo Chantaise 26 GMI-Maths


Conclusion

Conclusion

Si les générateurs implantés sur les gros matériels des centres de Calcul, éprouvés par
l’expérience, et construits très sérieusement (ils sont souvent en multiprécision) peuvent
être utilisés sans crainte, les petits nombres de bits des micro contraignent à des géné-
rateurs de période très courte (j’en ai vu de période 32 768 I), voire avec des périodes
effectives encore plus courtes, et aussi à des corrélations relativement forte entre termes
consécutifs.
La prétention de cet exposé est de mettre en évidence le fait qu’il ne faut absolument
pas faire confiance a priori aux générateurs de nombres pseudo-aléatoires implantés par
les constructeurs sur les micro-ordinateurs. Il ne faut pas non plus négliger les phénomènes
de troncature et d’arrondi. Les suites déduites des suites un , par troncature ou arrondi
peuvent présenter des périodes notablement plus courtes que la suite initiale.
On doit aussi réaliser que la copie idéale du hasard n’existe pas. Les techniques de
simulation fournissent des modèles approchés. Une excellente approximation est théori-
quement possible : elle risque de coûter très cher.

FENOMANANA Hugo Chantaise 27 GMI-Maths


Références Bibliographiques

Références Bibliographiques

[BAI12] K. BAISSA. Simulation statistique. mémoire de DEA, Tunis :ISEFC., page 44,
2012.
[Cha08] S. Charles. simulation-lois-reelles-vector-bon-3.pdf. Université des Sciences et
Technologies de Lille U.F.R. de Mathématiques Pures et Appliquées Bât. M2,
F-59655 Villeneuve dAscq Cedex, 2007-2008.
[Emm13] G. Emmanuel. Méthodes de monte-carlo et processus stochastiques : du linéaire
au nonlinéaire. Editions de l’Ecole Polytechnique, 2013.
[Has15] M. Hassen. Cours de méthodes de simulation. ESSAIT, page 15, 2014-2015.
[KHA96] I. KHARROUBI. Méthodes de monte carlo. pages 07–08, 1996.
[MED17] F. MEDOUAKH. Méthodes de monte-carlo. Année universitaire 2016-2017,
2017.
[MFD01] B. Mme F Duhcille. Licence scientifique. 2001.
[Nic10] B. Nicolas. Méthodes de monte carlo appliquees au pricing doptions et à la
gestion des risques multiples. Cours ENSAI de 3ème année, page 15, 2010.
[RAB88] A. R. Wilks. R. A. Becker, J. M. Chambers. The new s language : A program-
ming environment for data analysis and graphics. Chapman Hall, 1988.
[RAZ18] V. RAZAFIMANANA. Simulation des méthodes de monte-carlo sous r. PRO-
JET, page 04, Année Universitaire :2017- 2018.
[RI96] R. Gentleman R. Ihaka. R : A language for data analysis and graphics. Journal
of Computational and Graphical Statistics, 5(3) :299-314, 1996.
[Rob96] C. Robert. Méthodes de monte carlo par chaînes de markov. Economica, 1996.

FENOMANANA Hugo Chantaise 28 GMI-Maths

Vous aimerez peut-être aussi