Académique Documents
Professionnel Documents
Culture Documents
Méthodes de Monte-Carlo
Méthodes de Monte-Carlo
Méthodes de Monte-Carlo
choisis et suffisamment éloignés les uns des autres. Ces chaînes sont des processus stochastiques de «marcheurs» qui
se déplacent au hasard selon un algorithme qui recherche des endroits avec une contribution raisonnablement élevée
à l'intégrale pour passer au suivant, leur attribuant des probabilités plus élevées.
Les méthodes de marche aléatoire de Monte Carlo sont une sorte de simulation aléatoire ou méthode de Monte Carlo
. Cependant, alors que les échantillons aléatoires de l'intégrande utilisés dans une intégration classique de
Monte Carlo sont statistiquement indépendants , ceux utilisés dans MCMC sont autocorrélés . Les corrélations
d'échantillons introduisent la nécessité d'utiliser le théorème central limite de la chaîne de Markov lors de
l'estimation de l'erreur des valeurs moyennes.
Méthode de Monte-Carlo par
Chaînes de Markov.
L'objectif est toujours de calculer I = R h(x)d π(x), où π est une loi de probabilité. Dans la section
précédente, on a estimé I
∑ h (Xk)
où X1, ..., Xn est un échantillon de variables aléatoires indépendantes de même loi π. le problème est
dans la simulation d'un échantillon i.i.d de la loi π, car elle n'est pas toujours explicitable .
La méthode de Monte-Carlo par chaîne de Markov donne une estimation de I égale à ;
∑ h (Xk)
où X1, ..., Xn des états successifs d'une chaîne de Markov. Avant d'aller à la justification de la méthode,
on passe par quelques rappels sur les chaînes de Markov.
Rappel sur les chaines de markov
matrice de transition P sur espace d’états fini ou dénombrable E .
(Xn )n∈ IN : chaîne de Markov d’état initial x et de matrice de transition P .
Une mesure π sur E est un vecteur dont tous les termes sont positifs. Elle est invariante si;
πP = π.
Une probabilité π est une mesure telle que ; ∑ π(X) = 1.
Une probabilité π est réversible si ;
∀(x, y) ∈ E^2 , πy P(y, x) = πx P(x, y).
Alors elle est invariante.
On dit qu'une suite de variables aléatoires (Xn)n∈N, à valeurs dans (E,P(E)) est défnie sur un espace
probabilisé (Ω, A, P), est une chaîne de Markov si
∀i, j ∈ S, P(Xn+1 = j|Xn = i) = P(X1 = j|X0 = i)
k
Théoreme Ergodique
Soit P une matrice de transition irréductible. On suppose qu’il existe une probabilité invariante π.
Alors :
π est l’unique probabilité invariante et π(x) > 0 pour tout x ∈ E
Tous les états sont récurrents (chaîne dite récurrence positive)
Pour tout état x ∈ E et toute fonction f : E → R telle que ;
∑E | f(x) |π(x) < +∞.
Principe de la méthode
Pour calculer une intégrale par rapport à π,
remplacer la simulation d’une suite de v.a. i.i.d. de loi π par celle d’une chaîne de
Markov irréductible de probabilité invariante π,
puis la loi forte des grands nombres par le théorème ergodique
Algorithme de Hastings-Metropolis
Proprieté
1. Cet algorithme accepte systÈmatiquement les simulations xt telle que le rapport de vraisemblance
2. so soit supérieur à la valeur précédente.
◦
◦
Algorithme déchantillonnage de Gibbs
La formulation générale de l’algorithme d’échantillonnage de Gibbs pour une
loi jointe π(Ø1; :::; Øp), de lois conditionnelles complétes π 1; :::; πp est
exposée comme suit à l’algorithme d’échantillonnage de Gibbs
Proposition
1. Le taux d’acceptation de l’échantillonnage de Gibbs est uniformément égale à 1. Toutes les valeurs
simulées sont acceptés
2. L’utilisation de l’échantillonage de Gibbs entraine des limitations fortes sur le choix des paramétres des
lois instrumentales et suppose une connaissance préalable de certaines propriétés probabilistes ou
analytiques de .
3. 3. L’échantillonnage de Gibbs est nécessairement multidimensionnel, meme si certaines composantes
du vecteur simulé sont artifcielles du point de vue du probléme inférentiel correspondant .
4. L’échantillonnage de Gibbs ne fonctionne pas lorsque le nombre de paramétre est une variable .
convergence des méthodes MCMC
Sous des conditions relativement générales, les chaines produites par les algorithmes MCMC sont ergodiques, ces résultats sont
cependant insufisants lorsqu’on considére la mise en úuvre des méthodes MCMC, puisqu’ils ne fournissent pas directement des
moyens de controle de la chaine produite (dans le sens díune régle d’arret permettant d’assurer que le nombre d’itérations est
sufisant) L’objectif de cette section est de proposer es outils qui permettent de répondre à :
- A partir de quel moment pouvons-nous amener que l’échantillon ( X(t) ) sont distribuées selon la loi cible?
- Combien d’échantillons sont nécessaires pour obtenir une estimation précise de (X(t) )?
Pour cela plusieurs méthodes sont élaborées, et parmi ces méthodes on cite :.
3. Méthodes graphiques
Dificultés des méthodes MCMC
Les méthodes MCMC présentent des dificultés importantes à savoir :