Vous êtes sur la page 1sur 124

Methodes de Monte-Carlo

Annie MILLET

Universites Paris 7 et Paris 1


Master 2 `eme annee : Specialite Modelisation Aleatoire
Recherche et Professionnel
Parcours : Statistique et Mod`eles Aleatoires en Finance
Parcours : Probabilites, Statistique et Applications :
Signal, Image, Reseaux
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
2
1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
2
1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
* Laboratoire de Probabilites et Mod`eles Aleatoires, Universites Paris 6 et Paris 7,
175 rue du Chevaleret 75013 Paris France et
SAMOS-MATISSE, Universite Paris 1, 90 Rue de Tolbiac, 75634 Paris Cedex 13 France
e-mail : amil@ccr.jussieu.fr et amillet@univ-paris1.fr
Table des mati`eres
1 Generateurs de nombres pseudo-aleatoires et suites `a discrepance faible 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Quelques generateurs fournis par les syst`emes . . . . . . . . . . . . . . . . . . . 6
1.3 Generateurs portables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Suites `a discrepance faible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 Simulation de variables aleatoires. 16
2.1 Methode dinversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Methode de rejet pour les lois uniformes . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Methode de rejet generale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Lois gaussiennes reelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5 Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6 Quelques autres lois classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.7 Methode de decomposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.8 Simulation de vecteurs aleatoires . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.9 Methode de melange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.10 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Simulation de processus 36
3.1 Mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2 Integrales stochastiques et diusions . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3 Schema dEuler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4 Schema de Milstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.5 Processus de Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.6 Chanes de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4

Equation de Feynman-Kac et convergence faible des schemas de discretisation 64
4.1 Generateur innitesimal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.2

Equation de Feynman-Kac, probl`emes de Cauchy et de Dirichlet. . . . . . . . . . 66
4.3 Convergence faible du schema dEuler . . . . . . . . . . . . . . . . . . . . . . . . 76
4.4 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5 Methode de Monte Carlo 82
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.2 Reduction de la variance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.1

Echantillonnage preferentiel . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.2 Variables de controle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.2.3 Variables antithetiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2.4 Methode de stratication . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.2.5 Valeur moyenne ou conditionnement . . . . . . . . . . . . . . . . . . . . 91
5.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6 Methode de Monte Carlo et chanes de Markov. 96
6.1 Mesures invariantes et Theor`eme ergodique. . . . . . . . . . . . . . . . . . . . . 96
6.2 Simulation exacte dune probabilite stationnaire . . . . . . . . . . . . . . . . . . 102
6.3 Probabilites reversibles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
2
6.4 Algorithme de Hastings-Metropolis. . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.5 Algorithme du recuit simule. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3
1 Generateurs de nombres pseudo-aleatoires et suites `a
discrepance faible
1.1 Introduction
Toute simulation de Monte Carlo fait intervenir des nombres au hasard et il est donc crucial
de repondre `a deux questions :
(1) Comment generer une suite de nombres (x
n
, n 1) qui soit la realisation (X
n
() , n 1)
dune suite de variables aleatoires independantes de meme loi donnee ?
(2) Si une telle suite de nombres nous est donnee, comment decider si cest une realisation
acceptable de la loi demandee ?
Nous verrons que dun point de vue theorique, la reponse `a ces deux questions se ram`ene au
cas de la loi |([0, 1]) uniforme sur lintervalle [0, 1] ; cest ce quon appelle des nombres pseudo-
aleatoires. Pour la seconde question, la reponse est que la suite doit passer un certain nombre
de tests statistiques dadequation `a la loi uniforme |([0, 1]) et dindependance. Rappelons deux
tests classiques dadequation sur la suite (U
1
, , U
n
) de variables aleatoires simulees.
Pour utiliser le test du
2
(qui permet de tester ladequation `a une loi sur un ensemble ni
`a p elements), decomposons lintervalle [0, 1] en p intervalles [(k 1)/p , k/p[ pour 1 k p
et notons N
k
() le nombre dindices i tels que U
i
() [(k 1)/p , k/p[,
Z
n
=
p

k=1
(N
k
n/p)
2
n/p
.
Lorsque la suite (U
i
, i 1)) est independante de loi |([0, 1]), la suite (Z
n
, n 1) converge en
loi vers un
2
`a p 1 degres de liberte. Par contre, quand la suite (U
i
, i 1) est independante
de meme loi dierente de |([0, 1]), ou tout au moins telle que la probabilite P(U
1
[(k
1)/p , k/p[) ,=
1
p
pour au moins une valeur de k 1, , p, alors Z
n
converge presque
s urement vers +. Pratiquement, on choisit donc une valeur a telle que P(
2
(p1) a) 0.95
et si (u
i
, 1 i n) designe les valeurs observees de la simulation des U
i
et n
k
designe le
nombre des valeurs u
i
pour 1 i n qui tombent dans lintervalle [(k 1)/p , k/p[, lorsque

p
k=1
(n
k
n/p)
2
n/p
> a on rejette lhypoth`ese : (U
1
, , U
n
) est un n-echantillon de loi |([0, 1]).
La fonction de repartition dun
2
`a degres de liberte est tabulee pour des valeurs de
inferieures ou egales `a 30. Si 30 < < 100 et si Z est un
2
`a degres de liberte, la loi
de

2Z

2 1 est proche de celle dune gaussienne centree reduite ^(0, 1) et nalement,


si 100 dapr`es le theor`eme de la limite centrale, la loi de
Z

2
est proche de celle dune
gaussienne centree reduite ^(0, 1). Lorsque > 30, les quartiles sont approximes `a partir des
valeurs tabulees de la fonction de repartition dune gaussienne centree reduite ^(0, 1). Une
variante du test precedent, basee sur la convergence vers le
2
, permet egalement de tester si
la loi dun n-upplet de vecteurs
_
(U
k
1
, , U
k
r
) R
r
: 1 k n
_
est de loi |([0, 1]
r
).
Le test de Kolmogorov-Smirnov compare la fonction de repartition empirique
F
n
(t) =
1
n
n

i=1
1
U
i
t
, t [0, 1]
`a la fonction de repartition de la loi uniforme F(t) = P(U t) = t , t [0, 1]. La suite
S
n
=

n sup[F
n
(t) t[ : t [0, 1] converge en loi vers S dont la fonction de repartition
4
P(S t) = 1

k=1
(1)
k1
e
2 k
2
t
2
pour t ]0, 1] est tabulee si (U
i
, i 1) est un echantillon
de loi |([0, 1]) (en fait ce test dadequation est valable dans une situation beaucoup plus generale
et la fonction de repartition de

nS
n
est correctement approchee par celle de S si n 100).
De nouveau on choisit une valeur de a telle que P(S a) 1 (par exemple a = 1, 36
si = 0.05) et si sup
t
[
1
n

n
i=1
1
u
i
t
t[ >
a

n
on rejette lhypoth`ese : (U
1
, , U
n
) est un
n-echantillon de loi |([0, 1]).
La reponse `a la premi`ere question a donne lieu `a une tr`es abondante litterature. Les
procedures qui permettent dobtenir de telles suites de nombres sont totalement deterministes
et plus ou moins sophistiquees. Voici la liste des qualites que devrait avoir un algorithme de
generation de nombres pseudo-aleatoires denies par Brent [2].
- Uniformite La suite doit passer avec succ`es les tests duniformite et dindependance
precedents. Si de nombreux generateurs utilises dans le passe avaient de tr`es mauvaises pro-
prietes statistiques, on dispose actuellement de generateurs qui passent convenablement ces
tests.
- Independance La suite (u
n
, n 1) et aussi des sous-suites du type (u
nd
, n 1) doivent
etre independantes au moins pour de petites valeurs de d, telles que d 6.
- Periode La plupart des generateurs utilises sont des suites periodiques et les programmes
font facilement appel `a de 10
n
valeurs de la suite avec n de lordre de 30 ou plus. Ceci impose
davoir un generateur ayant une tr`es longue periode.
- Reproductibilite Pour tester un programme, il faut pouvoir reproduire exactement la suite
de nombres (x
n
, n 1) generee.
- Portabilite Il faut pouvoir faire executer le programme sur des machines dierentes et que
les suites fournies par des ordinateurs avec une architecture de 32 bits ou de 64 bits soient
identiques si elles ont la meme valeur initiale.
- Sous-suites disjointes Si une simulation est eectuee sur une machine multiprocesseurs
ou si le calcul est distribue `a travers un reseau, il faut que les sous-suites utilisees par chaque
sous-tache du programme soient independantes.
- Ecacite Lappel au generateur etant fait un tr`es grand nombre de fois, il faut que son pro-
gramme soit le plus simple possible et necessite peu doperations qui doivent etre peu co uteuses
en temps de calcul.
Il est impossible de presenter dans ces notes tous les generateurs de nombres pseudo-
aleatoires utilises. Les sections suivantes en presentent quelques uns fournis par les syst`emes ou
portatifs. La plupart des generateurs sont de type congruenciel , cest `a dire quils fournissent
une suite dentiers (x
n
, n 0) donnes par la relation de recurrence :
x
n+1
= a x
n
+ c (modm) ;
la valeur initiale x
0
est appelee racine, a est le multiplicateur, c est laccroissement et m le
module de la suite. La suite (x
n
) prend ses valeurs entre 0 et m1 et la suite (x
n
/m, n 1)
prend ses valeurs dans lintervalle [0, 1[. La periode maximale dun tel generateur est m et le
theor`eme suivant donne des conditions necessaires et susantes pour que la periode soit m.
Theor`eme 1.1 La suite x
n+1
= a x
n
+c (mod m) a une periode egale `a m si et seulement si :
1) les entiers c et m sont premiers entre eux.
2) Pour tout facteur premier p de m, a 1 est un multiple de p et si m est un multiple de
4, alors a 1 est un multiple de 4.
5
Il peut etre techniquement interessant dinterdire les valeurs 0 et 1, cest `a dire de simuler
des realisations de la loi uniforme sur lintervalle ]0, 1[ ; il sut alors de rejeter les valeurs trop
proches de 0 ou de 1.
Les generateurs les plus utilises correspondent `a un accroissement c = 0 et sont donc du
type
x
n+1
= a x
n
(modm) .
Le theor`eme suivant donne des conditions necessaires et susantes de maximisation de la
periode si le module est un nombre premier.
Theor`eme 1.2 La periode de la suite x
n+1
= a x
n
(modm) avec un entier m premier est un
diviseur de m1. Elle est egale `a m1 si et seulement si a est une racine primitive de m1,
cest `a dire si a ,= 0 et pour tout facteur premier p de m1, a
m1
p
,= 1 (modm). Si a est une
racine primitive de m1 et si les entiers k et m1 sont premiers entre eux, a
k
(modm) est
egalement une racine primitive de m1.
Lexemple Minimal Standard dune telle suite correspond `a m = 2
31
1 qui est un
nombre de Mersenne premier et a = 7
5
= 16 807 qui est une racine primitive de m 1 ; sa
periode est donc 2
31
2 = 2 147 483 646 de lordre de 2, 1 10
9
.
1.2 Quelques generateurs fournis par les syst`emes
Tout dabord une mise en garde ; la plupart dentre eux ont de tr`es mauvaises proprietes
statistiques. Si certains appartiennent au passe, dautres sevissent toujours et avant de les
utiliser il faut les tester et regarder leur source.
- Le generateur RANDU de la Scientic Subroutine Package (SSP) dIBM donne un exemple
historique de generateur de petite periode 2
29
ayant de tr`es mauvaises proprietes statis-
tiques : les triplets de tirages successifs nappartiennent qu`a 15 plans. La suite fournie par ce
generateur est x
n+1
= 65 539 x
n
(mod 2
31
). Pour que sa periode soit maximale (egale `a 2
29
il
faut que la racine soit un nombre premier.
- La fonction Random en Pascal iso, utilise par le logiciel sas fait appel au generateur
x
n+1
= 16 807 x
n
(mod2
31
). Le fait que m soit une puissance de 2 et que a = 16 807 = 5
7
soit
tel que a (mod 8) = 7 / 3, 5 entrane que sa periode est strictement inferieure `a 2
29
, donc
strictement inferieure `a celle du precedent. Il a lui aussi de mauvaises proprietes statistiques
que sas a tente de corriger par une fonction de battage .
- Le generateur rand ecrit par les auteurs du syst`eme unix est x
n+1
= 1 103 515 245 x
n
+
12 345 (mod 2
32
) et a egalement un mauvais comportement statistique (signale par le construc-
teur).
- Comme tous les langages de programmation, ANSI C contient un generateur de nombres
pseudo-aleatoires drand48 qui est le generateur Minimal Standard
x
n+1
= 16 807 x
n
(mod 2
31
1) .
6
Les routines suivantes initialisent puis gen`erent une telle suite de nombres ;
#include <stdlib.h>
#include <stdio.h>
#include <math.h>
double drand48() ;
intmain()
drand48();
printf(%lfndrand48());
return(0);

Dans ce programme, drand48() produira des nombres reels compris entre 0 et 1. Par defaut,
lamorce initiale seed vaut 1 et, sans instruction complementaire, la suite de nombres obtenue
par des appels successifs `a drand48() sera toujours la meme et pourra commencer par 0 suivant
les compilateurs ; le premier appel se debarrasse de 0 et lappel suivant est ache `a lecran
apr`es la compilation. Lamorce peut etre changee par linstruction srand48(seed) avant les
appels `a drand(48) en precisant la valeur de lentier seed. Nous verrons dans la section suivante
comment eventuellement implementer ce generateur qui, sil nest pas totalement satisfaisant,
est moins mauvais que les precedents.
Pratiquement, si cette methode de congruence est rapide et necessite peu de calculs, ce
generateur nest pas tr`es bon pour plusieurs raisons qui varient dune machine `a lautre :
la periode m nest pas assez grande et les termes successifs sont trop fortement correles. Meme
dans le cas o` u la periode est de lordre de 2
32
, le nombre de plans contenant des triplets peut
netre que de lordre de 1600.
1.3 Generateurs portables
Diverses procedures permettant dameliorer la simulation dune loi uniforme |([0, 1]). Lune
dentre elles consiste `a programmer des generateurs portables qui ont passe les tests sta-
tistiques et ont une grande periode. Nous presenterons trois de ces generateurs, appeles ran0,
ran1 et ran2 et tires de Numerical Recipies in C [20]. Les codes C correspondants peuvent etre
tele-charges `a ladresse Web suivante : http ://sources.redhat.com/gsl/ Signalons enn le site
http ://random.mat.sbg.ac.at/links/ enti`erement consacre `a la simulation.
Le generateur ran0 est le Minimal Standard est utilise par la commande C drand48() ; il
remonte `a Lewis, Goldman et Miller (1969) puis a ete repris par Park et Miller (1988). Il utilise
la suite recurrente x
j+1
= a x
j
(modm) avec a = 7
5
= 16 807 et m = 2
31
1 = 2 147 483 647.
Il faut bien s ur ne pas initialiser avec x
0
= 0, et lalgorithme suivant de Schrague permet de
calculer les termes successifs de la suite sans depasser les capacites de la machine. On fait la
division euclidienne de m par a, soit
m = a q + r , avec 0 r = m (mod a) < a .
On obtient q = 127 773 et r = 2 386 < q. On verie alors aisement que pour tout entier
x 1, , m1, a
_
x(mod q)
_
est un entier compris entre 0 et m1 et que r
_
x
q
_
est
un entier compris entre 0 et m1 ; de plus :
(a x) (mod m) =
_
_
_
a
_
x(mod q)
_
r
_
x
q
_
si cest positif ou nul,
a
_
x(mod q)
_
r
_
x
q
_
+ m sinon.
.
7
Enn, comme m est premier et a < m, x
j
,= 0 entrane x
j+1
,= 0. On calcule 1/m en debut de
programme et la suite x
i
(1/m) prend alors des valeurs strictement comprises entre 0 et 1, ce
qui sera utile pour la suite. En initialisant ni avec 0 ni avec la valeur 123 459 876 on obtient un
generateur assez satisfaisant , dont la periode est 2
31
2 2.1 10
9
dapr`es le Theor`eme
1.2, mais qui presente entre autres le defaut suivant : si une des valeurs est inferieure `a 10
6
, la
valeur suivante est inferieure `a 1, 68 10
2
. Cet algorithme presente donc un defaut de correlation
entre les tirages successifs, meme assez loin de la periode de la suite.
Le defaut de correlation precedent pour des tirages consecutifs peut etre corrige en choi-
sissant au hasard , cest `a dire `a laide dautres appels au generateur pour choisir d, le
nombre x
k
avec k = j +d situe d places apr`es j dans la suite, puis en retournant comme tirage
uniforme apr`es x
j
la valeur x
k
. Dans le generateur ran1 lalgorithme de Park et Miller est
melange avec une shuing-box de 32 elements de Bayes-Durham; on suppose de nouveau
que m = 2 147 483 647 = 2
31
1, a = 16 807, q = 127 773 et r = 2 836. On note N = 32 le
nombre de termes stockes pour letape de selection aleatoire et D = 1 +
_
m1
N

; alors pour tout


n 0, , m1,
_
n
D

0, , N 1. Lalgorithme comporte trois etapes :

Etape dinitialisation du tirage


On interdit 0 comme germe x
0
puis on produit successivement 8 valeurs de la suite x
j+1
=
a x
j
(mod m) par une boucle critique qui est celle de ran0 :
h
_
x
q
_
t a (x h q) h r
Si (t < 0)
faire x t + m
Sinon x t
Fin
Ces valeurs seront jetees et on produit ensuite par la meme boucle critique N valeurs
de la suite x
j+1
= a x
j
(mod m) qui sont stockees dans le tableau S[j] de j = 31 `a j = 0. On
stocke aussi dans n la derni`ere valeur prise par la suite recurrente (et dej` a stockee dans S[0]).

Etape de production des tirages uniformes


On calcule le terme suivant de la suite x
j+1
= a x
j
(mod m) par la boucle critique
precedente et on le stocke dans x, puis on calcule j =
_
n
D

0, , N 1, on prend le terme
S[j] qui est stocke dans n alors que x est stocke dans S[j].
On calcule enn u =
n
m+1
qui est la valeur retournee `a la n de cette etape. On peut
eventuellement remplacer les valeurs trop pr`es de 0 ou de 1 par (u ) (1 ) `a laide dun
seuil de lordre de 10
7
pour simuler une loi uniforme sur ]0, 1[.
Si on peut se contenter dune petite periode, ce generateur est satisfaisant car il donne de
bons resultats quand on lui applique les test statistiques dindependance et dequidistribution
des tirages consecutifs, sauf quand on sapproche trop de la periode de la suite en faisant plus
de 10
8
tirages. On peut alors utiliser dautres generateurs qui ont une plus longue periode et
sont satisfaisants dun point de vue statistique.
Le generateur ran2 de LEcuyer utilise deux generateurs congruenciels : m
1
= 2 147 483 563,
a
1
= 40 014, q
1
= 53 668 et r
1
= 12 211 pour le premier, m
2
= 2 147 483 399, a
2
= 40 692,
q
2
= 52 774 et r
2
= 3 791 pour le second. On verie que la racine n
0
nest pas nulle ; sinon
on la remplace par 1 et on stocke la racine dans y. On prend de nouveau un tableau S[j],
8
j = 0, , N 1 avec N = 32 et on pose D = 1 +
_
m
1
1
N

. On proc`ede comme dans ran1 pour


linitialisation de S avec m = m
1
et on stocke le dernier entier obtenu dans x et n
Dans letape de tirage, en utilisant respectivement q
1
, r
1
et q
2
, r
2
, on calcule a
1
x (mod m
1
)
et a
2
y (mod m
2
) qui sont stockees dans x et y respectivement. Si n est le tirage uniforme sur
0, , m
1
1 precedent, on calcule alors j =
_
n
D

et on pose n = S[j] y si ce nombre est


strictement positif et n = S[j] y + m
1
sinon, puis on stocke x dans S[j].
Il reste enn `a diviser n par m
1
et eventuellement interdire les valeurs trop proches de
0 ou de 1. Comme le PGCD de m
1
et m
2
et 2, la periode combinee des deux suites (sans
tenir compte de la selection aleatoire) est de lordre de 2
60
2, 3 10
18
et ran2 a de bonnes
proprietes statistiques.
La gure suivante montre la simulation de points uniformement repartis dans le carre [0, 1]
2
`a laide de la simulation de 10 000 tirages de deux variables aleatoires independantes de loi
|([0, 1]) obtenues par le generateur de Scilab qui est une version de ran2 de P. LEcuyer et
S Cote (1991) ; sa periode est 2, 3 10
18
.
Fig. 1 Simulation de 10 000 points de loi uniforme sur le carre unite
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Il est impossible de presenter tous les generateurs de nombres pseudo-aleatoires corrects
existants. On pourra se reporter `a [15] pour une grande variete de tels generateurs. Certains
son implementes dans la biblioth`eque de programmes C de GNU gsl (les codes sont inclus si on
ne veut pas utiliser les librairies correspondantes) et parmi les bons generateurs , ils signalent
que les plus rapides sont les suivants : gsl rng 19937 de Makato Matsumoto et Takuji Nishmura
(1998), aussi appele Mersenne Twister, a une periode de 10
6000
, gsl rng taus2 de P. LEcuyer
(1999) est tr`es bien equidistribue avec une periode de 10
26
. Le generateur par defaut de la
biblioth`eque ranlib disponible sur internet ladresse suivante : http ://www.netlib.org/cgi-
bin/search.pl est de P. LEcuyer et S Cote (1991) ; sa periode est de 2, 3 10
18
. Nous ne sau-
rions trop insister sur le fait quavant dutiliser un quelconque de ces programmes
disponibles sur internet, il faut imperativement le tester soi meme.
9
Une derni`ere remarque : par defaut quel que soit le generateur, la suite des nombres retournes
sera toujours la meme puisquelle aura toujours la meme racine ; ce peut etre utile dans une
phase de mise au point dun programme, mais nuisible dans dautres conditions. Il est possible
de rentrer `a la main une racine que lon choisit et de terminer le programme en faisant stocker
letat du syst`eme qui reinitialisera la racine dans lexecution suivante. Une telle procedure est
disponible par exemple dans des routines de gsl, de netlib ou de Scilab. Une autre procedure
consiste `a utiliser un generateur minimal standard initialise avec lhorloge an de generer une
racine dierente `a chaque simulation, sans risque datteindre la periode.
1.4 Suites `a discrepance faible
Nous avons utilise les generateurs de nombres pseudo aleatoires pour calculer entre autres des
integrales par la methode de Monte Carlo. Une autre fa con de proceder consiste `a renoncer au
caract`ere aleatoire des tirages et de tirer des points de fa con plus ordonnee . On parle alors
de methode de quasi-Monte Carlo qui utilise des suites `a discrepance faible. Dans un programme,
lappel `a la fonction Random qui donne le terme suivant dune suite recurrente prenant ses valeurs
entre 0 et 1 doit etre remplace par lappel au terme suivant de la suite `a discrepance faible.
Dans ce paragraphe, on pourra se reporter `a [1] ou [19] pour les demonstrations omises dans
les notes.
La denition suivante formalise la notion de suite equirepartie. Pour tout a = (a
1
, , a
d
)
[0, 1]
d
, et b = (b
1
, , b
d
) [0, 1]
d
on note a b si a
i
b
i
pour tout i = 1, , d et
[a, b] = x [0, 1]
d
: a x b ; on note enn 0 (resp. 1) le vecteur de R
d
dont toutes les
composantes sont nulles (resp. egales `a 1).
Denition 1.3 Une suite (x
n
)
n1
est equirepartie dans [0, 1]
d
si pour tout a = (a
1
, , a
d
)
[0, 1]
d
,
lim
n
1
n
n

k=1
1
x
k
[0,a]
=
d

i=1
a
i
= (a) .
La discrepance de la suite (x
n
, n 1) est
D

n
(x) = sup
a[0,1]
d

1
n
n

k=1
1
x
k
[0,a]
(a)

.
Pour tout entier n 1, F
n
(a) =
1
n

n
k=1
1
x
k
[0,a]
est la fonction de repartition de la probabilite
empirique
n
=
1
n

k=1

xn
calculee au point a. An de montrer que la discrepance dune
suite equirepartie converge vers 0, nous etablissons le lemme suivant qui donne des conditions
susantes pour quune suite F
n
de fonctions de repartition converge uniformement vers .
Lemme 1.4 Soit (
n
, n 1) une suite de probabilites sur la tribu des boreliens de [0, 1]
d
et
(F
n
, n 1) la suite des fonctions de repartition des
n
telle que F
n
dans L
1
([0, 1]
d
, ) o` u
designe la mesure de Lebesgue. Alors la suite F
n
converge uniformement vers .
Demonstration : Soit une probabilite sur la tribu des boreliens de [0, 1]
d
et F sa fonction
de repartition. Soit a ]0,
1
2
[ et A = [a, 1 a]
d
.
Sil existe b > 0 et x
0
A tels que F(x
0
) (x
0
) b ; alors pour x x
0
, F(x) (x
0
) b
et _
[F(x) (x)[ dx
_
[0,x
0
]
_
(x)
_
(x
0
) b
_
_
+
dx.
10
De meme, sil existe x
0
A tel que F(x
0
) (x
0
) + b avec b > 0, alors pour x
0
x 1,
F(x) (x
0
) + b et :
_
[F(x) (x)[ dx
_
[x
0
,1]
_
(x
0
) + b (x)
_
+
dx.
On deduit que si sup[F(x) (x)[ : x A b > 0, il existe une constante C(a, b)
b
2
_
a b
d
2
d(d+1)

> 0 telle que


_
[F(x) (x)[ dx C(a, b), cest `a dire que :
_
[F(x) (x)[ dx < C(a, b) entrane que sup[F(x) (x)[ : x A b .
On suppose que sup[F(x) (x)[ : x A . Si x [0, 1]
d
est tel quil existe i =
1, , d avec x
i
< a, alors
[F(x) (x)[ F(x) + (x) (A
c
) + (A
c
) .
Sinon, soit y = (x
i
(1 a), 1 i d) A; alors :
[F(x) (x)[ [F(y) (y)[ +[(x) (y)[ +[F(x) F(y)[ + (A
c
) + (A
c
) .
Clairement, (A) = (1 2a)
d
et en decomposant [0, 1 a]
d
A en d paves (non disjoints) dont
les points extremaux qui ne sont pas situes sur les faces x
i
= 0 appartiennent `a A, on deduit :
(A) = ([0, 1 a]
d
) ([0, 1 a]
d
A)
([0, 1 a]
d
) d
_
a (1 a)
d1
+
_
,
ce qui entrane que
sup
x[0,1]
d
[F(x) (x)[ (2 +d) +
_
1 (1 2a)
d
_
+
_
1 (1 a)
d
_
+ d a (1 a)
d1
.
Pour tout > 0, il sut alors de choisir a > 0 tel que 1(12a)
d
+
_
1(1a)
d

+d a (1a)
d1

, puis > 0 tel que (2 + d) . Puisque lim


n
_
[F
n
(x) (x)[ dx = 0, pour n assez grand
sup[F
n
(x) (x)[ : x A , ce qui entrane sup[F(x) (x)[ : x A 2 . 2
Soit (U
n
, n 1) une suite de variables aleatoires independantes de meme loi uniforme sur
[0, 1]
d
et (F
n
, n 1) la suite des fonctions de repartition empiriques associee denies par
F
n
(t) =
1
n
n

i=1
1
[0,t]
(U
i
) , t [0, 1]
d
. (1.1)
Le theor`eme de la limite centrale montre que pour tout t [0, 1]
d
,

n
_
F
n
(t) (t)

converge
en loi vers une gaussienne N(0, (t) (t)
2
). De plus le theor`eme de la limite centrale vectoriel
montre que pour tout (t
1
, , t
d
) [0, 1]
d
, le vecteur
_

n
_
F
n
(t
i
)(t
i
)

, 1 i d
_
converge
en loi vers un vecteur gaussien centre dont la matrice de covariance est celle de (1
[0,t
i
]
(U
1
) 1
i d). Si d = 1, la covariance du processus gaussien centre Z limite est E(Z
s
Z
t
) = s t s t
pour tout s, t [0, 1], cest `a dire la covariance du pont Brownien W
t
t W
1
, o` u (W
t
, t 0)
designe un Brownien standard. Le theor`eme suivant montre que la suite (F
n
) des fonctions
de repartition empiriques de la loi uniforme converge vers ; cette version du theor`eme de
Kolmogorov-Smirnov est due `a Doob-Donsker.
11
Theor`eme 1.5 Soit (U
n
, n 1) une suite de variables aleatoires independantes de meme loi
uniforme sur [0, 1]
d
et (F
n
, n 1) la suite des fonctions de repartition empiriques associee.
On note
D

(n) = sup[F
n
(t) (t)[ : t [0, 1]
d
.
(i) Si d = 1 et si (W
t
, t [0, 1]) designe un mouvement Brownien standard reel,

nD

(n) sup[W
t
t W
1
[ : t [0, 1] en loi .
De plus, pour tout > 0,
P
_
sup
t[0,1]
[W
t
t W
1
[
_
=
+

j=
(1)
j
e
2 j
2

2
.
(ii) Si d > 1, il existe un processus Gaussien centre reel (Z
t
, t [0, 1]
d
) `a trajectoires
continues de covariance
E
_
Z
s
Z
t
) = (s t) (s) (t) , s, t [0, 1]
d
,
et la suite

nD

(n) converge en loi vers sup[Z


t
[ : t [0, 1]
d
.
Le theor`eme suivant donne la vitesse de convergence maximale de D

(n) vers 0 ; cette


loi du logarithme itere est due `a Chung et Kiefer.
Theor`eme 1.6 Soit (U
n
, n 1) une suite de variables aleatoires independantes de meme loi
uniforme sur [0, 1]
d
; alors presque s urement
limsup
n

2 n
ln(lnn)
D

(n) = 1 .
Linteret de la discrepance dune suite pour des probl`emes dapproximation dintegrale reside
dans le resultat suivant pour les fonctions `a variation nie (qui sont integrables au sens de
Riemann). Pour tout vecteur x = (x
1
, , x
d
) [0, 1]
d
, notons x = (1 x
1
, , 1 x
d
) le
symetrique de x par rapport au centre de lhypercube [0, 1]
d
et pour toute fonction f : [0, 1]
d

R, notons

f(x) = f( x).
Denition 1.7 On dit quune fonction f : [0, 1]
d
R est `a variation nie sil existe une
mesure `a variation nie sur lensemble des boreliens de [0, 1]
d
, dont le support est contenu
dans [0, 1]
d
0, telle que pour tout x [0, 1]
d
:

f(x) =

f(0) +([0, x]) .
Cette mesure est unique et la variation de f, notee V (f) est egale `a la variation totale ||
de .
Le theor`eme suivant de Koksma et Hlawka relie lapproximation de lintegrale de f par la
moyenne de f le long dune suite (X
n
) `a la discrepance de la suite.
Theor`eme 1.8 Soit f : [0, 1]
d
R une fonction `a variation nie et x = (x
n
, n 1) une suite
equirepartie sur [0, 1]
d
. Alors pour tout entier n 1 :

_
[0,1]
d
f(x) dx
1
n
n

k=1
f(x
k
)

V (f) D

n
(x) .
12
La demonstration de ce theor`eme repose sur le lemme suivant.
Lemme 1.9 Soit une mesure `a variation nie sur [0, 1]
d
, limage de par la symetrie x
x par rapport au centre de lhypercube [0, 1]
d
et pour tout x [0, 1]
d
, notons F(x) = ([0, x]).
Alors : _
[0,1]
d
(x) d (x) =
_
[0,1]
d
F(x) dx.
Demonstration : Puisque (x) est la fonction de repartition de la mesure de Lebesgue sur
[0, 1]
d
calculee au point x [0, 1]
d
et que

= , le theor`eme de Fubini entrane que :
_
[0,1]
d
(x) d (x) =
_
[0,1]
d
_
[0,1]
d
1
[0,x]
(y) dy d (x)
=
_
[0,1]
d
_
[0,1]
d
1
[0, x]
(y) dy d(x)
=
_
[0,1]
d
_
[0,1]
d
1
[0, y]
(x) d(x) dy
=
_
[0,1]
d
F( y) dy =
_
[0,1]
d
F(y) dy . 2
Demonstration du Theor`eme 1.8 : Dapr`es la denition, F =

f

f(0) est la fonction
de repartition de la mesure ; on en deduit en appliquant le Lemme 1.9 :
_
[0,1]
d
f(x) dx
1
n
n

k=1
f(x
k
) =
_
[0,1]
d
f( x) dx
1
n
n

k=1

f( x
k
)
=
_
[0,1]
d
F(x) dx
1
n
n

k=1
F( x
k
)
=
_
[0,1]
d
_
(x)
1
n
n

k=1
1
x x
k

_
d (x)
=
_
[0,1]
d
_
(x)
1
n
n

k=1
1
x
k
x
_
d (x) .
Ceci entrane immediatement :

_
[0,1]
d
f(x) dx
1
n
n

k=1
f(x
k
)

n
(x) | | = D

n
(x) || . 2
Il est donc important de disposer de suites de discrepance aussi petite que possible.
Denition 1.10 On dit quune suite (x
n
, n 1) `a valeurs dans [0, 1]
d
est `a discrepance faible
si sa discrepance D

n
(x) est asymptotiquement meilleure que la discrepance D

(n) dune suite


aleatoire (U
n
, n 1) de loi uniforme sur [0, 1]
d
.
On peut prouver que la discrepance D

n
(x) dune suite quelconque verie
limsup
n
nD

n
(x)
ln(n)
d
2
C
d
,
13
o` u C
d
> 0 est une constante ne dependant que de la dimension d. Les meilleures discrepances
connues sont asymptotiquement O
_
ln(n)
d
n
_
et cette discrepance est presque optimale. Nous
indiquons quelques exemples de suites `a discrepance faible. On en trouvera dautres dans [19].
Suite de Van Der Corput Soit p un entier strictement superieur `a 1. Pour tout nombre
entier positif n on note a
0
, , a
r
les coecients de la decomposition p-adique de x, cest `a
dire les nombres entiers tels que :
n = a
0
+ a
1
p + + a
r
p
r
, a
r
> 0 , 0 a
i
< p pour 0 i r .
La suite de Van Der Corput en base p est donnee par

p
(n) =
a
0
p
+
a
1
p
2
+ +
a
r
p
r+1
. (1.2)
Ainsi, lorsque la decomposition p-adique de n est n = a
r
a
r1
a
1
a
0
, celle de
p
(n) est

p
(n) = 0, a
0
a
1
a
r
. La discrepance de la suite de Van Der Corput est
D

n
() = O
_
ln(n)
n
_
.
Suites de Halton Cest la version d-dimensionnelle de la suite de Van Der Corput. Soit
p
1
, , p
d
des entiers strictement superieurs `a 1 et premiers entre eux (par exemple les d
premiers nombres premiers). La suite de Halton est
x
d
n
= (
p
1
(n), ,
p
d
(n)) .
La discrepance dune suite de Halton est
D

n
(x
d
)
1
n
d

i=1
p
i
ln(p
i
n)
ln(p
i
)
= O
_
(ln(n))
d
n
_
.
Suite de Faure Soit p d un entier premier et
p
lensemble des nombres x pour lesquels
il existe un entier K 0 tel que :
x =
K

i=0
a
i
p
i+1
et soit T
p
:
p

p
lapplication denie par
T
p
_
K

i=0
a
i
p
i+1
_
=
K

i=0
b
i
p
i+1
o` u b
i
=
K

j=i
j!
i! (j i)!
a
j
mod(p) .
Si
p
est denie par (1.2), la suite de Faure de dimension d est alors :
x
n
=
_

p
(n 1), T
p
(
p
(n 1)), , T
d1
p
(
p
(n 1))
_
.
La discrepance de cette suite est
D

n
(x) = O
_
(ln(n))
d
n
_
.
14
Translations irrationnelles du tore Soit = (
1
, ,
d
) R
d
un vecteur de nombres
reels tel que la famille 1,
1
, ,
d
soit libre sur Q (par exemple = (

p
1
,

p
d
) o` u
p
1
, p
d
designent les d premiers nombres premiers). Si [x] designe la partie enti`ere de x, la
suite (x

n
, n 1) est denie par
x

n
= (n
i
[n
i
] , 1 i d) .
Pour tout > 0, la discrepance de la suite (x

.
) est
D

n
(x

) = O
_
1
n
1
_
.
Les sources C de ces diverses suites `a discrepance faible peuvent etre tele-chargees sur le
site : http ://cermics.enpc.fr/premia.
15
2 Simulation de variables aleatoires.
2.1 Methode dinversion
On suppose que lon sait simuler la realisation dun echantillon de loi uniforme sur [0, 1],
cest `a dire de variables aleatoires independantes (X
n
, n 1) de meme loi |([0, 1]), par exemple
en appelant la fonction Random. On cherche `a simuler des realisations de variables aleatoires
reelles (X
n
, n 1) independantes de meme loi de fonction de repartition F : R [0, 1] denie
par F(t) = P(X
1
t) pour tout t R.
Proposition 2.1 Notons F
1
:]0, 1[R la pseudo-inverse de F denie par
F
1
(u) = inft : F(t) u pour tout u ]0, 1[ .
Alors si U suit une loi |(]0, 1[), F
1
(U) a pour fonction de repartition F.
Demonstration. Montrons tout dabord que pour tout u ]0, 1[ et t R, F
1
(u) t si et
seulement si u F(t). En eet, si u F(t), par denition F
1
(u) t. Reciproquement, soit
y > t F
1
(u) ; alors, puisque F est croissante, F(y) u et puisque F est continue `a droite,
F(t) u.
On en deduit que si U suit une loi |(]0, 1[), pour tout t R,
P(F
1
(U) t) = P(U F(t)) = F(t) .
2
Si la fonction de repartition F de X est explicite, on en deduit que (F
1
(U
n
), n 1) est un
echantillon de la loi de X. Ceci fournit par exemple un algorithme de simulation lorsque :
Cas 1. X ne prend quun nombre ni ou denombrable de valeurs On suppose que
les valeurs prises par X sont (a
i
, 0 i N) ou bien (a
i
, i N) ordonnees de fa con croissante,
et que P(X = a
i
) = p
i
pour tout i. On calcule alors F
i
= p
0
+ +p
i
pour tout i et pour tout
u ]0, 1[ on note :
F
1
(u) = a
0
1
uF
0

i1
a
i
1
F
i1
<uF
i

.
Exemple dune loi de Bernoulli de param`etre p : P(X = 0) = q = 1p et P(X = 1) = p .
On en deduit la simulation de n variables aleatoires independantes de meme loi de Bernoulli
de param`etre p ]0, 1[ que lon stocke dans le tableau X (en utilisant le fait que si U suit une
loi uniforme |([0, 1]), 1 U suit aussi une loi |([0, 1])) :
Pour k = 1, ..., n
Si (Random < p)
X[k] 1
Sinon X[k] 0
Fin
X ne prend quun nombre ni de valeurs : Si X prend N + 1 valeurs, en debut de
programme on calcule les valeurs de F
i
que lon stocke dans un tableau F[i], i = 0, , N et on
stocke egalement les valeurs a
i
dans un tableau a[i]. La boucle critique est alors la suivante :
16
i 0
U Random
Tantque (U > F[i])
i i + 1
Fin
X[k] a[i]
X prend une famille denombrable de valeurs : Si la variable X prend une famille
denombrable de valeurs, on stocke en debut de programme dans un tableau F[i], i = 0, , N
les premi`eres valeurs de F
i
, en sarretant au premier entier N tel que F
N
depasse une valeur
xee, par exemple 0.999. Lorsque le tirage uniforme est superieur `a la valeur choisie (par exemple
0.999), on poursuit le calcul de la fonction de repartition.
Exemple dune loi de Poisson T() de param`etre > 0
P(X = 0) = e

et pour n 0, P(X = n + 1) = e


n+1
(n + 1)!
=

n + 1
P(X = n) .
La boucle principale de lalgorithme de simulation est alors la suivante (pour une loi de Poisson
T()) ; elle fournit la valeur X :
PN F[N] F[N 1]
U Random
Si (U F[N])
Alors
X 0
Tantque (U > F[X]) faire
X X + 1
Fin
Sinon
X N , P PN, F F[N]
Tantque (U > F) faire
X X + 1, P P /X, F F + P
Fin
Fin
Si = 1, F[4] = 0.9963 et F[5] = 0.9994, donc N = 5 avec le test darret precedent et sauf
dans six cas sur 10 000, on utilise seulement 6 valeurs tabulees de la fonction de repartition.
On verra plus loin une autre methode pour simuler une loi de Poisson de param`etre reliee `a
la simulation de processus.
Cas 2. Loi c() exponentielle de param`etre > 0 La densite de X est f(x) =
e
x
1
x>0
et la fonction de repartition est donc F(t) = 0 si t 0 et F(t) = 1 e
t
< 1 si
t > 0. On en deduit pour u [0, 1[ :
F
1
(u) =
ln(1 u)

.
Puisque si U suit une loi |([0, 1]), 1 U suit egalement une loi |([0, 1]), on en deduit un
algorithme de simulation dune loi exponentielle de param`etre :
X = ln( Random )/
17
Lutilisation des lois exponentielles fournit une autre methode de simulation de la loi de Poisson
de param`etre .
Proposition 2.2 Soit (E
i
, i 1) une suite de variables aleatoires independantes de meme loi
exponentielle de param`etre > 0 ; alors pour tout entier n 1,
p
n
= P (E
1
+ + E
n
1 < E
1
+ + E
n+1
) = e


n
n!
.
Demonstration : Pour tout entier n 1,
p
n
=
_
x
1
+xn1<x
1
+x
n+1

n+1
exp
_
(x
1
+ + x
n+1
)
_
dx
1
dx
n+1
=
_
x
1
+xn1

n
exp
_
(x
1
+ + x
n
)
_
exp
_
[1 (x
1
+ x
n
)]
_
dx
1
dx
n
= e

n
_
x
1
+xn1
dx
1
dx
n
= e


n
n!
. 2
On en deduit quen simulant des variables aleatoires (U
i
, i 1) independantes et de meme
loi |([0, 1]), si n designe le premier entier tel que U
I
U
2
U
n+1
< e

, n suit une loi de Poisson


T(), do` u un second algorithme de simulation dune variable aleatoire X de loi T() :
a exp(), X 0
U Random
Tantque (U > a) faire
U U Random , X X + 1
Fin
2.2 Methode de rejet pour les lois uniformes
On suppose que lon sait simuler par lalgorithme / une variable aleatoire de loi uniforme
sur un ensemble borelien D R
d
(par exemple le carre ] 1, +1[
2
) et que lon veut simuler une
variable aleatoire de loi uniforme sur un sous-ensemble borelien C D. Lalgorithme
Faire X /
Tantque C faux
Fin
Retourner X
donne une simulation de la loi uniforme sur C. En eet, soit (X
n
, n 1) une suite de variables
aleatoires independantes de loi uniforme sur D et = infn 1 : X
n
C ; lalgorithme
precedent retourne la variable aleatoire X

telle que pour tout sous-ensemble borelien B C,


P(X

B) =

k=1
P(X
1
, C)
k1
P(X
k
B)
=

k=1
_
1
[C[
[D[
_
k1
[B[
[D[
=
[B[
[C[
.
Ainsi, pour simuler une loi uniforme sur le disque unite, on proc`ede comme suit :
18
Faire U 2 Random 1
V 2 Random 1
Tantque (U U + V V > 1)
Fin
X U et Y V
La gure suivante montre une methode de rejet uniforme sur le cercle unite `a partir dune
loi uniforme sur le carre [0, 1]
2
. Sur 10 000 points tires dans le carre, seuls 7 848 sont gardes
car ils sont dans le cercle unite ; on a par ailleurs /4 = 0, 785 398.
Fig. 2 Simulation de points suivant une loi uniforme dans le disque unite
1.5 1.2 0.9 0.6 0.3 0.0 0.3 0.6 0.9 1.2 1.5
1.060
0.848
0.636
0.424
0.212
0.000
0.212
0.424
0.636
0.848
1.060
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
2.3 Methode de rejet generale
On veut simuler une variable aleatoire X dont la loi a pour densite f et on suppose quil
existe une loi de densite g facilement simulable et une constante c > 0 telles que :
f(x) c g(x) , x R.
Puisque f et g sont des densites, on a c 1. Lidee de la methode repose sur le resultat suivant :
Proposition 2.3 Soit f une densite sur R
d
et D
f
= (x, u) R
d
R
+
: 0 u f(x). Soit
X : R
d
et U : R
+
des variables aleatoires. Le couple (X, U) suit une loi uniforme
sur D
f
si et seulement si X a pour densite f et la loi conditionnelle de U sachant X = x est
uniforme sur lintervalle [0 , f(x)].
19
Demonstration : Puisque [D
f
[ = 1, la densite de la loi uniforme sur D
f
est
g(x, u) = 1
D
f
(x, u) = f(x)
_
1
f(x)
1
[0,f(x)]
(u)
_
,
ce qui prouve lequivalence annoncee. 2
On en deduit que simuler une variable aleatoire de densite f revient `a tirer un point au
hasard sous le graphe de f et retourner labcisse de ce point. Ce resultat peut etre generalise `a
une densite par rapport `a une mesure quelconque et justie la methode de rejet suivante :
Proposition 2.4 Soit f et g des densites telles que f c g ; notons q(x) =
f(x)
c g(x)
[0, 1].
Soit Y
1
une variable aleatoire de densite g et U
1
une variable aleatoire de loi uniforme |([0, 1])
independante de Y
1
. Si U
1
q(Y
1
), on pose X = Y
1
. Sinon, on rejette X
1
et on simule une
suite de variables aleatoires independantes Y
i
de densite g et U
i
de loi uniforme |([0, 1]) jusqu`a
= infi 1 : U
i
q(Y
i
) . Alors la variable aleatoire X = Y

a pour densite f, suit une


loi geometrique de param`etre
1
c
et E() = c.
Demonstration : Puisque f et g sont des densites de probabilite, on a :
P
_
U
1
> q(Y
1
)
_
=
_
+

g(y) dy
_
1
f(y)
c g(y)
du = 1
1
c
.
On en deduit que pour tout entier k 1, P( = k) =
_
1
1
c
_
k1
1
c
, tandis que pour tout t R :
P(X t) =

k=1
_
1
1
c
_
k1
_
t

g(y) dy
_ f(y)
c g(y)
0
du
= c
_
t

g(y)
f(y)
cg(y)
dy =
_
t

f(y) dy .
Remarquons que cette methode sapplique au cas o` u les variables aleatoires X et Y ont une
densite par rapport `a une meme mesure (qui nest pas obligatoirement la mesure de Lebesgue,
mais peut etre la mesure de comptage). 2
Application aux lois Gamma La methode de rejet permet par exemple de simuler une
variable aleatoire de loi (, a), cest `a dire de densite f(x) =

a
(a)
exp( x) x
a1
1
]0,+[
(x) o` u
et a sont des param`etres strictement positifs et (a) =
_
+
0
e
x
x
a1
dx.
Si X et Y sont des variables aleatoires independantes de loi (, a) et (, b) respectivement,
la variable aleatoire X+Y suit une loi (, a+b). De plus, la loi (, 1) est une loi exponentielle
c(), ce qui entrane quune variable aleatoire de loi (, n) avec n entier superieur ou egal `a
1 peut etre aisement simulee comme somme de n variables aleatoires independantes de meme
loi exponentielle c().
Un changement de variables montre enn que si Y suit une loi (1, a), la variable aleatoire
X =
Y

suit une loi (, a).


Dapr`es ce qui prec`ede, pour simuler toutes les lois (, a), il sut donc de savoir simuler une
variable aleatoire de loi (1, a) pour un param`etre a ]0, 1[ , ce qui est possible par la methode
de rejet suivante de Ahrens et Dieter (1974) modiee par Best (1983) (et qui ne necessitera pas
de calculer (a)).
Soit a ]0, 1[ et f(x) =
1
(a)
e
x
x
a1
1
]0,+[
(x) et
g(x) =
a e
a + e
_
x
a1
1
]0,1[
(x) + e
x
1
[1,+[
(x)

;
20
alors f
a+e
a e (a)
g et pour tout x > 0 :
q(x) =
f(x)
a+e
a e (a)
g(x)
= e
x
1
]0,1[
(x) + x
a1
1
[1,+[
(x) .
Soit Y une variable aleatoire de densite g ; on peut aisement calculer la fonction de repartition
G de Y et son inverse est denie pour z ]0, 1[ par :
G
1
(z) =
_
a + e
e
z
_1
a
1
]0,
e
a+e
[
(z) ln
_
(1 z)
a + e
a e
_
1
[
e
a+e
,1[
(z) .
(1) On simule une variable aleatoire U de loi uniforme |([0, 1]), on calcule Y = G
1
(U), puis
on simule V de loi uniforme |([0, 1]) independante de U.
(2) Si V q(Y ), on pose X = Y et sinon on retourne en (1).
Cependant, si a est superieur ou egal `a 12, les biblioth`eques de programmes donnent souvent
une methode alternative de simuler une loi (1, a) qui repose sur une methode de rejet ; elle est
theoriquement valable pour tout a > 1 et fait en moyenne moins dappels au generateur pour
les grandes valeurs de a. Soit (U
n
, n 1) une suite de variables aleatoires independantes
de meme loi |([0, 1]). On note
Z
k
= tg( U
k
) et Y
k
=

2a 1 Z
k
+ a 1 ;
les variables aleatoires (Z
k
) sont independantes et un changement de variables montre quelles
suivent une loi de Cauchy de densite
1

1
1+z
2
. On note = infk 1 : Y
k
> 0 et on pose
Y = Y

. Pour toute fonction borelienne bornee ,


E
_
(Y )
_
=

k=1
P
_
Z
k

1 a

2a 1
_
k1
_
+
1a

2a1

_
2a 1 z + a 1
_
1

1
1 +z
2
dz ;
la densite de Y est donc
g(x) =
1
1
2

1

Arctg
_
1a

2a1
_
1

2a 1

1
1 +
(x+1a)
2
2a1
1
x>0
.
On suppose que a > 1 et on note h(x) = e
x
x
a1
_
1 +
(x+1a)
2
2a1
_
pour x > 0 ; le maximum de
h sur ]0, +[ est atteint en a 1, ce qui entrane que pour tout x > 0 :
1
(a)
e
x
x
a1
c g(x) avec c =
_
1
2

1

Arctg
_
1 a

2a 1
_
_

2a 1
(a 1)
a1
(a)
e
1a
.
Lorsque a est un entier superieur ou egal `a deux, pour tout x > 0 on a :
q(x) =
f(x)
c g(x)
=
_
1 +
_
x + 1 a

2a 1
_
2
_
_
x
a 1
_
a1
e
x+a1
.
On en deduit lalgorithme suivant de simulation dune loi (1, a) pour a entier (superieur ou
egal `a 12 pour faire appel en moyenne `a moins de 12 uniformes)
21
S

2a 1
Faire
_
Faire (
Z tg ( Random)
Y S Z + a 1
Tantque (Y 0))
Tantque
_
Random >(1+Z*Z) *exp
_
(a 1) log
_
Y/(a 1)
_
S Z
_
_
_
X Y
2.4 Lois gaussiennes reelles
La fonction de repartition dune loi gaussienne centree reduite ^(0, 1) nest pas explicite et
lutilisation de cette fonction tabulee risque daccumuler les erreurs. On dispose dune methode
de simulation exacte dite de Box-Muller. Si X
1
et X
2
sont des variables aleatoires gaus-
siennes ^(0, 1) centrees reduites independantes, alors les variables aleatoires X
2
i
, i = 1, 2 sont
independantes et un changement de variable montre quelles suivent une loi Gamma (
1
2
,
1
2
) de
densite f(x) =
1

2
e

1
2
x
x

1
2
1
]0,+[
(x). La variable aleatoire R
2
= X
2
1
+ X
2
2
suit donc une loi
exponentielle de param`etre
1
2
. Si on pose X
1
= R cos() et X
2
= R sin(), un changement de
variable montre que suit une loi uniforme sur lintervalle [0, 2] et est independante de R. On
en deduit la
Proposition 2.5 Soit U
1
et U
2
des variables aleatoires independantes de meme loi uniforme
|([0, 1]) ; alors les variables aleatoires
X
1
=
_
2 ln(U
1
) cos(2 U
2
) et X
2
=
_
2 ln(U
1
) sin(2 U
2
)
sont gaussiennes ^(0, 1) independantes.
(On pourra montrer cette proposition directement `a titre dexercice).
Cependant, an de gagner eventuellement du temps de calcul, on peut eviter de faire appel
`a des fonctions trigonometriques en utilisant une methode de rejet . La methode suivante est
lalgorithme polaire ; dautres methodes sont proposees en exercice. Soit U
1
et V
1
des variables
aleatoires independantes de loi uniforme sur lintervalle [1, +1]. On calcule
2
1
= U
2
1
+ V
2
1
; si

2
1
1, on rejette (U
1
, V
1
) et on tire deux nouvelles variables aleatoires independantes (U
2
, V
2
) de
loi uniforme sur lintervalle [1, +1]. On proc`ede ainsi jusqu`a = infi 1 :
2
i
= U
2
i
+V
2
i
<
1. Soit Z =
_
2 ln(
2

; alors les variables aleatoires


X = U

Z et Y = V

Z
sont gaussiennes ^(0, 1) independantes. En eet, lapplication
T : (u, v) ] 1, +1[
2
: 0 < u
2
+ v
2
< 1 R
2
(0, 0)
denie par T(u, v) =
_
u
_
2 ln(u
2
+v
2
)
u
2
+v
2
, v
_
2 ln(u
2
+v
2
)
u
2
+v
2
_
est un (
1
dieomorphisme dapplica-
tion reciproque T
1
(x, y) =
_
x

x
2
+y
2
exp
_

x
2
+y
2
4
_
,
y

x
2
+y
2
exp
_

x
2
+y
2
4
_
_
et le jacobien de
22
T
1
est egal `a
1
2
exp
_

x
2
+y
2
2
_
. Pour toute fonction borelienne : R
2
R
+
, on a donc
E
_
(X, Y )

k=1
_
1

4
_
k1
_
1
1
_
1
1
1
4
1
0<u
2
+v
2
<1

_
u
_
2 ln(u
2
+ v
2
)
u
2
+ v
2
, v
_
2 ln(u
2
+ v
2
)
u
2
+ v
2
_
du dv
=
4

1
4
_ _
R
2
(x, y)
1
2
exp
_

x
2
+ y
2
2
_
dxdy
=
_ _
R
2
(x, y)
1
2
exp
_

x
2
+ y
2
2
_
dxdy .
On en deduit la simulation de deux variables aleatoires gaussiennes ^(0, 1) independantes par
lalgorithme polaire :
Faire U 2 Random 1
V 2 Random 1
Tantque (U U + V V 1)
Fin
Z = sqrt(2 log(U U + V V )/(U U + V V ))
X Z U
Y Z V
Fig. 3 Histogrammes de densite de loi gaussienne ^(0, 1) par Box-Muller et par rejet
6 4 2 0 2 4 6
0
0.04
0.08
0.12
0.16
0.20
0.24
0.28
0.32
0.36
0.40
Histogramme des echantillons par Box Muller
Valeurs
Densite
6 4 2 0 2 4 6
0
0.04
0.08
0.12
0.16
0.20
0.24
0.28
0.32
0.36
0.40
Histogramme des echantillons par rejet
Valeurs
Densite
Les gures ci-dessus montrent les histogrammes de simulation de variables aleatoires Gaus-
siennes ^(0, 1) `a laide de 10 000 couples de tirages uniformes independants par la methode de
Box-Muller puis par la methode de rejet precedente, ainsi que le graphe de la densite theorique.
Les temps de calcul de la methode de Box-Muller et par la methode du rejet (en simulant
des couples de variables de loi Gaussienne ^(0, 1)) utilisant 2N tirages uniformes, donnes par
la fonction timer() de Scilab sont :
23
2N 20 000 40 000 60 000 80 000
Box-Muller 0.38 0.76 1.15 1.53
Polaire 0.55 1.11 1.66 2.23
On voit que la methode de Box-Muller est un peu plus rapide en depit du calcul des fonctions
trigonometriques. Si lon denit une procedure de simulation dune seule variable aleatoire de loi
gaussienne en ne conservant que X =
_
2 ln(U
1
) sin(2U
2
) par la methode de Box-Muller ou
_
2 ln(U
2
+ V
2
)
V
U
2
+V
2
dans la methode du rejet, la methode de Box-Muller devient presque
deux fois plus rapide, comme le montre le tableau suivant des temps de simulation de N tirages
de variables aleatoires ^(0, 1) en ne gardant que lune des deux composantes :
N 20 000 40 000 60 000 80 000
Box-Muller 0.54 1.07 1.6 2.14
Polaire 1.01 2 2.99 4.03
La gure suivante montre la simulation de 10 000 couples de variables aleatoires ^(0, 1)
independantes ; la moyenne empirique de labcisse est - 0.0001353 et la moyenne empirique de
lordonnee est 0.0011352.
Fig. 4 Simulation de 10 000 couples de gaussiennes ^(0, 1) independantes
4.96 4.00 3.03 2.07 1.11 0.14 0.82 1.79 2.75 3.72 4.68
3.55
2.87
2.19
1.51
0.83
0.14
0.54
1.22
1.90
2.58
3.26
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Pour simuler une variable aleatoire gaussienne Z de loi ^(m,
2
) avec > 0, il sut de
simuler une variable aleatoire

Z de loi ^(0, 1) et de poser Z = m+

Z.
Si F designe la fonction de repartition dune variable aleatoire gaussienne ^(0, 1), signalons
enn les procedures suivantes (en Scilab) de calcul approche de F et de F
1
qui peuvent etre
utiles dans certains cas.
24
Calcul approche de F(t)
function [rep]=rep gauss(x)
P= 0.2316419 ;
b1= 0.319381530 ; b2= -0.356563782 ; b3= 1.781477937 ;
b4= -1.821255978 ; b5= 1.330274429 ;
unsurrac2pi = 0.39894228 ;
if(x >= 0.0) then
t = 1.0 / (1.0 + P * x) ;
rep = 1.0 - unsurrac2pi * exp(- x*x /2.0) * t * (t * (t * (t * ( t * b5 + b4) +
b3) + b2 ) + b1) ;
else
t = 1.0 / (1.0 - P*x) ;
rep = unsurrac2pi * exp(- x*x/2.0)* t * (t * (t * (t * ( t * b5 + b4) + b3) + b2
) + b1 ) ;
end ;
endfunction
Calcul approche de F
1
(t) pour 0 < t < 1
function [inverse]=inverse N(x)
c0= 2.515517 ; c1= 0.802853 ; c2= 0.010328 ;
d1= 1.432788 ; d2= 0.189269 ; d3= 0.001308 ;
if (x>0.5) then signe = +1.0 ; x=1.0-x ;
else signe = -1.0 ;
end
t=sqrt(-2.0 * log(x)) ;
inverse = signe * (t-((c2*t+c1)*t+c0)/(1.0+t*(d1+t*(d2+d3*t)))) ;
endfunction
Fig. 5 Graphes de F et F
1
o` u F est la fonction de repartition de la gaussienne ^(0, 1)
4 3 2 1 0 1 2 3 4
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
Fonction de repartition de loi gaussienne N(0,1)
t
F(t)
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
3
2
1
0
1
2
3
Inverse de la Fonction de repartition de loi gaussienne N(0,1)
t
F^{1}(t)
2.5 Vecteurs gaussiens
Pour simuler un vecteur gaussien X = (X
1
, , X
d
) desperance m = (m
1
, , m
d
) et de
matrice de covariance , il sut de simuler un vecteur gaussien centre Y = (Y
1
, , Y
d
) de
25
matrice de covariance et de poser X
i
= Y
i
+m
i
pour i = 1, , d ; dans la suite on suppose
donc que m = 0. Si la matrice de covariance est diagonale, cest `a dire si les composantes du
vecteur gaussien sont independantes, il sut de simuler successivement d variables aleatoires
gaussiennes reelles. Sinon, puisque est symetrique de type positif (puisque pour tout vecteur
v R, v , v) = Var(v , X) 0), un resultat classique dalg`ebre lineaire permet decrire la
decomposition de Cholevsky de , cest `a dire de trouver une matrice A triangulaire inferieure
telle que = A A

. Il sut alors de simuler un vecteur gaussien Z = (Z


1
, , Z
d
) dont
les composantes sont gaussiennes ^(0, 1) independantes, puis de calculer X = AZ (o` u on
commet labus de langage consistant `a identier un vecteur de R
d
et la matrice colonne de ses
coecients dans la base canonique) ; le vecteur X est clairement gaussien, centre de matrice
de covariance . Rappelons que lorsque la matrice = (S
i,j
, 1 i, j d) est denie positive,
la decomposition de Cholesky de (qui est disponible dans de nombreuses biblioth`eques de
programmes) est calculee de la fa con suivante :
a
1,1
=
_
S
1,1
, a
i,1
=
S
1,i
a
1,1
pour 2 i d ,
pour i croissant de 2 `a d : a
i,i
=

S
i,i

1ki1
[a
i,k
[
2
,
pour i < j d
a
j,i
=
S
i,j

i1
k=1
a
i,k
a
j,k
a
i,i
, a
i,j
= 0 .
La gure ci-dessous montre la simulation de 10 000 vecteurs X dans R
2
, centres et de matrice
Fig. 6 Simulation de 10 000 couples de gaussiennes correlees
6.85 5.42 3.98 2.55 1.12 0.32 1.75 3.19 4.62 6.05 7.49
5.05
4.04
3.02
2.01
1.00
0.02
1.03
2.04
3.06
4.07
5.08
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
. . .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
26
de covariance =
_
11
16
7

3
16
7

3
16
25
16
_
: La moyenne empirique de la premi`ere composante est
0.0015815, celle de la seconde composante est 0.0027786, la variance empirique de la premi`ere
composante est 0.6772414 alors que
11
16
= 0.6875, celle de la seconde composante est 1.5607471
alors que
25
16
= 1.5625 et la covariance empirique est 0.7520688 alors que
7

3
16
= 0.7577722.
Dans le cas particulier d = 2, =
_

2
1

1

2

1

2

2
2
_
, on a A =
_

1
0

2

2
_
1
2
_
.
Donc si Z
1
et Z
2
sont des variables aleatoires gaussiennes ^(0, 1) independantes, X
1
= m
1
+

1
Z
1
, X
2
= m
2
+
2
_
Z
1
+
_
1
2
Z
2
_
, le vecteur X = (X
1
, X
2
) est gaussien de vecteur
esperance m = (m
1
, m
2
) et de matrice de covariance .
2.6 Quelques autres lois classiques
Loi geometrique ((a), a ]0, 1[. Cest la loi du premier instant o` u on obtient un succ`es en
repetant des experiences independantes de meme loi qui donnent un succ`es avec la probabilite
1 a. On a donc pour tout entier n 1, P(X = n) = (1 a) a
n1
. Lalgorithme suivant simule
une loi ((a).
X 0
Faire (
X X + 1
Tantque Random < a )
Fin
Retourner X
A titre dexercice, calculer la loi de la variable aleatoire simulee par lalgorithme suivant :
X 0
Tantque Random < a
Faire ( X X + 1 )
Fin
Retourner X
Chi-deux. Un changement de variables montre que le carre dune variable aleatoire gaus-
sienne ^(0, 1) suit une loi (
1
2
,
1
2
) ; on en deduit que si les variables aleatoires X
k
, 1 k n
sont independantes de meme loi gaussienne ^(0, 1), la variable aleatoire Z
n
=

n
k=1
X
2
k
, qui est
un
2
n
, cest `a dire un Chi-deux `a n degres de liberte, suit une loi Gamma (
n
2
,
1
2
). Si n = 2N est
un entier pair, un
2
n
est une somme de N exponentielles independantes de param`etre
1
2
tandis
que si n = 2N +1 est un entier impair, un
2
n
est la somme de N exponentielles independantes
de param`etre
1
2
et du carre dune gaussienne ^(0, 1) independante des exponentielles.
Loi Beta (a, b), a > 0, b > 0. Elle a pour densite f(x) =
(a+b)
(a)(b)
x
a1
(1 x)
b1
1
]0,1[
(x).
Montrer que pour tout > 0, si X et Y sont des variables aleatoires independantes de loi
(, a) et (, b) respectivement, les variables aleatoires X +Y et
X
X+Y
sont independantes de
loi respectives (, a + b) et (a, b). En deduire un algorithme de simulation dune loi (a, b).
Un autre algorithme de simulation dune loi (a, b) pour a, b < 1, du `a Jonk (1964), est propose
dans lexercice 2.10.
Loi log-normale. Cest la loi de X = e
Y
lorsque Y suit une loi normale ^(m,
2
) ; sa
densite est f(x) =
1
x

2
exp
_

1
2
2
_
ln(x)m)
2
_
1
x>0
, son esperance est E(X) = exp(m+

2
2
)
27
et sa variance est Var(X) = exp
_
2(m+
2
)
_
exp
_
2m+
2
_
.

Ecrire un algorithme de simulation
de cette loi.
Loi de Pareto. Cest la loi de X = r e
Y
lorsque r > 0 et Y suit une loi exponentielle de
param`etre > 0. Sa densite est f(x) =
r

x
+1
1
x>r
et sa fonction de repartition est F(t) =
_
1
_
r
t
_

1
t>r
. La variable aleatoire X nest pas integrable si 1 et nest pas de carre
integrable si 2. Si > 1, E(X) =
r
1
et si > 2, Var(X) =
r
2
(1)
2
(2)
.

Ecrire un
algorithme de simulation de cette loi.
Loi de Weibull W(, ), > 0, > 0. Sa densite est f(x) = x
1
exp( x

) 1
x>0
,
sa fonction de repartition est F(t) = [1 exp( t

)] 1
t>0
, son esperance est
(1+
1

et sa
variance est
(1+
2

)(1+
1

)
2

. Montrer que si Y suit une loi exponentielle de param`etre > 0,


X = Y
1

suit une loi de Weibull W(, ). En deduire un algorithme de simulation dune loi de
Weibull W(, ).
2.7 Methode de decomposition
On cherche `a simuler une variable aleatoire de densite f =

n
p
n
f
n
par rapport `a une
mesure sur la tribu des boreliens de R
d
o` u (p
n
, n 0), designe une probabilite sur N et
pour tout entier n 0, f
n
designe une densite par rapport `a . Soit (X
n
, n 0) une suite
de variables aleatoires independantes telles que X
n
a pour densite f
n
par rapport `a et soit
: N une variable aleatoire independante de la suite (X
n
) et de loi (p
n
, n 0). Alors la
variable aleatoire X

a pour densite f par rapport `a . En eet, pour tout borelien B de R


d
,
le theor`eme de Fubini entrane que :
P(X

B) =

n0
P( = n) P(X

B[ = n)
=

n0
p
n
_
B
f
n
(x) (dx)
=
_
B

n0
p
n
f
n
(x) (dx) =
_
B
f(x) (dx) .
Cette methode est particuli`erement interessante lorsque les densites f
n
sont `a support disjoints,
par exemple lorsquon veut simuler une loi uniforme sur la reunion D densembles disjoints D
n
;
on pose alors p
n
=
[Dn[
[D[
. Cest par exemple le cas si lon souhaite simuler une densite `a support
compact lineaire par morceaux. Si U
1
et U
2
sont des variables aleatoires independantes de loi
|([0, 1]), la densite de Max = max(U
1
, U
2
) est 2 x et celle de Min = min(U
1
, U
2
) est 2(1x).
On deduit par exemple de la Proposition 2.3 lalgorithme suivant de simulation dune variable
aleatoire de densite f denie par f(x) = 0 si x 0 ou x 7 et pour 0 < x < 7,
f(x) =
_

_
3x
10
si x ]0, 1] ,
4x
10
si x ]1, 3] ,
x2
10
si x ]3, 4] ,
7x
15
si x ]4, 7[ .
On decompose lensemble D
f
= (x, u) : 0 < x < 7 , 0 u f(x) en cinq ensembles
disjoints D
1
= (x, u) : 0 < x 1 , 0 u f(x), D
2
= (x, u) : 1 < x 4 , 0 u
1
10
,
D
3
= (x, u) : 4 < x < 7 , 0 u f(x), D
4
= (x, u) : 1 < x < 3 ,
1
10
u f(x),
28
D
5
= (x, u) : 3 < x < 4 ,
1
10
< u f(x). Les surfaces sont respectivement : [D
1
[ =
3
20
,
[D
2
[ =
3
10
, [D
3
[ =
3
10
, [D
4
[ =
2
10
et [D
5
[ =
1
20
. On simule donc une variable aleatoire U de loi
uniforme |([0, 1]), puis suivant le resultat obtenu, on choisit un point au hasard dans chaque
zone 1 `a 5 en gardant `a chaque fois labscisse du point tire (ce qui revient dans certains cas
`a simuler directement la densite f
n
) . On a f
1
(x) = 2x1
[0,1]
(x), f
2
(x) =
1
3
1
]1,4]
(x), f
3
(x) =
2
9
(7 x) 1
]4,7]
(x), f
4
(x) =
1
2
(3 x) 1
]1,3]
(x) et f
5
(x) = 2(x 3) 1
]3,4]
(x) ; lalgorithme suivant
retourne la valeur X :
U Random
Si U 0.15
Faire ( X Max( Random, Random) )
Si 0.15 < U 0.45
Faire ( X 3*Random+1 )
Si 0.45 < U 0.75
Faire ( X Min(3*Random,3*Random)+4 )
Si 0.75 < U 0.95
Faire ( X Min(2*Random,2*Random)+1 )
Si 0.95 < U 1
Faire ( X Max(Random,Random)+3 )
2.8 Simulation de vecteurs aleatoires
Si les composantes du vecteur sont independantes, il sut de simuler chaque composante.
On peut simuler une composante, puis des lois conditionnelles successives. Ainsi, si (X, Y )
designe un couple de variables aleatoires reelles ou vectorielles de densite f(x, y), la densite de
X est f
X
(x) =
_
f(x, y) dy et la densite conditionnelle de Y sachant X = x est f(y[x) =
f(x,y)
f
X
(x)
.
Pour simuler le couple (X, Y ), on simule dabord X de densite f
X
, puis ayant obtenu la valeur
reelle (ou vectorielle) x, on simule Y de densite f(.[x) independamment de X. En procedant
ainsi pas `a pas, on peut simuler des vecteurs aleatoires de dimension quelconque.
On peut enn utiliser les changements de variables, comme on la fait dans la methode
de Box-Muller pour couple de variables gaussiennes ^(0, 1) independantes.
2.9 Methode de melange
On suppose que la densite de la loi que lon veut simuler est
f(x) =
_
g(x, y) dy ,
o` u g est une fonction borelienne positive. Puisque f est une densite, le theor`eme de Fubini
montre que
_
g(x, y) dxdy =
_
f(x) dx = 1, cest `a dire que g est une densite. Si (X, Y ) designe
un couple de densite g, la densite de Y est g
Y
(y) =
_
g(x, y) dx tandis que la densite condition-
nelle de X sachant Y = y est g(x[y) =
g(x,y)
g
Y
(y)
. Si densites g
Y
et g(.[y) sont aisement simulables,
on simule dabord Y de densite g
Y
, puis ayant obtenu y on simule la densite conditionnelle
g(.[y) independamment de Y , ce qui fournit une simulation de X de densite f. De nouveau,
les densites considerees ne sont pas necessairement par rapport `a la mesure de Lebesgue, mais
peuvent etre prises par rapport `a une mesure positive -nie quelconque.
Par exemple, si n est un param`etre strictement positif, pour simuler une densite la densite
denie par f(x) = n
_
+
1
y
n
e
xy
dy sur [0; +[, on a g(x, y) = ny
n
e
xy
1
[0,+[
(x) 1
[1,+[
(y).
29
On en deduit que g
Y
(y) = ny
(n+1)
1
[1,+[
(y) et que pour y 1, g(x[y) = y e
xy
1
[0,+[
(x), cest
`a dire que la loi conditionnelle de X sachant Y = y est exponentielle de param`etre y. La fonction
de repartition de la loi de Y est F
Y
(t) = (1 t
n
) 1
[1,+[
(t) et F
1
Y
(u) = (1 u)

1
n
1
[0,1[
(u).
Puisque si U suit une loi |([0, 1]), 1 U suit egalement une loi |([0, 1]), en deduit lalgorithme
suivant de simulation de X :
Y exp( - log( Random ) / n )
X - log (Random) /Y
Retourner X
2.10 Exercices
Exercice 2.1 Determiner la loi de la variable aleatoire X simulee par les algorithmes suivants :
1) On note Int(x) la partie enti`ere du nombre reel x
N Int( Random *5 )
X Int( Random *N )
2)
X 0 ; Y 1
Tantque ( Random < Y )
Faire ( X X+1 ; Y Y/2 )
Fin
3)
N 0
Repeter n fois
Si (Random < p1) faire N N+1
Fin
Fin
X 0
Repeter N fois
Si (Random < p2) faire X X+1
Fin
Fin
4)
P p ; F P ; X 1
Tantque (Random > F) faire
P P * (1-p) ; F F+P ; X X+1
Fin
Exercice 2.2 Soit 0 < a < 1 ; montrer que lalgorithme suivant permet de simuler une loi
Gamma (a, 1) :
30
p
e
a+e
Faire
U Random, V Random
Si U < p
X exp( (1/a) * log(V) )
q exp( -X )
Sinon
X 1 - log(V)
q exp( (a-1) * log(X) )
Fin
Tantque ( Random >= q)
Retourner X
Exercice 2.3

Ecrire un algorithme de simulation pour les lois suivantes :
- par inversion de la fonction de repartition
- par rejet par rapport de la loi uniforme sur lensemble des valeurs prises et calculer le
nombre moyen dappels `a Random dans la methode du rejet et comparer les vitesses dexecution
des deux methodes :
1) Loi binomiale B(5, 0.5).
2) Loi sur 1, , n denie par P(X = k) =
n+1
n(k
2
+k)
pour 1 k n.
Exercice 2.4 Comparer lecacite de la methode de simulation dune loi geometrique de
param`etre a ]0, 1[ decrite dans la section 2.6 et la methode dinversion de la fonction de
repartition.
Exercice 2.5 Soit n 1 un entier xe, P
1
et P
2
des probabilites sur 1, , n denies par :
P
1
(1) = 1/(2n 1) ,
P
1
(k) = 2/(2n 1) , k 2, , n ,
P
2
(k) = 3/(3n 2) , k 1, , n 1 ,
P
2
(n) = 1/(3n 2) .
Soit P
3
la probabilite sur 1, , 2n denie par
P
3
(k) =
_
(1/3) P
1
( (k + 1)/2 ) si k est impair ,
(2/3) P
2
( k/2 ) si k est pair .
1.

Ecrire un algorithme de simulation de P
1
en appliquant la methode de rejet par rapport
`a la loi uniforme sur 1, , n. Quel est le nombre moyen dappels `a Random?
2.

Ecrire un algorithme de simulation de P
2
en appliquant la methode de rejet par rapport
`a la loi uniforme sur 1, , n. Quel est le nombre moyen dappels `a Random?
3.

Ecrire un algorithme de simulation de P
3
en appliquant la methode de rejet par rapport
`a la loi uniforme sur 1, , 2n. Quel est le nombre moyen dappels `a Random?
4. En utilisant les deux premi`eres questions et la methode de decomposition de P
3
, ecrire
un algorithme de simulation de P
3
. Quel est le nombre moyen dappels `a Random?
Exercice 2.6

Ecrire un algorithme de simulation pour les lois suivantes sur N
2
:
1) P(k, n) =
e
1
k! 2
n+1
, (k, n) N
2
.
2) P(k, n) =
e
n
n
k
k! 2
n+1
, (k, n) N
2
.
31
Exercice 2.7 Soit X une variable aleatoire dont la loi est symetrique par rapport `a 0, cest
`a dire telle que X et X ont la meme loi. Soit S une variable aleatoire independante de [X[,
telle que P(S = 1) = P(S = 1) =
1
2
. Montrer que Z = [X[ S a meme loi que X. En deduire
un algorithme de simulation dune variable aleatoire X de densite f(x) =

2
exp( [x[) pour
une constante > 0.
Exercice 2.8 Montrer que pour tout x 0,
1

2
exp(
x
2
2
)
1

2
e
1
2
e
x
. En utilisant lexercice
precedent, en deduire un algorithme de simulation dune loi gaussienne ^(0, 1). Implementer cet
algorithme, la methode de Box-Muller et lalgorithme polaire, faire tracer les histogrammes dans
les trois cas (fonction histplot en Scilab) dun echantillon, le comparer `a la densite theorique et
comparer lecacite de ces trois algorithmes (fonction Scilabtimer() en Scilab).
Exercice 2.9 Soit f la densite de probabilite denie par
f(x) =
2
3
_
x1
[0,1]
(x) + 1
]1,2]
(x)

.
1.

Ecrire un algorithme de simulation de f par la methode dinversion de la fonction de
repartition.
2.

Ecrire un algorithme de simulation de f par la methode de rejet `a partir de la loi uniforme
sur [0, 2].
3. Soit Y et Z des variables aleatoires independantes de loi uniforme respectivement sur
[0, 1] et sur [0, 2]. Quelle est la densite de S = max(Y, Z) ? En deduire un algorithme de
simulation de X.
4. Montrer que la variable aleatoire fournie par lalgorithme suivant a pour densite f :
U Random
Si ( U < 1/3 )
faire X 3*U+1
sinon
faire X Max( 3*(U-1/3)/2, 2*Random)
Fin
5. Implementer les programmes de ces quatre algorithmes. Les comparer pour le temps
dexecution (par la fonction timer() de Scilab) et pour le nombre dappels au generateur.
Exercice 2.10 Algorithme de Jonk pour la simulation dune loi (a, b).
Soit a, b ]0, 1[, (U
1
(n), n 1) et (U
2
(n), n 1) des suites independantes de variables aleatoires
independantes de meme loi |([0, 1]).
Soit V
1
= U
1
(1)
1
a
, W
1
= U
2
(1)
1
b
et S
1
= V
1
+W
1
. Si S
1
1, X =
V
1
S
1
. Sinon, pour tout k 2,
soit V
k
= U
1
(k)
1
a
, W
k
= U
2
(k)
1
b
et S
k
= V
k
+ W
k
. Soit enn = infn 1 : S
k
1. Montrer
que X =
V
S
suit une loi Beta(a, b). En deduire un algorithme de simulation dune loi (a, b).
Exercice 2.11 Soit m un nombre reel xe et X une variable aleatoire reelle de fonction de
repartition F inversible ; notons F
1
la fonction reciproque de F.
1.

Ecrire un algorithme de simulation de la loi de X conditionnellement `a X > m `a laide
de la methode du rejet. Que se passe-t-il quand m +?
2. Soit U une variable aleatoire de loi |([0, 1]) et Z = F
1
_
F(m) +(1 F(m)) U
_
. Calculer
la densite de Z et en deduire une methode de simulation de X conditionnellement `a
X > m. Comparer lecacite de cette methode `a celle du rejet.
32
3. On cherche `a simuler une variable aleatoire gaussienne ^(m,
2
) conditionnellement `a
X > m. Montrer que lon peut se ramener au cas centre reduit m = 0 et = 1.
4. Proposer une methode de rejet de la loi conditionnelle dune variable aleatoire gaussienne
^(m,
2
) conditionnellement `a X > m basee sur la loi exponentielle translatee de densite
exp((x m))1
x>m
. Comment choisir le param`etre ?
Le tableau suivant donne une idee de la comparaison entre le temps de calcul et le nombre
diterations necessaires pour simuler 1000 valeurs de la loi conditionnelle de X/X m lorsque
X est une variable gaussienne ^(0, 1) en utilisant la methode de rejet directe de la question
Q 1, la methode de rejet basee sur la loi exponentielle de la question Q 4 et la technique de
la question Q 2 basee sur la fonction de repartition. Le calcul de F et de F
1
est fait par la
methode numerique approximative decrite dans la section 2.4.
m=1 m=2 m=3 m=4 m=1 m=2 m=3 m=4
Temps Temps Temps Temps Nombre Nombre Nombre Nombre
Q 1 0.15 0.83 14.17 568.54 6.6 10
3
4.5 10
4
7.7 10
5
3.1 10
7
Q 4 0.15 0.44 4.72 144.22 2.4 10
3
8.7 10
3
10
5
3.4 10
6
Q 2 0.12 0.12 0.12 0.12 10
3
10
3
10
3
10
3
La gure suivante montre lhistogramme obtenu pour ces lois conditionnelle par la methode de
la question Q 2 pour 10 000 simulations et la densite theorique :
Fig. 7 Histogrammes de la loi conditionnelle gaussienne X sachant X m
1.0 1.4 1.8 2.2 2.6 3.0 3.4 3.8 4.2
0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1.6
2.0 2.4 2.8 3.2 3.6 4.0 4.4 4.8 5.2
0
0.4
0.8
1.2
1.6
2.0
2.4
3.0 3.4 3.8 4.2 4.6 5.0 5.4 5.8 6.2
0
0.4
0.8
1.2
1.6
2.0
2.4
2.8
3.2
4.0 4.4 4.8 5.2 5.6 6.0 6.4 6.8 7.2
0
0.4
0.8
1.2
1.6
2.0
2.4
2.8
3.2
3.6
4.0
33
Exercice 2.12 On se propose de simuler par une methode de rejet un echantillon de taille N
de variables aleatoires gaussiennes ^(0, 1) de densite f par rapport `a la densite exponentielle
symetrique de densite g(x) =

2
exp( [x[) o` u est une constante strictement positive.
1. Trouver le meilleur couple (, c) tel que f c g.
2.

Ecrire un schema de programme permettant de simuler un echantillon de taille N de
loi ^(0, 1) par cette methode de rejet, qui fasse calculer le nombre moyen diterations
necessaires pour obtenir un tirage gaussien (et le comparer avec c), qui fasse calculer la
moyenne et la variance empiriques de lechantillon et qui trace enn sur le meme graphique
lhistogramme de lechantillon et la densite theorique.
Le tableau suivant donne les temps de calcul, nombre moyen diterations, moyenne et variance
empiriques suivant les valeurs de N (quand = 1 et c = 1.3154892) et la gure trace lhisto-
gramme correspondant `a N = 40 000.
N Temps Iterations Moy. Var.
1 000 0.09 1.36 0.0373 1.0434
4 000 0.33 1.32 0.0058 0.95
10 000 0.81 1.31 0.0015 0.992
20 000 1.63 1.31 0.0033 1.006
40 000 3.27 1.32 0.0022 1.002
5 4 3 2 1 0 1 2 3 4 5
0
0.1
0.2
0.3
0.4
0.5
Exercice 2.13 Soit X et Y des variables aleatoires independantes de meme loi exponentielle
de param`etre 1.
1. Calculer la densite conditionnelle de X sachant Y > (1 X)
2
/2.
2. Soit Z une variable aleatoire suivant cette loi conditionnelle et S une variable aleatoire
independante de Z et prenant les valeurs +1 et 1 avec probabilite
1
2
. Trouver la loi de
SZ ?
3. En deduire une methode de simulation dune loi gaussienne ^(0, 1).
4.

Ecrire un schema de programme permettant de simuler un echantillon de taille N suivant
cette methode, qui fasse calculer le nombre moyen diterations necessaires pour obtenir
un tirage gaussien, qui fasse calculer la moyenne et la variance empiriques de lechantillon
et qui trace enn sur le meme graphique lhistogramme de lechantillon et la densite
theorique. Comparer cette methode `a celle de lexercice precedent.
Le tableau suivant donne les memes informations que dans la methode de rejet de lexercice
precedent.
34
N Temps Iterations Moy. Var.
1 000 0.08 1.279 - 0.0183 0.9518
4 000 0.32 1.32 - 0.0116 0.970
10 000 0.8 1.317 - 0.017 1.006
20 000 1.6 1.317 - 0.005 1.010
40 000 3.2 1.316 0.006 1.001
5 4 3 2 1 0 1 2 3 4 5
0
0.1
0.2
0.3
0.4
0.5
Pour la simulation dun echantillon de taille 10
5
de loi gaussienne ^(0, 1) les temps de calcul
et nombre dappels au generateur de nombres pseudo aleatoire Random sont donnes dans le ta-
bleau suivant (suivant les methodes utilisees ; Box-Muller1 et Polaire1 designent les algorithmes
correspondants dans lesquels on garde seulement un composante, Box-Muller2 et Polaire2 ceux
o` u on garde les couples `a chaque simulation, Rejet1 designe la methode de rejet de lexercice
precedent et Rejet2 celle de cet exercice) :
Methode Temps Nombre
Box-Muller1 2.67 2 10
5
Box-Muller2 1.9 10
5
Polaire1 5 2.54 10
5
Polaire2 2.78 2.54 10
5
Rejet1 8.16 2.64 10
5
Rejet2 7.99 3.62 10
5
Que peut-on en conclure ?
35
3 Simulation de processus
3.1 Mouvement Brownien
Rappelons la denition et quelques proprietes du mouvement Brownien.
Denition 3.1 Un processus stochastique W : [0, +[ R est un mouvement Brownien
(standard) si
(i) W
0
= 0.
(ii) Pour tout s t, W
t
W
s
suit une loi gaussienne ^(0, t s).
(iii) Pour tout n 1 et tout t
0
= 0 < t
1
< < t
n
, les accroissements (W
t
i+1
W
t
i
: 0
i n 1) sont independants.
On en deduit immediatement que pour tout instant t 0, W
t
suit une loi gaussienne ^(0, t)
et que pour tout couple dinstants s, t 0,
E
_
W
s
W
t
_
= Cov (W
s
, W
t
) = s t , (3.1)
tandis que pour tout T > 0 :
lim
n+
n1

i=0
_
W(i+1)T
n
WiT
n
_
2
= T dans L
2
. (3.2)
Les trajectoires de (W
t
, t 0) sons presque s urement continues, cest `a dire quil existe un
ensemble negligeable N tel que pour tout / N, la fonction t W
t
() est continue mais
presque s urement les trajectoires t W
t
() ne sont derivables en aucun point. (On en fait le
resultat plus precis suivant : presque s urement les trajectoires de (W
t
, t 0) sont Holderiennes
dordre <
1
2
, mais ne sont pas Holderiennes dordre
1
2
.)
Le mouvement Brownien (W
t
, t 0) est un processus `a accroissements independants,
(cest la propriete (iii) de la Denition 3.1), stationnaires (cest `a dire que pour tout s, t 0,
les variables aleatoires W
s+t
W
t
et W
s
W
0
ont la meme loi) et gaussien (cest `a dire que
pour 0 t
1
< < t
n
, le vecteur (W
t
1
, , W
tn
) est gaussien). Il existe de tr`es nombreuses
caracterisations du mouvement Brownien; nous en signalons deux :
Proposition 3.2 (i) Soit (X
t
, t 0) un processus continu, `a accroissements independants
stationnaires. Alors il existe des constantes r et telles que pour tout t 0, X
t
X
0
= r t+ W
t
,
o` u (W
t
, t 0) est un mouvement Brownien.
(ii) Un processus gaussien centre continu (X
t
, t 0) tel que Cov (X
s
, X
t
) = s t est un
mouvement Brownien.
Nous allons donner deux methodes de simulation des trajectoires dun mouvement Brownien
(W
t
, 0 t T) o` u T > 0 est xe. Dans les algorithmes suivants, on designera par grand
la simulation dune variable aleatoire ^(0, 1) et chaque appel `a grand fournit une realisation
dune nouvelle variable aleatoire gaussienne reduite independante des precedentes (cf. Section
2.4).
La premi`ere methode est directement inspiree par la denition. On choisit un entier n 1
et un pas de discretisation h =
T
n
. Lalgorithme suivant :
ecart sqrt(T / n)
W[0] 0
Pour i=1 `a n Faire
W[i] = W[i-1] + ecart * grand
36
fournit les valeurs dune realisation du processus aux points de la grille de discretisation iT/n,
0 i n, cest `a dire W[i] = WiT
n
. En interpolant lineairement entre les points (
iT
n
, W[i]), on
obtient une approximation de la trajectoire de W entre les instants 0 et T grace `a la continuite
p.s. des trajectoires de W. Voici un exemple de trois trajectoires obtenues pour T = 1 et
n = 6000.
Fig. 8 Simulation de trajectoires Browniennes
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
4.0
3.2
2.4
1.6
0.8
0.0
0.8
1.6
2.4
3.2
4.0
Cette methode tr`es simple a comme inconvenient que, si lon souhaite raner la subdivision,
les calculs doivent etre tous refaits. Ceci est corrige par la seconde methode proposee.
Lidee de la seconde methode est de calculer successivement les valeurs de W
T
, W
T/2
, W
T/4
,
W
3T/4
, puis de W en des multiples dyadiques de T dordre K +1 qui ne sont pas des multiples
dyadiques de T dordre K. Pour mener `a bien cette construction, pour 0 s < t T, cherchons
des constantes a et b telles que si on pose Z
a,b
= Ws+t
2
a W
s
b W
t
, la variable aleatoire Z
a,b
soit independante du couple (W
s
, W
t
). Puisque le vecteur (W
s
, W
t
, Z
a,b
) est gaussien, il sut
davoir Cov(W
s
, Z
a,b
) = 0 et Cov(W
t
, Z
a,b
) = 0, cest `a dire dapr`es (3.1
Cov(W
s
, Z
a,b
) = s a s b s = 0 ,
Cov(W
t
, Z
a,b
) =
s + t
2
a s b t = 0 .
Ces equations sont satisfaites pour tout s < t si et seulement si a = b =
1
2
et on voit par un
calcul similaire que Z
a,b
independante de la tribu ( = (W
u
: u s, u t). Dans ce cas, la
37
variable aleatoire
Z = Z1
2
,
1
2
=
1
2
_
Ws+t
2
W
s
_

1
2
_
W
t
Ws+t
2
_
est gaussienne centree de variance
1
4
ts
2
+
1
4
ts
2
=
ts
4
. On en deduit que
_
Ws+t
2
=
1
2
_
W
s
+ W
t
+

t s G

,
Gest une gaussienne ^(0, 1) independante de W
u
, u s, u t .
(3.3)
Si (G
n
, n 1) designe une suite de variables aleatoires independantes ^(0, 1), on en deduit la
procedure suivante de simulation des W
i 2
n :
1) W
1
= G
1
.
2) W
1/2
=
1
2
_
W
1
+ G
2

(on utilise (3.3) avec s = 0 et t = 1).


3) W
1/4
=
1
2
_
W
1/2
+
1

2
G
3

(on utilise (3.3) avec s = 0 et t = 1/2),


W
3/4
=
1
2
_
W
1/2
+ W
1
+
1

2
G
4

(on utilise (3.3) avec s = 1/2 et t = 1).


4) Recommencer pour les points
2i1
2
k
avec k = 2, , n.
On pourra ecrire un programme utilisant cette construction des trajectoires de (W
t
, 0
t 1) en interpolant lineairement entre les points (i 2
n
, W
i 2
n).
Rappelons la denition suivante de martingale.
Denition 3.3 Soit (T
t
, t 0) une ltration, cest `a dire une suite croissante de tribus et
(M
t
, t 0) un processus stochastique `a valeurs dans R
d
. Le processus (M
t
) est une (T
t
)
martingale si :
(i) M
t
est T
t
mesurable pour tout t 0.
(ii) E
_
[M
t
[
_
< + pour tout t 0.
(iii) Pour tout 0 s t < +, E
_
M
t
[ T
s
_
= M
s
.
La proposition suivante montre que le Brownien est une martingale pour sa ltration naturelle.
Proposition 3.4 Soit (W
t
, t 0) un mouvement Brownien standard reel et pour tout t 0
notons T
t
= (W
s
, 0 s t).
(i) (W
t
, t 0) est une (T
t
) martingale.
(ii) (W
2
t
t , t 0) est une (T
t
) martingale.
(iii) Pour tout > 0,
_
exp
_
W
t


2
t
2
_
, t 0
_
est une (T
t
) martingale.
Denition 3.5 Un Brownien standard r-dimensionnel est un processus W : [0, +[ R
r
tel que si W
t
= (W
1
t
, , W
r
t
), les processus (W
i
t
, t 0), 1 i r sont des Browniens
standards reels independants.
La premi`ere methode dinterpolation sur la grille i/n, 0 i n proposee pour simuler un
Brownien standard unidimensionnel sur lintervalle [0, 1] montre que si (Y
i
, i 1) designe une
suite de variables aleatoires independantes de meme loi ^(0, 1), et si pour tout t 0 on note :
W
n
t
=
[nt]

i=1
1

n
Y
i
+ (nt [nt])
1

n
Y
[nt]+1
le processus W
n
.
est celui qui est produit par la simulation et les lois des vecteurs (W
n
k/n
, k 0)
et (W
k/n
, k 0) sont egales pour tout n.
Les gures suivantes montrent la simulation de deux trajectoires du mouvement Brownien
dans R
2
avec 2000 pas entre les instants 0 et 1 :
38
Fig. 9 Simulation de deux trajectoires du Brownien dans le plan
1.7 3.8
1.8
2.1
2.3 6.4
3.3
3.0
39
Le theor`eme de la limite centrale permet detendre cette approximation du Brownien au-
del`a de sommes de gaussiennes independantes equidistribuees ; cest le principe dinvariance de
Donsker.
Theor`eme 3.6 (Principe dinvariance de Donsker) Soit (Y
n
, n 1) une suite de variables
aleatoires independantes de meme loi de carre integrable, centrees de variance
2
. Pour tout
t 0 et tout n 1 soit
X
n
t
=
1

n
[nt]

i=1
Y
i
+
nt [nt]

n
Y
[nt]+1
. (3.4)
Alors la suite des lois P
n
de X
n
.
sur la tribu des boreliens de (([0, +[) converge faiblement
vers une probabilite P telle que si W
t
() = (t) designe le processus canonique, (W
t
, t 0)
est un mouvement Brownien standard reel.
Demonstration : Nous ne donnons quun bref aper cu de la preuve.
Pour prouver la convergence de la suite (P
n
), il faut montrer sa tension. Ceci revient `a
prouver que pour tout T > 0 et > 0,
lim
0
sup
n
P
_
_
sup
|ts|
0s,tT
[X
n
t
X
n
s
[ >
_
_
= 0 .
Nous renvoyons le lecteur `a `a [12], p. 62-71 pour une demonstration compl`ete de ce resultat.
Il faut dautre part montrer la convergence des lois ni-dimensionnelles, cest `a dire verier
que pour tout d 1, 0 < t
1
< < t
d
, le vecteur (X
n
t
1
, , X
n
t
d
) converge en loi vers
(W
t
1
, , W
t
d
) quand n +. Pour simplier les notations, prenons d = 2, choisissons
0 < s < t et montrons que le couple (X
n
s
, X
n
t
) converge en loi vers (W
s
, W
t
). Par denition de
X
n
, linegalite de Bienayme-Chebychev montre que pour S
k
=

k
i=1
Y
i
:
P
_

X
n
t

S
[nt]


_
P
_

Y
[nt]+1

n
_

C
n
.
La suite (X
n
s

S
[ns]

n
, X
n
t

S
[nt]

n
) converge en probabilite, donc en loi, vers 0 et il sut de montrer
que la suite (
S
[ns]

n
,
S
[nt]

n
) converge en loi vers (W
s
, W
t
), soit encore que la suite (
S
[ns]

n
,
S
[nt]
S
[ns]

n
)
converge en loi vers (W
s
, W
t
W
s
). Pour tout n, les variables aleatoires S
[ns]
et S
[nt]
S
[ns]
sont
independantes et pour tout u, v R, n 1 :
E
_
_
exp
_
_
iu

n
[ns]

j=1
Y
j
+
iv

n
[nt]

j=[ns]+1
Y
j
_
_
_
_
= E
_
_
exp
_
_
iu

n
[ns]

j=1
Y
j
_
_
_
_
E
_
_
exp
_
_
iv

n
[nt]

j=[ns]+1
Y
j
_
_
_
_
.
De plus, la suite
_
1

[ns]
_

[ns]
j=1
Y
j
converge vers 0 dans L
2
(P) (donc en loi) quand
n + et le theor`eme de la limite centrale montre que la suite

[ns]

[ns]
j=1
Y
j
converge en
loi vers une gaussienne ^(0, s), ce qui entrane que
lim
n
_
_
exp
_
_
iu

n
[ns]

j=1
Y
j
_
_
_
_
= e

u
2
s
2
.
40
Un raisonnement similaire sur
1

[nt]
j=[ns]+1
Y
j
conclut la demonstration. 2
On suppose que (Y
n
, n 1) est une suite de variables aleatoires independantes de meme loi
sur le reseau Z (ou un reseau homothetique) et pour toute variable aleatoire
0
sur Z, on pose

n+1
=
n
+ Y
n
.
Une marche aleatoire symetrique unidimensionnelle de pas a est denie sur le reseau a Z par
P(Y
n
= +a) = P(Y
n
= a) =
1
2
. Soit (
n
= (
j
n
, 1 j d), n 1) un vecteur de R
d
forme de
composantes (
j
n
, n 1), 1 j d qui sont des marches aleatoires symetriques independantes
sur Z de pas 1. Les variables aleatoires Y
j
n
=
j
n

j
n1
sont donc independantes centrees de
variance 1. Dapr`es le principe dinvariance de Donsker, la suite de processus

W
n
t
=
[nt]

i=1
1

n
Y
i
+
(t [nt])

n
Y
[nt]+1
,
qui sont les interpoles lineaires de (
1

n

j
[n.]
, 1 j d), converge en loi vers un Brownien
standard de dimension d. En eet, chaque composante de

W
n
converge en loi vers un Brownien
standard reel et lindependance des composantes est preservee par passage `a la limite en loi. La
suite

W
n
.
est aussi la suite des vecteurs dinterpoles lineaires de marches aleatoires independantes
de pas
1

n
.
Les gures suivantes montrent les simulations dinterpoles de marches aleatoires symetriques
unidimensionnelles de pas
1

N
avec respectivement N = 100, N = 200, N = 1 000 et N = 5 000 :
Fig. 10 Simulation de marches aleatoires symetriques unidimensionnelles renormalisees
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
0.60
0.60
41
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
0.64
0.57
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
0.3
0.8
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
0.7
0.4
Les gures suivantes montrent les simulations de marches aleatoires symetriques bidimen-
sionnelles de pas
1

N
avec respectivement N = 2 000, N = 5 000 et N = 10 000.
42
Fig. 11 Simulation de marche aleatoires symetriques renormalisees dans le plan
0.65 0.45
0.26
0.51
0.8 1.1
0.86
0.47
1.1 0.9
0.36
1.05
43
3.2 Integrales stochastiques et diusions
Dans toute cette section, nous noterons
_
T
t
= (W
s
, 0 s t) ,
_
la ltration dun
Brownien standard de dimension r.
Denition 3.7 (1) Fixons T > 0 et notons L
2
T
lensemble des processus X : [0, T] R
tels que :
(i) X : [0, t] R est mesurable pour B[0, t] T
t
pour tout t [0, T] ; X
t
est donc
T
t
-mesurable.
(ii) |X|
2
/
=
_
T
0
E
_
[X
t
[
2
_
dt < +
Lensemble L
2
T
muni de la norme |X|
/
est un espace de Banach.
(2) Notons o
2
T
lensemble des processus simples, cest `a dire des processus tels quil existe des
instants 0 = t
0
< t
1
< < t
p
= T et des variables aleatoires (x
i
, 1 i p) telles que x
i
est
T
t
i
-mesurable et de carre integrable pour tout i 0, , p 1 et :
X
t
=
p

i=0
x
i
1
]t
i
,t
i+1
]
(t) .
Alors o
2
T
est un sous-ensemble dense de L
2
T
.
On denit lintegrale stochastique dun processus simple X
t
=

p
i=0
x
i
1
]t
i
,t
i+1
]
(t) par rapport
`a un mouvement Brownien standard de dimension 1 comme suit pour t ]t
k
, t
k+1
], 0 k r1 :
_
t
0
X
s
dW
s
=
k1

i=0
x
i
_
W
t
i+1
W
t
i
_
+ x
k
_
W
t
W
t
k
_
.
De plus on a lisometrie suivante pour tout X o
2
T
:
E
_

_
t
0
X
s
dW
s

2
_
=
_
t
0
E(X
2
s
) ds . (3.5)
On en deduit que si une suite de processus simple (X(n)
t
, n 1) converge vers X L
2
T
pour
la norme | |
/
, alors la suite (
_
t
0
X(n)
s
dW
s
, n 1) est de Cauchy dans L
2
() ; on note de
nouveau
_
t
0
X
s
dW
s
sa limite et lisometrie (3.5) setend `a X L
2
T
.
Enn, si on note /
2
T
lensemble des processus X : [0, T] R tels que la condition (i)
de la denition 3.7 est satisfaite mais la condition (ii) est remplacee par :
(ii)
_
T
0
[X
t
()[
2
dt < + p.s. pour tout t [0, T].
Lintegrale stochastique
_
t
0
X
s
dW
s
setend de fa con unique `a des processus X /
2
T
et
denit un processus (
_
t
0
X
s
dW
s
, t [0, T]) qui est T
t
-adapte et presque s urement continu.
Cependant, pour X L
2
T
, le processus (
_
t
0
X
s
dW
s
, 0 t T) est une (T
t
) martingale, alors
que cette propriete nest plus necessairement vraie si X /
2
T
.
Soit enn (W
t
= (W
1
t
, , W
r
t
) , t [0, T]) un Brownien standard de dimension r et X =
(X
i,j
, 1 i d , 1 j r) : [0, T] R
rd
un processus `a valeurs dans R
rd
dont toutes les
composantes (X
i,j
t
, t [0, T]) appartiennent `a /
2
T
. Alors pour tout t [0, T],
_
T
0
X
s
dW
s
=
_
r

k=1
_
t
0
X
i,k
s
dW
k
s
, 1 i d
_
R
d
.
44
Si les composantes de X appartiennent `a L
2
T
, lisometrie secrit pour tout i 1, , d et
t [0, T] :
E
_

k=1
_
t
0
X
i,k
s
dW
k
s

2
_
=
_
t
0
r

k=1
E
_
[X
i,k
s
[
2
_
ds . (3.6)
Rappelons enn linegalite suivante de Burkholder-Davies-Gundy qui generalise lisometrie `a
un espace L
p
quelconque avec p [2, +[ :
Proposition 3.8 Pour tout p [1, +[ il existe une constante C
p
> 0 telle que pour tout
processus adapte de carre integrable X : [0, T] R
r
:
E
_
_
sup
0tT

_
t
0
r

k=1
X
k
s
dW
k
s

2p
_
_
C
p
E
_

_
T
0
r

k=1
[X
k
s
[
2
ds

p
_
.
Le resultat suivant assure lexistence et lunicite de solutions fortes dequations dierentielles
stochastiques (qui sont des processus de diusion).
Theor`eme 3.9 Soit W un Brownien standard de dimension r pour la ltration (T
t
), : [0, T]
R
d
R
rd
et b : [0, T] R
d
R
d
des fonctions mesurables pour les tribus produit de boreliens
pour lesquelles il existe une constante C > 0 telle que pour tout t [0, T], x, y R
d
:
(i) (condition de Lipschitz)
[(t, x) (t, y)[ +[b(t, x) b(t, y)[ C [x y[ , (3.7)
(ii) (restriction sur la croissance)
[(t, x)[ +[b(t, x)[ C (1 +[x[) . (3.8)
Alors pour tout x R
d
lequation dierentielle stochastique
X
t
= x +
_
t
0
(s, X
s
) dW
s
+
_
t
0
b(s, X
s
) ds (3.9)
a une unique solution trajectorielle (X
t
, t [0, T]) adaptee `a la ltration (T
t
) `a trajectoires
presque s urement continues, et telle que pour tout p [1, +[ il existe une constante C
p
telle
que pour tout h > 0 :
E
_
sup
t[0,T]
[X
t
[
p
_
C
p
(1 +[x[
p
) , (3.10)
sup
t[0,T]
E(
_
[X
t+h
X
t
[
2p
_
C
p
(1 +[x[
2p
) h
p
. (3.11)
Ce theor`eme est montre par exemple en utilisant un schema de Picard, linegalite de
Burkholder-Davies-Gundy, ainsi que le lemme de Gronwall :
Lemme 3.10 Soit , v : [0, +[ [0, +[ des fonctions telles que v est bornee et est
continue, et soit C > 0 une constante telle que pour tout t [0, T] :
v(t) C +
_
t
0
(s) v(s) ds .
Alors pour tout t [0, T] :
v(t) C exp
__
t
0
(s) ds
_
.
45
Theor`eme 3.11 (Formule dIto) Soit et b des fonctions satisfaisant les conditions (3.7) et
(3.8) du Theor`eme 3.9 et f : [0, T] R
d
R une fonction f(t, x) derivable par rapport `a t
et deux fois dierentiable par rapport `a x = (x
1
, , x
d
) et dont les derivees partielles sont
continues ; alors
f(t, X
t
) = f(0, x) +
_
t
0
f
s
(s, X
s
) ds +
d

i=1
r

k=1
_
t
0
f
x
i
(s, X
s
)
i
k
(s, X
s
) dW
k
s
(3.12)
+
d

i=1
_
t
0
f
x
i
(s, X
s
) b
i
(s, X
s
) ds +
1
2
d

i,j=1
_
t
0

2
f
x
i
x
j
(s, X
s
) (

)
i,j
(s, X
s
) ds .
3.3 Schema dEuler
Soit b et des coecients qui satisfont les conditions (3.7) et (3.8) du Theor`eme 3.9, n N

et pour tout entier k 0, , n, notons t


k
=
kT
n
. Denissons par recurrence le processus X
n
sur [0, T] (schema dEuler de X de pas h = T/n) en posant :
X
n
0
= x, (3.13)
X
n
t
k+1
= X
n
t
k
+
_
t
k
, X
n
t
k
_ _
W
t
k+1
W
t
k
_
+ b
_
t
k
, X
n
t
k
_
(t
k+1
t
k
) , 0 k < n. (3.14)
Pour denir un processus pour tout t [0, T], il y a deux fa cons classiques de proceder entre les
instants t
k
et t
k+1
. Pour tout t [0, T], notons
n
t
=
_
nt
T

T
n
= maxt
k
: t
k
t et denissons
le processus

X
n
t
par

X
n
t
k
= X
n
t
k
pour tout k 0, , n 1 et

X
n
t
= X
n
t
k
+
_
t
t
k

_
t
k
, X
n
t
k
_
dW
s
+
_
t
t
k
b
_
t
k
, X
n
t
k
_
ds pour t
k
t < t
k+1
. (3.15)
Alors le processus

X
n
est solution de lequation dierentielle stochastique :

X
n
t
= x +
_
t
0

n
s
,

X
n

n
s
_
dW
s
+
_
t
0
b
_

n
s
,

X
n

n
s
_
ds . (3.16)
Si ce processus est agreable `a manipuler dun point de vue theorique, il nest bien s ur pas
vraiment simulable, sauf aux points t
k
. Dun point de vue pratique, on lui pref`ere donc
le processus X
(n)
interpole lineaire de X
n
entre les instants t
k
et t
k+1
, cest `a dire deni par
X
(n)
t
k
= X
n
t
k
pour tout k 0, , n 1 et par :
X
(n)
t
= X
n
t
k
+
t t
k
t
k+1
t
k
_
X
n
t
k+1
X
n
t
k
_
pour t
k
t < t
k+1
. (3.17)
Ce processus nest pas adapte, mais pour tout k 0, , n, X
(n)
t
k
=

X
n
t
k
= X
n
t
k
T
t
k
et :
X
n
t
k
= x +
_
t
k
0
k1

j=0

_
t
j
, X
n
t
j
_
1
[t
j
,t
j+1
[
(s) dW
s
+
_
t
k
0
k1

j=0
b
_
t
j
, X
n
t
j
_
1
[t
j
,t
j+1
[
(s) ds .
Le lemme suivant fournit une majoration des moments de

X
n
et de X
(n)
.
Lemme 3.12 Pour tout p [1, +[,
sup
n1
E
_
sup
0tT


X
n
t

p
+ sup
0tT

X
(n)
t

p
_
< +. (3.18)
46
Demonstration : Nous montrerons linegalite (3.18) pour

X
n
et laissons lautre demonstration
en exercice.
Soit p [1, +[ ; montrons tout dabord que
E
_
sup
0tT
[

X
n
t
[
2p
_
< +, n 1, (3.19)
ce qui revient `a prouver que pour tout k = 0, , n 1, E
_
sup
t[t
k
,t
k+1
]
[

X
n
t
[
2p
_
< +. On le
montre par recurrence sur k. En eet, lindependance de X
n
t
k
et de W
t
W
t
k
pour t [t
k
, t
k+1
]
prouve que pour k = 0, , n 1,
E
_
sup
t[t
k
,t
k+1
]
[

X
n
t
[
2p
_
3
2p1
_
E([X
n
t
k
[
2p
) + E([(t
k
, X
n
t
k
)[
2p
)E
_
sup
t[t
k
,t
k+1
]
[W
t
W
t
k
[
2p
_
+ E([b(t
k
, X
n
t
k
)[
2p
)(t
k+1
t
k
)
2p
_
3
2p1
_
E([X
n
t
k
[
2p
) + 2
2p1
C
2p
(1 +E([X
n
t
k
[
2p
)
_
2p
2p 1
_
2p
_
T
n
_
p
+ 2
2p1
C
2p
(1 +E([X
n
t
k
[
2p
)
_
T
n
_
2p
_
.
Pour tout t [0, T], dapr`es linegalite de Burkholder-Davies-Gundy (Proposition 3.8) :
E
_
sup
0st
[

X
n
s
[
2p
_
3
2p1
_
[x[
2p
+ C
p
E
_

_
t
0

2
_

n
s
,

X
n

n
s
_
ds

p
_
+ E
__
t
0

b
_

n
s
,

X
n

n
s
_

2p
ds
__
.
Notons Y
n
t
= E
_
sup
0st
[

X
n
s
[
2p
_
; linegalite de Holder par rapport `a la mesure de Lebesgue
sur [0, t] avec les exposants conjugues p et p/(p 1) (respectivement 2p et 2p/(2p 1)), et la
restriction sur la croissance (3.8) des coecients entranent que :
Y
n
t
C
p
_
[x[
2p
+ t
p1
_
t
0
C (1 +Y
n
s
) ds + t
2p1
_
t
0
C (1 +Y
n
s
) ds
_
;
o` u les constantes C et C
p
sont independantes de n. Nous avons montre dans (3.19) que pour
tout entier n la fonction Y
n
est bornee et le lemme de Gronwall permet alors de conclure que
sup
n
Y
n
T
C
p
(1 +[x[
2p
). 2
Les gures 12 et 13 donnent la simulation des trajectoires de (X
(n)
(t) , t [0, 2]) avec n = 5000
pour les deux diusions suivantes de Black et Sholes avec une volatilite egale `a 1 pour la
premi`ere gure :
X
t
= 1 +
_
t
0
X
s
dW
s
+
_
t
0
X
s
ds (courbe superieure )
X
t
= 1 +
_
t
0
X
s
dW
s

_
t
0
X
s
ds (courbe inferieure )
et `a 0.5 pour la seconde gure :
X
t
= 1 +
_
t
0
0.5 X
s
dW
s
+
_
t
0
X
s
ds (courbe superieure )
X
t
= 1 +
_
t
0
0.5 X
s
dW
s

_
t
0
X
s
ds (courbe inferieure ).
47
Fig. 12 Simulation de deux trajectoires de diusion avec (x) = (x + 1) et b(x) = (x + 1)
puis avec (x) = 0.5 (x + 1) et b(x) = (x + 1)
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
2
1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
2
1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
2
1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
2
1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
48
Fig. 13 Simulation de deux trajectoires de processus de Black et Sholes avec (x) = x et
b(x) = x puis avec (x) = 0.5 x et b(x) = x
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
2
1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
2
1
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
1
0
1
2
3
4
5
6
7
8
9
10
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
1
0
1
2
3
4
5
6
7
8
9
10
Pour etablir la convergence de

X
n
vers X, ecrivons lexpression explicite de

X
n
t
X
t
:

X
n
t
X
t
=
_
t
0
_

n
s
,

X
n

n
s
_

_
s, X
s
_
dW
s
+
_
t
k
0
_
b
_

n
s
,

X
n

n
s
_
b
_
s, X
s
_
ds .
Clairement la propriete de Lipschitz des coecients doit etre renforcee pour evaluer par exemple
b(t, x) b(s, x). Nous introduisons la propriete de Holder suivante sur les coecients et b ; il
existe > 0 tel que pour tout 0 s t T et x R
d
:
[(t, x) (s, x)[ +[b(t, x) b(s, x)[ C (1 +[x[) [t s[

. (3.20)
Cette condition est trivialement veriee avec arbitraire si les coecients ne dependent pas
de t. Le theor`eme suivant fournit la vitesse dapproximation forte du schema dEuler :
49
Theor`eme 3.13 Soit W un mouvement Brownien standard `a valeurs dans R
r
, et b des
coecients veriant les conditions (3.7), (3.8) et (3.20) avec
1
2
. Alors pour tout p
[1, +[ :
E
_
sup
0tT
[

X
n
t
X
t
[
2p
_
C
p
n
p
. (3.21)
sup
0tT
E
_
[X
(n)
t
X
t
[
2p
_
+ E
_
sup
0kn
[X
(n)
kT
n
XkT
n
[
2p
_
C
p
n
p
. (3.22)
Dautre part pour tout <
1
2
on a presque s urement :
lim
n+
n

sup
0tT
_
[

X
n
t
X
t
[ +[X
(n)
t
X
t
[

= 0 . (3.23)
Demonstration : Pour tout t notons Z
t
= sup
0st
[

X
n
s
X
s
[. Dapr`es (3.19) et (3.10),
sup
tT
E(Z
2p
t
) = E(Z
2p
T
) < + pour tout p [1, +[. Les inegalites de Burkholder-Davies-
Gundy et de Holder entranent que pour tout p [1, +[ et t [0, T],
E
_
Z
2p
t
_
C
p
E
_

_
t
0

n
s
,

X
n

n
s
_

_
s, X
s
_

2
ds

p
_
+C
p
E
__
t
0

b
_

n
s
,

X
n

n
s
_
b
_
s, X
s
_

2p
_
C
p
t
p1
_
t
0
E
_

n
s
,

X
n

n
s
_

_
s, X
s
_

2p
_
ds
+C
p
t
2p1
_
t
0
E
_

b
_

n
s
,

X
n

n
s
_
b
_
s, X
s
_

2p
_
ds .
De plus les inegalites (3.7) et (3.20) entranent que pour h = T/n,

b
_

n
s
,

X
n

n
s
_
b(s, X
s
)

b
_

n
s
,

X
n

n
s
_
b(
n
s
, X

n
s
)

b
_

n
s
, X

n
s
_
b(s, X

n
s
)

b
_
s, X

n
s
_
b(s, X
s
)

C
T
_
[

X
n

n
s
X
s
[ + h

(1 +[X

n
s
[) +[X

n
s
X
s
[

.
Une inegalite similaire pour la dierence

n
s
,

X
n

n
s
_
(s, X
s
)

, les inegalites (3.10) et (3.11)


entranent que
E
_
Z
2p
t
_
C
p,T
__
t
0
E
_
Z
2p
s
_
ds + h
2p
+ h
p
_
.
Linegalite (3.18) et le lemme de Gronwall permettent den deduire (3.21). Dautre part,

X
n
t
k
=
X
(n)
t
k
pour tout k 0, , n. Puisque X
(n)
est linterpole lineaire de

X
n
, sup
0tT
E([X
(n)
t

X
t
[
2p
) C
p

3
i=1
A
i
, o` u
A
1
= E
_
sup
0kn
[

X
n
t
k
X
t
k
[
2p
_
,
A
2
= sup
0kn1
E
_
sup
t
k
tt
k+1
[X
t
X
t
k
[
2p
_
,
A
3
= sup
0kn1
E
_
[

X
n
t
k+1


X
n
t
k
[
2p
_
.
50
Linegalite (3.21) montre que A
1
C
p
n
p
. Linegalite (3.11) montre que A
2
C
p
n
p
. Enn
A
3
C
p
(A
1
+A
2
), ce qui termine la demonstration de (3.21). La convergence presque s ure est
laissee en exercice. 2
Le theor`eme precedent montre que la vitesse de convergence forte du schema dEuler
est 1/2. Nous montrerons plus loin (section 4.3) que sa vitesse de convergence faible est
1, cest `a dire que nous etablirons que

E
_
f(X
(n)
T
)
_
E
_
f(X
T
)
_

C n
1
pour une fonction
borelienne f convenable.
3.4 Schema de Milstein
La mauvaise vitesse de convergence forte du schema dEuler est due `a lintegrale sto-
chastique pour laquelle la majoration des moments de
_
t
0
_
(s, X
s
)
_

n
s
, X

n
s
_
dW
s
utilisant
seulement le caract`ere Lipschitzien des coecients et (3.11) est grossi`ere . Une idee natu-
relle consiste `a utiliser une formule de Taylor de `a lordre 1 ; pour la presenter, supposons
que r = d = 1 et que les coecients , b ne dependent que de x; alors pour t
k
s < t
k+1
et
assez reguli`ere :
(X
s
) =
_
X
t
k
+
_
s
t
k
(X
u
) dW
u
+
_
s
t
k
b(X
u
) du
_

_
X
t
k
+ (X
t
k
) (W
s
W
t
k
) + b(X
t
k
) (s t
k
)
_
(X
t
k
) +

(X
t
k
) (X
t
k
) (W
s
W
t
k
) ;
en eet, dapr`es lisometrie (3.5) ou linegalite de Burkholder-Davies-Gundy 3.8, les normes L
p
du carre de laccroissement du Brownien (W
s
W
t
k
)
2
sont du meme ordre que laccroissement
de temps s t
k
. Enn la formule dIto appliquee `a (W
s
W
t
k
)
2
montre que
_
W
t
k+1
W
t
k
_
2
= 2
_
t
k+1
t
k
(W
s
W
t
k
) dW
s
+
_
t
k+1
t
k
ds ;
on en deduit que
_
t
k+1
t
k
(X
s
) dW
s
(X
t
k
) (W
t
k+1
W
t
k
) +
1
2

(X
t
k
) (X
t
k
)
_
(W
t
k+1
W
t
k
)
2

T
n
_
.
Ceci conduit au schema suivant en dimension r = d = 1 (en notant

x
(t, x) la derivee
partielle de par rapport `a x) :

X
n
0
= x

X
n
t
k+1
=

X
n
t
k
+
_
t
k
,

X
n
t
k
_ _
W
t
k+1
W
t
k
_
+
1
2
_

__
t
k
,

X
n
t
k
_
_
_
W
t
k+1
W
t
k
_
2

T
n
_
+b
_
t
k
,

X
n
t
k
_
T
n
pour 0 k < n. (3.24)
Dans le cas vectoriel, un raisonnement similaire conduit au schema suivant (dans lequel il
faut en general laisser lintegrale stochastique double) :

X
n
0
= x

X
n
t
k+1
=

X
n
t
k
+
_
t
k
,

X
n
t
k
_ _
W
t
k+1
W
t
k
_
+
r

j,l=1
_

l
__
t
k
,

X
n
t
k
_
_
t
k+1
t
k
_
W
j
s
W
j
t
k
_
dW
l
s
+b
_
t
k
,

X
n
t
k
_
T
n
pour 0 k < n. (3.25)
51
Il est pratiquement tr`es dicile de simuler lintegrale double en dimension quelconque sans
hypoth`ese supplementaire. Lorsque r 2, on utilise ce schema sous lhypoth`ese de commuta-
tivite :

l
=

j
, j, l 1, , r ; (3.26)
en eet dans le cas le schema prend la forme suivante (qui nutilise que des accroissements des
composantes du Brownien, comme en dimension r = 1) :

X
n
0
= x

X
n
t
k+1
=

X
n
t
k
+
_
t
k
,

X
n
t
k
_ _
W
t
k+1
W
t
k
_
+ b
_
t
k
,

X
n
t
k
_
T
n
+
1
2
r

j,l=1
_

l
__
t
k
,

X
n
t
k
_ _
W
j
t
k+1
W
j
t
k
_ _
W
l
t
k+1
W
l
t
k
_

1
2
r

j=1
_

j
__
t
k
,

X
n
t
k
_
T
n
pour 0 k < n. (3.27)
Le theor`eme suivant donne la vitesse de convergence forte de ce schema :
Theor`eme 3.14 Soit : [0, T] R
d
R
dr
et b : [0, T] R
d
R
d
des fonctions de classe (
1
par rapport `a t et de classe (
2
par rapport `a x, telles que les derivees partielles dordre 1 et 2 de
ces fonctions soient bornees. Soit X la diusion solution de (3.9) et

X
n
le schema de Milstein
deni par (3.25) (cest `a dire par (3.24) si r = 1 ou (3.27) sous lhypoth`ese de commutation
(3.26)) ; alors pour tout p [1, +[ il existe une constante C
p
> 0 telle que :
E
_
sup
0kn
[X
t
k


X
n
t
k
[
p
_
C
p
n
p
. (3.28)
De plus pour tout ]0, 1[, lim
n
n

sup
0kn
[X
t
k


X
n
t
k
[ = 0 p.s.
Demonstration : Pour degager les idees, nous supposerons r = d = 1 et que les fonctions b et
ne dependent que de x et sont de classe (
2
; la demonstration dans le cas general est laissee
en exercice. Remarquons tout dabord que si pour tout t [0, T] on pose,

X
n
t
= x +
_
t
0

X
n

n
s
_
dW
s
+
_
t
0
_
s

n
s
(

)(

X
n

n
s
) dW
u
dW
s
+
_
t
0
b(

X
n

n
s
) ds ,
le processus

X
n
.
prend les valeurs imposees par (3.25) aux points t
k
; de plus, un raisonnement
similaire `a celui fait pour prouver (3.18) montre que
sup
n1
E
_
sup
0tT


X
n
t

p
_
< + (3.29)
Fixons p [2, +[ et notons h =
T
n
le pas de discretisation; alors pour tout t [0, T] :
X
t


X
n
t
=
_
t
0
_

_
X

n
s
_

X
n

n
s
_
dW
s
+
_
t
0
_
b
_
X

n
s
_
b
_

X
n

n
s
_
ds
+
_
t
0
_
s

n
s
_
(

)
_
X

n
s
_
(

)
_

X
n

n
s
_
dW
u
dW
s
+
_
t
0
_

_
X
s
_

_
X

n
s
_
dW
s

_
t
0
_
s

n
s
(

)
_
X

n
s
_
dW
u
dW
s
+
_
t
0
_
b
_
X
s
_
b
_
X

n
s
_
ds.
52
En utilisant la formule dIto pour (X
t
) et b(X
t
), on obtient
(X
s
) (X

n
s
) =
_
s

n
s
(

)(X
u
) dW
u
+
_
s

n
s
_

b +
1
2

2
_
(X
u
) du
b(X
s
) b(X

n
s
) =
_
s

n
s
(b

)(X
u
) dW
u
+
_
s

n
s
_
b

b +
1
2
b

2
_
(X
u
) du
Notons Z
t
= sup
0st
[X
s


X
n
s
[ pour tout t [0, T] ; alors :
E
_
[Z
t
[
2p
_
C
p
E
_
sup
0st

_
s
0
_

_
X

n
u
_

X
n

n
u
_
dW
u

2p
_
+ C
p
E
_
sup
0st

_
s
0
_
b
_
X

n
u
_
b
_

X
n

n
u
_
du

2p
_
+ C
p
E
_
sup
0st

_
s
0
_
u

n
u
_
(

)
_
X

n
u
_
(

)
_

X
n

n
u
_
dW
v
dW
u

2p
_
+ C
p
5

i=1
R
i
(t) ,
avec
R
1
(t) = E
_
_
sup
0s

_
s

0
_
s

n
s
_
(

)(X
u
) (

)(X

n
s
)

dW
u
dW
s

2p
_
_
,
R
2
(t) = E
_
_
sup
0s

_
s

0
_
s

n
s
_

b +
1
2

2
_
(X
u
) du dW
s

2p
_
_
,
R
3
(t) = E
_
_
sup
0s

_
s

0
_
s

n
s
(b

)(X

n
s
)) dW
u
ds

2p
_
_
,
R
4
(t) = E
_
_
sup
0s

_
s

0
_
s

n
s
_
(b

)(X
u
) (b

)(X

n
s
))

dW
u
ds

2p
_
_
,
R
5
(t) = E
_
_
sup
0s

_
s

0
_
s

n
s
_
b

b +
1
2
b

2
_
(X
u
) du ds

2p
_
_
.
Puisque les fonctions b, et (

) sont Lipschitziennes, les inegalites de Burkholder-Davies-


Gundy (Proposition 3.8) et de Holder par rapport `a la mesure de Lebesgue entranent que pour
tout p [1, +[ :
E
_
[Z
t
[
2p
_
C
p
t
p1
_
t
0
E
_
[Z
s
[
2p
_
ds + C
p
t
2p1
_
t
0
E
_
[Z
s
[
2p
_
ds
+C
p
t
p1
_
t
0
E
_
[Z
s
[
2p
_
h
p
ds + C
p
5

i=1
R
i
(t) ,
53
et que
R
1
(t) C
p
t
p1
_
t
0
(s
n
s
)
p1
_
s

n
s
E
_

X
u
X

n
s

2p
_
du ds ,
R
2
(t) C
p
t
p1
_
t
0
(s
n
s
)
2p1
_
s

n
s
_
1 +E([X
u
[
2p
)

du ds ,
R
4
(t) C
p
t
2p1
_
t
0
(s
n
s
)
p1
_
s

n
s
E
_
[X
u
X

n
s
[
2p
_
du ds ,
R
5
(t) C
p
t
2p1
_
t
0
(s
n
s
)
2p1
_
s

n
s
_
1 +E([X
u
[
2p
)

du ds .
Enn le theor`eme de Fubini stochastique entrane que
R
3
(t) = E
_
_
sup
0s

_
s

0
_
_
(
n
u
+h)s

u
ds
_
(b

)(X

n
u
) dW
u

2p
_
_
C
p
h
2p
t
p1
_
t
0
_
1 + sup
0vu
E([X
v
[
2p
)

du .
Les inegalites (3.10) et (3.11) montrent que
5

i=1
R
i
(t) C
p,T
h
2p
.
Le lemme de Gronwall permet den deduire
E
_
sup
0tT
[X
t


X
n
t
[
2p
_
C
p,T
h
2p
,
ce qui entrane (3.28). 2
Le schema de Milstein est plus lent `a simuler que celui dEuler (en dimension r > 1, il faut
evaluer beaucoup plus de fonctions aux points t
k
) et, meme si sa convergence forte est plus
rapide, il est pratiquement moins utilise que le schema dEuler.
Il est clair quen poursuivant les developpements de Taylor de et b et en jouant sur la
formule dIto, on peut esperer construire des schemas dordre strictement superieur `a 1. Cepen-
dant, ils font intervenir des integrales stochastiques multiples et sont pratiquement dicilement
exploitables (cf. [13] pour une theorie generale de ces approximations de Taylor).
3.5 Processus de Poisson.
Denition 3.15 Un processus de Poisson (N
t
, t 0) dintensite > 0 est un processus
stochastique N : [0, +[ N tel que :
(i) N
0
= 0.
(ii) Pour 0 s t, N
t
N
s
suit une loi de Poisson de param`etre (t s).
(iii) Pour tout choix dinstants 0 t
1
< t
2
< < t
k
, k 2, les variables aleatoires
N
t
i+1
N
t
i
, 0 i < k sont independantes.
54
Le processus de Poisson (N
t
) est donc, comme le mouvement Brownien, un processus `a
accroissements independants et stationnaires.
Le theor`eme suivant, dont la demonstration classique est laissee en exercice, permet de
construire et simuler un processus de Poisson dintensite (cf. la Proposition 2.2).
Theor`eme 3.16 Soit > 0, (T
n
, n 1) une suite de variables aleatoires independantes de
meme loi exponentielle de param`etre et pour tout n 1 soit S
n
=

n
k=1
T
k
. Alors le processus
X
t
=

n=1
n1
[Sn,S
n+1
[
(t)
est un processus de Poisson dintensite .
Les graphiques suivants montrent des trajectoires de processus de Poisson dintensite
= 0.5, = 1 et = 2. Les 10 premiers instants de saut sont respectivement :
pour = 0.5 : 2.177957 , 6.744571 , 9.640822 , 10.29956 , 10.86043 , 11.98261 , 14.91761 ,
15.45311 , 17.62061 , 21.04892
pour = 1 : 0.212028 , 1.435998 , 1.704459 , 5.441348 , 6.345117 , 7.967036 , 8.300007 ,
10.09506 , 10.40521 , 11.03153
pour = 2 : 0.404272 , 1.136381 , 1.85529 , 1.989455 , 2.80864 , 2.97061 , 3.03802 , 3.442472 ,
3.810711 , 4.406239
0.0 10.5 21.0
0.00
0.91
1.82
2.73
3.64
4.55
5.45
6.36
7.27
8.18
9.09
10.00
Fig. 14 Simulation de processus de Poisson dintensite 0.5, 1 et 2
55
0.0 5.5 11.0
0.00
0.91
1.82
2.73
3.64
4.55
5.45
6.36
7.27
8.18
9.09
10.00
0.0 2.2 4.4
0.00
0.91
1.82
2.73
3.64
4.55
5.45
6.36
7.27
8.18
9.09
10.00
3.6 Chanes de Markov
Une chane de Markov est une suite (X
n
, n 0) de variables aleatoires telle que la loi de
X
n+1
sachant les valeurs du passe X
0
, , , X
n
ne depend que de X
n
. Plus precisement, on a
la :
Denition 3.17 Soit E un espace discret (ni ou denombrable).
(i) Une matrice de transition Q = (Q(x, y) , x, y E) est une application Q : EE [0, 1]
telle que

yE
Q(x, y) = 1 pour tout x E.
56
(ii) Une chane de Markov homog`ene de matrice de transition Q est une suite de variables
aleatoires `a valeurs dans E telle que pour tout entier n 1 et tout x
0
, , x
n
, y E :
P
_
X
n+1
= y [ X
0
= x
0
, X
1
= x
1
, , X
n
= x
n
_
= P
_
X
n+1
= x
n+1
[ X
n
= x
n
_
= Q(x
n
, y) . (3.30)
La loi initiale de la chane est la loi de X
0
, cest `a dire la probabilite sur la tribu c des parties
de E telle que pour tout x E, (x) = P
_
X
0
= x
_
.
Le terme Q(x, y) designe donc la probabilite de passer de letat x `a linstant n `a letat y `a
linstant n + 1.
Pour toute fonction f : E R positive ou bien telle que

yE
Q(x, y) [f(y)[ < + et toute
probabilite sur c, on note
(Qf)(x) =

yE
Q(x, y) f(y) et (Q)(y) =

xE
(x) Q(x, y) .
Alors Qf est une fonction denie sur E tandis que Q est une probabilite sur c et
_
(Qf) d =
_
f d(Q). On deduit immediatement de la denition la loi des vecteurs (X
0
, , X
n
) et de
X
n
qui sont explicites `a laide de et de Q. Si Q est une matrice de transition sur E, il en est
de meme de toutes les puissances Q
n
, n 0.
Proposition 3.18 Soit (X
n
, n 0) une chane de Markov homog`ene de matrice de transition
Q et de loi initiale ; pour tout entier n 0, on note T
0
n
= (X
k
, 0 k n).
(i) Pour tout entier n 0 et tout vecteur (x
0
, , x
n
) E
n+1
:
P
_
X
0
= x
0
, X
1
= x
1
, , X
n
= x
n
_
= (x
0
) Q(x
0
, x
1
) Q(x
n1
, x
n
) .
(ii) Pour tout entier n 1 et pour tout x, y E :
P
_
X
n
= y [ X
0
= x
_
= Q
n
(x, y) et P
_
X
n
= y) =

xE
(x) Q
n
(x, y) = (Q
n
)(y) .
(iii) Pour toute fonction f : E R positive ou bien telle que

yE
Q(x, y) [f(y)[ < + et
pour tout entier n 1,
E
_
f(X
n+1
) [T
0
n
_
= Qf(X
n
) ,
E
_
f(X
n
) [T
0
0
_
= Q
n
f(x) .
Si Q(x, y) ne depend pas de x, la suite (X
n
, n 1) est une suite independante de loi Q(x, .).
Un exemple tr`es simple de chane de Markov non triviale est une marche aleatoire. Il est
facile de verier quune marche aleatoire satisfait les proprietes de la denition 3.17.
La simulation dune chane de Markov est theoriquement tr`es simple si lon sait simuler
les lois et Q(x, .) pour tous les etats x E. Lalgorithme correspondant `a la simulation de
(X
i
, 0 i n) est donc :
n 0
Simuler la loi et retourner X[0]
Pour k = 1 `a n
i X[k 1]
Simuler la loi Q(i, .) et retourner j
X[k] j
n n + 1
Fin
57
Si lon souhaite seulement simuler la valeur de X
n
, on remplace le tableau (X[k], 0 k n)
par X. Si la simulation de chaque loi Q(i, .) est faite par inversion de la fonction de repartition,
lalgorithme precedent fournit X
n+1
= (X
n
, U
n
) pour une suite i.i.d. de variables aleatoires
|([0, 1]).
Denition 3.19 Soit (X
n
, n 0) une chane de Markov homog`ene de matrice de transition
Q sur lespace discret c. La probabilite sur c est invariante si Q = Q.
Si est une probabilite invariante de la chane et si la loi initiale est , alors pour tout instant
n 0, Q
n
= et toutes les variables aleatoires X
n
sont de loi . Ce resultat peut etre
renforce comme suit :
Proposition 3.20 Soit (X
n
, n 0) une chane de Markov de matrice de transition Q sur
lespace detats discret E et de loi initiale . Les proprietes suivantes sont equivalentes :
(i) est une probabilite invariante.
(ii) La chane (X
n
, n 0) est strictement stationnaire, cest `a dire que pour tout n 0 les
lois des vecteurs (X
0
, , X
n
) et (X
1
, , X
n+1
) concident.
Demonstration Puisque X
1
a comme loi Q, la stationnarite entrane que est invariante.
Reciproquement, xons n 0, x
0
, x
n
E; alors, si est invariante :
P
_
X
1
= x
0
, , X
n+1
= x
n
_
=

yE
(y) Q(y, x
0
) Q(x
0
, x
1
) Q(x
n1
, x
n
)
= (Q)(x
0
) Q(x
0
, x
1
) Q(x
n1
, x
n
)
= P
_
X
0
= x
0
, , X
n
= x
n
_
,
ce qui prouve que les lois de (X
0
, , X
n
) et (X
1
, , X
n+1
) concident. 2
Denition 3.21 (i) On dit quune matrice A `a coecients positifs ou nuls est irreductible si
pour tout x, y E, il existe n 1 tel que A
n
(x, y) > 0. Si Q est une matrice de transition
irreductible, on dit que la chane (X
n
, n 0) de matrice de transition Q est irreductible.
(ii) On dit que deux etats x, y communiquent sil existe n
1
, n
2
1 tels que Q
n
1
(x, y) > 0 et
Q
n
2
(y, x) > 0 .
On distingue enn deux types detats suivant le nombre de visites de la chane.
Denition 3.22 On dit quun etat x E de la chane de Markov (X
n
, n 0) issue de x
(cest `a dire telle que X
0
= x) est recurrent si

n1
1
Xn=x
= + p.s. et quil est transitoire
si

n1
1
Xn=x
< + p.s.
Le theor`eme suivant donne une classication des etats.
Theor`eme 3.23 Un etat x E de la chane de Markov (X
n
, n 0) est soit recurrent, soit
transitoire. Si les etats x et y communiquent, ils sont de meme nature et il existe une partition
(C
i
, i I) de lensemble des etats recurrents en classes de recurrence telle que si X
0
= x C
i
,
alors pour tout entier n, P(X
n
C
i
) = 1. Si lespace des etats E est ni, la chane admet au
moins un etat recurrent.
58
Si lensemble E des etats a N elements notes 1, , N, lalgorithme suivant permet de
trouver lensemble C(x) des etats qui communiquent avec x, de determiner si la chane est
irreductible et de classier les etats.
Algorithme de classication des etats. Soit A une matrice logique (dont les elements
sont 0 ou 1) telle que pour tout i, j = 1 , , N, A(i, i) = 1 et pour i ,= j, A(i, j) = 1 si et
seulement si P(i, j) > 0. On denit le produit AB de deux matrices logiques A et B (cest `a
dire dont tous les termes sont 0 ou 1) carrees N N par (AB)(i, j) =
k
[A(i, k) B(k, j)]. Il
est clair que si i ,= j, A
k
(i, j) = 1 si et seulement sil existe l 1, , k tel que P
l
(i, j) > 0.
Remarquons que si les etats x
0
= i, , x
l
= j sont deux `a deux distincts, on a necessairement
l N 1 et que (en supprimant des boucles eventuelles), sil existe une suite detats x
k
, 0
k l, tels que x
0
= i, x
l
= j et P(x
k
, x
k+1
) > 0 pour 0 k l 1, on peut supposer que
les etats x
k
, 0 k l sont deux `a deux distincts. On en deduit que pour des etats i ,= j, il
existe un entier l 1 tel que P
l
(i, j) > 0 (cest `a dire que j est accessible `a partir de i) si
et seulement si A
N1
(i, j) = 1, ce qui est aussi equivalent au fait que pour tout (ou pour un)
entier k N 1, A
k
(i, j) = 1. On voit donc que la chane est irreductible si et seulement si
tous les termes de A
k
sont egaux `a 1 pour un entier k N 1. Il est pratiquement plus rapide
de calculer les puissances de A de la forme 2
k
, en elevant pas `a pas les matrices trouvees au
carre, jusquau premier entier k tel que 2
k
N1. On pourra programmer cet algorithme (qui
est lie `a la recherche des composantes connexes dun graphe). Lensemble C(x) est lensemble
des etats y E tels que A
k
(x, y) = A
k
(y, x) = 1 pour un (tout) entier k N 1. Comme
exercice, on pourra donner un crit`ere sur A
k
permettant de determiner les etats transitoires et
les classes de recurrence.
Exemples :
Marche aleatoire Soit (X
n
, n 1) une suite de variables aleatoires independantes et
de meme loi `a valeurs dans un sous-ensemble ni de R
d
, S
0
= 0 et S
n
=

n
k=1
X
k
. Alors
(S
n
, n 0) est une chane de Markov de loi initiale la mesure de Dirac en 0 et de matrice de
transition
Q(x, y) = P(X
1
= y x) .
Mod`ele de Cox-Ross-Rubinstein Soit (V
n
, n 1) une suite de variables aleatoires in-
dependantes de meme loi denie par P(V
n
= u) = p et P(V
n
= d) = 1 p, avec 0 < p < 1.
Posons X
0
= x, puis X
n+1
= X
n
V
n+1
pour tout n 0. Alors (X
n
, n 0) est une chane de
Markov de loi initiale la mesure de Dirac en x et de probabilite de transition
Q(x, xu) = p , Q(x, xd) = 1 p et Q(x, y) = 0 sinon.
Nombre de piles consecutifs dans un jeu de pile ou face Soit (Y
n
, n 1) une suite de
variables independantes de meme loi de Bernoulli de param`etre p [0, 1]. Soit N
0
= 0 et pour
tout n 1, notons N
n
le nombre de 1 consecutifs avant le n
`eme
tirage, avec par convention
N
n
= 0 si Y
n
= 0. On verie aisement que N
n+1
= (N
n
+1) 1
Y
n+1
=1
, puis que (N
n
, n 0) est
une chane de Markov de loi initiale la mesure de Dirac en 0 et de probabilite de transition sur
lensemble E des entiers positifs :
Q(n, n + 1) = p , Q(n, 0) = 1 p et Q(n, y) = 0 sinon.
Pour tout entier l 1, notons
l
le premier instant o` u lon voit l valeurs 1 consecutives, soit

l
= infk 1 : N
k
= l ,
59
et N
l
n
= N
n
l
la chane arretee `a linstant
l
. Lev`enement N
l
n
= l decrit donc le fait que lon
a observe au moins l fois des 1 consecutifs lors des n premiers tirages, et lon a :
N
l
n+1
= (N
l
n
+ 1) 1
N
l
n
<l , Y
n+1
=1
+ l 1
N
l
n
=l
.
La suite (N
l
n
, n 0) est donc une chane de Markov de loi initiale la mesure de Dirac en 0 et
de probabilite de transition

Q denie par

Q(n, n + 1) = p et

Q(n, 0) = 1 p si n < l ,

Q(l, l) = 1 et

Q(x, y) = 0 sinon ;
de plus

Q
n
(0, l) = P(N
l
n
= l).
Les deux gures suivantes donnent lhistogramme de la loi de N
l
100
pour l = 2, , 12
lorsque p =
1
2
obtenues en calculant

Q
100
(0, l)

Q
100
(0, l + 1) pour ces valeurs de l, puis la
probabilite davoir au moins des 1 l fois de suite en 100 tirages pour l = 2, , 12 (on pourra
ecrire un algorithme permettant de calculer

Q
n
pour tout p et n) ; On remarque que si lon est
presque s ur dobtenir au moins 3 fois 1 de suite, la probabilite davoir au moins 5 fois 1 de suite
(et egalement 5 fois 0 de suite) vaut 0.81 et est donc assez elevee . Elle tombe `a environ 0.65
si p = 0.45 et vaut 0.92 si p = 0.55. Ceci fournit un crit`ere ecace du fait que le param`etre de
la loi de Bernoulli est
1
2
.
Fig. 15 Nombre de 1 parmi 100 tirages dune loi de Bernoulli de param`etre
1
2
.
2 3 4 5 6 7 8 9 10 11 12
0.00
0.03
0.06
0.09
0.12
0.15
0.18
0.21
0.24
0.27
0.30
loi du nombre de 1
60
2 3 4 5 6 7 8 9 10 11 12
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
probabilite du nombre minimal de 1
3.7 Exercices
Exercice 3.1

Ecrire et implementer un algorithme de simulation sur lintervalle [0, T] de la
diusion :
X
t
= X
0
+
_
t
0
cos(X
s
) dW
s
+
_
t
0
sin(X
s
) ds
o` u X
0
est une variable aleatoire de loi uniforme |([0, 1]) independante du mouvement Brownien
standard reel (W
t
).
Exercice 3.2 Soit
i
, b
i
, i = 1, 2 des nombres reels,x R et (X
t
) la diusion denie par
X
t
= x +
_
t
0
(
1
X
s
+
2
) dW
s
+
_
t
0
(b
1
X
s
+ b
2
) ds .

Ecrire et resoudre lequation dierentielle satisfaite par e


t
= E(X
t
). Calculer et resoudre les
equations dierentielles satisfaites par (t) = E(X
2
t
). En deduire le comportement asympto-
tique de E(X
t
) et Var(X
t
) quand t +. Ces resultats sont-ils coherents avec les simulations
faites dans les cas particuliers
1
=
2
= 1 ou 0.5, b
1
= b
2
= 1 ou 1 et x = 1 dans la gure
9,
1
= 1 ou 0.5,
2
= 0, b
1
= 1 ou 1 , b
2
= 0 et x = 1 dans les simulations du mod`ele de
Black-Sholes de la gure 10.
Exercice 3.3 Soit , b , x des nombres reels.
1. Montrer que la solution de lEDS
X
t
= x +
_
t
0
X
s
dW
s
+
_
t
0
b X
s
ds
a la forme explicite
X
t
= xexp
_
W
t
+
_
b

2
2
_
t
_
.
61
2. Simuler une trajectoire de (X
t
, 0 t 1) en utilisant la formule explicite, puis en
utilisant un schema dEuler de pas 2
4
, 2
8
et 2
16
et tracer sur trois graphiques separes
la vraie solution et ses approximations.
3. Simuler une trajectoire de (X
t
, 0 t 1) en utilisant la formule explicite, puis en
utilisant un schema de Milstein de pas 2
4
, 2
8
et 2
16
et tracer sur trois graphiques
separes la vraie solution et ses approximations.
4. Calculer directement E(X
1
), la moyenne empirique de 100 (respectivement 4000 simula-
tions) de E(X
1
) et celle des valeurs absolues des erreurs entre les valeurs simulees et la
valeur exacte de E(X
1
) en utilisant le schema dEuler et en utilisant le schema de Mil-
stein avec les divers pas precedents. Tracer les courbes donnant le logarithme de lerreur
moyenne en fonction du logarithme du pas pour les deux schemas.
Exercice 3.4 Demontrer la Proposition 3.4
Exercice 3.5 On suppose que les hypoth`eses du Theor`eme 3.13 sont satisfaites et on cherche
`a prouver (3.23). Soit ]0,
1
2
[.
1. Soit p [2, +[ et a
n
> 0. Montrer en utilisant (3.21) que pour tout > 0,
P
_
n

sup
0tT
[

X
n
t
X
t
[ a
n
_
a
2p
n
n
2p
n
p
Soit a
n
= n

; en choisissant convenablement > 0 et p, montrer que n

sup
0tT
[

X
n
t
X
t
[
converge vers 0 p.s.
2. Montrer que si t
k
=
kT
n
et p [2, +[ :
sup
0kn1
E
_
sup
t
k
tt
k+1
[X
t
X
t
k
[
2p
_
C
p
n
p
.
En deduire que pour tout > 0 :
P
_
sup
0tT
[X
t
X

n
t
[
_
C
p

2p
n
p+1
.
En deduire (3.23).
Exercice 3.6 Demontrer (3.18) pour linterpole X
(n)
du schema dEuler puis (3.29) pour le
schema de Milstein

X
n
.
Exercice 3.7 Demontrer le Theor`eme 3.16.
Exercice 3.8 Soit E = 1, 2, 3, 4, la probabilite uniforme sur E et Q la matrice de transi-
tion
Q =
_
_
_
_
0.5 0 0 0.5
0 0.5 0 0.5
0.5 0.5 0 0
0 0 0.5 0.5
_
_
_
_
.
Donner un algorithme de simulation des valeurs de X
n
pour n 100. Montrer que la chane
est irreductible. Calculer la probabilite invariante de cette chane. Calculer Q
n
et verier
que Q
n
converge vers une matrice dont toutes les lignes sont egales `a . Si on note
n
=
max
i,jE
[Q
n
(i, j) (j)[, tracer la courbe ln(
n
) en fonction de ln(n) pour diverses valeurs de
n (par exemple n = 5, 10, 15, 20, 25, 30) ; quobserve-t-on?
62
Exercice 3.9 Soit E = 1, 2, 3, 4, 5, la probabilite uniforme sur E et Q la matrice de
transition
Q =
_
_
_
_
_
_
0.8 0 0.2 0 0
0 0.7 0 0.3 0
0.2 0 0.8 0 0
0 0.3 0 0.7 0
0.5 0.5 0 0 0
_
_
_
_
_
_
.
Donner un algorithme de simulation des valeurs de X
n
pour n 100. Chercher pour chaque
etat x lensemble C(x) des etats y E qui communiquent avec x. Calculer les probabilites
invariantes de cette chane. Calculer Q
n
et verier que cette suite converge vers une li-
mite que lon determinera et que lon comparera aux probabilites invariantes. Si on note

n
= max
i,jE
[Q
n
(i, j)(j)[, tracer la courbe ln(
n
) en fonction de ln(n) pour diverses valeurs
de n (par exemple n = 5, 10, 15, 20, 25, 30) ; quobserve-t-on?
Exercice 3.10 Soit (X
n
, n 0) une chane de Markov sur lespace detats E detat initial
X
0
= x
0
et de matrice de transition Q. Soit f : E R une fonction denie sur lespace detats
E. On note T
0
n
la tribu engendree par les variables aleatoires X
k
, 0 k n.
1. On suppose que [E[ < + et on consid`ere lalgorithme suivant :
Pour x E faire
u(N, x) = f(x)
Pour n = N 1 : 0
faire
u(n, x) =

yE
Q(x, y) u(n + 1, y)
fin
2. Montrer que pour tout n 0, , N 1, E (u(n + 1, X
n+1
) [ T
0
n
) = u(n, X
n
). En
deduire que u(0, x
0
) retourne la valeur E
_
f(X
N
)

.
3. On suppose que (X
n
, n 0) est la marche aleatoire symetrique sur Z issue de x
0
et
on cherche un programme qui permette de calculer E
_
f(X
N
)

. Modier lalgorithme
precedent en tenant compte du fait (que lon justiera) quil sut de calculer u(n, y)
pour x
0
n y x
0
+ n.
4. On suppose que la chane est du type Cox-Ross-Rubinstein de probabilite de transition
Q(x, x (1 + a)) = p et Q(x, x (1 + b)) = 1 p.

Ecrire le schema de programme dune
procedure recurrente permettant de calculer E [(K X
N
)
+
].
63
4

Equation de Feynman-Kac et convergence faible des
schemas de discretisation
4.1 Generateur innitesimal.
Notons (
n,p
([0, T] R
d
) (resp. /
n,p
([0, T] R
d
)) lensemble des fonctions u : [0, T] R
d
R
de classe (
n
par rapport `a la variable t [0, T] et de classe (
p
par rapport `a la variable x R
d
(resp. et dont les derivees sont `a croissance polynomiales, cest `a dire telles quil existe des
constantes C > 0 et des entiers k tels que chaque derivee partielle v de u satisfasse linegalite
[v(t, x)[ C (1 + [x[
k
)). On note /
p
(R
d
) lensemble des fonctions u : R
d
R de classe (
p
par
rapport `a la variable x R
d
dont les derivees partielles sont `a croissance polynomiales.
Rappelons enn que si les coecients de la diusion sont notes b = (b
i
, 1 i d) et
= (
i
j
, 1 i d, 1 j r) et si a(t, x) = (t, x)

(t, x) designe la matrice carree


symetrique d d de type positif denie par a
i,j
(t, x) =

r
k=1

i
k
(t, x)
j
k
(t, x), le generateur de
la diusion (X
t
) denie par (3.9) est loperateur dierentiel deni sur (
1,2
([0, T] R
d
) par :
A
t
u(t, x) =
d

i=1
b
i
(t, x)
u
x
i
(t, x) +
1
2
d

i,j=1
a
i,j
(t, x)

2
u
x
i
x
j
(t, x) . (4.1)
Si les coecients et b ne dependent pas de t, le generateur est alors loperateur dierentiel
deni sur (
2
(R
d
) par :
Au(x) =
d

i=1
b
i
(x)
u
x
i
(x) +
1
2
d

i,j=1
a
i,j
(x)

2
u
x
i
x
j
(x) . (4.2)
Ainsi, le generateur du mouvement Brownien sur R
r
est
1
2
, o` u est le Laplacien deni sur
(
2
(R
r
). Le generateur dune diusion de Black et Sholes X
t
= x +
_
t
0
X
s
dW
s
+
_
t
0
b X
s
ds
est loperateur deni sur (
2
(R) par A = b x

x
+
1
2

2
x
2
2
x
2
. Les theor`emes suivants relient le
generateur dune diusion `a des martingales. Les premiers resultats sappliquent `a des diusions
dont les coecients ne dependent pas du temps.
Theor`eme 4.1 Soit b : R
d
R
d
et : R
d
R
rd
des fonctions Lipschitziennes, cest `a dire
telles quil existe une constante C > 0 telle que pour tout x, y R
d
:
[(x) (y)[ +[b(x) b(y)[ C [x y[ , (4.3)
W un mouvement Brownien standard `a valeurs dans R
r
et (X
t
, t 0) la diusion solution de
lequation dierentielle stochastique
X
t
= x +
_
t
0
(X
s
) dW
s
+
_
t
0
b(X
s
) ds , (4.4)
de generateur A. Alors pour toute fonction f /
2
(R
d
), le processus M
.
(f) deni par
M
t
(f) = f(X
t
) f(X
0
)
_
t
0
Af(X
s
) ds
est une martingale pour la ltration
_
T
t
= (W
s
, 0 s t) , t 0
_
.
64
Demonstration : La formule dIto (3.12) entrane que pour tout t 0,
f(X
t
) f(X
0
)
_
t
0
Af(X
s
) ds =
d

i=1
r

k=1
_
t
0
f
x
i
(X
s
)
i
k
(X
s
) dW
k
s
.
Il sut donc de verier que les integrales stochastiques
_
t
0
f
x
i
(X
s
)
i
k
(X
s
) dW
k
s
sont des (T
t
)-
martingales, ce qui revient `a verier que pour tout t 0,
I
i,k
= E
_
_
t
0

f
x
i
(X
s
)
i
k
(X
s
)

2
ds
_
< +.
Les derivees de f etant `a croissance polynomiale, linegalite (3.10) montre quil existe p
[1, +[ et une constante C > 0 tels que I
i,k
C t sup
0st
_
1 +E
_
[X
s
[
p
__
< +. 2
Ce theor`eme entrane immediatement que si f est une fonction de classe (
2
`a support compact
et si X est la solution de lEDS (4.4),
E
_
f(X
T
)
_
= f(x) + E
__
T
0
Af(X
s
) ds
_
.
Le theor`eme darret permet detendre cette egalite au cas o` u T est un temps darret pour la
ltration (T
t
) tel que E(T) < +; cest la formule de Dynkin.
Denition 4.2 On dit que loperateur A deni par (4.2) est uniformement elliptique sur B
R
d
sil existe une constante C > 0 telle que pour tout x B et y R
d
:
d

i,j=1
a
i,j
(x) y
i
y
j
C [y[
2
.
Sous cette condition, le processus (X
t
) solution de (4.4) admet une densite. On pourra voir la
demonstration du resultat suivant par exemple dans [10] :
Theor`eme 4.3 Soit : R
d
R
rd
et b : R
d
R
d
des fonctions satisfaisant les conditions
(4.3), tel que le generateur A deni par (4.2) soit uniformement elliptique sur R
d
. Alors pour
tout t > 0 et pour tout x R
d
, la loi de la diusion X
t
denie par (4.4) admet une densite
y p(t; x, y) par rapport `a la mesure de Lebesgue sur R
d
. Si de plus les fonctions et b sont
de classe (

avec des derivees partielles dordre superieur ou egal `a 1 bornees, alors la fonction
p(t; x, .) est de classe (

.
Le resultat suivant permet de generaliser le Theor`eme 4.1 au cas de coecients dependant
du temps et introduit un coecient dactualisation .
Theor`eme 4.4 Soit et b des fonctions qui satisfont les conditions de Lipschitz et de restric-
tion sur la croissance (3.7) et (3.8), W un mouvement Brownien standard de dimension r, X
t
la solution de lequation dierentielle stochastique :
X
t
= x +
_
t
0
(s, X
s
) dW
s
+
_
t
0
b(s, X
s
) ds (4.5)
65
et A
t
son generateur innitesimal. Alors pour toute fonction continue bornee : [0, T]R
d
R
et toute fonction f /
1,2
([0, T] R
d
) le processus
M

t
(f) = exp
_

_
t
0
(s, X
s
) ds
_
f(t, X
t
) f(0, X
0
)

_
t
0
exp
_

_
s
0
(u, X
u
) du
_ _
f
s
+ A
s
f f
_
(s, X
s
) ds
est une martingale pour la ltration
_
T
t
= (W
s
, 0 s t) , t 0
_
.
Demonstration : La formule dIto pour un produit entrane que
d
_
exp
_

_
t
0
(s, X
s
) ds
_
f(t, X
t
)
_
= (t, X
t
) exp
_

_
t
0
(s, X
s
) ds
_
f(t, X
t
) dt
+exp
_

_
t
0
(s, X
s
) ds
_
d
_
f(t, X
t
)
_
.
La formule dIto pour f(t, X
t
) permet alors decrire :
exp
_

_
t
0
(s, X
s
) ds
_
f(t, X
t
) = f(0, X
0
)
+
_
t
0
exp
_

_
s
0
(u, X
u
) du
_ _
f
s
+ A
s
f f
_
(s, X
s
) ds
+
d

i=1
r

k=1
_
t
0
exp
_

_
s
0
(u, X
u
) du
_
f
x
i
(s, X
s
)
i
k
(s, X
s
) dW
k
s
.
La fonction etant bornee, on montre alors comme dans le theor`eme precedent que les pro-
cessus
_
t
0
exp
_

_
s
0
(u, X
u
) du
_
f
x
i
(s, X
s
)
i
k
(s, X
s
) dW
k
s
sont des martingales, ce qui conclut
la demonstration. 2
4.2

Equation de Feynman-Kac, probl`emes de Cauchy et de Diri-
chlet.
Dans cette section, nous allons presenter quelques rapports entre les diusions et les equa-
tions aux derivees partielles. Ainsi, grace `a la formule dIto, il est possible de donner une
interpretation probabiliste `a certaines equations aux derivees partielles, ce qui permet ainsi
de prouver lexistence de solutions. Nous ne ferons queeurer le sujet et le lecteur pourra se
referer `a [6], [8] ou [12] pour dautres exemples ou des conditions plus precises de validite des
theor`emes.
Lexemple le plus simple est lequation de la chaleur en dimension 1, cest `a dire
u
t
(t, x) =

2
2

2
u
x
2
(t, x) , (t, x) ]0, +[R, (4.6)
o` u > 0 et o` u la condition initiale u(0, x) = f(x) est donnee par une fonction f : R R
borelienne `a croissance polynomiale. Pour t > 0, notons p(t; x, .) la densite de x + W
t
o` u
(W
t
, t 0) est un mouvement Brownien standard `a valeurs reelles, cest `a dire la fonction
p(t; x, y) =
1

2 t
e

(xy)
2
2
2
t
.
66
Un calcul facile montre que
p
t
=

2
2

2
p
x
2
. Notons u(t, x) = E
_
f(x+ W
t
)
_
pour tout t 0 ; alors
u(0, x) = f(x). De plus, pour t > 0, u(t, x) =
_
+

p(t; x, y) f(y) dy et la croissance polynomiale


de f entrane que lon peut appliquer le theor`eme de derivation sous le signe integral et que
pour tout couple dentiers positifs m et n,

n+m
t
m
x
n
u(t, x) =
_
+

n+m
t
m
x
n
p(t; x, y) f(y) dy ;
la fonction denie par u(t, x) = E[f(x + W
t
)] satisfait donc lequation
u
t
(t, x) =

2
2

2
u
x
2
(t, x)
sur ]0, +[R et appartient `a /
1,2
([, +[R) pour tout > 0.. Reste `a verier le compor-
tement asymptotique de u(t, y) quand (t, y) (0, x). De nouveau, puisque f est `a croissance
polynomiale, si cette fonction est de plus continue, le theor`eme de convergence dominee entrane
que pour tout x R,
lim
(t,y)(0,x)
u(t, y) = f(x) .
On a ainsi prouve que lequation (4.6) de condition initiale f continue `a croissance polyno-
miale a une solution; reste `a prouver lunicite de la solution de (4.6) pour la condition initiale,
ce qui donnera une interpretation probabiliste `a la solution de cette EDP. De nouveau, on peut
montrer lunicite de la solution de (4.6) de fa con probabiliste.
Theor`eme 4.5 Soit u une fonction de classe (
1,2
sur ]0, T] R qui satisfait lequation de la
chaleur (4.6), telle que sup
0<tT
[u(t, x)[ soit `a croissance polynomiale en x et telle pour tout x R,
lim
(t,y)(0,x)
u(t, y) = 0. Alors, u(t, x) = 0 sur ]0, T] R.
Demonstration : Fixons x R et soit n un entier tel que n > [x[ ; notons
n
= inft 0 : [x+
W
t
[ n. Alors
n
est un temps darret pour la ltration Brownienne T
t
= (W
s
: 0 s t).
Rappelons le principe de reexion pour le mouvement Brownien (W
t
, 0 t) : pour tout a > 0
et tout T 0,
P
_
supW
t
: 0 t T a
_
= 2 P(W
T
a) .
De plus, si Y designe une variable aleatoire gaussienne centree reduite ^(0, 1), alors pour tout
b > 0,
P(Y b) =
1

2
_
+
b
e

x
2
2
dx
1
b

2
_
+
b
xe

x
2
2
dx =
C
b
e

b
2
2
.
Nous en deduisons pour tout T
0
]0, T] :
P(
n
< T
0
) P
_
sup
0tT
0
[W
t
[ n [x[
_
2 P
_
W
T
0

n [x[

_
+ 2 P
_
W
T
0

n [x[

_
C
_
+
n|x|

T
0
e

u
2
2
du
C

T
0
n [x[
exp
_

(n [x[)
2
2T
0

2
_
.
On en deduit que pour tout T
0
]0, T], p > 0, n
p
P(
n
< T
0
) 0 quand n . Pour tout
t [0, T[ et 0 s < T t notons
v(s, x) = u(T t s, x) .
67
La formule dIto, le fait que u soit solution de (4.6) et le theor`eme darret pour les martingales
entranent que pour 0 s < T t,
E
_
v(s
n
, x + W
sn
)
_
= v(0, x) + E
__
sn
0
v
x
(, x + W

) dW

_
= v(0, x) .
De plus, la croissance imposee `a u montre que :
[v(s, x + W
s
)[ 1
s<n
+[v(
n
, x + W
n
)[ 1
sn
sup
0sTt
[y[n
[u(T t s, y)[ C n
p
,
tandis que lorsque s T t, la continuite p.s. des trajectoires de W entranent v(s, x+W
s
) 0
presque s urement. Le theor`eme de convergence dominee permet de deduire que lorsque s
T t, E
_
v(s, x + W
s
) 1
s<n
_
0. Dautre part le theor`eme de convergence dominee entrane
en faisant tendre s vers T t que
u(T t, x) = E
_
v(
n
, x + W
n
) 1
nTt
_
.
La restriction sur la croissance de u et la convergence precedente de n
p
P(
n
< T t) vers 0
lorsque n + montrent que u(T t, x) = 0, ce qui conclut la demonstration. 2
La demonstration precedente a fait apparatre une martingale liee `a la formule dIto comme
dans la section precedente, ainsi quun retournement du temps (changement de t en T t), ce
qui a permis de remplacer

t


2
2

2
x
2
par

t


2
2

2
x
2
. On peut ainsi considerer le probl`eme
similaire `a celui de lequation (4.6) sur lintervalle de temps [0, T] en renversant le temps et
imposant une condition nale :
_
v
t
(t, x) +

2
2

2
v
x
2
(t, x) = 0 pour (t, x) [0, T[R,
v(T, x) = f(x) pour x R.
(4.7)
On pourra montrer comme exercice le theor`eme suivant :
Theor`eme 4.6 Soit v une fonction de (
1,2
([0, T] R) /
0
([0, T] R) qui satisfait (4.7). Alors
v(t, x) = E
_
f(x + (W
T
W
t
))

= E
_
f(x + W
Tt
)

pour (t, x) [0, T[R, (4.8)


et
v(t, x + W
t
) = E
_
f(x + W
T
)

T
t
_
.
De plus, si la fonction f appartient `a /
0
(R), alors la fonction v denie par (4.8) est lunique
solution de (4.7) dans lespace des fonctions continues sur [0, T] R qui appartiennent `a
(
1,2
([0, T ] R) pour tout ]0, T[.
Le theor`eme suivant fournit une interpretation probabiliste `a une equation aux derivees
partielles qui generalise (4.7) ; cest lequation de Feynman-Kac pour le mouvement Brownien.
La base des resultats est la remarque sur le lien entre
p
t
(t; x, y) et

2
p
x
2
(t; x, y) lorsque p est
la densite dun mouvement Brownien standard unidimensionnel. Cette propriete se generalise
immediatement en dimension d : pour tout t > 0, x, y R
d
, soit
p(t; x, y) =
_
1

2 t
_
d
exp
_

d
i=1
(x
i
y
i
)
2
2 t
_
;
alors si designe le Laplacien

d
i=1

2
x
2
i
,
p
t
(t; x, y) =
1
2
p(t; x, y) .
68
Denition 4.7 Soit T > 0, m un nombre reel, f : R
d
R, : [0, T] R
d
[m, +[ et
g : [0, T] R
d
R des fonctions continues. On dit quune fonction v (
1,2
([0, T[R
d
est
solution du probl`eme de Cauchy de potentiel , de Lagrangien g et de condition terminale f si
elle est solution de :
v
t
(t, x) +
1
2
v(t, x) (t, x) v(t, x) + g(t, x) = 0 , (t, x) [0, T[R
d
, (4.9)
v(T, x) = f(x) , x R
d
. (4.10)
Theor`eme 4.8 (Theor`eme de Feynman-Kac pour le mouvement Brownien) Soit f, g, comme
dans la denition 4.7 tels que sup
0tT
[g(t, x)[ soit `a croissance polynomiale en x et v
(
1,2
([0, T[R
d
) /
0
([0, T] R
d
) une solution du probl`eme de Cauchy (4.9) de condition ter-
minale f (4.10). Alors si W designe un mouvement Brownien standard de dimension d, la
fonction v admet la representation stochastique :
v(t, x) = E
_
f(x + W
Tt
) exp
_

_
Tt
0
(t + s, x + W
s
) ds
_
+
_
Tt
0
g(t + s, x + W
s
) exp
_

_
s
0
(t + u, x + W
u
) du
_
ds
_
. (4.11)
Demonstration : En utilisant la formule dIto et lEDP (4.9) on deduit que pour tout t
[0, T[ :
d
s
_
v(t + s, x + W
s
) exp
_

_
s
0
(t + u, x + W
u
) du
_
_
=
exp
_

_
s
0
(t + , x + W

) d
_
_
g(t + s, x + W
s
) ds +
d

i=1

x
i
v(t + s, x + W
s
) dW
i
s
_
.
Soit ]0, T[, n > [x[ et
n
= inft 0 : [x + W
t
[ n

d ; puisque m et v
(
1,2
([0, T[R
d
), le processus
_
s
0
exp
_

_
u
0
(t + , x + W

) d
_

x
i
v(t + u, x + W
u
) dW
i
u
, 0 s T t
est une martingale de carre integrable et le theor`eme darret entrane pour tout ]0, T t[
en integrant entre 0 et
n
, v(t, x) =

3
i=1
T
i
n,
(t, x), o` u :
T
1
n,
(t, x) = E
__
n
0
g(t + s, x + W
s
) exp
_

_
s
0
(t + u, x + W
u
) du
_
ds
_
,
T
2
n,
(t, x) = E
_
v(t +
n
, x + W
n
) exp
_

_
n
0
(t + s, x + W
s
) ds
_
1
n
_
,
T
3
n,
(t, x) = E
_
v(t + , x + W

) exp
_

_

0
(t + s, x + W
s
) ds
_
1
n>
_
.
De nouveau, puisque m et sup
0tT
g(t, .) est `a croissance polynomiale, le theor`eme de
convergence dominee entrane que lorsque n + et T t,
T
1
n,
(t, x) E
__
Tt
0
g(t + s, x + W
s
) exp
_

_
s
0
(t + u, x + W
u
) du
_
ds
_
.
69
La croissance polynomiale de v entrane que terme T
2
n,
est domine par
C n
p
P(
n
T) C n
p
d

i=1
P
_
sup
0sT
[W
i
s
[ n [x[
_
C n
p
exp
_
c(n [x[)
2
_
,
ce qui montre que lorsque n +, T
2
n,
(t, x) 0. Le theor`eme de convergence dominee
entrane enn que lorsque n + et T t,
T
3
n,
(t, x) E
_
v(T , x + W
Tt
) exp
_

_
Tt
0
(t + s, x + W
s
) ds
__
,
ce qui termine la demonstration de (4.11) en faisant tendre vers 0. 2
Remarque 4.9 Sous les hypoth`eses du theor`eme 4.8, v admet egalement la representation
suivante :
v(t, x) = E
_
f(x + W
T
W
t
) exp
_

_
T
t
(s, x + W
s
W
t
) ds
_
+
_
T
t
g(s, x + W
s
W
t
) exp
_

_
s
t
(u, x + W
u
W
t
) du
_
ds
_
.
Cest cette derni`ere representation qui se generalisera `a des diusions quelconques en rempla cant
le Laplacien par le generateur innitesimal.
Denition 4.10 Soit : [0, T] R
d
R
dr
et b : [0, T] R
d
R
d
des fonctions satisfaisant
les conditions (3.7) et (3.8) et soit A
t
le generateur innitesimal deni sur (
1,2
([0, T] R
d
) par
(4.1) :
A
t
u(t, x) =
d

i=1
b
i
(t, x)
u
x
i
(t, x) +
1
2
d

i,j=1
a
i,j
(t, x)

2
u
x
i
x
j
(t, x) .
Soit m un nombre reel, f : R
d
R, g : [0, T] R
d
R
d
et : [0, T] R
d
[m, +[ des
fonctions continues. La fonction v (
1,2
([0, T[R
d
) /
0
([0, T] R
d
) satisfait le probl`eme de
Cauchy doperateur A
t
, de potentiel , de Lagrangien g et de condition terminale f si c est
une fonction continue sur [0, T] R
d
et si
v
t
(t, x) + A
t
v(t, x) (t, x) v(t, x) + g(t, x) = 0 pour (t, x) [0, T[R
d
, (4.12)
v(T, x) = f(x) pour x R
d
. (4.13)
Le theor`eme suivant etend lequation de Feynman-Kac `a ce probl`eme de Cauchy plus general :
Theor`eme 4.11 (Theor`eme de Feynman-Kac) Soit et b des fonctions satisfaisant les condi-
tions (3.7) et (3.8), f, g, des fonctions satisfaisant les conditions de la denition 4.10. Suppo-
sons que f /
0
(R
d
) et que sup
0tT
[g(t, x)[ est `a croissance polynomiale. Pour tout t [0, T[
et x R
d
, notons pour t s T :
X
t,x
s
= x +
_
s
t
(u, X
t,x
u
) dW
u
+
_
s
t
b(u, X
t,x
u
) du . (4.14)
70
Alors une solution v du probl`eme de Cauchy (4.12) et (4.13) admet la representation stochas-
tique :
v(t, x) = E
_
f(X
t,x
T
) exp
_

_
T
t
(s, X
t,x
s
) ds
_
+
_
T
t
g(s, X
t,x
s
) exp
_

_
s
t
(u, X
t,x
u
) du
_
ds
_
. (4.15)
De plus, si g = 0 et si (X
t
= X
0,x
t
, t [0, T]) est la diusion solution de (3.9), alors pour tout
t [0, T],
v(t, X
t
) = E
_
exp
_

_
T
t
(s, X
s
) ds
_
f(X
T
)

T
t
_
. (4.16)
Demonstration : Lorsque g = 0, le theor`eme 4.4 montre que si v resout lequation (4.12), le
processus :
M
t,x
s
= exp
_

_
s
t
(u, X
t,x
u
) du
_
v(s, X
t,x
s
) , s [t, T]
est une T
t
-martingale, ce qui entrane que M
t,x
t
= E
_
M
t,x
T
[ T
t
_
. La propriete de martingale de
(M
0,x
s
, s [0, T]) et la condition (4.13) montrent alors (4.16). Remarquons que de meme, la
condition (4.13) entrane que que pour tout ]0, T[ et t [0, T ],
v(t, x) = v(t, X
t,x
t
) = E
_
exp
_

_
T
t
(u, X
t,x
u
) du
_
v(T , X
t,x
T
)

T
t
_
,
qui correspond bien `a (4.15) lorsque g = 0.
Pour prouver (4.15) dans le cas general, nous procedons comme dans la demonstration du
Theor`eme 4.8. Fixons (t, x) [0, T[R
d
, ]0, T t[ et notons
n
= infs t , [X
t,x
s
[ n.
La formule dIto et le theor`eme darret pour les martingales entranent que v(t, x) =

3
i=1
T
i
n
,
avec :
T
1
n
(t, x) = E
_
_
(T)n
t
g(s, X
t,x
s
) exp
_

_
s
t
(u, X
t,x
u
) du
_
ds
_
,
T
2
n
(t, x) = E
_
v(
n
, X
t,x
n
) exp
_

_
n
t
(s, X
t,x
s
) ds
_
1
nT
_
,
T
3
n
(t, x) = E
_
v(T , X
t,x
T
) exp
_

_
T
0
(s, X
t,x
s
) ds
_
1
n>T
_
.
Une generalisation immediate de (3.10) basee sur le lemme de Gronwall montre que pour tout
p [1, +[, E(sup
tsT
[X
t,x
s
[
p
) C
p
(1 +[x[
p
). Comme dans le Theor`eme 4.8, le theor`eme de
convergence dominee et la croissance polynomiale de g montrent que, lorsque n +,
T
1
n
(t, x) E
__
T
t
g(s, X
t,x
s
) exp
_

_
s
t
(u, X
t,x
u
) du
_
ds
_
.
Il existe K > 0 tel que le terme [T
2
n
(t, x)[ est domine par Cn
K
P(
n
n). Pour tout p [1, +[,
P(
n
T) C
p
n
p
E
_
sup
tsT
[X
t,x
s
[
p
_
C
p
n
p
.
71
Choisissant p > K nous obtenons T
2
n
(t, x) 0 quand n +. Le theor`eme de convergence
dominee entrane que lorsque n +,
T
3
n
(t, x) E
_
v(T , X
t,x
T
) exp
_

_
T
0
(s, X
t,x
s
) ds
__
,
ce qui termine la demonstration en faisant tendre vers 0. 2
Remarque 4.12 Dans le cas particulier o` u les coecients b et sont independants du temps,
de classe (
4
`a derivees partielles dordre 1 `a 4 bornees, = 0, g = 0 et f /
4
(R
d
), si
X
t
= x +
_
t
0
(X
s
) dW
s
+
_
t
0
b(X
s
) ds ,
la fonction u : [0, T] R
d
R denie par :
u(t, x) = E
_
f(X
T
)

T
t

appartient `a /
4
([0, T[R
d
) et est solution de lEDP sur [0, T[R
d
:
u
t
+
d

i=1
b
i
(x)
u
x
i
+
1
2
d

i,j=1
(

)
i,j
(x)

2
u
x
i
x
j
= 0 , (4.17)
avec la condition terminale u(T, .) = f(.). Dans ce cas, la solution du probl`eme de Cauchy
existe et est unique.
Remarque 4.13 Si les fonctions : R
d
R
rd
et b : R
d
R
d
sont de classe (

avec des
derivees partielles bornees telles que le generateur A est uniformement elliptique sur R
d
et si
p(t; x, .) designe la densite de la loi de X
t
, t > 0 donnee par le theor`eme 4.3, alors :
p
t
(t; x, y) = Ap(t; x, y)
et
p
t
(t; x, y) =
1
2
d

i,j=1

2
y
i
y
j
[a
i,j
(y) p(t : x, y)]
d

i=1

y
i
[b
i
(y) p(t; x, y)] .
De plus, quand t 0, la probabilite p(t; x, y) dy converge faiblement vers la mesure de Dirac

x
. Ces equations et les EDP precedentes montrent que p(t; x, y) est la solution fondamentale
des probl`emes de Cauchy avec condition initiale ou nale ; ceci traduit le fait que la solution
de ces probl`emes de Cauchy est obtenue en prenant le produit de convolution de p(t; ) avec la
condition initiale (ou nale). Les equations satisfaites par p(t; x, y) generalisent celles observees
sur la densite de la loi du mouvement Brownien `a la base de tous ces resultats.
La gure suivante montre laspect du noyau de la chaleur p(t; 0, x) pour t ]1/N, 1] et
x [2, 2] avec N = 25.
72
Fig. 16 Representation du noyau de la chaleur en dimension 1
2
1
0
p
2
0
2
x
0.04 0.52 1.00
t
Nous considerons maintenant des probl`emes de Dirichlet. Soit O un ouvert borne de R
d
,
O son adherence, O sa fronti`ere et : O R une fonction continue ; nous considerons
maintenant un probl`eme de Dirichlet, cest `a dire une EDP satisfaite par la fonction v dans
O (avec eventuellement une condition initiale ou terminale) et avec comme condition au bord
v = sur O.
Le premier resultat donne une interpretation probabiliste dun tel probl`eme de Dirichlet en
horizon inni `a laide dune diusion dont les coecients ne dependent pas du temps.
Theor`eme 4.14 Soit O un ouvert borne de R
d
, m un nombre reel, : O [m, +[, g :
O R et : O R des fonctions continues, : R
d
R
dr
et b : R
d
R
d
des fonctions
globalement Lipschitziennes et
A =
d

i=1
b
i
(x)

x
i
+
1
2
d

i,j=1
(

)
i,j
(x)

2
x
i
x
j
le generateur associe. Une fonction continue u sur O de classe (
2
dans O est solution du
probl`eme de Dirichlet si :
Au(x) (x) u(x) + g(x) = 0 dans O, (4.18)
u(x) = (x) dans O. (4.19)
Soit W un mouvement Brownien standard de dimension r et pour tout x O, soit
X
x
t
= x +
_
t
0
(X
s
) dW
s
+
_
t
0
b(X
s
) ds ,
et

x
C
= inft 0 : X
x
t
, O .
73
Alors, si P(
x
C
< +) = 1 pour tout x O, et si u est une solution du probl`eme de Dirichlet
(4.18) et (4.19), alors u admet la representation suivante :
u(x) = E
_
(X
x

x
O
) exp
_

_

x
O
0
(X
x
s
) ds
_
+
_

x
O
0
g(X
x
t
) exp
_

_
t
0
(X
x
s
) ds
_
dt
_
. (4.20)
Demonstration : Pour tout > 0, notons O

= x O : d(x, O) > et

x
C
= inft 0 : X
x
t
, O

.
Le theor`eme 4.4 et le theor`eme darret montrent que le processus
M
t
= u(X
x
t
x
O
) exp
_

_
t
x
O
0
(X
x
s
) ds
_
+
_
t
x
O
0
g(X
x
s
) exp
_

_
s
0
(X
x

) d
_
ds
est une (T
t
)-martingale. De plus le fait que O

soit borne, lequation (3.10), la minoration


de et la continuite de u et g sur O

montrent que cette martingale est bornee dans L


p
,
p > 1, donc uniformement integrable. De plus, E(M
0
) = u(x) tandis que lorsque 0,
E(M

) = lim
t+
E(M
t
) concide avec le membre de droite de (4.20), ce qui termine la
demonstration. 2
Le theor`eme precedent montre donc que, si P(
x
C
< +) = 1 pour tout x O, la solution
u du probl`eme de Dirichlet (4.18) et (4.19) est unique. Dans le cas particulier r = d, = Id,
b = 0, g = 0 et = 0, le probl`eme de Cauchy precedent revient donc `a la recherche des fonctions
u harmoniques sur O (cest `a dire telles que u = 0 sur O) telles que u(x) = (x) sur O.
Puisque pour tout i = 1, , d la trajectoire de (W
i
t
, t 0) est presque s urement non bornee,
dans ce cas, pour tout x O, P(
x
C
< +) = 1 et la solution du probl`eme de Dirichlet (qui
existe) est donc unique. Dans le cas dune diusion X
x
t
, cette propriete requiert des hypoth`eses
supplementaires qui impliquent que les trajectoires de X
x
.
ressemblent `a celles du Brownien.
Si loperateur A est uniformement elliptique sur O, P(
x
C
< +) = 1 pour tout x O et,
si elle existe, la solution du probl`eme de Dirichlet (4.18) et (4.19) est unique. Nous renvoyons le
lecteur `a [10] pour une demonstration de ce resultat, ainsi que pour des conditions susantes
de regularite sur O pour lexistence dune solution.
Le resultat suivant fait appel `a une diusion dont les coecients dependent du temps.
LEDP satisfaite dans O est parabolique et nous imposons uns condition terminale similaire `a
celle du probl`eme de Cauchy.
Theor`eme 4.15 Soit et b des fonctions satisfaisant les conditions (3.7) et (3.8), A
t
lope-
rateur dierentiel
A
t
=
d

i=1
b
i
(t, x)

x
i
+
1
2
d

i,j=1
(

)
i,j
(t, x)

2
x
i
x
j
.
Soit O un ouvert borne de R
d
dont la fronti`ere est de classe (
2
, m un nombre reel, : [0, T]
O [m, +[, g : [0, T] R
d
R, : [0, T] O R et f : [0, T] O R des fonctions
continues. Soit v une fonction de classe (
1,2
([0, T[O) dont les derivees partielles par rapport
74
`a x sont bornees sur [0, T] O et solution de lequation parabolique avec les conditions de
Dirichlet au bord :
v
t
(t, x) + A
t
v(t, x) (t, x) v(t, x) + g(t, x) = 0 dans [0, T[O, (4.21)
v(T, x) = f(x) dans O, (4.22)
v(t, x) = (t, x) dans [0, T[O. (4.23)
Alors si pour tout t [0, T[ et x O, X
t,x
.
designe la diusion solution de (4.14) et si

t,x
C
= infs t : X
t,x
s
, O ,
v admet la representation stochastique :
v(t, x) = E
_
_
T
t,x
O
t
exp
_

_
s
t
(, X
t,x

) d
_
g(s, X
t,x
s
) ds
+ exp
_

_
T
t
(s, X
t,x
s
) ds
_
f
_
X
t,x
T
_
1

t,x
O
T
+ exp
_

_

t,x
O
t
(s, X
t,x
s
) ds
_

_

t,x
C
, X
t,x

t,x
O
_
1

t,x
O
<T
_
. (4.24)
Demonstration : Fixons (t, x) [0, T[O et pour tout n 1 notons O
n
= x O :
d(x, O
c
) >
1
n
et
n
= infs t : [X
t,x
s
[ n infs t : X
t,x
s
, O
n
. Le raisonnement fait
au debut de la demonstration du theor`eme 4.11 et le theor`eme darret montrent que dapr`es
lEDP satisfaite par v sur [0, T[O pour tout n [x[ tel que d(x, O
c
) >
1
n
, le processus
(M
s
, s [t, T]) deni par
M
n
s
= exp
_

_
sn
t
(r, X
t,x
r
)dr
_
v
_
s
n
, X
t,x
sn
_
+
_
sn
t
exp
_

_
r
t
(, X
t,x

) d
_
g(r, X
t,x
r
) dr
est une martingale. On en deduit que v(t, x) = E(M
n
T
) =

3
i=1
T
i
n
(t, x) o` u :
T
1
n
(t, x) = E
__
Tn
t
g(s, X
t,x
s
) exp
_

_
s
t
(u, X
t,x
u
) du
_
ds
_
,
T
2
n
(t, x) = E
_
v
_

n
, X
t,x
n
_
exp
_

_
n
t
(s, X
t,x
s
) ds
_
1
nT
_
,
T
3
n
(t, x) = E
_
v(T, X
t,x
T
) exp
_

_
T
0
(s, X
t,x
s
) ds
_
1
n>T
_
.
Il sut alors de faire tendre n vers linni et dutiliser la condition terminale `a linstant T sur
lensemble T <
t,x
C
et la condition au bord sur lensemble
t,x
C
T. Les details techniques
sont laisses en exercice. 2
On peut aussi donner une interpretation probabiliste dun probl`eme de Neumann dans lequel
la condition (4.23) est remplacee par

d
i=1
v
x
i
(t, x)
i
(x) = (t, x) dans [0, T[O, o` u (x) est
un champ de vecteurs dans

O tel que si n(x) designe la normale sortante de O, (x) , n(x)) > 0
sur O. Nous renvoyons `a [17] ou [12] pour la formulation precise.
75
4.3 Convergence faible du schema dEuler
Dans la pratique, la vitesse de convergence forte du schema de discretisation dune diusion
est beaucoup moins importante que celle qui permet dapproximer lesperance dune fonction
de la diusion `a linstant T `a laide de celle de lesperance du schema (que lon peut simuler
et dont on peut donc calculer la moyenne empirique). Lexemple suivant montre que la vitesse
forte du schema dEuler est 1/2, mais que sa vitesse faible (celle de lapproximation de E[f(X
T
)]
par E(f(

X
n
T
)] est 1. Soit X
t
= 1 +
_
t
0
X
s
dW
s
; une application immediate de la formule dIto
montre que X
t
= exp
_
W
t

t
2
_
. Lexercice 4.1 montre que la vitesse forte de convergence du
schema dEuler dans cet exemple ne peut pas etre superieure `a 1/2. Par contre, pour f(x) = x
2
ou f(x) = x
3
, un calcul explicite des moments dordre 2 ou 3 de X
1
et

X
1
fournit :
E(X
2
1
) = E [exp(2 W
1
1)] = e et E(X
3
1
) = E
_
exp
_
3 W
1

3
2
__
= e
3
.
Si les variables aleatoires (G
k
, k 1) sont gaussiennes ^(0, 1) independantes, on a :
E
_
[

X
n
1
[
2
_
= E
_
n

k=1
_
1 +
1

n
G
k
_
2
_
=
_
1 +
1
n
_
n
,
tandis que
E
_
(

X
n
1
)
3
_
= E
_
n

k=1
_
1 +
1

n
G
k
_
3
_
=
_
1 +
3
n
_
n
.
Le tableau suivant donne les valeurs de X = ln(n), Y = ln
_
E([X
1


X
1
[)

, qui correspond
`a une approximation forte, et Z
3
= ln
_

E
_

X
3
1
e
3
_

, qui correspond `a une approximation


faible, obtenues par la methode de Monte Carlo sur un echantillon de taille K = 90 000,
T
2
= ln
_

_
1 +
1
n
_
n
e

et enn T
3
= ln
_

_
1 +
3
n
_
n
e
3

pour n = 20 + 10 k, 0 k 8.
n X Y T
2
Z
3
T
3
20 2.9957323 - 2.0404171 - 2.7336123 1.2517926 1.3134547
30 3.4011974 - 2.2486329 - 3.1244057 0.9497913 0.9693137
40 3.6888795 - 2.4021837 - 3.4046637 0.7830386 0.7135859
50 3.912023 - 2.5113522 - 3.623324 0.5294511 0.5100549
60 4.0943446 - 2.6087408 - 3.8026446 0.3771230 0.3409984
70 4.2484952 - 2.6857551 - 3.9546457 0.2065828 0.1964180
80 4.3820266 - 3.8068414 - 4.0865617 0.1501653 0.0701173
90 4.4998097 - 2.8104988 - 4.2030863 0.0596871 0.0420101
100 4.6051702 - 2.859227 - 4.3074388 - 0.2314346 - 0.1428259
Les coecients de regression lineaire de Y en X (resp. Z, T
2
ou T
3
en X) et lecart type
de la regression sont donnes par :
Y en X T
2
en X Z
3
en X T
3
en X
- 0.5105131 - 0.9788650 - 0.8709157 - 0.9086548
0.0033108 0.0024575 0.0629701 0.0099577
76
La gure ci-dessous represente les graphiques de (X, T
2
) et (X, T
3
).
Fig. 17 Vitesse de convergence faible theorique du schema dEuler pour x
2
et x
3
0.50 0.40 1.30 2.20 3.10 4.00 4.90 5.80 6.70 7.60 8.50
4.680
4.044
3.408
2.772
2.136
1.500
0.864
0.228
0.408
1.044
1.680
.
.
faible carre calculee
La gure ci-dessous represente les graphiques de (X, Y ) et (X, Z
3
).
Fig. 18 Vitesse de convergence forte et faible pour x
3
du schema dEuler simule
0.50 0.40 1.30 2.20 3.10 4.00 4.90 5.80 6.70 7.60 8.50
4.680
4.044
3.408
2.772
2.136
1.500
0.864
0.228
0.408
1.044
1.680
.
.
forte simulee
77
Le resultat suivant de D. Talay et L. Tubaro [22] montre que la vitesse de convergence faible
du schema dEuler est 1, cest `a dire le double de la vitesse forte de ce schema. La vitesse de
convergence faible du schema de Milstein est egalement 1 mais la simplicite de simulation du
schema dEuler fait preferer celui-ci dans ce contexte.
Theor`eme 4.16 Soit : R
d
R
rd
et b : R
d
R
d
des fonctions de classe (
4
dont les derivees
partielles dordre 1 `a 4 sont bornees. Pour tout x R
d
et n 1 soit X la diusion :
X
t
= x +
_
t
0
(X
s
) dW
s
+
_
t
0
b(X
s
) ds ,
et notons X
n
soit le schema dEuler

X
n
deni par (3.16), soit X
(n)
linterpole du precedent
sur les points
k T
n
. Alors pour toute fonction f appartenant `a /
4
(R
d
), il existe une constante
C
T
(f) (qui depend de T et de f) telle que

E
_
f(X
n
T
)
_
E
_
f(X
T
)
_

C
T
(f) n
1
. (4.25)
Demonstration : Dapr`es la remarque 4.12, u(t, x) = E
_
f(X
T
)

T
t
_
est de classe (
2,4
et est
solution du probl`eme de Cauchy (4.17) avec la condition terminale u(T, .) = f(.). Lequation
(4.16) et la formule dIto appliquee au schema dEuler

X
n
.
deni par (3.16) montrent que si
a =

,
E
_
f(

X
n
T
) f(X
T
)

= E
_
u(T,

X
n
T
) u(0, x)

= E
_
_
T
0
_
u
t
(t,

X
n
t
) +
d

i=1
u
x
i
(t,

X
n
t
) b
i
(

X
n

n
t
) +
1
2
d

i,j=1

2
u
x
i
x
j
(t,

X
n
t
) a
i,j
(

X
n

n
t
)
_
dt
_
.
Puisque u est solution de (4.17), le fait que u est de classe (
2,4
entrane que les derivees partielles
de u,
u
t
,
u
x
i
et

2
u
x
i
x
j
sont de classe (
1,2
De plus, puisque u est solution du probl`eme de Cauchy
(4.17),
T
n
1
=
_
T
0
E
_
u
t
(t,

X
n
t
)
u
t
(t,

X
n

n
t
)
_
dt ,
T
n
2
=
d

i=1
_
T
0
E
__
u
x
i
(t,

X
n
t
)
u
x
i
(t,

X
n

n
t
)
_
b
i
(

X
n

n
t
)
_
dt ,
T
n
3
=
1
2
d

i,j=1
_
T
0
E
__

2
u
x
i
x
j
(t,

X
n
t
)

2
u
x
i
x
j
(t,

X
n

n
t
)
_
a
i,j
(

X
n

n
t
)
_
dt .
Puisque b est `a croissance lineaire et que les derivees partielles de u sont `a croissance poly-
nomiale, la formule dIto appliquee `a la fonction
u
t
sur lintervalle [
n
t
, t] et linegalite (3.18)
montrent que :

E
_
u
t
(t,

X
n
t
)
u
t
(t,

X
n

n
t
)

E
_
_
t

n
t
_
d

i=1

2
u
t x
i
(t,

X
n
s
) b
i
(

X
n

n
s
)
+
1
2
d

i,j=1

3
u
t x
i
x
j
(t,

X
n
s
) a
i,j
(

X
n
s
)
_
ds
_

C n
1
;
78
nous en deduisons que [T
n
1
[ C n
1
et un calcul similaire pour des termes [T
n
2
[ et [T
n
3
[ termine
la demonstration. 2
La regularite imposee `a la fonction f est genante en pratique et le theor`eme peut etre
ameliore sur ce point, en renfor cant les conditions sur les coecients de la diusion X ; la
demonstration, qui repose sur des techniques de calcul de Malliavin, est omise.
Theor`eme 4.17 Supposons que les coecients et b du Theor`eme 4.16 sont de classe (

avec des derivees partielles dordre superieur ou egal `a 1 bornees et que le generateur A est
uniformement elliptique sur R
d
(cest `a dire que la condition de la denition 4.2 est satisfaite).
Alors si f est de classe (

avec des derivees partielles `a croissance polynomiale, pour tout


entier K 1 il existe des constantes C
k
, 1 k K telles que :
E
_
f(X
n
T
) f(X
T
)

=
K

k=1
C
k
n
k
+ O(n
(K+1)
) .
Notons que dans le theor`eme precedent, la condition dellipticite uniforme du generateur A
peut etre aaiblie.
Remarque 4.18 Notons quen utilisant le theor`eme 4.17 avec 2n pas, on peut peut obtenir
une erreur en n
2
au lieu de n
1
; cest lextrapolation de Romberg. En eet :
E
_
2f(X
2n
T
) f(X
n
T
)

E
_
f(X
T
)

=
2 C
1
2 n

C
1
n
+
2 C
2
4 n
2

C
2
n
2
+ O(n
3
) = O(n
2
) .
4.4 Exercices.
Exercice 4.1 Soit (W
t
, t 0) un mouvement Brownien standard `a valeurs dans R et
X
t
= 1 +
_
t
0
X
s
dW
s
.
1.

Ecrire le schema dEuler

X
n
t
entre les instants 0 et 1 de pas 1/n et donner une expression
explicite de

X
n
1
en fonction de W
i
= W
(i+1)/n
W
i/n
pour 0 i < n. Dans la suite, on
notera

X
1
pour

X
n
1
.
2. Montrer que pour presque tout il existe N() tel que pour tout n N() et tout
i = 0 , , n 1, [W
i
()[
1
2
.
3. Montrer que pour tout n N() :
ln
_

X
1
()
_
= W
1
()
1
2
+ T
1
() +
1
3
T
2
() +
n
() ,
o` u :
T
1
=
1
2
_
1
n1

i=0
W
2
i
_
, T
2
=
n1

i=0
W
3
i
et [
n
[ C T
3
o` u T
3
=
n1

i=0
W
4
i
.
4. Montrer que E(T
6
1
) C n
3
et que E(T
4
2
) C n
4
. En deduire que pour 0 <
2
3
,
quand n + :
n

T
2
1
0 p.s. et n

T
2
0 p.s.
79
5. Montrer quil existe une constante C et une variable aleatoire U
3
telles que : T
3
=
C
n
+U
3
et E(U
2
3
) C n
3
. En deduire que si 0 < 1, n

n
0 p.s.
6. Montrer que si (Z
n
, n 1) est une suite de variables aleatoires positives qui converge en
loi vers une variable aleatoire Z qui a une densite, alors pour tout > 0, la suite (n

Z
n
)
converge en probabilite vers + et en deduire que P (limsup
n
n

Z
n
= +) = 1.
7. Montrer que si >
1
2
, limsup
n
n

T
1
= + p.s. et en deduire :
P
_
limsup
n
n

[X
1


X
1
[ = +
_
pour >
1
2
.
Exercice 4.2 Soit A loperateur dierentiel deni sur les fonctions de classe (
2
sur R par
Ag(x) =
1
2
e
2x
2
g +xg

.
1.

Ecrire un algorithme de simulation de la diusion (X
t
, t 0) ayant A comme generateur
innitesimal.
2.

Ecrire un algorithme de simulation du calcul approche de la fonction g : [0, 1] R
solution du probl`eme de Dirichlet :
_
Ag(x) cos(x) g(x) = sin(x) , x ] 1, +1[ ,
g(1) = g(1) = 1 .
3.

Ecrire un algorithme de simulation du calcul approche de la solution u : [0, +[R R
du probl`eme de Cauchy :
_
u
t
(t, x) = Au(t, x) ,
u(0, x) = cos(x) .
4.

Ecrire un algorithme de simulation du calcul approche de la solution v : [0, 1] R R
du probl`eme de Cauchy :
_

v
t
(t, x) = e
t
Av(t, x) + sin(t + x) ,
v(1, x) = cos(x) .
Exercice 4.3 Soit A loperateur dierentiel deni sur les fonctions de classe (
2
(R
2
) pour x =
(x
1
, x
2
) par :
Af(x) = (1 + cos
2
x
1
)

2
f
x
2
1
(x) + 2 sin(x
1
+ x
2
)

2
f
x
1
x
2
(x)
+(1 + cos
2
x
2
)

2
f
x
2
2
(x) + x
1
f
x
1
(x) + x
2
f
x
2
(x) .
1. Montrer que A est uniformement elliptique sur R
2
.
2. Soit D le disque unite ouvert de R
2
.

Ecrire un algorithme de calcul approche de la solution
du probl`eme de Dirichlet :
_
Ag(x) (x
1
+ x
2
)
2
g(x) = e
(x
1
+x
2
)
2
, x D,
g(x) = 1 , x D.
80
3.

Ecrire un algorithme de simulation du calcul approche de la solution du probl`eme de
Cauchy :
_
u
t
(t, x) = Au(t, x) , (t, x) [0, T] R
2
,
u(0, x) = e
(x
1
+x
2
)
2
, x R
2
.
4. On note A
t
loperateur dierentiel deni par
A
t
f = e
t
Af .
(a) Modier les algorithmes precedents pour resoudre le probl`eme de Cauchy :
_
u
t
(t, x) = A
t
u(t, x) , (t, x) ]0, T] R
2
,
u(0, x) = cos((x
1
x
2
) , x R
2
.
(b)

Ecrire un algorithme de simulation du calcul approche de la solution du probl`eme
de Cauchy :
_
v
t
(t, x) = A
t
v(t, x) + cos(t x
1
x
2
) u(t, x) + sin(t x
1
x
2
) , (t, x) [0, T[R
2
,
v(T, x) = 1 , x R
2
.
81
5 Methode de Monte Carlo
5.1 Introduction
Le but de cette section est de justier la methode, dindiquer la precision quelle fournit et les
intervalles de conance que lon peut obtenir pour les valeurs numeriques des integrales que lon
souhaite evaluer. Cette methode qui converge lentement a comme interet detre insensible
`a la dimension des probl`emes etudies (contrairement `a des methodes classiques danalyse
numerique qui ne sont performantes quen petite dimension ) et `a la regularite de la fonction
g dont on cherche `a calculer lintegrale
_
[0,1]
d
g(x
1
, , x
d
) dx
1
dx
d
= E[g(U
1
, , U
d
)]
lorsque les variables aleatoires (U
i
, 1 i d) sont i.i.d. de loi uniforme |([0, 1]).
La justication theorique de la methode est la loi forte des grands nombres qui permet de
ne faire appel qu`a une realisation dun echantillon, cest `a dire `a la suite X
n
() pour un seul
.
Theor`eme 5.1 Soit (X
n
= (X
k
n
, 1 k d), n 1) une suite de variables aleatoires `a valeurs
dans R
d
independantes de meme loi (i.i.d.) integrables, cest ` a dire telles que
d

k=1
E[X
k
1
[) < +
et

X
n
=
1
n

n
i=1
X
i
. Alors pour presque tout :
lim
n+

X
n
() = E(X
1
)
Lhypoth`ese dintegrabilite est essentielle, comme le montre lexemple classique suivant :
soit (X
n
, n 1) une suite de variables aleatoires i.i.d. de loi de Cauchy, cest `a dire de densite
1
(1+x
2
)
. Alors E([X
1
[) = +et la fonction caracteristique de X
1
est E
_
exp(itX
1
)

= exp([t[).
On en deduit immediatement que la fonction caracteristique de

X
n
est egalement exp([t[), et
que

X
n
suit donc une loi de Cauchy pour tout n 1 et ne converge pas presque s urement vers
une constante.
La vitesse de convergence est bien s ur un probl`eme crucial pour matriser lerreur commise
en approximant la valeur souhaitee E(X) par

X
n
() que lon peut simuler. Linegalite de
Bienayme-Chebychev donne une premi`ere estimation tr`es grossi`ere de cette erreur :
Lemme 5.2 Soit (X
n
, n 1) une suite de variables aleatoires reelles i.i.d. de carre integrable,
cest `a dire telle que E([X
1
[
2
) < +. Alors si Var(X
1
) = E([X
1
[
2
) E(X
1
)
2
, pour tout > 0 :
P
_

X
n
E(X
1
)

Var(X
1
)
n
2
. (5.1)
Cette inegalite donne de tr`es mauvaises estimations de la probabilite que la moyenne empi-
rique soit loin de lesperance et peut etre nettement amelioree par un resultat tr`es simple
de grandes deviations sous des hypoth`eses renforcees dintegrabilite. Ainsi, lorsque les X
n
ont
des moments exponentiels, le theor`eme suivant de Chernov montre que la probabilite que

X
n
appartienne `a un intervalle qui ne contient pas E(X
1
) converge vers 0 `a une vitesse exponen-
tielle. Soit X une variable aleatoire reelle ; pour tout t R, on note
X
(t) = ln
_
E
_
e
t X
_
la
log-Laplace de X et T
X
= t R :
X
(t) < + le domaine de
X
. Linegalite de Holder
montre que
X
est convexe et le theor`eme de derivation sous lintegrale de Lebesgue montre
que est derivable sur linterieur de T
X
avec

X
(t) =
E
_
X e
tX
_
E
_
e
tX
_
.
82
Theor`eme 5.3 Soit X une variable aleatoire reelle telles que 0 appartient `a linterieur de T
X
;
on note

X
(x) = suptx
X
(t) : t R = suptx
X
(t) : t T
X

la transformee de Cramer de X. Soit (X


n
, , n 1) une suite de variables aleatoires reelles
i.i.d. de meme loi que X ; alors pour tout a < E(X) < b :
P
_

X
n
b
_
e
n
X
(b)
et P
_

X
n
a
_
e
n
X
(a)
. (5.2)
Demonstration : Soit b > E(X) ; pour tout t > 0 et n 1,
P(

X
n
b) E
_
e
nbt+tSn
_
= e
nbt+n
X
(t)
.
On en deduit que
P(

X
n
b) exp
_
nsupbt
X
(t) : t > 0
_
Pour prouver linegalite (5.2) lorsque b > E(X), il sut donc de montrer que supbt
X
(t) :
t > 0 =
X
(b) d`es que b > E(X). Notons g la fonction denie par g(t) = b t
X
(t) pour tout
t T
X
. Clairement, g est concave et g(0) = 0. De plus, puisque 0 appartient `a linterieur de
T
X
, g

(0) = b E(X) > 0. On en deduit que supbt


X
(t) : t > 0 = supbt
X
(t) : t
T
X
=
X
(b). Le raisonnement, similaire pour lintervalle ] , a[ avec a < E(X) est laisse
comme exercice. 2
Pour obtenir des intervalles de conance de E(X
1
), on utilise le theor`eme de la limite centrale
suivant.
Theor`eme 5.4 Soit (X
n
, n 1) une suite de variables aleatoires reelles i.i.d. de carre in-
tegrable, m = E(X
1
) et
2
= Var(X
1
). Alors la suite

X
n
m
_
converge en loi vers une
variable N de loi gaussienne centree reduite ^(0, 1).
On en deduit immediatement le corollaire suivant :
Corollaire 5.5 Soit (X
n
, n 1) une suite de variables aleatoires reelles i.i.d. de carre inte-
grable desperance m et de variance
2
. Alors pour toute fonction f : R R continue bornee
(resp. continue sauf en un nombre ni de points), si N designe une variable aleatoire gaussienne
^(0, 1) :
lim
n+
E
_
f
_
n

X
n
m
_
__
= E(f(N)) =
_
+

f(x)
1

2
e

x
2
2
dx.
De plus pour tout couple de nombre reels a < b, on a
lim
n+
P
_

n
a

X
n
m

n
b
_
=
_
b
a
1

2
e

x
2
2
dx.
Une table de fonction de repartition dune loi gaussienne centree reduite montre que si N est
^(0, 1), P([N[ 1.96) = 0.95. On en deduit que pour n assez grand,
P
_
[

X
n
E(X
1
)[ 1.96

n
_
0.95 ,
cest `a dire que lon a un intervalle de conance de E(X
1
) `a 95% en posant
_

X
n
1.96

n
,

X
n
+ 1.96

n
_
. (5.3)
Lordre de grandeur de lerreur commise etant 1.96

n
, il faut imperativement estimer lecart
type sil est inconnu. Cest le but du resultat suivant :
83
Theor`eme 5.6 Soit (X
i
, 1 i n) un echantillon de taille n dune variable aleatoire X de
carre integrable (cest `a dire n variables aleatoires independantes de meme loi que X). Notons

X
n
la moyenne empirique de cet echantillon; la variance empirique de lechantillon est

2
n
=
1
n 1
n

i=1
_
X
i


X
n
_
2
=
n
n 1
_
1
n
n

i=1
X
2
i


X
2
n
_
. (5.4)
Alors
2
n
est un estimateur sans biais consistant de
2
, cest `a dire que E
_

2
n
_
=
2
et que la
suite
2
n
converge presque s urement vers
2
quand n +.
Le theor`eme precedent montre que
2
n
est tr`es facilement calcule `a partir des sommes

n
i=1
X
i
et

n
i=1
X
2
i
. De plus, en rempla cant par
n
, on obtient un intervalle de conance de E(X
1
)
avec une probabilite proche de 0.95 (quand n est grand) :
_

X
n
1.96

n

n
,

X
n
+ 1.96

n

n
_
. (5.5)
Signalons enn que le Theor`eme de la Limite Centrale peut parfois etre ameliore (par
exemple en imposant un peu plus dintegrabilite). Le theor`eme suivant donne la vitesse de
convergence des fonctions de repartition vers celle de la loi ^(0, 1).
Theor`eme 5.7 (Berry-Essen) Soit (X
n
, n 1) une suite de variables aleatoires reelles i.i.d.
centrees (cest `a dire que E(X
1
) = 0) et telles que E([X
1
[
3
) < +. Notons
2
la variance de
X
1
et pour tout t R notons
F(t) =
_
t

2
e

x
2
2
dx
la fonction de repartition dune loi gaussienne ^(0, 1). Pour tout entier n 1 et t R, notons
F
n
(t) = P
_
n
i=1
X
i

n
t
_
.
Alors il existe une constante C [0.398 , 0.8] telle que
sup
tR
[F
n
(t) F(t)[ C
E([X
1
[
3
)

n
.
Les deux exemples suivants montrent les limites pratiques de la methode.
On cherche tout dabord `a estimer la probabilite quune variable aleatoire appartienne
`a un ensemble. Cela revient `a estimer le param`etre p dune loi de Bernoulli X pour laquelle
E(X) = p et Var(X) = p (1 p) <
1
4
. An que lerreur

n
soit inferieure `a 0.01, il faut donc
choisir n de lordre de 2500 et lintervalle de conance de p donne par le theor`eme de la limite
centrale est donc [ x
n
1.96 10
2
, x
n
1.96 10
2
], ce qui est convenable dans certaines
situations. Dans dautres cas (par exemple dans le cas de second tour delections presidentielles
assez serrees ), si on interroge n = 2 500 personnes et que 1 250 declarent vouloir voter pour
chacun des deux candidats, on obtient une erreur beaucoup trop grande, avec un intervalle de
conance [0.48 , 0.52] de la proportion p des electeurs qui voteront pour lun des candidats.
Enn si p est tr`es proche de 0 (ou de 1), comme

p (resp.

1 p), lerreur relative est
de lordre de
2

pn
et pour estimer p il faut prendre n tr`es grand.
84
Dans le second exemple, on cherche `a estimer un moment exponentiel dune variable
aleatoire G gaussienne ^(0, 1), par exemple = E
_
exp(a G)

= exp(
a
2
2
). Si (G
n
, n 1)
designe une suite i.i.d. ^(0, 1) et si on note
n
=
exp(a G
1
)++exp(a Gn)
n
alors dapr`es le theor`eme
de la limite centrale,
n

n
N o` u N suit une loi ^(0, 1). La variance de la variable aleatoire
exp(a G) est
2
= exp(2 a
2
) exp(a
2
) et lerreur relative est de lordre de

n
=
_
exp(a
2
)1
n
.
Ainsi pour a = 1, une erreur relative de 4% necessite 1 074 tirages, tandis que pour a = 5, une
erreur relative de 100% necessite 7.2 10
10
tirages. Dans ce dernier cas, pour une valeur exacte
de 268 337, si la valeur estimee par 10
10
tirages est 854 267 et lintervalle de conance `a 95%
est [557 029 , 2 265 563].
Ce dernier exemple est relie `a deux quantites importantes en nance. Pour une variable
aleatoire G gaussienne ^(0, 1), F(t) =
_
t

2
exp(
x
2
2
) dx, et des constantes > 0 (de
lordre de 1) et K > 0, le call (prix dune option dachat) est donne par la formule de Black et
Sholes :
C = E
_
(e
G
K)
+
_
= e

2
2
F
_

ln(K)

_
K F
_

ln(K)

_
;
Pour = K = 1, on a la valeur exacte C = 0.887. De plus, Var
_
(e
G
1)
+
_
4.16, do` u

C
2.04.
Le put (prix dune option de vente) est
P = E
_
(K e
G
)
+
_
= K F
_
ln(K)

_
e

2
2
F
_
ln(K)


_
.
De nouveau pour = K = 1, on a la valeur exacte P = 0, 238, tandis que Var
_
(1 e
G
)
+
_

0.0885, do` u
P
0.297. Ceci entrane que, suivant la taille de lechantillon, la demi-longueur
de lintervalle de conance `a 95 % de C ou de P est
n 1.96

C

n
1.96

P

n
10
2
0.400 5.810
2
10
3
0.126 1.810
2
10
4
0.040 610
3
Lintervalle de conance du call est donc environ 7 fois plus grand que celui du put et lap-
proximation du put est donc bien meilleure. Puisque
C P = E
_
e
G
K
_
= e

2
2
K ,
on a donc interet `a calculer le put P par la methode de Monte-Carlo pour en deduire le call C.
5.2 Reduction de la variance.
Les methodes proposees seront systematiquement etudiees sur le put (ou le call) precedent.
5.2.1

Echantillonnage preferentiel
Soit X une variable aleatoire (par exemple reelle) de densite f ; on cherche `a calculer
E(g(X)) =
_
R
g(x) f(x) dx. Soit

f une autre densite sur R et soit Y une variable aleatoire
de densite

f. Alors
E
_
g(X)
_
=
_
R
g(x) f(x)

f(x)

f(x) dx = E
_
g(Y ) f(Y )

f(Y )
_
.
85
Si on note Z =
g(Y ) f(Y )

f(Y )
, le calcul de E(g(X)) par lapproximation
1
n

n
i=1
g(Y
i
) f(Y
i
)

f(Y
i
)
pour une
suite (Y
i
) i.i.d. de densite

f sera plus ecace que par lapproximation
1
n

n
i=1
g(X
i
) pour une
suite (X
i
) i.i.d. de densite f si Var(Z) << Var(g(X)).
Donnons deux exemples dutilisation de cette methode.
Exemple 1. On cherche tout dabord `a calculer
_
1
0
cos(
x
2
) dx, ce qui correspond `a la fonction
g(x) = cos(
x
2
) et `a la densite f dune variable aleatoire U de loi uniforme |([0, 1]). La variance
de g(U) est
Var(g(U)) =
_
1
0
cos
2
_
x
2
_
dx
__
1
0
cos
_
x
2
_
dx
_
2
=
1
2

_
2

_
2
9.47 10
2
.
On remplace la loi de |([0, 1]) par une fonction

f telle que le produit fg soit proche de

f.
Puisque f est constante et que lon sait simuler une variable aleatoire de densite polynomiale,
on prend pour densite

f une fonction polynome paire de degre deux, positive sur [0, 1] et qui
vaut 1 en 0 et 0 en 1 ; comme
_
1
0
(1 x
2
) dx =
2
3
on pose

f(x) =
3
2
(1 x
2
) 1
[0,1]
(x). Si Y a pour
densite

f, la variable aleatoire Z =
2 cos(
Y
2
)
3 (1Y
2
)
a pour esperance E(g(X)) =
2

et :
Var(Z) =
2
3
_
1
0
cos
2
(
x
2
)
1 x
2
dx
_
2

_
2
1.0242 10
3
;
on voit que la variance est environ divisee par 100 et que la longueur des intervalles de conance
est donc environ divisee par 10. La fonction de repartition Y est denie pour t [0, 1] par
P(Y t) =
3
2
_
t
0
(1 x
2
) dx =
3
2
_
t
t
3
3
_
. Linverse de la fonction de repartition peut etre
explicitee par la methode de Cardan. On peut egalement simuler la variable Y par la methode
du rejet par rapport `a la densite de la loi uniforme U. On gagne ici en precision, mais on perd
en temps de calcul.
Exemple 2. Cas des call et des put avec K = 1. Pour de signe quelconque, on cherche `a
calculer le put
P = E
_
(1 e
G
)
+
_
=
_
R
(1 e
x
)
+
e

x
2
2

2
dx.
Clairement, 1 e
x
0 si et seulement si x < 0 pour > 0 (resp. x > 0 si < 0) et le
changement de variable y = x
2
montre que pour tout ,= 0 :
P =
_
+
0
(1 e

y
)
+
+ (1 e

y
)
+

2 y
1
2
e

y
2
dy .
La fonction

f(y) =
1
2
e

y
2
1
]0,+[
(y) est la densite dune variable aleatoire Y de loi exponentielle
de param`etre
1
2
et on a alors :
P = E
_
(1 e

Y
)
+
+ (1 e

Y
)
+

2 Y
_
.
Le tableau des precisions que lon obtient pour le put avec = 1 et la valeur exacte 0.23842
est :
86
n 1.96

n
10
2
1.05 10
2
10
3
4 10
3
10
4
10
3
On voit que pour 10 000 tirages, lerreur relative est environ divisee par 6.
On peut aussi directement calculer le call C = E
_
(e
G
K)
+
_
en utilisant la fonction
dimportance. On xe m R et on pose

f(x) =
1

2
exp
_

(xm)
2
2
_
;

f est la densite dune
variable aleatoire Y = G + m de loi ^(m, 1). Un calcul facile montre que si G suit une loi
^(0, 1), pour toute fonction borelienne : R R positive ou bornee,
E [(G)] = E
_
(G+ m) e
mG
m
2
2
_
= E
_
(G+ m) e
m(G+m)+
m
2
2
_
.
Il faut donc pour chaque fonction determiner une valeur de m telle que la variance de X
m
=
(G+m) e
m(G+m)+
m
2
2
soit minimale, en tout cas inferieure `a celle de (G). Posons par exemple
(x) = (exp( x) K)
+
avec , K > 0 et notons
2
m
la variance de X
m
dans ce cas ; alors :

2
m
= E
_
_
e
(G+m)
K
_
+2
e
2 m(G+m)+m
2
_
E
_
_
e
G
K
_
+
_
2
=
_
+
ln(K)

_
e
y
K
_
2
e
my+
m
2
2
e

y
2
2

2
dy E
_
_
e
G
K
_
+
_
2
.
On en deduit que

m
(
2
m
) =
1

2
_
+
ln(K)

_
e
y
K
_
2
(my) e
my+
m
2
2

y
2
2
dy ;
donc pour m m
0
=
ln(K)

,

m
(
2
m
) 0. On prend donc comme fonction

f la densite de G+m
0
et lorsque K >> 1, ceci ameliore nettement la methode de Monte-Carlo.
Une generalisation au cas de vecteurs gaussiens est proposee dans lexercice 5.1.
5.2.2 Variables de controle
Lidee de la methode consiste `a trouver une variable aleatoire Y et une constante C telles
que E(X) = E(Y )+C avec Var(Y ) < Var(X). Il faut cependant prendre garde au fait que cette
methode risque de provoquer une augmentation du temps de calcul et arbitrer entre precision
et temps dexecution. On cherche donc `a ecrire E(f(X)) sous la forme :
E
_
f(X)
_
= E
_
f(X) h(X)
_
+ E
_
h(X)
_
dans le cas o` u E
_
h(X)
_
peut etre calcule explicitement et Var
_
f(X) h(X)
_
est inferieure `a
Var
_
f(X)
_
. On calcule alors E
_
f(X) h(X)
_
par la methode de Monte Carlo. Si par exemple
on cherche `a calculer
_
1
0
e
x
dx, comme e
x
1 +x pr`es de 0, on ecrit
_
1
0
e
x
dx =
_
1
0
(e
x
1 x) dx +
3
2
.
Si U suit une loi |([0, 1]), la variance de e
U
vaut
1
2
(e
2
1) (e 1)
2
0.242 tandis que la
variance de e
U
1 U vaut
1
2
e
2
2 e +
11
6
(e
5
2
)
2
0.0436 ; elle donc divisee par 5 environ.
Comme nous lavons remarque `a la n de la section 5.1, si on cherche `a calculer le call C,
il est preferable de calculer le put P et decrire C = P + e

2
2
K.
87
5.2.3 Variables antithetiques.
Pour degager lidee de la methode, commen cons par lexemple simple suivant : on cherche
`a calculer I =
_
1
0
f(x) dx. Si U est une variable aleatoire de loi uniforme |([0, 1]), 1 U suit
egalement une loi uniforme |([0, 1]), et on a donc
_
1
0
f(x) dx = E
_
1
2
_
f(U) + f(1 U)
_
_
.
On en deduit que si les variables aleatoires (U
i
, i 1) sont i.i.d. de loi |([0, 1]), on peut
approximer lintegrale I par

I
2n
=
1
2n
[f(U
1
) + f(1 U
1
) + + f(U
n
) + f(1 U
n
)] .
La methode de Monte Carlo usuelle ferait approximer I par
I
2n
=
1
2n
[f(U
1
) + f(U
2
) + f(U
2n1
) + f(U
2n
)] .
De fa con evidente, Var(I
2n
) =
1
2n
Var(f(U
1
)). Dautre part
Var(

I
2n
) =
1
n
Var
_
1
2
_
f(U
1
) + f(1 U
1
)

_
=
1
4n
_
Var
_
f(U
1
)
_
+ Var
_
f(1 U
1
)
_
+ 2Cov
_
f(U
1
), f(1 U
1
)
_
_
=
1
2n
_
Var
_
f(U
1
)
_
+ Cov
_
f(U
1
), f(1 U
1
)
_
_
On en deduit que si les variables aleatoires f(U
1
) et f(1 U
1
) sont negativement correlees,
cest `a dire si Cov
_
f(U
1
), f(1 U
1
)
_
0, Var(

I
2n
) Var(I
2n
). La methode se generalise en
dimension d quelconque. Si les composantes du vecteur U = (U
1
, , U
d
) sont des variables
aleatoires i.i.d. de loi |([0, 1]), la transformation (U
1
, , U
d
) (1 U
1
, , 1 U
d
) laisse
la loi du vecteur U invariante. Plus generalement, soit (X
1
, , X
2n
) un 2n-echantillon de la
variable aleatoire X `a valeurs dans R
d
telle quil existe une transformation T : R
d
R
d
pour
laquelle les lois de X et de T(X) sont les memes. Lestimateur

I
2n
=
1
2n
n

j=1
_
f(X
j
) + f(T(X
j
))

est tel que si Cov


_
f(X), f(T(X))
_
0, alors la variance de

I
2n
est inferieure ou egale `a celle
de I
2n
=
1
2n

2n
j=1
f(X
j
).
La proposition suivante montre que sous des conditions de monotonie de f, les variables
aleatoires f(X) et f(T(X)) sont negativement correlees.
Proposition 5.8 Soit (X
1
, , X
n
) des variables aleatoires i.i.d. de meme loi `a valeurs dans
R f, g : R
n
R des fonctions telles que pour chaque i 1, , n les fonctions x
i

f(x
1
, , x
i1
, x
i
, x
i+1
, , x
n
) et x
i
g(x
1
, , x
i1
, x
i
, x
i+1
, , x
n
) soient toutes crois-
santes (resp. decroissantes) pour tout x
i
= (x
1
, , x
i1
, x
i+1
, , x
n
). Alors
E
_
f(X
1
, , X
n
) g(X
1
, , X
n
)

E
_
f(X
1
, , X
n
)

E
_
g(X
1
, , X
n
)

. (5.6)
88
Demonstration : Soit n = 1. Nous supposerons que les fonctions f et g sont croissantes par
rapport `a chaque argument ; le raisonnement est similaire dans le cas o` u elles sont decroissantes.
Soit X et Y des variables aleatoires reelles ; la croissance de f et g entrane que
E
_
(f(X) f(Y )) (g(X) g(Y ))

0 .
On en deduit que
E
_
f(X) g(X)

+ E
_
f(Y ) g(Y )

E
_
f(X) g(Y )

+ E
_
f(Y ) g(X)

;
en choisissant une variable aleatoire Y independante de X et de meme loi, on en deduit que
E
_
f(X) g(X)

E
_
f(X)

E
_
g(X)

.
Supposons linegalite (5.6) vraie pour n 1 1 et montrons-la pour n. Lindependance des
variables aleatoires X
i
, 1 i n entrane que pour toute fonction h : R
n
R,
E
_
h(X
1
, , X
n
) [ X
n

= H(X
n
) avec H(x) = E
_
h(X
1
, , X
n1
, x)

.
Notons E
_
f(X
1
, , X
n
) [ X
n

= (X
n
) et E
_
g(X
1
, , X
n
) [ X
n

= (X
n
). Lhypoth`ese de
recurrence entrane que pour tout x,
E
_
f(X
1
, , X
n1
, x) g(X
1
, , X
n1
, x)

(x) (x) .
On en deduit que E
_
f(X
1
, , X
n
) g(X
1
, , X
n
) [ X
n
= x

(x) (x), do` u :


E
_
f(X
1
, , X
n
) g(X
1
, , X
n
)

E
_
(X
n
) (X
n
)

.
Puisque les fonctions f((X
1
(), , X
n1
(), .) et g(X
1
(), , X
n1
(), .) ont la meme mo-
notonie par rapport `a la n-i`eme variable pour tout (X
1
(), , X
n1
()), les fonctions et
ont la meme monotonie et on conclut grace `a (5.6) applique avec n = 1. 2
En appliquant cette proposition avec n = 1 et g = f T, on deduit immediatement le
corollaire suivant :
Corollaire 5.9 Soit f : R R une fonction monotone, T : R R une fonction decroissante
et X une variable aleatoire reelle telle que les variables aleatoires T(X) et X ont meme loi.
Soit (X
n
, n 1) une suite de variables aleatoires i.i.d. de meme loi que X. Alors pour tout
n 1 :
Var
_
1
2n
n

i=1
_
f(X
i
) + f(T(X
i
))
_
_
Var
_
1
2n
2n

i=1
f(X
i
)
_
.
Ce corollaire montre que si f est monotone, en choisissant 1 U quand U suit une loi uni-
forme |([0, 1]), les variables aleatoires f(U) et f(1U) sont negativement correlees. Lexemple
suivant reprend letude du put P = E
__
K e
G
_
+

. La transformation T(x) = x est


decroissante et laisse invariante la loi de la gaussienne ^(0, 1) et la fonction f(x) = (Ke
x
)
+
est decroissante si > 0 et croissante si < 0. On en deduit que
1
2
_
(Ke
G
)
+
+(Ke
G
)
+

a une variance inferieure `a celle de (K e


G
)
+
.
89
5.2.4 Methode de stratication
Cette methode est classique dans la theorie des sondages. On veut calculer I = E
_
g(X)
_
=
_
R
d
g(x) f(x) dx o` u X est une variable aleatoire `a valeurs dans R
d
de densite f. On introduit
une partition de (A
i
, 1 i m) de R
d
et on pose p
i
= P(X A
i
) et I
i
= E
_
g(X) [ X A
i
_
pour 1 i m; alors
I =
m

i=1
E
_
g(X) [ X A
i
_
P(X A
i
) =
m

i=1
p
i
I
i
.
On approxime I
i
par la moyenne empirique

I
i
dun echantillon de taille n
i
de la loi conditionnelle
de X sachant X A
i
et on note
2
i
= Var
_
g(X) [ X A
i
_
. Lestimateur considere de I est

I =
m

i=1
p
i

I
i
est sans biais et convergent si chaque n
i
tend vers + quand n +. Si les estimateurs

I
i
, 1 i m sont independants, la variance de

I est
Var(

I) =
m

i=1
p
2
i

2
i
n
i
.
Si on dispose au total de n =

m
i=1
n
i
simulations, le minimum de Var(

I) sous la contrainte

m
i=1
n
i
= n est realise lorsque n
i
= c
i
p
i
, soit pour
n
i
= n
p
i

d
j=1
p
j

j
, 1 i m
et vaut
Var(

I) =
1
n
_
m

i=1
p
i

i
_
2
.
Pour la comparer `a la variance de la moyenne empirique des g(X
i
) pour un echantillon de taille
n, calculons la variance de g(X) ;
Var(g(X)) = E
_
g(X)
2
_
E
_
g(X)
_
2
=
m

i=1
p
i
E
_
g(X)
2
[ X A
i
_

_
m

i=1
p
i
E
_
g(X) [ X A
i
_
_
2
.
En introduisant les variances conditionnelles et en utilisant deux fois la convexite de la fonction
x x
2
et le fait que

m
i=1
p
i
= 1 (cest `a dire linegalite de Schwarz pour la probabilite p
i
),
nous deduisons que
Var(g(X)) =
m

i=1
p
i

2
i
+
m

i=1
p
i
E
_
g(X) [ X A
i
_
2

_
m

i=1
p
i
E
_
g(X) [ X A
i
_
_
2

i=1
p
i

2
i

_
m

i=1
p
i

i
_
2
.
On en deduit que la variance de

I
n
est inferieure ou egale `a celle de
1
n

n
j=1
g(X
j
). Cependant,
le choix optimal de n
i
demande de connatre les variances conditionnelles
2
i
, ce qui nest pas
90
toujours le cas ; on peut alors les estimer par une methode de Monte Carlo. Il faut prendre garde
au fait quun mauvais choix des n
i
peut augmenter la variance. Remarquons cependant que
le choix n
i
= np
i
, sil nest pas optimal, diminue toujours la variance. En eet dans ce cas
Var(

I) =
1
n
m

i=1
p
i

2
i

1
n
Var
_
g(X)
_
= Var
_
1
n
n

j=1
g(X
j
)
_
.
Dans lexemple du calcul dun call C = E
__
e
G
K
_
+
_
, en posant d =
ln(K)

, il est naturel
dintroduire A
1
=] , d[ et A
2
= [d, +[. Dans ce cas
1
= 0 et les n points sont donc aectes
pour le calcul de

I
2
.
Dun point de vue pratique, il est important de savoir simuler dans les diverses zones A
i
sans
faire appel `a la methode du rejet, mais plutot par inverse de la fonction de repartition (cest
possible dans le cas du call en se referant `a une fonction de repartition tabulee en dimension 1,
mais dans ce cas les simulations sont inutiles ...). Le choix de la partition est delicat, sauf dans
des cas concrets o` u elle est imposee par le mod`ele (geographie, sexe, ...).
5.2.5 Valeur moyenne ou conditionnement
Lidee consiste `a conditionner X par une variable aleatoire Y , ce qui laisse lesperance
inchangee mais diminue la variance puisque lesperance conditionnelle contracte la norme L
2
.
Ainsi
E(X) = E
_
E(X[ Y )
_
et Var
_
E(X [ Y )
_
Var(X) .
La diculte reside bien s ur dans lexpression explicite de la fonction (y) = E(X[ Y = y)
telle que E(X[ Y ) = (Y ). Dans le cas particulier o` u X = f(Y, Z) avec Y, Z independantes :
E
_
f(Y, Z) [ Y = y
_
= E
_
f(y, Z)
_
.
Par exemple, si lon veut calculer P(X Y ) pour deux variables aleatoires X et Y indepen-
dantes, on a
P(X Y ) = E
_
F(Y )
_
o` u F est la fonction de repartition de X ; il faut alors pouvoir calculer F explicitement, mais
la reduction de variance peut etre importante quand la probabilite P(X Y ) est petite.
5.3 Exercices
Exercice 5.1 Notons . , .) le produit scalaire et [ . [ la norme euclidienne dans R
d
. Soit X =
(X
1
, , X
d
) un vecteur gaussien centre de matrice de covariance la matrice Id. Pour tout
vecteur m R
d
et toute fonction borelienne : R
d
R positive ou bornee, soit X
m
=
(X + m) exp
_
m, X)
[m[
2
2
_
, et
2
m
la variance de X
m
.
1. Monter que pour tout i = 1, , d,

m
i
(
2
m
) = E
_

2
(X) e
m, X)+
|m|
2
2
(m
i
X
i
)
_
.
2. Soit
i
,
i
, 1 i d et K des constantes strictement positives, m
i
(a) = a
i

i
et
(X) =
_
K

d
i=1

i
e

i
X
i
_
+
. Montrer que si

d
i=1

i
> K,

2
m(a)
0 pour
K

d
i=1

d
i=1
(
i

i
)
2
a 0
91
et en deduire que pour M
i
=
i

i
K
P
d
i=1

i
P
d
i=1
(
i

i
)
2
, on a
2
M

2
0
.
Exercice 5.2 Soit (X
n
, n 1) et (Y
n
, n 1) des suites independantes de variables aleatoires
i.i.d. de meme loi que la variable aleatoire X `a valeurs dans R
d
, f, g : R
d
R. On cherche `a
calculer E
_
f(X) g(X)
_
et on pose

I
1
n
=
1
n
n

i=1
[f(X
i
) g(Y
i
)] et

I
2
n
=
1
n
n

i=1
[f(X
i
) g(X
i
)] .
Calculer les variances de

I
1
n
et

I
2
n
. Dans quel cas vaut-il mieux utiliser

I
2
n
?
Exercice 5.3 Soit X une variable aleatoire gaussienne ^(m,
2
), F la fonction de repartition
dune variable ^(0, 1), K > 0 et d =
mln(K)

.
1. Montrer que
E
_
1
Xln(K)
e
X
_
= e
m+

2
2
F(d + ) .
2. Montrer la formule de Black et Sholes :
E
_
_
e
X
K
_
+
_
= e
m+

2
2
F(d + ) K F(d) .
Exercice 5.4 Soit X et Y des variables aleatoires reelles independantes, F la fonction de
repartition de X et G la fonction de repartition de Y . On veut calculer
p = P(X + Y t)
par la methode de Monte Carlo.
1. Donner une procedure de reduction de variance basee sur la methode de conditionnement.
2. On suppose que F et G sont connues, au moins numeriquement. Expliquer comment
implementer une methode de variables antithetiques et pourquoi elle diminue la variance
dans ce cas.
3. Soit h une fonction telle que
_
1
0
[h(x)[
2
dx < +. Soit (U
n
, n 1) une suite de variables
aleatoires i.i.d. de loi uniforme |([0, 1]). Montrer que
Var
_
1
n
n

i=1
h
_
i 1 +U
i
n
_
_
Var
_
1
n
n

i=1
h(U
i
)
_
.
Exercice 5.5 On cherche `a calculer lintegrale I =
_
2
0
x
2
dx par diverses methodes. Implementer
les methodes proposees pour diverses tailles dechantillon, calculer la valeur approchee corres-
pondante de I (verier quelle converge bien vers
8
3
), la variance empirique dans chaque cas
(verier quelle converge bien vers la variance theorique que lon calculera dans chaque cas),
donner un intervalle de conance correspondant et, pour chaque methode, determiner le temps
de calcul et le nombre moyen de tirages dune loi uniforme consommes suivant la taille de
lechantillon utilise. En deduire la methode qui vous semble la plus ecace.
1. Methode de rejet sur lensemble R = [0, 2][0, 4] ; la variance theorique est 8
2 1
3
2
3
14, 22.
2. Methode de rejet sur lensemble A =
_
[0, 1] [0, 1]
_

_
[1, 2] [0, 4]
_
; la variance theorique
est 5
2 8
15
7
15
6, 22.
92
3. Esperance dune fonction de la variable aleatoire X de densite
1
2
1
[0,2]
(x) ; la variance
theorique est
256
45
5, 69.
4. Esperance dune fonction de la variable aleatoire X de densite
x
2
1
[0,2]
(x) ; la variance
theorique est
8
9
0.89.
5. Variables antithetiques avec la variable aleatoire de loi uniforme sur [0, 2] et la transfor-
mation T(x) = 2 x; la variance theorique est
16
45
0, 36.
Exercice 5.6 Soit X une variable aleatoire gaussienne ^(0, 1) et t > 0. On cherche `a estimer
lintegrale I(t) = E
_
e
tX
1
X>0
_
par une methode de Monte Carlo en utilisant un echantillon
de taille N de loi ^(0, 1).
1.

Ecrire et implementer un programme pour le calcul direct de I(t) pour les valeurs de
t =
n
100
pour un entier n compris entre 0 et 150.
2. En reliant I(t) et P(X [t, t+1]), ecrire et implementer un second programme permettant
de calculer I(t) par une methode de Monte Carlo pour les memes valeurs de t.
3. Proposer une methode de variable de controle.

Ecrire et implementer un programme
permettant de calculer I(t) pour les memes valeurs de t par cette methode.
4. Proposer une methode de variables antithetiques.

Ecrire et implementer un programme
permettant de calculer I(t) pour les memes valeurs de t par cette methode.
5. Tracer des graphiques permettant de visualiser lecart-type empirique de chaque methode
pour ces valeurs de t puis tracer dans une meme fenetre les graphes de ces quatre fonctions
lorsque N = 10 000.
Les gures suivantes donnent dans lordre la gure tra cant les quatre graphes simultanement,
puis separement de gauche `a droite (et de haut en bas) les graphes des ecarts-types des methodes
proposees dans les questions 1, 2, 3, 4. Quelle conclusion en tirez-vous ?
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6
0
1
2
3
4
5
6
7
8
9
10
93
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6
0
1
2
3
4
5
6
7
8
9
10
0.00 0.16 0.32 0.48 0.64 0.80 0.96 1.12 1.28 1.44 1.60
0
1
2
3
4
5
6
7
8
9
10
0.00 0.16 0.32 0.48 0.64 0.80 0.96 1.12 1.28 1.44 1.60
0
1
2
3
4
5
6
7
8
9
10
0.00 0.16 0.32 0.48 0.64 0.80 0.96 1.12 1.28 1.44 1.60
0
1
2
3
4
5
6
7
8
9
10
Exercice 5.7 Soit (U
i
, 1 i n) un echantillon de loi uniforme |([0, 1]) et V
1
V
2

V
n
lechantillon ordonne. On pose par convention V
0
= 0 et V
n+1
= 1. Pour i = 0, , n, on
pose
i
= V
i+1
V
i
.
1. Calculer la loi du couple (V
i
, V
i+1
) pour i = 1, , n 1 puis trouver la loi de
i
pour
i = 0, , n.
2. Montrer que la suite (sup
0in

i
,
,
n 1) converge vers 0 p.s.
3. Soit f : [0, 1] R une fonction continue. Montrer que lestimateur Z
n
=
n

i=0

i
f(V
i
)
converge p.s. vers I =
_
1
0
f(x) dx.
4. Montrer que la suite (E(Z
n
), n 1) converge vers I.
5. On suppose de plus que f est de classe (
1
. Montrer quil existe une constante C > 0 telle
que
[Z
n
I[ C
n

i=0

2
i
.
En deduire la vitesse de convergence de Z
n
vers I dans L
1
.
6. Peut-on esperer la meme vitesse pour lestimateur usuel Y
n
=
1
n
n

i=1
f(U
i
) ?
La gure suivante compare les graphes de (Y
n
) et (Z
n
) pour des valeurs de n qui sont des
multiples de 50 et la fonction f(x) = x en utilisant un echantillon de taille N = 10 000 de loi
94
uniforme. On remarquera que le graphe de Z
n
est beaucoup plus regulier que celui de Y
n
et que
la suite (Z
n
, n 1) converge plus rapidement vers 1/2.
0 1e3 2e3 3e3 4e3 5e3 6e3 7e3 8e3 9e3 10e3
0.44
0.45
0.46
0.47
0.48
0.49
0.50
0.51
0.52
95
6 Methode de Monte Carlo et chanes de Markov.
6.1 Mesures invariantes et Theor`eme ergodique.
Dans toute cette section, Q est une matrice de transition sur un ensemble ni (ou denombrable)
detats E et (X
n
, n 0) designe une chane de Markov de matrice de transition Q. Si x E,
on notera X
x
n
une chane Markov detat initial x, cest `a dire telle que X
0
= x. Rappelons
quune mesure sur lensemble des etats E est invariante si Q = . Dans la suite, nous
nous interesserons au cas o` u la chane admet une unique probabilite invariante, ce qui necessite
dimposer lirreductibilite de la matrice Q (cf. Exercice 3.9). Rappelons que dans ce cas, tous les
etats sont recurrents (on dit que la chane est recurrente) ou bien tous les etats sont transitoires
(on dit que la chane est transitoire). Si la chane est transitoire,

n0
1
X
x
n
=y
< +pour tout
x, y E. Ainsi, une marche aleatoire symetrique sur Z
d
est recurrente si d = 1, 2 et transitoire
si d 3, tandis que si E est ni, toute marche aleatoire irreductible est recurrente irreductible.
Le theor`eme suivant remplace la loi des grands nombres valable dans le cas de suites i.i.d.
Theor`eme 6.1 (Theor`eme ergodique) Soit Q une probabilite de transition irreductible ; on
suppose quil existe une probabilite invariante . Alors :
(i) est lunique probabilite invariante et (x) > 0 pour tout x E.
(ii) Tous les etats sont recurrents.
(iii) Pour tout etat x E et toute fonction f : E R telle que
_
E
[f(x)[ d(x) < + :
lim
n
1
n
n

k=1
f(X
x
k
) =
_
E
f(y) d(y) p.s. (6.1)
Demonstration : (i) Puisque est une probabilite, il existe un etat x E tel que (x) > 0.
Lirreductibilite entrane que pour tout y E, y ,= x, il existe un entier n 1 tel que Q
n
(x, y) >
0 ; de plus
(y) = (Q
n
)(y) (x) Q
n
(x, y) > 0 .
Montrons que est lunique probabilite invariante ; soit

une probabilite invariante, et

=


. Alors,

est une mesure positive telle que

Q Q = et

Q

Q =

, soit

. La mesure =

est donc positive, telle que Q et dapr`es le theor`eme


de Fubini,

y
(Q)(y) =

x
(x)

y
Q(x, y) =

x
(x). On en deduit que est invariante,
positive de masse totale inferieure ou egale `a 1. Dapr`es ce qui prec`ede, soit est identiquement
nulle, soit elle charge tous les etats. Si est identiquement nulle, on en deduit que

et
dans lautre cas, on a (x) >

(x) pour tout etat x E. Comme les masses totales de et

sont toutes les deux egales `a un, la seconde possibilite est exclue, ce qui entrane que

.
En echangeant les roles de et

, on en deduit que

, ce qui conclut la demonstration
de (i).
(ii) Supposons que tous les etats sont transitoires. Alors

n
1
X
x
n
=y
< + p.s. pour tout
couple detats x et y, do` u lim
n
1
X
x
n
=y
= 0 p.s. Le theor`eme de convergence dominee entrane
donc que lim
n
Q
n
(x, y) = 0, puis que
(y) = lim
n

xE
(x) Q
n
(x, y) = 0
ce qui contredit (i). La chane est donc recurrente irreductible.
96
(iii) Nous ne montrerons (iii) que lorsque f est bornee et esquisserons seulement cette
demonstration lorsque la chane est recurrente irreductible ; les details techniques peuvent par
exemple etre trouves dans [4].
Montrons tout dabord (iii) lorsque f = 1
y
. Soit x letat initial (recurrent) de la chane,
cest `a dire que X
0
= x; pour tout etat y, notons T
0
x
= 0 et pour tout entier k 1,
T
k
x
() = inf
_
n > T
k1
x
() : X
x
n
() = x
_
et N
k
x,y
=

T
k1
x
n<T
k
x
1
X
x
n
=y
.
Pour tout k 0 les temps darret T
k
x
sont presque s urement nis et la suite de variables
aleatoires
_
N
k
x,y
, k 1
_
est independante, equidistribuee et integrable. De plus,
x
(y) = E(N
1
x,y
)
denit une mesure strictement positive invariante, cest `a dire telle que
x
Q =
x
et
x
(y) > 0
pour tout y E; cette mesure invariante est donc unique `a une constante multiplicative pr`es.
Puisque la chane admet une probabilite invariante ,
x
est nie est est un multiple de .
De plus, la denition de
x
(y) = E
_
N
1
x,y
_
entrane que (y) (x)
x
(y) pour tout y E,
tandis que
x
(x) = 1. La mesure positive invariante (.) (x)
x
(.), qui sannule en x, est
donc identiquement nulle et pour tout y E,
x
(y) =
(y)
(x)
.
Dapr`es la loi forte des grands nombres,
1
l
l

k=1
N
k
x,y
=
1
l

0n<T
l
x
1
Xn=y

x
(y) = E(N
1
x,y
)
presque s urement quand l +. Notons L
k
le nombre de passages en x avant linstant k,
soit L
k
=

n<k
1
Xn=x
. Alors, si T
j
x
() < k T
j+1
x
(), L
k
() = j + 1 et L
k
() + p.s.
puisque x est recurrent. Pour tout entier k tel que T
j
x
() < k T
j+1
x
() on a donc :

n<j
N
n
x,y
() =

n<T
j
x
()
1
Xn()=y

n<k
1
Xn()=y

n<T
j+1
x
()
1
Xn()=y
=

n<j+1
N
n
x,y
() .
Donc pour tout k 1,
1
L
k

n<L
k1
N
n
x,y

n<k
1
Xn=y

n<k
1
Xn=x

1
L
k

n<L
k
N
n
x,y
.
Les deux termes extremes de linegalite precedente convergent presque s urement vers
x
(y), et
il en est donc de meme pour le quotient
P
n<k
1
{Xn=y}
P
n<k
1
{Xn=x}
. Puisque

yE

n<k
1
X
x
n
=y
= k, on en
deduit que
P
n<k
1
{Xn=x}
k
(x) p.s., puis que
P
n<k
1
{Xn=y}
k
(y) p.s., ce qui prouve que (6.1)
est vraie pour f = 1
y
.
Supposons maintenant que f est bornee ; il existe alors une constante M telle que g =
f M 0, puis une suite (g
i
, i 1) de fonctions `a support ni telle que g
i
converge en
croissant vers g quand i +. Pour tout i 1, nous avons etabli que lim
n
1
n

n
k=1
g
i
(X
x
k
) =
_
E
g
i
(x) d(x) p.s. Nous en deduisons que pour tout i 1,
liminf
n
1
n
n

k=1
g(X
x
k
)
_
E
g
i
(x) d(x) p.s.
do` u liminf
n
1
n

n
k=1
g(X
x
k
)
_
E
g(x) d(x) p.s. Par linearite, nous avons donc etabli que
liminf
n
1
n
n

k=1
f(X
x
k
)
_
E
f(x) d(x) p.s.
97
Rempla cant f par f, nous en deduisons que limsup
n
1
n

n
k=1
f(X
x
k
)
_
E
f(x) d(x) p.s., ce
qui termine la demonstration. 2
Il est alors naturel dans les calculs dintegrale par rapport `a de remplacer la simulation
dune suite de variables aleatoires i.i.d. de loi (qui peut etre dicile `a realiser) par celle dune
chane de Markov irreductible de probabilite invariante , puis la loi forte des grands nombres
par le theor`eme ergodique. Cependant, il serait souhaitable davoir un analogue du theor`eme
de la limite centrale, permettant de connatre la vitesse de convergence de
1
n

n
k=1
f(X
x
k
) vers
_
E
f(y) d(y). Ce nest helas pas possible et on peut construire des exemples dans lesquels la
vitesse est aussi lente (et aussi rapide) que lon veut.
Nous allons tout dabord etablir des proprietes du spectre dune matrice A irreductible sur
un espace ni E note 1, , d. Remarquons que si Q est une matrice de transition et si 1
designe le vecteur de R
d
dont toutes les composantes sont egale `a 1, Q1 = 1, ce qui entrane que
1 est valeur propre de Q. De plus, est une probabilite invariante si cest un vecteur propre de
t
Q pour la valeur propre 1. On notera x >> 0 un vecteur (x
i
, 1 i d) dont les composantes
x
i
sont toutes strictement positives.
Theor`eme 6.2 (Theor`eme de Perron Frobenius)
Soit A une matrice dd irreductible `a coecients positifs. Alors il existe une valeur propre
de A notee
A
et appelee valeur propre de Perron Frobenius de A, telle que :
(i)
A
> 0 est valeur propre simple de A.
(ii) Toute autre valeur propre ,=
A
de A est telle que [[
A
.
(iii) Il existe un vecteur propre x >> 0 de A et un vecteur propre y >> 0 de A

pour la
valeur propre
A
.
(iv) Pour tout i, j 1, , d et tout vecteur x >> 0 de R
d
,
lim
1
n
ln
_
d

j=1
A
n
(i, j) x
j
_
= lim
1
n
ln
_
d

i=1
x
i
A
n
(i, j)
_
= ln(
A
) .
Demonstration
(1) Pour tout vecteur x R
d
dont les composantes sont positives ou nulles, notons
(x) = inf
_

d
j=1
A(i, j) x
j
x
i
; x
i
> 0
_
.
Alors (x) < + et pour tout i 1, , d on a x
i
(x)

j
A(i, j) x
j
. Sommant ces
inegalites sur i, on en deduit que (x) M = sup
j
(

i
A(i, j)). Puisque A est irreductible,

j
A(i, j) > 0 pour tout i = 1, , d et 0 < (1) = inf
i
_

j
A(i, j)
_
. Notons

A
= sup
x0 ,x,=0
(x) = sup
x0 , |x|=1
inf
i

j
A(i, j) x
j
x
i
;
puisque K = x 0 , |x| = 1 est compact et que (.) est linmum de fonctions continues, la
fonction (.) est semi-continue superieurement et atteint son maximum en un vecteur x

K,
tel que

A
= inf
i

j
A(i, j) x

j
x

i
(1) > 0 .
98
(2) Montrons que x

est un vecteur propre de A pour la valeur propre


A
et que x

>> 0.
Notons = Ax


A
x

; par denition de
A
,
i
=

j
A(i, j) x

j

A
x

i
0. Puisque A
est irreductible, lalgorithme de classication des etats montre quil existe k d 1 tel que
(I +A)
k
>> 0. Sil existe un indice i tel que
i
> 0, alors pour tout indice j,
_
(I + A)
k

_
j
> 0.
Notons y = (I +A)
k
x

; pour tout j, on en deduit que Ay


A
y >> 0, tandis que par denition
de
A
, il existe un indice i tel que

j
A(i, j) y
j

A
y
i
. Ceci fournit une contradiction, et on
a donc = 0, cest `a dire que x

est un vecteur propre de valeur propre


A
. Montrons enn
que x

>> 0 ; pour tout entier n, A


n
x

=
n
A
x

. Changeant eventuellement le signe de x

, on
deduit lexistence dun indice j tel que x

j
> 0. Puisque A est irreductible, pour tout indice i in
existe n tel que A
n
(i, j) > 0, ce qui entrane que
n
A
x

i
> 0 et que x

>> 0.
(3) Soit ,=
A
une valeur propre de A, y un vecteur propre associe `a et [y[ le vecteur
dont les composantes sont les valeurs absolues de celles de A. Alors pour tout indice i, [[ [y
i
[

j
A(i, j) [y
j
[, ce qui entrane que [[
P
j
A(i,j) [y
j
[
[y
i
[
. Puisque [y[ 0 et [y[ , = 0, on en deduit
que [[ ([y[)
A
.
(4) Soit y un autre vecteur propre de A pour la valeur propre
A
; alors pour tout i,

A
[y
i
[

j
A(i, j) [y
j
[, do` u

j
A(i, j) [y
j
[
[y
i
[

A
.
On en deduit que le vecteur [y[ est egalement un vecteur propre associe `a la valeur propre
A
.
Largument precedent montre que [y[ >> 0. Si les vecteurs x

et y ne sont pas colineaires, il


existe un indice i 1, , d et une constante c telle que (y c x

)
i
= 0 et y c x

,= 0.
Cependant, y c x

est egalement un vecteur propre de A pour la valeur propre


A
, et le
raisonnement precedent montre que y c x

>> 0 ou y c x

<< 0, ce qui fournit une


contradiction; la valeur propre
A
est donc simple.
(5) Pour la matrice transposee A

notons r(x) = inf


j
P
i
x
i
A(i,j)
x
j
et r
A
= supr(x) : x
0 , x ,= 0. Un raisonnement similaire montre que r
A
est la valeur propre de A

ayant le plus
grand module, cest `a dire que r
A
=
A
, puis quil existe un vecteur propre de A

dont les
composantes sont toutes strictement positives.
(6) Soit x = (x
1
, , x
d
) >> 0, = infx
i
: 1 i d et = supx
i
: 1 i d. Soit
x

>> 0 tel que Ax

=
A
x

, = infx

i
: 1 i d et = supx

i
: 1 i d. Alors pour
tout i, j = 1, , d et n 1,

A
n
(i, j) x

j
A
n
(i, j) A
n
(i, j) x
j

A
n
(i, j) x

j
.
En sommant sur j = 1 , , d on en deduit que :
1
n
ln
_

i
_
+
1
n
ln (
n
A
)
1
n
ln
_

j
A
n
(i, j) x
j
_

1
n
ln
_

i
_
+
1
n
ln(
n
A
) ,
donc ln(
A
) = lim
n
1
n
ln
_

j
A
n
(i, j) x
j
_
. Un raisonnement similaire montre que ln(
A
) =
lim
n
1
n
ln (

i
x
i
A
n
(i, j)), ce qui termine la demonstration. 2
En renfor cant les hypoth`eses sur la matrice Q, on peut notablement ameliorer la vitesse de
convergence dans le cas dune espace detats ni.
99
Denition 6.3 (i) La periode de letat x E est le PGCD de lensemble des entiers n 1
tels que Q
n
(x, x) > 0.
(ii) On dit quune matrice A `a coecients positifs est aperiodique si pour tout x E, le
PGCD de lensemble des entiers n 1 tels que A
n
(x, x) > 0 vaut 1. Lorsque A est la matrice
de transition de la chane de Markov (X
n
, n 0), on dit alors que la chane est aperiodique
(ce qui decrit que tous ses etats sont de periode 1).
Si deux etats communiquent, ils ont la meme periode ; dans le cas dune chane irreductible, si
on etablit que la periode dun des etats est 1, la chane est donc aperiodique. Le resultat suivant
montre une propriete de communication entre les etats dune chane de Markov irreductible
aperiodique sur un ensemble ni E.
Lemme 6.4 Soit Q une matrice irreductible aperiodique sur un ensemble ni E. Il existe un
entier naturel n
0
tel que pour tout couple detats x, y de E, Q
n
(x, y) > 0 pour tout entier n n
0
.
Demonstration Soit y E, n
1
, n
I
des entiers premiers entre eux dans leur ensemble tels
que Q
n
i
(y, y) > 0 pour toit i = 1, , I. Dapr`es le theor`eme de Bezout, il existe des entiers
relatifs k
i
, 1 i I tels que 1 =

I
i=1
n
i
k
i
. En regroupant les entiers k
i
> 0 (et les entiers
k
i
< 0), on en deduit deux entiers naturels m
y
et n
y
tels que Q
my
(y, y) > 0, Q
ny
(y, y) > 0 et
1 = m
y
n
y
. Notons n
0
(y) = n
y
(n
y
1). Pour tout entier n n
0
(y), la division euclidienne de
n par n
y
, n = q n
y
+r est telle que 0 r n
y
1 q. On en deduit que n = (q r) n
y
+r m
y
est tel que Q
n
(y, y) > 0.
Pour tout couple detats x, y, il existe un entier m(x, y) > 0 tel que Q
m(x,y)
(x, y) > 0 et
pour tout entier n n(x, y) = m(x, y) + n
0
(y), on en deduit que Q
n
(x, y) > 0.
Puisque E est ni, il sut alors de poser n
0
= maxn(x, y) : x, y E. 2
An de montrer la convergence de la suite Q
n
(`a une vitesse exponentielle lorsque lensemble
des etats est ni), nous introduisons la notion suivante sur la matrice Q (qui est trivialement
satisfaite dans le cas irreductible aperiodique sur un ensemble detats nis dapr`es le Lemme
6.4).
Denition 6.5 Le matrice de transition Q satisfait la condition de Doeblin sil existe un entier
l 1, une constante ]0, 1[ et une probabilite sur E tels que pour tout x, y E,
Q
l
(x, y) (y) . (6.2)
Lexemple trivial Q
0
=
_
0 1
1 0
_
montre que lhypoth`ese dirreductibilite ne sut pas pour
que la suite Q
n
0
converge. La matrice Q
0
ne satisfait pas la condition de Doeblin et, si elle est
irreductible, ses etats sont de periode 2. Le theor`eme suivant montre que sous la condition de
Doeblin, quelle que soit la loi de X
0
, la suite Q
n
des lois de X
n
converge vers une unique
probabilite invariante.
Theor`eme 6.6 Soit Q une matrice de transition qui satisfait la condition de Doeblin sur un
espace detats E denombrable. Alors pour toute probabilite initiale sur E, la suite de proba-
bilites Q
n
des lois de X
n
converge en variation totale vers une probabilite qui est lunique
probabilite invariante de la chane de Markov (X
n
, n 0).
100
Demonstration : Nous supposerons que E est ni pour degager les idees de la preuve. Suppo-
sons tout dabord que l = 1. Soit et

des probabilites sur E; alors puisque Q(x, y)(y)


0 :
| Q

Q|

yE

( Q)(y) (

Q)(y)

yE

xE
_
(x)

(x)
_
Q(x, y)

yE

xE
_
(x)

(x)
_
Q(x, y) (y)

xE
[(x) (x

)[

yE
_
Q(x, y) (y)

xE
[(x) (x

)[ (1 ) = (1 ) |

| .
Lensemble des probabilites sur E peut etre identie au sous-ensemble ferme borne /
1
des
vecteurs p R
[E[
tels que p(x) 0 pour tout x E et

xE
p(x) = 1. Ce sous-ensemble est
egalement compact pour la norme l
1
, cest `a dire celle de la convergence en variation totale.
Le calcul precedent montre que lapplication F : /
1
/
1
denie par F() = Q est
contractante de rapport 1 < 1. Le theor`eme du point xe permet de conclure quelle admet
un unique point xe et que pour toute loi initiale sur E, la suite F
n
() = Q
n
, qui est la
loi de X
n
, converge vers en variation totale.
Si l > 1, la suite (X
nl
, n 1) est une chane de Markov de matrice de transition Q
l
et le
resultat precedent entrane que (Q
nl
, n 1) converge vers lunique probabilite telle que
Q
l
= . Pour tout n 1, la division euclidienne de n par l fournit des entiers d 0 et
0 r < l tels que n = d l + r pour lesquels :
|Q
n
| = |Q
dl+r
Q
dl
| (1 )
d
|Q
r
| 2 (1 )
d
.
On en deduit que lorsque n +, la suite Q
n
des lois de X
n
converge vers en variation
totale. Puisque est invariante pour Q
l
, Q = Q
l+1
et Q est donc une probabilite inva-
riante de Q
l
, ce qui entrane que Q = . Soit enn

une autre probabilite invariante pour


Q; alors

est invariante pour Q


l
et on a donc

= . 2
Le theor`eme suivant ameliore le theor`eme ergodique pour des matrices irreductibles ape-
riodiques sur un ensemble detats ni ; dans ce cas la suite Q
n
(x, .) converge (sans utiliser les
moyennes de Cesaro) vers une unique probabilite invariante `a une vitesse exponentielle.
Theor`eme 6.7 Soit Q une matrice irreductible aperiodique sur un ensemble ni detats E.
Alors :
(i) Il existe un vecteur ((y) , y E) et des constantes ]0, 1[ et M > 0 telles que pour
tout x, y E, toute probabilite initiale sur E et tout entier n 1 :
[Q
n
(x, y) (y)[ M
n
,
[P

(X
n
= y) (y)[ M
n
.
De plus, est lunique probabilite invariante et charge tous les elements de E qui sont recurrents.
101
(ii) Pour tout x et toute fonction f : E R :

n
_
1
n
n

k=1
f(X
x
k
)

yE
(y) f(y)
_
converge en loi vers une variable aleatoire gaussienne ^(0,
2
) avec
2
< +
Demonstration
(i) Il sut dappliquer le lemme 6.4 et le theor`eme 6.6.
(ii) Nous renvoyons le lecteur `a [4] pour la demonstration. 2
La valeur de
2
est beaucoup plus delicate `a calculer que dans le theor`eme de la limite
centrale.
6.2 Simulation exacte dune probabilite stationnaire
La methode suivante, due `a J. Propp et D. Wilson permet une simulation exacte de la
probabilite invariante dune matrice recurrente irreductible Q avec un test darret explicite.
Soit E un espace detats nis, Q une matrice de transition sur E, U, |) un espace mesurable,
(U
n
, n 0) uns suite i.i.d. de variables aleatoires `a valeurs dans U et : E U E une
application telle que
P
_
(x, U
n
) = y
_
= Q(x, y) , x E. (6.3)
Pour tout entier n 0, notons
n
: E
E
lapplication aleatoire de E dans E denie par

n
(x) = (x, U
n
) pour tout x E.
Soit F : E une variable aleatoire independante de la suite (U
n
, n 0). On denit par
recurrence la suite (F
n
: E
E
, n 0) par :
F
0
= F , F
n+1
(.) = F
n
((., U
n
)) ,
cest `a dire : F
n
= F
0

n1
pour tout entier n 1. On verie aisement que (F
n
, n 0)
est une chane de Markov sur c = E
E
et on note P
F
la probabilite correspondante sur lespace
canonique c
N
. Par construction, on voit que la suite des images de F
n
est decroissante. On
aimerait que la suite converge vers une application constante, mais lexemple suivant montre
que ce nest pas le cas meme lorsque la matrice Q est irreductible aperiodique. Soit E = a, b,
Q(x, y) =
1
2
pour tout x, y E, U = 0, 1 et (U
n
, n 0) une suite de variable de Bernoulli de
param`etre
1
2
. Soit : E U E lapplication denie par
(a, 0) = (b, 1) = a (a, 1) = (b, 0) = b .
Soit F = Id ; alors pour tout entier n 1, F
n
() est soit lidentite, soit la permutation des
etats a et b et limage de F
n
reste egale `a E.
Dans la suite on impose donc la condition suivante qui fait que le cardinal de limage de F
n
diminue avec une probabilite strictement positive :
A E , [A[ > 1 P
_
[(A, U
n
)[ < [A[
_
> 0 . (6.4)
Le theor`eme suivant justie la simulation exacte de la loi .
102
Theor`eme 6.8 Soit Q une matrice de transition irreductible aperiodique sur lespace detats
E ni, de probabilite invariante , (U
n
, n 0) et denis par (6.3) et satisfaisant (6.4). Alors
les applications constantes f
(x)
: E E denies par f
(x)
(y) = x pour tout y E sont les seuls
etats recurrents de la chane de Markov (F
n
) et sont absorbants. Soit
T = infn 0 : [Im(F
n
)[ = 1 . (6.5)
Alors P(T < +) = 1 et si F = Id,
P
Id
_
F
T
= f
(x)
_
= (x) , x E. (6.6)
Demonstration Lhypoth`ese (6.4) entrane que toute application : E E non constante
est un etat transitoire de la chane (F
n
, n 0). Dapr`es le lemme 6.4, il existe un entier m tel
que Q
m
(x, y) > 0 pour tout x, y E. On en deduit quil existe un nombre ]0, 1[ tel que
pour toute condition initiale F, P
F
(T > m) . La propriete de Markov entrane que pour
tout entier k 1, P
F
(T km)
k
. On en deduit que
E
F
(T) =

i
P(T i)

k=0
mP(T km)
m
1
.
La chane (F
n
) atteint donc un des etats absorbants f
(x)
en un temps p.s. ni et il reste `a
prouver (6.6). Pour toute application E
E
, et tout y E, notons

(y) = P

_
F
T
= f
(y)
_
.
Si F
0
= Id et F
T
() = f
(y)
, on en deduit que pour tout n T(), Im(
0

n
)
1
(y),
do` u Im(Id
0

n
)
1
(y). La chane (F
n
) partant de Id est donc absorbee en une
application f
(x)
pour x
1
(y). Reciproquement, si la chane (F
n
) partant de Id est absorbee
en f
(x)
pour x
1
(y), en composant avec , on en deduit que la chane partant de est
absorbee en f
(y)
, do` u

(y) =

x
1
(y)

P
Id
(x) .
Dautre part en decomposant suivant les valeurs de
0
, on obtient pour tout y E :

P
Id
(y) =

P
_

0
= , F
T
= f
(y)
_
=

P
_

0
=
_

x
1
(y)

P
Id
(x)
=

xE

P
Id
(x)

E
E
:(x)=y
P(
0
= )
=

xE

P
Id
(x) P(
0
(x) = y) =

xE

P
Id
(x) Q(x, y) .
On en deduit que

P
Id
est une probabilite invariante de Q et est donc egale `a . 2
Lutilisation pratique de ce theor`eme demande de choisir pour ne calculer que les images
par
0

N
de quelques points de E (dont le nombre delements est grand) et de stopper
la composition lorsque les images de ces points sont les memes.
103
6.3 Probabilites reversibles.
La notion suivante renforce celle de probabilite invariante. Si une matrice de transition
irreductible aperiodique admet une probabilite reversible, on en deduit des renseignements
precis sur son spectre (qui renforcent sensiblement le theor`eme de Perron Frobenius).
Denition 6.9 Soit Q une matrice de transition sur lespace detats E. Une probabilite sur
E est reversible pour Q (ou pour une chane de Markov de matrice de transition Q) si
(x) Q(x, y) = (y) Q(y, x) , x, y E. (6.7)
En sommant lequation (6.7) sur y E, on deduit que si est reversible pour Q,
(x) =

y
(x) Q(x, y) =

y
(y) Q(y, x) ,
ce qui entrane que est invariante. Si la chane de Markov (X
n
, n 0) est de matrice de
transition Q et si la loi de X
n
est la probabilite reversible ,
P(X
n
= x, X
n+1
= y) = P(X
n
= y, X
n+1
= x) ;
de plus, si (x) = 0 et (y) > 0, alors Q(y, x) = 0, cest `a dire que la restriction de Q au
support de est encore une matrice de transition pour laquelle est reversible ; on peut donc
se ramener au cas o` u (x) > 0 pour tout x E. Si E est un ensemble `a N elements note
E = 1, , N et est une mesure strictement positive sur E, notons D la matrice (N, N)
diagonale denie par
D(i, i) =
_
(i) , i E.
De plus, loperateur de L
2
() adjoint de celui associe `a une matrice A est associe `a la
matrice

A = D
2
A

D
2
, o` u A

designe la transposee de A. Un calcul immediat montre que la


matrice de transition Q sur E admet comme probabilite reversible si et seulement si DQD
1
est symetrique ; ceci traduit le fait que loperateur associe `a Q dans L
2
() est autoadjoint. Le
resultat suivant montre que si est une probabilite invariante pour la matrice de transition Q,
on peut denir une nouvelle matrice de transition P telle que soit reversible pour P.
Proposition 6.10 Soit une probabilite strictement positive sur E ni et Q une matrice de
transition telle que est invariante. Soit

Q = D
2
Q

D
2
et P =
1
2
(Q +

Q) ;
alors

Q est une matrice de transition admettant comme probabilite invariante et P est une
matrice de transition admettant comme probabilite reversible.
Demonstration : Le fait que soit invariante entrane que

Q est une matrice de transition et
P lest donc aussi. Puisque Q est une matrice de transition, est invariante pour

Q. Un calcul
immediat montre enn que est reversible pour P. 2
Le resultat suivant donne des conditions susantes sur Q pour que la probabilite uniforme
sur E soit invariante ou reversible ; la demonstration elementaire est laissee au lecteur.
104
Proposition 6.11 Soit E un ensemble detats ni.
(i) Soit Q une matrice bistochastique, cest `a dire une matrice de transition telle que

xE
Q(x, y) = 1 , y E.
Alors la probabilite uniforme sur E est invariante pour Q.
(ii) Soit Q une matrice de transition symetrique. Alors la probabilite uniforme sur E est
reversible pour Q.
Dans le cas o` u la mesure invariante est reversible pour Q, lecriture de la dierence entre
Q
n
et est leg`erement plus precise, comme le montre la :
Proposition 6.12 Soit E = 1 , d, Q une matrice de transition irreductible aperiodique
sur E admettant une probabilite invariante reversible. Alors Q est diagonalisable, ses valeurs
propres
1
= 1 >
2

d
> 1 sont reelles, 1 est simple et il existe une base orthonormee
(
i
, 1 i d) de R
d
telle que pour tout entier n 1,
Q
n
(x, y) = (y) +
_
(y)
_
(x)
d

l=2

n
l

l
(x)
l
(y) . (6.8)
Notons = sup[
i
[ , 2 i d ]0, 1[ ; pour tout entier n 1 et tout x E :
_

yE
[Q
n
(x, y) (y)[
_
2

(Q
n
(x, y) (y))
2
(y)


2n
(x)
. (6.9)
Demonstration : Puisque est Q reversible, si on note D la matrice diagonale denie par
D(i, i) =
_
(i), DQD
1
est symetrique, donc diagonalisable dans R par une matrice de
passage orthogonale. Soit donc (
i
, 1 i d) une base orthonormee de vecteurs propres de
DQD
1
pour les valeurs propres
i
ordonnees par ordre decroissant. Clairement les vecteurs

i
denis par
i
(x) =

i
(x)

(x)
sont des vecteurs propres de Q pour les memes valeurs propres.
Le theor`eme de Perron Frobenius entrane donc que 1 est valeur propre simple et que les autres
valeurs propres de Q appartiennent `a lintervalle [1, 1[ et il reste `a montrer que 1 nest pas
valeur propre. Supposons quil existe un vecteur non nul et dierent de c 1 tel que Qv = v ;
alors Q
2
v = v et v est vecteur propre de la matrice Q
2
pour la valeur propre 1. Il sut donc
de prouver que la matrice de transition Q
2
est irreductible pour en deduire une contradiction
par application du theor`eme de Perron-Frobenius. Dapr`es le lemme 6.4, il existe un entier n
0
tel que pour tout couple detats x, y on a Q
2n
0
(x, y) > 0, ce qui prouve lirreductibilite de Q
2
.
De plus, on peut choisir comme vecteur
1
= 1, soit comme vecteur
1
le vecteur unitaire
(
_
(x) , 1 x d). Pour tout couple de vecteurs u, v de R
d
et pour tout entier n 1, la
forme bilineaire denie par la matrice DQ
n
D
1
satisfait
u , DQ
n
D
1
v) =
d

l=1

n
l
u ,
j
) v ,
j
) .
Lequation (6.8) sen deduit immediatement pour u(.) =
1

(x)
1
x
(.) et v(.) =
_
(y) 1
y
(.).
Lequation (6.8) entrane que pour tout x, y E,
a(x, y) =
_
(y)
_
Q
n
(x, y)
(y)
1
_
=
1
_
(x)
d

l=2

n
l

l
(x)
l
(y) .
105
La base (
l
, 1 l d) etant orthonormee, on en deduit que
d

y=1
a(x, y)
2
=
1
(x)
d

l=2

2n
l

l
(x)
2


2n
(x)
,
ce qui montre la seconde inegalite de (6.9). La premi`ere inegalite de (6.9) decoule immediatement
de linegalite de Schwarz, ce qui termine la demonstration. 2
On peut egalement donner une majoration de lerreur commise en rempla cant lesperance
dune fonction par rapport `a la probabilite reversible par lesperance de cette fonction de X
n
.
Proposition 6.13 Sous les hypoth`eses de la Proposition 6.12, soit f : E R; notons
E

(f) =

yE
f(y) (y) et Var

(f) =

yE
_
f(y) E

(f)
_
2
(y) .
Alors si (X
n
, n 0) est une chane de Markov de matrice de transition Q, pour tout entier
n 1 et tout x E,
_
E
_
f(X
n
) [ X
0
= x
_
E

(f)
_
2


2n
(x)
V ar

(f) . (6.10)
La demonstration est laissee en exercice.
Pratiquement, les valeurs de et Var

(f) sont impossibles `a calculer et pour appliquer le


theor`eme ergodique, il faut que lon soit proche de la probabilite invariante bien avant lins-
tant terminal pour lequel on simule la chane. On fait demarrer la simulation en un etat x
0
quelconque, puis on la simule jusqu`a linstant n
0
`a partir duquel on consid`ere que la loi de
X
n
est proche de la probabilite invariante : cest la phase de prechauage . On evalue en-
suite f(X
n
0
+k n
1
) en des instants separes par un temps n
1
(inferieur `a n
0
) tel que lon puisse
considerer que les variables aleatoires X
n
0
+k n
1
, k 1 sont presque independantes (cest une
propriete de melange des chanes irreductibles aperiodiques) et on calcule
1
K
K

k=1
f(X
n
0
+k n
1
) .
6.4 Algorithme de Hastings-Metropolis.
An de calculer
_
E
f d, au lieu de simuler une suite de variables aleatoires independantes
X
i
de loi exactement (qui peut etre tr`es dicile `a simuler par les methodes du chapitre
2), il sut donc de simuler une chane de Markov recurrente irreductible aperiodique de ma-
trice de transition P (`a determiner) telle que cette chane ait comme probabilite invariante
(ou reversible) ; cest le but de lalgorithme de Hastings-Metropolis. On remplace alors la loi
des grands nombres par le theor`eme ergodique. Il faut concr`etement que la simulation de la
chane soit simple et rapide en temps de calcul et que lerreur commise soit connue et
faible ; le theor`eme 6.7 ou les propositions 6.12 et 6.13 assurent que la convergence vers est
exponentiellement rapide et remplacent le theor`eme de la limite centrale.
Soit E un ensemble detats ni ou denombrable, Q une matrice de transition sur E et
une probabilite sur E. Fixons x
0
E tel que (x
0
) > 0 et posons X
0
= x
0
. On construit alors
(X
n
, n 0) de fa con iterative par une methode similaire `a la methode du rejet :
106
Supposons que pour n 0, X
n
= x
n
ait ete deni et construisons X
n+1
. On simule des
variables aleatoires Y
n
et U
n
independantes de X
k
k n et independantes telles que :
Y
n
est de loi Q(x
n
, .), cest `a dire que pour tout y E, P(Y
n
= y) = Q(x
n
, y).
U
n
suit une loi uniforme |([0, 1]) sur lintervalle [0, 1].
Posons
(x, y) = min
_
1 ,
(y) Q(y, x)
(x) Q(x, y)
_
,
avec la convention (x, y) = 1 si (x) Q(x, y) = 0, puis :
Si U
n
(X
n
, Y
n
), X
n+1
= Y
n
, cest `a dire que lon accepte la transition.
Si U
n
> (X
n
, Y
n
), X
n+1
= X
n
, cest `a dire que lon rejette la transition.
On a alors la :
Proposition 6.14 Le processus (X
n
, n 0) est une chane de Markov de matrice de transition
P denie par
_
P(x, y) = Q(x, y) (x, y) = Q(x, y) min
_
1 ,
(y) Q(y,x)
(x) Q(x,y)
_
si x ,= y ,
P(x, x) = 1

y,=x
P(x, y) .
(6.11)
De plus est une probabilite reversible (donc invariante) pour P.
Demonstration. Il est clair que la loi de X
n+1
sachant X
0
= x
0
, , X
n
= x
n
ne depend
que de x
n
et que (X
n
) est donc une chane de Markov. Supposons que P(X
n
= x) > 0 ; alors
pour y ,= x, lindependance de U
n
et de (X
n
, Y
n
) et la loi conditionnelle de Y
n
sachant X
n
= x
entranent :
P(X
n+1
= y [ X
n
= x) = P
_
Y
n
= y , U
n
(x, y) [ X
n
= x
_
=
P
_
Y
n
= y , U
n
(x, y) , X
n
= x
_
P(X
n
= x)
= P
_
U
n
(x, y)
_
P(Y
n
= y [ X
n
= x)
= (x, y) Q(x, y) .
Enn, legalite
P(X
n+1
= x[ X
n
= x) = 1

y,=x
P(X
n+1
= y [ X
n
= x)
termine la caracterisation de la matrice de passage de (X
n
). Si x ,= y, puisque (x) 0 :
(x) P(x, y) = (x) (x, y) Q(x, y) = min(x) Q(x, y), (y) Q(y, x) = (y) P(y, x) ,
ce qui prouve que est reversible pour P. 2
Puisque est reversible pour P, la chane ne visite que des etats y E tels que (y) > 0
et on peut donc remplacer E par le support de , cest `a dire ne considerer que des matrices de
transition Q et P sur E
1
= x E, (x) > 0. Dautre part, la denition de sugg`ere de ne
considerer que des matrices Q sur E
1
telles que pour x ,= y, Q(x, y) > 0 entrane Q(y, x) > 0.
Une grande latitude est possible dans le choix de Q et de x
0
; nous y reviendrons ulterieurement.
An de pouvoir utiliser le theor`eme ergodique 6.1 pour approximer
_
E
f d par les moyennes
de Cesaro
1
n

n
k=1
f(X
k
), ou bien le theor`eme 6.7 pour avoir une vitesse de convergence dans
107
cette approximation, il faut que la matrice P denie dans la proposition precedente soit
irreductible, ou bien irreductible et aperiodique. Les deux resultats suivants donnent des condi-
tions susantes sur Q pour assurer ces proprietes de P.
Proposition 6.15 Si la probabilite est strictement positive et si la matrice de transition Q
est telle que pour tout x ,= y, Q(x, y) ,= 0, alors la matrice de transition P denie par (6.11)
est irreductible.
Demonstration : Si x ,= y, P(x, y) = Q(x, y) (x, y) > 0 et tous les etats communiquent
donc. 2
Proposition 6.16 Soit une probabilite non constante sur E discret, Q une matrice de transi-
tion symetrique irreductible. Alors la matrice de transition P denie par (6.11) est irreductible
aperiodique et admet comme probabilite reversible (donc invariante).
Demonstration. Puisque la probabilite est non nulle et que (x, y) = min
_
1,
(y)
(x)
_
, on
voit que (x, y) ,= 0 pour tout x, y E. Montrons tout dabord lirreductibilite de P. Puisque
Q est irreductible, pour tout x ,= y (en supprimant deventuelles boucles du chemin menant
de x `a y) on deduit quil existe des etats deux `a deux distincts x
k
E, 1 k K tels que
x
1
= x, x
K
= y et pour tout k 1, , K1, Q(x
k
, x
k+1
) > 0. La denition de P(x
k
, x
k+1
)
pour x
k
,= x
k+1
montre que pour tout k 1, , K 1, P(x
k
, x
k+1
) > 0 donc P
K
(x, y) > 0
et P est irreductible.
La chane etant irreductible, tous les etats ont la meme periode et pour prouver quelle est
aperiodique, il sut de prouver lexistence dun etat x E tel que P(x, x) > 0. Supposons que
pour tout etat x E, P(x, x) = 0 ; alors pour tout x E :
0 = 1

y,=x
P(x, y)
=

yE
Q(x, y)

y,=x
Q(x, y) (x, y)
= Q(x, x) +

y,=x
Q(x, y)
_
1 (x, y)

.
Les termes de la derni`ere somme etant tout positifs, on en deduit que si y ,= x et Q(x, y) > 0,
(x, y) = 1, cest `a dire que (y) (x). La symetrie de Q entrane (en intervertissant x et
y) que si Q(x, y) > 0, (y) (x), do` u (x) = (y).
Puisque Q est irreductible, pour tout couple detats x ,= y, il existe une suite detats deux `a
deux distincts x
k
, 1 k K tels que x
1
= x, x
K
= y et Q(x
k
, x
k+1
) > 0 pour 0 k K 1.
On en deduit que (x
k
) = (x) pour 1 k K, cest `a dire que (x) = (y). La probabilite
est donc constante, ce qui fournit une contradiction. 2
Dans le cas precedent dune matrice Q symetrique (qui est lalgorithme original de Metro-
polis), la procedure de test est un peu plus simple car
(x, y) = min
_
1,
(y)
(x)
_
.
Pour maximiser les chances daccepter les transitions, il faut que (X
n
, Y
n
) soit egal `a 1 ou
proche de 1, ce qui demande que
(yn)
(xn)
ne devienne pas trop petit.
108
Lorsque Q(x, y) = q(y), cest `a dire si toutes les lignes de Q sont egales, on dit que lalgo-
rithme est independant et dans ce cas :
(x, y) = min
_
1,
(y) q(x)
(x) q(y)
_
.
Dans ce cas, la valeur de Y
n
ne depend pas de X
n
, mais son rejet eventuel depend de X
n
.
Lalgorithme general de Hastings Metropolis est donc :
Initialiser X avec x
0
t 0
Repeter
i X
Produire j avec la probabilite Q(i, j)
= ((j) Q(j, i))/((i) Q(i, j))
Si 1 faire
X j
Sinon
Si Random < faire
X j
Fin
Fin
t t + 1
Jusqu`a larr^et de la simulation
Dans les cas o` u Q est symetrique, le calcul de est beaucoup plus simple et on a interet `a
tester si (j) < (i) avant de calculer .
Souvent, lensemble des etats est muni dune structure de graphe et on choisit pour Q la
matrice de transition dune marche aleatoire symetrique sur ce graphe (cest `a dire que pour
tout etat x E, Q(x, .) est la loi uniforme sur lensemble des etats y voisins de x).
Un autre cas particulier important est celui o` u la probabilite a une forme exponentielle.
Denition 6.17 Soit E un ensemble ni, > 0 une constante et V : E R une fonction
denie sur E. La mesure de Gibbs associee `a et V est denie par :

(x) =
exp( V (x))
Z()
, x E,
o` u la constante de normalisation Z() est la fonction de partition
Z() =

xE
exp( V (x)) .
Intuitivement, est linverse de la temperature et V (le plus souvent positive) est la fonction
denergie des etats. Lutilisation de ces probabilites vient du fait quelles maximisent lentropie
H() =

xE
(x) ln((x))
109
(avec la convention y ln(y) = 0 quand y = 0) parmi les probabilite sur E telles que lenergie
moyenne du syst`eme
_
E
V (x) d(x) soit xee egale `a C. En eet, pour maximiser H() =

xE
(x) ln((x)) sous les contraintes

xE
(x) = 1 et

xE
V (x) (x) = C, on utilise la
methode des multiplicateurs de Lagrange et on consid`ere la fonction
(, b, ) =

xE
(x) ln((x)) +
_

xE
V (x) (x) C
_
+ b
_

xE
(x) 1
_
.
Les equations

(x)
(, b, ) = 0 pour tout x E entranent que ln
_
(x)
_
+ 1 + V (x) + b = 0
pour tout x E. On en deduit que (x) =
exp
_
V (x)
_
Z()
, o` u puisque est une probabilite,
Z() =

xE
exp
_
V (x)
_
. Enn la constante est determinee par la contrainte

xE
V (x)
exp
_
V (x)
_
Z()
= C .
En multipliant cette egalite par Z() e
C
, ceci revient `a chercher les zeros de la fonction
G() =

xE
_
V (x) C
_
e

_
V (x)C
_
.
Un calcul facile montre que G

0, lim

G() = + et lim
+
G() = ; la fonction
G admet donc un seul zero.
Lentropie mesure labsence dinformation sur le syst`eme. En eet, si lenergie est constante
(qui traduit le fait quon ne dispose daucune information), la probabilite qui maximise len-
tropie, cest `a dire pour laquelle lincertitude est maximale, est la probabilite uniforme. Au
contraire, si est une mesure de Dirac (il ny a aucune incertitude) et lentropie H() est nulle.
Dans le cas dune mesure de Gibbs

, si la matrice de transition Q est symetrique et


irreductible, `a une temperature xee, il est inutile de calculer la fonction de partition Z()
puisque :
(x, y) = exp
_

_
V (y) V (x)
_
+
_
.
Dans ce cas, lalgorithme est simplie comme suit :
Initialiser X avec x
0
t 0
Repeter
i X
Produire j avec la probabilite Q(i, j)
Si V (j) < V (i)
X j
Sinon
Si Random < exp
_

_
V (j) V (i)
_
faire
X j
Fin
Fin
t t + 1
Jusqu`a larr^et de la simulation
110
6.5 Algorithme du recuit simule.
Le but de cette methode est de trouver le minimum global dune fonction V : E R
denie sur un ensemble E ni, mais trop grand pour faire une recherche systematique. Un
exemple typique est le cel`ebre probl`eme du voyageur de commerce suivant : Un voyageur
de commerce doit visiter N clients dans N villes dierentes et revenir `a son point de depart ; il
cherche `a minimiser la longueur du trajet `a eectuer. Le nombre de permutations sur lensemble
des villes est N! et vaut environ 10
159
si N = 100. Si on ne tient compte ni du point initial ni du
sens du parcours, le nombre de trajets peut etre ramene `a
(N1)!
2
. La formule de Stirling donne
un equivalent du nombre reduit de trajets
_

2
N
N
1
2
e
N
. Meme pour 30 villes, le nombre
de trajets possibles est denviron 10
30
et pour se convaincre de limpossibilite denumerer tous
ces trajets pour trouver le plus court, il sut de voir que le nombre doperations elementaires
qui pourraient avoir ete eectuees par un ordinateur actuel qui aurait fonctionne depuis la
naissance de lunivers (voil`a environ 2 10
10
annees) est denviron 4 10
26
. Un des probl`emes
techniques est que les methodes classiques (telles que la descente de gradient) risquent de rester
piegees dans des minima locaux de V . Le probl`eme du voyageur de commerce ayant fait lobjet
de tr`es nombreux travaux, certains algorithmes speciques sont plus ecaces que celui du recuit
simule que nous allons presenter. Le recuit simule a par contre lavantage de pouvoir sadapter
`a de nombreuses situations o` u la fonction V que lon cherche `a minimiser poss`ede de nombreux
minima locaux.
Lutilisation de mesures de Gibbs dans ce contexte est naturelle car, comme le montre le
resultat suivant, `a basse temperature, elles se concentrent sur les etats denergie minimale.
Proposition 6.18 Soit E un ensemble ni, V : E R, m = minV (x) , x E le minimum
de V et c = x E : V (x) = m lensemble des points o` u V atteint son minimum. Pour tout
> 0, soit

la mesure de Gibbs denie par la denition 6.17. Alors quand + (cest


` a dire quand la temperature converge vers 0), pour tout x E, lim
+

(x) =
1
[c[
1
c
(x) et
pour tout > 0, lim
+

(x E : V (x) m + ) = 0.
Demonstration : Puisque c est ni, il existe > 0 tel que inf
y/ c
V (y) m + . Pour tout
> 0 et x E,

(x) =
exp( V (x))
[c[ exp( m) +

y/ c
exp( V (y))
=
exp( [V (x) m])
[c[ +

y/ c
exp( [V (y) m])
.
On en deduit que lorsque +, exp([V (y)m]) 0 si y / c ce qui entrane

(x)
1
[c[
si x c et

(x) 0 sinon. Enn, puisque Z() e


m
[c[, pour tout > 0,

(V m+ )

xE
e
(m+)
e
m
[c[
= e

[E[
[c[
. 2
On dit que la suite (X
n
, n 0) est une chane de Markov in-homog`ene si sa matrice de
transition `a chaque instant depend de linstant, cest `a dire sil existe une suite (P
n
, n 1)
de matrices de transition sur E telle que pour tout n 0 et tout choix delements x
k
E,
0 k n + 1 :
P
_
X
n+1
= x
n+1
[ X
0
= x
0
, , X
n
= x
n
_
= P
n
(x
n
, x
n+1
) .
111
On en deduit que P(X
n+1
= y [ X
0
= x) = (P
1
P
n
)(x, y) et que si
0
designe la loi de X
0
, la
loi
n
de X
n
est
n
=
0
P
1
P
n
. On construit la chane in-homog`ene suivante :
On xe une matrice de transition Q symetrique (cest `a dire telle que Q(x, y) = Q(y, x)
pour tout couple detats x, y de E) et satisfaisant la condition de Doeblin (6.2). On se donne
une suite de param`etres (
n
, n 1) qui croit vers + et on construit la matrice de transition
P
n
associee `a Q et `a la temperature 1/
n
par lalgorithme de Hastings Metropolis, cest `a dire
en posant :
P
n
(x, y) = Q(x, y) e
n
_
V (y)V (x)
_
+
si x ,= y , (6.12)
P
n
(x, x) = 1

y,=x
P
n
(x, y) .
Il faut alors trouver une suite (
n
, n 1), appelee schema de temperature, telle que la
chane ne reste pas piegee dans un minimum local de V , que lon appelle un puits de potentiel.
La terminologie est inspiree de la metallurgie o` u le metal est refroidi lentement. Le probl`eme
crucial est la vitesse de refroidissement, cest `a dire la vitesse de convergence de la temperature
1/
n
vers 0. En eet, si le refroidissement est trop rapide, le syst`eme est gele dans un
etat qui ne correspond pas `a un minimum du potentiel V , tandis que si le refroidissement est
trop lent, le temps de calcul devient trop long. Les resultats sur la vitesse de convergence sont
importants car ils donnent la precision de lalgorithme ; ils ne seront pas abordes et on renvoie
`a [3] ou [7] pour plus de details.
Dans le cas du probl`eme du voyageur de commerce, on xe la ville de depart et on tient
compte de lordre dans lequel les villes sont parcourues. On identie un trajet `a une permutation
et lespace des etats est donc lensemble o
N
des permutations de 1, , N. Partant dun
trajet E, on selectionne au hasard deux villes i et j et on les echange. Si i < j, le nouveau
trajet est donc

= (
1
, ,
i1
,
j
,
i+1
,
j1
,
i
,
j+1
, ,
N
). Si i = j,

= et
sinon il existe une transposition telle que

= . Le nombre de permutations

auxquelles
on peut acceder `a partir de , que lon appellera les voisins de , est donc
N(N1)
2
+ 1 et on
prend comme matrice de transition
_
_
_
Q(x, y) =
2
N
2
si x et y sont voisins et x ,= y ,
Q(x, x) =
1
N
,
Q(x, y) = 0 si x et y ne sont pas voisins.
Cette matrice de transition est symetrique et nous allons verier quelle satisfait la condition
de Doeblin. Toute permutation y peut secrire comme la composee de la permutation x et
dau plus N 1 transpositions ; on a donc y =
N1

1
x o` u on designe par
i
, 1
i N 1 soit une permutation, soit lidentite. Comme dans les deux cas, z et
i
z sont
voisins, on a Q(z,
i
z)
2
N
2
. On en deduit que Q
N1
(x, y)
_
2
N
2
_
N1
= (y) o` u est la
probabilite uniforme sur E et o` u = N! 2
N1
N
2N+2
. On voit dailleurs que Q est irreductible
et aperiodique. On pourra remarquer que la probabilite de transition plus naturelle denie
par

Q(x, y) =
2
N(N1)
si x et y sont voisins et 0 sinon est symetrique, mais nest pas aperiodique
et ne satisfait pas non plus la condition de Doeblin.
Notons
n
la probabilite denie par
n
(x) =
e
n V (x)
Z(n)
, qui est la probabilite invariante de
la chane de Markov homog`ene de matrice de transition P
n
. Puisque la suite
n
converge vers
+, la suite de probabilites
n
se concentre sur les points dont lenergie V est proche du
minimum m de V . Il faut donc controler la norme en variation totale de la dierence
n

n
.
Si cette norme est petite, lenergie de X
n
sera egalement proche de m quelque soit letat initial
x
0
.
112
Theor`eme 6.19 Soit E un ensemble ni,
0
une probabilite sur E et Q une matrice de tran-
sition symetrique sur E qui satisfait la condition de Doeblin (6.2). Pour tout entier n 1,
soit
n
= ln(n), P
n
la matrice de transition denie par (6.12) et
n
=
0
P
1
P
n
. Il existe

0
]0, +[ tel que :
(i) Pour tout ]0,
0
[ et toute loi initiale
0
on a
lim
n+
|
n

n
| = 0 (6.13)
et si m = minV (x) : x E, pour tout > 0, lim
n+
P(V (X
n
) m + [ X
0
= x) = 0.
(ii) Si >
0
, il existe x E tel que lim
n+
P(V (X
n
) > m[ X
0
= x) = 1.
La demonstration repose sur les trois lemmes techniques suivants.
Lemme 6.20 Soit (V ) = max
xE
V (x) min
xE
V (x) ; on a pour tout et

:
|

| 2 [

[ (V ) .
Demonstration : La mesure

est inchangee quand on remplace V par V m, o` u m =


min
xE
V (x). On peut donc supposer que m = 0 et que V 0. Sans perte de generalite, on
peut aussi supposer que

, ce qui entrane (

) V (x) 0. On en deduit que pour tout


x E :

e
V (x)
e

V (x)

e
V (x)

1 e
(

) V (x)

) (V ) e
V (x)
.
En sommant sur x E, puis en divisant par Z() Z(

), on obtient :
[Z() Z(

)[

xE

e
V (x)
e

V (x)

) (V ) Z() ,

1
Z()

1
Z(

) (V )
1
Z(

)
.
Puisque

et

sont des probabilites, on a :


|

| =

xE

1
Z()
e
V (x)

1
Z(

)
e

V (x)

xE

e
V (x)
e

V (x)

1
Z()
+

xE
e

V (x)

1
Z()

1
Z(

) (V )

xE
e
V (x)
Z()
+ (

) (V )

xE
e

V (x)
Z(

)
2 (

) (V ) . 2
Notons
= max
x,yE
1
Q(x,y)>0
_
V (x) V (y)
_
+
le saut maximum denergie possible entre deux instants pour une chane de Markov qui a Q
comme matrice de transition. Alors :
Lemme 6.21 Soit Q une matrice de transition qui satisfait la condition de Doeblin (6.2) avec
les constantes et l. Pour tout couple de probabilites et

sur E et pour tout entier n 1


on a :
|(

) P
n+1
P
n+l
|
_
1 e
l ln(n+l)
_
|

| .
113
Demonstration : Pour tout couple detats x ,= y et tout entier k 1 on a :
P
k
(x, y) = e

k
(V (y)V (x))
+
Q(x, y) e

k

Q(x, y)
et puisque P
k
(x, y) Q(x, y) si x ,= y,
P
k
(x, y) = 1

y,=x
P
k
(x, y) 1

y,=x
Q(x, y) = Q(x, x) e

k

Q(x, x) .
On en deduit que P
k
(x, y) e

k

Q(x, y) pour tout x, y E. Puisque Q satisfait la condition
de Doeblin :
P
n+1
P
n+l
(x, y) e
(
n+1
++
n+l
)
Q
l
(x, y) e
l ln(n+l)
(y) .
Notons Q

= P
n+1
P
n+l
et

= e
l ln(n+l)
. Le raisonnement fait dans la demonstration
du Theor`eme 6.6 pour l = 1 montre que |(

) Q

| (1

) |

|. 2
Lemme 6.22 Soit (z
k
, k 0) une suite telle que z
0
0 et z
k+1
(1
k
) z
k
+ b
k
avec

k
]0, 1[ et b
k
0 pour tout entier k 0. Notons A
0
= 1 et A
k
=

k1
i=0
1
1
i
pour tout k 1.
Alors pour tout entier k 1, on a :
z
k

A
0
z
0
A
k
+
1
A
k
k1

i=0
b
i

i
(A
i+1
A
i
) . (6.14)
En particulier, si

i1

i
= + et
b
i

i
0 quand i +, alors lim
k+
z
k
= 0.
Demonstration : Puisque A
k+1
> 0, on a A
k+1
z
k+1
A
k
z
k
+A
k+1
b
k
pour tout entier k 1.
On en deduit par recurrence que
A
k
z
k
A
0
z
0
+
k1

i=0
A
i+1
b
i
.
La majoration (6.14) est alors une consequence immediate du fait que A
i+1
=
1

i
(A
i+1
A
i
). Si
la serie

i
diverge, il en est de meme du produit inni

i
1
1
i
et la suite A
k
croit donc vers
+. Si le quotient b
i
/
i
converge vers 0, pour tout > 0 il existe i
0
tel que
b
i

i
si i i
0
.
Notons M un majorant de la suite
b
i

i
puis k
0
un entier tel que A
1
k


M A
i
0
pour tout entier
k k
0
. Alors pour tout k k
0
:
1
A
k
k1

i=0
b
i

i
(A
i+1
A
i
)
1
A
k
M A
i
0
+
A
k
A
i
0
A
k
2 .
On en deduit que lorsque k +, la suite
1
A
k

k1
i=0
b
i

i
(A
i+1
A
i
) converge vers 0, ce qui
entrane que la suite z
k
converge vers 0. 2
Demonstration du Theor`eme 6.19 : Nous demontrerons seulement la partie (i) du Theor`eme
6.19 qui justie la methode et prouverons lexistence dune constante

0
, non optimale, telle
que pour 0 < <

0
, lim
n
|
n

n
| = 0. Pour alleger les notation, notons
n
pour
n
o` u

n
= ln(n). Par denition, pour tout n, k 1,
n+k
=
n
P
n+1
P
n+k
et
j
=
j
P
j
, do` u :

n+k

n+k
=(
n

n
) P
n+1
P
n+k
+ (
n

n+1
) P
n+1
P
n+k
+ (
n+1

n+2
) P
n+2
P
n+k
+ + (
n+k1

n+k
) P
n+k
.
114
Si et

sont deux probabilites sur E, on a


|P
j

P
j
|

yE

xE
((x)

(x)) P
j
(x, y)

xE
[(x)

(x)[

yE
P
j
(x, y) = |

| . (6.15)
Le lemme 6.20 permet alors de deduire que
|
n+k

n+k
| |(
n

n
) P
n+1
P
n+k
| +
k

j=1
|
n+j1

n+j
|
|(
n

n
) P
n+1
P
n+k
| + 2 (V )
k

j=1
[ln(n + j) ln(n + j 1)]
|(
n

n
) P
n+1
P
n+k
| + 2 (V ) ln
_
n + k
n
_
. (6.16)
Il reste `a majorer |(
n

n
) P
n+1
P
n+k
|. Si l est lentier de la condition de Doeblin, notons
z
k
= |
kl

kl
|. Linegalite precedente et le lemme 6.21 entranent que
z
k+1
(1
k
) z
k
+ b
k
pour
k
= e
l ln[(k+1)l]
et b
k
= 2 (V ) ln
_
k + 1
k
_
.
Il existe donc des constantes strictement positives c et c

telles que lorsque k +,


k

c k
l
et
b
k

k
c

k
l1
, do` u

k

k
= + et lim
k
b
k

k
= 0 si <
1
,l
. Le lemme 6.22 montre
alors que lim
k+
|
kl

kl
| = 0. Pour tout j = 1, , l 1, en appliquant j fois les inegalites
(6.15) et (6.16) `a |(
kl

kl
) P
kl+1
P
kl+j
|, on deduit que
|
kl+j

kl+j
| |
kl

kl
| + 2(V ) ln
_
kl + j
kl
_
,
ce qui entrane lim
n+
|
n

n
| = 0. Puisque
n
est la loi de X
n
, la Proposition 6.18 permet
de conclure la demonstration de (i). 2
Remarque 6.23 Pour 0 < <
0
, la vitesse de convergence de P(V (X
n
) m + ) est de la
forme O(n
+
) pour tout > 0. Il faudrait donc prendre aussi proche que possible de
0
,
mais cette valeur est tr`es dicile `a calculer. Elle depend de V et aussi de la matrice Q choisie et
il faut considerer que
0
est inconnue. De plus, pour les praticiens, un schema de temperature
logarithmique est trop lent et ils utilisent plus souvent des schemas de la forme
n
= C n

. En
fait, pour un nombre xe n
0
diterations, le schema optimal est
n
= a ln(n
0
) b
n/n
0
, avec des
param`etres a et b quil faut considerer comme inconnus (cf. [3]).
Concr`etement, on utilise une approche empirique en essayant divers schemas de temperature
et en changeant eventuellement la matrice de transition Q. Une autre methode consiste `a laisser
la temperature constante sur des paliers.
Denition 6.24 Soit x / c. On dit que x communique avec c `a hauteur h > 0 sil existe
x
0
, x
1
, , x
j
tels que x
0
= x, x
j
c et :
Q(x
i
, x
i+1
) > 0 i = 0, , j 1 et
115
V (x
i
) V (x) + h , i = 1, , j .
La hauteur de communication h

de V est la plus petite hauteur h `a laquelle tout element x / c


communique avec c `a hauteur h.
Nous admettrons le resultat suivant de Hajek (1988).
Theor`eme 6.25 Pour lalgorithme du recuit simule avec le schema de temperature T(n) =
1
n
,
on a lim
n
P(X
n
c) = 1 si et seulement si :
lim
n

n
= + et
+

n=1
exp (h

n
) = +.
La condition du Theor`eme 6.25 de Hajek est bien s ur veriee si
n
= ln(n) avec
1
h

et la convergence est rapide si h est proche de h

. Deux probl`emes se posent de nouveau :


concr`etement, la valeur de h

est inconnue et on ne connat pas le temps datteinte du minimum


avec une precision donnee. Au lieu de recalculer
n
`a chaque instant n, on le xe sur des paliers
de temps de plus en plus longs en imposant pour tout entier k 1 :

n
= k pour tout n ]e
(k1) h
, e
kh
] .
Si h > h

, ces paliers de temps sont assez longs pour que loi de la chane denie par lalgorithme
de Metropolis et ayant comme probabilite invariante la mesure de Gibbs

k
=
n
pour n
]e
(k1) h
, e
kh
] atteigne

k
`a la n du palier. Ainsi, pour h > h

la suite sup
xE

yE
[P
m

(x, y)
(y)[ converge vers 0 quand k +. On pourra trouver des details sur cette methode et sur
son implementation dans [23].
Dans le cas du voyageur de commerce, le programme Scilab suivant vient de [5]. Il permet
de trouver le trajet optimal avec N = 50 villes reparties de fa con independante equidistribuee
de loi uniforme dans le carre unite. La matrice Q decrite precedemment, ainsi quavec une
matrice

Q plus ecace. La matrice

Q est denie de fa con similaire `a Q, avec une denition
dierente de trajets voisins. Pour toute permutation o
N
, les permutations voisines de
sont les permutations

deduites de en choisissant au hasard deux villes i et j, en les


echangeant et en changeant le sens du parcours entre les villes i et j, cest `a dire en posant

= (
1
, ,
i1
,
j
,
j1
, ,
i+1
,
i
,
j+1
, ,
N
) si i < j.
Le programme principal recuit.sce est le suivant. Pour lexecuter, taper exec recuit.sce
dans un terminal Scilab.
xset("default") ;
getf fonctionsrecuit.sci
// Nombre de villes
n=50 ;
//n=20 ;
// Villes aleatoires dans [0, 1]
2
position=grand(n,2,unf,0,1) ;
// Nombre diterations de lalgorithme
N=60000 ;
116
Long=zeros(1,N) ;
// Trajet initial=permutation aleatoire de 1, ,n
trajet=grand(1,prm,[1 :n]) ;
// fonction de temperature
function [beta]=schema temp(k)
beta=k/200 ;
endfunction ;
h=longueur(trajet,position) ;
trajet initial=trajet ;
trajet optimal=trajet ;
for i=1 :N,
n trajet=trajet voisin(trajet) ;
n h=longueur(n trajet,position) ;
if (n h<h) then
trajet=n trajet ;
h=n h ;
trajet optimal=trajet ;
elseif (grand(1,1,unf,0,1)<%e
^
(-schema temp(i)*(n h-h))) then
trajet=n trajet ;
h=n h ;
end ;
Long(i)=h ;
end ;
trajetfinal=trajet ;
// Graphe de levolution de lenergie
fenetre=1 ;
xset(window,fenetre) ;
xbasc() ;
plot2d([1 :N],Long) ;
xtitle([Evolution de la longueur du trajet]) ;
// Graphe des trajets
fenetre=2 ;
xset(window,fenetre) ;
xbasc() ;
xsetech([0.25,0,.5,.5])
dessin(trajet initial,position) ;
xtitle([trajet initial]) ;
xsetech([0.25,0.5,.5,.5])
dessin(trajet optimal,position) ;
xtitle([trajet obtenu par recuit apres 60000 iterations]) ;
Le programme principal fait appel au chier de fonctions fonctionsrecuit.sci suivant.
117
On verra que deux versions de trajetvoisin sont donnees, la premi`ere avec la matrice Q et la
seconde avec la matrice

Q. Les graphes sont donnes avec la version du chier qui correspond `a

Q, qui est plus ecace.


Le chier fonctionsrecuit.sci est le suivant (avec la matrice

Q) :
// Calcul dun trajet voisin avec

Q
// par permutation de deux villes et
// retournement du trajet entre les deux villes
function [x]=trajet voisin(y) ;
l=length(y) ;
i=grand(1,1,uin,1,l) ;
j=grand(1,1,uin,1,l) ;
x=y ; z=y ;
if (i-1<j) then
x([i :j])=y([j :-1 :i]) ;
else z=y([l :-1 :1]) ; x=z ; x([l-i+2 :l-j])=z([l-j :-1 :l-i+2]) ;
end ;
endfunction ;
// Calcul de la longueur dun trajet
function [h]=longueur(perm,position) ;
n position=position(perm, :) ;
l=length(perm) ;
A=eye(l,l)-[zeros(l,1),eye(l,l-1)] ;
A(l,1)=-1 ;
B=A*n position ;
h=sqrt(sum(B.*B)) ;
endfunction ;
// Affichage dun trajet
function dessin(trajet,position) ;
pos=position(trajet, :) ;
pos=[pos ;pos(1, :)] ;
plot2d(pos( :,1),pos( :,2),1,000) ;
endfunction ;
La fonction trajet voisin peut eventuellement etre remplacee par la suivante, qui se
contente de permuter les villes i et j, ce qui correspond `a la matrice Q.
// permutation de 2 villes
function [x]=trajet voisin(y) ;
l=length(y) ;
i=grand(1,1,uin,1,l) ;
j=grand(1,1,uin,1,l) ;
x=y ; z=y ;
x([i,j])=y([j,i]) ;
endfunction ;
118
Fig. 19 Trajets pour 50 villes uniformement reparties dans un carre de facon independante
trajet initial trajet obtenu par recuit apres 20 000 iterations
trajet obtenu par recuit apres 60 000 iterations
119
Fig. 20

Evolution de la longueur du trajet au cours des 60 000 iterations
0 1e4 2e4 3e4 4e4 5e4 6e4
0.8
1.2
1.6
2.0
2.4
2.8
3.2
3.6
4.0
4.4
4.8
Evolution de la longueur du trajet
6.6 Exercices
Exercice 6.1 Reprendre les exercices 3.8 et 3.21 et calculer la periode des etats. Les resultats
etablis pouvaient-ils etre prevus ?
Exercice 6.2 Demontrer linegalite (6.10).
Exercice 6.3 Soit E un ensemble ni ou denombrable, p et q des probabilites sur E telles
que 0 < p C q o` u q est facile `a simuler. Soit (Y
n
, n 1) une suite de variables aleatoires
independantes de meme loi q et X
0
une variable aleatoire `a valeurs dans E independante de la
suite (Y
n
). On denit la suite (X
n
n 0) par recurrence `a partir de X
0
de la fa con suivante :
X
n+1
=
_
Y
n+1
avec la probabilite
p(Y
n+1
)
C q(Y
n+1
)
,
X
n
avec la probabilite 1
p(Y
n+1
)
C q(Y
n+1
)
.
1. En considerant une suite (U
n
, n 1) de variables aleatoires independantes de loi |([0, 1])
et independante de (X
0
, (Y
n
)), montrer que X
n+1
= f(X
n
, U
n+1
, Y
n+1
) et en deduire que
(X
n
) est une chane de Markov.
2. Calculer la probabilite de transition Q de cette chane.
3. Pour toute probabilite sur E, calculer Q et en deduire que la suite des lois de X
n
converge vers une unique probabilite invariante egale `a p.
4. Quel rapport y a-t-il entre cette chane de Markov et la methode du rejet usuelle ?
5. Si E est ni, approximer

x
(x) p(x) pour une fonction : E R. Que peut-on dire
de la vitesse de convergence ?
120
Exercice 6.4 (

Echantillonneur de Gibbs) Soit (X


1
, , X
d
) un vecteur aleatoire prenant
ses valeurs dans E
d
o` u E est un ensemble ni et soit p(x
1
, , x
d
) la loi de ce vecteur.
On denit une chane de Markov (X(n) , n 0) sur E
d
comme suit : si X = X(n) est
donne, on choisit au hasard un entier i compris entre 1 et d et on modie la i`eme coordonnee
suivant la loi conditionnelle de X
i
sachant X
j
= x
j
, j ,= i.
1. Montrer que la probabilite de transition de la chane (X(n)) est denie pour x = (x
j
, 1
j d) et y = (x
1
, , x
i1
, y, x
i+1
, , x
d
) pour un indice i = 1, , d par :
Q( x, y) =
1
d
P(X
i
= y [ X
j
= x
j
, j ,= i) .
et Q(u, v) = 0 sinon.
2. Donner un algorithme de simulation de la probabilite de transition Q( x, y) quand on sait
simuler la loi conditionnelle P(X
i
= y [ X
j
= x
j
, j ,= i).
3. Soit A un sous-ensemble de E
d
; on cherche `a simuler une variable aleatoire de loi
p( x) 1
xA
P((X
1
, , X
d
) A)
.

Ecrire lalgorithme de Hastings Metropolis dans ce cas.


4. Que devient lalgorithme si A = E
d
?
5. Proposer un algorithme permettant de tirer d points uniformement repartis sur le cercle
conditionnellement `a ce que la distance minimum entre ces points soit > 0.
Exercice 6.5

Ecrire un algorithme de Metropolis pour la simulation des lois suivantes :
1. Loi sur lensemble de vecteurs dentiers (k
1
, , k
d
) dont la somme des composantes est
n telle que la probabilite dun vecteur soit proportionnelle `a sa premi`ere coordonnee.
2. Loi sur lensemble des sous-ensembles `a n elements de 1, , d telle que la probabilite
dun sous-ensemble soit proportionnelle `a la somme de ses elements.
Exercice 6.6 Soit E = 0, 1
d
lensemble des etats dont les elements sont notes = ((i) , 1
i d) avec (i) 0, 1. On dit que deux elements de E sont voisins sils di`erent en une seule
coordonnee i 1, , d ; on en deduit alors un graphe dont les sommets sont les elements
de E et tels que lensemble des aretes A est caracterise par le fait que :
, A si et seulement si
d

i=1
[(i) (i)[ = 1 .
Fixons [0, 1] et construisons la matrice de transition Q par :
Q(, ) =
_
_
_

d
si et sont voisins,
1 si = ,
0 sinon.
Pour = 0, Q est lidentite et pour = 1, Q est la matrice de la marche aleatoire symetrique
sur le graphe precedent deni sur lhypercube ; dans ce cas la periode est 2.
Dans la suite, nous supposerons que 0 < < 1.
121
1. Pour tout E, notons

: E 1, +1 le caract`ere deni par :

() = (1)
, )
.
Montrer que la famille (

, E) est une base orthogonale de R


2
d
et calculer la norme
de

.
2. Montrer que

est un vecteur propre de Q pour la valeur propre

= 1
2
d
d

i=1
(i) .
3. En deduire que les valeurs propres de Q sont
1 , 1
2
d
, 1
4
d
, , 1 2 ,
la valeur propre 1
2 k
d
etant dordre de multiplicite C
k
d
.
4. Calculer = sup[

[ : E,

,= 1.
Nous supposons desormais que
d
1+d
et considerons la base orthonormee de vecteurs
propres

denie par

() = 2

d
2

(). Le but est devaluer la puissance de Q necessaire


pour que Q
n
approxime la probabilite invariante avec une precision xee.
5. Montrer que Q est irreductible aperiodique et admet une probabilite invariante reversible.
En utilisant lequation (6.9), montrer que :

E
2
d
_
2
d
Q
m
(, ) 1
_
2
< si m > d
2
ln(2)
4

d
4
ln() .
6. En utilisant (6.8), montrer que :

E
2
d
_
2
d
Q
m
(, ) 1
_
2
< si m >
d ln(d)
4

d
4
ln(ln(1 +)) .
Lordre de grandeur du nombre de pas necessaire est donc
d ln(d)
4
et est tr`es inferieur au
nombre detats 2
d
.
7. On consid`ere la chane de Markov sur E simulee par lalgorithme suivant :
k 0
Initialiser
n 0
Repeter
Choisir i de loi uniforme sur 1, , d
(i) 1 (i)
Si Random < 0.5
Choisir j de loi uniforme sur 1, , d
(j) 1 (j)
Fin
n n + 1
Jusqu`a n Palier
Jusqu`a larr^et de la simulation
Determiner les valeurs propres de la matrice de transition Q de cette chane et evaluer la
vitesse de convergence de Q
n
vers sa probabilite invariante.
122
References
[1] N. Bouleau et D. Lepingle, Numerical methods for stochastic processes, Wiley Series in
Probability and Mathematical statistics 1994.
[2] Brent, R.P., Uniform random number generators for supercomputers, Proc. Fifth Aus-
tralian Supercomputer Conference, Melbourne, December 1992, 95-104. Also Technical
Report TR-CS-92-02, March 1992.
[3] Catoni, O., Simulated annealing algortihms and Markov chains with rare transitions,
Seminaire de probabilites XXXIII, Lecture Notes in Mathematics 1709, p. 69-119, 1999.
[4] Chung, K.L., Markov chains with stationary transition probabilities, Srpinger Verlag, 1967.
[5] Delmas, J.F., Jourdain, B., Cours de Mod`eles Aleatoires : matriser lincertain, 2nde et
3`eme annees, Ecole Nationale des Ponts et Chaussees, avril 2003.
[6] Doob, J.L., Classical Potential Theory and Its Probabilistic Counterpart, Springer Verlag,
1984.
[7] Duo, M., Algorithmes stochastiques, Mathematiques et Applications, vol. 23, Springer
Verlag, 1996.
[8] Durrett, R., Brownian Motion and Martingales in Analysis, Wadsworth, Belmont, Califor-
nia, 1984.
[9] Elie, L., Lapeyre, B., Intruduction aux Methodes de Monte Carlo, Cours de lEcole Poly-
technique, Septembre 2001.
[10] Friedman, A., Stochastic Dierential Equations and Applications, Volume 1, Academic
Press, 1975.
[11] J.E. Gentle, Random Number Generation and Monte Carlo Methods, Statistics and Com-
puting, Springer Verlag 1998.
[12] Karatzas, I., Shreve, S.E., Brownian motion and Stochastic Calculus, Spronger Verlag,
1991.
[13] Kloeden, P., Platen, E., Numerical Solution of Stochastic Dierential Equations, Applica-
tions of Mahtematics, Stochastic Modelling and Applied Probability 23, Springer Verlag
1992.
[14] Kloeden, P., Platen, E., Schurz, Numerical Solution of SDE through Computer Experi-
ments, Universitext, Springer Verlag 1997.
[15] Knuth, D.E., Seminumerical Algorithms, 2nd edition, vol. 2 of The Art of Computer Pro-
gramming, Addison-Wesley, 1981.
[16] Lapeyre, B., Pardoux, E., Sentis, R., Methodes de Monte-Carlo pour les equations de
transport et de diusion, Matematiques et Applications 29, Springer Verlag 1998.
[17] Lapeyre, B., Sulem, A., Talay, D., Understanding Numerical Analysis for Financial Models,
Mai 2003, `a paratre.
[18] LEcuyer, P., Random numbers for simulation, Communications of the ACM, p. 33-10,
1990.
[19] H. Neiderreiter, Random Number Generation and Quasi Monte Carlo Methods, Society
for industrial mathematics, 1992.
[20] Numerical Recipies in C, the art of scientic computing, Cambridge University Press 1992.
[21] Petritis, N., http ://perso.univ-rennes1.fr/dimitri.petritis/
123
[22] Talay, D., Tubaro, L., Expansion of the global error of numerical schemes solving stochastic
dierential equations, Stochastic Analysis and Applications 8(4), 1991, p. 94-120.
[23] Ycart, B., Mod`eles et Algorithmes Markoviens, Mathematiques et Applications 39, Sprin-
ger Verlag 2002.
124

Vous aimerez peut-être aussi