Vous êtes sur la page 1sur 14

INTRODUCTION AU MOUVEMENT BROWNIEN

Un botaniste anglais, Robert Brown, a observe en 1828 des grains de pollen en suspen-
sion dans de leau. Les minuscules particules entre les vacuoles des grains de pollen forment
un processus dont le mouvement, d u aux chocs entre les particules, est tr`es desordonne
(on observe un changement continuel des directions) et semble a priori imprevisible. La
loi suivie par une seule particule de cet amas est la loi du mouvement brownien. Par la
suite, Louis Bachelier decrit mathematiquement le processus brownien dans sa th`ese (en
1900), o` u il lutilise en nance pour presenter une analyse stochastique de la theorie de la
speculation (ce qui est considere `a present comme la base des mathematiques nanci`eres).
Neanmoins, ce travail etait passe plutot inapercu chez les mathematiciens de lepoque.
Peu de temps apr`es, Albert Einstein (en 1905) et independamment Marian Smoluchowski
(1906) ont attire lattention des physiciens sur le mouvement brownien et lont presente
comme un moyen (indirect) de conrmer lexistence des atomes et des molecules.
On etudie le mouvement brownien pour dierentes raisons. Tout dabord, il sagit dun
processus qui est `a la fois une martingale, un processus de Markov, un processus gaussien,
etc. Il presente de plus lavantage detre susamment concret et connu pour faire des
calculs explicites, ce qui nest pas le cas pour des objets plus generaux. On construit
aussi dautres processus `a partir du mouvement brownien, via des transformations que
nous netudierons pas ici. Enn, le mouvement brownien est un objet mathematique qui
merite notre attention en tant que tel.
Dans toute la suite, (, T, P) est un espace de probabilite. Ce chapitre requiert des
resultats provenant des chapitres sur les processus gaussiens ainsi que sur les martingales
et marches aleatoires.
Le mouvement brownien peut se construire de dierentes facons, comme nous le verrons
ici. Rappelons tout dabord que la distribution dun processus gaussien X est determinee
par EX
t
et sa matrice de covariance (s, t) = Cov(X
s
, X
t
) pour tout s, t 0. Le processus
gaussien le plus important est le mouvement brownien.
1. D

efinitions et propri

et

es
1.1. Denition.
Denition 1.1. Un processus (X
t
, t 0) `a valeurs R
d
est `a accroissements independants
si pour toute decomposition 0 t
0
< t
1
< . . . < t
n
, les variables aleatoires X
t
k+1
X
t
k
,
k = 0, 1, . . . , n 1, sont independantes.
Il est `a accroissements stationnaires si pour tout t, h > 0, la loi de X
t+h
X
t
est egale
`a la loi de X
h
X
0
.
Lemme 1.1. Un processus `a accroissements independants tel que X
0
= 0 et `a accroisse-
ments gaussiens est un processus gaussien.
Demonstration. Le vecteur (X
t
1
, . . . , X
t
n
) est une fonction lineaire du vecteur (X
t
1
, X
t
2

X
t
1
, . . . , X
t
n
X
t
n
1
) qui est gaussien par hypoth`ese.
Denition 1.2. Un processus (B
t
, t 0) `a valeurs R
d
est un mouvement brownien issu de 0
si cest un processus `a accroissements independants, `a trajectoires presque s urement conti-
nues avec B
0
= 0 et si, pour tout s < t, X
t
X
s
suit la loi ^(0, (t s)Id).
1
Proposition 1.1. Soit (X
t
, t 0) un processus reel `a trajectoires continues issu de 0.
Alors (X
t
)
t
est un mouvement brownien reel si et seulement si (X
t
)
t
est un processus
gaussien centre de fonction de covariance (s, t) = s t.
Demonstration. Soit (B
t
, t 0) un mouvement brownien. Par le lemme 1.1, cest un
processus gaussien centre. De plus, pour s < t, B
s
et B
t
B
s
sont independantes, do` u
E(B
t
B
s
) = E[B
s
(B
t
B
s
) +B
2
s
] = E(B
2
s
) = s. Sa covariance est donc bien (s, t) = s t.
Reciproquement, pour 0 = t
0
t
1
. . . t
n
, on a
n

i,j=1

j
(t
i
t
j
) =
n

i,j=1

j
ij

k=1
(t
k
t
k1
) =
n

i=1
(t
i
t
i1
)
_
n

j=i

j
_
2
0.
Il existe donc un processus gaussien reel (B
t
, t 0) tel que EB
t
= 0 et E(B
s
B
t
) =
s t. On a alors que B
t
B
s
suit la loi ^(0, t s). Il reste `a montrer quil sagit
dun processus `a accroissements independants. Comme, pour t
1
< . . . < t
n
, le vecteur
(B
t
1
, B
t
2
B
t
1
, . . . , B
t
n
B
t
n1
) est gaussien, il sut de prouver que pour i < j, E[(B
t
i

B
t
i1
)(B
t
j
B
t
j1
)] = 0, ce qui est evident.
Bien entendu, on denit facilement un mouvement brownien issu de 0 `a valeurs R
d
.
Proposition 1.2. i) Soient (B
i
t
, t 0) des mouvements browniens reels issus de 0 et
independants. Alors B
t
= (B
1
t
, . . . , B
d
t
) est un mouvement brownien issu de 0 `a valeurs
R
d
.
ii) Soit B
t
= (B
1
t
, . . . , B
d
t
) un mouvement brownien issu de 0 `a valeurs R
d
. Alors les
processus (B
i
t
, t 0) sont des mouvements browniens reels issus de 0 et independants.
Exercice 1
Prouver ce resultat.
1.2. Proprietes.
1.2.1. Transformations.
Proposition 1.3. Soit (B
t
, t 0) un mouvement brownien reel nul en 0. On a alors :
(1) (symetrie) (B
t
, t 0) est un mouvement brownien reel issu de 0,
(2) (propriete de Markov faible) pour tout s 0 xe, le processus B
(s)
t
= B
t+s
B
s
est un mouvement brownien reel issu de 0,
(3) (propriete dinvariance par changement dechelle) pour tout c > 0, le processus
X
t
= cB
t/c
2 est un mouvement brownien reel issu de 0 independant de T
s
=
(B
u
, u s),
(4) le processus deni par W
t
= tB
1/t
pour t ,= 0 et W
0
= 0 est un mouvement
brownien reel issu de 0.
Exercice 2
Prouver ce resultat.
1.2.2. Comportement des trajectoires. On donne ici des resultats caracteristiques concer-
nant le mouvement brownien. On peut trouver des resultats tr`es ns sur les trajectoires
du mouvement brownien, mais ce nest pas lobjet de ce texte.
Proposition 1.4. (1) limsup
t+
B
t

t
= + p.s. et liminf
t+
B
t

t
= p.s.,
(2) lim
t+
B
t
t
= 0 p.s.,
(3) limsup
t0
B
t

t
= + p.s. et liminf
t0
B
t

t
= p.s.
2
Exercice 3
Prouver ce resultat.
Corollaire 1.1. (1) P-p.s., B
t
passe une innite de fois par tout point.
(2) Pour tout s 0, B
t
nest p.s. derivable ni `a droite, ni `a gauche en s (seulement `a
droite pour s = 0).
Exercice 4
Prouver ce resultat.
Theor`eme 1.1 (Paul Levy). Soit (B
t
, t 0) un mouvement brownien reel issu de 0. On
a p.s.
limsup
t+
B
t

2t log log t
= 1, liminf
t+
B
t

2t log log t
= 1,
limsup
t0
B
t
_
2t log log(1/t)
= 1, liminf
t0
B
t
_
2t log log(1/t)
= 1,
2. Diff

erentes constructions du mouvement brownien


Remarquons tout dabord quil sut naturellement de construire un mouvement brow-
nien reel pour 0 t 1. Pour construire le mouvement brownien sur tout R
+
, on utilise
une suite de mouvements browniens independants sur [0, 1] : (B
(m)
t
, 0 t 1)
m
et alors
B
t
:= B
[t]
t[t]
+
[t]1

m=0
B
(m)
1
est un mouvement brownien sur R
+
.
2.1. Limite de marches aleatoires (voir Le Gall). Dans cette partie, nous ne faisons
pas toutes les demonstrations pour des raisons de concision.
Un fait important est que le mouvement brownien est une limite (faible) de marches
aleatoires. Nous nallons pas ici prouver lexistence du mouvement brownien, mais plutot
faire appel `a lintuition. On consid`ere une particule qui se deplace (`a temps discret) sur
Z
d
et choisit `a chaque instant, de mani`ere independante du passe, une nouvelle direction.
Soit (S
n
)
n
une marche aleatoire sur Z
d
issue de 0 :
S
n
= X
1
+. . . +X
n
o` u les v.a. X
i
sont i.i.d. `a valeurs dans Z
d
, de loi . On suppose que est telle que :
(1) est de carre integrable :

kZ
d
[k[
2
(k) <
(2) est centree :

kZ
d
k(k) = 0
(3) condition disotropie : il existe une constante > 0 telle que pour tout i, j
1, . . . , d,

kZ
d
k
i
k
j
(k) =
2

ij
.
Remarquons que la marche aleatoire standard sur Z
d
satisfait ces hypoth`eses avec
2
=
1/d. Posons maintenant pour tout n N

, tout t 0
S
(n)
t
=
1

n
S
[nt]
.
Le resultat suivant dit que le mouvement brownien est la limite continue de marches
aleatoires discr`etes changees dechelle.
3
Proposition 2.1. Pour tout p N

et toute suite de reels 0 = t


0
< t
1
< . . . < t
p
, on a
(S
(n)
t
1
, . . . , S
(n)
t
p
)
(d)
n
(U
1
, . . . , U
p
).
La loi limite est caracterisee par :
(1) les v.a. U
1
, U
2
U
1
, . . . , U
p
U
p1
sont independantes,
(2) pour tout i 1, . . . , p, U
i
U
i1
est un vecteur gaussien centre de matrice de
covariance
2
(t
i
t
i1
)Id.
Demonstration. Il sut de prouver la convergence de la transformee de Fourier : pour
tout
1
, . . . ,
p
R
d
,
E
_
expi
p

j=1

j
S
(n)
t
j

_
E
_
expi
p

j=1

j
U
j

_
.
Cela est equivalent `a : pour tout
1
, . . . ,
p
R
d
,
Eexpi
p

j=1

j
(S
(n)
t
j
S
(n)
t
j1
) Eexpi
p

j=1

j
(U
j
U
j1
).
Montrons cette derni`ere convergence. Par independance des v.a. U
1
, U
2
U
1
, . . . , U
p
U
p1
,
qui sont gaussiennes, on a
E
_
expi
p

j=1

j
(U
j
U
j1
)
_
=
p

j=1
E(expi
j
(U
j
U
j1
)) = exp
p

j=1

2
[
j
[
2
2
(t
j
t
j1
).
De plus,
S
(n)
t
j
S
(n)
t
j1
=
1

n
[nt
j
]

i=[nt
j1
]+1
X
i
.
Cela montre `a la fois que les v.a. S
(n)
t
j
S
(n)
t
j1
, 1 j p, sont independantes et que pour
j xe on a legalite en loi suivante
S
(n)
t
j
S
(n)
t
j1
=
(d)
1

n
S
[nt
j
][nt
j1
]
.
Par le theor`eme central limite,
1

n
S
[nt
j
][nt
j1
]
converge en loi vers

t
j
t
j1
G, o` u G est
un vecteur gaussien de covariance
2
Id. Ainsi, `a j xe, on obtient
E
_
expi
p

j=1

j
(S
(n)
t
j
S
(n)
t
j1
)
_
E
_
expi
_
t
j
t
j1

j
G
_
= exp

2
[
j
[
2
2
(t
j
t
j1
).
On conclut grace `a lindependance des v.a. S
(n)
t
j
S
(n)
t
j1
.
Pour expliquer un peu plus le lien entre le mouvement brownien et les marches aleatoires
centrees de carre integrable, commencons par creer une marche aleatoire `a partir dun
mouvement brownien. Le plongement de Skorokhod nous permet de faire cela. Notons
la loi des sauts de la marche aleatoire :
_
x(dx) = 0 et
_
[x[
2
(dx) =
2
< . On
cherche alors un temps darret T tel que B
T
est de loi et ET =
2
.
On choisit T tel que, pour < 0 < que nous preciserons ci-dessous, T = inft
0; B
t
/ (, ). On choisit en fait < 0 < selon la loi de densite
f(a, b) =
b a
Z

|[0,)
(db)
|(,0)
(da)
4
o` u la normalisation est Z =
1
2
_
[x[(dx). On a alors T < p.s. (car limsup B
t
= +
p.s. et liminf B
t
= p.s.). De plus, comme B est une martingale et (B
Tt
, t 0) est
bornee, on a
0 = EB
Tn
= P(B
T
= , T n) +P(B
T
= , T n) +E(B
n
1l
T>n
)

n
P(B
T
= ) +P(B
T
= ).
Cela implique donc que
(2.1) P(B
T
= ) =


.
Et cette egalite est vraie pour tout temps darret = inft 0; B
t
/ (a, b) pour
a < 0 < b :
P(B

= b) =
a
b a
.
En outre, en posant M
t
= (B
t
)( B
t
) +t qui est une martingale, on obtient
EM
0
= = EM
Tn
= E(T n) +E[(B
Tn
)( B
Tn
)]
n
ET,
ce qui montre que ET = [[.
Theor`eme 2.1 (Plongement de Skorokhod). La loi de B
T
est et ET =
2
.
Demonstration. Par lexpression de et (2.1), on a pour b 0
P(B
T
db) =
_
R

a
b a
(da, db) =
|[0,)
(db).
Donc B
T
est de loi . De plus,
ET =
_
[ab[(da, db) =
_

|[0,)
(db)
_

|(,0)
(da)(b a)[ba[ =
_
[x[
2
(dx) =
2
.

Pour plonger la marche aleatoire dans le mouvement brownien, on prend T


1
= T.
Ensuite, on refait la meme construction pour le mouvement brownien (B
T
1
+t
B
T
1
, t 0)
an dobtenir un temps darret T

2
de moyenne
2
et tel que B
T
1
+T

2
B
T
1
est de loi .
On pose alors T
2
= T
1
+T

2
. On continue pour construire T

3
lie au mouvement brownien
(B
T
2
+t
B
T
2
, t 0), etc. Notons tout de meme quil faut faire un peu attention, car
les T
i
sont aleatoires, donc il nest pas evident a priori que (B
T
i
+t
B
T
i
, t 0) est un
mouvement brownien (il faut utiliser la propriete forte de Markov). On obtient alors
Theor`eme 2.2. Le processus (S
n
= B
T
n
, n N) est une marche aleatoire dont les
accroissements suivent la loi et ET
n
= n
2
.
Pour le plongement reciproque, prenons
2
= 1. Denissons nalement pour
k
n
t
k+1
n
:
S
(n)
t
=

n
__
t
k
n
_
B
T
k+1
+
_
k + 1
n
t
_
B
T
k
_
.
Theor`eme 2.3 (Principe dinvariance de Donsker). La suite de processus (S
(n)
t
, 0 t
1) converge faiblement vers (B
t
, 0 t 1) lorsque n .
En realite, ce quon appelle usuellement theor`eme de Donsker est le resultat suivant
5
Theor`eme 2.4. Soient X
i
des v.a. i.i.d., centrees reduites. Posons S
n
= X
1
+ . . . + X
n
et denissons
X
n
t
=
1

n
(S
[nt]
+ (nt [nt])X
[nt]+1
.
Alors les processus X
n
convergent en loi vers le mouvement brownien.
La demonstration de ce resultat peut etre omise. La suite vient de [5], chapitre 13.
En probabilite, on travaille dans des espaces polonais (i.e. metriques separables). En
eet, si on denit une suite de variables (X
n
)
n
dans un espace non-polonais, pour etudier
la convergence de cette suite et surtout que cela ait un sens, il faut que les X
n
soient tous
denis sur le meme espace et que leur limite (quand elle existe) aussi. Pour le mouvement
brownien, on travaille sur lespace W
d
= ((R
+
, R
d
), appele espace de Wiener, muni de
la topologie de la convergence uniforme sur les compacts de R
+
(cet espace est alors
polonais). Cette topologie est associee `a la metrique suivante :
d(,

) =

n=1
2
n
sup
tn
[(t)

(t)[
1 + sup
tn
[(t)

(t)[
.
Notons
V
N
(, ) = sup[(t)

(t)[ : [t t

[ et t, t

N.
Proposition 2.2. Un sous-espace K de W
d
est relativement compact (i.e. son adherence
est compacte) si et seulement si
(1) lensemble (0) : K est borne dans R
d
,
(2) pour tout N, lim
0
sup
K
V
N
(, ) = 0.
Lemme 2.1. Une suite (P
n
)
n
de probabilites sur W
d
est faiblement relativement com-
pacte si et seulement si les deux proprietes suivantes sont satisfaites :
(1) pour tout > 0, il existe A > 0 et un entier n
0
tels que
P
n
([(0)[ > A) , pour tout n n
0
,
(2) pour tout > 0, > 0 et N N, il existe et n
0
tels que
P
n
(V
N
(, ) > ) , pour tout n n
0
.
Demonstration. La necessite est evidente par la proposition precedente et le crit`ere de
Prokhorov (nous rappelons que si une famille de probabilites est tendue, alors elle est
faiblement relativement compacte. De plus, la famille est tendue si pour tout 0 < < 1,
il existe un compact K

tel que pour toute probabilite P , on a P(K

) 1 . La
famille est faiblement relativement compacte si toute suite delements de contient
une sous-suite faiblement convergente).
Supposons maintenant que les deux proprietes sont veriees. Pour tout n
0
, la famille
(P
n
)
nn
0
est tendue et donc il existe A

et

satisfaisant ces conditions. On remplace alors


A par max(A, A

) et par min(,

) et supposons n
0
= 0. Dans ce cas, pour tout > 0
et N N, on choisit A
N,
et
N,k,
tels que
sup
n
P
n
([(0)[ > A
N,
)

2
N+1
,
sup
n
P
n
(V
N
(,
N,k,
) > 1/k)

2
N+k+1
.
Posons alors K
N,
= : [(0)[ A
N,
, V
N
(,
N,k,
) 1/k k 1. Par la propo-
sition precedente, lensemble K

N
K
N,
est relativement compact dans W
d
et on a
P
n
(K
c

N
P
N
(K
c
N,
) .
6
Lemme 2.2. La condition (2) du lemme precedent est une consequence de : pour tout
N et , > 0, il existe 0 < < 1 et n
0
tels que
P
n
_
: sup
tst+
[(s) (t)[
_
n n
0
, t N.
Demonstration. On xe N et on prend , > 0. Soient n
0
, tels que la condition enoncee
soit satisfaite. Pour chaque entier i tel que 0 i < N
1
, posons
A
i
=
_
sup
is(i+1) min(,N)
[(i) (s)[
_
.
On voit que
i
A
c
i
V
N
(, ) < 3 et donc pour tout n n
0
, on a
P
n
(V
N
(, ) 3) P
n
(
i
A
i
) (1 + [N
1
]) < (N + 1).

Demonstration du theor`eme 2.4. Tout dabord, prouvons la convergence des lois ni-
dimensionnelles (i.e. `a temps xe). Par le theor`eme central limite, on voit que pour
t
1
< t
2
< . . . < t
k
, on a (X
n
t
1
, X
n
t
2
X
n
t
1
, . . . , X
n
t
k
X
n
t
k1
) converge vers (B
t
1
, B
t
2

B
t
1
, . . . , B
t
k
B
t
k1
). Il sut donc de montrer que les lois des X
n
sont faiblement relati-
vement compactes. Pour ce faire, nous utilisons les lemmes precedents. En fait, il ne reste
plus qu`a utiliser le lemme 2.2. Supposons que les X
i
soient bornees. Dans ce cas, [S
k
[
4
est une sous-martingale et donc `a n xe, on a
P
_
sup
in
[S
i
[ >

n
_
E([S
n
[
4
)(

n)
4
.
Or E[S
n
[
4
= nE(X
4
1
) et donc il existe une constante C independante de la loi de X
k
telle que limsup
n
P
_
sup
in
[S
i
[ >

n
_
C
4
. On tronque et on passe `a la limite pour
montrer que ce resultat est toujours valide si X
k
nest pas bornee. Pour tout k 1, la
suite (S
n+k
S
k
) a meme loi que la suite (S
n
) et donc il existe un entier n
1
tel que
P
_
max
in
[S
i+k
S
k
[ >

n
_
C
4
pour tout k 1 et n n
1
. Choisissons et compris entre 0 et 1, et tel que C
2
<
2
.
Posons =
2

2
et choisissons n
0
> n
1

1
. Si n n
0
, alors [n] n
1
et donc linegalite
precedente devient
P
_
max
i[n]
[S
i+k
S
k
[
_
[n]
_

2

2
.
Comme
_
[n]

n, on obtient
P
_
max
i[n]
[S
i+k
S
k
[

n
_

pour tout k 1 et n n
0
. Comme les X
n
sont des interpolations lineaires de la marche
aleatoire S
n
, on voit que la condition du lemme precedent est satisfaite pour tout N.
7
2.2. Construction de Paul Levy.
Lemme 2.3. Soit (X
n
)
n
une suite de variables aleatoires gaussiennes centrees. On sup-
pose que X
n
converge en probabilite vers X. Alors X est gaussienne et X
n
converge vers
X dans L
2
.
Demonstration. Par hypoth`ese, X
n
suit la loi ^(0,
2
n
). On sait alors que E(e
itX
n
) =
exp
2
n
t
2
/2 E(e
itX
). Cela implique que
2
n
= E(X
2
n
)
2
et E(e
itX
) = exp
2
t
2
/2.
Donc X est gaussienne. De plus,
1
3!
E[X
n
[
3
E(e
|X
n
|
) Ee
X
n
+Ee
X
n
= e

2
n
/2
+e

2
n
/2
,
do` u sup
n
E[X
n
[
3
< et X
n
converge vers X dans L
2
.
Nous pouvons maintenant construire le mouvement brownien. Soit (X
n,k
, 0 k <
2
n
, n 0) une suite de variables aleatoires i.i.d. de loi ^(0, 1). On denit une suite de
processus (X
n
(t), 0 t 1) par :
(1) X
n
(t) est lineaire sur chaque intervalle [2
n
k, 2
n
(k + 1)[,
(2) X
0
(0) = 0 et X
0
(1) = X
0,0
,
(3) X
n+1
(2
n
k) = X
n
(2
n
k) et
X
n+1
(2
(n+1)
(2k + 1)) = X
n
(2
(n+1)
(2k + 1)) + 2
(n+2)/2
X
2k+1,n+1
.
Remarquons que X
n
(2
(n+1)
(2k + 1)) =
1
2
[X
n
(2
n
k) +X
n
(2
n
(k + 1))].
Lemme 2.4. Le vecteur (X
n
(2
n
k), k = 0, 1, . . . , 2
n
) est gaussien centre et de plus,
E(X
n
(2
n
k)X
n
(2
n
k

)) = 2
n
(k k

).
Demonstration. Par recurrence sur n car `a n xe, les vecteurs (X
n
(2
n
k), k) et X
k,n+1
sont gaussiens et independants.
Le processus (X
n
(t), 0 t 1) est donc gaussien centre et
E(X
n
(s)X
n
(t)) = s t +O(2
n
).
Lemme 2.5. Il existe une constante C > 0 telle que pour tout n
P( sup
0t1
[X
n+1
(t) X
n
(t)[ > 2
n/4
) C2
n
.
Demonstration. Rappelons dabord que si Y suit la loi ^(0, 1), alors P([Y [ > a)
a
8
E[Y [
8
Ca
8
. Ainsi,
P( sup
0t1
[X
n+1
(t) X
n
(t)[ > 2
n/4
) = P
_

2
n
1
k=0
sup
2
n
kt2
n
(k+1)
[X
n+1
(t) X
n
(t)[ > 2
n/4
_

P
_

2
n
1
k=0
2
(n+2)/2
[X
2k+1,n+1
[ > 2
n/4

2
n
P([Y [ > 2
(n+4)/4
) C2
(n+2)
.

Par Borel-Cantelli, il existe un ensemble negligeable ^ tel que pour tout / ^,


sup
0t1
[X
n+1
(t, ) X
n
(t, )[ 2
n/4
pour tout n n
0
(). On en deduit que X
n
(t, )
converge uniformement sur [0, 1] et que la limite X(t, ) est continue. Il en resulte alors
que le processus (X(t), t) est gaussien centre et que E(X(s)X(t)) = s t. Il sagit donc
dun mouvement brownien sur [0,1].
8
2.3. Isometrie de L
2
(voir Kallenberg). Soit H un espace de Hilbert separable. In-
troduisons une base orthonormee e
1
, e
2
, . . . H. Soit (X
i
, i N

) une suite de variables


aleatoires i.i.d. de loi ^(0, 1). Soit (b
i
) une suite de reels de carre integrable

i
b
2
i
< .
`
A tout element h =

i
b
i
e
i
, on associe le processus X
h
=

i
b
i
X
i
o` u la serie converge
p.s. et dans L
2
(car

i
b
2
i
< ). Le processus X est clairement gaussien centre et lineaire
dans le sens o` u pour tout h, k H, a, b R : X
ah+bk
= aX
h
+ bX
k
p.s. De plus, si
k =

i
c
i
e
i
, on a
E(X
h
X
k
) =

i,j
b
i
c
j
E(X
i
X
j
) =

i
b
i
c
j
=< h, k > .
On a ainsi determine la loi de X. Montrons maintenant comment la distribution gaus-
sienne intervient naturellement dans letude des processus `a accroissements independants.
Theor`eme 2.5 (de Levy). Soit X un processus continu dans R
d
, `a accroissements
independants et X
0
= 0. Alors X est gaussien et il existe b R
d
, a R
d
2
continues
telles que a admet des accroissements denis positifs ou nuls et X
t
X
s
suit la loi
^(B
t
b
s
, a
t
a
s
) pour tout s < t.
Demonstration. Soient 0 s < t et u R
d
. Pour tout n N, on divise lintervalle [s, t] en
n sous-intervalles de meme longueur. On note les accroissements de uX correspondant par
X
n1
, . . . , X
nn
. Par continuite de X, on a max
j
[X
nj
[ 0 p.s. Ainsi, u(X
t
X
s
) =

j
X
nj
est une variable gaussienne. Comme X a des accroissements independants, on conclut
que X est gaussienne.
Posons b
t
= EX
t
et a
t
= Var(X
t
). On a alors par independance des accroissements
pour tout s < t :
0 Var(X
t
X
s
) = Var(X
t
) Var(X
s
) = a
t
a
s
.
Par continuite de X, X
s
converge en loi vers X
t
lorsque s t et donc b
s
b
t
et a
s
a
t
.
Donc a et b sont continues.
Remarque 1. Si X a de plus des accroissements independants stationnaires, alors a et b
sont lineaires.
Remarque 2 (Comparaison avec la caracterisation de Poisson). Soit un processus ponc-
tuel K-marque, avec K mesurable, sur S borelien tel que (s K) = 0 p.s. pour tout
s S. Alors est un processus de Poisson si et seulement si a des accroissements
independants.
Theor`eme 2.6 (de Wiener). Il existe un processus gaussien continu B (`a valeurs reelles)
`a accroissements independants stationnaires avec B
0
= 0 tel que B
t
suit la loi ^(0, t)
pour tout t 0. B est un mouvement brownien.
De plus, B est p.s. localement Holder-continu dexposant c pour tout 0 < c < 1/2, i.e.
pour tout L > 0, sup[B
t
B
s
[/[t s[
c
: t ,= s L < p.s.
Demonstration. Soit X un processus gaussien centre dans L
2
(R
+
, ). Denissons B
t
=
X1l
[0,t]
pour t 0.
Comme les fonctions indicatrices dintervalles disjoints sont orthogonales, les accrois-
sements de B ne sont pas correles et donc independants. De plus, |1l
(s,t)
|
2
= t s pour
tout s t et donc B
t
B
s
suit la loi ^(0, t s). On a alors les egalites en loi suivantes :
B
t
B
s
=
(d)
B
ts
=
(d)

t sB
1
et E[B
t
B
s
[
c
= (t s)
c/2
E[B
1
[
c
< pour c > 0.
9
Remarque 3. Tout processus de Markov homog`ene (en temps et en espace) dans R
d
secrit
sous la forme aB
t
+tb +c, o` u B est un d-mouvement brownien, a est une matrice d d,
b et c sont des vecteurs de R
d
.
2.4. Serie de Fourier-Wiener (voir Kahane). Soit H un espace de Hilbert et T une
isometrie lineaire T : L
2
(R) H. On denit B
t
= T(1l
[0,t]
).
On a clairement |B
t
|
2
= [t[ et |B
t
B
s
|
2
= [t s[. B est un processus gaussien `a
accroissements stationnaires dont la variance vaut t. Remarquons que pour t
1
< t
2
< t
3
,
on a |B
t
2
B
t
1
|
2
+|B
t
3
B
t
2
|
2
= |B
t
3
B
t
1
|
2
, donc (B
t
2
B
t
1
, B
t
3
B
t
2
) = 0.
Soient t
1
< t
2
t
3
< t
4
. Alors B
t
2
B
t
1
et B
t
4
B
t
3
sont orthogonales et donc
independantes. Ainsi, (B
t
, t 0) est un processus `a accroissements independants.
Un mouvement brownien en dimension d secrit comme B
t
= (B
1
t
, . . . , B
d
t
) o` u B
1
, . . . , B
d
sont des copies independantes dun mouvement brownien reel. On a alors E|B
t
|
2
= dt.
On peut `a nouveau montrer les proprietes dinvariance, `a savoir que pour tout c R

,
s R
+
, les processus
_
[c[B
t/c
, B
t+s
B
s
et tB
1/t
ont meme loi que B
t
.
Soit 0 t 1. Reprenons les notations ci-dessus. Notons (e
n
) une base orthonormale de
L
2
([0, 1]) et X
n
= T(e
n
). On a 1l
[0,t]
=

n
a
n
(t)e
n
dans L
2
([0, 1]) et B
t
=

n
a
n
(t)X
n
dans
H. Si la serie

n
a
n
(t)X
n
converge uniformement presque s urement, quand 0 t 1,
on a alors `a nouveau construit le mouvement brownien.
Prenons la base trigonometrique pour (e
n
) :
1,

2 cos(2t),

2 sin(2t), . . . ,

2 cos(2nt),

2 sin(2nt), . . .
Cette base est envoyee par T sur une suite de variables aleatoires gaussiennes ^(0, 1) :
X
0
, X
1
, Y
1
, . . . , X
n
, Y
n
, . . . On obtient alors B
t
par integration formelle de
X
0
+

n1
(X
n
cos(2nt) +Y
n
sin(2nt))
do` u
(2.2) B
t
= X
0
t +

n1
1
2n
(X
n
sin(2nt) +Y
n
(1 cos(2nt)))
On a ainsi prouve le resultat suivant :
Theor`eme 2.7. Les fonctions du mouvement brownien sont donnees sur [0, 1] par (2.2).
On a de plus que t B
t
est continue.
3. Exercices
Exercice 5
Soit (B
t
, t 0) un mouvement brownien reel. Montrer les resultats suivants :
(1) (B
t
, t 0) est une martingale
(2) (B
2
t
t, t 0) est une martingale
(3) pour tout R, (expB
t

1
2

2
t, t 0) est une martingale
Montrer aussi que si B
t
= (B
1
t
, . . . , B
d
t
) est un mouvement brownien issu de 0, alors pour
tout i ,= j, (B
i
t
B
j
t
, t 0) est une martingale.
Exercice 6 Crit`ere de Fourier
Soit X = (, T
t
, X
t
, P) un processus adapte p.s. continu `a valeurs R
d
tel que X
0
= 0.
Alors X est un T
t
-mouvement brownien si et seulement si pour tout R
d
, Z

t
=
expi(, X
t
) +
1
2
[[
2
t est une martingale.
10
Exercice 7 Principe de reexion
Soit S
t
= sup
0st
B
s
. Soient a 0 et b a. Montrer que pour tout t > 0, on a
P(S
t
> a, B
t
b) = P(B
t
2a b).
Note : il est conseille de faire un dessin... Remarquons en particulier que ce resultat
implique que pour tout t > 0 xe, S
t
a meme loi que [B
t
[. Bien entendu, il est faux que
(S
t
, t 0) a meme loi que ([B
t
[, t 0). En fait, Levy a prouve que ([B
t
[, t 0) a meme
loi que (S
t
B
t
, t 0).
Ce resultat implique aussi que la loi de (S
t
, B
t
) admet pour densite (pour t > 0 xe)
f
(S
t
,B
t
)
(x, y) =
2(2x y)

2t
3
exp
(2x y)
2
2t
1l
x>0,yx
.
Exercice 8
Soit a R. Notons T
a
= inft 0; B
t
= a. Montrer que T
a
a meme loi que a
2
/B
2
1
et en
particulier, la loi de T
a
a pour densite
f
T
a
(t) =
[a[

2t
3
exp
a
2
2t
1l
R

+
(t).
Exercice 9
Soit (B
t
, t 0) un mouvement brownien reel issu de 0. Soient > 0, > 0 et 0 < q < 1.
On pose
A
n
= ; il existe t tel que q
n+1
t < q
n
et [B
t
()[ > t

.
1) Montrer que A
n
sup
tq
n [B
t
[ > q
(n+1)
et en deduire que P(A
n
) q
n(12)2

2
.
2) Montrer que limsup
t0
|B
t
|
t

= 0 p.s. pour < 1/2.


Exercice 10
1) Soit M une martingale continue positive veriant M
0
= 1 et lim
t+
M
t
= 0 p.s. On
pose M

= sup
t0
M
t
et
a
= inft 0; M
t
> a. Montrer que pour tout a > 1, on a p.s.
lim
t+
M
t
a
= a1l

a
<+
= a1l
M

>a
.
En deduire que M

a meme loi que U


1
o` u U suit une loi uniforme sur ]0, 1[.
2) Soit B un mouvement brownien reel issu de 0. Pour > 0, on pose X
t
= B
t
t,
X

= sup
t0
X
t
. Montrer quil existe > 0 tel que (e
X
t
)
t
est une martingale. En deduire,
en utilisant 1), la loi de X

.
Exercice 11
Soient B un mouvement brownien reel issu de 0, R et a > 0. On pose Y
t
= B
t
+ t
et
a
= inft 0; Y
t
a.
1) Montrer que pour tout > 0 et tout t 0, on a
E
_
expY
t
a
(

2
2
+)(t
a
)
_
= 1.
2) Montrer que pour tout > max(0, 2), on a
E
_
1l

a
<+
exp(

2
2
+)
a

_
= e
a
.
3) Calculer P(
a
< +) pour 0, puis pour < 0.
4) On suppose 0. Calculer, pour tout > 0, Ee

a
.
11
Exercice 12
Soit B un mouvement brownien reel issu de 0. On pose
Z
t
=
1

1 t
exp
B
2
t
2(1 t)
1l
0t<1
.
Calculer EZ
t
et E(Z
2
t
).
4. Solutions
Solution 1
Il sagit dun resultat elementaire en utilisant les proprietes des vecteurs gaussiens.
Solution 2
Pour B
t
, B
(s)
t
et X
t
, la verication est immediate. En ce qui concerne Y
t
, il sagit dun
processus gaussien centre de fonction de covariance (s, t) = E(Y
t
Y
s
) = stE(B
1/t
B
1/s
) =
s t. De plus, Y
t
est continu sur ]0, +[. Puisque (Y
t
, t 0) et (B
t
, t 0) ont meme loi,
on a pour tout a > 0
P
_
sup
0<st
[Y
s
[ > a
_
= P
_
sup
0<st
[B
s
[ > a
_

t0
0
et Y
t
converge donc vers 0 p.s. lorsque t 0.
Solution 3
1) Posons L = limsup
t+
B
t

t
. Pour tout s > 0, on a
L = limsup
t+
B
t+s

t +s
= limsup
t+
B
t+s

t
= limsup
t+
B
t+s
B
s

t
.
Donc L ne depend pas de (B
u
, u s). Cette propriete etant vraie pour tout s, L est
independante de (B
u
, u 0) et donc de L. On a donc soit P(L = +) = 1, soit
P(L = ) = 1. Supposons que L = p.s. On a alors pour tout > , P(B
t
>

t) 0
lorsque t . Or P(B
t
/

t > ) = P(B
1
> ) > 0. Donc L = + p.s. Pour la seconde
limite, il sut de considerer B
t
.
2) Posons s = 1/t et Y
t
= tB
1/t
. On a
B
t
t
= sB
1/s
= Y
s
0 p.s. quand s 0 car on a vu
que Y
s
est un mouvement brownien issu de 0.
3) Il sut de considerer le mouvement brownien W
t
= tB
1/t
.
Solution 4
1) Resulte directement de la continuite des trajectoires et de la proposition precedente.
2) B
t
nest pas derivable `a droite en 0 car limsup
t0
B
t
B
0

t
= + p.s. Si on consid`ere le
mouvement brownien (B
t+s
B
s
, t 0), on obtient la non-derivabilite `a droite en s 0.
En considerant Y
t
= tB
1/t
, on obtient la non-derivabilite `a gauche en s > 0.
Solution 5
1) Pour s < t, on a E(B
t
[T
s
) = E(B
s
+B
t
B
s
[T
s
) = B
s
+E(B
t
B
s
) = B
s
(car B
t
B
s
est independante de T
s
et E(B
s
) = 0 pour tout s).
2) On utilise `a nouveau lindependance de B
t
B
s
par rapport `a T
s
.
ts = E[(B
t
B
s
)
2
] = E((B
t
B
s
)
2
[T
s
) = E(B
2
t
[T
s
)+B
2
s
2B
s
E(B
t
[T
s
) = E(B
2
t
[T
s
)
B
2
s
.
3) E(e
B
t
B
s
)
[T
s
) = E(e
B
t
B
s
)
) = e

2
(ts)/2
do` u le resultat.
4) Comme B
i
t
B
j
t
B
i
s
B
j
s
= B
i
s
(B
j
t
B
j
s
) +(B
i
t
B
i
s
)B
j
s
+(B
i
t
B
i
s
)(B
j
t
B
j
s
), on en deduit
(par independance des accroissements) que E(B
i
t
B
j
t
B
i
s
B
j
s
[T
s
) = E((B
i
t
B
i
s
)(B
j
t

B
j
s
)[T
s
) = E(B
i
t
B
i
s
[T
s
)E(B
j
t
B
j
s
[T
s
) = 0.
Solution 6
Si X est un mouvement brownien, alors E(expi(, X
t
X
s
)[T
s
) = E(expi(, X
t
X
s
))
12
car X
t
X
s
est independant de T
s
. Donc E(expi(, X
t
X
s
)[T
s
) = e
||
2
(ts)/2
et Z

t
est une martingale.
Reciproquement, si Z

t
est une martingale, alors E(expi(, X
t
X
s
)[T
s
) = e
||
2
(ts)/2
,
do` u E(expi(, X
t
X
s
)) = e
||
2
(ts)/2
. Ainsi, X
t
X
s
suit la loi ^(0, (ts)Id) et donc
X
t
X
s
est independant de T
s
. On conclut donc que X est un mouvement brownien.
[ Appartee : En eet, on a le crit`ere de Fourier conditionnel dindependance suivant.
Si X est une variable aleatoire `a valeurs R
d
, mesurable par rapport `a (, alors X est
independante de ( si et seulement si E(e
i(,X)
[() = E(e
i(,X)
) p.s. pour tout R
d
.
Pour montrer ce resultat, remarquons quun sens est trivial. Pour la reciproque, soit Z
une v.a. (-mesurable. On a E(e
i(,X)+i(,Z)
) = E(e
i(,Z)
E(e
i(,X)
[()) = E(e
i(,X)
)E(e
i(,Z)
)
donc X et Z sont independantes pour toute Z (-mesurable. ]
Solution 7
Notons

B
s
= B
T
a
+s
a. On a
P(S
t
> a, B
t
b) = P(T
a
t, B
t
b) = P(T
a
t,

B
tT
a
b a)
= E
_
1l
T
a
t
P(

B
tT
a
b a[T
T
a
)
_
= E[1l
T
a
t
h(T
a
)]
avec h(s) = P(

B
ts
b a) = P(

B
ts
b a). Ainsi, on en deduit que
P(S
t
> a, B
t
b) = E
_
1l
T
a
t
P(

B
tT
a
b a[T
T
a
)
_
= P(T
a
t,

B
tT
a
b a)
= P(T
a
t, (B
t
a) b a) = P(S
t
a, B
t
2a b) = P(B
t
2a b)
car 2a b a.
Pour nir, on a pour tout a > 0 (car B
t
est gaussienne)
P(S
t
a) = P(S
t
a, B
t
a) +P(S
t
a, B
t
> a) = P(B
t
a) +P(B
t
> a)
= P(B
t
a) +P(B
t
a) = 2P(B
t
a) = P([B
t
[ a).
Solution 8
On a pour tout t > 0 xe :
P(T
a
t) = P(S
t
a) = P([B
t
[ a) = P(B
2
t
a
2
) = P(tB
2
1
a
2
) = P(a
2
/B
2
1
t).
Solution 9
1) Si A
n
, il existe t, q
n+1
t < q
n
tel que [B
t
()[ > t

q
(n+1)
. Comme B
2
t
est
une sous-martingale continue positive, on a donc
P(A
n
) P(sup
tq
n
B
2
t
>
2
q
2(n+1)
)
1

2
q
2(n+1)
E(B
2
q
n) = q
n(12)2

2
.
2) Si < 1/2, on a

n
P(A
n
) C

n
q
n(12)
< + et donc par Borel-Cantelli, on a
p.s. [B
t
[ t

pour tout t q
n
, avec n assez grand. Cela implique : limsup
t0
|B
t
|
t


p.s. Comme est arbitraire, on obtient le resultat voulu.
Solution 10
1) On a
a
= + = M

a. Comme sur
a
= +, on a M
t
a
0 p.s. et sur

a
< +, on a M
t
a
M

a
= a p.s. ; on en deduit que M
t
a
= a1l

a
<+
= a1l
M

>a
.
Vu que M
t
a
est une martingale, on a EM
t
a
= EM
0
= 1. De plus, 0 M
t
a
a,
do` u par le theor`eme de Lebesgue
aP(M

> a) = E(limM
t
a
) = limEM
t
a
= 1.
13
On conclut donc que P(M

> a) = a
1
= P(U < a
1
) = P(U
1
> a), ce qui implique le
resultat.
2) On sait que pour tout > 0, e
B
t

2
t/2
est une martingale, donc e
X
t
est une martingale
si = 2. On remarque que X
t
= t(
B
t
t
) p.s. car
B
t
t
0 p.s. Ainsi, on a
e
X
t
0 p.s. On applique alors 1) `a la martingale M
t
= e
2X
t
et on obtient
P(X

u) = P(M

e
2u
) = 1 P(M

> e
2u
) = 1 e
2u
.
Donc X

a pour densite sur R


+
f(u) = 2e
2u
: X

suit la loi exponentielle de param`etre


2.
Solution 11
1) Soit M
t
= expY
t
(

2
2
+ )t = expB
t


2
2
t. Alors M
t
est une martingale et
comme t
a
est un temps darret borne, on en deduit que 1 = EM
0
= EM
t
a
.
2) Comme B
t
a
a et

2
2
+ > 0, on a
expY
t
a
(

2
2
+)(t
a
)
t
1l

a
<
expa (

2
2
+)
a
e
a
.
Donc, par convergence dominee, on obtient
E
_
1l

a
<
expa (

2
2
+)
a

_
= lim
t
E
_
expY
t
a
(

2
2
+)(t
a
)
_
= 1
et E
_
1l

a
<
expa (

2
2
+)
a

_
= e
a
.
3) Supposons 0. Alors legalite precedente est vraie pour tout > 0 et on a
P(
a
< +) = lim
0
E
_
1l

a
<
exp(

2
2
+)
a

_
= lim
0
e
a
= 1.
Supposons < 0. Alors legalite precedente est vraie pour tout > 2 et on a
P(
a
< +) = lim
2
E
_
1l

a
<
exp(

2
2
+)
a

_
= lim
2
e
a
= e
2a
.
4) On choisit > 0 tel que

2
2
+ = , ie =
_

2
+ 2 et on a
Ee

a
= expa(
_

2
+ 2 ).
Solution 12
On a pour > 0,
Ee
B
2
t
=
1

2t
_
e
x
2
/(2t)
e
x
2
dx =
1

1 + 2t
,
do` u EZ
t
= 1 et EZ
2
t
=
1

1t
2
.
R

ef

erences
[1] Foata F. & Fuchs (2004), Processus stochastiques.
[2] Kahane J.P. (1985), Some random series of functions.
[3] Kallenberg O. (2001), Foundations of modern probability, 2nd edition.
[4] Le Gall J.F. (2006), Integration, probabilites et processus aleatoires , http ://www.math.ens.fr/ le-
gall/IPPA2.pdf.
[5] Revuz D. & Yor M. (1999), Continuous martingales and Brownian motion.
14

Vous aimerez peut-être aussi