Académique Documents
Professionnel Documents
Culture Documents
• •
Thomas D UQUESNE
2020-2021
ii
Contents
iii
II.6 Régularisation des processus de Feller. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
II.6.a Énoncé, résumé des résultats applicables, contruction canonique. . . . . . . . . . . . . 77
II.6.b Préliminaires sur les fonctions sur-médianes. . . . . . . . . . . . . . . . . . . . . . . 79
II.6.c Preuve du théorème II.6.1 de régularisation des processus de Feller. . . . . . . . . . . 82
iv
IV.8 Sur les nuages Poissonniens. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
v
vi
À propos de ce polycopié.
Il s’agit d’un document de travail pour les étudiants de M2, filière Probabilité et Modèles Aléatoire pour le
cours intitulé qui fait suite à un premier cours sur les processus de Markov. Il s’agit à l’origine d’un support
pour l’enseignement à distance. Il contient de nombreux détails qui ne sont pas développés en cours par manque
de temps, mais qu’il peut être utile de connaître.
Bref Descriptif. Le but premier de ce cours est de donner une introduction technique permettant d’aborder
des ouvrages spécialisés – sur les branchements, les diffusions, les processus de Lévy, la mécanique statistique,
etc – où les évolutions markoviennes jouent un rôle important.
Le Chapitre I est une sorte d’annexe technique qui rassemble des résultats sur les processus en général;
il est conseillé de commencer la lecture de ce polycopié par le Chapitre II, quitte à vérifier les détails dans le
Chapitre I des notions auxquelles il y fait appel.
Le Chapitre II est une tentative de présenter les résultats fondamentaux sur les processus de Markov: loi
du 0-1 de Blumenthal, critère pour la propriété de Markov forte, continuité à droite des filtration naturelles
complétées, quasi-continuité à gauche, durée de vie, régularisation des processus de Feller-Dynkin.
Une présentation générale des processus de Markov est donnée dans le premier chapitre de l’ouvrage de
Blumenthal & Getoor [7]. Un acompte plus bref mais plus accessible est donné dans le livre de Revuz & Yor [8]
(Chapter III). Nous renvoyons également à la présentation donnée dans le premier tome de Rogers & Williams
[9] (Chapter III).
Le Chapitre III est une introduction aux générateurs des Markov. Plus précisément, on y présente la théorie
de Hille-Yosida et son application aux processus de Feller-Dynkin. Il devrait être complété par un exposé
synthétique de la technique dite du problème des martingales mais je n’ai pas eu le temps.
Le deuxième but de ce cours est d’introduire des processus comportant des sauts. Nous donnons un cours
(très) détaillé sur les processus ponctuels de Poisson au Chapitre IV et nous donnons un exposé sur les processus
de Lévy au Chapitre V qui permet d’aborder l’excellent livre sur le sujet de J. Bertoin [1].
Le dernier point du cours est une présentation de la théorie des excursions des processus de Markov: rien
n’a été tapé à ce jour mais je pense le faire bientôt.
Chaque vidéo couvre une partie du polycopié (sauf pour la partie concernant les excursions qui ne sont pas
encore écrites). Les cours en video fournissent un chemin dans ce document de travail (pénible à lire de façon
linéaire), document qui se veut une incitation à consulter les ouvrages mentionnés en début de chapitre pour
examiner certains points.
Thomas Duquesne.
vii
viii
Chapter I
Le Chapitre I rassemble des résultats sur les processus en général; il est conçu comme une annexe technique.
Ce premier chapitre comporte une copieuse section sur les temps d’arrêt: le lecteur peut consulter le livre
d’Ethier & Kurtz [6] (Chapter 2) pour plus de détails. Sur le théorème du "Début": voir Rogers & Williams [9],
Chapter II, Section 5, subsection 75-76; sur ce point technique nous renvoyons également au premier volume
de Dellacherie & Meyer [2]. Sur la régularisation des martingales, nous renvoyons également à l’ouvrage de
Rogers & Williams [9] (Chapter IV, Section 5) ou bien aux généralités de l’ouvrage de Dellacherie & Meyer
[2] et au volume de ces auteurs consacré aux martingales [3].
Brève bibliographie.
D ELLACHERIE , C., AND M EYER , P.-A. Probabilités et potentiel. Hermann, Paris, 1975. Chapitres I
à IV, Édition entièrement refondue, Publications de l’Institut de Mathématique de l’Université de Strasbourg,
No. XV, Actualités Scientifiques et Industrielles, No. 1372.
D ELLACHERIE , C., AND M EYER , P.-A. Probabilités et potentiel. Chapitres V à VIII, revised ed., vol. 1385
of Actualités Scientifiques et Industrielles. Hermann, Paris, 1980. Théorie des martingales.
E THIER , S., AND K URTZ , T. Markov Processes: Characterization and Convergence. Wiley, 1986.
ROGERS , L. C. G., AND W ILLIAMS , D. Diffusions, Markov processes, and martingales. Vol. 1. Cam-
bridge Mathematical Library. Cambridge University Press, Cambridge, 2000. Foundations, Reprint of the
second (1994) edition.
I.1 Noyaux.
La notion de noyau généralise celle de probabilités de transition pour les chaînes de Markov. Elle joue un rôle
fondamental dans la théorie des processus de Markov dont la loi est caractérisée par leurs noyaux. Par ailleurs
les noyaux permettent des constructions probabilistes essentielles.
I.1.a Généralités.
Définition I.1.1 Un noyau de sous-probabilités de l’espace mesurable (E1 , E1 ) vers l’espace mesurable (E2 , E2 ),
est une famille p = (p(x, dy); x ∈ E1 ) satisfaisant les propriétés suivantes.
(a) Pour chaque x ∈ E1 , p(x, dy) : E2 → [0, 1] est une mesure positive telle que p(x, E2 ) ≤ 1.
1
2 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
Si de plus, p satisfait p(x, E1 ) = 1, pour tout x ∈ E1 , alors p est appelé noyau de probabilités.
Lemme I.1.2 Soit p, un noyau de sous-probabilités de (E1 , E1 ) vers (E2 , E2 ). Soit g : E1 ×E2 → [0, ∞], une
fonction qui est E1 ⊗ E2 -mesurable. Alors la fonction
Z
x ∈ E1 7−→ p(x, dy)g(x, y) est E1 -mesurable. (I.1)
E2
Définition I.1.3 (Produit de noyaux) Soit p, un noyau de sous-probabilités de (E1 , E1 ) vers (E2 , E2 ). Soit q,
un noyau de sous-probabilités de (E2 , E2 ) vers (E3 , E3 ). Soit µ : E1 → [0, ∞], une mesure positive.
(a) On pose
Z Z
∀x ∈ E1 , ∀B ∈ E2 ⊗ E3 , (p ⊗ q) (x, B) = p(x, dy) q(y, dz) 1B (y, z) (I.2)
E2 E3
Alors p ⊗ q est un noyau de sous-probabilités de (E1 , E1 ) vers (E2×E3 , E2⊗E3 ) appelé produit du noyau
p avec le noyau q.
(b) On pose Z Z
∀B ∈ E1 ⊗ E2 , (µ ⊗ p) (B) = µ(dx) p(x, dy) 1B (x, y) . (I.3)
E1 E2
Alors µ⊗p : E1 ⊗E2 → [0, ∞] est une mesure positive appelée produit de µ avec p.
R
Justifions les définitions précédentes: le lemme I.1.2 montre que f : y ∈ E2 7→ E3 q(y, dz) 1B (y, z) est
E
R 2 -mesurable, ce qui montre que (I.2). Ce même lemme implique également que x 7→ (p ⊗ q)(x, B) =
E1 p(x, dy)f (y) est E1 -mesurable, ce qui prouve la propriété (b) de laSdéfinition I.1.1 des noyaux. Soient
Bn ∈ E2 ⊗E3 , n ∈ N, des ensembles deux-à-deux disjoints; on pose B = n∈N Bn ; le théorème d’interversion
série-intégrale positif appliqué deux fois implique que pour tout x ∈ E1 ,
Z XZ
(p ⊗ q)(x, B) = p(x, dy) q(y, dz) 1Bn (y, z)
E2 n∈N E3
XZ Z X
= p(x, dy) q(y, dz) 1Bn (y, z) = (p ⊗ q) (x, Bn ) ,
n∈N E2 E3 n∈N
I.1. NOYAUX. 3
ce qui montre que pour tout x ∈ E1 , (p ⊗ q) (x, ·) : E2 ⊗E3 → [0, ∞] est une mesure positive. Il est ensuite
clair que c’est une sous-probabilité, ce qui montre que p ⊗ q satisfait la propriété (a) de la définition I.1.1 des
noyaux. La justification de la définition (b) d’une mesure, à partir d’un noyau et d’une mesure, est similaire:
nous laissons les détails au lecteur.
Remarque I.1.4 Avec les notations de la définition I.1.3, on observe facilement que Si p et q sont des noyaux
de probabilités, alors il en est de même pour p⊗q. On observe également que µ⊗p (E1 ×E2 ) ≤ µ(E1 ) et si p
est un noyau de probabilités, on a même µ⊗p (E1 ×E2 ) = µ(E1 ).
Avec les hypothèses et les notations de la définition I.1.3, on déduit de (I.2) par un argument simple de laissé
au lecteur (voir le lemme A.1.19 page 207) que pour toute fonction g : E2 × E3 → R qui est E3 -mesurable:
Z Z Z
∀x ∈ E1 , (p ⊗ q) (x, dydz) f (y, z) = p(x, dy) q(y, dz) f (y, z) . (I.4)
E2 ×E3 E2 E3
De même on déduit de (I.3) que pour toute fonction g : E1 × E2 → R qui est E1 ×E2 -mesurable:
Z Z Z
(µ ⊗ p) (dxdy) g(x, y) = µ(dx) p(x, dy) g(x, y) . (I.5)
E1 ×E2 E1 E2
Associativité du produit de noyaux. Soient (Ek , Ek ), 0 ≤ k ≤ 3, des espaces mesurables. Pour tout k ∈
{1, 2, 3}, soit pk un noyau de probabilités de (Ek−1 , Ek−1 ) vers (Ek , Ek ). On identifie (E1 × E2 ) × E3 avec
E1 ×(E2 ×E3 ), que l’on note simplement E1 ×E2 ×E3 . Cela entraîne que (E1 ⊗E2 )⊗E3 = E1 ⊗(E2 ⊗E3 ) et on
vérifie que:
(p1 ⊗ p2 ) ⊗ p3 = p1 ⊗ (p2 ⊗ p3 ) . (I.6)
Autrement dit, le produit de noyaux est associatif et on le notera simplement p1 ⊗p2 ⊗p3 .
Composition de noyaux. Soient (E1 , E1 ), (E2 , E2 ), deux espaces mesurables. On introduit es fonctions
π1 : E1 × E2 → E1 et π2 : E1 × E2 → E2 par
Les fonctions π1 et π2 sont les projections canoniques. On rappelle que E1 ⊗ E2 est la plus petite tribu rendant
mesurable π1 et π2 :
σ(π1 , π2 ) = E1 ⊗ E2 .
Cela implique notamment que si (E0 , E0 ) est un espace mesurable et si f = (f1 , f2 ) : E0 → E1 × E2 , est une
fonction, alors f est (E0 , E1 ⊗ E2 )-mesurable ssi f1 est (E0 , E1 )-mesurable et f2 est (E0 , E2 )-mesurable.
Définition I.1.5 On reprend les notations précédentes. Soit m : E1 ⊗ E2 → [0, ∞], une mesure positive. La
première marginale de m est la mesure image de m sur par π1 . De même, la seconde marginale de m est la
mesure image de m sur par π2 . Si on les note respectivement µ et ν, on a
On utilise la notation µ = m et ν = m.
Définition I.1.6 (Composition de noyaux) Soit p, un noyau de sous-probabilités de (E1 , E1 ) vers (E2 , E2 ). Soit
q, un noyau de sous-probabilités de (E2 , E2 ) vers (E3 , E3 ). Soit µ : E → [0, ∞], une mesure positive.
4 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
(a) Pour tout x ∈ E1 , on note (pq) (x, dz) la mesure sur E3 qui est la seconde marginale (p ⊗ q)(x, ·) de
(p ⊗ q)(x, ·), c’est-à-dire
Z
∀x ∈ E1 , ∀A3 ∈ E3 , (pq) (x, A3 ) = (p ⊗ q) (x, E2 ×A3 ) = p(x, dy)q(y, A3 ) . (I.7)
E2
Alors, pq est un noyau de sous-probabilités de (E1 , E1 ) vers (E3 , E3 ) que est appelé la composition de p
avec q.
Le fait que p ⊗ q est un noyau implique que x ∈ E1 7→ (p ⊗ q) (x, E2 × A3 ) est E1 -mesurable, ce qui est la
propriété (b) de la définition des noyaux, seul point à justifier dans la définition précédente.
Remarque I.1.7 Avec les notations de la définition précédente, on observe facilement que pq est un noyau de
probabilités dès que p et q le sont. De même on voit que µp (E2 ) ≤ µ(E1 ) avec égalité si p est un noyau de
probabilités.
Propriétés élémentaires. Les preuves sont laissées en exercice.
(a) Avec les hypothèses et les notations de la définition I.1.6, on déduit de (I.7) par un argument simple de laissé
au lecteur (voir le lemme A.1.19 page 207) que pour toute fonction f : E1×E3 → R qui est E1⊗E3 -mesurable:
Z Z Z
∀x ∈ E1 , (pq) (x, dz) f (x, z) = p(x, dy) q(y, dz) f (x, z) . (I.9)
E3 E2 E3
De même on déduit de (I.8) que pour toute fonction f : E2 → R qui est E2 -mesurable:
Z Z Z
(µp) (dy) f (y) = µ(dx) p(x, dy) f (y) . (I.10)
E2 E1 E2
(b) Soient (Ek , Ek ), 0 ≤ k ≤ 3, des espaces mesurables. Pour tout k ∈ {1, 2, 3}, soit qk un noyau de probabilités
de (Ek−1 , Ek−1 ) vers (Ek , Ek ). On vérifie que
(d) Concluons cette section par une généralisation pour n noyaux de (I.12) qui sera utilisée dans le chapitre sur
les processus de Markov. Si on dispose de n noyaux p1 , . . . , pn de sous-probabilités, on définit récursivement
p1 ⊗ . . . ⊗pn , par exemple, par:
Lemme I.1.8 Soient (Ek , Ek ), 0 ≤ k ≤ n, des espaces mesurables. Pour tout k ∈ {1, . . . , n}, soit pk un noyau
de probabilités de (Ek−1 , Ek−1 ) vers (Ek , Ek ). Alors, tout x ∈ E0 , pour tous A1 ∈ E1 , . . . , An ∈ En , pour tout
k ∈ {1, . . . , n − 1}, on a
Définition I.1.9 (Isomorphisme d’espaces mesurables) Soient (E, E ) et (E 0 , E 0 ), deux espaces mesurables.
Ils sont dits isomorphes s’il existe une bijection φ : E → E 0 qui est est (E , E 0 )-mesurable et telle que sa
réciproque φ−1 : E 0 → E soit (E 0 , E )-mesurable.
Une telle fonction φ est un isomorphisme d’espaces mesurables et l’application B ∈ E 7→ φ(B) ∈ E 0 est une
bijection de E sur E 0 .
Définition I.1.10 Soit (E, E ), un espace mesurable. On introduit les notions suivantes.
(c) (E, E ) est dit mesurable séparable s’il existe An ∈ E , n ∈ N, engendrant E : E = σ {An ; n ∈ N} .
(d) (E, E ) est dit mesurable séparé si pour tous x, y ∈ E distincts, il existe A ∈ E tel que x ∈ A et y ∈ E\A.
(E, E ) séparable et séparé =⇒ (E, E ) mesurable diagonal =⇒ (E, E ) contient les singletons.
Soit (E, E ), espace mesurable. Il est séparable et séparé si et seulement s’il existe X ⊂ R (pas néces-
sairement Borélien), tel que (E, E ) est isomorphe à (X, B(X)), où B(X) est la tribu trace sur X des
Boréliens de R (voir la définition A.1.7 et le lemme A.1.8, page 204, pour cette notion).
Définition I.1.11 (Espace mesurable régulier) Soit (E, E ), un espace mesurable. Il est dit régulier s’il existe
C ∈ B(R) tel que (E, E ) et (C, B(C)) soient isomorphes.
On rappelle le théorème suivant (prouvé à la section A.5).
Théorème I.1.12 Soit (E, d), un espace métrique séparable complet. Soit A ∈ B(E). Alors il existe C ∈ B(R)
tel que (A, B(A)) et (C, B(C)) soient isomorphes. Autrement dit, tout Borélien d’un espace Polonais muni
de sa tribu Borélienne trace est un espace mesurable régulier.
Le théorème d’isomorphisme de Borel affirme le résultat suivant, plus fort.
Si (E, d) est un espace métrique sépérable et complet et si A ∈ B(E) n’est pas dénombrable, alors
(A, B(A)) est isomorphe à (R, B(R)).
Sa preuve est difficile. Le théorème I.1.12, moins précis mais de preuve facile, est largement suffisant pour les
applications.
Les hypothèses sur les espaces considérés dans la suite sont pour plupart plus restrictives. Rappelons les
définitions suivantes.
Définition I.1.13 (Espace Polonais, espace LCBD) Soit E, un espace muni d’une topologie T .
(a) E est un espace métrisable séparable s’il existe une distance d sur E générant la topologie T et telle
que (E, d) soit séparable (c’est-à-dire admette une suite dense).
(b) E est dit polonais s’il existe une distance d sur E générant la topologie T et telle que (E, d) soit
séparable complet.
(c) E est un espace localement compact à base dénombrable (abrégé systématiquement en LCBD) si la
topologie T admet une base dénombrable d’ouverts d’adhérence compacte (voir la définition A.6.7 page
227 (base, base dénombrable), la définition A.6.10 page 228 (localement compact) et le lemme A.6.11,
page 228).
On rappelle le résultat standard suivant.
Proposition I.1.14 Soient E et E 0 , des espaces métrisables séparables. Alors E × E 0 , muni de la topologie
produit, est également métrisable et séparable et on a
B(E ×E 0 ) = B(E)⊗B(E 0 ) .
Voir la proposition A.1.15 et sa preuve. On rappelle également le résultat concernant les espaces LCBD.
On rappelle également un résultat concernant la métrisabilité des espaces LCBD. Ce résultat est prouvé à la
section A.6, page 226; il est une conséquence du théorème d’Urysohn sur la métrisabilité des espaces compacts
à base dénombrable (théorème A.6.9, page 227) et un théorème de compactification à des espaces localement
compacts (proposition A.6.12, page 228).
I.1. NOYAUX. 7
Remarque I.1.16 Si E est déjà compact, le compactifié "habituel" est simplement obtenu en ajoutant un point
isolé mais il ne s’agit pas à proprement parler d’une compactification. Nous adoptons ce point de vue car ∂
joue un rôle formel de point d’absorption dans la théorie des processus de Markov.
Lemme I.1.17 Soit (E, E , µ), un espace mesuré. Soit (E 0 , E 0 ), un espace mesurable. Soit f : E → E 0 , une
application (E , E 0 )-mesurable. On définit ν : E 0 → [0, ∞] par
∀B ∈ E 0 , ν(B) = µ f −1 (B) .
Alors ν est une mesure positive sur (E 0 , E 0 ) qui est appelée la mesure image de µ par f . Elle est parfois notée
ν = µ ◦ f −1 .
Preuve: soient Bn ∈ E 0 , n ∈ N, des ensembles deux-à-deux disjoints. On remarque que les ensembles f −1 (Bn ),
n ∈ N, sont également deux-à-deux disjoints et dans E . D’autre part, f −1 ( Bn ) = f −1 (Bn ). La sigma
S S
additivité de µ entraîne alors
[ [ [ X X
ν Bn = µ f −1 Bn = µ f −1 (Bn ) = µ f −1 (Bn ) = ν(Bn ) .
Donc ν est sigma additive et il est clair que ν(∅) = µ(f −1 (∅)) = µ(∅) = 0. Cela montre que ν est une mesure
positive.
Théorème I.1.18 (Changement de variable abstrait ou Transfert) Soit (E, E , µ), un espace mesuré. Soit (E 0 , E 0 ),
un espace mesurable. Soit f : E → E 0 , une application (E , E 0 )-mesurable. On note ν la mesure image de µ
par f . Alors, pour toute fonction h complexe E 0 -mesurable et ν-intégrable,
Z Z
h(y) ν(dy) = h(f (x)) µ(dx) . (I.13)
E0 E
Ce résultat est également vrai pour toute fonction h : E 0 → [0, ∞] qui est E 0 -mesurable.
tels que h = n∈N cn 1Bn . L’interversion série/intégrale positive implique alors que
Z Z X X Z X Z
h dν = cn 1Bn dν = cn 1Bn dν = cn 1Bn (f (x)) dµ(x)
E0 E0 n∈N n∈N E0 n∈N E
Z X Z
= cn 1Bn (f (x)) dµ(x) = h◦f dµ .
E n∈N E
On passe au cas des fonctions réelles ν-intégrables en considérant leur partie positive et leur partie négative.
Définition I.1.19 (Couplage) Soient (E1 , E1 ) et (E2 , E2 ), deux espaces mesurables. Soient µ : E1 → [0, ∞], et
ν : E2 → [0, ∞], deux mesures positives. Un couplage de (µ, ν) est une mesure positive m : E1 ⊗ E2 → [0, ∞]
telle que la première marginale de m soit µ et sa seconde soit ν: µ = m et ν = m.
Dans la suite on se restreint aux mesures finies. Si m est un couplage de µ et ν, mesure finies, alors m est
une mesure finie et on a
µ(E1 ) = m(E1 ×E2 ) = ν(E2 ) .
Donc deux mesures qui peuvent être couplées sont nécessairement de même masse. On peut interpréter un
couplage comme un transport d’une masse répartie selon µ dans l’espace E1 sur un espace E2 selon une
nouvelle répartition ν: m(dxdy) représente alors la quantité de masse situé en x ∈ E1 à mettre en y ∈ E2 . Le
but de cette section est de montrer le théorème de représentation des couplages suivant.
Théorème I.1.20 (Représentation des couplages) Soient (E1 , E1 ) et (E2 , E2 ), deux espaces mesurables. Soit m :
E1 ⊗ E2 → R+ , une mesure finie, dont on note µ := m la première marginale. On note ` la mesure de Lebesgue
sur R. On suppose (E2 , E2 ) régulier. Alors, il existe Ψ : E1× ]0, 1[ → E2 , qui est (E1⊗B( ]0, 1[ ), E2 )-mesurable
et telle que Z Z
g dm = g x, Ψ(x, z) µ(dx)`(dz). (I.14)
E1 ×E2 E1 × ]0,1[
Théorème I.1.21 (Désintégration des couplages) Soient (E1 , E1 ) et (E2 , E2 ), deux espaces mesurables. Soit m :
E1 ⊗ E2 → R+ , une mesure finie, dont on note µ := m sa première marginale. On suppose (E2 , E2 ) régulier.
Alors, il existe un noyau p de probabilités de (E1 , E1 ) vers (E2 , E2 ) tel que m = µ ⊗ p, c’est-à-dire
Z Z Z
g dm = µ(dx) p(x, dy) g x, y , (I.15)
E1 ×E2 E1 E2
Nous appliquons ensuite le théorème I.1.20 de représentation des couplages à la construction de suites de
variables aléatoires. Pour cela on utlise les deux faits élémentaires suivants.
I.1. NOYAUX. 9
(a) Il existe un espace de probabilité (Ω, F , P) et une suite Un : Ω → [0, 1], n ∈ N, de v.a. F -mesurables
indépendantes de loi uniforme sur [0, 1].
Preuve: en fait on peut choisir Ω = [0, 1[, F = B([0, 1[) et P = `, la mesure de Lebesgue. En effet, pour
tout n ≥ 1 et tout x ∈ [0, 1[ , on pose ξn (x) := b2n xc − 2b2n−1
Pxc. On vérifie facilement que ξn (x) ∈ {0, 1},
que la suite (ξn (x))n≥1 n’est pas stationnaire à 1 et que x = n≥1 2−n ξn (x). Autrement dit (ξn (x))n≥1 est
le développement dyadique de x. Il est facile ensuite de vérifier que sous P, les v.a. (ξn )n≥1 sont des variables
de Bernoulli indépendantes telles que P(ξn = 1) = P(ξn = 0) = 1/2. Soit ϕ : N× N∗ → N∗ , une bijection.
On pose alors Un = p≥1 2−p ξϕ(n,p) . On vérifie facilement que sous P, les v.a. (Un )n∈N sont des uniformes
P
indépendantes.
On utilise également le fait élémentaire suivant.
(b) Soit (E, E , µ) un espace mesuré. Soit (Ω, F , P), un espace de probabilité et soit U : Ω →]0, 1[ , une
v.a. uniforme. On suppose que µ(E) = 1 et que (E, E ) est un espace régulier. Alors,
∃h : ]0, 1[ → E, qui est (B( ]0, 1[), E )-mesurable telle que h(U ) sous P ait pour loi µ. (I.16)
Preuve: il existe B ∈ B(R) et une bijection φ : E → B telle que φ est (E , B(B))-mesurable et φ−1 est
(B(B), E )-mesurable. On note ν la mesure image de µ par φ et on pose
qui est l’inverse continu à droite de la fonction de répartition de ν. On pose Y := G(U ). Il est bien connu que
Y sous P a pour loi ν. Comme P(Y ∈ / B) = ν(R\B) = 0, il existe une v.a. X : Ω → E telle que X = φ−1 (Y ), où
φ−1 est la réciproque mesurable de φ. Alors, pour tout A ∈ E , P(X ∈ A) = P(Y ∈ φ(A)) = ν(φ(A)) = µ(A),
car on rappelle que φ et φ−1 sont mesurables. On a donc montré que h := φ−1 ◦ G convient.
En s’appuyant sur (a) et (b) et en appliquant le théorème I.1.20, on montre le résultat suivant qui est un cas
particulier du théorème d’extension de Kolmogorov.
Théorème I.1.22 Soit (En , En ), n ∈ N∗ , une suite d’espaces mesurables supposés réguliers. Pour tout n ∈ N∗ ,
on se donne µn : E1⊗. . .⊗En → [0, 1], une mesure de probabilité. On suppose que ces mesures sont compatibles
dans le sens suivant:
∀n ∈ N∗ , ∀A1 ∈ E1 , . . . , An ∈ En ,
µn A1 × . . . × An = µn+1 A1 × . . . × An × En+1 . (I.17)
Alors, il existe un espace de probabilité (Ω, F , P), et pour tout n ∈ N∗ , il existe Xn : Ω → En , v.a. (F , En )-
mesurable, tels que
pour tout n ∈ N∗ , µn est la loi de (X1 , X2 , . . . , Xn ) sous P.
Preuve: par (a), on se donne (Ω, F , P), espace de probabilité et Un : Ω →]0, 1[ , n ∈ N, des v.a. F -mesurables
indépendantes de loi uniforme sur [0, 1]. Il suffit de montrer par récurrence le fait suivant.
Pour tout n ∈ N∗ , il existe une fonction hn : ]0, 1[ n→ En qui est (B( ]0, 1[ n ), En )-mesurable et telle que
si on pose Xn := hn (U1 , . . . , Un ), alors la loi de (X1 , . . . , Xn ) est µn .
10 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
Le rang n = 1 est (I.16). On suppose que cela est vrai pour tous les rangs k ∈ {1, . . . , n}. En voyant E1 × . . . ×
En+1 comme le produit (E1 × . . . ×En )×En+1 et appliquant le théorème I.1.20 à m = µn+1 , et µ = µn , on
obtient une fonction mesurable Ψ : (E1 × . . . × En )× ]0, 1[ → En+1 , telle que pour toute fonction mesurable
g : E1 × . . . ×En+1 → [0, ∞],
Z Z
g dµn+1 = µn (dx1 . . . dxn )`(dz) g x1 , . . . , xn , Ψ(x1 , . . . , xn , z) .
E1 ×...×En+1 E1 ×...×En × ]0,1[
On pose alors
hn+1 (y1 , . . . , yn , y) = Ψ h1 (y1 ), h2 (y1 , y2 ), . . . , hn (y1 , . . . , yn ), y ,
ce qui convient.
Preuve du théorème I.1.20. La preuve comporte plusieurs étapes. On commence par montrer le lemme
général suivant.
Lemme I.1.24 Soit D ⊂ R, un ensemble dénombrable et dense. Soit (E, E ), un espace mesurable. Pour tout
r ∈ D, on se donne µr : E → R+ , une mesure de masse finie. On fait les hypothèses suivantes:
sup µr (E) < ∞ , lim µr (E) = 0 et ∀r ≤ r0 dans D , ∀B ∈ E , µr (B) ≤ µr0 (B) . (I.18)
r∈D r∈D→−∞
∀r ∈ D , ∀B ∈ E ,
m B×]−∞, r] = µr (B) .
(ii) On note µ = m, la première marginale de m. Il existe une fonction Ψ : E× ]0, 1[ → R, qui est E ⊗
B( ]0, 1[ )-mesurable et telle que
Z Z
g dm = g x, Ψ(x, z) µ(dx)`(dz)
E×R E× ]0,1[
Preuve: soit rn ∈ D, n ∈ N, une suite croissante qui tend vers l’infini. On pose ν0 := µr0 et pour tout n ≥ 1,
P également νn := µrn −µrn−1 , qui est clairement une mesure positive de masse finie. On pose ensuite
on pose
µ := n≥0 νn qui est une mesure positive. On a donc µ(B) = limn→∞ µrn (B) = supr∈D µr (B), pour tout
B ∈ E . La dernière égalité montre que µ ne dépend pas de la suite (rn )n∈N choisie. De plus, pour tout r ∈ D et
tout B ∈ E , on a µr (B) ≤ µ(B). Donc µr est absolument continue par rapport à µ. Comme µ est finie et donc
sigma-finie, le théorème de Radon-Nikodym s’applique et il existe une fonction fr : E → R+ , E -mesurable
telle que Z
∀B ∈ E , µr (B) = fr dµ . (I.19)
B
0 ∈ D tels que r ≤ r 0 . Ce qui précède implique que pour tout B ∈ E ,
R
Soient r, r B fr dµ = µr (B) ≤ µr (B) ≤
0
B fr dµ ≤ µ(B) et le lemme I.1.23 (page 10) implique que µ-p.p. 0 ≤ fr ≤ fr ≤ 1. L’ensemble D étant
R
0 0
dénombrable, on a donc
ce qui implique que µ-p.p. f∞ = 1, µ-presque partout. Quitte à modifier les fonctions fr sur un ensemble
µ-négligeable on peut supposer que pour tous r, r0 ∈ D, tels que r ≤ r0 , on a
Pour tout (x, z)∈ E×]0, 1[ , on pose alors Ψ(x, z) := inf{r ∈ D : fr (x) > z}, qui est une quantité bien définie.
On remarque que pour tout b ∈ R,
On a donc \ [
fr−1 ]s, ∞[ ×]−∞, s]
{Ψ ≤ b} =
r∈D∩ ]b,∞[ s∈Q
ce qui implique que Ψ : E×]0, 1[ → R est E ⊗B ]0, 1[ -mesurable. Le théorème de convergence dominée,
On définit la fonction ϕ(x, z) = (x, Ψ(x, z)) qui est (E ⊗B( ]0, 1[ ), E ⊗B(R))-mesurable et on pose m :=
(µ ⊗ `) ◦ ϕ−1 , la mesure image de µ ⊗ ` par ϕ. Le théorème I.1.18 de transfert (page 7) et (I.22) impliquent
immédiatement (i) et (ii). On remarque enfin que {B×]−∞, r] ; B ∈ E , r ∈ D} ∪ {E ×R} est un pi-système
générant E ⊗B(R). L’unicité de m découle alors théorème A.1.11 d’unicité des mesures (page 205).
Fin de la preuve du théorème I.1.20. On suppose (E2 , E2 ) régulier: il existe donc A ∈ B(R) et φ : E2 → A,
une bijection telle que φ est (E2 , B(A))-mesurable et la réciproque φ−1 : A → E2 est (B(A), E2 )-mesurable.
Pour tout (x, y) ∈ E1 × E2 , on pose Λ(x, y) := (x, φ(y)) ∈ E1 × A. Il est facile de vérifier que Λ est un
isomorphisme d’espaces mesurables de (E1 ×E2 , E1 ⊗E2 ) sur (E1 ×A, E1 ⊗B(A)). On pose alors
Autrement dit, m∗ est la mesure image de m par Λ. C’est donc une mesure de masse finie. On remarque que
µ est aussi la première marginale de m∗ . On voit aussi que m∗ est concentrée sur E1 × A, c’est-à-dire que
m∗ ((E1 ×R)\(E1 ×A)) = 0.
Pour tout r ∈ Q, et tout B ∈ E1 , on pose µr (B) := m∗ (B× ]−∞, r] ). On vérifie immédiatement que les
µr , r ∈ Q, sont des mesures positives qui satisfont bien les hypothèses (I.18) du lemme I.1.24 avec (E, E ) =
(E1 , E1 ). Par ce lemme, il existe donc Ψ∗ : E1 × ]0, 1[ → R, une fonction E1 ⊗ B( ]0, 1[ )-mesurable telle que
Z Z
g∗ dm∗ = g∗ x, Ψ∗ (x, z) µ(dx)`(dz) , (I.23)
E1 × R E1 × ]0,1[
pour toute fonction g∗ : E1 × R → [0, ∞] qui est E1 ⊗ B( ]0, 1[ )-mesurable. Comme m∗ est concentrée sur
E1 ×A, on peut modifier Ψ∗ de manière mesurable de sorte que Ψ∗ (x, z) ∈ A, pour tout (x, z) ∈ E1× ]0, 1[ et
de sorte que (I.23) reste vrai pour toutes fonctions g∗ .
On définit ψ : R → E2 en posant ψ(x) := φ−1 (x), si x ∈ A et ψ(x) := y0 sinon, où y0 ∈ E2 est un point
de E2 , ne jouant aucun rôle spécifique. On vérifie facilement que ψ est (B(R), E2 )-mesurable. On pose alors
Ψ := ψ ◦Ψ∗ . Soit g : E1×E2 → [0, ∞], une fonction (E1⊗E2 )-mesurable. Il est clair que g∗ (x, y 0 ) := g(x, ψ(y 0 )),
x ∈ E1 , y 0 ∈ R, définit une fonction E1 ⊗ B(R)-mesurable. On remarque que g∗ ◦ Λ = g. Comme m∗ est la
mesure image de m par Λ, le théorème I.1.18 de transfert (7) et (I.23) impliquent alors que
Z Z Z Z
g dm = g∗ ◦Λ dm = g∗ dm∗ = g∗ x, Ψ∗ (x, z) µ(dx)`(dz)
E1 ×E2 E ×R E1 ×R E1 × ]0,1[
Z 1 Z
= g x, ψ(Ψ∗ (x, z)) µ(dx)`(dz) = g x, Ψ(x, z) µ(dx)`(dz)
E1 × ]0,1[ E1 × ]0,1[
Nous ne nous étendons pas sur une définition ensembliste qui soit rigoureuse et nous commettons un abus de
notation en utilisant une notation suggérant plus un "produit cartésien" qui est en fait assez différent d’un point
de vue ensembliste.
Dans cette section, on va considérer la famille de v.a. (Xi )i∈I comme un seul objet aléatoire noté X,
c’est-à-dire comme la fonction
Y
X : ω ∈ Ω 7−→ X(ω) := (Xi (ω))i∈I ∈ Ei .
i∈I
Q
(a) C ⊂ i∈I Ei est appelé cylindre élémentaire s’il existe J ⊂ I, un sous-ensemble fini d’indices et des
ensembles Bj ∈ Ej , j ∈ J tels que
n Y o Y Y
C = (xi )i∈I ∈ Ei : ∀j ∈ J , xj ∈ Bj , qui est simplement noté Bj × Ei .
i∈I j∈J i∈I\J
Q
Ceci décrit un ensemble de fonctions, ce malgré l’emploi abusif de notations "cartésiennes" × et . On
note C l’ensemble des cylindre élémentaires.
(b) La tribu engendrée par C est la tribu produit des Ei , i ∈ I. On la note Ei := σ(C ).
N
i∈I
On utilise les notations simplifiées suivantes. Lorsque J est le singleton {i}, on utilise la notation πi plutôt que
π{i} . Lorsque les espaces mesurables sont les mêmes (E, E ) = (Ei , Ei ), i ∈ I, on utilise les notations
Y O
E I := Ei et E ⊗I := Ei .
i∈I i∈I
Proposition I.2.2 Soit (Ω, F ), un espace mesurable. Soit I, un ensemble d’indices non-vide. Soit (Ei , Ei ),
i ∈ I, une famille d’espaces mesurables. Pour tout i ∈ I, soit Xi : Ω → Ei , une fonction. Alors les deux
assertions suivantes sont équivalentes.
i∈I Ei )-mesurable.
Q N
(b) X = (Xi )i∈I : Ω −→ i∈I Ei est un processus (F ,
Preuve: soit J ⊂ I fini; pour tout j ∈ J, soit Bj ∈ Ej . Soit C = ( j∈J Bj ) × ( i∈I\J Ei ), un cylindre
Q Q
élémentaire. Alors \
{X ∈ C} = {Xj ∈ Bj } . (I.24)
j∈J
Si on suppose (a), alors {X ∈ C} ∈ F pour tout cylindre élémentaire. Comme les cylindres élémentaires
engendrent la tribu produit, on en déduit (b). Si on suppose (b), alors on applique (I.24) à J = {i}, ce qui
montre que {Xi ∈ Bj } = {X ∈ C} ∈ F , et ce pour tout Bi ∈ Ei , ce qui entraîne (a).
Q Soit (Ei , Ei ), i ∈ I,
Définition I.2.3 (Espace et processus canoniques) Soit I, un ensemble d’indices non-vide.
une famille d’espaces mesurables. L’espace canonique des processus à valeurs dans i∈I Ei est l’espace
mesurable Y O
Ωcan = Ei et F can = Ei .
i∈I i∈I
Autrement dit Xican = πi , la i-projection canonique et on remarque que X can est l’identité sur
Q
i∈I Ei .
Corollaire I.2.4 Soit I, un ensemble d’indices non-vide. Soit (Ei , Ei ), i ∈ I, une famille d’espaces mesurables.
Alors les assertions suivantes sont vérifiées.
i∈I Ei
N
(ii) La tribu produit est la tribu engendrée par les projection canoniques: = σ πi ; i ∈ I .
Preuve: le point (i) se vérifie immédiatement. Les points (ii) et (iii) découlent facilement de la proposition
I.2.2 appliquée à l’espace canonique et au processus canonique. Nous laissons les détails aux lecteurs.
Le théorème suivant donne une description importante de la tribu produit qui est utilisée dans la suite.
I.2. PROCESSUS: DÉFINITIONS, CONSTRUCTION. 15
O [
Ei = GJ . (I.25)
i∈I J⊂I,
Jdénombrable.
un cylindre élémentaire. On a donc C = πJ−1 ( j∈J Bj ) et donc C ∈ GJ . Cela montre N que C ⊂ G , où est
Q
la classe des cylindres élémentaires. Comme la tribu produit est engendrée par C , on a i∈I Ei ⊂ σ(G ) et
il suffit donc de montrer que G est une tribu: (a) il est clair que tout l’espace i∈I Ei ∈ G ; (b) soit B ∈ G ; il
Q
existe donc J ⊂ I, dénombrable et tel que B ∈ GJ ; comme GJ est une tribu (c’est la tribu engendrée par πJ ), le
complémentaire de B est dans GJ et donc dans G ; cela montre que G est stable par passage au complémentaire.
(c) Montrons que G est stable par union dénombrable: pour cela on remarque d’abord que si J ⊂ J 0 , alors
GJ ⊂ GJ 0 ; soit B
Sn ∈ G , n ∈ N; alors pour tout n ∈ N, il existe donc Jn ⊂ I, dénombrable tel que Bn ∈ GJn ; on
pose alrs J = n∈N Jn , qui dénombrable; on a donc Bn ∈ GJ , pour tout n ∈ N; comme GJ est une tribu, on a
n∈N Bn ∈ GJ ⊂ G . Cela termine la preuve du fait que G est une tribu, ce qui permet de conclure.
S
(a) Soit µ : i∈I Ei → [0, 1], une mesure de probabilité. Pour tout J ⊂ I, non-vide, on noteNµJ := µ◦πJ−1 la
N
mesure image de µ par la J-projection canonique πJ . La mesure de probabilité µJ : j∈J Ej → [0, 1]
est appelé la loi J-marginale de µ. L’ensemble des mesures µJ , avec J ⊂ I fini, est appelé ensemble des
marginales de dimension finie de µ.
Les lois µX,J , lorsque J est fini, sont appelée les loi marginales de dimension finie du processus X.
La proposition suivante donne des formulations équivalente au fait que deux processus aient même loi.
Proposition I.2.7 Soit I, un ensemble d’indices non-vide. Soit (Ei , Ei ), i ∈ I, une familleQ d’espaces mesurables.
Soient (Ω, F , P) et (Ω 0 , F 0 , P0 ), des espaces de probabilité. Soit X = (X )
i i∈I : Ω → i∈I Ei , un processus
(F , i∈I Ei )-mesurable et soit X = (Xi )i∈I : Ω → i∈I Ei , un autre processus (F , i∈I Ei )-mesurable.
0 0 0 0
N Q N
Alors, les assertions suivantes sont équivalentes.
16 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
c’est-à-dire que X et X 0 ont mêmes lois marginales de dimension finie: µX,J = µX 0 ,J , J ⊂ I, J fini.
(c) Pour tout n ∈ N∗ , pour tous i1 , . . . , in ∈ I, distincts, pour toutes fonctions fk : Eik → R, Eik -mesurables
bornées, 1 ≤ k ≤ n, on a
(d) Pour tout i ∈ I, soit Ci ⊂ Ei , un pi-système tel que σ(Ci ) = Ei . Pour tout n ∈ N∗ , pour tous i1 , . . . , in ∈ I,
distincts, pour tous C1 ∈ Ci1 , . . . , Cn ∈ Cin ,
Autrement dit
µX,{i1 ,...,in } C1 × . . . ×Cn = µX 0 ,{i1 ,...,in } C1 × . . . ×Cn .
Preuve: il est clair que (a) =⇒ (b) =⇒ (c) =⇒ (d). Il suffit de montrer que (d) =⇒ (a). On pose
n Y o
P = πJ−1 Cj ; J ⊂ I, J fini et ∀j ∈ J, Cj ∈ Cj .
j∈J
On vérifie que P est un pi-système sur i∈I Ei . Il est facile de vérifier que σ(P) = i∈I Ei . La condition (d)
Q N
signifie que µX et µX 0 coïncident sur P. La théorème A.1.11 de l’unicité du prolongement des mesures (page
205) implique que µX = µX 0 .
Définition I.2.8 (Famille de lois cohérentes) Soit I, un ensemble d’indices non-vide. Soit (Ei , Ei ), i ∈ I, une
famille d’espaces mesurables.
Q Q
(a) Soient K ⊂ J ⊂ I. On note πK,J : j∈J Ej → k∈K Ek la projection:
Y
∀(xj )j∈J ∈ Ej , πK,J (xj )j∈J = (xk )k∈K .
j∈J
N πJ = πJ,I et on observe que πK = πK,J ◦πJ . Cela implique que pour toute mesure de
On voit donc que
probabilité µ : i∈I Ei → [0, 1], on a
−1
∀K ⊂ J ⊂ I, µK = µJ ◦πK,J . (I.26)
I.2. PROCESSUS: DÉFINITIONS, CONSTRUCTION. 17
EJ → [0, 1] est
N
(b) Une famille de lois de dimension finie est la donnée de (νJ , J ⊂ I, J fini) où νJ : j∈J
une mesure de probabilité. Elles forment un système cohérent si
−1
∀K ⊂ J ⊂ I, J fini, νK = νJ ◦πK,J . (I.27)
i∈I Ei → [0, 1]
N
Par (I.26), qui est trivial, on voit que les marginales de dimension finie d’une mesure µ :
forment un système compatible. En revanche il n’est pas du tout trivial de montrer que si on a un système de
mesures compatibles, elles sont les marginales de dimension finie d’une mesure: modulo quelques hypothèses,
cette réciproque est le propos du théorème d’extension de Kolmogorov qui s’énonce comme suit.
Théorème I.2.9 (Théorème d’extension de Kolmogorov) Soit I, un ensemble non-vide. Soit (Ei , Ei ), i ∈ I, une
Nmesurables. Pour tout sous-ensemble fini d’indices J ⊂ I, on se donne une mesure de
famille d’espaces
probabilité νJ : j∈J Ej → [0, 1]. On suppose l’axiome du choix et on fait les deux hypothèses suivantes.
(b) Pour tout n ∈ N∗ , pour tous i1 , . . . , in , in+1 ∈ I, distincts, pour tous B1 ∈ Ei1 , . . . , Bn ∈ Ein , on a
ν{i1 ,...,in ,in+1 } B1 ×. . .×Bn ×Ein+1 = ν{i1 ,...,in } B1 ×. . .×Bn .
Ei → [0, 1] dont les lois νJ sont les marginales de dimension finie, c’est-
N
(i) Il existe une mesure µ : i∈I
à-dire que
µ ◦ πJ−1 = νJ , J ⊂ I, J fini.
Preuve: on remarque tout d’abord que le résultat a été démontré dans le cas où I est dénombrable: il s’agit
d’une conséquence immédiate du théorème I.1.22 (page 9). Il s’agit d’ailleurs du point difficile de la preuve.
Par conséquent, pour tout sous-ensemble dénombrable d’indices J∗ , il existe une unique mesure de probabilité
µJ∗ : j∈J∗ Ej → [0, 1] telle que pour tout J ⊂ J∗ , J fini, µJ∗ ◦ πJ,J∗ = νJ . Soit J∗0 ⊂ I, dénombrable
N
tel que J∗ ⊂ J∗0 . On pose µ0 = µJ∗0 ◦ πJ−1 0 . Soit J ⊂ J∗ , J fini. Comme πJ,J∗
∗ ,J∗
0 = πJ,J ◦ πJ ,J 0 , on a
∗ ∗ ∗
0 −1 −1 0
µ ◦πJ,J∗ = µJ∗ ◦πJ,J∗ = νJ . Donc les marginales de dimension finie de µ sont également les νJ : par unicité
cela montre que µ0 = µJ ∗ . On a donc obtenu les résultats suivants:
O
−1
∀J∗ ⊂ I, J∗ dénombrable, ∃! µJ∗ : Ej → [0, 1], probabilité : ∀J ⊂ J∗ , J fini, µJ∗ ◦πJ,J ∗
= νJ .
j∈J∗
et
∀J∗ ⊂ J∗0 ⊂ I, avec J∗0 , dénombrable, µJ∗0 ◦πJ−1
∗ ;J
0 = µJ∗ . (I.28)
∗
18 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
i∈I Ei → [0, 1] de la
N
On utilise ensuite le théorème I.2.5 dont on reprend les notations. On définit µ :
B ∈ i∈I Ei ; par le théorème I.2.5, il existe J∗ ⊂ I, J∗ dénombrable, tel que B ∈ GJ∗
N
manière suivante: soit N
et donc il existe A ∈ j∈J∗ Ej tel que B = πJ−1 ∗
(A). On pose alors µ(B) := µJ∗ (A). Vérifions d’abord
la cohérence de cette définition: supposons que B ∈ GJ∗0 , pour J∗0 ⊂ I et J∗0 dénombrable; il existe donc
A0 ∈ j∈J∗0 Ej tel que B = πJ−1 0 −1 0 −1
j∈J∗ ∩J∗0 Ej tel que
N N
0 (A ). Comme πJ 0 (A ) = πJ (A), il existe A0 ∈
∗ ∗
∗
Y Y
A = A0 × Ej et A0 = A0 × Ej .
j∈J∗ \(J∗ ∩J∗0 ) j∈J∗0 \(J∗ ∩J∗0 )
−1
Ncelui de A ∈ j∈J∗ Ej tel que B = πJ∗ (A).
N
La définition de µ(B) ne dépend donc pas du choix de J∗ ni de
Il est ensuite clair que si J est fini, µJ = νJ et donc si B ∈ j∈J Ej , on a µ(B) = µJ (B) (par définition de
µ) et donc µ(B) = νJ (B). C’est-à-dire
O
∀ J ⊂ I, J fini, ∀B ∈ Ej , µ(B) = νJ (B) . (I.29)
j∈J
N On montre ensuite que µ est une mesure positive: il est clair que µ(∅) = 0. Pour tout n ∈ N, soit Bn ∈
−1
E
i∈I i , des ensembles deux-à-deux disjoints. Le théorème I.2.5 implique que Bn = π J∗n (A n
n ), avec J∗ ⊂ I
dénombrable et An ∈ j∈J∗n Ej . On pose J∗ = n∈N J∗ , qui est un sous-ensemble dénombrable de I. On
n
N S
pose alors Y
∀n ∈ N, Cn = An × Ej .
j∈J∗ \J∗n
et si Cn ∩ Cm n’est pas vide, les Ei n’étant pas vides, l’axiome du choix implique que le dernier membre n’est
pas vide, ce qui contredit le fait que les Bn sont supposés deux-à-deux disjoints.
S S
Par définition de µ et par (b), on a µ( n∈N Bn ) = µSJ∗ ( n∈N CnP) et pour tout n ∈ N, µ(Bn ) = µJ∗ (Cn ). Par
le point (c) et le fait que µJ∗ est une mesure, on a µJ∗ ( n∈N Cn ) = n∈N µJ∗ (Cn ). On a donc
[ [ X X
µ B n = µ J∗ Cn = µJ∗ (Cn ) = µ(Bn ) ,
n∈N n∈N n∈N n∈N
et µ est sigma-additive. Par (I.29), on a bien construit une mesure de probabilité µ : i∈I Ei → [0, 1] dont les
N
marginales de dimension finie sont les νJ . Soit µ0 , une autre mesure dont les marginales de dimension finie
sont les νJ ; alors µ et µ0 coïncident sur le pi-système des cylindres élémentaires et le théorème A.1.11 d’unicité
du prolongement des mesures entraîne que µ = µ0 . On a donc montré (i).
I.2. PROCESSUS: DÉFINITIONS, CONSTRUCTION. 19
Définition I.2.10 (Filtration, filtration naturelle, processus adapté) On garde les notations introduites ci-dessus.
(a) Une filtration sur (Ω, F ) est une famille (Gt )t∈R+ de sous-tribus croissantes pour l’inclusion c’est-à-dire
que pour tous s, t ∈ R+ , tels que s ≤ t, on a Gs ⊂ Gt ⊂ F . On utilise souvent la notation G∞ := σ Gt ; t ∈ R+
(b) Soit X = (Xt )t∈R+ : Ω → E R+ un processus (F , E ⊗R+ )-mesurable. Sa filtration naturelle est donnée par
(c) Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Le processus X est dit (Gt )t∈R+ -adapté si pour tout t ∈ R+ ,
Xt : Ω → E est (Gt , E )-mesurable. On note qu’un processus est toujours adapté par rapport à sa filtration
naturelle.
∀ω ∈ Ω, Z(ω) = F (Xt (ω))t∈R+ . (I.30)
De même si t ∈ R+ , la proposition I.2.2 implique que Fto (X) = σ Xs ; s ∈ [0, t] = σ (Xs )s∈[0,t] et si
Z : Ω → R, une v.a. F∞
o (X)-mesurable bornée; il existe une fonction F : E [0,t] → R qui est E ⊗[0,t] -mesurable
Définition I.2.12 Une fonction de R+ dans Eest notée de manière générique par x = (xt )t∈R+ et on note C
la classe des cylindres élémentaires de E ⊗R+ .
20 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
(a) Pour tout t ∈ R+ , on note π[0,t] : E R+ → E [0,t] la projection canonique, c’est-à-dire la restriction à [0, t]
des fonctions de R+ dans E. Un cylindre élémentaire antérieur à t est un ensemble de fonctions
C = x = (xt )t∈R+ ∈ E R+ : xt0 ∈ B0 ; xt1 ∈ B1 ; . . . ; xtn ∈ Bn (I.32)
où 0 ≤ t0 < t1 < . . . < tn ≤ t et B0 , . . . , Bn ∈ E . On note Ct la classe des cylindres élémentaires antérieurs
−1
à t. On vérifie que Ct est un pi-système et que Ct = π[0,t] (C[0,t] ) où C[0,t] est l’ensemble des cylindres
élémentaires de E [0,t] . On remarque que Cs ⊂ Ct , pour tous s, t ∈ R+ tels que s ≤ t.
(b) (Filtration canonique) Pour tout t ∈ R+ , on note Ftcan la tribu sur E R+ engendrée par le pi-système Ct .
On remarque que pour tous s ≤ t, Fscan ⊂ Ftcan . La filtration (Ftcan )t∈R+ sur E R+ est appelée filtration
−1
canonique. On remarque que Ftcan = π[0,t] (E ⊗[0,t] ). On utilise parfois la notation F∞
can = σ(F can ; t ∈
t
R+ ) = E ⊗R+ .
(c) (Processus canonique) Pour tout t ∈ R+ , on rappelle que Xtcan = πt : E R+ → E, la projection canonique
de marginale t. Le processus canonique X can = (Xtcan )t∈R+ est l’identité sur E R+ .
Théorème I.2.14 (Théorème d’extension de Kolmogorov) On suppose l’axiome du choix. Soit (E, E ), un espace
mesurable supposé régulier. Pour tout n ∈ N∗ et pour tous réels 0 ≤ t1 < . . . < tn , on se donne une mesure de
probabilité
ν{t1 ,...,tn } : E ⊗n → [0, 1] .
On suppose que ces mesures forment un système compatible, c’est-à-dire que pour tout entier n ≥ 2, pour tous
réels 0 ≤ t1 < . . . < tn , pour tous B1 , . . . , Bn ∈ E et pour tout 1 ≤ m ≤ n,
ν{t1 ,...,tn } B1 × . . . ×Bm−1 ×E ×Bm+1 × . . .×Bn = ν{t1 ,...,tn }\{tm } B1 × . . . ×Bm−1 ×Bm+1 × . . .×Bn
avec des conventions évidentes si m = 1 ou n. Alors, les assertions suivantes, équivalentes, sont vérifiées.
I.2. PROCESSUS: DÉFINITIONS, CONSTRUCTION. 21
(i) Il existe une mesure µ : E ⊗R+ → [0, 1] telle que pour tout n ∈ N∗ et pour tous réels 0 ≤ t1 < . . . < tn ,
−1
µ ◦ π{t1 ,...,tn }
= ν{t1 ,...,tn }
(ii) Il existe un espace de probabilité (Ω, F , P) et un processus X = (Xt )t∈R+ : Ω → E R+ qui est
(F , E ⊗R+ )-mesurable tel que pour tout n ∈ N∗ et pour tous réels 0 ≤ t1 < . . . < tn ,
Remarque I.2.15 (Limitation de la tribu E ⊗R+ ) Soit E est un espace topologique métrisable séparable dont
la tribu Borélienne est notée B(E). Le théorème I.2.5 affirme que
Autrement dit un événement B ∈ B(E)⊗R+ correspond à des conditions sur un ensemble dénombrable de
temps. Par exemple si E = R, on a
/ B(R)⊗R+ .
{x = (xt )t∈R+ ∈ RR+ : sup |xt | < ∞} ∈
[0,1]
De même l’événement "être continu à droite au temps t0 " n’est pas dans la tribu produit car il fait intervenir les
valeurs des fonctions pour un ensemble non-dénombrable de temps.
Définition I.2.16 Soit E, un espace topologique; soit (Ω, F , P), un espace de probabilité et soit X = (Xt )t∈R+ :
Ω → E R+ , un processus (F , B(E)⊗R+ )-mesurable.
(a) X est dit continu à droite (càd, en abrégé) si pour tout ω ∈ Ω et tout t ∈ R+ , Xt (ω) = limh→0 Xt+h (ω).
h>0
(b) X est dit continu à droite et avec limite à gauche (càdlàg, en abrégé) si pour tout ω ∈ Ω,
∀t ∈ R+ , Xt (ω) = lim Xt+h (ω) et si ∀t ∈]0, ∞[ , Xt− (ω) := lim Xt+h (ω) existe.
h→0 h→0
h>0 h>0
(c) X est dit continu si pour tout ω ∈ Ω et tout t ∈ R+ , Xt (ω) = limh→0 Xt+h (ω).
Lorsque par exemple E = Rn , l’espaces des fonctions continues et des fonctions càdlàg peuvent être munis
de distances les rendant complets et séparables, la tribu des Boréliens étant la tribu trace de la tribu produit,
ce qui prolonge les résultats déjà obtenus sur les processus. Plus précisément, faisons quelques rappels, sans
preuve, des résultats fondamentaux concernant ces espaces.
Espace des fonctions continues. On munit Rn d’une norme notée k·k. On note C(R+ , Rn ), l’espace des
fonctions continues de R+ dans Rn et on munit cet espace de la topologie de la convergence uniforme sur tous
les ensembles (de temps) compacts; cette topologie est qui engendrée par la distance suivante:
X
x, y ∈ C(R+ , Rn ), d(x, y) = 2−n min 1 , max kxt −yt k .
t∈[0,n]
n≥1
22 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
On vérifie facilement que (C(R+ , Rn ), d) est un espace métrique séparable complet, c’est-à-dire un espace
Polonais. On note toujours πt : C(R+ , Rn ) → Rn , la projection canonique au temps t qui à toute fonction
x = (xs )s∈R+ associe πt (x) = xt . On peut montrer facilement les résultats suivants, rappelés ici sans preuve.
• πt : C(R+ , Rn ) → Rn est continue.
• Les Boréliens de C(R+ , Rn ) sont engendrés par les projections canoniques:
B C(R+ , Rn ) = σ(πt ; t ∈ R+ ) .
(I.34)
Autrement dit, la tribu des Boréliens B C(R+ , Rn ) de l’espace Polonais (C(R+ , Rn ), d) est la tribu trace de
Modification et indistingabilité.
Définition I.2.17 (Modification et indistingabilité) Soit (E, E ), un espace mesurable. Soit (Ω, F , P), un es-
pace de probabilité. Soient X = (Xt )t∈R+ : Ω → E R+ et Y = (Yt )t∈R+ : Ω → E R+ , deux processus (F , E ⊗R+ )-
mesurables.
(a) X est une P-modification de Y si pour tout t ∈ R+ , l’ensemble {Xt 6= Yt } est un ensemble P-négligeable.
(b) X et Y sont P-indistingables si ω ∈ Ω : ∃t ∈ R+ , Xt (ω) 6= Yt (ω) est P-négligeable.
Quelques remarques.
(1) X est une P-modification de Y si et seulement si Y est une P-modification de X.
(2) Lorsque l’espace mesurable (E, E ) est diagonal (voir la définition I.1.10, page 5), alors {Xt = Yt } ∈ F et
X est une modification de Y ssi P(Xt = Yt ) = 1, pour tout t ∈ R+ ; on rappelle que tout espace régulier (et donc
a fortiori Polonais) est diagonal (voir les résultats de la section I.1.b, page 5.
(3) Lorsqu’il n’y a pas d’ambiguïté sur la probabilité sous laquelle on considère les processus, on dit simplement
que X est une modification de Y ; de même on dit simplement que X et Y sont indistinguables. Évidemment,
si deux processus sont indistinguables, ils sont modification l’un de l’autre.
Proposition I.2.18 Soit (E, E ), un espace mesurable. Soit (Ω, F , P), un espace de probabilité. Soit X =
(Xt )t∈R+ : Ω → E R+ et Y = (Yt )t∈R+ : Ω → E R+ , deux processus (F , E ⊗R+ )-mesurables. On suppose que X
est une modification de Y . Alors, X et Y ont même loi.
On suppose de plus que E est un espace topologique, que E = B(E) et que X et Y sont càd. Alors, X et
Y sont indistinguables. Par conséquent un processus n’a, à indistinguabilité près, qu’une modification càd.
Preuve: pour tous 0 ≤ t1 < . . . < tn , on a P-p.s. Xtk = Ytk , pour tout 1 ≤ k ≤ n. Donc (Xt1 , . . . , Xtn ) et
(Yt1 , . . . , Ytn ) ont même loi sous P et la proposition I.2.7 implique (i).
S
On suppose ensuite que E est un espace topologique et que X et Y sont càd. On pose N = q∈Q+ {Xq 6= Yq }
qui est un ensemble P-négligeable (puisque c’est une union dénombrable d’ensembles P-négligeables). Pour
tout ω ∈ Ω\N , on a Xq (ω) = Yq (ω), q ∈ Q+ . La continuité à droite de X et Y implique alors que pour tout
ω ∈ Ω\N et pour tout t ∈ R+ , Xt (ω) = Yt (ω), ce qui termine la preuve.
Définition I.2.19 (Ω, F ), un espace mesurable. Soit (Gt )t∈R+ , une filtration. Pour tout t ∈ R+ on introduit les
tribus suivantes: \
Gt+ := Gs Gt− := σ Gs ; s ∈ [0, t[ .
et
s>t
La définition de Gt− ci-dessus n’a de sens que si t > 0. Par convention on pose G0− := G0 . On observe que
(Gt+ )t∈R+ et (Gt− )t∈R+ sont des filtrations sur (Ω, F ). On appelle (Gt+ )t∈R+ la filtration continue à droite
associée à (Gt )t∈R+ et on appelle (Gt− )t∈R+ la filtration continue à gauche associée à (Gt )t∈R+ . On dit ensuite
que la filtration (Gt )t∈R+ est continue à droite si pour tout t ∈ R+ , Gt+ = Gt . De même, on dit que la filtration
(Gt )t∈R+ est continue à gauche si pour tout t ∈ R+ , Gt− = Gt .
24 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
Progressive mesurabilité. Jusque là, les processus ont été envisagés comme des fonctions aléatoires de R+
dans E. Nous introduisons ici un nouveau point de vue: un processus X est une fonction (s, ω) ∈ R+ ×Ω 7→
Xs (ω) ∈ E. Cette manière de voir s’avère fructueuse dans de nombreuses situations impliquant des propriétés
trajectorielles, des temps d’arrêt ou le calcul stochastique.
Définition I.2.20 (Progressive mesurabilité) Soient (E, E ) et (Ω, F ), des espaces mesurables. Soit (Gt )t∈R+ ,
une filtration surt (Ω, F ). Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (F , E ⊗R+ )-mesurable. Le processus
X est dit progressivement mesurable par rapport à (Gt )t∈R+ si pour tout t ∈ R+ la fonction
(∗) Soient (E1 , E1 ), (E2 , E2 ) et (E, E ), des espaces mesurables. Soit f : E1×E2 → E, supposée (E1⊗ E2 , E )-
mesurable. Alors, pour tout x ∈ E1 , l’application partielle f (x, ·) : E2 → E est (E2 , E )-mesurable. De
même, pour tout y ∈ E2 , l’application partielle f (·, y) : E1 → E est (E1 , E )-mesurable.
Lemme I.2.21 Soient (E, E ) et (Ω, F ), des espaces mesurables. Soit (Gt )t∈R+ , une filtration surt (Ω, F ).
Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (F , E ⊗R+ )-mesurable. Si X est (Gt )t∈R+ -progressivement
mesurable, alors il est (Gt )t∈R+ -adapté.
Preuve: on fixe t ∈ R+ et on note f : (s, ω) ∈ [0, t]×Ω 7−→ Xs (ω) ∈ E. Par hypothèse, f est B([0, t])⊗Gt , E -
mesurable et on observe que l’application partielle f (t, ·) est la variable Xt : la propriété (∗) qui précède
implique donc que Xt est Gt -mesurable.
L’adaptation n’implique en général pas la progressive mesurabilité. La proposition suivante donne cepen-
dant un critère, modulo la continuité à droite du processus.
Proposition I.2.22 Soit E, un espace topologique. Soit (Ω, F ), un espace mesurable sur lequel est définie une
filtration (Gt )t∈R+ . Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (F , B(E)⊗R+ )-mesurable. On suppose que
X est (Gt )t∈R+ -adapté et càd. Alors, X est progressivement mesurable relativement à (Gt )t∈R+ .
Preuve: soit s ∈ R+ . On note dse le plus petit entier strictement supérieur à s et on note bsc sa partie entière.
Pour tout n ∈ N et tout t ∈ R+ , on pose Xtn = X2−n d2n te , puis à t ∈ R+ fixé, on pose pour tous (s, ω) ∈ [0, t]×Ω,
Cela montre donc que pour tout n ∈ N, φn est (B([0, t])⊗Gt , B(E))-mesurable. On pose ensuite φ(s, ω) :=
Xs (ω), pour tous (s, ω) ∈ [0, t]×Ω. On vérifie ensuite facilement que la continuité à droite de X implique que
limn→∞ φn = φ ponctuellement que [0, t]×Ω. Donc φ est (B([0, t])⊗Gt , B(E))-mesurable, ce qui permet de
conclure.
∀t ∈ R+ , {T ≤ t} ∈ Gt . (I.38)
GT = A ∈ G∞ : ∀ t ∈ R+ , A ∩ {T ≤ t} ∈ Gt .
On vérifie que GT est une sous-tribu de G∞ . Elle est appelée tribu des événements antérieurs à T .
Quelques remarques.
(1) Comme {T > t} = Ω\{T ≤ t} et puisqu’une tribu est stable par passage au complémentaire, T est un
(Gt )t∈R+ -temps d’arrêt ssi {T > t} ∈ Gt , pour tout t ∈ R+ .
(2) Vérifions ensuite que GT est une tribu: il est clair que Ω ∈ GT par (I.38). Si A ∈ GT , on vérifie que pour tout
t ∈ R+
(Ω\A) ∩ {T ≤ t} = {T ≤ t} ∩ Ω\(A ∩ {T ≤ t} ∈ Gt .
Lemme I.3.2 Soit (Ω, F ), un espace mesurable. Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soient T et S, deux
(Gt )t∈R+ -temps d’arrêts. Alors, les résultats suivants sont vérifiés.
Preuve: pour tout t ∈ R+ , on remarque d’abord que l’événement {S ∧T > t} = {S > t} ∩ {T > t} ∈ Gt . Donc
S ∧T est un (Gt )t∈R+ -temps d’arrêt (voir la remarque (1) ci-dessus). Soit A ∈ GS ∩ GT . Alors
A ∩ {S ∧ T ≤ t} = (A ∩ {S ≤ t}) ∪ (A ∩ {T ≤ t}) ∈ Gt .
B = (B ∩ {S ≤ T }) ∪ (B ∩ {T ≤ S}) ∈ σ(GS , GT ) .
De plus, {T = 0 ; S > t} ∈ Gt . Comme S et T jouent des rôles symétriques on en déduit que {0 < S ≤ t ; S +T >
t} ∈ Gt et {S = 0 ; T > t}. Enfin on a {S ∧ T > t} ∈ Gt , ce qui implique facilement (iv).
Lemme I.3.3 Soient (E, E ) et (Ω, F ), des espaces mesurables. Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit
T : Ω → [0, ∞], un (Gt )t∈R+ -temps d’arrêt. Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (F , E ⊗R+ )-mesurable.
On rappelle la notation G∞ = σ(Gt ; t ∈ R+ ) et on se donne X∞ : Ω → E, une v.a. (G∞ , E )-mesurable, ce qui
permet de définir
∀ω ∈ Ω, XT (ω) := XT (ω) (ω) .
On suppose que X est (Gt )t∈R+ -progressivement mesurable. Alors, XT est (GT , E )-mesurable.
Preuve: pour tout t ∈ [0, ∞], on pose Yt : (s, ω) ∈ [0, t]×Ω → Xs (ω) ∈ E. Si t < ∞, alors, par hypothèse, pour
tout B ∈ E , {Yt ∈ B} ∈ B([0, t])⊗Gt . Dans le cas où t = ∞: on remarque que:
−1 −1
[ −1
Y∞ (B) = {∞}×X∞ (B) ∪ Yn (B) ∈ B([0, ∞])⊗G∞ .
n∈N
Cela implique que pour tout t ∈ [0, ∞], Yt est (B([0, t])⊗Gt , E )-mesurable.
Soit t ∈ R+ . On note Gt∗ := {A ∩ {T ≤ t}; A ∈ Gt }, qui est une tribu sur {T ≤ t} (c’est la tribu trace de Gt
sur {T ≤ t}). On vérifie que Zt : ω ∈ {T ≤ t} 7→ (T (ω), ω) ∈ [0, t]×Ω est (Gt∗ , B([0, t])⊗Gt )-mesurable. En
−1
effet, pour tout A ∈ Gt et tout
s ∈ [0, t], on a Zt ([0, s]×A) = A ∩ {T ≤ s} ∈ Gt , et il est facile de montrer que
∗
De même, on introduit Z∞ : ω ∈ Ω → (T (ω), ω) ∈ [0, ∞]×Ω qui est (G∞ , B([0, ∞])⊗G∞ )-mesurable. On
remarque alors que XT = Y∞ ◦Z∞ , qui est donc une v.a. (G∞ , E )-mesurable. Soit B ∈ E . On pose A := {XT ∈
B}. Ce qui précède montre que A ∈ G∞ . On fixe t ∈ R+ . On remarque que A ∩ {T ≤ t} = (Yt◦Zt )−1 (B). Donc
A ∩ {T ≤ t} ∈ Gt∗ , ce qui implique que A ∩ {T ≤ t} ∈ Gt . On en déduit que A ∈ GT , ce qui termine la preuve.
Définition I.3.4 Soit (Ω, F ), muni de la filtration filtration (Gt )t∈R+ . Soit T : Ω → [0, ∞], un (Gt )t∈R+ -temps
d’arrêt.
Lemme I.3.5 Soit (Ω, F ), muni de la filtration filtration (Gt )t∈R+ . Soit T : Ω → [0, ∞], une fonction. Alors,
les assertions suivantes sont vérifiées.
(i) T est un (Gt+ )t∈R+ -temps d’arrêt ssi {T < t} ∈ Gt pour tout t ∈]0, ∞[ .
(ii) Supposons que T soit un (Gt )t∈R+ -temps d’arrêt. On pose Gt+ = Gt+ , pour tout t ∈ R+ . Alors T est un
(Gt+ )t∈R+ -temps d’arrêt et on a
(iii) Supposons que T soit un (Gt )t∈R+ -temps d’arrêt et supposons que (Gt )t∈R+ soit continue à droite c’est-
à-dire que Gt+ = Gt , pour tout t ∈ R+ . Alors GT + = GT .
(iv) Supposons que T soit un (Gt )t∈R+ -temps d’arrêt. On rappelle la convention G0− := G0 . Alors
GT − = σ B ∩{T ≥ t} ; t ∈ R+ , B ∈ Gt− et GT − ⊂ GT ⊂ GT + .
(v) Supposons que T soit un (Gt )t∈R+ -temps d’arrêt. Alors, T est GT − -mesurable.
Preuve: supposons d’abord que {T < t} ∈ Gt pour tout t ∈]0, ∞[ . Alors, pour tout t ∈ R+ , {T ≤ t} =
−n } ∈ G , ce qui implique que T est un (G )
T
n∈N {T < t + 2 t+ S + -temps d’arrêt. Réciproquement si T est
t+ t∈R
un (Gt+ )t∈R+ -temps d’arrêt, pour tout t ∈ ]0, ∞[ , on a {T < t} = n∈N {T < t−2−n } ∈ Gt , ce qui termine la
preuve de (i). Un raisonnement analogue montre (ii). Enfin, le point (ii) implique immédiatement (iii).
Montrons le point (iv). On pose H = σ B ∩{T ≥ t} ; t ∈ R+ , B ∈ Gt− . Soit B ∈ Gt− . Il est clair que
{T = t} ∈ Gt . Donc B ∪ {T = t} ∈ Gt et on a
Lemme I.3.6 Soit (Ω, F ), un espace mesurable muni de la filtration (Gt )t∈R+ . Soient S, T : Ω → [0, ∞], deux
(Gt )-temps d’arrêt. Les assertions suivantes sont vérifiées.
Preuve: on observe d’abord que {T < S ≤ t} = q∈Q∩[0,t[ {T < q}∩{S ≤ t}∩(Ω\{S ≤ q}) ∈ Gt . On en déduit
S
que
{S ≤ T ≤ t} = {T ≤ t} ∩ (Ω\{T < S ≤ t}) ∈ Gt . (I.39)
Soit A ∈ GS . Donc A ∩ {S ≤ t} ∈ Gt et (A ∩ {S ≤ T })∩{T ≤ t} = (A ∩ {S ≤ t})∩{S ≤ T ≤ t} ∈ Gt par (I.39).
Cela montre que A ∩ {S ≤ T } ∈ GT . On observe ensuite que A ∩ {S < T } = q∈Q+ (A∩{S < q})∩{T > q}.
S
Or A ∩ {S < q} ∈ Gq− ⊂ Gq . Donc (A ∩ {S < q}) ∩ {T > q} ∈ GT − , ce qui entraîne que A ∩ {S ≤ T } ∈ GT − et
la preuve de (i) est terminée.
Prouvons (ii): soit A ∈ GS . Comme S ≤ T partout sur Ω, A = A ∩ {S ≤ T } ∈ GT , par (i). Cela montre
que GS ⊂ GT . Cela montre aussi que GS+ ⊂ GT+ , où Gt+ = Gt+ , t ∈ R+ . Mais le lemme I.3.5 (ii) implique que
GT+ = GT + et GS+ = GS+ , et on a donc GS+ ⊂ GT+ . Pour tout t ∈ R+ , et tout B ∈ Gt , on remarque ensuite que
B ∩ {t < S} ∈ Gt et donc que
{S < T } ∈ GT − . (I.40)
On observe ensuite que (I.39) implique que {S ≤ T } ∈ GT . En échangeant les rôles de S and T ,on obtient que
{T ≤ S} ∈ GS . Par conséquent, {S < T } = Ω\{T ≤ S} ∈ GS et (I.40) implique que {S < T } ∈ GS ∩ GT − .
Comme GT − ⊂ GT , on en déduit que {S < T } ∈ GS ∩ GT et donc
{S = T } = {S ≤ T } ∩ (Ω\{S < T }) ∈ GS ∩ GT .
Proposition I.3.7 Soit (Ω, F ), un espace mesurable muni de la filtration (Gt )t∈R+ . Soient Tn : Ω → [0, ∞],
n ∈ N, une suite de (Gt )t∈R+ -temps d’arrêt. Les assertions suivantes sont vérifiées.
(i) On suppose que pour tout n ∈ N, Tn ≤ Tn+1 partout. Alors, T := supn∈N Tn est un (Gt )t∈R+ -temps
d’arrêt et
GT − = σ GTn − ; n ∈ N .
(ii) On suppose que pour tout n ∈ N, Tn+1 ≤ Tn partout. Alors T := inf n∈N Tn est un (Gt+ )t∈R+ -temps
d’arrêt et \
GT + = GTn + .
n∈N
I.3. TEMPS D’ARRÊT. 29
T
Preuve: on prouve (i); T est un (Gt )t∈R+ -temps d’arrêt car {T ≤ t}= n∈N {Tn ≤ t}, pour tout t ∈ R+ . Le
lemme I.3.6 (ii) implique que GTnS − ⊂ GT − et donc σ GTn − ; n ∈ N ⊂ GT − . Soient t ∈ R+ et B ∈ Gt . On
remarque alors que B ∩ {t < T } = n∈N B ∩ {t < Tn }; comme par définition B ∩ {t < Tn } ∈ GTn − , on a donc
B ∩ {t < T } ∈ σ GTn − ; n ∈ N , ce qui entraîne GT − ⊂ G
σ Tn − ; n ∈ N et ce qui termine la preuve de (i).
Montrons (ii): pour tout t ∈ R+ , on a {T < t} = n∈N {Tn < t} ∈ Gt ; le lemme I.3.5 (i) implique
S
que T est
G G G G
T
un (G )
Tt+ t∈R+ -temps d’arrêt. Le lemme I.3.6 (ii) implique que T+ ⊂ Tn + et donc T+ ⊂ n∈N Tn + . Soit
A ∈ n∈N GTn + . On a donc A ∈ G∞ et pour tout n ∈ N et tout t ∈ R+ , A ∩ {Tn < t} ∈ Gt et donc
[
A ∩ {T < t} = A ∩ {Tn < t} ∈ Gt .
n∈N
Définition I.3.8 (Temps d’atteinte, de retour et d’approche) Soit E, un espace topologique métrisable et sé-
parable. Soit (Ω, F ), un espace mesurable. Soient X = (Xt )t∈R+ : Ω → E R+ et T : Ω → [0, ∞], des fonctions.
Soit A ∈ B(E).
(a) On pose:
et T+
TT,A := inf t ∈ [T, ∞[ : Xt ∈ A T,A := inf t ∈ ]T, ∞[ : Xt ∈ A
avec la convention que inf ∅ = ∞. Le temps TT,A est le temps d’atteinte de A par X après T et le temps
T+
T,A est le temps de retour en A de X après T .
qui est l’adhérence de {Xs ; s ∈ [T, t]} dans E, avec la convention que ΓT,t = ∅ si T = ∞. On définit alors
le temps d’approche de A par X après T par
ST,A = inf t ∈ [T, ∞[ : ΓT,t ∩ A 6= ∅ ,
Remarque I.3.9 On reprend les notations de la définition précédente et on suppose que X est continu partout
sur Ω. Alors, ΓT,t = {Xs ; s ∈ [T, t]}. Donc
En effet, si Xt ∈ A, alors ΓT,t ∩ A 6= ∅, ce qui montre que ST,A ≤ TT,A . Soit t0 tel que t0 > ST,A : il existe donc
t ∈ [T, t0 [ tel que ΓT,t ∩ A 6= ∅, ce qui implique l’existence de s ∈ [T, t] tel que Xs ∈ A et donc TT,A ≤ t < t0 . En
choisissant t0 arbitrairement proche de ST,A , on obtient TT,A ≤ ST,A , ce entraîne (I.41).
30 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
Remarque I.3.10 On reprend les notations de la définition précédente et on suppose X est càdlàg partout sur
Ω. Alors,
ΓT,t = {Xs , Xs− ; s ∈ [T, t]} . (I.42)
En effet, on a clairement {Xs , Xs− ; s ∈ [T, t]} ⊂ ΓT,t . Supposons que y ∈ ΓT,t . Comme E est métrisable,
il existe tn ∈ [T, t], n ∈ N, tels que Xtn −→ y lorsque n → ∞. Soit s ∈ [T, t], une valeurs d’adhérence de la
suite (tn )n∈N . Si l’ensemble {n ∈ N : tn ≥ s} est infini, alors par continuité à droite de X, on a Xs = y. Si
l’ensemble {n ∈ N : tn < s} est infini, alors on a Xs− = y. Dans les deux cas y ∈ {Xs , Xs− ; s ∈ [T, t]}, ce qui
permet de montrer (I.42).
Remarque I.3.11 On reprend les notations de la définition précédente. Soient Tn : Ω → [0, ∞], une suite de
temps aléatoires décroissants vers T et tels que
Par exemple les temps Tn := T + 2−n , n ∈ N, satisfont ces conditions. On observe alors que
T+
T,A = inf TTn ,A . (I.44)
n∈N
Théorème I.3.12 Soit (E, d), un espace métrique séparable. Soit (Ω, F ), un espace de mesurable muni de
la filtration (Gt )t∈R+ . Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (Gt )t∈R+ -adapté et soit T : Ω → [0, ∞],
(Gt )t∈R+ -temps d’arrêt. Alors, les assertions suivantes sont vérifiées.
(i) On suppose X càd partout sur Ω. Alors, pour tout ouvert U de E, les temps TT,U et T+
T,U sont des
(Gt+ )t∈R+ -temps d’arrêt.
(ii) On suppose X càd partout sur Ω. Alors, pour tout compact K de E, le temps d’approche ST,K est un
(Gt )t∈R+ -temps d’arrêt.
(iii) On suppose X càdlàg partout sur Ω. Alors, pour tout fermé F de E, le temps d’approche ST,F est un
(Gt )t∈R+ -temps d’arrêt et
ST,F = inf t ∈ [T, ∞[ : Xt ou Xt− ∈ F . (I.45)
Si X est continu partout sur Ω, on a ST,F = TT,F et donc TT,F est un (Gt )t∈R+ -temps d’arrêt.
Preuve: prouvons (i). Soit t ∈]0, ∞[. Si s ∈ [T, t[ est tel que Xs ∈ U , alors – puisque X est càd et puisque U
est ouvert – il existe un rationnel q ∈ [s, t[ tel que Xq ∈ U et donc
[
{TT,U < t} = {T ≤ q} ∩ {Xq ∈ U } ∈ Gt .
q∈Q∩[0,t[
I.3. TEMPS D’ARRÊT. 31
Le lemme I.3.5 (i) implique que TT,U est un (Gt+ )t∈R+ -temps d’arrêt. On pose ensuite Tn := T + 2−n , qui
est également un (Gt )t∈R+ -temps d’arrêt; ce que l’on vient de montrer implique que TTn ,U est un (Gt+ )t∈R+ -
temps d’arrêt. La proposition I.3.7 (ii) implique que inf n∈N TTn ,U est un (Gt+ )t∈R+ -temps d’arrêt. Or (I.44)
(remarque I.3.11) montre que T+ T,U = inf n∈N TTn ,U , qui est donc (Gt+ )t∈R+ -temps d’arrêt, ce qui termine la
preuve de (i).
Montrons (ii). Pour tout n ∈ N, on pose Un := {x ∈ E : d(x, K) < 2−n }. On rappelle que x 7→ d(x, K) est
1-Lipschitzienne, ce qui implique que les ensembles Un sont des ouverts de E. On fixe t ∈ R+ .
Supposons d’abord que ST,K ≤ t et que Xt ∈ / K: par continuité à droite de X, il existe ε, η > 0 tels que
d(Xs , K) > η, pour tout s ∈ [t, t + ε]. Comme ST,K ≤ t, ΓT,t+ε ∩ K 6= ∅. Il existe donc une suite de temps
tp ∈ [T, t + ε], p ∈ N, telle que d(Xtp , K) → 0 lorsque p → ∞ et ce qui précède implique que tp ∈ [T, t[ pour
tout p ∈ N assez grand. Par conséquent il existe une suite strictement croissante d’entiers (pn )n∈N telle que
d(Xtpn , K) < 2−n . Autrement dit, Xtpn ∈ Un et en particulier TT,Un < t, pour tout n ∈ N.
Supposons maintenant que TT,Un < t pour tout n ∈ N. Il existe donc tn ∈ [T, t[ , tel que d(Xtn , K) < 2−n .
Comme K est compact, la fonction y 7→ d(Xtn , y) atteint son infimum sur K. Il existe donc yn ∈ K tel que
d(Xtn , yn ) < 2−n . Comme K est compact, on extrait de (yn )n∈N une suite (ynk )k∈N convergeant vers y ∈ K.
On a donc pour tout k ∈ N,
d(y, ΓT,t ) ≤ d(y, ynk ) + d(ynk , Xtnk ) −→ 0
lorsque k → ∞. Donc d(y, ΓT,t ) = 0. Comme ΓT,t est un fermé de E, y ∈ ΓT,t . On a donc ΓT,t ∩ K 6= ∅ et donc
ST,K ≤ t.
On a donc montré
\
{ST,K ≤ t} = {T ≤ t} ∩ {Xt ∈ K} ∪ {TT,Un < t} ∈ Gt ,
n∈N
par le (i). Cela montre que ST,F est un (Gt )t∈R+ ; (I.42) (remarque I.3.10 p. 30) implique (I.45). Si X est
continu, (I.41) (remarque I.3.9 p. 29) permet de conlure.
Problème de mesurabilité des temps d’arrêt. Le théorème I.3.12 fait une liste assez complète des temps
d’arrêt dont l’existence se prouve par des arguments élémentaires. Dès que l’on s’éloigne un peu des hypothèses
de ce théorème, il devient assez compliqué de prouver la mesurabilité de certains temps d’arrêt aussi naturels
que les temps d’atteinte de compacts. En effet, signalons le fait suivant: on reprend les notations du théorème
I.3.12; on suppose X est càdlàg et (Gt )t∈R+ -adapté; soit K, un compact de E; on rappelle que TK = inf{t ∈
R+ : Xt ∈ K} est le premier temps d’atteinte de K. C’est une fonction de Ω dans [0, ∞] C. Dellacherie a
32 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
montré que dans certains cas TK n’est pas G∞ -mesurable. Cette obstruction entraîne que TK ne peut être un
(Gt )t∈R+ -temps d’arrêt, ni-même un (Gt+ )t∈R+ -temps d’arrêt. En revanche, cela devient le cas si l’on enrichit
la filtration avec les ensembles P-négligeables. Comme expliqué dans les paragraphes suivants, il s’agit d’un
fait général qui s’exprime informellement en la "philosophe" suivante: tous les temps d’arrêt auxquels on peut
penser naturellement sont des "vrais" temps d’arrêt relativement à la filtration continue à droite enrichie par
les ensembles P-négligeables.
Complétion des filtrations. Le lecteur est invité à lire la section A.2, en appendice page 208, sur la com-
plétion des espaces mesurés. Nous rappelons les notations suivantes. Soit (E, E , µ), un espace mesuré.
L’ensemble des µ-négligeables est défini par
Nµ := A ⊂ E : ∃B ∈ E , A ⊂ B, µ(B) = 0 .
On observe qu’un ensemble µ-négligeable n’est pas nécessairement dans la tribu E . On définit la µ-complétion
de la tribu E par
E µ := σ E , Nµ .
(a) Le théorème A.2.3, page 209, montre que la mesure µ s’étend de manière unique à la tribu µ-complétée
E µ.
On note systématiquement µ cette extension, bien que cela soit un abus de notation. On rappelle qu’une tribu
est dite µ-complète si E = E µ .
(b) On rappelle que l’extension E µ est µ-complète, c’est -à-dire que la tribu E µ complétée par l’extension
de µ à E µ est E µ elle-même.
(e) Soit f : E → [0, ∞], une fonction E µ -mesurable. Alors il existe, f1R, f2 : E →R[0, ∞], des fonctions
E -mesurables telles que f1 ≤ f ≤ f2 et µ({f1 < f2 }) = 0. De plus, on a E fi dµ = E f dµ, i ∈ {1, 2}.
(f) Soit f : E → K, une fonction E µ -mesurable. Ici, K peut être [0, ∞], R, [−∞, ∞], ou C. Alors il existe,
g : E → K, une fonction RE -mesurable
R telle que µ-p.p. f = g. De plus, si f est µ intégrable, alors il en est
de même pour g et on a E f dµ = E g dµ.
Définition I.3.13 (Augmentation, hypothèses habituelles) Soit (Ω, F , P), un espace de probabilité. On note
NP l’ensemble des P-négligeables. On note F P la tribu P-complétée de F . Pour simplifier les notations, on
continue de noter P l’extension de P à (Ω, F P ). Soit (Gt )t∈R+ , une filtration sur (Ω, F ).
(a) Pour tout t ∈ R+ , on note GtP la P-complétion de la tribu Gt : GtP = σ(Gt , NP ). Il est clair que (GtP )t∈R+
est une filtration sur (Ω, F P ), appelée la P-augmentation simple de (Gt )t∈R+ .
I.3. TEMPS D’ARRÊT. 33
Lemme I.3.14 On reprend les notations de la définition I.3.13, qui précède. Alors, GtP +
= σ(Gt+ , NP ), t ∈ R+ .
Preuve: pour tous s > t, Gt+ ⊂ Gs , et donc σ(Gt+ , NP ) ⊂ GsP . Par conséquent, σ(Gt+ , NP ) ⊂ s>t GsP = Gt+ P.
T
Réciproquement, soit A ∈ Gt+ . Pour tout entier n ≥ 1, A ∈ Gt+ 1 et donc il existe Bn ∈ Gt+ 1 tel que P-p.s. 1A =
P P
n n
1Bn . On pose par exemple B = n≥1 p≥n Bp . Il est clair que B ∈ Gt+ ; d’autre part, 1B = lim supn 1Bn et
T S
Travailler avec les filtrations augmentées ne cause en général pas de problème insurmontable, comme le
montre le théorème suivant qui affirme que tout temps d’arrêt relativement à la filtration augmentée coïncide
presque sûrement avec un temps d’arrêt de la filtration d’origine. Ce résultat est utilisé dans la suite de ce cours
pour démontrer la propriété de Markov forte.
Théorème I.3.15 Soit (Ω, F , P), un espace de probabilité. Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit T ,
P)
un (Gt+ o
t∈R+ -temps d’arrêt. Alors, il existe T , un (Gt+ )t∈R+ -temps d’arrêt tel que
NP . On pose S
S ensuite C1,n := B1,n et Ck,n := Bk,n \ 1≤`<k B`,n si k ≥ 2. On vérifie que Ck,n ∈ Gk2n et que
C
k∈N∗ k,n = k∈N∗ Bk,n . On définit alors
[
∀k ∈ N∗ , ∀ω ∈ Ck,n Sno (ω) := k2−n et ∀ω ∈ Ω \ Bk,n , Sno (ω) := ∞ .
k∈N∗
Pour tout t ∈ R+ , on voit que {Sno < t} = k<2n t Ck,n ∈ Gt . Donc Sno est un (Gt+ )t∈R+ -temps d’arrêt. On
S
vérifie facilement que P(Sno = Tn ) = 1 et donc
P-p.s. ∀n ∈ N, Sno = Tn . (I.46)
On pose ensuite Tno := inf 0≤p≤n Spo . Le lemme I.3.2 (i) (page 25) implique que Tno est un (Gt+ )t∈R+ -temps
d’arrêt. On observe ensuite que par définition Tn = inf 0≤p≤n Tp partout sur Ω. Donc (I.46) implique que
P-p.s. ∀n ∈ N, Tno = Tn . (I.47)
On définit T o := inf n∈N Tno . La proposition I.3.7 (ii), page 28, entraîne alors que T o est un (Gt+ )t∈R+ -temps
d’arrêt. Comme T = inf n∈N Tn partout sur Ω, (I.47) implique que P(T o = T ) = 1. Comme Tno et Tn ne
prennent que des valeurs dyadiques, (I.47) implique facilement que
GTPn + = σ(NP , GTno ) .
Par la proposition I.3.7 (ii), page 28, on a GTP+ = n∈N GTPn + . Il est ensuite facile de montrer que
T
\ \
σ NP , GTno + = σ(NP , GTno + ) .
n∈N n∈N
Un résultat général de mesurabilité des temps d’arrêt: le théorème du "Début". On introduit la définition
suivante.
Définition I.3.16 (Début) Soit (Ω, F ) un espace mesurable. Soit A ⊂ R+ ×Ω. On pose
Définition I.3.17 (Ensembles progressivement mesurables) Soit (Ω, F ), un espace mesurable muni de la fil-
tration (Gt )t∈R+ . Un ensemble A ⊂ R+ × Ω est dit progressivement mesurable relativement à (Gt )t∈R+ si
1A : R+ ×Ω → R est un processus progressivement mesurable relativement à (Gt )t∈R+ , c’est-à-dire si pour tout
t ∈ R+ , la fonction
(s, ω) ∈ [0, t]×Ω 7−→ 1A (s, ω)
est B([0, t]) ⊗ Gt -mesurable.
Exemple I.3.18 Soit (Gt )t∈R+ , une filtration sur un espace mesurable (Ω, F ). Soit T , un (Gt )t∈R+ -temps
d’arrêt. On pose
A := {(t, ω) ∈ R+ ×Ω : T (ω) ≤ t} . (I.48)
Alors, A est un ensemble progressivement mesurable relativement à (Gt )t∈R+ . En effet, on fixe t ∈ R+ et on
observe que
[
{(s, ω) ∈ [0, t]×Ω : 1A (s, ω) = 0} = [0, q]×{ω ∈ Ω : T (ω) > q} ∈ B([0, t]) ⊗ Gt .
q∈Q∩[0,t]
Exemple I.3.19 Soit (Gt )t∈R+ , une filtration sur l’espace mesurable (Ω, F ). Soit E, un espace topologique
métrisable. Soit X = (Xt )t∈R+ : Ω → E R+ , supposé progressivement mesurable relativement à (Gt )t∈R+ . Soit
T , un (Gt )t∈R+ -temps d’arrêt. Soit B ∈ B(E). Alors, on vérifie facilement que
A := (t, ω) ∈ R+ ×Ω : T (ω) ≤ t et Xt (ω) ∈ B (I.49)
est un ensemble progressivement mesurable relativement à (Gt )t∈R+ . En effet, si on fixe t ∈ R+ : notons
X t : (s, ω) ∈ [0, t]×Ω 7→ Xs (ω) ∈ E. Comme X est supposé progressivement mesurable, X t est (B([0, t]) ⊗
−1
Gt , B(E))-mesurable et donc X t (E\B) ∈ B([0, t]) ⊗ Gt et on remarque que
−1 [
{(s, ω) ∈ [0, t]×Ω : 1A (s, ω) = 0} = X t (E\B) ∪ [0, q]×{ω ∈ Ω : T (ω) > q} ∈ B([0, t]) ⊗ Gt .
q∈Q∩[0,t]
Le théorème suivant, dû à Hunt, permet en général de régler le problème de la mesurabilité des temps d’arrêt.
Théorème I.3.20 (du "Début") Soit (Ω, F , P), un espace de probabilité. Soit (Gt )t∈R+ , une filtration sur
(Ω, F ). Soit A ⊂ R+ × Ω, que l’on suppose progressivement mesurable par rapport à (Gt )t∈R+ . On rap-
pelle la définition du début de A:
∀ ω ∈ Ω, DA (ω) = inf t ∈ R+ : (t, ω) ∈ A
P)
avec la convention que inf ∅ = ∞. Alors, DA est un (Gt+ t∈R+ -temps d’arrêt.
Preuve: elle n’est pas élémentaire et nécessite l’introduction des ensembles analytiques. Une preuve détaillée
est donnée dans la Section A.7 page 229.
Avant de conclure cette section, notons que le théorème I.3.20 du "Début" combiné avec l’exemple I.3.19
implique immédiatement le corollaire suivant.
Corollaire I.3.21 Soit E un espace topologique métrisable. Soit (Ω, F , P), un espace de probabilité muni de
la filtration (Gt )t∈R+ et du processus (Xt )t∈R+ : Ω → E R+ , supposé progressivement mesurable relativement à
(Gt )t∈R+ . Soit B ∈ B(E) et soit T , un (Gt )t∈R+ -temps d’arrêt. On rappelle les définitions des temps d’atteinte
suivants:
et T+
TT,B = inf t ∈ [T, ∞[ : Xt ∈ B T,B = inf t ∈ ]T, ∞[ : Xt ∈ B
la seconde condition n’ayant de sens que lorsque t > 0. On note Reg(R+ ), l’ensemble des fonctions de R+
dans R qui sont régularisables.
Deux remarques.
(1) La définition précédente des fonctions régularisables ne porte en réalité que sur les fonctions y : Q+→ R.
(2) L’ensemble de temps choisi dans la définition précédente des fonctions régularisante est Q+ mais une
définition alternative où Q+ est remplacé par n’importe quel ensemble D ⊂ R+ dénombrable dense fonctionne
tout autant.
L’explication du terme "régularisable" est donnée par le théorème suivant.
∀t ∈ R+ , xt := lim yq .
q∈Q∩]t,∞[
q→t
qui existe dans R car y ∈ Reg(R+ ). On fixe t ∈ R+ et une suite tn ∈]t, ∞[ (resp. si t 6= 0, tn ∈]0, t[ ), n ∈ N,
telle que tn → t. Par définition de xtn , il existe une suite qn ∈ Q∩]t, ∞[ (resp. qn ∈ Q∩]tn , t[ ), n ∈ N, telle que
|tn −qn | < 2−n et |xtn −yqn | < 2−n . Comme tn → t et comme |tn −qn | < 2−n , on a qn → t. Par définition de
xt (resp. de x∗t ) on a donc yqn → xt (resp. yqn → x∗t ). Comme |xtn −yqn | < 2−n , cela implique que xtn → xt
(resp. xtn → x∗t ), ce qui permet de conclure.
Nous rappelons ensuite la définition du nombre de montées d’une fonction à valeurs réelles, ce qui permet
ensuite d’établir un critère pratique permettant de déterminer si une fonction est régularisable.
Définition I.4.3 (Nombre de montées) Soit D ⊂ R+ , un sous-ensemble contenant au moins deux points. Soient
a, b ∈ R tels que a < b. Soit y : D → R, une fonction. On note UD (y, [a, b]) le supremum des p ∈ N∗ tels qu’il
existe s1 , t1 , . . . , sp , tp ∈ D satisfaisant:
s1 < t1 < s2 < t2 < . . . < sp < tp et ∀k ∈ {1, . . . , p}, ysk < a et ytk > b . (I.50)
Notons que UD (y, [a, b]) peut être infini, ou bien nul s’il n’existe aucun entier p ∈ N∗ satisfaisant (I.50).
Théorème I.4.4 Soit y : R+→ R. Alors, les deux assertions suivantes sont équivalentes.
(a) y ∈ Reg(R+ ).
lim inf yq < lim sup yq ou bien lim inf yq < lim sup yq ,
q∈Q∩]t,∞[ q∈Q∩]t,∞[ q∈Q∩]0,t[ q∈Q∩]0,t[
q→t q→t q→t q→t
le dernier cas supposant que t 6= 0. Il existe donc a, b ∈ Q tels que a < b et tels que a et b soient situés entre les
limites supérieures et inférieures précédentes. On a donc U[0,n0 ] (y, [a, b]) = ∞ pour tout entier n0 > t, ce qui
contredit (b). Par conséquent, on a montré que
La première condition de (b) montre que ces limites doivent être dans R, ce qui montre que y est régularisable.
On a donc montré que (b) =⇒ (a).
Montrons la réciproque: supposons l’existence de n0 ∈ N∗ , tel que supq∈[0,n0 ] |yq | = ∞. Comme [0, n0 ] est
compact il existe t ∈ R+ et il existe une suite qn ∈ Q ∩ [0, n0 ], n ∈ N, tel que qn → t et telle que |yqn | > n.
Clairement, la suite (qn )n∈N ne peut pas être stationnaire à t. Par conséquent, ou bien il y a une infinité d’indices
n ∈ N tels que qn < t, et alors
lim yq n’existe pas dans R.
q∈Q∩]0,t[
q→t
I.4. RÉGULARISATION DES PROCESSUS. MARTINGALES À TEMPS CONTINU. 37
Autrement dit, on a montré que s’il existe n0 ∈ N∗ , tel que supq∈[0,n0 ] |yq | = ∞, y n’est pas régularisable.
Supposons ensuite qu’il existe n0 ∈ N∗ et a, b ∈ Q tel que a < b et U[0,n0 ] (y, [a, b]) = ∞. Il y a alors un sens
à poser t := inf{s ∈ R+ : U[0,s] (y, [a, b]) = ∞}, qui est un réel positif fini. Il est facile de vérifier que
lim inf yq ≤ a < b ≤ lim sup yq ou bien lim inf yq ≤ a < b ≤ lim sup yq ,
q∈Q∩]t,∞[ q∈Q∩]t,∞[ q∈Q∩]0,t[ q∈Q∩]0,t[
q→t q→t q→t q→t
ce qui implique que y n’est pas régularisable. Cela montre que (a) =⇒ (b), par contraposition.
Le critère précédent implique notamment que l’ensemble des fonctions régularisables est mesurable pour
la tribu produit sur l’espace des fonctions de R+ dans R.
On fixe ensuite a, b ∈ Q tels que a < b. On fixe également n0 ∈ N∗ . Pour tous s1 , t1 , . . . , sp , tp ∈ Q ∩ [0, n0 ], on
pose
Cs1 ,t1 ,...,sp ,tp (a, b) = y = (yt )t∈R+∈ RR+ : |ys1 | < a; |yt1 | > b; . . . ; |ysp | < a; |ytp | > b .
Il est clair que Cs1 ,t1 ,...,sp ,tp (a, b) est un cylindre élémentaire de RR+ . Donc Cs1 ,t1 ,...,sp ,tp (a, b) ∈ B(R)⊗R+ .
On note Ip,n0 l’ensemble des (2p)-uplets s1 , t1 , . . . , sp , tp ∈ Q ∩ [0, n0 ] tels que s1 < t1 < . . . < sp < tp . Il est
clair que Ip,n0 est dénombrable. On remarque ensuite que
[
∀p, n0 ∈ N∗ ,
y = (yt )t∈R+∈ RR+ : UQ∩[0,n0 ] (y, [a, b]) ≥ p = Cs1 ,t1 ,...,sp ,tp (a, b) ,
(s1 ,t1 ,...,sp ,tp )∈Ip,n0
qui est donc dans B(R)⊗R+ . Cela implique que y ∈ RR+ 7→ UQ∩[0,n0 ] (y, [a, b]) est B(R)⊗R+ -mesurable. Par
conséquent,
\ [
y = (yt )t∈R+∈ RR+ : UQ∩[0,n0 ] (y, [a, b]) ≤ p ∈ B(R)⊗R+ .
B :=
n0 ∈N∗ p∈N
On remarque ensuite que A ∩ B est l’ensemble des fonctions y de R+ dans R qui satisfont la condition (b) du
théorème I.4.4; ce même théorème montre alors que Reg(R+ ) = A ∩ B, ce qui est le résultat voulu.
Corollaire I.4.6 Soit (Ω, F ), un espace mesurable. Soit Y = (Yt )t∈R+ : Ω → RR+ , un processus (F , B(R)⊗R+ )-
mesurable. Alors,
Y ∈ Reg(R+ ) ∈ F∞ o
(Y ) ⊂ F ,
où on rappelle que F∞
o (Y ) est la tribu engendrée par le processus Y .
Lemme I.4.7 Soit G ⊂ F , une tribu. On rappelle que G P et F P sont les tribus P-complétées associées à G
et F . Alors pour toutes v.a. Z1 , Z2 : Ω → R qui sont F P -mesurables bornées et pour toute tribu H telles
que
P-p.s. Z1 = Z2 et G ⊂ H ⊂ G P ,
on a P-p.s. E[Z1 | H ] = E[Z2 | G ].
Preuve: soit A ∈ H . Comme H ⊂ G P , le théorème A.2.4, page 209 implique l’existence de B ∈ G tel que
P-p.s. 1A = 1B et donc P-p.s. 1A Z1 = 1B Z2 . Donc
E[1A Z1 ] = E[1B Z2 ] = E 1B E[Z2 | G ] = E 1A E[Z2 | G ] .
car on a également P-p.s. 1B E[Z2 | G ] = 1A E[Z2 | G ]. Comme E[Z2 | G ] est H -mesurable puisque G ⊂ H ,
et que l’égalité précédente est valable pour tout A ∈ H , on en déduit le résultat voulu.
Définition I.4.8 (Martingales en temps continu) Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit M = (Mt )t∈R+ ,
un processus réel. C’est une martingale (resp. sur-martingale, sous-martingale) s’il satisfait les conditions
suivantes.
(a) M est (Gt )t∈R+ adapté, c’est-à-dire que pour tout t ∈ R+ , Mt est Gt -mesurable.
(b) Pour tout t ∈ R+ , E |Mt | < ∞.
Le processus M peut n’être que défini sur un sous-intervalle de R: la notion de (sur/sous-)martingale associée
est claire, sauf en ce qui concerne les extrémités de l’intervalle de définition.
Nous énonçons et prouvons un résultat dû à Doob qui montre que les sur-martingales sont p.s. des fonctions
régularisables (cela est utilisé dans le théorème de régularisation des processus de Feller). On adopte ici une
convention, relativement standard, qui consiste à annoter processus et filtrations "bruts" par le symbole o en
exposant, et à noter sans ce symbole les processus et filtrations régularisés.
Théorème I.4.9 (Régularisation des martingales de Doob) Soit (Gto )t∈R+ , une filtration sur (Ω, F ). Soit M o =
(Mto )t∈R+ , une sur-martingale relativement à (Gto )t∈R+ . On note Gt := σ(NP , Gt+ o ), t ∈ R , où N désigne
+ P
o o
l’ensemble des P-négligeables. On pose Ω := {M ∈ Reg(R+ )}. Alors,
Ωo ∈ F ∞
o
(Y ) et P(Ωo ) = 1 . (I.53)
Pour tout t ∈ R+ et tout ω ∈ Ω, on pose ensuite
Mt (ω) := lim Mqo (ω) si ω ∈ Ωo et Mt (ω) := 0 si ω ∈ Ω\Ωo .
q∈Q∩]t,∞[
q→t
(ii) Pour tout t ∈ R+ , M := (Mt )t∈R+ est une (Gt )t∈R+ -sur-martingale qui est càd dans L1 , c’est-à-dire
∀t ∈ R+ , lim E |Mt+h −Mt | = 0 .
h→0
h>0
(iii) M est une modification de M o (c’est-à-dire P(Mt = Mto ) = 1, t ∈ R+ ) si et seulement si M o est càd
dans L1 c’est-à-dire o
−Mto | = 0 .
∀t ∈ R+ , lim E |Mt+h
h→0
h>0
(v) Si M o est P-p.s. càd, alors c’est une une (Gt )t∈R+ -sur-martingale et M o est indistinguable de M .
Le processus M est appelé la sur-martingale régularisée associée à M o . L’énoncé reste vrai lorsque le mot
sur-martingale est remplacé par le mot martingale.
Preuve: on fixe n0 ∈ N∗ . L’ensemble des rationnels étant dénombrable dense dans R, il possible de trouver des
ensembles Dm := {0 = qm,0 < qm,1 < . . . < qm,m−1 < qm,m = n0 } ⊂ Q ∩ [0, n0 ], m ∈ N, tels que:
[
∀m ∈ N, Dm ⊂ Dm+1 et Dm = Q ∩ [0, n0 ].
m∈N
(Mqom,k )k∈[[0,m]] est une (Gqom,k )k∈[[0,m]] -sur-martingale à temps discret et à horizon fini, (I.54)
selon la définition B.6.1 (page 256). L’inégalité maximale pour les sur-martingales (théorème B.6.7, page 258)
implique que 1
∀k ∈ N∗ , P sup |Mqo | ≥ 3k ≤ k 4E |M0o | + 3E |Mno0 | .
q∈Dm
o o
S
S Dm ⊂ Dm+1 , on ao {supq∈Dm |Mq | ≥ 3k} ⊂ {sup
Comme
o
q∈Dm+1 |Mq | ≥ 3k}. Puisque m∈N Dm = Q∩[0, n0 ],
on a m∈N {supq∈Dm |Mq | ≥ 3k} = {supq∈Q∩[0,n0 ] |Mq | ≥ 3k}. Par conséquent,
1
sup |Mqo | ≥ 3k = lim P sup |Mqo | ≥ 3k ≤ 4E |M0o | + 3E |Mno0 | −−−−→ 0
P k
(I.55)
q∈Q∩[0,n0 ] m→∞ q∈Dm k→∞
On fixe ensuite a, b ∈ Q tels que a < b. L’inégalité de Doob (théorème B.6.4, page 257) appliquée à la
sur-martingale (I.54) implique que
On remarque ensuite que m 7→ UDm (M o , [a, b]) croît et que limm→∞ UDm (M o , [a, b]) = UQ∩[0,n0 ] (M o , [a, b]).
Le théorème de convergence monotone implique alors que
E |Mno0 | + |a|
o o
E UQ∩[0,n0 ] (M , [a, b]) = lim E UDm (M , [a, b]) ≤ <∞
m→∞ b−a
Comme cela est valable pour tous les rationnels a < b, on a déduit que
P-p.s. ∀a, b ∈ Q tels que a < b, UQ∩[0,n0 ] (M o , [a, b]) < ∞ . (I.57)
Le critère de régularisation déterministe donné au théorème I.4.4 (page 36) combiné au corollaire I.4.6 (page
37) et à (I.56) et (I.57) implique (I.53). Le théorème I.4.2, page 35, implique immédiatement (i).
Montrons (ii). On fixe t ∈ R+ et une suite qn ∈ Q∩]t, ∞[, n ∈ N, qui décroît vers t. On pose alors
Z := lim inf n→∞ Mqon qui est à valeurs dans [−∞, ∞]. Il est clair que Z est Gt+ o -mesurable. Or P-p.s. Z = M ,
t
donc Mt est σ(Gt , NP )-mesurable. Le lemme I.3.14, page 33, montre que Gt+ = σ(NP , Gt+ ). Donc M est
o P o
car Gt+
o =
n∈N Gqn .
o
T
En considérant (I.58) pour n = 0, comme q0 = s + t, on en déduit que
Gt+ ≤ Mt .
o o
∀s, t ∈ R+ , P-p.s. E Mt+s (I.59)
∞[, n ∈ N, une suite qui tend vers t + s; on a montré que limn E |Mron −Mt+s | = 0 et par
Soit rn ∈ Q∩ ]t + s,
(I.59) E[Mron |Gt+
o ≤ M . Or
t
E |E[Mron |Gt+o o
| ≤ E E |Mron −Mt+s | Gt+
o
= E |Mron −Mt+s | −−−→ 0 .
−E[Mt+s |Gt+
n→∞
On extrait de cette convergence L1 une convergence presque sûre et en passant à la limite dans les inégalités
E[Mron |Gt+ o ≤ M , on obtient
t
Enfin le lemme I.4.7 implique que P-p.s. E Mt+s Gt+ = E Mt+s Gt , et (I.60) implique que M est une
o
(I.58) implique que E[|Mto −Mt |] = 0 et donc M est une modification de M o . Réciproquement, si M est une
modification de M o , alors E[|Mt+h −Mt |] = E[|Mt+h o −M o |] et M o est càd dans L1 car M l’est, par (ii).
t
Montrons (iv): si M o est une (Gt )t∈R+ -sur-martingale, pour toute suite qn ∈ Q∩ ]t, ∞[ , n ∈ N, on a P-
p.s. E[Mqon |Gt ] ≤ Mto . Or (i) et le théorème B.6.15 des martingales rétrogrades implique que limn Mqon = Mt
I.4. RÉGULARISATION DES PROCESSUS. MARTINGALES À TEMPS CONTINU. 41
p.s. et dans L1 , ce qui implique, en passant à la limite dans les inégalités précédente que Mt = E[Mt |Gt ] ≤ Mto .
Or si s 7→ E[Mso ] est càd, alors la convergence des Mqon dans L1 vers Mt implique que E[Mt ] = E[Mto ] et
comme Mt ≤ Mto , on a P-p.s. Mt = Mto et M est une modification de M o . Réciproquement, comme M est
càd dans L1 , si M o est une modification de M , on E[Mt ] = E[Mto ] et t 7→ E[Mto ] est càd.
Montrons (v): si M o est P-p.s. càd, alors pour tout t ∈ R+ , P-p.s. Mt = Mto et M est une modication de
M . Comme M o et M sont càd, la proposition I.2.18, page 23, implique que M et M o sont indistiguables. Le
o
lemme I.4.7 implique que pour tous s, t ∈ R+ , E[Mt+s o |G o ] = E[M o |G ] et donc M o est une (G )
t t+s t t t∈R+ -sur-
martingale. Cela termine la preuve de (v) et celle du théorème.
42 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
Chapter II
Le Chapitre II présente les résultats fondamentaux sur les processus de Markov: loi du 0-1 de Blumenthal,
critère pour la propriété de Markov forte, continuité à droite des filtration naturelles complétés, quasi-continuité
à gauche, durée de vie, régularisation des processus de Feller-Dynkin, etc. Une présentation générale des
processus de Markov est donnée dans le premier chapitre de l’ouvrage de Blumenthal & Getoor [7]. Un exposé
plus élémentaire est donné dans le livre de Revuz & Yor [8] (Chapter III). Nous renvoyons également à la
présentation donnée dans le premier tome de Rogers & Williams [9] (Chapter III). Pour un traitement plus
complet le lecteur peut consulter l’ouvrage de Dynkin [5]. Pour une présentation de théories plus générales,
nous renvoyons le lecteur aux ouvrages de Dellacherie & Meyer, notamment [4].
Brève bibliographie.
B LUMENTHAL , R. M., AND G ETOOR , R. K. Markov processes and potential theory. Pure and Applied
Mathematics, Vol. 29. Academic Press, New York-London, 1968.
D ELLACHERIE , C., AND M EYER , P.-A. Probabilités et potentiel. Chapitres XII–XVI, second ed. Publi-
cations de l’Institut de Mathématiques de l’Université de Strasbourg, XIX. Hermann, Paris, 1987. Théorie du
potentiel associée à une résolvante. Théorie des processus de Markov. Actualités Scientifiques et Industrielles,
1417.
DYNKIN , E. B. Markov processes. Vols. I, II, vol. 122 of Translated with the authorization and assis-
tance of the author by J. Fabius, V. Greenberg, A. Maitra, G. Majone. Die Grundlehren der Mathematischen
Wissenschaften, Bände 121. Academic Press Inc., Publishers, New York; Springer-Verlag, Berlin-Göttingen-
Heidelberg, 1965.
R EVUZ , D., AND YOR , M. Continuous Martingales and Brownian Motion, third edition ed., vol. 293.
Springer, 1999.
ROGERS , L. C. G., AND W ILLIAMS , D. Diffusions, Markov processes, and martingales. Vol. 1. Cam-
bridge Mathematical Library. Cambridge University Press, Cambridge, 2000. Foundations, Reprint of the
second (1994) edition.
43
44 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.
Notations. En général, l’espace d’états est noté E. Il est toujours muni d’une tribu notée E . La plupart du
temps E est muni d’une topologie et on prend E = B(E), la tribu des Boréliens associée à cette topologie.
Pour de nombreuses applications, E est supposé métrisable séparable et très souvent localement compact à
base dénombrable (en abrégé: LCBD). On introduit les notations suivantes.
• On note Mf (E) l’espace des mesures µ : E → R+ de masse finie.
• On note M1 (E) l’espace des mesures de probabilité µ : E → [0, 1].
• On note L(E) l’espace des fonctions f : E → R qui sont E -mesurables.
• On note Lb (E) l’espace des fonctions f : E → R qui sont E -mesurables et bornées.
• On note L+ (E) l’espace des fonctions f : E → [0, ∞] qui sont E -mesurables.
Les définitions suivantes n’ont de sens que si E est muni d’une topologie.
• On note C(E) l’espace des fonctions f : E → R continues.
• On note Cb (E) l’espace des fonctions f : E → R continues bornées.
• On note Cc (E) l’espace des fonctions f : E → R continues à support compact.
• Si E est un LCBD, on note (E∂ , d) une compactification comme dans le théorème I.1.15. On note C0 (E)
l’ensemble des fonctions continues f : E → R telles que f (x) → 0 dès que d(x, ∂) → 0. Autrement dit,
C0 (E) est l’ensemble des fonctions continues f sur E se prolongeant continûment à E∂ par f (∂) = 0.
• Pour toute fonction f : E → R, on note kf k∞ = supx∈E |f (x)|, la norme infinie de f .
Théorème II.1.1 Soit E un espace polonais. Alors (Cb (E), k·k∞ ) est un espace de Banach. De plus, si E est
un espace LCBD, alors l’adhérence de Cc (E) pour k·k∞ est C0 (E), qui est un Banach séparable.
Noyaux Markoviens et semi-groupe associé. On rappelle la définition I.1.1 des noyaux de sous-probabilité.
Le lecteur est invité à parcourir la section (I.1.a) page 1 qui détaille quelques propriétés des noyaux.
Définition II.1.2 (Noyaux sous-Markoviens) Soit (E, E ) un espace mesurable. Pour tout t ∈ R+ et tout
x ∈ E, soit pt (x, dy), une mesure positive sur E . La famille de mesures (pt (x, dy))t∈R+ ,x∈E sont des noyaux
sous-markoviens si les propriétés suivantes sont vérifiées.
(a) Pour tout t ∈ R+ et tout x ∈ E, pt (x, ·) est une sous-probabilité, c’est-à-dire que pt (x, E) ≤ 1. Si les
pt (x, ·) sont conservatifs, c’est-à-dire si pt (x, E) = 1 pour tout t ∈ R+ et tout x ∈ E, alors on parle de
noyaux Markoviens.
est une application E -mesurable (on remarque qu’elle est nécessairement bornée).
Définition II.1.3 (Semi-groupe associé à des noyaux sous-Markoviens) Soit (E, E ), un espace mesurable.
Soient (pt (x, dy))t∈R+ ,x∈E , des noyaux sous-Markoviens. Pour tout t ∈ R+ , on définit Pt : Lb (E) → Lb (E)
en posant Z
∀f ∈ Lb (E), ∀x ∈ E, Pt f (x) = pt (x, dy) f (y) .
E
Il est clair que les Pt , t ∈ R+ , sont des applications linéaires. On appelle (Pt )t∈R+ le semi-groupe associé à
(pt (x, dy))t∈R+ ,x∈E , cette appellation étant justifiée par la proposition suivante.
Proposition II.1.4 Soit (E, E ) un espace mesurable. Soit (Pt )t∈R+ , le semi-groupe associé aux noyaux sous-
Markoviens (pt (x, dy))t∈R+ ,x∈E . Les propriétés suivantes sont vérifiées.
(i) Pour tout t ∈ R+ et pour toute fonction f ∈ Lb (E), kPt f k∞ ≤ kf k∞ . De plus
∀t ∈ R+ , ∀f ∈ Lb (E), 0 ≤ f ≤ 1 =⇒ 0 ≤ Pt f ≤ 1 .
(iv) Comme les noyaux sont normaux, P0 = Id, c’est-à-dire P0 f = f , pour toute f ∈ Lb (E).
Preuve: conséquence immédiate de la définition des noyaux sous-Markoviens.
Exemple II.1.5 Ici, E = Rn est muni de la topologie associée à la norme Euclidienne k·k dont le produit
scalaire est noté h·, ·i. On pose
1
∀x ∈ Rn , ∀t ∈ ]0, ∞[ , pt (x, dy) = (2πt)−n/2 exp − 2t ky−xk2 dy
et p0 (x, dy) := δx (dy). Il est clair que pt (x, ·) est la loi d’une variable Gaussienne de moyenne x et de
covariance tId. Par ailleurs, pour toute fonction f ∈ Lb (Rn ), on a
Z
1 2
Pt f (x) = (2πt) −n/2
f (y)e− 2t ky−xk dy .
Rn
Le théorème de continuité des intégrales à paramètre montre que Pt f est continue. Le théorème de convergence
dominée implique également que si f est intégrable sur Rd par rapport à la mesure de Lebesgue, Pt f ∈ C0 (Rn ).
On rappelle que la transformée de Fourier des v.a. Gaussiennes est connues explicitement (voir le lemme B.3.6,
page 245) et en particulier on a
Z
2
∀u ∈ Rn , eihu,yi pt (x, dy) = eihu,xi−tkuk .
Rn
On a donc
Z Z Z Z
ihu,zi −skuk2 ihu,yi −(t+s)kuk2
pt (x, dy) ps (y, dz)e =e pt (x, dy)e =e = pt+s (x, dy)eihu,yi ,
Rn Rn Rn Rn
ce qui implique que les pt (x, dy) satisfont l’équation de Kolmogorov-Chapman, par injectivité de la transfor-
mée de Fourier. Cela montre que les pt (x, dy) sont des noyaux Markoviens: ce sont les noyaux du mouvement
Brownien standard dans Rn .
46 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.
et p0 (x, dy) = δ0 (dy). On voit que pt (x, dy) est une loi de Cauchy centrée en x et de paramètre t. Par le
théorème de continuité des intégrales à paramètres, Pt f est continue, pour toute fonction f ∈ Lb (R). Un calcul
simple montre que Z
∀u ∈ R, eiuy pt (x, dy) = eiux−t|u| .
R
En raisonnant sur les transformées de Fourier comme dans l’exemple précédent, on montre que les pt (x, dy)
vérifient l’équation de Kolmogorov-Chapman, ce qui montre que les pt (x, dy) sont des noyaux Markoviens: ce
sont les noyaux du processus de Cauchy standard dans R.
x X xn y n−1 x+y
∀x ∈ R+ , ∀t ∈ ]0, ∞[ , pt (x, dy) = e− t δ0 (dy) + φ(x, y, t)dy où φ(x, y, t) := e− t .
t2n n!(n−1)!
n≥1
et p0 (x, dy) = δ0 (dy). On vérifie que la transformée de Laplace des pt (x, dy) est donnée par
Z λx
∀λ, x, t ∈ R+ , pt (x, dy)e−λy = exp − .
R+ 1 + λt
On voit que pt (x, dy) est une loi de probabilité et en utilisant l’injectivité de la transformée de Laplace, on
vérifie que les pt (x, dy) vérifient l’équation de Kolmogorov-Chapman. Par ailleurs, le théorème de continuité
des intégrales à paramètre montre que pour toute fonction f ∈ Lb (R), Pt f est continue donc mesurable. Cela
montre que les pt (x, dy) sont des noyaux Markoviens: ce sont les noyaux de la diffusion de Feller.
Exemple II.1.8 Ici, (E, E ) est un espace mesurable. On fixe µ ∈ M1 (E). on pose
On vérifie facilement que les pt (x, dy) sont des noyaux Markoviens (pathologiques).
Semi-groupes de Feller. Dans la suite, on fait des hypothèses restrictives sur les semi-groupes: essentielle-
ment, ce cours ne porte que sur les processus de Markov dont le semi-groupe est Fellérien dans le sens suivant.
Définition II.1.9 (Semi-groupe de Feller-Dynkin) Soit E, un espace LCBD. Pour tout t ∈ R+ , soit Pt :
C0 (E) → C0 (E), une application linéaire. C’est un semi-groupe de Feller-Dynkin si les conditions suivantes
sont satisfaites.
0≤f ≤1 =⇒ 0 ≤ Pt f ≤ 1 .
II.1. NOYAUX MARKOVIENS, SEMI-GROUPES ASSOCIÉS. 47
Définition II.1.10 (Semi-groupe de Feller) Soit E, un espace LCBD. Un semi-groupe de Feller est la donnée
d’applications linéaires Pt : Cb (E) → Cb (E), t ∈ R+ satisfaisant les conditions (a), (b) et (c) de la définition
II.1.10. Le semi-groupe (Pt )t∈R+ est dit fortement Fellérien si en plus t ∈ R+ , Pt : Lb (E) → Cb (E).
Les exemples II.1.5, II.1.6 et II.1.7 (semi-groupes Browniens, de Cauchy et celui de la diffusion de Feller) sont
fortement Fellériens et Feller-Dynkin. On vérifie tout d’abord qu’un semi-groupe de Feller-Dynkin ou de Feller
est associé à des noyaux sous-Markoviens.
Proposition II.1.11 Soit E, un espace LCBD. Soit (Pt )t∈R+ , un semi-groupe de Feller-Dynkin (ou de Feller).
Alors, (Pt )t∈R+ est le semi-groupe de noyaux sous-Markoviens (pt (x, dy))x∈E,t∈R+ .
Preuve: on montre d’abord
∀t ∈ R+ , ∀f ∈ C0 (E), f ≥ 0 =⇒ Pt f ≥ 0 . (II.2)
Pt |g| − kf k−1
∞ Pt f = Pt (|g| − g) ≥ 0 .
Donc Pt f ≤ kf k∞ Pt |g|. Or 0 ≤ |g| ≤ 1 et la propriété (b) de la définition II.1.10 implique que Pt |g| ≤ 1, et donc
que Pt f ≤ kf k∞ . On raisonne de même avec −f , ce qui implique que −Pt f ≤ kf k∞ , ce qui prouve (II.3).
Pour tout x ∈ E et t ∈ R+ , on observe que f ∈ Cc (E) 7→ Pt f (x) ∈ R est une forme linéaire positive.
R le théorème de Riesz, il existe une mesure de Radon pt (x, ·) : B(E) → [0, ∞] telle que Pt f (x) =
Par
E pt (x, dy) f (y), ce qui s’étend immédiatement à toute fonction f ∈ C0 (E).
Montrons ensuite les propriétés de mesurabilité en x des pt (x, dy). On note (E∂ , d) un compactifié de E.
Soit U , un ouvert de E; pour tout n ∈ N, on pose fn (x) = 1∧(nd(x, E∂ \U )). Comme x 7→ d(x, E∂ \U ) est
Lipschitzienne, fn est une fonction continue. Par ailleurs, fn (x) ≤ nd(x, ∂) et donc fn ∈ C0 (E); on vérifie
de plus que fn ≤ fn+1 R ≤ 1U et limn fn = 1U ponctuellement. Par convergence monotone, pour tout x ∈ E,
limn Pt fn (x) = limn E pt (x, dy)fn (y) = pt (x, U ). Comme les Pt fn sont B(E)-mesurables (car continues),
il en est de même pour x ∈ E 7→ pt (x, U ). En appliquant ce raisonnement avec U = E, on voit R également que
pt (x, E) ≤ 1. On fixe t ∈ R+ et on pose L l’ensemble des fonctions f ∈ Lb (E) telles que x 7→ E pt (x, dy)f (y)
est B(E)-mesurable. On montre facilement que L est un espace vectoriel. On note P la classe des ouverts
de E. Il est clair que P est un pi-système tel que σ(P) = B(E). On a montré ci-dessus que pour tout U ∈ P,
1U ∈ L . Enfin, le théorème de convergence monotone implique que L est stable par limite ponctuelle de
suites croissantes de fonctions dans L uniformément bornées. L satisfait donc les hypothèses du théorème
A.1.20 de la classe monotone dans sa version fonctionnelle (page 207) et donc L = Lb (E). Par ailleurs, le fait
48 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.
que P0 = Id implique facilement que les noyaux sont normaux. L’équation de semi-groupe entraîne enfin que
les noyaux pt (x, dy) satisfont l’équation de Kolmogorov-Chapman.
Comme déjà mentionné, les notions de semi-groupe de Feller-Dynkin et de Feller ne coïncident pas mais si
E est un espace compact, on a
La proposition suivante donne deux conditions permettant de montrer qu’un Feller est Feller-Dynkin.
Proposition II.1.12 On suppose E LCBD. Soit (Pt )t∈R+ un semi-groupe de Feller dont on note pt (x, dy),
x ∈ E, t ∈ R+ , les noyaux sous-Markoviens associés. Soit (E∂ , d) un compactifié habituel de E. Alors, les
assertions suivantes sont équivalentes.
(iii) Il existe f ∗ ∈ C0 (E) telle que f ∗ (x) > 0, pour tout x ∈ E et telle que pour tout t ∈ R+ , Pt f ∗ ∈ C0 (E).
Preuve: On suppose (i) et on pose f ∗ (x) := d(x, ∂), qui satisfait (iii). Ensuite, on suppose (iii) et on en déduit
(ii): soit K un compact de E; comme f ∗ est continue, il existe x0 ∈ K, tel que inf K f ∗ = f ∗ (x0 ) := a > 0; on
remarque alors que Pt f ∗ (x) ≥ Pt (f ∗ 1K )(x) ≥ apt (x, K), ce qui implique (ii).
On suppose (ii) et on montre (i). Soient f ∈ C0 (E), t ∈ R+ et ε > 0. Il existe η > 0 tel que kf 1B(∂,η) k∞ < ε,
où B(∂, η) désigne la boule ouverte centrée en ∂ et de rayon η. On pose ensuite Kη := E∂ \B(∂, η), qui est un
compact de E et on remarque que
|Pt f (x)| ≤ |Pt f 1Kη (x)| + |Pt (f 1B(∂,η) )(x)| ≤ kf k∞ pt (x, Kη ) + kf 1B(∂,η) k∞ ≤ kf k∞ pt (x, Kη ) + ε,
ce qui implique que lim supx→∂ |Pt f (x)| ≤ ε, et ce, pour tout ε > 0, ce qui implique que Pt f ∈ C0 (E).
Nous introduisons ci-dessous une hypothèse de régularité des semi-groupes qui n’est pas standard: c’est une
coquetterie technique, minimale pour certains raisonnements communs aux deux hypothèses Feller et Feller-
Dynkin; elle se présente de manière pratique. Il ne faut pas y accorder plus d’importance que cela (d’autant
qu’elle est toujours accompagnée d’une hypothèses de continuité à droite des processus dont les conséquences
sont importantes).
Définition II.1.13 (Hypothèse (H)) Soit E, un espace topologique muni de la tribu des Boréliens B(E). Soient
des noyaux sous-Markoviens (pt (x, dy))t∈R+ ,x∈E . Soit (Pt )t∈R+ , le semi-groupe associé. On dit qu’il satisfait
l’hypothèse (H) s’il existe:
(a) Pour tout A ∈ P, il existe une suite de fonctions fn ∈ L, n ∈ N, telles que 0 ≤ fn ≤ fn+1 et telle que
limn fn = 1A ponctuellement.
II.1. NOYAUX MARKOVIENS, SEMI-GROUPES ASSOCIÉS. 49
On observe que L n’est pas nécessairement laissé stable par le semi-groupe. L’hypothèse (a) assure que L
est suffisamment riche et permet d’appliquer des raisonnements de classe monotone. La proposition suivante
montre que les semi-groupes de Feller et de Feller-Dynkin satisfont (H).
Proposition II.1.14 Soit E, un espace topologique LCBD. Soit (Pt )t∈R+ , un semi-groupe de Feller-Dynkin
(resp. de Feller). Alors, les assertions suivantes sont vérifiées.
(ii) Pour tout x ∈ E et toute fonction f ∈ C0 (E) (resp. Cb (E)), t ∈ R+7→ Pt f (x) est continu à droite et borné
par kf k∞ .
Preuve: on choisit L := C0 (E) (resp. L := Cb (E)) qui vérifie (b) de la définition II.1.13. On note P le
pi-système constitué de E et des ensembles ouverts de E. On a bien σ(P) = B(E). Traitons le cas Feller-
Dynkin, le cas Feller nécessitant les mêmes arguments: on note (E∂ , d) un compactifié métrique habituel de E.
Soit U ∈ P; on pose fn (x) = 1∧(nd(x, E∂ \U )), n ∈ N, x ∈ E. On voit facilement que fn ∈ C0 (E) et que (a)
est vérifié: voir la preuve de la proposition II.1.11, page 47. Donc le semi-groupe satisfait (H).
Montrons (ii): la continuité faible des semi-groupes de Feller-Dynkin (resp. Feller) implique que pour toute
fonction f ∈ C0 (E) (resp. f ∈ Cb (E)) et tout t ∈ R+ ,
lim Pt+s f (x) = lim Ps (Pt f )(x) = Pt f (x) .
s→0 s→0
s>0 s>0
Cela montre que t 7→ Pt f (x) est continu à droite. De plus kPs f k∞ ≤ kf k∞ , ce qui montre (ii).
Des noyaux sous-Markoviens aux noyaux Markoviens. A partir de noyaux sous-Markoviens on obtient
des noyaux Markoviens par le procédé d’extension minimale suivant.
Définition II.1.15 (Extension minimale) Soit (E, E ), un espace mesurable. Soient (pt (x, dy))x∈E,t∈R+ , des
noyaux sous-Markoviens et (Pt )t∈R+ , leur semi-groupe associé. On choisit un point ∂ qui n’est pas dans E,
appelé point d’absorption et on pose E∂ := {∂} ∪ E que l’on munit de la tribu E∂ = {A, {∂} ∩ A ; A ∈ E }.
Notamment, si f ∈ Lb (E∂ ), alors la restriction de f à E notée f|E est dans Lb (E). L’extension minimale des
noyaux sous-Markoviens pt (x, dy) à E∂ est la famille de noyaux (p∂t (x, dy))x∈E∂ ,t∈R+ donnés par comme suit.
Lemme II.1.16 On garde les notations de la définition II.1.15. Alors, les noyaux p∂t (x, dy) sont Markoviens
(conservatifs) sur E∂ .
De plus, si E est LCBD, alors (Pt )t∈R+ est Feller-Dynkin si et seulement si son extension minimale
∂
(Pt )t∈R+ est Feller.
Preuve: (p∂t (x, dy); x ∈ E∂ , t ∈ R+ ) vérifie clairement les propriétés (a) et (b) de la définition II.1.3. Il faut
montrer les relations de Kolmogorov-Chapman, c’est-à-dire Ps+t ∂ = P ∂ P ∂ sur L (E ). Pour cela on observe
s t b ∂
que pour toute fonction f ∈ Lb (E∂ ) et tout x ∈ E,
Z
(Ps∂ Pt∂ f )(x) = ps (x, dy) Pt∂ f (y) + (1−ps (x, E)) Pt∂ f (∂)
ZE Z
= ps (x, dy) pt (y, dz) f (z) + (1−pt (y, E)) f (∂) + (1−ps (x, E)) f (∂)
ZE E
Z
= ps+t (x, dz) f (z) + f (∂) 1−ps (x, E) + ps (x, E)− ps (x, dy) pt (y, E)
E E
∂
= (Ps+t f|E )(x) + (1−ps+t (x, E)) f (∂) = Ps+t f (x).
On vérifie ensuite que Ps+t ∂ f (∂) = f (∂) = (P ∂ P ∂ f )(∂), ce qui montre que les p∂ (x, dy) sont des noyaux
s t t
Markoviens.
On suppose ensuite que E est LCBD et que (Pt )t∈R+ est Feller-Dynkin. Soit f ∈ C(E∂ ). On pose f 0 (x) :=
f (x)−f (∂). Il est clair que f 0 ∈ C0 (E) (avec un léger abus de notation). Comme les p∂t (x, dy) sont des noyaux
Markoviens conservatifs, on a Pt∂ 1E∂ = 1E∂ et donc Pt∂ f = Pt f 0 + f (∂)1E∂ . Cela montre que Pt∂ laisse
C(E∂ ) stable. De plus, pour tout x ∈ E, on a limt→0 Pt∂ f (x) = f (∂) + limt→0 Pt f 0 (x) = f (∂) + f 0 (x) = f (x)
et Pt∂ f (∂) = f (∂). Cela montre la continuité faible de (Pt∂ )t∈R+ , qui est donc Feller.
Supposons que (Pt∂ )t∈R+ soit de Feller. Soit f ∈ C0 (E), que l’on voit comme une fonction sur E∂ nulle
en 0. On a Pt∂ f = Pt f , qui est continue. Or par définition de l’extension minimale, Pt∂ f (∂) = f (∂) = 0, on
a bien Pt f ∈ C0 (E). Cela montre que les Pt laissent stables C0 (E): il vient immédiatement que (Pt )t∈R+ est
Feller-Dynkin.
On note Ct l’ensemble des cylindres élémentaires antérieurs à t. On remarque que Cs ⊂ Ct , pour tous s, t ∈ R+
tels que s ≤ t.
II.2. PROCESSUS DE MARKOV, PROPRIÉTÉ DE MARKOV SIMPLE. 51
• Filtration canonique: pour tout t ∈ R+ , on note Ftcan la tribu sur E R+ engendrée par le pi-système Ct . On
remarque que pour tous s ≤ t, Fscan ⊂ Ftcan . La filtration (Ftcan )t∈R+ sur E R+ est appelée filtration canonique.
On remarque que
−1
Ftcan = π[0,t] (E ⊗[0,t] ) .
où π[0,t] : E R+ → E [0,t] la projection canonique, c’est-à-dire la restriction à [0, t] des fonctions de R+ à [0, t].
On utilise parfois la notation
F∞ can
= σ(Ftcan ; t ∈ R+ ) = E ⊗R+ .
De plus, si on pose
Pt := X −1 (Ct ) = {X ∈ A} ; A ∈ Ct ,
Notations sur les noyaux. Nous renvoyons à la section I.1.a, page 1 du chapitre I.
• On rappelle la définition I.1.3 page 2 d’un produit de noyaux Markoviens: soit (E, E ), un espace mesurable;
soient p(x, dy) et q(x, dy) deux noyaux de sous-probabilité de E vers E et soit µ ∈ M1 (E). On rappelle que
pour toute fonction B ∈ E ⊗2 , (p ⊗ q)(x, dydz) est un noyau de E sur E 2 et (µ ⊗ p)(dx) est une mesure sur E 2
donnés par
Z Z Z Z
∀x ∈ E, ∀B ∈ E , p⊗q(x, B) = p(x, dy) q(y, dz)1B (y, z) et µ⊗p(B) = µ(dx) p(x, dy)1B (x, y).
2
E E E E
• On rappelle la définition définition I.1.6 page 3 de la composition de noyaux: en gardant les mêmes définitions
pour p, q et µ, la composition de p par q, qui est un noyau de E sur E noté pq(x, dy), et la mesure µp(dx) sur
E, sont donnés par
Z Z
∀x ∈ E, ∀B ∈ E , pq(x, B) = p(x, dy)q(y, B) et µp(B) = µ(dx) p(x, B).
E E
Définition II.2.1 (Markov 1) Soit (E, E ), un espace mesurable. Soit (pt (x, dy))x∈E,t∈R+ , des noyaux Markoviens.
Soit (Ω, F , P), un espace de probabilité. Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (F , E ⊗R+ )-
mesurable.
Alors, sous P, X est un processus Markovien de noyaux de transition pt (x, dy) et de loi d’entrée µ ∈ M1 (E)
si pour tout n ∈ N et pour tous 0 ≤ t0 ≤ . . . ≤ tn ,
On voit en particulier que la loi de Xt sous P est µpt et donc que la loi de X0 est µp0 . Comme les noyaux sont
normaux, on a µp0 = µ.
On garde les notations de la définition précédente et on note (Pt )t∈R+ , le semi-groupe associé aux noyaux
pt (x, dy). Soit n ≥ 2, un entier; soient s1 , . . . , sn ∈ R+ et soient f1 , . . . , fn ∈ Lb (E). On définit récursivement
les fonctions g1 , . . . , gn en posant
La proposition suivante donne une formulation équivalente de la définition II.2.1, page 52.
Proposition II.2.2 Soit (E, E ), un espace mesurable. Soit (pt (x, dy))x∈E,t∈R+ , des noyaux Markoviens. On
note (Pt )t∈R+ , leur semi-groupe associé. Soit (Ω, F , P), un espace de probabilité. Soit X = (Xt )t∈R+ : Ω →
E R+ , un processus (F , E ⊗R+ )-mesurable. On rappelle que (Fto (X))t∈R+ est la filtration naturelle de X. Soit
µ ∈ M1 (E). Alors, les assertions suivantes sont équivalentes.
(i) Sous P, X est Markovien de noyaux de transition pt (x, dy) et de loi d’entrée µ ∈ M1 (E).
Preuve: on montre d’abord que (i) ⇔ (ii). On suppose (i); si on choisit f (y0 , . . . , yn ) = f0 (y0 ) . . . fn (yn )
dans la définition II.2.1, on voit immédiatement que (i) implique (ii). Réciproquement, supposons (ii). On
note P la classe de sous-ensembles de E n+1 de la forme A0 ×. . .×An , où A0 , . . . , An ∈ E . Alors P est un pi-
système engendrant E ⊗n+1 . On voit ensuite que pour tout n ∈ N, tous 0 ≤ t0 ≤ . . . ≤ tn et tous A0 , . . . , An ∈ E ,
Z
µ(dx) (Pt0 1A0 Pt1 −t0 . . . 1An−1 Ptn −tn−1 1An )(x) = (µpt0 ⊗ pt1 −t0 ⊗ . . . ⊗ ptn −tn−1 ) (A0 ×. . .×An ) .
E
II.2. PROCESSUS DE MARKOV, PROPRIÉTÉ DE MARKOV SIMPLE. 53
En choisissant fk = 1Ak dans (ii), on voit que cela implique que pour tout C ∈ P, µtX0 ,...,tn (C) = (µpt0 ⊗
pt1 −t0 ⊗ . . . ⊗ ptn −tn−1 )(C), où µtX0 ,...,tn est la loi de (Xt0 , . . . , Xtn ) sous P. Le théorème A.1.11 d’unicité du
prolongement des mesures finies (page 205) s’applique et entraîne que µtX0 ,...,tn = µpt0 ⊗ pt1 −t0 ⊗ . . . ⊗ ptn −tn−1
et comme cela est vrai pour tout n ∈ N et tous 0 ≤ t0 ≤ . . . ≤ tn , on en déduit (i).
Montrons ensuite que (iii) implique (ii) (et donc (i)). On définit g1 , . . . , gn+1 ∈ Lb (E) récursivement en
posant
g1 = Ptn −tn−1 fn et ∀k ∈ {0, . . . , n}, gk+1 = Ptn−k −tn−k−1 (fn−k gk ) ,
avec la convention que t−1 = 0, si bien que gn+1 = Pt0 f0 Pt1 −t0 f1 . . . Ptn −tn−1 fn . On remarque tout d’abord
que (iii) appliqué à s = tn −tn−1 et t = tn−1 implique P-p.s. que
Y Y Y
fk (Xtk ) Fton−1 (X) = Ptn −tn−1 fn (Xtn−1 )
E fk (Xtk ) = (fn−1 g1 )(Xtn−1 ) fk (Xtk ) .
0≤k≤n 0≤k≤n−1 0≤k≤n−2
EnQ appliquant successivement (iii) aux temps s = tn−kQ −tn−k−1 et t = tn−k−1 , on démontre par récurrence que
E[ 0≤k≤n o
Q fk (Xtk )|Ftn−`−1 (X)] = (fn−` g` )(Xtn−` ) 0≤k≤n−`−1 fk (Xtk ). Pour k = n + 1, cela implique
que E[ 0≤k≤n fk (Xtk )|F0o (X)] = gn+1 (X0 ). En intégrant cette espérance conditionnelle, on obtient bien
(ii).
Montrons que (ii) implique (iii): soit C ∈ Ct , où Ct est la classe des cylindres élémentaires antérieurs à
t (voirles notations en début de section). Il existe n ∈ N, 0 ≤ t0 ≤ . . . ≤ tn ≤ t et A0 , . . . , An ∈ E tels que
C = x ∈ E R+ : xt0 ∈ A0 ; . . . ; xtn ∈ An . On applique (ii) à f0 = 1A0 , . . . , fn = 1An , fn+1 = 1E et
fn+2 = f , tn+1 = t et tn+2 = s + t, et on obtient
h Y i
E 1{X∈C} f (Xs+t ) = E fk (Xtk )
0≤k≤n+2
Z
= µ(dx) (Pt0 f0 Pt1 −t0 f1 Pt2 −t1 . . . fn+1 Ptn+2 −tn+1 fn+2 )(x)
ZE
= µ(dx) (Pt0 f0 Pt1 −t0 f1 Pt2 −t1 . . . 1E Ps f )(x)
E
h Y i
= E Ps f (Xt ) fk (Xtk ) = E 1{X∈C} Ps f (Xt ) .
0≤k≤n
Comme {X ∈ C} ; C ∈ Ct est un pi-système engendrant Fto (X) (voir le début de la section), et puisque
Ps f (Xt ) est Fto (X)-mesurable, cela implique (iii), ce qui termine la preuve.
L’équivalence (i) ⇔ (iii) dans la proposition qui précède suggère une définition plus générale des proces-
sus Markoviens.
Définition II.2.3 (Markov 2) Soit (E, E ), un espace mesurable. Soit (pt (x, dy))x∈E,t∈R+ , des noyaux Markoviens.
On note (Pt )t∈R+ , leur semi-groupe associé. Soit (Ω, F , P), un espace de probabilité. Soit X = (Xt )t∈R+ :
Ω → E R+ , un processus (F , E ⊗R+ )-mesurable. Soit (Gt )t∈R+ , une filtration sur (Ω, F ).
Alors, sous P, X est un processus Markovien relativement à la filtration (Gt )t∈R+ , de noyaux de transition
pt (x, dy) et de loi d’entrée µ ∈ M1 (E) si les conditions suivantes sont vérifiées.
(a) Pour tout t ∈ R+ , Xt est Gt -mesurable. Autrement dit, X est (Gt )t∈R+ -adapté.
54 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.
E f (Xt+s ) Gt = Ps f (Xt ) .
P-p.s.
La proposition II.2.2 montre qu’un processus de Markov selon la définition II.2.1 Markov 1 est un processus
de Markov selon la définition II.2.3 Markov 2 relativement à la filtration naturelle du processus. Par ailleurs, il
est clair qu’un processus selon la définition II.2.3 Markov 2 est un processus de Markov selon la définition II.2.1
Markov 1. La définition II.2.3 Markov 2 présente l’avantage de définir le caractère Markovien par rapport à une
filtration plus large que la filtration naturelle du processus, ce qui a son importance dans la suite. Néanmoins,
cette définition reste en partie insuffisante: elle est est enrichie plus loin.
Théorème II.2.4 Soit (E, E ), un espace mesurable supposé régulier. Soient (pt (x, dy))x∈E,t∈R+ , des noyaux
Markoviens. Soit (Pt )t∈R+ , le semi-groupe associé. Alors, pour toute mesure ν ∈ M1 (E), il existe une mesure
de probabilité Pν : E ⊗R+ → [0, 1] telle que le processus canonique X can sous Pν soit un processus Markovien
relativement à la filtration canonique (Ftcan )t∈R+ , de noyaux pt (x, dy) et de loi d’entrée ν.
Preuve: on fixe ν ∈ M1 (E). Pour tout n ∈ N et tous 0 ≤ t0 ≤ . . . ≤ tn on pose µt0 ,...,tn = ν pt0 ⊗pt1 −t0 ⊗. . .⊗
ptn −tn−1 . Soit k ∈ {0, . . . , n}. En appliquant le lemme I.1.8 (page 5), il est facile de vérifier que
car ptk −tk−1 ptk+1 −tk = ptk+1 −tk−1 par l’équation de Kolmogorov-Chapman. Cela montre que les lois µt0 ,...,tn ,
n ∈ N, 0 ≤ t0 ≤ . . . ≤ tn sont compatibles. Le théorème I.2.14 d’extension de Kolmogorov (page 20) entraîne
l’existence de Pν telle que pour tout n ∈ N, pour tous 0 ≤ t0 ≤ . . . ,≤ tn , et tout B ∈ E ⊗n+1 ,
Opérateurs de décalage sur l’espace canonique. Un des buts du chapitre est d’établir la propriété de Markov
qui affirme que le processus décalé dans le temps Xt0 +· est également Markovien avec les mêmes noyaux
Markoviens que X. Pour cela, nous considérons brièvement l’opération de décalage dans le temps des proces-
sus.
Définition II.2.5 (Décalages sur l’espace canonique) Soit (E, E ), un espace mesurable. Pour tout t0 ∈ R+ , on
définit θtcan
0
: E R+ → E R+ en posant
On appelle θtcan
0
l’opérateur de décalage au temps t0 . On vérifie facilement que θtcan
0 +t1
= θtcan
0
◦ θtcan
1
, pour tous
t0 , t1 ∈ R+ .
ce qui entraîne le résultat voulu les cylindres élémentaires de Fscan engendrent Fscan . Le point (ii) se montre
de la même manière.
On introduit le processus de Markov canonique de la manière suivante.
Définition II.2.7 Soit (E, E ), un espace régulier. Soient (pt (x, dy))x∈E,t∈R+ , des noyaux Markoviens conser-
vatifs. On note (Pt )t∈R+ , leur semi-groupe associé. On note Pµ , µ ∈ M1 (E) les lois introduites au théorème
II.2.4. Alors, les objets
Ωcan:= E R+ ; F can:= E ⊗R+ ; (Ftcan )t∈R+ ; (Xtcan )t∈R+ ; (θtcan )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E)
forment ce que l’on appelle le processus de Markov canonique associé au semi-groupe (Pt )t∈R+ .
Définition II.2.8 (Processus Markoviens) Soit (E, E ), un espace mesurable. Un processus de Markov est la
donnée des objets suivants
(a) (Ω, F ) est un espace mesurable et (Gt )t∈R+ est une filtration sur (Ω, F ).
(c) (Pt )t∈R+ est le semi-groupe associé à des noyaux Markoviens (pt (x, dy))x∈E,t∈R+ .
(d) Pour toute mesure µ ∈ M1 (E), Pµ est une mesure de probabilité sur (Ω, F ) telle que X0 sous Pµ a pour
loi µ et telle que pour tous s, t ∈ R+ et toute fonction f ∈ Lb (E),
• Convention. Si aucune filtration n’est mentionnée, il est sous-entendu que Gt = Fto (X) = σ(Xs ; s ∈ [0, t]), la
filtration naturelle de X. On rappelle au passage que F∞ o (X) = σ(F o (X); t ∈ R ) = σ(X ; t ∈ R ) est la tribu
t + t +
engendrée par X.
• Notations. Pour tout x ∈ E, on adopte la notation Px := Pδx . De même on note Ex := Eδx l’espérance
associée. Donc Px (X0 = x) = 1.
• Opérateurs de décalage. Cette structure n’est pas essentielle mais elle simplifie certains énoncés sur les
processus de Markov.
(e) Pour tout t ∈ R+ , il existe θt : Ω → Ω tel que
∀s, t ∈ R+ , ∀ω ∈ Ω, Xs (θt (ω)) = Xs+t (ω) .
Les θt sont appelés opérateurs de décalage. Notons qu’ici, aucune hypothèse de mesurabilité n’est faite
sur ces opérateurs. Lorsque que le processus de Markov est muni d’opérateurs de décalage, on le signale
en l’ajoutant dans (II.6).
Le lemme suivant considère les propriétés de mesurabilité des opérateurs de décalage.
Lemme II.2.9 On considère un processus de Markov avec les notations de la définition II.2.8.
(i) Soit Z : Ω → R, une v.a. F∞o (X)-mesurable et bornée. Alors, il existe une fonctionnelle F : E R+ → R
qui est E ⊗R
+ -mesurable bornée telle que pour tout ω ∈ Ω, Z(ω) = F (Xs (ω))s∈R+ et
∀t ∈ R+ , Z ◦θt = F (θtcan X) = F ((Xt+s )s∈R+ ) , partout sur Ω. (II.7)
Cela implique que pour tout t ∈ R+ , Z ◦ θt est F∞
o (X)-mesurable. D’autre part, cela implique que
(ii) Soit s ∈ R+ . Soit Z : Ω → R, une v.a. Fso (X)-mesurable bornée. Alors, il existe une fonctionnelle
F : E R+ → R qui est Fscan -mesurable telle que (II.7) ait lieu. Cela implique que Z ◦θt est Fs+t o (X)-
Z ◦θt = 1{Xt0 +t ∈A0 ;...;Xtn +t ∈An } = 1C (θtcan X) = 1(θtcan )−1 (C) (X)
est Fs+t
o (X)-mesurable. Soit H, l’ensemble des v.a. Z : Ω → R qui sont F o (X)-mesurables bornées telles
s
qu’il existe F : E R+ → R, Fscan -mesurable bornée satisfaisant le fait que pour tout t ∈ R+ , Z◦θt soit Fs+to (X)-
can
mesurable bornée et vaille F (θt X) partout sur Ω. On vérifie que H est un espace vectoriel. On vient de
montrer que 1A ∈ H, pour tout A ∈ Ps . Il est facile de vérifier que H satisfait les propriété sur théorème
A.1.20 de la classe monotone fonctionnelle (page 207). On en déduit donc que H est l’ensemble de toutes les
v.a. Fso (X)-mesurables bornées, ce qui montre (ii).
Le point (i) se montre de manière similaire. Pour montrer (II.8), on rappelle que θ0can est l’identité sur E R+
et on remarque que Z ◦θ0 = F (θ0can X) = F (X) = Z.
II.2. PROCESSUS DE MARKOV, PROPRIÉTÉ DE MARKOV SIMPLE. 57
Lemme II.2.10 On considère un processus de Markov avec les notations de la définition II.2.8. Soit Z : Ω → R,
une v.a. F∞
o (X)-mesurable bornée. Alors, x ∈ E 7−→ E [Z] ∈ R est B(E)-mesurable bornée.
x
Preuve: on montre d’abord le lemme pour Z = 1C (X) où C ∈ C est un cylindre élémentaire de l’espace
canonique; rappelons qu’il existe n ∈ N, 0 ≤ t0 < . . . < tn et A0 , . . . , An ∈ E tels que C = {x ∈ E R+ : xt0 ∈
A0 ; . . . ; xtn ∈ An }. On a donc
Or x 7→ (pt0 ⊗pt1 −t0 ⊗. . .⊗ptn −tn−1 )(x, C) est mesurable car pt0 ⊗pt1 −t0 ⊗. . .⊗ptn −tn−1 est un noyau de E
sur E n+1 .
On note ensuite H l’ensemble des fonctionnelles F : E R+ → R qui sont E ⊗R+ -mesurables bornées telles
que x ∈ E 7−→ Ex [F (X)] ∈ R est E -mesurable bornée. On a montré que 1C ∈ H, pour tout C ∈ C . Il est
facile de montrer que H satisfait les hypothèses du théorème A.1.20 de la classe monotone dans sa version
fonctionnelle (page A.1.20), qui implique que H est exactement l’espace des fonctionnelles E ⊗R+ -mesurables
bornées. Cela permet de conclure car pour toute v.a. Z : Ω → R qui est F∞ o (X)-mesurable bornée, le lemme
II.2.9 (i) implique qu’il existe F : E R+ → R qui est E ⊗R+ -mesurable bornée telle que Z = F (X).
Nous obtenons ensuite première version de la propriété de Markov.
Théorème II.2.11 (Propriété de Markov faible) Soit (E, E ), un espace mesurable. Soit
un processus de Markov. Alors, pour tout t ∈ R+ , pour toute mesure µ ∈ M1 (E) et pour toute fonctionnelle
F : E R+ → R qui est E ⊗R+ -mesurable bornée, on a
Preuve: il est clair que si le processus de Markov est muni d’opérateurs de décalage, le lemma II.2.9 (ii)
montre que (II.9) est équivalente à (II.10). Il suffit donc de montrer (II.9). On commence par considérer des
fonctionnelles de la forme F (X) := f0 (Xt0 ) . . . fn (Xtn ), où 0 ≤ t0 < . . . < tn et f0 , . . . , fn ∈ Lb (E). Pour cela
on définit φ0 , . . . φn ∈ Lb (E) récursivement par
Ici on a utilisé le point (d) la définition II.2.8 des processus Markoviens. En raisonnant de même, on montre
récursivement que Pµ -p.s.
Y
Eµ F (Xt+ · ) Gt+tk = φk (Xt+tk )
fk (Xt+t` )
0≤`≤k−1
et finalement Eµ F (Xt+ · ) Gt = Pt0 φ0 (Xt ). Or pour tout x ∈ E, la proposition II.2.2 implique que
Proposition II.2.12 On considère un processus de Markov avec les notations de la définition II.2.8. Alors,
pour toute µ ∈ M1 (E) et toute v.a. Z : Ω → R qui est F∞
o (X)-mesurable bornée, on a
Z
Eµ [Z] = µ(dx) Ex [Z] . (II.11)
E
Preuve: par (II.8) au lemme II.2.9, page 56, Z ◦ θ0 = Z La propriété de Markov faible (II.10) au temps 0
implique alors que
Définition II.3.1 (Processus de Markov forts) Soit (E, E ), un espace mesurable. Soit
un processus de Markov au sens de la définition II.2.8. C’est un processus de Markov fort s’il satisfait les
conditions suivantes.
(b) Convention pour les temps infinis. Soit ∂ ∈ E, qui, sauf mention explicite du contraire ne joue qu’un rôle
arbitraire. Soit X∞ la v.a. constante à ∂: X∞ (ω) = ∂, ω ∈ Ω. Pour tout temps aléatoire T : Ω → [0, ∞],
XT : Ω → E est alors bien défini par
Si le processus de Markov est muni d’opérateurs de décalage (θt )t∈R+ , on suppose également l’existence
de θ∞ : Ω → Ω tel que
∀ω ∈ Ω, ∀t ∈ [0, ∞], Xt (θ∞ (ω)) = X∞ (ω) . (II.13)
(c) Pour tout (Gt )t∈R+ -temps d’arrêt T , pour toute fonction f ∈ Lb (E), pour toute mesure µ ∈ M1 (E) et
tout s ∈ R+ ,
Pµ -p.s. Eµ 1{T <∞} f (Xs+T ) GT = 1{T <∞} Ps f (XT ) .
(II.14)
ce qui étend la définition II.2.8 des processus de Markov.
Remarque II.3.2 On rappelle que T et s + T sont des (Gt )t∈R+ -temps d’arrêt (lemme I.3.2 (iv), page 25)
et donc XT et Xs+T sont resp. GT et Gs+T -mesurables, par le lemme I.3.3, page 26, puisque X est supposé
progressivement mesurable. On rappelle aussi que {T < ∞} ∈ GT .
Théorème II.3.3 (Propriété de Markov forte) Soit (E, E ), un espace mesurable. Soit
un processus de Markov fort. Soit ∂ ∈ E; on adopte les conventions (b) de la définition II.3.1. Soit F : E R+ → R,
une fonctionnelle E ⊗R+ -mesurable bornée. Soit T , un (Gt )t∈R+ -temps d’arrêt. Les assertions suivantes sont
vérifiées.
Lorsque le processus de Markov est muni d’opérateurs de décalage, la propriété de Markov forte se reformule
comme suit: soit Z : Ω → R, une v.a. F∞ o (X)-mesurable bornée; alors Z ◦ θ est une v.a. G -mesurable
T ∞
bornée et pour toute mesure µ ∈ M1 (E),
Preuve: on observe que (II.16) est strictement équivalente à (II.15), modulo l’existence d’opérateurs de dé-
calage. Il suffit donc de démontrer (II.15) et on commence par le faire pour une fonctionnelle de la forme
F (X) = f0 (Xt0 ) . . . fn (Xtn ) où 0 ≤ t0 < . . . < tn et f0 , . . . , fn ∈ Lb (E). On vérifie d’abord que
F (XT +t )t∈R+ = f0 (Xt0 +T ) . . . fn (Xtn +T )
qui est G∞ -mesurable car les v.a. Xtk +T sont (G∞ , B(E))-mesurables. En effet, tk + T est un (Gt )t∈R+ -temps
d’arrêt, X est progressivement mesurable relativement à (Gt )t∈R+ , par hypothèse et par le lemme I.3.3 qui
s’applique. On définit ensuite φ0 , . . . , φn ∈ Lb (E) récursivement par
On vérifie tout d’abord que Pµ -p.s. {T < ∞} = {tn−1 + T < ∞} ∈ Gtn−1 +T . Comme Gtk +T ⊂ Gtn−1 +T pour
tout k ∈ {0, . . . , n−1}, on a
Y
Eµ 1{T <∞} F XT + · GT +tn−1 = 1{T <∞} Eµ fn (XT +tn )GT +tn−1
fk (XT +tk )
0≤k≤n−1
Y
= 1{T <∞} fn−1 (XT +tn−1 )Ptn −tn−1 fn (XT +tn−1 ) fk (XT +tk )
0≤k≤n−2
Y
= 1{T <∞} φn−1 (XT +tn−1 ) fk (XT +tk ) .
0≤k≤n−2
Ici on a utilisé le point (c) la définition II.3.1. En raisonnant de même, on montre récursivement que Pµ -p.s.
Y
Eµ 1{T <∞} F XT + · GT +tk = 1{T <∞} φk (XT +tk )
fk (XT +t` )
0≤`≤k−1
et finalement Eµ 1{T <∞} F XT + · GT = Pt0 φ0 (XT ). Or pour tout x ∈ E, la proposition II.2.2 implique
que
Pt0 φ0 (x) = Pt0 f0 Pt1 −t0 f1 . . . Ptn −tn−1 fn (x) = Ex [F (X)] ,
ce qui entraîne bien (II.15) pour F (X) = f0 (Xt0 ) . . . fn (Xtn ).
On passe au cas général par un raisonnement de classe monotone. On rappelle que C désigne l’ensemble
des cylindre élémentaires de E R+ . En choisissant fk = 1Ak , où Ak ∈ E , 0 ≤ k ≤ n, on a montré que (i) et (ii)
sont vérifiées pour toute fonctionnelle de la forme 1B , avec B ∈ C . On note H l’ensemble des fonctionnelles
F : E R+ → R E ⊗R+ -mesurables bornées et qui satisfont (i) et (ii). On a montré que 1B ∈ H, pour tout B ∈ C .
On vérifie facilement que H satisfait les hypothèses du théorème A.1.20 de la classe monotone fonctionnelle
qui entraîne alors le résultat voulu.
Théorème II.3.4 (Critère Markov fort) Soit E, un espace topologique métrisable séparable. Soit
(b) Son semi-groupe satisfait l’hypothèse (H) (voir la définition II.1.13, page 48).
Alors, le processus est fortement Markovien par rapport à la filtration continue à droite (Gt+ )t∈R+ .
II.4. PROPRIÉTÉS DE MARKOV RELATIVEMENT AUX FILTRATIONS AUGMENTÉES. 61
Preuve: comme X est càd et (Gt )t∈R+ , il est progressivement mesurable par rapport à (Gt )t∈R+ et donc
également par rapport à (Gt+ )t∈R+ , par le lemme I.2.22, page 24. Il suffit de montrer que pour toute mesure
µ ∈ M1 (E) et pour tout (Gt+ )t∈R+ -temps d’arrêt T on a:
On se donne L et P comme dans la définition II.1.13 de l’hypothèse (H) et on commence par montrer (II.17)
pour f ∈ L. Pour cela, on pose Tn := 2−n d2n T e, pour tout n ∈ N. On remarque que T = ∞ ssi Tn = ∞ et que
Tn ↓ T partout sur Ω. Soit A ∈ GT + . On pose
Puisque Ps f est continue bornée, la continuité à droite de X entraîne par convergence dominée que
Eµ [1A∩{T <∞} f (Xs+T )] = lim un (f ) = Eµ 1A∩{T <∞} Ps f (XT ) . (II.18)
n→∞
On étend (II.18) à toutes les fonctions de Lb (E) par un raisonnement de classe monotone: on note H
l’ensemble des fonctions de Lb (E) satisfaisant (II.18). En utilisant l’hypothèse (b) et la convergence monotone,
on montre facilement que H contient les fonctions de la forme 1A , A ∈ P. On vérifie également que H satisfait
les autres hypothèses du théorème A.1.20 de la classe monotone fonctionnelle, ce qui entraîne que H = Lb (E)
et donc (II.17).
et on note E µ := σ(E , Nµ ), la tribu µ-complétée. On rappelle ici la définition de la tribu des universellement
mesurables associée à E : \
E uni = Eµ .
µ∈M1 (E)
On a clairement E ⊂ E uni ⊂ E µ , pour toute mesure µ ∈ M1 (E). Dans le cadre des processus de Markov, la
définition suivante précise le terme de "complétion des filtrations" .
Définition II.4.1 (Augmentation des filtrations, hypothèses habituelles) Soit E, un espace mesurable. Soit
un processus de Markov. Dans la suite, le symbole "o" est employé pour signaler le caractère "brut" de la
filtration. On rappelle que Fto (X) = σ(Xs ; s ∈ [0, t]) désigne la filtration naturelle de X.
(a) Pour toute µ ∈ M1 (E), on note NPµ les Pµ -négligeables de (Ω, F ). Pour simplifier les notations, on
pose F µ := (F o )Pµ = σ(NPµ , F o ),
Gtµ := (Gto )Pµ = σ(NPµ , Gto ) et Ftµ (X) := (Fto (X))Pµ = σ(NPµ , Fto (X)) .
(c) Dans le contexte des processus de Markov, la filtration (Gto )t∈R+ satisfait les hypothèses habituelles si
Gto = Gt = Gt+ , pour tout t ∈ R+ , où (Gt )t∈R+ est l’augmentation de (Gto )t∈R+ définie au (b).
Remarque II.4.2 On reprend les notations de la définition II.4.1 qui précède. Le lemme I.3.14 (i), page 33,
implique que
µ
\ \
Gt+ = σ(NPµ , Gt+o
) et Ft+ (X) = σ(NPµ , Ft+ (X)) . (II.21)
µ∈M1 (E) µ∈M1 (E)
On voit de plus que (Gt+ )t∈R+ et (Ft+ (X))t∈R+ satisfont toujours les hypothèses habituelles.
Lemme II.4.3 Soit X, un (Gto )R+ -processus de Markov avec les notations de (II.19) de la définition II.4.1: F ,
(Gt )t∈R+ et (Ft (X))t∈R+ sont les augmentations habituelles de resp. F o , (Gto )t∈R+ et (Fto (X))t∈R+ définies
par (II.20). Alors,
Ω; F ; (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,
est également un processus de Markov. L’existence d’opérateurs de décalage ne pose aucun problème dans
cette extension.
II.4. PROPRIÉTÉS DE MARKOV RELATIVEMENT AUX FILTRATIONS AUGMENTÉES. 63
Preuve: comme Gto ⊂ Gt , X est (Gt )t∈R+ -adapté. La preuve est une simple conséquence du le lemme I.4.7,
page 38: soient µ ∈ M1 (E), f ∈ Lb (E) et s, t ∈ R+ ; comme Gto ⊂ Gt ⊂ Gtµ , on a
Markov n’est pas un détail: elle a des conséquences importantes telles que loi du 0-1 de Blumenthal. On note
que dans l’énoncé ci-dessous, les opérateurs de décalage jouent un rôle très pratique.
Théorème II.4.4 (Propriété de Markov simple pour les fonctionnelles augmentées) Soit E, un espace mesurable. Soit
un processus de Markov muni d’opérateurs de décalage. Soient F , (Gt )t∈R+ et (Ft (X))t∈R+ , les augmenta-
tions de resp. F o , (Gto )t∈R+ et (Fto (X))t∈R+ . Alors, les assertions suivantes sont vérifiées.
(i) Pour toute v.a. Z : Ω → R qui est F∞ (X)-mesurable bornée, l’application x ∈ E 7−→ Ex [Z] ∈ R est
E uni -mesurable, où E uni est la tribu des universellement mesurables associée à E .
(ii) Pour tous s, t ∈ R+ , θt−1 Fs (X) ⊂ Fs+t (X) et θt est (F∞ (X), F∞ (X))-mesurable.
Preuve: on fixe µ ∈ M1 (E). On montre d’abord (i) et (iv) Soit Z : Ω → R, une v.a. F∞ (X)-mesurable
µ
bornée. Soit µ ∈ M1 (E). Comme F∞ (X) ⊂ F∞ (X), le théorème A.2.4 (page 209) montre qu’il existe
Z1 , Z2 : Ω → R, deux v.a. F∞ (X)-mesurables bornées telle que Z1 ≤ Z ≤ Z2 partout sur Ω et telles que
o
Montrons (ii) et (iii) en même temps. On fixe t ∈ R+ et s ∈ [0, ∞]. Soit Z : Ω → R, une v.a. Fs (X)-
mesurable bornée. On note ν := µpt , qui est la loi de Xt sous Pµ . Comme Fs (X) ⊂ Fsν (X), le théorème A.2.4
(page 209) montre qu’il existe Y1 , Y2 : Ω → R, deux variables Fso (X)-mesurables bornées telles que Y1 ≤ Z ≤
EXt [Y2 ]−EXt [Y1 ] = EXt [Y2 −Y1 ] ≥ 0. Par
Y2 partout sur Ω et telles que Eν [Y1 ] = Eν [Y2 ] = Eν [Z]. Or Pµ -p.s.
définition de ν et par (II.11) au lemme II.2.12, page 58, on a Eµ EXt [Y2 ]−EXt [Y1 ] = Eν [Y2 ] − Eν [Y1 ] = 0.
Comme EXt [Y1 ] ≤ EXt [Z] ≤ EXt [Y2 ], on obtient
Pour i ∈ {1, 2}, le lemme I.4.7, page 38 et la première version de la propriété de Markov faible du théorème
II.2.11, page 57, impliquent alors que Yi ◦θt est Fs+t
o (X)-mesurable et que
Donc Eµ [Y1 ◦θt ] = Eµ [Y2 ◦θt ]. Or Y1 ◦θt ≤ Z ◦θt ≤ Y2 ◦θt . Par conséquent, Pµ -p.s. Z ◦θt = Y2 ◦θt = Y1 ◦θt et
µ
Z ◦θt est Fs+t (X)-mesurable. Comme cela est vrai pour toute mesure µ ∈ M1 (E), cela prouve que Z ◦θt est
Fs+t (X)-mesurable, ce qui prouve (ii). Pour montrer (iii), on garde les même notations et on choisit s = ∞;
(II.24) entraîne alors que Pµ -p.s.
Théorème II.4.5 (Loi du 0-1 de Blumenthal) Soit (E, E ), un espace mesurable régulier. Soit
∀x ∈ E, ∀B ∈ F0 (X), Px (B) = 0 ou 1.
Preuve: donnons une preuve lorsque le processus est muni d’opérateur de décalage (θt )t∈R+ : soient x ∈ E
et B ∈ F0 (X). Par (II.22) au théorème II.4.4, page 63 implique que Px -p.s. 1B = 1B ◦ θ0 . La propriété de
Markov simple étendue aux fonctionnelles augmentées (théorème II.4.4 (iii), page 63), implique alors que Px -
p.s. 1B = Ex [1B |G0 ] = Ex [1B◦θ0 |G0 ] = EX0 [1B ] = Px (B) car Px -p.s. X0 = x. On a donc Px -p.s. Px (B) = 1B ,
ce qui implique le théorème.
Nous donnons une seconde preuve, se passant des opérateurs de décalage. On commence par traiter le cas
d’ensembles A ∈ F0o (X) = σ(X0 ): il existe donc f : E → {0, 1}, B(E)-mesurable telle que 1A = f (X0 ) par
tout sur Ω; et alors Px -p.s. 1A = f (x), ce qui implique que Px (A) = f (x) ∈ {0, 1}. Soit B ∈ F0 (X); comme
l’ensemble B est dans la tribu Px -complétée F0o (X), le théorème A.2.4 (page 209) implique l’existence de
B1 , B2 ∈ F0o (X) tels que B1 ⊂ B ⊂ B2 et Px (B1 ) = Px (B) = Px (B2 ). Or pour i ∈ {1, 2}, on a montré que
Px (Bi ) ∈ {0, 1}, ce qui permet de conclure.
Une application non-triviale de cette loi du 0-1 est donnée plus loin. On montre tout d’abord un résultat
montrant la continuité à droite des filtrations naturelles augmentées – modulo une hypothèse essentielle.
II.4. PROPRIÉTÉS DE MARKOV RELATIVEMENT AUX FILTRATIONS AUGMENTÉES. 65
Théorème II.4.6 (Régularité à droite des filtrations naturelles augmentées) Soit E, un espace mesurable. Soit
un processus de Markov. Soit (Ft (X))t∈R+ , l’augmentation de (Fto (X))t∈R+ . On suppose que X est
o (X))
Markovien relativement à (Ft+ t∈R+ . Alors,
µ
∀µ ∈ M1 (E), ∀t ∈ R+ , Ft+ (X) = Ftµ (X) ,
et donc Ft+ (X) = Ft (X), c’est-à-dire que (Ft (X))t∈R+ satisfait les conditions habituelles.
Preuve: soient µ ∈ M1 (E) et Z : Ω → R, F∞
o (X)-mesurable bornée. On montre d’abord que
o
Pµ -p.s. Eµ [Z|Ft+ (X)] = Eµ [Z|Fto (X)] . (II.25)
Preuve de (II.25): on considère d’abord des fonctionnelles de la forme Z = F (X) = f0 (Xt0 ) . . . fn (Xtn ), où
0 ≤ t0 < . . . < tn et f0 , . . . , fn ∈ Lb (E). On observe que si t ≥ tn , le résultat est évident. Supposons que
tk ≤ t < tk+1 . On pose G(X) := f (Xtk+1 −t ) . . . f (Xtn −t ) et H(X) := f (Xt0 ) . . . f (Xtk ). La variable H(X)
est Fto (X)-mesurable et donc Ft+ o (X)-mesurable et Z = H(X)G(X
t+ · ). Comme X est Markovien pour
o o
(Ft )t∈R+ et pour (Ft+ )t∈R+ , la propriété de Markov simple pour ces deux filtrations donne
o o
Pµ -p.s. Eµ [Z|Ft+ (X)] = H(X)Eµ [G(Xt+ · )|Ft+ (X)]
= H(X)EXt [G(X)] = H(X)Eµ [G(Xt+ · )|Fto (X)] = Eµ [Z|Fto (X)] ,
ce qui implique le résultat voulu pour des fonctionnelles Z de la forme f0 (Xt0 ) . . . fn (Xtn ). Un raisonnement
de classe monotone (facile et donc laissé au lecteur) permet d’étendre ce résultat à toutes les fonctionnelles
F∞ o (X)-mesurables bornées (qui, on le rappelle, sont toutes de la forme F (X), avec F : E R+ → R, E ⊗R+ -
mesurable bornée, car F∞ o (X) = σ(X)). Cela montre (II.25). On termine la preuve du théorème comme suit:
Proposition II.4.7 Soit E, un espace topologique métrisable séparable. Soit X un processus de Markov à
valeurs E. On fixe ∂ ∈ E et on note X∞ , la v.a. constante à ∂. On fait les hypothèses suivantes.
(b) Son semi-groupe satisfait l’hypothèse (H) (voir la définition II.1.13, page 48).
On note (Ft (X))t∈R+ l’augmentation de la filtration naturelle Fto (X))t∈R+ . Alors les assertions suivantes
sont vérifiées.
(ii) Soit B ∈ B(E). Le premier temps de retour en B est noté: TB+ = inf t > 0 : Xt ∈ B (avec la convention
+
(iii) Pour simplifier on pose Hx := TE\{x} = inf t > 0 : Xt 6= x (avec la condition inf ∅ = ∞). Alors, pour
tout x ∈ E, il existe qx ∈ [0, ∞] tel que
Preuve: le lemme II.4.3, page 62, nous assure que X est Markovien par rapport l’augmentation (Ft (X))t∈R+
et le théorème II.3.4 nous assure que X est alors un Markov fort relativement à (Ft+ (X))t∈R+ . Mais le
théorème II.4.6, page 65, montre que Ft (X) = Ft+ (X), t ∈ R+ , ce qui prouve (i).
Le fait que X soit fortement Markov par rapport à (Ft (X))t∈R+ implique qu’il est progressivement
mesurable par rapport à cette filtration et le théorème du "Début" montre que TB+ est un (Ft (X))t∈R+ -temps
d’arrêt. Donc {TB+ = 0} ∈ F0 (X) et la loi du 0-1 de Blumenthal (théorème II.4.5) entraîne (ii).
Pour toute trajectoire y = (yt )t∈R+ , on pose Hx (y) = inf{t > 0 : yt 6= x}, avec la convention inf ∅ = ∞. On
remarque alors que si Hx > t, alors, Xt = x et Hx = t + Hx (Xt+ · ). En appliquant la propriété de Markov, on a
donc pour tous s, t ∈ R+ ,
Px -p.s. Ex 1{Hx >t+s} Ft (X) = Ex 1{Hx >t} 1{Hx (Xt+· )>s} Ft (X)
= 1{Hx >t} EXt [1{Hx >s} ] = 1{Hx >t} Px (Hx > s).
En intégrant sous Px cette égalité on montre que Px (Hx > t + s) = Px (Hx > t)Px (Hx > s). Il est facile de
voir que s’il existe t0 > 0 tel que Px (Hx > t0 ) = 0, alors Px (Hx > t) = 0, pour tout t ∈ R+ . Supposons que ce ne
soit pas le cas, on pose alors f (t) = − log Px (Hx > t), on constate que f est bien définie, positive, càd et que
f (s + t) = f (s) + f (t), pour tout s, t ∈ R+ . Cela implique que f est linéaire, c’est-à-dire qu’il existe qx ∈ R+
tel que f (t) = qx t et donc Px (Hx > t) = e−qx t , t ∈ R+ .
Si X est continu et si Hx < ∞, alors la continuité à gauche implique que XHx = x et aussi Hx (XHx + ) = 0.
En appliquant la propriété de Markov forte en Hx , on a
Px -p.s. 0 = Ex 1{Hx <∞;Hx (XHx +· )>0} FHx (X) = 1{Hx <∞} Px (Hx > 0) .
Donc Px (Hx < ∞)P(Hx > 0) = 0. Si Px (Hx < ∞) > 0, alors Px (Hx > 0) = 0 et donc Px (Hx = 0) = 1. Si
Px (Hx < ∞) = 0, on a donc Px -p.s. Hx = ∞, ce qui implique que X est constant à x.
Théorème II.4.8 (Propriété de Markov forte pour les fonctionnelles augmentées) Soit E, un espace mesurable. Soit
un processus de Markov muni d’opérateurs de décalage. Soient (Gt )t∈R+ et (Ft (X))t∈R+ , les augmentations
de resp. (Gto )t∈R+ et (Fto (X))t∈R+ . On suppose que X est fortement markovien par rapport à (Gt+o )
t∈R+ .
Alors, les assertions suivantes sont vérifiées.
(i) X est fortement Markovien par rapport à (Gt+ )t∈R+ (qui satisfait les hypothèses habituelles).
(ii) Soit Z : Ω → R, une v.a. F∞ (X)-mesurable bornée. Soit T , un (Gt+ )t∈R+ -temps d’arrêt. Alors
1{T <∞} Z ◦θT est une v.a. G∞ -mesurable bornée.
(iii) Soit Z : Ω → R, une v.a. F∞ (X)-mesurable bornée. Soit T , un (Gt+ )t∈R+ -temps d’arrêt. Alors, pour
toute mesure µ ∈ M1 (E),
(Gt+ )t∈R+ . Il est par ailleurs clair que (Gt+ )t∈R+ satisfait les conditions habituelles.
On fixe T , un (Gt+ )t∈R+ -temps d’arrêt. Le lemme I.3.3, page 26, implique que XT est GT + -mesurable.
µ
On fixe µ ∈ M1 (E). Alors, T est également un (Gt+ )t∈R+ -temps d’arrêt. Le lemme I.3.15, page 33, implique
l’existence d’un (Gt+ o ) -temps d’arrêt noté de T o , tel que
t∈R+
On fixe s ∈ R+ et f ∈ Lb (E). Ce qui précède implique que Pµ -p.s. 1{T <∞} f (Xs+T ) = 1{T o <∞} f (Xs+T o ) et
XT = XT o . On a donc Pµ -p.s.
où on a utilisé le lemme I.4.7, page 38, pour justifier les égalités des deux premières lignes et la propriété de
Markov forte relativement à (Gt+ o )
t∈R+ pour la troisième. Cela termine la preuve de (i).
Le reste de la preuve est proche de celle du théorème II.4.4: montrons (ii), avec les même notations que
ci-dessus. Notons ν la loi de XT sous Pµ , qui par (II.27), est aussi la loi de XT o sous Pµ . Soit Z : Ω → R,
une v.a. F∞ (X)-mesurable bornée. Comme F∞ (X) ⊂ F∞ ν (X), le théorème A.2.4, page 209, montre qu’il
existe Y1 , Y2 : Ω → R, deux variables F∞ (X)-mesurables telle que Y1 ≤ Z ≤ Y2 partout sur Ω et telles que
o
Eν [Y1 ] = Eν [Y2 ] = Eν [Z]. On a donc Pµ -p.s. EXT[Y2 ] − EXT [Y1 ] = EX T [Y2 − Y1 ] ≥ 0. Par définition de
ν et par (II.11) au lemme II.2.12, page 58, on a Eµ EXT [Y2 ] − EXT [Y1 ] = Eν [Y2 ] − Eν [Y1 ] = 0. Comme
EXT [Y1 ] ≤ EXT [Z] ≤ EXT [Y2 ], on obtient Pµ -p.s. EXT [Y1 ] = EXT [Y1 ] = EXT [Z]. Puisque XT o = XT Pµ -p.s.,
on obtient
∀i ∈ {1, 2}, Pµ -p.s. EXT [Yi ] = EXT o [Yi ] = EXT [Z] = EXT o [Z] . (II.28)
68 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.
Pour i ∈ {1, 2}, le lemme I.4.7, page 38, et la première version de la propriété de Markov forte au théorème
t∈R+ et pour le temps T ) impliquent alors que Yi ◦θT o est G∞ -mesurable
o )
II.3.3, page 59, (relativement à (Gt+ o o
et que
Pµ -p.s. Eµ 1{T o <∞} Yi ◦θT o σ(NPµ , GToo + ) = Eµ 1{T o <∞} Yi ◦θT o GToo + = 1{T o <∞} EXT o [Yi ] .
Or par (II.27), Pµ -p.s. 1{T o <∞} Yi ◦θT o = 1{T <∞} Yi ◦θT , XT = XT o et GTµ+ = σ(NPµ , GToo + ). On obtient donc
Pµ -p.s. Eµ 1{T <∞} Yi ◦θT GT + = Eµ 1{T <∞} Yi ◦θT GTµ+ = 1{T <∞} EXT [Yi ] = 1{T <∞} EXT [Z] (II.29)
où on a utilisé le lemme I.4.7, page 38, pour jusitifier la première égalité et (II.28) pour justifier la dernière.
Tout d’abord (II.29) entraîne que Eµ [1{T <∞} Y1 ◦ θT ] = Eµ [1{T <∞} Y2 ◦ θT ]. Comme Y1 ◦ θT ≤ Z ◦ θT ≤
µ
Y2 ◦ θT , on en déduit que Pµ -p.s. 1{T <∞} Z ◦ θT = 1{T <∞} Y2 ◦ θT et donc Z ◦ θT est G∞ -mesurable. Comme
cela est vrai pour toute mesure µ ∈ M1 (E), cela prouve que 1{T <∞} Z ◦ θ est
T ∞ G -mesurable, ce qui
prouve
(ii). Cela implique également que Pµ -p.s. Eµ 1{T <∞} Yi ◦ θT GT + = Eµ 1{T <∞} Z ◦ θT GT + , ce qui
implique (iii) par (II.29).
Définition II.4.9 (Quasi-continuité à gauche) Soit E, un espace topologique métrisable séparable. Soit
un processus de Markov fort. Il est dit quasi-continu à gauche sur R+ relativement à la filtration (Gt )t∈R+ si
pour toute suite croissante de (Gt )t∈R+ -temps d’arrêt Tn ≤ Tn+1 , n ∈ N, si on pose T := supn∈N Tn , alors on a
On rappelle que T est un (Gt )t∈R+ -temps d’arrêt, par le le lemme I.3.7 (i), page 28.
Bien que cela ne soit pas mentionné dans cette définition, la quasi-continuité à gauche implique une certaine
régularité du processus, notamment, pour tout t ∈ ]0, ∞[ et pour toute mesure µ ∈ M1 (E), Pµ -p.s. X admet
Xt pour limite à gauche en t, c’est à dire que le processus est stochastiquement continu au sens de la définition
suivante.
Définition II.4.10 (Continuité stochastique) Soit E, un espace topologique. Soit (Ω, F , P), un espace de
probabilité. Soit X = (Xt )t∈R+ : Ω → E R+ un processus (F , B(E)⊗R+ )-mesurable supposé càdlàg. Il est dit
stochastiquement continu en t ∈ R+ sous P si P(Xt− = Xt ) = 1.
Le théorème qui suit donne un critère sur un processus de Markov (faible) pour qu’il soit un processus de
Markov fort relativement à la filtration continue à droite associée à l’augmentation de la filtration de départ et
aussi pour qu’il soit quasi-continu à gauche. On rappelle la définition II.1.13 de la l’hypothèse (H), page 48.
un processus de Markov. Soient F , (Gt )t∈R+ et (Ft (X))t∈R+ , les augmentations de resp. F o , (Gto )t∈R+ et
(Fto (X))t∈R+ . On fixe ∂ ∈ E et on note X∞ , la v.a. constante à ∂. On fait les hypothèses suivantes.
(b) Son semi-groupe satisfait l’hypothèse (H) (voir la définition II.1.13, page 48).
(ii) X est Markovien fort par rapport à (Gt+ )t∈R+ et (Ft (X))t∈R+ , qui satisfont les conditions habituelles.
Si le processus de Markov est muni d’opérateurs de décalage, il satisfait la propriété de Markov forte
pour des fonctionnelles F∞ (X)-mesurables.
Alors:
∀t ∈ R+ , ∀µ ∈ M1 (E), Pµ (Xt− = Xt ) = 1 .
Preuve: il est clair que X est Markovien par rapport à (Fto (X))t∈R+ . On applique la proposition II.3.4, qui
montre que X est fortement Markovien par rapport à (Gt+ o ) o
t∈R+ et (Ft+ (X))t∈R+ . Le fait que X soit fortement
t∈R+ permet d’appliquer le théorème II.4.6 et on a Ft (X) = Ft+ (X). Le
Markovien par rapport à (Ft+ o (X))
On vérifie que Yt est (G∞ , B(E))-mesurable. Comme T est fini et X est càdlàg, alors partout sur Ω, on a
On se donne L et P associés à l’hypothèse (H) (définition II.1.13, page 48). On fixe µ ∈ M1 (E). Soient
f, g ∈ L. Par (II.30) et par convergence dominée, on obtient tout d’abord:
lim lim Eµ f (XTn +t )g(XTn ) = lim E f (Yt )g(Y0 ) = Eµ f (XT )g(Y0 ) . (II.31)
t→0 n→∞ t→0
t>0 t>0
On note Q = {B ×C; B, C ∈ B(E)}, qui est un pi-système sur E 2 en gendrant B(E)⊗2 . Soit B ×C ∈ Q. Par
l’hypothèse (b), il existe, fn , gn ∈ L, n ∈ N, positives croissantes convergeant respectivement vers 1B et 1C .
Alors, en appliquant (II.33) à (f, g) = (fn , gn ), et par convergence monotone, on obtient Eµ [1B×C (XT , Y0 )] =
Eµ [1B×C (Y0 , Y0 )]. On note ensuite H l’ensemble des fonctions F : E 2 → R, B(E)⊗2 -mesurables bornées
telles que
Eµ F (XT , Y0 ) = Eµ F (Y0 , Y0 ) . (II.34)
Il est clair que H est un espace vectoriel. On a montre que pour tout D ∈ Q, 1D ∈ H. Le théorème de
convergence monotone implique facilement que H est stable par limite ponctuelle croissante de suites de fonc-
tions uniformément bornées. Autrement dit, H satisfait le théorème A.1.20 de la classe monotone, version
fonctionnelle (page 207); ce théorème montre que H = Lb (E 2 ) et donc (II.34) est vérifiée pour toute fonction
F : E 2 → R, B(E)⊗2 -mesurable bornée.
On pose ∆ := {(x, x); x ∈ E}, la diagonale de E 2 . C’est un ensemble fermé de E 2 , muni de la topologie
produit. Donc ∆ ∈ B(E 2 ). Comme E est métrisable séparable, B(E 2 ) = B(E)⊗2 et on peut appliquer (II.34)
à F = 1∆ :
Pµ (XT = Y0 ) = Eµ 1∆ (XT , Y0 ) = Eµ 1∆ (Y0 , Y0 ) = Pµ (Y0 = Y0 ) = 1,
ce qui montre bien que Pµ -p.s. Y0 = limn→∞ XTn = XT , dans les cas où T < ∞ partout sur Ω.
On passe au cas général en remarquant que pour tout p ∈ N, p ∧ Tn est un (Gt+ )t∈R+ -temps d’arrêt tel
que supn p ∧ Tn = p ∧ T < ∞ partout sur Ω. Ce qui précède implique alors que Pµ -p.s. pour tout p ∈ N,
limn→∞ Xp∧Tn = Xp∧T . On observe que sur {T < ∞} et pour tout p ∈ N suffisamment grand, on a p ∧ T = T
et donc p ∧ Tn = Tn , pour tout n, ce qui implique facilement que X est quasi-continu à gauche.
Montrons le dernier point du théorème: soit µ ∈ M1 (E∂ ); soit tn , n ∈ N, une suite de temps croissants
strictement vers t. Comme X est cadlàg limn→∞ Xtn = Xt− or la quasi-continuité à gauche implique que
Pµ -p.s. limn→∞ Xtn = Xt et donc Pµ -p.s. Xt− = Xt , ce qui montre le résultat voulu.
un processus de Markov. C’est un processus de Hunt s’il satisfait les hypothèses suivantes.
(a) X est fortement Markovien relativement à (Gt )t∈R+ qui satisfait les hypothèses habituelles.
II.5. RÉGULARITÉ DES PROCESSUS DE MARKOV. 71
La proposition suivante, conséquence immédiate du théorème II.4.11 (page 68), donne un critère pour être un
processus de Hunt (en particulier les processus de Feller ou Feller-Dynkin càdlàg sont des processus de Hunt).
On rappelle la définition II.1.13 de la l’hypothèse (H), page 48.
un processus de Markov. On note F et (Gt )t∈R+ les augmentations de resp. F o et (Gto )t∈R+ Soit ∂ ∈ E et soit
X∞ , la v.a. constante à ∂. On fait les hypothèses suivantes.
(b) Son semi-groupe satisfait l’hypothèse (H) (voir la définition II.1.13, page 48).
Lemme II.5.3 Soit (E, d), un espace métrique. On note (E, d) son complété; par commodité, on suppose que
E ⊂ E. Soit f : R+ → E, une fonction. Pour tous réels t > δ > 0, on pose
On observe que δ 7→ wt (δ, f ) croît. On suppose que limδ→0 wt (δ, f ) = 0. Alors f admet une limite à gauche
en t dans le complété E.
Preuve: soit sn ∈ [0, t[, n ∈ N, une suite croissant vers t. Pour tout ε > 0, il existe δ > 0 et n0 ∈ N, tels que pour
tout n ≥ n0 , on ait |sn −t| < δ et wt (δ, f ) < ε. Donc pour tout m, n ≥ n0 , d(f (sn ), f (sm )) ≤ wt (δ, f ) < ε. Cela
montre que (f (sn ))n∈N est de Cauchy: elle converge donc vers y ∈ E. Pour tout δ ∈ ]0, t[ et tout s ∈ ]t−δ, t[ ,
on a pour tout n ∈ N assez grand d(f (s), y) ≤ d(f (s), f (sn )) + d(f (sn ), y) ≤ wt (δ, f ) + d(f (sn ), y) et donc
d(f (s), y) ≤ wt (δ, f ), ce qui implique le lemme.
Théorème II.5.4 Soit (E, d), un espace métrique séparable. On note (E, d) son complété; par commodité, on
suppose que E ⊂ E. Soit
∀t ∈ R+ , ∀µ ∈ M1 (E), Pµ (Xt− = Xt ) = 1 .
72 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.
Preuve: on fixe un réel ε > 0 et on définit une suite de temps aléatoires (Tn )n∈N en posant
T0ε = 0, ε
= inf t > Tnε : d(Xt , XTnε ) > ε
et ∀n ∈ N, Tn+1
avec la condition inf ∅ = ∞. Il est clair que T0ε est un (Gt )t∈R+ -temps d’arrêt. Supposons que Tnε le soit aussi.
La continuité à droite de X implique ensuite que pour tout t ∈ R+ ,
[
ε
{Tn+1 < t} = {Tnε < q} ∩ {d(Xq , Xt∧Tnε ) > ε} .
q∈Q∩[0,t[
Comme X est progressivement mesurable relativement à (Gt )t∈R+ et que t∧Tnε est un temps d’arrêt relativement
à cette filtration, la v.a. Xt∧Tnε est Gt∧Tnε -mesurable. Le lemme I.3.2 (ii), page 25, implique Gt∧Tnε ⊂ Gt . Puisque
q < t, on a donc {d(Xq , Xt∧Tnε ) > ε} ∈ Gt . Cela entraîne que {Tn+1 ε < t} ∈ Gt et donc Tn+1
ε est un (Gt+ )t∈R+ -
temps d’arrêt. Comme (Gt )t∈R+ est continue à droite (elle satisfait en effet les hypothèses habituelles), Tn+1 ε
ε
est donc un (Gt )t∈R+ -temps d’arrêt. On a montré par récurrence que les Tn sont des (Gt )t∈R+ -temps d’arrêt.
On pose T ε := supn∈N Tnε et on observe que si Tn+1 ε < ∞, alors la continuité à droite de X implique que
d(XTn+1
ε ε
, XTnε ) ≥ ε. Donc si T < ∞, la suite (XTnε )n∈N n’est pas convergente dans E (ni dans E). Or la
quasi-continuité à gauche implique que pour toute mesure µ ∈ M1 (E),
On a donc Pµ -p.s. T ε = ∞.
On pose ensuite εp = 2−p , p ∈ N et Ω0 := p∈N {T εp = ∞}. Il est clair que Ω0 ∈ G∞ et que Pµ (Ω0 ) = 1,
T
pour toute mesure µ ∈ M1 (E). On a donc
ε εp
[
∀ω ∈ Ω0 , ∀p ∈ N, ]0, ∞[= Tnp (ω), Tn+1 (ω) .
n∈N
ε εp
On fixe ω ∈ Ω0 . Soit t ∈ ]0, ∞[ . Soit p ∈N. Il existe donc n tels que t ∈ Tnp (ω), Tn+1 (ω) . La définition des
ε
temps Tnε implique que pour tous s, r ∈ Tnp (ω), t , on a
d(Xs (ω), Xr (ω)) ≤ d(Xs (ω), XTnεp (ω)) + d(XTnεp (ω), Xr (ω)) ≤ 2 εp
Donc, en reprenant les notations du lemme II.5.3, page 71, on a pour tout δ suffisamment petit wt (δ, X(ω)) ≤
2−p+1 . Donc, pour tout ω ∈ Ω0 , limδ→0 wt (δ, X(ω)) = 0 et le lemme II.5.3 implique que Xt− (ω) existe
dans E, ce qui montre le premier point du théorème. Le second point est une conséquence immédiate de la
quasi-continuité à gauche: voir la fin de la preuve du théorème II.4.11.
Remarque II.5.5 Le résultat précédent n’utilise absolument pas la propriété de Markov: il est vrai pour les
processus quasi-continus à gauche et càd.
Définition II.5.6 (Durée d’un processus) Soit E, un espace LCBD dont on note (E∂ , d) un compactifié habituel.
Soit (Ω, F ), un espace mesurable muni d’une filtration (Gt )t∈R+ . Soit X : Ω → E∂ + , un processus (Gt )t∈R+ -
R
adapté que l’on suppose de plus continu à droite. On définit la durée de X par
ζ := inf t ∈ R+ : ∂ ∈ {Xs ; s ∈ [0, t]}
avec la convention inf ∅ = ∞ et où pour tout sous-ensemble A ⊂ E∂ , A désigne son adhérence dans E∂ .
Autrement dit, ζ est le premier temps d’approche du compact {∂} par X (voir la définition I.3.8 page 29).
Comme X est càd, ζ est un (Gt )t∈R+ -temps d’arrêt (théorème I.3.12 (ii), page 30).
La durée d’un processus se reformule de la manière suivante.
Proposition II.5.7 Soit E, un espace LCBD dont on note (E∂ , d) un compactifié habituel. Soit (Ω, F ), un
R
espace mesurable muni d’une filtration (Gt )t∈R+ . Soit X : Ω → E∂ + , un processus (Gt )t∈R+ -adapté. On pose
On suppose que X est càd. Alors les assertions suivantes sont vérifiées.
(ii) ζ = supn∈N Tn .
On suppose de plus que X est càdlàg sur [0, ζ[ . Alors les assertions suivantes sont vérifiées.
Preuve: Tn est le temps d’atteinte de la boule ouverte de centre ∂ et de rayon 2−n . Le théorème I.3.12 (i)
(page 30) implique que Tn est un (Gt+ )t∈R+ -temps d’arrêt, ce qui prouve (i). Pour simplifier les notations, on
pose T := supn∈N Tn . Supposons que ζ < ∞, alors, par définition, il existe une suite de temps tn ≥ ζ, n ∈ N
décroissant vers ζ tels que d(Xtn , ∂) → 0 lorsque n → ∞. On peut supposer, sans perte de généralité, que
d(Xtn , ∂) < 2−n , ce qui implique Tn ≤ tn . Comme les Tn sont croissants, on en déduit que T ≤ ζ. Supposons
ensuite que T < ∞. Par continuité à droite de X et par définition de Tn , on a d(XTn , ∂) ≤ 2−n . Comme cela est
vrai pour tout n ∈ N, on en déduit que ∂ ∈ {Xt ; t ∈ [0, T ]} et donc ζ ≤ T , ce qui termine la preuve du fait que
T = ζ, partout sur Ω. Les points (iii) et (iv) sont des conséquences de la remarque I.3.10, page 30.
Le théorème suivant précise le théorème II.5.4 dans le cas où l’espace d’état est LCBD et pour l’extension
minimale sur le compactifié habituel. Il résume également les quelques résultats généraux applicables concer-
nant la durée d’un processus de Hunt.
Théorème II.5.8 Soit E un espace topologique LCBD dont on note (E∂ , d) un compactifié habituel. Soient
pt (x, dy) des noyaux sous-Markoviens sur E de semi-groupe (Pt )t∈R+ . On note p∂t (x, dy) les extensions
minimales des noyaux pt (x, dy) à E∂ et on note (Pt∂ )t∈R+ le semi-groupe associé. Soit
• Enfin, la durée du processus ζ est un (Gt )t∈R+ -temps d’arrêt. Elle se réécrit comme suit:
Preuve: une partie découle des résultats antérieurs: le théorème II.5.4 implique (II.35) et (II.36); (II.37) et
(II.38) viennent de la proposition II.5.7 qui précède (ici on utilise la fait que la filtration (Gt )t∈R+ est càd).
Il reste à montrer (II.39): on reprend les notations Tn introduite à la proposition II.5.7 et on rappelle que
ζ = supn∈N Tn . Supposons que ζ < ∞. La continuité à droite de X implique que d(XTn , ∂) ≤ 2−n et donc
limn→∞ XTn = ∂. La quasi-continuité à gauche de X implique que Pµ -p.s. sur {ζ < ∞}, limn→∞ XTn = Xζ
et donc Pµ -p.s. sur {ζ < ∞}, on a Xζ = ∂. La propriété de Markov forte en ζ entraîne ensuite:
Pµ -p.s. Eµ 1{ζ<∞ ; ∃t∈R+ :Xζ+t 6=∂} Gζ = 1{ζ<∞} EXζ 1{∃t∈R+ :Xζ+t 6=∂}
= 1{ζ<∞} P∂ ∃t ∈ R+ : Xζ+t 6= ∂ . (II.40)
Or par définition de l’extension minimale des noyaux, pour tout s ∈ R+ , on a P∂ Xs = ∂ = p∂s (∂, ∂) = 1.
Remarque II.5.9 Si les noyaux pt (x, dy) sont Markoviens conservatifs, l’extension minimale de ces noyaux
est triviale. Soit µ ∈ M1 (E∂ ) telle que µ({∂}) = 0. On a donc Pµ (Xt ∈ E) = 1. On en déduit que Pµ -p.s. pour
tout q ∈ Q+ , Xq ∈ E et comme X est càd, Xt ∈ E, t ∈ R+ et donc ζ = ∞. En revanche, par définition de
l’extension minimale, ∂ est absorbant et donc P∂ -p.s. pour tout t ∈ R+ , Xt = ∂ et donc ζ = 0.
Le théorème suivant montre d’une part que les processus de Feller-Dynkin càd sont des processus de Hunt
et il donne un critère de continuité de ces processus en termes du semi-groupe.
Théorème II.5.10 Soit E, un espace topologique LCBD dont on note (E∂ , d) un compactifié habituel. Soient
pt (x, dy) des noyaux sous-Markoviens sur E dont le semi-groupe (Pt )t∈R+ est supposé Feller-Dynkin. On note
p∂t (x, dy) les extensions minimales de ces noyaux et on note (Pt∂ )t∈R+ le semi-groupe associé. Soit
un processus de Markov. On note F et (Gt )t∈R+ les augmentations habituelles de resp. F o et (Gto )t∈R+ . On
suppose que X càdlàg.
• Alors, X est un processus de Hunt sur (Ω, F ) relativement à (Gt+ )t∈R+ (et les conclusions du théorème
II.5.8, page 73, s’y appliquent).
• On suppose de plus que pour tous sous-ensembles K ⊂ U ⊂ E, avec K compact et U ouvert, on a
1
sup t pt (x, E\U ) −−−−→ 0. (II.41)
x∈K t→0+
Alors
∀µ ∈ M1 (E∂ ), Pµ -p.s. X est continu sur [0, ζ[ . (II.42)
Preuve: il est clair que pour tout t ∈ R+ , Pt∂ (Cb (E∂ )) ⊂ Cb (E∂ ) est de Feller; ce semi-groupe satisfait
l’hypothèse (H) (définition II.1.13, page 48). La proposition II.5.2 implique que X est un processus de Hunt
(Ω, F ) relativement à (Gt+ )t∈R+ et le théorème II.5.8 s’applique à X, ce qui implique (II.36), (II.37) et (II.38).
Il reste à démontrer le second point. Soit x = (xt )t∈R+ , une fonction de R+ dans E∂ . On pose
∀δ, t ∈ R+ , wt (δ, x) = sup d(xs , xr ) ; s, r ∈ [0, t] tels que |s−r| ≤ δ .
On rappelle que x est continue sur [0, t] ssi limδ→0 wt (δ, x) = 0. Pour tout x ∈ E∂ et tout r ∈ R+ , on note
B(x, r) et B(x, r) les boules resp. ouvertes et fermées de centre x et de rayon r dans E∂ . Soit K, un compact
de E. On a d(∂, K) > 0 et pour tout réel strictement positif ε < 13 d(∂, K), on pose:
bε (t, K) = sup pt x, E\B(x, 3ε)
x∈K
On montre d’abord
1
b (t, K)
t ε
−−−−→ 0. (II.43)
t→0+
S
Pour cela, on se donne x1 , . . . , xj ∈ K tels que K ⊂ 1≤j≤p B(xj , ε). Comme B(xj , ε) est un compact de E∂ .
et que ε < 13 d(∂, K), on a B(xj , ε) ⊂ E, et donc B(xj , ε) est un compact de E. De même, B(xj , 2ε) est un
ouvert de E. On remarque ensuite que pour tout x ∈ B(xj , ε), B(xj , 2ε) ⊂ B(x, 3ε). On en déduit
1 1 1
X X
t
bε (t, K) ≤ sup t
p t x, E\B(x, 3ε) ≤ sup t pt x, E\B(xj , 2ε)
1≤j≤p x∈B(xj ,ε) 1≤j≤p x∈B(xj ,ε)
On en déduit que
[
Pµ ∀s ∈ [0, t], Xs ∈ K ∩ d(X(k+1)t/n , Xkt/n ) > 3ε ≤ nbε (t/n, K) .
0≤k<n
Si K est un compact de E, et si ε < d(∂, K), alors pour tout t ∈ R+ , (II.43) implique que
[
lim Pµ ∀s ∈ [0, t], Xs ∈ K ∩ d(X(k+1)t/n , Xkt/n ) > 3ε = 0 . (II.44)
n→∞
0≤k<n
Sur l’événement {Xs ∈ K; t ∈ [0, t]}, s’il existe s ∈ [0, t] tel que d(Xs− , Xs ) > 3ε, alors, pour tout n assez grand,
il existe kn tel que kn t/n < s ≤ (kn + 1)t/n et d(X(kn +1)t/n , Xkn t/n ) > 3ε. Par (II.44), cela montre que pour
tout t ∈ R+ , tout compact K ⊂ E et tout ε < d(∂, K), Pµ -p.s. sur {Xs ∈ K; s ∈ [0, t]}, on a d(Xs− , Xs ) ≤ 3ε
pour tout s ∈ [0, t]. Cela entraîne donc que Pµ -p.s. sur {Xs ∈ K; s ∈S[0, t]}, X est continu sur [0, t]. Soit
Kn = E∂ \B(∂, 2−n ), n ∈ N, S qui est une suite de compacts tels que E = n∈N Kn . Un simple argument montre
que Pµ -p.s. sur l’événementS n∈N {Xs ∈ Kn ; s ∈ [0, t]}, X est continu sur [0, t]. Or la propriété (II.38) implique
que {ζ > t} coïncide avec n∈N {Xs ∈ Kn ; s ∈ [0, t]} à un ensemble Pµ -négligeable près. On a donc montré
que pour tout t ∈ R+ , Pµ -p.s. sur l’événement {ζ > t}, X est continu sur [0, t], ce qui implique immédiatement
le résultat désiré.
Pour conclure, nous introduisons une hypothèse de régularité légèrement plus faible que la propriété de
Hunt.
Définition II.5.11 (Processus standard) Soit E, un espace topologique LCBD dont on note (E∂ , d) un com-
pactifié habituel. Soient pt (x, dy) des noyaux sous-Markoviens sur E dont le semi-groupe est noté (Pt )t∈R+ .
On note p∂t (x, dy) les extensions minimales de ces noyaux et on note (Pt∂ )t∈R+ le semi-groupe associé. Soit
un processus de Markov. C’est un processus standard s’il satisfait les hypothèses suivantes.
(a) X est fortement Markovien relativement à (Gt )t∈R+ qui satisfait les hypothèses habituelles.
(c) X est quasi-continu à gauche sur [0, ζ[ relativement à (Gt )t∈R+ , c’est-à-dire que pour toute suite crois-
sante de (Gt )t∈R+ -temps d’arrêt, tels que Tn ≤ Tn+1 , n ∈ N, si on pose T := supn∈N Tn , alors on a
∀µ ∈ M1 (E), Pµ -p.s. sur {T < ζ}, lim XTn = XT .
n→∞
On note bien la différence avec les processus de Hunt pour lesquels la quasi-continuité à gauche a lieu sur
tout R+ et non pas seulement sur [0, ζ[ . Les processus standard apparaissent assez naturellement, par exemple
lorsque l’on considère les processus de Markov à temps continu mais espace d’états discret. En adaptant les
preuves du théorème II.5.4 et du théorème II.5.8, on montre facilement le résultat suivant.
II.6. RÉGULARISATION DES PROCESSUS DE FELLER. 77
Théorème II.5.12 Soit E, un espace topologique LCBD dont on note (E∂ , d) un compactifié habituel. Soient
pt (x, dy) des noyaux sous-Markoviens sur E dont le semi-groupe est noté (Pt )t∈R+ . On note p∂t (x, dy) les
extensions minimales de ces noyaux et on note (Pt∂ )t∈R+ le semi-groupe associé. Soit
Ω; F ; (Gt )t∈R+ ; (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ ) ,
un processus de Markov standard. Alors pour toute mesure µ ∈ M1 (E∂ ), Pµ -p.s. X est càdlàg sur [0, ζ[ et
pour tout t ∈ [0, ζ[ , Xs ; s ∈ [0, t] = Xs , Xs− ; s ∈ [0, t] est un compact de E.
Remarque II.5.13 On a donc Feller-Dynkin càdlàg =⇒ Hunt =⇒ standard. Par ailleurs, les notions de
processus et de Hunt et de processus standard coïncident si les processus dont la durée est infinie partout.
En revanche, si Xζ− existe dans E∂ pour un processus de Hunt, ce n’est pas nécessairement le cas pour un
processus standard pour lequel des comportements plus complexes à l’approche de ζ.
Théorème II.6.1 (Régularisation des processus de Feller-Dynkin) Soit E, un espace topologique LCBD dont on note
(E∂ , d) un compactifié habituel. Soient pt (x, dy), des noyaux sous-Markoviens sur E dont le semi-groupe est
noté (Pt )t∈R+ . On note p∂t (x, dy) les extensions minimales de ces noyaux et on note (Pt∂ )t∈R+ le semi-groupe
associé. Soit
Ω; F o ; (Gto )t∈R+ ; (Yt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ ) ,
un processus de Markov. On note F , (Gt )t∈R+ et (Ft (Y ))t∈R+ les augmentations habituelles de resp. F o ,
(Gto )t∈R+ et (Fto (Y ))t∈R+ .
On suppose que la restriction de (Pt )t∈R+ à C0 (E) est un semi-groupe de Feller-Dynkin. Alors, il existe
Ωo ∈ F∞
o R
(Y ) et X = (Xt )t∈R+ : Ω −→ E∂ +
qui satisfont les assertions suivantes.
(i) X est (Gt )t∈R+ -progressivement mesurable et pour tout ω ∈ Ω, t 7→ Xt (ω) est càdlàg dans E∂ .
Résumé des résultats généraux applicables à un processus de Feller régulier. Rappelons brièvement les
résultats qui sont applicables au processus régularisé X du théorème précédent. Pour simplifier on suppose que
la filtration (Gt )t∈R+ est càd (elle satisfait donc les hypothèses habituelles).
• Loi du 0-1 de Blumenthal: pour tout B ∈ F0+ (X) = F0 (X) et pour tout x ∈ E∂ , on a Px (B) ∈ {0, 1}.
• Propriété de Markov forte pour les fonctionnelles augmentées: on suppose le processus X muni d’opérateurs
de décalage (θt )t∈R+ . Soit Z : Ω → R, une v.a. F∞ (X)-mesurable bornée. Soit T , un (Gt )t∈R+ -temps d’arrêt.
Alors 1{T <∞} Z ◦θT est G∞ -mesurable et pour toute mesure µ ∈ M1 (E∂ ), on a
• Quasi-continuité à gauche: soit (Tn )n∈N une suite de (Gt )t∈R+ -temps d’arrêt tels que Tn ≤ Tn+1 , n ∈ N. On
pose T = supn∈N Tn , qui est également un (Gt )t∈R+ d’arrêt. Alors pour toute mesure µ ∈ M1 (E∂ ), on a
Pµ -p.s. ∀t ∈ [ζ, ∞[ , Xt = ∂ .
et
Pµ -p.s. ∀t ∈ [0, ζ[ Xs ; s ∈ [0, t] = Xs , Xs− ; s ∈ [0, t] est un compact de E.
Construction sur l’espace canonique. Soit E, un espace topologique LCBD dont on note (E∂ , d) un com-
pactifié habituel. On rappelle que D(R+ , E∂ ) désigne l’espace des fonctions cadlàg à valeurs dans E∂ et que
C(R+ , E∂ ) désigne l’espace des fonctions continues à valeurs dans E∂ . Pour tout t ∈ R+ et toute fonction
càdlàg w = (w(s))s∈R+ , on définit : Xtcan (w) = w(t), autrement dit (Xtcan )t∈R+ est le processus canonique
sur D(R+ , E∂ ). On note F can = σ(Xtcan , t ∈ R+ ), qui est la tribu trace sur D(R+ , E∂ ) de la tribu produit
B(E∂ )⊗R+ . On rappelle la notation θtcan pour l’opérateur de décalage au temps t: θtcan (w) = w(t + ·).
Théorème II.6.2 (Existence des processus de Feller réguliers) Soit E, un espace topologique LCBD dont on note
(E∂ , d) un compactifié habituel. Soient pt (x, dy) des noyaux sous-Markoviens sur E dont le semi-groupe est
noté (Pt )t∈R+ . On note p∂t (x, dy) les extensions minimales de ces noyaux et on note (Pt∂ )t∈R+ le semi-groupe
associé. On suppose que (Pt )t∈R+ est de Feller-Dynkin.
II.6. RÉGULARISATION DES PROCESSUS DE FELLER. 79
Alors, pour toute mesure µ ∈ M1 (E∂ ), il existe une mesure de probabilité Pµ sur l’espace mesurable
(D(R+ , E∂ ), F can ) telle que sous Pµ , X can est un processus de Markov de semi-groupe (Pt∂ )t∈R+ et de loi
intiale µ. On note NPµ l’ensemble des Pµ -négligeables et on pose
\ \
F := σ F can , NPµ Ft := σ Ftcan , NPµ ,
et t ∈ R+ .
µ∈M1 (E∂ ) µ∈M1 (E∂ )
Alors
D(R+ , E∂ ); F ; (Ft )t∈R+ , X can ; (θtcan )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ )
est un processus de Markov, la filtration (Ft )t∈R+ satisfait les hypothèse habituelles: c’est un processus de
Hunt qui est appelé "réalisation canonique du semi-groupe de Feller-Dynkin (Pt )t∈R+ ".
Preuve: on note Y = (Yt )t∈R+ le processus canonique sur E∂ + . Soit µ ∈ M1 (E∂ ). Le théorème II.2.4
R
(page 54), basé sur le théorème d’extension de Kolmogorov, montre l’existence la la mesure de probabilité
Pµ : B(E∂ )⊗R+ → [0, 1] telle que sous Pµ , Y soit un processus de Markov de semi-groupe (Pt∂ )t∈R+ et de
loi initiale µ. On applique le théorème de régularisation II.6.1 qui précède et on note X la régularisation de Y .
On note alors Pµ la loi de X sous Pµ . Il est clair que Pµ est une mesure de probabilité sur l’espace canonique
des fonctions càdlàg. On conclut ensuite facilement.
Définition II.6.3 (Fonctions p-sur-médianes associées à un semi-groupe) Soit E, un espace topologique LCBD.
Soit (Pt )t∈R+ , un semi-groupe de Feller-Dynkin sur C0 (E). Une fonction g ∈ C0 (E) est dite p-sur-médiane si
Lemme II.6.4 On reprend les notations du théorème II.6.1. Il y a équivalent entre les deux assertions suiv-
antes.
(a) Soit µ ∈ M1 (E∂ ). Alors, sous Pµ , (e−pt g(Yt ))t∈R+ est une (Gto )t∈R+ -sur-martingale.
Preuve: pour tout t ∈ R+ , e−pt g(Yt ) est une v.a. (Gto )-mesurable positive bornée par e−pt kgk∞ : elle est donc
intégrable. Soit s ∈ R+ . La définition des processus Markoviens implique
Si g est sur-médiane, on a e−pt e−ps (Ps g)(Yt ) ≤ e−pt g(Yt ) ce qui implique (a). Si on suppose (a), on applique
(II.45) avec µ = δx et t = 0, pour montrer que g est p-sur-médiane.
Lemme II.6.5 On reprend les notations du théorème II.6.1. Pour tout p ∈ ]0, ∞[ , toute fonction f ∈ C0 (E) et
tout x ∈ E, il y a un sens à poser: Z ∞
Up f (x) := e−pt Pt f (x) dt . (II.46)
0
Alors, Up f ∈ C0 (E) et Up : C0 (E) → C0 (E) est une application linéaire telle que
La famille d’opérateurs (Up )p∈]0,∞[ est appelé la famille des résolvantes associée au semi-groupe (Pt )t∈R+ .
De plus, toute fonction positive f ∈ C0 (E), pUp f est p-surmédiane.
Preuve: le lemme II.1.14 (ii), page 49, montre que t ∈ R+7→ Pt f (x) est continue à droite et borné par kf k∞ ;
la définition (II.46) a donc un sens. Puisque pour tout t ∈ R+ , Pt f ∈ C0 (E), le théorème de convergence
dominée
R∞ R ∞Up f ∈
implique facilement que
−ps
C0 (E). Par ailleurs, la linéarité de Up est claire. Comme |Up f (x)| ≤
−ps
0 ds e |Ps f (x)| ≤ kf k∞ 0 ds e , on a déduit que kpUp f k∞ ≤ kf k∞ Enfin, par un changement de
variable élémentaire on a
Z ∞ Z ∞
−pt
ds e−s Ps/p f (x)−f (x) .
pUp f (x)−f (x) = dt pe Pt f (x)−f (x) =
0 0
Le fait que pour tout s ∈ R+ , on ait limp→∞ Ps/p f (x) = f (x), combiné au théorème de convergence dominée,
implique la limite dans (II.47).
Soit f ∈ C0 (E) positive. Montrons ensuite que pUp f est p-surmédiane: à l’aide du théorème de Fubini et
l’équation de Kolmogorov-Chapman, on montre les inégalités suivantes,
Z Z Z ∞ Z
−ps
Pt (Up f )(x) = pt (x, dy)Up f (y) = pt (x, dy) ds e ps (y, dz)f (z)
ZE∞ Z E
Z 0
Z ∞E
= ds e−ps pt (x, dy) ps (y, dz)f (z) = ds e−ps Ps+t f (x)
0 E E 0
Z ∞ Z ∞
−ps
= e pt
ds e Ps f (x) ≤ e pt
ds e−ps Ps f (x) = ept Up f (x) , (II.48)
t 0
l’inégalité étant une conséquence du fait que f est positive. Cela implique donc que e−pt Pt (pUp f )(x) ≤
pUp f (x), ce qui termine la preuve du lemme.
Lemme II.6.6 On reprend les notations du théorème II.6.1. Il existe une suite de fonctions hn : E∂ → R,
n ∈ N, qui satisfait les conditions suivantes.
(iii) (hn )n∈N sépare les points: pour tous x, y ∈ E∂ distincts, il existe n ∈ N tels que hn (x) 6= hn (y).
Preuve: soit une suite xn ∈ E, n ∈ N, une suite dense dans E; on introduit les fonctions suivantes
Il est clair que fn ∈ C0 (E) et 0 ≤ fn ≤ 1. De plus, (fn )n∈N sépare les points c’est-à-dire:
En effet, soient x, y ∈ E∂ , distincts. Sans perte de généralité, on peut supposer que x 6= ∂: on a f0 (x) > 0 et
si y = ∂, f0 (x) > f0 (y) = 0. Supposons ensuite que x, y ∈ E: on pose δ := d(x, y) ∧ d(x, ∂) ∧ d(y, ∂) > 0.
Il existe n ∈ N tel que d(x, xn ) < δ/2. Donc fn (x) < δ/2 et l’inégalité triangulaire implique d(y, xn ) ≥
d(x, y)−d(x, xn ) > δ/2. Comme d(y, ∂) ≥ δ, cela entraîne fn (y) > δ/2, ce qui montre (II.50).
On introduit ensuite les fonctions suivantes
On a donc gm,n ∈ C0 (E), 0 ≤ gm,n ≤ 1. Le lemme II.6.5 implique que gm,n est m-sur-médiane. On remarque
ensuite que
∀x ∈ E, g1,0 (x) > 0 . (II.52)
En effet, la propriété de Feller implique que pour tout x ∈ E, lims→0 Ps f0 (x) = f0 (x)R> 0. Donc si x ∈ E,
∞
s 7→ Ps f0 (x) est strictement positif pour tout s dans un voisinage de 0. Cela implique 0 ds e−s Ps f0 (x) > 0
et on a donc g1,0 (x) = U1 f0 (x) > 0.
La famille de fonctions gm,n sépare les points:
En effet, il existe n ∈ N, tel que fn (x) 6= fn (y). Or par (II.47) on a limm→∞ gm,n (x) = fn (x) et limm→∞ gm,n (y) =
fn (y), ce qui entraîne (II.53). On ré-indexe la suite (gm,n )m≥1,n≥0 en une suite (hn )n∈N avec h0 := g1,0 , qui
satisfait les propriétés désirées.
On utilise les fonctions hn pour "coder" E∂ par [0, 1]N . Pour cela on utilise un fait élémentaire de topologie,
qui est rappelé sous la forme du lemme suivant.
Lemme II.6.7 Soient E1 et E2 deux espaces topologiques séparés. Soit K1 ⊂ E1 , un compact et soit Φ : G1 →
E2 , une fonction continue.
(ii) Supposons de plus que Φ soit injective. On note Ψ : K2 → K1 sa réciproque. Alors, Ψ est continue:
autrement dit Φ est un homéomorphisme de K1 sur K2 .
−1 (K ) ⊂ Φ−1 (
S
Preuve: soit Vi ⊂ E 2 , i ∈ I, une famille d’ouverts recouvrants K 2 . Alors K1 = Φ 2 i∈I Vi ) =
−1 −1
S
i∈I Φ (Vi ). Comme K1 est compact et que les Φ (V S i ) sont des ouverts de E1 (par continuité de f ), il
existe I0 ⊂ I, I0 fini, tel que K1 ⊂ i∈I0 Φ−1 (Vi ) = Φ−1 ( i∈I0 Vi ), ce qui implique que K2 ⊂ i∈I0 Vi . Donc,
S S
K2 a la propriété de recouvrement fini: c’est donc un compact. Soit F , un fermé de E1 , Ψ−1 (F ) = Φ(F ∩ K1 )
qui est compact par le premier point et car F ∩ K1 est un fermé du compact K1 donc compact car E1 a une
topologie séparée. Cela montre la continuité de Ψ.
82 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.
On applique ce résultat à l’espace compact E1 = K1 = E∂ et à E2 qui est l’espace J := [0, 1]N des
suites à valeurs dans [0, 1] muni de la topologie produit, c’est-à-dire que la convergence dans J correspond
à la convergence coordonnée par coordonnée. On rappelle que J est compact et on vérifie facilement que
que la topologie produit correspond à la métrique suivante: pour tous u = (un )n∈N et v = (vn )n∈N ∈ J,
δ(u, v) := n≥0 2−n−1 |un −vn |.
P
Lemme II.6.8 On rappelle la définition des fonctions (hn )n∈N du lemme II.6.6. Pour tout x ∈ E∂ , on pose
Φ(x) := (hn (x))n∈N , qui satisfait les propriétés suivantes.
∀n ∈ N, Ωn ∈ F∞
o
(Y ) .
Comme hn est mn -surmédiane, le lemme II.6.4, page 79, implique que pour toute µ ∈ M1 (E∂ ), sous Pµ , M (n)
est une (Gto )t∈R+ -sur-martingale. Le théorème I.4.9 de régularisation des sur-martingales (page 38) implique
alors que Pµ (Ωn ) = 1. Si on pose Ωo := n∈N Ωn , alors
T
Ωo ∈ F∞
o
(Y ) et ∀µ ∈ M1 (E∂ ), Pµ (Ωo ) = 1 .
∀ω ∈ Ωo , ∀n ∈ N,
hn (Yt (ω)) t∈R+ ∈ Reg(R+ ) .
La définition I.4.1 (page 35) des fonctions régularisables et le théorème I.4.2 (page 35) implique que
(n) (n)
∀ω ∈ Ωo , ∀n ∈ N, ∀t ∈ R+ , Ht (ω) := lim hn (Yq (ω)) existe dans R et t 7→ Ht (ω) est càdlàg.
q∈Q∩]t,∞[
q→t
On rappelle la définition des fonctions Φ et Ψ du lemme II.6.8, page 82. On pose alors
(n)
Xt (ω) := Ψ (Ht (ω))n∈N si ω ∈ Ωo Xt (ω) := ∂ si ω ∈ Ω\Ωo .
∀t ∈ R+ , ∀ω ∈ Ω, et
(n)
Comme J est muni de la topologie produit, pour tout ω ∈ Ω0 , t 7→ ((Ht (ω))n∈N est càdlàg dans J. Comme
Ψ est continu (lemme II.6.8 (ii)) et comme X est constant hors de Ωo , on en déduit que
Le fait que Ψ (ou Φ) soit bijectif implique que partout sur Ω on ait
∀t ∈ R+ , Yt = Ψ (hn (Yt ))n∈N
Le théorème I.4.9 de régularisation des sur-martingales (page 38) implique également que
µ
∀µ ∈ M1 (E∂ ), (Xt )t∈R+ est (Ft+ (Y ))t∈R+ -adapté
µ
où on rappelle que (Ft+ (Y ))t∈R+ est la filtration (Fto (Y ))t∈R+ qui est Pµ -complétée et rendue continue à
droite. Cela implique donc que
(Xt )t∈R+ est (Ft+ (Y ))t∈R+ -adapté et donc (Gt+ )t∈R+ -adapté également.
On montre plus bas qu’en fait X est (Gt )t∈R+ -adapté. À ce point près, on a montré les points (i) et (ii) du
théorème II.6.1 de régularisation des processus de Feller-Dynkin.
Montrons le point (iii). Pour cela on fixe µ ∈ M1 (E∂ ), t ∈ R+ , f, g ∈ C0 (E) et une suite qn ∈ Q∩ ]t, ∞[ ,
n ∈ N, décroissant vers t. Les points (i) et (ii) du théorème de régularisation combinés avec le théorème de
convergence dominée entraînent
Eµ f (Xt )g(Yt ) = lim Eµ f (Yqn )g(Yt ) (II.54)
n→∞
Comme le semi-groupe est Fellérien, limn→∞ Pqn −t f (Yt ) = f (Yt ) partout sur Ω. Par convergence dominée,
on obtient donc
∀f, g ∈ C0 (E), Eµ f (Xt )g(Yt ) = Eµ f (Yt )g(Yt ) . (II.56)
Par un raisonnement de classe monotone, on en déduit que pour toute fonction F : E∂2 → R qui est B(E∂ )⊗2 -
mesurable bornée, on a
Eµ F (Xt , Yt ) = Eµ F (Yt , Yt ) . (II.57)
Il s’agit d’un argument de routine que nous détaillons.
Preuve de (II.57): soient U, V ⊂ E∂ deux ouverts. Pour tout n ∈ N, on pose fn (x) = 1∧nd(x, E∂ \U ) et gn (x) =
1∧nd(x, E∂ \V ). On vérifie facilement que fn , gn ∈ C0 (E), que 0 ≤ fn ≤ fn+1 ≤ 1U et 0 ≤ gn ≤ gn+1 ≤ 1V et
enfin que fn → 1U et fn → 1V ponctuellement. En appliquant (II.56) à fn et gn et en utilisant la convergence
monotone, on obtient que
∀U, V ⊂ E∂ ouverts, Eµ 1U (Xt )1V (Yt ) = Eµ 1U (Yt )1V (Yt ) . (II.58)
On note ensuite P := U×V ; U, V ⊂ E∂ ouverts . On remarque que P est un pi-système générant B(E∂ )⊗2 .
On note ensuite H l’ensemble des fonctions F qui sont B(E∂ )⊗2 -mesurables bornées et qui satisfont (II.57).
Il est clair que H est un R-espace vectoriel. De plus, (II.58) montre que pour tout C ∈ P, 1C ∈ H . Le
théorème de convergence monotone montre que H est stable par limite ponctuelle de fonctions positives
84 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.
croissantes uniformément bornées. L’espace H satisfait donc les hypothèses du théorème A.1.20 de classe
monotone fonctionnelle (page 207) et ce théorème permet d’affirmer que H est l’ensemble des fonctions
B(E∂ )⊗2 -mesurables bornées, ce qui prouve (II.57).
On note ∆ := {(x, x); x ∈ E∂ } qui est un fermé de E∂2 , donc un Borélien de cet espace. On peut donc
appliquer (II.57): Pµ (Xt = Yt ) = Eµ 1∆ (Xt , Yt ) = Eµ 1∆ (Yt , Yt ) = Pµ (Yt = Yt ) = 1, ce qui prouve le point
(iii) du théorème de régularisation des processus de Feller.
Le point (iii) implique que pour tout t ∈ R+ , et toute mesure µ ∈ M1 (E∂ ), on Xt est Ftµ (Y )-mesurable, ce
qui implique que Xt est Gtµ -mesurable car Fto (Y ) ⊂ Gto . Comme cela est vrai pour toute mesure µ, Xt est donc
Gt -mesurable. Comme X est càd, la proposition I.2.22, page 24, implique que X est (Gt )t∈R+ -progressivement
mesurable.
On fixe ensuite s, t ∈ R+ , f ∈ Lb (E∂ ) et µ ∈ M1 (E∂ ). On a Gto ⊂ Gt ⊂ Gtµ , et le point (iii) implique que
Pµ -p.s. f (Xt+s ) = f (Ys+t ) et Ps f (Xt ) = Ps f (Yt ); le lemme I.4.7 (page 38) entraîne alors que Pµ -p.s.
On a donc montré que Ω; F , (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ ) est un processus
Markovien. Comme X est càdlàg et comme (Pt )t∈R+ est de Feller-Dynkin, le théorème II.3.4 (page 60)
montre que X est fortement Markovien relativement à (Gt+ )t∈R+ . Le théorème II.4.6 de régularité à droite des
µ
filtration naturelles augmentées (page 65) entraîne que Ft+ (X) = Ft (X)µ , ce qui implique le point (iv) du
théorème II.6.1. Enfin la proposition II.5.2, page 71, entraîne le point (v).
Chapter III
Plutôt que de dire qu’un opérateur est continu on dit qu’il est borné, ce qui eut prêter à confusion. Autrement
dit "Q : H → H opérateur borné" signifie "Q endomorphisme continu sur H". On note L(H) l’ensemble des
opérateurs bornés sur H; L(H) est un espace vectoriel réel que l’on munit de la norme suivante:
∀Q ∈ L(H), kQk := sup |Qv| ; v ∈ H : |v| ≤ 1
La vérification du fait que k·k est une norme est facile. On appelle k·k la norme d’opérateur associée à | · | et
on montre facilement que (L(H), k·k) est un espace de Banach. Soient P, Q ∈ L(H); la composition de P et
Q est simplement notée P Q; on vérifié facilement que
kP Qk ≤ kP kkQk .
85
86 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
On note H 0 le dual topologique de H qui est l’espace des formes linéaires continues. On vérifie facilement
que pour toute φ ∈ H 0 , il existe c ∈ ]0, ∞[ , tel que |φ(v)| ≤ c|v|, pour tout v ∈ H et on munit H 0 de la norme
On rappelle que H 0 muni de | · |0 est un espace de Banach. On rappelle le théorème de Hahn-Banach: soit
v ∈ H, un vecteur non-nul. Alors il existe φ ∈ H 0 telle que φ(v) 6= 0. Établissons d’abord quelques résultats de
calcul intégral pour les fonctions de R+ à valeurs dans les Banach.
Lemme III.1.1 Soit H, Banach de norme | · |. Soit t ∈ R+ 7−→ vt ∈ H, une fonction supposée uniformément
R et bornée par une constante notée c ∈]0, ∞[ . Soit µ ∈ Mf (R+ ). Alors, il existe un élément de H,
continue
noté R+ µ(dt) vt tel que
Z X
µ(dt) vt = lim lim µ(Ik,n )vk2−n , (III.1)
R+ n→∞ m→∞
0≤k≤m
où les limites ont lieu pour la norme | · | et où Ik,n désigne l’intervalle [k2−n , (k + 1)2−n [ , k, n ∈ N. Les
propriétés suivantes sont également vérifiées.
R
(i) | R+ µ(dt) vt | ≤ c µ(R+ ).
(iii) Soit t ∈ R+ 7→ wt ∈ H, une fonction uniformément continue et bornée. Soient Q, R ∈ L(H). Alors
t 7→ Qvt + Rwt est également uniformément continue et bornée et
Z Z Z
µ(dt) Qvt + Rwt = Q µ(dt) vt + R µ(dt) wt .
R+ R+ R+
P
ce qui monte que la suite des sommes partielles 0≤k≤m µ(Ik,n )vk2−n m∈N est de Cauchy dans H. Comme
H est complet, la limite
X X
Jn := µ(Ik,n )vk2−n := lim µ(Ik,n )vk2−n
m→∞
k∈N 0≤k≤m
est bien définie dans H. On vérifie ensuite que (Jn )n∈N est également de Cauchy dans H. En effet, on remarque
d’abord que
X X
Jn+p − Jn = µ(Ik+`,n+p ) v`2−n−p − vk2−n .
n∈N k2p ≤`<(k+1)2p
III.1. THÉORIE DE HILLE-YOSIDA. 87
Pour tout n ∈ N, on pose ensuite ωn = sup{|vt − vs |; t, s ∈ R+ : |t − s| ≤ 2−n } qui tend vers 0 lorsque n → ∞.
Alors X X
|Jn+p − Jn | ≤ µ(Ik+`,n+p )ωn ≤ µ(R+ )ωn
n∈N k2p ≤`<(k+1)2p
R
Il existe donc J qui est la |·|-limite des Jn et on a (III.1) avec J = R+ µ(dt) vt . Au passage, on a montré que
|Jn | ≤ c µ(R+ ), ce qui implique (i).
Soit φ ∈ H 0 . On a
Z X Z
Z
φ µ(dt) vt = lim lim µ(Ik,n )φ(vk2−n ) = lim µ(dt) φ v2−n b2n tc = µ(dt) φ(vt ) ,
R+ n→∞ m→∞ n→∞ R R+
0≤k≤m +
Définition III.1.2 Soit H, un Banach de norme | · |. Soit t ∈ R+ 7−→ vt ∈ H, une fonction. Elle est dite
dérivable en t s’il existe w ∈ H tel que
d
Il est clair qu’il n’existe qu’un w tel que (III.2) et on note ce vecteur w = dt vt , qui est la dérivée de (vt )t∈R+
en t. De même, on définit les notions de limite à gauche et de limite à droite:
d+ d−
vt = lim s−1 (vs+t − vt ) et vt = lim s−1 (vt − vt−s )
dt s→0 dt s→0
s>0 s>0
(b) (vt )t∈R+ est dérivable à droite et à gauche en t et ces deux dérivées coïncident.
d d+ d−
Dans ce cas, dt vt = dt vt = dt vt .
Proposition III.1.3 Soit H, un Banach de norme | · |. Pour tout t ∈ R+ , on se donne vt , wt ∈ H. Alors les
propriétés suivantes sont vérifiées.
88 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
(i) Soient Q, R ∈ L(H). On suppose (vt )t∈R+ et (wt )t∈R+ dérivables en t (resp. dérivables à gauche,
dérivables à droite en t). Alors (Qvt + Rwt )t∈R+ est dérivable en t (resp. dérivable à gauche, dérivable
à droite en t) et on a
d d d
(Qvt + Rwt ) = Q vt + R wt ,
dt dt dt
(resp. avec les égalités correspondantes pour les dérivées à gauche et à droite).
(ii) Soit φ ∈ H 0 . On suppose (vt )t∈R+ dérivable en t (resp. à gauche, à droite en t) On pose f (t) = φ(vt ),
pour tout t ∈ R+ . Alors f est dérivable en t (resp. à gauche, à droite en t) et
d
f 0 (t) = φ vt
dt
(resp. avec les égalités correspondantes pour les dérivées à gauche et à droite).
Rt
(iii) On suppose que (wt )t∈R+ est uniformément continue et bornée. Pour tout t ∈ R+ , on pose xt := 0 ds ws .
d
Alors, (xt )t∈R+ est dérivable partout sur R+ et dt x t = wt , t ∈ R + .
d
(iv) On suppose que (vt )t∈R+ est dérivable sur R+ et que ( dt vt )t∈R+ est uniformément continue et bornée.
Alors, Z t
d
∀t ∈ R+ , vt − v0 = ds vs .
0 ds
Preuve: les points (i) et (ii) découlent directement de la définition. Le point (iii) est élémentaire: nous le
laissons en exercice. Montrons (iv). Pour cela on fixe φ ∈ H 0 et on pose f (t) = φ(vt ), pour tout t ∈ R+ . Par
(i), f est dérivable partout etRf 0 est uniformément continue et bornée. Le théorème fondamental de l’analyse
t
implique que f (t) − f (0) = 0 ds f 0 (s). On a donc
Z t Z t
d d
φ(vt − v0 ) = ds φ vs = φ ds vs ,
0 ds 0 ds
la première égalité découlant du (i) et la seconde du lemme III.1.1 (ii). Comme cela est vérifié pour toute
forme linéaire continue φ ∈ H 0 , cela implique (iv) par le théorème de Hahn-Banach.
Définition III.1.4 Soit H, un Banach de norme | · |. Pour tout t ∈ R+ , soit Pt ∈ L(H). Alors (Pt )t∈R+ est un
semi-groupe s’il satisfait la condition suivante.
Si (Pt )t∈R+ est un semi-groupe, il est dit contractant s’il satisfait la condition suivante.
Un semi-groupe contractant (Pt )t∈R+ est dit fortement continu sur H s’il satisfait la condition suivante.
III.1. THÉORIE DE HILLE-YOSIDA. 89
(c) Continuité forte: limt→0 |Pt v − v| = 0, pour tout v ∈ H, ce qui entraîne immédiatement que P0 = Id,
l’identité sur H.
Proposition III.1.5 Soit (Pt )t∈R+ , un semi-groupe contractant d’opérateurs sur un espace de Banach (H, | · |).
On définit le domaine de continuité forte du semi-groupe comme l’espace
H0 = v ∈ H : lim |Pt v − v| = 0 .
t→0
Autrement dit (Pt )t∈R+ restreint à H0 est un semi-groupe contractant fortement continu sur H0 .
Donc lim supt→0 |Pt v − v| ≤ 2|v − vn | → 0 lorsque n → ∞, ce qui implique (i). Soit v ∈ H0 . On voit
immédiatement que limt→0 |Pt v − v| = 0 implique que |P0 v − v| = 0, ce qui entraîne (ii). Soit v ∈ H0 et
s ∈ R+ . Par les propriétés de semi-groupe et de contractivité on a
Définition III.1.6 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme Pd’opérateur associée à
| · |. Soit A ∈ L(H). On rappelle que pour tout n ∈ N, kAn k ≤ kAkn . Par conséquent n∈N kAn k/n! < ∞, ce
qui permet de définir la série k·k-normalement convergente d’opérateurs bornés:
1 n 1 k
X X
eA = n!
A = k·k- lim k!
A
n→∞
n∈N 0≤k≤n
Lemme III.1.7 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme d’opérateur associée à | · |.
Soit A ∈ L(H). Les propriétés suivantes sont vérifiées.
Preuve: l’inégalité triangulaire pour la norme d’opérateurs k·k et sa sous-multiplicativité impliquent que pour
tout n ∈ N X 1 X 1
k
k k!
A k ≤ k!
kAkk
0≤k≤n 0≤k≤n
n
Or comme A et B commutent, (A + B)n = Ak B n−k et donc
P
0≤k≤n k
X 1
X 1
X n k n−k X 1
kQN RN − n!
(A + B)n k =k n!
1{(n−k)∨k≤N } A B k≤ (kAk+kBk)n −−−→ 0 .
k n! N →∞
0≤n≤N N <n≤2N 0≤k≤n n>N
Or QN RN → eA eB pour k·k.
Proposition III.1.8 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme d’opérateur associée
à | · |. Soit B ∈ L(H). Soit c ≥ kBk. On pose
A = B − cId et Pt = etA , t ∈ R+ .
Alors (Pt )t∈R+ est un semi-groupe contractant fortement continu sur H (on a même une continuité plus forte:
limt→0 kPt −Idk = 0).
Preuve: il est clair que tA et sA commutent donc Ps Pt = e(s+t)A = Ps+t . Par ailleurs, on a etA = e−ct etB
car B et cId commutent et e−ctId = e−ct Id. Donc, ketA k =Pke−ct etB k = e−ct ketB k ≤ e−ct etkBk ≤ 1. Donc
n
(Pt )t∈R+ est contractant. Enfin on remarque que kPt −Idk ≤ n≥1 tn! kAkn −→ 0 lorsque t → 0, ce qui termine
la preuve.
Proposition III.1.9 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme d’opérateur associée
à | · |. Soit A ∈ L(H).
(i) t ∈ R+ 7→ etA ∈ L(H) est dérivable dans (L(H), k·k). Pour tout v ∈ H, t 7→ etA v ∈ H est dérivable
dans (H, |·|). On a de plus
d tA d tA
e = AetA = etA A et e v = AetA v = etA Av .
dt dt
III.1. THÉORIE DE HILLE-YOSIDA. 91
Rt Rt
(ii) Pour tout t ∈ R+ , etA − Id = 0 ds AesA = 0 ds esA A, l’intégrale ayant lieu dans L(H) muni de k·k.
De même pour tout v ∈ H, et tout t ∈ R+ , on a
Z t Z t
tA sA
e v−v = ds Ae v = ds esA Av,
0 0
(iii) Soient A, B ∈ L(H) tels que les semi-groupes (etA )t∈R+ et (etB )t∈R+ soient contractants. On suppose
de plus que A et B commutent. Alors
Preuve: on a
X sn
s−1 e(t+s)A −etA −AetA = s−1 e(t+s)A −etA −etA A = etA s−1 esA −Id−sA = s etA An+2
(n + 2)!
n∈N
On en déduit que
X |s|n
ks−1 e(t+s)A − etA − AetA k ≤ |s|etkAk kAn+2 k
(n + 2)!
n∈N
le membre de droite tendant vers 0 lorsque s tend vers 0, ce qui montre (i). Le point (ii) découle du (i) et de
la proposition III.1.3 (iv), page 87, dans l’espace de Banach L(H).
Montrons le point (iii): comme tA et tB commutent etA −etB = etB et(A−B) −Id et point (ii) appliqué à
On utilise ensuite la propriété (iii) du lemme III.1.1, page 86, pour montrer que
Z t Z t
etB ds es(A−B) (A−B)v = dsetB es(A−B) (A−B)v .
0 0
Rt Rt
Par le lemme III.1.7 (iv), 0dsetB es(A−B) (A−B)v = 0dsesA e(t−s)B (A−B)v. On utilise ensuite l’inégalité
triangulaire (i) du lemme III.1.1 pour montrer que
Z t Z t
sA (t−s)B
dse e (A−B)v ≤ ds|esA e(t−s)B (A−B)v| .
0 0
Comme (etA )t∈R+ et (etB )t∈R+ sont contractants, |esA e(t−s)B) (A−B)v| ≤ |Av−Bv|, ce qui termine la preuve
de (III.3).
Un famille de résolvantes (Up )p∈]0,∞[ est dite contractante si elle satisfait de plus les conditions suivantes.
(b) Contractivité: |pUp v| ≤ |v|, pour tout v ∈ H et pour tout p ∈ ]0, ∞[ , c’est-à-dire pkUp k ≤ 1, pour tout
p ∈ ]0, ∞[ .
(Up )p∈]0,∞[ est dit fortement continue si elle satisfait la propriété suivante.
Proposition III.1.11 Soit H, un Banach de norme | · |. Soit (Up )p∈]0,∞[ , une famille de résolvantes contrac-
tantes sur H. On introduit les deux sous-espaces suivants:
H0 = v ∈ H : lim |pUp v−v| = 0 et D = U1 (H) ,
p→∞
qui sont respectivement appelés espace de forte convergence et domaine de la famille de résolvantes. Les
propriétés suivantes sont vérifiées.
(iv) La famille résolvante (Up )p∈]0,∞[ est fortement continue ssi D est dense dans H.
Preuve: soit v ∈ H et soient vn ∈ H0 , n ∈ N, tels que limn→∞ |v−vn | = 0. On observe que pour tout p ∈ ]0, ∞[ ,
l’inégalité triangulaire, la linéarité de pUp et sa contractivité impliquent
On a donc lim supp→∞ |pUp v − v| ≤ 2|vn − v| → 0, lorsque n → ∞, ce qui implique que v ∈ H0 et donc que
H0 est fermé, ce qui prouve (i).
Montrons (ii): soit v ∈ D. Il existe donc w ∈ H tel que v = U1 w. Soit p ∈∈ ]0, ∞[ . L’équation de
résolvante implique que v = U1 w = Up w + (p−1)Up U1 w, c’est-à-dire v = Up w−Up v + pUp v. Cela implique
que D ⊂ Up (H) et par contractivité |pUp v −v| = |Up (w −v)| ≤ p−1 |w − v|, ce qui implique que v ∈ H0 . En
raisonnant de même, on montre que Up (H) ⊂ U1 (H) = D, ce qui implique (ii).
Montrons (iii). Soit v ∈ H0 , comme |·|-limp→∞ pUp v = v et comme pour tout p ∈]0, ∞[ , on a D = Up (H),
v est limite de points de D et donc dans l’adhérence de D. Or on a montré que D est contenu dans H0 . Donc
H0 est l’adhérence de D, ce qui prouve (iii). Le point (iv) est une conséquence immédiate de (iii).
Résolvantes associées aux semi-groupes contractant fortement continus. On commence par montrer le
lemme technique suivant.
Lemme III.1.12 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme d’opérateur associée à
| · |. Soit (Pt )t∈R+ , un semi-groupe contractant fortement continu. Soient Q, R ∈ L(H) et soit µ ∈ Mf (R+ ).
Les propriétés suivantes sont vérifiées.
III.1. THÉORIE DE HILLE-YOSIDA. 93
(i) Pour tout v ∈ H, l’application t ∈ R+ 7→ Pt v ∈ H est uniformément continue et bornée pour |·|.
Z
µ
φ QU Rv = µ(dt) φ QPt Rv .
R+
Preuve: on remarque que |Pt+s v − Pt v| = |Pt (Ps v − v)| ≤ |Ps v − v| → 0, lorsque s → 0, par contractivité
et forte continuité. Cela implique (i). L’existence de U µ et les point (ii) et (iii) sont des conséquences
immédiates du lemme III.1.1, page 86 Montrons (iv): soient v ∈ H et φ ∈ H 0 . En appliquant (ii) à Q = Id et
R = U ν , on a φ(U µ U ν v) = R+ µ(dt) φ(Pt U ν v); en appliquant (ii) à Q = Pt , à ν et à R = Id, on obtient que
R
φ(Pt U ν v) = R+ ν(ds) φ(Pt Ps v). On rappelle que Pt Ps = Ps+t . On pose alors f (r) = φ(Pr v) et par Fubini on
R
a Z Z Z Z
µ ν
φ(U U v) = µ(dt) ν(ds) f (s + t) = µ ⊗ ν(dtds)f (s + t) = µ ∗ ν(dt) f (t)
R+ R+ R2+ R+
car µ ∗ ν est la mesure image de µ ⊗ ν par (t, s) ∈ R2+ 7→ t + s ∈ R+ . En appliquant encore (ii), on en déduit
que pour tous v ∈ H et φ ∈ H 0 , φ(U µ U ν v) = φ(U µ∗ν v) et Hahn-Banach permet de conclure.
Le théorème suivant montre qu’à tout semi-groupe contractant fortement continu, on peut associer une
famille de résolvantes contractantes fortement continue, qui est sa transformée de Laplace. Il s’agit du premier
résultat de la théorie de Hille-Yosida (le sens abélien).
Théorème III.1.13 (Hille-Yosida 1: des semi-groupes aux résolvantes) Soit H, un Banach de norme | · |. On munit
L(H) de k·k, la norme d’opérateur associée à |·|. Soit (Pt )t∈R+ , un semi-groupe contractant fortement continu.
Le lemme III.1.12 qui précède permet de définir les opérateurs bornés suivants
Z ∞
∀p ∈ ]0, ∞[ , Up := dt e−pt Pt . (III.4)
0
Alors (Up )p∈]0,∞[ est une famille de résolvantes contractantes fortement continue.
Preuve: on fixe p, q ∈ ]0, ∞[ et on pose µ(dt) := e−pt dt et ν(dt) := e−qt dt. Un calcul élémentaire montre
que µ ∗ ν(dt) = (p − q)−1 (e−qt − e−pt )dt. Le point (iii) du lemme III.1.12 implique que (Up )p∈]0,∞[ est une
famille de résolvantes. Montrons la contractivité: on fixe v ∈ H.RL’inégalité triangulaire au (i) du lemme III.1.1,
∞ R∞
combiné avec la contractivité de (Pt )t∈R+ , montre que |Up v| ≤ 0 dt e−pt |Pt v| ≤ |v| 0 dt e−pt = |v|/p ce qui
94 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
montre la contractivité. Montrons enfin la forte continuité: on fixe v ∈ H. Le lemme III.1.1 permet d’écrire
pUp v−v comme suit:
√
Z p Z ∞
−t
dt e−t Pt/p v − v .
pUp v − v = dt e Pt/p v − v + √
0 p
On pose εp = sup |Ps v−v| ; s ≤ p−1/2 qui tend vers 0 lorsquep → ∞. On a donc |e−t Pt/p v −v | ≤ εp e−t ,
√ √
pour tout t ∈ [0, p]. Pour tout t ≥ p, on a |e−t Pt/p v − v | ≤ 2e−t |v|. L’inégalité triangulaire pour les
intégrales à valeurs dans H entraîne alors
√
Z p Z ∞ √ √
−t
dt e−t 2|v| = εp 1−e− p
+ 2|v|e− p
|pUp v − v| ≤ dt e εp + √
0 p
Proposition III.1.14 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme d’opérateur associée
à | · |. Soient B ∈ L(H) et c ≥ kBk. On pose A := B − cId et Pt := etA , pour tout t ∈ R+ . Par la
proposition III.1.8 (page 90), (Pt )t∈R+ est un semi-groupe contractant fortement continu. On note (Up )p∈]0,∞[
la famille de résolvantes comme définie dans le théorème III.1.13 (qui affirme également que ces résolvantes
sont contractantes et fortement continues). Alors,
Autrement dit, pour tout p ∈]0, ∞[ , l’opérateur pId − A est inversible sur H d’inverse Up .
d tA
φ e−pt Pt (pId − A)v = pe−pt φ(etA v) − e−pt φ etA Av = pe−pt φ(etA v) − e−pt φ
(e v)
dt
d d d
= pe−pt φ(etA v) − e−pt φ(etA v) = − φ(e−pt etA v) = − φ(e−pt Pt v)
dt dt dt
On a utilisé la proposition III.1.9 (i), page 90, puis la proposition III.1.3 (ii), page 87, puis la formule de
Leibniz pour la dérivée du produit de deux fonctions numériques. En intégrant sur t ∈ R+ , on obtient
Z Z
d
φ Up (pId − A)v = dt φ e−pt Pt (pId − A)v = − dt φ(e−pt Pt v) = φ(v)− lim φ(e−pt Pt v) = φ(v).
R+ R+ dt t→∞
(III.5)
Ici on a utilisé la proposition III.1.1 (ii), page 86, pour la première égalité et le théorème fondamental du calcul
intégral pour les deux dernières égalités. Comme (III.5) est vrai pour toute forme φ ∈ H 0 , le théorème de
Hahn-Banach implique que Up (pId − A)v = v pour tout v ∈ H et donc que Up (pId − A) = Id. L’égalité
(pId − A)Up = Id se montre de la même manière.
Remarque III.1.15 Le nom de résolvante vient du fait que ces opérateurs permettent de résoudre l’équation
pv−Av = w, d’inconnue v.
III.1. THÉORIE DE HILLE-YOSIDA. 95
Théorème III.1.16 (Hille-Yosida 2: des résolvantes aux semi-groupes) Soit H, un Banach de norme | · |. Soit
(Up )p∈]0,∞[ , une famille de résolvantes contractantes fortement continue sur H. Alors, il existe un unique
semi-groupe (Pt )t∈R+ contractant et fortement continu dont les résolvantes sont (Up )p∈]0,∞[ , c’est-à-dire
Up = R+ dt e−pt Pt , pour tout p ∈]0, ∞[ .
R
Plus précisément, le semi-groupe (Pt )t∈R+ s’obtient par l’approximation suivante: pour tout r ∈ ]0, ∞[ on
pose
(r)
Ar := r(rUr −Id) ∈ L(H) et ∀t ∈ R+ , Pt := etAr .
On a alors
(r)
∀v ∈ H, ∀t ∈ R+ , lim |Pt v−Pt v| = 0 .
r→∞
Preuve: puisque krUr k ≤ 1, la seconde égalité combinée avec la proposition III.1.8 (i) implique que
(r)
(Pt )t∈R+ est un semi-groupe contractant et fortement continu.
(r) (r)
On note (Up )p∈(0,∞) la famille de résolvantes associée à (Pt )t∈R+ :
Z ∞
(r)
(r)
∀r ∈ ]0, ∞[ , ∀p ∈ ]0, ∞[ , Up := dt e−pt Pt .
0
(r)
La proposition III.1.8 (ii) implique que Up est l’inverse de pId − Ar = (p + r)Id − r2 Ur , qui se calcule
explicitement à l’aide des Uq . Pour cela on remarque d’abord que l’équation de résolvante implique que pour
tous a, b ∈ ]0, ∞[ ,
Id + (b−a)Ua Id − (b−a)Ub = Id − (b−a)Ub Id + (b−a)Ua = Id .
rp
On choisit b = r et a = p+r > 0, on a −(b − a) = −r2 (p + r)−1 et donc
−1 −1
Id − r2 (p + r)−1 Ur = Id − (b−a)Ub = Id + (b−a)Ua = Id + r2 (p + r)−1 Urp/(p+r) .
Par conséquent,
−1 1 r 2
Up(r) = (p + r)−1 Id − r2 (p + r)−1 Ur = p+r
Id + p+r
U rp . (III.6)
p+r
On en déduit que
1 r 2 r 2
Up(r) − Up =
p+r
Id + p+r
− 1)Up + p+r
U rp − Up
p+r
1 r 2 r 2 p 2
= p+r
Id + p+r
− 1)Up + p+r
U rp U
p+r p+r p
1 2r+p r pr
= p+r
Id − (p+r)2
pUp + U rp (pUp )
(p+r)2 p+r p+r
où on a utilisé l’équation de résolvante pour justifier la seconde égalité. En utilisant la fait que kqUq k ≤ 1 avec
pr
q = p et q = p+r , on a
1 2r+p r
kUp(r) − Up k ≤ p+r
+ (p+r)2
+ (p+r)2
96 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
Donc
∀ p ∈ ]0, ∞[ , lim kUp(r) − Up k = 0 . (III.7)
r→∞
(r)
On veut ensuite montrer que r 7→ Pt v est de Cauchy dans H lorsque r → ∞. Pour cela on commence
par montrer l’inégalité suivante
(r) (r0 )
∀t ∈ [0, t0 ], ∀v ∈ H, ∀r, r0 ∈ (0, ∞), |Pt v − Pt v| ≤ t0 |Ar v − Ar0 v| . (III.8)
Preuve de (III.8): on observe que Ar et Ar0 commutent et on applique la proposition III.1.9 (iii), page 90.
On montre ensuite le résultat suivant
2
∀v ∈ H, |Ar U1 v − U1 v + v| ≤ |rUr v − v| + |r−1|
|v| −−−→ 0 (III.9)
r→∞
1
Donc Ar U1 v − U1 v + v = v − rUr v − r−1 U1 v − rUr v) et comme |U1 v| ≤ |v| et |rUr v| ≤ |v|, on en déduit
immédiatement (III.9).
On pose D = U1 (H), qui est le domaine de la famille de résolvantes, comme défini à la proposition III.1.11,
page 92. Soit w ∈ D. Il existe donc v ∈ H tel que w = U1 v. On pose
2
r ∈ ]1, ∞[ , ε(w, r) := 2 sup |r0 Ur0 v − v| + r0 −1 |v| .
r0 >r
et on a
(r)
∀t0 ∈ R+ , ∀w ∈ D, sup |Pt w − Pt w| ≤ 2t0 ε(w, r) −−−→ 0 . (III.10)
t∈[0,t0 ] r→∞
(r) (r)
Il est clair que Pt : D → H est linéaire car les Pt le sont. Par ailleurs, puisque |Pt w| ≤ |w|, en passant
à la limite, on a |Pt w| ≤ |w|, pour tout w ∈ D. Comme H est complet, Pt s’étend sur l’adhérence de D en
une application linéaire contractante. Puisque la famille de résolvantes (Up )p∈(0,∞) est fortement continue, la
proposition III.1.11 (iv) implique que l’adhérence de D est H. Donc, Pt s’étend de D à H en une application
linéaire telle que kPt k ≤ 1.
Montrons la propriété de semi-groupe: on fixe w ∈ D, s, t ∈ R+ tels que t + s ≤ t0 et r ∈ ]0, ∞[ . On fixe
également w0 ∈ D. On a les inégalités suivantes.
(r) (r) (r) (r)
|Ps Pt w−Ps+t w|≤|Ps Pt w − Ps(r) Pt w| + |Ps(r) Pt w − Ps+t w| + |Ps+t w − Ps+t w|
(r)
≤|Ps Pt w − Ps(r) Pt w| + 0 + 2t0 ε(w, r)
III.1. THÉORIE DE HILLE-YOSIDA. 97
(r) (r)
Or (III.7) implique que limr→∞ φ(Up w) = φ(Up w). D’autre part (III.10) implique que limr→∞ φ(Pt w) =
φ(Pt w), pour tout t ∈ R+ . Par convergence dominée, en passant à la limite dans (III.11), on obtient
Z
∀w ∈ D, φ(Up w) = dt e−pt φ(Pt w) .
R+
Or R+dt e−pt φ(Pt v) = φ R+dt e−pt Pt v , par le lemme III.1.12 (ii), page 92. Donc pour toute forme φ ∈ H 0 ,
R R
φ(Up v) = φ R+dt e−pt Pt v . Le théorème de Hahn-Banach implique alors que Up v = R+dt e−pt Pt v. Comme
R R
cette égalité est vraie pour tout v ∈ H et tout p ∈ ]0, ∞[ , cela montre que la famille de résolvantes associée à
(Pt )t∈R+ est bien (Up )p∈]0,∞[ .
Il reste à montrer l’unicité du semi-groupe. Supposons que (Qt )t∈R+ soit un semi-groupe contractant
fortement continu dont la famille de résolvantes est (Up )p∈]0,∞[ . Alors, le Rlemme III.1.12 (ii) implique que
pour tous φ ∈ H , p ∈ ]0, ∞[ et v ∈ H, on a R+ dt e−pt φ(Pt v) = φ(Up v) = R+ dt e−pt φ(Qt v). La continuité
0
R
de t 7→ φ(Pt v) et de t 7→ φ(Qt v) et l’injectivité de la transformée de Laplace impliquent que φ(Pt v) = φ(Qt v).
Comme cela est vrai pour tout φ ∈ H 0 , Hahn-Banach implique que Pt v = Qt v. Puisque cela est vérifié pour tout
v ∈ H et tout t ∈ R+ , on en déduit l’unicité.
Clairement, DA est un sous-espace de H (pas nécessairement fermé) et A est linéaire (pas nécessairement
continu).
Lemme III.1.18 Soit H, un Banach de norme | · |. Soit (Pt )t∈R+ , un semi-groupe contractant fortement
continu de générateur A : DA → H. Alors, pour tout v ∈ DA , t 7→ Pt v est dérivable sur R+ dans H et
d
dt Pt v = APt v = Pt Av, t ∈ R+ . Cela implique que
et Z t Z t
∀v ∈ DA , ∀t ∈ R+ , Pt v−v = Ps Av ds = APs v ds . (III.13)
0 0
Preuve: on fixe v ∈ DA et on remarque que la propriété de semi-groupe et la contractivité impliquent que pour
tout t ∈ R+ fixé, on a
1
(Ps+t v−Pt v)−Pt Av = 1 (Pt Ps v−Pt v)−Pt Av = Pt 1 (Ps v−v)−Av) ≤ 1 (Ps v−v)−Av −→ 0
s s s s
+ +
lorsque s ↓ 0. Cela montre que ddt Pt v = Pt Av et aussi que Pt v ∈ DA et que APt v = ddt Pt v, ce qui entraîne
(III.12). Montrons ensuite que t 7→ Pt v est dérivable à gauche: soient t > s > 0 et v ∈ DA . On a
1
(Pt v−Pt−s v)−Pt Av ≤ 1 (Pt v−Pt−s v)−Pt−s Av + |Pt−s Av−Pt Av|
s s
1
≤ Pt−s s (Ps v−v)−Av + |Pt−s (Av − Ps Av)|
1
≤ s (Ps v−v)−Av + |Av − Ps Av| −→ 0
− +
lorsque s ↓ 0. On voit donc que ddt Pt v = Pt Av = ddt Pt v et donc t 7→ Pt v est dérivable sur R+ dans H. On peut
appliquer la proposition III.1.3 (iv) (page 87) à vt := Pt v pour en déduire (III.13).
Proposition III.1.19 Soit H, un Banach de norme | · |. Soit (Pt )t∈R+ , Run semi-groupe contractant fortement
∞
continu de générateur A : DA → H. Pour tout p ∈ ]0, ∞[ , on note Up = 0 e−pt Pt dt, la famille de résolvantes
associées (définie au théorème III.1.13 page 93). Alors, les assertions suivantes sont vérifiées.
Preuve: fixons v ∈ H et p ∈ ]0, ∞[ . On pose w := Up v. Par le lemme III.1.1 (ii), page 86, on a donc
Z ∞ Z ∞ Z ∞
−ps −ps
Pt w = e Pt Ps v ds = e Pt+s v ds = e pt
e−ps Ps v ds
0 0 t
Z t
= w + (ept −1)w − ept e−ps Ps v ds
0
Z t
1 pt
pt
= w + ptw + (e −1− pt)w − p (e −1)v − e pt
e−ps (Ps v−v) ds
0
Z 1
1
= w + ptw−tv + (ept −1− pt)w − p (ept −1−pt)v − tept e−s (Pst v−v) ds
0
On en déduit que
1
Z 1
(Pt w−w)−pw + v ≤ 1 (ept −1 − pt)|w| + 1
(ept −1 pt
e−s |Pst v−v| ds −→ 0
t t tp
− pt)|v| + e
0
lorsque t ↓ 0, par convergence dominée pour le dernier terme de l’inégalité. Cela montre donc que Up (H) ⊂ DA
et que pour tout v ∈ H, AUp v = pUp v − v, c’est-à-dire (pId−A)Up v = v. On a montré une partie de (i) et de
(ii). R∞
Montrons (iii): soit v ∈ DA . Comme 0 pept dt = 1, on observe que
Z ∞ Z ∞
−pt
ds e−s Ps/p v − v .
pUp v−v = dt pe Pt v−v =
0 0
On a donc Z ∞
p
ds se−s
p(pUp v−v)−Av = s
Ps/p v − v) − Av
0
R∞
puisque 0 ds se−s = 1. Par (III.13), au lemme III.1.18, page 98, combiné à l’inégalité triangulaire au lemme
III.1.1 (i) (page 86) et au fait que le semi-groupe soit contractant, implique que
Z s/p
s
|Ps/p v − v| ≤ dr |Pr Av| ≤ p |Av| .
0
Donc −s p
Ps/p v − v) − Av ≤ 2se−s |Av|.
se
s
Le membre de droite est intégrable en s sur R+ . De plus limp→∞ ps Ps/p v − v) − Av = 0. Donc par
convergence dominée on obtient (iii).
On termine la preuve de (i) et de (ii). Soit v ∈ DA . Pour tout q ∈ ]0, ∞[ , on pose
vq := q(qUq v−v)−Av .
Le point (iii) montre que limq→∞ |vq | = 0. On fixe p ∈ ]0, ∞[ . Comme pUp est contractant, on a aussi
limq→∞ |Up vq | = 0. Or l’équation de résolvante implique que
q2
Up vq = (q−p)Up Uq v−qUp v−Up Av
q−p
q2
= Up v−Uq v −qUp v−Up Av
q−p
100 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
q q
= pUp v− qUq v−Up Av
q−p q−p
Or le théorème III.1.13, page 93, montre que les résolvantes Uq sont fortement continues donc limq→∞ qUq v =
v dans H et on déduit de ce qui précède que limq→∞ Up vq = pUp v−v−Up Av dans H. Or limq→∞ |Up vq | = 0.
Donc v = Up (pv − Av), ce qui complète (ii). Cela montre aussi que v ∈ Up (H). Comme on a montré que
Up (H) ⊂ DA on a bien Up (H) = DA . Comme les résolvantes Up sont fortement continues, la proposition
III.1.11, page 92, entraîne que DA = Up (H) = H, ce qui termine la preuve de la proposition.
On peut également introduire le générateur infinitésimal d’une famille de résolvantes de la manière suivante.
Définition III.1.20 (Générateur d’un résolvante) Soit H, un Banach de norme | · |. Soit (Up )p∈]0,∞[ , une
famille de résolvantes sur H. On définit son générateur infinitésimal comme la fonction A : DA → H, DA ⊂ H,
donnée par
v ∈ DA et w = Av ⇐⇒ lim |p(pUp v−v) − w| .
p→∞
On remarque que
DA ⊂ H0 = v ∈ H : lim |pUp v−v| = 0 .
p→∞
Clairement, DA est un sous-espace de H (pas nécessairement fermé) et A est linéaire (pas nécessairement
continu).
Proposition III.1.21 Soit H, un Banach de norme | · |. Soit (Pt )t∈R+ , un semi-groupe contractant fortement
continu. Soit (U
R∞ p )p∈]0,∞[ , une famille de résolvantes contractante et fortement continue. On les suppose
associés: Up = 0 e−pt Pt dt, p ∈]0, ∞[ . Alors, leur générateur est le même.
Preuve: notons A0 : DA0 → H le générateur de (Pt )t∈R+ et A1 : DA1 → H le générateur de (Up )p∈]0,∞[ . La
proposition III.1.19 (iii) qui précède implique que DA0 ⊂ DA1 et que A1|DA0 = A0 .
Soit v ∈ DA1 . Pour tout q ∈ ]0, ∞[ , on pose vq := q(qUq v −v)−A1 v. On reprend la fin de la preuve de
la proposition III.1.19 précédente: par définition de A1 , limq→∞ |vq | = 0. On fixe p ∈ ]0, ∞[ . Comme pUp est
contractant, on a aussi limq→∞ |Up vq | = 0. Or l’équation de résolvante implique la limite suivante dans H:
q q
Up vq = q−p
pUp v− q−p qUq v−Up A1 v −−−−→ pUp v−v−Up A1 v
q→∞
Donc v = Up (pv−A1 v). Cela montre que v ∈ Up (H). Or la proposition III.1.19 (i) implique que Up (H) = DA0 .
Cela montre que DA1 ⊂ DA0 et par ce qui précède DA1 = DA0 et A1 = A0 .
Le théorème suivant montre que les semi-groupes et les familles de résolvantes contractants fortement
continus sont caractérisés par leur générateur infinitésimal.
Théorème III.1.22 (Caractérisation par le générateur) Soit H, un Banach de norme | · |. Soient (Pt )t∈R+ et
(Qt )t∈R+ , deux semi-groupes contractants fortement continus. Soient (Up )p∈]0,∞[ et (Vp )p∈]0,∞[ deux familles
de résolvantes contractantes fortement continues. Alors, les assertions suivantes sont vérifiées.
(i) Si (Pt )t∈R+ et (Qt )t∈R+ définissent la même famille de résolvantes, alors Pt = Qt , t ∈ R+ .
(ii) Si (Pt )t∈R+ et (Qt )t∈R+ ont le même générateur infinitésimal, alors Pt = Qt , t ∈ R+ .
(iii) Si (Up )p∈]0,∞[ et (Vp )p∈]0,∞[ ont le même générateur infinitésimal, alors Up = Vp , p ∈ ]0, ∞[ .
III.1. THÉORIE DE HILLE-YOSIDA. 101
Preuve: celle de (i) est simple. On note (Wp )p∈]0,∞[ la famille de résolvantes associée à (Pt )t∈R+ et (Qt )t∈R+ .
Soient v ∈ H et φ ∈ H 0 . Par le lemme III.1.1 (ii), page 86, on a pour tout p ∈ ]0, ∞[ ,
Z ∞ Z ∞ Z ∞ Z ∞
−pt −pt −pt
e φ(Pt v) dt = φ e Pt v dt = φ(Wp v) = φ e Qt v dt = e−pt φ(Qt v) dt .
0 0 0 0
L’injectivité de la transformée de Laplace pour les mesures finies sur R+ implique que pour Lebesgue-presque
tout t ∈ bR+ , φ(Pt v) = φ(Qt v). Or le lemme III.1.12 (i), page 92, et la continuité de φ, impliquent que
t 7→ φ(Pt v) et t 7→ φ(Qt v) sont continues. Donc φ(Pt v) = φ(Qt v), pour toute φ ∈ H 0 . Par Hahn-Banach, on
obtient Pt v = Qt v, pour tout t ∈ R+ et tout v ∈ H.
Montrons (ii). Notons A : DA → H, le générateur commun de (Pt )t∈R+ et de (Qt )t∈R+ . On note re-
spectivement (Up )p∈]0,∞[ et (Vp )p∈]0,∞[ , les familles de résolvantes associées. On fixe v ∈ H et p ∈ ]0, ∞[ .
La proposition III.1.19 (ii) appliquée à Vp implique (pId−A)Vp v = v et donc Up (pId−A)Vp v = Up v. Or la
proposition III.1.19 (i) appliquée à Vp affirme que Vp v ∈ DA . Si on pose w := Vp w, la proposition III.1.19 (ii)
appliquée à Up implique ensuite que Up (pId−A)w = w. On en déduit donc que Vp v = w = Up v. Donc (Pt )t∈R+
et (Qt )t∈R+ définissent la même famille de résolvantes et le (i) implique que ces semi-groupes sont égaux.
Montrons (iii). Notons A : DA → H, le générateur commun de (Up )p∈]0,∞[ et de (Vp )p∈]0,∞[ . Par le
théorème III.1.16 de Hille-Yosida 2, page 95, il existe deux semi-groupes (Pt )t∈R+ et (Qt )t∈R+ contractants
fortement continus tels que (Up )p∈]0,∞[ est la famille de résolvantes de (Pt )t∈R+ et (Vp )p∈]0,∞[ celle (Qt )t∈R+ .
La proposition III.1.21 qui précède montre alors que A : DA → H est le générateur commun de (Pt )t∈R+ et de
(Qt )t∈R+ ; le point (ii) implique ensuite que ces semi-groupes sont égaux, ce qui entraîne que les résolvantes
associées soient égales.
Définition III.1.23 (Opérateurs dissipatifs, opérateurs fermés) Soit H, un Banach de norme | · |. Soit DA , un
sous-espace vectoriel de H et A : DA → H, un opérateur.
(b) L’opérateur A : DA → H est dit fermé si pour toute suite vn ∈ H, n ∈ N telle que
alors v ∈ DA et w = Av. Autrement dit A est fermé ssi son graphe {(v, Av) ; v ∈ DA } est un fermé de
H ×H muni de la topologie produit.
(c) Il existe p0 ∈]0, ∞[ tel que (p0 Id−A)(DA ) est un sous-espace fermé de H.
Preuve: supposons (a). Soit p ∈]0, ∞[ . Soit vn ∈ DA , n ∈ N et w ∈ H tels que limn→∞ (pId−A)vn = w. On
pose wn := (pId−A)vn . Puisque A est dissipatif, on vérifie que p|vn −vm | ≤ |wn −wm |, ce qui implique que
(vn )n∈N est de Cauchy dans H et donc converge vers v ∈ H. On en déduit donc que limn→∞ Avn = pv −w.
Comme on a supposé que A est fermé, on a Av = pv−w et donc w ∈ (pId−A)(DA ), ce qui montre (b).
Clairement (b) implique (c). Montrons que (c) =⇒ (a): soit vn ∈ H, n ∈ H telle que limn→∞ vn =: v et
limn→∞ Avn =: w. Comme (p0 Id−A)(DA ) est fermé, il existe u ∈ DA tel que p0 v −w = p0 u−Au. Comme
A est dissipatif, on a aussi pour tout n ∈ N
Donc, en passant à la limite, u = v: on en déduit que v ∈ DA et que w = Au = Av, ce qui implique que A est
fermé.
Le théorème suivant est troisième résultat de la théorie de Hille-Yosida. Il exprime des conditions néces-
saires et suffisantes sur un opérateur pour qu’il soit le générateur infinitésimal d’un semi-groupe contractant et
fortement continu.
Théorème III.1.25 (Hille-Yosida 3: des générateurs aux semi-groupes) Soit H, un Banach de norme | · |. Soit DA , un
sous-espace vectoriel de H. Alors, un opérateur A : DA → H, est le générateur d’un semi-groupe contractant
fortement continu si et seulement s’il satisfait les conditions suivantes:
∀p ∈ Λ, ∀w ∈ DA , Up (pId−A)w = w .
Soient p, q ∈ Λ. Soit w ∈ DA . On a
Up (qId−A)w = Up (q−p)Id + pId−A w = (q−p)Up w + Up (pId−A)w = (q−p)Up w + w
III.1. THÉORIE DE HILLE-YOSIDA. 103
On pose alors V = n∈N (p − r)n Upn+1 qui est un opérateur borné qui satisfait V = Up + (r − p)Up V . Par
P
conséquent, pour tout v ∈ H, on a (pId−A)V v = v + (r −p)V v, c’est-à-dire que (rId−A)V v = v, pour tout
v ∈ H. On a donc montre que si p ∈ Λ, alors ]0, 2p[⊂ Λ. Comme Λ 6= ∅, cela implique facilement que Λ =]0, ∞[.
Cela montre que les (Up )p∈]0,∞[ sont une famille de résolvantes contractantes. On a également montré que
(pId−A)(DA ) = H pour tout p ∈ ]0, ∞[ . Montrons que les résolvantes sont fortement continues: soit v ∈ DA ;
on a Up (pId−A)v = v. Donc
1 1
|pUp v−v| = p |pUp Av| ≤ p |Av| −−−→ 0.
p→∞
Cela montre que DA ⊂ H0 := {v ∈ H : limp→∞ pUp v = v}. Or la proposition III.1.11 (i), page 92 implique
que H0 est fermé. Par l’hypothèse (a), on en déduit que H0 = H, ce qui montre que la famille de résolvantes
contractante (Up )p∈]0,∞[ est fortement continue.
Le théorème III.1.16 de Hille-Yosida 2 (des résolvantes vers le semi-groupe, page 95) implique l’existence
d’un unique semi-groupe (Pt )t∈R+ contractant fortement continu dont les (Up )p∈]0,∞[ sont les résolvantes.
On note A0 : DA0 → H le générateur infinitésimal de (Up )p∈]0,∞[ (voir la définition III.1.20, page 100). La
proposition III.1.21, page 100, implique que A0 est également le générateur de (Pt )t∈R+ . Soit v ∈ DA . Comme
Up (pId−A)v = v, on a
|p(pUp v−v)−Av| = |pUp Av−Av| −−−→ 0
p→∞
La proposition III.1.19 (i) (page 98) implique que Up (H) = DA0 . Or on a Up (H) = DA . Cela montre que
DA0 = DA et (III.15) implique que A est le générateur de (Pt )t∈R+ .
L’hypothèse (c) du théorème III.1.25 est difficile à vérifier directement car en général, il est difficile de con-
naître explicitement le domaine d’un générateur infinitésimal. La plupart du temps, on connaît le générateur in-
finitésimal d’un semi-groupe sur un sous-espace qui, s’il est suffisamment riche, caractérise le générateur. Nous
donnons dans la suite un énoncé plus pratique tenant compte de cette difficulté. Mais tout d’abord montrons
une caractéristique des générateurs infinitésimaux qui est exploitée plus loin pour les processus Markoviens et
qui permet parfois de calculer précisément le domaine d’un générateur.
Lemme III.1.26 Soit H, un Banach de norme | · |. Soient DA , DA1 , des sous-espaces vectoriels de H. Soient
A : DA → H et A1 : DA1 → H, des opérateurs. On fait les hypothèses suivantes.
Donc A1 (u−w) = u−w et l’hypothèse (c) implique que u = w et donc que u ∈ DA . On a donc DA1 = DA , ce
qui permet de conclure.
Pour une version plus pratique du théorème III.1.25 de Hille-Yosida 3, on introduit les notions suivantes.
Définition III.1.27 (Opérateur fermable, fermeture) Soit H, un Banach de norme | · |. Soit DA , un sous-espace
vectoriel de H et A : DA → H, un opérateur.
(a) A est dit fermable si pour toute suite vn ∈ DA , n ∈ N, telle que limn→∞ vn = 0 et limn→∞ Avn =: w, on
a w = 0.
Puisque A est fermable, à v ∈ H n’est associé au plus une valeur Av. On vérifie facilement que DA est
un sous-espace vectoriel (pas nécessairement fermé) et que A est un opérateur fermé, pas nécessairement
continu.
(1) L’adhérence Γ de Γ dans H ×H est le graphe d’un opérateur si et seulement si A est fermable.
(3) Soit A1 : DA1 → H, un opérateur étendant A, c’est-à-dire que DA ⊂ DA1 et A1|DA = A. Si A1 est fermé
alors, A est fermable et A1 étend A, c’est-à-dire que DA ⊂ DA1 et A1|DA = A.
Autrement dit, la fermeture d’un opérateur fermable est le plus petit (au sens de l’inclusion des graphes) opéra-
teur fermé étendant A.
Théorème III.1.29 (Hille-Yosida 3bis: des opérateurs fermables aux semi-groupes) Soit H, un Banach de norme | · |.
Soit DA , un sous-espace vectoriel de H et A : DA → H, un opérateur. On fait les hypothèses suivantes.
(c) Il existe p0 ∈ ]0, ∞[ , tel que (p0 Id−A)(DA ) soit dense dans H.
Définition III.2.1 Soit E, un espace LCBD. Pour tout t ∈ R+ , soit Pt : C0 (E) → C0 (E), une application
linéaire. C’est un semi-groupe de Feller-Dynkin si les conditions suivantes sont satisfaites.
On rappelle la proposition II.1.11, page 47 , qui montre que tout semi-groupe de Feller-Dynkin est le semi-
groupe associé à des noyaux sous-Markoviens. On rappelle que la norme du supremum sur C0 (E) est notée
k·k∞ et on rappelle enfin que (C0 (E), k·k∞ ) est un espace de Banach. La proposition suivante montre que les
semi-groupes de Feller-Dynkin sont contractants fortement continus sur l’espace de Banach, ce qui permet de
leur appliquer les résultats précédents de la théorie de Hille-Yosida.
Proposition III.2.2 Soit E, un espace LCBD. Soit (Pt )t∈R+ , un semi-groupe de Feller-Dynkin. Alors, c’est un
semi-groupe d’opérateurs bornés de L(C0 (E)) qui est contractant et fortement continu, c’est-à-dire que pour
toute fonction f ∈ C0 (E) et tout t ∈ R+ , on a
kPt f k∞ ≤ kf k∞ et limkPt f −f k∞ = 0.
t→0
Preuve:
R soit (pt (x, dy))t∈R+ ,x∈E , les noyaux sous-Markoviens associés à (Pt )t∈R+ , c’est-à-dire Pt f (x) =
E pt (x, dy)f (y). Cela permet d’étendre les opérateurs Pt à l’espace Lb (E). Il est clair que |Pt f (x)| ≤
kf k∞ pt (x, E) ≤ kf k∞ car les noyaux sont sous-Markoviens. Donc kPt f k∞ ≤ kf k∞ .
La propriété de continuité faible de Feller-Dynkin (définition III.2.1 (c)) implique que pour toute f ∈ C0 (E)
et tout x ∈ E, t 7→ Pt f (x) est càd. Par conséquent, pour tout p ∈ ]0, ∞[ , pour tout f ∈ C0 (E), il y a un sens à
poser Z ∞
∀x ∈ E, Up f (x) = e−pt Pt f (x) dt .
0
Le lemme II.6.5, page 80 (qui est une conséquence du théorème de convergence dominée) permet d’affirmer
que Up f ∈ C0 (E), que Up : C0 (E) → C0 (E) est linéaire, que kpUp f k∞ ≤ kf k∞ et que
Z ∞
∀f ∈ C0 (E), ∀x ∈ E, lim pUp f (x) = lim e−s Ps/p f (x) = f (x) . (III.16)
p→∞ p→∞ 0
Autrement dit (Up )p∈]0,∞[ est une famille de résolvantes contractante. On pose ensuite
H0 := f ∈ C0 (E) : lim kpUp f −f k∞ = 0 et D := U1 (C0 (E)) .
p→∞
La proposition III.1.11, page 92 implique que H0 est un fermé de (C0 (E), k·k∞ ), que D = Up (C0 (E)), pour
tout p ∈]0, ∞[ , et que l’adhérence de D pour k·k∞ est H0 . Soit φ ∈ C0 (E)0 , une forme linéaire continue. Le
théorème de Riesz Rde représentation des formes continues montre qu’il existe une mesure signée µ : B(E) →
R telle que φ(f ) = E f dµ, f ∈ C0 (E). On note µ+ et µ− respectivement les variations positive et négative de
µ: ce sont deux mesures positives de masse finie telles que µ = µ+ −µ− et on a donc
Z Z Z
∀f ∈ C0 (E), φ(f ) = f dµ = f dµ+ − f dµ− .
E E E
−
−−→ f (x) µ+ (dx) − f (x) µ− (dx) = φ(f ) . (III.17)
p→∞ E E
III.2. APPLICATIONS AUX SEMI-GROUPES DE FELLER-DYNKIN. 107
Supposons que φ ∈ C0 (E)0 soit telle que φ(g) = 0, pour toute fonction g ∈ D. Comme Up (C0 (E)) ⊂ D ⊂ H0 ,
pour tout p ∈ ]0, ∞[ , on a pour toute fonction f ∈ C0 (E), φ(pUp f ) = 0, et (III.17) implique que φ(f ) = 0, pour
tout f ∈ C0 (E), c’est-à-dire que φ est nulle. Cela montre que D, et donc H0 , est dense dans C0 (E). Or H0 est
fermé donc H0 = C0 (E) et donc la famille de résolvantes contractante (Up )p∈]0,∞[ est fortement continue.
Le théorème III.1.16 de Hille-Yosida 2 (des résolvantes vers les semi-groupes, page 95), implique qu’il
existe un unique semi-groupe contractant fortement continu (Qt )t∈R+ sur C0 (E) dont les résolvantes sont
(Up )p∈]0,∞[ : pour tout p ∈]0, ∞[ , pour toute f ∈ C0 (E) et tout x ∈ E,
Z ∞ Z ∞
e−pt Qt f (x) dt = Up f (x) = e−pt Pt f (x) dt
0 0
L’injectivité de la transformée de Laplace pour les mesures signées ainsi que la continuité à droite de t 7→ Pt f (x)
et de t 7→ Qt f (x) implique que Pt f (x) = Qt f (x) et donc Qt = Pt , ce qui permet de conclure.
Définition III.2.3 (Principe du maximum) Soit E, un espace topologique LCBD. Soit DA , un sous-espace
vectoriel de C0 (E) et soit A : DA → C0 (E), un opérateur. Il satisfait le principe du maximum si pour toute
fonction f ∈ DA et tout x0 ∈ E tels que supx∈E f (x) = f (x0 ) > 0, on a Af (x0 ) ≤ 0.
Montrons d’abord le lemme suivant dû à Dynkin.
Lemme III.2.4 (Principe du maximum de Dynkin) Soit E, un espace topologique LCBD. Soit A : DA → C0 (E), le
générateur infinitésimal d’un semi-groupe de Feller-Dynkin. Soit A1 : DA1 → C0 (E), un opérateur prolongeant
A. On suppose que A1 satisfait le principe du maximum. Alors, DA = DA1 et A = A1 .
Preuve: soit f ∈ DA1 telle que A1 f = f . Par le lemme III.1.26, page 103, il suffit de montrer que cela implique
que f = 0. Soit (E∂ , d), un compactifié métrique habituel de E; f se prolonge par continuité en ∂ par f (∂) = 0.
Comme toute fonction continue sur un compact atteint ses extrema, il existe x0 ∈ E∂ tel que |f (x0 )| = kf k∞ .
Quitte à considérer −f , on peut supposer sans perte de généralité que kf k∞ = supx∈E f (x) = f (x0 ). Si f 6= 0,
alors f (x0 ) > 0. Comme A1 satisfait le principe du maximum, A1 f (x0 ) ≤ 0. Or A1 f (x0 ) = f (x0 ) > 0, ce qui
est absurde. On a donc f = 0.
Lemme III.2.5 Soit E, un espace topologique LCBD. Soit DA , un sous-espace de C0 (E) et soit A : DA →
C0 (E), un opérateur. Alors, les assertions suivantes sont vérifiées.
Preuve: montrons (i). On note (Pt )t∈R+ , le semi-groupe dont A est le générateur. Soit f ∈ DA . Pour tout
x ∈ E, t 7→ Pt f (x) est donc dérivable à droite en 0 et on a Af (x) = limt→0+ t−1 (Pt f (x)−f (x)). On suppose
qu’il existe x0 ∈ E tel que supx∈E f (x) = f (x0 ) > 0. Comme Pt est associé aux noyaux sous-Markoviens
108 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
R
pt (x, dy), on a Pt f (x0 ) = E pt (x0 , dy)f (y) ≤ pt (x0 , E)f (x0 ) ≤ f (x0 ), ce qui implique que Af (x0 ) ≤ 0. Cela
prouve (i).
Montrons (ii). On suppose que A satisfait le principe du maximum. Soit f ∈ DA . Soit (E∂ , d), un
compactifié métrique habituel de E; f se prolonge par continuité en ∂ par f (∂) = 0. Comme toute fonction
continue sur un compact atteint des extrema, il existe x0 ∈ E∂ tel que |f (x0 )| = kf k∞ . On suppose d’abord que
f (x0 ) > 0, donc kf k∞ = supx∈E f (x) = f (x0 ). Comme A satisfait le principe du maximum, on a donc pour
tout p ∈ ]0, ∞[ ,
pkf k∞ = pf (x0 ) ≤ pf (x0 )−Af (x0 ) = |pf (x0 )−Af (x0 )| ≤ kpf −Af k∞
Si f (x0 ) = −kf k∞ < 0, on applique ce qui précède à −f et on obtient également que pkf k∞ ≤ kpf −Af k∞ ,
pour tout p ∈ ]0, ∞[ . Si f (x0 ) = 0, alors f est nulle et l’inégalité précédente est triviale. Cela montre bien que
A est dissipatif.
Le théorème suivant reformule le théorème III.1.25, page 102, dans le cas des semi-groupes de Feller-
Dynkin.
Théorème III.2.6 Soit E, un espace topologique LCBD. Soit DA , un sous-espace de C0 (E) et soit A : DA →
C0 (E), un opérateur. Alors, A est le générateur d’un semi-groupe de Feller-Dynkin si et seulement s’il satisfait
les conditions suivantes.
Preuve: supposons d’abord que A soit le générateur d’un semi-groupe de Feller-Dynkin, alors A satisfait
le principe du maximum d’après le lemme III.2.5 (i), page 107. Comme un semi-groupe de Feller-Dynkin
est contractant et fortement continu (d’après la proposition III.2.2), le théorème III.1.25 de Hille-Yosida 3
(du générateur vers les semi-groupes, page 102) s’applique et DA est dense dans (C0 (E), k·k∞ ) et il existe
p0 ∈]0, ∞[ , tel que (p0 Id−A)(DA ) = C0 (E).
Réciproquement: supposons (a), (b) et (c). Le lemme III.2.5 (ii) implique que A est dissipatif et le
théorème III.1.25 de Hille-Yosida (des générateurs vers les semi-groupe, page 102) s’applique: A : DA →
C0 (E) est le générateur d’un semi-groupe (Pt )t∈R+ qui est contractant fortement continu sur l’espace de Ba-
nach (C0 (E), k·k∞ ).
Il reste à montrer que (Pt )t∈R+ est un semi-groupe de Feller-Dynkin et plus précisément, il faut montrer
la condition (b) de positivité et contractilité de la définition III.2.1, page 105. Pour cela, on fixe tout d’abord
g ∈ DA tel que inf x∈E g(x) < 0. Soit (E∂ , d), un compactifié métrique habituel de E; g se prolonge par
continuité en ∂ par g(∂) = 0. Comme toute fonction continue sur un compact atteint des extrema, il existe
x0 ∈ E∂ tel que g(x0 ) = inf x∈E g(x) < 0. En appliquant le principe du maximum à −g, on en déduit que
Ag(x0 ) ≥ 0. Par conséquent, pour tout p ∈]0, ∞[,
Soit f ∈ C0 (E) telle que f ≥ 0. Soit p ∈ ]0, ∞[ . La proposition III.1.19 (i) et (ii) (page 98) implique que
Up f ∈ DA et (pId−A)Up f = f ≥ 0. En appliquant (III.18) à g := Up f , on en déduit que
On rappelle l’approximation donnée au théorème III.1.16 de Hille-Yosida 2 (des résolvantes vers le semi-
groupe, page 95): on pose
(r)
∀r ∈ ]0, ∞[ , Ar := r(rUr −Id) et ∀t ∈ R+ , Pt = etAr = ert(rUr −Id) .
On a alors
(r)
∀f ∈ C0 (E), ∀t ∈ R+ , lim kPt f −Pt f k∞ = 0 . (III.20)
r→∞
Soit f ∈ C0 (E) telle que f ≥ 0. Par (III.19), pour tout r ∈ ]0, ∞[ on a Ur f ≥ 0 et plus généralement (Ur )n f ≥ 0
pour tout n ∈ N. Donc, pour tout t ∈ R+ ,
(r) 2U
X (tr2 )n
Pt f = e−rt etr r
f= e−rt (Ur )n f ≥ 0
n!
n∈N
∀f ∈ C0 (E), ∀t ∈ R+ , f ≥ 0 =⇒ Pt f ≥ 0 . (III.21)
Supposons maintenant que f ∈ C0 (E) soit telle que 0 ≤ f ≤ 1, alors Pt f ≥ 0 et donc supx∈E Pt f (x) =
kPt f k∞ ≤ kf k∞ ≤ 1, car Pt est contractant. Donc 0 ≤ Pt f ≤ 1. Cela montre la condition (b) de la définition
III.2.1 des semi-groupes de Feller-Dynkin, ce qui permet de montrer que (Pt )t∈R+ est un semi-groupe de
Feller-Dynkin.
Théorème III.2.7 Soit E, un espace topologique LCBD. Soit DA , un sous-espace de C0 (E) et soit A : DA →
C0 (E), un opérateur. On fait les hypothèses suivantes.
(c) Il existe p0 ∈ ]0, ∞[ , tel que (p0 Id−A)(DA ) soit dense dans (C0 (E), k·k∞ ).
Alors A est fermable et sa fermetureA : DA → C0 (E) est le générateur d’un semi-groupe de Feller-Dynkin.
Preuve: le lemme III.2.5 (ii) implique que A est dissipatif et le théorème III.1.29 de Hille-Yosida 4 (des
opérateurs fermables vers les semi-groupes, page 104) s’applique: A est fermable et sa fermeture A : DA →
C0 (E) est le générateur infinitésimal d’un semi-groupe semi-groupe (Pt )t∈R+ qui est contractant et fortement
continu sur l’espace de Banach (C0 (E), k·k∞ ). Il reste ensuite à montrer qu’il s’agit d’une semi-groupe de
Feller-Dynkin, c’est-à-dire à prouver qu’il satisfait la condition (b) de la définition III.2.1.
Pour cela, on fixe g ∈ DA telle que inf x∈E g(x) < 0. Par définition de la fermeture de A, il existe gn ∈ DA ,
n ∈ N, telles que limn→∞ kg−gn k∞ = 0 et limn→∞ kAg−Agn k∞ = 0. Par compacité, il existe également x∗ et
xn ∈ E tels que g(x∗ ) = inf x∈E g(x) et gn (xn ) = inf x∈E gn (x). Pour tout p ∈]0, ∞[ , on observe alors que
inf pg(x)−Ag(x) ≤ pg(xn )−Ag(xn ) ≤ pgn (xn )−Agn (xn ) + pkg−gn k∞ + kAg−Agn k∞
x∈E
110 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
car Agn (xn ) ≥ 0 (on applique le principe du maximum à −gn ). En passant à la limite dans (III.22), on obtient
que inf x∈E pg(x)−Ag(x) ≤ g(x∗ ) < 0. Cela montre que
∀g ∈ DA , p ∈ ]0, ∞[ , pg−Ag ≥ 0 =⇒ g ≥ 0 .
En raisonnant exactement comme dans la fin de la preuve du théorème III.2.6 qui précède, on montre que
(Pt )t∈R+ satisfait bien la condition (b) de la définition III.2.1 et qu’il est par conséquent un semi-groupe de
Feller-Dynkin.
On pose également P0 f = f . On rappelle que (Pt )t∈R+ est le semi-groupe Markovien du mouvement Brownien
standard dans Rd . On note
C0 (Rd ) = f ∈ Cb (Rd ) : lim f (x) = 0 .
kxk→∞
On note ∂i la dérivation des fonctions de Rd dans R en la i-ème coordonnée, on note ∂i,j 2 , la dérivation seconde
en les coordonnées i et j. On note C02 (Rd ) l’espace des fonctions deux fois continûment dérivables en chaque
coordonnée et dont les dérivées secondes tendent vers 0 en l’infini:
Le lemme suivant montre que le semi-groupe du mouvement Brownien résout le problème de la chaleur.
R
Preuve: soit t ∈ ]0, ∞[ . Comme Pt f (x) := Rd gt (y)f (y + x) `d (dy), le théorème le théorème de dérivation
sous l’intégrale implique que Pt f est C 2 et le théorème de convergence dominée implique également que
Pt f ∈ C02 (Rd ). Un calcul élémentaire implique ensuite que pour tout x ∈ Rd et tout t ∈ ]0, ∞[ ,
1 d 1 d d kxk2
= 2 (2π)− 2 t− 2 −2 e− kxk2 −dt .
2
∆gt (x) = − gt (x) 2t
dt
Comme t > 0, le théorème de dérivation sous l’intégrale peut s’appliquer et montre (III.24), pour tout t ∈ ]0, ∞[ .
d
Comme limt→0+ Pt ∆f (x) = ∆f (x), dt Pt f (x) tend vers ∆f (x) lorsque t → 0+.
Il faut montrer ensuite que Pt f (x) possède une dérivée droite en 0. Par la formule de Taylor, il existe une
fonction continue bornée εx : Rd → R telle que limy→0 εx (y) = 0 et telle que pour tout y := (y1 , . . . , yd ), on
ait
1
X X
2
f (x + y)−f (x) = yi ∂i f (x) + 2 yi yj ∂i,j f (x) + εx (y)kyk2 .
1≤i≤d 1≤i,j≤d
Lemme III.2.9 C02 (Rd ) est dense dans C0 (Rd ) pour la norme uniforme k·k∞ .
Preuve: soit t ∈ ]0, ∞[ et soit f ∈ C0 (Rd ). On a montré que Pt f ∈ C02 (Rd ). Comme (Pt )t∈R+ est de
Feller-Dynkin, on a limt→0 kPt f − f k∞ = 0, ce qui implique le lemme. Donnons, cependant, une preuve
directe de ce fait: pour tout δ ∈ ]0, ∞[ , on pose w(δ) := sup{|f (x) − f (y)| ; x, y ∈ Rd : kx − yk ≤ δ}. On
vérifie limδ→0+ w(δ) = 0, c’est-à-dire que f est uniformément continue sur Rd . Soit (Ω, F , P), un espace
de probabilité et Y : Ω → Rd , un vecteur Gaussien √ F -mesurable de matrice de covariance
identité:
√ la loi
de Y a pour densité g1 . On remarque la loi de tY est gt et donc que Pt f (x) = E f x + tY . Donc
√
|Pt f (x)−f (x)| ≤ E w tkY k . Or |w(δ)| ≤ 2kf k∞ , pour tout δ ∈ ]0, ∞[ . Par convergence dominée on a
donc
√
kPt f −f k∞ ≤ E w tkY k −−−→ 0 ,
t→0+
Lemme III.2.10 Soit f ∈ C02 (Rd ) telle qu’il existe x0 ∈ Rd satisfaisant supx∈Rd f (x) = f (x0 ) > 0. Alors
∆f (x0 ) ≤ 0.
112 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
Preuve: on a tout d’abord ∂i f (x0 ) = 0 pour tout i ∈ {1, . . . , d} et par la formule de Taylor, il existe une fonction
continue bornée ε : Rd → R telle que limy→0 ε(y) = 0 et telle que pour tout y := (y1 , . . . , yd ), on ait
1
X
2
2
yi yj ∂i,j f (x0 ) + ε(y)kyk2 = f (x0 + y)−f (x0 ) ≤ 0 .
1≤i,j≤d
2 f (x ) ≤ 0. Comme
En choisissant y := δei , où ei est le i-ème vecteur canonique et δ > 0, on vérifie que ∂i,i 0
cela est vérifié pour tout i ∈ {1, . . . , d}, on en déduit que ∆f (x0 ) ≤ 0.
(a) Son domaine C02 (Rd ) est dense dans C0 (Rd ) pour k·k∞ .
1
(b) 2∆ satisfait le principe du maximum.
(c) Pour tout p ∈ ]0, ∞[ , l’espace (pId− 21 ∆) C02 (Rd ) est dense dans C0 (Rd ) pour k·k∞ .
Preuve: le lemme III.2.9 montre (a) et le lemme III.2.10 montre (b). Il reste à prouver (c). Pour cela on fixe
p ∈ ]0, ∞[ et on pose Z ∞
∀x ∈ Rd , ∀f ∈ C02 (Rd ), Up f (x) = e−pt Pt f (x) dt , (III.26)
0
qui a bien un sens car t 7→ Pt f (x) est continue bornée (et même C 1 ) par le lemme III.2.8. Ce même lemme,
combiné avec le théorème de dérivation sous l’intégrale montre que Up f ∈ C02 (Rd ) et que
Z ∞ Z ∞
1 1 d
2
∆(Up f )(x) = e−pt 2 ∆(Pt f )(x) dt = e−pt Pt f (x) .
0 0 dt
Une intégration par parties (basée sur le fait que limt→∞ e−pt Pt f (x) = 0, implique que 1
2 ∆(Up f )(x) =
pUp f (x)−f (x). On a donc montré que
1
∀f ∈ C02 (Rd ), (pId− 2 ∆)Up f = f .
On en déduit que C02 (Rd ) ⊂ (pId− 12 ∆) C02 (Rd ) et le lemme III.2.9 implique le point (c).
Le théorème III.2.7, page 109 combiné au lemme III.2.11 qui précède permet la caractérisation suivante du
générateur du mouvement Brownien standard d-dimensionnel.
Théorème III.2.12 On considère l’opérateur 21 ∆ : C02 (Rd ) → C0 (Rd ). Alors, 12 ∆ est fermable dans l’espace
de Banach (C0 (Rd ), k·k∞ ) et sa fermeture 12 ∆ : D 1 ∆ → C0 (Rd ) est le generateur du semi-groupe de Feller-
2
Dynkin (Pt )t∈R+ du mouvement Brownien standard en dimension d.
Remarque III.2.13 En dimension d ≥ 2, le domaine D 1 ∆ de la fermeture du Laplacien usuel 21 ∆ sur C02 (Rd )
2
est difficile à décrire (il y a quelques résultats en dimension d = 2). Autrement dit, on connaît mal la fermeture
du Laplacien en dimension d supérieure à 2. En revanche, en dimension 1, le générateur du mouvement
Brownien est calculé explicitement comme montré dans le paragraphe qui suit.
III.2. APPLICATIONS AUX SEMI-GROUPES DE FELLER-DYNKIN. 113
La première égalité résulte d’un calcul élémentaire de primitive. La seconde égalité est une conséquence du
théorème d’inversion de Fourier qui s’applique car x 7→ e−|x| est Lebesgue-intégrable sur R.
Pour tout p ∈]0, ∞[ , on vérifie facilement que l’on peut définir Up : Cb (R, C) → Cb (R, C) par (III.26). Pour
tout u ∈ R, on note Eu :∈ Cb (R, C) la fonction définie par Eu (x) = eiux . On voit alors que
Z ∞ Z ∞
eiux
Z 2 tu2
−pt − 21 − y2t iuy iux
Up Eu (x) = dt e (2πt) e e e dy = e iux
dt e−pt e− 2 = .
0 R 0 p + 12 u2
Un changement de variable linéaire dans (III.27) implique alors que
√
Z
1
Up Eu (x) = dy (2p)− 2 e− 2p|y−x| eiuy
R
Par injectivité de la transformée de Fourier on en déduit la proposition suivante.
Proposition III.2.14 Soit (Pt )t∈R+ , le semi-groupe du mouvement Brownien en dimension 1, qui est de Feller-
Dynkin. On note (Up )p∈]0,∞[ la famille de résolvantes associée. Alors, on a la représentation suivante:
√
Z
1
∀f ∈ C0 (R), ∀p ∈ ]0, ∞[ , ∀x ∈ R, Up f (x) = dy (2p)− 2 e− 2p|y−x| f (y) .
R
On fixe f ∈ C0 (R). La proposition précédente permet d’écrire pour tout x ∈ R,
√
Z x √ √
Z ∞ √
1 1
Up f (x) = e−x 2p dy (2p)− 2 ey 2p f (y) + ex 2p dy (2p)− 2 e−y 2p f (y) .
−∞ x
Cela montre que Up f est dérivable partout et un calcul élémentaire montre que
√
Z ∞ √ √
Z x √
(Up f )0 (x) = ex 2p dy e−y 2p f (y) − e−x 2p dy ey 2p f (y) .
x −∞
Théorème III.2.15 (Calcul exact du générateur du Brownien en dim. 1) On note A : DA → C0 (R), le générateur du
semi-groupe (Pt )t∈R+ du mouvement Brownien en dimension 1. Alors,
1
DA = C02 (R) et ∀f ∈ C0 (R), Af = 2 f 00 .
Alors, (Mtf )t∈R+ est bien définie et sous Px , c’est une (Gt )t∈R+ -martingale.
(ii) Pour tout (Gt )t∈R+ -temps d’arrêt T tel que Ex [T ] < ∞,
h Z T i
Ex f (XT ) −f (x) = Ex Af (Xs ) ds . (III.29)
0
Preuve: comme Af ∈ C0 (E), s 7→ Af (Xs ) est càdlàg bornée, ce qui permet de définir Mtf comme une
v.a. bornée Gt -mesurable. La propriété de Markov au temps t implique que Px -p.s.
f
Z t s hZ
i
Ex Mt+s Gt = Ps f (Xt ) − Af (Xr ) dr − Ex Af (Xt+r ) dr Gt
0 0
Z t Z s
= Ps f (Xt ) − Af (Xr ) dr − dr Ex Af (Xt+r ) Gt
0 0
Z t Z s
= Ps f (Xt ) − Af (Xr ) dr − dr Pr Af (Xt ) .
0 0
L’interversion espérance conditionnelle/intégrale étant justifiée par le fait que Af (Xt+r ) estRbornée. On ap-
s
plique ensuite (III.13) (au lemme III.1.18, page 98) pour constater que pour tout y ∈ E, Ps f (y)− 0 dr Pr Af (y) =
f t
| Gt ] = f (Xt )− 0 Af (Xr ) dr = Mtf , ce qui termine la preuve du point (i).
R
f (y). Donc Px -p.s. Ex [Mt+s
Il est possible de déduire le point (ii) du point (i) en appliquant un théorème d’arrêt général pour les
martingale càd. Nous préférons démontrer la formule de Dynkin directement sans avoir recours à ce résultat.
III.3. FORMULE DE DYNKIN, OPÉRATEUR CARACTÉRISTIQUE. 115
R∞
Pour cela on fixe p ∈ ]0, ∞[ et g ∈ C0 (R). Il est clair que Y := 0 dt e−pt g(Xt ) est une v.a. G∞ -mesurable et
bornée par kgk∞ /p. On remarque ensuite que
Z T Z ∞ Z T Z ∞
−pt −pt −pt −pT
Y = e g(Xt ) dt + e g(Xt ) dt = e g(Xt ) dt + e e−pt g(Xt+T ) dt
0 T 0 0
Soit f ∈ DA . La proposition III.1.11 (ii), page 92, implique que Up (pf − Af ) = f . Si on applique ce qui
précède à g = pf −Af , on obtient
hZ T i
e−pt pf (Xt )−Af (Xt ) dt + Ex e−pT f (XT ) .
f (x) = Ex
0
et le membre de droite est intégrable. On peut donc appliquer la convergence dominée pour passer à la limite
dans (III.30) lorsque p → 0 et on obtient (III.29).
Remarque III.3.2 Appliquons l’énoncé précédent au mouvement Brownien standard dans Rd . Le théorème
III.2.12, page 112, (mais en fait le lemme III.2.8, page 110, suffit) implique alors que pour toute fonction
f ∈ C02 (Rd ),
Z t
t 1
Mt = f (Xt ) − 2 ∆f (Xs ) ds
0
est sous Px est une (Gt )t∈R+ -martingale. La formule d’Itô montre que Mtf se représente comme l’intégrale
stochastique suivante:
Z t
f
Mt = ∇f (Xs )·dXs .
0
La représentation de Mtf comme une intégrale trajectorielle présente des avantages, notamment la résolution
d’équations différentielles stochastiques par itérations de Picard.
un processus de Feller-Dynkin càdlàg tel que (Gt )t∈R+ satisfait les hypothèses habituelles.
116 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
Définition III.3.3 (Point absorbant) Un point x est dit absorbant si pt (x, dy) = δx (dy) pour tout t ∈ R+ . Un
raisonnement simple montre que x est absorbant ssi Px -p.s. pour tout t ∈ R+ , Xt = x.
Lemme III.3.4 On garde les notations et les hypothèses du début de la section pour le processus X. Soit
x ∈ E, un point qui n’est pas absorbant pour le processus. Pour tout ε ∈ ]0, ∞[ , on pose
τε := inf t ∈ R+ : d(Xt , x) ≥ ε
avec la convention inf ∅ = ∞. Alors, il existe ε0 ∈ ]0, ∞[ tel que Ex [τε ] < ∞, pour tout ε ∈]0, ε0 [ .
Preuve: comme x n’est pas absorbant, il exsiste t0 ∈]0, ∞[ , tel que p∂t0 (x, E∂ \{x}) > 0. Il existe donc δ et η,
des réels strictement positifs, tels que p∂t0 x, Uδ > η, où Uδ := {y ∈ E∂ : d(x, y) > δ}, qui est ouvert de E∂ .
On pose fn (y) = 1 ∧ (nd(y, E∂ \Uδ )). On vérifie facilement que fn ∈ C(E∂ ), que 0 ≤ fn ≤ fn+1 ≤ 1Uδ et que
limn→∞ fn = 1Uδ ponctuellement. Par conséquent, par convergence monotone, limn→∞ P t∂0 fn = pt0 (x, Uδ )
∂ ∂
S
ponctuellement sur E∂ . Or y ∈ E∂ : pt0 (y, Uδ ) > η = n∈N y ∈ E∂ : Pt0 fn (y) > η , donc y ∈ E∂ :
p∂t0 (y, Uδ ) > η est un ouvert. Il existe donc ε ∈ ]0, ∞[ , tel que
Sans perte de généralité, on peut supposer que ε ∈ ]0, δ[ . Soit n ∈ N∗ . On définit l’événement
An = ∀k ∈ {1, . . . , n}, Xkt0 ∈ B(x, ε) .
Définition III.3.5 (Opérateur caractéristique (Dynkin)) On garde les notations et les hypothèses du début de
la section pour le processus de Feller-Dynkin X. On note Abs l’ensemble des points absorbants du processus
et pour tout ε ∈ ]0, ∞[ , on rappelle la notation: τε = inf t ∈ R+ : d(Xt , x) ≥ ε , avec la convention inf ∅ = ∞.
On définit un opérateur L : DL → C0 (E) par
Cette définition fait sens d’une part grâce au lemme III.3.4, page 116, montrant que Ex [τε ] < ∞ et grâce à la
continuité à droite de X qui implique que Ex [τε ] > 0. On vérifie aisément que DL est un sous-espace vectoriel
de C0 (E) et que L est linéaire. L’opérateur L : DL → C0 (E) est appelé opérateur caractéristique de X.
III.4. QUELQUES APPLICATIONS AUX DIFFUSIONS. 117
Théorème III.3.6 Soit X, un processus de Feller-Dynkin à valeurs dans E∂ , avec les notations et hypothèses
énoncées en début de section. On note L : DL → C0 (E) l’opérateur caractéristique du processus et A : DA →
C0 (E), son générateur infinitésimal. Alors
DA = DL et A=L .
+
Preuve: soit f ∈ DA . On pose Af =: g. Soit x ∈ Abs. On a donc Pt f (x) = f (x) et donc g(x) = ddt Pt f (x)|0 =
0. On suppose ensuite que x ∈ E\Abs. Comme expliqué dans la définition III.3.5, page 116, pour tout ε
suffisamment petit, Ex [τε ] ∈ ]0, ∞[ . La formule de Dynkin (théorème III.3.1 (ii), page 114) implique que
DA ⊂ DL et L|DA = A .
Il est facile de vérifier ensuite que L satisfait le principe du maximum. Le lemme III.2.4, page 107, s’applique
et permet de conclure.
un processus de Feller-Dynkin càdlàg tel que (Gt )t∈R+ satisfait les hypothèses habituelles. On rappelle que ζ
désigne le temps de vie de X.
C’est une diffusion de Feller-Dynkin si les propriétés suivantes sont satisfaites.
(b) Cc∞ (Rd ) ⊂ DA où A : DA → C0 (Rd ) est le générateur du processus et où Cc∞ (Rd ) est l’espace des
fonctions infiniment dérivables à support compact.
Proposition III.4.2 Soit X, une diffusion de Feller-Dynkin dans Rd : on utilise les notations de la définition
III.4.1. La restriction de A à Cc∞ (Rd ) est locale, c’est-à-dire
Preuve: si x est un point absorbant, alors Af (x) = Ag(x) = 0. Supposons que x ne soit pas absorbant. On
rappelle la notation τε = inf{t ∈ R+ : d(Xt , X0 ) ≥ ε}, avec la convention que inf ∅ = ∞. Par le lemme III.3.4,
page 116, on a Ex [τε ] < ∞ et on a limε→0+ τε = 0, Px -p.s. et dans L1 (Ω, F , Px ). On a donc Px -p.s. τε < ζ
pour tout ε suffisamment petit. La continuité de X jusqu’au temps ζ implique que Px -p.s. d(Xτε , x) = ε pour
tout ε suffisamment petit. Supposons que f, g ∈ Cc∞ (Rd ) coïncident dans un voisinage de x. Alors, ce qui
précède implique que Lf (x) = Lg(x), où L est l’opérateur caractéristique du processus (définition III.3.5, page
116). Le théorème III.3.6, page 117, implique alors que Af (x) = Ag(x).
Le théorème suivant, dû à Dynkin, donne la forme du générateur infinitésimal d’une diffusion de Feller-
Dynkin (plus précisément la forme de sa restriction à Cc∞ (Rd )).
Théorème III.4.3 Soit X, une diffusion de Feller-Dynkin dans Rd : on utilise les notations de la définition
III.4.1. Alors,
1
X X
∀f ∈ C02 (Rd ), ∀x ∈ Rd , Af (x) = 2 2
ai,j (x)∂i,j f (x) + bi (x)∂i f (x) − c(x)f (x) ,
1≤i,j≤d 1≤i,j≤d
(a) Pour tous i, j ∈ {1, . . . , d}, ai,j , bi , c : Rd → R sont des fonctions continues.
Preuve. On rappelle le fait suivant: soient K ⊂ U ⊂ Rd , avec U ouvert et K compact; alors il existe φ ∈ Cc∞ (Rd )
telle que 1K ≤ φ ≤ 1U . On fixe R > 0 et on se donne φ ∈ Cc∞ (Rd ) telle que 1B(0,2R) ≤ φ ≤ 1B(2R+1) . Soit
x0 = (x01 , . . . , x0d ) ∈ B(0, R). Pour tout i, j ∈ {1, . . . , d}, on définit
Il est clair que ce sont des fonctions de Cc∞ (Rd ). On pose ensuite
Le caractère local de A implique que si φ est remplacée par n’importe quelle fonction Cc∞ (Rd ) valant 1 au
voisinage de x0 , cela définit les mêmes coefficients c(x0 ), bi (x0 ) et ai,j (x0 ). Quitte à augmenter R, cela
définit de façon univoque c, bi et ai,j comme des fonctions de Rd dans R. La définition de c montre que
c ∈ C(Rd ). Soit x := (x1 , . . . , xd ) ∈ B(0, R). On remarque que hxi (y) = hxi 0 (y) + (x0i − xi )φ(y) et donc
bi (x) = (Ahxi 0 )(x) − (x0i − xi )c(x). Cela montre que bi est continue. De même on observe que gi,j x (y) =
x0
gi,j x0
(y) + (x0i −xi )hxj 0 (y) + (x0j −xj )hxi 0 (y) + (x0i −xi )(x0j −xj )φ(y). Donc ai,j (x) = (Agi,j )(x) + (x0i −
x0 x
xi )(Ahj )(x) + (x0j −xj )(Ahi 0 )(x)−(x0i −xi )(x0j −xj )φ(x). Cela montre également, que ai,j est une fonction
continue.
Comme φ atteint son maximum pour tout x ∈ B(0, R), le principe du maximum (lemme III.2.5, page 107)
implique que c(x) = −(Aφ)(x) ≥ 0, ce qui montre que c est une fonction positive. Soient λ1 , . . . , λd ∈ R. Pour
2
tout ε ∈ ]0, ∞[ , pour tout y ∈ Rd , on pose θε (y) = εφ(y)− λ1 hx1 (y)+. . .+λd hxd (y) .P Comme pour tout y ∈
B(0, R), on a φ(y) = φ(y)2 , on vérifie que pour tout y ∈ B(0, R), on a θε (y) = εφ(y)− 1≤i,j≤d λi λj gi,j x (y).
Or θε atteint son maximum en x et ce maximum vaut ε > 0.le principe du maximum (lemme III.2.5, page 107)
III.4. QUELQUES APPLICATIONS AUX DIFFUSIONS. 119
P
implique que −εc(x) − 1≤i,j≤d λi λj ai,j (x) = (Aθε )(x) ≤ 0. Comme cela est vrai pour tout ε > 0 et tous
λ1 , . . . , λd ∈ Rd , on en déduit que la matrice (ai,j (x))1≤i,j≤d (clairement symétrique) est positive. On a montré
que les fonctions ai,j , bi et c satisfont les propriétés (a), (b) et (c).
Soit f ∈ Cc∞ (Rd ). On fixe x ∈ B(0, R). La formule de Taylor en x au second ordre implique l’existence de
ηx : Rd → R, une fonction continue bornée telle que limy→x ηx (y) = 0 et telle que pour tout y = (y1 , . . . , yd ) ∈
Rd ,
1
X X
2
f (y) = f (x) + (yi −xi )∂i f (x) + 2 (yi −xi )(yj −xj )∂i,j f (x) + ηx (y)ky−xk2 ,
1≤i≤d 1≤i,j≤d
où k·k désigne la norme Euclidienne sur Rd . On a donc φ(y)f (y) = f0 (y) + φ(y)ηx (y)ky−xk2 où
1
X X
f0 (y) :=f (x)φ(y) + hxi (y)∂i f (x) + 2 x
gi,j 2
(y)∂i,j f (x).
1≤i≤d 1≤i,j≤d
On montre l’inégalité large contraire en raisonnant de même avec pε (y) := f0 (y)−f (y)−εky−xk2 + ε2 φ(y),
ce qui permet de conclure.
Le théorème suivant montre la nécessité de la continuité pour des processus de Feller-Dynkin dont le
générateur est un opérateur différentiel du second ordre.
Théorème III.4.4 Soit (Pt )t∈R+ , un semi-groupe de Feller-Dynkin sur C0 (Rd ). On note (Rd∂ , d), un compact-
ifié métrique habituel de Rd et (Pt∂ )t∈R+ l’extension minimale de (Pt )t∈R+ . On note (p∂t (x, dy))t∈R+ ,x∈Rd , les
∂
noyaux associés. Soit
(Ω; F ; (Gt )t∈R+ ; (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (Rd∂ ))
un processus de Feller-Dynkin càdlàg tel que (Gt )t∈R+ satisfait les hypothèses habituelles. On rappelle que ζ
désigne le temps de vie de X et on note A : DA → C0 (E) le générateur infinitésimal.
On suppose que Cc∞ (Rd ) ⊂ DA et on suppose que la restriction de A à Cc∞ (Rd ) est un opérateur différen-
tiel du second ordre satisfaisant les mêmes hypothèses que celle du théorème III.4.3 avec l’hypothèse que la
fonction c est nulle. Alors, pour toute mesure µ ∈ M1 (Rd∂ ), Pµ -p.s. t ∈ [0, ζ[ 7→ Xt est continue.
Preuve: on utilise le théorème II.5.10, page 74. Pour cela on fixe K ⊂ U ⊂ E, avec K compact et U ouvert. Il
est facile de trouver un compact C tel que K ⊂ C̊ ⊂ C ⊂ U et il existe f ∈ Cc∞ (Rd ) telle que 1C ≤ f ≤ 1U . Soit
x ∈ K et soit t ∈ ]0, ∞[ , la formule de Dynkin implique que
Z t
pt (x, Rd \U ) ≤ Ex 1−f (Xt ) ≤ f (x)−Pt f (x) = − Ps Af (x) ds
0
120 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
Comme f vaut 1 dans le voisinage C̊ de x, on a Af (x) = c(x) = 0, car on a supposé c nulle partout. Comme
cela est vrai pour tout x ∈ K, on en déduit que
Z t
−1 d −1
sup t pt (x, R \U ) ≤ t kPs Af −Af k∞ ds −−−→ 0 .
x∈K 0 t→0+
III.4.b Existences des diffusions: à partir de résultats sur les EDP paraboliques.
Nous abordons les réciproques partielles éventuelles au théorème III.4.3, à savoir la question de savoir s’il
existe un processus de Feller-Dynkin à valuers dans Rd dont le générateur A dont le domaine DA contient
C02 (Rd ) et tel que sur cet ensemble de fonctions on ait:
1
X X
∀f ∈ C02 (Rd ), ∀x ∈ Rd , Af (x) = 2 2
ai,j (x)∂i,j f (x) + bi (x)∂i f (x) − c(x)f (x) , (III.33)
1≤i,j≤d 1≤i,j≤d
(a) Pour tous i, j ∈ {1, . . . , d}, ai,j , bi , c : Rd → R sont des fonctions continues.
Le théorème III.4.4 montre que si un tel processus existe il est continu avant une explosion éventuelle. L’existence
d’un tel processus sous les hypothèses (a, b, c) est un problème difficile. Nous explicitons essentiellement deux
résultats où des hypothèses restrictives sur les coefficients sont faites:
– un premier résultat d’existence repose sur des résultats d’EDP paraboliques qui sont rappelés;
– le second, entièrement probabiliste, repose sur la résolution d’équations différentielles stochastiques.
Signalons que la construction de diffusions a été une des motivations majeures de l’introduction des équations
différentielles stochastiques.
On rappelle tout d’abord le résultats suivant d’analyse des équations aux dérivées partielles paraboliques.
Théorème III.4.5 Soit A un opérateur différentiel donné sur C02 (Rd ) par (III.33) où ai,j , bi et c satisfont les
propriétés suivantes.
(a0 ) Pour tous i, j ∈ {1, . . . , d}, ai,j , bi , c : Rd → R sont des fonctions continues bornées et Höldériennes.
(b0 ) Pour tout x ∈ Rd , la matrice (ai,j (x))1≤i,j≤d est symétrique et sa plus petite valeur propre est minorée
par une constante γ ∈]0, ∞[ , c’est-à-dire
X X
∀λ1 , . . . , λd ∈ R, ∀x ∈ Rd , ai,j (x) λi λj ≥ γ λ2i . (III.34)
1≤i,j≤d 1≤i≤d
Alors, il existe une unique fonction p :]0, ∞[×(Rd )2 → R satisfaisant les propriétés suivantes.
III.4. QUELQUES APPLICATIONS AUX DIFFUSIONS. 121
(i) La fonction p est continue et elle est bornée sur tout domaine de la forme {(t, x, y) ∈ ]0, ∞[×(Rd )2 :
t + kx−yk ≥ ε}, ε ∈ ]0, ∞[. De plus, pour tout y ∈ Rd fixé, la fonction (t, x) ∈ ]0, ∞[×Rd 7−→ p(t, x, y)
est C 1 en t, C 2 en x et satisfait pour tous (t, x) ∈ ]0, ∞[×Rd l’équation suivante:
∂p 1
X ∂2p X ∂p
= 2
a i,j (x) + bi (x) − c(x)p(t, x, y) , (III.35)
∂t ∂xi ∂xj ∂xi
1≤i,j≤d 1≤i,j≤d
Une telle fonction p est appelée solution fondamentale de de l’équation ∂t u = Au. Cette solution satisfait de
plus les propriétés suivantes
(iv) Il existe deux constantes K, r ∈ ]0, ∞[ telles que pour tous (t, x, y) ∈ ]0, ∞[×(Rd )2
et il existe des constantes K1 , K2 , r1 , r2 , δ > 0 telles que pour tous (t, x, y) ∈ ]0, ∞[×(Rd )2 on ait
Théorème III.4.6
122 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
Chapter IV
Nuages de Poisson.
Le but de ce chapitre est généraliser la notion de processus de Poisson, de construire des outils de calcul. Ces
résultats sont ensuite utilisés pour étudier les processus de Lévy et développer la théorie des excursions des
processus Markoviens.
Comme X est de loi "uniforme", on doit avoir P(X ∈ [n, n + 1[ ) = P(X ∈ [0, 1[ ), pour tout n ∈ N, ce qui
contredit l’égalité precédente.
Si la phrase précédente n’a pas de sens, il est en revanche possible de définir un ensemble infini dénombrable
de points aléatoires sur R+ uniformément répartis et totalement indépendants. La définition d’un tel ensemble
aléatoire est l’objet de cette section. Nous rappelons d’abord quelques résultats élémentaires sur les lois usuelles
(Poisson, exponentielles, Erlang, statistiques d’ordre). Puis nous dégageons heuristiquement une définition
d’un tel ensemble aléatoire de point avant d’en donner une construction.
123
124 CHAPTER IV. NUAGES DE POISSON.
Définition IV.1.2 Une v.a. X suit une loi de Poisson de paramètre infini (resp. nul) si P(X = ∞) = 1 (resp. si
P(X = 0) = 1).
Lemme IV.1.3 Soient X1 , . . . , Xn , des v.a. de Poisson de paramètres respectifs θ1 , . . . , θn . On les suppose
indépendantes. Alors X1 + . . . + Xn est une v.a. de Poisson de paramètre θ1 + . . . + θn .
Pgénéralement, soit (Xn )n∈N des v.a. de Poisson indépendantes. On note θn le paramètre
Plus P de Xn . Alors
X := n∈N Xn est une v.a. de Poisson (éventuellement dégénérée) de paramètre θ := n∈N θn .
Preuve: on montre d’abord le premier point. Pour cela, on observe que
h
E rX1 +...+Xn = E rX1 . . . E rXn = exp(−(θ1 + . . . + θn )(1 − r) ,
ce qui permet de conclure puisque les fonctions génératrices caractérisent les lois sur N.
P du lemme. Pour tout n ∈ N, on pose Sn = X0 +. . .+Xn et tn = θ0 +. . .+θn . On
Montrons le second point
suppose d’abord que θ = n∈N θn < ∞. On remarque que Sn ≤ Sn+1 et que limn Sn = X. Par convergence
dominée et d’après le premier point du lemme, on a donc pour tout r ∈ [0, 1],
T
Donc limn P(Sn ≤ x) = 0. Or {S < x} ⊂ n∈N {Sn ≤ x}, donc P(X < x) = 0, pour tout x ∈ R+ , ce qui
implique que p.s. X = ∞, ce qui permet de conclure.
Approximation des lois de Poisson par des loi binomiales. Les lois de Poisson apparaissent comme des
loi binomiales dégénérées: plus précisément, on fixe θ > 0 et pour tout n ∈ N∗ tel que n > θ, on considère
Yn,1 , . . . , Yn,n , des variables de Bernoulli indépendantes de même paramètre pn = θ/n. On pose
X
Xn = Yn,k .
1≤k≤n
La probabilité que Yn,k vale 1 est donc pn : elle devient très petite lorsque n → ∞. En revanche on voit que
E[Xn ] = npn = θ, qui ne varie pas avec n. La loi Xn est une binomiale de paramètres (n, pn ). Pour tout
k ∈ N, et tout n ≥ k, on a
θk
n k 1
Y j
P(Xn = k) = pn (1 − pn )n−k = 1 − n θ)n−k 1− n
k k!
1≤j≤k−1
Théorème IV.1.4 (Approximation Binomiale-Poisson) Pour tout n ≥ 1, on se donne une suite (Yn,k )1≤k≤n de
variables indépendantes de Bernoulli de paramètres respectifs pn,k , c’est-à-dire P(Yn,k = 1) = pn,k . On pose
X X
Xn = Yn,k et θn = pn,k .
1≤k≤n 1≤k≤n
2
P
Si limn θn = θ et si limn max1≤k≤n pn,k = 0, alors limn 1≤k≤n pn,k = 0, et
k
−θ θ
X
lim P(Xn = k) − e k! = 0 .
n→∞
k∈N
Exemple d’application. Avant de prouver ce théorème, voyons un exemple d’application de cette approxi-
mation: les statistiques nous disent que 3,2 piétons sont écrasés à Paris chaque mois (c’est un chiffre fantaisiste).
Quelle est la probabilité que, le mois prochain, exactement 5 piétons soient écrasés à Paris ? Pour répondre
rapidement à cette question on peut établir le modèle suivant: il y a (environ) n ' 2.106 Parisiens qui ont une
"chance" très faible de se faire écraser dans le mois suivant, et ce, indépendamment les uns des autres (nous
négligeons les parents portant un nourrisson). On numérote les Parisiens de 1 à n et on note Yk la variable
aléatoire qui vaut 1 si le Parisien numero k se fait écraser le mois prochain et qui vaut 0 sinon. D’après nos
hypothèses, on peut considérer (Yk )1≤k≤n comme une suite i.i.d. de variables de Bernoulli de paramètre p. Par
conséquent X = Y1 + . . . + Yn suit une loi Binomiale de paramètres (n, p) . Sa moyenne vaut np = 3,2. En
appliquant la proposition précédente avec np = θ = 3,2, on obtient
k
P(X = k) − e−3,2 (3,2) ≤ (3,2)2 /n.
X
k!
k∈N
Or (3,2)2 /n est de l’ordre de 10−5 . On peut donc assimiler la probabilité que le mois prochain exactement 5
piétons soient écrasés à Paris à la quantité e−3,2 (3,2)5 /5!.
Cette quantité est appelée distance en variation de µ et ν. On peut voir M1 (Z) comme un sous-ensemble de
l’espace des suite `1 (Z) et dvar n’est autre que la norme L1 . Il est facile de vérifier M1 (Z) est un fermé de
`1 (Z) ce qui implique que (M1 (Z), dvar ) est un espace métrique séparable complet. En fait dvar métrise la
convergence en loi sur Z.
Soient µ, ν ∈ M1 (Z), on P rappelle que µ ∗ ν est la convolée de µ avec ν. Il est clair que µ ∗ ν ∈ M1 (Z):
précisément, on a µ∗ν (k) = j∈N µ(k−j)ν(j) pour tout k ∈ Z. On rappelle que si X, de loi µ et Y , de loi ν,
sont deux v.a. à valeurs dans Z, F -mesurables et indépendantes, alors la loi de X + Y est µ ∗ ν.
126 CHAPTER IV. NUAGES DE POISSON.
∀µ1 , µ2 , ν1 , ν2 ∈ M1 (Z), dvar (µ1 ∗µ2 , ν1 ∗ν2 ) ≤ dvar (µ1 , ν1 ) + dvar (µ2 , ν2 ). (IV.1)
Preuve: on a
X X
dvar (µ1 ∗µ2 , ν1 ∗ν2 ) ≤ |µ2 (k − j)µ1 (j) − ν2 (k − j)ν1 (j)| = |µ2 (k)µ1 (j) − ν2 (k)ν1 (j)|
j,k∈Z j,k∈Z
X X
≤ |µ2 (k)µ1 (j) − µ2 (k)ν1 (j)| + |µ2 (k)ν1 (j) − ν2 (k)ν1 (j)|
j,k∈Z j,k∈Z
X X
= µ2 (k)dvar (µ1 , ν1 ) + ν1 (j)dvar (µ2 , ν2 ) = dvar (µ1 , ν1 ) + dvar (µ2 , ν2 ) ,
k∈Z j∈Z
Autrement dit µp est la loi de Bernoulli de paramètre p et νθ la loi de Poisson de paramètre θ. On montre alors:
∀p ∈ ]0, 1], dvar (µp , νp ) ≤ 2p2 et ∀θ, θ0 ∈ ]0, ∞[ , dvar (νθ , νθ0 ) ≤ 2|θ − θ0 |. (IV.3)
X pk
dvar (µp , νp ) = (e−p −1 + p) + (p − pe−p ) + e−p
k!
k≥2
−p −p
= (e −1 + p) + (p − pe ) + (1−e−p −pe−p ) = 2p(1 − e−p ) ≤ 2p2 ,
ce qui montre la première inégalité. Montrons la seconde: sans perte de généralité on suppose que θ < θ0 . On
pose δ = θ0 −θ. Le lemme IV.1.3 implique νθ0 = νθ ∗νδ et (IV.1) implique que
dvar (νθ , νθ0 ) = dvar (νθ ∗ δ0 , νθ ∗νδ ) ≤ dvar (νθ , νθ ) + dvar (δ0 , νδ ) = dvar (δ0 , νδ ) .
Fin de la preuve du théorème IV.1.4: on fixe n. On note µXn la loi de Xn . Avec les notations de (IV.2),
µXn = µpn,1 ∗ . . . ∗ µpn,n . Le lemme IV.1.3 implique également que νθn = νpn,1 ∗ . . . ∗ νpn,n . Par le lemme
précédents et (IV.1), on obtient les inégalité suivantes:
dvar (νθ , µXn ) ≤ dvar (νθ , νθn ) + dvar (νθn , µXn ) ≤ 2|θ−θn | + dvar µpn,1 ∗. . .∗µpn,n , νpn,1 ∗. . .∗νpn,n
X
= 2|θ−θn | + 2p2n,k ,
1≤k≤n
Lois exponentielles.
Définition IV.1.5 Une v.a. X : Ω → R+ est (de loi) exponentielle de paramètre c ∈ ]0, ∞[ si sa loi admet la
densité t ∈ R+ 7−→ ce−ct par rapport à la mesure de Lebesgue.
Si X est une exponentielle de paramètre c, alors pour toute fonction mesurable f : R+ → R+ ,
Z ∞
E[f (X)] = f (t)ce−ct dt .
0
Il est facile de vérifier pour tout λ ∈ R+ que
c
E e−λX =
. (IV.4)
c+λ
En dérivant une puis deux fois cette transformée de Laplace en 0, on obtient
1 2 1
E[X] = , E[X 2 ] = 2 et donc var(X) = 2 .
c c c
Les variables exponentielles sont caractérisée par la propriété d’oubli qui s’énonce comme suit.
Proposition IV.1.6 Soit X : Ω → R+ , une v.a. F -mesurable telle que P(X > t) > 0, pour tout t ∈ R+ . On
suppose qu’elle possède la propriété d’oubli c’est-à-dire que
∀s, t ∈ R+ , P(X − t > s | X > t) = P(X > s) .
Alors X est une variable exponentielle pour un certain paramètre c ∈ ]0, ∞[ .
Preuve: on pose f (t) = −log P(X > t). La fonction f : R+ → R+ est bien définie. Par ailleurs f est
continue à droite car FX et continue à droite et f (t) = − log(1 − FX (t)). La propriété d’oubli implique que
f (t) + f (s) = f (t + s), pour tous s, t ∈ R+ . On pose c = f (1). Pour tout entier n ∈ N∗ , f (n) = cn et
nf (1/n) = c. Donc pour tout t ∈ Q+ , f (t) = ct. La continuité à droite implique que f (t) = ct pour tout
t ∈ R+ . On a donc P(X > t) = e−ct , pour tout t ∈ R+ et c ne peut être nul, ce qui termine la preuve de la
proposition.
Statistique d’ordre de n v.a. réelles indépendantes de lois diffuses. Soit x = (x1 , . . . , xn ) ∈ Rn . On note
Λn (x) = (x(k) )1≤k≤n le réarrangement croissant des réels (x1 , . . . xn ), c’est-à-dire que
Or il est facile de montrer que B(Rn ) est engendrée par les ensembles du type Cy1 ,...,yn , y1 , . . . , yn ∈ R, ce
qui implique la mesurabilité de Λn .
Cela permet de poser la définition suivante.
Définition IV.1.9 Soient X1 , . . . , Xn , des v.a. réelles F mesurables. On note (X(k) )1≤k≤n le réarrangement
croissant de ces variables:
La v.a. (X(k) )1≤k≤n : Ω → Rn est F -mesurable: c’est statistique d’ordre de la suite (Xk )1≤k≤n .
La proposition suivante décrit la statistique d’ordre de variables indépendantes de loi diffuse.
Proposition IV.1.10 Soit X1 , . . . , Xn , des variables réelles indépendantes de même loi µ qui est supposée
diffuse. Alors les assertions suivantes sont vérifiées.
(i) On note Sn le groupe des permutation de {1, . . . , n}. Il existe σ : Ω → Sn , une permutation aléatoire
F -mesurable dont la loi est uniforme, qui est indépendante de (X(k) )1≤k≤n , et qui satisfait
(iii) On note F (x) = µ ]−∞, x] , x ∈ R, la fonction de répartition de µ. Alors, pour tout 1 ≤ k ≤ n et pour
toute fonction mesurable g : R → R+ ,
Z
n n−k
F (x)k−1 1−F (x)
E g(X(k) ) = g(x) k µ(dx) .
R k
Preuve: on note ∆ := {(x, x) ; x ∈ R} la diagonale de R2 qui est un fermé de R2 . Par Fubini et le théorème de
transfert, si i 6= j, Z
P(Xi = Xj ) = µ ⊗ µ(∆) = µ(dx)µ({x}) = 0
R
IV.1. PROCESSUS DE POISSON LINÉAIRE HOMOGÈNE. 129
car la mesure µ est diffuse. On pose A = {Xj 6= Xk , 1 ≤ j < k ≤ n}, qui est l’événement que les variables
X1 , . . . , Xn soient toutes distinctes. On a
X
P(Ω\A) ≤ P(Xi = Xj ) = 0 .
1≤i<j≤n
En particulier, lorsque les variables X1 , . . . , Xn sont indépendantes et uniformes dans l’intervalle [0, t],
pour toute fonction f : [0, t]n → R mesurable bornée, on a
h i n! Z
(n) (n)
E f U1 , . . . , U n = n f (x1 , . . . , xn ) dx1 . . . dxn . (IV.7)
t {0≤x1 <...<xn ≤t}
130 CHAPTER IV. NUAGES DE POISSON.
(a) Pour tous entiers positifs n1 < n2 , la variable entière #(Πh ∩ [n1 h, n2 h[ ) suit la loi binomiale de
paramètres n2 − n1 et p(h).
(b) Pour tous n1 < . . . < np , les variables #(Πh ∩ [n1 h, n2 h[ ), . . . , #(Πh ∩ [np−1 h, np h[ ) sont indépen-
dantes.
Par ailleurs on veut que Πh , soit une version discrétisée d’un ensemble aléatoire dénombrable Π sur R+ ; c’est-
à-dire que l’on suppose que lorsque h tend vers 0, Πh "tend" vers Π. Cela impose que Πh ne dépende que "peu"
de h lorsque h est petit. En particulier, si on se fixe un intervalle [a, b] ⊂ [0, ∞[, on veut que la quantité
h i
mh (a, b) = E # Πh ∩ ba/hch , bb/hch = (bb/hc − ba/hc)p(h) ,
ne dépende pas trop de h, lorsque h est petit. Cela conduit donc a imposer la chose suivante.
(c) p(h) = θh + o(h), où θ est un réel strictement positif fixé.
L’approximation binomiale-Poisson permet alors de dire que lorsque h est petit, la variable #(Πh ∩ [a, b])
est très proche d’une loi de Poisson de paramètre θ(a − b) et mh (a, b) est très proche de θ(a − b).
Intéressons-nous au numéro de l’intervalle où tombe le premier point de Πh : on pose
T1 (h) = inf{n ≥ 0 : ξh,n = 1 } .
Il est facile de voir que T1 (h) suit une loi géométrique: P(T1 (h) = n) = p(h)(1 − p(h))n , n ∈ N. On introduit
aussi les numéros d’intervalle des points successifs. On les note (Tk (h))k≥1 et on les définit récursivement par
Tk+1 (h) = inf{n > Tk (h) : ξh,n = 1 } .
On a clairement les propriétés suivantes.
(e) Les variables E1 (h) = T1 (h), ... , Ek (h) = Tk (h) − Tk−1 (h) − 1, ... , sont i.i.d.
Il est ensuite facile de constater que limh→0 P(hEk (h) > t) = exp(−θt), t ∈ R+ . Autrement dit lorsque h est
proche de 0, les variables indépendantes (hEk (h))k≥1 sont proches d’une suite i.i.d. de variables exponentielles
de paramètre θ.
Résumons les résultats apportés par cette brève heuristique: on cherche à définir un ensemble aléatoire
de points Π qui soit infini dénombrable, sans point d’accumulation, "totalement aléatoire" et "uniformément
réparti" sur R+ . Si un tel objet existe, alors il est raisonnable de penser qu’il satisfait nécessairement les
propriétés suivantes.
IV.1. PROCESSUS DE POISSON LINÉAIRE HOMOGÈNE. 131
(i) Il exite θ ∈ R∗+ , tel que pour tous réels positifs a < b, la variable #(Π ∩ [a, b]) comptant le nombre de
points de Π tombant dans [a, b], suit une loi de Poisson de paramètre (b − a)θ.
sont indépendantes.
(iii) Π peut être indexé en croissant: Π = {T1 < T2 < . . . < Tn < . . .}. De plus les variables T1 , T2 − T1 ,
..., Tn − Tn−1 , ... sont des variables exponentielles indépendantes de paramètre θ.
Comme nous le montrons plus loin, ces propriétés sont redondantes: (i) et (ii) sont des conséquences de (iii).
La propriété (iii) permet de donner une définition simple de Π, qui est le point de départ de la section suivante.
∀n ≥ 1, Tn = E1 + . . . + En , Π = Tn ; n ∈ N∗
et Nt = # Π ∩ [0, t] , t ∈ R+ .
P
On remarque que Nt = n≥1 1[0,t] (Tn ), est une variable mesurable. Le processus (Nt )t≥0 est appelé proces-
sus de Poisson homogène d’intensité θ. L’ensemble aléatoire discret Π est appelé nuage Poissonnien homogène
d’intensité θ sur R+ .
Par commodité, on pose N∞ = N ∪ {∞} et pour tout ensemble Borélien B ∈ B(R+ ), on pose
X
NB (Π) = # Π ∩ B = 1B (Tn ) ∈ N∞ .
n≥1
On remarque que NB (Π) est une variable F -mesurable. C’est la fonction de comptage de Π en B. Par la loi
des grands nombre, P(limn→∞ Tn = ∞) = 1. Par conséquent si B est bornée, on a P(NB (Π) < ∞) = 1.
On constate facilement que pour tout ω ∈ Ω, t 7→ Nt (ω) est croissant et continu à droite et admet une
limite à gauche en tout point, c’est-à-dire que (Nt )t≥0 est càdlàg. On pose ∆N (t) = Nt − Nt− , qui représente
le saut éventuel au temps t du processus. On a alors, Π = {t ∈ R+ : ∆N (t) 6= 0} et N[0,t] (Π) = Nt , t ∈ R+ .
Par conséquent, se donner (Nt )t≥0 équivaut à se donner Π.
Le théorème suivant montre que Π peut se voir comme un ensemble infini dénombrable, complètement
aléatoire et uniformément réparti sur R+ .
Théorème IV.1.12 On note ` la mesure de Lebesgue sur R+ . Soit Π un nuage Poissonnien homogène d’intensité
θ et soit (Nt )t≥0 . Les propriétés suivantes sont vérifiées.
(i) Pour tout s < t, Nt − Ns = N]s,t] (Π) suit une loi de Poisson de paramètre θ(t − s).
(ii) Pour tous t1 < . . . < tp , les variables Nt1 , Nt2 − Nt1 , . . . , Ntp − Ntp−1 sont indépendantes.
(iii) Pour tout t ∈ R∗+ et tout n ∈ N∗ , l’ensemble Π∩[0, t] sous P( · | Nt = n) a même loi que {U1 , . . . , Un },
où U1 , ... , Un sont i.i.d. uniformes sur [0, t].
132 CHAPTER IV. NUAGES DE POISSON.
(iv) Soient A1 , . . . , Ap ∈ B(R+ ), disjoints deux-à-deux. Alors, NA1 (Π), . . . , NAp (Π) sont des variables de
Poisson indépendantes de paramètres respectifs θ`(A1 ), . . . , θ`(Ap ).
Remarque IV.1.13 On voit que (iv) implique (i) et (ii), qui sont plus élémentaires et qui ne concernent que
(Nt )t≥0 . Puisque dans de nombreuses applications, seul (Nt )t≥0 intervient, nous avons pris la peine d’expliciter
(i) et (ii).
Preuve du théorème: montrons d’abord que pour tout t ∈ R+ , Nt suit une loi de Poisson de paramètre θt.
Soit n ∈ N∗ . On observe que Tn est indépendante de En+1 et que Tn suit une loi d’Erlang de paramètres (n, θ).
Par conséquent,
Z t n−1
Z ∞
n u −θu −θv
P(Nt = n) = P(Tn ≤ t < Tn + En+1 ) = du θ e dv θe
0 (n − 1)! t−u
Z t
θn −θt (tθ)n −θt
= e du un−1 = e ,
(n − 1)! 0 n!
ce qui montre le résultat désiré.
Nous allons montrer (iii) et ensuite prouver que (iii) implique (iv), ce qui est suffisant d’après la remarque
précédente. Soit n ∈ N∗ . Soit F : Rn → R, une fonction mesurable bornée. On a les égalités suivantes
On en déduit que
Z
n!
E [F (T1 , . . . , Tn ) | Nt = n] = n dx1 dx2 . . . dxn F (x1 , x2 , . . . , xn ) , (IV.8)
t {0≤x1 <...<xn ≤t}
où Πn = {U1S , . . . , Un }, avec (Uk , 1 ≤ k ≤ n) i.i.d. de loi uniforme sur [0, t]. Par commodité on pose
Ap+1 = [0, t]\ pj=1 Aj . Soient u1 , . . . , up ∈ R. Pour tout 1 ≤ k ≤ n, on pose:
Par conséquent,
h Y i
E exp (iuk NAk (Π)) Nt = n = E[X1 . . . Xn ] = E[X1 ]n
1≤k≤p
`(Ap ) n
`(A ) `(A ) `(A1 )
= eiu1 t 1 + . . . + eiup t p + 1 − t
− ...
t
n
= t−n t − (1 − eiu1 )`(A1 ) − . . . − (1 − iup
e )`(Ap ) .
Donc
h Y i X n
E exp (iuk NAk (Π)) = P(Nt = n)t−n t−(1−eiu1 )`(A1 )−. . .−(1−eiup )`(Ap )
1≤k≤p n≥0
X 1 n
= e−θt θt − (1 − eiu1 )θ`(A1 ) − . . . − (1 − eiup )θ`(Ap )
n!
n≥0
Y
exp −θ`(Ak ) 1 − eiuk ,
=
1≤k≤p
ce qui entraîne bien le point (iv), dans le cas où A1 , . . . , Ap ⊂ [0, t]. Le cas général découle facilement du fait
que P-p.s. pour tout 1 ≤ k ≤ p, limt→∞ ↑ NAk ∩[0,t] (Π) = NAk (Π).
(a) SE := {π ⊂ E : π est dénombrable} est l’ensemble des nuages de points sur E. On rappelle que
dénombrable signifie fini (éventuellement vide) ou en bijection avec N.
(b) Pour tout B ∈ E , et tout π ∈ SE , on pose NB (π) = #(π ∩ B), qui est le nombre (éventuellement infini)
de points de π qui sont dans B. La fonction NB : SE → N∞ est appelée la fonction de comptage en B.
(d) Soit (Ω, F ), un espace mesurable et Π : Ω → SE , une fonction. C’est un nuage aléatoire si cette fonction
est (F , SE )-mesurable, ce qui est équivalement à ce que pour tout B ∈ E , NB (Π) : Ω → N∞ soit
F -mesurable.
Exemple IV.2.2 Soit (Ω, F ), un espace mesurable. Soit Xn : Ω → E, n ∈ N∗ , une suite de variables
(F , E )-mesurables telle que
qui est clairement F -mesurable. Cela implique donc que NB (Π) est F -mesurable et donc que Π est un nuage
aléatoire.
Dans le lemme suivant, on définit une caractéristique importante des nuages aléatoires, à savoir leur intensité.
Lemme IV.2.3 Soit (Ω, F , P), un espace de probabilité et Π : Ω → SE , un nuage aléatoire. On pose
∀B ∈ E , µ(B) = E NB (Π) .
Définition IV.2.4 (Fonctions de comptage généralisées) Soit (E, E ), un espace mesurable et f : E → [0, ∞],
une fonction E -mesurable. On pose
X
∀π ∈ SE , Nf (π) = f (x) .
x∈π
Lemme IV.2.5 Soit (E, E ), un espace mesurable. Soit f : E → [0, ∞], une fonction E -mesurable. Alors, les
assertions suivantes sont vérifiées.
(ii) Soit (Ω, F , P), un espace de probabilité et Π R → SE , un nuage aléatoire d’intensité µ. Alors Nf (Π)
:Ω
est une variable F -mesurable et E Nf (Π) = E f (x) µ(dx).
Preuve: par (IV.10), E Nfn (Π) = 0≤k≤n2n k2−n µ(Ak,n ) = E fn (x) µ(dx), et on conclut par conver-
P R
Lemme IV.2.6 Soit (E, E ), un espace mesurable. Les propriétés suivantes sont vérifiées.
(ii) Soit (E 0 , E 0 ), un espace mesurable et soit φ : E → E 0 , une fonction (E , E 0 )-mesurable supposée injec-
tive. Alors Φ : π ∈ SE 7→ φ(π) ∈ SE 0 est (SE , SE 0 )-mesurable.
Preuve: on remarque que pour tout C ∈ E , NC ◦RB = NB∩C qui est donc SE -mesurable, ce qui implique (i).
Montrons (ii): puisque φ est injective, on remarque que pour tout B 0 et tout nuage π ∈ SE , on a #({φ(x); x ∈
π} ∩ B 0 ) = #{x ∈ π : φ(x) ∈ B 0 } et donc que NB 0 (φ(π)) = Nφ−1 (B 0 ) (π). On a NB 0 ◦ Φ = Nφ−1 (B 0 ) qui est
SE -mesurable, ce qui implique le résultat voulu.
Ces résultats se traduisent immédiatement pour les nuages aléatoires.
Lemme IV.2.7 Soit (Ω, F , P), un espace de probabilité. Soit (E, E ), un espace mesurable. Soit Π : Ω → SE ,
un nuage aléatoire. Les assertions suivantes sont vérifiées.
(ii) Soit (E 0 , E 0 ), un espace mesurable et soit φ : E → E 0 , une fonction (E , E 0 )-mesurable supposée injec-
tive. Alors φ(Π) est un nuage aléatoire sur E 0 d’intensité µ0 = µ ◦ φ−1 qui est la mesure image de µ par
φ.
avec q ∈ N∗ , B1 , . . . , Bq ∈ E , et k1 , . . . , kq ∈ N.
136 CHAPTER IV. NUAGES DE POISSON.
Lemme IV.2.10 Soit (E, E ), un espace mesurable. Soient B1 , . . . , Bq ∈ E . Alors il existe un entier p ≤ 2q et
A1 , . . . , Ap ∈ E , disjoints deux-à-deux tels que tout Bk est réunion de certains A` , c’est-à-dire
[ X
∀k ∈ {1, . . . , q} , ∃ Ik ⊂ {1, . . . , p} : Bk = A` et donc NBk = NA` . (IV.13)
`∈Ik `∈Ik
Preuve: on note B la classe des ensembles de la forme 1≤k≤q Ck , où Ck est soit Bk , soit son complémentaire
T
E\Bk ; B compte au plus 2q ensembles distincts, les ensembles de B sont dans E et ils forment une partition
de E. On se donne explicitement B = {A1 , . . . , Ap }, avec p = #B. Pour tout k ∈ {1, . . . , q}, on pose
Ik = {` ∈ {1, . . . , p} : Bk ∩ A` 6= ∅} et on vérifie (IV.13) facilement.
La proposition suivante caractérise la loi d’un nuage de points.
Proposition IV.2.11 Soit (E, E ) un espace mesurable. Soient (Ω, F , P) et (Ω, F 0 , P0 ), des espaces de prob-
abilité. Soient Π : Ω → SE et Π0 : Ω0 → SE , deux nuages aléatoires. Ils ont la même loi ssi pour tout p ∈ N∗ et
tous A1 , . . . , Ap ∈ E disjoints deux-à-deux , on a
(loi)
(NA1 (Π), . . . , NAp (Π)) sous P = (NA1 (Π0 ), . . . , NAp (Π0 )) sous P0 . (IV.14)
Preuve: il est clair que Ψ : π ∈ SE 7−→ (NA1 (π), . . . , NAp (π)) ∈ Np∞ est SE -mesurable car chaque composante
de cette application l’est. Si Π et Π0 ont même loi, alors il en est de même pour Ψ(Π) et Ψ(Π0 ), ce qui
est exactement (IV.14). Montrons la réciproque: par le lemme IV.2.10, l’identité (IV.14) implique pour tous
B1 , . . . , Bq ∈ E , on a
(loi)
(NB1 (Π), . . . , NBq (Π)) sous P = (NB1 (Π0 ), . . . , NBp (Π0 )) sous P0 . (IV.15)
Cela implique que P(Π ∈ C) = P0 (Π0 ∈ C), pour tout C de la forme (IV.12). Si on note ν et ν 0 les lois
respectives de Π et de Π0 , cela montre que ν(C) = ν 0 (C), pour tout C ∈ CE . Comme CE est un pi-système
engendrant SE (lemme IV.2.9), le théorème d’unicité du prolongement des mesures de probabilité implique
que ν = ν 0 .
Brefs rappels sur la notion d’indépendance. Rappelons quelques définitions générales sur l’indépendance.
(voir la section B.2, page 240, du chapitre B en appendice).
1– Soit (Ω, F , P), un espace de probabilité. Soient Ri ⊂ F , i ∈ I, une famille de classes de sous-ensembles
mesurables. Les classes Ri , i ∈ I, sont (mutuellement) indépendantes (sous P) si pour tout sous-ensemble
d’indices J ⊂ I, non-vide et fini, et pour tous Aj ∈ Rj , j ∈ J, les événements Aj , j ∈ J sont mutuellement
indépendants. Autrement dit:
\ Y
∀J ⊂ I J fini, ∀Aj ⊂ Rj , j ∈ J , P Aj = P(Aj ) .
j∈J j∈J
Proposition IV.2.12 On conserve les notations précédentes. Soit Pi ⊂ F , i ∈ I, une famille de pi-systèmes
qui sont mutuellement indépendants. Alors, les tribus engendrées σ(Pi ), i ∈ I, sont également mutuellement
indépendantes.
2– Soit (G, G ), un espace mesurable. Soit Y : Ω → G, une variable (F , G )-mesurable. On rappelle que la
tribu engendrée par Y est simplement donnée par σ(Y ) = {{Y ∈ A}; A ∈ G }. Soit C , un pi-système sur G
engendrant G . On pose PY := {{Y ∈ C}; C ∈ C }. On voit immédiatement que PY est un pi-système sur Ω
générant σ(Y ).
Soit Xi : Ω → G, i ∈ I, une famille de variables (F , G )-mesurables. Les variables Xi , i ∈ I, sont
indépendantes si les tribus σ(Xi ), i ∈ I sont indépendantes.
Lemme IV.2.13 On reprend les notation précédentes. Il y a équivalence entre les deux assertions suivantes.
Preuve: il est clair que (i) implique (ii). Montrons la réciproque: on remarque que (ii) implique que les pi-
systèmes PXi , i ∈ I sont mutuellement indépendants. La proposition IV.2.12 implique alors que les tribus
σ(PXi ) = σ(Xi ), i ∈ I sont mutuellement indépendantes, c’est-à-dire (i).
Après ces quelques rappels sur la notion d’indépendance, on peut énoncer le critère d’indépendance suivant
pour les nuages aléatoires.
Proposition IV.2.14 Soit (E, E ), un espace mesurable. Soit (Ω, F , P), un espace de probabilité. Soit Πi :
Ω → SE , i ∈ I, une famille de nuages aléatoires. Il y a équivalence entre les deux assertions suivantes.
(ii) Pour tous A1 , . . . Ap ∈ E , deux-à-deux disjoints les vecteurs aléatoires de Np∞ , (NAk (Πi ))1≤k≤p , i ∈ I,
sont mutuellement indépendants.
Preuve: il est clair que Ψ : π ∈ SE 7−→ (NA1 (π), . . . , NAp (π)) ∈ Np∞ est SE -mesurable car chaque composante
de cette application l’est. Si les nuages Πi , i ∈ I, sont mutuellement indépendants, alors il en est de même pour
la famille de vecteurs aléatoires Ψ(Πi ), i ∈ I. Cela montre que (i) implique (ii).
Réciproquement, par le lemme IV.2.10, pour tous B1 , . . . , Bq ∈ E , les vecteurs aléatoires (NBq (Πi ))1≤`≤q ,
i ∈ I, sont indépendants. Soient i1 , . . . , in ∈ I, et C1 , . . . , Cn ∈ CE qui par définition peuvent s’écrire
Cm = π ∈ SE : NB1 (π) ≥ k1 (m); . . . ; NBq (π) ≥ kq (m) ,
(iii) Il existe C ⊂ R (pas nécessairement Borélien) tel que (E, E ) soit isomorphe à (C, B(C)), où B(C) est
la tribu trace des Boréliens de R sur C.
Le type de restriction sur les nuages de points est donné par le lemme suivant.
Définition IV.2.15 Soit (E, E ), un ensemble mesurable. Soit Bp ∈ E , p ∈ N, une partition de E, que l’on note
B := (Bp )p∈N . On pose
SB et SEB = D ∩ SB E ; D ∈ SE .
E = π ∈ SE : ∀p ∈ N, NBp (π) < ∞
E est l’ensemble des nuages finis sur chaque ensemble de la partition B. Clairement que SE ∈ SE . La tribu
SB B
Lemme IV.2.16 (Localisation des points) Soit (E, E ), un espace mesurable séparable et séparé. Soit B = (Bp )p≥1 ,
une partition de E en ensembles de E . Il existe une famille de fonctions Yk(p) : SB E → E, p, k ≥ 1, qui sont
(SE , E )-mesurables telles que
(p) (p)
∀p ∈ N, ∀π ∈ SB
E, π ∩ Bp = Y (p)1 (π), Y2 (π), . . . , YNB (π) (π) dès que NBp (π) ≥ 1. (IV.16)
p
Preuve: comme (E, E ) est séparable et séparé, il existe C ⊂ R et φ : E → C isomorphisme entre les espaces
mesurables (E, E ) et (C, B(C)). On fixe p ∈ N∗ et x∗ ∈ Bp . Soit π ∈ SB E ; on pose ` = NBp (π) et on se
donne π comme l’ensemble {x1 , . . . , x` } où l’indexation est telle que φ(x1 ) < . . . < φ(x` ). On pose alors pour
(p) (p)
tout k ∈ N∗ , Yk (π) := xk si k ≤ ` et Yk (π) := x∗ si k > `. On a clairement (IV.16). Puisque φ est un
(p) (p)
isomorphisme, Yk est (SE , E )-mesurable ssi φ◦Yk est (SE , B(C))-mesurable. Pour montrer cela, on fixe
B
(p)
{π ∈ SB E : ND (π) ≥ k} ∈ SE .
B
E : NBp (π) ≥ k} ∩ {π ∈ SE : φ ◦ Yk ≤ y} = {π ∈ SB B
D’autre part
(p)
{π ∈ SB B B
E : NBp (π) < k} ∩ {π ∈ SE : φ◦Yk ≤ y} = ∅ ou bien {π ∈ SE : NBp (π) < k}
IV.2. GÉNÉRALITÉS SUR LES NUAGES DE POINTS. 139
selon que φ(x∗ ) > y ou que φ(x∗ ) ≤ y. Dans les deux cas, les ensembles sont dans SEB , ce qui entraîne que
(p) (p)
{π ∈ SBE : φ◦Yk ≤ y} ∈ SE pour tout y ∈ R. Donc φ◦Yk est (SEB , B(C))-mesurable, ce qui permet de
B
conclure.
Lemme IV.2.17 (produit, intersection, union de nuages) Soient (E, E ) et (E 0 , E 0 ), des espaces mesurables sépara-
bles et séparés. On munit E × E 0 de la tribu produit E ⊗ E 0 , qui est également séparable et séparée. Soit
B = (Bp )p∈N , une partition de E en ensembles de E . Soit B0 = (Bq0 )q∈N , une partition de E 0 en ensembles de
E 0 . Alors, les assertions suivantes sont vérifiées.
B0
E ×SE 0 7−→ π×π ∈ SE×E 0 est SE ⊗ SE 0 , SE×E 0 -mesurable.
B0
(i) L’application (π, π 0 ) ∈ SB 0 B
0
Preuve: pour tous p, k ∈ N∗ , soient Yk(p) : SB E → E qui est (SE , E )-mesurable et soit Zk : SE 0 → E , qui est
(p) B 0
(SE 0 , E 0 )-mesurable telles que π ∩ Bp = {Yk (π); 1 ≤ k ≤ NBp (π)} et π 0 ∩ Bp0 = {Zk (π 0 ); 1 ≤ k ≤ NBp0 (π 0 )}.
(p) (p)
B0 (p0 )
E ×SE 0 7→ (Yk (π), Zk0 (π )) ∈ E ×E est (SE ⊗SE 0 , E ⊗E )-mesurable. Donc
B0
Il est clair que (π, π 0 ) ∈ SB (p) 0 0 B 0
pour tout A ∈ E ⊗E 0
B0 (p) (p0 )
X
(π, π 0 ) ∈ SB 0
1{k≤NBp (π);k0 ≤NB0 (π0 )} 1A Yk (π), Zk0 (π 0 )
E ×SE 0 −
7 → N A (π×π ) =
p
p,p0,k,k0 ≥1
On suppose ensuite (E, E ) = (E 0 , E 0 ) mais on garde les notations précédentes pour la localisation des
points. On rappelle que ∆ := {(x, x); x ∈ E} ∈ E ⊗2 car (E, E ) est séparable et séparé. Soit B ∈ E , on
remarque alors que
B0 (p) (p) (p0 )
X
(π, π 0 ) ∈ SB 0
1{k≤NBp (π);k0 ≤NB0 (π0 )} 1B (Yk (π))1∆ Yk (π), Zk0 (π 0 )
E ×SE −
7 → N B (π ∩ π ) =
p
p,p0,k,k0 ≥1
0
Le point (iii) se déduit de (ii) comme suit: pour tout C ∈ E , tout p ∈ N, et tous (π, π 0 ) ∈ SB B
E × SE , on
0 0 0 0
peut écrire NC∩Bp (π ∪π ) = NC∩Bp (π) + NC∩Bp (π )−NC∩Bp (π ∩ π ) car NC∩Bp (π ∩ π ) ≤ NBp (π) < ∞,
E × SE 7→ NC∩Bp (π ∪ π ) est SE ⊗ SE -mesurable. Or NC (π ∪ π ) =
B0
et (ii) implique que (π, π 0 ) ∈ SB B 0 B 0
Lemme IV.2.18 Soit (E, E ), un espace mesurable séparable et séparé. Soit B = (Bp )p∈N , une partition E -
mesurable de E. Les assertions suivantes sont vérifiées.
E est (E , SE )-mesurable.
(i) La fonction x ∈ E 7→ {x} ∈ SB B
(iv) (Mesurabilité des fonctionnelles de type Palm) Soit (E0 , E0 ), un espace mesurable. Soit n ∈ N∗ et F : E0 ×E n ×
SE → [0, ∞], une fonction E0 ⊗E ⊗n ⊗SE -mesurable. Pour tous (z, π) ∈ E0 ×SE , on pose
(n) (n)
X X
ΦF (z, π) := F (z; x1 , . . . , xn , π\{x1 , . . . , xn }) and ΛF (z, π) = F (z; x1 , . . . , xn , π)
x1 ,...,xn ∈π x1 ,...,xn ∈π
distincts distincts
(n)
avec Φ(n) (n)
F (z, π) = ΛF (z, π) = 0, pour tout z ∈ E0 si #π < n. Alors, les restrictions de ΦF et de Λ(n)
F à
E0 ×SBE sont (E 0 ⊗SE
B
)-mesurables.
Preuve: on note ψ la fonction du (i). Pour tout B ∈ E , (NB ◦ ψ)(x) = 1B (x). Cela montre que NB ◦ ψ est E -
mesurable pour tout B ∈ E , ce qui prouve (i). Montrons (ii): par (i), (x, π) ∈ E × SB E 7→ ({x}, π) ∈ SE × SE
B B
est mesurable. Par le lemme IV.2.17 (iii), ({x}, π) ∈ SE × SE 7→ π ∪ {x} est également mesurable, ce qui
B B
prouve (ii). Par (i) et (ii), combinés à une simple récurrence, (x1 , . . . , xn ) 7→ {x1 , . . . , xn } est (E ⊗n , SEB )-
mesurable et le lemme IV.2.17 (iii) termine la preuve du point (iii).
Montrons (iv) pour cela on se donne pour tous p, k ∈ N∗ , soient Yk(p) : SB E → E comme dans le lemme
IV.2.16 de localisation des points. On pose Bp∗ = E\Bp : le lemme IV.2.6 (i) de restriction implique que
π 7→ π ∩ Bp∗ est mesurable. Soient 1 ≤ i1 < . . . < in ≤ r. On pose S = {1, . . . , r}\{i1 , . . . , in } et
(p) (p) (p) (p)
fip1 ,...,in ;r (z, π) = F z ; Yi1 (π), Yi1 (π), Yin (π) , (π ∩ Bp∗ ) ∪ {Yj ; j ∈ S}
Le point (iii) et ce qui précède implique que fip1 ,...,in ;r : E0 × SB E → [0, ∞] est (E0 ⊗ SE )-mesurable. On
B
p
et donc Φ(n) ce qui entraîne la mesurabilité de Φ(n)
P P
F (z, π) = p≥1 r≥in >...>i1 ≥1 1{NBp (π)=r} fi1 ,...,in ;r (z, π), F .
La complétude de (Ω, F , P) simplifie les énoncés où le produit, l’union ou l’intersection de nuages aléatoires
interviennent. En effet, considérons Π : Ω → SE , un nuage aléatoire d’intensité µ supposée sigma-finie: il
existe une partition E -mesurable B = (Bp )p≥1 de E telle que E[NBp (Π)] = µ(Bp ) < ∞ pour tout p ≥ 1. Par
conséquent, p.s. Π ∈ SB E . On peut appliquer le lemme IV.2.16, page 138, de localisation des points des nuages
à Π: pour tout k, p ≥ 1, il existe des fonctions Yk(p) : SE → E, qui sont (SE , E )-mesurables et telles que
(p) (p) (p)
P-p.s. ∀p ≥ 1, Π ∩ Bp = Y1 (Π), Y2 (Π), . . . , YNB (Π) .
p (Π)
Proposition IV.2.19 Soient (E, E ) et (E 0 , E 0 ), des espaces mesurables séparables et séparés. On munit E×E 0
de la tribu produit E ⊗E 0 . Soient Π : Ω → SE et Π0 : Ω → SE 0 , des nuages aléatoires d’intensités respectives µ
et µ0 supposées, sigma-finies. Alors, les assertions suivantes sont vérifiées.
Preuve: d’après le fait détaillé ci-dessus, il existe B = (Bp )p∈N et B0 = (Bq0 )q∈N des partitions mesurables
de resp. E et E 0 telles que p.s. Π ∈ SB 0 B0 0
E et Π ∈ SE 0 . Le lemme IV.2.17 (i) implique alors que Π × Π est
p.s. égal à une variable (F , SE×E 0 )-mesurable. Comme (Ω, F , P) est supposé complet, Π × Π0 est donc
(F , SE×E 0 )-mesurable: c’est un nuage aléatoire.
Montrons (ii): on note ν : E ⊗E 0 → [0, ∞] l’intensité de Π×Π0 . Comme Π et Π0 sont indépendants, pour
tous B ∈ E et B 0 ∈ E 0
(ii) (Principe de disjonction) Si Π et Π0 sont indépendants et si µ (ou µ0 ) est diffuse, alors p.s. Π ∩ Π0 = ∅.
Preuve: on raisonne comme dans la preuve du point (i) de la proposition précédente IV.2.19 en utilisant le
lemme IV.2.17 (ii) pour prouver (i). Montrons (ii): la proposition IV.2.19 implique que l’intensité Π×Π0 est
µ ⊗ µ0 . Donc, Z
0 0
µ({x})µ0 (dx) = 0 ,
E N∆ (Π × Π ) = (µ ⊗ µ )(∆) =
E
(ii) Si les (Πn )n∈N sont indépendants et si les (µn )n∈N sont diffuses, alors
X
P-p.s. ∀B ∈ E , NB (Π) = NB (Πn ) (IV.18)
n∈N
P
et l’intensité de Π est µ = n∈N µn .
Preuve: en utilisant le fait que les intensités sont sigma-finies et en appliquant de manière répétée le lemme
IV.2.17 (iii), page 139, on montre que Π0 ∪ . . . ∪ Πn est (F , SE )-mesurable. Par convergence monotone pour
la mesure de comptage, partout sur Ω, et pour tout B ∈ E , NB (Π) = limn→∞ NB (Π0 ∪ . . . ∪ Πn ). Donc,
NB (Π) est F -mesurable pour tout B ∈ E , ce qui prouve (i).
Montrons (ii): la proposition IV.2.20 (ii) implique que p.s. pour tout m < n, Πm ∩ ΠP n = ∅, ce qui implique
(IV.18). Par interversion positive série/espérance, on a donc µ(B) = E[N B (Π)] = n∈N E[NB (Πn )] =
E
P
µ
n∈N n (B), pour tout B ∈ , ce qui termine la preuve.
142 CHAPTER IV. NUAGES DE POISSON.
Sauf mention explicite du contraire, on fait les hypothèses suivantes: On rappelle qu’une variable à valeurs
dans N∞ est une variable de Poisson étendue si son paramètre appartient à [0, ∞]: notamment son paramètre
est nul (resp. infini) ssi la variable est p.s. nulle (resp. p.s. infinie). En s’inspirant du cas des nuages homogènes
sur R+ , on introduit la définition suivante.
Définition IV.3.1 (Nuages Poissonniens) Soit (E, E ), un espace mesurable séparable et séparé. Soit Π : Ω →
SE , un nuage aléatoire. C’est un nuage Poissonnien s’il satisfait les deux hypothèses suivantes.
(Chaos) Pour tous A1 , . . . , Ap ∈ E deux-à-deux disjoints, les variables NA1 (Π), . . . , NAp (Π) sont indépen-
dantes.
Théorème IV.3.2 Soit (E, E ), un espace mesurable séparable et séparé. Soit Π : Ω → SE , un nuage Poisson-
nien d’intensité µ. Alors, µ est diffuse et la loi de Π est entièrement déterminée par µ.
Preuve: pour tout x ∈ E, N{x} (Π) = 0 ou 1. Or, N{x} (Π) suit une loi de Poisson de paramètre µ({x}). On
a donc µ({x}) = 0. Montrons le second point de la proposition: supposons que Π0 soit un nuage Poissonnien
d’intensité µ défini sur un espace de probabilité (Ω0 , F 0 , P0 ). Par définition, Π et Π0 satisfont l’identité en loi
(IV.14) de la proposition IV.2.11. Cette même proposition implique que Π et Π0 ont même loi.
Le théorème suivant montre que l’hypothèse de chaos pour un nuage aléatoire implique en réalité son
caractère Poissonnien. Ce théorème est satisfaisant d’un point de vue théorique n’est pas d’une grande utilité
pratique. Sa preuve est rejetée en fin de section.
Théorème IV.3.3 Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SE , un nuage aléatoire d’intensité
µ, supposée sigma-finie et diffuse. On suppose que Π satisfait également l’hypothèse de Chaos.
(Chaos) Pour tous A1 , . . . , Ap ∈ E deux-à-deux disjoints, les variables NA1 (Π), . . . , NAp (Π) sont indépen-
dantes.
Théorème IV.3.4 (Restriction) Soit (E, E ), un espace mesurable séparable et séparé. Soit Π, un nuage Poisson-
nien sur E d’intensité µ. Soient B1 , B2 ∈ E , disjoints. Alors Π ∩ B1 et Π ∩ B2 sont deux nuages Poissonniens
indépendants d’intensités respectives µ( · ∩ B1 ) et µ( · ∩ B2 ).
Plus généralement, soit Bi ∈ E , i ∈ I, une famille d’ensembles mesurables deux-à-deux disjoints. Alors,
Π ∩ Bi , i ∈ I, est une famille de nuages Poissonniens indépendants d’intensités respectives µ( · ∩ Bi ), i ∈ I.
IV.3. NUAGES POISSONNIENS. 143
Preuve: la définition même des nuages Poissonniens implique que pour tout A ∈ E , Π ∩ A est un nuage
Poissonnien d’intensité µ( · ∩ A). Pour tout i ∈ I, on pose Πi := Π ∩ Bi et on a pour tout A ∈ E , NA (Πi ) =
NA∩Bi (Π). Comme les Bi ∈ E , i ∈ I, deux-à-deux disjoints, pour tous A1 , . . . , Ap ∈ E deux-à-deux disjoints,
les vecteurs aléatoires (NAk (Πi ))1≤k≤p , i ∈ I, sont indépendants (on utilise la propriété de Chaos des nuages
Poissonniens car les ensembles Ak ∩ Bi , 1 ≤ k ≤ p, i ∈ I, sont deux-à-deux disjoints). On conclut grâce à la
proposition IV.2.14 (ii).
Théorème IV.3.5 (Superposition croissante ou indépendante) Soit (E, E ), un espace mesurable séparable et séparé.
Soit (Πn )n∈N , une suite de nuages
S Poissonniens sur E, d’intensités respectives (µn )n∈N toutes supposées
sigma-finies. On pose Π := n∈N Πn . Alors, c’est un nuage aléatoire dont l’intensité est notée µ et les
assertions suivantes sont vérifiées.
(i) Si on suppose que P-p.s. Πn ⊂ Πn+1 , pour tout n ∈ N, alors Π est un nuage de Poisson d’intensité µ et
pour tout A ∈ E , on a µ(A) = limn ↑ µn (A).
(ii) Si onPsuppose que les (Πn )n∈N sont indépendants, alors Π est un nuage de Poisson d’intensité µ et on a
µ = n∈N µn .
Preuve: par la proposition IV.2.21 (i), Π est (F , SE )-mesurable. Montrons (i). Soit A ∈ E ; le théorème de
convergence monotone pour la mesure de comptage implique que P-p.s. NA (Π) = limn NA (Πn ). En prenant
l’espérance, le théorème de convergence monotone sous P implique alors que µ(A) = limn µn (A). Alors,
clairement, pour tout r ∈ [0, 1], par convergence dominée
ce qui implique que NA (Π) suit une loi de Poisson (étendue) de paramètre µ(A). Soient A1 , . . . , Ap ∈ E ,
deux-à-deux disjoints. Pour tout n ∈ N fixé les v.a. NA1 (Πn ), . . . , NAp (Πn ) sont indépendantes et puisque
P-p.s. lim NA1 (Πn ), . . . , NAp (Πn ) = NA1 (Π), . . . , NAp (Π) ,
n→∞
les v.a. limites NA1 (Π), . . . , NAp (Π) sont nécessairement indépendantes. Cela montre donc que Π est un
nuage de Poisson.
Montrons (ii): par la proposition IV.2.21, page 141, Π est un nuage aléatoire (F , SE )-mesurable d’intensité
µ = n∈N µn . Soit B ∈ E . On remarque que les v.a. (NB (Πn ))n∈N sont des v.a. de Poisson indépendante. Par
P
conséquent (IV.18) et le lemme IV.1.3 page 124 impliquent que NB (Π) est de Poisson.
Soient A1 , . . . , Ap ∈ E , deux-à-deux disjoints. On vérifie facilement que les v.a. (NAi (Πn ))1≤i≤p;n∈N sont
mutuellement indépendantes. P Notamment les suites (NA1 (Πn ))n∈N , . . . , (NAp (Πn ))n∈N sont indépendantes.
Or par (IV.18), NAi (Π) = n∈N NAi (Πn ), pour tout 1 ≤ i ≤ p. Cela montre que les v.a. NA1 (Π), . . . , NAp (Π)
sont indépendantes. Cela termine la preuve de (ii).
Proposition IV.3.6 Soient (E, E ) et (E 0 , E 0 ), des espaces mesurables séparés et séparables. Soit Π, un nuage
Poissonnien sur E d’intensité µ. Soit φ : E → E 0 , supposée (E , E 0 )-mesurable. On note µ0 la mesure image de
µ par φ et on pose Π0 := φ(Π). Si φ est injective, alors Π0 est un nuage Poissonnien sur E 0 d’intensité µ0 .
Cela montre que Π0 est un nuage aléatoire. Par ailleurs NB 0 (Π0 ) est une variable de Poisson d’intensité
µ(φ−1 (B 0 )) = µ0 (B 0 ). Enfin, pour tous A01 , . . . , A0p ∈ E 0 , deux-à-deux disjoints, φ−1 (A01 ), . . . , φ−1 (A0p ) ∈ E
sont également deux-à-deux disjoints et (IV.19) implique que les variables NA01 (Π0 ), . . . , NA0p (Π0 ) sont in-
dépendantes.
Le théorème suivant est une version plus sophistiquée de la proposition précédente.
Théorème IV.3.7 (Image) Soient (E, E ) et (E 0 , E 0 ), deux espaces mesurables séparables et séparés. Soit Π, un
nuage Poissonnien sur E d’intensité µ, supposée sigma-finie. Soit φ : E → E 0 , une fonction (E , E 0 )-mesurable.
On note µ0 la mesure image de µ par φ et on pose Π0 := φ(Π). On suppose µ0 diffuse.
Alors, Π0 est un nuage Poissonnien d’intensité µ0 et p.s. φ est injective sur Π, c’est-à-dire
P-p.s. ∀X, Y ∈ Π , X 6= Y =⇒ φ(X) 6= φ(Y ) , (IV.20)
On raisonne ensuite comme à la proposition IV.3.6 pour montrer que Π0 est Poissonnien d’intensité µ0 .
Il reste donc à prouver (IV.20). Pour cela on considère Π∗ = Π×Π, qui d’après la proposition IV.2.19, est
un nuage aléatoire sur l’espace E×E muni de la tribu produit E ⊗ E . On note ρ son intensité, que l’on calcule
comme suit: on fixe A, B ∈ E et on pose A0 := A\(A ∩ B) et B0 := B\(A ∩ B), si bien que A0 , A ∩ B, B0
sont disjoints deux-à-deux. On a donc
ρ(A × B) = E NA0 (Π)NB0 (Π) + E NA0 (Π)NA∩B (Π)
+E NA∩B (Π)NB0 (Π) + E (NA∩B (Π) )2
ρ(A × B) = µ(A0 )µ(B0 ) + µ(A0 )µ(A ∩ B) + µ(A ∩ B)µ(B0 ) + µ(A ∩ B)2 + µ(A ∩ B)
= µ(A)µ(B) + µ(A ∩ B) = (µ ⊗ µ)(A × B) + µ(A ∩ B) .
U := Φ−1 (∆0 )\∆ = (x, y) ∈ E×E : x 6= y et φ(x) = φ(y) . Comme µ∆ est concentrée sur ∆ (par définition),
Comme µ0 est diffuse, on a µ0 ({φ(x)}) = 0, pour tout x ∈ E et donc (µ⊗µ)(U ) = 0. On en déduit donc que
ρ(U ) = E[NU (Π∗ )] = 0 et donc que P-p.s. Π∗ ∩ U = ∅, c’est-à-dire (IV.20), ce qui termine la preuve.
Preuve du théorème IV.3.3. On observe tout d’abord que les nuages aléatoires satisfaisant la propriété de
chaos sont stables par restriction et que leurs restrictions à des sous-ensembles deux-à-deux disjoints sont
mutuellement indépendantes. Cette observation, combinée au principe de superposition indépendante (théorème
IV.3.5 (ii), montre que l’on peut se ramener aux cas de nuages aléatoires d’intensité finie.
On considère donc un Π : Ω → SE un nuage aléatoire (F , SE )-mesurable, satisfaisant la propriété de
chaos et d’intensité µ supposée finie: µ(E) < ∞. Comme (E, E ) est séparable et séparé, il existe C ⊂ [0, 1]
et φ : E → C bijective (E , B(C))-mesurable telle que la réciproque φ−1 : C → E soit (B(C), E )-mesurable
(on rappelle que B(C) est la tribu trace des Boréliens de R sur C). Le lemme IV.2.7, page 135, montre que
Π0 := φ(Π) est un nuage aléatoire d’intensité µ0 := µ◦φ−1 . Comme φ est bijective, il est clair que µ0 est diffuse
et que Π0 satisfait la propriété de chaos. Si on montre que Π0 est Poissonnien, alors la proposition IV.3.6, page
143, implique que Π = φ−1 (Π0 ) est Poissonnien également.
Il suffit donc de montrer que Π0 est Poissonnien: comme Π0 satisfait la propriété de chaos, il suffit de
montrer que pour tout A ∈ B(C), NA (Π0 ) suit une loi de Poisson. Soient n ∈ N et 0 ≤ k < 2n ; on pose
An,k = A ∩ [k2n , (k+1)2n [ et
X
ξn,k = 1{NA (Π0 )≥1} , pn,k = P(NAn,k (Π0 ) ≥ 1) et Xn = ξn,k .
n,k
0≤k<2n
L’hypothèse de chaos implique que pour tout n ∈ N, (ξn,k )0≤k<2n sont des v.a. de Bernoulli indépendantes de
paramètre respectifs (pn,k )0≤k<2n . Il est ensuite facile de voir que p.s. pour tout n ∈ N
Raisonnons par l’absurde en supposant que max0≤k<2n µ0 (An,k ) ne tende pas vers 0 lorsque n tend vers l’infini:
il existe donc ε > 0 une suite strictement croissante d’entiers naturels (n` )`≥0 telle que
max µ0 (An` ,k ) ≥ ε .
0≤k<2n`
n n n 0
On pose ITn,k = [k2 , (k +1)2 ], 0 ≤ k < 2 , et J` := ∪{In` ,k ; k : µ (An` ,k ) ≥ ε}. Clairement, J`+1 ⊂ J` . On
pose K = `≥0 J` , qui est un compact non-vide, par ce qui précède et puisque les J` sont également compacts
non-vides. Comme µ0 (A ∩ J` ) ≥ ε, on a µ0 (K ∩ A) ≥ ε. Soient x1 , . . . , xq ∈ K ∩ A distincts; alors pour tout
146 CHAPTER IV. NUAGES DE POISSON.
` assez grand, il existe k1 , . . . , kq tels que pour tout p ∈ {1, . . . , q}, on ait xp ∈ AnP
` ,kp
et µ0 (An` ,kp ) ≥ ε, et tels
que les les intervalles In` ,kp , 1 ≤ p ≤ q soient disjoints. Cela implique que qε ≤ 1≤p≤q µ0 (An` ,kp ) ≤ µ0 (A).
On a montré que K ∩ A contient au plus µ0 (A)/ε points. Or on a également prouvé que µ0 (K ∩ A) ≥ ε, ce qui
contredit le fait que µ0 soit diffuse.
On a donc montré par l’absurde que limn→∞ max0≤k<2n µ0 (An,k ) = 0. Par (IV.25) et (IV.24), l’approximation
Binomiale-Poisson établie au théorème IV.1.4 s’applique (voir page 125, en appendice): les variables Xn ten-
dent en loi vers une loi de Poisson de paramètre µ0 (A) et (IV.23) implique que NA (Π0 ) suit une loi de Poisson,
ce qui permet de conclure.
IV.3.b Construction.
Les cas des nuages Poissonniens d’intensité finie. On se donne les objets suivants.
(a) (E, E ), un espace séparable et séparé; µ : E → R+ , une mesure finie, non-nulle et diffuse.
(b) (Ω, F , P), un espace de probabilité complet; Xn : Ω → E, n ∈ N∗ , des v.a. (F , E )-mesurables, indépen-
dantes de même loi µ( · )/µ(E).
(c) M : Ω → N, une v.a. F -mesurable, indépendante de (Xn )n≥1 , loi de Poisson de paramètre µ(E).
µ(E) 1 − E[Zn ] = µ(E) 1 − E[Z1 ] = µ(A1 )(1 − eiu1 ) + . . . + µ(Ap )(1 − eiup ) .
(IV.27)
Comme µ est sans atome, P-p.s. pour tous m < n, Xn 6= Xm , ce qui entraîne
Y Y
P-p.s. exp iuj NAj (Π) = Zj ,
1≤j≤p 1≤j≤M
avec la convention qu’un produit sur un ensemble d’indices vide est égal à 1. On en déduit les égalités suivantes:
h Y i h Y i X h Y i
E exp iuj NAj (Π) = E Zj = 1 + E 1{M =n} Zj
1≤j≤p 1≤j≤M n≥1 1≤j≤n
X h Y µ(E)n
i X
= 1+ P(M = n)E Zj = e−µ(E)
E[Z1 ]n
n!
n≥1 1≤j≤n n≥0
Y
exp −µ(Aj )(1 − eiuj ) .
= exp (−µ(E)(1 − E[Z1 ])) =
1≤j≤p
L’injectivité de la fonction caractéristique montre que le vecteurs (NA1 (Π), . . . , NAp (Π)) a des composantes
indépendantes suivant des lois de Poisson, ce qui implique le résultat désiré.
IV.3. NUAGES POISSONNIENS. 147
Construction pour les intensité sigma-finies. On procède de la même façon en utilisant le principe de su-
perposition. Plus précisément, on se donne les objets suivants.
(a) (E, E ), un espace mesurable séparable et séparé. µ : E → [0, ∞], une mesure sigma-finie, non-nulle et
diffuse. Il existe donc Bp ∈ E , p ≥ 1, une partition de E telle que pour tout p ≥ 1, on ait 0 < µ(Bp ) < ∞.
(p)
(b) (Ω, F , P), un espace de probabilité complet; Xn : Ω → E, p, n ≥ 1, des v.a. F -mesurables in-
(p)
dépendantes telles que pour tout p ≥ 1, la suite (Xn )n≥1 est i.i.d. de loi µ( · ∩ Bp )/µ(Bp ). On pose
(p)
T := (Xm )p,n≥1 .
(c) Mp : Ω → N, p ≥ 1, des v.a. F -mesurables indépendantes; Mp suit une loi de Poisson de paramètre
µ(Bp ). On suppose que la suite (Mp )p≥1 est indépendante du tableau de variables T .
Théorème IV.3.9 Sous les hypothèses et notations précédentes, pour tout p ≥ 1, on pose
(p) (p)
Πp = X1 , . . . , XMp si Mp ≥ 1 et Πp = ∅ si Mp = 0 .
S
On pose également Π = p≥1 Πp . Alors, Π est un nuage Poissonnien sur E d’intensité µ.
Preuve: par le théorème IV.3.8, Πp est un nuage Poissonnien d’intensité µ( · ∩ Bp ). La construction garantit
que les Πp , p ≥ 1, sont indépendants.
P Par la propriété de superposition (proposition IV.3.5, page 143), Π est un
nuage Poissonnien d’intensité p≥1 µ( · ∩ Bp ) = µ.
Représentation des nuages Poissonniens. On montre, à l’aide du lemme de localisation IV.2.16 (page 138)
que tout nuage Poissonnien, sur un espace séparable et séparé et d’intensité sigma-finie, peut se représenter de
manière mesurable comme dans la construction générale qui précède. On commence par considérer les nuages
d’intensité finie. Plus précisément, on se donne les objets suivants.
(β) (Ω, F , P), un espace de probabilité complet sur lequel est défini Π : Ω → SE , un nuage Poissonnien
d’intensité finie: µ(E) < ∞.
À l’aide de U , on construit:
– une suite (Xn0 )n≥1 de v.a. i.i.d. de loi µ( · )/µ(E);
– une suite de permutations indépendantes (Σn )n≥1 telle que d’une part, Σn : {1, . . . , n} → {1, . . . , n} suit la
loi uniforme et telle que d’autre part, la suite (Σn )n≥1 est indépendante de (Xn0 )n≥1 .
Comme (E, E ) est séparable et séparé, il existe C ⊂ R et une bijection φ : E → C qui est (E , B(C))-mesurable
et telle que la réciproque φ−1 soit (B(C), E )-mesurable également. Par lemme IV.2.16 (page 138), il existe
une suite Yk : SE → E, k ≥ 1, de fonctions (SE , E )-mesurables telles que pour tout nuage π ∈ SE comptant n
points,
π = Y1 (π), . . . , Yn (π) et φ(Y1 (π)) < . . . < φ(Yn (π)) .
Pour tout n ≥ 1, sur {#Π = n}, on pose:
0
Xk = YΣn (k) (Π) si 1 ≤ k ≤ n et Xk = Xk−n si k > n.
148 CHAPTER IV. NUAGES DE POISSON.
Sur {#Π = 0}∪{#Π = ∞}, pour tout k ≥ 1, on pose Xk = Xk0 . On montre tout d’abord que pour tout n ≥ 1,
sous P( · | #Π = n), les v.a. X1 , . . . , Xn sont i.i.d. de loi µ( · )/µ(E). (IV.28)
Preuve: soient A1 , . . . , An ∈ E , deux-à-deux disjoints. Observons que
[
{NA1 (Π) = 1; . . . ; NAn (Π) = 1} ∩ {#Π = n} = {Xσ(1) ∈ A1 ; . . . ; Xσ(n) ∈ An } ∩ {#Π = n},
σ∈Sn
ces événements étant deux-à-deux disjoints. Ici, Sn désigne l’ensemble des permutations de {1, . . . , n}. On
remarque ensuite que pour tout σ ∈ Sn , Σn ◦ σ est une permutation de loi uniforme. Cela implique que sous
P( · | #Π = n), (X1 , . . . , Xn ) à même loi que (Xσ(1) , . . . , Xσ(n) ) et donc
X
P NA1 (Π) = 1; . . . ; NAn (Π) = 1 #Π = n = P Xσ(1) ∈ A1 ; . . . ; Xσ(n) ∈ An #Π = n
σ∈Sn
= n! P X1 ∈ A1 ; . . . ; Xn ∈ An #Π = n . (IV.29)
On pose ensuite An+1 := E\(A1 ∪ . . . ∪ An ) et on remarque que
P NA1 (Π) = 1; . . . ; NAn (Π) = 1; #Π = n = P NA1 (Π) = 1; . . . ; NAn (Π) = 1; NAn+1 (Π) = 0
= µ(A1 ) . . . µ(An )e−µ(E) .
Comme #Π est une v.a. de Poisson de paramètre µ(E), on en déduit que
µ(A1 ) µ(A1 )
P NA1 (Π) = 1; . . . ; NAn (Π) = 1 #Π = n = n! ... ,
µ(E) µ(E)
ce qui implique (IV.28) par (IV.29).
On déduit facilement de (IV.28) la proposition suivante.
Proposition IV.3.10 On suppose (α), (β) et (γ) ci-dessus. On note G la tribu engendrée par U et Π. On pose
M := #Π. Alors, il existe une famille de variables (Xn )n≥1 satisfaisant les conditions suivantes.
(i) Pour tout n ≥ 1, Xn : Ω → E est (G , E )-mesurable.
Proposition IV.3.11 On suppose (α), (β) et (γ) ci-dessus, excepté que µ est seulement supposée sigma-finie; il
existe donc une partition E -mesurable de E, notée B = (Bp )p≥1 telle que pour tout p ≥ 1, on ait 0 < µ(Bp ) < ∞.
Pour tout p ≥ 1, on note Gp la tribu engendrée par U et Π ∩ Bp et on note Mp = NBp (Π). Alors, il existe un
(p)
tableau de variables (Xn )p,n≥1 qui satisfont les conditions suivantes.
(p)
(i) Pour tous n, p ≥ 1, Xn : Ω → Bp est (Gp , E )-mesurable.
(p) (p)
(ii) Les variables (Xn )p,n≥1 sont indépendantes et pour tous p, n ≥ 1, Xn a pour loi µ( · ∩ Bp )/µ(Bp ).
(p)
(iii) Le tableau de variables (Xn )p,n≥1 est indépendant de la suite (Mp )p≥1 .
(p) (p)
(iv) P-p.s. pour tout p ≥ 1, Π ∩ Bp = X1 , . . . , XMp dès que Mp ≥ 1.
IV.4. OUTILS DE CALCULS. 149
Théorème IV.4.1 (Formule de Palm) Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SE , un nuage
Poissonnien d’intensité µ, supposée sigma-finie et non-nulle. Soit (E0 , E0 ), un espace mesurable et soit Z :
Ω → E0 , une variable (F , E0 )-mesurable supposée indépendante de Π. Soit F : E0 ×E ×SE → [0, ∞], une
fonction E0 ⊗E ⊗SE -mesurable. Alors,
" # Z
X
E F (Z, X, Π\{X}) = µ(dx) E[F (Z, x, Π)] , (IV.30)
X∈Π E
avec la convention qu’une somme sur un ensemble d’indices vide est nulle.
Preuve: on remarque que (IV.30) ne dépend que de la loi jointe de (Z, Π). On peut donc choisir Π comme
(p)
dans le théorème de construction IV.3.9 et Z indépendante des variables Xn et Mp (ou bien on applique la
proposition de représentation IV.3.11). On pose alors
" #
X [
a=E F (Z, X, Π\{X}) et Π∗p = Πp0 .
X∈Π p0 ∈N\{p}
(p)
bp,n,k = E F Z, Xn(p) , Π∗p ∪ {X1 , . . . , Xn(p) }\{Xn(p) }
(p) (p)
= E F Z, Xn(p) , Π∗p ∪ {X1 , . . . , Xn−1 }
Z
µ(dx) (p) (p)
= E F Z, x, Π∗p ∪ {X1 , . . . , Xn−1 } ,
Bp µ(Bp )
(p) (p)
avec la convention que {X1 , . . . , Xn−1 } = ∅ si n = 1. Par conséquent
Z
XX µ(dx) (p) (p)
a = P(Mp = n) n E F Z, x, Π∗p ∪ {X1 , . . . , Xn−1 }
p≥1 n≥1 Bp µ(Bp )
n Z
−µ(Bp ) µ(Bp ) µ(dx) (p) (p)
XX
= e n E F Z, x, Π∗p ∪ {X1 , . . . , Xn−1 }
n! Bp µ(Bp )
p≥1 n≥1
150 CHAPTER IV. NUAGES DE POISSON.
n−1 Z
−µ(Bp ) µ(Bp ) (p) (p)
XX
µ(dx)E F Z, x, Π∗p ∪ {X1 , . . . , Xn−1 }
= e
(n − 1)! Bp
p≥1 n≥1
Z
(p) (p)
XX
P(Mp = n0 ) µ(dx)E F Z, x, Π∗p ∪ {X1 , . . . , Xn0 }
=
p≥1 n0 ≥0 Bp
XZ X (p) (p)
P(Mp = n0 )E F Z, x, Π∗p ∪ {X1 , . . . , Xn0 }
= µ(dx)
p≥1 Bp n0 ≥0
XZ
µ(dx)E F Z, x, Π∗p ∪ Πp }
=
p≥1 Bp
XZ Z
= µ(dx)E[F (Z, x, Π)] = µ(dx) E[F (Z, x, Π)],
p≥1 Bp E
Remarque IV.4.3 On conserve les mêmes hypothèses que le théorème précédent en ce qui concerne Π et Z
mais on considère une application F : E0 × E × SE → R ou C qui est E0 ⊗ E ⊗ SE -mesurable et telle que
Z
µ(dx)E[ |F (Z, x, Π)| ] < ∞ . (IV.32)
E
Alors on déduit facilement du théorème IV.4.1, qui traite le cas des fonctions positives, que
" # Z
X
E F (Z, X, Π\{X}) = µ(dx)E [F (Z, x, Π)] .
X∈Π E
En effet, si F est réelle, il suffit de séparer F en sa partie positive et sa partie négative, de montrer que toutes
les expressions ont un sens grâce à l’hypothèse (IV.32) et au théorème IV.4.1 et de déduire le résultat. Dans le
cas où F est à valeurs complexes, il faut raisonner sur la partie réelle et la partie imaginaire. Nous laissons les
détails au lecteur.
Théorème IV.4.4 (Formule de Palm à n points) Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SE , un
nuage Poissonnien d’intensité µ, supposée sigma-finie et non-nulle. Soit (E0 , E0 ), un espace mesurable et soit
IV.4. OUTILS DE CALCULS. 151
Z : Ω → E0 , une variable (F , E0 )-mesurable supposée indépendante de Π. Soit F : E0 ×E n ×SE → [0, ∞], une
fonction E0 ⊗E ⊗n ⊗SE -mesurable. On rappelle la notation
(n)
X
ΦF (Z, Π) = F Z, X1 , . . . , Xn , Π\{X1 , . . . , Xn } .
X1 ,...,Xn ∈Π
distincts
avec la convention qu’une somme sur un ensemble d’indices vide est nulle. Alors,
h i Z
(n)
E ΦF (Z, Π) = µ(dx1 ) . . . µ(dxn ) E[F (Z, x1 , . . . , xn , Π)] . (IV.33)
En
Preuve: on fait une récurrence. Le théorème IV.4.1 montre (IV.33) pour n = 1. On suppose que (IV.33) est
vérifiée au rang n. Soit F : E0 ×E n+1 ×SE → [0, ∞], une fonction E0 ⊗ E ⊗n+1 ⊗ SE -mesurable. On pose
E1 = E0 × E muni de la tribu E1 = E0 ⊗ E et on définit la fonction G : E1 × ⊗n E n × SE → [0, ∞], par
G (z, x), x2 , . . . , xn+1 , π = F (z, x, x2 , . . . , xn+1 , π). C’est une fonction E1 ⊗ E ⊗ SE -mesurable. On
(n)
pose F0 = ΦG . La formule de Palm au rang n = 1 (théorème IV.4.1) implique que
h X i Z
E F0 (Z, X1 , Π\{X1 }) = µ(dx1 ) E[F0 (Z, x1 , Π)]
X1 ∈Π E
Z
µ(dx1 )E Φ(n)
= G (Z, x1 , Π) . (IV.35)
E
Les égalités (IV.35), (IV.36) et (IV.37) permettent alors de montrer (IV.33) au rang n + 1, ce qui conclut la
preuve de (IV.33). Pour démontrer la formule (IV.34), il suffir d’appliquer la formule (IV.33) à la fonction
G(z, x1 , . . . , xn , π) = F (z, x1 , . . . , xn , π ∪ {x1 , . . . , xn }).
En application nous donnons une formule de moment d’ordre 2 pour ΦF (Π).
152 CHAPTER IV. NUAGES DE POISSON.
Proposition IV.4.5 Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SE , un nuage Poissonnien
d’intensité µ, supposée sigma-finie et non-nulle. Soit (E0 , E0 ), un espace mesurable et soit Z : Ω → E0 ,
une variable (F , E0 )-mesurable supposée indépendante
P de Π. Soit F : E0 × E × SE → [0, ∞], une fonction
E0 ⊗E ⊗SE -mesurable. On rappelle que ΦF (Π) = X∈Π F (Z, X, Π\{X}). Alors, on a
h Z
E ΦF (Π) = µ(dx) E F (Z, x, Π)2
2
E Z
+ µ(dx)µ(dy) E F (Z, x, Π ∪ {y})F (Z, y, Π ∪ {x}) . (IV.38)
E2
où G(z, x, y, π) = F (z, x, π ∪ {y})F (z, y, π ∪ {x}). En effet, il s’agit juste du developpement du carré d’une
somme finie. En prenant le supremum sur tous les sous-ensembles finis J ⊂ Π, on peut remplacer J par Π
dans l’expression précédente : on a ΦF (Π)2 = ΦF 2 (Π) + Φ(2)G (Π) et on conclut par le théorème IV.4.4.
Théorème IV.4.6 (Formule exponentielle positive) Soit (E, E ), un espace mesurable séparable et séparé. Soit
Π : Ω → SE , un nuage Poissonnien d’intensité µ. Soit f : E → [0, ∞] une application E -mesurable. Alors
Z
E exp(−Nf (Π)) = exp − µ(dx) 1 − e−f (x) ,
(IV.39)
E
ce qui entraîne (IV.39) par (IV.11), par convergence dominée et par convergence monotone. Le premier moment
de Nf (Π) est donné par le lemme IV.2.5 (ii). La formule donnant le moment d’ordre 2 découle directement de
la proposition IV.4.5 avec F (z, x, π) = f (x).
Lemme IV.4.7 (Caractérisation) Soit (E, E ), un espace mesurable séparable et séparé. Soit Π : Ω → SE , un
nuage aléatoire d’intensité µ. C’est un nuage Poissonnien ssi pour toute fonction f positive E -mesurable
bornée (IV.39) est vérifiée.
IV.4. OUTILS DE CALCULS. 153
Preuve: si Π est Poissonnien, alors le théorème IV.4.6 montre que (IV.39) est vérifié pour toute fonction
f positive, E -mesurable bornée. Réciproquement, soient A1 , . . . , Ap ∈ E , disjoints deux-à-deux et soient
λ1 , . . . , λp ∈ R+ . En choisissant f = λ1 1A1 + . . . + λp 1Ap dans (IV.39), on obtient
Z
E e−λ1 NA1 (Π)−...−λ1 NA1 (Π) = E e−Nf (Π) = exp − µ(dx) 1 − e−f (x)
E
Y
−λk
= exp(−µ(Ak )(1 − e ) .
1≤k≤p
Par injectivité de la transformée de Laplace, cela entraîne que NA1 (Π), . . . , NAp (Π) sont des variables de
Poisson indépendantes si µ(A1 ), . . . , µ(Ap ) sont des quantités finies. Le cas général est facile à déduire car si
µ(A) = ∞, NA (Π) est déterministe et vaut l’infini.
Remarque IV.4.8 On observe également que si Y : Ω → N suit une loi de Poisson de paramètre θ ∈ ]0, ∞[ ,
alors Y admet des moment exponentiels de tous ordres:
X e−θ θn −θ λn
E eλY = e e = exp θ(eλ − 1) .
∀λ ∈ R+ ,
n!
n∈N
En reprenant l’approximation de la preuve du théorème IV.4.6, on montre sous les mêmes hypothèses que ce
théorème que
Z
µ(dx) ef (x) −1 ,
E exp Nf (Π) = exp (IV.40)
E
ces quantités pouvant être infinies, avec la convention exp(∞) := ∞.
Proposition IV.4.9 Soit (E, E ), un espace mesurable séparable et séparé. Soit Π : Ω → SE , un nuage Pois-
sonnien d’intensité µ. Soit f : E → R+ une application E -mesurable (f ne prend pas la valeur ∞). Alors, on
a l’alternative suivante.
R
(a) Si E (1 ∧ f (x)) µ(dx) < ∞, alors p.s. Nf (Π) < ∞.
R
(b) Si E (1 ∧ f (x)) µ(dx) = ∞, alors p.s. Nf (Π) = ∞.
Preuve: on pose c = 1 − e−1 . On a c(1 ∧ y) ≤ 1 − e−y ≤ 1 ∧ y, pour tout y ∈ R+ , car la fonction y 7→ 1 − e−y
est concave. Donc pour tout λ ∈ R+ ,
Z Z Z
−λf (x)
c µ(dx) 1 ∧ (λf (x)) ≤ µ(dx) 1 − e ≤ µ(dx) 1 ∧ (λf (x)) . (IV.41)
E E E
Supposons que P Nf (Π) < ∞) > 0, alors E[exp(−Nf (Π))] > 0, et la formule exponentielle implique que
−f (x) ) < ∞. L’inégalité (IV.41) avec λ = 1 implique donc que
R R
E µ(dx)(1 − e R E µ(dx) (1 ∧ f (x)) < ∞.
Réciproquement, on suppose que E µ(dx) (1 ∧ f (x)) < ∞. On observe que pour tout λ ∈ [0, 1], 1 −
e−λf (x) ≤ 1 ∧ f (x). Comme fR ne peut pas prendre lavaleur ∞, on a limλ→0 1 − e−λf (x) = 0. Par convergence
dominée, on obtient limλ→0 E µ(dx) 1 − e−λf (x) = 0 et un argument élémentaire combiné à la formule
exponentielle montre que
Z
µ(dx) 1 − e−λf (x) = 1 ,
P Nf (Π) < ∞ = lim E[exp(−λNf (Π))] = lim exp
λ→0 λ→0 E
154 CHAPTER IV. NUAGES DE POISSON.
ce qui montre (a). Supposons que E µ(dx)(1∧f (x)) = ∞. Alors, par (IV.41) E µ(dx)(1−e−f (x) ) = ∞, et la
R R
formule exponentielle entraîne que E[exp(−Nf (Π))] = 0, ce qui est équivalent à dire que P(Nf (Π) = ∞) = 1.
Cela montre une implication de (b). L’implication réciproque suit immédiatement de (a).
On se place sous les hypothèses du théorème IV.4.6. Soit f : E → R, une fonction E -mesurable telle que
Z
µ(dx) (1 ∧ |f (x)| ) < ∞ . (IV.42)
E
Cela implique que E µ(dx) (1 ∧ f + (x) ) et E µ(dx) (1 ∧ f − (x) ) sont des quantités finies. Ici f + et f − sont
R R
les parties positives et négatives de f . La proposition (IV.4.9) entraîne alors que Nf + (Π) et Nf − (Π) sont des
variables finies presque sûrement et on a
X
N|f | (Π) = |f (X)| = Nf + (Π) + Nf − (Π) < ∞ .
X∈Π
On pose alors X
Nf (Π) = Nf + (Π) − Nf − (Π) := f (X) . (IV.43)
X∈Π
Théorème IV.4.10 (Formule exp. réelle) Soit (E, E ), un espace mesurable séparable et séparé. Soit Π : Ω → SE ,
un nuage Poissonnien d’intensité µ. Soit f : E → R une application E -mesurable satisfaisant (IV.42), ce qui
permet de définir Nf (Π) par (IV.43). Alors,
Z
E exp(iNf (Π)) = exp − µ(dx) 1 − ei f (x) .
(IV.44)
E
R
Si E µ(dx)|f (x)| < ∞, alors Nf (Π) est une variable intégrable et on a
hX i Z
E f (X) = µ(dx)f (x) . (IV.45)
X∈Π E
Preuve: soit g : E → R+ , une fonction E -mesurable telle que E µ(dx)(1∧g(x)) < ∞. Par la proposition
R
IV.4.9, on a P(Ng (Π) < ∞) = 1. Comme dans la preuve de la formule exponentielle positive (théorème IV.4.6)
on démontre facilement que
Z
∀u ∈ R , E[exp(iu Ng (Π)) ] = exp − µ(dx) 1 − eiu g(x) . (IV.46)
E
On pose E+ := {f ≥ 0} et E− := {f < 0}, qui sont deux Boréliens disjoints. On a donc f = f + sur E+ et
−f = f − sur E− . On pose également Π+ := Π ∩ E+ et Π− := Π ∩ E− . Le principe de restriction implique
que Π+ et Π− sont deux nuages Poissonniens indépendants d’intensités respectives µ(· ∩ E+ ) et µ(· ∩ E− ).
En utilisant (IV.46) avec Π+/− , u = +1 ou −1 et g = |f |, on obtient
Z Z
i f (x)
= exp − µ(dx) 1 − e exp − µ(dx) 1 − ei f (x)
E+ E−
Z
= exp − µ(dx) 1 − ei f (x) ,
E
ce qui montre le point (IV.44). On a également, E[Nf +/− (Π)] = E µ(dx)f +/− (x) et on en déduit (IV.45).
R
Donc si E µ(dx)|f (x)| < ∞ et E µ(dx)f (x)2 < ∞, Nf (Π) = N|f | (Π+ ) − N|f | (Π− ) admet un moment
R R
Proposition IV.5.1 Soit θ ∈]0, ∞[ . Soit ν : E → [0, ∞], une mesure de probabilité. Soit (En , Xn ), n ≥ 1, une
suite de variables telles que (En )n≥1 soient i.i.d. de loi exponentielle de paramètre θ, telles que (Xn )n≥1 soient
i.i.d. à valeurs dans E de loi ν, et telles que (En )n≥1 et (Xn )n≥1 soient indépendantes. On pose
∀n ∈ N∗ , Tn := E1 + . . . + En Π := (Tn , Xn ) ; n ∈ N∗ }.
et
Preuve: par le lemme IV.4.7 page 152, il suffit de montrer que pour toute fonction mesurable f : R+ ×E → R+ ,
Z
E exp −Nf (Π) = exp −θ `(ds) ν(dx) 1 − e−f (s,x) .
(IV.47)
R+ ×E
On rappelle que Π0 = {Tn ; n ∈ N∗ } est un nuage Poissonnien d’intensité θ` (voir le théorème IV.1.12, page
131 en appendice). Il est clairement indépendant de (Xn )n≥1 . On fixe t > 0 et on définit ft en posant ft (s, x) :=
1[0,t] (s)f (s, x). Par le théorème IV.1.12 (iii), on montre facilement que pour tout n ∈ N,
Z n
1
`(ds)ν(dx)e−f (s,x)
E exp −Nft (Π) N[0,t] (Π0 ) = n = t .
[0,t]×E
156 CHAPTER IV. NUAGES DE POISSON.
On obtient alors
Z n
X 1
`(ds)ν(dx)e−f (s,x)
E exp −Nft (Π) = P N[0,t] (Π0 ) = n t
n∈N [0,t]×E
X 1 Z n
−θt
= e θ `(ds)ν(dx)e−f (s,x)
n! [0,t]×E
n∈N
Z
= exp −θ `(ds)ν(dx) 1 − e−f (s,x) ,
[0,t]×E
R est l’ensemble des nuages π sur R+ × E de la forme {(tn , xn ); n ∈ N∗ } où la suite (tn )n≥1 croît
strictement vers ∞.
Le résultat suivant est un résultat technique de mesurabilité dont la preuve peut être passée à première lecture.
Lemme IV.5.2 R est un ensemble de SR+ ×E . De plus, pour tout n ∈ N∗ , il existe des fonctions En : SR+ ×E →
]0, ∞[ qui sont SR+ ×E -mesurables et des fonctions Xn : SR+ ×E → E qui sont (SR+ ×E , E )-mesurables, et qui
satisfont les propriétés suivantes.
• Si Tn := E1 + . . . + En , n ∈ N∗ , alors pour tout π ∈ SR+ ×E , limn→∞ Tn (π) = ∞.
• Pour tout π ∈ R, on a π = (Tn (π), Xn (π)) ; n ∈ N∗ .
Pour tout t ∈ R+ , on pose ft (s, x) = (1+f (x))1[0,t] (s). Clairement, ft : R+×E → R+ est B(R+ )⊗E -mesurable
et on voit que Sf (t, π) = Nft (π). Cela montre que pour t fixé, π 7→ Sf (t, π) est mesurable. Par ailleurs, on
remarque que à π fixé, t 7→ Sf (t, π) est croissante. Si Sf (t0 , π) < ∞, alors t 7→ Sf (t, π) est càd sur [0, t0 [ .
Comme f est bornée, pour tout nuage π ∈ R0 , t 7→ Sf (t, π) est donc croissante càd.
On pose SR0 = {C ∩ R0 ; C ∈ SR+ ×E }, la tribu trace de SR+ ×E sur R0 . Comme R0 est dans la tribu
SR+ ×E , SR0 est une sous-tribu de SR+ ×E . Montrons que la fonction
En effet, pour tout t ∈ R+ et tout n ∈ N, on pose (t)P −n d2n te, qui tend en décroissant vers t lorsque
n := 2
n tend vers l’infini. On remarque que Sf ((t)n , π) = k≥1 1[(k−1)2−n ,k2−n [ (t)Sf (k2−n , π). Ce qui précède
IV.5. NUAGES POISSONNIENS SUR R+ × E. 157
implique que (t, π) 7→ 1[(k−1)2−n ,k2−n [ (t)Sf (k2−n , π) est B(R+ )⊗SR0 -mesurable. Il en est donc de même
pour (t, π) 7→ Sf ((t)n , π). Or limn Sf ((t)n , π) = Sf (t, π), sur R+ ×R0 , ce qui permet de conclure.
Si f est nulle, alors S0 (t, π) = N[0,t]×E (π). La fonction (t, π) ∈ R+ × R0 → N[0,t]×E (π) ∈ N est donc
B(R+ ) ⊗ SR0 -mesurable. On remarque qu’à π fixé, les sauts de t 7→ N[0,t]×E (π) peuvent être strictement
supérieurs à 1, si par exemple (t, x) et (t, y) appartiennent à π avec x et y distincts. On fixe π ∈ R0 et pour tout
n ∈ N, on pose T0 (π) := 0 et Tn+1 (π) := inf{t ∈ R+ : S0 (t, π) > S0 (Tn (π), π)}. Par définition de R0 , la suite
Tn (π) croît strictement vers ∞ et on a S0 (Tn (π), π) ≥ n. Supposons que Tn : R0 → R+ soit SR0 -mesurable;
alors il en est de même pour π ∈ R0 7→ S0 (Tn (π), π), par le résultat de mesurabilité conjointe (IV.48). On
−1
constate ensuite que pour tout t ∈ R+ , Tn+1 ( ]t, ∞[ ) = π ∈ R0 : S0 (Tn (π), π) = S0 (t, π) , qui est bien un
ensemble de SR0 . Cela montre que Tn+1 est SR0 -mesurable.
Par récurrence, on a donc montré que les Tn , n ∈ N∗ , sont des fonctions SR0 -mesurables. Il en est donc de
même pour les fonctions π 7→ S0 (Tn (π), π). On remarque Talors que R est le sous-ensemble des π ∈ R0 où t 7→
N[0,t]×E (π) ne progresse que de 1 en 1, c’est-à-dire R = n∈N {π ∈ R0 : S0 (Tn+1 (π), π) = 1 + S0 (Tn (π), π)},
qui est donc un ensemble dans la tribu SR0 , donc dans SR+ ×E .
On note SR la tribu trace de SR×E sur R. Si π ∈ R, alors il existe une suite Xn (π) ∈ E, n ∈ N∗ , telle que
π = {(Tn (π), Xn (π)); n ∈ N∗ }. On remarque ensuite que f (Xn (π)) = Sf (Tn (π), π)−Sf (Tn−1 (π), π)−1 et
les résultats de mesurabilités conjointes qui précèdent impliquent que pour tout n ∈ N∗ , la fonction π ∈ R 7→
f (Xn (π)) ∈ R+ est SR -mesurable, pour toute fonction Borélienne f . Par conséquent, π ∈ R 7→ Xn (π) est
(SR , E )-mesurable.
On fixe x0 ∈ E, qui ne joue aucun rôle spécifique. On étend Xn de façon mesurable à SR+ ×E en posant
Xn (π) := x0 si π ∈ SR+ ×E \R: la fonction obtenue Xn : SR+ ×E → E est donc (SR+ ×E , E )-mesurable. On
pose ensuite En (π) := 1 si π ∈ SR+ ×E \R et En (π) := Tn (π)−Tn−1 (π) si π ∈ R. On vérifie immédiatement
que En : SR+ ×E →]0, ∞[ est SR+ ×E -mesurable et que les suites de fonctions En , Xn , n ∈ N, satisfont bien les
propriétés désirées.
Proposition IV.5.3 Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SR+ ×E un nuage Poissonnien
d’intensité `⊗µ. La mesure µ est supposée de masse finie. On rappelle de la proposition IV.5.2, les définitions
de Xn et En . Alors, on a les propriétés suivantes.
(i) P(Π ∈ R) = 1.
(ii) Les deux suites (En (Π))n≥1 et (Xn (Π))n≥1 sont indépendantes.
(iii) Les variables (En (Π))n≥1 sont i.i.d. de loi exponentielle de paramètre µ(E).
Preuve: soit (Ω0 , F 0 , P0 ), un espace de probabilité sur lequel sont définies deux suites indépendantes de vari-
ables, (En0 )n≥1 et (Xn0 )n≥1 , où les variables (En0 )n≥1 sont i.i.d. de loi exponentielle de paramètre µ(E) et les
variables (Xn0 )n≥1 sont i.i.d. de loi µ( · )/µ(E). On pose Tn0 = En0 + . . . + En0 et Π0 = {(Tn0 , Xn0 ); n ∈ N∗ }. La
proposition IV.5.1 montre que Π0 est un nuage Poissonnien sur R+ ×E d’intensité ` ⊗ µ. Donc Π0 a même loi
que Π. Comme il est clair que P0 (Π0 ∈ R) = 1, on a P(Π ∈ R) = 1. Le lemme IV.5.2 implique alors que la suite
158 CHAPTER IV. NUAGES DE POISSON.
(En (Π0 ), Xn (Π0 ))n≥1 a même loi que la suite (En (Π), Xn (Π))n≥1 . Par ailleurs, il est clair que P0 -p.s. pour
tout n ∈ N∗ , on a En0 = En (Π0 ) et Xn0 = Xn (Π0 ), ce qui permet de conclure.
On déduit de ce qui précède et du théorème de restriction le résultat d’extraction suivant.
Proposition IV.5.4 (Extraction) Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SR+ ×E un nuage
Poissonnien d’intensité `⊗µ. La mesure µ est supposée sigma-finie. Soit A ∈ E tel que 0 < µ(A) < ∞. Alors, il
existe des suites de v.a. (Tn , Xn )n≥1 qui satisfont les propriétés suivantes:
P-p.s. Π ∩ (R+ ×A) = (T, X) ∈ Π : X ∈ A = (Tn , Xn ); n ≥ 1 ,
(Tn )n≥1 et (Xn )n≥1 sont indépendantes; les v.a. (Xn )n≥1 sont i.i.d. de loi µ(· ∩ A)/µ(A); on pose T0 = 0;
alors les v.a. (Tn −Tn−1 ))n≥1 sont i.i.d. exponentielle de paramètre µ(A).
Preuve: par le principe de restriction (théorème IV.3.4, page 142), ΠA := Π∩(R+×A) est un nuage Poissonnien
d’intensité ` ⊗ µ(· ∩ A). Comme µ(· ∩ A) est de masse µ(A) finie, la proposition IV.5.3 s’applique et on a
Tn = E1 (ΠA ) + . . . + En (ΠA ) et Xn = Xn (ΠA ), n ≥ 1, ce qui permet de conclure.
En appliquant le principe de restriction et les résultats précédents, on a immédiatement le résultat suivant.
Théorème IV.5.5 Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SR+ ×E un nuage Poissonnien
d’intensité ` ⊗ µ. La mesure µ est supposée sigma-finie. Soit Bp ∈ E , p ∈ N∗ , une partition de E telle que
0 < µ(Bp ) < ∞. On rappelle de la proposition IV.5.2, les définitions de Xn et En et on pose pour tous n, p ≥ 1
Bp B
En = En (Π ∩ Bp ) et Xn p = Xn (Π ∩ Bp ) .
B B
P-p.s. Π= Tn p , Xn p ); n, p ≥ 1 . (IV.49)
Ce théorème donne une construction, et une méthode de simulation, des nuages Poissonniens d’intensité ` ⊗ µ
lorsque µ est sigma-finie. On remarque que (IV.49) implique que sous les hypothèses du théorème IV.5.5 qui
précède,
P-p.s. ∀t ∈ R+ , N{t}×E (Π) ∈ {0, 1} . (IV.50)
Cela implique le résultat suivant.
Lemme IV.5.6 Soit (E, E ), un espace séparé et séparable. Soit Π : Ω → SR+ ×E , un nuage Poissonnien
d’intensité `⊗µ, où µ est sigma finie et de masse infinie. On pose
J(Π) := T ∈ R+ : ∃X ∈ E tel que (T, X) ∈ Π .
Preuve: pour tous réels positifs a < b, on a (` ⊗ µ)([a, b] × E) = ∞. Cela montre quep.s. N[a,b]×E (Π) = ∞.
Or (IV.50) implique que P-p.s. P-p.s. pour tous réels positifs
a < b, # J(Π) ∩ [a, b] = N[a,b]×E (Π). Donc,
p.s. pour tous rationnels positifs a < b, # J(Π) ∩ [a, b] = ∞, ce qui implique le résultat voulu.
E∂ := E ∪ {∂} et E∂ = σ({∂}, E ) .
Définition IV.6.1 (Processus ponctuel) Pour tout t ∈ R+ , soit Vt : Ω → E∂ , une fonction. Alors, (Vt )t∈R+ est
un processus ponctuel sur E s’il satisfait les deux conditions suivantes.
(b) Pour tout A ∈ B(R+ )⊗E , la variable de comptage en A donnée par NA (V ) := t∈R+1A (t, Vt ) est F -
P
mesurable. Ici la somme est au sens des familles sommables (et elle ne porte que l’ensemble des temps
t ∈ R+ tels que Vt 6= ∂).
Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Le processus ponctuel (Vt )t∈R+ est dit (Gt )t∈R+ -adapté si de plus
Remarque IV.6.2 Pour tout t ∈ R+ , on se donne une fonction Vt : Ω → E∂ . Les points (a) et (b) de la définition
précédente montrent que (Vt )t∈R+ est un processus ponctuel sur E si et seulement si Π := {(t, Vt ) ; Vt 6= ∂} est
un nuage de points sur R+ ×E qui est (F , SR+ ×E )-mesurable.
Réciproquement, si on part d’un nuage sur R+ × E et que l’on veut obtenir un processus ponctuel, il est
nécessaire de supposer qu’à chaque temps t ne correspond qu’une seule valeur d’espace. Plus précisément on
introduit l’ensemble de ces nuages de points:
Process := π ∈ SR+ ×E : ∀t ∈ R+ , N{t}×E (π) ≤ 1 .
En général Process ∈ / SR+ ×E . Soit Π : Ω → SR+ ×E , un nuage aléatoire (F , SR+ ×E )-mesurable. On fait
l’hypothèse suivante
L’événement Π ∈ / Process est P-négligeable. (IV.51)
Comme (Ω, F , P) est supposé complet, on a donc Π ∈ Process ∈ F et P(Π ∈ Process) = 1. Pour tout
• si ω ∈
/ {Π ∈ Process}, on pose Vt (ω) := ∂;
160 CHAPTER IV. NUAGES DE POISSON.
On introduit ensuite la notion de processus ponctuel de Poisson relativement à une filtration comme suit.
Définition IV.6.3 (Processus ponctuel de Poisson relativement à une filtration). Soit (Vt )t∈R+ , un processus
ponctuel sur E. Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit µ : E → [0, ∞], une mesure. Le processus
(Vt )t∈R+ est un processus ponctuel de Poisson relativement à (Gt )t∈R+ d’intensité µ s’il satisfait les conditions
suivantes.
(a) Π := (t, Vt ) ; t ∈ R+ : Vt 6= ∂ est un nuage Poissonnien sur R+ ×E qui est (G∞ , SR+ ×E )-mesurable
Le but de la section est de reformuler la formule de Palm pour des nuages de Poisson muni d’une filtration.
Pour cela on introduit les notions de tribu prévisible et de processus prévisible.
Définition IV.6.4 (Tribu et processus prévisibles) Soit (Gt )t∈R+ , une filtration sur (Ω, F ).
• {0}×A, avec A ∈ G0 .
• ]s, t]×A, avec t ≥ s > 0 et A ∈ Gs .
• R+ ×Ω.
(b) On pose Gprev := σ(Cprev ), tribu sur R+ ×Ω. C’est la tribu prévisible associée à (Gt )t∈R+ .
(c) Pour tout t ∈ R+ , soit Xt : Ω → E, une fonction. Le processus (Xt )t∈R+ est dit (Gt )t∈R+ -prévisible si
(t, ω) ∈ R+ ×Ω 7−→ Xt (ω) ∈ E est (Gprev , E )-mesurable.
Proposition IV.6.5 Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Alors, les assertions suivantes sont vérifiées.
(i) Gprev est la plus petite tribu sur R+ ×Ω rendant mesurables les processus X : (t, ω) 7→ Xt (ω) ∈ R qui
sont càg sur ]0, ∞[ et (Gt )t∈R+ -adaptés.
IV.6. PROCESSUS PONCTUELS. 161
(ii) Soit (E, d), métrique séparable muni des Boréliens B(E). Soit X : (t, ω) 7→ Xt (ω) ∈ E, un processus
(Gt )t∈R+ -adapté et càg sur ]0, ∞[ . Alors, il est (Gt )t∈R+ -prévisible.
(iii) Soit X : (t, ω) 7→ Xt (ω) ∈ E, un processus (Gt )t∈R+ -prévisible. Alors, il est adapté.
Preuve: on montre (i) tout d’abord. Pour cela on observe facilement que l’ensemble des processus à valeurs
réelles qui sont (Gt )t∈R+ -prévisibles, forment un espace vectoriel. Soient t0 , s0 ∈ R+ tels que t0 ≥ s0 et soit
Y : Ω → R, une v.a. Gs0 -mesurable. On pose X : (t, ω) ∈ R+ × Ω 7→ 1]s0 ,t0 ] (t)Y (ω) ∈ R. Alors X est
(Gt )t∈R+ -prévisible. En effet, soit B ∈ B(R); si 0 ∈ / B, {X ∈ B} =]s0 , t0 ] × {Y ∈ B} ∈ Cprev ; si 0 ∈ B,
alors {X ∈ B} = ( ]s0 ,S t0 ] × {Y ∈ B}) ∪ ([0, s0 ] × Ω) ∪ ( ]tS0 , ∞[×Ω) Cet événement est dans Gprev car
[0, s0 ]×Ω = ({0}×Ω) ∪ n∈N ]2−n , s0 ]×Ω et car ]t0 , ∞[×Ω = n∈N ]t0 + n, t0 + n + 1] ×Ω.
Soit X unP processus à valeurs réelles qui est (Gt )t∈R+ -adapté càg. Pour tout t ∈ R+ , on pose Xtn (ω) =
X0 1{0} (0) + 0≤k<n2n Xk2−n 1]k2−n ,(k+1)2−n ] (t). Ce qui précède montre que X n est (Gt )t∈R+ -prévisible.
Comme X est càg sur ]0, ∞[ , X est la limite ponctuelle des X n lorsque n → ∞, ce qui entraîne que X est
également (Gt )t∈R+ -prévisible.
Si on note H la tribu sur R+ ×Ω engendrée par les processus qui sont càg sur ]0, ∞[ et (Gt )t∈R+ -adaptés.
On a clairement Cprev ⊂ H et donc Gprev ⊂ H . Par ailleurs, ce qui précède montre que H ⊂ Gprev , et donc
H = Gprev , ce qui prouve (i).
Pour montrer (ii) on effectue la même approximation qu’au (i): nous laissons les détails au lecteur. Le
points (iii) se démontre en raisonnant par classe monotone: on note Q l’espace des processus à valeurs réelles
qui sont (Gt )t∈R+ -prévisibles et (Gt )t∈R+ -adaptés. C’est clairement un espace vectoriel. On vérifie immédiate-
ment que 1C ∈ Q, pour tout C ∈ Cprev . Il est facile de vérifier que Q est également stable par limite ponctuelle
croissantes uniformément bornées. Le théorème de la classe monotone, dans sa version fonctionnelle, implique
alors que Q contient tous les processus (Gt )t∈R+ -prévisibles bornés. On passe au cas général par troncature:
les détails sont laissés au lecteurs.
Notation. Soit H : R+ ×Ω×E∂ → R, C ou [0, ∞]. Sauf mention explicite du contraire, on suppose:
∀(s, ω) ∈ R+ ×Ω, Hs (ω, ∂) = 0 . (IV.52)
Soit (Vt )t∈R+ , un processus ponctuel sur E; on pose Π := {(t, Vt ) ; t ∈ R+ : Vt 6= ∂}. Alors, pour tout t ∈ R+ ,
X X
Hs (ω, Vs ) signifie 1[0,t] (T )HT (ω, X) au sens des familles sommables
s∈[0,t] (T,X)∈Π
Cette expression a toujours un sensPlorsque H est à valeurs dans [0, ∞]; si H est à valeurs dans R ou C, alors,
cette expression a un sens dès que s∈[0,t] |Hs (ω, Vs )| < ∞.
L’énoncé suivant, appelé formule de compensation, est une réécriture de la formule de Palm (qui ne lui est
pas strictement équivalente).
Théorème IV.6.6 (Formule de compensation) Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit (Vt )t∈R+ , un (Gt )t∈R+ -
processus ponctuel de Poisson sur E d’intensité µ, qui est supposée sigma-finie. Alors, les assertions suivantes
sont vérifiées.
(i) Soit H : R+ ×Ω×E∂ → [0, ∞], un processus (Gprev ⊗E∂ )-mesurable satisfaisant (IV.52). Alors pour tout
t ∈ R+ Z Z t
X
ω 7−→ Hs (ω, Vs ) et ω 7−→ µ(dx) Hs (·, x) ds
s∈[0,t] E 0
162 CHAPTER IV. NUAGES DE POISSON.
sont deux v.a. à valeurs dans [0, ∞]; elles sont Gt -mesurables et on a
h X i Z Z t
E Hs (ω, Vs ) = µ(dx) E Hs (·, x) ds . (IV.53)
s∈[0,t] E 0
(ii) Soit H : R+ ×Ω×E∂ → C, un processus (Gprev ⊗E∂ )-mesurable satisfaisant (IV.52). On suppose que
R Rt
pour tout t ∈ R+ , E µ(dx) 0 E |Hs (·, x)| ds < ∞. Alors, (IV.53) a lieu et
X Z Z t
t 7−→ Mt := Hs (ω, Vs ) − µ(dx) Hs (·, x) ds
s∈[0,t] E 0
(iii) Soit H : R+ ×Ω×E∂ → R, un processus (Gprev ⊗E∂ )-mesurable satisfaisant (IV.52). On suppose que
Rt Rt
pour tout t ∈ R+ , E µ(dx) 0 E |Hs (·, x)| ds < ∞ et E µ(dx) 0 E Hs (·, x)2 ds < ∞. On a alors
R R
Z Z t
E Mt2 = µ(dx) E Hs (·, x)2 ds .
(IV.54)
E 0
Preuve: on considère d’abord le cas où µ est de masse finie. Soient B ∈ E , s0 , t0 ∈ R+ et A ∈ Gt0 . On pose
Il est clair que H est (Gprev ⊗E∂ )-mesurable, qu’il satisfait (IV.52). On pose Π := {(t, Vt ) ; t ∈ R+ : Vt 6= ∂},
qui est un nuage Poissonnien d’intensité `⊗µ. On observe que pour tout t ∈ R+ ,
X Z Z t
Xt := Hs (·, Vs ) = 1A (·)N([0,t]∩I)×B (Π) et µ(dx) Hs (·, x) dr = 1A (ω)µ(B)` [0, t] ∩ I).
s∈[0,t] E 0
Ce sont des variables Gt -mesurables. On remarque que Xt+s −Xt = 1A (·)N(]t,t+s]∩I)×B (Π). Comme V est un
processus ponctuel de Poisson la v.a. N(]t,t+s]∩I)×B (Π) suit une loi de Poisson de paramètre µ(B)` ]t, t+s]∩I)
et elle est indépendante de Gt∨t0 . Donc E[Xt+s |Gt∨t0 ] = Xt + 1A (ω)µ(B)` ]t, t + s] ∩ I), puisque A ∈ Gt∨t0 .
On a donc
hZ Z t+s i
E[Xt+s |Gt ] = Xt + E 1A Gt µ(B)` ]t, t+s]∩I) = Xt + E µ(dx) 1A×I×B (·, r, x) dr Gt . (IV.55)
E t
Il est facile de montrer que L est une classe monotone: nous laissons les détails au lecteur. D’autre par (IV.55)
montre que L contient le pi-système P := {Q×B; Q ∈ Cprev , B ∈ E } qui génère Gprev ⊗E . Le théorème de la
classe monotone implique alors que L = Gprev ⊗E . Autrement dit (IV.56) est vérifiée pour tout C ∈ Gprev ⊗E .
Ce résultat s’étend tout d’abord lorsque µ est sigma-finie: il existe une partition de E Bn ∈ E , n ∈ N; on
pose µn = µ(· ∩ Bn ) et pour tout C ∈ Gprev ⊗E , on pose Cn := C ∩ (Ω×R+ ×Bp ). Comme µn est finie on a
hZ Z t+s i hZ Z t+s i
E[Xt+s (Cn )|Gt ] = Xt (Cn )+E µn (dx) 1Cn (·, r, x) dr Gt = Xt (Cn )+E µ(dx) 1C (·, r, x) dr Gt .
E t Bn t
∀(s, ω, x) ∈ R+ ×Ω×E , |Hs (ω, x)| ≤ c1B (x) où B ∈ E est tel que µ(B) < ∞ et où c ∈ R+ . (IV.58)
X Z t Z
= Hs (·, Vs )Ys (H) + du µ(dx) Hu (·, x)Au
s∈[0,t] 0 E
On a Mt (H) := Xt (H)−Yt (H), qui est une martingale d’après le (ii). Comme
par (IV.59), (IV.60) et (IV.61), on obtient (IV.54), qui est le résultat voulu. Ce résultat s’étend à une fonction
H à valeurs réelles satisfaisant une hypothèse du type (IV.58). D’autre part, soit G : R+ × Ω × E → R, une
fonction satisfaisant les hypothèses du théorème et satisfaisant également (IV.58) avec un ensemble B 0 ∈ E et
une constante c0 . Alors H + G et H − G satisfont également (IV.58) avec un ensemble B ∪ B 0 ∈ E et une
constante c + c0 . On a donc
Passons au cas général. Comme µ est sigma-finie, il existe Bp ∈ E , p ∈ N, une partition de E telle que
0 ≤ µ(Bp ) < ∞. Pour tous p, q ∈ N, on pose
Il est clair que H p,q satisfait les hypothèses du théorème et (IV.58) avec B = Bp et c = q + 1. Par ailleurs pour
tout (s, ω, x), il existe au plus une paire (p, q) telle que Hsp,q (ω, x) 6= 0 donc d’une part
X
Mt H p,q
Mt (H) = (IV.63)
p,q∈N
IV.6. PROCESSUS PONCTUELS. 165
et d’autre part Hsp,q (ω, x)Hsm,n (ω, x) dès que (p, q) 6= (m, n) et donc, par (IV.62),
p,q∈N
X Z Z t
µ(dx) E 1Bp (x)Hs (·, x)2 1{|H|∈[q,q+1[}
=
p,q∈N E 0
Z Z t
µ(dx) E Hs (·, x)2 ,
=
E 0
(a) J est dit ordonnable en croissant si J = {tn ; n ≥ 1}, où (tn )n≥1 est une suite strictement croissante.
(b) Le processus V est dit non-discret si P-p.s. J := {t ∈ R+ : Vt 6= ∂} n’est pas ordonnable en croissant.
où p.s. T1 (B) > 0, où (Tn (B))n≥1 est strictement croissante et où (Xn (B))n≥1 est i.i.d. La suite
(Xn (B))n≥1 est appelée la suite B-extraite de V
Remarque IV.6.8 Si (Vt )t∈R+ est B-régénératif, alors {t ∈ R+ : Vt ∈ B} est ordonnable en croissant.
Alors, il existe une mesure sigma-finie µ : E → [0, ∞] et un processus L := (Lt )t∈R+ continu, croissant
satisfaisant P-p.s L0 = 0 et limt→∞ Lt = ∞, et tel que
(i) Pour tout k ∈ N,on pose X1 (Ek ) la première variable de la suite Ek -extraite de V et on définit εk :=
P X1 (Ek ) ∈ E0 Alors la suite (εk )k∈N décroît vers 0 et
P-p.s. ∀t ∈ R+ , sup εk N[0,s]×Ek(V ) − Ls −−−→ 0 (IV.65)
s∈[0,t] k→∞
(ii) On pose
D = t ∈ R+ : Vt 6= ∂ , Diso = t ∈ D : ∃ε > 0, ]t−ε, t + ε[ ∩ D = {t} et Dacc = D\Diso .
où D est l’adhérence de D. Explicitement D est l’ensemble des temps de sauts de V , Diso celui des
points isolés de D et Dacc , celui des points d’accumulation de D qui ne sont pas des points isolés de D.
On vérifie que Dacc est un fermé. Alors, P-p.s. Dacc est le support topologique de la mesure de Stieltjes
associée à L, c’est-à-dire que cet ensemble est exactement l’ensemble des temps de croissance de L.
Autrement dit,
P-p.s. ∀t > s ≥ 0, Ls < Lt ⇐⇒ ]s, t[ ∩ Dacc 6= ∅ . (IV.66)
(iii) Soit L0 := (L0t )t∈R+ , un processus continu croissant tel que Π0 := {(L0t , Vt ) ; t ∈ R+ : Vt0 6= ∂} soit un
nuage de Poisson sur R+ ×E d’intensité `⊗µ0 . Alors, il existe un réel c > 0 tel que
1
P-p.s. ∀t ∈ R+ , L0t = cLt et µ0 = c µ .
Cela montre l’unicité, à constante multiplicative près, du temps propre et de la mesure d’intensité d’un
processus ponctuel régénératif.
et donc ε` ≤ εk : la suite (εk )k∈N est donc décroissante. On vérifie ensuite qu’il existe k0 ≥ 1 tel que εk0 < 1.
En effet, si εk = 1, pour tout k ∈ N, alors P-p.s. (Tn (Ek ), Xn (Ek )) = (Tn (E0 ), Xn (E0 )), n, k ≥ 0, et (IV.67)
implique que p.s. {(t, Vt ) ; t ∈ R+ : Vt 6= ∂} = {(Tn (E0 ), Xn (E0 )) ; n ≥ 1} et V serait ordonnable en croissant,
ce qui contredit l’hypothèse (a). Sans perte de généralité on peut supposer que ε1 < 1. On utilise ensuite le
résultat élémentaire suivant.
Lemme IV.6.10 Soit (Yn )n≥1 , une suite de v.a. à valeurs dans E, supposée i.i.d. de loi ν. Soit B ∈ E , telle que
0 < ν(B) < 1. P-p.s. il y a donc une infinité de n ≥ 1 tels que Yn ∈ B et on pose
{τp ; p ≥ 1} := {n ≥ 1 : Yn ∈ B}
avec τp < τp+1 . Par commodité on pose également τ0 = 0 et σp = τp−τp+1 , pour tout p ≥ 1. Alors, les assertions
suivantes sont vérifiées.
• Les variables σp , Yτp , p ≥ 1 sont indépendantes.
• Les variables (σp )p≥1 sont de même loi géométrique de paramètre ν(B):
P(σp = n) = (1−ν(B))n−1 ν(B) , n≥1 .
• Les variables (σpk,` )p≥1 sont de même loi géométrique de paramètre µ` (Ek ) = ε` /εk :
On fixe k ≥ 1. Pour tout ` > k, on note F` = σ(Xn (E` ) ; n ≥ 1) la tribu engendrée par les variables
E` -extraites. Comme (Xn (E` ))n≥1 se déduit de (Xn (E`+1 ))n≥1 , on voit que F` ⊂ F`+1 et (F` )`>k est une
filtration.
Soit p ≥ 1 et m ≥ p. On fxe A ∈ F` tel que P(A) > 0. Sous P( · A ∩ {τpk,` = m}), on remarque que τpk,`+1
En effet chacune de ces variables géométriques (diminuées de 1) comptent combien de variables E`+1 -extraites
tombent dans E`+1 \E` entre deux variables E`+1 -extraites qui tombent dans E` , et donc
Donc (ε` τpk,` )`>k est une (F` )`>k -martingale positive: pour tous p, k ≥ 1, il existe une v.a. Λkp : Ω → [0, ∞],
F -mesurable telle que
P-p.s. lim ε` τpk,` = Λkp . (IV.70)
`→∞
De plus E ε` τpk,` = E[εk τpk,k ] = pεk . Donc par Fatou, E[Λkp ] ≤ pεk et les variables Λkp sont finies p.s.
et donc les variables (ε−1 (Λkp −Λkp−1 ))p≥1 sont i.i.d. à valeurs dans N∗ de loi géométrique de paramètre
ε/εk . On en déduit que pour tout k ≥ 1, P-p.s. {Λkp , p ≥ 1} ⊂ εN∗ et est donc un ensemble discret et
Λkp + ε ≤ Λkp+1 .
• Cas ε = 0,
k,` dt/ε` e−1
P ε` (τpk,` −τp−1 −−−→ e−t/εk ,
∀t ∈ R+ , )) > t = 1−ε` /εk
`→∞
et donc les variables (Λkp −Λkp−1 )p≥1 sont i.i.d. à valeurs dans ]0, ∞[ de loi exponentielle de paramètre
1/εk . Par la loi des grands nombres limp→∞ Λpk = ∞ et donc pour tout k ≥ 1, P-p.s. {Λkp , p ≥ 1} est un
ensemble sans point d’accumulation et non-borné de R+ .
IV.6. PROCESSUS PONCTUELS. 169
Puisque {Tp (Ek ) ; p ≥ 1} ⊂ {Tp (Ek+1 ); p ≥ 1} et que Lk et Lk+1 sont des bijections croissantes, on en déduit
que:
la restriction de Lk+1 à {Tp (Ek ) ; p ≥ 1} est Lk .
On rappelle ensuite que D = {t ∈ R+ : Vt 6= ∂} = {Tp (Ek ) ; p, k ≥ 1}. Ce qui précède prouve le fait suivant.
Si ε > 0, alors {Λkp ; p, k ≥ 1} ⊂ εN∗ ; {Λkp ; p, k ≥ 1} serait donc est ordonnable en croissant, et par (IV.73), D
le serait également, ce qui contredit l’hypothèse (a). Donc que ε = 0 et on a prouvé que
lim ε` = 0 . (IV.75)
`→∞
Cela implique que pour tout k ≥ 1, les v.a. (Λkp −Λkp−1 )p≥1 sont i.i.d. de loi exponentielle de paramètre 1/εk .
On rappelle ensuite que l’on a montré grâce au lemme IV.6.10 que les v.a. Ek -extraites, notées (Xp (Ek ))p≥1 ,
sont indépendantes des variables(τpk,` −τp−1
k,`
)p≥1 . Par la convergence (IV.70), cela implique que les deux suites
k k
de v.a. (Λp −Λp−1 )p≥1 et (Xp (Ek ))p≥1 sont indépendantes. On pose alors
Πk := (Λkp , Xp (Ek )) ; p ≥ 1 .
∀k ≥ 1,
Comme les variables Xn (Ek ) sont i.i.d. de loi µk , on déduit de la proposition IV.5.1, page 155, que
1
Πk est un nuage de Poisson sur R+ ×E d’intensité εk
`⊗µk . (IV.76)
il existe un unique q ≥ p tel que (Tp (Ek ), Xp (Ek )) = (Tq (Ek+1 ), Xq (Ek+1 )) et on a donc (Λkp , Xp (Ek )) =
(Λk+1
q , Xq (Ek+1 )). On en déduit que
Ceci combinée avec (IV.67) implique que P-p.s. pour tout k ≥ 1, Πk := {(LTp (Ek ) , VTp (Ek ) ) ; p ≥ 1} et donc
[
P-p.s. Π := (Lt , Vt ) ; t ∈ R+ : Vt 6= ∂ = Πk et Π ∩ (R+ ×Ek ) = Πk , k ≥ 1 . (IV.78)
k≥1
Le théorème IV.3.5 de superposition croissante (page 143) implique alors que Π est un nuage de Poisson
d’intensité notée ν qui satisfait pour tout A ∈ B(R+ ) ⊗ E , ν(A) = limk ↑ ε1k (` ⊗ µk )(A). Par (IV.78) et le
théorème IV.3.4 de restriction, page 142, on a pour tout k ≥ 1, ν(· ∩ (R+ ×Ek )) = ε1k `⊗µk Pour tout B ∈ E , on
pose alors µ(B) := ν([0, 1]×B). On vérifie facilement que µ est une mesure positive sur E . D’autre part, on a
1 1
∀B ∈ E , ∀k ≤ 1 , µ(B ∩ Ek ) = ε µk (B), lim ↑ µ (B) = µ(B)
εk k
et µ(Ek ) = 1/εk . (IV.79)
k k
Cela implique donc que ν = `⊗µ, par unicité de la mesure produit. On a donc montré (IV.64).
Nous avons construit une fonction L : D → R+ . Montrons qu’elle s’étend à R+ par une fonction con-
tinue croissante surjective et que l’approximation uniforme (IV.65) a bien lieu. Pour cela on utilise le lemme
déterministe suivant.
Lemme IV.6.11 (Second lemme de Dini) Pour tout entier ` ≥ 1, soit f` : R+ → R+ , une fonction croissante (pas
nécessairement continue). Soit D ⊂ R+ , un ensemble infini dénombrable. On fait les hypothèses suivantes.
Preuve: pour faciliter le raisonnement, on pose g(t) := lim`→∞ f` (t) pour tout t ∈ D et on pose S := {g(t) ; t ∈
D}, supposé dense dans R+ . Clairement g : D → S est surjective et croissante car les f` sont croissantes. Pour
tout s ∈ R+ , on pose f (s) := inf{g(t) ; t ∈ D ∩ [s, ∞[ }. Clairement f : R+ → R+ est croissante. Soit s ∈ D,
comme g est croissante, on a g(s) ≤ g(t) pour tout t ∈ D ∩ [s, ∞[ et donc f (s) = g(s). Autrement dit f étend g
à tout R+ et on a donc f (t) := lim`→∞ f` (t), pour tout t ∈ D. On a donc S ⊂ f (R+ ) et (b) implique que f (R+ )
est dense dans R+ . Comme f est croissante, cela implique qu’elle est continue. En effet, s’il existe t0 tel que
f (t0 ) < f (t0 +) (resp. f (t0 −) < f (t0 )) alors ]f (t0 ), f (t0 +)[⊂ R+ \f (R+ ) (resp. ]f (t0 −), f (t0 )[⊂ R+ \f (R+ ))
puisque f est croissante, ce qui contredit la densité de f (R+ ). Cela montre donc que f est continue croissante
surjective de R+ sur R+ .
Il est clair que f (0) = 0. Comme pour tout t ∈ R+ , on a 0 ≤ f` (0) ≤ f` (t) → f (t), pour tout t ∈ D, on
a lim sup` f` (0) ≤ f (t) On a donc lim sup` f` (0) ≤ inf f (D) = 0, ce qui implique que lim` f` (0) = f (0) = 0.
Dans perte de généralité on peut donc supposer que 0 ∈ D.
On fixe ensuite un réel t > 0. Soit ε > 0. Comme l’adhérence de {f (s) ; s ∈ D∩[0, t]} est f ([0, t]) = [0, f (t)],
il existe une subdivision de [0, t], s0 = 0 < s1 < . . . < sn+1 = t telle que pour tout i ∈ {0, . . . , n}, on ait si ∈ D
IV.6. PROCESSUS PONCTUELS. 171
et 0 ≤ f (si )−f (si−1 ) ≤ ε. Il existe ensuite `ε ≥ 1, tel que pour tout ` ≥ `ε , et pour tout i ∈ {0, . . . , n}, on ait
|f` (si )−f (si )| ≤ ε. Soit s ∈ [0, t]. Il existe i ∈ {1, . . . , n} tel que s ∈ [si−1 , si ] et pour tout ` ≥ `ε , on a
|f` (s)−f (s)| ≤ |f` (s)−f` (si )| + |f` (si )−f (si )| + |f (si )−f (s)|
≤ f` (si )−f` (s) + ε + f (si )−f (s)
≤ f` (si )−f` (si−1 ) + ε + f (si )−f (si−1 )
≤ f` (si )−f (si ) + f (si−1 )−f` (si−1 ) + f (si )−f (si−1 ) + ε + f (si )−f (si−1 )
≤ |f` (si )−f (si )| + |f (si−1 )−f` (si−1 )| + 3ε ≤ 5ε .
On a donc montré que pour tout t > 0 tel que t ∈ D, et pour tout ε > 0, il existe `ε ≥ 1 tel que pour tout ` ≥ `ε ,
on a sups∈[0,t] |f` (s)−f (s)| ≤ 5ε. Cela prouve que pour tout t ∈ D, lim` sups∈[0,t] |f` (s)−f (s)| = 0, ce qui
implique le résultat voulu car D est non-borné.
P-p.s. {Lt ; t ∈ D} = R+ .
On pose Ω0 := {ω ∈ Ω : {Lt (ω) ; t ∈ D(ω)} = R+ } ∩ {ω ∈ Ω : ∀p, k ≥ 1, lim`→∞ ε` τpk,` (ω) = Λkp (ω)}. Ce
qui précède et (IV.70) impliquent que P(Ω0 ) = 1. On raisonne ensuite de manière déterministe sur Ω0 et on
applique le lemme IV.6.11 qui précède aux fonctions suivantes
Les f` sont croissantes et f` (Tp (Ek )) = ε` #{q ≥ 1 : Tq (E` ) ≤ Tp (Ek )} = ε` τpk,` . On en déduit donc que sur
Ω0 , pour tous p, k ≥ 1, lim`→∞ f` (Tp (Ek )) = Λkp = LTp (Ek ) , c’est-à-dire
∀t ∈ D, lim f` (t) = Lt .
`→∞
Le lemme IV.6.11 s’applique et montre que L s’étend en une fonction continue croissante surjective de R+ sur
R+ et que sur Ω0 , on a bien l’approximation uniforme désirée (IV.65). Cela termine la preuve de (i).
On montre (ii). Pour cela, on note Ω1 l’événement où L satisfait les propriétés du (i) et où pour tous k ≥ 1,
Λkp < Λkq dès que p < q. On a P(Ω1 ) = 1. On raisonne ensuite de manière déterministe en se plaçant sur Ω1 .
Soient t > s ≥ 0. On suppose que Ls < Lt . Comme L est continu, il existe t > u > r > s tels que Lr < Lu et par
(i), on constate que N]r,u]×Ek (V ) ∼ ε−1k (Lu −Lr ) qui tend vers l’infini lorsque k → ∞. L’ensemble D∩[r, u]
est infini: cela implique que Dacc ∩ ]s, t[ 6= ∅, ce qui montre une première implication de (IV.66).
Réciproquement, supposons Dacc ∩ ]s, t[ 6= ∅; alors D∩ ]s, t[ est infini. Cela implique l’existence de k ≥ 1
et de p < q tels que s < Tp (Ek ) < Tq (Ek ) < t ce qui entraîne que LTp (Ek ) = Λkp < Λkq = LTq (Ek ) et donc Ls < Lt .
Cela prouve (ii).
On montre (iii): on fixe un entier ` ≥ 1. On remarque d’abord que Π ∩ (R+ ×E` ) est un nuage de Poisson
d’intensité `⊗µ(· ∩ E` ) et que Π0 ∩ (R+ ×E` ) est un nuage de Poisson d’intensité `⊗µ0 (· ∩ E` ). La première
variable E` -extraite de V est la variable d’espace du premier point de Π ∩ (R+ ×E` ) et aussi du premier point
de Π0 ∩ (R+ ×E` ). Donc,
On pose ensuite ε0` := 1/µ0 (E` ), on rappelle que ε` = 1/µ(E` ). Par (IV.80), on a ε0k /ε0` = εk /ε` , pour tous
` ≤ k ≤ 1. En posant c := ε01 /ε1 ∈ ]0, ∞[ , on a montré ε0` = cε` ; par (IV.80), on a aussi µ0 (· ∩ E` ) = c−1 µ(· ∩ E` ).
En faisant tendre ` vers l’infini, on obtient µ0 = c−1 µ.
Lemme IV.6.12 Soit Π∗ , un nuage de Poisson sur S R+ ×E d’intensité `⊗ν. Soient Ek ∈ E , avec Ek ⊂ Ek+1 ,
ν(Ek ) < ∞, pour tout entier k ∈ N et tels que E = k∈N Ek . On suppose que ν(E) = ∞. Pour tout k ∈ N, on
pose ηk = 1/ν(Ek ). Alors, il existe une suite d’entiers (`k )k∈N strictement croissante
Preuve: Pour tout t ∈ R+ , on note Gt la tribu engendrée par Π∗ ∩([0, t]×E) et on pose Mt = N[0,t]×E` (Π∗ )−
tµ (E` ). On vérifie que E[Mt ] = 0 et que E[Mt ] = var N[0,t]×E` (Π ) = tν(E` ) car N[0,t]×E` (Π∗ ) suit une
0 2 ∗
loi de Poisson de paramètre tν(E` ). Le théorème IV.3.4 de restriction, page 142, implique que Mt+s −Mt , qui
ne dépend que de Π0 ∩(]t, t+s]×E), est indépendant de Gt et de moyenne nulle. Cela implique que (Mt )t∈R+
est une (Gt )t∈R+ -martingale. On observe que cette martingale est càd et l’inégalité de Doob L2 implique donc
que E[sups∈[0,t] Ms2 ] ≤ 4E[Mt2 ] = 4tν(E` ), c’est-à-dire
2
E sup η` N[0,s]×E` (Π∗ ) −s ≤ 4tη` .
s∈[0,t]
Comme lim` ν(E` ) = ν(E) P = ∞, lim` η` = 0. On peut donc choisir une suite d’entiers (`k )k≥1 stricte-
ment croissante telle que k∈N k 3 η`k < ∞ et on en déduit par Cauchy-Schwarz, Jensen et une interversion
série/espérance positive
hX i X 1 h X 2 12 i
sup η`kN[0,t]×E` (Π∗ ) −t ≤ k −2 E k 2 sup η`kN[0,t]×E` (Π∗ ) −t
2
E
k k
k≥1 t∈[0,k] k≥1 k≥1 t∈[0,k]
X 1 h X 2 i 12
k −2 k 2 sup η`kN[0,t]×E` (Π∗ ) −t
2
≤ E
k
k≥1 k≥1 t∈[0,k]
X 1 X 1
k −2
2 2
≤ k 3 η`k < ∞,
k≥1 k∈N
En appliquant le lemme IV.6.12 qui précède, P-p.s. limk supt∈[0,k] |ε0`kN[0,t]×E` (Π0 ) −t| = 0, où (`k )k≥1
k
est une suite strictement croissante d’entier. On en déduit que
Or pour tout t ∈ D, N[0,L0t ]×E` (Π0 ) = #{s ∈ [0, t] : Vs ∈ E`k } = N[0,t]×E` (V ) et comme ε0`k = cε`k , la limite
k k
(IV.65) implique que P-p.s. pour tout t ∈ D, cLt = L0t , ce qui implique que L0 = cL. Cela termine la preuve de
(iii) et celle du théorème.
IV.7. QUELQUES EXERCICES. 173
P est donc un nuage Poissonnien homogène sur R+ d’intensité θ. Pour tout t ∈ R+ , on note Nt =
qui
n≥1 1[0,t] (Tn ). On s’intéresse aux variables Rt et Dt définies par
Rt = t − TNt et Dt = TNt +1 − t ,
1. Montrer que pour tout t ∈ R+ , Dt suit une loi exponentielle de paramètre θ, c’est-à-dire que Dt a même
loi que E1 .
2. Montrer que Rt a même loi que le maximum de t et d’une exponentielle de paramètre θ, c’est-à-dire que
Dt a même loi que t ∨ E1 .
1
E[ENt +1 ] > = E[E1 ] ,
θ
ce qui peut sembler "paradoxal" à première vue.
4. Montrer que Dt et Rt sont indépendantes et prouver que lorsque t tend vers l’infini, ENt +1 converge vers
une loi de densité s 7→ θ2 se−θs .
Exercice.2 (Statistiques d’ordre et processus de Poisson homogènes) Soit (Un )n≥1 , une suite de variables
i.i.d. de loi uniforme sur [0, 1]. Pour tout n ≥ 2, on rappelle la notation (U1(n) , . . . , Un(n) ) pour la statistique
d’ordre associée à (U1 , . . . , Un ). Pour des raisons pratiques, on pose U0(n) = 0 et Un+1 (n)
= 1. On se donne
également (En )n≥1 , une suite i.i.d. de variables de loi exponentielle de paramètre 1, et on pose
∀n ∈ N∗ , Tn = E1 + . . . + En et Π = Tn ; n ∈ N∗ ,
(loi) (n)
U1 , . . . , Un(n) .
(T1 /Tn+1 , . . . , Tn /Tn+1 ) =
4. Montrer que
n (n) (n) (proba)
max (U − Uk−1 ) −→ 1.
log n 1≤k≤n+1 k n→∞
5. Montrer que
(n) (n) (loi)
n2 min (Uk − Uk−1 ) −→ exponentielle(1) .
1≤k≤n n→∞
Soit (Ω, F , P), un espace de probabilité sur lequel est défini un nuage Poissonnien Π : Ω → SRd d’intensité
`d . On pose
Π0 = kXk ; X ∈ Π .
1. Montrer que Π0 est presque sûrement égal à un nuage Poissonnien sur R+ dont on précisera l’intensité.
2. On note φ(r) = brβ . Pour quelles valeurs de b et de β, φ(Π0 ) est un nuage Poissonnien sur R+
d’intensité `1 ?
3. Montrer qu’il existe une suite (Xn )n≥1 de variables F -mesurables telles que 0 < kXn k < kXn+1 k,
n ∈ N∗ et Π = {Xn ; n ∈ N∗ } presque sûrement. Trouver la fonction de répartition de kXn k.
4. Montrer qu’il existe des constantes strictement positives cd et Cd , que l’on calculera, telles que
6. On note µ la loi uniforme sur la sphère unité S(0, 1) = {x ∈ Rd : kxk = 1}. On rappelle que
si Z : Ω → B(0, 1) a pour loi (vd )−1 `d ( · ∩ B(0, 1)), alors (kZk)−1 Z a pour loi µ. Montrer qu’il
existe une suite (En )n≥1 , de variable i.i.d. de loi exponentielles de paramètre 1, et une suite (Zn )n≥1 , de
variable i.i.d. de loi µ, telles que (En )n≥1 et (Zn )n≥1 sont indépendantes et
Π = ad (E1 + . . . + En )γd · Zn ; n ∈ N∗ ,
P-p.s.
Exercice.4 (*) On note R∗ = R\{0}, R+ l’ensemble des réels positifs, R∗+ = R+ ∩ R∗ , l’ensemble des
réels strictement positifs. Pour tout β ∈ R∗+ , on définit la loi µβ sur R∗+ muni des Boréliens, par µβ (dt) =
1R∗+ (t)t−β `1 (dt), où ` désigne la mesure de Lebesgue sur R. On rappelle la définition de la fonction Γ d’Euler
sur R∗+ par l’intégrale Z ∞
Γ(u) = tu−1 e−t dt .
0
Pour tout nuage déterministe π ∈ SR∗+ tout c ∈ R∗+ et tout a ∈ R∗ , on pose
Toutes les variables sont définies sur un même espace de probabilité (Ω, F , P). Pour tout β ∈ R∗+ , on se donne
Πβ : Ω → SR∗+ , un nuage Poissonnien d’intensité µβ . On pose
X
Sβ = X,
X∈Πβ
1. Soient β1 , β2 ∈ R∗+ . Montrer qu’il existe c ∈ R∗+ et a ∈ R∗ , qui dépendent de β1 et β2 tels que
(loi) a
Πβ1 = c · Πβ2 .
2. Pour quels β ∈ R∗ a-t-on P(Sβ < ∞) = 1 ? Que vaut P(Sβ < ∞) si P(Sβ < ∞) < 1 .
4. On fixe β ∈ R∗+ et pour tout a ∈ R∗ , on pose Sa,β = X∈Πβ X a . Pour quels a a-t-on P(Sa,β < ∞) = 1
P
?
6. On fixe β ∈ R∗+ . Montrer qu’il existe une suite de variables (Xn )n≥1 telles que P-presque sûrement,
7. On fixe β ∈ R∗+ et on reprend les notations de la question précédente. Trouver la fonction de répartition
de Xn , sa densité et montrer qu’il existe deux constantes strictement positives c et C, que l’on précisera,
telles que
P-p.s. lim nc Xn = C .
n→∞
Exercice.5 Soient θ1 , θ2 ∈ R∗+ . Soit Π un nuage Poissonnien sur R+ × [0, θ1 + θ2 ] d’intensité 1R+ (dt)`(dt) ⊗
1[0,θ1 +θ2 ] (x)`(dx).
1. En utilisant un théorème du cours, montrer qu’il existe deux suites indépendantes des variable i.i.d. (En )n≥1
et (Xn )n≥1 telles que
3. On pose S = inf{n ≥ 1 : Xn ∈]θ1 , θ1 + θ2 ]}. Quelle est la loi de S ? Quelle est la loi de TS
? Conditionnellement à TS , quelle est la loi de #Π ∩ [0, TS [ ? (aucun calcul n’est nécessaire pour
résoudre cette question).
Quelle est la loi de E ? Conditionnellement à E , quelle est la loi de G−1 ? (aucun calcul n’est nécessaire
pour résoudre cette question).
Exercice.6 Soit Π un nuage Poissonnien sur R d’intensité la mesure de Lebesgue. On imagine un glouton
partant de l’origine 0 qui mange les points de Π de proche en proche: il mange d’abord le point de Π le plus
proche de 0, puis le plus proche parmi les points qui restent ... et ainsi de suite. On se demande s’il mange ainsi
tous les points de Π.
Formellement, on note Yn , n ≥ 0 la suite des points mangés par le glouton: on a Y0 = 0, Y1 est le point de
Π le plus proche de 0 et si n ≥ 1, Yn+1 est le point de Π\{Y1 , . . . , Yn } le plus proche de Yn .
Au temps n, le glouton se trouve au bord du "trou" qu’il a déjà exploré: c’est un intervalle In contenant
0 et dont les extrémités sont deux points de Π. Si le glouton est dans R+ , alors le trou est sur sa gauche et à
sa droite, il reste une partie inexplorée de Π. De même si le glouton est dans R− , il est à gauche de 0 et à sa
gauche, il reste une partie inexplorée de Π. On dit qu’il effectue une traversée, si à l’instant n il est à gauche
du trou (resp. à droite) et qu’à l’instant n + 1 il se retrouve à droite (resp. à gauche) du trou.
1. Montrer qu’il existe une suite d’exponentielles (En )n≥0 indépendantes de paramètre 1 telles que `(In ) =
E0 + E1 + . . . + En .
2. Montrer que le glouton effectue une traversée entre n et n + 1 ssi En+1 > `(In ).
3. Montrer que P-p.s. le glouton ne visite pas tous les points de Π et qu’il en laisse même une infinité de
côté.
Chapter V
Processus de Lévy.
(c) Pour tous t0 = 0 ≤ t1 ≤ . . . ≤ tn , les v.a. Xt0 , Xt1 −Xt0 , Xt2 −Xt1 , . . . , Xtn −Xtn−1 sont indépendantes.
Lemme V.1.2 Soit (Ω, F , P), un espace de probabilité. Soit X = (Xt )t∈R+ un processus défini sur cet espace
à valeurs dans Rd . On le suppose P-p.s. càdlàg. On rappelle que (Fto (X))t∈R+ est la filtration naturelle de
X. Alors, les assertions suivantes sont équivalentes.
(b) Pour tous s, t ∈ R+ , Xt+s −Xt est indépendant de Fto (X) et même loi que Xs −X0
Preuve: exercice.
Cette propriété suggère d’introduire la deuxième définition qui suit.
Définition V.1.3 (Processus de Lévy relativement à une filtration) Soit (Ω, F , P), un espace de probabilité sur
lequel est défini un processus X = (Xt )t∈R+ à valeurs dans Rd . Soit (Gt )t∈R+ , une filtration sur (Ω, F ). C’est
un processus de Lévy relativement à la filtration (Gt )t∈R+ s’il satisfait les conditions suivantes.
(b) Pour tous s, t ∈ R+ , Xt+s −Xt est indépendant de Gt et a même loi que Xs −X0 .
177
178 CHAPTER V. PROCESSUS DE LÉVY.
Le lemme V.1.2 montre qu’un processus de Lévy selon la première définition V.1.3 est un processus de Lévy
relativement à sa filtration naturelle. Le lemme suivant affirme que les processus de Lévy sont des processus de
Feller.
Lemme V.1.4 Soit X = (Xt )t∈R+ , un processus de Lévy à valeurs dans Rd et défini sur l’espace de probabilité
(Ω, F , P). Pour toute fonction f ∈ C0 (Rd ), tout t ∈ Rd et tout x ∈ Rd , on pose
Pt f (x) = E f (x + Xt −X0 ) .
Alors, (Pt )t∈R+ est un semi-groupe de Feller-Dynkin conservatif.
Preuve: le théorème de convergence dominée entraine facilement que Pt f ∈ C0 (Rd ). La continuité à droite de
X ainsi que le théorème de convergence dominée implique facilement que pour tout x ∈ Rd , limt→0+ Pt f (x) =
f (x). Il reste donc à vérifier la propriété de semi-groupe: pour cela on fixe s, t ∈ R+ et x ∈ Rd ; la propriété (b)
du lemme V.1.2 implique que
E f (x + Xt+s −X0 ) Fto (X) = E f (x + Xt+s −Xt + Xt −X0 ) Fto (X) = Ps f x + Xt −X0
ce qui implique que Pt+s f (x) = Pt (Ps f )(x). Le semi-groupe (Pt )t∈R+ est clairement conservatif.
un processus de Feller-Dynkin conservatif càdlàg satisfaisant les hypothèses habituelles. C’est un processus de
Lévy si pour toute µ ∈ M1 (Rd ) et tous t, s ∈ R+ , sous Pµ , Xt+s −Xt est indépendant de Gt et à même loi que
Xs sous P0 .
La propriété de Markov forte peut se réécrire de la manière suivante.
Proposition V.1.6 On reprend les notation de la définition V.1.5 qui précède. Soit T : Ω → R+ , un (Gt )t∈R+ -
temps d’arrêt fini partout. Pour toute µ ∈ M1 (Rd ), le processus XT +· −XT sous Pµ est indépendant de GT et
a même loi que X sous P0 .
Preuve: il est facile de déduire de la définition V.1.5 que pour tous tn ≥ . . . ≥ t1 ≥ 0, (Xtn −X0 , . . . , Xt1 −X0 )
sous Pµ a même loi que (Xtn , . . . , Xt1 ) sous P0 (on peut faire une récurrence sur n). On en déduit que X·−X0
sous Pµ a même loi que X sous P0 . Soit A ∈ GT et F : (Rd )R+ → R, une fonction B(Rd )⊗R+ -mesurable
bornée. La propriété de Markov forte et ce qui précède impliquent que Pµ -p.s.
Eµ 1A F (XT +· −XT )GT = 1A EXT F (X· −X0 ) = 1A E0 [F (X)] ,
ce qui entraîne le résultat voulu lorsque qu’on prend l’espérance de cette égalité.
Théorème de Paul Lévy: soient νn ∈ M1 (Rd ), n ∈ N; on suppose que les transformées de Fourier νbn
convergent ponctuellement sur Rd vers une fonction f qui est continue dans un voisinage de 0; alors il
existe ν ∈ M1 (Rd ) telle que limn→∞ νn = ν étroitement et on donc νb = f .
Définition V.1.7 (Lois infiniment divisibles) La loi µ ∈ M1 (Rd ) est dite infiniment divisible s’il existe une suite
de lois µn ∈ M1 (Rd ), n ≥ 2 telles que µ = µ∗n
n , où ∗ est le produit de convolution sur M1 (R ).
d
Commençons par prouver la propriété suivante sur la transformée de Fourier d’une loi infiniment divisible.
Nous caractérisons plus loin les mesures infiniment divisibles via leur transformée de Fourier: c’est la
formule de Lévy-Khintchine, qui est prouvé dans ce cours en même temps que la construction des processus
de Lévy. Plus précisément, la formule de Lévy-Khintchine donne la forme de l’exposant caractéristique des
mesures infiniment divisible, exposant défini dans la proposition suivante.
Proposition V.1.9 (Existence de l’exposant caractéristique des lois infiniment divisibles) Soit µ ∈ M1 (Rd ) infiniment
divisible. Il existe une fonction continue ψ : Rd → C telle que
Z
∀u ∈ Rd , µ b(u) = eihu,xi µ(dx) = exp ψ(u) .
Rd
Proposition V.1.10 (Semi-groupe de convolution et processus de Lévy) Soit µ ∈ M1 (Rd ), une mesure infiniment
divisible. Alors, pour tout t ∈ R+ , il existe une unique famille de mesures µt ∈ M1 (Rd ) telles que
(b) µ0 = δ0 et µ1 = µ;
∀t ∈ R+ , ∀u ∈ Rd , bt (u) = etψ(u)
µ
La famille de lois (µt )t∈R+ est appelé un semi-groupe de convolution associé à µ. Pour toute f ∈ C0 (Rd ),
tout t ∈ R+ et tout x ∈ Rd , on pose Pt f (x) := Rd f (x + y)µt (dy). Alors (Pt )t∈R+ est le semi-groupe d’un
R
processus de Lévy.
Réciproquement, si X est un processus de Lévy tel que X0 = 0, alors la loi ν de X1 est infiniment divisible
et les lois νt de Xt , t ∈ R+ , forment le semi-groupe de convolution associé à ν. Si on note ψ l’exposant
caractéristique de ν, alors la loi de X est caractérisée par ψ appelé l’exposant caractéristique de X. On a
donc
∀u ∈ Rd , ∀t ∈ R+ , E eihu,Xt i = etψ(u) .
Il y a donc une correspondance bijective entre les exposants caractéristiques des lois infiniment divisibles
sur Rd et les semi-groupe des processus de Lévy à valeurs dans Rd .
Preuve: pour tout n ≥ 2, soit µn ∈ M1 (Rd ) telle que µ = µ∗n
n . On note par ailleurs ψ l’exposant caractéristique
de µ comme à la proposition V.1.9. Pour tout u ∈ Rd , on a donc µ bn (u)n = µb(u) = exp(ψ(u)). Comme ψ et
d
bn sont des fonctions continues, on en déduit que u ∈ R 7→ µ
µ bn (u) exp(− n1 ψ(u)) est une fonction continue
à valeurs dans l’ensemble discret des racines nième de l’unité: cette fonction est donc contante et comme elle
vaut 1 en l’origine, on a
1
∀n ≥ 2, ∀u ∈ Rd , µ bn (u) = e n ψ(u) . (V.1)
Pour tout m ∈ N, on pose µm/n := µ∗m n et par (V.1), on a µ bm/n (u) = exp( m d
n ψ(u)), u ∈ R . Par injectivité de
la transformée de Fourier des mesures finies sur Rd , il existe donc une unique famille de mesures µr ∈ M1 (Rd ),
br (u) = exp rψ(u) , u ∈ Rd .
r ∈ Q+ , telles que µ
Soit t ∈ R+ et rn ∈ Q+ , n ∈ N, une suite de rationnels tels que limn rn = t. Pour tout u ∈ Rd , on a
donc limn µ brn (u) = exp(tψ(u)). Le théorème de P. Lévy implique implique l’existence d’une unique mesure
µt ∈ M1 (Rd ) telle que µ bt (u) = exp(tψ(u)), u ∈ Rd . L’injectivité de la transformée de Fourier implique encore
que µ0 = δ0 et µ1 = µ. Comme pour tout u ∈ Rd , t 7→ µ bt (u) est continue, le théorème de P. Lévy implique que
t 7→ µt est continu pour la convergence étroite. Enfin, pour tous s, t ∈ R+ et pour tout u ∈ Rd , µ bs (u)bµt (u) =
exp((s + t)ψ(u)) = µ bs+t (u) et l’injectivité de la transformée de Fourier implique que µt ∗µs = µt+s , ce qui
prouve le premier point de la proposition. P
Soit X est un processus de Lévy issu de 0. On a Xt = 1≤k≤n Xkt/n − X(k−1)t/n . Comme les ac-
croissements sont indépendants et homogènes en loi, la loi νt de Xt est une loi infiniment divisible. De même
Xt+s = Xt+s −Xt + Xt : comme la v.a. Xt+s −Xt est indépendante de Xt et puisqu’elle a même loi que Xs ,
c’est-à-dire νs , on a bien νt+s = νt ∗ νt . Le reste des assertions du théorème suivent immédiatement.
Théorème V.2.1 On suppose que X a des saut bornés, c’est-à-dire qu’il existe c > 0 tel que
P0 -p.s. ∀t ∈ R+ , k∆Xt k ≤ c ,
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 181
où on rappelle que ∆Xt := Xt −Xt− est le saut (éventuel) de X en t. Alors, X a des moment exponentiels,
k
θkX
c’est-à-dire il existe un réel θ > 0 tel que supt∈[0,t0 ] E0 e t , pour tout t0 ∈ R+ . Cela que X admet des
moments de tous ordres:
sup E0 kXt kp < ∞ .
∀p ∈ N, ∀t0 ∈ R+ , (V.2)
t∈[0,t0 ]
avec la convention inf ∅ = ∞. Il est facile de montrer que les Tn sont des (Gt )t∈R+ -temps d’arrêt. On remarque
que si Tn < ∞, alors Tn+1 −Tn = T1 (X·+Tn −XTn ), avec une notation évidente. Donc, pour toute loi initiale
µ ∈ M1 (Rd ) et pour toute fonction f : [0, ∞] → R+ mesurable, la proprité de Markov en Tn pour les processus
de Lévy (proposition V.1.6, page 178) implique que
Pµ -p.s. Eµ 1{Tn <∞} f (Tn+1 −Tn )GTn = 1{Tn <∞} E0 [f (T1 )].
(V.3)
On pose alors a = E0 [e−T1 1{T1 <∞} ]. Si a = 0, alors P0 (T1 = ∞) et donc P0 -p.s. pour tout t ∈ R+ , kXt k ≤ 1,
ce qui implique (V.2). Supposons que a > 0. Comme X est continu à droite au temps 0, on a P0 (T1 > 0) = 1 et
donc a < 1. La propriété de Markov (V.3) implique que
E0 1{Tn+1 <∞} e−Tn+1 GTn ] = 1{Tn <∞} e−Tn E0 1{T1 <∞} e−T1 = 1{Tn <∞} e−Tn a ,
Raisonnons ensuite sur l’événement {Tn < ∞}: pour tout k ≤ n, on a Tk < ∞ et kXt − XTk−1 k ≤ 1,
t ∈ [Tk−1 , Tk [ , ce qui implique que kXTk − − XTk−1 k ≤ 1. Puisque k∆XTk k ≤ c, on en déduit que kXTk −
XTk−1 k ≤ 1 + c. Cela prouve que P0 -p.s. sur l’événement {Tn ≤ t < Tn+1 },
X
kXt k ≤ kXt −XTn k + kXTk −XTk−1 k ≤ 1 + n(1 + c) ≤ (n + 1)(1 + c)
1≤k≤n
Donc pour tout n ∈ N et tout t ∈ R+ , P0 -p.s. 1{kXt k>(1+c)(n+1)} ≤ 1{t≥Tn+1 } ≤ et−Tn+1 1{Tn+1 <∞} . En
prenant l’espérance, les résultats précédents impliquent pour tous n ∈ N et tout t ∈ R+ ,
Pour simplifier les notations, on pose b := (1 + c)−1 . Soit θ > 0 tel que eθ a < 1. Fubini positif implique alors
bθkXt k hZ ∞ i Z ∞
θx
dx θeθx P0 bkXt k > x
E0 e − 1 = E0 dx θe 1{bkXt k>x} =
X 0 0
X
θ(n+1)
θeθ(n+1) et an < ∞
≤ θe P0 kXt k > (1 + c)n ≤ θ +
n≥0 n≥1
Cela prouve que X admet des moments exponentiels et (V.2) en découle simplement.
On rappelle le lemme III.3.4, page 116, qui permet de définir l’opérateur caractéristique (voir la définition
III.3.5, page 116). On démontre le théorème suivant par le calcul explicite de l’opérateur caractéristique de
Dynkin d’un processus de Lévy continu en dimension 1.
182 CHAPTER V. PROCESSUS DE LÉVY.
Théorème V.2.2 On se place en dimension d = 1. On suppose que le processus de Lévy X est continu. Alors,
pour tout t ∈ R+ , E0 [X12 ] < ∞ et on pose alors
p
v := E0 [X1 ] et β := E0 [(X1 −v)2 ] ,
(ii) Si β > 0, alors Xt = X0 + βBt + vt, t ∈ R+ , où le processus (Bt )t∈R+ est tel que pour toute µ ∈ M1 (R),
sous Pµ , (Bt )t∈R+ est un (Gt )t∈R+ -mouvement Brownien à valeurs dans R, issu de 0 et indépendant de
X0 .
Preuve: nous donnons une preuve ne faisant pas appel au calcul stochastique. Puisque X n’a pas de saut, il
des moments de tous ordres, d’après le théorème V.2.1 qui précède. Pour tout t ∈ R+ , on peut donc poser
f (t) := E0 [Xt ] et g(t) := var(Xt ). Comme sous P0 , Xt+s −Xt est indépendant de X·∧t et a même loi que
Xs , on en déduit que f (t + s) = f (t) + f (s) et g(t + s) = g(t) + g(s). On fixe, C := supt∈[0,1] E0 [Xt2 ]
et on remarque que pour tout t ∈ [0, 1], E0 [Xt2 ] = f (t)2 + g(t) ≤ C. Si on pose n = b1/tc, alors nt
√
≤ 1.
2 2 C
Comme f (nt) = nf (t) et g(nt) = ng(t) on en déduit n f (t) + ng(t) ≤ C. Par conséquent, |f (t)| ≤ b1/tc et
C
g(t) ≤ b1/tc . Cela implique que limt→0+ f (t) = 0 et limt→0+ g(t) = 0. Un argument élémentaire entraîne que
f et g sont des fonctions linéaires: si on note v := f (1) := E0 [X1 ] et β 2 := g(1) = var(X1 ), on a donc
Si β = 0, alors clairement P0 -p.s. Xt = vt pour tout t ∈ R+ et cela prouve (i). On suppose désormais que β > 0
et on pose pour tout t ∈ R+ , Yt = X0 + β −1 (Xt −X0 −vt). On vérifie immédiatement que Y est un processus
de Lévy continu défini sur le même espace que X et relativement à la même filtration; on a E0 [Yt ] = 0 et
E0 [Yt2 ] = t, pour tout t ∈ R+ . Donc P0 -p.s. Y n’est pas constant et il n’a aucun point absorbant.
Pour tout réel h > 0, on pose τh := inf{t ∈ R+ : |Yt −Y0 | ≥ h}, avec la convention que inf ∅ = ∞. Il s’agit
clairement un (Gt )t∈R+ -temps d’arrêt. Le lemme III.3.4, page 116, implique l’existence de h0 > 0 tel que pour
tout h ∈ ]0, h0 [ , on a E0 [τh ] < ∞. On fixe x ∈ R. Comme Y −Y0 sous Px a même loi que Y sous P0 , on a a
également Ex [τh ] = E0 [τh ]. On vérifie également que sous Px , Y est une (Gt )t∈R+ -martingale continue; il en
est donc de même pour (Yt∧τh )t∈R+ et pour tout t ∈ R+ , on a Ex [Yt∧τh ] = x. Or la continuité de Y implique
que Px -p.s. pour tout t ∈ R+ , Yt∧τh | ∈ [x−h, x + h] et comme Px -p.s. τh < ∞, on a Yτh ∈ {x−h, x + h}. Par
convergence dominée on a donc
x = lim Ex [Yt∧τh ] = Ex [Yτh ] = x−hPx Yτh = x−h + hPx Yτh = x + h .
t→∞
On a donc montré
1
∀x ∈ R, ∀h ∈ ]0, h0 [ , Px Yτh = x−h = Px Yτh = x + h = 2
. (V.4)
On remarque ensuite facilement que sous Px , (Yt2−t)t∈R+ est également une (Gt )t∈R+ -martingale continue:
2 2 = E Y2 2
il en est donc de même pour (Yt∧τ h
− t ∧ τ )
h t∈R+ . Donc x x t∧τh − t ∧ τh et donc Ex [Yt∧τh ] =
x2 + Ex [t ∧ τh ]. Or Px -p.s. pour tout t ∈ R+ , Yt∧τ2
h
≤ (|x| + h)2 . Par convergence dominée on a donc
2 2
limt→∞ Ex [Yt∧τh ] = Ex [Yτh ] et par convergence monotone on a limt→∞ Ex [t ∧ τh ] = Ex [τh ]. On en déduit
donc par (V.4)
1 1
x2 + Ex [τh ] = Ex [Yτ2h ] = 2 (x−h)2 + 2 (x+h)2 = x2 + h2 .
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 183
On a donc montré
∀x ∈ R, ∀h ∈ ]0, h0 [ , Ex [τh ] = h2 . (V.5)
On note L l’opérateur caractéristique de Y comme à la définition III.3.5, page 116 et on note DL ⊂ C0 (R)
son domaine: puisqu’il n’y a pas de point absorbant, on a
Ex [f (Xτh )]−f (x)
f ∈ DL et Lf = g ⇐⇒ ∀x ∈ R , g(x) = lim .
h→0+ Ex [τh ]
On rappelle le théorème III.2.15, page 114, qui montre que le générateur G du mouvement Brownien sur R est
de domaine
1
D := f ∈ C0 (R) : f 00 ∈ C0 (Rd ) ∀f ∈ D, Gf = 2 f 00 .
La formule de Taylor en x implique que limh→0+ (Ex [f (Xτh )]−f (x))/Ex [τh ] = 21 f 00 (x). Cela montre que
D ⊂ DL et ∀f ∈ D, Lf = Gf .
Comme (DL , L) satisfait clairement le principe du maximum, le lemme III.2.4, page 107 implique que D = DL
et G = L. Comme un semi-groupe de Feller-Dynkin est caractérisés par son générateur (théorème de Hille-
Yosida III.1.22, page 100) Y a le même semi-groupe qu’un mouvement Brownien sur R, ce qui permet de
conclure.
Le théorème précédent se généralise aux processus de Lévy continus à valeurs dans Rd . Pour cela, rappelons
quelques faits d’algèbre linéaire: soit M = (mi,j )1≤i≤r,1≤j≤d un matrice de taille r × d. On note M ∗ sa
transposée qui est la matrice de taille d×r dont les coefficients sont m∗i,j = mj,i , 1 ≤ j ≤ r, 1 ≤ i ≤ d. Si
on note de la même manière le produit scalaire canonique sur Rr et Rd , alors hu, M vi = hM ∗ u, vi, u ∈ Rd ,
v ∈ Rr . On note diag(a1 , . . . , ad ), la matrice diagonale dont les coefficients diagonaux sont a1 , . . . , ad ∈ R. Si
a1 = . . . = ar = 1 et ar+1 = . . . = ad = 0, alors on pose Ir = diag(a1 , . . . , ad ), si bien que Id est l’identité sur Rd .
On utilise le lemme suivant.
Lemme V.2.3 Soit Γ, une matrice symétrique positive de taille d. On note r le rang de Γ. Alors il existe M de
taille d×r et N de taille r×d telles que
Preuve: ses valeurs propres sont des réels positifs et on note λ1 ≥ . . . ≥ λ1 > 0 les r valeurs propres
non-nulles, comptée avec leur multiplicité et dans l’ordre décroissant. On définit deux matrices d × d, en
1/2 1/2 −1/2 −1/2
posant ∆0 := diag(λ1 , . . . , λr , 0, . . . , 0) et ∆1 := diag(λ1 , . . . , λr , 0, . . . , 0), si bien que ∆0 ∆1 =
diag(1, . . . , 1, 0, . . . , 0) =: Ir . Comme Γ est symétrique, elle est diagonalisable dans le groupe orthogonal et
il existe une matrice orthogonale O telle que O∗ ΓO = ∆20 . On pose ensuite M0 = O∆0 et M1 := ∆1 O∗ , qui
satisfont M0 M0∗ = Γ et M1 ΓM1∗ = Ir .
On note ensuite R l’application qui à (x1 , . . . , xd ) associe (x1 , . . . , xr ). C’est une matrice r × d et R∗
associe à (x1 , . . . , xr ) le vecteur (x1 , . . . , xr , 0 . . . , 0) ∈ Rd . On pose M = M0 R∗ et N = RM1 . Alors
184 CHAPTER V. PROCESSUS DE LÉVY.
Soit Y := (Y1 , . . . , Yd ), un vecteur aléatoire à valeurs dans Rd tel que E[kY k2 ] < ∞. Sa matrice de
covariance Γ = (cov(Yi , Yj ))1≤i,j≤d . Alors, on rappelle que
Théorème V.2.4 (Caractérisation des proc. de Lévy continus) On se place en dimension d ≥ 2. On suppose que
(1) (d)
le processus de Lévy X est continu. On note X1 = (X1 , . . . , X1 ) les composantes du vecteur X1 . Alors,
E0 [kX1 k2 ] < ∞, on pose
(1) (d) (i) (j)
v := E0 [X1 ] = E0 [X1 ], . . . , E0 [X1 ] et Γ := cov(X1 , X1 ) 1≤i,j≤d
(i) Si Γ = 0, alors pour toute mesure µ ∈ M1 (Rd ), Pµ -p.s. pour tout t ∈ R+ , Xt = tv, t ∈ R+ .
(ii) Supposons que Γ 6= 0 et notons r le rang de Γ, si bien que 1 ≤ r ≤ d. En application du lemme V.2.3, il
existe deux matrices réelles M et N de tailles respectives r×d et d×r telles que pour toute µ ∈ M1 (Rd ),
Pµ -p.s. ∀t ∈ R+ , Xt = X0 + M Bt + tv (V.7)
où Bt := N (Xt −X0 −tv), t ∈ R+ , est sous Pµ un (Gt )t∈R+ -mouvement Brownien à valeurs dans Rr ,
issu de 0 et indépendant de X0 .
Preuve: le théorème V.2.1 implique que E0 [kXt k2 ] < ∞, pour tout t ∈ R+ , ce qui permet de définir v et Γ et
(V.6) implique:
E0 [hu, X1 i] = hu, vi et E0 hu, X1 −vi2 = hu, Γui .
(V.9)
Or pour tout u ∈ Rd , (hu, Xt i)t∈R+ est un processus de Lévy continu à valeurs réelles. Si Γ = 0, la variance de
hu, X1 i et nulle et le théorème V.2.2 implique que pour toute mesure µ ∈ M1 (Rd ), Pµ -p.s. pour tout t ∈ R+ ,
hu, Xt −X0 −tvi = 0. Donc Pµ -p.s. pour tout t ∈ Q+ et tout u ∈ Qd ,hu, Xt −X0 −tvi = 0, ce qui implique (i)
par continuité.
On suppose ensuite que Γ n’est pas nulle et on note r son rang. On note M et N comme dans le lemme
V.2.3. On pose Bt := N (Xt − X0 − tv), t ∈ R+ , qui est un processus continu à valeurs dans Rr . Pour tout
u ∈ Rr , on observe que sous P0 , (hu, Bt i)t∈R+ est processus de Lévy continu issu de 0 et par (V.6) et (V.9), on
a E0 [hu, B1 i] = 0 et
On déduit du théorème V.2.2 que (kuk−1 hu, Bt i)t∈R+ est égal à un mouvement Brownien issu de 0 (cas où
β = kuk et v = 0). Pour tout u ∈ Rr , on a E0 [exp(ihu, Bt i)] = exp(− 12 tkuk2 ), ce qui implique facilement que
B est un mouvement Brownien standard à valeurs dans Rd et issu de 0.
On pose ensuite Zt = M Bt − (Xt − X0 − tv), t ∈ R. On constate que Z est un (Gt )t∈R+ -processus de Lévy
qui est continu. En fait on a E[Zt ] = 0 et Zt = (M N − Id )(Xt − X0 − tv) et Z1 est de matrice de covariance
(M N − Id )Γ(M N − Id)∗ = M N ΓN ∗ M ∗ − M N Γ − ΓN ∗ M ∗ + Γ = 0
Lemme V.2.5 . On reprend les notations ci-dessus. Alors, il existe une mesure positive π sur les Boréliens de
Rd \{0} telle que π(Uε ) < ∞, pour tout ε > 0, et telle que pour toute mesure µ ∈ M1 (Rd ), sous Pµ , le nuage
de points sur R+ ×(Rd \{0}) défini par
Π := (t, ∆Xt ) ; t ∈ R+ : ∆Xt 6= 0
186 CHAPTER V. PROCESSUS DE LÉVY.
est un nuage de Poisson d’intensité ` ⊗ π. Plus précisément, (∆Xt )t∈R+ sous Pµ est un (Gt )t∈R+ -processus
ponctuel d’intensité π, appelée mesure de Lévy de X.
Preuve: clairement, il suffit de montrer ce résultat sous P0 . Pour éviter les trivialités on suppose que X n’est
pas P0 -p.s. continu. Il existe donc ε0 > 0 tel que P0 (∃t ∈ R+ : k∆Xt k > ε0 ) > 0. On fixe ensuite ε ∈ ]0, ε0 ] et
pour toute trajectoire w = (wt )t∈R+ càdlàg à valeurs dans Rd , on pose T1 (w) := inf{t ∈ R+ : k∆wt k > ε}, avec
la convention inf ∅ = ∞. Par continuité à droite T1 (w) > 0. Pour simplifier les notations, on pose T1 := T1 (X),
qui est clairement un (Gt )t∈R+ -temps d’arrêt. Comme ε ≤ ε0 , on a également P0 (T1 < ∞) > 0.
On rappelle que X t := Xt+· −Xt et on remarque que si T1 > t, alors T1 = t + T1 (X t ) et ∆XT1 = ∆XTt 1 (X t ) .
Or sous P0 , le processus X t est indépendant de Gt (et donc de X·∧t ) et a même loi que X. Donc pour toute
fonction mesurable f : Rd → R+ et tout s ∈ R+ , on a
E0 1{T1 >t+s} f ∆XT1 = E0 1{T1 >t} 1{T1 (X t )>s} f ∆XTt 1 (X t ) = P0 (T1 > t)E0 1{T1 >s} f ∆XT1 .
(V.10)
En prenant f constante à 1 dans cette égalité, on obtient P0 (T1 > t + s) = P0 (T1 > t)P0 (T1 > s). Puisque
P0 (0 < T1 < ∞) > 0, il existe aε ∈]0, ∞[ tel que P0 (T1 > t) = e−aε t : T1 sous P0 suit une loi exponentielle
non-dégénérée de paramètre aε . Par conséquent P0 -p.s. 0 < T1 < ∞. On remarque également qu’en prenant
s = 0 dans (V.10), on en déduit que T1 est indépendant de ∆XT1 sous P0 .
On introduit ensuite les temps successifs (Tn )n∈N des sauts de norme plus grande que ε: pour toute trajec-
toire w = (wt )t∈R+ , càdlàg et à valeurs dans Rd , on pose
avec la convention inf ∅ = ∞. On vérifie que si Tn (w) < ∞, on a Tn+1 (w) = Tn (w) + T1 (w·+Tn (w) −wTn (w) ).
Pour simplifier les notations, on pose Tn := Tn (X). Le résultat concernant T1 et la définition récursive des
Tn implique immédiatement que les Tn forment une suite strictement croissante de (Gt )t∈R+ -temps d’arrêt
P0 -p.s. finis. Or (Tn+1 − T1 , ∆Tn+1 )n≥1 = (Tn (X T1 ), ∆XTT1 (X T1 ) )n≥1 , donc la proposition V.1.6, page 178
n
appliqué en T1 sous P0 , implique que sous P0 ,
loi
(T1 , ∆XT1 ) indépendent de (Tn+1−T1 , ∆XTn )n≥1 et (Tn+1−T1 , ∆XTn )n≥1 = (Tn , ∆XTn )n≥1 sous P0 .
Cela implique d’une part que les v.a. Tn−Tn−1 , ∆XTn , n ≥ 1 sont indépendantes, d’autre part que les v.a. (Tn−
Tn−1 )n≥1 sont i.i.d. de loi exponentielle de paramètre aε et enfin que les v.a. (∆XTn )n≥1 sont i.i.d. de loi
commune notée µε . La proposition IV.5.1, page 155, implique donc que
Πε := (Tn , ∆XTn ) ; n ≥ 1 = (t, ∆Xt ) ; t ∈ R+ : k∆Xt k > ε est un nuage de Poisson d’intensité `⊗aε µε .
Soit (εp )p∈N , une suite décroissant strictement vers 0. Il est clair que pour tout p ∈ N, P0 -p.s. Πεp ⊂ Πεp+1 .
Le théorèmeSIV.3.5 (i) de superposition croissante, page 143, implique que {(t, ∆Xt ); t ∈ R+ : ∆Xt 6=
0} = Π = p∈N Πεp est un nuage de Poisson sur R+ × (Rd \{0}), dont l’intensité est notée ν. Pour tout
A ∈ B(Rd \{0}), on pose alors π(A) := ν([0, 1] × A), qui est une mesure positive. Soit ε > 0; on rappelle
la notation Uε := {x ∈ Rd : kxk > ε} et on on observe que Πε = Π ∩ (R+ × Uε ). Cela implique que
ν(· ∩ (R+ ×Uε )) = `⊗aε µε et donc π(· ∩ Uε ) = aε µε . Donc π(Uε ) = aε < ∞. Cela montre que π est une mesure
sigma-finie. On en déduit aussi que ν(· ∩ (R+ ×Uε )) = `⊗π(· ∩ Uε ) = (`⊗π)(· ∩ (R+ ×Uε )), ce qui implique
immédiatement que ν = `⊗π. Donc Π est un nuage de Poisson d’intensité `⊗π.
Soit A ∈ B(Rd \{0}). Pour tout s, t ∈ R+ , il est clair que N[0,t]×A (Π) est Gt -mesurable et que N]t,t+s]×A (Π)
ne dépend que de X t : c’est la somme des sauts de X t avant l’instant s qui sont dans A. Comme sous P0 , X t
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 187
est indépendant de Gt et de même loi que X, on en déduit que N]t,t+s]×A (Π) est indépendant de Gt et a même
loi que N[0,s]×A (Π). Cela montre que (∆Xt )t∈R+ est, sous P0 , un (Gt )t∈R+ -processus ponctuel d’intensité π,
selon la définition IV.6.3, page 160. Cela termine la preuve du lemme.
Lemme V.2.6 On reprend les notations ci-dessus. On rappelle que Π = {(t, ∆Xt ) ; t ∈ R+ ∆Xt 6= 0} est un
nuage de Poisson d’intensité `⊗π, où π, la mesure de Lévy de X. Pour tout ε > 0, on pose
Πε := (t, ∆Xt ) ; t ∈ R+ : k∆Xt k > ε = Π ∩ (R+ ×Uε ) .
(ε)
(i) Πε et (Xt )t∈R+ sont indépendants,
(ε)
(ii) (Xt )t∈R+ est un (Gt )t∈R+ -processus de Lévy.
Preuve: clairement, il suffit de montrer le lemme sous P0 . On fixe ε > 0. Le fait que π(Uε ) soit une quantité
finie implique que Z
min 1, kxk1{kxk>ε} π(dx) ≤ π(Uε ) < ∞ .
Rd \{0}
P
La proposition IV.4.9, page 153 implique que P0 -p.s. pour tout t ∈ R+ , s∈[0,t] k∆Xs k1{k∆Xs k>ε} < ∞, ce
(ε)
qui montre que est bien défini par (V.12). Il est clair que X (ε) est càdlàg. Soient t, s ∈ R+ . On vérifie
Xt
(ε) (ε) (ε)
que Xt ne dépend que X·∧t : il est donc Gt -mesurable. De plus Xt+s −Xt ne dépend que de X t , processus
(ε) (ε) (ε)
indépendant de Gt : on en déduit que Xt+s −Xt est indépendant de Gt . Cela montre que (Xt )t∈R+ est un
(Gt )t∈R+ processus de Lévy.
Le point technique de la preuve est l’indépendance de X (ε) de Πε : on rappelle de (V.11) la définition
de Tn (w), n-ième temps de sauts de norme supérieure à ε. Pour simplifier, on note Tn (X) simplement par
Tn . On prouve d’abord que sous P0 et conditionnellement à T1 , X·∧T ε est indépendant de ∆XT1 . On fixe
1
d p
t1 , . . . , tp ∈ R+ et F : (R ) → R+ , une fonction continue bornée. On pose
∀t ∈ R+ , Ht := 1[t,∞[ (T1 )F X(t1 ∧t)− , . . . , X(tp ∧t)− .
On vérifie que (Ht )t∈R+ est (Gt )t∈R+ -adapté et càg sur ]0, ∞[ . La proposition IV.6.5, page 160, implique que
H est (Gt )t∈R+ -prévisible. Soit fP:= R+ ×Rd → R+ , une fonction mesurable bornée telle que f (·, 0) = 0. On
observe que HT1 f (T1 , ∆XT1 ) = t∈R+ Ht f (t, ∆Xt )1{k∆Xt k> ε} , tous les termes de cette somme étant nuls
sauf un, qui correspond au temps t = T1 . Par la formule de compensation (lemme IV.6.6, page 161) appliquée
au (Gt )t∈R+ -processus ponctuel de Poisson (∆Xt )t∈R+ d’intensité π, on obtient
Z ∞ Z
E0 HT1 f (T1 , ∆XT1 ) = dt π(dx) f (t, x) E0 Ht .
0 Uε
188 CHAPTER V. PROCESSUS DE LÉVY.
(ε) (ε)
On observe que HT1 = F (X(t1 ∧T1 )− , . . . , X(tp ∧T1 )− ) = F (X(t1 ∧T1 )− , . . . , X(tp ∧T1 )− ), car strictement avant T1 ,
X et X (ε) coïncident. Comme X n’a pas de discontinuité à un temps fixé, P0 -p.s. X est continu en t1 , . . . , tp
et il en est donc de même pour X (ε) . De plus X (ε) est par définition continu au temps T1 . On en déduit donc
(ε) (ε) (ε) (ε)
que P0 -p.s. HT1 = F (Xt1 ∧T1 , . . . , Xtp ∧T1 ) et Ht = 1[t,∞[ (T1 )F (Xt1 ∧t , . . . , Xtp ∧t ). On a donc montré
Z ∞ Z
(ε) (ε) (ε) (ε)
E F Xt1 ∧T1 , . . . , Xtp ∧T1 f (T1 , ∆XT1 ) = dt π(dx) f (t, x) E0 F Xt1 ∧t , . . . , Xtp ∧t 1{T1 >t} .
0 Uε
Par classe monotone, pour toute fonction G := (Rd )R+ → R+ qui est B(Rd )⊗R+ -mesurable bornée, on a
Z ∞Z
(ε) (ε)
E G X·∧T1 f (T1 , ∆XT1 ) = dt π(dx) f (t, x) E0 G X·∧t 1{T1 >t} . (V.13)
0 Uε
(ε) (ε)
Montrons que cela implique l’indépendance de X (ε) et de (T1 , ∆XT1 ): posons Yt := XT1 +t − XT1 , t ∈ R+ ;
Y est une fonction mesurable de X T1 ; par conséquent, Y a même loi que X (ε) et est indépendant de GT1 et
(ε) (ε) (ε)
donc de X·∧T1 et de (T1 , ∆XT1 ). On observe ensuite que Xs = Xs∧T1 + Y(s−T1 )+ . Ceci combiné avec (V.13)
implique facilement que
Z ∞Z
E G X (ε) f (T1 , ∆XT1 ) = dt π(dx) f (t, x) E0 G X (ε) 1{T1 >t} .
(V.14)
0 Uε
Pour simplifier les notations, on pose a := π(Uε ). On fixe t ∈ R+ . Par (V.14), on a E0 [G(X (ε) )1{T1 >t} ] =
R∞
a t dt1 E0 [G(X (ε) )1{T1 >t1 } ]. En itérant n fois ce calcul on obtient la première égalité qui suit, les autres se
déduisant d’un calcul intégral élémentaire.
Z ∞Z Z Z
(ε) n
dt π(dx) f (t, x) . . . dtn . . . dt1 E0 G X (ε) 1{T1 >tn }
E G X f (T1 , ∆XT1 ) = a
0 U {t >...>t1 >t}
Z ∞Z ε Z Z n
= an dt π(dx) f (t, x) . . . dsn . . . ds1 E0 G X (ε) 1{T1 >sn +t}
0 Uε {sn >...>s1 >0}
∞ Z ∞
sn−1
Z Z
n
E0 G X (ε) 1{T1 >s+t}
= a dt π(dx) f (t, x) ds
0 Uε 0 (n−1)!
Z ∞ Z Z ∞ n n−1 −as
a s e
= dt e−at π(dx) f (t, x) ds E0 G X (ε) T1 > s + t
(V.15)
0 Uε 0 (n − 1)!
car T1 suit une loi exponentielle de paramètre a. On fixe ensuite t0 > 0. Si T1 > t0 , alors T1 −t0 = T1 (X t0 ). La
propriété de Markov au temps t0 implique que si s > t0 ,
(ε) (ε) (ε)
E0 G X·∧t0 1{T1 >s+t} = E0 G X·∧t0 1{T1 >t0 } P0 (T1 > s + t−t0 ) = E0 G X·∧t0 T1 > t0 e−a(s+t) ,
(ε) (ε)
c’est-à-dire que E0 [G(X·∧t0 )|T1 > s + t] = E0 [G(X·∧t0 )|T1 > t0 ]. Comme s 7→ an sn−1 e−as /(n−1)! est la
densité d’une loi d’Erlang de paramètres (n, a) qui est la loi de la somme de n v.a. exponentielles indépendantes
de paramètre a, on a
Z ∞ n n−1 −as Z t0 n n−1 −as
E0 G X (ε) T1 > t0 − ds a s e (ε) a s e
·∧t0 E0 G X T1 > s + t ≤ 2kGk∞ ds
−−→ 0.
(n − 1)!
0 (n − 1)! n→∞ 0
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 189
Les deux lemmes précédents combinés avec le théorème V.2.1 sur les processus de Lévy dont les sauts sont
uniformément bornés (page 180), sont utilisés pour prouver le lemme suivant.
Lemme V.2.7 On reprend les notations ci-dessus. Alors, la mesure de Lévy π de X satisfait
Z
min 1, kxk2 π(dx) < ∞ .
Rd \{0}
d
RPreuve: on2 rappelle la notation Uε := {x ∈ R : kxk > ε}. On sait que π(U1 ) < ∞, il reste donc à montrer que
Rd \U1 kxk π(dx) < ∞. Dans la suite de la preuve, on raisonne sous P0 . Soit ε ∈ ]0, 1]. On pose
(ε)
X X
∀t ∈ R+ , Xt := Xt − ∆Xs 1{k∆Xs k>ε} et Ytε = ∆Xs 1{ε<k∆Xs k≤1} .
s∈[0,t] s∈[0,t]
(1) (ε)
On a donc Xt := Xt + Ytε , t ∈ R+ . On fixe u ∈ Rd . Par la formule de moment d’ordre 1 du théorème IV.4.10
(page 154), on a donc
h X i Z
ε
E0 hu, Yt i ≤ E0
|hu, ∆Xs i|1{ε<k∆Xs k≤1} = t |hu, xi π(dx) < tkukπ(Uε ) < ∞ .
s∈[0,t] Uε \U1
|hu, xi|2 π(dx) ≤ kuk2 π(Uε ) < ∞. La formule de moment d’ordre 2 dans le
R
On observe également que Uε \U1
(ε)
théorème IV.4.10, page 154, montre que hu, Yt i admet un moment d’ordre 2 et on a
Z
(ε)
var hu, Yt i = t |hu, xi|2 π(dx) . (V.19)
Uε \U1
190 CHAPTER V. PROCESSUS DE LÉVY.
On remarque ensuite que X (ε) sont X (1) sont des processus de Lévy dont les sauts sont de taille uniformément
bornée. Le théorème V.2.1, page V.2.1, implique que hu, X (1) i et hu, X (ε) i admettent des moments d’ordre 2
également. Le lemme V.2.6 implique enfin que Y (ε) , qui est une fonction mesurable de Πε , est indépendant de
X (ε) . On a donc
(1) (ε) (ε)
var hu, Xt i = var hu, Xt i + var hu, Yt i .
(1)
Lorsque ε → 0, on obtient Rd \U1 |hx, ui|2 π(dx) ≤ var(hu, X1 i). En sommant ces inégalités lorsque u
R
parcourt la base canonique de Rd , on obtient Rd \U1 kxk2 π(dx) < ∞, ce qui termine la preuve.
R
Lemme V.2.8 (Compensation des sauts) Soit (Vt )t∈R+ , un (Gt )t∈R+ -processus de Poisson sur Rd \{0} d’intensité
π qui satisfait Z
min 1, kxk2 π(dx) < ∞ .
Rd \{0}
Alors, R est un (Gt )t∈R+ -processus de Lévy et il existe un (Gt )t∈R+ -processus de Lévy J qui est indépendant
de R, ainsi qu’une suite de réels (εp )p∈N décroissant strictement vers 0 tels que
(ε )
P-p.s. sup Js −Js p −−−→ 0 . (V.20)
s∈[0,p] p→∞
Si on pose Yt := Rt + Jt , t ∈ R+ . Alors (Yt )t∈R+ est un (Gt )t∈R+ -processus de Lévy dont la mesure de Lévy est
π et dont l’exposant caractéristique est donné pour tout u ∈ Rd et tout t ∈ R+ par
ihu,Yt i Z
E e = exp t π(dx) eihu,xi −1−ihu, xi1{kxk<1} . (V.21)
Rd \{0}
Preuve: on pose Π := {(t, Vt ) ; t ∈ R+ : Vt 6= ∂}, qui est un nuage Poissonnien sur R+ ×Rd d’intensité `⊗π.
Pour simplifier les notations, on pose également Uε := {x ∈ Rd : kxk > ε}, ε ∈ ]0, ∞[ . On remarque que
R dépend de la restriction de Π à R+ ×U1 et J (ε) dépend de la restriction de Π à R+ ×(Uε \U1 ), qui est un
ensemble disjoint de R+ ×U1 . Par le principe de restriction des nuages Poissonniens (théorème IV.3.4, page
142), R et J (ε) sont indépendants. Il est facile de vérifier que R et J (ε) sont des (Gt )t∈R+ -processus de Lévy.
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 191
0
Soit ε0 ∈ ]0, ε[ et u ∈ Rd . On voit facilement que J (ε ) − J (ε) est un processus de Lévy; ses sauts ont
leur norme majorée par ε. Par conséquent, ce processus de Lévy admet (au moins) un moment d’ordre deux
(théorème V.2.1, page 180). On voit alors que
Z
(ε0 ) (ε)
X
∀t ∈ R+ , hu, Jt −Jt i = hu, ∆Xs i1{ε0 <k∆Xs k≤ε} − t hu, xi π(dx)
s∈[0,t] {ε0 <kxk≤ε}
est une (Gt )t∈R+ -martingale . Elle est de carré intégrable par la formule du carré pour les processus de Poisson
pour la fonction (s, x) 7→ 1[0,t] (s)1Uε0 \Uε (x)hu, xi, formule donnée à la proposition IV.4.10, page 154: on a
Z
(ε0 ) (ε) 2 (ε0 ) (ε)
E hu, Jt −Jt i = var hu, Jt −Jt i = t hu, xi2 π(dx) .
{ε0 <kxk≤ε}
On somme alors ces inégalités lorsque u parcourt la base canonique: puisque le supremum d’une somme est
inférieur à la somme des supremums, on en déduit
h 2 i Z
(ε0 ) (ε)
E sup kJs −Js k ≤ 4t kxk2 π(dx) . (V.22)
s∈[0,t] {ε0 <kxk≤ε}
en déduit que
hX 2 i X h 2 i
(ε ) (ε ) (ε ) (ε )
E p2 sup kJs p+1 −Js p k = p2 E sup kJs p+1 −Js p k <∞.
p≥1 s∈[0,p] p≥1 s∈[0,p]
(ε )
Cela implique l’existence d’un processus càdlàg J tel que P-p.s. limp→∞ sups∈[0,p] kJs − Js p k = 0. Il est
facile de montrer que J est un (Gt )t∈R+ de Lévy et qu’il est indépendant de R. (V.21) sont des conséquences
immédiates de la formule exponentielle réelle pour les nuages Poissonniens établie au théorème IV.4.10, page
154. Cela termine la preuve du lemme.
Construction des processus de Lévy. On introduit les paramètres qui, nous le voyons plus loin, suffisent à
décrire la loi des processus de Lévy.
Définition V.2.9 Un triplet de Lévy-Khintchine en dimension d est la donnée de (v, Γ, π) qui sont définis
comme suit.
(c) π est une mesure positive sur les Boréliens de Rd \{0} telle que 2
R
Rd \{0} kxk π(dx) < ∞.
Théorème V.2.10 (Construction) Soit (v, Γ, π), un triplet de Lévy-Khintchine en dimension d. On note r :=
rang(Γ) et on note également M et N , les matrices obtenues par le lemme V.2.3. Soit (Ω, F , P) un espace de
probabilité, muni d’une filtration (Gt )t∈R+ et sur lequel sont définis les processus suivants.
• V = (Vt )t∈R+ , un (Gt )t∈R+ -processus ponctuel de Poisson sur Rd \{0}, d’intensité π.
Alors il existe deux (Gt )t∈R+ -processus de Lévy X and J et une suite de réels (εp )p∈N décroissant strictement
vers 0 tels que
(ε ) (ε )
P-p.s. sup Xs −Xs p −−−→ 0 et sup Js −Js p −−−→ 0 . (V.23)
s∈[0,p] p→∞ s∈[0,p] p→∞
(iv) On rappelle que pour tout u ∈ Rd , E[exp(ihu, Xt i)] = exp(tψ(u)), où ψ est l’exposant caractéristique
de X. Ce qui précède implique
Z
d 1
ψ(u) = ihu, vi − 2 hu, Γui + π(dx) eihu,xi −1 − ihu, xi1{kxk≤1} .
∀u ∈ R , (V.24)
Rd
Par conséquent, la loi de (Xt )t∈R+ est caractérisée par (v, Γ, π).
Preuve: l’existence de J et la seconde convergence de (V.23) sont une conséquence directe du lemme V.2.8.
Ce lemme implique également que J est un (Gt )t∈R+ -processus de Lévy, indépendant de R; par hypothèse il
est également indépendant de B, ce qui montre (iii). Si on définit X comme au (i), alors X est un (Gt )t∈R+ -
processus de Lévy et les sauts de X sont ceux de J et de R, ce qui implique (ii): π est la mesure de Lévy
de X. Comme X − X (ε) = J (ε) − J, on en déduit la première limite de (V.23) Ensuite (V.24) résulte de
(V.21) au lemme V.2.8, de l’indépendance de R + J et de B, et du fait que pour tout t ∈ R+ et tout u ∈ Rd ,
E exp(ihu, M Bt ) = exp(− 21 thu, Γui). La loi du processus de Markov (Xt )t∈R+ est caractérisée par son
semi-groupe, qui est lui-même caractérisé par la loi de X1 (voir la proposition V.1.10, page 179), qui est, elle,
caractérisée par sa transformée de Fourier, elle-même fixée par la fonction ψ, exprimée uniquement à l’aide de
(v, Γ, π). Par conséquent, la loi de (Xt )t∈R+ est caractérisée par (v, Γ, π), ce qui termine la preuve.
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 193
Structure des processus de Lévy. Le théorème suivant se voit comme la réciproque du théorème V.2.10 de
construction: tout processus de Lévy s’obtient comme au théorème V.2.10; en effet, on peut voir tout processus
de Lévy comme la somme de trois processus de Lévy indépendants: un processus continu, le processus des
"petits" sauts compensés et le processus des grands sauts. Plus précisément, on a l’énoncé suivant qui résume
les résultats déjà obtenus.
Théorème V.2.11 (Structure des processus de Lévy) Soit (Ω, F , P), un espace de probabilité sur lequel sont défi-
nis une filtration (Gt )t∈R+ et X, un (Gt )t∈R+ processus de Lévy à valeurs dans Rd . On suppose que X a des
sauts avec probabilité positive.
(1) Le nuage de points sur R+ ×Rd défini par Π := (t, ∆Xt ) ; t ∈ R+ : ∆Xt 6= 0 est Poissonnien d’intensité
`⊗π, où π est une mesure positive sur les Boréliens de Rd \{0}, appelée mesure de Lévy de X, qui satisfait la
condition d’intégrabilité Z
min 1, kxk2 π(dx) < ∞
(V.25)
Rd \{0}
Plus précisément, (∆Xt )t∈R+ est un (Gt )t∈R+ -processus ponctuel de Poisson d’intensité π.
(2) Pour tous ε ∈ ]0, ∞[ et t ∈ R+ , on pose
Z
(ε) (ε) (ε)
X X
Rt := ∆Xs , Jt := ∆Xs −t xπ(dx) et Zt := Xt −Jt −Rt .
s∈[0,t]: s∈[0,t]: {ε<kxk≤1}
k∆Xs k>1 ε<k∆Xs k≤1
Alors il existe deux (Gt )t∈R+ -processus de Lévy, notés Z and J, satisfaisant les conditions suivantes.
(a) Z est un processus de Lévy continu: on peut lui appliquer le théorème V.2.4, page 184.
(d) Il existe une suite de réels (εp )p∈N décroissant strictement vers 0 telle que
(ε ) (ε )
P-p.s. sup Zs −Zs p −−−→ 0 et sup Js −Js p −−−→ 0 . (V.26)
s∈[0,p] p→∞ s∈[0,p] p→∞
Le processus Z est appelé la composante continue de X, le processus J est appelé la composante des sauts
compensés et le processus R est appelé la composante des grands sauts de X. Les processus Z, J et R sont
des fonctions mesurables adaptées de la trajectoire de X.
(3) On note v := E[Z1 −Z0 ] et Γ := cov(Z1 −Z0 ). Alors, l’exposant caractéristique ψ de X est donné par la
formule (V.24) au théorème V.2.10. Par conséquent la loi de (Xt −X0 )t∈R+ est caractérisée par (v, Γ, π).
Preuve: le point (1) est une conséquence des lemmes V.2.5 et V.2.7. Prouvons (2): pour simplifier les notations
on pose Uε := {x ∈ Rd : kxk > ε}. On observe que J (ε) et R sont des fonctions du processus Πε := {(t, ∆t ); t ∈
R+ : k∆Xt k > ε}, qui est la restriction de Π à R+×Uε ; le lemme V.2.6 implique immediatement que (J (ε) , R)
est indépendant de Z (ε) (le lecteur remarque qu’il s’agit du point difficile de la preuve). Par ailleurs, J (ε) est
une fonction de Π ∩ (R+ ×(Uε \U1 )) et R est une fonction de Π ∩ (R+ ×U1 ); par le principe de restriction
des nuages Poissonniens (théorème IV.3.4, page 142), ils sont indépendants. On a donc montré que R, J (ε) et
194 CHAPTER V. PROCESSUS DE LÉVY.
Z (ε) sont des processus indépendants. Il est par ailleurs facile de voir que ce sont des (Gt )t∈R+ -processus de
Lévy. On applique le lemme V.2.8 à (Vt )t∈R+ = (∆Xt )t∈R+ , ce qui est possible par le point (1) que l’on vient
de démontrer, et on obtient l’existence de J et la seconde limite de (V.26). Comme Z − Z (ε) = J (ε) − J, on
en déduit la première limite de (V.26) ce qui prouve (d). À la limite, on a clairement X = Z + J + R, ce qui
montre (c). L’indépendance de Z, J et R découle très facilement de celle de Z (ε) , J (ε) et R. Enfin, on voit que
les sauts de Z (ε) sont, en norme, inférieurs à ε, ce qui implique, à la limite que Z est continu, ce qui prouve (a)
et ce qui termine la preuve de (2).
La preuve de (3) découle tout d’abord du théorème V.2.4, page 184, de caractérisation des processus de
Lévy continus: on a donc
1
∀t ∈ R+, ∀u ∈ Rd ,
E exp ihu, Zt −Z0 i = exp ihu, vi− 2 thu, Γui .
On montre que l’exposant caractéristique ψ de X satisfait bien (V.24) du théorème V.2.10 en combinant ce qui
précède avec l’indépendance de Z, J et R et la formule (V.21) du lemme V.2.8 de compensation des sauts. Cela
termine la preuve du théorème.
Corollaire V.2.12 Il y a une correspondance bijective entre les semi-groupes de processus de Lévy d-dimensionels
et les triplets de Lévy-Khintchine d-dimensionnels.
Preuve: à tout semi-groupe (Pt )t∈R+ de processus de Lévy à valeurs dans Rd , on associe une réalisation X
issue de l’origine et son triplet (v, Γ, π) comme dans le théorème V.2.11 (3) qui affirme que ce triplet caractérise
sa loi: notamment si deux semi-groupes correspondent au même triplet, alors ils sont égaux. Réciproquement,
à un triplet de Lévy-Khintchine (v, Γ, π), le théorème V.2.10 de construction des processus de Lévy associe un
processus X et il est facile de vérifier que (v, Γ, π) est le triplet associé à X par le théorème V.2.11 (3). Cela
termine la preuve.
En combinant la proposition V.1.10 (page 179, qui établit une correspondance bijective entre lois infiniment
divisibles et semi-groupes de processus de Lévy), le corollaire précédent (établissant une correspondance bi-
jective entre semi-groupes de processus de Lévy et triplets de Lévy Khintchine) ainsi que la formule (V.24) du
théorème V.2.10, page 192, on obtient directement le théorème suivant dû à Lévy (sur Rd ) et Khintchine (sur
R+ ).
Théorème V.2.13 (Formule de Lévy-Khintchine) Il y a une correspondance bijective entre les lois infiniment divis-
ibles sur Rd et les triplets de Lévy-Khintchine d-dimensionnels. Plus précisément, cette correspondance se fait
à travers l’exposant caractéristique et la formule de Lévy-Khintchine: la loi infiniment divible µ correspond au
triplet (v, Γ, π) si
Z
d
∀u ∈ R , 1
b(u) = exp ihu, vi− hu, Γui +
µ 2 π(dx) eihu,xi −1−ihu, xi1{kxk≤1} (V.27)
Rd \{0}
b(u) := Rd eihu,xi µ(dx) est la transformée de Fourier de µ. La formule (V.27) est appelée formule de
R
où µ
Lévy-Khintchine.
V.3. QUELQUES PROPRIÉTÉS; CAS SPÉCIFIQUES. 195
(a) σ = {s0 = a < s1 < . . . < sn = b} est une subdivision de [a, b]; son pas est la quantité pas(σ) =
max{si+1 −si ; 0 ≤ i < n}; on note S ([a, b]) l’ensemble des subdivisions de [a, b].
P
(b) Soit σ = {s0 = a < s1 < . . . < sn = b}. On pose V (σ, F ) = 0≤i≤n−1 F (si+1 )−F (si ), et
Si ce supremum est fini, F est dite à variation bornée sur [a, b].
ainsi que
vF+ ([a, b]) = sup V + (σ, F ) ; σ ∈ S ([a, b]) vF− ([a, b]) = sup V − (σ, F ) ; σ ∈ S ([a, b])
et
+/−
(i) Si F est à variation bornée sur [a, b], alors les fonctions t ∈ [a, b] 7→ vF ([a, t]), t ∈ [a, b] 7→ vF ([a, t])
sont croissantes, nulles en a et on a
∀t ∈ [a, b] , F (t)−F (a) = vF+ ([a, t])−vF− ([a, t]) et vF ([a, t]) = vF+ ([a, t]) + vF− ([a, t]) .
(ii) On suppose que F = g2 −g1 , où g1 et g2 sont des fonctions croissantes sur R+ . Alors F est à variation
bornée sur tout intervalle [a, b] de R+ et
vF+ ([a, b]) ≤ g2 (b)−g2 (a) et vF− ([a, b]) ≤ g1 (b)−g1 (a) .
Preuve: prouvons (i). La croissance des fonctions est évidente et pour toute subdivision σ = {a = s0 < . . . <
sn = t}, on a
X
|F (si+1 )−F (si )| + F (si+1 )−F (si ) = 2V + (σ, F ) .
V (σ, F ) + F (t)−F (a) =
0≤i<n
196 CHAPTER V. PROCESSUS DE LÉVY.
En passant au supremum sur σ ∈ S ([a, t]), on a donc vF (t) + F (t)−F (a) = vF+ (t). De même, vF (t)−F (t) +
F (a) = vF− (t), ce qui prouve (i).
Montrons (ii). Soit σ = {a = s0 < . . . < sn = b}. On observe que
Or (g2 (si+1 )−g2 (si )−(g1 (si+1 )−g1 (si )))+ ≤ g2 (si+1 )−g2 (si ) car g1 (si+1 )−g1 (si ) est une quantité positive et
car y 7→ (y)+ est croissante. Donc V + (σ, F ) ≤ g2 (b)−g2 (a), ce qui implique vF+ ([a, b]) ≤ g2 (b)−g2 (a). L’autre
inégalité se montre de façon similaire.
Comme une fonction à variation bornée est la différence de deux fonctions croissantes, elle n’a que des
discontinuités de première espèce, c’est-à-dire qu’elle admet en tout point une limite à gauche et une limite à
droite. Ses discontinuités forment donc un ensemble dénombrable. Dans la suite nous considérons des fonctions
à variation bornée càdlàg. Plus précisément, soit F : R+ → R, une fonction qui est à variation bornée sur tout
intervalle compact; pour simplifier les notations on pose vF (t) := vF ([0, t]) et vF+/− (t) := vF ([0, t]), t ∈ R+ .
Si on suppose que F est càdlàg, alors on peut montrer qu’il en est de même pour vF et vF+/− et on a
+/−
∆vF (t) = |∆F (t)| et ∆vF (t) = (∆F (t))+/−
et on a donc
X
∀t ∈ R+ , |∆F (s)| ≤ vF (t) où JF := s ∈ R+ : ∆F (s) 6= 0 . (V.28)
s∈JF
P
Si pour tout t ∈ R+ , on pose Fa (t) := s∈JF ∩[0,t] ∆F (s) et Fc (t) := F (t)−Fa (t), alors on vérifie facilement
que Fa et Fc sont à variation bornée, que Fc est continue et que Fa est càdlàg: cette fonction est appelée la
composante des sauts F .
On examine ensuite la variation totale de la trajectoire des processus de Lévy. Pour cela on fixe un espace
de probabilité (Ω, F , P) sur lequel est défini un processus de Lévy réel (Xt )t∈R+ . On note (v, γ, π), son
triplet de Lévy-Khintchine: en dimension 1, v ∈ R, γ ∈ R+ et π est une mesure sur R\{0}, qui satisfait
x2 ) π(dx) < ∞. La loi de X est déterminée par son exposant caractéristique ψ qui est donné par
R
R\{0} min(1,
la formule de Lévy-Khintchine en dimension 1, c’est-à-dire que pour tout t ∈ R+ et tout u ∈ R,
Z
1
E eiu(Xt −X0 ) = etψ(u) ψ(u) = iuv − 2 γu2 + π(dx) eiux −1−iux1{|x|≤1} .
où
R\{0}
Proposition V.3.3 On reprend les notations ci-dessus et on suppose que X est un mouvement Brownien réel.
Alors P-p.s. X est à variation infinie sur tout intervalle, c’est-à-dire que
Preuve: on rappelle d’une part que Xt0 +· − Xt0 est un mouvement Brownien issu de 0. On rappelle égale-
ment la propriété de scaling du mouvement Brownien qui affirme que pour tout réel c > 0, le processus
(c−1 (Xc2 t − X0 ))t∈R+ est un mouvement Brownien issu de 0.P Par ces deux propriétés, il suffit de mon-
trer que P-p.s. vX ([0, 1]) = ∞. Pour cela on pose Vn := 0≤k<2n |X(k+1)2−n − Xk2−n |. Clairement,
Vn ≤ Vn+1 ≤ vB ([0, 1]). On observe ensuite que les variables |X(k+1)2−n − Xk2−n | sont i.i.d. de même loi
que 2−n/2 |X1 |. On pose c = E[|X1 |]; on obtient alors
−n/2 |X1 | 2n 2n
E e−Vn = E e−2 = 1 − 2−n/2 c + O(2−n ) = exp(−c2n/2 + O(1)) .
Si on pose V := supn≥1 Vn , ce qui précède montre que E[e−V ] = limn→∞ E[e−Vn ] = 0 et donc P-p.s. V = ∞,
qui entraîne le résultat voulu.
On montre le théorème suivant décrivant la variation totale des trajectoires des processus de Lévy.
Théorème V.3.4 Soit X, un processus de Lévy réel dont le triplet de Lévy Khintchine est noté (v, γ, π), comme
ci-dessus. Alors, on a l’alternative suivante.
R
(a) Si γ = 0 et si R\{0} min(1, |x|) π(dx) < ∞, alors P-p.s. X est à variation bornée sur tout intervalle
compact et on peut écrire X
P-p.s. ∀t ∈ R+ , Xt = X0 + td + ∆Xs (V.29)
s∈[0,t]
R
où d := v − [−1,1]\{0} xπ(dx).
R
(b) Si γ > 0 ou si R\{0} min(1, |x|) π(dx) = ∞, alors P-p.s. pour tous a, b ∈ R+ , vX ([a, b]) = ∞.
R
Preuve: supposons que γ = 0 et R\{0} min(1, |x|) π(dx) < ∞. Alors la proposition IV.4.9, page 153,
sur la sommabilité des fonctions additives de nuages Poissonniens, implique que P-p.s. pour tout t ∈ R+ ,
P
s∈[0,t] |∆Xs | < ∞ et la composante des petits sauts de X (comme définie au théorème V.2.11, page 193) est
donnée par Z
X
Jt = ∆Xs − t xπ(dx), t ∈ R+ .
s∈[0,t] [−1,1]\{0}
Supposons que γ > 0 et posons Bt = γ −1 Xt −X0 −Yt . Le théorème V.2.11, page 193 implique que que B
est un mouvement Brownien standard. Or on a clairement vB ([0, t)) ≤ vX ([0, t]) + vY ([0, t]) < ∞, ce qui
contredit la proposition V.3.3, page 196. Doncγ = 0. Par contraposée, cela prouve (b).
198 CHAPTER V. PROCESSUS DE LÉVY.
R
Remarque V.3.5 Le théorème précédent est vrai en dimension d: si Γ = 0 et si Rd \{0} min(1, kxk) π(dx) <
∞, alors P-p.s. X est à variation bornée sur tout intervalle compact et (V.29) a lieu. Sinon, P-p.s. X est à
variation infinie sur tout intervalle compact non réduit à un point. La preuve de ce résultat est en tout point
similaire à celle donnée ci-dessus pour la dimension 1.
V.3.b Subordinateurs
Définition V.3.6 (Subordinateurs) Un subordinateur est un processus de Lévy réel croissant. De manière équiv-
alente, un subordinateur est un processus réel càdlàg, à accroissements indépendants, homogènes en loi et
positifs. Il est naturel de choisir R+ comme espace d’états d’un subordinateur.
Soit (Ω, F , P), un espace de probabilité sur lequel est défini (St )t∈R+ , un subordinateur issu de 0. On note
(v, γ, π) son triplet de Lévy-Khintchine. Les accroissements de S étant positifs, ses sauts le sont aussi. Comme
π est la mesure d’intensité du processus ponctuel (∆St )t∈R+ , on en déduit que π est une mesure sur ]0, ∞[ .
La croissance
R de S implique qu’il est à variation bornée et le théorème V.3.4, page 197, montre que γ = 0 et
que ]0,∞[ min(1, x) π(dx) < ∞. De plus (V.29), page 197, permet d’écrire
X Z
∀t ∈ R+ , St = td + ∆Ss où d := v − x π(dx) . (V.30)
s∈[0,t] ]0,1]
• La loi du subordinateur S est caractérisé par sont exposant de Laplace φ : R+ → R+ , qui est donné comme
suit: pour tous t, λ ∈ R+ ,
Z
−λSt −tφ(λ)
où φ(λ) = λd + π(dx) 1 − e−λx .
E e =e (V.31)
]0,∞[
En effet, par (V.30), E e−λSt ] = edtλ E exp − s∈[0,t] λ∆Ss . On rappelle que {(t, ∆St ); t ∈ R+ : ∆St 6= 0}
P
est un nuage Poissonnien sur R2+ d’intensité `⊗π: la formule exponentielle positive pour les nuages de Poisson
implique donc (V.31).
• On a ensuite
St /t −
−−→ d ≥ 0 , la limite ayant lieu en probabilité. (V.32)
t→0+
En effet, notons S([0, t]) l’image de S sur [0, t], c’est-à-dire {Ss ; s ∈ [0, t]}. Soit y ∈ [0, St ]\S([0, t]); posons
Ly := inf{s ∈ [0, t] : Ss > y}. Le fait que y ∈ / S([0, t]) et laScontinuité à droite de S impliquent que SLy − ≤
y < SLy . Cela implique facilement que [0, St ]\S([0, t]) = s∈[0,t] [Ss− , Ss [ . On observe que les intervalles
[Ss− , Ss [ sont disjoints deux-à-deux et non-vide ssi ∆Ss > 0. On a donc par (V.30)
[ X
St −`(S([0, t])) = ` [Ss− , Ss [ = ∆Ss = St − td ,
s∈[0,t] s∈[0,t]
Exemple V.3.8 Soit α ∈]0, 1[ et soit un réel c > 0. Un subordinateur α-stable est un subordinateur dont
l’exposant de Laplace est λ ∈ R+ 7→ cλα . Sa dérive est nulle (d = 0) et la sa mesure de Lévy est donnée par
cα
π(dx) = x−α−1 dx .
Γ(1−α)
où Γ est la fonction Gamma d’Euler. Si S est un subordinateur α-stable issu de 0, il vérifie la propriété de
scaling suivante: pour tout réel strictement positif k: (k −1 Skα t )t∈R+ a même loi que S. La loi de St est
absolument continue par rapport à la mesure de Lebesgue. Sauf lorsque α = 1/2, cette densité ne s’exprime
pas simplement à l’aide des fonctions usuelles, bien qu’il existe plusieurs représentations utiles de cette densité
sous forme de série ou d’intégrale à paramètre.
Cette classe de processus de Lévy réels englobe celle des subordinateurs et contient le mouvement Brownien: ils
ne sont pas nécessairement à variation bornée. Les processus sans saut négatif sont liés également à des modèles
de processus de branchement. Bien qu’ils puissent prendre des valeurs négatives, la proposition montre que
leur transformée de Laplace est finie et qu’elle les caractérisent.
Proposition V.3.10 Soit (Ω, F , P), un espace de probabilité sur lequel est défini (Xt )t∈R+ , un processus de
Lévy sans saut négatif et issu de 0. On note (v, γ, π) son triplet de Lévy-Khintchine. Alors, pour tous t, λ ∈ R+ ,
E[exp(−λXt )] < ∞. Plus précisément, la loi de X est caractérisée par son exposant de Laplace ψ : R+ → R,
fonction continue définie comme suit pour tous t, λ ∈ R+
Z
−λXt tψ(λ)
où ψ(λ) = −λv + 2 γλ + π(dx) e−λx −1 + λx1{x≤1} .
2
1
E e =e (V.34)
]0,∞[
Preuve: on fixe un réel ε > 0 et on note J la composante des petits sauts comme au théorème V.2.11, page 193;
comme dans ce théorème, on note J ε l’approximation de J:
Z
(ε)
X
Jt = ∆Xs 1{ε<∆Xs ≤1} − t x π(dx) .
s∈[0,t] ]ε,1]
La formule exponentielle positive (IV.39) (théorème IV.4.6, page 152) et la remarque IV.4.8 et par la formule
(IV.40), page 153, implique que pour tout λ ∈ R,
(ε)
Z
∀λ ∈ R, E e−λJt = exp t π(dx) e−λx −1 + λx .
]ε,1]
On note ici que λ peut prendre aussi bien des valeurs positives que négatives. On utilise ensuite l’inégalité
suivante valable pour tout z ∈ C et tout x ∈ ]0, 1],
−zx X (x|z|)n+2 1
e −1 + zx ≤ ≤ 2 x2 |z|2 e|z| . (V.35)
(n + 2)(n + 1)n!
n∈N
200 CHAPTER V. PROCESSUS DE LÉVY.
On applique
R cette inégalité comme suit: on fixe λ ∈ R alors pour tout x ∈ ]ε, 1], |e−λx −1 + λx| ≤ 12 x2 λ2 e|λ| .
Puisque ]0,1] x2 π(dx) < ∞, par convergence dominée on a
Z Z
−λx
π(dx) e−λx −1 + λx .
lim π(dx) e −1 + λx = (V.36)
ε→∞ ]ε,1] ]0,1]
Par le théorème V.2.11, page 193, il existe une suite (εp )p∈N décroissant strictement vers 0 telle que P-
(ε )
p.s. limp→∞ Jt p = Jt . Par (V.36) et par Fatou, on a donc montré
Z
E e−λJt ≤ exp t π(dx) e−λx −1 + λx < ∞ .
∀t ∈ R+ , ∀λ ∈ R, (V.37)
]0,1]
En effet |e−zJt | ≤ e−Re(z)Jt et (V.37) montre que F est bien définie. Par unR résultat élémentaire d’analyse
complexe F est analytique sur C. De même, l’inégalité (V.35) et le fait que ]0,1] x2 π(dx) < ∞ impliquent
que Λ est bien définie et analytique sur C. Il en est de même pour z ∈ C 7→ exp(tΛ(z)). La formule de
Lévy-Khintchine appliquée à Jt implique que
Par conséquent les deux fonctions analytiques sur C, F et exp(tΛ(·)) coïncident sur la droite imaginaire pure:
la différence de ces fonctions est donc analytique sur C et s’annule sur un ensemble possédant des points
d’accumulation dans l’intérieur du domaine d’analycité (qui est C); comme ce domaine est connexe, le principe
des zéros isolés implique que cette différence est la fonction nulle, c’est-à-dire que
E e−zJt = etΛ(z) .
∀z ∈ C, ∀t ∈ R+ , (V.38)
Comme dans le théorème V.2.11, page 193, on note ensuite Z la composante continue de X et R sa composante
des grands sauts. Clairement Zt = γBt + tv, où B est un mouvement Brownien réel standard. La transformée
de Fourier Laplace de Z est donc définie sur tout C:
Remarque V.3.11 La preuve du théorème V.3.10 qui précède implique un résultat plus fort qui s’énonce
comme suit. Comme dans le théorème V.2.11, page 193, on note J la composante des petits sauts de X,
V.3. QUELQUES PROPRIÉTÉS; CAS SPÉCIFIQUES. 201
Z sa composante continue et R la composante des grands sauts, qui sont trois processus de Lévy indépendants
dont la somme est X. L’inégalité (V.35), page 199, permet de définir la fonction
Z
∀z ∈ C, ψ (z) := −λz + 2 γz + π(dx) e−zx −1 + zx .
∗ 2
1
]0,1]
On pose ensuite H := {z ∈ C : Re(z) > 0} et H := {z ∈ C : Re(z) ≥ 0}. Pour tout z ∈ H et tout réel x > 1, on a
|e−zx − 1| ≤ 2. Comme π( ]1, ∞[ ) < ∞, on en déduit que
Z
π(dx) e−zx −1 est bien définie et analytique sur H.
z ∈ H 7−→ φ(z) := (V.42)
]1,∞[
On montre facilement que pour tout z ∈ H, E[exp(−zRt )] = exp(tφ(z)). Cela montre les résultats suivants.
• L’exposant de Laplace ψ de X défini au théorème V.3.10 s’étend à H par
Z
∀z ∈ H, ψ(z) = ψ (z) + φ(z) := −λz + 2 γz + π(dx) e−zx −1 + zx1{x≤1} .
∗ 2
1
]0,∞[
(c) L ⊂ P(E) est une classe monotone si elle vérifie les conditions suivantes.
• E ∈ L;
• Si A, B ∈ L sont tels que A ⊂ B, alors B\A ∈ L ;
• Si An ∈ L , n ∈ N, sont tels que An ⊂ An+1 , alors An ∈ L .
S
n∈N
(d) T ⊂ P(E) est une topologie si elle vérifie les conditions suivantes.
• E ∈ T et ∅ ∈ T .
• Si U, V ∈ T , alors U ∩ V ∈ T .
• Soit Ui ∈ T , i ∈ I, une famille quelconque d’ensembles de T . Alors, Ui ∈ T .
S
i∈I
Les ensembles constituant une topologie sont appelés les ouverts de cette topologie et un ensemble dont le complémentaire est un
ouvert est appelé fermé.
Exemple A.1.2 La topologie usuelle de R est décrite comme suit: un ouvert de R est une réunion dénombrable d’intervalles ouverts
deux-à-deux disjoints.
Lemme A.1.3 Soit (Ei , i ∈ I), une famille de tribus de E (resp. de classes monotone, de topologies). Alors,
\
Ei = {A ⊂ E : ∀i ∈ I , A ∈ Ei }
i∈I
203
204 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
Alors, σ(R) (resp. λ(R), τ (R)) est une tribu (resp. classe monotone, topologie): c’est la tribu (resp. classe monotone, topologie)
engendrée par R. C’est la plus petite tribu (resp. classe monotone, topologie) contenant R.
Définition A.1.5 Soit E muni d’une topologie T . La classe des boréliens associée à la topologie la tribu σ(T ). Lorsqu’il n’y a pas
ambiguïté sur la topologie considérée, on note souvent cette tribu B(E).
Remarque A.1.6 Si E est un ensemble non-vide, un théorème bien connu de Cantor montre que Card (E) < Card (P(E)), c’est-
à-dire qu’il n’existe pas de surjection de E sur P(E). On pourrait s’attendre à ce que B(R) et P(R) soient de même cardinal or ce
n’est pas le cas: on peut en effet montrer, par des arguments de récurrence transfinie, que Card (R) = Card (B(R)), c’est-à-dire qu’il
existe une bijection de R sur B(R). D’un point de vue ensembliste, cela signifie qu’il y a peu de Boréliens. Cela montre aussi qu’il
existe beaucoup de sous-ensembles de R qui ne sont pas des Boréliens. Il n’est cependant pas évident d’en exhiber par des méthodes
naïves.
Définition A.1.7 (Topologie relative, tribu trace) Soit E un ensemble non-vide muni d’une topologie T et d’une tribu E . Soit A ⊂ E
un ensemble non-vide (A n’est ni nécessairement dans T ni dans E ).
(a) On pose TA = {O ∩ A ; O ∈ T }. On remarque facilement que TA est une topologie sur A: on l’appelle la topologie relative
de T sur A.
(b) On pose EA := B ∩ A ; B ∈ E }. On remarque facilement que EA est une tribu sur A: on l’appelle la tribu trace de E sur A.
Dans le cas des tribus Boréliennes, ces notions sont cohérentes, comme le démontre le lemme suivant.
Lemme A.1.8 Soit (E, T ) un espace topologique. Soit A ⊂ E. Alors, la tribu des Boréliens sur A associée à la topologie relative
de T sur A est la tribu trace sur A des Boréliens associée à T , c’est-à-dire
σ(TA ) = B ∩ A ; B ∈ σ(T ) .
Preuve: on pose G = {A ∩ B; B ∈ σ(T )} qui est la tribu trace sur A des Boréliens associés à T . Elle contient TA , on a donc
σ(TA ) ⊂ G .
On pose ensuite H = {B ∈ σ(T ) : A ∩ B ∈ σ(TA )}. Il est facile de montrer que H est une tribu sur E. Par ailleurs elle
contient T , ce qui entraîne que σ(T ) ⊂ H . Or par définition H ⊂ σ(T ), donc H = σ(T ). Par conséquent G ⊂ σ(TA ), ce qui
termine la preuve.
Le lemme précédent permet de parler sans ambiguïté des Boréliens de [0, 1[ ou des Boréliens d’un ouvert de Rn .
Lemme A.1.9 Soit E un ensemble non-vide et L une classe monotone sur E. Alors, L est une tribu ssi L est stable par intersection
finie.
Preuve: supposons que L soit une classe monotone stable par intersection finie. Par définition, E ∈ L . Puisque L est stable par
différence propre, L est stable par passage au complémentaire. Soient A, B ∈ L . Puisque A ∪ B = E\ ((E\A) ∩ (E\B)) et
puisque L est stable par intersection finie, on a A ∪ B ∈ L . Par conséquent, L est stable par union finie.
Soient Bn ∈ L , n ∈ N, une suite quelconque d’éléments de L . On pose An = 0≤p≤n Bp : on a donc A Sn ∈ L , d’après le
S
raisonnement précédent. On remarque que A n ⊂ An+1 . comme L est stable par union dénombrable croissante, n∈N An ∈ L . Or
n∈N Bn = n∈N An . Cela montre que L est stable par union dénombrable: c’est donc une tribu. La réciproque est triviale.
S S
Théorème A.1.10 (Classe monotone) Soit E, un ensemble non-vide. Soit L , une classe monotone sur E. Soit P, un pi-système sur
E. On suppose que P ⊂ L . Alors σ(P) ⊂ L .
A.1. RAPPELS SUR LA MESURABILITÉ. 205
Preuve: pour démontrer le théorème, il suffit de démontrer que λ(P) est une tribu: en effet, par définition de la classe monotone
engendrée, on a P ⊂ λ(P) ⊂ L et si λ(P) est une tribu, on obtient σ(P) ⊂ λ(P). D’après le lemme précédent, il suffit donc de
montrer que λ(P) est stable par intersection finie.
La preuve de cette dernière assertion se fait en plusieurs étapes: pour tout A ⊂ E, on pose tout d’abord LA = {B ⊂ E : A∩B ∈
λ(P)}. On vérifie facilement l’implication suivante:
Comme P est un pi-système et comme P ⊂ λ(P) (par définition), pour tout A ∈ P, on a P ⊂ LA ; on déduit de (A.1) que
λ(P) ⊂ LA car λ(P) est la plus petite classe monotone contenant P. On a donc montré:
∀A ∈ P , ∀B ∈ λ(P) , A ∩ B ∈ λ(P) .
Par conséquent P ⊂ LB pour tout B dans λ(P) et donc λ(P) ⊂ LB , pour tout B ∈ λ(P). Autrement dit, pour tous B, C ∈ λ(P),
B ∩ C ∈ λ(P), ce qui montre que λ(P) est stable par intersection finie et ce qui termine la preuve du théorème.
Nous supposons le lecteur familier avec la notion de mesure positive et nous rappelons le théorème suivant, conséquence du
théorème de classe monotone.
Théorème A.1.11 (Unicité de prolongement des mesures) Soit (E, E ), un espace mesurable. Soit P, un pi-système engendrant E .
Soient µ1 et µ2 , deux mesures sur (E, E ) qui coincident sur P:
∀A ∈ P, µ1 (A) = µ2 (A) .
Preuve: on prouve d’abord (i). On pose L = {B ∈ E : µ1 (B) = µ2 (B)}. Par hypothèse, on a P ⊂ L . Montrons ensuite que L
est une classe monotone: on voit tout d’abord que E ∈ L . Soient B, C ∈ L tels que B ⊂ C. Comme µ1 et µ2 sont supposées finies,
on a
µ1 (C\B) = µ1 (C) − µ1 (B) = µ2 (C) − µ2 (B) = µ2 (C\B),
qui entraîne bien que C\B ∈ L . Soit Bn ∈ L , n ∈ N, une suite d’ensembles tels que Bn ⊂ Bn+1 . Par les propriétés élémentaires de
mesures positives, [ [
µ1 Bn = lim µ1 (Bn ) = lim µ2 (Bn ) = µ2 Bn ,
n→∞ n→∞
n∈N n∈N
ce qui montre que Bn ∈ L . La classe L est donc une classe monotone et le théorème A.1.10 de la classe monotone entraîne que
S
E = σ(P) ⊂ L ⊂ E . Donc L = E , qui prouve (i).
Montrons (ii): pour tout i ∈ {1, 2}, on pose µi,n (B) = µi (B ∩En ), B ∈ E . Clairement, µi,n est une mesure. Comme En ∈ P,
µ1,n et µ2,n coincident sur P et par le point (i) elles sont égales. Soit B ∈ E . On a B ∩ En ⊂ B ∩ En+1 , et que B ∩ En = B.
S
Clairement on a
µ1 (B) = lim µ1 (B ∩ En ) = lim µ1,n (B) = lim µ2,n (B) = lim µ2 (B ∩ En ) = µ2 (B) ,
n→∞ n→∞ n→∞ n→∞
(a) On poseP = {A × B
; A ∈ E1 , B ∈ E2 }, appelée classe des rectangles mesurables de E1 × E2 . C’est un pi-système car
A × B ∩ A0 × B 0 = A ∩ A0 × B ∩ B 0 .
(b) On note ensuite E1 ⊗ E2 la tribu engendrée par P sur E1 × E2 : E1 ⊗ E2 := σ(P). La tribu E1 ⊗ E2 est appelée tribu produit
de E1 et E2 .
206 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
Comme π1−1 (A) = A × E2 ∈ E1 ⊗ E2 , la première projection canonique π1 est (E1 ⊗ E2 , E1 )-mesurable. De même, π2 est
(E1 ⊗ E2 , E2 )-mesurable. Il est facile de montrer également que E1 ⊗ E2 est la plus petite tribu sur E1 × E2 rendant mesurables π1 et
π2 , c’est-à-dire, selon la définition A.1.21 page 208,
E1 ⊗ E2 = σ(π1 , π2 )
Soit (E, d), un espace métrique. On note Bd (x, r) = {y ∈ E : d(x, y) < r} la boule ouverte de centre x ∈ E et de
rayon r ∈ R+ . On vérifie que la topologie Td sur E correspondant à la convergence des suites et à la continuité des fonctions
pour la distance d, c’est-à-dire la topologie associée à la distance d, est la topologie engendrée par la classe des boules ouvertes:
Td = τ Bd (x, r); x ∈ E, r ∈ R+ } . Il est facile de voir que
Td = U ⊂ E : ∀x ∈ U , ∃r > 0 : Bd (x, r) ⊂ U .
(A.2)
Attention, en général, la tribu des Boréliens associée à Td n’est pas nécessairement la tribu engendrée par les boules ouvertes de
(E, d): cela vient du fait qu’une topologie est stable par union quelconque, alors qu’une tribu n’est stable que par union dénombrable.
Cependant c’est le cas lorsque l’espace est séparable comme le montre le lemme suivant.
Lemme A.1.13 Soit (E, d), un espace métrique séparable, c’est-à-dire admettant une suite xn ∈ E, n ∈ N, qui est dense. On note Td ,
la topologie métrique de (E, d) et B(E) = σ(Td ), la tribu Borélienne correspondante. On pose
R = Bd (xn , q) ; n ∈ N, q ∈ Q+ .
ouvert U ∈ Td , il existe une suite de boules Bn ∈ R, n ∈ N, telle que U = n∈N Bn . Cela implique Td = τ R et
S
Alors, pour tout
B(E) = σ R .
Preuve: comme les boules ouvertes sont des ouverts, on a τ (R) ⊂ Td et σ(R) ⊂ B(E). Soit U un ouvert. Pour tout x ∈ U , il existe
∗
rx > 0 tel que Bd (x, rx ) ⊂ U . Comme la suite (xn )n∈N est dense, il existe n(x)
S ∈ N et qx ∈ Q+ tel que d(x, xn(x) ) < qx ≤ rx /2, ce
qui implique que x ∈ Bd (xn(x) , qx ) ⊂ Bd (x, rx ) ⊂ U . On en déduit que U = x∈U Bd (xn(x) , qx ). Comme {xn ; n ∈ N} et Q sont
dénombrables, cela montre que U est une union dénombrable d’éléments de R. Cela implique que Td ⊂ τ (R) et B(E) ⊂ σ(R), ce
qui permet de conclure.
Proposition A.1.15 Soient (E, d) et (E 0 , d0 ), deux espaces métriques dont les tribus Boréliennes sont notées resp. B(E) et B(E 0 ).
On munit E×E 0 de la topologie produit TE×E 0 et on note B(E×E 0 ) la tribu Borélienne correspondante. Pour tous (x1 , y1 ), (x2 , y2 ) ∈
E × E 0 , on pose
D((x1 , y1 ), (x2 , y2 )) = max(d(x1 , x2 ), d0 (y1 , y2 )) .
Les assertions suivantes sont vérifiées.
(i) D est une distance sur E × E 0 , telle que TE×E 0 = TD . Si de plus, E et E 0 sont séparables, alors (E × E 0 , D) est séparable.
(ii) Si E et E 0 sont séparables, alors
B(E × E 0 ) = B(E) ⊗ B(E 0 ) .
Preuve: il est facile de vérifier que D est une distance sur E × E 0 et que BD ((x, y), r) = Bd (x, r) × Bd0 (y, r), qui est un produit
d’ouverts. Cela implique que TD ⊂ TE×E 0 . Soient U ∈ Td et U 0 ∈ Td0 . Pour tout (x, y) ∈ U × U 0 , il existe r, r0 > 0 tels que
Bd (x, r) ⊂ U et Bd0 (y, r0 ) ⊂ U 0 , donc
Par (A.2) appliqué à D, cela montre que U × U 0 ∈ TD et donc que TE×E 0 ⊂ TD . On a donc montré que TD = TE×E 0 .
Supposons E et E 0 séparables: il existe xn ∈ E, yn ∈ E 0 , n ∈ N, des suites denses. Alors, on vérifie facilement que (xp , yq ) ∈
E × E 0 , p, q ∈ N, est une famille dénombrable de points qui est dense pour D: donc (E × E 0 , D) est séparable. Cela montre (i).
Montrons (ii): on pose R := BD ((xm , yn ), q) ; m, n ∈ N, q ∈ Q∗+ . La forme des boules pour D implique que R ⊂
B(E) ⊗ B(E 0 ). Soit V , un ouvert pour la topologie produit sur E × E 0 . Par (i), V ∈ TD et le lemme A.1.13 appliqué à D implique
A.1. RAPPELS SUR LA MESURABILITÉ. 207
qu’il existe une suite Bn ∈ R, n ∈ N, telle que V = n∈N Bn . Cela entraîne que la topologie produit est incluse dans B(E)⊗B(E 0 )
S
et donc que B(E × E 0 ) ⊂ B(E) ⊗ B(E 0 ).
E = A × E 0 ; A ∈ B(E) . Il est facile de vérifier que c’est une tribu sur
Montrons l’inclusion contraire. Pour cela posons,
E×E 0 et qu’elle est engendrée par U ×E 0 ; U ∈ Td , qui est un ensemble d’ouverts produits. Cela implique que E ⊂ B(E×E 0 ). En
raisonnant de même en l’autre coordonnée, on montre que pour tout A ∈ B(E) et tout B ∈ B(E 0 ), on a A×E 0 et E×B ∈ B(E×E 0 ).
Par conséquent, (A × E 0 ) ∩ (E × B) = A × B ∈ B(E × E 0 ). Cela entraîne donc que B(E) ⊗ B(E 0 ) ⊂ B(E × E 0 ), ce qui permet
de conclure.
Si E et E 0 sont deux R-espaces vectoriels normés, de normes respectives k · k et k · k0 , pour tout (x, y) ∈ E × E 0 on pose
k(x, y)k00 = max(kxk, kyk0 ). On vérifie que k · k00 est une norme sur le R-espace vectoriel E × E 0 et que le produit de la k · k-
topologie avec la k · k0 -topologie est la k · k00 -topologie sur E × E 0 .
Comme il n’existe qu’une seule topologie de norme sur les espaces de dimension finie, si E et E 0 sont des R-espaces vectoriels de
dimension finie, alors la topologie de norme sur E × E 0 est le produit des topologies de norme sur E et E 0 . Ces faits combinés avec la
proposition précédente entraînent le corollaire suivant.
Définition A.1.17 (Fonctions étagées) Soit (E, E ), un espace mesurable. Une fonction étagée est une combinaison linéaire de
fonctions indicatrices d’ensembles dans E . Autrement dit s : E → R est étagée si s = 1≤k≤n ck 1Ak , où c1 , . . . , cn ∈ R et
P
A1 , . . . , An ∈ E .
Proposition A.1.18 Soit f : E → [0, ∞], une fonction E -mesurable. Il existe sn : E → R+ , n ∈ N, une suite de fonctions étagées
E -mesurables positives telles que
Comme conséquence de la proposition précédente, nous démontrons le lemme suivant qui s’avère être d’un usage très pratique.
Lemme A.1.19 Soit (E, E ), unPespace mesurable. Soit f : E → [0, ∞], une fonction E -mesurable. Alors, il existe Bn ∈ E et
cn ∈ R+ , n ∈ N, tels que f = n∈N cn 1Bn .
Preuve: on considère la suite de fonctions étagées sn , n ∈ N, donnée comme précédemment. On pose t0 = s0 et tn = sn − sn−1 ,
pour tout n ∈ N∗ . Les fonctions tn sont étagées positives:
P elles sont donc combinaison linéaire à coefficients positifs de fonctions
indicatrices d’ensembles mesurables. De plus on a f = n∈N tn , ce qui permet de conclure.
Version fonctionnelle de la classe monotone. Une première application de cette approximation est donnée par la version
fonctionnelle du théorème de la classe monotone.
Théorème A.1.20 (Classe monotone, version fonctionnelle) Soit (E, E ), un espace mesurable. Soit P, un pi-système sur E tel que
σ(P) = E . Soit H , un ensemble d’applications de E dans R. On suppose que l’ensemble de fonctions H satisfait les propriétés
suivantes.
Preuve: on pose L = {B ⊂ E : 1B ∈ H }. Les propriétés (a), (b) et (c) permettent facilement de vérifier que L est une classe
monotone contenant P. Le théorème de la classe monotone A.1.10 (page 204) implique que E = σ(P) ⊂ L . Donc pour tout
B ∈ E , 1B ∈ H .
P f : E → [0, M ], une fonction E -mesurable.
Soit P Le lemme A.1.19 implique qu’il existe cn ∈ R+ et Bn ∈ E , n ∈ N, tels que
f = n∈N cn 1Bn . Pour tout n ∈ N, on pose fn = 0≤k≤n ck 1Bk . Comme H est un espace vectoriel, fn ∈ H , pour tout n ∈ N.
De plus on a 0 ≤ fn ≤ fn+1 ≤ M . Donc f = supn∈N fn ∈ H , par (c). L’espace vectoriel H contient donc toutes les fonctions
E -mesurables positives bornées. Si f : E → R est E -mesurable bornée, alors que qui précède montre que f+ , f− ∈ H et puisque H
est un espace vectoriel f = f+ − f− est dans H .
Définition A.1.21 Soit E, un ensemble; soit (Ei , Ei ), i ∈ I, une famille d’espaces mesurables; soient fi : E → Ei , i ∈ I, des
fonctions. On pose \
E ⊂ P(E) : E tribu : ∀i ∈ I, fi est (E , Ei )-mesurable .
σ(fi , i ∈ I) =
La tribu σ(fi , i ∈ I) sur E est appelée la tribu engendrée par les fonctions (fi )i∈I . C’est la plus petite tribu sur E rendant mesurables
toutes les fonctions fi . La tribu σ(fi , i ∈ I) dépend des tribus Ei , i ∈ I, bien que cela n’apparaisse pas dans la notation.
Lemme A.1.22 Soit E, un ensemble non-vide. Soit (E 0 , E 0 ), un espace mesurable. Soit une fonction f : E → E 0 . Alors,
σ(f ) = f −1 (B) ; B ∈ E 0 .
(A.4)
Preuve: exercice.
Montrons le théorème suivant qui trouve quelques applications en probabilité.
Théorème A.1.23 (Représentation) Soit E, un ensemble. Soit (E 0 , E 0 ), un espace mesurable. Soit f : E → E 0 . On considère
h : E → R. Alors, h est σ(f )-mesurable ssi il existe une fonction ϕ : E 0 → R qui soit E 0 -mesurable et telle que h = ϕ ◦ f .
Preuve: on supposeP d’abord que h est σ(f )-mesurable à valeurs dans R+ . Par le lemme A.1.19, il existe cn ∈ R+ et Bn P∈ σ(f ), n ∈
N, tels que h = n∈N cn 1Bn . Par le lemme A.1.22, il existe An ∈ E 0 tel que Bn = f −1 (An ). On pose alors ϕ∗ = n∈N cn 1An .
Il est clair que ϕ∗ : E 0 → [0, ∞] est E 0 -mesurable et on vérifie que h = ϕ∗ ◦ f . Comme h(x) < ∞, pour tout x ∈ E, on peut poser
ϕ = ϕ∗ 1ϕ−1 ([0,∞[ ) , avec la convention 0 × ∞ = 0. On voit alors que ϕ : E 0 → R+ est E 0 -mesurable et telle que h = ϕ ◦ f , ce qui
∗
prouve l’implication directe du théorème dans le cas des fonctions positives. Le cas d’une fonction h réelle s’obtient simplement en
considérant les parties positives et négatives de h. La réciproque du théorème est élémentaire: nous laissons sa preuve au lecteur.
(a) On note
Nµ = A ⊂ E : ∃B ∈ E tel que A ⊂ B et µ(B) = 0 .
L’ensemble Nµ est appelé classe des ensembles µ-négligeables. On remarque qu’un ensemble µ-négligeable n’est pas néces-
sairement dans la tribu E .
Proposition A.2.2 Soit (E, E , µ), un espace mesuré. Alors, Nµ est stable par union dénombrable.
Théorème A.2.3 (Complétion d’un espace mesuré) Soit (E, E , µ), un espace mesuré. On note Nµ l’ensemble des µ-négligeables
de E et on pose
E µ = σ(E , Nµ ) .
Les assertions suivantes sont vraies.
F montre que F ⊂ E µ . Pour montrer le point (i), il suffit donc de montrer que F est une tribu. Clairement E ∈ F . Vérifions ensuite
S Bn ∈ F ,S
la stabilité par union dénombrable: soient n ∈ N. Il existe An ∈ E , n ∈ N, tels que An ⊂ Bn et Nn := SBn \An ∈ Nµ . Pour
simplifier les notations on pose A = An et B = Bn . On a donc A ∈ E , A ⊂ B, et on remarque que B\A ⊂ n∈N Nn ∈ Nµ , par
la proposition A.2.2. Donc B\A ∈ Nµ , ce qui montre que B ∈ F . Montrons ensuite la stabilité par passage au complémentaire: on se
donne B ∈ F . Il existe donc A ∈ E tel que A ⊂ B et N := B\A ∈ Nµ . On a donc B = A ∪ N . Par définition des µ-négligeables, il
existe N0 ∈ E tel que N ⊂ N0 et µ(N0 ) = 0. On remarque alors que:
Comme (E\N0 ) ∩ (E\A) ∈ E et N0 ∩ (E\A) ∩ (E\N ) ∈ Nµ , on a E\B ∈ F . La classe d’ensembles F est donc bien une tribu, ce
qui montre le point (i) du théorème.
Montrons le point (ii): pour tout B de la forme A ∪ N , où A ∈ E et N ∈ Nµ , il est naturel de poser µ(B) = µ(A). Il faut tout
d’abord vérifier que cela est cohérent, c’est-à-dire que cela ne dépend pas du choix de A et de N : supposons que B = A0 ∪ N 0 , avec
A0 ∈ E et N 0 ∈ Nµ . On pose A00 = A ∩ A0 . Alors
A\A00 ⊂ N ∪ N 0 et A0 \A00 ⊂ N ∪ N 0 .
Or N ∪ N 0 est un µ-négligeable. Il existe donc N0 ∈ E tel que N ∪ N 0 ⊂ N0 et µ(N0 ) = 0 et comme A\A00 et A0 \A00 sont contenus
dans N0 (et appartiennent à E ), on a µ(A\A00 ) = µ(A0 \A00 ) = 0. Or
Le théorème suivant discute des liens entre les fonctions E -mesurables et les fonctions E µ -mesurables ainsi que de leurs intégrales
éventuelles contre respectivement µ et µ.
Théorème A.2.4 Soit (E, E , µ), un espace mesuré. Soit (E, E µ , µ), son complété. Alors les assertions suivantes sont vraies.
(ii) Soit h : E → [0, ∞], une application E µ -mesurable. Il existe h1 , h2 : E → [0, ∞], deux applications E -mesurables telles que
h1 ≤ h ≤ h2 et telles que Z Z Z
h1 dµ = h dµ = h2 dµ et µ({h1 < h2 }) = 0 .
E E E
µ({h1 < h2 }) = 0. De plus, h est µ-intégrable ssi h1 et (ou) h2 sont µ-intégrables, et dans ce cas on a
Z Z Z
h1 dµ = h dµ = h2 dµ . (A.6)
E E E
Preuve: montrons (i). Pour cela on se donne B ∈ E . On sait qu’il existe A ∈ E et N ∈ Nµ tels que A ∪ N = B. Comme N
µ
est µ-négligeable, il existe N0 ∈ E tel que N ⊂ N0 et µ(N0 ) = 0. On pose alors A1 = A et A2 = A ∪ N0 qui satisfont bien les
propriétés désirées.
Montrons (ii): le lemme A.1.19 page 207, implique qu’il existe cn ∈ R+ , Bn ∈ E µ , n ∈ N tels que h = n∈N cn 1Bn . Le point
P
(i) implique qu’il existe An , An ∈ E tels que An ⊂ B ⊂ An , µ(An ) = µ(Bn ) = µ(An ) etS
1 2 1 2 1 2 2 1
µ(An \A2 ) = 0. Pour i = 1 et 2, on pose
hi = n∈N cn 1Ain , qui est E -mesurable. On a bien h1 ≤ h ≤ h2 . De plus {h1 < h2 } ⊂ n∈N A2n \A1n , donc µ({h1 < h2 }) = 0.
P
Pour i = 1 et 2, la proposition ?? implique E hi dµ = n∈N cn µ(Ain ) = n∈N cn µ(Bn ) = E hdµ, ce qui montre le point (ii). Le
R P P R
point (iii) se déduit facilement en appliquant (ii) à la partie positive et négative de la fonction h : E → R.
Corollaire A.2.5 Soit (E, E , µ), une espace mesuré. Soit (E, E µ , µ), son complété. Soit h : E → I, une application E µ -mesurable,
où I désigne R ou C. Alors, il existe deux fonctions h∗ , g : E → I telles que h = h∗ + g, avec h∗ E -mesurable et g nulle µ-p.p. et
donc E µ -mesurable. R
R si ∗l’intégrale E h dµ
De plus, R est bien définie (soit que h soit positive, soit que h soit µ-intégrable), alors il en est de même pour
l’intégrale E h dµ et on a bien E h dµ = E h∗ dµ.
R
Preuve: lorsque I = R, il suffit de prendre h∗ = h1 et g = h − h1 , où h1 est comme dans le théorème A.2.4 (iii). Lorsque I = C,
on se ramène au cas réel en considérant la partie réelle de f et sa partie imaginaire.
Définition A.2.6 Soit (E, E ), un espace mesurable. On note M1 (E) l’ensemble des mesures de probabilités µ : E → [0, 1]. La tribu
des universellement mesurable est définie par \
E uni = Eµ .
µ∈M1 (E)
On a clairement E ⊂ E uni
⊂ E , pour toute mesure µ ∈ M1 (E).
µ
Il est clair que si f : E → R est une fonction E uni -mesurable, alors pour toute mesure µ ∈ M1 (E), l’intégrale
R
E
f dµ est bien définie.
qui est fonction distance à A. On voit facilement que d(·, A) est 1-Lipschitzienne, c’est-à-dire que
Cela implique en particulier que d(·, A) est continue. Il est facile de voir que l’ensemble de ses zéros est l’adhérence de A:
x ∈ E : d(x, A) = 0 = A .
Définition A.3.1 Soit (E, T ), un espace topologique, dont la tribu Borélienne est notée B(E). Soit µ : B(E) → [0, ∞], une mesure
positive.
(a) La mesure µ est dite régulière extérieurement pour les ouverts si pour tout A ∈ B(E)
µ(A) = inf µ(U ) ; A ⊂ U et U ouvert . (A.7)
(b) La mesure µ est dite régulière intérieurement pour les fermés si pour tout A ∈ B(E)
µ(A) = sup µ(F ) ; F ⊂ A et F fermé . (A.8)
(c) La mesure µ est dite régulière intérieurement pour les compacts si pour tout A ∈ B(E)
µ(A) = sup µ(K) ; K ⊂ A et K compact . (A.9)
(d) Une mesure µ : B(E) → [0, ∞] est dite tendue, si pour tout ε > 0, il existe un compact Kε tel que µ(E\Kε ) < ε.
Théorème A.3.2 Soit (E, d), un espace métrique. Soit µ : B(E) → R+ , une mesure finie. Alors, µ est régulière extérieurement pour
les ouverts et intérieurement pour les fermés.
Preuve: on note E la classe des ensembles A ∈ B(E) satisfaisant (A.7) et (A.8). Soit U , un ouvert de E: (A.7) est évidente S pour
A = U . Pour tout n ∈ N, on pose Fn = {x ∈ E : d(x, E\U ) ≥ 2−n }. Alors, Fn est un fermé; on a Fn ⊂ Fn+1 ⊂ U et U = n∈N Fn .
On a donc limn µ(Fn ) = µ(U ), ce qui implique que U ∈ E . Donc E contient les ouverts. Par conséquent, pour prouver le théorème,
il suffit de montrer que E est une tribu.
Il est clair que E ∈ E et, comme µ est finie, E est stable par passage au complémentaire. Soit An ∈ E , n ∈ N. Soit εS> 0. Il existe
−n−1
des ouverts Un et desSfermés Fn tels que Fn ⊂ An ⊂ US n , µ(An \Fn ) < 2 ε et µ(Un \An ) < 2−n−1 ε. On pose U = n∈N Un , qui
est un ouvert et A = n∈N An . On a A ⊂ U et U \A ⊂ n∈N Un \An . Comme µ est sigma sous-additive,
X
µ(U ) = µ(A) + µ(U \A) ≤ µ(A) + µ(Un \An ) ≤ µ(A) + ε .
n∈N
S S
Comme
S S An ) = µ(A) et comme µ est finie, il existe N tel que µ( 0≤n≤N
limN µ( 0≤n≤N S An ) ≥ µ(A) − ε. On pose B =
0≤n≤N An et F = 0≤n≤N F n , qui est un fermé tel que F ⊂ B ⊂ A. Comme B\F ⊂ 0≤n≤N An \Fn , on a
X
µ(A) − ε ≤ µ(B) = µ(F ) + µ(B\F ) ≤ µ(F ) + µ(An \Fn ) ≤ µ(F ) + ε .
0≤n≤N
On a donc montré que pour tout ε > 0, il existe un ouvert U et un fermé F tels que F ⊂ A ⊂ U et µ(U )−ε ≤ µ(A) ≤ µ(F ) + 2ε, ce qui
permet de montrer que A ∈ E . La classe E est donc une tribu contenant les ouverts, ce qui termine la preuve du théorème.
Lorsque l’espace est séparable complet, il est possible d’être plus précis. On montre tout d’abord le résultat suivant, dû à Ulam.
Théorème A.3.3 (Théorème d’Ulam) Soit (E, d), un espace métrique séparable et complet. Soit µ : B(E) → R+ , une mesure finie.
Alors µ est tendue.
On pose alors Kε = p∈N 0≤n≤Np B(xn , 2−p ). Il est clair que c’est un fermé et qu’il est pré-compact: c’est donc un compact. Par
T S
ailleurs, E\Kε = p∈N E \ 0≤n≤Np B(xn , 2−p ) et par sigma sous-additivité de µ, on a µ(E\Kε ) < p∈N ε2−p−1 = ε.
S S P
Théorème A.3.4 Soit (E, d), un espace métrique séparable et complet. Soit µ : B(E) → R+ , une mesure finie. Alors, µ est régulière
intérieurement pour les compacts.
212 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
Preuve: soit A ∈ B(E). Soit ε > 0. Par le théorème A.3.2, il existe un fermé F ⊂ A tel que µ(A\F ) < ε. Par le théorème A.3.3
d’Ulam, il existe Kε ⊂ E, compact tel que µ(E\Kε ) < ε. On pose K = Kε ∩ F , qui est compact tel que K ⊂ F ⊂ A. On remarque
que F \K ⊂ E\Kε et on a
µ(A) = µ(A\F ) + µ(F \K) + µ(K) < ε + µ(E\Kε ) + µ(K) < 2ε + µ(K) ,
ce qui implique le résultat voulu.
On étend ces résultats aux mesures qui ne sont pas finies, avec des restrictions sur l’espace métrique. Tout d’abord deux définitions.
Définition A.3.5 Soit (E, d), un espace métrique et µ : B(E) → [0, ∞], une mesure positive.
(a) La mesure µ est dite de Radon si pour tout compact K ⊂ E, on a µ(K) < ∞.
(b) L’espace (E, d) est dit localement compact si pour tout x ∈ E, il existe r > 0 tel que la boule fermée de centre x et de rayon r
soit compacte.
Preuve: soit xq ∈ E, q ∈ N, une suite dense. On pose S = (q, p) ∈ N2 : B(xq , 2−p ) est compacte . Comme E est localement
compact, pour tout x ∈ E, il existe rx > 0 tel que B(x, rx ) soit compacte. Comme (xq )n∈N est dense, il existe qx , px ∈ N tel
−px
S qx , x) < 2
que d(x < rx /2. On a donc x ∈ B(xqx , 2−px ) ⊂ B(x, r) . Cela montre d’une part que (qx , px ) ∈ S, et comme
E = x∈E B(xqx , 2−px ), on a
[
E= B(xq , 2−p ) . (A.10)
(q,p)∈S
Pour tout n ∈ N, on pose alors Cn = (q,p)∈S:p,q≤n B(xq , 2−p ). C’est un compact, car union finie de compacts. On a clairement
S
S
Cn ⊂ Cn+1 et (A.10) implique que n∈N Cn = E.
On définit les Kn à partir des Cn par récurrence: on pose K0 = C0 . Supposons que Kn soit construit comme dans l’énoncé.
On effectue un recouvrement de Kn ∪ Cn+1 par des boules ouvertes d’adhérence compacte, ce qui est toujours possible car (E, d) est
supposé localement compact. On extrait de ce recouvrement un recouvrement fini B1 ∪ . . . ∪ Bp , ce qui est possible car Kn ∪ Cn+1
est compact; on pose alors Kn+1 = B1 ∪ . . . ∪ Bp , qui vérifie bien Kn ⊂ B1 ∪ . . . ∪ Bp ⊂ K̊n+1 .
On en déduit le théorème suivant.
Théorème A.3.7 Soit (E, d), un espace métrique localement compact séparable. Soit µ : B(E) → [0, ∞], une mesure de Radon.
Alors µ est régulière extérieurement pour les ouverts et intérieurement pour les compacts.
Preuve: on se donne Kn et K̊n comme dans le lemme A.3.6. Soit A ∈ B(E). Montrons la régularité extérieure. Si µ(A) = ∞, alors
µ(A) = µ(E), ce qui montre la régularité extérieure dans ce cas car E est ouvert.
On suppose que µ(A) < ∞. Soit ε > 0. Par le théorème A.3.2 appliqué à µ( · S ∩ K̊n ), il existe un ouvert Un tel que A ∩ K̊n ⊂ Un
et tel que µ(Un ∩ K̊n )−2−n−1 ε ≤ µ(A ∩ K̊n ). On pose Vn = Un ∩ K̊n et V = n∈N Vn . Alors V est un ouvert contenant A et on a
S P
V \A ⊂ n∈N Vn \(A ∩ K̊n ). Par sigma sous-additivité µ(V \A) ≤ n∈N µ(Vn \(A ∩ K̊n )) < ε. Donc µ(V )−ε ≤ µ(A). Comme ε
est arbitrairement petit, on obtient la régularité extérieure.
Montrons la régularité intérieure. On remarque que (Kn , d) est un espace métrique séparable complet et on note µn = µ(· ∩ Kn ),
la mesure trace de µ sur Kn . Soit A ∈ B(E). Le théorème A.3.4 appliqué à µn , montre qu’il existe un compact Cn ⊂ A ∩ Kn tel
que µ(A ∩ Kn ) ≤ 2−n + µ(Cn ). Donc
µ(A ∩ Kn ) − 2−n ≤ µ(Cn ) ≤ µ(A) .
Or limn ↑ µ(A ∩ Kn ) = µ(A), donc µ(A) = limn µ(Cn ), et on conclut.
Il est clair que si A ⊂ B ⊂ E, alors µ(A) ≤ µ(B). Il est également clair qu’une mesure extérieure est sigma sous-additive. Une mesure
extérieure est définie pour tous les sous-ensembles de E. Contrairement à ce que son nom peut suggérer, une mesure extérieure n’est
pas, en général, une mesure positive. Il s’avère en revanche que sa restriction à une certaine classe d’ensembles pour laquelle elle est
additive, est une mesure positive. On rappelle que B\A = B ∩ (E\A) = {x ∈ B : x ∈ / A} et qu’il n’est pas nécessaire de supposer
que B ⊂ A pour utiliser cette notation.
Définition A.4.2 (Ensembles mesurables) Soit E un ensemble non-vide et µ, une mesure extérieure sur E. Un sous-ensemble B ⊂ E
est dit µ-mesurable si
∀X ⊂ E , µ(X) = µ(X ∩ B) + µ(X\B) .
La classe des ensembles µ-mesurables est notée E (µ).
Il est clair que E (µ) est stable par passage au complémentaire, qu’elle contient E et ∅. Par la propriété de sous-additivité de µ, on voit
que
B ∈ E (µ) ⇐⇒ ∀X ⊂ E, µ(X) ≥ µ(X ∩ B) + µ(X\B) . (A.11)
Théorème A.4.3 Soit E, un ensemble non-vide et µ : P(E) → [0, ∞], une mesure extérieure.
(i) E (µ) est une tribu contenant les ensembles N ⊂ E tels que µ(N ) = 0.
Preuve: soit N ⊂ E tel que µ(N ) = 0. Alors pour tout X ⊂ E, on a µ(X ∩ N ) ≤ µ(N ) = 0. Donc µ(X ∩ N ) + µ(X\N ) = µ(X\N ) ≤
µ(X) et (A.11) implique que N ∈ E (µ).
Montrons ensuite que E (µ) est stable par union finie: soient B, C ∈ E (µ) et X ⊂ E. On a donc
µ(X) = µ(X ∩ B) + µ(X\B) = µ(X ∩ B) + µ (X\B) ∩ C + µ X\(B ∪ C)
≥ µ (X ∩ B) ∪ ((X\B) ∩ C) + µ X\(B ∪ C)
≥ µ X ∩ (B ∪ C) + µ X\(B ∪ C)
et (A.11) implique que B ∪ C ∈ E (µ). On remarque ensuite la propriété suivante découlant directement de la définition de E (µ):
Montrons ensuite que E (µ) est stable par union dénombrable: soient Bn ∈ E (µ), n ∈ N. On pose C0 = B0 et Cn =
S S
0≤k≤n Bk \ 0≤k≤n−1 Bk ,
pour tout n ≥ 1. Comme E (µ) est stable par union finie et par passage au complémentaire, elle S
est stable par intersection finie et donc
Cn ∈ E (µ). On observe aussi que les Cn sont disjoints deux-à-deux et que B := n∈N Bn = n∈N Cn . Par une application répétée
S
de (A.12), on a
[ [ [ X
µ(X) = µ X \ Ck + µ X ∩ Ck = µ X \ Ck + µ(X ∩ Ck )
0≤k≤n 0≤k≤n 0≤k≤n 0≤k≤n
X
≥ µ(X\B) + µ(X ∩ Ck ) .
0≤k≤n
P S
Lorsque n → ∞, on a µ(X) ≥ µ(X\B) + n∈N µ(X ∩ Cn ). Or X ∩ B = n∈N X ∩ Cn . Par sigma sous-additivité de µ, on en
déduit que X
µ(X) ≥ µ(X\B) + µ(X ∩ Cn ) ≥ µ(X\B) + µ(X ∩ B) (A.13)
n∈N
et donc B ∈ E (µ) par (A.11). Cela montre que E (µ) est une tribu et cela termine la preuve de (i).
S que µ est sigma-additive sur E (µ): soient Cn ∈ E (µ), n ∈ N, deux-à-deux disjoints. Il suffit alors d’appliquer
Il reste à prouver
(A.13) à X = B = n∈N Cn .
Lemme A.4.4 Soit E, un ensemble non-vide. Soit µ : P(E) → [0, ∞], une mesure extérieure. On note E (µ) la classe des ensembles
µ-mesurables. Soit f : E → [−∞, ∞]. Alors, f est E (µ)-mesurable si elle satisfait
∀ X ⊂ E, ∀ a, b ∈ R tels que a < b, µ(X) ≥ µ X ∩{f ≤ a} + µ X ∩{f ≥ b} . (A.14)
214 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
Preuve: on suppose (A.14). Il faut montrer que {f ≤ x} ∈ E (µ) pour tout x ∈ R. On fixe XS⊂ E tel que µ(X) < ∞ et x ∈ R. Soient
a1 ≤ b1 < a2 ≤ b2 . . . < an ≤ bn . On applique (A.14) à a = bn−1 , b = an et X ∗ = X ∩ 1≤k≤n {f ∈ [ak , bk ]}, pour obtenir
[
= µ(X ∗ ) ≥ µ X ∗ ∩{f ≤ bn−1 } + µ X ∗ ∩{f ≥ an }
µ(X) ≥ µ X ∩ {f ∈ [ak , bk ]}
1≤k≤n
[
= µ X∩ {f ∈ [ak , bk ]} + µ X ∩{f ∈ [an , bn ]}
1≤k≤n−1
X
≥ µ X ∩{f ∈ [ak , bk ]} ,
1≤k≤n
≤ µ(X) + ε ,
par sous-additivité de µ pour la première inégalité, la deuxième et par (A.14) pour la troisième. Comme ε peut être
par (A.15) pour
arbitrairement petit, on a donc µ X ∩{f ≤ x} +µ X ∩{f > x} ≤ µ(X), et cela montre que {f ≤ x} ∈ E (µ) par (A.11). Comme
Extension de Carathéodory. Construction de la mesure de Lebesgue sur R. Cette section se propose, à partir
d’une fonction additive d’ensembles, de construire un prolongement qui est une mesure. Plus précisément, on introduit les définitions
suivantes.
(c) Soit A , une algèbre sur E. Une fonction d’ensemble µ : A → [0, ∞] est dite sigma additive si
[ [ X
∀An ∈ A , n ∈ N, deux-à-deux disjoints et tels que An ∈ A , µ An = µ(An ) .
n∈N n∈N n∈N
An ∈ A dans cette définition car a priori A n’est pas stable par union
S
On remarque qu’il est nécessaire d’imposer n∈N
dénombrable.
(d) Soit AS, une algèbre sur E. Une fonction d’ensemble µ : A → [0, ∞] est dite sigma finie s’il existe En ∈ A , n ∈ N, tels que
E = n∈N En et µ(En ) < ∞, pour tout n ∈ N.
Il est clair que si µ est additive sur une algèbre A , alors µ(∅) = 0 et pour tous A, B ∈ A tels que A ⊂ B, on a µ(A) ≤ µ(B). En
général, une fonction additive d’ensembles n’est pas sigma additive. La proposition suivante donne un critère utile de sigma additivité.
Proposition A.4.6 Soit E, un ensemble non-vide. Soit A , une algèbre sur E. Soit µ : A → R+ , une fonction additive. On suppose
que µ(E) < ∞. Alors, il y a équivalence entre les deux assertions suivantes.
Preuve: montrons d’abord (i) =⇒ (ii). Soit S = An \An+1 , n ∈ N. Les Bn sont des
(An )n∈N comme dans (ii). On pose Bn P
ensembles de A deux-à-deux disjoints tel que p≥n Bp = An ∈ A . Donc µ(An ) = p≥n µ(Bp ), qui est le reste d’une série
convergente car µ(E) < ∞. Donc limn µ(An ) = 0.
Montrons (ii) =⇒ (i): soient Bn ∈ A , n ∈ N, deux-à-deux disjoints tels que B := n∈N Bn ∈ A . On pose An = B\(B0 ∪
S
. . . ∪ Bn ). On voit que les An satisfont les conditions de (ii). Comme µ est finie
X
µ(An ) = µ(B) − µ(B0 ∪ . . . ∪ Bn ) = µ(B) − µ(Bk ) ,
0≤k≤n
P
et (ii) implique que µ(B) = n∈N µ(Bn ), ce qui prouve que µ est sigma additive.
Tout comme les mesures positives, les fonctions sigma additives sont stables par restriction et sommation, comme le montre la
proposition suivante dont la preuve, laissée au lecteur.
(i) Soit µ : A → [0, ∞], une fonction sigma additive. Soit A ∈ A . Alors µ(· ∩ A) : A → [0, ∞] est sigma additive.
(ii) Soient µn : A → [0, ∞], n ∈ N, des fonctions sigma additives. Alors n∈N µn : A → [0, ∞] est sigma additive.
P
La proposition suivante montre l’existence d’une fonction sigma-additive sur les unions finies d’intervalles qui correspond à la
notion intuitive de longueur.
Proposition A.4.8 On note P la classe des intervalles de R et A la classe des unions finies d’intervalles deux-à-deux disjoints. Alors,
les assertions suivantes sont vraies.
(i) P est un pi-système engendrant les Boréliens de R.
(ii) A est une algèbre contenant P, donc σ(A ) = B(R).
(iii) Il existe une fonction long : A → [0, ∞] qui est sigma additive, sigma finie et telle que
∀a, b ∈ R tels que a ≤ b, b − a = long [a, b] = long ]a, b] = long [a, b[ = long ]a, b[ .
Preuve: (i) est un fait élémentaire. Il est clair que P ⊂ A , donc R ∈ A . Il est facile de vérifier que A est stable par union
finie. Comme le complémentaire d’un intervalle est la réunion d’au plus deux intervalles disjoints, A est stable par passage au
complémentaire, ce qui prouve (ii).
Soit I un intervalle d’extrémités a et b, avec a ≤ b. On pose long(I) = b − a. Si I est un intervalle non-borné, on pose
long(I) = ∞.
P longq : A → [0, ∞] qui est sigma-additive telle que pour tout
Supposons que l’on ait montré que pour tout q ∈ Z, il existe
I ∈ P, longq (I) = long(I ∩ [q, q + 1[). On pose alors λ = q∈Z longq . Par la proposition A.4.7, λ : A → [0, ∞] est sigma
additive. Soit I un intervalle borné d’extrémités a, b ∈ R telles que a ≤ b. Alors, I ∩ [q, q + 1[ est vide ou réduit à un point si
b ≤ q ou q + 1 ≤ a; sinon, I ∩ [q, q +1[ est un intervalle d’extrémité gauche q ∨ a et d’extrémité droite (q + 1) ∧ b. Donc
long(I ∩ [q, q + 1[) = (q + 1)∧b − q∨a + . On voit alors que
X X
λ(I) = longq (I) = (q + 1)∧b − q∨a + = b − a
q∈Z q∈Z
et λ satisfait bien les conditions de (iii). Cela montre qu’il suffit de prouver le résultat suivant.
(∗) Soit q ∈ Z; on note Pq les intervalles de [q, q + 1[ et Aq les unions finies d’intervalles de Pq deux-à-deux disjoints. On a
clairement Aq = {A ∩ [q, q + 1[ ; A ∈ A } qui est une algèbre sur [q, q + 1[ . Il existe longq : Aq → R+ , une fonction
sigma-additive telle que longq (I) = long(I) pour tout I ∈ Pq .
Il est facile de vérifier que cette définition est cohérente, c’est-à-dire qu’elle ne dépend pas de la façons dont A s’écrit comme union
finie d’intervalles de Pq disjoints deux -à-deux. Par ailleurs, cette définition implique immédiatement que longq est additive.
216 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
T T
Comme n∈N An = ∅, on également n∈N Cn = ∅. Par compacité, il existe nε ∈ N tel que Cn = ∅, pour tout n ≥ nε . Cela implique
que longq (An ) ≤ ε pour tout n ≥ nε . Cela prouve que limn longq (An ) = 0. La proposition A.4.6 implique que longq : A → R+ est
sigma additive, ce qui prouve (∗) et donc la proposition.
Le théorème suivant, dû à Carathéodory, associe à une fonction sigma additive sur une algèbre, une mesure extérieure qui la
prolonge.
Théorème A.4.9 (Théorème d’extension de Caratheodory) Soit E, un ensemble non-vide. Soit A , une algèbre sur E. Soit µ0 :
A → [0, ∞], supposée sigma additive. Pour tout X ⊂ E, on pose
nX [ o
µ(X) = inf µ0 (An ) ; An ∈ A , n ∈ N : X ⊂ An . (A.17)
n∈N n∈N
Alors, les assertions suivantes sont vérifiées.
(i) µ : P(E) → [0, ∞] est une mesure extérieure.
Preuve: on vérifie immédiatement que µ(∅) = 0 et que pour tous B ⊂ C ⊂ E, on a bien µ(B) ≤ µ(C). OnSfixe ensuite
Bn ⊂ E, n ∈ N. Par définition de µ, pour tout ε > 0, il existe des ensembles An,p ∈ A , n, p ∈ N, tels que Bn ⊂ p∈N An,p et
P −n−1 S S
p∈N µ0 (Ap,n ) ≤ µ(Bn ) + 2 ε, pour tout n ∈ N. On constate donc que n∈N Bn ⊂ p,n∈N Ap,n et donc que
[ X X
µ Bn ≤ µ0 (Ap,n ) ≤ µ(Bn ) + ε
n∈N p,n∈N n∈N
S P
Comme ε peut être arbitrairement petit, on a µ( n∈N Bn ) ≤ n∈N µ(Bn ), ce qui montre que µ une mesure extérieure.
Montrons (ii). On fixe A ∈ S A . La définition de µ implique que µ(A) ≤ µ0 (A). Montrons l’inégalité contraire: on se donne
An ∈ A , n ∈ N, tels que A ⊂ n∈N An . Pour tout n ∈ N, on pose
n
[
Bn = A ∩ Ak , C0 = B0 et Cn+1 = Bn+1 \Bn n∈N.
k=0
Il est clair que Bn , Cn ∈ A , que les Cn sont deux-à-deux disjoints, que Cn ⊂ A ∩ An ⊂ An , et que Cn = A ∈ A . Comme
S
n∈N
µ0 est une pré-mesure, on a donc
X X X
µ0 (A) = µ0 (Cn ) ≤ µ0 (A ∩ An ) ≤ µ0 (An ) .
n∈N n∈N n∈N
Cette inégalité étant vraie pour toute suite An ∈ A , n ∈ N, telle que A ⊂ n∈N An , on en déduit que µ0 (A) ≤ µ(A), ce qui achève la
S
preuve de (ii).
Montrons (iii). Comme E (µ) est une tribu par le théorème A.4.3 (i) page 213, il suffit de montrer que A ⊂ E (µ), c’est-à-dire
qu’il suffit, par (A.11), de montrer que pour tout A ∈ A et tout X ⊂ E, on a µ(X) ≥ µ(X ∩ A) + µ(X\A): si µ(X) = ∞,
A.4. CONSTRUCTIONS DE MESURES. 217
P vrai. Supposons µ(X) < ∞. Pour tout ε > 0, il existe donc Bn ∈ A , n ∈ N, tels que X ⊂
S
c’est trivialement n∈N Bn et
ε + µ(X) ≥ n∈N µ0 (Bn ). On a donc
X X
ε + µ(X) ≥ µ0 (Bn ∩ A) + µ0 (Bn \A) ≥ µ(X ∩ A) + µ(X\A) ,
n∈N n∈N
ce qui entraîne bien le résultat voulu car ε > 0 peut être arbitrairement petit.
Montrons (iv). On fixe X ⊂ E. Si µ(X) = ∞, Salors µ(X) = µ(E) et (iv) est trivialement vérifiée. Supposons que µ(X) < ∞.
Il existe donc Ap,n ∈ A , p,Tn ∈ N, tels que X ⊂ n∈N Ap,n =: Bp et 2−p + µ(X) ≥ n∈N µ0 (Ap,n ) ≥ µ(Bp ). Il est clair que
P
Bp ∈ σ(A ) et donc B := p∈N Bp ∈ σ(A ). De plus, X ⊂ B. Enfin, pour tout p ∈ N, on a B ⊂ Bp et donc µ(B) ≤ µ(Bp ) ≤
µ(X) + 2−p ≤ µ(B) + 2−p , ce qui implique que µ(B) = µ(X).
Le théorème d’extension de Carathéodory et le théorème d’unicité du prolongement des mesures impliquent immédiatement le
corollaire suivant.
Théorème A.4.10 (Théorème d’extension de Carathéodory) Soit E, un ensemble non-vide. Soit A , une algèbre sur E. Soit
µ0 : A → [0, ∞], supposée sigma additive. Alors, il existe une mesure positive µ : σ(A ) → [0, ∞] prolongeant µ0 . De plus, ce
prolongement est unique si µ0 est sigma finie.
Théorème A.4.11 (Existence de la mesure de Lebesgue) Soit I ⊂ R, un intervalle. Si I est borné, on pose long(I) = b − a où a est
l’extrémité gauche de I et b son extrémité droite, et si I est non-borné, on pose long(I) = ∞. On on définit alors ` : P(R) → [0, ∞]
par nX [ o
∀X ⊂ R, `(X) = inf long (In ) ; (In )n∈N intervalles tels que X ⊂ In .
n∈N n∈N
C’est la mesure (extérieure) de Lebesgue sur R. La tribu de ses ensembles mesurables, appelée tribu Lebesguienne, est notée
L (R). Elle contient B(R). La restriction de ` à B(R) est l’unique mesure positive telle que
∀a, b ∈ R tels que a ≤ b, b − a = ` [a, b] = ` ]a, b] = ` [a, b[ = ` ]a, b[ .
Extension, complétion, approximation. Soit (E, E , µ), un espace mesuré. On rappelle que Nµ désigne l’ensemble des
µ-négligeable, que E µ = σ(E , Nµ ) et que (E, E µ , µ) est le complété de (E, E , µ). Soit A , un algèbre sur E. On suppose que
[
σ(A ) = E , ∃En ∈ A , n ∈ N, satisfaisant: µ(En ) < ∞ et En = E . (A.18)
n∈N
Cela implique notamment que µ est sigma finie. Pour tout X ⊂ E, on pose
nX [ o
µ∗ (X) = inf µ(An ) ; An ∈ A , n ∈ N : X ⊂ An . (A.19)
n∈N n∈N
On rappelle que E (µ∗ ) désigne la tribu des ensembles µ∗ -mesurables. Le théorème A.4.3 d’extension de Carathéodory montre que
En effet, le théorème A.4.9 d’extension de Carathéodory (page 216) implique seulement que pour tout A ∈ A , on a µ(A) = µ∗ (A),
mais l’hypothèse (A.18) permet d’appliquer l’unicité du prolongement des mesures.
On rappelle ensuite que la différence symétrique de deux ensembles A, B ⊂ E est définie par
A∆B = A\B ∪ B\A .
Théorème A.4.12 Soit (E, E , µ), un espace mesuré. On suppose µ sigma finie. Soit A , une algèbre sur E satisfaisant (A.18). Soit
µ∗ , la mesure extérieure définie par (A.19). Soit E (µ∗ ), la classe des ensembles µ∗ -mesurables associés. Alors, les assertions suivantes
sont vraies.
(iv) Soit B ∈ E µ tel que µ(B) < ∞. Alors, pour tout ε > 0, il existe A ∈ A , tel que µ(A∆B) < ε.
[ [ 0 X
µ(A0n ) < µ(B) + ε .
µ(B) ≤ µ An = µ An ≤
n∈N n∈N n∈N
S A , on peut supposer que An,p ⊂ En et la famille (An,p )n,p∈N est alors formée
Quitte à remplacer An,p par An,p ∩ En , qui est dans
d’ensembles deux-à-deux disjoints; de plus, B ⊂ n,p∈N An,p et
[ [ [
An,p \B ⊂ An,p \(B ∩ En ) .
n,p∈N n∈N p∈N
−n−1
S P
Donc µ n,p∈N An,p \B < n∈N 2 ε = ε, ce qui entraîne le point (iii) lorsque µ(B) = ∞.
Montrons le point (iv). On fixe B ∈ E µ tel que µ(B) < ∞. Soit ε > 0 et soient des ensembles An ∈ A , n ∈ N qui satisfont les
conditions du point (iii):
[ [
les An sont disjoints deux-à-deux, B ⊂ An et µ An \ B < ε/2 .
n∈N n∈N
S T
On pose Bn = B ∩ (E\ 0≤k≤n Ak ). Il est clair que Bn+1 ⊂ Bn ⊂ S B et n∈N Bn = ∅. Comme µ(B) < ∞, on a limn ↓ µ(Bn ) =
On pose alors A = 0≤k≤n0 Ak , On a clairement A ∈ A , Bn0 = B ∩ (E\A), donc
0. Il existe donc n0 ∈ N tel que µ(Bn0 ) < ε/2.S
µ(B ∩ (E\A)) < ε/2. De plus A ∩ (E\B) ⊂ n∈N An \B et donc µ(A ∩ (E\B) < ε/2, on a donc µ(A∆B) = µ(B ∩ (E\A)) +
µ(A ∩ (E\B) < ε, ce qui termine la preuve de (iv).
Le théorème de Daniell-Stone. Jusqu’ici, nous avons d’abord construit des mesures, puis les intégrales de certaines fonctions
contre ces mesures, comme expliqué dans le premier chapitre. Cette section expose la méthode contraire qui consiste à construire les
mesures à partir des intégrales, vues comme des fonctionnelles additives sur certaines classes de fonctions. Ces classes de fonctions
doivent, bien entendu, satisfaire quelques hypothèses minimales, comme cela est détaillé dans la définition ci-dessous.
A.4. CONSTRUCTIONS DE MESURES. 219
Définition A.4.13 Soit E, un ensemble non-vide. Soit L , un ensemble de fonctions de E dans R. C’est une classe de Stone si les
propriétés suivantes sont vérifiées.
(a) Si f, g ∈ L , alors f + g ∈ L et f ∧ g ∈ L .
(b) Si f ∈ L et si c ∈ R+ , alors cf ∈ L et c ∧ f ∈ L
(c) Si f, g ∈ L sont telles que f ≤ g, alors g−f ∈ L .
Une "intégrale" se définit alors comme une application linéaire sur la classe de fonction L . Plus précisément, on pose la définition
suivante.
Définition A.4.14 Soit E, un ensemble non-vide. Soit L , un ensemble de fonctions de E dans R, qui est classe de Stone. Soit
I : L → R. C’est une integrale de Daniell si les propriétés suivantes sont vérifiées.
(a) Si f, g ∈ L , alors I(f + g) = I(f ) + I(g).
(b) Si f ∈ L et si c ∈ R+ , alors I(cf ) = cI(f ).
(c) Si f, g ∈ L sont telles que f ≤ g, alors I(f ) ≤ I(g).
(d) Si h, hn ∈ L , n ∈ N, sont telles que hn ≤ hn+1 et limn hn = h ponctuellement, alors, limn I(hn ) = I(h).
Soit (E, E , µ), un espace mesuré. On voit que L (E, E , µ) est une classe de Stone et que I(f ) := E f dµ est une intégrale de
1
R
Daniell, le point (d) étant une conséquence du théorème de converge dominée. Le théorème suivant montre qu’il est toujours possible
de représenter ainsi une intégrale de Daniell. On note que dans cet énoncé, l’unicité de la mesure n’est pas garantie en général: cela
dépend de la richesse de la classe de Stone sur laquelle elle est définie.
Théorème A.4.15 (Théorème de Daniell-Stone) Soit E, un ensemble non-vide. Soit L , un ensemble de fonctions de E dans R, qui
est classe de Stone. Soit I : L → R, une integrale de Daniell. On note C la classe de sous-ensembles de E de la forme {f > x}, avec
f ∈ L et x ∈ R+ et on pose E = σ(C ). Alors les assertions suivantes sont vérifiées.
(i) Il existe une mesure positive µ : E → [0, ∞] telle que toute fonction f ∈ L est µ-intégrable et
Z
∀f ∈ L , I(f ) = f dµ . (A.21)
E
(ii) Si ν est une mesure positive satisfaisant aussi (A.21), alors ν(C) = µ(C), pour tout C ∈ C .
(fn )n∈N X
signifie que fn ≤ fn+1 et supn fn ≥ 1X . On remarque que supn fn = limn fn et que cette fonction n’est pas nécessairement dans
L , ni même finie. On constate aussi que (I(fn ))n∈N est une suite croissante, donc limn I(fn ) = supn I(fn ) qui existe dans [0, ∞].
On pose alors
µ(X) = inf lim I(fn ) ; (fn )n∈N X .
n→N
Montrons d’abord que µ : P(E) → [0, ∞] est une mesure extérieure. On constate tout d’abord que la fonction nulle, notée 0 est dans
L et que I(0) = 0. Si on prend fn ≡ 0, on a alors (fn )n∈N ∅ et donc µ(∅) = 0. S
P de µ: soit X, Ap ⊂ E, p ∈ N, tels que X ⊂ p∈N Ap . S’il existe p ∈ N, tel que
Montrons ensuite la sigma sous-additivité
µ(Ap ) = ∞, alors trivialement µ(X) ≤ p∈N µ(Ap ). Supposons que µ(Ap ) < ∞, pour tout p ∈ N. Soit ε > 0. Il existe
(fnp )n∈N Ap tels que limn I(fnp ) ≤ µ(Ap ) + 2−p−1 ε. On pose alors gn = 0≤p≤n fn . Clairement gn ∈ L
P p +
et on vérifie
facilement que (gn )n∈N X. D’autre part, on a
X X X
I(gn ) = I(fnp ) ≤ lim I(fnp ) ≤ ε + µ(Ap ).
n→∞
0≤p≤n p∈N p∈N
P
Donc µ(X) ≤ limn I(gn ) ≤ ε + p∈N µ(Ap ). Comme ε peut être arbitrairement petit, cela montre que µ est bien une mesure
extérieure.
On note E (µ) la classe des ensemble µ-négligeables. On montre ensuite que toute fonction f ∈ L + est E (µ)-mesurable. D’après
le lemme A.4.4, page 213, il suffit de vérifier que pour tout X ⊂ E, et tous a, b ∈ R tels que a < b, on a
µ(X) ≥ µ X ∩{f ≤ a} + µ X ∩{f ≥ b} . (A.22)
220 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
ce qui implique (A.22) en prenant l’infimum sur les (gn )n∈N X. On a donc montré que toute fonction f ∈ L + est E (µ)-mesurable.
Par définition de µ, on a ensuite
∀X ⊂ E, ∀f ∈ L + tel que f ≥ 1X , µ(X) ≤ I(f ) . (A.23)
On montre aussi le résultat suivant.
∀X ⊂ E, ∀f ∈ L + tel que f ≤ 1X , I(f ) ≤ µ(X) . (A.24)
En effet, soit (gn )n∈N X. On pose fn = f ∧ gn . On a donc fn ≤ fn+1 et puisque f ≤ 1X , on a limn fn = f . Donc
limn I(fn ) = I(f ), car I est une intégrale de Daniell. Or gn ≥ fn , donc I(gn ) ≥ I(fn ). Par conséquent, I(f ) ≤ limn I(gn ), ce qui
entraîne (A.24) en prenant l’infimum sur (gn )n∈N X.
Montrons ensuite que pour toute f ∈ L + , on a I(f ) = E f dµ, l’intégrale ayant bien un sens car on a montré que f est E (µ)-
R
mesurable et que la restriction de µ à E (µ) est une mesure positive par le théorème A.4.3, page 213.
Pour cela, on fixef ∈ L + et pour tout r ∈ R+ , on pose fr = r ∧ f ∈ L + . On fixe ε > 0 et pour tout n ∈ N, on remarque que
ε1{f ≥nε} ≥ f(n+1)ε−fnε = ε∧(f−nε)+ ≥ ε1{f ≥(n+1)ε} . Par le point (c) de la définition d’une classe de Stone, f(n+1)ε−fnε ∈ L +
et donc, par (A.23) et (A.24)
εµ {f ≥ nε} ≥ I f(n+1)ε −fnε ≥ εµ {f ≥ (n + 1)ε} .
Par ailleurs, on a également
Z
εµ {f ≥ nε} ≥ f(n+1)ε −f(n+1)ε dµ ≥ εµ {f ≥ (n + 1)ε} .
E
La première égalité montre que hn ∈ L + . De plus limn hn = 1{f >x} . Enfin, 1{f >x+2−n } ≤ hn ≤ 1{f >x} . Par convergence
monotone limn µ({f > x + 2−n }) = µ({f > x}). Ceci combiné avec l’inégalité précédente et le fait que I(hn ) = E hn dµ,
R
Le théorème de Riesz pour les formes linéaires positives. Rappelons tout d’abord quelques résultats élémentaires
sur les espaces métriques séparables et localement compacts. Soit (E, d), un tel espace. On note Cc (E), le R-espace vectoriel des
fonctions continues à support compact que l’on munit de la norme du supremum notée k·k∞ .
Lemme A.4.16 Soit (E, d), un espace métrique séparable localement compact. Soit K ⊂ E, un compact. Il existe gK ∈ Cc (E) telle
que 1K ≤ gK ≤ 1.
Preuve:
S on rappelleS le lemme A.3.6, page 212, qui affirme l’existence d’une suite de compacts (Kn )n∈N , tels que Kn ⊂ K̊n+1 et
E = n∈N K̊n = n∈N Kn . Cela montre en particulier que K est recouvert par les ouverts K̊n ; comme K est compact on en extrait
un recouvrement fini, c’est-à-dire qu’il existe n0 tel que K ⊂ K̊n0 . On pose F = E\K̊n0 , qui est fermé. La fonction continue d(x, F )
atteint son minimum r sur le compact K en x0 ∈ K et r = d(x0 , K) = dist(K, F ). Or si r = 0, alors x0 ∈ F , ce qui est impossible
car K ∩ F = ∅. Donc r = dist(K, F ) > 0. On pose alors gK (x) = 1 ∧ (d(x, F )/r), qui est continue, telle que gK ≥ 1K . Par ailleurs
le support de gK est inclus dans Kn0 .
Nous rappelons ici le lemme de Dini.
Lemme A.4.17 (Lemme de Dini) Soit (E, d), un espace métrique localement compact. Soient fn ∈ Cc (E), n ∈ N, telles que pour
tout x ∈ E, 0 ≤ fn+1 (x) ≤ fn (x) et limn∈N fn (x) = 0. Alors, limn→∞ kfn k∞ = 0.
Preuve: comme les fn décroissent, il est clair d’une part qu’elles sont toutes à support dans le même compact K qui est le support
de f0 , d’autre part, il est clair que les normes kfn k∞ décroissent. Donc c := limn→∞ kfn k∞ existe. Raisonnons par l’absurde en
supposant que c > 0. Il existe donc une suite xn ∈ K, n ∈ N, telle que fn (xn ) ≥ c, pour tout n ∈ N. Comme K est compact, on extrait
de (xn )n∈N , une suite convergeant vers x ∈ K. Il existe ensuite n0 ∈ N tel que fn0 (x) ≤ c/3 et comme fn0 est continue, il existe δ > 0
tel que pour tout y ∈ B(x, δ), fn0 (y) ≤ 2c/3. Comme les fn décroissent, on a montré que
Or il y a une infinité d’indices n ≥ n0 tels que xn ∈ B(x, δ), et donc tels que fn (xn ) ≤ 2c/3, ce qui contredit f (xn ) ≥ c. On a donc
c = 0.
Le théorème suivant admet des généralisations pour des espaces localement compacts non-séparables.
Théorème A.4.18 (Théorème de Riesz pour les formes positives) Soit (E, d), un espace métrique localement compact et séparable.
Soit Cc (E), le R-espace vectoriel des fonctions continues à support compact. Soit φ : Cc (E) → R qui satisfait les conditions
suivantes.
(a) φ est linéaire: pour toutes f, g ∈ Cc (E) et tout c ∈ R, φ(f + cg) = φ(f ) + cφ(g).
(b) φ est positive, c’est-à-dire que pour toute f ∈ Cc (E) telles que f ≥ 0, on a φ(f ) ≥ 0.
Alors, il existe une unique mesure positive µ : B(E) → [0, ∞] telle que
Z
∀f ∈ Cc (E) , φ(f ) = f dµ . (A.25)
E
De plus, µ est une mesure de Radon et elle est régulière extérieurement pour les ouverts et intérieurement pour les compacts.
Preuve: Cc (E) est clairement une classe de Stone et φ satisfait les conditions (a), (b) et (c) de la définition d’une intégrale de Daniell.
Montrons qu’elle satisfait également (d): soient h, hn ∈ Cc (E), n ∈ N telles que hn ≤ hn+1 et limn hn = h ponctuellement.
On voit que les hn et h sont à support dans le même compact K qui est le support de h, par exemple. Il en est de même pour les
fonctions fn := h − hn . Les fn satisfont les hypothèses du lemme A.4.17 de Dini: on a donc limn→∞ kfn k∞ = 0. Par ailleurs,
le lemme A.4.16 montre l’existence de gK ∈ Cc (E) telle que gK ≥ 1K . On a donc 0 ≤ fn ≤ kfn k∞ 1K ≤ kfn k∞ gK et donc
0 ≤ φ(fn ) ≤ kfn k∞ φ(gK ), ce qui implique que limn φ(fn ) = 0, c’est-à-dire limn φ(hn ) = φ(h). Cela montre que φ est une
intégrale de Daniell.
On note C la classe des sous-ensembles de la forme {f > x}, avec f ∈ Cc (E) et x ∈ R+ . Pour tout compact K de E, on pose
f = d(·, E\K) et on a K = {f > 0}. Donc, C contient tous les compacts et σ(C ) = B(E). Le théorème A.4.15 de Daniell-Stone
implique alors l’existence d’une mesure positive µ : B(E) → [0, ∞] satisfaisant (A.25). Pour tout compact K, le lemme A.4.16
implique l’existence de gK ∈ Cc (E) tel que gK ≥ 1K , ce qui implique que µ(K) ≤ φ(gK ) < ∞. Cela montre que µ est une mesure
de Radon.
222 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
Si ν est une autre mesure positive sur B(E) représentant φ, le point (ii) du théorème A.4.15 de Daniell-Stone implique qu’elle
coincide avec µ sur C et donc que ν(K) = µ(K), pour tout K compact. Or E peut être recouvert par une suite de compacts: le
théorème A.1.11 d’unicité du prolongement des mesures s’applique et montre que µ = ν.
Enfin, le théorème A.3.7, page 212, montre que toute mesure de Radon sur un espace métrique localement compact et séparable,
est régulière extérieurement pour les ouverts et intérieurement pour les compacts.
Remarque A.4.19 Le théorème de Riesz implique l’existence de la mesure de Lebesgue sur R, comme prolongement de l’intégrale
usuelle des fonctions continues à support compact de R. C’est une autre construction de la mesure de Lebesgue sur R.
Définition A.5.1 Soient (E, E ) et (E 0 , E 0 ), deux espace mesurables. Ils sont dits isomorphes s’il existe une fonction φ : E → E 0
satisfaisant les propriétés suivantes.
Une telle fonction φ est un isomorphisme d’espaces mesurables et l’application B ∈ E 7→ φ(B) ∈ E 0 est une bijection de E sur E 0 .
Définition A.5.2 Soit (E, E ), un espace mesurable. On introduit les notions suivantes.
(a) (E, E ) est un espace mesurable séparable s’il existe une suite d’ensembles An ∈ E , n ∈ N engendrant E : E = σ {An ; n ∈ N} .
(b) (E, E ) est un espace mesurable séparé si pour tous x, y ∈ E distincts, il existe A ∈ E tel que x ∈ A et y ∈ E\A.
On adopte les conventions suivantes: si E est muni d’une topologie T , on note B(E) la tribu Borélienne associée. Si X ⊂ E
est un sous-ensemble de E, pas nécessairement Borélien, on note TX = {X ∩ U ; U ∈ T } la topologie relative sur X et on note
B(X) = σ(TX ) la tribu Borélienne associée. On rappelle le lemme A.1.8 page 204 qui affirme que B(X) est la tribu Borélienne
trace sur X, c’est-à-dire
B(X) = X ∩ B ; B ∈ B(E)} .
Le théorème suivant donne une description assez générale des espace mesurables séparables et séparés, ainsi que quelques propriétés
utiles.
Théorème A.5.3 Soit (E, E ), un espace séparable et séparé. Alors, les assertions suivantes sont vérifiées.
(iv) Il existe X ⊂ R (pas nécessairement Borélien) tel que (E, E ) soit isomorphe à (X, B(X)).
T d’abord (i). Comme E est séparable, il existe une suite d’ensembles Cn ∈ E , n ∈ N engendrant E . On pose
Preuve: on montre
P = {E} ∪ n∈S Cn ; S ⊂ N et S fini . On vérifie facilement que P est un pi système dénombrable. On a clairement σ(P) = E .
On se donne une énumération de P sous la forme P = T {An ; n ∈ N}, quitte à prendre des An vides si P est fini. Cela prouve (i).
Montrons (ii). Pour tout x ∈ E , on pose Ax = n∈N Bnx . Il est clair que x ∈ Ax et que Ax ∈ E . Supposons que y ∈ Ax . Si
x ∈ An , alors on a Bnx = An , donc y ∈ An et Bny = An . De même si x ∈ / An , alors Bnx = E\An , donc y ∈
/ An et Bny = E\An . Dans
x y
les deux cas, si y ∈ Ax , pour tout n ∈ N, Bn = Bn donc Ax = Ay et aussi x ∈ Ay .
Soient x, y ∈ E, si Ax ∩ Ay 6= ∅, il existe z ∈ Ax ∩ Ay et ce qui précède montre que Az = Ax = Ay . On a donc montré que pour
tous x, y ∈ E, ou bien Ax ∩ Ay = ∅, ou bien Ax = Ay .
On fixe ensuite x ∈ E et y ∈ Ax . Ce qui précède implique que Ax = Ay . On pose
L = B ∈ E : 1B (x) = 1B (y) .
On vérifie facilement que L est une classe monotone qui contient P. Par le théorème A.1.10 page 204, de la classe monotone, L = E .
Donc, pour tout B ∈ E , 1B (x) = 1B (y). Si x 6= y, comme E est séparé, il existe A ∈ E , tel que 1A (x) = 1 et 1A (y) = 0, ce qui
contradictoire. Donc x = y, nécessairement. On a donc montré que Ax = {x}, ce qui prouve (ii).
Montrons (iii): soient x, y ∈ E, distincts. On vérifie facilement qu’il existe n ∈ N tel que 1An (x) 6= 1An (y), sinon le (ii) entraîne
que x = y, ce qui n’est pas le cas. est un ensemble infini d’entiers. On vérifie alors que
[
E 2 \∆ =
An ×(E\An ) ∪ (E\An )×An ,
n∈N
Il est clair que φ : E → [0, est E -mesurable. On pose X = φ(E). On voit que (1An (x))n∈N est le développement triadique de
1
2
]
φ(x). Si φ(x) = φ(y), par unicité du développement triadique, 1An (x) = 1An (y), pour tout n ∈ N. Cela implique que Ax = Ay et
donc x = y par (ii). Cela montre que φ : E → X est bijective et (E , B(X))-mesurable.
Il reste à montrer que la fonction réciproque φ−1 : XT→ E est (B(X), E )-mesurable. Pour tout n ∈ N, on pose Cn0 = E\An et
ε
Cn = An . On fixe ε0 , . . . , εn ∈ {0, 1} et on pose C = 0≤k≤n Ckk . Comme φ est bijective, l’image réciproque par φ−1 de C est
1
φ(C). On veut montrer que φ(C) ∈ B(X). Si C est vide, c’est trivialement vrai. Supposons C non-vide. Alors, pour tout x ∈ C, on a
1Ak (x) = εk , pour tout 0 ≤ k ≤ n. On pose alors a = 0≤k≤n 3−k−1 εk . Ce qui précède montre que
P
1
φ(C) ⊂ [a, a + 2 3−n−1 ] =: I . (A.26)
Supposons que b ∈ I ∩ X. Alors, il existe x ∈ E tel que φ(x) = b. Par unicité du développement triadique, on a 1Ak (x) = εk , pour
tout 0 ≤ k ≤ n et donc x ∈ C par conséquent bT∈ φ(C). Autrement dit φ(C) = X ∩ I et donc φ(C) ∈ B(X).
εk
On définit on pose ensuite A = n∈N 0≤k≤n Ck ; ε0 , . . . , εn ∈ {0, 1} . On a montré que pour tout C ∈ A , (φ
−1 −1
S
) (C) ∈
B(X). Or il est facile de vérifier que σ(A ) = E . Cela montre donc que φ est (B(X), E )-mesurable, ce qui prouve (iii).
−1
Montrons (iv): si E est fini et possède p éléments distincts, alors E est finie car E ⊂ P(E) et P(E) compte 2p éléments.
Supposons que E soit infini. Il existe une suite xn ∈ E, n ∈ N, d’éléments distincts. Puisque E contient les singletons, pour tout
sous-ensemble S ⊂ N, on a BS = {xn ; n ∈ S} ∈ E . Donc Card (E ) ≥ Card (P(N)) = Card (R). Mais le point (iii) implique que
Card (E ) ≤ Card (B(R)) = Card (R) donc Card (E ) = Card (R), ce qui prouve (iv).
Montrons (v). La topologie relative TX = {X ∩U ; U ouvert de R} est séparable et séparée. On pose T = {φ−1 (V ) ; V ∈ TX }.
C’est une topologie sur E: c’est la topologie induite par φ. Il est clair qu’elle est séparable et séparée tout comme TX . Il est aussi clair
que σ(T ) ⊂ E . On a vu précédemment que pour tout C ∈ A , il existe un intervalle fermé I tel que φ−1 (X ∩ I) = C. Cela montre
que A ⊂ σ(T ), ce qui implique que E = σ(T ), ce qui termine la preuve du (v).
Espace mesurables réguliers. Isomorphisme de Borel (énoncé et preuve partielle). Soit (E, d), un espace
métrique séparable et soit A ∈ B(E). Alors (A, d) est aussi un espace métrique séparable. On en déduit que B(A) est séparable et
séparé: (A, B(A)) est donc isomorphe à un espace (X, B(X)), avec X ⊂ R. En général, on ne peut pas en dire beaucoup plus sur X,
notamment on ne sait pas s’il est possible de choisir X Borélien de R. Lorsque l’espace (E, d) est séparable complet, il est possible de
montrer le résultat suivant, beaucoup plus précis, qui est connu sous le nom de théorème d’isomorphisme de Borel.
Théorème A.5.4 (Théorème d’isomorphisme de Borel) Soit (E, d), un espace métrique séparable et complet. Soit un Borélien
B ∈ B(E). Alors,
224 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
Nous ne prouvons pas ce théorème mais un résultat plus faible, qui est pourtant suffisant pour la plupart des applications. Avant
cela, quelques commentaires.
1) Les Boréliens des espaces métriques séparables complets satisfont l’hypothèse du continu: ou bien ils sont dénombrables, ou bien
ils ont la puissance du continu, ce qui est remarquable car la preuve du théorème d’isomorphisme de Borel ne nécessite pas de supposer
l’hypothèse du continu.
2) Du point de vue de la théorie de la mesure, un espace (E, d) métrique séparable complet non-dénombrable est le même objet que
R. Cela permet de montrer que sur un tel espace il existe une mesure de probabilité µ : B(E) → [0, 1] qui est diffuse. En effet, si
φ : E → R est un isomorphisme d’espaces mesurables, on note prend R µ la mesure image par φ de la mesure ν = f `, où f : R → R+
est n’importe quelle fonction Borel-mesurable `-intégrable telle que R f d` = 1.
3) Le théorème d’isomorphisme de Borel implique immédiatement le (et est équivalent au) corollaire suivant.
Corollaire A.5.5 Soient (E, d) et (E 0 , d0 ), deux espaces métriques séparables qui sont des Boréliens de leurs complétés. Alors ces
espaces sont soit dénombrables, soit en bijection avec R. De plus, (E, B(E)) et (E, B(E 0 )) sont isomorphes ssi ils sont en bijection.
Définition A.5.6 Soit (E, E ), un espace mesurable. Il est dit régulier s’il existe C ∈ B(R) tel que (E, E ) et (C, B(C)) sont
isomorphes.
Au lieu de prouver le théorème d’isomorphisme, on montre le théorème suivant qui est en général suffisant pour les applications.
Théorème A.5.7 Soit (E, d), un espace métrique séparable complet. Soit A ∈ B(E). Alors il existe C ∈ B(R) tel que (A, B(A))
et (C, B(C)) soient isomorphes. Autrement dit, tout Borélien d’un Polonais muni la tribu Borélienne trace est un espace mesurable
régulier.
Preuve du théorème A.5.7. On mentionne d’abord le résultat suivant qui est relativement élémentaire.
Q
Proposition A.5.8 Soient (En , dn ), n ∈ N, une suite d’espaces métriques. On pose E = n∈N En et pour tout x = (xn )n∈N ∈ E et
tout y = (yn )n∈N ∈ E, on définit X −n−1
d(x, y) = 2 1 ∧ dn (xn , yn ) ∈ [0, 1].
n∈N
(ii) Si les espaces (En , dn ), n ∈ N, sont séparables complets, il en est de même pour (E, d).
(iii) Si les espaces (En , dn ), n ∈ N, sont compacts, il en est de même pour (E, d).
(i) Il existe A ∈ B {0, 1}N tel que (A, B(A)) soit isomorphe à ([0, 1], B([0, 1])).
(ii) Il existe B ∈ B {0, 1}N tel que B ⊂ A et (B, B(B)) soit isomorphe à [0, 1]N , B [0, 1]N .
A.5. COMPLÉMENTS SUR LA MESURABILITÉ. 225
(iii) Soit (E, d), un espace métrique séparable complet. Il existe C ∈ B [0, 1]N tel que (C, B(C)) soit isomorphe à (E, B(E)).
Preuve: on rappelle les notations T = {0, 1}N et J = [0, 1]N . On prouve d’abord (i). Soit A, l’ensemble des u = (un )n∈N ∈ T tels
P un = 0 pour une infinité de n, ou bien un = 1 pour tout n. Il est clair que T\A est dénombrable, donc A ∈ B(T). On pose
que ou bien
φ(u) = n∈N 2−n−1 un . On vérifie facilement que φ : A → [0, 1] est un isomorphisme d’espaces mesurables.
Montrons (ii). On munit TN de la topologie-produit, métrisable compacte. Soit v = ((v(p,n) )n∈N )p∈N ∈ TN , c’est-à-dire que
v(p,n) ∈ {0, 1}, pour tous p, n ∈ N. On se donne une bijection g : N → N × N et on définit une suite ϕ(v) = u = (uk )k∈N en
posant uk = vg(k) . Il est facile de démontrer que ϕ : TN → T est bijective continue et que ϕ−1 est également continue: il suffit
de vérifier la continuité coordonnée par coordonnée car les espaces sont munis de la topologie produit. On voit donc que ϕ est un
isomorphisme d’espaces mesurables. Il est clair que AN ∈ B(TN ) et par (i), (J, B(J)) est isomorphe à (AN , B(AN )). On pose
B = ϕ(AN ) ∈ B(T). On vérifie que B ⊂ A et ce qui précède P montre (ii).
Montrons (iii). On munit J de la métrique δ(u, v) = n∈N 2−n−1 |un −vn | si bien que (J, δ) est métrique compact. Soit (E, d),
métrique séparable complet. Soit qn ∈ E, n ∈ E, une suite dense dans E. On définit ψ : E → J par
∀x ∈ E , ψ(x) = 1 ∧ d(x, qn ) n∈N .
Comme pour tout n ∈ E, la fonction x ∈ E 7→ 1 ∧ d(x, qn ) est continue et puisque J est muni de la topologie-produit, ψ est continue.
Supposons que ψ(x) = ψ(y), c’est-à-dire que 1 ∧ d(x, qn ) = 1 ∧ d(y, qn ), pour tout n ∈ N. Comme la suite (qn )n∈N est dense dans
E, il existe une suite d’entiers positifs (nk )k∈N croissant vers l’infini telle que limk d(x, qnk ) = 0. Donc, limk d(y, qnk ) = 0, et on a
x = y. Cela montre que ψ est injective.
On pose C = ψ(E) et on note φ = ψ −1 : C → E, la réciproque de ψ. On montre que φ est continue comme suit. Soient xp ∈ E,
p ∈ N ∪ {∞} tels que limp δ(ψ(xp ), ψ(x∞ )) = 0. L’inégalité 1 ∧ (a + b) ≤ 1 ∧ a + 1 ∧ b, et l’inégalité triangulaire pour d, impliquent
pour tout n ∈ N,
1 ∧ d(xp , x∞ ) ≤ 1 ∧ d(xp , qn ) + 1 ∧ d(x∞ , qn )
≤ 2 1 ∧ d(x∞ , qn ) + 1 ∧ d(xp , qn ) − 1 ∧ d(x∞ , qn )
≤ 2 1 ∧ d(x∞ , qn ) + 2n+1 δ(ψ(xp ), ψ(x∞ )).
Pour tout n ∈ N, on a donc lim supp 1 ∧ d(xp , x∞ ) ≤ 2 1 ∧ d(x∞ , qn ) , Comme la suite (qn )n∈N est dense dans E, il est possible de
trouver des qn arbitrairement proches de x∞ , et la limite supérieure précédente, qui ne dépend pas de n, est nulle, ce qui implique que
limp d(xp , x∞ ) = 0. Cela montre bien que φ : C → E est continue.
Cela montre que ψ est un isomorphisme entre les espaces mesurables (E, B(E)) et (C, B(C)) et que ψ et ψ −1 sont continues.
Montrons que C ∈ B(J). Le fait que φ = ψ −1 soit continue implique que
∀x ∈ E , ∀ε > 0 , ∃η > 0 : u ∈ C ∩ Bδ ψ(x), η =⇒ d(φ(u), x) < ε , (A.27)
Soit v ∈ Up et soit ηv comme ci-dessus. Soit v 0 ∈ Bδ (v, ηv ). On pose ηv0 = ηv −δ(v, v 0 ) < 3−p . Alors, Bδ (v 0 , ηv0 ) ⊂ Bδ (v, ηv ) et
donc v 0 ∈ Up . Cela montre que Up est un ouvert de J.
On note C l’adhérence de C dans J et on pose \
D=C∩ Up .
p∈N
On observe que D ∈ B(J), et (A.27) implique que C ⊂ D. Pour terminer la preuve de (iii), il suffit donc de montrer que D ⊂ C.
Soit v ∈ D. Pour tout p ∈ N, il existe donc 0 < ηv (p) < 3−p tel que pour tous u, u0 ∈ C ∩B(v, ηv (p)), on ait d(φ(u), φ(u0 )) < 3−p .
On se donne une suite décroissante (rp )p∈N telle que 0 < rp < 12 ηv (p). Comme v est dans l’adhèrence de C, on construit par récurrence
une suite xp ∈ E, p ∈ N, telle que δ(v, ψ(xp )) < rp . On observe que δ(ψ(xp+1 ), ψ(xp )) < rp + rp+1 < 2rp < ηv (p), et par définition
de Up , d(xp+1 , xp ) < 3−p . Cela implique que (xp )p∈N est de Cauchy dans E, qui est complet. Il existe donc x ∈ E tel que
limp d(x, xp ) = 0. Par continuité de ψ, v = ψ(x) et on a bien v ∈ C, ce qui termine la preuve de (iii).
Fin de la preuve du théorème A.5.7. Soit (E, d), un espace métrique séparable complet. Soit A ∈ B(E). Par la proposition
A.5.9 (iii), il existe B ∈ B(R) et φ : E → B qui est un isomorphisme entre les espaces mesurables (E, B(E)) et (B, B(B)). On
note ϕ la réciproque de φ et on pose C = φ(A). Comme ϕ est (B(B), B(E))-mesurable et comme ϕ−1 (A) = C, on en déduit que
C ∈ B(B), c’est-à-dire qu’il existe un Borélien D ∈ B(R) tel que D ∩ B = C. Comme B ∈ B(R), cela entraîne que C ∈ B(R).
On vérifie ensuite immédiatement que la restriction φ|A : A → C est un isomorphisme entre les espaces mesurables (A, B(A)) et
(C, B(C)).
226 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
(a) E est dit séparé si pour tous x, y ∈ E distincts il existe U ∈ T tel que x ∈ U et y ∈
/ U.
(d) E est dit compact s’il est séparé et si de tout recouvrement de E par des ouverts, on extrait un recouvrement fini.
Preuve: soit (E, T ) espace topologique; soient F, F 0 ⊂ E, deux fermés disjoints. On voit immédiatement que ce sont des compacts
(car un recouvrement de F (resp. de F 0 ) par des ouverts induit en y ajoutant l’ouvert E\F un recouvrement de E, dont on extrait un
recouvrement fini). On fixe x ∈ F . Pour tout y ∈ F 0 , il existe Ux,y , Ux,y
0
∈ T disjointsStels que y ∈ Ux,y0
et x ∈ Ux,y (puisque E est
séparé et que x et y sont nécessairement distincts, F et F 0 étant disjoints). comme F 0 ⊂ y∈F 0 Ux,y0
, il existe y1 , . . . , yn ∈ F 0 tels que
F 0 ⊂ 1≤k≤n Ux,y 0
. On pose Vx0 = 1≤k≤n Ux,y 0
et Vx = 1≤k≤n Ux,yn . On voit que Vx est un ouvert contenant x, que Vx0 est un
S S T
n n
0 0 S S
ouvert contenant F et que Vx ∩ Vx = ∅. Comme F ⊂ x∈F Vx , il existe x1 , . . . , xm ∈ F tels que F ⊂ 1≤l≤m Vxm . On pose alors
V = 1≤l≤m Vxm et V = 1≤l≤m Vxm . On constate que V et V sont des ouverts disjoints tels que F ⊂ V et F 0 ⊂ V 0 . Cela montre
0 0 0
S T
que (E, T ) satisfait T4 : il est donc normal.
Lemme A.6.3 (Urysohn) Soit (E, T ) un espace topologique normal. Soient F, F 0 deux fermés disjoints de E. Alors, il existe
f : E → [0, 1] qui est continue et telle que f (x) = 1 pour tout x ∈ F et f (x) = 0 pour tout x ∈ F 0 .
Preuve: soit (rn )n∈N , une énumération des rationnels de ]0, 1[. On définit récursivement une suite d’ouverts Un tels que (1): pour
tous F ⊂ Un et U n ⊂ E\F 0 (où A est l’adhérence de A, c’est-à-dire l’intersection de tous les fermés contenant A) et tels que
pour tous n, m ∈ N distinct tels que
(2): S S rm < rn , on ait U m ⊂ Un . En effet, supposons U0 , . . . , Un construits: on pose Fn =
F ∪ 1≤k≤n:rk <rn+1 U k et Fn0 = F 0 ∪ 1≤k≤n:rk >rn+1 (E\Uk ), qui sont deux fermés disjoints; comme E est normal, il existe deux
ouverts Un+1 et U 0 tels que Fn ⊂ Un+1 et Fn0 ⊂ U 0 ; on en déduit que U n+1 ⊂ E\U 0 ⊂ E\Fn0 . On vérifie que Un+1 satisfait bien les
conditions voulues.
Pour tout x ∈ E, on pose alors f (x) = inf({1} ∪ {rn ; nS ∈ N : x ∈ Un }). On remarque aussi que f (x) = sup({0} ∪ {rn ; n ∈
N : x∈ / U n }). On voit ensuite que {y ∈ E : f (x) < r} = n:rn <r Un est ouvert pour tout r ∈ [0, 1]. Donc f est semi-continue
S
supérieurement. On montre de même que {y ∈ E : f (x) > r} = n:rn >r E\U n est ouvert; donc f est semi-continue inférieurement:
la fonction f est donc continue. On voit également que f vaut 1 sur F et 0 sur F 0 .
On s’intéresse à la métrisabilité dont on rappelle la définition. On rappelle que si (E, d) est un espace métrique, la topologie
métrique est la collection des unions (quelconques) de boules ouvertes.
Définition A.6.4 Soit E, un espace muni d’une topologie. On dit que la topologie est métrisable s’il existe une distance d sur E dont
la topologie est T .
On rappelle que des distances distinctes peuvent générer la même topologie. Certains concepts métriques, comme la complétude, ne
sont pas topologiques, c’est-à-dire qu’il ne se sont pas invariants par homéomorphisme. En revanche la métrisabilité l’est, comme
l’énonce le lemme suivant qui est élémentaire.
Preuve: soit d0 la distance sur E 0 générant T 0 ; On note d la restriction de d0 à E × E. Soit r ∈]0, ∞[; pour tout x ∈ E, on note
Bd (x, r) la d-boule ouverte de E de centre x et de rayon r et on note Bd0 0 (x0 , r) la d0 -boule ouverte de E 0 de centre x0 et de rayon r.
Soit x0 ∈ E 0 ; pour tout point x ∈ E ∩ B 0 (x0 , r) (s’il en existe) on note rx = 21 (r−d0 (x, x0 )) > 0 et on observe que
Donc E ∩ Bd0 0 (x0 , r) = x∈E∩B 0d0 (x0 ,r) Bd (x, rx ), ce qui entraîne que E ∩ Bd0 (x0 , r) ∈ Td , où Td est la topologie induite par d sur
S
E. Comme tout ouvert de T est la réunion de boules du type E ∩ Bd0 (x0 , r), cela montre que T ⊂ Td . Ensuite, il est clair que
Bd (x, r) = E ∩ Bd0 0 (x, r) et donc toute d-boule ouverte appartient à T , ce qui permet de conclure que T = Td .
Montrons (ii): on note d0 une distance générant T 0 . Pour tous x, y ∈ E, on pose d(x, y) = d0 (Φ(x), Φ(y)); on vérifie immédi-
atement qu’il s’agit d’une distance sur E et que Bd (x, r) = Φ−1 (Bd0 0 (Φ(x), r)), ce qui montre que Bd (x, r) ∈ T , car c’est l’image
réciproque d’un ouvert par une application (T , T 0 )-continue. Les d-boules ouvertes sont donc des ouverts de T ce qui implique que
Td ⊂ T . Soit U un ouvert de T ; on note Ψ la réciproque de Φ et on voit que U 0 = Φ(U ) = Ψ−1 (U ) est un ouvert S de T0 car
0
il est
l’image réciproque parSla fonction (T , T )-continue
0
Ψ d’un ouvert de T . Comme T 0
est métrisé par d, U 0
= i∈I Bd
0
0 (xi , ri ) et
donc U = Φ−1 (U 0 ) = i∈I Φ−1 Bd0 0 (x0i , ri ) = i∈I Bd (Ψ(x0i ), ri ) et U ∈ Td . Cela montre donc que T = Td et donc que (E, T )
S
est métrisable.
On s’intéresse plus particulièrement à la métrisabilité des espaces compacts. Le lemme suivant montre que les espaces compacts
de cardinal trop grand ne sont pas métrisables.
Lemme A.6.6 Soit (E, T ), un espace topologique compact. On le suppose métrisable. Alors il admet une suite dense, c’est-à-dire un
ensemble D dénombrable tel que D = E et par conséquent Card(E) ≤ Card(R).
Preuve: soit d une distance générant la topologie T . Pour tout n ∈ N, on extrait du recouvrement d’ouvert E = x∈E Bd (x, 2−n ),
S
S (n) −n
un recouvrement fini: E = 1≤k≤pn Bd (xk , 2 ). Il est facile de vérifier que tout point de E est limite d’une suite à valeurs dans
l’ensemble dénombrable D = {x(n) k ; 1 ≤ k ≤ pn , n ∈ N} et donc D = E.
Soit yn ∈ D, n ∈ N telle que {yn ; n ∈ N} = D. Pour tout x ∈ E, il existe un ensemble infini Ix ⊂ N tel que si (nk )k∈N est une
indexation strictement croissante des indices Ix , limk→∞ d(ynk , x) = 0; par conséquent, x 7→ Ix est une injection de E dans P(N),
la classe des sous-ensembles de N, qui a la puissance du continu.
L’espace [0, 1]R+ des fonctions de R+ dans [0, 1] muni de la convergence ponctuelle (c’est-à-dire la topologie produit) est un
espace compact de cardinal strictement plus grand que R: il ne peut pas être métrisé.
Définition A.6.7 Soit E muni de la topologie T . Une base de cette topologie est un sous-ensemble B ⊂ T de cette topologie telle
que tout ouvert de T est union d’ouverts de B. On dit qu’un espace topologique est complétement séparable si sa topologie admet une
base dénombrable. On dit aussi, plus simplement, que l’espace topologique est à base (topologique) dénombrable. Cela correspond au
terme anglais "second countable".
Le lemme suivant donne un exemple d’espace completement séparable (ou à base dénombrable).
Lemme A.6.8 Soit (E, d) un espace métrique muni de la topologie métrique Td . On suppose que (E, d) est séparable en tant
qu’espace métrique c’est-à-dire qu’il existe une suite dense. Alors, (E, Td ) est compétement séparable (à base dénombrable).
Preuve: Td est contitué des ensembles qui sont des unions quelconques de boules ouvertes. Soit xn ∈ E, n ∈ N, une suite dense dans
E, c’est-à-dire que tout point de E est limite d’une suite à valeurs dans {xn ; n ∈ N}. Clairement B = {Bd (xn , q); q ∈ Q+ , n ∈ N} est
une base dénombrable de Td (ici Bd (x, r) désigne la boule ouverte de centre x et de rayon r).
Théorème A.6.9 Un espace compact est métrisable si et seulement si sa topologie est à base dénombrable.
Preuve: si (E, T ) est un espace compact métrisable, le lemme A.6.6 montre qu’il admet une suite dense et le lemme A.6.8 montre
qu’il est complément séparable (qu’il admet une base topologique dénombrable).
Montrons la réciproque: on suppose que (E, T ) est compact à base dénombrable; soient Un ∈ T , n ∈ N, une base de T . On
montre d’abord le fait suivant:
En effet, soit (nk ) la suite strictement croissante d’entiers définie par {nk ; k ∈ N} = {n ∈ N : x ∈ Un }; soit y distinct de x; comme
E est séparé (c’est un espace compact), il existe k tel que x ∈ Unk et un ouvert V contenant y tels que Unk ∩ V = ∅, c’est-à-dire que
T E\V , ce qui implique que U nk ⊂ E\V T
Unk est inclu dans le fermé et donc U nk ∩ V = ∅. En particulier, il existe k tel que y ∈
/ U nk .
Cela montre que {x} = k∈N U nk . Donc l’intersection de compacts k∈N (E\U ) ∩ U nk est vide; en passant au complémentaire et en
T T
extrayant un recouvrement fini, cela montre qu’il existe k0 tel que 0≤k≤k0 (E\U ) ∩ U nk = 0; on pose V = 0≤k≤k0 Unk , qui est un
T
ouvert contenant x tel que V ⊂ 0≤k≤k0 U nk et donc tel que (E\U ) ∩ V = ∅, c’est-à-dire V ⊂ U . Soit p tel que Unp ⊂ V : alors on a
bien x ∈ Unp ⊂ U np ⊂ U , ce qui montre (A.28).
228 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
En effet, comme E est normal (Lemma A.6.2), il existe U, U 0 deux ouverts disjoints tels que x ∈ U et y ∈ U 0 ; par (A.28) il existe
m, n ∈ N tel que x ∈ Um ⊂ U m ⊂ U et y ∈ Un ⊂ U n ⊂ U 0 et on bserve que U m et U n sont nécessairement disjoints, c’est-à-dire que
(m, n) ∈ I.
On note (mp , np ), p ∈ N, une énumération de I et pour tout p ∈ N on note fp une fonction continue de E dans [0, 1] valant 1 sur
U mp et 0 sur U np , dont l’existence est garantie par le lemme d’Urysohn A.6.3. On voit immédiatement que (A.29) implique que la
suite de fonctions (fp )p∈N sépare les points de E, c’est-à-dire
On rappelle laP proposition A.5.8 (élémentaire) qui affirme que l’espace J = [0, 1]N des suites à valeurs dans [0, 1] muni de la
distance δ(x, y) = n∈N 2−n |xn −yn | où x = (xn )n∈N et y = (yn )n∈N , est un espace métrique compact et que la topologie induite
(p) (p)
par δ est la topologie produit, c’est-à-dire que δ-limp→∞ (xn )n∈N = (xn )n∈N ssi pour tout n ∈ N, limp→∞ xn = xn dans [0, 1]. On
définit alors Φ : E → J par Φ(x) = (fn (x))n∈N . Comme chaque fn est continue, Φ est continue. Comme les (fn )n∈N séparent les
points (c’est-à-dire (A.30), Φ est injective: donc Φ est un homéomorphisme de E sur K := Φ(E) (voir le lemme II.6.7). Comme J est
compact métrisable et que la toplogie de K est celle induite par celle de J, le lemme A.6.5 (i) implique que K est métrisable. Le point
(ii) du même lemme A.6.5 implique alors que E est métrisable, ce qui termine la preuve.
On s’intéresse à la compactification des espaces localement compacts.
Définition A.6.10 Soit E, un espace muni d’une topologie T . Cette topologie est est dite localement compacte si pour tout x ∈ E et
tout ouvert U ∈ T contenant x, il existe un ouvert V tel que x ∈ V ⊂ U et tel que V soit compact.
Lemme A.6.11 . Soit (E, T ) un espace topologique localement compact. On le suppose à base dénombrable. Alors il existe une base
d’ouverts (Vn )n∈N , tels que V n est compact pour tout n ∈ N.
Preuve: soit (Vn )n∈N une base de T . On pose I = {n ∈ N : U n est compact} et on montre que (Un )n∈I est une base de T . En effet,
soit V un ouvert non-vide de T . Soit x ∈ V ; il existe U , un ouvert contenant x tel que U compact; par ailleurs comme (Un )n∈N est
S T , il existe nx tel que x ∈ Unx ⊂ U . On en déduit que l’adhérence de Unx est compacte, c’est-à-dire que nx ∈ I. On a
une base de
donc V = x∈V Unx . Cela montre que tout ouvert est réunion d’ouverts (Un )n∈I , qui est donc est une base de T .
Proposition A.6.12 Soit (E, T ) un espace topologique localement séparable à base dénombrable (un espace LCBD). Soit ∂ ∈
/ E. Il
existe une topologie compacte à base dénombrable T 0 sur E∂ := E ∪ {∂} induisant T sur E.
Preuve: si E est déjà compact, la proposition est élémentaire: on ajoute un point isolé. On suppose dans la suite que E n’est pas
compact.
On définit T 0 comme l’ensemble des unions quelconques d’ensembles de T et d’ensembles de la forme {∂} ∪ (E\K) où K est
un compact de E. Il est clair que ∅ et E∂ appartiennent à T 0 et que T 0 est stable par union quelconque; on remarque ensuite que
(E\K1 ) ∩ (E\K2 ) = E\(K1 ∪ K2 ), et si K1 et K2 sont compact, il en est de même de K1 ∪ K2 ; combiné à un argument simple,
cela implique que T 0 est stable par intersection simple. Cela montre donc que T 0 est une topologie. Elle est séparée. Il est aussi facile
de voir que T 0 induit T sur E.
Montrons que T 0 est compacte: supposons que E∂ = ( i∈I Vi ) ∪ j∈J ({∂} ∪ (E\Kj )), avec les Kj compacts de E et les
S S
Vi ouverts S de E. L’ensemble
S d’indices J ne peut être vide; soit j0 ∈ J; on pose O = {∂} ∪ (E\Kj0 ); on vérifie que Kj0 =
E∂ \O ⊂ ( i∈I Vi ) ∪ j∈J\{j0 } (E\Kj ). Comme Kj0 est compact et que les ensemble Ui et E\Kj sont des ouverts de E, il
existe I 0 ⊂ I et J 0 ⊂ J\{j0 }, deux sous-ensembles finis d’indices tels que Kj0 ⊂ ( i∈I 0 Vi ) ∪ j∈J 0 (E\Kj ) et donc E∂ =
S S
( i∈I 0 Vi ) ∪ j∈J 0 ∪{j0 } ({∂} ∪ (E\Kj )), ce qui montre bien que T 0 est une topologie compacte.
S S
On constate ensuite que tout ouvert V ∈ T 0 est soit un ouvert de T soit de la forme U ∪{∂}∪(E\K), avec S K compact de E ou bien
K vide (on rappelle queT les compacts sont, par définition, non-vides). Cela provient immédiatement du fait que j∈J ({∂}∪(E\Kj )) =
{∂} ∪ (E\K) où K = j∈J Kj qui est compact s’il n’est pas vide.
Soit (Un )n∈N une base dénombrable de T ; grâce au lemme A.6.11, on peut supposer sans perte de généralité que les U n sont
compacts. On montre que B = {Un , {∂} ∪ (E\U n ); n ∈ N} est une base de T 0 . D’après ce qui précéde, il suffit de montrer que pour
tout compact K de E, {∂}∪(E\K) est une union d’ouverts de B: comme K est compact dans E, il existe m tel que K ⊂ U1 ∪. . .∪Um ;
comme E n’est pas compact, l’ouvert E\(U 1 ∪ ∪ . . . ∪ U m ) n’est pas vide et il existe n tel que Un ⊂ E\(U 1 ∪ . . . ∪ U m ); comme Un
est inclus dans le fermé E\(U1 ∪ . . . ∪ Um ), il en est de même pour U n ; on a donc montré l’existence de n tel que les deux compacts
A.7. ENSEMBLES ANALYTIQUES, PREUVE DU THÉORÈME DU "DÉBUT". 229
S Comme E\(K ∪ U n ) est un ouvert non-vide de E, et que les Uk forment une base de T , il S
K et U n soient disjoints. existe I ⊂ N tel
que E\(K ∪ U n ) = k∈I Uk . Comme K et U n soient disjoints on en déduit que {∂}∪(E\K) = ({∂} ∪ (E\U n ) ∪ k∈I Uk . Cela
montre bien que B est une base de T 0 . Clairement B est dénombrable.
Théorème A.6.13 Soit (E, T ), un espace topologique localement compact à base dénombrable (LCBD). Soit ∂ ∈
/ E. On pose
E∂ = E ∪ {∂}. Alors il existe une distance d sur E∂ , telle que
Preuve: cela suit immédiatement de la proposition A.6.12 et du théorème qui précède et du théoreme A.6.9.
Définition A.7.1 Soit E, un ensemble non-vide et P(E), la classe de tous ses sous-ensembles. Soit R, une classe de sous-ensembles
de E: R ⊂ P(E). On utilise les notations suivantes.
(c) On note simplement Rσδ la classe d’ensemble (Rσ )δ . De même, on note simplement Rδσ la classe d’ensemble (Rδ )σ .
(d) Soit E 0 , un ensemble non-vide et soit R 0 ⊂ P(E 0 ). On note
R × R 0 = A×B ; A ∈ R, B ∈ R 0
qui est la classe produit (à ne pas confondre, lorsque R et R 0 sont des tribus avec la tribu produit).
(e) Soit S un espace topologique. On note K (S) la classe de ses sous-ensembles compacts.
Soient E et E 0 , deux ensembles non-vide. Soit f : E → E 0 , une fonction. Soit A ⊂ E et soit B ⊂ E 0 . On rappelle les notations
suivantes:
f (A) = {f (x) ; x ∈ A} et f −1 (B) = {x ∈ E : f (x) ∈ B} .
On rappelle également les faits suivants: soient Bi ⊂ E 0 , i ∈ I, une famille de sous-ensembles de E 0 . Alors
[ [ \ \
f −1 Bi = f −1 (Bi ) et f −1 Bi = f −1 (Bi ) . (A.31)
i∈I i∈I i∈I i∈I
Attention: l’inclusion dans (A.32) est stricte en général (il suffit de prendre f constante à la valeur y, A1 et A2 non-vides et disjoints
et on a alors f (A1 ∩ A2 ) = ∅, alors que f (A1 ) = f (A2 ) = {y}). Les relations (A.31) montrent que les opérations ensemblistes
élémentaires commutent avec la pré-image et lorsqu’on veut transporter une structure (tribu, mesure ou topologie par exemple), on
observe que c’est la notion de pré-image qui est utilisée: voir la définition d’une fonction mesurable, d’une mesure image, d’une
230 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
fonction continue, etc. En revanche, le fait que l’image d’une intersection d’ensembles ne coïncide pas avec l’intersection des images
a de nombreuses conséquences: l’image d’un ouvert par une fonction continue n’est pas un ouvert, l’image d’un borélien par une
fonction mesurable n’est pas nécessairement mesurable, etc.
Les ensembles analytiques, introduits plus bas, permettent de comprendre les propriétés de l’image directe d’ensembles mesurables.
Une idée importante qui sous-tend les définitions liées aux ensembles analytiques est d’utiliser les ensembles compacts qui se com-
portent relativement bien par image directe: rappelons par exemple que l’image continue d’un compact est un compact. Aussi avant
d’introduire les ensembles analytiques, nous rappelons brièvement quelques propriétés des compacts que nous utilisons dans la suite
de cette section.
La propriété essentielle qui est utilisée est celle des "compacts emboîtés" que nous rappelons comme suit: soit E, un espace
topologique métrisable; soient Kn ⊂ E, n ∈ N, des ensembles compacts; alors
\
∀n ∈ N, K0 ∩ . . . ∩ Kn 6= ∅ =⇒ Kn 6= ∅ (A.33)
n∈N
Pour exploiter cette propriété pour des ensembles qui ne sont pas nécessairement compacts, on considére des ensembles produits avec
un espace compact : le lemme suivant, qui est utilisé dans la suite, illustre cette idée, à la base de la définition des ensembles analytiques.
Lemme A.7.2 Soit E, un ensemble non-vide. Soit R ⊂ P(E), une classe de sous-ensembles de E. On suppose que ∅ ∈ R et que
R est stable par unions finies. Soit S, un espace topologique compact métrisable et on rappelle que K (S) désigne la classe de ses
sous-ensembles compacts. On pose
n [ o
H = Kp ×Ap ; N ∈ N , ∀p ∈ {0, . . . , N } , Kp ∈ K (S) , Ap ∈ R (A.34)
0≤p≤N
qui est la classe des unions finies d’ensembles de K (S)×R. On note π : (x, y) ∈ S ×E 7→ y ∈ E, la projection canonique sur E.
Alors, \ \
∀Bn ∈ H , n ∈ N tels que Bn+1 ⊂ Bn , π(Bn ) = π Bn . (A.35)
n∈N n∈N
T T T
Preuve: par (A.32), on a π( n∈N BnT) ⊂ n∈N π(Bn ). Si n∈N π(Bn ) = ∅, alors (A.35) est vérifiée trivialement. On suppose donc
n∈N π(Bn ) non-vide et on fixe y ∈ Sn∈N π(Bn ). Comme Bn ∈ H , il existe Nn ∈ N, des compacts Kn,p ∈ K (S) et des ensembles
T
An,p ∈ R, 0 ≤ p ≤ Nn tels que Bn = 0≤p≤Nn Kn,p ×An,p . On fixe ensuite n ∈ N et on pose
n \ \ o
Un = u = (u0 , . . . , un ) ∈ Nn+1 : ∀j ∈ {0, . . . , n} , uj ≤ Nj , y ∈ Aj,uj et Kj,uj 6= ∅ .
0≤j≤n 0≤j≤n
Comme y ∈ π(Bn ), il existe xn ∈ S tel que (xn , y) ∈ Bn si bien qu’il existe un ∈ {0, . . . , Nn } tel que y ∈ An,un et xn ∈ Kn,un .
Soit jT∈ {0, . . . , n}, comme Bn ⊂ Bj , (xn ,T y) ∈ Bj et il existe donc uj ∈ {0, . . . , Nj } tel que y ∈ Aj,uj et xn ∈ Kj,uj . Donc
xn ∈ 0≤j≤n Kj,uj , qui n’est pas vide et y ∈ 0≤j≤n Aj,uj . Autrement dit (u0 , . . . S , un ) ∈ Un .
On a donc montré que pour tout n ∈ N, Un n’est pas vide. On pose U := n∈N Un , qui est donc un ensemble infini. On
construit une suite d’entiers (vn )n∈N récursivement de la manière suivante: comme U est infini, il existe nécessairement un entier v0 ∈
{0, . . . , N0 } tel qu’une infinité de suites de U commencent par le terme v0 ; supposons construits v0 , . . . , vn : il existe nécessairement
un entier vn+1 ∈ {0, . . . , Nn+1 } tel qu’une infinité de suites de U aient pour premiers termes (v0 , . . . , vn+1 ). La suite (vn )n∈N ainsi
construite est telle que pour tout n ∈ N, (v0 , . . . , vn ) ∈ Un , c’est-à-dire
\ \
∀n ∈ N, Kj,uj 6= ∅ et y ∈ Aj,uj .
0≤j≤n 0≤j≤n
T T T
On a donc y ∈ n∈N AT n,vn et par le principe (A.33) des compacts emboîtés,
T n∈N Kn,vn 6= ∅. On peut
T donc choisir x ∈T n∈N Kn,vn
et on voit que (x, y) ∈ n∈N Bn et on a bien π(x, y) = y. Donc y ∈ π( n∈N Bn ). Cela montre que n∈N π(Bn ) ⊂ π( n∈N Bn ), ce
qui permet de conclure.
Q compact et la topologie engendrée par d est la topologie produit sur S. De plus, si pour tout n ∈ N,
Alors (S, d) est un espace métrique
Kn est un compact de Sn , alors n∈N Kn est un compact de S.
Preuve: il s’agit d’un résultat élémentaire de topologie métrique dont la preuve est laissée en exercice.
A.7. ENSEMBLES ANALYTIQUES, PREUVE DU THÉORÈME DU "DÉBUT". 231
Ensembles analytiques. Les ensembles analytiques en général sont introduits de la manière suivante.
Définition A.7.4 (Ensembles analytiques) Soit E, un ensemble non-vide. Soit R ⊂ P(E), une classe de sous-ensembles de E. On
suppose que ∅ ∈ R. On rappelle les notation de la définition A.7.1.
• Un sous-ensemble A ⊂ E est dit R-analytique s’il existe un espace topologique S compact métrisable et un ensemble B ∈ (K (S)×
R)σδ tel que π(B) = A, où π : (s, x) ∈ S ×E 7→ x ∈ E désigne la projection canonique de S ×E sur E.
• On note Σ(R) la classe des ensembles R-analytiques.
On observe que dans cette définition, l’espace S dépend de A. Comme déjà mentionné, la définition des ensembles analytiques permet
en quelque sorte d’importer sur des espaces dépourvus de topologie certaines propriétés compacts.
Remarque A.7.5 Soit A ∈ Σ(R). Il existe D ∈ Rσ tel que A ⊂ D. En effet, il existe un espace topologiqueSS compact métrisable et il
existe Cn,m ×An,m , m, n ∈ N, où Cn,m est un compact de S et An,m ∈ R tel que si on pose B =S n∈N m∈N Cn,m ×An,m , alors
T
A = π(B) où π désigne la projection canonique de S ×E sur E. On a donc pour tout n0 ∈ N, B ⊂ m∈N Cn0 ,m ×An0 ,m et donc
[ [ [
A = π(B) ⊂ π Cn0 ,m ×An0 ,m = π(Cn0 ,m ×An0 ,m ) = An0 ,m ∈ Rσ ,
m∈N m∈N m∈N
Dans la suite du paragraphe, nous discutons de quelques propriétés des ensembles analytiques.
Proposition A.7.6 Soit E, un ensemble non-vide. Soit R ⊂ P(E), une classe de sous-ensembles de E. On suppose que ∅ ∈ R. Alors,
d’une part R ⊂ Σ(R) et Σ(R) est stable par union dénombrable et par intersection dénombrable.
Preuve: soit A ∈ R. Soit S n’importe quel espace topologique compact métrisable. Il est clair que S ×A ∈ (K (S)×R)σδ . Or la
projection sur E de S ×A est A. cela montre donc que A ∈ Σ(R) et donc que R ⊂ Σ(R).
Montrons ensuite que Σ(R) est stable par intersection dénombrable. Soient An ∈ Σ(R), n ∈ N. Pour tout n ∈ N, il existe
donc unTespaceS topologique Sn , compact métrisable, et Bn ∈ (K (Sn ) × R)σδ tel Qque An est la projection de Bn sur E. On écrit
Bn = k∈N `∈N Kk,` n
×An k,` , avec An
k,` ∈ R et K n
k,` ∈ K (S n ). On pose S := T Sn , S
n∈N muni de la topologie produit. Le lemme
n
× q∈N\{n} Sq )×An
Q
A.7.3 implique que S est un espace topologique compact métrisable. On pose Cn = k∈N `∈N (Kk,` k,` qui
T
appartient clairement à (K (S)×R)σδ . Par conséquent, n∈N Cn ∈ (K (S)×R)σδ . On note π la projection canonique T de S ×E sur
E et on vérifie ensuite l’égalité suivante qui, combinée avec l’argument précédent, entraîne immédiatement que n∈N An ∈ Σ(R):
\ \
π( Cn ) = An (A.36)
n∈N n∈N
T n
Preuve: soit y ∈ n∈N An ; pour tout n ∈ N, y ∈ An et il existe xn ∈ Sn tel que pour tout k ∈ N,on trouve `k,n tel que xn ∈ Kk,` k,n
et y ∈ Ank,`k,n . Pour tout n ∈ N et tout k ∈ N, on a donc ((x )
q q∈N , y) ∈ K n
k,`k,n × A n
k,`k,n et donc pour tout n ∈ N, ((x )
q q∈N , y) ∈ Cn ,
T T T T T
c’est-à-dire ((xq )q∈N , y) ∈ n∈N Cn . Donc y ∈ π n∈N Bn . Cela montre que n∈N π(Bn ) = n∈N An ⊂ π( n∈N Bn ). Par
(A.32), on en déduit (A.36).
o `
Montrons la stabilité par union dénombrable: on conserve les mêmes notations. On note S = n∈N Sn , l’union disjointe des
ensembles Sn , en effectuant les identifications ensemblistes nécessaires pour que Sn soit vu comme un sous-ensemble de S o . On munit
S o de la topologie engendrée par les topologies des Sn : c’est la plus petite topologie contenant les ouverts des Sn . On vérifie que S o
est un espace topologie localement compact à base dénombrable. Soit ∂ ∈ / S o : il existe une distance d sur S := {∂} ∪ S o telle que
(S, d) soit un espace métrique compact et telle que la topologie induite sur S o soit celle d’origine; cela implique notamment que la
topologie d’origine de chaque ST n soit la topologie induite par d sur Sn . Un compact de Sn est donc un compact de S. On rappelle que
Bn s’exprime par comme Bn = m∈N Bn,m avec Bn,m ∈ (K (Sn )×R)σ ⊂ (K (S)×R)σ . On peut voir Bn comme un sous-ensemble
de S ×E. Comme les Sn sont deux-à-deux disjoints dans S, les Bn sont deux-à-deux disjoints dans S ×E, ce qui implique que
[ [ \ \ [
Bn = Bn,m = Bn,m .
n∈N n∈N m∈N m∈N n∈N
S S
OrS n∈N Bn,m ∈S(K (S)×R)σ . S
Donc n∈N Bn ∈ (K (S)×R) S σδ . On note π la projection canonique de S ×E sur E et par (A.32),
π( n∈N Bn ) = n∈N π(Bn ) = n∈N An , ce qui montre que n∈N An est analytique.
Lemme A.7.7 Soient E, E 0 deux ensembles non-vides. Soit R ⊂ P(E), tel que ∅ ∈ R. Soit R 0 ⊂ P(E 0 ), tel que ∅ ∈ R 0 . Alors on a
Preuve: on vérifie immédiatement que Σ(R)×R 0 ⊂ Σ(R ×R 0 ). De même, R ×Σ(R 0 ) ⊂ Σ(R ×R 0 ). La stabilité des ensembles
analytiques par union dénombrable (proposition A.7.6) implique que
Soient A ∈ Σ(R) et A0 ∈ Σ(R 0 ). La remarque A.7.5 implique l’existence de B ∈ Rσ et de B 0 ∈ Rσ0 tels que A ⊂ B et A0 ⊂ B 0 . On a
donc A×B 0 ∈ Σ(R)×Rσ0 et B ×A0 ∈ Rσ ×Σ(R 0 ). Donc par (A.37), on a A×B 0 ∈ Σ(R ×R 0 ) et B ×A0 ∈ Σ(R ×R 0 ). Comme les
ensembles analytiques sont stable par intersections dénombrables (proposition A.7.6), on a
Lemme A.7.8 Soit (S0 , d0 ), un espace métrique compact. Soit E, un ensemble non-vide et soit R ⊂ P(E), tel que ∅ ∈ R. On note π
la projection canonique de S0 ×E sur E. Alors, pour tout A ∈ Σ(K (S0 )×R), π(A) ∈ Σ(R).
Preuve: soit A ∈ Σ(K (S0 )×R). Il existe (S, d), un espace métrique compact et il existe B ∈ (K (S)×(K (S0 )×R))σδ tels que
A = π 0 (B), où π 0 est la projection canonique de S ×S0 ×E sur S0 ×E. On note π 00 la projection canonique S ×S0 ×E sur E: on a
π 00 (B) = π(A). On observe ensuite que K (S)×K (S0 ) ⊂ K (S ×S0 ), donc B ∈ (K (S ×S0 )×R)σδ , ce qui implique donc que
π(A) ∈ Σ(R) car S ×S0 est métrisable compact.
Lemme A.7.9 Soit E, un ensemble non-vide et soit R ⊂ P(E), tel que ∅ ∈ R. Soit R ⊂ S ⊂ Σ(R). Alors Σ(S ) = Σ(R).
Preuve: clairement Σ(R) ⊂ Σ(S ) ⊂ Σ(Σ(R)). Soit A ∈ Σ(Σ(R)). Il existe S, un espace compact métrisable et B ∈ (K (S) ×
Σ(R))σδ tel que A est la projection de B sur E. Or la proposition A.7.6 montre que K (S) ⊂ Σ(K (S)), le lemme A.7.7 implique que
Σ(K (S))×Σ(R) ⊂ Σ(K (S)×R). Donc K (S)×Σ(R) ⊂ Σ(K (S)×R). La proposition A.7.6 montre que les ensembles analytiques
sont stables par unions et intersections dénombrables. Donc (K (S)×Σ(R))σδ ⊂ Σ(K (S)×R). Donc B ∈ Σ(K (S)×R). Le lemme
A.7.8 implique alors que la projection de B sur E, qui est A, est un ensemble R-analytique. Donc Σ(Σ(R)) = Σ(R), ce qui implique
le résultat voulu.
Proposition A.7.10 Soit E, un ensemble non-vide et soit R ⊂ P(E), tel que ∅ ∈ R. On suppose que
∀A ∈ R, E\A ∈ Σ(R) .
Preuve: on pose E = {A ∈ Σ(R) : E\A ∈ Σ(R)}. Par hypothèse, R ⊂ E . Grâce à la proposition A.7.6, on vérifie que E est une
tribu, ce qui permet de conclure.
Théorème A.7.11 On note B([0, ∞]) les boréliens de [0, ∞]. Soit (Ω, F ), un espace mesurable. Alors
Preuve: on a σ(K ([0, ∞]) × F ) = B([0, ∞]) ⊗ F . Le complémentaire de tout compact de [0, ∞] est une union dénombrable de
compacts. Soit K ×B ∈ K ([0, ∞])×F . Donc
On en déduit que ([0, ∞]×Ω)\(K ×B) ∈ (K ([0, ∞])×F )σ . Or par la proposition A.7.6 et le lemme A.7.7 on a
et comme Σ(K ([0, ∞])×F ) est stable par union dénombrable (proposition A.7.6), on en déduit que (K ([0, ∞])×F )σ ⊂ Σ(K ([0, ∞])×
F ). Par conséquent les ensembles de K ([0, ∞])×F et leurs complémentaires sont dans Σ(K ([0, ∞])×F ): la proposition A.7.10
implique que σ(K ([0, ∞]) × F ) ⊂ Σ(K ([0, ∞]) × F ). Or σ(K ([0, ∞]) × F ) = B([0, ∞]) ⊗ F , ce qui implique (A.38).Enfin,
(A.39)est une conséquence immédiate du lemme A.7.8 avec S0 = [0, ∞].
A.7. ENSEMBLES ANALYTIQUES, PREUVE DU THÉORÈME DU "DÉBUT". 233
Capacités de Choquet. Nous donnons ici la définition d’une capacité de Choquet, qui étend dans un cadre général la notion de
capacité newtonienne en théorie du potentiel classique, issue de l’électrostatique.
Définition A.7.12 (Capacité de Choquet.) Soit E, un ensemble non-vide et soit R ⊂ P(E), tel que ∅ ∈ R et qui est stable par
intersections et unions finies. Soit I : P(E) → [−∞, ∞], une fonction d’ensembles. On dit que c’est une R-capacité de Choquet si
elle satisfait les conditions suivantes.
Exemple A.7.13 Le lecteur est invité à lire les sous-sections A.4 (page 212) et A.4 (page 217) sur les mesures extérieures associées
à des mesures positives et la section A.2, en appendice page 208 sur la complétion d’espaces mesurés. Résumons le contenu de ces
sections. Soit (E, E , µ), un espace mesuré.
est défini par Nµ := A ⊂ E : ∃B ∈ E , A ⊂ B, µ(B) = 0 . La µ-complétion de la
• Complétion. L’ensemble des µ-négligeables
tribu E est la tribu E µ := σ E , Nµ . Le théorème A.2.3, page 209, montre qu’il existe une unique mesure positive µ : E µ → [0, ∞]
telle que pour tout A ∈ E , µ(A) = µ(A). Par la suite, on note µ l’unique extension de µ à E µ , mais pour cette section, nous gardons la
notation µ pour cette extension, par souci de clarté.
• Mesure extérieure associée à µ. Pour tout X ⊂ E, on pose ensuite
nX [ o
µ∗ (X) = inf µ(An ) ; An ∈ E , n ∈ N : X ⊂ An . (A.41)
n∈N n∈N
Le théorème A.4.9 de Carathéodory (où l’algèbre A est la sigma-algèbre E ) page 216, implique que µ∗ est une mesure extérieure:
c’est-à-dire, selon la définition A.4.1 des mesures extérieures, page 212, µ∗ (∅) = 0 et
X ∗ [
µ∗ (A) ≤ µ (Bn ), A ⊂ E, Bn ⊂ E , n ∈ N : A ⊂ Bn .
n∈N n∈N
On rappelle la définition A.4.2, page 213, des ensembles mesurable µ∗ -mesurables: B ⊂ E est dit µ∗ -mesurable si
∀X ⊂ E, µ∗ (X) = µ∗ (X ∩ B) + µ∗ (X ∩ (E\B)) .
On note E (µ∗ ) la classe des ensembles mesurable. Le théorème A.4.3, page 213, implique que E (µ∗ ) est une tribu et que la restriction
de µ∗ à E (µ∗ ) est une mesure positive. Le théorème A.4.12, page 217, implique que
la définition (A.41) implique l’existence Ap,n ∈ E ,Sp, n ∈ N tels que X ⊂ n∈N Ap,n pour tout ∗
S
En effet, P T p ∈ N et µ (X) =
limp→∞ n∈N µ(Ap,n ). Pour tout p ∈ N, on pose Cp := n∈N Ap,n , Bp = C0 ∩ . . . ∩ Cp et B = p∈N Cp . On a donc
X ⊂ B ⊂ Bp ⊂ Cp et donc
X
µ∗ (X) ≤ µ∗ (B) = µ(B) ≤ µ(Cp ) ≤ −−→ µ∗ (X)
µ(Ap,n ) −
p→∞
n∈N
Lemme A.7.14 Soit (E, E , µ), un espace mesuré. Soit µ∗ : P(E) → [0, ∞] la mesure extérieure définie par (A.41). Alors µ∗ est
une E -capacité de Choquet.
Preuve: µ∗ est croissante pour l’inclusion. Soient Bn ∈ E tels que Bn+1 ⊂ Bn , n ∈ N. Alors B := n∈N Bn ∈ E . Comme µ∗
T
restreinte à E est la mesure µ, on a bien µ (B) = µ(B) = inf n∈N µ(Bn ) = inf n∈N µ (Bn ), ce qui est propriété (c) des capacité de
∗ ∗
Choquet.
Montrons la propriété (b): soient Xn ⊂ E, tels que Xn ⊂ Xn+1 , n ∈ N. On pose X := n∈N Xn . Comme µ∗ est croissante
S
pour l’inclusion, µ∗ (Xn ) ≤ µ∗ (Xn+1 ) ≤ µ∗ (X) et on a donc supn∈N µ∗ (Xn ) ≤ µ∗ (X). Comme µ∗ T est régulière (c’est-à-dire que
µ∗ satisfait (A.43) il existe Bn ∈ E , n ∈ N tels que µ∗ (Xn ) = µ(BS
n ) et Xn ⊂ Bn . On pose An = p≥n Bp . Comme E est une
tribu An ∈ E . Par ailleurs, on a Xn ⊂ An ⊂ Bn . On pose A := n∈N An . On a clairement X ⊂ A. Comme µ∗ est croissante
pour l’inclusion, on en déduit que µ∗ (Xn ) = µ∗ (An ) = µ(An ). Les propriété s élémentaires des mesures positives impliques que
supn∈N µ(An ) = µ(A) ≥ µ∗ (X), et donc supn∈N µ∗ (Xn ) ≥ µ∗ (X). On a donc donc supn∈N µ∗ (Xn ) = µ∗ (X). Cela termine la
preuve du fait que µ∗ est une capacité de Choquet.
Ce lemme montre qu’une capacité de Choquet généralise en quelques sorte la notion de mesure extérieure.
Nous montrons ensuite quelques propriétés générales des capacités de Choquet et des ensembles capacitables.
Lemme A.7.15 Soit E, un ensemble non-vide et soit R ⊂ P(E), tel que ∅ ∈ R et qui est stable par intersections et unions finies. Soit
I : P(E) → [−∞, ∞], une R-capacité de Choquet. Alors les ensembles de Rσδ sont I-capacitables.
Construisons d’abord B0 . Comme A ⊂ A0 , on a A ∩ A0 = A et donc I(A) = I(A ∩ A0 ) = supp∈N I(A ∩ A0,p ), par la propriété
(b) des capacités de Choquet. Il existe donc p0 ∈ N tel que I(A ∩ A0,p0 ) > a. On peut donc poser B0 := A0,p0 . Supposons construits
B0 , . . . , Bn satisfaisant (A.44). On a donc Cn ∩ An+1 = Cn et I(Cn ) = I(Cn ∩ An+1 ) = supp∈N I(Cn ∩ An+1,p ), par la propriété
(b) des capacités de Choquet. Il existe donc pn+1 ∈ N tel que I(Cn ∩ An+1,pn ) > a et pn peut poser Bn+1 := An+1,pn . Cela montre
(A.44) par récurrence.
On pose ensuite Bn0 := B0 ∩. . .∩Bn et B := n∈N Bn . On a bien B ∈ Rδ . Comme Bn ⊂ An , on a B = n∈N Bn ⊂ n∈N An = A.
T T T
Comme Cn ⊂ Bn , on a I(Bn ) > a; comme R est stable par intersections finies on a également Bn ∈ R, n ∈ N et la propriété (c) des
0 0 0
capacités de Choquet implique que I(B) = inf n∈N I(Bn0 ) ≥ a. On a montré que pour tout A ∈ Rσδ , et tout a ∈ ]−∞, I(A)[ il existe
B ∈ Rσ tel que B ⊂ A et I(B) ≥ a. Cela entraîne bien (A.40), c’est-à-dire cela montre que A est I-capacitable.
On rappelle ensuite le lemme A.7.2 qui est utilisé dans la preuve du lemme suivant.
Lemme A.7.16 Soit E, un ensemble non-vide. Soit R ⊂ P(E), une classe de sous-ensembles de E. On suppose que ∅ ∈ R et que R
est stable par unions et intersection finies. Soit I : P(E) → [−∞, ∞], une R-capacité de Choquet.
Soit S, un espace topologique compact métrisable et on rappelle que K (S) désigne la classe des sous-ensembles compacts. On
note H la classe des unions finies d’ensembles de K (S) × R comme définie en (A.34). On vérifie que H est stable par unions et
intersections finies. On note π : (x, y) ∈ S ×E 7→ y ∈ E, la projection canonique sur E.
On définit J : P(S ×E) → [−∞, ∞], une fonction d’ensembles sur S ×E en posant
T
des capacitésTappliquée à I implique
T alors que inf n∈N J(Bn ) = inf n∈N I(π(BT
n )) = I( n∈N π(Bn )). Or le lemme A.7.2 implique par
T
ailleurs que n∈N π(Bn ) = π( n∈N Bn ) et on a donc inf n∈N J(Bn ) = I(π( n∈N Bn )) = J( n∈N Bn ). Cela montre que J satisfait
la propriété (c) des capacités et cela permet de conclure.
On peut maintenant montrer le principal théorème sur les capacités de Choquet, à savoir le théorème de Choquet.
Théorème A.7.17 Soit E, un ensemble non-vide. Soit R ⊂ P(E), une classe de sous-ensembles de E. On suppose que ∅ ∈ R et
que R est stable par unions et intersection finies. Soit I : P(E) → [−∞, ∞], une R-capacité de Choquet. Alors les ensembles
R-analytiques sont I-capacitables:
∀A ∈ Σ(R), I(A) = sup I(B) .
B∈Rδ
B⊂A
Preuve: soit A ∈ Σ(R). Par définition, il existe un espace topologique S, compact métrisable, et il existe B ∈ (K (S) × R)σδ tel
que π(B) = A, où π désigne la projection canonique de S × E sur E. On note H la classe des unions dénombrables d’ensembles
de K (S)×E. Il est clair que Hσδ = (K (S)×R)σδ et donc B ∈ Hσδ . On définit la fonction d’ensembles J sur S ×E par (A.45).
Le lemme A.7.16 imlique que J est une H -capacité. Le lemme A.7.15 appliqué à J et H , implique que tout ensemble de Hσδ
est J-capacitable: en particulier B est J-capacitable. Donc pour tout ε > 0, il existe D ∈ Hδ tel que D ⊂ B et J(D) ≥ J(B) − ε,
c’est-à-dire I(π(D)) ≥ I(A)−ε car par définition J(B) = I(π(D)) et J(B) = I(π(B)) = I(A).
Puisque D ∈ Hδ , il existe Dn∗ ∈ H , n ∈ N, tels que D = n∈N Dn∗ . On pose alors Dn := D0∗ ∩ . . . ∩ Dn∗ . Puisque H est
T
stable par intersection finies (car R l’est, une intersection de compacts est compacte et une intersection d’ensembles produits est un
n ∈ H , Dn+1 ⊂ Dn et
T
ensemble produit), on a D n∈N D n = D. D’une part, le lemme A.7.2 appliqué aux Dn implique donc que
π(D) = π( n∈N Dn ) =S n∈N π(Dn ). D’autre par comme Dn ∈ H , il s’écrit Dn = 1≤p≤N Kp × Ap , avec Kp compact
T T S
de S et
Ap ∈ R. Donc π(Dn ) = 0≤n≤N Ap , ce qui montre que π(Dn ) ∈ R car R est stable par unions finies. Comme π(D) = n∈N π(Dn ),
T
et π(Dn ) ∈ R, on en déduit que π(D) ∈ Rδ . Par ailleurs comme D ⊂ B, on a π(D) ⊂ π(B) = A.
En résumé, pour tout ε > 0, on a trouvé π(D) ∈ Rδ tel que π(D) ⊂ A tel que I(π(D)) ≥ I(A)−ε, ce qui implique que A est
I-capacitable.
On déduit du théorème de Choquet le théorème suivant montrant que les ensembles analytiques sont dans la tribu complétée par
n’importe quelle mesure sigma-finie.
Théorème A.7.18 (Mesurabilité universelle des ensembles analytiques) Soit (E, E , µ), un espace mesuré. On suppose µ finie. On
note E µ , la tribu E complétée par les µ-négligeables. Alors, les ensembles E -analytiques sont dans E µ :
Σ(E ) ⊂ E µ .
Preuve: soit A ∈ Σ(E ). On note µ∗ la mesure extérieure associée à µ comme définie par (A.41). C’est une mesure extérieure régulière,
comme montré au (A.43): il existe donc B ∈ E tel que A ⊂ B et µ∗ (A) = µ(B). Le lemme A.7.14 montre que µ∗ est une E -capacité
de Choquet. Le théorème A.7.17 de Choquet implique alors que A est µ∗ -capacitable: il existe donc Cn ∈ Eδ , n ∈ N tels que Cn ⊂ A
et µ∗ (Cn ) + 2−n ≥ µ∗ (A). Or d’une part, comme E est une tribu, elle est stable par intersections dénombrables, donc Eδ = E , et donc
Cn ∈ E . D’autreS part comme µ∗ coïncide avec µ sur E , on a µ∗ (Cn ) = µ(Cn ), et donc µ(Cn ) + 2−n ≥ µ∗ (A) pour tout n ∈ N. On
pose alors C := n∈N Cn . On a donc C ∈ E et C ⊂ A. Comme Cn ⊂ C, on a µ(C) + 2−n ≥ µ(Cn ) + 2−n ≥ µ∗ (A), pour tout
n ∈ N. Donc µ(C) ≥ µ∗ (A). Or comme µ∗ est croissante pour l’inclusion, comme µ∗ coïncide avec µ sur E et comme C ⊂ A, on a
µ(C) = µ∗ (C) ≤ µ∗ (A). Cela montre finalement que µ(C) = µ∗ (A).
Pour résumer, on a montré qu’il existe C, B ∈ E tels que C ⊂ A ⊂ B tels que µ(C) = µ∗ (A) = µ(B). On pose N = A\C. On a
clairement N ⊂ B\C. Or B\C ∈ E et comme µ est finie, µ(B\C) = µ(B)−µ(C) = 0. Donc N est un µ-négligeable. Or A = C ∪ N ,
donc A ∈ E µ , ce qui termine la preuve.
On utilise le théorème précédent de mesurabilité des ensembles analytiques sous la forme suivante.
Théorème A.7.19 (Mesurabilité universelle des projections) On note B([0, ∞]) la tribu des boréliens de [0, ∞]. Soit (Ω, F , P),
un espace mesurable. Soit π la projection canonique de [0, ∞]×Ω sur Ω. On note F P , la tribu F complétée par les P-négligeables.
Alors
∀B ∈ B([0, ∞])⊗F , π(B) ∈ F P . (A.46)
Preuve: soit B ∈ B([0, ∞]) ⊗ F . Le théorème A.7.11 affirme que π(B) ∈ Σ(F ) et le théorème A.7.18 qui précède montre que
Σ(F ) ⊂ F P .
236 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.
Preuve du théorème I.3.20 du "Début". Nous sommes maintenant à même de prouver les théorème du "Début". Soit
(Ω, F , P), un espace de probabilité. Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit A ⊂ R+ ×Ω, que l’on suppose progressivement
mesurable par rapport à (Gt )t∈R+ . On rappelle la définition du début de A: On pose
∀ ω ∈ Ω, DA (ω) = inf t ∈ R+ : (t, ω) ∈ A
P
avec la convention que inf ∅ = ∞. On rappelle que (Gt+ )t∈R+ est la filtration (Gt+ )t∈R+ qui est complétée avec les P-négligeables.
On note π la projection de [0, ∞]×Ω sur Ω.
On fixe t ∈ ]0, ∞[ . Comme A est progressivement mesurable par rapport à (Gt )t∈R+ , l’ensemble B 0 = {(s, ω) ∈ [0, t] × Ω :
(s, ω) ∈ A} est un ensemble B([0, t])⊗Gt -mesurable. Cela implique immédiatement que
Or on remarque que
{ω ∈ Ω : DA (ω) < t} = π(B) .
Le théorème A.7.19 implique donc que {DA < t} ∈ GtP , pour tout t ∈ ]0, ∞[ . Le lemme I.3.5 (i) (page 27) implique que DA est un
P
temps d’arrêt par rapport à la filtration continue à droite associée à (Gt+ )t∈R+ . Cela termine la preuve du théorème du "Début".
Appendix B
Définition B.1.1 Soit (Ω, F , P), un espace de probabilité. Soit (E, E ), un espace mesurable. Une fonction X : Ω → E qui est
(F , E )-mesurable est plutôt appelée une variable aléatoire (F , E )-mesurable. On utilise l’abréviation v.a. pour variable aléatoire.
Notations. Les variables aléatoires sont souvent notées par des lettres capitales scriptes de la fin de l’alphabet X, Y , Z. Soit X : Ω →
E, unev.a. (F , E )-mesurable. On utilise la notation suivante
{X ∈ C} := X −1 (C) = {ω ∈ Ω : X(ω) ∈ C , } .
On omet les accolades { } le plus souvent possible. Par exemple on écrit P(X ∈ C) plutôt que P({X ∈ C}) et on écrit rarement
P(X −1 (C)). Si Y est une autre variable aléatoire (F , E )-mesurable, pour tout D ∈ E , on écrit
Lorsque E = R, C, [0, ∞], [−∞, ∞], Rd , et que E est la tribu des Boréliens correspondante, on omet de préciser la tribu de l’espace
d’arrivée: on parle simplement d’une variable aléatoire F -mesurable (réelle, complexe, positive ...).
(a) Soit X : Ω → [0, ∞], une v.a. F -mesurable. Son espérance est son intégrale par rapport à P, notée E[X]:
Z
E[X] = X(ω) dP(ω) . (B.1)
Ω
(b) Soit X : Ω → R ou C, v.a. F -mesurable est dite intégrable si elle est P-intégrable, c’est-à-dire que E |X| < ∞. Son
espérance est son intégrale par rapport à P. On note cette intégrale E[X], c’est-à-dire que l’on a (B.1).
L’espérance est linéaire positive, on a E[X] ≤ E |X| . On rappelle, avec les notations probabilistes, le fait élémentaire suivant
∀A ∈ F , E[1A ] = P(A) .
Nous ne répétons pas intégralement les propriétés de l’espèrance puisque ce sont celle de toute intégrale contre une mesure positive.
Nous rappelons qu presque sûrement signifie presque partout. Nous énonçons les principaux théorèmes de passage à la limite sous
l’intégrale avec les notations probabilistes. Ici, (Xn )n≥0 est une suite de v.a. F -mesurables, à valeurs dans [0, ∞], R ou C.
Convergence monotone. On suppose les v.a. Xn à valeurs dans [0, ∞] et telles que que Xn ≤ Xn+1 , pour tout n ∈ N. On pose
X∞ = supn Xn . Alors, limn E[Xn ] = E[X∞ ].
237
238 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.
Interversion positive. On suppose les v.a. Xn à valeurs dans [0, ∞]. Alors,
hX i X
E Xn = E[Xn ] .
n≥0 n≥0
Convergence dominée. On suppose les v.a. Xn à valeurs dans C. On fait les hypothèses suivantes.
(a) Il existe une v.a. réelle X∞ telle que limn Xn = X∞ p.s.
(b) Il existe une v.a. intégrable Z telle que p.s. |Xn | ≤ Z, pour tout n ≥ 0.
Alors, X∞ est intégrable, limn E |Xn − X∞ | = 0, et limn E[Xn ] = E[X∞ ].
1 P P
Interversion L . On suppose les v.a. Xn à valeurs dans C. On suppose que n≥0 E |Xn | < ∞ Alors, n≥0 Xn est une v.a. bie
définie p.s. et intégrable. On a, hX i X
E Xn = E[Xn ] .
n≥0 n≥0
On utilisera souvent le lemme technique suivant qui est une reformulation du lemme A.1.19, page 207.
Lemme B.1.3 Soit (Ω, F ), un espace mesurable et G une sous-tribu de F . Soit Z, une v.a. positive G -mesurable. Alors, Il existe
Bn ∈ G , cn ∈ R+ , n ∈ N, tels que Z = n≥0 cn 1Bn .
P
Définition B.1.4 (Loi d’une variable aléatoire) Soit (Ω, F , P), un espace de probabilité. Soit (E, E ), un espace mesurable. Soit
X : Ω → E, une v.a. (F , E )-mesurable. La loi de X est la mesure image de P par X. Dans ce cours, on la note µX et on a donc
∀C ∈ E , µX (C) = P(X ∈ C) .
Le théorème de transfert implique que pour toute fonction f : E → [0, ∞] qui est E -mesurable, on a
Z
E f (X) = f dµX .
E
Cette égalité reste vraie lorsque f est à valeurs complexes si f (X) est F -mesurable intégrable, ce qui est équivalent à ce que f soit
µX -intégrable.
Par exemple si X est une v.a. complexe F -mesurable et intégrable, on a E[X] = C yµX (dy).
R
On utilisera souvent le théorème suivant qui n’est qu’une réécriture avec des notations probabilistes du théorème A.1.23, page 208.
Théorème B.1.5 Soit (Ω, F ), et (E, E ) de espaces mesurable. Soit Y : Ω → E, une v.a. (F , E )-mesurable. Soit X : Ω → R,
une v.a. qui est bornée et mesurable par rapport à σ(Y ), la tribu engendrée par Y . Alors il existe une fonction F : E → R qui est
E -mesurable bornée telle que X = F (Y ).
Définition B.1.6 (Fonction caractéristique d’une v.a.) oit X : Ω → Rn , un vecteur aléatoire F -mesurable. Sa fonction caractéristique
est la transformée de Fourier de sa loi, c’est-à-dire
∀u ∈ Rn , µ
bX (u) = E eihu,Xi .
On rappelle les propriétés de la transformée de Fourier, et donc des fonctions caractéristiques, en termes probabilistes.
Théorème B.1.7 (Injectivité) Soit (Ω0 , F 0 , P0 ), un espace de probabilité et soit Y : Ω0 → Rn , un vecteur aléatoire F 0 -mesurable.
Alors X et Y ont même loi ssi leurs fonctions caractéristiques sont égales, c’est-à-dire
µ bY ⇐⇒ µX = µY .
bX = µ
B.1. BREFS RAPPELS. 239
Variance et covariance.
Définition B.1.9 (Covariance de deux v.a. réelles) Soient X, Y , deux v.a. réelles F -mesurables. On suppose qu’elles admettent un
moment d’ordre 2. L’inégalité de Hölder implique que XY est intégrable et on pose
Proposition B.1.10 X = (X1 , . . . , Xn ) : Ω → Rn , un vecteur aléatoire F -mesurable admettant un moment d’ordre 2. On note Γ
sa matrice de covariance et on note
v = E[X] = E[X1 ], . . . , E[Xn ] ∈ Rn ,
ΓM X = M ΓM ∗ .
Preuve: il est facile de vérifier que E hu, Xi = hu, vi et que var hu, Xi = var hu, X − vi . On peut donc se ramener au cas où
E[X] = 0. Dans ce cas cov(Xi , Xj ) = E[Xi Xj ]. Pour tout u = (u1 , . . . , un ) ∈ Rn , on a donc
X
var hu, Xi = E hu, Xi2 =
uj uk E[Xj Xk ] = hu, Γui ,
1≤j,k≤n
en développant le carré. Cela montre (i). Montrons (ii): par définition de la transposée, hx, M yi = hM ∗ x, yi, pour tous x, y ∈ Rn .
Le (i) implique donc pour tout u ∈ Rn ,
Proposition B.1.11 Soit X = (X1 , . . . , Xn ) : Ω → Rn , un vecteur aléatoire F -mesurable admettant un moment d’ordre 2. Alors,
sa fonction caractéristique est C 2 est on a le développement de Taylor suivant au voisinage de 0:
1
X X
∀u = (u1 , . . . , un ) ∈ Rn , µ E[Xj Xk ] uj uk + o kuk2 .
bX (u) = 1 + i E[Xk ] uk − 2
1≤k≤n 1≤j,k≤n
240 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.
Preuve: les Xk on des moments d’ordre 2. Ce sont des v.a. intégrables. Comme déjà mentionné, Xj Xk sont aussi intégrables. Or on
observe que
∂ ihu,Xi ∂2
e = iuk Xk eihu,Xi et eihu,Xi = −uj uk Xj Xk eihu,Xi .
∂uk ∂uj ∂uk
Le théorème de dérivation sous l’intégrale montre alors que
∂µ
bX ∂2µ
bX
(u) = iuk E Xk eihu,Xi (u) = −uj uk E Xj Xk eihu,Xi ,
et
∂uk ∂uj ∂uk
ce qui implique le résultat voulu.
B.2 Indépendance.
Définition B.2.1 (Indépendance d’événements) Soit (Ω, F , P), un espace de probabilité. On introduit les notions suivantes.
(a) Soient A, B ∈ F . Les événements A et B sont dits indépendants sous P si P(A ∩ B) = P(A)P(B).
(b) Soient A1 , . . . , An ∈ F . Les événements A1 , . . . , An sont dits mutuellement indépendants sous P si pour tout 2 ≤ k ≤ n et
tous 1 ≤ j1 < . . . < jk ≤ n, on
On remarque que les (Ai )i∈I sont mutuellement indépendants sous P ssi si pour tout sous-ensemble d’indices J ⊂ I qui est
fini et qui compte au mois deux éléments, les événements (Aj )j∈J sont mutuellement indépendants sous P au sens du (b).
Définition B.2.2 (Indépendance de classe d’ensembles) Soit (Ω, F , P), un espace de probabilité. On introduit les notions suivantes.
(a) Soient R1 , . . . , Rn ⊂ F , des classes non-vides d’événements. Les classes d’événements R1 , . . . , Rn sont mutuellement
indépendantes sous P si
(b) Soit Ri ⊂ F , i ∈ I, une famille de classes non-vides d’événements. Les classes Ri , i ∈ I, sont mutuellement indépendantes
sous P si pour tout sous-ensemble d’indices J ⊂ I, qui est fini et qui contient au moins deux éléments, les classes (Rj )j∈J sont
mutuellement indépendantes au sens du (b).
Au vu du point (c) de la définition B.2.1, les classes d’événéments (Ri )i∈I sont mutuellement indépendantes sous P ssi
\ Y
∀J ⊂ I, J fini et non-vide, ∀Aj ∈ Rj , j ∈ J , P Aj = P(Aj ) . (B.2)
j∈J j∈J
Proposition B.2.3 Soit (Ω, F , P), un espace de probabilité. Soit Ri ⊂ F , i ∈ I, une famille de classes non-vides d’événements.
Soit I 0 ⊂ I et soient Ri0 ⊂ Ri , i ∈ I 0 , des classes non-vides d’événements. On suppose que les classes d’événements Ri , i ∈ I sont
mutuellement indépendantes sous P. Alors il en est de même pour les classes d’événements Ri0 , i ∈ I 0 .
Lemme B.2.4 Soit (Ω, F , P), un espace de probabilité. Soient R1 , . . . , Rn ⊂ F , des classes non-vides d’événements. On suppose
que Ω ∈ Rk pour tout 1 ≤ k ≤ n. Alors,
Preuve: l’implication =⇒ est claire. Montrons l’implication contraire. On suppose donc que
Soient B1 ∈ R1 , . . . , Bn ∈ Rn . Il faut montrer que les événements B1 , . . . , Bn sont mutuellement indépendants sous P: soient
2 ≤ k ≤ n et 1 ≤ j1 < . . . < jk ≤ n. Pour tout 1 ≤ ` ≤ k, on pose Aj` := Bj` et si j ∈
/ {j1 , . . . , jk }, on pose Aj := Ω, qui appartient à
Rj par hypothèse. Par (B.3), on a donc
Cela implique que pour tous B1 ∈ R1 , . . . , Bn ∈ Rn , les événements B1 , . . . , Bn sont mutuellement indépendants sous P. Les classes
d’événements R1 , . . . , Rn sont donc mutuellement indépendantes sous P.
Théorème B.2.5 Soit Pi ⊂ F , i ∈ I, une famille de pi-systèmes. On suppose que les pi-systèmes Pi , i ∈ I, sont mutuellement
indépendants sous P. Alors, les tribus engendrées σ(Pi ), i ∈ I, sont également mutuellement indépendantes sous P.
Preuve: au vu de la définition B.2.2 (b), il suffit de prouver le théorème dans le cas où I est fini. On choisit donc I = {1, . . . , n}. On
montre d’abord l’assertion suivante.
• Pour tous pi-systèmes Pi∗ ⊂ F , 1 ≤ i ≤ n, on a l’implication suivante:
P1∗ , . . . , Pn∗ mut. ind. sous P =⇒ σ(P1∗ ), P2∗ , . . . , Pn∗ mut. ind. sous P .
(B.4)
On a donc P1∗ ⊂ L . On montre facilement que L est une classe monotone (exercice). Le théorème de la classe monotone implique
alors que σ(P1∗ ) ⊂ L et donc que σ(P1∗ ) = L . Donc, pour tout B ∈ σ(P1∗ ), P(B ∩ A2 ∩ . . . ∩ An ) = P(B)P(A2 ∩ . . . ∩ An ).
Mais comme P2∗ , . . . , Pn∗ sont indépendants, on a P(A2 ∩ . . . ∩ An ) = P(A2 ) . . . P(An ). On a a donc montré que
Le lemme B.3 implique ensuite que les classes d’événements σ(P1∗ ), P2∗ . . . , Pn∗ sont mutuellement indépendantes sous P, ce qui
termine la preuve de (B.4).
En appliquant (B.4) à (P1∗ , . . . , Pn∗ ) = (P1 , . . . , Pn ), on montre que σ(P1 ), P2 , . . . , Pn sont mutuellement indépendants
sous P. Or σ(P1 ) est une tribu donc un pi-système. On applique alors (B.4) à la suite de pi-systèmes
ce qui montre la mutuelle indépendance des σ(P2 ), P3 , . . . , Pn , σ(P1 ). Ainsi de suite jusqu’à montrer que σ(P1 ), . . . , σ(Pn )
sont mutuellement indépendantes sous P, ce qui termine la preuve.
Proposition B.2.6 (Indépendance par paquets) Soit I un ensemble d’indices. Soit Ik ⊂ I, k ∈ K, une partition de I. Soit
(Ω, F , P), un espace de probabilité. Soit Fi ⊂ F , i ∈ I, une famille de tribus. Pour tout k ∈ K, on pose Gk = σ(Fi ; i ∈ Ik ). Alors,
Preuve: pour tout k ∈ K, on note Pk la classe des intersections finies d’événements dans i∈Ik Fi :
S
[
Pk = A1 ∩ . . . ∩ An ; n ∈ N, A1 , . . . , An ∈ Fi .
i∈Ik
Il est facile de voir que Pk est un pi-système tel que σ(Pk ) = Gk . L’indépendance des tribus Fi , i ∈ I, entraîne facilement celle des
Pk , k ∈ K. Le théorème B.2.5 permet de conclure.
Soit (E, E ), un espace mesurable et X : Ω → E, une v.a. (F , E )-mesurable. On rappelle que la tribu engendrée par X est donnée
par la tribu pré-image de E par X, c’est-à-dire
σ(X) = {X ∈ B} ; B ∈ E
(B.5)
qui est la plus petite tribu sur Ω rendant X mesurable. On introduit la définition suivante.
242 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.
Définition B.2.7 (Indépendance de v.a.) Soit (Ω, F , P), un espace de probabilité. Soit I, un ensemble d’indices. Pour tout i ∈ I, soit
(Ei , Ei ), un espace mesurable et Xi : Ω → Ei , une v.a. (F , Ei )-mesurable.
On dit que les variables Xi , i ∈ I, sont mutuellement indépendantes sous P si les tribus σ(Xi ) ⊂ F , i ∈ I, sont mutuellement
indépendantes sous P.
La proposition suivante donne plusieurs reformulations de la définition de l’indépendance des variables aléatoires.
Proposition B.2.8 Soit (Ω, F , P), un espace de probabilité. Soit I, un ensemble d’indices. Pour tout i ∈ I, on fixe les objets suivants.
• Un espace mesurable (Ei , Ei ) et un pi-système Ci ⊂ Ei tel que σ(Ci ) = Ei .
• Une v.a. Xi : Ω → Ei qui est (F , Ei )-mesurable et dont la loi sous P est notée µi : µi (B) = P(Xi ∈ B), B ∈ Ei .
Alors, les assertions suivantes sont équivalentes.
(v) Pour tout J ⊂ I, fini non-vide et pour toutes fonctions Ej -mesurables bornées hj : Ej → R, j ∈ J,
hY i Y
E hj (Xj ) = E hj (Xj ) .
j∈J j∈J
Preuve: au vu des définitions B.2.7 et B.2.2, il suffit de traiter le cas où I est fini. On prend donc I = {1, . . . , n}. Par définition, (i)
est équivalent à l’indépendance des tribus σ(Xi ), i ∈ I. Or (B.5) et (B.2) montrent que (i) ⇔ (ii). L’implication (ii) ⇒ (iii) est
triviale. Supposons (iii): on pose
Pi = {Xi ∈ C} ; C ∈ Ci .
C’est clairement un pi-système tel que σ(Xi ) = σ(Pi ). Or (iii) signifie que les pi-systèmes Pi , i ∈ I sont indépendants: le théorème
B.2.5 implique alors que les tribus σ(Pi ), i ∈ I, sont indépendantes, ce qui implique (i). On a donc montré que (iii) ⇒ (i) et donc
que (i), (ii) et (iii) sont équivalents.
On suppose (ii). On rappelle ensuite que µ1 ⊗ . . . ⊗ µn est l’unique mesure de probabilité sur E1 ⊗ . . . ⊗ En telle que (µ1 ⊗ . . . ⊗
µn )(B1 × . . . × Bn ) = µ1 (B1 ) . . . µn (Bn ), pour tous B1 ∈ E1 , . . ., Bn ∈ En . On note µ la loi de X = (X1 , . . . , Xn ). Il est clair
que pour tous B1 ∈ E1 , . . . , Bn ∈ En
\
µ(B1 × . . . × Bn ) = P X ∈ B1 ×. . .×Bn = P {Xj ∈ Bj } .
1≤j≤n
T Q
Or, par (ii), P( 1≤j≤n {Xj ∈ Bj }) = 1≤j≤n P(Xj ∈ Bj ) = µ1 (B1 ) . . . µn (Bn ). Cela entraîne donc µ = µ1 ⊗ . . . ⊗ µn , et
donc (iv). On a montré que (ii) ⇒ (iv). L’implication (iv) ⇒ (v) est une conséquence directe du théorème de Fubini. L’implication
(v) ⇒ (ii) est triviale.
Pour des variables aléatoires réelles, on obtient le corollaire suivant
Corollaire B.2.9 Soit (Xi )i∈I , une famille de v.a. réelles F -mesurables. Elles sont indépendantes ssi pour tout {j1 , . . . , jn } ⊂ I où
les jk sont distincts, et pour tous x1 , . . . , xn ∈ R, on ait
P Xj1 ≤ x1 ; . . . ; Xjn ≤ xn = P(Xj1 ≤ x1 ) . . . P(Xjn ≤ xn ) .
B.3. VARIABLES ET VECTEURS GAUSSIENS. 243
Preuve: on applique l’équivalence de (i) et de (iii) de la proposition B.2.8 à (Ei , Ei ) = (R, B(R) et Ci = {R} ∪ { ]−∞, a] ; a ∈ R},
qui est un pi-système générant B(R).
Les fonctions caractéristiques sont plus adaptées aux sommes de variables indépendantes.
Proposition B.2.10 Soient Xk : Ω → Rn , 1 ≤ k ≤ p, des vecteurs aléatoires F -mesurables que l’on suppose indépendants. On
note µ1 , . . . µp leurs lois respectives. Alors, la loi µ de X := X1 + . . . + Xp est µ1 ∗. . .∗µp et on a
Preuve: on note φ : (x1 , . . . , xp ) ∈ (Rn )p 7−→ x1 +. . .+xp , qui est mesurable car continue. Par définition du produit de convolution
µ1∗. . .∗µp est la mesure image de µ1⊗. . .⊗µp par φ. Comme les v.a. Xk sont indépendantes, la proposition B.2.8 (iv) implique que la
loi de (X1 , . . . , Xp ) est µ1 ⊗. . .⊗µp . Par conséquent la loi de X, notée µ est bien µ1 ∗. . .∗µp . Le reste du lemme est une conséquence
de propriétés de la transformée de Fourier des mesures et de la convolution.
On prouve ensuite le critère d’indépendance suivant.
Proposition B.2.11 Soient X1 , . . . , Xn , des v.a. réelles F -mesurables. Elles sont indépendantes ssi on
Preuve: si les variables sont indépendantes, alors la proposition B.2.10 implique (B.6). Supposons (B.6). On note µk la loi de Xk
et on note µ la loi de X = (X1 , . . . , Xn ), qui est vecteur aléatoire F -mesurable de Rn . Par injectivité de la transformée de Fourier,
(B.6) implique que µ = µ1 ⊗. . .⊗ µn , ce qui entraîne l’indépendances des Xk par la proposition B.2.8.
Donnons une conséquence très utile de la proposition B.2.8.
Proposition B.2.12 Soit (Ω, F , P), un espace de probabilité. Soient X1 , . . . , Xn , des v.a. complexes F -mesurables intégrables
indépendantes. Alors le produit X1 . . . Xn est également intégrable et
Preuve: par la proposition B.2.8 la loi de X = (X1 , . . . , Xn ) est le produit des lois des Xi : µX = µX1 ⊗. . .⊗ µXn . Par le théorème
de transfert et Fubini positif
Z
E |X1 | . . . |Xn | = |x1 | . . . |xn | µX1 (dx1 ) . . . µXn (dxn )
Rn
Z Z
= |x1 | µX1 (dx1 ) . . . |xn | µXn (dxn )
R R
= E |X1 | . . . E |Xn | .
Cela démontre le résultat voulu lorsque les variables sont à valeurs dans [0, ∞]. Si les variables X1 , . . . Xn sont intégrables, il en est
de même pour X1 . . . Xn et par transfert et Fubini, on a
Z
E X1 . . . Xn = x1 . . . xn µX1 (dx1 ) . . . µXn (dxn )(dxn )
Rn
Z Z
= x1 µX1 (dx1 ) . . . xn µXn (dxn )
R R
= E[X1 ] . . . E[Xn ] ,
On note cela X ∼ N (m, σ 2 ). Si m = 0, X est dite centrée et une variable Gaussienne N (0, 1) est appelée Gaussienne standard.
Par commodité, on dit également que X est une loi Gaussienne de moyenne m et de variance nulle si X est presque sûrement égal
à m. On continue de noter cela X ∼ N (m, 0). On parle alors de variable Gaussienne dégénérée.
1 2 2
Autrement dit la loi de X est entièrement déterminée par sa moyenne et sa variance. On rappelle que gd
0,σ (u) = exp(− 2 σ u ). Cela
entraîne facilement que si X ∼ N (m, σ),
1 2 2
E eiuX = µ
bX (u) = gbm,σ (u) = eimu− 2 σ u .
∀u ∈ R,
Le membre de droite est une fonction analytique sur C dont le rayon de convergence est infini (c’est une fonction entière). Si on
suppose pour simplifier que X ∼ N (0, σ), on vérifie alors
X E[X n ] n X σ 2n 2n
E ezX =
z = z .
n! 2n n!
n≥0 n≥0
(2n)! 2n
E[X 2n+1 ] = 0 et E[X 2n ] = σ = σ 2n (2n − 1)×(2n − 3)×. . .×5×3×1 .
n! 2n
Lemme B.3.2 Soient X1 ∼ N (m1 , σ12 ), . . . , Xn ∼ N (mn , σn2 ) des variables Gaussiennes indépendantes. Soient a1 , . . . , an ∈ R.
Alors a1 X1 + . . . + an Xn ∼ N (m, σ 2 ) où
m = a1 m1 + . . . + an mn et σ 2 = (a1 σ1 )2 + . . . + (an σn )2 .
Définition B.3.3 (Vecteurs Gaussiens) Soit X = (X1 , . . . , Xd ) : Ω → Rd , un vecteur F -mesurable. C’est un vecteur Gaussien si
pour tout u = (u1 , . . . , ud ) ∈ Rd , hu, Xi = u1 X1 + . . . + ud Xd est une variable Gaussienne réelle (possiblement dégénérée).
Lemme B.3.4 Soit X = (X1 , . . . , Xd ) : Ω → Rd , un vecteur Gaussien. Soit M , une matrice réelle carrée de taille d × d. Alors, le
vecteur aléatoire M X est Gaussien.
Exemple B.3.5 Soient X1 , . . . , Xd , des v.a. réelles indépendantes de loi N (0, 1). Alors, X := (X1 , . . . , Xd ) est un vecteur Gaussien.
En effet, On fixe u = (u1 , . . . , ud ) ∈ Rd et v ∈ R. L’indépendance implique que
1 1
Y
E[eivuk Xk ] = exp − 2 v 2 (u21 + . . . + u2d ) = exp(− 2 v 2 kuk2 .
µ
bhu,Xi (v) =
1≤k≤d
Cela montre que pour tout u ∈ Rd , hu, Xi est une variable Gaussienne N (0, kuk2 ) par injectivité de la fonction caractéristique.
On rappelle les définitions du vecteur moyenne et de la matrice de covariance, ainsi que des formules élémentaires de la proposition
B.1.10 page 239 qui entraînent immédiatement le lemme suivant.
B.3. VARIABLES ET VECTEURS GAUSSIENS. 245
Lemme B.3.6 Soit X : Ω → Rd , un vecteur Gaussien F -mesurable. On note v, le vecteur moyenne de X et Γ, sa matrice de
covariance. Alors pour tout u ∈ Rd ,
hu, Xi est une v.a. réelle Gaussienne de moyenne hu, vi et de variance hu, Γui.
et donc
1
bX (u) = E eihu,Xi = µ
µ bhu,Xi (1) = exp ihu, vi− 2 hu, Γui . (B.9)
Définition B.3.7 Le lemme précédent montre que la loi d’un vecteur Gaussien X est entièrement caractérisée par son vecteur moyenne
v et sa matrice de covariance Γ. On note le fait que X est un vecteur Gaussien de vecteur moyen v et de matrice de covariance Γ par
X ∼ N v, Γ .
Soit X : Ω → Rd , un vecteur Gaussien F -mesurable de vecteur moyen v et de matrice de covariance Γ. On note r le rang de Γ
et λ1 , . . . , λr ses valeurs propres non-nulles. Comme Γ est symétrique positive, λ1 , . . . , λr > 0. On note ∆ et ∆
e les matrices d×d,
diagonales données par
√ √
λ1 0 ... ... ... 0 1/ λ1 0 ... ... ... 0
.. .. .. .. .. ..
0
. . .
0 . . .
. .. √ .. ..
.. .. √ .. ..
. . . . 1/ λr .
. λr . . .
∆= et ∆e =
. . .. .. . . .. .. .
. .. .. . ..
. . 0 . 0
. .. .. .. .. ..
..
. . 0 . . . 0
0 ... ... 0 0 0 ... ... 0 0
∆∆e est donc la matrice Ir qui est diagonale et dont les r premiers coefficients diagonaux sont égaux à 1 et les d−r suivants sont nuls.
Comme Γ est symétrique, il existe une matrice orthogonale O telle que O∗ ΓO = ∆2 , où O∗ désigne la transposée de O.
e ∗ (X − v). Alors
Proposition B.3.8 On reprend les notations ci-dessus. On pose Y := ∆O
Y = (Y1 , . . . , Yr , 0, . . . , 0) ,
où Y1 , . . . , Yr sont des v.a. réelles indépendantes de loi N (0, 1), qui sont appelées les composantes indépendantes de X. De plus
X = v + O∆Y.
Preuve: Y est un vecteur Gaussien de vecteur moyen nul. Par la proposition B.1.10 (ii), page 239, sa matrice de covariance Γ0 est
donnée par
Γ0 = ∆O
e ∗ Γ(∆O
e ∗ )∗ = ∆O e ∗ ΓO∆ e = ∆∆e 2∆ e = Ir .
On a donc Y ∼ N (0, Ir ), ce qui montre la proposition.
Cette proposition implique que toute matrice symétrique positive peut être la matrice de covariance d’un vecteur Gaussien. Dans
le cas où cette matrice de covariance est inversible, la loi du vecteur Gaussien correspondant admet une densité par rapport à la mesure
de Lebesgue, donnée dans la proposition suivante.
Proposition B.3.9 (Densité des vecteurs Gaussiens) Soit X : Ω → Rd , un vecteur Gaussien F -mesurable, de vecteur moyenne nul
et de matrice de covariance Γ supposée inversible. La loi de X admet la densité suivante par rapport à la mesure de Lebesgue sur Rd :
1 1
∀x ∈ Rd , gΓ (x) = exp − 2 hx, Γ−1 xi .
p
(2π) d/2 det(Γ)
Preuve: on reprend les notation précédentes: on pose M = O∆, si bien que Γ = M M ∗ et la proposition précédente implique que
X = M Y, où Y ∼ N (0, Id). Soit f : Rd → R+ , une fonction mesurable. On a donc
Z
1 2
E f (M.Y) = (2π)−d/2 e− 2 kyk f (M y) `d (dy) .
Rd
Comme Γ est supposée inversible il en est de même pour M et on a det(M ) = det(Γ) et Γ−1 = (M −1 )∗ M −1 . Donc kM −1 xk2 =
p
−1
hx, Γ xi. Le théorème de changement de variable linéaire implique alors que
Z Z
1 1 kM −1 xk2
−2 1 − 1 hx,Γ−1 xi
E f (M.Y) = e f (x) `d (dx) = e 2 f (x) `d (x) ,
(2π)d/2 det(M ) Rd
p
(2π) d/2 det(Γ) Rd
(a) Convergence en probabilité. La suite (Xn )n≥0 converge en P-probabilité vers X ssi
∀ε > 0 , lim P d(Xn , X) > ε = 0 .
n→∞
(b) Convergence presque sûre. La suite (Xn )n≥0 converge P-presque sûrement vers X ssi il existe N ∈ F tel que P(N ) = 0 et
∀ω ∈ Ω\N , lim d Xn (ω), X(ω) = 0 .
n→∞
Lorsqu’il n’y a pas ambiguïté, on parle seulement de convergence en probabilité plutôt que de convergence en P-probabilité et
de convergence p.s.ãulieu de convergence P-presque sûre.
Le théorème suivant fait le lien entre la convergence en probabilité et la convergence presque sûre.
Théorème B.4.2 Soient Xn ∈ LE (Ω, F ), n ∈ N et X ∈ LE (Ω, F ). Les assertions suivantes sont vérifiées
(ii) Si limn Xn = X en probabilité, il existe une suite strictement croissante d’indices (nk )k≥0 tels que limk Xnk = X presque
sûrement.
(iii) On suppose que limn Xn = X en probabilité. Soit Y ∈ LE (Ω, F ) tel que l’on ait aussi limn Xn = Y en probabilité. Alors
X = Y presque sûrement.
Preuve: on montre (i). Supposons que limn Xn = X presque sûrement. On pose Yn = 1{d(Xn ,X)>ε} . Alors 0 ≤ Yn ≤ 1 et
p.s limn Yn = 0. Par convergence dominée, limn E[Yn ] = 0, c’est-à-dire limn P(d(Xn , X) > ε) = 0. Comme ε peut être arbitrairement
petit, cela montre que limn Xn = X en probabilité.
Montrons (ii). Supposons que limn Xn = X en probabilité. Par définition, pour tout k ∈ N, il existe pk ∈ N, tel que pour
−k
P n ≥ pk , on ait P(d(X
tout n ,X) > 2 ) ≤ 2−k . On pose nk = p1 + . . . + pk et on a bien P(d(Xnk , X) > 2−k ) ≤ 2−k . Donc
−k
k∈N P d(Xnk , X) > 2 < ∞. Le lemme de Borel-Cantelli implique que presque sûrement pour tout k suffisamment grand,
d(Xnk , X) ≤ 2−k et donc limk Xnk = X presque sûrement, ce qui prouve (ii). Le point (iii) est une conséquence immédiate du (ii).
Une preuve directe sans utiliser (ii) est possible.
(E, d) et (E 0 , d0 ), deux espace métriques séparables. On munit E×E 0 de la distance D (x, x0 ), (y, y 0 ) :=
Proposition B.4.3 Soient
max d(x, y), d(x0 , y 0 ) . On rappelle que (E ×E 0 , D) est séparable et que la topologie de la métrique D est la topologie produit sur
E ×E 0 .
Soient Xn ∈ LE (Ω, F ), Xn0 ∈ LE 0 (Ω, F ), n ∈ N, et soient X 0 ∈ LE 0 (Ω, F ) et X 0 ∈ LE 0 (Ω, F ). Alors,il y a équivalence
entre les deux assertions suivantes.
On s’intéresse ensuite aux propriétés de continuité de la convergence en probabilité. Plus précisément, soient (E, d) et (E 0 , d0 ),
deux espaces métriques séparables; soit f : E → E 0 , une fonction (B(E), B(E 0 ))-mesurable. On définit le module de continuité de
f en x de la manière suivante: pour tout x ∈ E et tout réel δ > 0, on pose
où B(x, δ) := {y ∈ E : d(x, y) < δ} est la boule ouverte de centre x et de rayon δ. On rappelle que f est continue en x ssi
limδ→0 wf (x, δ) = 0. On montre le lemme suivant.
Lemme B.4.4 Soient (E, d) et (E 0 , d0 ), deux espaces métriques séparables. Soit f : E → E 0 , une fonction (B(E), B(E 0 ))-
mesurable. Alors les assertions suivantes sont vérifiées.
On voit que Ua,δ = {x ∈ E : wf (x, δ) > a}. On vérifie que Ua,δ est un ouvert. En effet, soit x ∈ Ua,δ . Il existe y, z ∈ B(x, δ)
tels que d0 f (y), f (z) > a. On pose η = min(δ − d(x, y), δ − d(x, z)). Donc η > 0, et pour tout x∗ ∈ B(x, η), on a bien
d(x∗ , y) ≤ d(x∗ , x) + d(x, y) < δ. De même, d(x∗ , z) < δ. Donc, y, z ∈ B(x∗ , δ) et on a bien B(x∗ , η) ⊂ Ua,δ . Cela montre (i).
Pour montrer (ii), on pose pour tout x ∈ E, g(x) = lim supp wf (x, 2−p ). Par (i), c’est une application B(E)-mesurable. On
remarque ensuite que pour tout p ∈ N, et tout x ∈ E, wf (x, 2−p−1 ) ≤ wf (x, 2−p ). Donc
Proposition B.4.5 Soient (E, d) et (E 0 , d0 ), deux espace métriques séparables. Soit f : E → E 0 , une fonction (B(E), B(E 0 ))-
mesurable. Soient Xn ∈ LE (Ω, F ), n ∈ N et X ∈ LE (Ω, F ). On fait les hypothèses suivantes.
P d0 f (Xn ),f (X) > ε = P d0 f (Xn ), f (X) > ε; d(Xn , X) < δ + P d0 f (Xn ), f (X) > ε; d(Xn , X) ≥ δ
≤ P wf (X, δ) > ε + P d(Xn , X) > δ/2 .
Donc pour tous ε, δ > 0, l’hypothèse (a) implique que lim supn→∞ PTd0 f (Xn ), f (X) > ε ≤ P wf (X, δ) > ε . Pour tout p ∈ N,
on pose Ap = {wf (X, 2−p ) > ε}. On a donc Ap+1 ⊂ Ap et A := p∈N Ap ⊂ {f n’est pas continue en X}. Donc limp P(Ap ) =
P(A) = 0 par l’hypothèse (b), ce qui permet de conclure.
On déduit des deux proposition précédentes les propriétés de continuité suivantes de la convergence en probabilité (bien d’autres
énoncés du même genre en découlent).
Proposition B.4.6 Soit (E, d), un espace métrique séparable. Soient Xn , Yn , X, Y ∈ LE (Ω, F ). On suppose que limn→∞ Xn = X
en probabilité et limn→∞ Yn = Y en probabilité. Alors les assertions suivantes sont vérifiées.
Preuve: la proposition B.4.3 implique que limn (Xn , Yn ) = (X, Y ) en probabilité dans E 2 . On applique ensuite la proposition B.4.5 à
E = Rk , et f (x, y) = x + y pour obtenir (i), à E = R ou C et f (x, y) = xy pour obtenir (ii), à f (x, y) = x/y qui est continue sur
C× C∗ pour obtenir (iii), et enfin à E = [−∞, ∞] et f (x, y) = x ∧ y et f (x, y) = x ∨ y pour obtenir (iv).
Preuve: le lemme de Borel-Cantelli implique l’existence de B ∈ F tel que P(B) = 1 et tel pour tout ω ∈ B, on ait d(Xn+1 PXn (ω)) ≤
(ω),
εn pour P tout n ≥ n0 (ω). L’inégalité triangulaire implique que pour tous m, n ≥ p ≥ n0 (ω), on a d Xn (ω), Xm (ω) ≤ k≥p εk .
Comme n∈N εn < ∞, pour tout ω ∈ B, la suite (Xn (ω))n∈N est de Cauchy. Puisque E est supposé complet, il existe X(ω) ∈ E
tel que limn d(Xn (ω), X(ω)) = 0. On fixe ensuite x0 ∈ E et pour tout ω ∈ Ω\B, on pose X(ω) = x0 . On a donc montré que
limn Xn = X presque sûrement car P(B) = 1.
Il reste à montrer que X est (F , B(E))-mesurable. Pour cela, on rappelle que les fonctions continues bornées sur E engendre
la tribu Borélienne B(E). Cela implique que si pour toute fonction continue bornée f : E → R, f (X) est F -mesurable alors X est
(F , B(E))-mesurable. Or on a P-p.s. limn f (Xn ) = f (X), ce qui implique que f (X) est F -mesurable une limite presque sûr de
v.a. réelles F -mesurable (les f (Xn ) le sont) est F -mesurable. Cela termine la preuve de la proposition.
Deux variables aléatoires X, Y ∈ LE (Ω, F ) sont égales p.s. ssi P(d(X, Y ) = 0) = 1. On note cela X ∼ Y . L’inégalité
triangulaire implique que ∼ est transitive. Elle est clairement symétrique et réflexive. C’est donc une relation d’équivalence. On
considère le quotient
LE (Ω, F , P) = LE (Ω, F )/ ∼ .
Bien que les éléments de LE (Ω, F , P) ne soient pas des v.a. mais des classes de v.a., on confond un élément de LE (Ω, F , P) avec
n’importe lequel de ses représentants. Le résultat suivant qui montre que la convergence en probabilité correspond à une distance sur
LE (Ω, F , P).
Théorème B.4.8 Soit (E, d), un espace métrique séparable. Pour tous X, Y ∈ LE (Ω, F , P), on pose
dP (X, Y ) = E 1 ∧ d(X, Y ) .
Alors, dP est une distance sur LE (Ω, F , P) telle que limn dP (Xn X) ssi limn Xn = X en probabilité. De plus, l’espace métrique
LE (Ω, F , P), dP est complet si E est complet.
Preuve: on vérifie que pour tous a, b ∈ R+ , on a 1 ∧ (a + b) ≤ 1 ∧ a + 1 ∧ b. On en déduit que pour toutes X, Y, Z ∈ LE (Ω, F , P),
on a
1 ∧ d(X, Z) ≤ 1 ∧ d(X, Y ) + d(Y, Z) ≤ 1 ∧ d(X, Y ) + 1 ∧ d(Y, Z) .
En prenant l’espérance on a dP (X, Z) ≤ dP (X, Y ) + dP (Y, Z). Par ailleurs, il est clair que dP (X, Y ) = dP (Y, X). Enfin si
dP (X, Y ) = 0, alors X = Y p.s. c’est-à-dire que X = Y dans LE (Ω, F , P). Cela montre que dP est une distance.
Soient Xn ∈ LE (Ω, F ), n ∈ N et soit X ∈ LE (Ω, F ). On remarque d’abord que pour tout a ∈ R+ , (a/ε) ∧ 1 = (a ∧ ε)/ε ≤
(a ∧ 1)/ε. Par conséquent,
1{d(Xn ,X)>ε} ≤ ε−1 d(Xn , X) ∧ 1 ≤ ε−1 d(Xn , X) ∧ 1 .
En prenant l’espérance, on obtient P d(Xn , X) > ε ≤ ε−1 dP (Xn , X), pour tout ε ∈ ]0, 1]. Par conséquent, si limn dP (Xn , X) = 0,
Comme (Xn )n∈N , est de Cauchy, il est facile d’en déduire qu’il existe une suite strictement croissante d’entiers (nk )k∈N telle que
∀k ∈ N, P d(Xnk+1 , Xnk ) > 2−k ≤ 2−k .
La proposition B.4.7 implique qu’il existe X ∈ LE (Ω, F , P) telle que limk Xnk = X p.s. et le théorème B.4.2 (i) implique que
limk Xnk = X en probabilité, ce qui implique que limk dP (Xnk , X) = 0, comme déjà démontré plus haut. Cela termine la preuve du
théorème.
B.4. CONVERGENCE DE VARIABLES ALÉATOIRES. 249
p
Convergence dans L . Uniforme intégrabilité. Pour simplifier les notations on pose L (Ω, F ) = LR (Ω, F ), c’est-à-
dire L (Ω, F ) = X : Ω → R F -mesurable . On utilise la notation X ∼ Y pour dire que X = Y presque sûrement. On rappelle la
notation
L(Ω, F , P) = L (Ω, F )/ ∼ .
Bien que les éléments de L(Ω, F , P) ne soient pas des v.a. mais des classes de v.a., on confond un élément de L(Ω, F , P) avec
n’importe quel de ses représentants. Pour tout p ∈ [1, ∞[ et toute v.a. X ∈ L (Ω, F ), on pose
1/p
kXkp = E X p ,
p p
Proposition B.4.9 Soit p ∈ [1, ∞]. Soient Xn ∈ L (Ω, F , P), n ∈ N et X ∈ L (Ω, F , P). Si limn kXn − Xkp = 0, alors
limn Xn = X en probabilité.
Preuve: on suppose d’abord que p < ∞. Une inégalité de type Markov implique que pour tout ε > 0 et tout n ∈ N,
p p
Proposition B.4.10 Soit p ∈ [1, ∞]. Soient Xn ∈ L (Ω, F , P), n ∈ N et X ∈ L (Ω, F , P). On suppose que limn kXn −Xkp = 0.
Alors, il existe une suite strictement croissante d’indices (nk )k≥0 tels que limk Xnk = X presque sûrement.
Définition B.4.11 (Famille de v.a. uniformément intégrables) Soient Xi ∈ L (Ω, F ), i ∈ I. La famille de v.a. (Xi )i∈I est uniformé-
ment intégrable si
lim sup E |Xi |1{|Xi |≥a} = 0 . (B.10)
a→∞ i∈I
On observe que cette notion ne concerne pas les variables en elles-même mais leur loi.
Lemme B.4.12 Soient Xi ∈ L (Ω, F ), i ∈ I. Alors, supi∈I kXi k1 < ∞. En particulier, les Xi sont des v.a. intégrables.
Preuve: (B.10) implique qu’il existe a > 0 tel que C := supi∈I E |Xi |1{|Xi |≥a} < ∞. Donc
∀i ∈ I, E |Xi | = E |Xi |1{|Xi |≤a} + E |Xi |1{|Xi |≥a} ≤ a + C ,
Lemme B.4.13 Soit (Xi )i∈I , une famille de v.a. réelles intégrables.
(i) Si I = J1 ∪ J2 , si (Xi )i∈J1 est uniformément intégrable et si (Xi )i∈J2 est uniformément intégrable, alors (Xi )i∈I est
uniformément intégrable.
(ii) Si I est fini, alors, la famille de variables (Xi )i∈I est uniformément intégrable.
(iii) Soit Z, une v.a. réelle intégrable telle que pour tout i ∈ I, on ait presque sûrement |Xi | ≤ Z. Alors, la famille de variables
(Xi )i∈I est uniformément intégrable.
(iv) Soit g : R+ → R+ , une application mesurable telle que limx→∞ g(x)/x = ∞. On suppose que supi∈I E g(|Xi |) < ∞.
Alors, la famille de variables (Xi )i∈I est uniformément intégrable.
250 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.
Pour montrer (ii), on remarque d’abord que que si Z est une variable réelle positive, alors p.s. lima→∞ Z1{Z>a} = 0. Or 0 ≤
Z1{Z>a} ≤ Z. Donc, si Z est intégrable, le théorème de convergence dominée entraîne que
lim E[Z1{Z>a} ] = 0 .
a→∞
Le point (ii) découle alors de cette constatation et du (i). Le point (iii) est une conséquence de l’inégalité suivante
sup E |Xi |1{|Xi |≥a} ≤ E[Z1{Z>a} ] − −−→ 0 .
a→∞
i∈I
Montrons (iv): il existe a0 > 0, tel que g(x) > 0, pour tout x > a0 . Pour tout
a > a0 , on peut poser w(a) = supx>a x/g(x). La
fonction w est donc décroissante et lima→∞ w(a) = 0. On pose c = supi∈I E g(|Xi |) . Pour tout a > a0 et tout i ∈ I, on a donc
E[|Xi |1{|Xi |>a} ] = E[g(|Xi |)|Xi |g(|Xi |)−1 1{|Xi |>a} ] ≤ w(a)E g(|Xi |) ≤ cw(a) ,
L’utilité de notion d’uniforme intégralité apparaît dans le théorème suivant qui est une généralisation du théorème de convergence
dominée.
Théorème B.4.15 Soit (Xn )n≥0 , une suite de v.a. réelles F -mesurables. Soit X, une v.a. réelle F -mesurable. Il y a équivalence
entre les assertions suivantes.
(a) La suite (Xn )n∈N est uniformément intégrable et limn Xn = X en probabilité.
(b) limn kXn −Xk1 = 0.
Preuve: on prouve d’abord (a) =⇒ (b). Le lemme B.4.12 implique que supn∈N kXn k1 < ∞. Par Fatou, on a donc E[|X|] ≤
lim inf n E[|Xn |] < ∞. Il est clair qu’en ajoutant une variable intégrable à une famille uniformément intégrable, on obtient une famille
uniformément intégrable: donc, si on pose
w(a) = max E[ |X|1{|X|>a} ] , sup E[ |Xn |1{|Xn |>a} ] ,
n∈N
Par conséquent,
E[ |Xn −X| ] ≤ ε + 2aP |Xn −X| > ε + 2w(a) .
et on a lim supn E[ |Xn −X| ] ≤ ε + 2w(a), ce qui implique le résultat lorsque a → ∞ et ε → 0.
1
Montrons que (b) =⇒ (a): on suppose
donc que limn kXn −Xk1 = 0. Les normes L des Xn convergent et forment une suite
bornée: on pose c = supn≥0 E |Xn | . Pour tous réels a, b > 0, et pour tout n, on a les inégalités suivantes
|Xn |1{|Xn |>a} ≤ |Xn −X|1{|Xn |>a} + |X|1{|Xn |>a} ≤ |Xn −X| + |X|1{|Xn |>a}
≤ |Xn − X| + |X|1{|X|≤b ; |Xn |>a} + |X|1{|X|>b ; |Xn |>a}
≤ |Xn −X| + b1{|Xn |>a} + |X|1{|X|>b}
B.5. ESPÉRANCE CONDITIONNELLE. 251
b
≤ |Xn −X| + a
|Xn | + |X|1{|X|>b} .
√
On prend b = a et on intègre l’inégalité précédente pour obtenir
c
E |Xn |1{|Xn |>a} ≤ E |Xn −X| + √
a
+ E |X|1{|X|>√a} .
On pose φ(a) = supn≥0 E |Xn |1{|Xn |>a} et on fixe p ∈ N. On a donc
X
φ(a) ≤ E |Xk |1{|Xk |>a} + sup E |Xn |1{|Xn |>a}
n≥p
0≤k≤p
c
X
≤ E |Xk |1{|Xk |>a} + sup E |Xn −X| + √
a
+ E |X|1{|X|>√a} .
n≥p
0≤k≤p
On a donc
lim sup φ(a) ≤ sup E |Xn −X| −−−→ 0 ,
p→∞
a→∞ n≥p
ce qui montre que lima→∞ φ(a) = 0, et donc que (Xn )n≥0 est uniformément intégrable.
(Variables positives) Soit X une v.a. F -mesurable à valeurs dans [0, ∞]. La fonction Y : Ω → [0, ∞] est une version de l’espérance conditionnelle
de X sachant G si
Variables intégrables) Soit X une v.a. F -mesurable à valeurs réelles intégrable. La fonction Y : Ω → R est une version de l’espérance conditionnelle
de X sachant G si
Pour que l’on puisse définir l’espérance conditionnelle d’une variable, il faut que son espérance soit bien définie, c’est-à-dire que
la variable soit intégrable ou à valeurs dans [0, ∞]. Pour simplifier, on dira qu’une variable (ou une fonction) est positive si elle est à
valeurs dans [0, ∞]. On montre d’abord l’unicité P-preque sûre des espérances conditionnelles grâce à la proposition suivante.
Proposition B.5.2 Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu de F . Soient Y et Y 0 , deux v.a. G -mesurables
qui sont soit réelles intégrables, soit positives. On suppose que pour tout B ∈ G , E[Y 1B ] ≤ E[Y 0 1B ] Alors Y ≤ Y 0 presque sûrement.
Preuve: pour tous réels a < b, on pose Ca,b = {Y 0 ≤ a < b ≤ Y }. On a bien Ca,b = (Y 0 )−1 ( ] − ∞, a]) ∩ Y −1 ([b, ∞]) ∈ G .
On remarque ensuite que Y 0 1Ca,b ≤ a1Ca,b ≤ b1Ca,b ≤ Y 1Ca,b . En intégrant cette inégalité on a donc E[Y 0 1Ca,b ] ≤ aP(Ca,b ) ≤
bP(Ca,b ) ≤ E[Y 1Ca,b ]. Mais par hypothèse, E[Y 1Ca,b ] ≤ E[Y 0 1Ca,b ]. Cela montre que aP(Ca,b ) = bP(Ca,b ), et donc que
P(Ca,b ) = 0. Or {Y 0 < Y } = a,b∈Q,a<b Ca,b . Comme l’ensemble des couples (a, b) ∈ Q2 tel que a < b est dénombrable et
S
comme une union dénombrable de P-négligeables est un ensemble P-négligeable, on a P(Y 0 < Y ) = 0, ce qu’il fallait démontrer.
Corollaire B.5.3 Si Y et Y 0 sont deux versions de l’espérance conditionnelle de X sachant G , alors Y = Y 0 presque sûrement.
Théorème B.5.4 (Existence de l’espérance conditionnelle) Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu de F .
Soit X, une v.a. réelle intégrable ou positive. Elle admet une (version de son) espérance conditionnelle sachant G .
252 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.
Preuve: on fixe X : Ω → [0, ∞], une fonction F -mesurable. Pour tout B ∈ G , on pose ν(B) = E[X1B ] = B X dP. Clairement,
R
ν : G → [0, ∞] est une somme de mesures de masse finie telleR que ν P. Le théorème de Radon-Nikodym s’applique et montre
qu’il existe Y : Ω → [0, ∞], G -mesurable telle que ν(B) = B Y dP = E[Y 1B ], ce qui montre le résultat voulu dans le cas des
v.a. positives.
Supposons que X soit une v.a. réelle intégrable: on note X + et X − ses parties positives et négatives. On note Y + et Y − les v.a. G -
mesurables telles que E[X +/− 1B ] = E[Y +/− 1B ], B ∈ G . Par conséquent, E[Y +/− ] = E[X +/− ] < ∞ et donc p.s. Y +/− < ∞.
Sans perte de généralité on peut supposer les variables Y + et Y − finies partout et on pose Y = Y + − Y − , qui est bien (une version
de) l’espérance conditionnelle de X sachant G .
Proposition B.5.5 Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu de F . Soient X, X1 , X2 , des v.a. réelles
intégrables (resp. positives). Les assertions suivantes sont vérifiées.
(iv) Si X1 ≤ X2 p.s., alors E[X1 |G ] ≤ E[X2 |G ] presque sûrement. Notamment, si X est positive p.s., E[X|G ] l’est aussi.
(vi) E E[X|G ] = E[X].
Preuve: on note c = E[X]. La v.a. constante à c est clairement mesurable par rapport à la tribu grossière. On vérifie ensuite que
E[c1∅ ] = 0 = E[X1∅ ] et que E[c1Ω ] = E[X1Ω ]. Donc c = E[X|G ] si G est la tribu grossière, ce qui prouve (i).
Montrons (ii): on suppose que X est G -mesurable; comme E[X1B ] = E[X1B ], pour tout B ∈ G , on a donc donc E[X|G ] = X.
Montrons (iii): on pose Y = E[X1 |G ] + cE[X2 |G ]. C’est une v.a. G -mesurable intégrable (resp positive). Par linéarité de
l’espérance et par définition de l’espérance conditionnelle, on a pour tout B ∈ G ,
E[Y 1B ] = E E[X1 |G ]1B + cE E[X2 |G ]1B = E[X1 1B ] + cE[X2 1B ] = E (X1 + cX2 )1B ,
Lemme B.5.6 Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu de F . Soit X, une v.a. réelle intégrable (resp. positive).
On pose Y = E[X|G ]. Alors, pour toute v.a. Z qui est G -mesurable bornée (resp. positive), on a E[ZY ] = E[ZX].
Preuve: on suppose que X est positive. Par croissance de l’espérance conditionnelle (proposition B.5.5 (iv)), Y est positive. Soit
Z, une v.a. G -mesurable positive.PPar le lemme B.1.3, il existe une suite de constantes positive (cn )n≥0 et une suite d’événements
Bn ∈ G , n ∈ N, telles que Z = n≥0 cn 1Bn . Par interversion série / espérance positive (appliquée deux fois) et par la définition de
l’espérance conditionnelle, on a donc
hX i X X hX i
E[ZY ] = E cn 1Bn Y = cn E[1Bn Y ] = cn E[1Bn X] = E cn 1Bn X = E[ZX] ,
n≥0 n≥0 n≥0 n≥0
ce qui montre le résultat voulu pour les v.a. positives. Le cas réel intégrable se traite en considérant la partie positive et la partie négative
de la variable et en se ramenant au cas positif (les détails sont laissés au lecteur).
La proposition B.5.5 discute des propriétés de linéarité et de croissance de l’espérance conditionnelle. La proposition suivante a
trait à l’espérance conditionnelle d’un produit de variables.
B.5. ESPÉRANCE CONDITIONNELLE. 253
Proposition B.5.7 Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu de F . Soit X, une v.a. réelle intégrable
(resp. positive). Alors, pour toute v.a. Z qui G -mesurable bornée (resp. positive), on a
Proposition B.5.8 Soit (Ω, F , P), un espace de probabilité. Soient G1 et G2 , deux sous-tribus de F . On suppose que G1 ⊂ G2 . Alors
pour toute v.a. X, réelle intégrable ou positive, on a
p.s. E E[X|G2 ] |G1 = E[X|G1 ] .
on pose Y = E E[X|G2 ] |G1 . C’est une v.a. G1 -mesurable. Soit B ∈ G1 . La proposition B.5.7 implique que 1B Y =
Preuve:
E 1B E[X|G2 ] |G1 . Comme, G1 ⊂ G2 , on a également, B ∈ G2 . La proposition B.5.7 implique que1B E[X|G2 ] = E[1B X|G2 ] et ce
qui précède montre que 1B Y = E E[1B X|G2 ] |G1 . En appliquant ensuite la proposition B.5.5 (v) deux fois, on a donc
E[1B Y ] = E E E[1B X|G2 ] |G1 = E E[1B X|G2 ] = E[1B X] .
Comme cela est vrai pour tout B ∈ G1 , on a bien Y = E[X|G1 ], qui est le résultat voulu.
Proposition B.5.9 Soit (Ω, F , P), un espace de probabilité. Soit Gi , i ∈ I, une famille de sous-tribus de F . On pose G = σ(Gi , i ∈
I), la tribu engendrée par les Gi , i ∈ I. Soit X, une v.a. réelle intégrable (resp. positive) Il y a équivalence entre les assertions
suivantes.
(i) Y = E[X|G ].
(ii) Y est G -mesurable intégrable (resp. positive) et pour tout sous-ensemble fini d’indices J ⊂ I, pour tous Bj ∈ Gj , j ∈ J, on a
E X1Tj∈J Bj = E Y 1Tj∈J Bj .
Preuve: (i) =⇒ (ii) est trivial. Montrons (ii) =⇒ (i) dans le cas où X est réelle intégrable. On pose P = { j∈J Bj ; Bj ∈
T
Gj , J ⊂ I, J fini}. Il est clair que Ω ∈ P et que P est stable par intersection finie. C’est donc un pi-système. Par ailleurs, il est clair
que P ⊂ G et que Gi ⊂ P, pour tout i ∈ I. Donc, σ(P) = G . On pose
L = B ∈ G : E[X1B ] = E[Y 1B ] .
Le point (ii) signifie que P ⊂ L . Montrons que L est une classe monotone: il est d’abord clair que Ω ∈ L , car Ω ∈ P. Soient
A, B ∈ L tels que A ⊂ B. Comme X et Y sont intégrables, pour tout C ∈ F , E[X1C ] et E[Y 1C ] sont des réels bien définis et on
a bien
E[X1B\A ] = E[X1B ] − E[X1A ] = E[Y 1B ] − E[Y 1A ] = E[Y 1B\A ] ,
ce qui montre que B\A ∈ L S. La classe d’événements L est donc stable par différence propre. Soient Bn ∈ L , n ≥ 0, tels que
Bn ⊂ Bn+1 . On pose B = n≥0 Bn . Il est clair que 1B = limn 1Bn , et donc X1B = limn X1Bn , Y 1B = limn Y 1Bn . De plus
|X1Bn | ≤ |X| et |Y 1Bn | ≤ |Y |, pour tout n ≥ 0. Comme X et Y sont intégrable, le théorème de convergence dominée s’applique
et on a
E[X1B ] = lim E[X1Bn ] = lim E[Y 1Bn ] = E[Y 1B ] ,
n n
ce qui montre que B ∈ L . La classe d’événements L est donc stable par union dénombrable croissante. Cela prouve que L est une
classe monotone.
Le théorème de la classe monotone (voit le théorème A.1.10 en appendice) entraîne que σ(P) ⊂ L . Mais puisque, par définition,
L ⊂ G et puisque σ(P) = G , on a donc L = G , ce qui signifie que pour tout B ∈ G , on a E[X1B ] = E[Y 1B ]. Comme Y est
supposée intégrable et G -mesurable, cela entraîne bien Y = E[X|G ].
254 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.
Proposition B.5.10 Soit (Ω, F , P), un espace de probabilité. Soit G , une sous-tribu de F . Soit (Xn )n≥0 , une suite de v.a. positives.
Les assertions suivantes sont vérifiées.
nvergence monotone) On suppose que Xn ≤ Xn+1 , pour tout n ≥ 0. On pose X∞ = supn Xn . Alors, p.s. limn E[Xn |G ] = E[X∞ |G ].
hP i P
Interversion positive) E n≥0 Xn | G = n≥0 E[Xn |G ] p.s.
Preuve: on voit que Xn ≤ Xn+1 implique que E[Xn |G ] ≤ E[Xn+1 |G ] (par la proposition B.5.5 (iv)). On pose Y = supn E[Xn |G ],
qui est une v.a. positive G -mesurable. Soit B ∈ G . Le théorème de convergence monotone non-conditionnel ainsi que la définition de
l’espérance conditionnelle implique donc que E[Y 1B ] = limn E E[Xn |G ]1B = limn E[Xn 1B ] = E[X∞ 1B ], ce qui implique que
Y = E[X∞ |G ].
L’interversion et Fatou conditionnels se déduisent de la convergence monotone conditionnelle exactement comme l’interversion et
Fatou non-conditionnels se déduisent de la convergence monotone usuelle.
Proposition B.5.11 (Convergence dominée) Soit (Ω, F , P), un espace de probabilité. Soit G , une sous-tribu de F . Soit (Xn )n≥0 ,
une suite de v.a. réelles. On fait les hypothèses suivantes.
Preuve: il est clair que p.s. |X∞ | ≤ Z, donc E |X∞ | < ∞. On pose Yn = 2Z − |X∞ − Xn |. On a bien 0 ≤ Yn ≤ 2Z et
limn Yn = 2Z p.s. Par Fatou conditionnel on a
inf Yn | G ] ≤ lim inf E[Yn |G ] = E[2Z |G ] − lim sup E |X∞ − Xn | G ,
p.s. E[2Z |G ] = E lim n→∞ n→∞ n→∞
∞ | G ≤ 0. 0, E |Xn−X∞ | G ≥ 0, par
ce qui implique que presque sûrement n E |Xn−X
lim sup Or pour tout n ≥ la proposition
B.5.5 (iii). Donc lim supn E |Xn −X∞ | G = limn E |Xn −X∞ | G = 0. Comme E[X∞ |G ]−E[Xn |G ] ≤ E |Xn −X∞ | G
(Ω, F , P),Pun espace de probabilité. Soit G , une sous-tribu de F . Soit (Xn )n≥0 , une suite
1
Corollaire B.5.12 (Interversion
P L ) Soit
de v.a. réelles telle que n≥0 E |Xn | < ∞. Alors n≥0 Xn est une v.a. intégrable et on a l’égalité presque-sûre suivante
hX i X
E Xn G = E[Xn |G ] .
n≥0 n≥0
P P
Preuve: on pose K = n≥0 |Xn |. On a E[K] = n≥0 E |Xn | < ∞, par interversion série / espérance Ppositive. Donc, presque
sûrement, la série de
P terme général Xn est absolument convergente et donc convergente: on note S∞ = n≥0 Xn sa somme. On
pose ensuite Sn = 0≤k≤n Xk . On a bien |Sn | ≤ K et p.s. limn Sn = S∞ . On conclut en appliquant le théorème de convergence
dominée conditionnel à la suite (Sn )n≥0 .
Quelques inégalités. Nous établissons une version "conditionnelle" des inégalités de Jensen et de Hölder. Comme dans le cas
déterministe, ces inégalités sont démontrées à l’aide de fonctions convexes. Rappelons qu’une fonction ϕ : I → R, définie sur un
intervalle I de R est dite convexe ssi
∀ x, y ∈ I, ∀ θ ∈ [0, 1] ϕ θx + (1 − θ)y ≤ θϕ(x) + (1 − θ)ϕ(y) .
On rappelle que si ϕ : I → R est dérivable sur l’intérieur de I et de dérivée croissante, alors ϕ est convexe. Notamment, exp et − log
sont des fonctions convexes. On rappelle qu’une fonction convexe est l’enveloppe supérieure des droites passant sous son graphe. Plus
précisément, on décrit une droite non-verticale par son équation cartésienne qui est de la forme y = ax + b, où a, b ∈ R. On note S
l’ensemble des couples (a, b) tels que ax + b ≤ ϕ(x) pour tout x ∈ I. On vérifie facilement que ϕ(x) = sup(a,b)∈S ax + b, x ∈ I.
On aura besoin d’un résultat légèrement plus fin mais qui s’en déduit très facilement: on peut trouver un ensemble S0 ⊂ S, qui est
dénombrable et tel que
∀x ∈ I , ϕ(x) = sup ax + b . (B.12)
(a,b)∈S0
B.5. ESPÉRANCE CONDITIONNELLE. 255
Lemme B.5.13 (Jensen conditionnelle) Soit (Ω, F , P), un espace de probabilité. Soit X, une v.a. réelle intégrable. Soit ϕ : R → R,
une fonction convexe. On suppose que X et ϕ(X) sont intégrables. Alors pour toute sous-tribu G de F , on a
p.s. ϕ E[X|G ] ≤ E[ϕ(X)|G ] .
Preuve: on utilise la notation S0 introduite avant l’énoncé du lemme. Si (a, b) ∈ S0 , alors aX + b ≤ ϕ(X). La croissante et la
linéarité de l’espérance conditionnelle (voir la proposition B.5.5 (iii) et (iv)) impliquent que aE[X|G ] + b ≤ E[ϕ(X)|G ], presque
sûrement. Comme S0 est dénombrable, on en déduit que
Corollaire B.5.14 Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu. Soit X, une v.a. et soit p ∈ [1, ∞[ . Si
E[ |X|p ] < ∞, alors E[|X|] < ∞. De plus, p.s. on a
|E[X|G ] |p ≤ E |X|p |G ,
(B.13)
p
ce qui implique que E[X|G ] ∈ L .
Proposition B.5.15 Soit G , une sous-tribu de F . Soit X, v.a. réelle intégrable ou positive indépendante de G . Alors p.s. E[X|G ] =
E[X].
Preuve: on traite le cas réel intégrable, le cas positif étant similaire. On pose c = E[X] et on fixe B ∈ G . Dire que X est
indépendante de G signifie que σ(X) est indépendante de G , et donc X et 1B sont deux v.a. indépendantes. Par le lemme B.2.12, on
a E[1B X] = E[1B ]E[X] = E[c1B ]. Comme la variable constante c est G -mesurable on en déduit le résultat.
Corollaire B.5.16 Soit G , une sous-tribu de F . Soient X1 , . . . , Xn , des v.a. réelles intégrables. On les suppose mutuellement
indépendantes. On suppose également que le vecteur aléatoire (X1 , . . . , Xn ) est indépendant de G . Alors
p.s. E X1 . . . Xn |G = E[X1 ] . . . E[Xn ] .
Preuve: par définition, dire que le vecteur (X1 , . . . , Xn ) est indépendant de G signifie que les tribus σ(X1 , . . . , Xn ) et G sont indépen-
dantes. Comme le produit X := X1 . . . Xn est une fonction déterministe du vecteur (X1 , . . . , Xn ), il est σ(X1 , . . . , Xn )-mesurable.
Cela implique que X est indépendante de G . Le lemme B.2.12 montre que X est intégrable telle que E[X] = E[X1 ] . . . E[Xn ] et la
proposition B.5.15 précédente montre que E[X|G ] = E[X], ce qui permet de conclure.
Proposition B.5.17 Soient G1 et G1 , deux sous-tribus de F . Soit X, une v.a. réelle intégrable. On suppose que G2 est indépendante
de σ(σ(X), G1 ). Alors, presque sûrement
E[X | σ(G1 , G2 )] = E[X|G1 ] .
Preuve: soit B1 ∈ G1 et B2 ∈ G2 . Comme G2 est indépendante de σ(σ(X), G1 ), la variable 1B2 est indépendante de X1B1 et le
lemme B.2.12 implique que E[X1B1 1B2 ] = E[X1B1 ]E[1B2 ]. La proposition B.5.7 entraîne ensuite que E[X1B1 ] = E E[X|G1 ]1B1 .
Par ailleurs, G2 est indépendante
de G1 , donc
1B2 est indépendante
de la variable G1 -mesurable 1B1 E[X|G1 ] et le lemme B.2.12 en-
traîne que E 1B1 E[X|G1 ] E[1B2 ] = E 1B1 E[X|G1 ]1B2 . On a donc montré que
que m < n, on pose [[m, n]] := [m, n] ∩ Z, avec une notation évident pour ]]m, n]], ]]m, n[[ et [[m, n[[ . On rappelle la définition des
martingales, sur-martingales et sous-martingales à temps discret.
Définition B.6.1 (Martingales à temps discret) Soit (Fn )n∈N une filtration en temps discret définie sur (Ω, F ), (c’est-à-dire que pour
tout n ∈ N, Fn est une sous-tribu de F et Fn ⊂ Fn+1 ). Pour tout n ∈ N, soit Mn , une v.a. réelle. Alors (Mn )n∈N est une martingale
(resp. sur-martingale, sous-martingale) relativement à (Fn )n∈N si pour tout n ∈ N, (a): Mn est Fn -mesurable, (b): E |Mn | < ∞ et
(c): P-p.s.
E Mn+1 Fn = Mn (resp. E Mn+1 Fn ≤ Mn , E Mn+1 Fn ≥ Mn ).
Lorsque la suite (Mn )n∈[[0,n0 ]] est finie, on parle de martingale (resp. sur-martinagle, sous-martingale) à horizon fini, l’horizon (de
temps) étant n0 .
Le lemme suivant fait la liste des propriétés élémentaires des martingales à temps discret.
Lemme B.6.2 Soit (Fn )n∈N une filtration sur (Ω, F ). Soit M := (Mn )n∈N , une suite de v.a. réelles. Les propriétés suivantes sont
vérifiées.
(i) Si M est une sur-martingale (reps. une sous-martingale) relativement à (Fn )n∈N , alors −M est une sous-martingale (resp. sur-
martingale) relativement à la même filtration.
(ii) Soit ϕ : R → R, une fonction convexe telle que les v.a. ϕ(Mn ) soient intégrables. Si M est une (Fn )n∈N -martingale, alors
ϕ(M ) := (ϕ(Mn ))n∈N est une sous-martingale. De plus, si ϕ est convexe croissante et si M est une (Fn )n∈N -sous-martingale,
alors ϕ(M ) est également une (Fn )n∈N -sous-martingale. Des énoncés analogues sont vrais pour les fonctions concaves et les
sur-martingales.
(iii) On suppose que M est une martingale (resp. sur-martingale, sous-martingale) relativement à (Fn )n∈N . Alors pour tout
m, n ∈ N, on a
E Mn+m Fn = Mn (resp. E Mn+m Fn ≤ Mn , E Mn+m Fn ≥ Mn ).
En prenant l’espérance, cela montre que (E[Mn ])n∈N est une suite réelle constante (resp. décroissante, croissante).
Preuve: le point (i) est une conséquence évident de la linéarité de l’espérance conditionnelle. Le point (ii) est une conséquence
immédiate de l’inégalité de Jensen conditionnelle: si M est une (Fn )n∈N -martingale, alors, pour tout n ∈ N, P-p.s.
E ϕ(Mn+1 )Fn ≥ ϕ E[Mn+1 |Fn ] = ϕ(Mn ) .
Le cas où ϕ est croissante et convexe et où M est une sous-martingale se traite de la même manière. Le point (iii) découle d’une
récurrence facile.
Proposition B.6.3 (Décomposition de Doob) Soit (Xn )n∈N , une suite de v.a. réelles intégrables. Soit une filtration (Fn )n∈N sur
(Ω, F ). On suppose que pour tout n ∈ N, Xn est Fn -mesurable, Il existe une unique paire de suites de v.a. (Mn )n∈N , (Vn )n∈N
satisfaisant les propriétés suivantes.
(i) Xn = X0 + Mn + Vn , n ∈ N.
(ii) (Mn )n∈N est une (Fn )n∈N -martingale.
(iii) V0 = 0 et pour tout n ∈ N∗ , Vn est Fn−1 -mesurable et intégrable.
De plus, (Xn )n∈N est une martingale resp. sur, sous-martingale) ssi (Vn )n∈N est nul (resp. croissant, décroissant).
Preuve: on suppose d’abord qu’il existe (Mn )n∈N , (Vn )n∈N satisfaisant (i), (ii) et (iii). On remarque que Vn+1 − Vn est Fn -
mesurable. Pour tout n ∈ N, on a donc
E[Xn+1 −Xn | Fn ] = E[Mn+1 −Mn | Fn ] + E[Vn+1 −Vn | Fn ]
= E[Mn+1 |Fn ]−Mn + Vn+1 −Vn = Vn+1 −Vn .
Par conséquent, on a nécessairement M0 = V0 = 0 et pour tout n ∈ N∗ ,
X
Vn = E[Xk −Xk−1 | Fk−1 ] et Mn = Xn −Vn . (B.14)
1≤k≤n
Cela montre l’unicité. Par ailleurs si on définit M et V par (B.14), on vérifie facilement (i), (ii) et (iii). Le reste de la proposition est
élémentaire.
B.6. MARTINGALES À TEMPS DISCRET. 257
Inégalités fondamentales sur les martingales. On rappelle la définition I.4.3, page 36 du nombre de montées.
Théorème B.6.4 (Inégalité de Doob) Soit (Mn )n∈N une sur-martingale relativement à la filtration (Fn )n∈N Alors, pour tout a, b ∈ R
tels que a < b, on a
(b−a)E U[[0,n0 ]] (M, [a, b]) ≤ E (Mn0 −a)− (B.15)
où U[[0,n0 ]] (M, [a, b]) désigne le nombre de montées de M : [[0, n0 ]] → R de l’intervalle [a, b] (voir la définition I.4.3, page 36) et où
(·)− désigne la fonction partie négative.
Preuve: on pose τ0 = −1 et pour tout p ∈ N∗ , on définit les variables aléatoires σp et τp récursivement par
σp = inf n ∈ ]]τp−1 , n0 ]] : Mn < a et τp = inf n ∈ ]]σp , n0 ]] : Mn > b
avec la convention que inf ∅ = ∞. On voit que U[[0,n0 ]] (M, [a, b]) = inf{p ∈ N : τp < ∞}. Pour simplifier les notations, on pose
U := U[[0,n0 ]] (M, [a, b]). Pour tout p ≤ U , entre les instants σp et τp , M effectue une montée de l’intervalle [a, b]. Par ailleurs, il se
peut que σU +1 ≤ n0 mais, par définition on a τU +1 = ∞. On pose ensuite
X
∀n ∈ [[1, n0 ]], Cn = 1{σp <n≤τp } . (B.16)
p∈N∗
P
Cette somme est en réalité finie car Cn = 1≤p≤U 1{σp <n≤τp } + 1{σU +1 <n≤n0 } . On voit que Cn = 1 si n est dans intervalle de
temps pendant lequel M effectue une montée de [a, b] et Cn = 0 sinon. On pose ensuite
X
Z0 := 0 et ∀n ∈ [[1, n0 ]], Zn := Ck Mk −Mk−1 .
1≤k≤n
On remarque ensuite que si p ∈ [[1, U ]], Mτp −Mσp ≥ b−a. De plus si σU +1 ≤ n0 , MσU +1 < a. On a donc
On remarque que {σp < n ≤ τp } = {σp ≤ n−1} ∩ (Ω\{τp ≤ n−1}) ∈ Fn−1 . Ce fait combiné avec la définition (B.16) implique que
Cn est Fn−1 mesurable. On en déduit que pour tout n ∈ [[1, n0 ]], P-p.s.
E Zn Fn−1 = Zn−1 + E Cn (Mn −Mn−1 )Fn−1 = Zn−1 + Cn E[Mn−1 |Fn−1 ]−Mn−1 ≤ Zn−1
car Cn ≥ 0, et P-p.s. E[Mn−1 |Fn−1 ] ≤ Mn−1 , puisque M est une sur-martingale. On en déduit donc que E[Zn ] ≤ E[Zn−1 ]: la suite
n 7→ E[Zn ] est décroissante et on a E[Zn0 ] ≤ E[Z0 ] = 0, ce qui implique le résultat voulu en prenant l’espérance de (B.18).
Théorème B.6.5 (Inégalité maximale des sous-martingales positives) Soit (Mn )n∈N une sous-martingale relativement à la filtration
(Fn )n∈N . On suppose également que pour tout n ∈ N, P-p.s. Mn ≥ 0. Alors, pour tout a ∈ R+ et tout n0 ∈ N,
a P sup Mn ≥ a ≤ E Mn0 1{sup0≤n≤n Mn ≥a} .
0
0≤n≤n0
∀n ∈ [[0, n0 ]], Bn = {M0 < a} ∩ {M1 < a} ∩ . . . ∩ {Mn−1 < a} ∩ {Mn ≥ a}.
p 1/p
On déduit de l’inégalité maximale pour les sous-martingales positive, les inégalité L de Doob. On note kXkp := E |X|p
, la
p
norme L sur l’espace (Ω, F , P).
Théorème B.6.6 (Inégalité Lp ) Soit p ∈ ]1, ∞[ . Soit (Mn )n∈N , une martingale relativement à la filtration (Fn )n≥0 . On suppose
p
qu’elle est bornée en norme L , c’est-à-dire que supn∈N E[ |Mn |p ] < ∞. Alors,
p p
E sup |Mn |p ≤ p−1 sup E |Mn |p < ∞ ,
(B.21)
n∈N n∈N
p
c’est-à-dire kSkp ≤ p−1
supn≥0 kMn kp , où on a posé S = supn≥0 |Mn |.
Preuve: comme la fonction valeur absolue est convexe, le lemme B.6.2 (ii) implique que (|Mn |)n≥0 est une sous-martingale positive
formée de variables intégrables. On pose Sn = sup0≤m≤n |Mm |, et l’inégalité maximale (théorème B.6.5) entraîne que
Par Fubini-positif, on a
Z ∞ hZ Sn i
a E[1{Sn >a} ] pap−2 da = E pap−1 da = E[Snp ].
0 0
De même, on a Z ∞ h Z Sn i
p
E[ |Mn |1{Sn >a} ] pap−2 da = E |Mn | pap−2 da = p−1
· E[ |Mn |Snp−1 ] .
0 0
Les deux égalités précédentes et (B.22) entraînent que
p
E[Snp ] ≤ E |Mn | Snp−1
p−1
.
p
Comme Sn ≤ |M0 | + . . . + |Mn |, on a kSn kp ≤ kM0 kp + . . . + kMn kp < ∞, et par (B.23), on a kSn kp ≤ p−1 kMn kp . On conclut
par convergence monotone car limn ↑ Sn = S.
Théorème B.6.7 (Inégalité maximale des sur-martingales) Soit (Mn )n∈N une sur-martingale relativement à la filtration (Fn )n∈N .
Alors, pour tout a ∈ R+ et tout n0 ∈ N,
a P sup |Mn | ≥ 3a ≤ 4E |M0 | + 3E |Mn0 | .
0≤n≤n0
La proposition B.6.3 montre que (Mn∗ )n∈N est une (Fn )n∈N , que (Vn )n∈N est décroissante et Vn est Fn−1 -mesurable intégrable,
pour tout n ∈ N∗ . Autrement dit la paire (Mn∗ )n∈N , (Vn )n∈N est la décomposition de Doob de la sur-martingale (Mn )n∈N . Comme
Mn = M0 + Mn∗ + Vn et comme (Vn )n∈N est P-p.s. décroissante
On a donc
La fonction valeur absolue étant convexe et M ∗ étant une martingale, le lemme B.6.2 (ii) implique que (|Mn∗ |)n∈N est une sous-
martinagle positive. L’inégalité maximale des sous-martingales positives (théorème B.6.5) implique que
E |Mn∗0 |
= E |Mn0 −M0 −Vn0 | ≤ E |Mn0 | + E |M0 | + E |Vn0 |
≤ 2E |M0 | + 2E |Mn0 | , (B.27)
par (B.25). En combinant (B.24), (B.25), (B.26) et (B.27), on obtient le résultat voulu.
Convergence des martingales. Nous déduisons des inégalités précédentes les théorèmes classiques de convergence des mar-
1 p
tingales: convergence presque-sûre, en norme L et en norme L .
Théorème B.6.8 (Conv. p.s. des sur/sous-martingales). Soit M = (Mn )n≥0 une sous-martingale ou une sur-martingale relative-
ment à (Fn )n≥0 . On suppose que
c := sup E |Mn | < ∞ . (B.28)
n∈N
Alors, il existe une v.a. réelle M∞ , qui est F∞ -mesurable et intégrable telle que P-p.s. limn→∞ Mn = M∞ .
Preuve: quitte à considérer −M , on se ramène sans perte de généralité à suppose que M est une sur-martingale. Soient a, b ∈ R tels
que a < b. On rappelle de la définition I.4.3 que U[[0,n]] (M, [a, b]) désigne le nombre de montées de M de l’intervalle [a, b] entre les
instants 0 et n. L’inégalité de Doob (théorème B.6.4) combinée à une inégalité élémentaire et l’hypothèse (B.28), implique implique
que
∀n ∈ N, (b−a)E U[[0,n]] (M, [a, b]) ≤ E (Mn −a)− ≤ |a| + E |Mn | ≤ |a| + c .
On vérifie que n 7→ U[[0,n]] (M, [a, b]) est croissante et que limn→∞ U[[0,n]] (M, [a, b]) = UN (M, [a, b]) qui est le nombre total de
montées de M de l’intervalle [a, b]. On a donc
|a| + c
∀a, b ∈ R : a < b, E UN (M, [a, b]) ≤ <∞.
b−a
On pose alors \
Ω0 = UN (M, [a, b]) < ∞ . (B.29)
a,b∈Q
a<b
Il est clair que Ω0 ∈ F et (B.29) implique que P(Ω0 ) = 1. En raisonnant comme dans le théorème I.4.4, on voit que pour tout ω ∈ Ω0 ,
lim supn Mn (ω) = lim inf n Mn (ω). On pose donc M∞ ∗
= lim supn Mn . Alors
M∞ est F∞ -mesurable et P-p.s.
limn Mn = M∞ . A
priori M∞ est à valeurs dans [−∞, ∞] mais par Fatou on a E |M∞ | = E lim inf n |Mn | ≤ lim inf n E |Mn | ≤ c. Quitte à modifier
M∞ sur un ensemble P-négligeable, on peut supposer cette v.a. à valeurs réelles.
260 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.
1
On examine ensuite la convergence en norme L des martingales. Pour cela on rappelle la définition B.4.11, page 249, d’une
famille de v.a. uniformément intégrables: soit (Xi )i∈I , une famille de v.a. réelles intégrables. La famille de variables (Xi )i∈I est
uniformément intégrable si
lim sup E |Xi |1{|Xi |≥a} = 0 . (B.30)
a→∞ i∈I
On rappelle le point (iv) su lemme B.4.13, page 249: soit (Xi )i∈I une famille de v.a. réelles. Soit g : R+R+ → R+ telle que
limx→∞ g(x)/x = ∞. Alors
sup E g(Xi ) < ∞ =⇒ (Xi )i∈I est uniformément intégrable. (B.31)
i∈I
On rappelle également le théorème B.4.15, page 250, qui montre que l’uniforme intégrabilité combinée à une convergence en probabilité
1
implique est équivalent à une convergence L . Plus précisément, soit (Xn )n∈N une suite de v.a. réelles. Alors,
(Xn )n∈N uniformément intégrable et lim Xn = X∞ en probabilité ⇐⇒ lim E |Xn −X∞ | = 0 (B.32)
n→∞ n→∞
Lemme B.6.9 Soit X, une v.a. réelle intégrable. Soit Gi , i ∈ I, une famille de sous-tribus de F . Pour tout i ∈ I, on pose
Xi = E[X|Gi ]. Alors, la famille de variables (Xi )i∈I est uniformément intégrable.
Preuve: on fixe a > 0. Par Jensen, |Xi | = |E[X|Gi ]| ≤ E[ |X| |Gi ] et donc
E |Xi |1{|Xi |≥a} ≤ E E[ |X| |Gi ].1{E[ |X| |Gi ]≥a} = E |X|1{E[ |X| |Gi ]≥a} , (B.33)
1
Le théorème de convergence L des martingales s’énonce alors comme suit.
Théorème B.6.10 (Convergence L1 ) Soit (Mn )n∈N , une (Fn )n∈N -martingale. Alors, les conditions suivantes sont équivalentes.
1
(i) La martingale (Mn )n∈N converge dans L .
(ii) On a supn∈N E[ |Mn | ] < ∞ et
P-p.s. ∀n ∈ N , E[M∞ |Fn ] = Mn ,
où M∞ désigne la limite presque sûre de (Mn )n∈N (dont l’existence est garantie par le théorème B.6.8).
(iii) Il existe une v.a. réelle intégrable X telle que
P-p.s. ∀n ∈ N , E[X|Fn ] = Mn .
1 1
Preuve: montrons (i) ⇒ (ii). On note M∞ la limite dans L de (Mn )n∈N . Puisqu’il y a convergence dans L , il y a convergence des
1
normes L : limn E[ |Mn | ] = E[ |M∞ | ], ce qui implique que supn∈N E[ |Mn | ] < ∞. Par le théorème B.6.8, (Mn )n∈N converge p.s. et
1 1
comme de toute suite convergente pour la norme L , on extrait une suite convergeant p.s., il est clair que la limite dans L de (Mn )n∈N
est la même que sa limite presque sûre. On a donc limn Mn = M∞ p.s. et limn E[ |Mn −M∞ | ] = 0. Le lemme B.6.2 (iii) implique
ensuite que pour tous m, n ∈ N, on a E[Mn+m |Fn ] = Mn . Cela entraîne que
E |E[M∞ |Fn ]−Mn | = E |E[M∞ −Mn+m |Fn ] |
B.6. MARTINGALES À TEMPS DISCRET. 261
≤
E E[ |M∞ −Mn+m | |Fn ] = E[ |M∞ −Mn+m | ].
Lorsque m tend vers l’infini, on a E |E[M∞ |Fn ]−Mn | = 0, ce qui montre (ii).
L’implication (ii) ⇒ (iii) est immédiate. L’implication (iii) ⇒ (iv) est une conséquence directe du lemme B.6.9. Montrons que
(iv) ⇒ (i): la propriété d’uniforme intégrabilité implique que pour un certain a > 0, il existe une constante c, positive et finie telle
que pour tout n ∈ N, on ait E[ |Mn |1{|Mn |≥a} ] ≤ c. Donc pour tout n ∈ N,
Théorème B.6.11 Soit X, une v.a. intégrable. Soit (Fn )n∈N , une filtration sur (Ω, F ). On rappelle que F∞ = σ(Fn ; n ∈ N). Alors
1
E[X |Fn ] −
−−→ E[X |F∞ ] p.s. et dans L .
n→∞
Preuve: on pose Mn = E[X|Fn ], n ∈ N. C’est une martingale uniformément intégrable: par le théorème B.6.10, elle converge p.s. et
dans L vers une variable notée M∞ . Il faut donc montrer que P-p.s. M∞ = E[X|F∞ ]. Pour cela, on fixe p ∈ N et A ∈ Fp . Pour tout
1
n ∈ N, on a d’abord
E[Mn 1A ]−E[M∞ 1A ] = E[(Mn −M∞ )1A ] ≤ E |Mn −M∞ |1A ≤ E |Mn −M∞ | .
La convergence L des Mn vers M∞ implique que E[Mn 1A ] → E[M∞ 1A ]. Or pour tout n ≥ p, comme Fp ⊂ Fn , on a E[Mn 1A ] =
1
On pose alors [
L := A ∈ F∞ : E[X1A ] = E[M∞ 1A ] P := Fp .
et
p∈N
Il est facile de voir que P est un pi-système. On a clairement σ(P) = F∞ et par le théorème de convergence dominée on vérifie
aisément que L est une classe monotone. Or (B.34) implique que cP ⊂ L . Le théorème A.1.10 de la classe monotone, page 204,
montre que σ(P) ⊂ L , ce qui implique que L = F∞ . Autrement dit, pour tout A ∈ F∞ , E[M∞ 1A ] = E[X1A ]. Comme M∞ est
F∞ -mesurable, on en déduit que p.s. X∞ = E[X|F∞ ].
p
Supposons que (Mn )n∈N soit une martingale bornée en norme L : supn∈N E |Mn |p < ∞. Si p > 1, alors (B.31) implique que
1
(Mn )n∈N est uniformément intégrable et celle martingale converge dans L et presque sûrement par le théorème précédent. On a en
p
fait une converence dans L , comme le montre le théorème suivant.
p
Théorème B.6.12 (Convergence L des martingales) Soit p ∈ ]1, ∞[ . Soit (Mn )n≥0 , une martingale relativement à la filtration
(Fn )n≥0 . On suppose que
sup E[ |Mn |p ] < ∞ .
n∈N
p
Alors, il existe une v.a. M∞ dans L telle que
Preuve: par Jensen, (E[ |Mn | ])p ≤ E[ |Mn |p ], donc supn≥0 E[ |Mn | ] < ∞, et le théorème B.6.8 de convergence p.s. des martingales
implique que (Mn )n≥0 converge p.s. On note M∞ sa limite p.s. et on pose S = supn≥0 |Mn |. On a donc |M∞ | ≤ S. Pour
p
tout n ∈ N, on a donc |M∞ − Mn | ≤ 2S, et donc |M∞ − Mn |p ≤ 2p S p . L’inégalité L des sous-martingales positives (théorème
p p
B.6.6) montre que E[S ] < ∞, or limn |M∞ − Mn | = 0 p.s. Par convergence dominée on a donc (ii). Enfin, par Jensen, on a
1
(E[ |M∞ −Mn | ])p ≤ E[ |M∞ −Mn |p ], donc (Mn )n∈N converge vers M∞ dans L et le théorème B.6.10 entraîne (iii).
262 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.
Martingales rétrogrades. On introduit la notion de sur-martingales rétrograde (ou inverse) comme suit.
Définition B.6.13 (Sur-martingales rétrogrades) On introduit les notions suivantes.
• Soit Fn , n ∈ N, une suite de sous-tribus de l’espace mesurable (Ω, F ). On dit que (Fn )n≥0 est une filtration rétrograde ssi
Fn+1 ⊂ Fn , pour tout n ≥ 0. On définit alors \
F∞ := Fn .
n∈N
• Soit (Mn )n∈N , une suite de v.a. réelles. C’est une martingale rétrograde (resp. sur-martingale rétrograde) relativement à la filtra-
tion rétrograde(Fn )n≥0 si pour tout n ∈ N, Mn est Fn -mesurable, intégrable et E[Mn |Fn+1 ] = Mn+1 (resp. E[Mn |Fn+1 ] ≤
Mn+1 ).
On notera bien la différence avec la définition de martingale: les tribus Fn d’une filtration rétrograde décroissent, les variables Mn
sont donc "de moins en moins aléatoires". Il est donc normal de s’attendre à ce que les martingales rétrogrades se comportent plus
régulièrement. On remarque par exemple que (Mn )n≥0 est une martingale rétrograde ssi
∀n ∈ N , E[M0 |Fn ] = Mn . (B.35)
Le lemme suivant fait le lien entre les notions de martingale et martingale inverse. Sa preuve est immédiate.
Lemme B.6.14 Soit (Fn )n≥0 , une filtration rétrograde et soit (Mn )n∈N , une (Fn )n≥0 -sur-martingale (resp. martingale) Pour tout
n0 ∈ N, on pose Mnn0 = M(n0 −n)+ et Fnn0 = F(n0 −n)+ , c’est-à-dire
(Mnn0 )n∈N = Mn0 , Mn0 −1 , . . . , M2 , M1 , M0 , M0 , M0 , . . .
et
(Fn )n∈N = Fn0 , Fn0 −1 , . . . , F2 , F1 , F0 , F0 , F0 , . . .
n0
Alors (Fnn0 )n∈N est une filtration, au sens usuel, et (Mnn0 )n∈N est une sur-martingale (resp. martingale) relativement à (Fnn0 )n∈N ,
au sens usuel.
ThéorèmeT B.6.15 (Convergence des sur-martingales rétrogrades) Soit (Fn )n≥0 , une filtration rétrograde de (Ω, F ). On pose
F∞ = n∈N Fn . Soit (Mn )n∈N une sur-martingale rétrograde relativement à (Fn )n∈N . On obseve que cela implique que n 7→
E[Mn ] croît et on suppose que
sup E[Mn ] < ∞ . (B.36)
n∈N
Alors, il existe une v.a. réelle M∞ intégrable F∞ -mesurable, intégrable telle que limn Mn = M∞ p.s. et dans L et telle que
1
Preuve: on commence par prouver le théorème dans le cas ou M est une martingale rétrograde. Soit n0 ∈ N. Soient a, b ∈ R, tels
que a < b. On reprend les notations du lemme B.6.14. Un simple dessin montre que U[[0,n0 ]] (−M, [−b, −a]) = U[[0,n0 ]] (M n0 , [a, b]).
L’inégalité de Doob (théorème B.6.4) appliqué à la martingale usuelle M n0 (lemme B.6.14) implique que
(b − a)E U[[0,n0 ]] (−M, [−b, −a])] = (b − a)E U[[0,n0 ]] (M n0 , [a, b])]
On raisonne ensuite sur −M comme dans la preuve du théorème B.6.8 de convergence presque sûre des martingales pour montrer
qu’il existe une v.a. M∞ telle que P-p.s. limn Mn= M∞ . La remarque (B.35) combinée au lemme B.6.9 implique que (Mn )n∈N est
TFn -mesurable et donc M∞
uniformément intégrable et par (B.32) on a limn E |M∞−Mn | = 0. Pour tout n ∈ N, et tout p ≥ n, Mp est
est Fn -mesurable. Donc pour tout a ∈ R, {M∞ ≤ a} ∈ Fn , pour tout n ∈ N, et donc que {M∞ ≤ a} ∈ n∈N Fn = F∞ . Donc M∞
est F∞ -mesurable. Soit A ∈ F∞ . Pour tous m, n ∈ N, comme A ∈ Fn+m comme E[Mn |Fn+m ] = Mm+n (conséquence immédiate
1
de (B.35)), on a E[Mn 1A ] = E[Mm+n 1A ]. Comme les Mn convergent dans L vers M∞ , limm→∞ E[Mm+n 1A ] = E[M∞ 1A ] et
donc E[Mn 1A ] = E[M∞ 1A ]. On en déduit donc que P-p.s. E[Mn |F∞ ] = M∞ , ce qui termine la preuve du théorème dans le cas
des martingales rétrogrades.
Supposons que M soit une sur-martingale rétrograde. Pour tout n P ∈ N, on ∆n := Mn+1 − E[Mn |Fn+1 ]. On constate que
∆n est Fn+1 mesurable et positive. Pour tout n ∈ N∗ , on pose Vn := p≥n ∆p , qui est a priori à valeurs dans [0, ∞] et qui est
Fn+1 -mesurable et décroissante en n. On observe que
X X
E[|Vn |] = E[Vn ] = E[∆p ] = E[Mp ]−E[Mp−1 ] = sup E[Mp ]−E[Mn ] < ∞ .
p≥0
p≥n p≥n
B.6. MARTINGALES À TEMPS DISCRET. 263
Cela implique que chaque Vn est une v.a. intégrable et comme la suite n 7→ E[Mn ] est croissante, on en déduit que limn E[Vn ] = 0.
Comme les Vn décroissent cela montre que limn Vn = 0 p.s. et dans L . On vérifie ensuite immediatement que Mn∗ = Mn +Vn est une
1
(Fn )n∈N -martingale rétrograde. En lui appliquant le théorème prouvé dans le cas des martingales, on voit que limn Mn = limn Mn∗ =:
M∞ p.s. et dans L , qui est une v.a. F∞ -mesurable intégrable et pour tout n ∈ N, on a P-p.s.
1
[2] D ELLACHERIE , C., M EYER , P., AND M AISONNEUVE , B. Probabilités et potentiel: Chapitres I–IV.
Actualités scientifiques et industrielles 1372. Hermann, 1980.
[3] D ELLACHERIE , C., M EYER , P., AND M AISONNEUVE , B. Probabilités et potentiel: Chapitres V à VIII.
Actualités scientifiques et industrielles 1385. Hermann, 1980.
[4] D ELLACHERIE , C., M EYER , P., AND M AISONNEUVE , B. Probabilités et potentiel: Chapitres XII–XVI.
Actualités scientifiques et industrielles 1417. Hermann, 1980.
[5] DYNKIN , E., G REENBERG , V., FABIUS , J., M AITRA , A., AND M AJONE , G. Markov Processes: 2
Volumes. Grundlehren der mathematischen Wissenschaften. Springer Berlin Heidelberg, 1965.
[6] E THIER , S., AND K URTZ , T. Markov Processes: Characterization and Convergence. Wiley, 1986.
[7] G ETOOR , P., AND B LUMENTHAL , R. Markov Processes and Potential Theory. ISSN. Elsevier Science,
2011.
[8] R EVUZ , D., AND YOR , M. Continuous Martingales and Brownian Motion, third edition ed., vol. 293.
Springer, 1999.
[9] ROGERS , L., AND W ILLIAMS , D. Diffusions, Markov Processes, and Martingales: Volume 1, Founda-
tions. Cambridge Mathematical Library. Cambridge University Press, 2000.
265
Index
266
INDEX 267