Vous êtes sur la page 1sur 275

P ROCESSUS M ARKOVIENS D OCUMENT DE TRAVAIL

• •

Thomas D UQUESNE

2020-2021
ii
Contents

À propos de ce polycopié. vii

I Généralités sur les processus. 1


I.1 Noyaux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.1.a Généralités. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.1.b Hypothèses sur les espaces mesurables considérés. . . . . . . . . . . . . . . . . . . . 5
I.1.c Désintégration des couplages, applications. . . . . . . . . . . . . . . . . . . . . . . . 7
I.2 Processus: définitions, construction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
I.2.a Définitions, premières propriétés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
I.2.b Loi d’un processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
I.2.c Construction de processus: le théorème d’extension de Kolmogorov. . . . . . . . . . . 16
I.2.d Processus sur R+ , filtrations, régularité, modification, indistinguabilité et mesurabilité
progressive. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
I.3 Temps d’arrêt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
I.3.a Définitions, premières propriétés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
I.3.b Existence de temps d’arrêt, complétion des filtrations. . . . . . . . . . . . . . . . . . 29
I.4 Régularisation des processus. Martingales à temps continu. . . . . . . . . . . . . . . . . . . . 35
I.4.a Résultats déterministes sur les fonctions régularisables. . . . . . . . . . . . . . . . . . 35
I.4.b Martingales en temps continu: définition, régularisation. . . . . . . . . . . . . . . . . 38

II Généralités sur les processus Markoviens. 43


II.1 Noyaux Markoviens, semi-groupes associés. . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
II.2 Processus de Markov, propriété de Markov simple. . . . . . . . . . . . . . . . . . . . . . . . 50
II.2.a Définitions élémentaires des processus de Markov. . . . . . . . . . . . . . . . . . . . 51
II.2.b Construction des Processus de Markov sur l’espace canonique. . . . . . . . . . . . . . 54
II.2.c Définition complète des processus de Markov et propriété de Markov (faible). . . . . . 55
II.3 Propriété de Markov forte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
II.3.a Définition et propriété de Markov forte. . . . . . . . . . . . . . . . . . . . . . . . . . 58
II.3.b Un critère impliquant la propriété de Markov forte. . . . . . . . . . . . . . . . . . . . 60
II.4 Propriétés de Markov relativement aux filtrations augmentées. . . . . . . . . . . . . . . . . . 61
II.4.a Markov faible relativement aux filtrations augmentées, loi du 0-1 de Blumenthal. . . . 61
II.4.b Markov forte pour les fonctionnelles augmentées. Quasi-continuité à gauche. . . . . . 66
II.5 Régularité des processus de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
II.5.a Processus de Hunt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
II.5.b Durée d’un processus sous-Markovien, processus standard. . . . . . . . . . . . . . . . 72

iii
II.6 Régularisation des processus de Feller. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
II.6.a Énoncé, résumé des résultats applicables, contruction canonique. . . . . . . . . . . . . 77
II.6.b Préliminaires sur les fonctions sur-médianes. . . . . . . . . . . . . . . . . . . . . . . 79
II.6.c Preuve du théorème II.6.1 de régularisation des processus de Feller. . . . . . . . . . . 82

III Processus de Feller: résolvantes et générateur. 85


III.1 Théorie de Hille-Yosida. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
III.1.a Quelques points de calcul intégral et différentiel dans les Banach. . . . . . . . . . . . 85
III.1.b Semi-groupes, contractivité, forte continuité: définitions et premières propriétés. . . . 88
III.1.c Résolvantes, contractivité, forte continuité: définitions et premières propriétés. . . . . 91
III.1.d Des résolvantes aux semi-groupes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
III.1.e Générateur infinitésimaux. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
III.1.f Des générateurs aux semi-groupes et aux résolvantes. . . . . . . . . . . . . . . . . . . 101
III.2 Applications aux semi-groupes de Feller-Dynkin. . . . . . . . . . . . . . . . . . . . . . . . . 105
III.2.a Forte continuité des semi-groupes de Feller-Dynkin. . . . . . . . . . . . . . . . . . . 105
III.2.b Principe du maximum. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
III.2.c Application au mouvement Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . 110
III.3 Formule de Dynkin, opérateur caractéristique. . . . . . . . . . . . . . . . . . . . . . . . . . . 114
III.3.a Formule de Dynkin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
III.3.b Opérateur caractéristique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
III.4 Quelques applications aux diffusions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
III.4.a Forme du générateur d’une diffusion. . . . . . . . . . . . . . . . . . . . . . . . . . . 117
III.4.b Existences des diffusions: à partir de résultats sur les EDP paraboliques. . . . . . . . . 120

IV Nuages de Poisson. 123


IV.1 Processus de Poisson linéaire homogène. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
IV.1.a Événements rares et loi de Poisson, lois exponentielles, statistiques d’ordre. . . . . . . 123
IV.1.b Une heuristique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
IV.1.c Construction des processus Poisson homogènes sur R+ . . . . . . . . . . . . . . . . . 131
IV.2 Généralités sur les nuages de points. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
IV.2.a Premières définitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
IV.2.b Loi et indépendance de nuages aléatoires. . . . . . . . . . . . . . . . . . . . . . . . . 135
IV.2.c Mesurabilité de certaines opérations sur les nuages de points. . . . . . . . . . . . . . . 138
IV.2.d Intersections et unions de nuages aléatoires. . . . . . . . . . . . . . . . . . . . . . . . 140
IV.3 Nuages Poissonniens. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
IV.3.a Définition, premières propriétés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
IV.3.b Construction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
IV.4 Outils de calculs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
IV.4.a Formules de Palm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
IV.4.b Formules exponentielles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
IV.5 Nuages Poissonniens sur R+ × E. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
IV.5.a Premières propriétés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
IV.6 Processus ponctuels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
IV.6.a Formule de compensation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
IV.6.b Processus ponctuels régénératifs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
IV.7 Quelques exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

iv
IV.8 Sur les nuages Poissonniens. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174

V Processus de Lévy. 177


V.1 Définitions et lois infiniment divisibles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
V.1.a Définitions des processus de Lévy, premières propriétés. . . . . . . . . . . . . . . . . 177
V.1.b Lois infiniment divisibles, semi-groupes de convolution et processus de Lévy. . . . . . 178
V.2 Structure des processus de Lévy. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
V.2.a Caractérisation des processus de Lévy continus. . . . . . . . . . . . . . . . . . . . . . 180
V.2.b Décomposition des processus de Lévy, formule de Lévy Khintchine. . . . . . . . . . . 185
V.3 Quelques propriétés; cas spécifiques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
V.3.a Variation totale des trajectoires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
V.3.b Subordinateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
V.3.c Processus sans saut négatif. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199

A Théorie de la mesure et de l’intégration. 203


A.1 Rappels sur la mesurabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
A.2 Ensemble négligeables et complétion d’un espace mesuré. . . . . . . . . . . . . . . . . . . . 208
A.3 Régularité des mesures. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
A.4 Constructions de mesures. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
A.5 Compléments sur la mesurabilité. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
A.6 Métrisabilité des espaces localement compacts à base dénombrable. . . . . . . . . . . . . . . 226
A.7 Ensembles analytiques, preuve du théorème du "Début". . . . . . . . . . . . . . . . . . . . . 229

B Bases de la théorie des probabilités. 237


B.1 Brefs rappels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
B.2 Indépendance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
B.3 Variables et vecteurs Gaussiens. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
B.4 Convergence de variables aléatoires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
B.5 Espérance conditionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
B.6 Martingales à temps discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256

v
vi
À propos de ce polycopié.

Il s’agit d’un document de travail pour les étudiants de M2, filière Probabilité et Modèles Aléatoire pour le
cours intitulé qui fait suite à un premier cours sur les processus de Markov. Il s’agit à l’origine d’un support
pour l’enseignement à distance. Il contient de nombreux détails qui ne sont pas développés en cours par manque
de temps, mais qu’il peut être utile de connaître.

Bref Descriptif. Le but premier de ce cours est de donner une introduction technique permettant d’aborder
des ouvrages spécialisés – sur les branchements, les diffusions, les processus de Lévy, la mécanique statistique,
etc – où les évolutions markoviennes jouent un rôle important.
Le Chapitre I est une sorte d’annexe technique qui rassemble des résultats sur les processus en général;
il est conseillé de commencer la lecture de ce polycopié par le Chapitre II, quitte à vérifier les détails dans le
Chapitre I des notions auxquelles il y fait appel.
Le Chapitre II est une tentative de présenter les résultats fondamentaux sur les processus de Markov: loi
du 0-1 de Blumenthal, critère pour la propriété de Markov forte, continuité à droite des filtration naturelles
complétées, quasi-continuité à gauche, durée de vie, régularisation des processus de Feller-Dynkin.
Une présentation générale des processus de Markov est donnée dans le premier chapitre de l’ouvrage de
Blumenthal & Getoor [7]. Un acompte plus bref mais plus accessible est donné dans le livre de Revuz & Yor [8]
(Chapter III). Nous renvoyons également à la présentation donnée dans le premier tome de Rogers & Williams
[9] (Chapter III).
Le Chapitre III est une introduction aux générateurs des Markov. Plus précisément, on y présente la théorie
de Hille-Yosida et son application aux processus de Feller-Dynkin. Il devrait être complété par un exposé
synthétique de la technique dite du problème des martingales mais je n’ai pas eu le temps.
Le deuxième but de ce cours est d’introduire des processus comportant des sauts. Nous donnons un cours
(très) détaillé sur les processus ponctuels de Poisson au Chapitre IV et nous donnons un exposé sur les processus
de Lévy au Chapitre V qui permet d’aborder l’excellent livre sur le sujet de J. Bertoin [1].
Le dernier point du cours est une présentation de la théorie des excursions des processus de Markov: rien
n’a été tapé à ce jour mais je pense le faire bientôt.

Chaque vidéo couvre une partie du polycopié (sauf pour la partie concernant les excursions qui ne sont pas
encore écrites). Les cours en video fournissent un chemin dans ce document de travail (pénible à lire de façon
linéaire), document qui se veut une incitation à consulter les ouvrages mentionnés en début de chapitre pour
examiner certains points.

Je vous souhaite un bon travail,

Thomas Duquesne.

vii
viii
Chapter I

Généralités sur les processus.

Le Chapitre I rassemble des résultats sur les processus en général; il est conçu comme une annexe technique.
Ce premier chapitre comporte une copieuse section sur les temps d’arrêt: le lecteur peut consulter le livre
d’Ethier & Kurtz [6] (Chapter 2) pour plus de détails. Sur le théorème du "Début": voir Rogers & Williams [9],
Chapter II, Section 5, subsection 75-76; sur ce point technique nous renvoyons également au premier volume
de Dellacherie & Meyer [2]. Sur la régularisation des martingales, nous renvoyons également à l’ouvrage de
Rogers & Williams [9] (Chapter IV, Section 5) ou bien aux généralités de l’ouvrage de Dellacherie & Meyer
[2] et au volume de ces auteurs consacré aux martingales [3].

Brève bibliographie.

D ELLACHERIE , C., AND M EYER , P.-A. Probabilités et potentiel. Hermann, Paris, 1975. Chapitres I
à IV, Édition entièrement refondue, Publications de l’Institut de Mathématique de l’Université de Strasbourg,
No. XV, Actualités Scientifiques et Industrielles, No. 1372.
D ELLACHERIE , C., AND M EYER , P.-A. Probabilités et potentiel. Chapitres V à VIII, revised ed., vol. 1385
of Actualités Scientifiques et Industrielles. Hermann, Paris, 1980. Théorie des martingales.
E THIER , S., AND K URTZ , T. Markov Processes: Characterization and Convergence. Wiley, 1986.
ROGERS , L. C. G., AND W ILLIAMS , D. Diffusions, Markov processes, and martingales. Vol. 1. Cam-
bridge Mathematical Library. Cambridge University Press, Cambridge, 2000. Foundations, Reprint of the
second (1994) edition.

I.1 Noyaux.
La notion de noyau généralise celle de probabilités de transition pour les chaînes de Markov. Elle joue un rôle
fondamental dans la théorie des processus de Markov dont la loi est caractérisée par leurs noyaux. Par ailleurs
les noyaux permettent des constructions probabilistes essentielles.

I.1.a Généralités.
Définition I.1.1 Un noyau de sous-probabilités de l’espace mesurable (E1 , E1 ) vers l’espace mesurable (E2 , E2 ),
est une famille p = (p(x, dy); x ∈ E1 ) satisfaisant les propriétés suivantes.

(a) Pour chaque x ∈ E1 , p(x, dy) : E2 → [0, 1] est une mesure positive telle que p(x, E2 ) ≤ 1.

1
2 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

(b) Pour tout B ∈ E2 , la fonction x ∈ E1 7→ p(x, B) ∈ R+ est E1 -mesurable.

Si de plus, p satisfait p(x, E1 ) = 1, pour tout x ∈ E1 , alors p est appelé noyau de probabilités. 

Lemme I.1.2 Soit p, un noyau de sous-probabilités de (E1 , E1 ) vers (E2 , E2 ). Soit g : E1 ×E2 → [0, ∞], une
fonction qui est E1 ⊗ E2 -mesurable. Alors la fonction
Z
x ∈ E1 7−→ p(x, dy)g(x, y) est E1 -mesurable. (I.1)
E2

Ce résultat reste valable si g est E1 ⊗E2 -mesurable, à valeurs dans C et bornée.


Preuve: il s’agit d’un argument de routine utilisant le théorème A.1.20 de classe monotone fonctionnelle,
page 207. On note H l’ensemble des fonctions g : E1 × E2 → [0, ∞] qui sont E1 ⊗ E2 -mesurables et qui
satisfont (I.1). Il est clair que c’est un espace vectoriel. On note P := {A1 × A2 ; A1 ∈ E1 , A2 ∈ E2 } qui
R engendrant par définition A.1.12 (page 205) la tribu E1 ⊗ E2 . Soit C = A1 × A2 ∈ P. On
est un pi-système
remarque que E2 p(x, dy)1C (x, y) = 1A1 (x)p(x, A2 ). La propriété (b) de la définition des noyaux implique
que 1C ∈ H . Par ailleurs, le théorème de convergence monotone implique que H satisfait l’hypothèse (c) du
théorème A.1.20 de classe monotone fonctionnelle. Ce théorème s’applique donc et permet de conclure. Si g
bornée, on applique le cas positif à ses parties positives et négatives, ce qui entraîne facilement le résultat: les
détails sont laissés au lecteur. 

Définition I.1.3 (Produit de noyaux) Soit p, un noyau de sous-probabilités de (E1 , E1 ) vers (E2 , E2 ). Soit q,
un noyau de sous-probabilités de (E2 , E2 ) vers (E3 , E3 ). Soit µ : E1 → [0, ∞], une mesure positive.

(a) On pose
Z Z 
∀x ∈ E1 , ∀B ∈ E2 ⊗ E3 , (p ⊗ q) (x, B) = p(x, dy) q(y, dz) 1B (y, z) (I.2)
E2 E3

Alors p ⊗ q est un noyau de sous-probabilités de (E1 , E1 ) vers (E2×E3 , E2⊗E3 ) appelé produit du noyau
p avec le noyau q.

(b) On pose Z Z 
∀B ∈ E1 ⊗ E2 , (µ ⊗ p) (B) = µ(dx) p(x, dy) 1B (x, y) . (I.3)
E1 E2

Alors µ⊗p : E1 ⊗E2 → [0, ∞] est une mesure positive appelée produit de µ avec p. 
R
Justifions les définitions précédentes: le lemme I.1.2 montre que f : y ∈ E2 7→ E3 q(y, dz) 1B (y, z) est
E
R 2 -mesurable, ce qui montre que (I.2). Ce même lemme implique également que x 7→ (p ⊗ q)(x, B) =
E1 p(x, dy)f (y) est E1 -mesurable, ce qui prouve la propriété (b) de laSdéfinition I.1.1 des noyaux. Soient
Bn ∈ E2 ⊗E3 , n ∈ N, des ensembles deux-à-deux disjoints; on pose B = n∈N Bn ; le théorème d’interversion
série-intégrale positif appliqué deux fois implique que pour tout x ∈ E1 ,
Z XZ 
(p ⊗ q)(x, B) = p(x, dy) q(y, dz) 1Bn (y, z)
E2 n∈N E3
XZ Z  X
= p(x, dy) q(y, dz) 1Bn (y, z) = (p ⊗ q) (x, Bn ) ,
n∈N E2 E3 n∈N
I.1. NOYAUX. 3

ce qui montre que pour tout x ∈ E1 , (p ⊗ q) (x, ·) : E2 ⊗E3 → [0, ∞] est une mesure positive. Il est ensuite
clair que c’est une sous-probabilité, ce qui montre que p ⊗ q satisfait la propriété (a) de la définition I.1.1 des
noyaux. La justification de la définition (b) d’une mesure, à partir d’un noyau et d’une mesure, est similaire:
nous laissons les détails au lecteur.

Remarque I.1.4 Avec les notations de la définition I.1.3, on observe facilement que Si p et q sont des noyaux
de probabilités, alors il en est de même pour p⊗q. On observe également que µ⊗p (E1 ×E2 ) ≤ µ(E1 ) et si p
est un noyau de probabilités, on a même µ⊗p (E1 ×E2 ) = µ(E1 ). 
Avec les hypothèses et les notations de la définition I.1.3, on déduit de (I.2) par un argument simple de laissé
au lecteur (voir le lemme A.1.19 page 207) que pour toute fonction g : E2 × E3 → R qui est E3 -mesurable:
Z Z Z 
∀x ∈ E1 , (p ⊗ q) (x, dydz) f (y, z) = p(x, dy) q(y, dz) f (y, z) . (I.4)
E2 ×E3 E2 E3

De même on déduit de (I.3) que pour toute fonction g : E1 × E2 → R qui est E1 ×E2 -mesurable:
Z Z Z 
(µ ⊗ p) (dxdy) g(x, y) = µ(dx) p(x, dy) g(x, y) . (I.5)
E1 ×E2 E1 E2

Associativité du produit de noyaux. Soient (Ek , Ek ), 0 ≤ k ≤ 3, des espaces mesurables. Pour tout k ∈
{1, 2, 3}, soit pk un noyau de probabilités de (Ek−1 , Ek−1 ) vers (Ek , Ek ). On identifie (E1 × E2 ) × E3 avec
E1 ×(E2 ×E3 ), que l’on note simplement E1 ×E2 ×E3 . Cela entraîne que (E1 ⊗E2 )⊗E3 = E1 ⊗(E2 ⊗E3 ) et on
vérifie que:
(p1 ⊗ p2 ) ⊗ p3 = p1 ⊗ (p2 ⊗ p3 ) . (I.6)
Autrement dit, le produit de noyaux est associatif et on le notera simplement p1 ⊗p2 ⊗p3 .
Composition de noyaux. Soient (E1 , E1 ), (E2 , E2 ), deux espaces mesurables. On introduit es fonctions
π1 : E1 × E2 → E1 et π2 : E1 × E2 → E2 par

∀(x, y) ∈ E1 ×E2 , π1 (x, y) = x et π2 (x, y) = y .

Les fonctions π1 et π2 sont les projections canoniques. On rappelle que E1 ⊗ E2 est la plus petite tribu rendant
mesurable π1 et π2 :
σ(π1 , π2 ) = E1 ⊗ E2 .
Cela implique notamment que si (E0 , E0 ) est un espace mesurable et si f = (f1 , f2 ) : E0 → E1 × E2 , est une
fonction, alors f est (E0 , E1 ⊗ E2 )-mesurable ssi f1 est (E0 , E1 )-mesurable et f2 est (E0 , E2 )-mesurable.

Définition I.1.5 On reprend les notations précédentes. Soit m : E1 ⊗ E2 → [0, ∞], une mesure positive. La
première marginale de m est la mesure image de m sur par π1 . De même, la seconde marginale de m est la
mesure image de m sur par π2 . Si on les note respectivement µ et ν, on a

∀A ∈ E1 , ∀B ∈ E2 , µ(A) = m(A × E2 ) et ν(B) = m(E1 × B) .

On utilise la notation µ = m et ν = m. 

Définition I.1.6 (Composition de noyaux) Soit p, un noyau de sous-probabilités de (E1 , E1 ) vers (E2 , E2 ). Soit
q, un noyau de sous-probabilités de (E2 , E2 ) vers (E3 , E3 ). Soit µ : E → [0, ∞], une mesure positive.
4 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

(a) Pour tout x ∈ E1 , on note (pq) (x, dz) la mesure sur E3 qui est la seconde marginale (p ⊗ q)(x, ·) de
(p ⊗ q)(x, ·), c’est-à-dire
Z
∀x ∈ E1 , ∀A3 ∈ E3 , (pq) (x, A3 ) = (p ⊗ q) (x, E2 ×A3 ) = p(x, dy)q(y, A3 ) . (I.7)
E2

Alors, pq est un noyau de sous-probabilités de (E1 , E1 ) vers (E3 , E3 ) que est appelé la composition de p
avec q.

(b) On note (µp) (dy) la seconde marginale (µ⊗p), c’est-à-dire


Z
∀A2 ∈ E2 , (µp) (A2 ) = µ(dx) p(x, A2 ) . (I.8)
E1

Alors µp : E2 → [0, ∞] est une mesure positive appelée composition de µ avec p. 

Le fait que p ⊗ q est un noyau implique que x ∈ E1 7→ (p ⊗ q) (x, E2 × A3 ) est E1 -mesurable, ce qui est la
propriété (b) de la définition des noyaux, seul point à justifier dans la définition précédente.

Remarque I.1.7 Avec les notations de la définition précédente, on observe facilement que pq est un noyau de
probabilités dès que p et q le sont. De même on voit que µp (E2 ) ≤ µ(E1 ) avec égalité si p est un noyau de
probabilités. 
Propriétés élémentaires. Les preuves sont laissées en exercice.
(a) Avec les hypothèses et les notations de la définition I.1.6, on déduit de (I.7) par un argument simple de laissé
au lecteur (voir le lemme A.1.19 page 207) que pour toute fonction f : E1×E3 → R qui est E1⊗E3 -mesurable:
Z Z Z 
∀x ∈ E1 , (pq) (x, dz) f (x, z) = p(x, dy) q(y, dz) f (x, z) . (I.9)
E3 E2 E3

De même on déduit de (I.8) que pour toute fonction f : E2 → R qui est E2 -mesurable:
Z Z Z 
(µp) (dy) f (y) = µ(dx) p(x, dy) f (y) . (I.10)
E2 E1 E2

(b) Soient (Ek , Ek ), 0 ≤ k ≤ 3, des espaces mesurables. Pour tout k ∈ {1, 2, 3}, soit qk un noyau de probabilités
de (Ek−1 , Ek−1 ) vers (Ek , Ek ). On vérifie que

q1 (q2 ⊗ q3 ) = (q1 q2 ) ⊗ q3 (I.11)

(c) On montre également que

∀x ∈ E0 , ∀A ∈ E1 , ∀B ∈ E3 , (q1 ⊗ q2 ⊗ q3 ) (x, A × E2 × B) = (q1 ⊗ (q2 q3 )) (x, A × B) . (I.12)

(d) Concluons cette section par une généralisation pour n noyaux de (I.12) qui sera utilisée dans le chapitre sur
les processus de Markov. Si on dispose de n noyaux p1 , . . . , pn de sous-probabilités, on définit récursivement
p1 ⊗ . . . ⊗pn , par exemple, par:

p1 ⊗ . . . ⊗ pk+1 := (p1 ⊗ . . . ⊗ pk ) ⊗ pk+1 , 1≤k<n.


I.1. NOYAUX. 5

Lemme I.1.8 Soient (Ek , Ek ), 0 ≤ k ≤ n, des espaces mesurables. Pour tout k ∈ {1, . . . , n}, soit pk un noyau
de probabilités de (Ek−1 , Ek−1 ) vers (Ek , Ek ). Alors, tout x ∈ E0 , pour tous A1 ∈ E1 , . . . , An ∈ En , pour tout
k ∈ {1, . . . , n − 1}, on a

(p1 ⊗p2 ⊗ . . . ⊗pn ) (x, A1 ×. . .×Ak−1 ×Ek ×Ak+1 ×. . .×An )


= (p1 ⊗ . . . ⊗(pk pk+1 )⊗ . . . ⊗pn ) (x, A1 ×. . .×Ak−1 ×Ak+1 ×. . .×An ).

Preuve: on note u le premier membre de l’égalité et on pose A = A1 × . . . × Ak−1 et B = Ak+1 × . . . × An .


En utilisant l’associativité du produit des noyaux et appliquant (I.12) à q1 = p1 ⊗ . . . ⊗ pk−1 , q2 = pk et
q3 = pk+1 ⊗ . . . ⊗ pn , on obtient

u = (p1 ⊗ ⊗ . . . pk−1 ) ⊗ (pk (pk+1 ⊗ . . . ⊗ pn ))(x, A × B) .

On applique ensuite (I.11) à q1 = pk , q2 = pk+1 et q3 = pk+2 ⊗ . . . ⊗ pn , on obtient,

pk (pk+1 ⊗ . . . ⊗ pn ) = (pk pk+1 ) ⊗ pk+2 ⊗ . . . ⊗ pn ,

ce qui permet de conclure. 

I.1.b Hypothèses sur les espaces mesurables considérés.


Nous introduisons des hypothèses sur les espaces sur lequels sont définis les noyaux ou les considérés dans ce
cours. Nous commençons par des hypothèses de mesurabilité simples. Nous renvoyons le lecteur à la section
A.5 pour plus de détails et des preuves de ce qui est rappelé ci-dessous. On rappelle d’abord la définition
suivante.

Définition I.1.9 (Isomorphisme d’espaces mesurables) Soient (E, E ) et (E 0 , E 0 ), deux espaces mesurables.
Ils sont dits isomorphes s’il existe une bijection φ : E → E 0 qui est est (E , E 0 )-mesurable et telle que sa
réciproque φ−1 : E 0 → E soit (E 0 , E )-mesurable. 
Une telle fonction φ est un isomorphisme d’espaces mesurables et l’application B ∈ E 7→ φ(B) ∈ E 0 est une
bijection de E sur E 0 .

Définition I.1.10 Soit (E, E ), un espace mesurable. On introduit les notions suivantes.

(a) (E, E ) contient les singletons si {x} ∈ E pour tout x ∈ E .

(b) (E, E ) est dit diagonal si ∆ ∈ E ⊗2 , où ∆ = {(x, x); x ∈ E} est la diagonale de E 2 .

(c) (E, E ) est dit mesurable séparable s’il existe An ∈ E , n ∈ N, engendrant E : E = σ {An ; n ∈ N} .


(d) (E, E ) est dit mesurable séparé si pour tous x, y ∈ E distincts, il existe A ∈ E tel que x ∈ A et y ∈ E\A.


Ce même théorème montre aussi le fait suivant.

(E, E ) séparable et séparé =⇒ (E, E ) mesurable diagonal =⇒ (E, E ) contient les singletons.

Le théorème A.5.3, page 222, montre également le fait suivant:


6 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

Soit (E, E ), espace mesurable. Il est séparable et séparé si et seulement s’il existe X ⊂ R (pas néces-
sairement Borélien), tel que (E, E ) est isomorphe à (X, B(X)), où B(X) est la tribu trace sur X des
Boréliens de R (voir la définition A.1.7 et le lemme A.1.8, page 204, pour cette notion).

On rappelle ensuite la définition d’espace mesurable régulier.

Définition I.1.11 (Espace mesurable régulier) Soit (E, E ), un espace mesurable. Il est dit régulier s’il existe
C ∈ B(R) tel que (E, E ) et (C, B(C)) soient isomorphes. 
On rappelle le théorème suivant (prouvé à la section A.5).

Théorème I.1.12 Soit (E, d), un espace métrique séparable complet. Soit A ∈ B(E). Alors il existe C ∈ B(R)
tel que (A, B(A)) et (C, B(C)) soient isomorphes. Autrement dit, tout Borélien d’un espace Polonais muni
de sa tribu Borélienne trace est un espace mesurable régulier.
Le théorème d’isomorphisme de Borel affirme le résultat suivant, plus fort.

Si (E, d) est un espace métrique sépérable et complet et si A ∈ B(E) n’est pas dénombrable, alors
(A, B(A)) est isomorphe à (R, B(R)).

Sa preuve est difficile. Le théorème I.1.12, moins précis mais de preuve facile, est largement suffisant pour les
applications.
Les hypothèses sur les espaces considérés dans la suite sont pour plupart plus restrictives. Rappelons les
définitions suivantes.

Définition I.1.13 (Espace Polonais, espace LCBD) Soit E, un espace muni d’une topologie T .

(a) E est un espace métrisable séparable s’il existe une distance d sur E générant la topologie T et telle
que (E, d) soit séparable (c’est-à-dire admette une suite dense).

(b) E est dit polonais s’il existe une distance d sur E générant la topologie T et telle que (E, d) soit
séparable complet.

(c) E est un espace localement compact à base dénombrable (abrégé systématiquement en LCBD) si la
topologie T admet une base dénombrable d’ouverts d’adhérence compacte (voir la définition A.6.7 page
227 (base, base dénombrable), la définition A.6.10 page 228 (localement compact) et le lemme A.6.11,
page 228). 
On rappelle le résultat standard suivant.

Proposition I.1.14 Soient E et E 0 , des espaces métrisables séparables. Alors E × E 0 , muni de la topologie
produit, est également métrisable et séparable et on a

B(E ×E 0 ) = B(E)⊗B(E 0 ) .

Voir la proposition A.1.15 et sa preuve. On rappelle également le résultat concernant les espaces LCBD.
On rappelle également un résultat concernant la métrisabilité des espaces LCBD. Ce résultat est prouvé à la
section A.6, page 226; il est une conséquence du théorème d’Urysohn sur la métrisabilité des espaces compacts
à base dénombrable (théorème A.6.9, page 227) et un théorème de compactification à des espaces localement
compacts (proposition A.6.12, page 228).
I.1. NOYAUX. 7

Théorème I.1.15 Soit (E, T ), un espace LCBD. Soit ∂ ∈


/ E. On pose E∂ = E ∪ {∂}. Alors il existe une
distance d sur E∂ , telle que

(a) (E∂ , d) est un espace métrique compact (donc séparable complet),

(b) la topologie induite par d sur E est T .

Preuve. Voir la section A.6 page 226 en appendice. 


Dans la suite du cours, on résume cela en disant que (E∂ , d) est un "compactifié habituel" de E.

Remarque I.1.16 Si E est déjà compact, le compactifié "habituel" est simplement obtenu en ajoutant un point
isolé mais il ne s’agit pas à proprement parler d’une compactification. Nous adoptons ce point de vue car ∂
joue un rôle formel de point d’absorption dans la théorie des processus de Markov. 

I.1.c Désintégration des couplages, applications.


On rappelle brièvement la notion de mesure image et le théorème de transfert.

Lemme I.1.17 Soit (E, E , µ), un espace mesuré. Soit (E 0 , E 0 ), un espace mesurable. Soit f : E → E 0 , une
application (E , E 0 )-mesurable. On définit ν : E 0 → [0, ∞] par

∀B ∈ E 0 , ν(B) = µ f −1 (B) .


Alors ν est une mesure positive sur (E 0 , E 0 ) qui est appelée la mesure image de µ par f . Elle est parfois notée
ν = µ ◦ f −1 .

Preuve: soient Bn ∈ E 0 , n ∈ N, des ensembles deux-à-deux disjoints. On remarque que les ensembles f −1 (Bn ),
n ∈ N, sont également deux-à-deux disjoints et dans E . D’autre part, f −1 ( Bn ) = f −1 (Bn ). La sigma
S S
additivité de µ entraîne alors
[   [  [  X  X
ν Bn = µ f −1 Bn = µ f −1 (Bn ) = µ f −1 (Bn ) = ν(Bn ) .

Donc ν est sigma additive et il est clair que ν(∅) = µ(f −1 (∅)) = µ(∅) = 0. Cela montre que ν est une mesure
positive. 

Théorème I.1.18 (Changement de variable abstrait ou Transfert) Soit (E, E , µ), un espace mesuré. Soit (E 0 , E 0 ),
un espace mesurable. Soit f : E → E 0 , une application (E , E 0 )-mesurable. On note ν la mesure image de µ
par f . Alors, pour toute fonction h complexe E 0 -mesurable et ν-intégrable,
Z Z
h(y) ν(dy) = h(f (x)) µ(dx) . (I.13)
E0 E

Ce résultat est également vrai pour toute fonction h : E 0 → [0, ∞] qui est E 0 -mesurable.

Preuve: on considère d’abord le cas où h = 1B , avec B ∈ E 0 . Alors, on remarque que 1B ◦ f = 1f −1 (B) , ce


qui entraîne bien (I.13) pour les fonctions indicatrices, par définition de la mesure image. Soit h : E 0 → [0, ∞],
8 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

PE -mesurable. Le lemma A.1.19 page 207 implique l’existence de Bn ∈ E et cn ∈ R+ , n ∈ N,


une application 0 0

tels que h = n∈N cn 1Bn . L’interversion série/intégrale positive implique alors que
Z Z X  X Z X Z
h dν = cn 1Bn dν = cn 1Bn dν = cn 1Bn (f (x)) dµ(x)
E0 E0 n∈N n∈N E0 n∈N E
Z X  Z
= cn 1Bn (f (x)) dµ(x) = h◦f dµ .
E n∈N E

On passe au cas des fonctions réelles ν-intégrables en considérant leur partie positive et leur partie négative. 

Définition I.1.19 (Couplage) Soient (E1 , E1 ) et (E2 , E2 ), deux espaces mesurables. Soient µ : E1 → [0, ∞], et
ν : E2 → [0, ∞], deux mesures positives. Un couplage de (µ, ν) est une mesure positive m : E1 ⊗ E2 → [0, ∞]
telle que la première marginale de m soit µ et sa seconde soit ν: µ = m et ν = m. 
Dans la suite on se restreint aux mesures finies. Si m est un couplage de µ et ν, mesure finies, alors m est
une mesure finie et on a
µ(E1 ) = m(E1 ×E2 ) = ν(E2 ) .
Donc deux mesures qui peuvent être couplées sont nécessairement de même masse. On peut interpréter un
couplage comme un transport d’une masse répartie selon µ dans l’espace E1 sur un espace E2 selon une
nouvelle répartition ν: m(dxdy) représente alors la quantité de masse situé en x ∈ E1 à mettre en y ∈ E2 . Le
but de cette section est de montrer le théorème de représentation des couplages suivant.

Théorème I.1.20 (Représentation des couplages) Soient (E1 , E1 ) et (E2 , E2 ), deux espaces mesurables. Soit m :
E1 ⊗ E2 → R+ , une mesure finie, dont on note µ := m la première marginale. On note ` la mesure de Lebesgue
sur R. On suppose (E2 , E2 ) régulier. Alors, il existe Ψ : E1× ]0, 1[ → E2 , qui est (E1⊗B( ]0, 1[ ), E2 )-mesurable
et telle que Z Z

g dm = g x, Ψ(x, z) µ(dx)`(dz). (I.14)
E1 ×E2 E1 × ]0,1[

pour toute fonction g : E1 ×E2 → [0, ∞] qui est E1 ⊗E2 -mesurable.


Avant de montrer ce théorème, discutons de quelques conséquences théoriques. La première est le théorème
de désintégration des couplages.

Théorème I.1.21 (Désintégration des couplages) Soient (E1 , E1 ) et (E2 , E2 ), deux espaces mesurables. Soit m :
E1 ⊗ E2 → R+ , une mesure finie, dont on note µ := m sa première marginale. On suppose (E2 , E2 ) régulier.
Alors, il existe un noyau p de probabilités de (E1 , E1 ) vers (E2 , E2 ) tel que m = µ ⊗ p, c’est-à-dire
Z Z Z

g dm = µ(dx) p(x, dy) g x, y , (I.15)
E1 ×E2 E1 E2

pour toute fonction g : E1 ×E2 → [0, ∞] qui est E1 ⊗E2 -mesurable.


Preuve: on reprend les notations du théorème I.1.20. Pour tout x ∈ E1 , on note p(x, dy) la mesure image de la
mesure de Lebesgue ` sur ]0, 1[ par la fonction Ψ(x, ·). Le théorème I.1.18 de transfert (page 7) montre que
(I.15) est égal à (I.14), ce qui termine la preuve. 

Nous appliquons ensuite le théorème I.1.20 de représentation des couplages à la construction de suites de
variables aléatoires. Pour cela on utlise les deux faits élémentaires suivants.
I.1. NOYAUX. 9

(a) Il existe un espace de probabilité (Ω, F , P) et une suite Un : Ω → [0, 1], n ∈ N, de v.a. F -mesurables
indépendantes de loi uniforme sur [0, 1].

Preuve: en fait on peut choisir Ω = [0, 1[, F = B([0, 1[) et P = `, la mesure de Lebesgue. En effet, pour
tout n ≥ 1 et tout x ∈ [0, 1[ , on pose ξn (x) := b2n xc − 2b2n−1
Pxc. On vérifie facilement que ξn (x) ∈ {0, 1},
que la suite (ξn (x))n≥1 n’est pas stationnaire à 1 et que x = n≥1 2−n ξn (x). Autrement dit (ξn (x))n≥1 est
le développement dyadique de x. Il est facile ensuite de vérifier que sous P, les v.a. (ξn )n≥1 sont des variables
de Bernoulli indépendantes telles que P(ξn = 1) = P(ξn = 0) = 1/2. Soit ϕ : N× N∗ → N∗ , une bijection.
On pose alors Un = p≥1 2−p ξϕ(n,p) . On vérifie facilement que sous P, les v.a. (Un )n∈N sont des uniformes
P
indépendantes. 
On utilise également le fait élémentaire suivant.

(b) Soit (E, E , µ) un espace mesuré. Soit (Ω, F , P), un espace de probabilité et soit U : Ω →]0, 1[ , une
v.a. uniforme. On suppose que µ(E) = 1 et que (E, E ) est un espace régulier. Alors,

∃h : ]0, 1[ → E, qui est (B( ]0, 1[), E )-mesurable telle que h(U ) sous P ait pour loi µ. (I.16)

Preuve: il existe B ∈ B(R) et une bijection φ : E → B telle que φ est (E , B(B))-mesurable et φ−1 est
(B(B), E )-mesurable. On note ν la mesure image de µ par φ et on pose

∀y ∈ ]0, 1[ , G(y) = inf{x ∈ R : ν( ]−∞, x]) > y}

qui est l’inverse continu à droite de la fonction de répartition de ν. On pose Y := G(U ). Il est bien connu que
Y sous P a pour loi ν. Comme P(Y ∈ / B) = ν(R\B) = 0, il existe une v.a. X : Ω → E telle que X = φ−1 (Y ), où
φ−1 est la réciproque mesurable de φ. Alors, pour tout A ∈ E , P(X ∈ A) = P(Y ∈ φ(A)) = ν(φ(A)) = µ(A),
car on rappelle que φ et φ−1 sont mesurables. On a donc montré que h := φ−1 ◦ G convient. 
En s’appuyant sur (a) et (b) et en appliquant le théorème I.1.20, on montre le résultat suivant qui est un cas
particulier du théorème d’extension de Kolmogorov.

Théorème I.1.22 Soit (En , En ), n ∈ N∗ , une suite d’espaces mesurables supposés réguliers. Pour tout n ∈ N∗ ,
on se donne µn : E1⊗. . .⊗En → [0, 1], une mesure de probabilité. On suppose que ces mesures sont compatibles
dans le sens suivant:

∀n ∈ N∗ , ∀A1 ∈ E1 , . . . , An ∈ En ,
 
µn A1 × . . . × An = µn+1 A1 × . . . × An × En+1 . (I.17)

Alors, il existe un espace de probabilité (Ω, F , P), et pour tout n ∈ N∗ , il existe Xn : Ω → En , v.a. (F , En )-
mesurable, tels que
pour tout n ∈ N∗ , µn est la loi de (X1 , X2 , . . . , Xn ) sous P.

Preuve: par (a), on se donne (Ω, F , P), espace de probabilité et Un : Ω →]0, 1[ , n ∈ N, des v.a. F -mesurables
indépendantes de loi uniforme sur [0, 1]. Il suffit de montrer par récurrence le fait suivant.

Pour tout n ∈ N∗ , il existe une fonction hn : ]0, 1[ n→ En qui est (B( ]0, 1[ n ), En )-mesurable et telle que
si on pose Xn := hn (U1 , . . . , Un ), alors la loi de (X1 , . . . , Xn ) est µn .
10 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

Le rang n = 1 est (I.16). On suppose que cela est vrai pour tous les rangs k ∈ {1, . . . , n}. En voyant E1 × . . . ×
En+1 comme le produit (E1 × . . . ×En )×En+1 et appliquant le théorème I.1.20 à m = µn+1 , et µ = µn , on
obtient une fonction mesurable Ψ : (E1 × . . . × En )× ]0, 1[ → En+1 , telle que pour toute fonction mesurable
g : E1 × . . . ×En+1 → [0, ∞],
Z Z

g dµn+1 = µn (dx1 . . . dxn )`(dz) g x1 , . . . , xn , Ψ(x1 , . . . , xn , z) .
E1 ×...×En+1 E1 ×...×En × ]0,1[

On pose alors 
hn+1 (y1 , . . . , yn , y) = Ψ h1 (y1 ), h2 (y1 , y2 ), . . . , hn (y1 , . . . , yn ), y ,
ce qui convient. 

Preuve du théorème I.1.20. La preuve comporte plusieurs étapes. On commence par montrer le lemme
général suivant.

Lemme I.1.23 Soit (E, E , µ), un espace mesuré


R sigmaRfini. Soient f, g : E → [0, ∞], deux fonctions E -
mesurables. On suppose que pour tout A ∈ E , A f dµ ≤ A g dµ. Alors, f ≤ g, µ-presque partout.
Preuve: on suppose d’abord que µ est finie. Soient a, b ∈ Q+ tels que a < b. On observe d’abord que

{g ≤ a < b ≤ f } = g −1 ([0, a]) ∩ f −1 ([b, ∞]) ∈ E .

On a ensuite g1{g≤a<b≤f } ≤ a1{g≤a<b≤f } ≤ b1{g≤a<b≤f } ≤ f 1{g≤a<b≤f } . En intégrant cette inégalité, on


obtient Z Z
 
g dµ ≤ aµ {g ≤ a < b ≤ f } ≤ bµ {g ≤ a < b ≤ f } ≤ f dµ .
{g≤a<b≤f } {g≤a<b≤f }
 
L’hypothèse faite entraîne que aµ {g  ≤ a < b ≤ f } = bµ {g ≤ a < b ≤ f } . Comme µ est de masse finie et que
a 6= b, on obtient µ {g ≤ a < b ≤ f } = 0. On voit ensuite que
[
{g < f } = {g ≤ a < b ≤ f } ∈ E ,
a,b∈Q+
P
et par sigma sous-additivité, µ({g < f }) ≤ a,b∈Q+ µ({g ≤ a < b ≤ f }) = 0, ce termine la preuve dans le cas
où µ est finie.
Il reste à montrer ce résultatSlorsque µ est sigma-finie: dans ce cas il existe une suite En ∈ E , n ∈ N, tels
que En ⊂ En+1 , µ(En ) < ∞ et n∈N En = E. Pour tout R n ∈ N, onR note µn = µ( · ∩ En ). En remplaçant A par
A∩En dans l’hypothèse, on voit que pour tout A ∈ E , A f dµn ≤ A g dµn . Comme les mesures µn sont finies,
on en déduit que µ(En ∩ {g < f }) = 0. Par la monotonie des mesures, µ({g < f }) = limn ↑ µ(En ∩ {g < f }) = 0,
ce qui montre le résultat voulu. 
On considère ensuite le cas E2 = R et E2 = B(R) en montrant le lemme suivant.

Lemme I.1.24 Soit D ⊂ R, un ensemble dénombrable et dense. Soit (E, E ), un espace mesurable. Pour tout
r ∈ D, on se donne µr : E → R+ , une mesure de masse finie. On fait les hypothèses suivantes:

sup µr (E) < ∞ , lim µr (E) = 0 et ∀r ≤ r0 dans D , ∀B ∈ E , µr (B) ≤ µr0 (B) . (I.18)
r∈D r∈D→−∞

Alors les assertions suivantes sont vérifiées.


I.1. NOYAUX. 11

(i) Il existe une unique mesure finie m : E ⊗ B(R) → R+ telle que

∀r ∈ D , ∀B ∈ E ,

m B×]−∞, r] = µr (B) .

(ii) On note µ = m, la première marginale de m. Il existe une fonction Ψ : E× ]0, 1[ → R, qui est E ⊗
B( ]0, 1[ )-mesurable et telle que
Z Z

g dm = g x, Ψ(x, z) µ(dx)`(dz)
E×R E× ]0,1[

pour toute fonction g : E ×R → [0, ∞] qui est E ⊗B(R)-mesurable.

Preuve: soit rn ∈ D, n ∈ N, une suite croissante qui tend vers l’infini. On pose ν0 := µr0 et pour tout n ≥ 1,
P également νn := µrn −µrn−1 , qui est clairement une mesure positive de masse finie. On pose ensuite
on pose
µ := n≥0 νn qui est une mesure positive. On a donc µ(B) = limn→∞ µrn (B) = supr∈D µr (B), pour tout
B ∈ E . La dernière égalité montre que µ ne dépend pas de la suite (rn )n∈N choisie. De plus, pour tout r ∈ D et
tout B ∈ E , on a µr (B) ≤ µ(B). Donc µr est absolument continue par rapport à µ. Comme µ est finie et donc
sigma-finie, le théorème de Radon-Nikodym s’applique et il existe une fonction fr : E → R+ , E -mesurable
telle que Z
∀B ∈ E , µr (B) = fr dµ . (I.19)
B
0 ∈ D tels que r ≤ r 0 . Ce qui précède implique que pour tout B ∈ E ,
R
Soient r, r B fr dµ = µr (B) ≤ µr (B) ≤
0

B fr dµ ≤ µ(B) et le lemme I.1.23 (page 10) implique que µ-p.p. 0 ≤ fr ≤ fr ≤ 1. L’ensemble D étant
R
0 0

dénombrable, on a donc

µ-p.p. f−∞ := inf fr = lim fr et f∞ := sup fr = lim fr .


r∈D r∈D r∈D r∈D
r→−∞ r→∞

Le théorème de convergence dominée montre ensuite que


Z Z
0 ≤ f−∞ dµ = lim fr dµ = lim µr (E) = 0 .
E r∈D E r∈D
r→−∞ r→−∞

Donc µ-p.p. f−∞ = 0. De même, on montre que


Z Z
0 ≤ (1−f∞ ) dµ = µ(E) − lim fr dµ = µ(E) − lim µr (E) = 0 ,
E r∈D E r∈D
r→∞ r→∞

ce qui implique que µ-p.p. f∞ = 1, µ-presque partout. Quitte à modifier les fonctions fr sur un ensemble
µ-négligeable on peut supposer que pour tous r, r0 ∈ D, tels que r ≤ r0 , on a

∀x ∈ E, 0 ≤ fr (x) ≤ fr0 (x) ≤ 1 , lim fr (x) = 0 et lim fr (x) = 1. (I.20)


r∈D→−∞ r∈D→∞

Pour tout (x, z)∈ E×]0, 1[ , on pose alors Ψ(x, z) := inf{r ∈ D : fr (x) > z}, qui est une quantité bien définie.
On remarque que pour tout b ∈ R,

Ψ(x, z) ≤ b ⇐⇒ ∀r ∈ D∩ ]b, ∞[ , fr (x) > z . (I.21)


12 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

On a donc \ [
fr−1 ]s, ∞[ ×]−∞, s]

{Ψ ≤ b} =
r∈D∩ ]b,∞[ s∈Q

ce qui implique que Ψ : E×]0, 1[ → R est E ⊗B ]0, 1[ -mesurable. Le théorème de convergence dominée,


(I.21), Fubini et (I.19) impliquent que


Z Z Z
µ(dx)`(dz) 1B (x)1{Ψ(x,z)≤b} = lim µ(dx)`(dz) 1B (x)1{fr (x)>z} = µ(dx) fr (x) = µr (B). (I.22)
r∈D↓b
E×]0,1[ E×]0,1[ B

On définit la fonction ϕ(x, z) = (x, Ψ(x, z)) qui est (E ⊗B( ]0, 1[ ), E ⊗B(R))-mesurable et on pose m :=
(µ ⊗ `) ◦ ϕ−1 , la mesure image de µ ⊗ ` par ϕ. Le théorème I.1.18 de transfert (page 7) et (I.22) impliquent
immédiatement (i) et (ii). On remarque enfin que {B×]−∞, r] ; B ∈ E , r ∈ D} ∪ {E ×R} est un pi-système
générant E ⊗B(R). L’unicité de m découle alors théorème A.1.11 d’unicité des mesures (page 205). 

Fin de la preuve du théorème I.1.20. On suppose (E2 , E2 ) régulier: il existe donc A ∈ B(R) et φ : E2 → A,
une bijection telle que φ est (E2 , B(A))-mesurable et la réciproque φ−1 : A → E2 est (B(A), E2 )-mesurable.
Pour tout (x, y) ∈ E1 × E2 , on pose Λ(x, y) := (x, φ(y)) ∈ E1 × A. Il est facile de vérifier que Λ est un
isomorphisme d’espaces mesurables de (E1 ×E2 , E1 ⊗E2 ) sur (E1 ×A, E1 ⊗B(A)). On pose alors

∀C ∈ E1 ⊗B(R) , m∗ (C) := m Λ−1 (C) = m (x, y) ∈ E1 ×E2 : (x, φ(y)) ∈ C .


  

Autrement dit, m∗ est la mesure image de m par Λ. C’est donc une mesure de masse finie. On remarque que
µ est aussi la première marginale de m∗ . On voit aussi que m∗ est concentrée sur E1 × A, c’est-à-dire que
m∗ ((E1 ×R)\(E1 ×A)) = 0.
Pour tout r ∈ Q, et tout B ∈ E1 , on pose µr (B) := m∗ (B× ]−∞, r] ). On vérifie immédiatement que les
µr , r ∈ Q, sont des mesures positives qui satisfont bien les hypothèses (I.18) du lemme I.1.24 avec (E, E ) =
(E1 , E1 ). Par ce lemme, il existe donc Ψ∗ : E1 × ]0, 1[ → R, une fonction E1 ⊗ B( ]0, 1[ )-mesurable telle que
Z Z

g∗ dm∗ = g∗ x, Ψ∗ (x, z) µ(dx)`(dz) , (I.23)
E1 × R E1 × ]0,1[

pour toute fonction g∗ : E1 × R → [0, ∞] qui est E1 ⊗ B( ]0, 1[ )-mesurable. Comme m∗ est concentrée sur
E1 ×A, on peut modifier Ψ∗ de manière mesurable de sorte que Ψ∗ (x, z) ∈ A, pour tout (x, z) ∈ E1× ]0, 1[ et
de sorte que (I.23) reste vrai pour toutes fonctions g∗ .
On définit ψ : R → E2 en posant ψ(x) := φ−1 (x), si x ∈ A et ψ(x) := y0 sinon, où y0 ∈ E2 est un point
de E2 , ne jouant aucun rôle spécifique. On vérifie facilement que ψ est (B(R), E2 )-mesurable. On pose alors
Ψ := ψ ◦Ψ∗ . Soit g : E1×E2 → [0, ∞], une fonction (E1⊗E2 )-mesurable. Il est clair que g∗ (x, y 0 ) := g(x, ψ(y 0 )),
x ∈ E1 , y 0 ∈ R, définit une fonction E1 ⊗ B(R)-mesurable. On remarque que g∗ ◦ Λ = g. Comme m∗ est la
mesure image de m par Λ, le théorème I.1.18 de transfert (7) et (I.23) impliquent alors que
Z Z Z Z

g dm = g∗ ◦Λ dm = g∗ dm∗ = g∗ x, Ψ∗ (x, z) µ(dx)`(dz)
E1 ×E2 E ×R E1 ×R E1 × ]0,1[
Z 1 Z
 
= g x, ψ(Ψ∗ (x, z)) µ(dx)`(dz) = g x, Ψ(x, z) µ(dx)`(dz)
E1 × ]0,1[ E1 × ]0,1[

ce qui est le résultat désiré. 


I.2. PROCESSUS: DÉFINITIONS, CONSTRUCTION. 13

I.2 Processus: définitions, construction.


I.2.a Définitions, premières propriétés.
On introduit les objets suivants.
• Soit (Ω, F , P), un espace de probabilité.
• Soit I, un ensemble d’indices, supposé non-vide.
• Pour tout i ∈ I, soit un espace mesurable (Ei , Ei ) et une v.a. Xi : Ω → Ei qui est (F , Ei )-mesurable. Alors,
(Xi )i∈I est une famille de v.a. indexées par I.
Lorsque I est fini, on parle plutôt de vecteur aléatoire, lorsque I est dénombrable on parle plutôt d’une suite
de v.a., lorsque I ⊂ R est un intervalle, i est vu comme un temps (et est noté t ou s, en général) et on parle
plutôt de processus. Lorsque I est un espace, on parle plutôt de champ aléatoire. Dans ce chapitre, on parle
indistinctement de processus, indépendamment de la nature de I.
Q
Notations. On utilise la notation i∈I Ei pour l’ensemble des fonctions de I dans les Ei :
Y 
Ei := x = (xi )i∈I : ∀i ∈ I , xj ∈ Ei .
i∈I

Nous ne nous étendons pas sur une définition ensembliste qui soit rigoureuse et nous commettons un abus de
notation en utilisant une notation suggérant plus un "produit cartésien" qui est en fait assez différent d’un point
de vue ensembliste. 
Dans cette section, on va considérer la famille de v.a. (Xi )i∈I comme un seul objet aléatoire noté X,
c’est-à-dire comme la fonction
Y
X : ω ∈ Ω 7−→ X(ω) := (Xi (ω))i∈I ∈ Ei .
i∈I

Définition I.2.1 (Tribu produit) On garde les notations précédentes.

Q
(a) C ⊂ i∈I Ei est appelé cylindre élémentaire s’il existe J ⊂ I, un sous-ensemble fini d’indices et des
ensembles Bj ∈ Ej , j ∈ J tels que
n Y o Y   Y 
C = (xi )i∈I ∈ Ei : ∀j ∈ J , xj ∈ Bj , qui est simplement noté Bj × Ei .
i∈I j∈J i∈I\J

Q
Ceci décrit un ensemble de fonctions, ce malgré l’emploi abusif de notations "cartésiennes" × et . On
note C l’ensemble des cylindre élémentaires.

(b) La tribu engendrée par C est la tribu produit des Ei , i ∈ I. On la note Ei := σ(C ).
N
i∈I

(c) Soit (Ω, F ), un espace Ei qui est F -mesurable est une


Q
Q mesurable. Un Nprocessus à valeurs dans i∈I
fonction X : Ω → i∈I Ei qui est (F , i∈I Ei )-mesurable.
Q Q
(d) Pour tout J ⊂ I, on définit πJ : i∈I Ei → j∈J Ej en posant πJ ((xi )i∈I ) := (xj )j∈J : c’est la
restriction à J de la fonction (xi )i∈I . On appelle πJ la J-projection canonique. 
14 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

On utilise les notations simplifiées suivantes. Lorsque J est le singleton {i}, on utilise la notation πi plutôt que
π{i} . Lorsque les espaces mesurables sont les mêmes (E, E ) = (Ei , Ei ), i ∈ I, on utilise les notations
Y O
E I := Ei et E ⊗I := Ei .
i∈I i∈I

Proposition I.2.2 Soit (Ω, F ), un espace mesurable. Soit I, un ensemble d’indices non-vide. Soit (Ei , Ei ),
i ∈ I, une famille d’espaces mesurables. Pour tout i ∈ I, soit Xi : Ω → Ei , une fonction. Alors les deux
assertions suivantes sont équivalentes.

(a) Pour tout i ∈ I, Xi est (F , Ei )-mesurable.

i∈I Ei )-mesurable.
Q N
(b) X = (Xi )i∈I : Ω −→ i∈I Ei est un processus (F ,

Preuve: soit J ⊂ I fini; pour tout j ∈ J, soit Bj ∈ Ej . Soit C = ( j∈J Bj ) × ( i∈I\J Ei ), un cylindre
Q Q
élémentaire. Alors \
{X ∈ C} = {Xj ∈ Bj } . (I.24)
j∈J

Si on suppose (a), alors {X ∈ C} ∈ F pour tout cylindre élémentaire. Comme les cylindres élémentaires
engendrent la tribu produit, on en déduit (b). Si on suppose (b), alors on applique (I.24) à J = {i}, ce qui
montre que {Xi ∈ Bj } = {X ∈ C} ∈ F , et ce pour tout Bi ∈ Ei , ce qui entraîne (a). 

Q Soit (Ei , Ei ), i ∈ I,
Définition I.2.3 (Espace et processus canoniques) Soit I, un ensemble d’indices non-vide.
une famille d’espaces mesurables. L’espace canonique des processus à valeurs dans i∈I Ei est l’espace
mesurable Y O
Ωcan = Ei et F can = Ei .
i∈I i∈I

X can = (Xican )i∈I Ωcan


Q
On définit le processus canonique : → i∈I Ei en posant
Y
∀x = (xi )i∈I ∈ Ei , ∀i ∈ I, Xican (x) = xi .
i∈I

Autrement dit Xican = πi , la i-projection canonique et on remarque que X can est l’identité sur
Q
i∈I Ei . 

Corollaire I.2.4 Soit I, un ensemble d’indices non-vide. Soit (Ei , Ei ), i ∈ I, une famille d’espaces mesurables.
Alors les assertions suivantes sont vérifiées.

(i) La classe C des cylindres élémentaires de


Q
i∈I Ei est un pi-système.

i∈I Ei
N 
(ii) La tribu produit est la tribu engendrée par les projection canoniques: = σ πi ; i ∈ I .

Ej est ( i∈I Ei , j∈j Ej )-mesurable.


Q Q N N
(iii) Pour tout J ⊂ I, non-vide πJ : i∈I Ei → j∈J

Preuve: le point (i) se vérifie immédiatement. Les points (ii) et (iii) découlent facilement de la proposition
I.2.2 appliquée à l’espace canonique et au processus canonique. Nous laissons les détails aux lecteurs. 

Le théorème suivant donne une description importante de la tribu produit qui est utilisée dans la suite.
I.2. PROCESSUS: DÉFINITIONS, CONSTRUCTION. 15

Q (Ei , Ei ), i ∈ I, une famille d’espaces


Théorème I.2.5 Soit I, un ensemble d’indices non-vide. Soit Q mesurables.
Pour tout J ⊂ I, on rappelle que πJ : x = (xi )i∈I ∈ i∈I Ei 7→ πJ (x) = (xj )j∈J ∈ j∈J Ej . On pose
n o
GJ := πJ−1 (A) ; A ∈ j∈J Ej qui est clairement une sous-tribu de i∈I Ei . Alors,
N N

O [
Ei = GJ . (I.25)
i∈I J⊂I,
Jdénombrable.

Preuve: N simplifier, on note G le membre de droite deN


pour (I.25). La propositionNI.2.4 (ii) montre que πJ est
( i∈I Ei , j∈J Ej )-mesurable, ce qui implique que GJ ⊂ i∈I Ei et donc G ⊂ i∈I Ei .
N

Montrons l’inclusion réciproque. Soit C = ( j∈J Bj )×( i∈I\J Ei ), J ⊂ I, fini et Bj ∈ Ej , j ∈ J; C est


Q Q

un cylindre élémentaire. On a donc C = πJ−1 ( j∈J Bj ) et donc C ∈ GJ . Cela montre N que C ⊂ G , où est
Q
la classe des cylindres élémentaires. Comme la tribu produit est engendrée par C , on a i∈I Ei ⊂ σ(G ) et
il suffit donc de montrer que G est une tribu: (a) il est clair que tout l’espace i∈I Ei ∈ G ; (b) soit B ∈ G ; il
Q
existe donc J ⊂ I, dénombrable et tel que B ∈ GJ ; comme GJ est une tribu (c’est la tribu engendrée par πJ ), le
complémentaire de B est dans GJ et donc dans G ; cela montre que G est stable par passage au complémentaire.
(c) Montrons que G est stable par union dénombrable: pour cela on remarque d’abord que si J ⊂ J 0 , alors
GJ ⊂ GJ 0 ; soit B
Sn ∈ G , n ∈ N; alors pour tout n ∈ N, il existe donc Jn ⊂ I, dénombrable tel que Bn ∈ GJn ; on
pose alrs J = n∈N Jn , qui dénombrable; on a donc Bn ∈ GJ , pour tout n ∈ N; comme GJ est une tribu, on a
n∈N Bn ∈ GJ ⊂ G . Cela termine la preuve du fait que G est une tribu, ce qui permet de conclure.
S


I.2.b Loi d’un processus.


Définition I.2.6 (lois marginales) Soit I, un ensemble d’indices non-vide. Soit (Ei , Ei ), i ∈ I,Qune famille
d’espaces mesurables. Soit (Ω, F , P), un espace de probabilité. Soit X = (Xi )i∈I : Ω → i∈I Ei , un
processus (F , i∈I Ei )-mesurable.
N

(a) Soit µ : i∈I Ei → [0, 1], une mesure de probabilité. Pour tout J ⊂ I, non-vide, on noteNµJ := µ◦πJ−1 la
N
mesure image de µ par la J-projection canonique πJ . La mesure de probabilité µJ : j∈J Ej → [0, 1]
est appelé la loi J-marginale de µ. L’ensemble des mesures µJ , avec J ⊂ I fini, est appelé ensemble des
marginales de dimension finie de µ.

Ei . On note µX,J la loi


N
(b) On note µX la loi de X sous P, c’est-à-dire µX (B) = P(X ∈ B), ∀B ∈ i∈I
J-marginale de X, c’est-à-dire la loi de πJ (X) = (Xj )j∈J :
O
Ej ,

∀B ∈ µX,J (B) = P (Xj )j∈J ∈ B .
j∈J

Les lois µX,J , lorsque J est fini, sont appelée les loi marginales de dimension finie du processus X. 

La proposition suivante donne des formulations équivalente au fait que deux processus aient même loi.

Proposition I.2.7 Soit I, un ensemble d’indices non-vide. Soit (Ei , Ei ), i ∈ I, une familleQ d’espaces mesurables.
Soient (Ω, F , P) et (Ω 0 , F 0 , P0 ), des espaces de probabilité. Soit X = (X )
i i∈I : Ω → i∈I Ei , un processus
(F , i∈I Ei )-mesurable et soit X = (Xi )i∈I : Ω → i∈I Ei , un autre processus (F , i∈I Ei )-mesurable.
0 0 0 0
N Q N
Alors, les assertions suivantes sont équivalentes.
16 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

(a) X sous P a même loi que X 0 sous P0 , c’est-à-dire µX = µX 0 .

(b) Pour tout n ∈ N∗ , pour tous i1 , . . . , in ∈ I, distincts,

Xi1 , . . . , Xin sous P a même loi que Xi01 , . . . , Xi0n sous P0 ,


 

c’est-à-dire que X et X 0 ont mêmes lois marginales de dimension finie: µX,J = µX 0 ,J , J ⊂ I, J fini.

(c) Pour tout n ∈ N∗ , pour tous i1 , . . . , in ∈ I, distincts, pour toutes fonctions fk : Eik → R, Eik -mesurables
bornées, 1 ≤ k ≤ n, on a

E f1 (Xi1 ) . . . fn (Xin ) = E0 f1 (Xi01 ) . . . fn (Xi0n ) .


   

(d) Pour tout i ∈ I, soit Ci ⊂ Ei , un pi-système tel que σ(Ci ) = Ei . Pour tout n ∈ N∗ , pour tous i1 , . . . , in ∈ I,
distincts, pour tous C1 ∈ Ci1 , . . . , Cn ∈ Cin ,

P Xi1 ∈ C1 ; . . . ; Xin ∈ Cn = P0 Xi01 ∈ C1 ; . . . ; Xi0n ∈ Cn .


 

Autrement dit  
µX,{i1 ,...,in } C1 × . . . ×Cn = µX 0 ,{i1 ,...,in } C1 × . . . ×Cn .

Preuve: il est clair que (a) =⇒ (b) =⇒ (c) =⇒ (d). Il suffit de montrer que (d) =⇒ (a). On pose
n Y  o
P = πJ−1 Cj ; J ⊂ I, J fini et ∀j ∈ J, Cj ∈ Cj .
j∈J

On vérifie que P est un pi-système sur i∈I Ei . Il est facile de vérifier que σ(P) = i∈I Ei . La condition (d)
Q N
signifie que µX et µX 0 coïncident sur P. La théorème A.1.11 de l’unicité du prolongement des mesures (page
205) implique que µX = µX 0 . 

I.2.c Construction de processus: le théorème d’extension de Kolmogorov.


La proposition I.2.7 montre que la loi d’un processus est caractérisée par ses lois marginales de dimension finie.
Le but de cette section est montrer que toute famille de lois marginales de dimension finie qui est cohérente est
la famille des lois marginales d’un processus. Pour cela définissons tout d’abord la propriété de cohérence.

Définition I.2.8 (Famille de lois cohérentes) Soit I, un ensemble d’indices non-vide. Soit (Ei , Ei ), i ∈ I, une
famille d’espaces mesurables.
Q Q
(a) Soient K ⊂ J ⊂ I. On note πK,J : j∈J Ej → k∈K Ek la projection:
Y 
∀(xj )j∈J ∈ Ej , πK,J (xj )j∈J = (xk )k∈K .
j∈J

N πJ = πJ,I et on observe que πK = πK,J ◦πJ . Cela implique que pour toute mesure de
On voit donc que
probabilité µ : i∈I Ei → [0, 1], on a
−1
∀K ⊂ J ⊂ I, µK = µJ ◦πK,J . (I.26)
I.2. PROCESSUS: DÉFINITIONS, CONSTRUCTION. 17

EJ → [0, 1] est
N
(b) Une famille de lois de dimension finie est la donnée de (νJ , J ⊂ I, J fini) où νJ : j∈J
une mesure de probabilité. Elles forment un système cohérent si
−1
∀K ⊂ J ⊂ I, J fini, νK = νJ ◦πK,J . (I.27)

On dit aussi qu’elles forment un système compatible ou encore un système projectif. 

i∈I Ei → [0, 1]
N
Par (I.26), qui est trivial, on voit que les marginales de dimension finie d’une mesure µ :
forment un système compatible. En revanche il n’est pas du tout trivial de montrer que si on a un système de
mesures compatibles, elles sont les marginales de dimension finie d’une mesure: modulo quelques hypothèses,
cette réciproque est le propos du théorème d’extension de Kolmogorov qui s’énonce comme suit.

Théorème I.2.9 (Théorème d’extension de Kolmogorov) Soit I, un ensemble non-vide. Soit (Ei , Ei ), i ∈ I, une
Nmesurables. Pour tout sous-ensemble fini d’indices J ⊂ I, on se donne une mesure de
famille d’espaces
probabilité νJ : j∈J Ej → [0, 1]. On suppose l’axiome du choix et on fait les deux hypothèses suivantes.

(a) Pour tout i ∈ I, (Ei , Ei ) est un espace mesurable régulier.

(b) Pour tout n ∈ N∗ , pour tous i1 , . . . , in , in+1 ∈ I, distincts, pour tous B1 ∈ Ei1 , . . . , Bn ∈ Ein , on a
 
ν{i1 ,...,in ,in+1 } B1 ×. . .×Bn ×Ein+1 = ν{i1 ,...,in } B1 ×. . .×Bn .

Alors, les assertions suivantes, équivalentes, sont vérifiées.

Ei → [0, 1] dont les lois νJ sont les marginales de dimension finie, c’est-
N
(i) Il existe une mesure µ : i∈I
à-dire que
µ ◦ πJ−1 = νJ , J ⊂ I, J fini.

N un espace de probabilité (Ω, F , P) et un processus X = (Xi )i∈I := Ω →


Q
(ii) Il existe i∈I Ei qui est
(F , i∈I Ei )-mesurable dont les νJ sont les lois marginales de dimension finie. de X:
O
Ej ,

∀ J ⊂ I, J fini, ∀ B ∈ P (Xj )j∈J ∈ B = νJ (B) .
j∈J

Preuve: on remarque tout d’abord que le résultat a été démontré dans le cas où I est dénombrable: il s’agit
d’une conséquence immédiate du théorème I.1.22 (page 9). Il s’agit d’ailleurs du point difficile de la preuve.
Par conséquent, pour tout sous-ensemble dénombrable d’indices J∗ , il existe une unique mesure de probabilité
µJ∗ : j∈J∗ Ej → [0, 1] telle que pour tout J ⊂ J∗ , J fini, µJ∗ ◦ πJ,J∗ = νJ . Soit J∗0 ⊂ I, dénombrable
N

tel que J∗ ⊂ J∗0 . On pose µ0 = µJ∗0 ◦ πJ−1 0 . Soit J ⊂ J∗ , J fini. Comme πJ,J∗
∗ ,J∗
0 = πJ,J ◦ πJ ,J 0 , on a
∗ ∗ ∗
0 −1 −1 0
µ ◦πJ,J∗ = µJ∗ ◦πJ,J∗ = νJ . Donc les marginales de dimension finie de µ sont également les νJ : par unicité
cela montre que µ0 = µJ ∗ . On a donc obtenu les résultats suivants:
O
−1
∀J∗ ⊂ I, J∗ dénombrable, ∃! µJ∗ : Ej → [0, 1], probabilité : ∀J ⊂ J∗ , J fini, µJ∗ ◦πJ,J ∗
= νJ .
j∈J∗

et
∀J∗ ⊂ J∗0 ⊂ I, avec J∗0 , dénombrable, µJ∗0 ◦πJ−1
∗ ;J
0 = µJ∗ . (I.28)

18 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

i∈I Ei → [0, 1] de la
N
On utilise ensuite le théorème I.2.5 dont on reprend les notations. On définit µ :
B ∈ i∈I Ei ; par le théorème I.2.5, il existe J∗ ⊂ I, J∗ dénombrable, tel que B ∈ GJ∗
N
manière suivante: soit N
et donc il existe A ∈ j∈J∗ Ej tel que B = πJ−1 ∗
(A). On pose alors µ(B) := µJ∗ (A). Vérifions d’abord
la cohérence de cette définition: supposons que B ∈ GJ∗0 , pour J∗0 ⊂ I et J∗0 dénombrable; il existe donc
A0 ∈ j∈J∗0 Ej tel que B = πJ−1 0 −1 0 −1
j∈J∗ ∩J∗0 Ej tel que
N N
0 (A ). Comme πJ 0 (A ) = πJ (A), il existe A0 ∈
∗ ∗

 Y   Y 
A = A0 × Ej et A0 = A0 × Ej .
j∈J∗ \(J∗ ∩J∗0 ) j∈J∗0 \(J∗ ∩J∗0 )

Par conséquent, A = πJ−1 0


∗ ∩J ,J∗
(A0 ) et A0 = πJ−1 0
∗ ∩J ,J
0 (A0 ) et par (I.28) on a
∗ ∗ ∗

µJ∗ (A) = µJ∗ ◦πJ−1 0


∗ ∩J ,J∗
(A0 ) = µJ∗ ∩J∗0 (A0 ) = µJ∗0 ◦πJ−1 0
∗ ∩J ,J
0 (A ) .
0 (A0 ) = µJ∗
0
∗ ∗ ∗

−1
Ncelui de A ∈ j∈J∗ Ej tel que B = πJ∗ (A).
N
La définition de µ(B) ne dépend donc pas du choix de J∗ ni de
Il est ensuite clair que si J est fini, µJ = νJ et donc si B ∈ j∈J Ej , on a µ(B) = µJ (B) (par définition de
µ) et donc µ(B) = νJ (B). C’est-à-dire
O
∀ J ⊂ I, J fini, ∀B ∈ Ej , µ(B) = νJ (B) . (I.29)
j∈J

N On montre ensuite que µ est une mesure positive: il est clair que µ(∅) = 0. Pour tout n ∈ N, soit Bn ∈
−1
E
i∈I i , des ensembles deux-à-deux disjoints. Le théorème I.2.5 implique que Bn = π J∗n (A n
n ), avec J∗ ⊂ I
dénombrable et An ∈ j∈J∗n Ej . On pose J∗ = n∈N J∗ , qui est un sous-ensemble dénombrable de I. On
n
N S
pose alors Y
∀n ∈ N, Cn = An × Ej .
j∈J∗ \J∗n

On vérifie les faits suivants:


(a) Cn ∈ j∈J∗ Ej , ce qui implique que n∈N Cn ∈ j∈J∗ Ej .
N S N

(b) Bn = πJ−1 (Cn ) et donc n∈N Bn = πJ−1


S S 
∗ ∗ n∈N Cn .
(c) Pour tous m, n ∈ N, distincts, Cn ∩ Cm = ∅. En effet, par ce qui précède, on a
Y
Bn ∩ Bm = πJ−1

(Cn ) ∩ πJ−1

(Cm ) = πJ−1

(Cn ∩ Cm ) = (Cn ∩ Cm ) × Ei
i∈I\J∗

et si Cn ∩ Cm n’est pas vide, les Ei n’étant pas vides, l’axiome du choix implique que le dernier membre n’est
pas vide, ce qui contredit le fait que les Bn sont supposés deux-à-deux disjoints.
S S
Par définition de µ et par (b), on a µ( n∈N Bn ) = µSJ∗ ( n∈N CnP) et pour tout n ∈ N, µ(Bn ) = µJ∗ (Cn ). Par
le point (c) et le fait que µJ∗ est une mesure, on a µJ∗ ( n∈N Cn ) = n∈N µJ∗ (Cn ). On a donc
[  [  X X
µ B n = µ J∗ Cn = µJ∗ (Cn ) = µ(Bn ) ,
n∈N n∈N n∈N n∈N

et µ est sigma-additive. Par (I.29), on a bien construit une mesure de probabilité µ : i∈I Ei → [0, 1] dont les
N
marginales de dimension finie sont les νJ . Soit µ0 , une autre mesure dont les marginales de dimension finie
sont les νJ ; alors µ et µ0 coïncident sur le pi-système des cylindres élémentaires et le théorème A.1.11 d’unicité
du prolongement des mesures entraîne que µ = µ0 . On a donc montré (i).
I.2. PROCESSUS: DÉFINITIONS, CONSTRUCTION. 19

Le point (ii) est montré en prenant l’espace canonique:


Y O
Ω := Ωcan = Ei , F := F can = Ei , P := µ,
i∈I i∈I

et le processus canonique X can satisfait bien (ii). 

I.2.d Processus sur R+ , filtrations, régularité, modification, indistinguabilité et mesurabilité


progressive.
On considère des processus à valeurs dans un même espace mesurable (E, E ). En général, E est un espace
topologique et la tribu E est celle de ses Boréliens, toujours notée B(E). L’ensemble des indices est R+ qui
est interprété comme un ensemble de temps. On note l’ensemble des fonctions de R+ dans E par E R+ ; on le
munit de la tribu produit E ⊗R+ . Soit (Ω, F ), un espace mesurable. Comme défini dans la section précédente,
un processus X = (Xt )t∈R+ est une v.a. X : Ω → E R+ qui est (F , E ⊗R+ )-mesurable. On introduit les
définitions suivantes.

Définition I.2.10 (Filtration, filtration naturelle, processus adapté) On garde les notations introduites ci-dessus.

(a) Une filtration sur (Ω, F ) est une famille (Gt )t∈R+ de sous-tribus croissantes pour l’inclusion c’est-à-dire
que pour tous s, t ∈ R+ , tels que s ≤ t, on a Gs ⊂ Gt ⊂ F . On utilise souvent la notation G∞ := σ Gt ; t ∈ R+


(b) Soit X = (Xt )t∈R+ : Ω → E R+ un processus (F , E ⊗R+ )-mesurable. Sa filtration naturelle est donnée par

Fto (X) = σ Xs ; s ∈ [0, t] .



∀t ∈ R+ ,

(c) Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Le processus X est dit (Gt )t∈R+ -adapté si pour tout t ∈ R+ ,
Xt : Ω → E est (Gt , E )-mesurable. On note qu’un processus est toujours adapté par rapport à sa filtration
naturelle. 

Remarque I.2.11 On remarque que la proposition I.2.2 implique que F∞ o (X) = σ X ; t ∈ R



t + = σ(X). Par
conséquence, le théorème B.1.5 de représentation (page B.1.5) implique le fait suivant: soit Z : Ω → R, une
v.a. F∞
o (X)-mesurable bornée; il existe une fonction F : E R+ → R qui est E ⊗R+ -mesurable bornée telle que


∀ω ∈ Ω, Z(ω) = F (Xt (ω))t∈R+ . (I.30)

De même si t ∈ R+ , la proposition I.2.2 implique que Fto (X) = σ Xs ; s ∈ [0, t] = σ (Xs )s∈[0,t] et si
 

Z : Ω → R, une v.a. F∞
o (X)-mesurable bornée; il existe une fonction F : E [0,t] → R qui est E ⊗[0,t] -mesurable

bornée telle que



∀ω ∈ Ω, Z(ω) = F (Xs (ω))s∈[0,t] . (I.31)

Ces deux faits sont très souvent utilisés dans la suite. 

Définition I.2.12 Une fonction de R+ dans Eest notée de manière générique par x = (xt )t∈R+ et on note C
la classe des cylindres élémentaires de E ⊗R+ .
20 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

(a) Pour tout t ∈ R+ , on note π[0,t] : E R+ → E [0,t] la projection canonique, c’est-à-dire la restriction à [0, t]
des fonctions de R+ dans E. Un cylindre élémentaire antérieur à t est un ensemble de fonctions

C = x = (xt )t∈R+ ∈ E R+ : xt0 ∈ B0 ; xt1 ∈ B1 ; . . . ; xtn ∈ Bn (I.32)
où 0 ≤ t0 < t1 < . . . < tn ≤ t et B0 , . . . , Bn ∈ E . On note Ct la classe des cylindres élémentaires antérieurs
−1
à t. On vérifie que Ct est un pi-système et que Ct = π[0,t] (C[0,t] ) où C[0,t] est l’ensemble des cylindres
élémentaires de E [0,t] . On remarque que Cs ⊂ Ct , pour tous s, t ∈ R+ tels que s ≤ t.

(b) (Filtration canonique) Pour tout t ∈ R+ , on note Ftcan la tribu sur E R+ engendrée par le pi-système Ct .
On remarque que pour tous s ≤ t, Fscan ⊂ Ftcan . La filtration (Ftcan )t∈R+ sur E R+ est appelée filtration
−1
canonique. On remarque que Ftcan = π[0,t] (E ⊗[0,t] ). On utilise parfois la notation F∞
can = σ(F can ; t ∈
t
R+ ) = E ⊗R+ .

(c) (Processus canonique) Pour tout t ∈ R+ , on rappelle que Xtcan = πt : E R+ → E, la projection canonique
de marginale t. Le processus canonique X can = (Xtcan )t∈R+ est l’identité sur E R+ . 

Remarque I.2.13 En gardant les


 notations des définitions
I.2.10 et I.2.12 qui précèdent, on remarque facile-
ment que Ft (X) = X
o −1 Ftcan = {X ∈ A} ; A ∈ Ft can

, pour tout t ∈ R+ . Si on pose
Pt := X −1 (Ct ) = {X ∈ A} ; A ∈ Ct ,


alors on vérifie aisément que Pt est un pi-système générant Fto (X). 


On reformule ensuite l’énoncé du théorème d’extension de Kolmogorov pour des processus indexés par R+
et à valeurs dans le même espace mesurable (E, E ) un espace mesurable. Pour tout sous-ensemble fini et non-
vide J ⊂ R+ , on se donne une mesure de probabilité νJ : E ⊗J → (0, 1]. Si on suppose que J compte n points
distincts, on s’en donne une indexation qu’il est naturel de prendre croissante: J = {t1 < . . . < tn }. On répète ici
que νJ est une loi sur l’espace des fonctions de J dans E et que l’existence d’un ordre naturel sur J ne change
rien à cela: il n’est pas utile de voir νJ comme une loi sur l’espace des n-uplets (ordonnés par leurs coordonnée)
à valeurs dans E car la mesure donnée par le théorème d’extension de Kolmogorov est une mesure sur l’espace
des fonctions: l’ordre linéaire sur R+ n’y joue aucun rôle spécifique. Néanmoins, si l’on préfère indexer les
temps dans l’ordre croissant, les conditions de compatibilité du théorème d’extension doivent être reformulées.
Par ailleurs, pour tous réels 0 ≤ t1 < . . . < tn , on effectue l’identification {t1 , . . . , tn } ≡ {1, . . . , n}, ce qui
entraîne
E {t1 ,...,tn } ≡ E n et E ⊗{t1 ,...,tn } ≡ E ⊗n , (I.33)
où il faut comprendre que E n est l’espace des fonctions de {1, . . . , n} dans E et où E ⊗n est la tribu produit
associée à cet espace de fonctions. On obtient immédiatement l’énoncé suivant.

Théorème I.2.14 (Théorème d’extension de Kolmogorov) On suppose l’axiome du choix. Soit (E, E ), un espace
mesurable supposé régulier. Pour tout n ∈ N∗ et pour tous réels 0 ≤ t1 < . . . < tn , on se donne une mesure de
probabilité
ν{t1 ,...,tn } : E ⊗n → [0, 1] .
On suppose que ces mesures forment un système compatible, c’est-à-dire que pour tout entier n ≥ 2, pour tous
réels 0 ≤ t1 < . . . < tn , pour tous B1 , . . . , Bn ∈ E et pour tout 1 ≤ m ≤ n,
 
ν{t1 ,...,tn } B1 × . . . ×Bm−1 ×E ×Bm+1 × . . .×Bn = ν{t1 ,...,tn }\{tm } B1 × . . . ×Bm−1 ×Bm+1 × . . .×Bn
avec des conventions évidentes si m = 1 ou n. Alors, les assertions suivantes, équivalentes, sont vérifiées.
I.2. PROCESSUS: DÉFINITIONS, CONSTRUCTION. 21

(i) Il existe une mesure µ : E ⊗R+ → [0, 1] telle que pour tout n ∈ N∗ et pour tous réels 0 ≤ t1 < . . . < tn ,
−1
µ ◦ π{t1 ,...,tn }
= ν{t1 ,...,tn }

en faisant les identifications naturelles (I.33).

(ii) Il existe un espace de probabilité (Ω, F , P) et un processus X = (Xt )t∈R+ : Ω → E R+ qui est
(F , E ⊗R+ )-mesurable tel que pour tout n ∈ N∗ et pour tous réels 0 ≤ t1 < . . . < tn ,

∀B ∈ E ⊗n , P (Xtm )1≤m≤n ∈ B = ν{t1 ,...,tn } (B) ,




en faisant les identifications naturelles (I.33).

Remarque I.2.15 (Limitation de la tribu E ⊗R+ ) Soit E est un espace topologique métrisable séparable dont
la tribu Borélienne est notée B(E). Le théorème I.2.5 affirme que

B(E)⊗R+ = πJ−1 (A) ; J ⊂ I, J dénombrable, A ∈ B(E)⊗J .




Autrement dit un événement B ∈ B(E)⊗R+ correspond à des conditions sur un ensemble dénombrable de
temps. Par exemple si E = R, on a

/ B(R)⊗R+ .
{x = (xt )t∈R+ ∈ RR+ : sup |xt | < ∞} ∈
[0,1]

De même l’événement "être continu à droite au temps t0 " n’est pas dans la tribu produit car il fait intervenir les
valeurs des fonctions pour un ensemble non-dénombrable de temps. 

Hypothèses de régularité sur les processus.

Définition I.2.16 Soit E, un espace topologique; soit (Ω, F , P), un espace de probabilité et soit X = (Xt )t∈R+ :
Ω → E R+ , un processus (F , B(E)⊗R+ )-mesurable.

(a) X est dit continu à droite (càd, en abrégé) si pour tout ω ∈ Ω et tout t ∈ R+ , Xt (ω) = limh→0 Xt+h (ω).
h>0

(b) X est dit continu à droite et avec limite à gauche (càdlàg, en abrégé) si pour tout ω ∈ Ω,

∀t ∈ R+ , Xt (ω) = lim Xt+h (ω) et si ∀t ∈]0, ∞[ , Xt− (ω) := lim Xt+h (ω) existe.
h→0 h→0
h>0 h>0

(c) X est dit continu si pour tout ω ∈ Ω et tout t ∈ R+ , Xt (ω) = limh→0 Xt+h (ω). 

Lorsque par exemple E = Rn , l’espaces des fonctions continues et des fonctions càdlàg peuvent être munis
de distances les rendant complets et séparables, la tribu des Boréliens étant la tribu trace de la tribu produit,
ce qui prolonge les résultats déjà obtenus sur les processus. Plus précisément, faisons quelques rappels, sans
preuve, des résultats fondamentaux concernant ces espaces.
Espace des fonctions continues. On munit Rn d’une norme notée k·k. On note C(R+ , Rn ), l’espace des
fonctions continues de R+ dans Rn et on munit cet espace de la topologie de la convergence uniforme sur tous
les ensembles (de temps) compacts; cette topologie est qui engendrée par la distance suivante:
X
x, y ∈ C(R+ , Rn ), d(x, y) = 2−n min 1 , max kxt −yt k .

t∈[0,n]
n≥1
22 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

On vérifie facilement que (C(R+ , Rn ), d) est un espace métrique séparable complet, c’est-à-dire un espace
Polonais. On note toujours πt : C(R+ , Rn ) → Rn , la projection canonique au temps t qui à toute fonction
x = (xs )s∈R+ associe πt (x) = xt . On peut montrer facilement les résultats suivants, rappelés ici sans preuve.
• πt : C(R+ , Rn ) → Rn est continue.
• Les Boréliens de C(R+ , Rn ) sont engendrés par les projections canoniques:
B C(R+ , Rn ) = σ(πt ; t ∈ R+ ) .

(I.34)
Autrement dit, la tribu des Boréliens B C(R+ , Rn ) de l’espace Polonais (C(R+ , Rn ), d) est la tribu trace de


B(Rn )⊗R+ sur C(R+ , Rn ):


B C(R+ , Rn ) = B ∩ C(R+ , Rn ) ; B ∈ B(Rn )⊗R+ .
 
(I.35)
Et on notera bien que C(R+ , Rn ) ∈ / B(Rn )⊗R+ .
• On en déduit que si (Ω, F ) est un espace mesurable et si X = (Xt )t∈R+ : Ω → C(R+ , Rn ), est une fonction,
alors les assertions suivantes sont équivalentes.
(a) Pour tout t ∈ R+ , Xt : Ω → Rn est F -mesurable.

(b) X : Ω → C(R+ , Rn ) est (F , B(C(R+ , Rn ))-mesurable.

(c) X : Ω → (Rn )R+ est (F , B(Rn )⊗R+ )-mesurable.


Mentionnons que le point de vue (b) permet d’utiliser des résultats d’analyse sur la convergence étroite des
mesures de probabilité sur les espaces Polonais et de développer des théorèmes limites sur les processus, comme
le théorème d’invariance de Donsker.
Fonctions càdlàg. On note D(R+ , Rn ), l’espace des fonctions càdlàg de R+ dans Rn . Il peut être muni de la
distance de Skorokod dSko (dont nous ne rappelons pas la définition) qui en fait une espace Polonais. On note
toujours πt : D(R+ , Rn ) → Rn , la projection canonique au temps t qui à toute fonction x = (xs )s∈R+ associe
πt (x) = xt . On rappelle (sans preuve) les résultats suivants.
• πt est mesurable par rapport aux Boréliens de D(R+ , Rn ) (cependant, rappelons que πt n’est pas continue
pour la distance de Skorohod).
• Les Boréliens de D(R+ , Rn ) sont engendrés par les projections canoniques:
B D(R+ , Rn ) = σ(πt ; t ∈ R+ ) .

(I.36)
Autrement dit, la tribu des Boréliens B D(R+ , Rn ) de l’espace Polonais (D(R+ , Rn ), dSko ) est la tribu trace


de B(Rn )⊗R+ sur D(R+ , Rn ):


B D(R+ , Rn ) = B ∩ D(R+ , Rn ) ; B ∈ B(Rn )⊗R+ .
 
(I.37)
Et on notera bien que D(R+ , Rn ) ∈ / B(Rn )⊗R+ .
• On en déduit que si (Ω, F ) est un espace mesurable et si X = (Xt )t∈R+ = Ω → D(R+ , Rn ), est une fonction,
alors les assertions suivantes sont équivalentes.
(a) Pour tout t ∈ R+ , Xt : Ω → Rn est F -mesurable.

(b) X : Ω → D(R+ , Rn ) est (F , B(D(R+ , Rn ))-mesurable.

(c) X : Ω → (Rn )R+ est (F , B(Rn )⊗R+ )-mesurable.


Comme pour l’espace des fonctions continues, le point de vue (b) permet également de montrer des théorèmes
limite pour les lois des processus càdlàg.
I.2. PROCESSUS: DÉFINITIONS, CONSTRUCTION. 23

Modification et indistingabilité.

Définition I.2.17 (Modification et indistingabilité) Soit (E, E ), un espace mesurable. Soit (Ω, F , P), un es-
pace de probabilité. Soient X = (Xt )t∈R+ : Ω → E R+ et Y = (Yt )t∈R+ : Ω → E R+ , deux processus (F , E ⊗R+ )-
mesurables.

(a) X est une P-modification de Y si pour tout t ∈ R+ , l’ensemble {Xt 6= Yt } est un ensemble P-négligeable.

(b) X et Y sont P-indistingables si ω ∈ Ω : ∃t ∈ R+ , Xt (ω) 6= Yt (ω) est P-négligeable. 

Quelques remarques.
(1) X est une P-modification de Y si et seulement si Y est une P-modification de X.
(2) Lorsque l’espace mesurable (E, E ) est diagonal (voir la définition I.1.10, page 5), alors {Xt = Yt } ∈ F et
X est une modification de Y ssi P(Xt = Yt ) = 1, pour tout t ∈ R+ ; on rappelle que tout espace régulier (et donc
a fortiori Polonais) est diagonal (voir les résultats de la section I.1.b, page 5.
(3) Lorsqu’il n’y a pas d’ambiguïté sur la probabilité sous laquelle on considère les processus, on dit simplement
que X est une modification de Y ; de même on dit simplement que X et Y sont indistinguables. Évidemment,
si deux processus sont indistinguables, ils sont modification l’un de l’autre.

Proposition I.2.18 Soit (E, E ), un espace mesurable. Soit (Ω, F , P), un espace de probabilité. Soit X =
(Xt )t∈R+ : Ω → E R+ et Y = (Yt )t∈R+ : Ω → E R+ , deux processus (F , E ⊗R+ )-mesurables. On suppose que X
est une modification de Y . Alors, X et Y ont même loi.
On suppose de plus que E est un espace topologique, que E = B(E) et que X et Y sont càd. Alors, X et
Y sont indistinguables. Par conséquent un processus n’a, à indistinguabilité près, qu’une modification càd.

Preuve: pour tous 0 ≤ t1 < . . . < tn , on a P-p.s. Xtk = Ytk , pour tout 1 ≤ k ≤ n. Donc (Xt1 , . . . , Xtn ) et
(Yt1 , . . . , Ytn ) ont même loi sous P et la proposition I.2.7 implique (i).
S
On suppose ensuite que E est un espace topologique et que X et Y sont càd. On pose N = q∈Q+ {Xq 6= Yq }
qui est un ensemble P-négligeable (puisque c’est une union dénombrable d’ensembles P-négligeables). Pour
tout ω ∈ Ω\N , on a Xq (ω) = Yq (ω), q ∈ Q+ . La continuité à droite de X et Y implique alors que pour tout
ω ∈ Ω\N et pour tout t ∈ R+ , Xt (ω) = Yt (ω), ce qui termine la preuve. 

Filtrations continues à droite et à gauche.

Définition I.2.19 (Ω, F ), un espace mesurable. Soit (Gt )t∈R+ , une filtration. Pour tout t ∈ R+ on introduit les
tribus suivantes: \
Gt+ := Gs Gt− := σ Gs ; s ∈ [0, t[ .

et
s>t

La définition de Gt− ci-dessus n’a de sens que si t > 0. Par convention on pose G0− := G0 . On observe que
(Gt+ )t∈R+ et (Gt− )t∈R+ sont des filtrations sur (Ω, F ). On appelle (Gt+ )t∈R+ la filtration continue à droite
associée à (Gt )t∈R+ et on appelle (Gt− )t∈R+ la filtration continue à gauche associée à (Gt )t∈R+ . On dit ensuite
que la filtration (Gt )t∈R+ est continue à droite si pour tout t ∈ R+ , Gt+ = Gt . De même, on dit que la filtration
(Gt )t∈R+ est continue à gauche si pour tout t ∈ R+ , Gt− = Gt . 
24 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

On vérifie facilement les propriétés immédiates suivantes.


(1) Pour tout t ∈ R+ , Gt− ⊂ Gt ⊂ Gt+ .
(2) Pour tout t ∈ R+ , posons Gt+ := Gt+ et Gt− := Gt− . Alors Gt+ + −
= Gt+ = Gt+ et Gt− = Gt− = Gt− . Autrement
dit la filtration (Gt+ )t∈R+ est continue à droite et la filtration (Gt− )t∈R+ est continue à gauche.

(3) On reprend les notations du (2). Alors pour tout t ∈ R+ , Gt− +
= Gt− et Gt+ = Gt+ . En effet, si s < t
(resp. s > t), Gs ⊂ G 1 (s+t) (resp. G 1 (s+t) ⊂ Gs ) ce qui implique les résultats voulus.
+ −
2 2

Progressive mesurabilité. Jusque là, les processus ont été envisagés comme des fonctions aléatoires de R+
dans E. Nous introduisons ici un nouveau point de vue: un processus X est une fonction (s, ω) ∈ R+ ×Ω 7→
Xs (ω) ∈ E. Cette manière de voir s’avère fructueuse dans de nombreuses situations impliquant des propriétés
trajectorielles, des temps d’arrêt ou le calcul stochastique.

Définition I.2.20 (Progressive mesurabilité) Soient (E, E ) et (Ω, F ), des espaces mesurables. Soit (Gt )t∈R+ ,
une filtration surt (Ω, F ). Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (F , E ⊗R+ )-mesurable. Le processus
X est dit progressivement mesurable par rapport à (Gt )t∈R+ si pour tout t ∈ R+ la fonction

(s, ω) ∈ [0, t]×Ω 7−→ Xs (ω) ∈ E

est B([0, t])⊗Gt , E -mesurable.





On rappelle le résultat de mesurabilité suivant.

(∗) Soient (E1 , E1 ), (E2 , E2 ) et (E, E ), des espaces mesurables. Soit f : E1×E2 → E, supposée (E1⊗ E2 , E )-
mesurable. Alors, pour tout x ∈ E1 , l’application partielle f (x, ·) : E2 → E est (E2 , E )-mesurable. De
même, pour tout y ∈ E2 , l’application partielle f (·, y) : E1 → E est (E1 , E )-mesurable.

Le résultat (∗) permet de démontrer le lemme suivant.

Lemme I.2.21 Soient (E, E ) et (Ω, F ), des espaces mesurables. Soit (Gt )t∈R+ , une filtration surt (Ω, F ).
Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (F , E ⊗R+ )-mesurable. Si X est (Gt )t∈R+ -progressivement
mesurable, alors il est (Gt )t∈R+ -adapté.

Preuve: on fixe t ∈ R+ et on note f : (s, ω) ∈ [0, t]×Ω 7−→ Xs (ω) ∈ E. Par hypothèse, f est B([0, t])⊗Gt , E -


mesurable et on observe que l’application partielle f (t, ·) est la variable Xt : la propriété (∗) qui précède
implique donc que Xt est Gt -mesurable. 
L’adaptation n’implique en général pas la progressive mesurabilité. La proposition suivante donne cepen-
dant un critère, modulo la continuité à droite du processus.

Proposition I.2.22 Soit E, un espace topologique. Soit (Ω, F ), un espace mesurable sur lequel est définie une
filtration (Gt )t∈R+ . Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (F , B(E)⊗R+ )-mesurable. On suppose que
X est (Gt )t∈R+ -adapté et càd. Alors, X est progressivement mesurable relativement à (Gt )t∈R+ .

Preuve: soit s ∈ R+ . On note dse le plus petit entier strictement supérieur à s et on note bsc sa partie entière.
Pour tout n ∈ N et tout t ∈ R+ , on pose Xtn = X2−n d2n te , puis à t ∈ R+ fixé, on pose pour tous (s, ω) ∈ [0, t]×Ω,

φn (s, ω) := Xsn (ω) si s ∈ 0, 2−n b2n tc φn (s, ω) = Xt (ω) si s ∈ 2−n b2ntc, t .


   
et
I.3. TEMPS D’ARRÊT. 25

Soit B ∈ B(E). On vérifie que


 [
φ−1 −n
(k−1)2−n , k2−n × Xk2−n ∈ B ∈ B([0, t]) ⊗ Gt .
 
n (B) = [2 b2ntc, t]×{Xt ∈ B} ∪
1≤k≤b2n tc

Cela montre donc que pour tout n ∈ N, φn est (B([0, t])⊗Gt , B(E))-mesurable. On pose ensuite φ(s, ω) :=
Xs (ω), pour tous (s, ω) ∈ [0, t]×Ω. On vérifie ensuite facilement que la continuité à droite de X implique que
limn→∞ φn = φ ponctuellement que [0, t]×Ω. Donc φ est (B([0, t])⊗Gt , B(E))-mesurable, ce qui permet de
conclure. 

I.3 Temps d’arrêt.


I.3.a Définitions, premières propriétés.
Définition I.3.1 (Temps d’arrêt) Soit (Ω, F ), un espace mesurable. Soit (Gt )t∈R+ , une filtration sur (Ω, F ).
Une fonction T : Ω → [0, ∞] est un (Gt )t∈R+ -temps d’arrêt si

∀t ∈ R+ , {T ≤ t} ∈ Gt . (I.38)

On rappelle que G∞ = σ(Gt ; t ∈ R+ ) et on définit ensuite

GT = A ∈ G∞ : ∀ t ∈ R+ , A ∩ {T ≤ t} ∈ Gt .


On vérifie que GT est une sous-tribu de G∞ . Elle est appelée tribu des événements antérieurs à T . 

Quelques remarques.
(1) Comme {T > t} = Ω\{T ≤ t} et puisqu’une tribu est stable par passage au complémentaire, T est un
(Gt )t∈R+ -temps d’arrêt ssi {T > t} ∈ Gt , pour tout t ∈ R+ .
(2) Vérifions ensuite que GT est une tribu: il est clair que Ω ∈ GT par (I.38). Si A ∈ GT , on vérifie que pour tout
t ∈ R+
(Ω\A) ∩ {T ≤ t} = {T ≤ t} ∩ Ω\(A ∩ {T ≤ t} ∈ Gt .


Enfin si An ∈ GT , n ∈ N, on a ( n∈N An ) ∩ {T ≤ t} = n∈N (An ∩ {T ≤ t}) ∈ Gt , pour tout t ∈ R+ .


S S

Le lemme suivant détaille quelques propriétés simples des temps d’arrêt.

Lemme I.3.2 Soit (Ω, F ), un espace mesurable. Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soient T et S, deux
(Gt )t∈R+ -temps d’arrêts. Alors, les résultats suivants sont vérifiés.

(i) S ∧ T est un (Gt )t∈R+ -temps d’arrêt et GS∧T = GS ∩ GT .

(ii) Si S ≤ T partout sur Ω, alors GS ⊂ GT .

(iii) S ∨ T est un (Gt )t∈R+ -temps d’arrêt et GS∨T = σ(GS , GT ).

(iv) S + T est un (Gt )t∈R+ -temps d’arrêt.


26 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

Preuve: pour tout t ∈ R+ , on remarque d’abord que l’événement {S ∧T > t} = {S > t} ∩ {T > t} ∈ Gt . Donc
S ∧T est un (Gt )t∈R+ -temps d’arrêt (voir la remarque (1) ci-dessus). Soit A ∈ GS ∩ GT . Alors

A ∩ {S ∧ T ≤ t} = (A ∩ {S ≤ t}) ∪ (A ∩ {T ≤ t}) ∈ Gt .

Donc A ∈ GS∧T . On a donc montré GS ∩ GS ⊂ GS∧T . Soit B ∈ GS∧T . Alors B ∩ {S ≤ t} = (B ∩ {S ∧ T ≤


t}) ∩ {S ≤ t} ∈ Gt . Donc B ∈ GS . On en déduit GS∧T ⊂ GS . De même GS∧T ⊂ GT et donc GS∧T ⊂ GS ∩ GT , ce
qui termine la preuve de (i).
Le point (ii) est une conséquence immédiate de (i). Montrons (iii): soit t ∈ R+ ; on remarque d’abord que
{S ∨T ≤ t} = {S ≤ t} ∩ {T ≤ t} ∈ Gt . Donc S ∨ T est un (Gt )t∈R+ -temps d’arrêt. Soit A ∈ GS . Pour tout
t ∈ R+ , on a A ∩ {S∨T ≤ t} = (A ∩ {S ≤ t}) ∩ {S∨T ≤ t} ∈ Gt . Donc A ∈ GS∨T . Donc GS ⊂ GS∨T . De même,
GT ⊂ GS∨T et par conséquent σ(GS , GT ) ⊂ GS∨T . On remarque ensuite que pour tout t ∈ R+ ,
[
{T < S ≤ t} = {q ≤ S ≤ t} ∩ {T < q} ∈ Gt .
q∈[0,t]∩Q

Donc {S ≤ T ≤ t} = {T ≤ t}\{T < S ≤ t} ∈ Gt . Soit B ∈ GS∨T . On pose C = B ∩ {S ≤ T } et on observe


que pour tout t ∈ R+ , C ∩ {T ≤ t} = (B ∩ {S ∨ T ≤ t}) ∩ {S ≤ T ≤ t} ∈ Gt . Donc C ∈ GT , c’est-à-dire
B ∩ {S ≤ T } ∈ GT . De même, on montre que B ∩ {T ≤ S} ∈ GS . Donc

B = (B ∩ {S ≤ T }) ∪ (B ∩ {T ≤ S}) ∈ σ(GS , GT ) .

Par conséquent, GS∨T ⊂ σ(GS , GT ), ce qui termine la preuve de (iii).


Montrons (iv). Pour cela, on remarque que pour tout t ∈ R+ , on a On observe que
[
{0 < T ≤ t ; S + T > t} = {q < T ≤ t} ∩ {S > t−q} ∈ Gt
q∈]0,t[∩Q

De plus, {T = 0 ; S > t} ∈ Gt . Comme S et T jouent des rôles symétriques on en déduit que {0 < S ≤ t ; S +T >
t} ∈ Gt et {S = 0 ; T > t}. Enfin on a {S ∧ T > t} ∈ Gt , ce qui implique facilement (iv). 

Lemme I.3.3 Soient (E, E ) et (Ω, F ), des espaces mesurables. Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit
T : Ω → [0, ∞], un (Gt )t∈R+ -temps d’arrêt. Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (F , E ⊗R+ )-mesurable.
On rappelle la notation G∞ = σ(Gt ; t ∈ R+ ) et on se donne X∞ : Ω → E, une v.a. (G∞ , E )-mesurable, ce qui
permet de définir
∀ω ∈ Ω, XT (ω) := XT (ω) (ω) .
On suppose que X est (Gt )t∈R+ -progressivement mesurable. Alors, XT est (GT , E )-mesurable.
Preuve: pour tout t ∈ [0, ∞], on pose Yt : (s, ω) ∈ [0, t]×Ω → Xs (ω) ∈ E. Si t < ∞, alors, par hypothèse, pour
tout B ∈ E , {Yt ∈ B} ∈ B([0, t])⊗Gt . Dans le cas où t = ∞: on remarque que:
−1 −1
 [ −1
Y∞ (B) = {∞}×X∞ (B) ∪ Yn (B) ∈ B([0, ∞])⊗G∞ .
n∈N

Cela implique que pour tout t ∈ [0, ∞], Yt est (B([0, t])⊗Gt , E )-mesurable.
Soit t ∈ R+ . On note Gt∗ := {A ∩ {T ≤ t}; A ∈ Gt }, qui est une tribu sur {T ≤ t} (c’est la tribu trace de Gt
sur {T ≤ t}). On vérifie que Zt : ω ∈ {T ≤ t} 7→ (T (ω), ω) ∈ [0, t]×Ω est (Gt∗ , B([0, t])⊗Gt )-mesurable. En
−1
effet, pour tout A ∈ Gt et tout
s ∈ [0, t], on a Zt ([0, s]×A) = A ∩ {T ≤ s} ∈ Gt , et il est facile de montrer que

[0, s]×A; s ∈ [0, t], A ∈ Gt est un pi-système générant B([0, t]) ⊗ Gt .



I.3. TEMPS D’ARRÊT. 27

De même, on introduit Z∞ : ω ∈ Ω → (T (ω), ω) ∈ [0, ∞]×Ω qui est (G∞ , B([0, ∞])⊗G∞ )-mesurable. On
remarque alors que XT = Y∞ ◦Z∞ , qui est donc une v.a. (G∞ , E )-mesurable. Soit B ∈ E . On pose A := {XT ∈
B}. Ce qui précède montre que A ∈ G∞ . On fixe t ∈ R+ . On remarque que A ∩ {T ≤ t} = (Yt◦Zt )−1 (B). Donc
A ∩ {T ≤ t} ∈ Gt∗ , ce qui implique que A ∩ {T ≤ t} ∈ Gt . On en déduit que A ∈ GT , ce qui termine la preuve.


Définition I.3.4 Soit (Ω, F ), muni de la filtration filtration (Gt )t∈R+ . Soit T : Ω → [0, ∞], un (Gt )t∈R+ -temps
d’arrêt.

(a) On définit GT + := A ∈ G∞ : ∀t ∈]0, ∞[ A ∩ {T < t} ∈ Gt , qui est une sous-tribu de G∞ .




(b) On définit GT − = σ B ∩{T > t} ; t ∈ R+ , B ∈ Gt , qui est une sous-tribu de G∞ .





Lemme I.3.5 Soit (Ω, F ), muni de la filtration filtration (Gt )t∈R+ . Soit T : Ω → [0, ∞], une fonction. Alors,
les assertions suivantes sont vérifiées.

(i) T est un (Gt+ )t∈R+ -temps d’arrêt ssi {T < t} ∈ Gt pour tout t ∈]0, ∞[ .
(ii) Supposons que T soit un (Gt )t∈R+ -temps d’arrêt. On pose Gt+ = Gt+ , pour tout t ∈ R+ . Alors T est un
(Gt+ )t∈R+ -temps d’arrêt et on a

GT + = GT+ = A ∈ G∞ : ∀t ∈ R+ , A ∩{T ≤ t} ∈ Gt+ .




(iii) Supposons que T soit un (Gt )t∈R+ -temps d’arrêt et supposons que (Gt )t∈R+ soit continue à droite c’est-
à-dire que Gt+ = Gt , pour tout t ∈ R+ . Alors GT + = GT .
(iv) Supposons que T soit un (Gt )t∈R+ -temps d’arrêt. On rappelle la convention G0− := G0 . Alors

GT − = σ B ∩{T ≥ t} ; t ∈ R+ , B ∈ Gt− et GT − ⊂ GT ⊂ GT + .


(v) Supposons que T soit un (Gt )t∈R+ -temps d’arrêt. Alors, T est GT − -mesurable.

Preuve: supposons d’abord que {T < t} ∈ Gt pour tout t ∈]0, ∞[ . Alors, pour tout t ∈ R+ , {T ≤ t} =
−n } ∈ G , ce qui implique que T est un (G )
T
n∈N {T < t + 2 t+ S + -temps d’arrêt. Réciproquement si T est
t+ t∈R
un (Gt+ )t∈R+ -temps d’arrêt, pour tout t ∈ ]0, ∞[ , on a {T < t} = n∈N {T < t−2−n } ∈ Gt , ce qui termine la
preuve de (i). Un raisonnement analogue montre (ii). Enfin, le point (ii) implique immédiatement (iii).
Montrons le point (iv). On pose H = σ B ∩{T ≥ t} ; t ∈ R+ , B ∈ Gt− . Soit B ∈ Gt− . Il est clair que


{T = t} ∈ Gt . Donc B ∪ {T = t} ∈ Gt et on a

∀t ∈ R+ , ∀B ∈ Gt− , B ∩{T ≥ t} = (B ∪ {T = t}) ∩{T > t} ∈ GT − ,

ce qui implique que H ⊂ GT − . Soit t ∈ R+Set B ∈ Gt . Pour tout n ∈ N, on a B ∈ G(t+2−n )− , donc


B ∩{T ≥ t + 2−n } ∈ H et donc B ∩ {T > t} = n∈N B ∩{T ≥ t + 2−n } ∈ H . Cela implique que GT − ⊂ H
et donc GT − = H .
On vérifie immédiatement que GT ⊂ GT + . On fixe s ∈ R+ et B ∈ Gs et on pose A := B ∩{T > s}. Il est clair
que A ∈ G∞ . Alors, Soit t ∈ R+ . Si t ≤ s, alors A ∩{T ≤ t} = ∅ ∈ Gt . Si t > s, alors B ∈ Gt , {s < T ≤ t} ∈ Gt
et donc A ∩{T ≤ t} = B ∩{s < T ≤ t} ∈ Gt . Dans tous les cas A ∩{T ≤ t} ∈ Gt , ce qui implique que A ∈ GT
et donc GT − ⊂ GT . Cela termine la preuve de (iv). Le point (v) vient immédiatement du fait que pour tout
t ∈ R+ , {T > t} ∈ GT − . 
28 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

Lemme I.3.6 Soit (Ω, F ), un espace mesurable muni de la filtration (Gt )t∈R+ . Soient S, T : Ω → [0, ∞], deux
(Gt )-temps d’arrêt. Les assertions suivantes sont vérifiées.

(i) Pour tout A ∈ GS , A ∩ {S ≤ T } ∈ GT et A ∩{S < T } ∈ GT − .

(ii) Si S ≤ T partout sur Ω, alors GS ⊂ GT , GS+ ⊂ GT + and GS− ⊂ GT − .

(iii) {S = T } et {S ≤ T } sont dans GS ∩ GT et {S < T } est dans GS ∩ GT − .

Preuve: on observe d’abord que {T < S ≤ t} = q∈Q∩[0,t[ {T < q}∩{S ≤ t}∩(Ω\{S ≤ q}) ∈ Gt . On en déduit
S
que
{S ≤ T ≤ t} = {T ≤ t} ∩ (Ω\{T < S ≤ t}) ∈ Gt . (I.39)
Soit A ∈ GS . Donc A ∩ {S ≤ t} ∈ Gt et (A ∩ {S ≤ T })∩{T ≤ t} = (A ∩ {S ≤ t})∩{S ≤ T ≤ t} ∈ Gt par (I.39).
Cela montre que A ∩ {S ≤ T } ∈ GT . On observe ensuite que A ∩ {S < T } = q∈Q+ (A∩{S < q})∩{T > q}.
S
Or A ∩ {S < q} ∈ Gq− ⊂ Gq . Donc (A ∩ {S < q}) ∩ {T > q} ∈ GT − , ce qui entraîne que A ∩ {S ≤ T } ∈ GT − et
la preuve de (i) est terminée.
Prouvons (ii): soit A ∈ GS . Comme S ≤ T partout sur Ω, A = A ∩ {S ≤ T } ∈ GT , par (i). Cela montre
que GS ⊂ GT . Cela montre aussi que GS+ ⊂ GT+ , où Gt+ = Gt+ , t ∈ R+ . Mais le lemme I.3.5 (ii) implique que
GT+ = GT + et GS+ = GS+ , et on a donc GS+ ⊂ GT+ . Pour tout t ∈ R+ , et tout B ∈ Gt , on remarque ensuite que
B ∩ {t < S} ∈ Gt et donc que

B ∩ {t < S} = (B ∩ {t < S}) ∩ {t < T } ∈ GT −

ce qui entraîne GS− ⊂ GT − . Cela termine la preuve


S de (ii).
Montrons (iii): on observe que {S < T } = q∈Q+ {S < q}∩{T ≥ q}. Or {S < q} ∈ Gq− , donc, par le lemme
I.3.5 (iv), {S < q} ∩ {T ≥ q} ∈ GT − , ce qui implique que

{S < T } ∈ GT − . (I.40)

On observe ensuite que (I.39) implique que {S ≤ T } ∈ GT . En échangeant les rôles de S and T ,on obtient que
{T ≤ S} ∈ GS . Par conséquent, {S < T } = Ω\{T ≤ S} ∈ GS et (I.40) implique que {S < T } ∈ GS ∩ GT − .
Comme GT − ⊂ GT , on en déduit que {S < T } ∈ GS ∩ GT et donc

{S = T } = {S ≤ T } ∩ (Ω\{S < T }) ∈ GS ∩ GT .

Enfin on remarque {S ≤ T } = {S < T } ∪ {S = T } ∈ GS ∩ GT , ce qui complète la preuve de (iii). 

Proposition I.3.7 Soit (Ω, F ), un espace mesurable muni de la filtration (Gt )t∈R+ . Soient Tn : Ω → [0, ∞],
n ∈ N, une suite de (Gt )t∈R+ -temps d’arrêt. Les assertions suivantes sont vérifiées.

(i) On suppose que pour tout n ∈ N, Tn ≤ Tn+1 partout. Alors, T := supn∈N Tn est un (Gt )t∈R+ -temps
d’arrêt et
GT − = σ GTn − ; n ∈ N .


(ii) On suppose que pour tout n ∈ N, Tn+1 ≤ Tn partout. Alors T := inf n∈N Tn est un (Gt+ )t∈R+ -temps
d’arrêt et \
GT + = GTn + .
n∈N
I.3. TEMPS D’ARRÊT. 29

T
Preuve: on prouve (i); T est un (Gt )t∈R+ -temps d’arrêt car {T ≤ t}= n∈N {Tn ≤ t}, pour tout t ∈ R+ . Le
lemme I.3.6 (ii) implique que GTnS − ⊂ GT − et donc σ GTn − ; n ∈ N ⊂ GT − . Soient t ∈ R+ et B ∈ Gt . On
remarque alors que B ∩ {t < T } = n∈N B ∩ {t < Tn }; comme par définition B ∩ {t < Tn } ∈ GTn − , on a donc
B ∩ {t < T } ∈ σ GTn − ; n ∈ N , ce qui entraîne GT − ⊂ G
 
σ Tn − ; n ∈ N et ce qui termine la preuve de (i).
Montrons (ii): pour tout t ∈ R+ , on a {T < t} = n∈N {Tn < t} ∈ Gt ; le lemme I.3.5 (i) implique
S
que T est
G G G G
T
un (G )
Tt+ t∈R+ -temps d’arrêt. Le lemme I.3.6 (ii) implique que T+ ⊂ Tn + et donc T+ ⊂ n∈N Tn + . Soit
A ∈ n∈N GTn + . On a donc A ∈ G∞ et pour tout n ∈ N et tout t ∈ R+ , A ∩ {Tn < t} ∈ Gt et donc
[
A ∩ {T < t} = A ∩ {Tn < t} ∈ Gt .
n∈N

et donc A ∈ GT + , ce qui termine la preuve. 

I.3.b Existence de temps d’arrêt, complétion des filtrations.


Temps d’arrêt élémentaires. Cette section est consacrée à l’existence de temps d’arrêt intéressants. Nous
commençons par quelques définition et quelques résultats relativement simples – même si leur preuve est
longue.

Définition I.3.8 (Temps d’atteinte, de retour et d’approche) Soit E, un espace topologique métrisable et sé-
parable. Soit (Ω, F ), un espace mesurable. Soient X = (Xt )t∈R+ : Ω → E R+ et T : Ω → [0, ∞], des fonctions.
Soit A ∈ B(E).

(a) On pose:
et T+
 
TT,A := inf t ∈ [T, ∞[ : Xt ∈ A T,A := inf t ∈ ]T, ∞[ : Xt ∈ A
avec la convention que inf ∅ = ∞. Le temps TT,A est le temps d’atteinte de A par X après T et le temps
T+
T,A est le temps de retour en A de X après T .

(b) Pour tout t ∈ R+ , on utilise ensuite la notation

ΓT,t = {Xs ; s ∈ [T, t]} ,

qui est l’adhérence de {Xs ; s ∈ [T, t]} dans E, avec la convention que ΓT,t = ∅ si T = ∞. On définit alors
le temps d’approche de A par X après T par

ST,A = inf t ∈ [T, ∞[ : ΓT,t ∩ A 6= ∅ ,

avec la convention que inf ∅ = ∞.

Si T est nul partout, on note TT,A , T+ +


T,A et ST,A simplement par TA , TA et SA . 

Remarque I.3.9 On reprend les notations de la définition précédente et on suppose que X est continu partout
sur Ω. Alors, ΓT,t = {Xs ; s ∈ [T, t]}. Donc

TT,A = ST,A . (I.41)

En effet, si Xt ∈ A, alors ΓT,t ∩ A 6= ∅, ce qui montre que ST,A ≤ TT,A . Soit t0 tel que t0 > ST,A : il existe donc
t ∈ [T, t0 [ tel que ΓT,t ∩ A 6= ∅, ce qui implique l’existence de s ∈ [T, t] tel que Xs ∈ A et donc TT,A ≤ t < t0 . En
choisissant t0 arbitrairement proche de ST,A , on obtient TT,A ≤ ST,A , ce entraîne (I.41). 
30 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

Remarque I.3.10 On reprend les notations de la définition précédente et on suppose X est càdlàg partout sur
Ω. Alors,
ΓT,t = {Xs , Xs− ; s ∈ [T, t]} . (I.42)
En effet, on a clairement {Xs , Xs− ; s ∈ [T, t]} ⊂ ΓT,t . Supposons que y ∈ ΓT,t . Comme E est métrisable,
il existe tn ∈ [T, t], n ∈ N, tels que Xtn −→ y lorsque n → ∞. Soit s ∈ [T, t], une valeurs d’adhérence de la
suite (tn )n∈N . Si l’ensemble {n ∈ N : tn ≥ s} est infini, alors par continuité à droite de X, on a Xs = y. Si
l’ensemble {n ∈ N : tn < s} est infini, alors on a Xs− = y. Dans les deux cas y ∈ {Xs , Xs− ; s ∈ [T, t]}, ce qui
permet de montrer (I.42). 

Remarque I.3.11 On reprend les notations de la définition précédente. Soient Tn : Ω → [0, ∞], une suite de
temps aléatoires décroissants vers T et tels que

T < ∞ =⇒ ∀n ∈ N, Tn > T . (I.43)

Par exemple les temps Tn := T + 2−n , n ∈ N, satisfont ces conditions. On observe alors que

T+
T,A = inf TTn ,A . (I.44)
n∈N

En effet, il est clair que T+ + +


T,A ≤ TTn ,A donc TT,A ≤ inf n∈N TTn ,A . Supposons ensuite que TT,A < ∞. Cela
implique d’une part que T < ∞ et d’autre part qu’il existe une suite tp ∈ ]T, ∞[ , p ∈ N, décroissant vers T+ T,A
et telle que Xtp ∈ A pour tout p ∈ N. Comme T < tp < ∞, (I.43) implique l’existence de np ∈ N tel que Tnp < tp
et donc TTnp ,A ≤ tp . Cela montre donc que pour tout p ∈ N, inf n∈N TTn ,A ≤ tp et donc inf n∈N TTn ,A ≤ T+
T,A , ce
qui termine la preuve de (I.44). 
La proposition suivante montre que sous certaines conditions de régularité de la trajectoire les temps
d’atteinte/de retour/d’approche d’un ouvert, d’un fermé ou d’un compact sont des temps d’arrêt.

Théorème I.3.12 Soit (E, d), un espace métrique séparable. Soit (Ω, F ), un espace de mesurable muni de
la filtration (Gt )t∈R+ . Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (Gt )t∈R+ -adapté et soit T : Ω → [0, ∞],
(Gt )t∈R+ -temps d’arrêt. Alors, les assertions suivantes sont vérifiées.

(i) On suppose X càd partout sur Ω. Alors, pour tout ouvert U de E, les temps TT,U et T+
T,U sont des
(Gt+ )t∈R+ -temps d’arrêt.

(ii) On suppose X càd partout sur Ω. Alors, pour tout compact K de E, le temps d’approche ST,K est un
(Gt )t∈R+ -temps d’arrêt.

(iii) On suppose X càdlàg partout sur Ω. Alors, pour tout fermé F de E, le temps d’approche ST,F est un
(Gt )t∈R+ -temps d’arrêt et

ST,F = inf t ∈ [T, ∞[ : Xt ou Xt− ∈ F . (I.45)

Si X est continu partout sur Ω, on a ST,F = TT,F et donc TT,F est un (Gt )t∈R+ -temps d’arrêt.

Preuve: prouvons (i). Soit t ∈]0, ∞[. Si s ∈ [T, t[ est tel que Xs ∈ U , alors – puisque X est càd et puisque U
est ouvert – il existe un rationnel q ∈ [s, t[ tel que Xq ∈ U et donc
[
{TT,U < t} = {T ≤ q} ∩ {Xq ∈ U } ∈ Gt .
q∈Q∩[0,t[
I.3. TEMPS D’ARRÊT. 31

Le lemme I.3.5 (i) implique que TT,U est un (Gt+ )t∈R+ -temps d’arrêt. On pose ensuite Tn := T + 2−n , qui
est également un (Gt )t∈R+ -temps d’arrêt; ce que l’on vient de montrer implique que TTn ,U est un (Gt+ )t∈R+ -
temps d’arrêt. La proposition I.3.7 (ii) implique que inf n∈N TTn ,U est un (Gt+ )t∈R+ -temps d’arrêt. Or (I.44)
(remarque I.3.11) montre que T+ T,U = inf n∈N TTn ,U , qui est donc (Gt+ )t∈R+ -temps d’arrêt, ce qui termine la
preuve de (i).
Montrons (ii). Pour tout n ∈ N, on pose Un := {x ∈ E : d(x, K) < 2−n }. On rappelle que x 7→ d(x, K) est
1-Lipschitzienne, ce qui implique que les ensembles Un sont des ouverts de E. On fixe t ∈ R+ .
Supposons d’abord que ST,K ≤ t et que Xt ∈ / K: par continuité à droite de X, il existe ε, η > 0 tels que
d(Xs , K) > η, pour tout s ∈ [t, t + ε]. Comme ST,K ≤ t, ΓT,t+ε ∩ K 6= ∅. Il existe donc une suite de temps
tp ∈ [T, t + ε], p ∈ N, telle que d(Xtp , K) → 0 lorsque p → ∞ et ce qui précède implique que tp ∈ [T, t[ pour
tout p ∈ N assez grand. Par conséquent il existe une suite strictement croissante d’entiers (pn )n∈N telle que
d(Xtpn , K) < 2−n . Autrement dit, Xtpn ∈ Un et en particulier TT,Un < t, pour tout n ∈ N.
Supposons maintenant que TT,Un < t pour tout n ∈ N. Il existe donc tn ∈ [T, t[ , tel que d(Xtn , K) < 2−n .
Comme K est compact, la fonction y 7→ d(Xtn , y) atteint son infimum sur K. Il existe donc yn ∈ K tel que
d(Xtn , yn ) < 2−n . Comme K est compact, on extrait de (yn )n∈N une suite (ynk )k∈N convergeant vers y ∈ K.
On a donc pour tout k ∈ N,
d(y, ΓT,t ) ≤ d(y, ynk ) + d(ynk , Xtnk ) −→ 0
lorsque k → ∞. Donc d(y, ΓT,t ) = 0. Comme ΓT,t est un fermé de E, y ∈ ΓT,t . On a donc ΓT,t ∩ K 6= ∅ et donc
ST,K ≤ t.
On a donc montré
 \
{ST,K ≤ t} = {T ≤ t} ∩ {Xt ∈ K} ∪ {TT,Un < t} ∈ Gt ,
n∈N

par le (i). Cela termine la preuve du point (ii).


Montrons le point (iii). Pour tout n ∈ N, on pose Un := {x ∈ E : d(x, F ) < 2−n }, qui sont des ouverts de
E. Soit t ∈ R+ . On suppose que ST,F ≤ t. Alors, ou bien T ≤ t et Xt ∈ F , ou bien T ≤ t et Xt ∈ / F . En reprenant
les arguments ci-dessus pour un compact K, on montre que TT,Un < t pour tout n ∈ N.
Supposons maintenant que TT,Un < t pour tout n ∈ N. Il existe donc tn ∈ [T, t[ , tel que d(Xtn , F ) < 2−n .
Soit s ∈ [T, t], une valeur d’adhérence de la suite (tn )n∈N . Si l’ensemble d’indices {n ∈ N : tn ≥ s} est infini, la
continuité à droite de X implique que d(Xs , F ) = 0 et comme F est fermé on a donc Xs ∈ F , ce qui implique
que ST,F ≤ t. Si l’ensemble d’indices {n ∈ N : tn < s} est infini, on a d(Xs− , F ) = 0 et comme F est fermé on
a donc Xs− ∈ F , ce qui implique que Xs− ∈ ΓT,t ∩ F (voir (I.42), remarque I.3.10) et donc ST,F ≤ t.
On a donc montré
 \
{ST,F ≤ t} = {T ≤ t} ∩ {Xt ∈ F } ∪ {TT,Un < t} ∈ Gt ,
n∈N

par le (i). Cela montre que ST,F est un (Gt )t∈R+ ; (I.42) (remarque I.3.10 p. 30) implique (I.45). Si X est
continu, (I.41) (remarque I.3.9 p. 29) permet de conlure. 

Problème de mesurabilité des temps d’arrêt. Le théorème I.3.12 fait une liste assez complète des temps
d’arrêt dont l’existence se prouve par des arguments élémentaires. Dès que l’on s’éloigne un peu des hypothèses
de ce théorème, il devient assez compliqué de prouver la mesurabilité de certains temps d’arrêt aussi naturels
que les temps d’atteinte de compacts. En effet, signalons le fait suivant: on reprend les notations du théorème
I.3.12; on suppose X est càdlàg et (Gt )t∈R+ -adapté; soit K, un compact de E; on rappelle que TK = inf{t ∈
R+ : Xt ∈ K} est le premier temps d’atteinte de K. C’est une fonction de Ω dans [0, ∞] C. Dellacherie a
32 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

montré que dans certains cas TK n’est pas G∞ -mesurable. Cette obstruction entraîne que TK ne peut être un
(Gt )t∈R+ -temps d’arrêt, ni-même un (Gt+ )t∈R+ -temps d’arrêt. En revanche, cela devient le cas si l’on enrichit
la filtration avec les ensembles P-négligeables. Comme expliqué dans les paragraphes suivants, il s’agit d’un
fait général qui s’exprime informellement en la "philosophe" suivante: tous les temps d’arrêt auxquels on peut
penser naturellement sont des "vrais" temps d’arrêt relativement à la filtration continue à droite enrichie par
les ensembles P-négligeables.

Complétion des filtrations. Le lecteur est invité à lire la section A.2, en appendice page 208, sur la com-
plétion des espaces mesurés. Nous rappelons les notations suivantes. Soit (E, E , µ), un espace mesuré.
L’ensemble des µ-négligeables est défini par

Nµ := A ⊂ E : ∃B ∈ E , A ⊂ B, µ(B) = 0 .


On observe qu’un ensemble µ-négligeable n’est pas nécessairement dans la tribu E . On définit la µ-complétion
de la tribu E par
E µ := σ E , Nµ .


On rappelle les résultats suivants.

(a) Le théorème A.2.3, page 209, montre que la mesure µ s’étend de manière unique à la tribu µ-complétée
E µ.

On note systématiquement µ cette extension, bien que cela soit un abus de notation. On rappelle qu’une tribu
est dite µ-complète si E = E µ .

(b) On rappelle que l’extension E µ est µ-complète, c’est -à-dire que la tribu E µ complétée par l’extension
de µ à E µ est E µ elle-même.

On rappelle également les faits suivants.

(c) Soit A ∈ E µ . Alors il existe B1 , B2 ∈ E tels que B1 ⊂ A ⊂ B2 , et µ(B2 \B1 ) = 0.

(d) Soit A ∈ E µ . Alors, il existe B ∈ E tels que µ-p.p. 1A = 1B .

(e) Soit f : E → [0, ∞], une fonction E µ -mesurable. Alors il existe, f1R, f2 : E →R[0, ∞], des fonctions
E -mesurables telles que f1 ≤ f ≤ f2 et µ({f1 < f2 }) = 0. De plus, on a E fi dµ = E f dµ, i ∈ {1, 2}.

(f) Soit f : E → K, une fonction E µ -mesurable. Ici, K peut être [0, ∞], R, [−∞, ∞], ou C. Alors il existe,
g : E → K, une fonction RE -mesurable
R telle que µ-p.p. f = g. De plus, si f est µ intégrable, alors il en est
de même pour g et on a E f dµ = E g dµ.

Définition I.3.13 (Augmentation, hypothèses habituelles) Soit (Ω, F , P), un espace de probabilité. On note
NP l’ensemble des P-négligeables. On note F P la tribu P-complétée de F . Pour simplifier les notations, on
continue de noter P l’extension de P à (Ω, F P ). Soit (Gt )t∈R+ , une filtration sur (Ω, F ).

(a) Pour tout t ∈ R+ , on note GtP la P-complétion de la tribu Gt : GtP = σ(Gt , NP ). Il est clair que (GtP )t∈R+
est une filtration sur (Ω, F P ), appelée la P-augmentation simple de (Gt )t∈R+ .
I.3. TEMPS D’ARRÊT. 33

(b) (Gt )t∈R+ satisfait les hypothèses habituelles relativement à P si Gt+


P = G , pour tout t ∈ R .
t + 
Une notion d’augmentation, proche mais distincte, est discutée plus loin en relation avec les processus de
Markov.

Lemme I.3.14 On reprend les notations de la définition I.3.13, qui précède. Alors, GtP +
= σ(Gt+ , NP ), t ∈ R+ .
Preuve: pour tous s > t, Gt+ ⊂ Gs , et donc σ(Gt+ , NP ) ⊂ GsP . Par conséquent, σ(Gt+ , NP ) ⊂ s>t GsP = Gt+ P.
T
Réciproquement, soit A ∈ Gt+ . Pour tout entier n ≥ 1, A ∈ Gt+ 1 et donc il existe Bn ∈ Gt+ 1 tel que P-p.s. 1A =
P P
n n
1Bn . On pose par exemple B = n≥1 p≥n Bp . Il est clair que B ∈ Gt+ ; d’autre part, 1B = lim supn 1Bn et
T S

donc P-p.s. 1A = 1B . Donc A ∈ σ Gt+ , NP . Cela montre Gt+ P ⊂ σ(G , N ) et on conclut.



t+ P 

Travailler avec les filtrations augmentées ne cause en général pas de problème insurmontable, comme le
montre le théorème suivant qui affirme que tout temps d’arrêt relativement à la filtration augmentée coïncide
presque sûrement avec un temps d’arrêt de la filtration d’origine. Ce résultat est utilisé dans la suite de ce cours
pour démontrer la propriété de Markov forte.

Théorème I.3.15 Soit (Ω, F , P), un espace de probabilité. Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit T ,
P)
un (Gt+ o
t∈R+ -temps d’arrêt. Alors, il existe T , un (Gt+ )t∈R+ -temps d’arrêt tel que

P(T o= T ) = 1 et GTP+ = σ(NP , GT o+ ) .


Preuve: pour tout n ∈ N, on pose Tn = 2−n d2n T e, avec la convention que dxe = ∞ ssi x = ∞. Le lemme I.3.5
(i) implique que pour tout k ∈ N∗ ,
{Tn = k2−n } = {(k−1)2−n ≤ T < k2−n } ∈ Gk2
P
−n .

Par le théorème A.2.3, page 209, il existe Bk,n ∈ Gk2S


−n tel que {Tn = k2
−n } ⊂ B
k,n et Bk,n \{Tn = k2
−n } ∈

NP . On pose S
S ensuite C1,n := B1,n et Ck,n := Bk,n \ 1≤`<k B`,n si k ≥ 2. On vérifie que Ck,n ∈ Gk2n et que
C
k∈N∗ k,n = k∈N∗ Bk,n . On définit alors
[
∀k ∈ N∗ , ∀ω ∈ Ck,n Sno (ω) := k2−n et ∀ω ∈ Ω \ Bk,n , Sno (ω) := ∞ .
k∈N∗

Pour tout t ∈ R+ , on voit que {Sno < t} = k<2n t Ck,n ∈ Gt . Donc Sno est un (Gt+ )t∈R+ -temps d’arrêt. On
S
vérifie facilement que P(Sno = Tn ) = 1 et donc
P-p.s. ∀n ∈ N, Sno = Tn . (I.46)
On pose ensuite Tno := inf 0≤p≤n Spo . Le lemme I.3.2 (i) (page 25) implique que Tno est un (Gt+ )t∈R+ -temps
d’arrêt. On observe ensuite que par définition Tn = inf 0≤p≤n Tp partout sur Ω. Donc (I.46) implique que
P-p.s. ∀n ∈ N, Tno = Tn . (I.47)
On définit T o := inf n∈N Tno . La proposition I.3.7 (ii), page 28, entraîne alors que T o est un (Gt+ )t∈R+ -temps
d’arrêt. Comme T = inf n∈N Tn partout sur Ω, (I.47) implique que P(T o = T ) = 1. Comme Tno et Tn ne
prennent que des valeurs dyadiques, (I.47) implique facilement que
GTPn + = σ(NP , GTno ) .
Par la proposition I.3.7 (ii), page 28, on a GTP+ = n∈N GTPn + . Il est ensuite facile de montrer que
T
 \  \
σ NP , GTno + = σ(NP , GTno + ) .
n∈N n∈N

Or la proposition I.3.7 (ii), page 28 entraîne GT o + = n∈N GTno + ,


T
ce qui permet de conclure. 
34 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

Un résultat général de mesurabilité des temps d’arrêt: le théorème du "Début". On introduit la définition
suivante.

Définition I.3.16 (Début) Soit (Ω, F ) un espace mesurable. Soit A ⊂ R+ ×Ω. On pose

∀ω ∈ Ω, DA (ω) = inf{t ∈ R+ : (t, ω) ∈ A} ,

avec la convention que inf ∅ = ∞. La fonction DA : Ω → [0, ∞] est appelée le début de A. 


Sans une hypothèse de mesurabilité sur A, DA n’a aucune raison d’être mesurable. On rappelle la définition
I.2.20, page 24, d’un processus progressivement mesurable et on introduit la notion suivante.

Définition I.3.17 (Ensembles progressivement mesurables) Soit (Ω, F ), un espace mesurable muni de la fil-
tration (Gt )t∈R+ . Un ensemble A ⊂ R+ × Ω est dit progressivement mesurable relativement à (Gt )t∈R+ si
1A : R+ ×Ω → R est un processus progressivement mesurable relativement à (Gt )t∈R+ , c’est-à-dire si pour tout
t ∈ R+ , la fonction
(s, ω) ∈ [0, t]×Ω 7−→ 1A (s, ω)
est B([0, t]) ⊗ Gt -mesurable. 

Exemple I.3.18 Soit (Gt )t∈R+ , une filtration sur un espace mesurable (Ω, F ). Soit T , un (Gt )t∈R+ -temps
d’arrêt. On pose
A := {(t, ω) ∈ R+ ×Ω : T (ω) ≤ t} . (I.48)
Alors, A est un ensemble progressivement mesurable relativement à (Gt )t∈R+ . En effet, on fixe t ∈ R+ et on
observe que
[
{(s, ω) ∈ [0, t]×Ω : 1A (s, ω) = 0} = [0, q]×{ω ∈ Ω : T (ω) > q} ∈ B([0, t]) ⊗ Gt .
q∈Q∩[0,t]

On vérifie alors que


∀ω ∈ Ω : DA (ω) = T (ω) ,
ce qui montre que tout temps d’arrêt est le début d’un ensemble progressivement mesurable. 

Exemple I.3.19 Soit (Gt )t∈R+ , une filtration sur l’espace mesurable (Ω, F ). Soit E, un espace topologique
métrisable. Soit X = (Xt )t∈R+ : Ω → E R+ , supposé progressivement mesurable relativement à (Gt )t∈R+ . Soit
T , un (Gt )t∈R+ -temps d’arrêt. Soit B ∈ B(E). Alors, on vérifie facilement que

A := (t, ω) ∈ R+ ×Ω : T (ω) ≤ t et Xt (ω) ∈ B (I.49)

est un ensemble progressivement mesurable relativement à (Gt )t∈R+ . En effet, si on fixe t ∈ R+ : notons
X t : (s, ω) ∈ [0, t]×Ω 7→ Xs (ω) ∈ E. Comme X est supposé progressivement mesurable, X t est (B([0, t]) ⊗
−1
Gt , B(E))-mesurable et donc X t (E\B) ∈ B([0, t]) ⊗ Gt et on remarque que
−1 [
{(s, ω) ∈ [0, t]×Ω : 1A (s, ω) = 0} = X t (E\B) ∪ [0, q]×{ω ∈ Ω : T (ω) > q} ∈ B([0, t]) ⊗ Gt .
q∈Q∩[0,t]

On remarque ensuite que

∀ω ∈ Ω : DA (ω) = TT,B (ω) = inf{t ∈ [T (ω), ∞[ : Xt (ω) ∈ B },

où TT,B est le premier temps d’atteinte de B par X après T . 


I.4. RÉGULARISATION DES PROCESSUS. MARTINGALES À TEMPS CONTINU. 35

Le théorème suivant, dû à Hunt, permet en général de régler le problème de la mesurabilité des temps d’arrêt.

Théorème I.3.20 (du "Début") Soit (Ω, F , P), un espace de probabilité. Soit (Gt )t∈R+ , une filtration sur
(Ω, F ). Soit A ⊂ R+ × Ω, que l’on suppose progressivement mesurable par rapport à (Gt )t∈R+ . On rap-
pelle la définition du début de A:

∀ ω ∈ Ω, DA (ω) = inf t ∈ R+ : (t, ω) ∈ A
P)
avec la convention que inf ∅ = ∞. Alors, DA est un (Gt+ t∈R+ -temps d’arrêt.

Preuve: elle n’est pas élémentaire et nécessite l’introduction des ensembles analytiques. Une preuve détaillée
est donnée dans la Section A.7 page 229. 

Avant de conclure cette section, notons que le théorème I.3.20 du "Début" combiné avec l’exemple I.3.19
implique immédiatement le corollaire suivant.

Corollaire I.3.21 Soit E un espace topologique métrisable. Soit (Ω, F , P), un espace de probabilité muni de
la filtration (Gt )t∈R+ et du processus (Xt )t∈R+ : Ω → E R+ , supposé progressivement mesurable relativement à
(Gt )t∈R+ . Soit B ∈ B(E) et soit T , un (Gt )t∈R+ -temps d’arrêt. On rappelle les définitions des temps d’atteinte
suivants:
et T+
 
TT,B = inf t ∈ [T, ∞[ : Xt ∈ B T,B = inf t ∈ ]T, ∞[ : Xt ∈ B

avec la convention que inf ∅ = ∞. Alors, TT,B et T+ P


T,B sont des (Gt+ )t∈R+ -temps d’arrêt.

I.4 Régularisation des processus. Martingales à temps continu.


I.4.a Résultats déterministes sur les fonctions régularisables.
Définition I.4.1 (Fonctions régularisables) Une fonction y : R+→ R est dite régularisable si pour tout t ∈ R+ ,

lim yq existe dans R et lim yq existe dans R,


q∈Q∩]t,∞[ q∈Q∩]0,t[
q→t q→t

la seconde condition n’ayant de sens que lorsque t > 0. On note Reg(R+ ), l’ensemble des fonctions de R+
dans R qui sont régularisables. 
Deux remarques.
(1) La définition précédente des fonctions régularisables ne porte en réalité que sur les fonctions y : Q+→ R.
(2) L’ensemble de temps choisi dans la définition précédente des fonctions régularisante est Q+ mais une
définition alternative où Q+ est remplacé par n’importe quel ensemble D ⊂ R+ dénombrable dense fonctionne
tout autant.
L’explication du terme "régularisable" est donnée par le théorème suivant.

Théorème I.4.2 Soit y ∈ Reg(R+ ). On pose

∀t ∈ R+ , xt := lim yq .
q∈Q∩]t,∞[
q→t

Alors, x : R+→ R est une fonction càdlàg.


36 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

Preuve: pour tout t ∈ ]0, ∞[ , on pose


x∗t := lim yq ,
q∈Q∩]0,t[
q→t

qui existe dans R car y ∈ Reg(R+ ). On fixe t ∈ R+ et une suite tn ∈]t, ∞[ (resp. si t 6= 0, tn ∈]0, t[ ), n ∈ N,
telle que tn → t. Par définition de xtn , il existe une suite qn ∈ Q∩]t, ∞[ (resp. qn ∈ Q∩]tn , t[ ), n ∈ N, telle que
|tn −qn | < 2−n et |xtn −yqn | < 2−n . Comme tn → t et comme |tn −qn | < 2−n , on a qn → t. Par définition de
xt (resp. de x∗t ) on a donc yqn → xt (resp. yqn → x∗t ). Comme |xtn −yqn | < 2−n , cela implique que xtn → xt
(resp. xtn → x∗t ), ce qui permet de conclure. 
Nous rappelons ensuite la définition du nombre de montées d’une fonction à valeurs réelles, ce qui permet
ensuite d’établir un critère pratique permettant de déterminer si une fonction est régularisable.

Définition I.4.3 (Nombre de montées) Soit D ⊂ R+ , un sous-ensemble contenant au moins deux points. Soient
a, b ∈ R tels que a < b. Soit y : D → R, une fonction. On note UD (y, [a, b]) le supremum des p ∈ N∗ tels qu’il
existe s1 , t1 , . . . , sp , tp ∈ D satisfaisant:

s1 < t1 < s2 < t2 < . . . < sp < tp et ∀k ∈ {1, . . . , p}, ysk < a et ytk > b . (I.50)

Notons que UD (y, [a, b]) peut être infini, ou bien nul s’il n’existe aucun entier p ∈ N∗ satisfaisant (I.50). 

Théorème I.4.4 Soit y : R+→ R. Alors, les deux assertions suivantes sont équivalentes.

(a) y ∈ Reg(R+ ).

(b) Pour tous a, b ∈ Q tels que a < b et pour tout n0 ∈ N∗ ,



sup |yq | ; q ∈ Q ∩ [0, n0 ] < ∞ et UQ∩[0,n0 ] (y, [a, b]) < ∞ . (I.51)

Preuve: soit y satisfaisant (b). Supposons qu’il existe t ∈ R+ tel que

lim inf yq < lim sup yq ou bien lim inf yq < lim sup yq ,
q∈Q∩]t,∞[ q∈Q∩]t,∞[ q∈Q∩]0,t[ q∈Q∩]0,t[
q→t q→t q→t q→t

le dernier cas supposant que t 6= 0. Il existe donc a, b ∈ Q tels que a < b et tels que a et b soient situés entre les
limites supérieures et inférieures précédentes. On a donc U[0,n0 ] (y, [a, b]) = ∞ pour tout entier n0 > t, ce qui
contredit (b). Par conséquent, on a montré que

∀t ∈ R+ , lim yq et lim yq existent dans [−∞, ∞].


q∈Q∩]t,∞[ q∈Q∩]0,t[
q→t q→t

La première condition de (b) montre que ces limites doivent être dans R, ce qui montre que y est régularisable.
On a donc montré que (b) =⇒ (a).
Montrons la réciproque: supposons l’existence de n0 ∈ N∗ , tel que supq∈[0,n0 ] |yq | = ∞. Comme [0, n0 ] est
compact il existe t ∈ R+ et il existe une suite qn ∈ Q ∩ [0, n0 ], n ∈ N, tel que qn → t et telle que |yqn | > n.
Clairement, la suite (qn )n∈N ne peut pas être stationnaire à t. Par conséquent, ou bien il y a une infinité d’indices
n ∈ N tels que qn < t, et alors
lim yq n’existe pas dans R.
q∈Q∩]0,t[
q→t
I.4. RÉGULARISATION DES PROCESSUS. MARTINGALES À TEMPS CONTINU. 37

ou bien il y a une infinité d’indices n ∈ N tels que qn > t, et alors


lim yq n’existe pas dans R.
q∈Q∩]t,∞[
q→t

Autrement dit, on a montré que s’il existe n0 ∈ N∗ , tel que supq∈[0,n0 ] |yq | = ∞, y n’est pas régularisable.
Supposons ensuite qu’il existe n0 ∈ N∗ et a, b ∈ Q tel que a < b et U[0,n0 ] (y, [a, b]) = ∞. Il y a alors un sens
à poser t := inf{s ∈ R+ : U[0,s] (y, [a, b]) = ∞}, qui est un réel positif fini. Il est facile de vérifier que
lim inf yq ≤ a < b ≤ lim sup yq ou bien lim inf yq ≤ a < b ≤ lim sup yq ,
q∈Q∩]t,∞[ q∈Q∩]t,∞[ q∈Q∩]0,t[ q∈Q∩]0,t[
q→t q→t q→t q→t

ce qui implique que y n’est pas régularisable. Cela montre que (a) =⇒ (b), par contraposition. 

Le critère précédent implique notamment que l’ensemble des fonctions régularisables est mesurable pour
la tribu produit sur l’espace des fonctions de R+ dans R.

Théorème I.4.5 Reg(R+ ) ∈ B(R)⊗R+ .


Preuve: on fixe n0 ∈ N∗ et on se donne une énumération (qm )m∈N de l’ensemble Q ∩ [0, n0 ]. Pour tout k ∈ N∗ ,
on pose 
Am (k, n0 ) := y = (yt )t∈R+∈ RR+ : |yq0 | < k; |yq1 | < k; . . . ; |yqm | < k .
Cet ensemble est clairement un cylindre élémentaire de RR+ . Donc Am (k, n0 ) ∈ B(R)⊗R+ . On en déduit donc
que
\ [ \
A := y = (yt )t∈R+∈ RR+ : ∀n0 ∈ N∗ , sup |yq | < ∞ = Am (k, n0 ) ∈ B(R)⊗R+ . (I.52)

q∈Q∩[0,n0 ] n0 ∈N∗ k∈N∗ m∈N

On fixe ensuite a, b ∈ Q tels que a < b. On fixe également n0 ∈ N∗ . Pour tous s1 , t1 , . . . , sp , tp ∈ Q ∩ [0, n0 ], on
pose 
Cs1 ,t1 ,...,sp ,tp (a, b) = y = (yt )t∈R+∈ RR+ : |ys1 | < a; |yt1 | > b; . . . ; |ysp | < a; |ytp | > b .
Il est clair que Cs1 ,t1 ,...,sp ,tp (a, b) est un cylindre élémentaire de RR+ . Donc Cs1 ,t1 ,...,sp ,tp (a, b) ∈ B(R)⊗R+ .
On note Ip,n0 l’ensemble des (2p)-uplets s1 , t1 , . . . , sp , tp ∈ Q ∩ [0, n0 ] tels que s1 < t1 < . . . < sp < tp . Il est
clair que Ip,n0 est dénombrable. On remarque ensuite que
[
∀p, n0 ∈ N∗ ,

y = (yt )t∈R+∈ RR+ : UQ∩[0,n0 ] (y, [a, b]) ≥ p = Cs1 ,t1 ,...,sp ,tp (a, b) ,
(s1 ,t1 ,...,sp ,tp )∈Ip,n0

qui est donc dans B(R)⊗R+ . Cela implique que y ∈ RR+ 7→ UQ∩[0,n0 ] (y, [a, b]) est B(R)⊗R+ -mesurable. Par
conséquent,
\ [
y = (yt )t∈R+∈ RR+ : UQ∩[0,n0 ] (y, [a, b]) ≤ p ∈ B(R)⊗R+ .

B :=
n0 ∈N∗ p∈N

On remarque ensuite que A ∩ B est l’ensemble des fonctions y de R+ dans R qui satisfont la condition (b) du
théorème I.4.4; ce même théorème montre alors que Reg(R+ ) = A ∩ B, ce qui est le résultat voulu. 

Corollaire I.4.6 Soit (Ω, F ), un espace mesurable. Soit Y = (Yt )t∈R+ : Ω → RR+ , un processus (F , B(R)⊗R+ )-
mesurable. Alors,
Y ∈ Reg(R+ ) ∈ F∞ o
(Y ) ⊂ F ,


où on rappelle que F∞
o (Y ) est la tribu engendrée par le processus Y .

Preuve: conséquence immédiate du théorème I.4.5. 


38 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

I.4.b Martingales en temps continu: définition, régularisation.


Dans toute cette section l’espace de probabilité de référence est (Ω, F , P). À plusieurs reprises, nous consid-
érons l’espérance conditionnelle par rapport à des filtrations complétées en utilisant le résultat suivant.

Lemme I.4.7 Soit G ⊂ F , une tribu. On rappelle que G P et F P sont les tribus P-complétées associées à G
et F . Alors pour toutes v.a. Z1 , Z2 : Ω → R qui sont F P -mesurables bornées et pour toute tribu H telles
que
P-p.s. Z1 = Z2 et G ⊂ H ⊂ G P ,
on a P-p.s. E[Z1 | H ] = E[Z2 | G ].
Preuve: soit A ∈ H . Comme H ⊂ G P , le théorème A.2.4, page 209 implique l’existence de B ∈ G tel que
P-p.s. 1A = 1B et donc P-p.s. 1A Z1 = 1B Z2 . Donc
E[1A Z1 ] = E[1B Z2 ] = E 1B E[Z2 | G ] = E 1A E[Z2 | G ] .
   

car on a également P-p.s. 1B E[Z2 | G ] = 1A E[Z2 | G ]. Comme E[Z2 | G ] est H -mesurable puisque G ⊂ H ,
et que l’égalité précédente est valable pour tout A ∈ H , on en déduit le résultat voulu. 

Définition I.4.8 (Martingales en temps continu) Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit M = (Mt )t∈R+ ,
un processus réel. C’est une martingale (resp. sur-martingale, sous-martingale) s’il satisfait les conditions
suivantes.

(a) M est (Gt )t∈R+ adapté, c’est-à-dire que pour tout t ∈ R+ , Mt est Gt -mesurable.
 
(b) Pour tout t ∈ R+ , E |Mt | < ∞.

(c) Pour tous s, t ∈ R+ ,


P-p.s. E[Ms+t |Gt ] = Mt (resp. E[Ms+t |Gt ] ≤ Mt , E[Ms+t |Gt ] ≥ Mt ).

Le processus M peut n’être que défini sur un sous-intervalle de R: la notion de (sur/sous-)martingale associée
est claire, sauf en ce qui concerne les extrémités de l’intervalle de définition. 
Nous énonçons et prouvons un résultat dû à Doob qui montre que les sur-martingales sont p.s. des fonctions
régularisables (cela est utilisé dans le théorème de régularisation des processus de Feller). On adopte ici une
convention, relativement standard, qui consiste à annoter processus et filtrations "bruts" par le symbole o en
exposant, et à noter sans ce symbole les processus et filtrations régularisés.

Théorème I.4.9 (Régularisation des martingales de Doob) Soit (Gto )t∈R+ , une filtration sur (Ω, F ). Soit M o =
(Mto )t∈R+ , une sur-martingale relativement à (Gto )t∈R+ . On note Gt := σ(NP , Gt+ o ), t ∈ R , où N désigne
+ P
o o
l’ensemble des P-négligeables. On pose Ω := {M ∈ Reg(R+ )}. Alors,
Ωo ∈ F ∞
o
(Y ) et P(Ωo ) = 1 . (I.53)
Pour tout t ∈ R+ et tout ω ∈ Ω, on pose ensuite
Mt (ω) := lim Mqo (ω) si ω ∈ Ωo et Mt (ω) := 0 si ω ∈ Ω\Ωo .
q∈Q∩]t,∞[
q→t

Alors les assertions suivantes sont vérifiées.


I.4. RÉGULARISATION DES PROCESSUS. MARTINGALES À TEMPS CONTINU. 39

(i) Pour tout ω ∈ Ω, t 7→ Mt (ω) est càdlàg.

(ii) Pour tout t ∈ R+ , M := (Mt )t∈R+ est une (Gt )t∈R+ -sur-martingale qui est càd dans L1 , c’est-à-dire
 
∀t ∈ R+ , lim E |Mt+h −Mt | = 0 .
h→0
h>0

(iii) M est une modification de M o (c’est-à-dire P(Mt = Mto ) = 1, t ∈ R+ ) si et seulement si M o est càd
dans L1 c’est-à-dire  o
−Mto | = 0 .

∀t ∈ R+ , lim E |Mt+h
h→0
h>0

(iv) SiM o est o


 une (Gt )t∈R+ -sur-martingale, alors M est une modification de M si et seulement si t 7→
o
E |Mt | est càd.

(v) Si M o est P-p.s. càd, alors c’est une une (Gt )t∈R+ -sur-martingale et M o est indistinguable de M .

Le processus M est appelé la sur-martingale régularisée associée à M o . L’énoncé reste vrai lorsque le mot
sur-martingale est remplacé par le mot martingale.
Preuve: on fixe n0 ∈ N∗ . L’ensemble des rationnels étant dénombrable dense dans R, il possible de trouver des
ensembles Dm := {0 = qm,0 < qm,1 < . . . < qm,m−1 < qm,m = n0 } ⊂ Q ∩ [0, n0 ], m ∈ N, tels que:
[
∀m ∈ N, Dm ⊂ Dm+1 et Dm = Q ∩ [0, n0 ].
m∈N

On remarque alors que pour tout m ∈ N,

(Mqom,k )k∈[[0,m]] est une (Gqom,k )k∈[[0,m]] -sur-martingale à temps discret et à horizon fini, (I.54)

selon la définition B.6.1 (page 256). L’inégalité maximale pour les sur-martingales (théorème B.6.7, page 258)
implique que  1
∀k ∈ N∗ , P sup |Mqo | ≥ 3k ≤ k 4E |M0o | + 3E |Mno0 | .
   
q∈Dm
o o
S
S Dm ⊂ Dm+1 , on ao {supq∈Dm |Mq | ≥ 3k} ⊂ {sup
Comme
o
q∈Dm+1 |Mq | ≥ 3k}. Puisque m∈N Dm = Q∩[0, n0 ],
on a m∈N {supq∈Dm |Mq | ≥ 3k} = {supq∈Q∩[0,n0 ] |Mq | ≥ 3k}. Par conséquent,
1
sup |Mqo | ≥ 3k = lim P sup |Mqo | ≥ 3k ≤ 4E |M0o | + 3E |Mno0 | −−−−→ 0
     
P k
(I.55)
q∈Q∩[0,n0 ] m→∞ q∈Dm k→∞

Comme cela est valable pour tout n0 ∈ N∗ , on a montré

P-p.s. ∀n0 ∈ N∗ , sup |Mqo | < ∞ . (I.56)


q∈Q∩[0,n0 ]

On fixe ensuite a, b ∈ Q tels que a < b. L’inégalité de Doob (théorème B.6.4, page 257) appliquée à la
sur-martingale (I.54) implique que

∀m ∈ N, (b−a)E UDm (M o , [a, b]) ≤ E (Mno0 − a)− ≤ E |Mno0 | + |a| .


     
40 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.

On remarque ensuite que m 7→ UDm (M o , [a, b]) croît et que limm→∞ UDm (M o , [a, b]) = UQ∩[0,n0 ] (M o , [a, b]).
Le théorème de convergence monotone implique alors que

 E |Mno0 | + |a|
 
o o
  
E UQ∩[0,n0 ] (M , [a, b]) = lim E UDm (M , [a, b]) ≤ <∞
m→∞ b−a
Comme cela est valable pour tous les rationnels a < b, on a déduit que

P-p.s. ∀a, b ∈ Q tels que a < b, UQ∩[0,n0 ] (M o , [a, b]) < ∞ . (I.57)

Le critère de régularisation déterministe donné au théorème I.4.4 (page 36) combiné au corollaire I.4.6 (page
37) et à (I.56) et (I.57) implique (I.53). Le théorème I.4.2, page 35, implique immédiatement (i).
Montrons (ii). On fixe t ∈ R+ et une suite qn ∈ Q∩]t, ∞[, n ∈ N, qui décroît vers t. On pose alors
Z := lim inf n→∞ Mqon qui est à valeurs dans [−∞, ∞]. Il est clair que Z est Gt+ o -mesurable. Or P-p.s. Z = M ,
t
donc Mt est σ(Gt , NP )-mesurable. Le lemme I.3.14, page 33, montre que Gt+ = σ(NP , Gt+ ). Donc M est
o P o

(Gt )t∈R+ -adapté.


Soit s ∈ ]0, ∞[ . Soit qn ∈ Q∩ ]t, t + s] , n ∈ N, une suite qui décroît vers t telle que q0 := s + t. Les
tribus (Gqon )n∈N forment une filtration rétrograde. Comme M o est une sur-martingale, pour tout n ∈ N, on a
P-p.s. E[Mqon |Gqon+1 ] ≤ Mqon+1 , ce qui montre que (Mqon )n∈N est une (Gqon )n∈N -sur-martingale rétrograde. Par
définition de M , on a P-p.s. limn Mqon = Mt et le théorème théorème B.6.15 de convergence des martingales
rétrogrades implique aussi que Mt est intégrable et que

lim E |Mqon −Mt | = 0 et ∀n ∈ N, P-p.s. E Mqon Gt+


   o
≤ Mt (I.58)
n→∞

car Gt+
o =
n∈N Gqn .
o
T
En considérant (I.58) pour n = 0, comme q0 = s + t, on en déduit que

Gt+ ≤ Mt .
 o o
∀s, t ∈ R+ , P-p.s. E Mt+s (I.59)

∞[, n ∈ N, une suite qui tend vers t + s; on a montré que limn E |Mron −Mt+s | = 0 et par
 
Soit rn ∈ Q∩ ]t + s,
(I.59) E[Mron |Gt+
o ≤ M . Or

t

E |E[Mron |Gt+o o
| ≤ E E |Mron −Mt+s | Gt+
o 
= E |Mron −Mt+s | −−−→ 0 .
      
−E[Mt+s |Gt+
n→∞

On extrait de cette convergence L1 une convergence presque sûre et en passant à la limite dans les inégalités
E[Mron |Gt+ o ≤ M , on obtient

t

∀s, t ∈ R+ , P-p.s. E Mt+s Gt+


 o
≤ Mt . (I.60)

Enfin le lemme I.4.7 implique que P-p.s. E Mt+s Gt+ = E Mt+s Gt , et (I.60) implique que M est une
 o  

(Gt )t∈R+ -sur-martingale.


Il reste à montrer que M est càd dans L1 . Le théorème B.6.15 de convergence des martingales rétrogrades
implique que pour toute suite tn ∈ ]t, ∞[ , n ∈ N, décroissant vers t, limn Mtn = Mt p.s. et dans L1 , c’est-à-dire
limn E[|Mtn −Mt |] = 0. Autrement dit, limh>0,h→0 E[|Mt+h −Mt |] = 0, ce qui  termine la preuve de (ii).
La preuve de (iii) découle de (I.58): si M est càd dans L , alors limn E |Mqn −Mt | = E[|Mto −Mt |] et
o 1 o

(I.58) implique que E[|Mto −Mt |] = 0 et donc M est une modification de M o . Réciproquement, si M est une
modification de M o , alors E[|Mt+h −Mt |] = E[|Mt+h o −M o |] et M o est càd dans L1 car M l’est, par (ii).
t
Montrons (iv): si M o est une (Gt )t∈R+ -sur-martingale, pour toute suite qn ∈ Q∩ ]t, ∞[ , n ∈ N, on a P-
p.s. E[Mqon |Gt ] ≤ Mto . Or (i) et le théorème B.6.15 des martingales rétrogrades implique que limn Mqon = Mt
I.4. RÉGULARISATION DES PROCESSUS. MARTINGALES À TEMPS CONTINU. 41

p.s. et dans L1 , ce qui implique, en passant à la limite dans les inégalités précédente que Mt = E[Mt |Gt ] ≤ Mto .
Or si s 7→ E[Mso ] est càd, alors la convergence des Mqon dans L1 vers Mt implique que E[Mt ] = E[Mto ] et
comme Mt ≤ Mto , on a P-p.s. Mt = Mto et M est une modification de M o . Réciproquement, comme M est
càd dans L1 , si M o est une modification de M , on E[Mt ] = E[Mto ] et t 7→ E[Mto ] est càd.
Montrons (v): si M o est P-p.s. càd, alors pour tout t ∈ R+ , P-p.s. Mt = Mto et M est une modication de
M . Comme M o et M sont càd, la proposition I.2.18, page 23, implique que M et M o sont indistiguables. Le
o

lemme I.4.7 implique que pour tous s, t ∈ R+ , E[Mt+s o |G o ] = E[M o |G ] et donc M o est une (G )
t t+s t t t∈R+ -sur-
martingale. Cela termine la preuve de (v) et celle du théorème. 
42 CHAPTER I. GÉNÉRALITÉS SUR LES PROCESSUS.
Chapter II

Généralités sur les processus Markoviens.

Le Chapitre II présente les résultats fondamentaux sur les processus de Markov: loi du 0-1 de Blumenthal,
critère pour la propriété de Markov forte, continuité à droite des filtration naturelles complétés, quasi-continuité
à gauche, durée de vie, régularisation des processus de Feller-Dynkin, etc. Une présentation générale des
processus de Markov est donnée dans le premier chapitre de l’ouvrage de Blumenthal & Getoor [7]. Un exposé
plus élémentaire est donné dans le livre de Revuz & Yor [8] (Chapter III). Nous renvoyons également à la
présentation donnée dans le premier tome de Rogers & Williams [9] (Chapter III). Pour un traitement plus
complet le lecteur peut consulter l’ouvrage de Dynkin [5]. Pour une présentation de théories plus générales,
nous renvoyons le lecteur aux ouvrages de Dellacherie & Meyer, notamment [4].

Brève bibliographie.

B LUMENTHAL , R. M., AND G ETOOR , R. K. Markov processes and potential theory. Pure and Applied
Mathematics, Vol. 29. Academic Press, New York-London, 1968.
D ELLACHERIE , C., AND M EYER , P.-A. Probabilités et potentiel. Chapitres XII–XVI, second ed. Publi-
cations de l’Institut de Mathématiques de l’Université de Strasbourg, XIX. Hermann, Paris, 1987. Théorie du
potentiel associée à une résolvante. Théorie des processus de Markov. Actualités Scientifiques et Industrielles,
1417.
DYNKIN , E. B. Markov processes. Vols. I, II, vol. 122 of Translated with the authorization and assis-
tance of the author by J. Fabius, V. Greenberg, A. Maitra, G. Majone. Die Grundlehren der Mathematischen
Wissenschaften, Bände 121. Academic Press Inc., Publishers, New York; Springer-Verlag, Berlin-Göttingen-
Heidelberg, 1965.
R EVUZ , D., AND YOR , M. Continuous Martingales and Brownian Motion, third edition ed., vol. 293.
Springer, 1999.
ROGERS , L. C. G., AND W ILLIAMS , D. Diffusions, Markov processes, and martingales. Vol. 1. Cam-
bridge Mathematical Library. Cambridge University Press, Cambridge, 2000. Foundations, Reprint of the
second (1994) edition.

II.1 Noyaux Markoviens, semi-groupes associés.


Dans cette section nous introduisons la notion de noyaux (sous-) Markoviens en nous limitant au minimum
requis pour la suite de ce chapitre sans épargner au lecteur quelques détails techniques cependant.

43
44 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

Notations. En général, l’espace d’états est noté E. Il est toujours muni d’une tribu notée E . La plupart du
temps E est muni d’une topologie et on prend E = B(E), la tribu des Boréliens associée à cette topologie.
Pour de nombreuses applications, E est supposé métrisable séparable et très souvent localement compact à
base dénombrable (en abrégé: LCBD). On introduit les notations suivantes.
• On note Mf (E) l’espace des mesures µ : E → R+ de masse finie.
• On note M1 (E) l’espace des mesures de probabilité µ : E → [0, 1].
• On note L(E) l’espace des fonctions f : E → R qui sont E -mesurables.
• On note Lb (E) l’espace des fonctions f : E → R qui sont E -mesurables et bornées.
• On note L+ (E) l’espace des fonctions f : E → [0, ∞] qui sont E -mesurables.
Les définitions suivantes n’ont de sens que si E est muni d’une topologie.
• On note C(E) l’espace des fonctions f : E → R continues.
• On note Cb (E) l’espace des fonctions f : E → R continues bornées.
• On note Cc (E) l’espace des fonctions f : E → R continues à support compact.
• Si E est un LCBD, on note (E∂ , d) une compactification comme dans le théorème I.1.15. On note C0 (E)
l’ensemble des fonctions continues f : E → R telles que f (x) → 0 dès que d(x, ∂) → 0. Autrement dit,
C0 (E) est l’ensemble des fonctions continues f sur E se prolongeant continûment à E∂ par f (∂) = 0.
• Pour toute fonction f : E → R, on note kf k∞ = supx∈E |f (x)|, la norme infinie de f . 

Théorème II.1.1 Soit E un espace polonais. Alors (Cb (E), k·k∞ ) est un espace de Banach. De plus, si E est
un espace LCBD, alors l’adhérence de Cc (E) pour k·k∞ est C0 (E), qui est un Banach séparable.

Noyaux Markoviens et semi-groupe associé. On rappelle la définition I.1.1 des noyaux de sous-probabilité.
Le lecteur est invité à parcourir la section (I.1.a) page 1 qui détaille quelques propriétés des noyaux.

Définition II.1.2 (Noyaux sous-Markoviens) Soit (E, E ) un espace mesurable. Pour tout t ∈ R+ et tout
x ∈ E, soit pt (x, dy), une mesure positive sur E . La famille de mesures (pt (x, dy))t∈R+ ,x∈E sont des noyaux
sous-markoviens si les propriétés suivantes sont vérifiées.

(a) Pour tout t ∈ R+ et tout x ∈ E, pt (x, ·) est une sous-probabilité, c’est-à-dire que pt (x, E) ≤ 1. Si les
pt (x, ·) sont conservatifs, c’est-à-dire si pt (x, E) = 1 pour tout t ∈ R+ et tout x ∈ E, alors on parle de
noyaux Markoviens.

(b) (Mesurabilité) Pour toute f ∈ Lb (E) et pour tout t ∈ R+ ,


Z
x ∈ E 7−→ pt (x, dy)f (y) ∈ R
E

est une application E -mesurable (on remarque qu’elle est nécessairement bornée).

(c) (Kolmogorov-Chapman) Pour toute f ∈ Lb (E), pour tous s, t ∈ R+ et tout x ∈ E,


Z Z Z 
ps+t (x, dy) f (y) = ps (x, dy) pt (y, dz) f (z) , (II.1)
E E E

qui a bien un sens par (b).


II.1. NOYAUX MARKOVIENS, SEMI-GROUPES ASSOCIÉS. 45

(d) (Normalité) Pour tout x ∈ E, p0 (x, dy) = δx (dy), la masse de Dirac en x. 

Définition II.1.3 (Semi-groupe associé à des noyaux sous-Markoviens) Soit (E, E ), un espace mesurable.
Soient (pt (x, dy))t∈R+ ,x∈E , des noyaux sous-Markoviens. Pour tout t ∈ R+ , on définit Pt : Lb (E) → Lb (E)
en posant Z
∀f ∈ Lb (E), ∀x ∈ E, Pt f (x) = pt (x, dy) f (y) .
E
Il est clair que les Pt , t ∈ R+ , sont des applications linéaires. On appelle (Pt )t∈R+ le semi-groupe associé à
(pt (x, dy))t∈R+ ,x∈E , cette appellation étant justifiée par la proposition suivante. 

Proposition II.1.4 Soit (E, E ) un espace mesurable. Soit (Pt )t∈R+ , le semi-groupe associé aux noyaux sous-
Markoviens (pt (x, dy))t∈R+ ,x∈E . Les propriétés suivantes sont vérifiées.
(i) Pour tout t ∈ R+ et pour toute fonction f ∈ Lb (E), kPt f k∞ ≤ kf k∞ . De plus
∀t ∈ R+ , ∀f ∈ Lb (E), 0 ≤ f ≤ 1 =⇒ 0 ≤ Pt f ≤ 1 .

(ii) Propriété de semi-groupe pour la composition d’endomorphismes sur Lb (E):


∀s, t ∈ R+ , Ps+t = Pt Ps .

(iii) Si les noyaux sont Markoviens, alors Pt 1E = 1E , pour tout t ∈ R+ .

(iv) Comme les noyaux sont normaux, P0 = Id, c’est-à-dire P0 f = f , pour toute f ∈ Lb (E).
Preuve: conséquence immédiate de la définition des noyaux sous-Markoviens. 

Exemple II.1.5 Ici, E = Rn est muni de la topologie associée à la norme Euclidienne k·k dont le produit
scalaire est noté h·, ·i. On pose
1
∀x ∈ Rn , ∀t ∈ ]0, ∞[ , pt (x, dy) = (2πt)−n/2 exp − 2t ky−xk2 dy


et p0 (x, dy) := δx (dy). Il est clair que pt (x, ·) est la loi d’une variable Gaussienne de moyenne x et de
covariance tId. Par ailleurs, pour toute fonction f ∈ Lb (Rn ), on a
Z
1 2
Pt f (x) = (2πt) −n/2
f (y)e− 2t ky−xk dy .
Rn
Le théorème de continuité des intégrales à paramètre montre que Pt f est continue. Le théorème de convergence
dominée implique également que si f est intégrable sur Rd par rapport à la mesure de Lebesgue, Pt f ∈ C0 (Rn ).
On rappelle que la transformée de Fourier des v.a. Gaussiennes est connues explicitement (voir le lemme B.3.6,
page 245) et en particulier on a
Z
2
∀u ∈ Rn , eihu,yi pt (x, dy) = eihu,xi−tkuk .
Rn
On a donc
Z Z Z Z
ihu,zi −skuk2 ihu,yi −(t+s)kuk2
pt (x, dy) ps (y, dz)e =e pt (x, dy)e =e = pt+s (x, dy)eihu,yi ,
Rn Rn Rn Rn
ce qui implique que les pt (x, dy) satisfont l’équation de Kolmogorov-Chapman, par injectivité de la transfor-
mée de Fourier. Cela montre que les pt (x, dy) sont des noyaux Markoviens: ce sont les noyaux du mouvement
Brownien standard dans Rn . 
46 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

Exemple II.1.6 Ici, E = R est muni de la topologie usuelle. On pose


1 t dy
∀x ∈ R, ∀t ∈ ]0, ∞[ , pt (x, dy) =
π (y − x)2 + t2

et p0 (x, dy) = δ0 (dy). On voit que pt (x, dy) est une loi de Cauchy centrée en x et de paramètre t. Par le
théorème de continuité des intégrales à paramètres, Pt f est continue, pour toute fonction f ∈ Lb (R). Un calcul
simple montre que Z
∀u ∈ R, eiuy pt (x, dy) = eiux−t|u| .
R
En raisonnant sur les transformées de Fourier comme dans l’exemple précédent, on montre que les pt (x, dy)
vérifient l’équation de Kolmogorov-Chapman, ce qui montre que les pt (x, dy) sont des noyaux Markoviens: ce
sont les noyaux du processus de Cauchy standard dans R. 

Exemple II.1.7 Ici, E = R+ est muni de la topologie usuelle. On pose

x X xn y n−1 x+y
∀x ∈ R+ , ∀t ∈ ]0, ∞[ , pt (x, dy) = e− t δ0 (dy) + φ(x, y, t)dy où φ(x, y, t) := e− t .
t2n n!(n−1)!
n≥1

et p0 (x, dy) = δ0 (dy). On vérifie que la transformée de Laplace des pt (x, dy) est donnée par
Z  λx 
∀λ, x, t ∈ R+ , pt (x, dy)e−λy = exp − .
R+ 1 + λt

On voit que pt (x, dy) est une loi de probabilité et en utilisant l’injectivité de la transformée de Laplace, on
vérifie que les pt (x, dy) vérifient l’équation de Kolmogorov-Chapman. Par ailleurs, le théorème de continuité
des intégrales à paramètre montre que pour toute fonction f ∈ Lb (R), Pt f est continue donc mesurable. Cela
montre que les pt (x, dy) sont des noyaux Markoviens: ce sont les noyaux de la diffusion de Feller. 

Exemple II.1.8 Ici, (E, E ) est un espace mesurable. On fixe µ ∈ M1 (E). on pose

∀x ∈ R+ , ∀t ∈ R+ , pt (x, dy) = µ(dy) .

On vérifie facilement que les pt (x, dy) sont des noyaux Markoviens (pathologiques). 

Semi-groupes de Feller. Dans la suite, on fait des hypothèses restrictives sur les semi-groupes: essentielle-
ment, ce cours ne porte que sur les processus de Markov dont le semi-groupe est Fellérien dans le sens suivant.

Définition II.1.9 (Semi-groupe de Feller-Dynkin) Soit E, un espace LCBD. Pour tout t ∈ R+ , soit Pt :
C0 (E) → C0 (E), une application linéaire. C’est un semi-groupe de Feller-Dynkin si les conditions suivantes
sont satisfaites.

(a) Semi-groupe: pour tous s, t ∈ R+ , Ps+t = Ps Pt .

(b) Positivité et contractilité: pour tout t ∈ R+ et pour toute fonction f ∈ C0 (E), on a

0≤f ≤1 =⇒ 0 ≤ Pt f ≤ 1 .
II.1. NOYAUX MARKOVIENS, SEMI-GROUPES ASSOCIÉS. 47

(c) Continuité faible: pour toute fonction f ∈ C0 (E) on a

∀x ∈ E, lim Pt f (x) = f (x) ,


t→0

ce qui implique facilement que P0 = Id. 

La définition suivante, proche mais distincte, est parfois introduite.

Définition II.1.10 (Semi-groupe de Feller) Soit E, un espace LCBD. Un semi-groupe de Feller est la donnée
d’applications linéaires Pt : Cb (E) → Cb (E), t ∈ R+ satisfaisant les conditions (a), (b) et (c) de la définition
II.1.10. Le semi-groupe (Pt )t∈R+ est dit fortement Fellérien si en plus t ∈ R+ , Pt : Lb (E) → Cb (E). 
Les exemples II.1.5, II.1.6 et II.1.7 (semi-groupes Browniens, de Cauchy et celui de la diffusion de Feller) sont
fortement Fellériens et Feller-Dynkin. On vérifie tout d’abord qu’un semi-groupe de Feller-Dynkin ou de Feller
est associé à des noyaux sous-Markoviens.

Proposition II.1.11 Soit E, un espace LCBD. Soit (Pt )t∈R+ , un semi-groupe de Feller-Dynkin (ou de Feller).
Alors, (Pt )t∈R+ est le semi-groupe de noyaux sous-Markoviens (pt (x, dy))x∈E,t∈R+ .
Preuve: on montre d’abord

∀t ∈ R+ , ∀f ∈ C0 (E), f ≥ 0 =⇒ Pt f ≥ 0 . (II.2)

En effet on remarque que 0 ≤ kf k−1 −1 −1


∞ f ≤ 1 et donc kf k∞ Pt f = Pt (kf k∞ f ) ≥ 0 par la propriété (b) de la
définition II.1.10. On a donc Pt f ≥ 0. On montre ensuite que

∀t ∈ R+ , ∀f ∈ C0 (E), kPt f k∞ ≤ kf k∞ . (II.3)

Pour cela, on pose g = kf k−1


∞ f . On a donc |g| − g ≥ 0. Le point précédent implique que

Pt |g| − kf k−1
∞ Pt f = Pt (|g| − g) ≥ 0 .

Donc Pt f ≤ kf k∞ Pt |g|. Or 0 ≤ |g| ≤ 1 et la propriété (b) de la définition II.1.10 implique que Pt |g| ≤ 1, et donc
que Pt f ≤ kf k∞ . On raisonne de même avec −f , ce qui implique que −Pt f ≤ kf k∞ , ce qui prouve (II.3).
Pour tout x ∈ E et t ∈ R+ , on observe que f ∈ Cc (E) 7→ Pt f (x) ∈ R est une forme linéaire positive.
R le théorème de Riesz, il existe une mesure de Radon pt (x, ·) : B(E) → [0, ∞] telle que Pt f (x) =
Par
E pt (x, dy) f (y), ce qui s’étend immédiatement à toute fonction f ∈ C0 (E).
Montrons ensuite les propriétés de mesurabilité en x des pt (x, dy). On note (E∂ , d) un compactifié de E.
Soit U , un ouvert de E; pour tout n ∈ N, on pose fn (x) = 1∧(nd(x, E∂ \U )). Comme x 7→ d(x, E∂ \U ) est
Lipschitzienne, fn est une fonction continue. Par ailleurs, fn (x) ≤ nd(x, ∂) et donc fn ∈ C0 (E); on vérifie
de plus que fn ≤ fn+1 R ≤ 1U et limn fn = 1U ponctuellement. Par convergence monotone, pour tout x ∈ E,
limn Pt fn (x) = limn E pt (x, dy)fn (y) = pt (x, U ). Comme les Pt fn sont B(E)-mesurables (car continues),
il en est de même pour x ∈ E 7→ pt (x, U ). En appliquant ce raisonnement avec U = E, on voit R également que
pt (x, E) ≤ 1. On fixe t ∈ R+ et on pose L l’ensemble des fonctions f ∈ Lb (E) telles que x 7→ E pt (x, dy)f (y)
est B(E)-mesurable. On montre facilement que L est un espace vectoriel. On note P la classe des ouverts
de E. Il est clair que P est un pi-système tel que σ(P) = B(E). On a montré ci-dessus que pour tout U ∈ P,
1U ∈ L . Enfin, le théorème de convergence monotone implique que L est stable par limite ponctuelle de
suites croissantes de fonctions dans L uniformément bornées. L satisfait donc les hypothèses du théorème
A.1.20 de la classe monotone dans sa version fonctionnelle (page 207) et donc L = Lb (E). Par ailleurs, le fait
48 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

que P0 = Id implique facilement que les noyaux sont normaux. L’équation de semi-groupe entraîne enfin que
les noyaux pt (x, dy) satisfont l’équation de Kolmogorov-Chapman. 

Comme déjà mentionné, les notions de semi-groupe de Feller-Dynkin et de Feller ne coïncident pas mais si
E est un espace compact, on a

C0 (E) = Cb (E) = C(E) et Feller-Dynkin= Feller.

La proposition suivante donne deux conditions permettant de montrer qu’un Feller est Feller-Dynkin.

Proposition II.1.12 On suppose E LCBD. Soit (Pt )t∈R+ un semi-groupe de Feller dont on note pt (x, dy),
x ∈ E, t ∈ R+ , les noyaux sous-Markoviens associés. Soit (E∂ , d) un compactifié habituel de E. Alors, les
assertions suivantes sont équivalentes.

(i) (Pt )t∈R+ est Feller-Dynkin.

(ii) Pour tout compact K ⊂ E et pour tout t ∈ R+ , pt (x, K) → 0 lorsque d(x, ∂) → 0.

(iii) Il existe f ∗ ∈ C0 (E) telle que f ∗ (x) > 0, pour tout x ∈ E et telle que pour tout t ∈ R+ , Pt f ∗ ∈ C0 (E).
Preuve: On suppose (i) et on pose f ∗ (x) := d(x, ∂), qui satisfait (iii). Ensuite, on suppose (iii) et on en déduit
(ii): soit K un compact de E; comme f ∗ est continue, il existe x0 ∈ K, tel que inf K f ∗ = f ∗ (x0 ) := a > 0; on
remarque alors que Pt f ∗ (x) ≥ Pt (f ∗ 1K )(x) ≥ apt (x, K), ce qui implique (ii).
On suppose (ii) et on montre (i). Soient f ∈ C0 (E), t ∈ R+ et ε > 0. Il existe η > 0 tel que kf 1B(∂,η) k∞ < ε,
où B(∂, η) désigne la boule ouverte centrée en ∂ et de rayon η. On pose ensuite Kη := E∂ \B(∂, η), qui est un
compact de E et on remarque que

|Pt f (x)| ≤ |Pt f 1Kη (x)| + |Pt (f 1B(∂,η) )(x)| ≤ kf k∞ pt (x, Kη ) + kf 1B(∂,η) k∞ ≤ kf k∞ pt (x, Kη ) + ε,

ce qui implique que lim supx→∂ |Pt f (x)| ≤ ε, et ce, pour tout ε > 0, ce qui implique que Pt f ∈ C0 (E). 

Nous introduisons ci-dessous une hypothèse de régularité des semi-groupes qui n’est pas standard: c’est une
coquetterie technique, minimale pour certains raisonnements communs aux deux hypothèses Feller et Feller-
Dynkin; elle se présente de manière pratique. Il ne faut pas y accorder plus d’importance que cela (d’autant
qu’elle est toujours accompagnée d’une hypothèses de continuité à droite des processus dont les conséquences
sont importantes).

Définition II.1.13 (Hypothèse (H)) Soit E, un espace topologique muni de la tribu des Boréliens B(E). Soient
des noyaux sous-Markoviens (pt (x, dy))t∈R+ ,x∈E . Soit (Pt )t∈R+ , le semi-groupe associé. On dit qu’il satisfait
l’hypothèse (H) s’il existe:

– un sous-ensemble L de fonctions continues bornée: L ⊂ Cb (E) (pas nécessairement un esp. vect.),

– un pi-système P d’ensembles de E tel que σ(P) = B(E),

qui satisfont les conditions suivantes.

(a) Pour tout A ∈ P, il existe une suite de fonctions fn ∈ L, n ∈ N, telles que 0 ≤ fn ≤ fn+1 et telle que
limn fn = 1A ponctuellement.
II.1. NOYAUX MARKOVIENS, SEMI-GROUPES ASSOCIÉS. 49

(b) Pour toute fonction f ∈ L et tout t ∈ R+ , Pt f ∈ Cb (E). 

On observe que L n’est pas nécessairement laissé stable par le semi-groupe. L’hypothèse (a) assure que L
est suffisamment riche et permet d’appliquer des raisonnements de classe monotone. La proposition suivante
montre que les semi-groupes de Feller et de Feller-Dynkin satisfont (H).

Proposition II.1.14 Soit E, un espace topologique LCBD. Soit (Pt )t∈R+ , un semi-groupe de Feller-Dynkin
(resp. de Feller). Alors, les assertions suivantes sont vérifiées.

(i) (Pt )t∈R+ satisfait (H).

(ii) Pour tout x ∈ E et toute fonction f ∈ C0 (E) (resp. Cb (E)), t ∈ R+7→ Pt f (x) est continu à droite et borné
par kf k∞ .

Preuve: on choisit L := C0 (E) (resp. L := Cb (E)) qui vérifie (b) de la définition II.1.13. On note P le
pi-système constitué de E et des ensembles ouverts de E. On a bien σ(P) = B(E). Traitons le cas Feller-
Dynkin, le cas Feller nécessitant les mêmes arguments: on note (E∂ , d) un compactifié métrique habituel de E.
Soit U ∈ P; on pose fn (x) = 1∧(nd(x, E∂ \U )), n ∈ N, x ∈ E. On voit facilement que fn ∈ C0 (E) et que (a)
est vérifié: voir la preuve de la proposition II.1.11, page 47. Donc le semi-groupe satisfait (H).
Montrons (ii): la continuité faible des semi-groupes de Feller-Dynkin (resp. Feller) implique que pour toute
fonction f ∈ C0 (E) (resp. f ∈ Cb (E)) et tout t ∈ R+ ,
lim Pt+s f (x) = lim Ps (Pt f )(x) = Pt f (x) .
s→0 s→0
s>0 s>0

Cela montre que t 7→ Pt f (x) est continu à droite. De plus kPs f k∞ ≤ kf k∞ , ce qui montre (ii). 

Des noyaux sous-Markoviens aux noyaux Markoviens. A partir de noyaux sous-Markoviens on obtient
des noyaux Markoviens par le procédé d’extension minimale suivant.

Définition II.1.15 (Extension minimale) Soit (E, E ), un espace mesurable. Soient (pt (x, dy))x∈E,t∈R+ , des
noyaux sous-Markoviens et (Pt )t∈R+ , leur semi-groupe associé. On choisit un point ∂ qui n’est pas dans E,
appelé point d’absorption et on pose E∂ := {∂} ∪ E que l’on munit de la tribu E∂ = {A, {∂} ∩ A ; A ∈ E }.
Notamment, si f ∈ Lb (E∂ ), alors la restriction de f à E notée f|E est dans Lb (E). L’extension minimale des
noyaux sous-Markoviens pt (x, dy) à E∂ est la famille de noyaux (p∂t (x, dy))x∈E∂ ,t∈R+ donnés par comme suit.

(a) Pour tout x ∈ E et tout t ∈ R+ , p∂t (x, ·) = pt (x, · ∩ E) + (1 − pt (x, E))δ{∂} .

(b) Pour tout t ∈ R+ , p∂t (∂, ·) = δ{∂} .

On note Pt∂ : Lb (E∂ ) → Lb (E∂ ) l’opérateur associé à p∂t (x, ·) et on a:


Z
∀f ∈ Lb (E∂ ), ∀x ∈ E, Pt∂ f (x) = p∂t (∂, dy)f (y) = (Pt f|E )(x) + (1 − pt (x, E))f (∂)
E∂

De plus Pt∂ f (∂) = f (∂).


Convention: lorsque E est un espace topologique LCBD, il est d’usage de considérer que E∂ est muni de la
topologie qui en fait le compactifié habituel. On vérifie que B(E∂ ) = {A, {∂} ∩ A ; A ∈ B(E)}. L’extension
minimale préserve le caractère Fellérien des semi-groupes. 
50 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

Lemme II.1.16 On garde les notations de la définition II.1.15. Alors, les noyaux p∂t (x, dy) sont Markoviens
(conservatifs) sur E∂ .
De plus, si E est LCBD, alors (Pt )t∈R+ est Feller-Dynkin si et seulement si son extension minimale

(Pt )t∈R+ est Feller.

Preuve: (p∂t (x, dy); x ∈ E∂ , t ∈ R+ ) vérifie clairement les propriétés (a) et (b) de la définition II.1.3. Il faut
montrer les relations de Kolmogorov-Chapman, c’est-à-dire Ps+t ∂ = P ∂ P ∂ sur L (E ). Pour cela on observe
s t b ∂
que pour toute fonction f ∈ Lb (E∂ ) et tout x ∈ E,
Z
(Ps∂ Pt∂ f )(x) = ps (x, dy) Pt∂ f (y) + (1−ps (x, E)) Pt∂ f (∂)
ZE Z 
= ps (x, dy) pt (y, dz) f (z) + (1−pt (y, E)) f (∂) + (1−ps (x, E)) f (∂)
ZE E
 Z 
= ps+t (x, dz) f (z) + f (∂) 1−ps (x, E) + ps (x, E)− ps (x, dy) pt (y, E)
E E

= (Ps+t f|E )(x) + (1−ps+t (x, E)) f (∂) = Ps+t f (x).

On vérifie ensuite que Ps+t ∂ f (∂) = f (∂) = (P ∂ P ∂ f )(∂), ce qui montre que les p∂ (x, dy) sont des noyaux
s t t
Markoviens.
On suppose ensuite que E est LCBD et que (Pt )t∈R+ est Feller-Dynkin. Soit f ∈ C(E∂ ). On pose f 0 (x) :=
f (x)−f (∂). Il est clair que f 0 ∈ C0 (E) (avec un léger abus de notation). Comme les p∂t (x, dy) sont des noyaux
Markoviens conservatifs, on a Pt∂ 1E∂ = 1E∂ et donc Pt∂ f = Pt f 0 + f (∂)1E∂ . Cela montre que Pt∂ laisse
C(E∂ ) stable. De plus, pour tout x ∈ E, on a limt→0 Pt∂ f (x) = f (∂) + limt→0 Pt f 0 (x) = f (∂) + f 0 (x) = f (x)
et Pt∂ f (∂) = f (∂). Cela montre la continuité faible de (Pt∂ )t∈R+ , qui est donc Feller.
Supposons que (Pt∂ )t∈R+ soit de Feller. Soit f ∈ C0 (E), que l’on voit comme une fonction sur E∂ nulle
en 0. On a Pt∂ f = Pt f , qui est continue. Or par définition de l’extension minimale, Pt∂ f (∂) = f (∂) = 0, on
a bien Pt f ∈ C0 (E). Cela montre que les Pt laissent stables C0 (E): il vient immédiatement que (Pt )t∈R+ est
Feller-Dynkin. 

II.2 Processus de Markov, propriété de Markov simple.


Notations sur les processus. On fixe un espace mesurable (E, E ) et on rappelle quelques notations concer-
nant les processus à valeurs dans E et indexés par R+ : nous renvoyons à la section I.2.d page 19, chapitre
I.
• On note E R+ l’ensemble des fonctions de R+ dans E. Une fonction de E R+ est notée de manière générique
par x = (xt )t∈R+ .
• On note simplement C au lieu de CR+ les cylindres élementaires de E R+ (voir la définition I.2.12, page 19).
• Un cylindre élémentaire antérieur à t est un ensemble de fonctions C tel qu’il existe 0 ≤ t0 < t1 < . . . < tn ≤ t
et B0 , . . . , Bn ∈ E satisfaisant

C = x = (xt )t∈R+ ∈ E R+ : xt0 ∈ B0 ; xt1 ∈ B1 ; . . . ; xtn ∈ Bn (II.4)

On note Ct l’ensemble des cylindres élémentaires antérieurs à t. On remarque que Cs ⊂ Ct , pour tous s, t ∈ R+
tels que s ≤ t.
II.2. PROCESSUS DE MARKOV, PROPRIÉTÉ DE MARKOV SIMPLE. 51

• Filtration canonique: pour tout t ∈ R+ , on note Ftcan la tribu sur E R+ engendrée par le pi-système Ct . On
remarque que pour tous s ≤ t, Fscan ⊂ Ftcan . La filtration (Ftcan )t∈R+ sur E R+ est appelée filtration canonique.
On remarque que
−1
Ftcan = π[0,t] (E ⊗[0,t] ) .

où π[0,t] : E R+ → E [0,t] la projection canonique, c’est-à-dire la restriction à [0, t] des fonctions de R+ à [0, t].
On utilise parfois la notation
F∞ can
= σ(Ftcan ; t ∈ R+ ) = E ⊗R+ .

• Processus canonique: pour tout t ∈ R+ , on pose Xtcan = πt : E R+ → E, la projection canonique de marginale


t. Le processus X can = (Xtcan )t∈R+ est appelé le processus canonique: c’est l’identité sur E R+ . Pour résumer:
on pose Ωcan := E R+ et F can := E ⊗R+ . Alors (Ωcan , F can ) est l’espace canonique des processus à valeurs
dans E indexés par R+ . Le processus canonique est X can et la filtration canonique est (Ftcan )t∈R+ .
• Soient t0 < . . . < tn . On note πt0 ,...,tn la projection qui à x = (xt )t∈R+ ∈ E R+ associe πt0 ,...,tn (x) =
(xt0 , . . . , xtn ) ∈ E n+1 . La remarque I.2.13 affirme les faits suivants: soit (E, E ), un espace mesurable; soit
(Ω, F ), un espace mesurable sur lequel est définie une filtration (Gt )t∈R+ . Soit X = (Xt )t∈R+ : Ω → E R+ , un
processus (F , E ⊗R+ )-mesurable. On note Fto (X) := σ(Xs ; s ∈ [0, t]), pour tout t ∈ R+ , ce qui définit la
filtration naturelle du processus X. On remarque facilement que

Fto (X) = X −1 Ftcan = {X ∈ A} ; A ∈ Ftcan .


 
∀t ∈ R+ ,

De plus, si on pose
Pt := X −1 (Ct ) = {X ∈ A} ; A ∈ Ct ,


alors on vérifie aisément que Pt est un pi-système générant Fto (X).

Notations sur les noyaux. Nous renvoyons à la section I.1.a, page 1 du chapitre I.
• On rappelle la définition I.1.3 page 2 d’un produit de noyaux Markoviens: soit (E, E ), un espace mesurable;
soient p(x, dy) et q(x, dy) deux noyaux de sous-probabilité de E vers E et soit µ ∈ M1 (E). On rappelle que
pour toute fonction B ∈ E ⊗2 , (p ⊗ q)(x, dydz) est un noyau de E sur E 2 et (µ ⊗ p)(dx) est une mesure sur E 2
donnés par
Z Z Z Z
∀x ∈ E, ∀B ∈ E , p⊗q(x, B) = p(x, dy) q(y, dz)1B (y, z) et µ⊗p(B) = µ(dx) p(x, dy)1B (x, y).
2
E E E E

• On rappelle la définition définition I.1.6 page 3 de la composition de noyaux: en gardant les mêmes définitions
pour p, q et µ, la composition de p par q, qui est un noyau de E sur E noté pq(x, dy), et la mesure µp(dx) sur
E, sont donnés par
Z Z
∀x ∈ E, ∀B ∈ E , pq(x, B) = p(x, dy)q(y, B) et µp(B) = µ(dx) p(x, B).
E E

II.2.a Définitions élémentaires des processus de Markov.


Dans cette section nous donnons une première définition des processus Markoviens. Il s’agit d’une définition
minimale, insuffisante pour les applications: elle est amenée à s’étoffer par la suite.
52 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

Définition II.2.1 (Markov 1) Soit (E, E ), un espace mesurable. Soit (pt (x, dy))x∈E,t∈R+ , des noyaux Markoviens.
Soit (Ω, F , P), un espace de probabilité. Soit X = (Xt )t∈R+ : Ω → E R+ , un processus (F , E ⊗R+ )-
mesurable.
Alors, sous P, X est un processus Markovien de noyaux de transition pt (x, dy) et de loi d’entrée µ ∈ M1 (E)
si pour tout n ∈ N et pour tous 0 ≤ t0 ≤ . . . ≤ tn ,

∀ B ∈ E ⊗n+1 , P (Xt0 , . . . , Xtn ) ∈ B = (µpt0 ⊗pt1 −t0 ⊗. . .⊗ptn −tn−1 ) (B) ,




c’est-à-dire que, pour toute fonction f ∈ Lb (E n+1 ),


Z Z
 
E f (Xt0 , . . . , Xtn ) = . . . µ(dx) pt0 (x, dy0 )pt1 −t0 (y0 , dy1 ) . . . ptn −tn−1 (yn−1 , dyn ) f (y0 , y1 , . . . , yn ).
E E

On voit en particulier que la loi de Xt sous P est µpt et donc que la loi de X0 est µp0 . Comme les noyaux sont
normaux, on a µp0 = µ. 
On garde les notations de la définition précédente et on note (Pt )t∈R+ , le semi-groupe associé aux noyaux
pt (x, dy). Soit n ≥ 2, un entier; soient s1 , . . . , sn ∈ R+ et soient f1 , . . . , fn ∈ Lb (E). On définit récursivement
les fonctions g1 , . . . , gn en posant

g1 = Psn fn et ∀k ∈ {1, . . . , n−1}, gk+1 = Psn−k (fn−k gk ) .

En omettant les parenthèses gn s’écrit simplement

gn = Ps1 f1 Ps2 f2 Ps3 . . . fn−1 Psn fn , (II.5)

La proposition suivante donne une formulation équivalente de la définition II.2.1, page 52.

Proposition II.2.2 Soit (E, E ), un espace mesurable. Soit (pt (x, dy))x∈E,t∈R+ , des noyaux Markoviens. On
note (Pt )t∈R+ , leur semi-groupe associé. Soit (Ω, F , P), un espace de probabilité. Soit X = (Xt )t∈R+ : Ω →
E R+ , un processus (F , E ⊗R+ )-mesurable. On rappelle que (Fto (X))t∈R+ est la filtration naturelle de X. Soit
µ ∈ M1 (E). Alors, les assertions suivantes sont équivalentes.

(i) Sous P, X est Markovien de noyaux de transition pt (x, dy) et de loi d’entrée µ ∈ M1 (E).

(ii) Pour tout n ∈ N, pour tous 0 ≤ t0 ≤ . . . ≤ tn et pour toutes f0 , . . . , fn ∈ Lb (E),


h Y i Z
E fk (Xtk ) = µ(dx) (Pt0 f0 Pt1 −t0 f1 Pt2 −t1 . . . fn−1 Ptn −tn−1 fn )(x) .
0≤k≤n E

(iii) La loi de X0 sous P est µ et pour tous s, t ∈ R+ et toute f ∈ Lb (E),

P-p.s. E f (Xt+s ) Fto (X) = Ps f (Xt ) .


 

Preuve: on montre d’abord que (i) ⇔ (ii). On suppose (i); si on choisit f (y0 , . . . , yn ) = f0 (y0 ) . . . fn (yn )
dans la définition II.2.1, on voit immédiatement que (i) implique (ii). Réciproquement, supposons (ii). On
note P la classe de sous-ensembles de E n+1 de la forme A0 ×. . .×An , où A0 , . . . , An ∈ E . Alors P est un pi-
système engendrant E ⊗n+1 . On voit ensuite que pour tout n ∈ N, tous 0 ≤ t0 ≤ . . . ≤ tn et tous A0 , . . . , An ∈ E ,
Z
µ(dx) (Pt0 1A0 Pt1 −t0 . . . 1An−1 Ptn −tn−1 1An )(x) = (µpt0 ⊗ pt1 −t0 ⊗ . . . ⊗ ptn −tn−1 ) (A0 ×. . .×An ) .
E
II.2. PROCESSUS DE MARKOV, PROPRIÉTÉ DE MARKOV SIMPLE. 53

En choisissant fk = 1Ak dans (ii), on voit que cela implique que pour tout C ∈ P, µtX0 ,...,tn (C) = (µpt0 ⊗
pt1 −t0 ⊗ . . . ⊗ ptn −tn−1 )(C), où µtX0 ,...,tn est la loi de (Xt0 , . . . , Xtn ) sous P. Le théorème A.1.11 d’unicité du
prolongement des mesures finies (page 205) s’applique et entraîne que µtX0 ,...,tn = µpt0 ⊗ pt1 −t0 ⊗ . . . ⊗ ptn −tn−1
et comme cela est vrai pour tout n ∈ N et tous 0 ≤ t0 ≤ . . . ≤ tn , on en déduit (i).
Montrons ensuite que (iii) implique (ii) (et donc (i)). On définit g1 , . . . , gn+1 ∈ Lb (E) récursivement en
posant
g1 = Ptn −tn−1 fn et ∀k ∈ {0, . . . , n}, gk+1 = Ptn−k −tn−k−1 (fn−k gk ) ,
avec la convention que t−1 = 0, si bien que gn+1 = Pt0 f0 Pt1 −t0 f1 . . . Ptn −tn−1 fn . On remarque tout d’abord
que (iii) appliqué à s = tn −tn−1 et t = tn−1 implique P-p.s. que
 Y Y Y
fk (Xtk ) Fton−1 (X) = Ptn −tn−1 fn (Xtn−1 )

E fk (Xtk ) = (fn−1 g1 )(Xtn−1 ) fk (Xtk ) .
0≤k≤n 0≤k≤n−1 0≤k≤n−2

EnQ appliquant successivement (iii) aux temps s = tn−kQ −tn−k−1 et t = tn−k−1 , on démontre par récurrence que
E[ 0≤k≤n o
Q fk (Xtk )|Ftn−`−1 (X)] = (fn−` g` )(Xtn−` ) 0≤k≤n−`−1 fk (Xtk ). Pour k = n + 1, cela implique
que E[ 0≤k≤n fk (Xtk )|F0o (X)] = gn+1 (X0 ). En intégrant cette espérance conditionnelle, on obtient bien
(ii).
Montrons que (ii) implique (iii): soit C ∈ Ct , où Ct est la classe des cylindres élémentaires antérieurs à
t (voirles notations en début de section). Il existe n ∈ N, 0 ≤ t0 ≤ . . . ≤ tn ≤ t et A0 , . . . , An ∈ E tels que
C = x ∈ E R+ : xt0 ∈ A0 ; . . . ; xtn ∈ An . On applique (ii) à f0 = 1A0 , . . . , fn = 1An , fn+1 = 1E et
fn+2 = f , tn+1 = t et tn+2 = s + t, et on obtient
  h Y i
E 1{X∈C} f (Xs+t ) = E fk (Xtk )
0≤k≤n+2
Z
= µ(dx) (Pt0 f0 Pt1 −t0 f1 Pt2 −t1 . . . fn+1 Ptn+2 −tn+1 fn+2 )(x)
ZE
= µ(dx) (Pt0 f0 Pt1 −t0 f1 Pt2 −t1 . . . 1E Ps f )(x)
E
h Y i  
= E Ps f (Xt ) fk (Xtk ) = E 1{X∈C} Ps f (Xt ) .
0≤k≤n

Comme {X ∈ C} ; C ∈ Ct est un pi-système engendrant Fto (X) (voir le début de la section), et puisque


Ps f (Xt ) est Fto (X)-mesurable, cela implique (iii), ce qui termine la preuve. 

L’équivalence (i) ⇔ (iii) dans la proposition qui précède suggère une définition plus générale des proces-
sus Markoviens.

Définition II.2.3 (Markov 2) Soit (E, E ), un espace mesurable. Soit (pt (x, dy))x∈E,t∈R+ , des noyaux Markoviens.
On note (Pt )t∈R+ , leur semi-groupe associé. Soit (Ω, F , P), un espace de probabilité. Soit X = (Xt )t∈R+ :
Ω → E R+ , un processus (F , E ⊗R+ )-mesurable. Soit (Gt )t∈R+ , une filtration sur (Ω, F ).
Alors, sous P, X est un processus Markovien relativement à la filtration (Gt )t∈R+ , de noyaux de transition
pt (x, dy) et de loi d’entrée µ ∈ M1 (E) si les conditions suivantes sont vérifiées.

(a) Pour tout t ∈ R+ , Xt est Gt -mesurable. Autrement dit, X est (Gt )t∈R+ -adapté.
54 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

(b) Pour tous s, t ∈ R+ et toute f ∈ Lb (E),

E f (Xt+s ) Gt = Ps f (Xt ) .
 
P-p.s.

(c) La loi de X0 sous P est µ. 

La proposition II.2.2 montre qu’un processus de Markov selon la définition II.2.1 Markov 1 est un processus
de Markov selon la définition II.2.3 Markov 2 relativement à la filtration naturelle du processus. Par ailleurs, il
est clair qu’un processus selon la définition II.2.3 Markov 2 est un processus de Markov selon la définition II.2.1
Markov 1. La définition II.2.3 Markov 2 présente l’avantage de définir le caractère Markovien par rapport à une
filtration plus large que la filtration naturelle du processus, ce qui a son importance dans la suite. Néanmoins,
cette définition reste en partie insuffisante: elle est est enrichie plus loin.

II.2.b Construction des Processus de Markov sur l’espace canonique.


Le théorème suivant montre qu’à tout semi-groupe de noyaux Markoviens sur un espace mesurable régulier,
on peut associer un processus de Markov: ce processus est construit sur l’espace canonique grâce au théorème
d’extension de Kolmogorov (théorème I.2.14, page 20). On rappelle les notations (Ftcan )t∈R+ et (Xtcan )t∈R+
pour resp. la filtration et le processus canonique.

Théorème II.2.4 Soit (E, E ), un espace mesurable supposé régulier. Soient (pt (x, dy))x∈E,t∈R+ , des noyaux
Markoviens. Soit (Pt )t∈R+ , le semi-groupe associé. Alors, pour toute mesure ν ∈ M1 (E), il existe une mesure
de probabilité Pν : E ⊗R+ → [0, 1] telle que le processus canonique X can sous Pν soit un processus Markovien
relativement à la filtration canonique (Ftcan )t∈R+ , de noyaux pt (x, dy) et de loi d’entrée ν.
Preuve: on fixe ν ∈ M1 (E). Pour tout n ∈ N et tous 0 ≤ t0 ≤ . . . ≤ tn on pose µt0 ,...,tn = ν pt0 ⊗pt1 −t0 ⊗. . .⊗
ptn −tn−1 . Soit k ∈ {0, . . . , n}. En appliquant le lemme I.1.8 (page 5), il est facile de vérifier que

µt0 ,...,tn (A0 ×. . .× Ak−1 ×E ×Ak+1 ×. . .×An )


= (ν pt0 ⊗. . .⊗ptk −tk−1 ptk+1 −tk ⊗. . .⊗ptn −tn−1 )(A0 ×. . .× Ak−1 ×Ak+1 ×. . .×An )
= µt0 ,...,tk−1 ,tk+1 ,...,tn (A0 ×. . .× Ak−1 ×Ak+1 ×. . .×An )

car ptk −tk−1 ptk+1 −tk = ptk+1 −tk−1 par l’équation de Kolmogorov-Chapman. Cela montre que les lois µt0 ,...,tn ,
n ∈ N, 0 ≤ t0 ≤ . . . ≤ tn sont compatibles. Le théorème I.2.14 d’extension de Kolmogorov (page 20) entraîne
l’existence de Pν telle que pour tout n ∈ N, pour tous 0 ≤ t0 ≤ . . . ,≤ tn , et tout B ∈ E ⊗n+1 ,

Pν (Xtcan , . . . , Xtcan ) ∈ B = (Pν ◦ πt−1



0 n 0 ,...,tn
)(B) = (ν pt0 ⊗pt1 −t0 ⊗. . .⊗ptn −tn−1 )(B) ,

ce qui implique le résultat désiré. 

Opérateurs de décalage sur l’espace canonique. Un des buts du chapitre est d’établir la propriété de Markov
qui affirme que le processus décalé dans le temps Xt0 +· est également Markovien avec les mêmes noyaux
Markoviens que X. Pour cela, nous considérons brièvement l’opération de décalage dans le temps des proces-
sus.

Définition II.2.5 (Décalages sur l’espace canonique) Soit (E, E ), un espace mesurable. Pour tout t0 ∈ R+ , on
définit θtcan
0
: E R+ → E R+ en posant

∀ x = (xt )∈R+ ∈ E R+ , θtcan


0
x = (xt0 +t )t∈R+ .
II.2. PROCESSUS DE MARKOV, PROPRIÉTÉ DE MARKOV SIMPLE. 55

On appelle θtcan
0
l’opérateur de décalage au temps t0 . On vérifie facilement que θtcan
0 +t1
= θtcan
0
◦ θtcan
1
, pour tous
t0 , t1 ∈ R+ . 

Lemme II.2.6 Soient s, t ∈ R+ . Alors les assertions suivantes sont vérifiées.

(i) (θtcan )−1 (Fscan ) ⊂ Fs+t


can .

(ii) Pour tout t ∈ R+ , θtcan est (E ⊗R+ , E ⊗R+ )-mesurable.

Preuve: soient n ∈ N, 0 ≤ t0 < . . . < tn ≤ s et A0 , . . . , An ∈ E . On pose C := {x ∈ E R+ : xt0 ∈ A0 ; . . . ; xtn ∈


An }, qui est un cylindre élémentaire de Fscan (ou un cylindre antérieurs à s) . Alors

(θtcan )−1 (C) = {x ∈ E R+ : xt+t0 ∈ A0 ; . . . ; xt+tn ∈ An } ∈ Ct+s ⊂ Fs+t


can
,

ce qui entraîne le résultat voulu les cylindres élémentaires de Fscan engendrent Fscan . Le point (ii) se montre
de la même manière. 
On introduit le processus de Markov canonique de la manière suivante.

Définition II.2.7 Soit (E, E ), un espace régulier. Soient (pt (x, dy))x∈E,t∈R+ , des noyaux Markoviens conser-
vatifs. On note (Pt )t∈R+ , leur semi-groupe associé. On note Pµ , µ ∈ M1 (E) les lois introduites au théorème
II.2.4. Alors, les objets

Ωcan:= E R+ ; F can:= E ⊗R+ ; (Ftcan )t∈R+ ; (Xtcan )t∈R+ ; (θtcan )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E)


forment ce que l’on appelle le processus de Markov canonique associé au semi-groupe (Pt )t∈R+ . 

II.2.c Définition complète des processus de Markov et propriété de Markov (faible).


Par imitation de la définition II.2.7 des processus de Markov canoniques, on pose la définition suivante des
processus Markoviens, qui permet d’énoncer la propriété de Markov.

Définition II.2.8 (Processus Markoviens) Soit (E, E ), un espace mesurable. Un processus de Markov est la
donnée des objets suivants

Ω; F ; (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E)



(II.6)

qui satisfont les conditions suivantes.

(a) (Ω, F ) est un espace mesurable et (Gt )t∈R+ est une filtration sur (Ω, F ).

(b) X : Ω → E R+ est un processus (Gt )t∈R+ -adapté.

(c) (Pt )t∈R+ est le semi-groupe associé à des noyaux Markoviens (pt (x, dy))x∈E,t∈R+ .

(d) Pour toute mesure µ ∈ M1 (E), Pµ est une mesure de probabilité sur (Ω, F ) telle que X0 sous Pµ a pour
loi µ et telle que pour tous s, t ∈ R+ et toute fonction f ∈ Lb (E),

Pµ -p.s. Eµ f (Xs+t ) Gt = Ps f (Xt ) .


 
56 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

• Convention. Si aucune filtration n’est mentionnée, il est sous-entendu que Gt = Fto (X) = σ(Xs ; s ∈ [0, t]), la
filtration naturelle de X. On rappelle au passage que F∞ o (X) = σ(F o (X); t ∈ R ) = σ(X ; t ∈ R ) est la tribu
t + t +
engendrée par X.
• Notations. Pour tout x ∈ E, on adopte la notation Px := Pδx . De même on note Ex := Eδx l’espérance
associée. Donc Px (X0 = x) = 1.
• Opérateurs de décalage. Cette structure n’est pas essentielle mais elle simplifie certains énoncés sur les
processus de Markov.
(e) Pour tout t ∈ R+ , il existe θt : Ω → Ω tel que
∀s, t ∈ R+ , ∀ω ∈ Ω, Xs (θt (ω)) = Xs+t (ω) .
Les θt sont appelés opérateurs de décalage. Notons qu’ici, aucune hypothèse de mesurabilité n’est faite
sur ces opérateurs. Lorsque que le processus de Markov est muni d’opérateurs de décalage, on le signale
en l’ajoutant dans (II.6). 
Le lemme suivant considère les propriétés de mesurabilité des opérateurs de décalage.

Lemme II.2.9 On considère un processus de Markov avec les notations de la définition II.2.8.

(i) Soit Z : Ω → R, une v.a. F∞o (X)-mesurable et bornée. Alors, il existe une fonctionnelle F : E R+ → R

qui est E ⊗R

+ -mesurable bornée telle que pour tout ω ∈ Ω, Z(ω) = F (Xs (ω))s∈R+ et
∀t ∈ R+ , Z ◦θt = F (θtcan X) = F ((Xt+s )s∈R+ ) , partout sur Ω. (II.7)
Cela implique que pour tout t ∈ R+ , Z ◦ θt est F∞
o (X)-mesurable. D’autre part, cela implique que

Z ◦θ0 = Z , partout sur Ω. (II.8)

(ii) Soit s ∈ R+ . Soit Z : Ω → R, une v.a. Fso (X)-mesurable bornée. Alors, il existe une fonctionnelle
F : E R+ → R qui est Fscan -mesurable telle que (II.7) ait lieu. Cela implique que Z ◦θt est Fs+t o (X)-

mesurable bornée et donc que


θt−1 Fso (X) ⊂ Fs+t o

(X) .
Preuve: montrons d’abord (ii). Soit s ∈ R+ . On note Ps la classe d’événements de la forme A = Xt0 ∈


A0 ; . . . ; Xtn ∈ An où n ∈ N, 0 ≤ t0 ≤ . . . ≤ tn ≤ s et A0 , . . . , An ∈ E . On a donc Ps = X −1 (Cs ),


où Cs désigne le pi-systèmes des cylindres antérieurs à s sur l’espace canonique. On vérifie immédiatement
que Ps est un pi-système tel que σ(Ps ) = Fso (X). Soit A ∈ Ps comme ci-dessus. On pose Z = 1A et
C = {x ∈ E R+ : xt0 ∈ A0 ; . . . ; xtn ∈ An }. Il est clair que C ∈ Fscan est tel que Z = 1C (X) partout sur Ω. Par
le lemme II.2.6, on a (θtcan )−1 (C) ∈ Fs+t
can et donc

Z ◦θt = 1{Xt0 +t ∈A0 ;...;Xtn +t ∈An } = 1C (θtcan X) = 1(θtcan )−1 (C) (X)
est Fs+t
o (X)-mesurable. Soit H, l’ensemble des v.a. Z : Ω → R qui sont F o (X)-mesurables bornées telles
s
qu’il existe F : E R+ → R, Fscan -mesurable bornée satisfaisant le fait que pour tout t ∈ R+ , Z◦θt soit Fs+to (X)-
can
mesurable bornée et vaille F (θt X) partout sur Ω. On vérifie que H est un espace vectoriel. On vient de
montrer que 1A ∈ H, pour tout A ∈ Ps . Il est facile de vérifier que H satisfait les propriété sur théorème
A.1.20 de la classe monotone fonctionnelle (page 207). On en déduit donc que H est l’ensemble de toutes les
v.a. Fso (X)-mesurables bornées, ce qui montre (ii).
Le point (i) se montre de manière similaire. Pour montrer (II.8), on rappelle que θ0can est l’identité sur E R+
et on remarque que Z ◦θ0 = F (θ0can X) = F (X) = Z. 
II.2. PROCESSUS DE MARKOV, PROPRIÉTÉ DE MARKOV SIMPLE. 57

Lemme II.2.10 On considère un processus de Markov avec les notations de la définition II.2.8. Soit Z : Ω → R,
une v.a. F∞
o (X)-mesurable bornée. Alors, x ∈ E 7−→ E [Z] ∈ R est B(E)-mesurable bornée.
x

Preuve: on montre d’abord le lemme pour Z = 1C (X) où C ∈ C est un cylindre élémentaire de l’espace
canonique; rappelons qu’il existe n ∈ N, 0 ≤ t0 < . . . < tn et A0 , . . . , An ∈ E tels que C = {x ∈ E R+ : xt0 ∈
A0 ; . . . ; xtn ∈ An }. On a donc

∀ x ∈ E, Ex [1C (X)] = Px (X ∈ C) = (pt0 ⊗pt1 −t0 ⊗. . .⊗ptn −tn−1 )(x, C) .

Or x 7→ (pt0 ⊗pt1 −t0 ⊗. . .⊗ptn −tn−1 )(x, C) est mesurable car pt0 ⊗pt1 −t0 ⊗. . .⊗ptn −tn−1 est un noyau de E
sur E n+1 .
On note ensuite H l’ensemble des fonctionnelles F : E R+ → R qui sont E ⊗R+ -mesurables bornées telles
que x ∈ E 7−→ Ex [F (X)] ∈ R est E -mesurable bornée. On a montré que 1C ∈ H, pour tout C ∈ C . Il est
facile de montrer que H satisfait les hypothèses du théorème A.1.20 de la classe monotone dans sa version
fonctionnelle (page A.1.20), qui implique que H est exactement l’espace des fonctionnelles E ⊗R+ -mesurables
bornées. Cela permet de conclure car pour toute v.a. Z : Ω → R qui est F∞ o (X)-mesurable bornée, le lemme

II.2.9 (i) implique qu’il existe F : E R+ → R qui est E ⊗R+ -mesurable bornée telle que Z = F (X). 
Nous obtenons ensuite première version de la propriété de Markov.

Théorème II.2.11 (Propriété de Markov faible) Soit (E, E ), un espace mesurable. Soit

Ω; F ; (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov. Alors, pour tout t ∈ R+ , pour toute mesure µ ∈ M1 (E) et pour toute fonctionnelle
F : E R+ → R qui est E ⊗R+ -mesurable bornée, on a

Pµ -p.s. Eµ F (Xt+s )s∈R+ Gt = EXt[F (X)] .


  
(II.9)

C’est la propriété de Markov faible.


Si le processus de Markov est muni d’opérateurs de décalage (θt )t∈R+ , cette propriété de Markov faible
se reformule comme suit: pour tout t ∈ R+ , pour toute µ ∈ M1 (E) et pour toute v.a. Z : Ω → R qui est
F∞ o (X)-mesurable bornée, on a

Pµ -p.s. Eµ Z ◦θt Gt = EXt[Z] .


 
(II.10)

Preuve: il est clair que si le processus de Markov est muni d’opérateurs de décalage, le lemma II.2.9 (ii)
montre que (II.9) est équivalente à (II.10). Il suffit donc de montrer (II.9). On commence par considérer des
fonctionnelles de la forme F (X) := f0 (Xt0 ) . . . fn (Xtn ), où 0 ≤ t0 < . . . < tn et f0 , . . . , fn ∈ Lb (E). Pour cela
on définit φ0 , . . . φn ∈ Lb (E) récursivement par

φn = fn et ∀ k ∈ {0, . . . , n−1}, φk = fk Ptk+1 −tk φk+1 .

On vérifie tout d’abord que Pµ -p.s.


 Y
Eµ F (Xt+ · ) Gt+tn−1 = Eµ fn (Xt+tn ) Gt+tn−1
  
fk (Xt+tk )
0≤k≤n−1
Y
= fn−1 (Xt+tn−1 )Ptn −tn−1 fn (Xt+tn−1 ) fk (Xt+tk )
0≤k≤n−2
58 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.
Y
= φn−1 (Xt+tn−1 ) fk (Xt+tk ) .
0≤k≤n−2

Ici on a utilisé le point (d) la définition II.2.8 des processus Markoviens. En raisonnant de même, on montre
récursivement que Pµ -p.s.
Y
Eµ F (Xt+ · ) Gt+tk = φk (Xt+tk )
 
fk (Xt+t` )
0≤`≤k−1

et finalement Eµ F (Xt+ · ) Gt = Pt0 φ0 (Xt ). Or pour tout x ∈ E, la proposition II.2.2 implique que
 

Pt0 φ0 (x) = Pt0 f0 Pt1 −t0 f1 . . . Ptn −tn−1 fn (x) = Ex [F (X)] ,

ce qui entraîne bien (II.9) pour F (X) := f0 (Xt0 ) . . . fn (Xtn ).


En choisissant fk = 1Ak , où Ak ∈ E , 0 ≤ k ≤ n, on a montré que (II.9) est vérifiée pour toute fonctionnelle
de la forme F = 1C , avec C ∈ C , cylindre élémentaire de l’espace canonique. On note H l’ensemble des
fonctionnelles F vérifiant (II.9); on constate facilement que H satisfait les hypothèses du théorème A.1.20 de
la classe monotone fonctionnelle. Ce théorème implique alors que H est l’ensemble des fonctionnelles bornée
E ⊗R+ -mesurables, ce qui est le résultat voulu. 

On en déduit la proposition suivante.

Proposition II.2.12 On considère un processus de Markov avec les notations de la définition II.2.8. Alors,
pour toute µ ∈ M1 (E) et toute v.a. Z : Ω → R qui est F∞
o (X)-mesurable bornée, on a

Z
Eµ [Z] = µ(dx) Ex [Z] . (II.11)
E

Preuve: par (II.8) au lemme II.2.9, page 56, Z ◦ θ0 = Z La propriété de Markov faible (II.10) au temps 0
implique alors que

Pµ -p.s. Eµ Z G0 = Eµ F ((X0+s )s∈R+ ) G0 = EX0 F (X) = EX0 Z .


       

Comme sous Pµ la loi de X0 est µ, en intégrant l’égalité précédente, on obtient (II.11). 

II.3 Propriété de Markov forte.


II.3.a Définition et propriété de Markov forte.
Le but de cette section est d’étendre la propriété de Markov simple à des temps d’arrêts. On renvoie le lecteur
à la section I.3, page 25, traitant des temps d’arrêt en général.

Définition II.3.1 (Processus de Markov forts) Soit (E, E ), un espace mesurable. Soit

Ω; F ; (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov au sens de la définition II.2.8. C’est un processus de Markov fort s’il satisfait les
conditions suivantes.

(a) X est progressivement mesurable relativement à (Gt )t∈R+ .


II.3. PROPRIÉTÉ DE MARKOV FORTE. 59

(b) Convention pour les temps infinis. Soit ∂ ∈ E, qui, sauf mention explicite du contraire ne joue qu’un rôle
arbitraire. Soit X∞ la v.a. constante à ∂: X∞ (ω) = ∂, ω ∈ Ω. Pour tout temps aléatoire T : Ω → [0, ∞],
XT : Ω → E est alors bien défini par

∀ ω ∈ Ω, XT (ω) = XT (ω) (ω) . (II.12)

Si le processus de Markov est muni d’opérateurs de décalage (θt )t∈R+ , on suppose également l’existence
de θ∞ : Ω → Ω tel que
∀ω ∈ Ω, ∀t ∈ [0, ∞], Xt (θ∞ (ω)) = X∞ (ω) . (II.13)

(c) Pour tout (Gt )t∈R+ -temps d’arrêt T , pour toute fonction f ∈ Lb (E), pour toute mesure µ ∈ M1 (E) et
tout s ∈ R+ ,
Pµ -p.s. Eµ 1{T <∞} f (Xs+T ) GT = 1{T <∞} Ps f (XT ) .
 
(II.14)
ce qui étend la définition II.2.8 des processus de Markov. 

Remarque II.3.2 On rappelle que T et s + T sont des (Gt )t∈R+ -temps d’arrêt (lemme I.3.2 (iv), page 25)
et donc XT et Xs+T sont resp. GT et Gs+T -mesurables, par le lemme I.3.3, page 26, puisque X est supposé
progressivement mesurable. On rappelle aussi que {T < ∞} ∈ GT . 

Théorème II.3.3 (Propriété de Markov forte) Soit (E, E ), un espace mesurable. Soit

Ω; F ; (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov fort. Soit ∂ ∈ E; on adopte les conventions (b) de la définition II.3.1. Soit F : E R+ → R,
une fonctionnelle E ⊗R+ -mesurable bornée. Soit T , un (Gt )t∈R+ -temps d’arrêt. Les assertions suivantes sont
vérifiées.

(i) F (XT +t )t∈R+ est une v.a. G∞ -mesurable bornée.




(ii) Pour toute mesure µ ∈ M1 (E),

Pµ -p.s. Eµ 1{T <∞} F (XT +t )t∈R+ GT = 1{T <∞} EXT [F (X)] .


  
(II.15)

Lorsque le processus de Markov est muni d’opérateurs de décalage, la propriété de Markov forte se reformule
comme suit: soit Z : Ω → R, une v.a. F∞ o (X)-mesurable bornée; alors Z ◦ θ est une v.a. G -mesurable
T ∞
bornée et pour toute mesure µ ∈ M1 (E),

Pµ -p.s. Eµ 1{T <∞} Z ◦ θT GT = 1{T <∞} EXT [Z] .


 
(II.16)

Preuve: on observe que (II.16) est strictement équivalente à (II.15), modulo l’existence d’opérateurs de dé-
calage. Il suffit donc de démontrer (II.15) et on commence par le faire pour une fonctionnelle de la forme
F (X) = f0 (Xt0 ) . . . fn (Xtn ) où 0 ≤ t0 < . . . < tn et f0 , . . . , fn ∈ Lb (E). On vérifie d’abord que

F (XT +t )t∈R+ = f0 (Xt0 +T ) . . . fn (Xtn +T )

qui est G∞ -mesurable car les v.a. Xtk +T sont (G∞ , B(E))-mesurables. En effet, tk + T est un (Gt )t∈R+ -temps
d’arrêt, X est progressivement mesurable relativement à (Gt )t∈R+ , par hypothèse et par le lemme I.3.3 qui
s’applique. On définit ensuite φ0 , . . . , φn ∈ Lb (E) récursivement par

φn = fn et ∀ k ∈ {0, . . . , n−1}, φk = fk Ptk+1 −tk φk+1 .


60 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

On vérifie tout d’abord que Pµ -p.s. {T < ∞} = {tn−1 + T < ∞} ∈ Gtn−1 +T . Comme Gtk +T ⊂ Gtn−1 +T pour
tout k ∈ {0, . . . , n−1}, on a
 Y
Eµ 1{T <∞} F XT + · GT +tn−1 = 1{T <∞} Eµ fn (XT +tn ) GT +tn−1
   
fk (XT +tk )
0≤k≤n−1
Y
= 1{T <∞} fn−1 (XT +tn−1 )Ptn −tn−1 fn (XT +tn−1 ) fk (XT +tk )
0≤k≤n−2
Y
= 1{T <∞} φn−1 (XT +tn−1 ) fk (XT +tk ) .
0≤k≤n−2

Ici on a utilisé le point (c) la définition II.3.1. En raisonnant de même, on montre récursivement que Pµ -p.s.
Y
Eµ 1{T <∞} F XT + · GT +tk = 1{T <∞} φk (XT +tk )
  
fk (XT +t` )
0≤`≤k−1

et finalement Eµ 1{T <∞} F XT + · GT = Pt0 φ0 (XT ). Or pour tout x ∈ E, la proposition II.2.2 implique
  

que
Pt0 φ0 (x) = Pt0 f0 Pt1 −t0 f1 . . . Ptn −tn−1 fn (x) = Ex [F (X)] ,
ce qui entraîne bien (II.15) pour F (X) = f0 (Xt0 ) . . . fn (Xtn ).
On passe au cas général par un raisonnement de classe monotone. On rappelle que C désigne l’ensemble
des cylindre élémentaires de E R+ . En choisissant fk = 1Ak , où Ak ∈ E , 0 ≤ k ≤ n, on a montré que (i) et (ii)
sont vérifiées pour toute fonctionnelle de la forme 1B , avec B ∈ C . On note H l’ensemble des fonctionnelles
F : E R+ → R E ⊗R+ -mesurables bornées et qui satisfont (i) et (ii). On a montré que 1B ∈ H, pour tout B ∈ C .
On vérifie facilement que H satisfait les hypothèses du théorème A.1.20 de la classe monotone fonctionnelle
qui entraîne alors le résultat voulu. 

II.3.b Un critère impliquant la propriété de Markov forte.


La définition des processus de Markov est trop générale car elle n’exclut pas certains processus pathologiques
tels que le cas d’une famille de v.a. (Xt )t∈R+ i.i.d. de loi µ. Et il n’est pas envisageable est de déduire sMarkov
forte de Markov faible sans faire des hypothèses restrictives. Le problème de lire directement sur le semi-groupe
la propriété de Markov forte est délicat: nous nous contentons de l’énoncé (suffisant pour le reste du cours) qui
utilise l’hypothèse (H) introduite à la définition II.1.13, page 48, et qui est satisfaite par les semi-groupes de
Feller et de Feller-Dynkin (voir la proposition II.1.14, page 49).

Théorème II.3.4 (Critère Markov fort) Soit E, un espace topologique métrisable séparable. Soit

Ω; F ; (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov. On fait les hypothèses suivantes.

(a) Le processus X est continu à droite.

(b) Son semi-groupe satisfait l’hypothèse (H) (voir la définition II.1.13, page 48).

Alors, le processus est fortement Markovien par rapport à la filtration continue à droite (Gt+ )t∈R+ .
II.4. PROPRIÉTÉS DE MARKOV RELATIVEMENT AUX FILTRATIONS AUGMENTÉES. 61

Preuve: comme X est càd et (Gt )t∈R+ , il est progressivement mesurable par rapport à (Gt )t∈R+ et donc
également par rapport à (Gt+ )t∈R+ , par le lemme I.2.22, page 24. Il suffit de montrer que pour toute mesure
µ ∈ M1 (E) et pour tout (Gt+ )t∈R+ -temps d’arrêt T on a:

∀f ∈ Lb (E), ∀s ∈ R+ , Pµ -p.s. Eµ 1{T <∞} f (Xs+T ) GT + = 1{T <∞} Ps f (XT ) .


 
(II.17)

On se donne L et P comme dans la définition II.1.13 de l’hypothèse (H) et on commence par montrer (II.17)
pour f ∈ L. Pour cela, on pose Tn := 2−n d2n T e, pour tout n ∈ N. On remarque que T = ∞ ssi Tn = ∞ et que
Tn ↓ T partout sur Ω. Soit A ∈ GT + . On pose

un (f ) := Eµ [1A∩{T <∞} f (Xs+Tn )] .

La continuité à droite de X et la continuité de f impliquent, par convergence dominée, que limn un (f ) =


un (f ) := Eµ [1A∩{T <∞} f (Xs+T )]. Par ailleurs, on vérifie que
X  
un (f ) = Eµ 1A∩{(k−1)2−n ≤T <k2−n } f (Xs+k2−n ) .
k≥1
P  
car k≥1 Eµ 1A∩{(k−1)2−n ≤T <k2−n } |f (Xs+k2−n )| = u(|f |) ≤ kf k∞ < ∞, et on peut utiliser l’interversion
série-espérance L1 . La définition I.3.4 (a) de GT + (page 27) implique que A ∩ {T < k2−n } ∈ Gk2−n . Comme
{(k −1)2−n ≤ T } ∈ G(k−1)2−n (car le complémentaire {T < (k −1)2−n } ∈ G(k−1)2−n , par le lemme I.3.5 (i),
page 27), on a A ∩ {(k−1)2−n ≤ T < k2−n } ∈ Gk2−n . Par définition des processus de Markov on a donc

Pµ -p.s. Eµ 1A∩{(k−1)2−n ≤T <k2−n } f (Xs+k2−n ) Gk2−n = 1A∩{(k−1)2−n ≤T <k2−n } Ps f (Xk2−n ) .


 

En intégrant sous Pµ cette égalité et en sommant on obtient donc


X    
un (f ) = Eµ 1A∩{(k−1)2−n ≤T <k2−n } Ps f (Xk2−n ) = Eµ 1A∩{T <∞} Ps f (XTn ) .
k≥1

Puisque Ps f est continue bornée, la continuité à droite de X entraîne par convergence dominée que
 
Eµ [1A∩{T <∞} f (Xs+T )] = lim un (f ) = Eµ 1A∩{T <∞} Ps f (XT ) . (II.18)
n→∞

On étend (II.18) à toutes les fonctions de Lb (E) par un raisonnement de classe monotone: on note H
l’ensemble des fonctions de Lb (E) satisfaisant (II.18). En utilisant l’hypothèse (b) et la convergence monotone,
on montre facilement que H contient les fonctions de la forme 1A , A ∈ P. On vérifie également que H satisfait
les autres hypothèses du théorème A.1.20 de la classe monotone fonctionnelle, ce qui entraîne que H = Lb (E)
et donc (II.17). 

II.4 Propriétés de Markov relativement aux filtrations augmentées.


II.4.a Markov faible relativement aux filtrations augmentées, loi du 0-1 de Blumenthal.
Comme déjà mentionné dans la section I.3.b au chapitre I, page 29, l’emplois de temps d’arrêt est facilité
par l’utilisation de filtrations augmentées. Les deux prochaines sections détaillent les conséquences de cette
complétion du point de vues des propriétés de Markov (faible et forte). On rappelle tout d’abord les notations
suivantes: soit (E, E ), un espace mesurable et µ ∈ M1 (E); on note Nµ la classe des ensembles µ-négligeables
62 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

et on note E µ := σ(E , Nµ ), la tribu µ-complétée. On rappelle ici la définition de la tribu des universellement
mesurables associée à E : \
E uni = Eµ .
µ∈M1 (E)

On a clairement E ⊂ E uni ⊂ E µ , pour toute mesure µ ∈ M1 (E). Dans le cadre des processus de Markov, la
définition suivante précise le terme de "complétion des filtrations" .

Définition II.4.1 (Augmentation des filtrations, hypothèses habituelles) Soit E, un espace mesurable. Soit

Ω; F o ; (Gto )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,



(II.19)

un processus de Markov. Dans la suite, le symbole "o" est employé pour signaler le caractère "brut" de la
filtration. On rappelle que Fto (X) = σ(Xs ; s ∈ [0, t]) désigne la filtration naturelle de X.

(a) Pour toute µ ∈ M1 (E), on note NPµ les Pµ -négligeables de (Ω, F ). Pour simplifier les notations, on
pose F µ := (F o )Pµ = σ(NPµ , F o ),

Gtµ := (Gto )Pµ = σ(NPµ , Gto ) et Ftµ (X) := (Fto (X))Pµ = σ(NPµ , Fto (X)) .

qui sont resp. les Pµ -complétions de Gto et de Fto (X).

(b) L’augmentation de F o , de (Gto )t∈R+ et de (Fto (X))t∈R+ sont définies par

Gtµ Ftµ (X) .


\ \ \
F := Fµ , Gt := et Ft (X) := (II.20)
µ∈M1 (E) µ∈M1 (E) µ∈M1 (E)

On continue de noter Pµ l’extension (unique par le théorème A.2.3, page 209) de Pµ à F µ .

(c) Dans le contexte des processus de Markov, la filtration (Gto )t∈R+ satisfait les hypothèses habituelles si
Gto = Gt = Gt+ , pour tout t ∈ R+ , où (Gt )t∈R+ est l’augmentation de (Gto )t∈R+ définie au (b). 

Remarque II.4.2 On reprend les notations de la définition II.4.1 qui précède. Le lemme I.3.14 (i), page 33,
implique que
µ
\ \
Gt+ = σ(NPµ , Gt+o
) et Ft+ (X) = σ(NPµ , Ft+ (X)) . (II.21)
µ∈M1 (E) µ∈M1 (E)

On voit de plus que (Gt+ )t∈R+ et (Ft+ (X))t∈R+ satisfont toujours les hypothèses habituelles. 

Lemme II.4.3 Soit X, un (Gto )R+ -processus de Markov avec les notations de (II.19) de la définition II.4.1: F ,
(Gt )t∈R+ et (Ft (X))t∈R+ sont les augmentations habituelles de resp. F o , (Gto )t∈R+ et (Fto (X))t∈R+ définies
par (II.20). Alors,
Ω; F ; (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,


est également un processus de Markov. L’existence d’opérateurs de décalage ne pose aucun problème dans
cette extension.
II.4. PROPRIÉTÉS DE MARKOV RELATIVEMENT AUX FILTRATIONS AUGMENTÉES. 63

Preuve: comme Gto ⊂ Gt , X est (Gt )t∈R+ -adapté. La preuve est une simple conséquence du le lemme I.4.7,
page 38: soient µ ∈ M1 (E), f ∈ Lb (E) et s, t ∈ R+ ; comme Gto ⊂ Gt ⊂ Gtµ , on a

Pµ -p.s. Eµ f (Xt+s ) Gt = Eµ f (Xt+s ) Gto = Ps f (Xt ) ,


   

ce qui montre le lemme. 


Le théorème suivant montre que la propriété de Markov peut avoir lieu pour des fonctionnelles F∞ (X)-
mesurables bornées – et non pas seulement pour des fonctionnelles F∞ o (X). Cette extension de la propriété de

Markov n’est pas un détail: elle a des conséquences importantes telles que loi du 0-1 de Blumenthal. On note
que dans l’énoncé ci-dessous, les opérateurs de décalage jouent un rôle très pratique.

Théorème II.4.4 (Propriété de Markov simple pour les fonctionnelles augmentées) Soit E, un espace mesurable. Soit

Ω; F o ; (Gto )t∈R+ ; X = (Xt )t∈R+ ; (θt )t∈R+ : (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov muni d’opérateurs de décalage. Soient F , (Gt )t∈R+ et (Ft (X))t∈R+ , les augmenta-
tions de resp. F o , (Gto )t∈R+ et (Fto (X))t∈R+ . Alors, les assertions suivantes sont vérifiées.

(i) Pour toute v.a. Z : Ω → R qui est F∞ (X)-mesurable bornée, l’application x ∈ E 7−→ Ex [Z] ∈ R est
E uni -mesurable, où E uni est la tribu des universellement mesurables associée à E .

(ii) Pour tous s, t ∈ R+ , θt−1 Fs (X) ⊂ Fs+t (X) et θt est (F∞ (X), F∞ (X))-mesurable.


(iii) Soient t ∈ R+ , µ ∈ M1 (E) et Z : Ω → R, F∞ (X)-mesurable bornée. Alors Z ◦θt est F∞ (X)-mesurable


et
Pµ -p.s. Eµ Z ◦θt | Gt = EXt [Z] .
 

(iv) En particulier, en conservant les notations ci-dessus, on a


Z
Pµ -p.s. Z ◦θ0 = Z et Eµ [Z] = µ(dx) Ex [Z] . (II.22)
E

Preuve: on fixe µ ∈ M1 (E). On montre d’abord (i) et (iv) Soit Z : Ω → R, une v.a. F∞ (X)-mesurable
µ
bornée. Soit µ ∈ M1 (E). Comme F∞ (X) ⊂ F∞ (X), le théorème A.2.4 (page 209) montre qu’il existe
Z1 , Z2 : Ω → R, deux v.a. F∞ (X)-mesurables bornées telle que Z1 ≤ Z ≤ Z2 partout sur Ω et telles que
o

Eµ [Z1 ] = Eµ [Z2 ]. Par (II.8), lemme II.2.9, page 56, Zi ◦ θ0 = Zi donc Z1 ◦ θ0 = Z1 ≤ Z ◦ θ0 ≤ Z2 = Z2 ◦ θ0 .


Donc |Z ◦ θ0 − Z| ≤ Z2 − Z1 . On obtient donc Eµ [|Z ◦ θ0 − Z|] = Eµ [Z2 ] − Eµ [Z1 ] = 0, ce qui prouve la
première égalité de (II.22).
Par ailleurs, pour tout i ∈ {1, 2}, le lemme II.2.10, page
R 57, affirme que x ∈ E 7−→ Ex [Zi ] ∈ R est E -
 page 58, Eµ [Zi ] = E µ(dx)Ex [Zi ]. Or Ex [Z2 ]−Ex [Z2 ] = Ex [Z1−Z2 ] ≥
mesurableR et par la proposition II.2.12,
0. Donc E µ(dx) Ex [Z2 ] − Ex [Z2 ] = Eµ [Z2 ] − Eµ [Z1 ] = 0. On en déduit donc que pour µ-presque tout
x ∈ E, Ex [Z2 ] = Ex [Z2 ]. Or pour tout x ∈ E, Ex [Z1 ] ≤ Ex [Z] ≤ Ex [Z2 ]. Donc x 7→ Ex [Z] coïncide µ-presque
partout avec une fonction E -mesurable. Cela montre que x 7→ Ex [Z] est E µ -mesurable et comme cela est vrai
pour toute mesure µ ∈ M1 (E), cela entraîne (i) immédiatement. Cela montre également que
Z Z
µ(dx)Ex [Z] = µ(dx) Ex [Zi ] = Eµ [Zi ] = Eµ [Z] ,
E E

ce qui prouve la seconde égalité de (II.22), ce qui termine la preuve de (iv).


64 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

Montrons (ii) et (iii) en même temps. On fixe t ∈ R+ et s ∈ [0, ∞]. Soit Z : Ω → R, une v.a. Fs (X)-
mesurable bornée. On note ν := µpt , qui est la loi de Xt sous Pµ . Comme Fs (X) ⊂ Fsν (X), le théorème A.2.4
(page 209) montre qu’il existe Y1 , Y2 : Ω → R, deux variables Fso (X)-mesurables bornées telles que Y1 ≤ Z ≤
 EXt [Y2 ]−EXt [Y1 ] = EXt [Y2 −Y1 ] ≥ 0. Par
Y2 partout sur Ω et telles que Eν [Y1 ] = Eν [Y2 ] = Eν [Z]. Or Pµ -p.s.
définition de ν et par (II.11) au lemme II.2.12, page 58, on a Eµ EXt [Y2 ]−EXt [Y1 ] = Eν [Y2 ] − Eν [Y1 ] = 0.
Comme EXt [Y1 ] ≤ EXt [Z] ≤ EXt [Y2 ], on obtient

Pµ -p.s. EXt [Y2 ] = EXt [Y1 ] = EXt [Z] . (II.23)

Pour i ∈ {1, 2}, le lemme I.4.7, page 38 et la première version de la propriété de Markov faible du théorème
II.2.11, page 57, impliquent alors que Yi ◦θt est Fs+t
o (X)-mesurable et que

Pµ -p.s. Eµ Yi ◦θt Gt = Eµ Yi ◦θt Gto = EXt [Yi ] .


   
(II.24)

Donc Eµ [Y1 ◦θt ] = Eµ [Y2 ◦θt ]. Or Y1 ◦θt ≤ Z ◦θt ≤ Y2 ◦θt . Par conséquent, Pµ -p.s. Z ◦θt = Y2 ◦θt = Y1 ◦θt et
µ
Z ◦θt est Fs+t (X)-mesurable. Comme cela est vrai pour toute mesure µ ∈ M1 (E), cela prouve que Z ◦θt est
Fs+t (X)-mesurable, ce qui prouve (ii). Pour montrer (iii), on garde les même notations et on choisit s = ∞;
(II.24) entraîne alors que Pµ -p.s.

EXt [Y1 ] = Eµ Y1 ◦θt Gt ≤ Eµ Z ◦θt Gt ≤ Eµ Y2 ◦θt Gt = EXt [Y2 ]


     

et (II.23) implique (iii), ce qui termine la preuve du théorème. 

En application, on montre la loi du 0-1 de Blumenthal qui s’énonce comme suit.

Théorème II.4.5 (Loi du 0-1 de Blumenthal) Soit (E, E ), un espace mesurable régulier. Soit

Ω; F o ; (Gto )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov. Soit (Ft (X))t∈R+ , l’augmentation de (Fto (X))t∈R+ . Alors,

∀x ∈ E, ∀B ∈ F0 (X), Px (B) = 0 ou 1.

Preuve: donnons une preuve lorsque le processus est muni d’opérateur de décalage (θt )t∈R+ : soient x ∈ E
et B ∈ F0 (X). Par (II.22) au théorème II.4.4, page 63 implique que Px -p.s. 1B = 1B ◦ θ0 . La propriété de
Markov simple étendue aux fonctionnelles augmentées (théorème II.4.4 (iii), page 63), implique alors que Px -
p.s. 1B = Ex [1B |G0 ] = Ex [1B◦θ0 |G0 ] = EX0 [1B ] = Px (B) car Px -p.s. X0 = x. On a donc Px -p.s. Px (B) = 1B ,
ce qui implique le théorème.
Nous donnons une seconde preuve, se passant des opérateurs de décalage. On commence par traiter le cas
d’ensembles A ∈ F0o (X) = σ(X0 ): il existe donc f : E → {0, 1}, B(E)-mesurable telle que 1A = f (X0 ) par
tout sur Ω; et alors Px -p.s. 1A = f (x), ce qui implique que Px (A) = f (x) ∈ {0, 1}. Soit B ∈ F0 (X); comme
l’ensemble B est dans la tribu Px -complétée F0o (X), le théorème A.2.4 (page 209) implique l’existence de
B1 , B2 ∈ F0o (X) tels que B1 ⊂ B ⊂ B2 et Px (B1 ) = Px (B) = Px (B2 ). Or pour i ∈ {1, 2}, on a montré que
Px (Bi ) ∈ {0, 1}, ce qui permet de conclure. 

Une application non-triviale de cette loi du 0-1 est donnée plus loin. On montre tout d’abord un résultat
montrant la continuité à droite des filtrations naturelles augmentées – modulo une hypothèse essentielle.
II.4. PROPRIÉTÉS DE MARKOV RELATIVEMENT AUX FILTRATIONS AUGMENTÉES. 65

Théorème II.4.6 (Régularité à droite des filtrations naturelles augmentées) Soit E, un espace mesurable. Soit

Ω; F o ; (Gto )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov. Soit (Ft (X))t∈R+ , l’augmentation de (Fto (X))t∈R+ . On suppose que X est
o (X))
Markovien relativement à (Ft+ t∈R+ . Alors,
µ
∀µ ∈ M1 (E), ∀t ∈ R+ , Ft+ (X) = Ftµ (X) ,

et donc Ft+ (X) = Ft (X), c’est-à-dire que (Ft (X))t∈R+ satisfait les conditions habituelles.
Preuve: soient µ ∈ M1 (E) et Z : Ω → R, F∞
o (X)-mesurable bornée. On montre d’abord que

o
Pµ -p.s. Eµ [Z|Ft+ (X)] = Eµ [Z|Fto (X)] . (II.25)

Preuve de (II.25): on considère d’abord des fonctionnelles de la forme Z = F (X) = f0 (Xt0 ) . . . fn (Xtn ), où
0 ≤ t0 < . . . < tn et f0 , . . . , fn ∈ Lb (E). On observe que si t ≥ tn , le résultat est évident. Supposons que
tk ≤ t < tk+1 . On pose G(X) := f (Xtk+1 −t ) . . . f (Xtn −t ) et H(X) := f (Xt0 ) . . . f (Xtk ). La variable H(X)
est Fto (X)-mesurable et donc Ft+ o (X)-mesurable et Z = H(X)G(X
t+ · ). Comme X est Markovien pour
o o
(Ft )t∈R+ et pour (Ft+ )t∈R+ , la propriété de Markov simple pour ces deux filtrations donne
o o
Pµ -p.s. Eµ [Z|Ft+ (X)] = H(X)Eµ [G(Xt+ · )|Ft+ (X)]
= H(X)EXt [G(X)] = H(X)Eµ [G(Xt+ · )|Fto (X)] = Eµ [Z|Fto (X)] ,

ce qui implique le résultat voulu pour des fonctionnelles Z de la forme f0 (Xt0 ) . . . fn (Xtn ). Un raisonnement
de classe monotone (facile et donc laissé au lecteur) permet d’étendre ce résultat à toutes les fonctionnelles
F∞ o (X)-mesurables bornées (qui, on le rappelle, sont toutes de la forme F (X), avec F : E R+ → R, E ⊗R+ -

mesurable bornée, car F∞ o (X) = σ(X)). Cela montre (II.25). On termine la preuve du théorème comme suit:

soient µ ∈ M1 (E) et B ∈ Ft+ o (X); en choisissant Z = 1 dans (II.25), on a P -p.s. 1 = E [1 |F o (X)],


B µ B µ B t
µ o ⊂ F µ (X); si on note N
ce qui implique que B ∈ Ft (X). Donc Ft+ t Pµ Tles P µ -négligeables de (Ω, F ), on
a σ(NPµ , Ft+o ) ⊂ F µ (X). Or le lemme I.3.14 implique que F µ (X) = µ
t0 >t Ft0 (X) = σ(NPµ , Ft+ (X)).
o
t t+
µ µ µ µ
Cela montre que Ft+ (X) ⊂ Ft (X), ce qui implique trivialement Ft+ (X) = Ft (X). 

En application de la loi du 0-1 de Blumenthal et du théorème précédent, on prouve la proposition suivante.


On rappelle la définition II.1.13 de la l’hypothèse (H); page 48.

Proposition II.4.7 Soit E, un espace topologique métrisable séparable. Soit X un processus de Markov à
valeurs E. On fixe ∂ ∈ E et on note X∞ , la v.a. constante à ∂. On fait les hypothèses suivantes.

(a) Le processus X est continu à droite.

(b) Son semi-groupe satisfait l’hypothèse (H) (voir la définition II.1.13, page 48).

On note (Ft (X))t∈R+ l’augmentation de la filtration naturelle Fto (X))t∈R+ . Alors les assertions suivantes
sont vérifiées.

(i) Pour toute mesure µ ∈ M1 (E), et tout t ∈ R+ , Ftµ (X) = Ft+ µ


(X) et donc Ft (X) = Ft+ (X) et
(Ft (X))t∈R+ , qui satisfait les hypothèses habituelles. De plus X est fortement Markovien relativement
à (Ft (X))t∈R+ et comme F0+ (X) = F0 (X), la loi du 0-1 de Blumenthal s’énonce comme suit

∀x ∈ E, ∀A ∈ F0+ (X) , Px (A) ∈ {0, 1} .


66 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

(ii) Soit B ∈ B(E). Le premier temps de retour en B est noté: TB+ = inf t > 0 : Xt ∈ B (avec la convention


inf ∅ = ∞). Soit x ∈ E. Alors, on a l’alternative suivante:

– ou bien Px (TB+ = 0) = 1, et x est dit régulier pour B,


– ou bien Px (TB+ = 0) = 0, et x est dit irrégulier pour B.

+

(iii) Pour simplifier on pose Hx := TE\{x} = inf t > 0 : Xt 6= x (avec la condition inf ∅ = ∞). Alors, pour
tout x ∈ E, il existe qx ∈ [0, ∞] tel que

∀t ∈ R+ , Px (Hx > t) = e−qx t ,

avec la convention e−∞ := 0. Si le processus X est continu, alors on a l’alternative suivante:

– ou bien qx = 0 et Px -p.s. le processus X est constant à x,


– ou bien qx = ∞ et Px (Hx = 0) = 1, et x quitte instantanément son point de départ.

Preuve: le lemme II.4.3, page 62, nous assure que X est Markovien par rapport l’augmentation (Ft (X))t∈R+
et le théorème II.3.4 nous assure que X est alors un Markov fort relativement à (Ft+ (X))t∈R+ . Mais le
théorème II.4.6, page 65, montre que Ft (X) = Ft+ (X), t ∈ R+ , ce qui prouve (i).
Le fait que X soit fortement Markov par rapport à (Ft (X))t∈R+ implique qu’il est progressivement
mesurable par rapport à cette filtration et le théorème du "Début" montre que TB+ est un (Ft (X))t∈R+ -temps
d’arrêt. Donc {TB+ = 0} ∈ F0 (X) et la loi du 0-1 de Blumenthal (théorème II.4.5) entraîne (ii).
Pour toute trajectoire y = (yt )t∈R+ , on pose Hx (y) = inf{t > 0 : yt 6= x}, avec la convention inf ∅ = ∞. On
remarque alors que si Hx > t, alors, Xt = x et Hx = t + Hx (Xt+ · ). En appliquant la propriété de Markov, on a
donc pour tous s, t ∈ R+ ,

Px -p.s. Ex 1{Hx >t+s} Ft (X) = Ex 1{Hx >t} 1{Hx (Xt+· )>s} Ft (X)
   

= 1{Hx >t} EXt [1{Hx >s} ] = 1{Hx >t} Px (Hx > s).

En intégrant sous Px cette égalité on montre que Px (Hx > t + s) = Px (Hx > t)Px (Hx > s). Il est facile de
voir que s’il existe t0 > 0 tel que Px (Hx > t0 ) = 0, alors Px (Hx > t) = 0, pour tout t ∈ R+ . Supposons que ce ne
soit pas le cas, on pose alors f (t) = − log Px (Hx > t), on constate que f est bien définie, positive, càd et que
f (s + t) = f (s) + f (t), pour tout s, t ∈ R+ . Cela implique que f est linéaire, c’est-à-dire qu’il existe qx ∈ R+
tel que f (t) = qx t et donc Px (Hx > t) = e−qx t , t ∈ R+ .
Si X est continu et si Hx < ∞, alors la continuité à gauche implique que XHx = x et aussi Hx (XHx + ) = 0.
En appliquant la propriété de Markov forte en Hx , on a

Px -p.s. 0 = Ex 1{Hx <∞;Hx (XHx +· )>0} FHx (X) = 1{Hx <∞} Px (Hx > 0) .
 

Donc Px (Hx < ∞)P(Hx > 0) = 0. Si Px (Hx < ∞) > 0, alors Px (Hx > 0) = 0 et donc Px (Hx = 0) = 1. Si
Px (Hx < ∞) = 0, on a donc Px -p.s. Hx = ∞, ce qui implique que X est constant à x. 

II.4.b Markov forte pour les fonctionnelles augmentées. Quasi-continuité à gauche.


La propriété de Markov forte pour les filtration augmentées. Modulo la continuité à droite des filtrations,
l’extension de la propriété de Markov forte aux filtrations complétées se prouve de la même manière que la
propriété de Markov simple.
II.4. PROPRIÉTÉS DE MARKOV RELATIVEMENT AUX FILTRATIONS AUGMENTÉES. 67

Théorème II.4.8 (Propriété de Markov forte pour les fonctionnelles augmentées) Soit E, un espace mesurable. Soit

Ω; F o ; (Gto )t∈R+ ; X = (Xt )t∈R+ ; (θt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov muni d’opérateurs de décalage. Soient (Gt )t∈R+ et (Ft (X))t∈R+ , les augmentations
de resp. (Gto )t∈R+ et (Fto (X))t∈R+ . On suppose que X est fortement markovien par rapport à (Gt+o )
t∈R+ .
Alors, les assertions suivantes sont vérifiées.

(i) X est fortement Markovien par rapport à (Gt+ )t∈R+ (qui satisfait les hypothèses habituelles).

(ii) Soit Z : Ω → R, une v.a. F∞ (X)-mesurable bornée. Soit T , un (Gt+ )t∈R+ -temps d’arrêt. Alors
1{T <∞} Z ◦θT est une v.a. G∞ -mesurable bornée.

(iii) Soit Z : Ω → R, une v.a. F∞ (X)-mesurable bornée. Soit T , un (Gt+ )t∈R+ -temps d’arrêt. Alors, pour
toute mesure µ ∈ M1 (E),

Pµ -p.s. Eµ 1{T <∞} Z ◦θT GT + = 1{T <∞} EXT [Z] .


 
(II.26)

Preuve: puisque X est fortement Markovien par rapport à (Gt+ o )


t∈R+ , il est progressivement mesurable par
rapport à cette filtration. Comme Gt+ ⊂ Gt+ , X est également progressivement mesurable relativement à
o

(Gt+ )t∈R+ . Il est par ailleurs clair que (Gt+ )t∈R+ satisfait les conditions habituelles.
On fixe T , un (Gt+ )t∈R+ -temps d’arrêt. Le lemme I.3.3, page 26, implique que XT est GT + -mesurable.
µ
On fixe µ ∈ M1 (E). Alors, T est également un (Gt+ )t∈R+ -temps d’arrêt. Le lemme I.3.15, page 33, implique
l’existence d’un (Gt+ o ) -temps d’arrêt noté de T o , tel que
t∈R+

Pµ (T o = T ) = 1 et GTµ+ = σ(NPµ , GToo + ) . (II.27)

On fixe s ∈ R+ et f ∈ Lb (E). Ce qui précède implique que Pµ -p.s. 1{T <∞} f (Xs+T ) = 1{T o <∞} f (Xs+T o ) et
XT = XT o . On a donc Pµ -p.s.

Eµ 1{T <∞} f (Xs+T ) GT + ] = Eµ 1{T o <∞} f (Xs+T o ) GTµ+ ]


 

= Eµ 1{T o <∞} f (Xs+T o ) GToo + ]




= 1{T o <∞} Ps f (XT o )


= 1{T <∞} Ps f (XT )

où on a utilisé le lemme I.4.7, page 38, pour justifier les égalités des deux premières lignes et la propriété de
Markov forte relativement à (Gt+ o )
t∈R+ pour la troisième. Cela termine la preuve de (i).
Le reste de la preuve est proche de celle du théorème II.4.4: montrons (ii), avec les même notations que
ci-dessus. Notons ν la loi de XT sous Pµ , qui par (II.27), est aussi la loi de XT o sous Pµ . Soit Z : Ω → R,
une v.a. F∞ (X)-mesurable bornée. Comme F∞ (X) ⊂ F∞ ν (X), le théorème A.2.4, page 209, montre qu’il

existe Y1 , Y2 : Ω → R, deux variables F∞ (X)-mesurables telle que Y1 ≤ Z ≤ Y2 partout sur Ω et telles que
o

Eν [Y1 ] = Eν [Y2 ] = Eν [Z]. On a donc Pµ -p.s. EXT[Y2 ] − EXT [Y1 ] = EX  T [Y2 − Y1 ] ≥ 0. Par définition de
ν et par (II.11) au lemme II.2.12, page 58, on a Eµ EXT [Y2 ] − EXT [Y1 ] = Eν [Y2 ] − Eν [Y1 ] = 0. Comme
EXT [Y1 ] ≤ EXT [Z] ≤ EXT [Y2 ], on obtient Pµ -p.s. EXT [Y1 ] = EXT [Y1 ] = EXT [Z]. Puisque XT o = XT Pµ -p.s.,
on obtient
∀i ∈ {1, 2}, Pµ -p.s. EXT [Yi ] = EXT o [Yi ] = EXT [Z] = EXT o [Z] . (II.28)
68 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

Pour i ∈ {1, 2}, le lemme I.4.7, page 38, et la première version de la propriété de Markov forte au théorème
t∈R+ et pour le temps T ) impliquent alors que Yi ◦θT o est G∞ -mesurable
o )
II.3.3, page 59, (relativement à (Gt+ o o

et que

Pµ -p.s. Eµ 1{T o <∞} Yi ◦θT o σ(NPµ , GToo + ) = Eµ 1{T o <∞} Yi ◦θT o GToo + = 1{T o <∞} EXT o [Yi ] .
   

Or par (II.27), Pµ -p.s. 1{T o <∞} Yi ◦θT o = 1{T <∞} Yi ◦θT , XT = XT o et GTµ+ = σ(NPµ , GToo + ). On obtient donc

Pµ -p.s. Eµ 1{T <∞} Yi ◦θT GT + = Eµ 1{T <∞} Yi ◦θT GTµ+ = 1{T <∞} EXT [Yi ] = 1{T <∞} EXT [Z] (II.29)
   

où on a utilisé le lemme I.4.7, page 38, pour jusitifier la première égalité et (II.28) pour justifier la dernière.
Tout d’abord (II.29) entraîne que Eµ [1{T <∞} Y1 ◦ θT ] = Eµ [1{T <∞} Y2 ◦ θT ]. Comme Y1 ◦ θT ≤ Z ◦ θT ≤
µ
Y2 ◦ θT , on en déduit que Pµ -p.s. 1{T <∞} Z ◦ θT = 1{T <∞} Y2 ◦ θT et donc Z ◦ θT est G∞ -mesurable. Comme
cela est vrai pour toute mesure µ ∈ M1 (E), cela prouve que 1{T <∞} Z ◦ θ est
 T  ∞ G -mesurable, ce qui
 prouve
(ii). Cela implique également que Pµ -p.s. Eµ 1{T <∞} Yi ◦ θT GT + = Eµ 1{T <∞} Z ◦ θT GT + , ce qui


implique (iii) par (II.29). 

Définition II.4.9 (Quasi-continuité à gauche) Soit E, un espace topologique métrisable séparable. Soit

Ω; F ; (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov fort. Il est dit quasi-continu à gauche sur R+ relativement à la filtration (Gt )t∈R+ si
pour toute suite croissante de (Gt )t∈R+ -temps d’arrêt Tn ≤ Tn+1 , n ∈ N, si on pose T := supn∈N Tn , alors on a

∀µ ∈ M1 (E), Pµ -p.s. sur {T < ∞} lim XTn = XT .


n→∞

On rappelle que T est un (Gt )t∈R+ -temps d’arrêt, par le le lemme I.3.7 (i), page 28. 
Bien que cela ne soit pas mentionné dans cette définition, la quasi-continuité à gauche implique une certaine
régularité du processus, notamment, pour tout t ∈ ]0, ∞[ et pour toute mesure µ ∈ M1 (E), Pµ -p.s. X admet
Xt pour limite à gauche en t, c’est à dire que le processus est stochastiquement continu au sens de la définition
suivante.

Définition II.4.10 (Continuité stochastique) Soit E, un espace topologique. Soit (Ω, F , P), un espace de
probabilité. Soit X = (Xt )t∈R+ : Ω → E R+ un processus (F , B(E)⊗R+ )-mesurable supposé càdlàg. Il est dit
stochastiquement continu en t ∈ R+ sous P si P(Xt− = Xt ) = 1. 
Le théorème qui suit donne un critère sur un processus de Markov (faible) pour qu’il soit un processus de
Markov fort relativement à la filtration continue à droite associée à l’augmentation de la filtration de départ et
aussi pour qu’il soit quasi-continu à gauche. On rappelle la définition II.1.13 de la l’hypothèse (H), page 48.

Théorème II.4.11 Soit E, un espace topologique métrisable séparable.

Ω; F o ; (Gto )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov. Soient F , (Gt )t∈R+ et (Ft (X))t∈R+ , les augmentations de resp. F o , (Gto )t∈R+ et
(Fto (X))t∈R+ . On fixe ∂ ∈ E et on note X∞ , la v.a. constante à ∂. On fait les hypothèses suivantes.

(a) Le processus X est continu à droite.


II.4. PROPRIÉTÉS DE MARKOV RELATIVEMENT AUX FILTRATIONS AUGMENTÉES. 69

(b) Son semi-groupe satisfait l’hypothèse (H) (voir la définition II.1.13, page 48).

Alors, les assertions suivantes sont vérifiées.

(i) Pour tout t ∈ R+ , Ft (X) = Ft+ (X).

(ii) X est Markovien fort par rapport à (Gt+ )t∈R+ et (Ft (X))t∈R+ , qui satisfont les conditions habituelles.
Si le processus de Markov est muni d’opérateurs de décalage, il satisfait la propriété de Markov forte
pour des fonctionnelles F∞ (X)-mesurables.

On fait l’hypothèse supplémentaire suivante.

(a0 ) Le processus X est càdlàg.

Alors:

(iii) X est quasi-continu à gauche sur R+ relativement à (Gt+ )t∈R+ et

∀t ∈ R+ , ∀µ ∈ M1 (E), Pµ (Xt− = Xt ) = 1 .

Preuve: il est clair que X est Markovien par rapport à (Fto (X))t∈R+ . On applique la proposition II.3.4, qui
montre que X est fortement Markovien par rapport à (Gt+ o ) o
t∈R+ et (Ft+ (X))t∈R+ . Le fait que X soit fortement
t∈R+ permet d’appliquer le théorème II.4.6 et on a Ft (X) = Ft+ (X). Le
Markovien par rapport à (Ft+ o (X))

théorème II.4.8 qui précède implique ensuite (i) et (ii).


Montrons (iii): on suppose (a0 ). Soit (Tn )n∈N , une suite de (Gt+ )t∈R+ -temps d’arrêt tels que Tn ≤ Tn+1 ,
n ∈ N. On pose T := supn∈N Tn , qui est un (Gt+ )t∈R+ -temps d’arrêt (proposition I.3.7, page 28). On suppose
d’abord que T < ∞, partout sur Ω et on définit les deux événement A := {∃n ∈ N : Tn = T } et B = Ω\A =
{∀n ∈ N : Tn < T }, qui appartiennent clairement à G∞ . On rappelle que X est càdlàg et on pose

∀t ∈ R+ , ∀ω ∈ Ω, Yt (ω) := XT (ω)+t (ω) si ω ∈ A et Yt (ω) := X(T (ω)+t)− (ω) si ω ∈ B.

On vérifie que Yt est (G∞ , B(E))-mesurable. Comme T est fini et X est càdlàg, alors partout sur Ω, on a

∀t ∈ R+ , lim XTn +t = Yt et lim Yt = XT . (II.30)


n→∞ t→0
t>0

On se donne L et P associés à l’hypothèse (H) (définition II.1.13, page 48). On fixe µ ∈ M1 (E). Soient
f, g ∈ L. Par (II.30) et par convergence dominée, on obtient tout d’abord:
     
lim lim Eµ f (XTn +t )g(XTn ) = lim E f (Yt )g(Y0 ) = Eµ f (XT )g(Y0 ) . (II.31)
t→0 n→∞ t→0
t>0 t>0

La propriété de Markov forte au temps Tn implique également que

Pµ -p.s. Eµ f (XTn +t )g(XTn ) GTn + = g(XTn )Pt f (XTn )


 
(II.32)

(on rappelle que Tn < ∞ partout sur Ω) et donc on a


   
Eµ f (XTn +t )g(XTn ) = Eµ Pt f (XTn )g(XTn ) .
70 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

Or pour tout t ∈ R+ et tout x ∈ E, la continuité à droite de X et le fait que Px (X0 = x) = 1, implique


que Px -p.s. limt→0 Xt = x. Comme f ∈ L ⊂ Cb (E), par convergence dominée on a limt→0 Pt f (x) =
limt→0 Ex [f (Xt )] = f (x), pour tout x ∈ E. De plus, comme Pt f ∈ Cb (E), on a limn→∞ Pt f (XTn ) = Pt f (Y0 )
et par convergence dominée, on obtient
     
lim lim Eµ Pt f (XTn )g(XTn ) = lim E Pt f (Y0 )g(Y0 ) = Eµ f (Y0 )g(Y0 ) ,
t→0 n→∞ t→0
t>0 t>0

ce qui, combiné avec (II.32) et (II.31) implique


   
∀f, g ∈ L, Eµ f (XT )g(Y0 ) = Eµ f (Y0 )g(Y0 ) . (II.33)

On note Q = {B ×C; B, C ∈ B(E)}, qui est un pi-système sur E 2 en gendrant B(E)⊗2 . Soit B ×C ∈ Q. Par
l’hypothèse (b), il existe, fn , gn ∈ L, n ∈ N, positives croissantes convergeant respectivement vers 1B et 1C .
Alors, en appliquant (II.33) à (f, g) = (fn , gn ), et par convergence monotone, on obtient Eµ [1B×C (XT , Y0 )] =
Eµ [1B×C (Y0 , Y0 )]. On note ensuite H l’ensemble des fonctions F : E 2 → R, B(E)⊗2 -mesurables bornées
telles que    
Eµ F (XT , Y0 ) = Eµ F (Y0 , Y0 ) . (II.34)
Il est clair que H est un espace vectoriel. On a montre que pour tout D ∈ Q, 1D ∈ H. Le théorème de
convergence monotone implique facilement que H est stable par limite ponctuelle croissante de suites de fonc-
tions uniformément bornées. Autrement dit, H satisfait le théorème A.1.20 de la classe monotone, version
fonctionnelle (page 207); ce théorème montre que H = Lb (E 2 ) et donc (II.34) est vérifiée pour toute fonction
F : E 2 → R, B(E)⊗2 -mesurable bornée.
On pose ∆ := {(x, x); x ∈ E}, la diagonale de E 2 . C’est un ensemble fermé de E 2 , muni de la topologie
produit. Donc ∆ ∈ B(E 2 ). Comme E est métrisable séparable, B(E 2 ) = B(E)⊗2 et on peut appliquer (II.34)
à F = 1∆ :    
Pµ (XT = Y0 ) = Eµ 1∆ (XT , Y0 ) = Eµ 1∆ (Y0 , Y0 ) = Pµ (Y0 = Y0 ) = 1,
ce qui montre bien que Pµ -p.s. Y0 = limn→∞ XTn = XT , dans les cas où T < ∞ partout sur Ω.
On passe au cas général en remarquant que pour tout p ∈ N, p ∧ Tn est un (Gt+ )t∈R+ -temps d’arrêt tel
que supn p ∧ Tn = p ∧ T < ∞ partout sur Ω. Ce qui précède implique alors que Pµ -p.s. pour tout p ∈ N,
limn→∞ Xp∧Tn = Xp∧T . On observe que sur {T < ∞} et pour tout p ∈ N suffisamment grand, on a p ∧ T = T
et donc p ∧ Tn = Tn , pour tout n, ce qui implique facilement que X est quasi-continu à gauche.
Montrons le dernier point du théorème: soit µ ∈ M1 (E∂ ); soit tn , n ∈ N, une suite de temps croissants
strictement vers t. Comme X est cadlàg limn→∞ Xtn = Xt− or la quasi-continuité à gauche implique que
Pµ -p.s. limn→∞ Xtn = Xt et donc Pµ -p.s. Xt− = Xt , ce qui montre le résultat voulu. 

II.5 Régularité des processus de Markov.


II.5.a Processus de Hunt.
Définition II.5.1 (Processus de Hunt) Soit E, un espace topologique métrisable séparable. Soit

Ω; F ; (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov. C’est un processus de Hunt s’il satisfait les hypothèses suivantes.

(a) X est fortement Markovien relativement à (Gt )t∈R+ qui satisfait les hypothèses habituelles.
II.5. RÉGULARITÉ DES PROCESSUS DE MARKOV. 71

(b) X est quasi-continu à gauche sur R+ relativement à (Gt )t∈R+ .

(c) Pour tout ω ∈ Ω, t ∈ R+ 7−→ Xt (ω) est càd. 

La proposition suivante, conséquence immédiate du théorème II.4.11 (page 68), donne un critère pour être un
processus de Hunt (en particulier les processus de Feller ou Feller-Dynkin càdlàg sont des processus de Hunt).
On rappelle la définition II.1.13 de la l’hypothèse (H), page 48.

Proposition II.5.2 Soit E, un espace topologique métrisable séparable. Soit

Ω; F o ; (Gto )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov. On note F et (Gt )t∈R+ les augmentations de resp. F o et (Gto )t∈R+ Soit ∂ ∈ E et soit
X∞ , la v.a. constante à ∂. On fait les hypothèses suivantes.

(a) Le processus X est càdlàg.

(b) Son semi-groupe satisfait l’hypothèse (H) (voir la définition II.1.13, page 48).

Alors, X est un processus de Hunt relativement à (Gt+ )t∈R+ .


La régularité càdlàg est inhérente aux processus de Hunt: pour montrer cela rappelons le résultat élémen-
taire suivant.

Lemme II.5.3 Soit (E, d), un espace métrique. On note (E, d) son complété; par commodité, on suppose que
E ⊂ E. Soit f : R+ → E, une fonction. Pour tous réels t > δ > 0, on pose

wt (δ, f ) = sup{d(f (s), f (r)) ; s, r ∈ ]t−δ, t[} .

On observe que δ 7→ wt (δ, f ) croît. On suppose que limδ→0 wt (δ, f ) = 0. Alors f admet une limite à gauche
en t dans le complété E.
Preuve: soit sn ∈ [0, t[, n ∈ N, une suite croissant vers t. Pour tout ε > 0, il existe δ > 0 et n0 ∈ N, tels que pour
tout n ≥ n0 , on ait |sn −t| < δ et wt (δ, f ) < ε. Donc pour tout m, n ≥ n0 , d(f (sn ), f (sm )) ≤ wt (δ, f ) < ε. Cela
montre que (f (sn ))n∈N est de Cauchy: elle converge donc vers y ∈ E. Pour tout δ ∈ ]0, t[ et tout s ∈ ]t−δ, t[ ,
on a pour tout n ∈ N assez grand d(f (s), y) ≤ d(f (s), f (sn )) + d(f (sn ), y) ≤ wt (δ, f ) + d(f (sn ), y) et donc
d(f (s), y) ≤ wt (δ, f ), ce qui implique le lemme. 

Théorème II.5.4 Soit (E, d), un espace métrique séparable. On note (E, d) son complété; par commodité, on
suppose que E ⊂ E. Soit

Ω; F ; (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (E) ,




un processus de Markov de Hunt. Alors, il existe Ω0 ∈ G∞ tel que

∀µ ∈ M1 (E), Pµ (Ω0 ) = 1 et ∀ω ∈ Ω0 , t ∈ R+ 7−→ Xt (ω) est càdlàg dans E.

De plus X est stochastiquement continu, c’est-à-dire que

∀t ∈ R+ , ∀µ ∈ M1 (E), Pµ (Xt− = Xt ) = 1 .
72 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

Preuve: on fixe un réel ε > 0 et on définit une suite de temps aléatoires (Tn )n∈N en posant

T0ε = 0, ε
= inf t > Tnε : d(Xt , XTnε ) > ε

et ∀n ∈ N, Tn+1

avec la condition inf ∅ = ∞. Il est clair que T0ε est un (Gt )t∈R+ -temps d’arrêt. Supposons que Tnε le soit aussi.
La continuité à droite de X implique ensuite que pour tout t ∈ R+ ,
[
ε
{Tn+1 < t} = {Tnε < q} ∩ {d(Xq , Xt∧Tnε ) > ε} .
q∈Q∩[0,t[

Comme X est progressivement mesurable relativement à (Gt )t∈R+ et que t∧Tnε est un temps d’arrêt relativement
à cette filtration, la v.a. Xt∧Tnε est Gt∧Tnε -mesurable. Le lemme I.3.2 (ii), page 25, implique Gt∧Tnε ⊂ Gt . Puisque
q < t, on a donc {d(Xq , Xt∧Tnε ) > ε} ∈ Gt . Cela entraîne que {Tn+1 ε < t} ∈ Gt et donc Tn+1
ε est un (Gt+ )t∈R+ -
temps d’arrêt. Comme (Gt )t∈R+ est continue à droite (elle satisfait en effet les hypothèses habituelles), Tn+1 ε
ε
est donc un (Gt )t∈R+ -temps d’arrêt. On a montré par récurrence que les Tn sont des (Gt )t∈R+ -temps d’arrêt.
On pose T ε := supn∈N Tnε et on observe que si Tn+1 ε < ∞, alors la continuité à droite de X implique que
d(XTn+1
ε ε
, XTnε ) ≥ ε. Donc si T < ∞, la suite (XTnε )n∈N n’est pas convergente dans E (ni dans E). Or la
quasi-continuité à gauche implique que pour toute mesure µ ∈ M1 (E),

Pµ (T ε < ∞) = Pµ (T ε < ∞ ; lim XTnε = XT ε ) .


n

On a donc Pµ -p.s. T ε = ∞.
On pose ensuite εp = 2−p , p ∈ N et Ω0 := p∈N {T εp = ∞}. Il est clair que Ω0 ∈ G∞ et que Pµ (Ω0 ) = 1,
T
pour toute mesure µ ∈ M1 (E). On a donc
ε εp
[ 
∀ω ∈ Ω0 , ∀p ∈ N, ]0, ∞[= Tnp (ω), Tn+1 (ω) .
n∈N
 ε εp 
On fixe ω ∈ Ω0 . Soit t ∈ ]0, ∞[ . Soit p ∈N. Il existe donc n tels que t ∈ Tnp (ω), Tn+1 (ω) . La définition des
ε
temps Tnε implique que pour tous s, r ∈ Tnp (ω), t , on a


d(Xs (ω), Xr (ω)) ≤ d(Xs (ω), XTnεp (ω)) + d(XTnεp (ω), Xr (ω)) ≤ 2 εp

Donc, en reprenant les notations du lemme II.5.3, page 71, on a pour tout δ suffisamment petit wt (δ, X(ω)) ≤
2−p+1 . Donc, pour tout ω ∈ Ω0 , limδ→0 wt (δ, X(ω)) = 0 et le lemme II.5.3 implique que Xt− (ω) existe
dans E, ce qui montre le premier point du théorème. Le second point est une conséquence immédiate de la
quasi-continuité à gauche: voir la fin de la preuve du théorème II.4.11. 

Remarque II.5.5 Le résultat précédent n’utilise absolument pas la propriété de Markov: il est vrai pour les
processus quasi-continus à gauche et càd. 

II.5.b Durée d’un processus sous-Markovien, processus standard.


Cette section considère les processus Markoviens associés à l’extension minimale de noyaux sous-Markoviens
(voir la définition II.1.15, page 49) sur un espace LCBD. On rappelle la terminologie suivante: soit E est un
espace topologique LCBD; (E∂ , d) est un compactifié habituel de E si E∂ = E ∪ {∂}, où ∂ ∈ / E et si (E∂ , d)
est un espace métrique compact dont la topologie induite sur E est celle de départ.
II.5. RÉGULARITÉ DES PROCESSUS DE MARKOV. 73

Définition II.5.6 (Durée d’un processus) Soit E, un espace LCBD dont on note (E∂ , d) un compactifié habituel.
Soit (Ω, F ), un espace mesurable muni d’une filtration (Gt )t∈R+ . Soit X : Ω → E∂ + , un processus (Gt )t∈R+ -
R

adapté que l’on suppose de plus continu à droite. On définit la durée de X par

ζ := inf t ∈ R+ : ∂ ∈ {Xs ; s ∈ [0, t]}

avec la convention inf ∅ = ∞ et où pour tout sous-ensemble A ⊂ E∂ , A désigne son adhérence dans E∂ .
Autrement dit, ζ est le premier temps d’approche du compact {∂} par X (voir la définition I.3.8 page 29).
Comme X est càd, ζ est un (Gt )t∈R+ -temps d’arrêt (théorème I.3.12 (ii), page 30). 
La durée d’un processus se reformule de la manière suivante.

Proposition II.5.7 Soit E, un espace LCBD dont on note (E∂ , d) un compactifié habituel. Soit (Ω, F ), un
R
espace mesurable muni d’une filtration (Gt )t∈R+ . Soit X : Ω → E∂ + , un processus (Gt )t∈R+ -adapté. On pose

Tn = inf t ∈ R+ : d(Xt , ∂) < 2−n , avec la convention inf ∅ = ∞.




On suppose que X est càd. Alors les assertions suivantes sont vérifiées.

(i) Tn est un (Gt+ )t∈R+ -temps d’arrêt.

(ii) ζ = supn∈N Tn .

On suppose de plus que X est càdlàg sur [0, ζ[ . Alors les assertions suivantes sont vérifiées.

(iii) ζ = inf{t ∈ R+ : Xt ou Xt− = ∂}.


 
(iv) Pour tout t ∈]0, ζ[ , Xs ; s ∈ [0, t] = Xs , Xs− ; s ∈ [0, t] est un compact de E. Notamment Xt− et Xt
sont dans E pour tout t ∈]0, ζ[ .

Preuve: Tn est le temps d’atteinte de la boule ouverte de centre ∂ et de rayon 2−n . Le théorème I.3.12 (i)
(page 30) implique que Tn est un (Gt+ )t∈R+ -temps d’arrêt, ce qui prouve (i). Pour simplifier les notations, on
pose T := supn∈N Tn . Supposons que ζ < ∞, alors, par définition, il existe une suite de temps tn ≥ ζ, n ∈ N
décroissant vers ζ tels que d(Xtn , ∂) → 0 lorsque n → ∞. On peut supposer, sans perte de généralité, que
d(Xtn , ∂) < 2−n , ce qui implique Tn ≤ tn . Comme les Tn sont croissants, on en déduit que T ≤ ζ. Supposons
ensuite que T < ∞. Par continuité à droite de X et par définition de Tn , on a d(XTn , ∂) ≤ 2−n . Comme cela est
vrai pour tout n ∈ N, on en déduit que ∂ ∈ {Xt ; t ∈ [0, T ]} et donc ζ ≤ T , ce qui termine la preuve du fait que
T = ζ, partout sur Ω. Les points (iii) et (iv) sont des conséquences de la remarque I.3.10, page 30. 

Le théorème suivant précise le théorème II.5.4 dans le cas où l’espace d’état est LCBD et pour l’extension
minimale sur le compactifié habituel. Il résume également les quelques résultats généraux applicables concer-
nant la durée d’un processus de Hunt.

Théorème II.5.8 Soit E un espace topologique LCBD dont on note (E∂ , d) un compactifié habituel. Soient
pt (x, dy) des noyaux sous-Markoviens sur E de semi-groupe (Pt )t∈R+ . On note p∂t (x, dy) les extensions
minimales des noyaux pt (x, dy) à E∂ et on note (Pt∂ )t∈R+ le semi-groupe associé. Soit

Ω; F ; (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E) ,



74 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

un processus de Markov. On suppose que c’est un processus de Hunt.


• Alors, il existe Ω0 ∈ G∞ tel que

∀µ ∈ M1 (E∂ ), Pµ (Ω0 ) = 1 et ∀ω ∈ Ω0 , t ∈ R+ 7−→ Xt (ω) est càdlàg dans E∂ . (II.35)

• De plus X est stochastiquement continu, c’est-à-dire que

∀t ∈ R+ , ∀µ ∈ M1 (E∂ ), Pµ (Xt− = Xt ) = 1 . (II.36)

• Enfin, la durée du processus ζ est un (Gt )t∈R+ -temps d’arrêt. Elle se réécrit comme suit:

ζ = inf{t ∈ R+ : Xt− ou Xt = ∂}, (II.37)

avec la convention que inf ∅ = ∞ et pour toute mesure µ ∈ M1 (E∂ ), on a


 
Pµ -p.s. ∀t ∈ [0, ζ[ Xs ; s ∈ [0, t] = Xs , Xs− ; s ∈ [0, t] est un compact de E. (II.38)

En particulier, Pµ -p.s. pour tout t ∈ ]0, ζ[ , Xt et Xt− ∈ E. Enfin, on a

Pµ -p.s. ∀t ∈ [ζ, ∞[ , Xt = ∂ . (II.39)

Preuve: une partie découle des résultats antérieurs: le théorème II.5.4 implique (II.35) et (II.36); (II.37) et
(II.38) viennent de la proposition II.5.7 qui précède (ici on utilise la fait que la filtration (Gt )t∈R+ est càd).
Il reste à montrer (II.39): on reprend les notations Tn introduite à la proposition II.5.7 et on rappelle que
ζ = supn∈N Tn . Supposons que ζ < ∞. La continuité à droite de X implique que d(XTn , ∂) ≤ 2−n et donc
limn→∞ XTn = ∂. La quasi-continuité à gauche de X implique que Pµ -p.s. sur {ζ < ∞}, limn→∞ XTn = Xζ
et donc Pµ -p.s. sur {ζ < ∞}, on a Xζ = ∂. La propriété de Markov forte en ζ entraîne ensuite:

Pµ -p.s. Eµ 1{ζ<∞ ; ∃t∈R+ :Xζ+t 6=∂} Gζ = 1{ζ<∞} EXζ 1{∃t∈R+ :Xζ+t 6=∂}
   

= 1{ζ<∞} P∂ ∃t ∈ R+ : Xζ+t 6= ∂ . (II.40)

Or par définition de l’extension minimale des noyaux, pour tout s ∈ R+ , on a P∂ Xs = ∂ = p∂s (∂, ∂) = 1.


Donc P∂ -p.s. pour tout q ∈ Q+ , Xq = ∂ et par continuité à droite de X, P∂ -p.s.


 pour tout t ∈ R+ , Xt = ∂. Donc
P∂ ∃t ∈ R+ : Xζ+t 6= ∂ = 0 et (II.40) implique que Pµ ∃t ∈ [ζ, ∞[ : Xt 6= ∂ = 0, ce qui termine la preuve. 

Remarque II.5.9 Si les noyaux pt (x, dy) sont Markoviens conservatifs, l’extension minimale de ces noyaux
est triviale. Soit µ ∈ M1 (E∂ ) telle que µ({∂}) = 0. On a donc Pµ (Xt ∈ E) = 1. On en déduit que Pµ -p.s. pour
tout q ∈ Q+ , Xq ∈ E et comme X est càd, Xt ∈ E, t ∈ R+ et donc ζ = ∞. En revanche, par définition de
l’extension minimale, ∂ est absorbant et donc P∂ -p.s. pour tout t ∈ R+ , Xt = ∂ et donc ζ = 0. 

Le théorème suivant montre d’une part que les processus de Feller-Dynkin càd sont des processus de Hunt
et il donne un critère de continuité de ces processus en termes du semi-groupe.

Théorème II.5.10 Soit E, un espace topologique LCBD dont on note (E∂ , d) un compactifié habituel. Soient
pt (x, dy) des noyaux sous-Markoviens sur E dont le semi-groupe (Pt )t∈R+ est supposé Feller-Dynkin. On note
p∂t (x, dy) les extensions minimales de ces noyaux et on note (Pt∂ )t∈R+ le semi-groupe associé. Soit

Ω; F o ; (Gto )t∈R+ ; (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ ) ,



II.5. RÉGULARITÉ DES PROCESSUS DE MARKOV. 75

un processus de Markov. On note F et (Gt )t∈R+ les augmentations habituelles de resp. F o et (Gto )t∈R+ . On
suppose que X càdlàg.
• Alors, X est un processus de Hunt sur (Ω, F ) relativement à (Gt+ )t∈R+ (et les conclusions du théorème
II.5.8, page 73, s’y appliquent).
• On suppose de plus que pour tous sous-ensembles K ⊂ U ⊂ E, avec K compact et U ouvert, on a
1
sup t pt (x, E\U ) −−−−→ 0. (II.41)
x∈K t→0+

Alors
∀µ ∈ M1 (E∂ ), Pµ -p.s. X est continu sur [0, ζ[ . (II.42)
Preuve: il est clair que pour tout t ∈ R+ , Pt∂ (Cb (E∂ )) ⊂ Cb (E∂ ) est de Feller; ce semi-groupe satisfait
l’hypothèse (H) (définition II.1.13, page 48). La proposition II.5.2 implique que X est un processus de Hunt
(Ω, F ) relativement à (Gt+ )t∈R+ et le théorème II.5.8 s’applique à X, ce qui implique (II.36), (II.37) et (II.38).
Il reste à démontrer le second point. Soit x = (xt )t∈R+ , une fonction de R+ dans E∂ . On pose

∀δ, t ∈ R+ , wt (δ, x) = sup d(xs , xr ) ; s, r ∈ [0, t] tels que |s−r| ≤ δ .

On rappelle que x est continue sur [0, t] ssi limδ→0 wt (δ, x) = 0. Pour tout x ∈ E∂ et tout r ∈ R+ , on note
B(x, r) et B(x, r) les boules resp. ouvertes et fermées de centre x et de rayon r dans E∂ . Soit K, un compact
de E. On a d(∂, K) > 0 et pour tout réel strictement positif ε < 13 d(∂, K), on pose:

bε (t, K) = sup pt x, E\B(x, 3ε)
x∈K

On montre d’abord
1
b (t, K)
t ε
−−−−→ 0. (II.43)
t→0+
S
Pour cela, on se donne x1 , . . . , xj ∈ K tels que K ⊂ 1≤j≤p B(xj , ε). Comme B(xj , ε) est un compact de E∂ .
et que ε < 13 d(∂, K), on a B(xj , ε) ⊂ E, et donc B(xj , ε) est un compact de E. De même, B(xj , 2ε) est un
ouvert de E. On remarque ensuite que pour tout x ∈ B(xj , ε), B(xj , 2ε) ⊂ B(x, 3ε). On en déduit
1 1 1
X  X 
t
bε (t, K) ≤ sup t
p t x, E\B(x, 3ε) ≤ sup t pt x, E\B(xj , 2ε)
1≤j≤p x∈B(xj ,ε) 1≤j≤p x∈B(xj ,ε)

et (II.41) implique (II.43).


On fixe ensuite t, ε > 0 et K, compact de E. Pour toute mesure µ ∈ M1 (E∂ ), on a
 [ 
Pµ ∀s ∈ [0, t], Xs ∈ K ∩ d(X(k+1)t/n , Xkt/n ) > 3ε
0≤k<n
 [  
≤ Pµ Xkt/n ∈ K ∩ d(X(k+1)t/n , Xkt/n ) > 3ε
0≤k<n
X 
≤ Pµ Xkt/n ∈ K ; d(X(k+1)t/n , Xkt/n ) > 3ε .
0≤k<n

La propriété de Markov simple au temps kt/n implique que


  
Pµ Xkt/n ∈ K ; d(X(k+1)t/n , Xkt/n ) > 3ε = Eµ 1{Xkt/n ∈K} PXkt/n d(X0 , Xt/n ) > 3ε
76 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.
Z

= µpkt/n (dx)Px Xt/n ∈
/ B(x, 3ε)
ZK

= µpkt/n (dx)pt/n x, E\B(x, 3ε) ≤ bε (t/n, K) .
K

On en déduit que
 [ 
Pµ ∀s ∈ [0, t], Xs ∈ K ∩ d(X(k+1)t/n , Xkt/n ) > 3ε ≤ nbε (t/n, K) .
0≤k<n

Si K est un compact de E, et si ε < d(∂, K), alors pour tout t ∈ R+ , (II.43) implique que
 [ 
lim Pµ ∀s ∈ [0, t], Xs ∈ K ∩ d(X(k+1)t/n , Xkt/n ) > 3ε = 0 . (II.44)
n→∞
0≤k<n

Sur l’événement {Xs ∈ K; t ∈ [0, t]}, s’il existe s ∈ [0, t] tel que d(Xs− , Xs ) > 3ε, alors, pour tout n assez grand,
il existe kn tel que kn t/n < s ≤ (kn + 1)t/n et d(X(kn +1)t/n , Xkn t/n ) > 3ε. Par (II.44), cela montre que pour
tout t ∈ R+ , tout compact K ⊂ E et tout ε < d(∂, K), Pµ -p.s. sur {Xs ∈ K; s ∈ [0, t]}, on a d(Xs− , Xs ) ≤ 3ε
pour tout s ∈ [0, t]. Cela entraîne donc que Pµ -p.s. sur {Xs ∈ K; s ∈S[0, t]}, X est continu sur [0, t]. Soit
Kn = E∂ \B(∂, 2−n ), n ∈ N, S qui est une suite de compacts tels que E = n∈N Kn . Un simple argument montre
que Pµ -p.s. sur l’événementS n∈N {Xs ∈ Kn ; s ∈ [0, t]}, X est continu sur [0, t]. Or la propriété (II.38) implique
que {ζ > t} coïncide avec n∈N {Xs ∈ Kn ; s ∈ [0, t]} à un ensemble Pµ -négligeable près. On a donc montré
que pour tout t ∈ R+ , Pµ -p.s. sur l’événement {ζ > t}, X est continu sur [0, t], ce qui implique immédiatement
le résultat désiré. 

Pour conclure, nous introduisons une hypothèse de régularité légèrement plus faible que la propriété de
Hunt.

Définition II.5.11 (Processus standard) Soit E, un espace topologique LCBD dont on note (E∂ , d) un com-
pactifié habituel. Soient pt (x, dy) des noyaux sous-Markoviens sur E dont le semi-groupe est noté (Pt )t∈R+ .
On note p∂t (x, dy) les extensions minimales de ces noyaux et on note (Pt∂ )t∈R+ le semi-groupe associé. Soit

Ω; F ; (Gt )t∈R+ ; (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ ) ,




un processus de Markov. C’est un processus standard s’il satisfait les hypothèses suivantes.

(a) X est fortement Markovien relativement à (Gt )t∈R+ qui satisfait les hypothèses habituelles.

(b) Pour tout ω ∈ Ω, t ∈ R+ 7−→ Xt (ω) est càd.

(c) X est quasi-continu à gauche sur [0, ζ[ relativement à (Gt )t∈R+ , c’est-à-dire que pour toute suite crois-
sante de (Gt )t∈R+ -temps d’arrêt, tels que Tn ≤ Tn+1 , n ∈ N, si on pose T := supn∈N Tn , alors on a
∀µ ∈ M1 (E), Pµ -p.s. sur {T < ζ}, lim XTn = XT .
n→∞

On note bien la différence avec les processus de Hunt pour lesquels la quasi-continuité à gauche a lieu sur
tout R+ et non pas seulement sur [0, ζ[ . Les processus standard apparaissent assez naturellement, par exemple
lorsque l’on considère les processus de Markov à temps continu mais espace d’états discret. En adaptant les
preuves du théorème II.5.4 et du théorème II.5.8, on montre facilement le résultat suivant.
II.6. RÉGULARISATION DES PROCESSUS DE FELLER. 77

Théorème II.5.12 Soit E, un espace topologique LCBD dont on note (E∂ , d) un compactifié habituel. Soient
pt (x, dy) des noyaux sous-Markoviens sur E dont le semi-groupe est noté (Pt )t∈R+ . On note p∂t (x, dy) les
extensions minimales de ces noyaux et on note (Pt∂ )t∈R+ le semi-groupe associé. Soit
Ω; F ; (Gt )t∈R+ ; (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ ) ,


un processus de Markov standard. Alors pour toute mesure µ ∈ M1 (E∂ ), Pµ -p.s. X est càdlàg sur [0, ζ[ et
 
pour tout t ∈ [0, ζ[ , Xs ; s ∈ [0, t] = Xs , Xs− ; s ∈ [0, t] est un compact de E.

Remarque II.5.13 On a donc Feller-Dynkin càdlàg =⇒ Hunt =⇒ standard. Par ailleurs, les notions de
processus et de Hunt et de processus standard coïncident si les processus dont la durée est infinie partout.
En revanche, si Xζ− existe dans E∂ pour un processus de Hunt, ce n’est pas nécessairement le cas pour un
processus standard pour lequel des comportements plus complexes à l’approche de ζ. 

II.6 Régularisation des processus de Feller.


II.6.a Énoncé, résumé des résultats applicables, contruction canonique.
Dans la plupart des résultats précédents, on suppose les trajectoires du processus continues à droite. Le
théorème suivant construit une modification càdlàg à tout processus dont le semi-groupe est de Feller-Dynkin.

Théorème II.6.1 (Régularisation des processus de Feller-Dynkin) Soit E, un espace topologique LCBD dont on note
(E∂ , d) un compactifié habituel. Soient pt (x, dy), des noyaux sous-Markoviens sur E dont le semi-groupe est
noté (Pt )t∈R+ . On note p∂t (x, dy) les extensions minimales de ces noyaux et on note (Pt∂ )t∈R+ le semi-groupe
associé. Soit
Ω; F o ; (Gto )t∈R+ ; (Yt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ ) ,


un processus de Markov. On note F , (Gt )t∈R+ et (Ft (Y ))t∈R+ les augmentations habituelles de resp. F o ,
(Gto )t∈R+ et (Fto (Y ))t∈R+ .
On suppose que la restriction de (Pt )t∈R+ à C0 (E) est un semi-groupe de Feller-Dynkin. Alors, il existe

Ωo ∈ F∞
o R
(Y ) et X = (Xt )t∈R+ : Ω −→ E∂ +
qui satisfont les assertions suivantes.

(i) X est (Gt )t∈R+ -progressivement mesurable et pour tout ω ∈ Ω, t 7→ Xt (ω) est càdlàg dans E∂ .

(ii) Pour toute mesure µ ∈ M1 (E∂ ), on a Pµ (Ωo ) = 1 et


∀ω ∈ Ωo , ∀t ∈ R+ , Xt (ω) = lim Yq (ω)
q∈Q∩ ]t,∞[
q→t

(iii) Pour toute mesure µ ∈ M1 (E∂ ) et tout t ∈ R+ , Pµ (Xt = Yt ) = 1.

(iv) Pour tout t ∈ R+ , et tout mesure µ ∈ M1 (E∂ ), on a


Ftµ (X) = Ftµ (Y ) = Ft+
µ µ
(X) = Ft+ (Y ) et donc Ft (X) = Ft (Y ) = Ft+ (X) = Ft+ (Y )
autrement dit (Ft (X))t∈R+ satisfait les hypothèses habituelles.

(v) X est un processus de Hunt relativement à (Gt+ )t∈R+ , ou à (Ft (Y ))t∈R+ .

Le processus X est appelé régularisation du processus Y .


78 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

Résumé des résultats généraux applicables à un processus de Feller régulier. Rappelons brièvement les
résultats qui sont applicables au processus régularisé X du théorème précédent. Pour simplifier on suppose que
la filtration (Gt )t∈R+ est càd (elle satisfait donc les hypothèses habituelles).

• Loi du 0-1 de Blumenthal: pour tout B ∈ F0+ (X) = F0 (X) et pour tout x ∈ E∂ , on a Px (B) ∈ {0, 1}.
• Propriété de Markov forte pour les fonctionnelles augmentées: on suppose le processus X muni d’opérateurs
de décalage (θt )t∈R+ . Soit Z : Ω → R, une v.a. F∞ (X)-mesurable bornée. Soit T , un (Gt )t∈R+ -temps d’arrêt.
Alors 1{T <∞} Z ◦θT est G∞ -mesurable et pour toute mesure µ ∈ M1 (E∂ ), on a

Pµ -p.s. Eµ 1{T <∞} Z ◦θT GT = 1{T <∞} EXT [Z] .


 

• Quasi-continuité à gauche: soit (Tn )n∈N une suite de (Gt )t∈R+ -temps d’arrêt tels que Tn ≤ Tn+1 , n ∈ N. On
pose T = supn∈N Tn , qui est également un (Gt )t∈R+ d’arrêt. Alors pour toute mesure µ ∈ M1 (E∂ ), on a

Pµ -p.s. lim XTn = XT .


n→∞

• Continuité stochastique: pour tout t ∈ R+ et pour toute mesure µ ∈ M1 (E∂ ), Pµ (Xt− = Xt ) = 1.


• Absorption en ∂: la durée du processus X, notée ζ, satisfait

ζ = inf t ∈ R+ : Xt− ou Xt = ∂

avec la convention inf ∅ = ∞. On a d’une part

Pµ -p.s. ∀t ∈ [ζ, ∞[ , Xt = ∂ .

et  
Pµ -p.s. ∀t ∈ [0, ζ[ Xs ; s ∈ [0, t] = Xs , Xs− ; s ∈ [0, t] est un compact de E.

• Critère de continuité: on suppose que pour tous K, U ⊂ E, avec K ⊂ U , K compact, U ouvert, on a


1
sup t pt (x, E\U ) −−−−→ 0.
x∈K t→0+

Alors il existe Ω1 ∈ F∞ (Y ) tel que

∀µ ∈ M1 (E∂ ), Pµ (Ω1 ) = 1 et ∀ω ∈ Ω1 , t ∈ [0, ζ(ω)[ → Xt (ω) est continu.

Construction sur l’espace canonique. Soit E, un espace topologique LCBD dont on note (E∂ , d) un com-
pactifié habituel. On rappelle que D(R+ , E∂ ) désigne l’espace des fonctions cadlàg à valeurs dans E∂ et que
C(R+ , E∂ ) désigne l’espace des fonctions continues à valeurs dans E∂ . Pour tout t ∈ R+ et toute fonction
càdlàg w = (w(s))s∈R+ , on définit : Xtcan (w) = w(t), autrement dit (Xtcan )t∈R+ est le processus canonique
sur D(R+ , E∂ ). On note F can = σ(Xtcan , t ∈ R+ ), qui est la tribu trace sur D(R+ , E∂ ) de la tribu produit
B(E∂ )⊗R+ . On rappelle la notation θtcan pour l’opérateur de décalage au temps t: θtcan (w) = w(t + ·).

Théorème II.6.2 (Existence des processus de Feller réguliers) Soit E, un espace topologique LCBD dont on note
(E∂ , d) un compactifié habituel. Soient pt (x, dy) des noyaux sous-Markoviens sur E dont le semi-groupe est
noté (Pt )t∈R+ . On note p∂t (x, dy) les extensions minimales de ces noyaux et on note (Pt∂ )t∈R+ le semi-groupe
associé. On suppose que (Pt )t∈R+ est de Feller-Dynkin.
II.6. RÉGULARISATION DES PROCESSUS DE FELLER. 79

Alors, pour toute mesure µ ∈ M1 (E∂ ), il existe une mesure de probabilité Pµ sur l’espace mesurable
(D(R+ , E∂ ), F can ) telle que sous Pµ , X can est un processus de Markov de semi-groupe (Pt∂ )t∈R+ et de loi
intiale µ. On note NPµ l’ensemble des Pµ -négligeables et on pose
\ \
F := σ F can , NPµ Ft := σ Ftcan , NPµ ,
 
et t ∈ R+ .
µ∈M1 (E∂ ) µ∈M1 (E∂ )

Alors
D(R+ , E∂ ); F ; (Ft )t∈R+ , X can ; (θtcan )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ )


est un processus de Markov, la filtration (Ft )t∈R+ satisfait les hypothèse habituelles: c’est un processus de
Hunt qui est appelé "réalisation canonique du semi-groupe de Feller-Dynkin (Pt )t∈R+ ".

Preuve: on note Y = (Yt )t∈R+ le processus canonique sur E∂ + . Soit µ ∈ M1 (E∂ ). Le théorème II.2.4
R

(page 54), basé sur le théorème d’extension de Kolmogorov, montre l’existence la la mesure de probabilité
Pµ : B(E∂ )⊗R+ → [0, 1] telle que sous Pµ , Y soit un processus de Markov de semi-groupe (Pt∂ )t∈R+ et de
loi initiale µ. On applique le théorème de régularisation II.6.1 qui précède et on note X la régularisation de Y .
On note alors Pµ la loi de X sous Pµ . Il est clair que Pµ est une mesure de probabilité sur l’espace canonique
des fonctions càdlàg. On conclut ensuite facilement. 

II.6.b Préliminaires sur les fonctions sur-médianes.


On reprend les notations du théorème II.6.1. On introduit tout d’abord la notion de fonction sur-médiane.

Définition II.6.3 (Fonctions p-sur-médianes associées à un semi-groupe) Soit E, un espace topologique LCBD.
Soit (Pt )t∈R+ , un semi-groupe de Feller-Dynkin sur C0 (E). Une fonction g ∈ C0 (E) est dite p-sur-médiane si

∀t ∈ R+ , ∀x ∈ E∂ , 0 ≤ e−pt Pt g(x) ≤ g(x) ,

ce qui implique notamment que g est positive. 


Cette définition s’interprète de manière probabiliste comme suit.

Lemme II.6.4 On reprend les notations du théorème II.6.1. Il y a équivalent entre les deux assertions suiv-
antes.

(a) Soit µ ∈ M1 (E∂ ). Alors, sous Pµ , (e−pt g(Yt ))t∈R+ est une (Gto )t∈R+ -sur-martingale.

(b) g est p-sur-médiane.

Preuve: pour tout t ∈ R+ , e−pt g(Yt ) est une v.a. (Gto )-mesurable positive bornée par e−pt kgk∞ : elle est donc
intégrable. Soit s ∈ R+ . La définition des processus Markoviens implique

Pµ -p.s. Eµ e−p(s+t) g(Ys+t ) Gto = e−pt e−ps (Ps g)(Yt ) .


 
(II.45)

Si g est sur-médiane, on a e−pt e−ps (Ps g)(Yt ) ≤ e−pt g(Yt ) ce qui implique (a). Si on suppose (a), on applique
(II.45) avec µ = δx et t = 0, pour montrer que g est p-sur-médiane. 

Le lemme suivant donne un exemple de fonction sur-médiane.


80 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

Lemme II.6.5 On reprend les notations du théorème II.6.1. Pour tout p ∈ ]0, ∞[ , toute fonction f ∈ C0 (E) et
tout x ∈ E, il y a un sens à poser: Z ∞
Up f (x) := e−pt Pt f (x) dt . (II.46)
0

Alors, Up f ∈ C0 (E) et Up : C0 (E) → C0 (E) est une application linéaire telle que

∀p ∈ ]0, ∞[ , ∀f ∈ C0 (E) , kpUp f k∞ ≤ kf k∞ et ∀x ∈ E, lim pUp f (x) = f (x) . (II.47)


p→∞

La famille d’opérateurs (Up )p∈]0,∞[ est appelé la famille des résolvantes associée au semi-groupe (Pt )t∈R+ .
De plus, toute fonction positive f ∈ C0 (E), pUp f est p-surmédiane.

Preuve: le lemme II.1.14 (ii), page 49, montre que t ∈ R+7→ Pt f (x) est continue à droite et borné par kf k∞ ;
la définition (II.46) a donc un sens. Puisque pour tout t ∈ R+ , Pt f ∈ C0 (E), le théorème de convergence
dominée
R∞ R ∞Up f ∈
implique facilement que
−ps
C0 (E). Par ailleurs, la linéarité de Up est claire. Comme |Up f (x)| ≤
−ps
0 ds e |Ps f (x)| ≤ kf k∞ 0 ds e , on a déduit que kpUp f k∞ ≤ kf k∞ Enfin, par un changement de
variable élémentaire on a
Z ∞ Z ∞
−pt
ds e−s Ps/p f (x)−f (x) .
 
pUp f (x)−f (x) = dt pe Pt f (x)−f (x) =
0 0

Le fait que pour tout s ∈ R+ , on ait limp→∞ Ps/p f (x) = f (x), combiné au théorème de convergence dominée,
implique la limite dans (II.47).
Soit f ∈ C0 (E) positive. Montrons ensuite que pUp f est p-surmédiane: à l’aide du théorème de Fubini et
l’équation de Kolmogorov-Chapman, on montre les inégalités suivantes,
Z Z Z ∞ Z
−ps
Pt (Up f )(x) = pt (x, dy)Up f (y) = pt (x, dy) ds e ps (y, dz)f (z)
ZE∞ Z E
Z 0
Z ∞E
= ds e−ps pt (x, dy) ps (y, dz)f (z) = ds e−ps Ps+t f (x)
0 E E 0
Z ∞ Z ∞
−ps
= e pt
ds e Ps f (x) ≤ e pt
ds e−ps Ps f (x) = ept Up f (x) , (II.48)
t 0

l’inégalité étant une conséquence du fait que f est positive. Cela implique donc que e−pt Pt (pUp f )(x) ≤
pUp f (x), ce qui termine la preuve du lemme. 

Les résultats précédents sont utilisé pour montrer le lemme suivant.

Lemme II.6.6 On reprend les notations du théorème II.6.1. Il existe une suite de fonctions hn : E∂ → R,
n ∈ N, qui satisfait les conditions suivantes.

(i) Pour tout n ∈ N, hn ∈ C0 (E) et 0 ≤ hn ≤ 1.

(ii) Pour tout x ∈ E, h0 (x) > 0.

(iii) (hn )n∈N sépare les points: pour tous x, y ∈ E∂ distincts, il existe n ∈ N tels que hn (x) 6= hn (y).

(iv) Pour tout n ∈ N, il existe mn ∈ N∗ tel que hn est mn -sur-médiane.


II.6. RÉGULARISATION DES PROCESSUS DE FELLER. 81

Preuve: soit une suite xn ∈ E, n ∈ N, une suite dense dans E; on introduit les fonctions suivantes

∀x ∈ E∂ , f0 (x) = 1 ∧ d(x, ∂) et ∀n ∈ N∗ , fn (x) = 1 ∧ d(x, xn ) ∧ d(x, ∂). (II.49)

Il est clair que fn ∈ C0 (E) et 0 ≤ fn ≤ 1. De plus, (fn )n∈N sépare les points c’est-à-dire:

∀x, y ∈ E∂ tels que x 6= y, ∃n ∈ N : fn (x) 6= fn (y) . (II.50)

En effet, soient x, y ∈ E∂ , distincts. Sans perte de généralité, on peut supposer que x 6= ∂: on a f0 (x) > 0 et
si y = ∂, f0 (x) > f0 (y) = 0. Supposons ensuite que x, y ∈ E: on pose δ := d(x, y) ∧ d(x, ∂) ∧ d(y, ∂) > 0.
Il existe n ∈ N tel que d(x, xn ) < δ/2. Donc fn (x) < δ/2 et l’inégalité triangulaire implique d(y, xn ) ≥
d(x, y)−d(x, xn ) > δ/2. Comme d(y, ∂) ≥ δ, cela entraîne fn (y) > δ/2, ce qui montre (II.50).
On introduit ensuite les fonctions suivantes

∀n ∈ N, ∀m ∈ N∗ , gm,n := mUm fn . (II.51)

On a donc gm,n ∈ C0 (E), 0 ≤ gm,n ≤ 1. Le lemme II.6.5 implique que gm,n est m-sur-médiane. On remarque
ensuite que
∀x ∈ E, g1,0 (x) > 0 . (II.52)
En effet, la propriété de Feller implique que pour tout x ∈ E, lims→0 Ps f0 (x) = f0 (x)R> 0. Donc si x ∈ E,

s 7→ Ps f0 (x) est strictement positif pour tout s dans un voisinage de 0. Cela implique 0 ds e−s Ps f0 (x) > 0
et on a donc g1,0 (x) = U1 f0 (x) > 0.
La famille de fonctions gm,n sépare les points:

∀x, y ∈ E∂ tels que x 6= y, ∃(m, n) ∈ N∗ ×N : gm,n (x) 6= gm,n (y) . (II.53)

En effet, il existe n ∈ N, tel que fn (x) 6= fn (y). Or par (II.47) on a limm→∞ gm,n (x) = fn (x) et limm→∞ gm,n (y) =
fn (y), ce qui entraîne (II.53). On ré-indexe la suite (gm,n )m≥1,n≥0 en une suite (hn )n∈N avec h0 := g1,0 , qui
satisfait les propriétés désirées. 

On utilise les fonctions hn pour "coder" E∂ par [0, 1]N . Pour cela on utilise un fait élémentaire de topologie,
qui est rappelé sous la forme du lemme suivant.

Lemme II.6.7 Soient E1 et E2 deux espaces topologiques séparés. Soit K1 ⊂ E1 , un compact et soit Φ : G1 →
E2 , une fonction continue.

(i) K2 := Φ(K1 ) est un compact de K1 .

(ii) Supposons de plus que Φ soit injective. On note Ψ : K2 → K1 sa réciproque. Alors, Ψ est continue:
autrement dit Φ est un homéomorphisme de K1 sur K2 .

−1 (K ) ⊂ Φ−1 (
S
Preuve: soit Vi ⊂ E 2 , i ∈ I, une famille d’ouverts recouvrants K 2 . Alors K1 = Φ 2 i∈I Vi ) =
−1 −1
S
i∈I Φ (Vi ). Comme K1 est compact et que les Φ (V S i ) sont des ouverts de E1 (par continuité de f ), il
existe I0 ⊂ I, I0 fini, tel que K1 ⊂ i∈I0 Φ−1 (Vi ) = Φ−1 ( i∈I0 Vi ), ce qui implique que K2 ⊂ i∈I0 Vi . Donc,
S S
K2 a la propriété de recouvrement fini: c’est donc un compact. Soit F , un fermé de E1 , Ψ−1 (F ) = Φ(F ∩ K1 )
qui est compact par le premier point et car F ∩ K1 est un fermé du compact K1 donc compact car E1 a une
topologie séparée. Cela montre la continuité de Ψ. 
82 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

On applique ce résultat à l’espace compact E1 = K1 = E∂ et à E2 qui est l’espace J := [0, 1]N des
suites à valeurs dans [0, 1] muni de la topologie produit, c’est-à-dire que la convergence dans J correspond
à la convergence coordonnée par coordonnée. On rappelle que J est compact et on vérifie facilement que
que la topologie produit correspond à la métrique suivante: pour tous u = (un )n∈N et v = (vn )n∈N ∈ J,
δ(u, v) := n≥0 2−n−1 |un −vn |.
P

Lemme II.6.8 On rappelle la définition des fonctions (hn )n∈N du lemme II.6.6. Pour tout x ∈ E∂ , on pose
Φ(x) := (hn (x))n∈N , qui satisfait les propriétés suivantes.

(i) Φ : E∂ → J est continue injective.

(ii) K := Φ(E∂ ) est un compact de J et la préciproque Ψ : K → E∂ de Ψ est continue.


Preuve: le lemme II.6.7 montre que (i) implique (ii). Il suffit de montrer (i). Comme les hn sont continues
et que J est muni de la topologie produit, Φ est continue. Il reste à montrer que Φ est injective: c’est une
conséquence immédiate du fait que la suite (hn )n∈N sépare les points (lemme II.6.6 (iii)). 

II.6.c Preuve du théorème II.6.1 de régularisation des processus de Feller.


On se place sous les hypothèses du théorème II.6.1. On rappelle la définition I.4.1 (page 35) de l’ensemble
Reg(R+ ) des fonctions de R+ dans R qui sont régularisables. On rappelle le point (iv) du lemme II.6.6, page
80. Pour tout n ∈ N, on pose
(n) (n)
∀t ∈ R+ , ∀ω ∈ Ω, Mt := e−mn t hn (Yt (ω)) et Ωn := ω ∈ Ω : (Mt )t∈R+ ∈ Reg(R+ ) .


Le corollaire I.4.6 (page 37) implique que

∀n ∈ N, Ωn ∈ F∞
o
(Y ) .

Comme hn est mn -surmédiane, le lemme II.6.4, page 79, implique que pour toute µ ∈ M1 (E∂ ), sous Pµ , M (n)
est une (Gto )t∈R+ -sur-martingale. Le théorème I.4.9 de régularisation des sur-martingales (page 38) implique
alors que Pµ (Ωn ) = 1. Si on pose Ωo := n∈N Ωn , alors
T

Ωo ∈ F∞
o
(Y ) et ∀µ ∈ M1 (E∂ ), Pµ (Ωo ) = 1 .

Comme t 7→ e−mn t est continue, on constate que

∀ω ∈ Ωo , ∀n ∈ N,

hn (Yt (ω)) t∈R+ ∈ Reg(R+ ) .

La définition I.4.1 (page 35) des fonctions régularisables et le théorème I.4.2 (page 35) implique que
(n) (n)
∀ω ∈ Ωo , ∀n ∈ N, ∀t ∈ R+ , Ht (ω) := lim hn (Yq (ω)) existe dans R et t 7→ Ht (ω) est càdlàg.
q∈Q∩]t,∞[
q→t

On rappelle la définition des fonctions Φ et Ψ du lemme II.6.8, page 82. On pose alors
(n)
Xt (ω) := Ψ (Ht (ω))n∈N si ω ∈ Ωo Xt (ω) := ∂ si ω ∈ Ω\Ωo .

∀t ∈ R+ , ∀ω ∈ Ω, et
(n)
Comme J est muni de la topologie produit, pour tout ω ∈ Ω0 , t 7→ ((Ht (ω))n∈N est càdlàg dans J. Comme
Ψ est continu (lemme II.6.8 (ii)) et comme X est constant hors de Ωo , on en déduit que

∀ω ∈ Ωo , t 7→ Xt (ω) est càdlàg.


II.6. RÉGULARISATION DES PROCESSUS DE FELLER. 83

Le fait que Ψ (ou Φ) soit bijectif implique que partout sur Ω on ait

∀t ∈ R+ , Yt = Ψ (hn (Yt ))n∈N

et la continuité de Ψ implique alors que

∀ω ∈ Ωo , ∀t ∈ R+ , Xt (ω) = lim Yq (ω) dans E∂ .


q∈Q∩]t,∞[
q→t

Le théorème I.4.9 de régularisation des sur-martingales (page 38) implique également que
µ
∀µ ∈ M1 (E∂ ), (Xt )t∈R+ est (Ft+ (Y ))t∈R+ -adapté
µ
où on rappelle que (Ft+ (Y ))t∈R+ est la filtration (Fto (Y ))t∈R+ qui est Pµ -complétée et rendue continue à
droite. Cela implique donc que

(Xt )t∈R+ est (Ft+ (Y ))t∈R+ -adapté et donc (Gt+ )t∈R+ -adapté également.

On montre plus bas qu’en fait X est (Gt )t∈R+ -adapté. À ce point près, on a montré les points (i) et (ii) du
théorème II.6.1 de régularisation des processus de Feller-Dynkin.
Montrons le point (iii). Pour cela on fixe µ ∈ M1 (E∂ ), t ∈ R+ , f, g ∈ C0 (E) et une suite qn ∈ Q∩ ]t, ∞[ ,
n ∈ N, décroissant vers t. Les points (i) et (ii) du théorème de régularisation combinés avec le théorème de
convergence dominée entraînent
   
Eµ f (Xt )g(Yt ) = lim Eµ f (Yqn )g(Yt ) (II.54)
n→∞

La définition des processus de Markov entraîne ensuite que


   
Eµ f (Yqn )g(Yt ) = Eµ Pqn −t f (Yt )g(Yt ) . (II.55)

Comme le semi-groupe est Fellérien, limn→∞ Pqn −t f (Yt ) = f (Yt ) partout sur Ω. Par convergence dominée,
on obtient donc    
∀f, g ∈ C0 (E), Eµ f (Xt )g(Yt ) = Eµ f (Yt )g(Yt ) . (II.56)
Par un raisonnement de classe monotone, on en déduit que pour toute fonction F : E∂2 → R qui est B(E∂ )⊗2 -
mesurable bornée, on a    
Eµ F (Xt , Yt ) = Eµ F (Yt , Yt ) . (II.57)
Il s’agit d’un argument de routine que nous détaillons.
Preuve de (II.57): soient U, V ⊂ E∂ deux ouverts. Pour tout n ∈ N, on pose fn (x) = 1∧nd(x, E∂ \U ) et gn (x) =
1∧nd(x, E∂ \V ). On vérifie facilement que fn , gn ∈ C0 (E), que 0 ≤ fn ≤ fn+1 ≤ 1U et 0 ≤ gn ≤ gn+1 ≤ 1V et
enfin que fn → 1U et fn → 1V ponctuellement. En appliquant (II.56) à fn et gn et en utilisant la convergence
monotone, on obtient que
   
∀U, V ⊂ E∂ ouverts, Eµ 1U (Xt )1V (Yt ) = Eµ 1U (Yt )1V (Yt ) . (II.58)

On note ensuite P := U×V ; U, V ⊂ E∂ ouverts . On remarque que P est un pi-système générant B(E∂ )⊗2 .


On note ensuite H l’ensemble des fonctions F qui sont B(E∂ )⊗2 -mesurables bornées et qui satisfont (II.57).
Il est clair que H est un R-espace vectoriel. De plus, (II.58) montre que pour tout C ∈ P, 1C ∈ H . Le
théorème de convergence monotone montre que H est stable par limite ponctuelle de fonctions positives
84 CHAPTER II. GÉNÉRALITÉS SUR LES PROCESSUS MARKOVIENS.

croissantes uniformément bornées. L’espace H satisfait donc les hypothèses du théorème A.1.20 de classe
monotone fonctionnelle (page 207) et ce théorème permet d’affirmer que H est l’ensemble des fonctions
B(E∂ )⊗2 -mesurables bornées, ce qui prouve (II.57).
On note ∆ := {(x, x); x ∈ E∂ } qui est un fermé  de E∂2 , donc un Borélien de cet espace. On peut donc
appliquer (II.57): Pµ (Xt = Yt ) = Eµ 1∆ (Xt , Yt ) = Eµ 1∆ (Yt , Yt ) = Pµ (Yt = Yt ) = 1, ce qui prouve le point
(iii) du théorème de régularisation des processus de Feller.
Le point (iii) implique que pour tout t ∈ R+ , et toute mesure µ ∈ M1 (E∂ ), on Xt est Ftµ (Y )-mesurable, ce
qui implique que Xt est Gtµ -mesurable car Fto (Y ) ⊂ Gto . Comme cela est vrai pour toute mesure µ, Xt est donc
Gt -mesurable. Comme X est càd, la proposition I.2.22, page 24, implique que X est (Gt )t∈R+ -progressivement
mesurable.
On fixe ensuite s, t ∈ R+ , f ∈ Lb (E∂ ) et µ ∈ M1 (E∂ ). On a Gto ⊂ Gt ⊂ Gtµ , et le point (iii) implique que
Pµ -p.s. f (Xt+s ) = f (Ys+t ) et Ps f (Xt ) = Ps f (Yt ); le lemme I.4.7 (page 38) entraîne alors que Pµ -p.s.

E f (Xt+s ) Gt = Eµ f (Yt+s ) Gto = Ps f (Yt ) = Ps f (Xt ) .


   

On a donc montré que Ω; F , (Gt )t∈R+ ; X = (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ ) est un processus


Markovien. Comme X est càdlàg et comme (Pt )t∈R+ est de Feller-Dynkin, le théorème II.3.4 (page 60)
montre que X est fortement Markovien relativement à (Gt+ )t∈R+ . Le théorème II.4.6 de régularité à droite des
µ
filtration naturelles augmentées (page 65) entraîne que Ft+ (X) = Ft (X)µ , ce qui implique le point (iv) du
théorème II.6.1. Enfin la proposition II.5.2, page 71, entraîne le point (v). 
Chapter III

Processus de Feller: résolvantes et


générateur.

III.1 Théorie de Hille-Yosida.


Cette section est consacrée à l’étude générale des semi-groupes continus sur des espaces de Banach, de leurs
résolvantes et leur générateur. Ces résultats d’analyse sont ensuite appliqués aux semi-groupes de Feller.

III.1.a Quelques points de calcul intégral et différentiel dans les Banach.


Dans ce qui suit, H désigne un espace de Banach réel, c-à-d. un R-espace vectoriel normé complet; | · | est la
norme de H. Dans ce contexte, une application linéaire Q : H → H est appelée un opérateur. On rappelle que
les assertions suivantes sont équivalentes.

(a) Q est continu.

(b) Il existe v ∈ H tel que Q soit continu en v.

(c) Q est continu en 0.

(d) Il existe c ∈ ]0, ∞[ , tel que v ∈ H, |Qv| ≤ c|v|.

Plutôt que de dire qu’un opérateur est continu on dit qu’il est borné, ce qui eut prêter à confusion. Autrement
dit "Q : H → H opérateur borné" signifie "Q endomorphisme continu sur H". On note L(H) l’ensemble des
opérateurs bornés sur H; L(H) est un espace vectoriel réel que l’on munit de la norme suivante:

∀Q ∈ L(H), kQk := sup |Qv| ; v ∈ H : |v| ≤ 1

La vérification du fait que k·k est une norme est facile. On appelle k·k la norme d’opérateur associée à | · | et
on montre facilement que (L(H), k·k) est un espace de Banach. Soient P, Q ∈ L(H); la composition de P et
Q est simplement notée P Q; on vérifié facilement que

kP Qk ≤ kP kkQk .

c’est-à-dire que la norme d’opérateur est sous-multiplicative.

85
86 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

On note H 0 le dual topologique de H qui est l’espace des formes linéaires continues. On vérifie facilement
que pour toute φ ∈ H 0 , il existe c ∈ ]0, ∞[ , tel que |φ(v)| ≤ c|v|, pour tout v ∈ H et on munit H 0 de la norme

∀φ ∈ H 0 , |φ|0 := sup{|φ(v)|; v ∈ H : |v| ≤ 1} ,

On rappelle que H 0 muni de | · |0 est un espace de Banach. On rappelle le théorème de Hahn-Banach: soit
v ∈ H, un vecteur non-nul. Alors il existe φ ∈ H 0 telle que φ(v) 6= 0. Établissons d’abord quelques résultats de
calcul intégral pour les fonctions de R+ à valeurs dans les Banach.

Lemme III.1.1 Soit H, Banach de norme | · |. Soit t ∈ R+ 7−→ vt ∈ H, une fonction supposée uniformément
R et bornée par une constante notée c ∈]0, ∞[ . Soit µ ∈ Mf (R+ ). Alors, il existe un élément de H,
continue
noté R+ µ(dt) vt tel que
Z X
µ(dt) vt = lim lim µ(Ik,n )vk2−n , (III.1)
R+ n→∞ m→∞
0≤k≤m

où les limites ont lieu pour la norme | · | et où Ik,n désigne l’intervalle [k2−n , (k + 1)2−n [ , k, n ∈ N. Les
propriétés suivantes sont également vérifiées.

R
(i) | R+ µ(dt) vt | ≤ c µ(R+ ).

(ii) Pour toute φ ∈ H 0 , la fonction t ∈ R+ 7→ φ(vt ) ∈ R est uniformément continue bornée et


Z  Z
φ µ(dt) vt = µ(dt) φ(vt ) .
R+ R+

(iii) Soit t ∈ R+ 7→ wt ∈ H, une fonction uniformément continue et bornée. Soient Q, R ∈ L(H). Alors
t 7→ Qvt + Rwt est également uniformément continue et bornée et
Z Z Z

µ(dt) Qvt + Rwt = Q µ(dt) vt + R µ(dt) wt .
R+ R+ R+

Preuve: on fixe n ∈ N. Pour tous entiers m1 , m2 ≥ m,


X X X
µ(Ik,n )vk2−n − µ(Ik,n )vk2−n ≤ cµ(In,k ) = cµ([m2−n , ∞[) −−−→ 0


m→∞
0≤k≤m1 0≤k≤m2 k≥m

P 
ce qui monte que la suite des sommes partielles 0≤k≤m µ(Ik,n )vk2−n m∈N est de Cauchy dans H. Comme
H est complet, la limite
X X
Jn := µ(Ik,n )vk2−n := lim µ(Ik,n )vk2−n
m→∞
k∈N 0≤k≤m

est bien définie dans H. On vérifie ensuite que (Jn )n∈N est également de Cauchy dans H. En effet, on remarque
d’abord que
X X 
Jn+p − Jn = µ(Ik+`,n+p ) v`2−n−p − vk2−n .
n∈N k2p ≤`<(k+1)2p
III.1. THÉORIE DE HILLE-YOSIDA. 87

Pour tout n ∈ N, on pose ensuite ωn = sup{|vt − vs |; t, s ∈ R+ : |t − s| ≤ 2−n } qui tend vers 0 lorsque n → ∞.
Alors X X
|Jn+p − Jn | ≤ µ(Ik+`,n+p )ωn ≤ µ(R+ )ωn
n∈N k2p ≤`<(k+1)2p
R
Il existe donc J qui est la |·|-limite des Jn et on a (III.1) avec J = R+ µ(dt) vt . Au passage, on a montré que
|Jn | ≤ c µ(R+ ), ce qui implique (i).
Soit φ ∈ H 0 . On a
Z  X Z

Z
φ µ(dt) vt = lim lim µ(Ik,n )φ(vk2−n ) = lim µ(dt) φ v2−n b2n tc = µ(dt) φ(vt ) ,
R+ n→∞ m→∞ n→∞ R R+
0≤k≤m +

la première égalité découlant de la continuité de φ, la deuxième du théorème de convergence dominée et la


troisième de la continuité de t 7→ φ(vt ) et du théorème de convergence dominée. Cela montre (ii).
Montrons (iii): clairement t 7→ Qvt + Rwt est uniformément continu et borné. La continuité des opérateurs
Q et de R impliquent alors que
Z Z X Z
 
Q µ(dt) vt + R µ(dt) wt = lim lim µ(Ik,n ) Qvk2−n + Rwk2−n = µ(dt) Qvt + Rwt ,
R+ R+ n→∞ m→∞ R+
0≤k≤m

la première égalité découlant de la continuité et de la linéarité de Q et de R. 


On rappelle ensuite la notion de dérivée suivante.

Définition III.1.2 Soit H, un Banach de norme | · |. Soit t ∈ R+ 7−→ vt ∈ H, une fonction. Elle est dite
dérivable en t s’il existe w ∈ H tel que

lim |s−1 (vs+t − vt ) − w| = 0 . (III.2)


s→0
s6=0

d
Il est clair qu’il n’existe qu’un w tel que (III.2) et on note ce vecteur w = dt vt , qui est la dérivée de (vt )t∈R+
en t. De même, on définit les notions de limite à gauche et de limite à droite:

d+ d−
vt = lim s−1 (vs+t − vt ) et vt = lim s−1 (vt − vt−s )
dt s→0 dt s→0
s>0 s>0

la limite à gauche n’ayant de sens que si t > 0. 

On laisse au lecteur le soin de montrer l’équivalence des assertions suivantes:

(a) (vt )t∈R+ est dérivable en t,

(b) (vt )t∈R+ est dérivable à droite et à gauche en t et ces deux dérivées coïncident.
d d+ d−
Dans ce cas, dt vt = dt vt = dt vt .

Proposition III.1.3 Soit H, un Banach de norme | · |. Pour tout t ∈ R+ , on se donne vt , wt ∈ H. Alors les
propriétés suivantes sont vérifiées.
88 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

(i) Soient Q, R ∈ L(H). On suppose (vt )t∈R+ et (wt )t∈R+ dérivables en t (resp. dérivables à gauche,
dérivables à droite en t). Alors (Qvt + Rwt )t∈R+ est dérivable en t (resp. dérivable à gauche, dérivable
à droite en t) et on a
d d d
(Qvt + Rwt ) = Q vt + R wt ,
dt dt dt
(resp. avec les égalités correspondantes pour les dérivées à gauche et à droite).

(ii) Soit φ ∈ H 0 . On suppose (vt )t∈R+ dérivable en t (resp. à gauche, à droite en t) On pose f (t) = φ(vt ),
pour tout t ∈ R+ . Alors f est dérivable en t (resp. à gauche, à droite en t) et
d 
f 0 (t) = φ vt
dt
(resp. avec les égalités correspondantes pour les dérivées à gauche et à droite).
Rt
(iii) On suppose que (wt )t∈R+ est uniformément continue et bornée. Pour tout t ∈ R+ , on pose xt := 0 ds ws .
d
Alors, (xt )t∈R+ est dérivable partout sur R+ et dt x t = wt , t ∈ R + .
d
(iv) On suppose que (vt )t∈R+ est dérivable sur R+ et que ( dt vt )t∈R+ est uniformément continue et bornée.
Alors, Z t
d
∀t ∈ R+ , vt − v0 = ds vs .
0 ds

Preuve: les points (i) et (ii) découlent directement de la définition. Le point (iii) est élémentaire: nous le
laissons en exercice. Montrons (iv). Pour cela on fixe φ ∈ H 0 et on pose f (t) = φ(vt ), pour tout t ∈ R+ . Par
(i), f est dérivable partout etRf 0 est uniformément continue et bornée. Le théorème fondamental de l’analyse
t
implique que f (t) − f (0) = 0 ds f 0 (s). On a donc
Z t Z t
d   d 
φ(vt − v0 ) = ds φ vs = φ ds vs ,
0 ds 0 ds

la première égalité découlant du (i) et la seconde du lemme III.1.1 (ii). Comme cela est vérifié pour toute
forme linéaire continue φ ∈ H 0 , cela implique (iv) par le théorème de Hahn-Banach. 

III.1.b Semi-groupes, contractivité, forte continuité: définitions et premières propriétés.


Semi-groupes contractants sur les espaces de Banach.

Définition III.1.4 Soit H, un Banach de norme | · |. Pour tout t ∈ R+ , soit Pt ∈ L(H). Alors (Pt )t∈R+ est un
semi-groupe s’il satisfait la condition suivante.

(a) Semi-groupe: Ps+t = Ps Pt , pour tous s, t ∈ R+ .

Si (Pt )t∈R+ est un semi-groupe, il est dit contractant s’il satisfait la condition suivante.

(b) Contractivité:|Pt v| ≤ |v|, pour tout v ∈ H et pour tout t ∈ R+ .

Un semi-groupe contractant (Pt )t∈R+ est dit fortement continu sur H s’il satisfait la condition suivante.
III.1. THÉORIE DE HILLE-YOSIDA. 89

(c) Continuité forte: limt→0 |Pt v − v| = 0, pour tout v ∈ H, ce qui entraîne immédiatement que P0 = Id,
l’identité sur H. 

Proposition III.1.5 Soit (Pt )t∈R+ , un semi-groupe contractant d’opérateurs sur un espace de Banach (H, | · |).
On définit le domaine de continuité forte du semi-groupe comme l’espace

H0 = v ∈ H : lim |Pt v − v| = 0 .
t→0

Alors, les propriétés suivantes sont vérifiées.

(i) H0 est un sous-espace vectoriel fermé de H.

(ii) P0 est l’identité sur H0 .

(iii) Pour tout t ∈ R+ , Pt (H0 ) ⊂ H0 .

Autrement dit (Pt )t∈R+ restreint à H0 est un semi-groupe contractant fortement continu sur H0 .

Preuve: soient vn ∈ H0 , n ∈ N convergeant vers v ∈ H. Comme les Pt sont des contractions on a

|Pt v − v| ≤ |Pt vn − vn | + |Pt (v − vn )| + |v − vn | ≤ |Pt vn − vn | + 2|v − vn | .

Donc lim supt→0 |Pt v − v| ≤ 2|v − vn | → 0 lorsque n → ∞, ce qui implique (i). Soit v ∈ H0 . On voit
immédiatement que limt→0 |Pt v − v| = 0 implique que |P0 v − v| = 0, ce qui entraîne (ii). Soit v ∈ H0 et
s ∈ R+ . Par les propriétés de semi-groupe et de contractivité on a

|Pt Ps v − Ps v| = |Ps (Pt v − v)| ≤ |Pt v − v| −→ 0

lorsque t → 0. On a donc Ps v ∈ H0 , ce qui implique (iii) et ce qui termine la preuve de la proposition. 

L’exemple des exponentielles d’opérateurs bornés.

Définition III.1.6 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme Pd’opérateur associée à
| · |. Soit A ∈ L(H). On rappelle que pour tout n ∈ N, kAn k ≤ kAkn . Par conséquent n∈N kAn k/n! < ∞, ce
qui permet de définir la série k·k-normalement convergente d’opérateurs bornés:
1 n 1 k
X X
eA = n!
A = k·k- lim k!
A
n→∞
n∈N 0≤k≤n

qui l’opérateur exponentiel de A. On a donc eA ∈ L(H). 

On montre les propriétés suivantes.

Lemme III.1.7 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme d’opérateur associée à | · |.
Soit A ∈ L(H). Les propriétés suivantes sont vérifiées.

(i) keA k ≤ exp(kAk).


90 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

(ii) Pour tout v ∈ H,


1 n 1 k
X X
eA v = n!
A v = |·|- lim k!
A v
n→∞
n∈N 0≤k≤n

(iii) Soit c ∈ R. Alors ecId = ec Id.

(iv) Soit B ∈ L(H) tel que AB = BA. Alors, eA eB = eA+B .

Preuve: l’inégalité triangulaire pour la norme d’opérateurs k·k et sa sous-multiplicativité impliquent que pour
tout n ∈ N X 1 X 1
k
k k!
A k ≤ k!
kAkk
0≤k≤n 0≤k≤n

et on obtient (i) lorsque n → ∞. Le point (ii) découle facilement de la définition de l’exponentielle de A. On


obtient le point (iii) en remarquant que (cId)n = cn Id.
P 1 k P 1 k
Montrons (iv). Pour tout N ∈ N, on pose QN := 0≤k≤N k! A et RN := 0≤k≤N k! B . On a donc
 
X 1 k `
X 1 X n k n−k
QN RN = k! `!
A B = n!
1 {(n−k)∨k≤N } A B .
k
0≤k,`≤N 0≤n≤2N 0≤k≤n

n
Or comme A et B commutent, (A + B)n = Ak B n−k et donc
P 
0≤k≤n k
 
X 1
X 1
X n k n−k X 1
kQN RN − n!
(A + B)n k =k n!
1{(n−k)∨k≤N } A B k≤ (kAk+kBk)n −−−→ 0 .
k n! N →∞
0≤n≤N N <n≤2N 0≤k≤n n>N

Or QN RN → eA eB pour k·k. 

Proposition III.1.8 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme d’opérateur associée
à | · |. Soit B ∈ L(H). Soit c ≥ kBk. On pose

A = B − cId et Pt = etA , t ∈ R+ .

Alors (Pt )t∈R+ est un semi-groupe contractant fortement continu sur H (on a même une continuité plus forte:
limt→0 kPt −Idk = 0).
Preuve: il est clair que tA et sA commutent donc Ps Pt = e(s+t)A = Ps+t . Par ailleurs, on a etA = e−ct etB
car B et cId commutent et e−ctId = e−ct Id. Donc, ketA k =Pke−ct etB k = e−ct ketB k ≤ e−ct etkBk ≤ 1. Donc
n
(Pt )t∈R+ est contractant. Enfin on remarque que kPt −Idk ≤ n≥1 tn! kAkn −→ 0 lorsque t → 0, ce qui termine
la preuve. 

Proposition III.1.9 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme d’opérateur associée
à | · |. Soit A ∈ L(H).

(i) t ∈ R+ 7→ etA ∈ L(H) est dérivable dans (L(H), k·k). Pour tout v ∈ H, t 7→ etA v ∈ H est dérivable
dans (H, |·|). On a de plus
d tA d tA
e = AetA = etA A et e v = AetA v = etA Av .
dt dt
III.1. THÉORIE DE HILLE-YOSIDA. 91

Rt Rt
(ii) Pour tout t ∈ R+ , etA − Id = 0 ds AesA = 0 ds esA A, l’intégrale ayant lieu dans L(H) muni de k·k.
De même pour tout v ∈ H, et tout t ∈ R+ , on a
Z t Z t
tA sA
e v−v = ds Ae v = ds esA Av,
0 0

les intégrales étant à valeurs dans H.

(iii) Soient A, B ∈ L(H) tels que les semi-groupes (etA )t∈R+ et (etB )t∈R+ soient contractants. On suppose
de plus que A et B commutent. Alors

∀v ∈ H, ∀t ∈ R+ , |etA v−etB v| ≤ t|Av−Bv| . (III.3)

Preuve: on a
X sn
s−1 e(t+s)A −etA −AetA = s−1 e(t+s)A −etA −etA A = etA s−1 esA −Id−sA = s etA An+2
  
(n + 2)!
n∈N

On en déduit que
X |s|n
ks−1 e(t+s)A − etA − AetA k ≤ |s|etkAk kAn+2 k

(n + 2)!
n∈N

le membre de droite tendant vers 0 lorsque s tend vers 0, ce qui montre (i). Le point (ii) découle du (i) et de
la proposition III.1.3 (iv), page 87, dans l’espace de Banach L(H).
Montrons le point (iii): comme tA et tB commutent etA −etB = etB et(A−B) −Id et point (ii) appliqué à


l’opérateur A−B implique que


Z t
tA tB tB t(A−B) tB
dses(A−B) (A−B)v .

e v−e v = e e v−v = e
0

On utilise ensuite la propriété (iii) du lemme III.1.1, page 86, pour montrer que
Z t Z t
etB ds es(A−B) (A−B)v = dsetB es(A−B) (A−B)v .
0 0
Rt Rt
Par le lemme III.1.7 (iv), 0dsetB es(A−B) (A−B)v = 0dsesA e(t−s)B (A−B)v. On utilise ensuite l’inégalité
triangulaire (i) du lemme III.1.1 pour montrer que
Z t Z t
sA (t−s)B
dse e (A−B)v ≤ ds|esA e(t−s)B (A−B)v| .

0 0

Comme (etA )t∈R+ et (etB )t∈R+ sont contractants, |esA e(t−s)B) (A−B)v| ≤ |Av−Bv|, ce qui termine la preuve
de (III.3). 

III.1.c Résolvantes, contractivité, forte continuité: définitions et premières propriétés.


Définition III.1.10 Soit H, un Banach de norme | · |. Pour tout p ∈ ]0, ∞[ , soit Up ∈ L(H). Alors (Up )p∈]0,∞[
est une famille de résolvantes si elle satisfait les conditions suivantes.

(a) Equations de résolvante: Up − Uq = (q−p)Up Uq , pour tous p, q ∈ ]0, ∞[ .


92 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

Un famille de résolvantes (Up )p∈]0,∞[ est dite contractante si elle satisfait de plus les conditions suivantes.

(b) Contractivité: |pUp v| ≤ |v|, pour tout v ∈ H et pour tout p ∈ ]0, ∞[ , c’est-à-dire pkUp k ≤ 1, pour tout
p ∈ ]0, ∞[ .

(Up )p∈]0,∞[ est dit fortement continue si elle satisfait la propriété suivante.

(c) Continuité forte: limp→∞ |pUp v−v| = 0, pour tout v ∈ H. 

Proposition III.1.11 Soit H, un Banach de norme | · |. Soit (Up )p∈]0,∞[ , une famille de résolvantes contrac-
tantes sur H. On introduit les deux sous-espaces suivants:

H0 = v ∈ H : lim |pUp v−v| = 0 et D = U1 (H) ,
p→∞

qui sont respectivement appelés espace de forte convergence et domaine de la famille de résolvantes. Les
propriétés suivantes sont vérifiées.

(i) H0 est un sous-espace vectoriel fermé de H.

(ii) D ⊂ H0 et pour tout p ∈ ]0, ∞[ , on a D = Up (H).

(iii) H0 est l’adhérence de D.

(iv) La famille résolvante (Up )p∈]0,∞[ est fortement continue ssi D est dense dans H.

Preuve: soit v ∈ H et soient vn ∈ H0 , n ∈ N, tels que limn→∞ |v−vn | = 0. On observe que pour tout p ∈ ]0, ∞[ ,
l’inégalité triangulaire, la linéarité de pUp et sa contractivité impliquent

|pUp v − v| ≤ |pUp vn − vn | + |pUp (v − vn )| + |vn − v| ≤ |pUp vn − vn | + 2|vn − v| ,

On a donc lim supp→∞ |pUp v − v| ≤ 2|vn − v| → 0, lorsque n → ∞, ce qui implique que v ∈ H0 et donc que
H0 est fermé, ce qui prouve (i).
Montrons (ii): soit v ∈ D. Il existe donc w ∈ H tel que v = U1 w. Soit p ∈∈ ]0, ∞[ . L’équation de
résolvante implique que v = U1 w = Up w + (p−1)Up U1 w, c’est-à-dire v = Up w−Up v + pUp v. Cela implique
que D ⊂ Up (H) et par contractivité |pUp v −v| = |Up (w −v)| ≤ p−1 |w − v|, ce qui implique que v ∈ H0 . En
raisonnant de même, on montre que Up (H) ⊂ U1 (H) = D, ce qui implique (ii).
Montrons (iii). Soit v ∈ H0 , comme |·|-limp→∞ pUp v = v et comme pour tout p ∈]0, ∞[ , on a D = Up (H),
v est limite de points de D et donc dans l’adhérence de D. Or on a montré que D est contenu dans H0 . Donc
H0 est l’adhérence de D, ce qui prouve (iii). Le point (iv) est une conséquence immédiate de (iii). 

Résolvantes associées aux semi-groupes contractant fortement continus. On commence par montrer le
lemme technique suivant.

Lemme III.1.12 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme d’opérateur associée à
| · |. Soit (Pt )t∈R+ , un semi-groupe contractant fortement continu. Soient Q, R ∈ L(H) et soit µ ∈ Mf (R+ ).
Les propriétés suivantes sont vérifiées.
III.1. THÉORIE DE HILLE-YOSIDA. 93

(i) Pour tout v ∈ H, l’application t ∈ R+ 7→ Pt v ∈ H est uniformément continue et bornée pour |·|.

Le lemme III.1.1, page 86 permet alors de définir


Z
∀v ∈ H, U µ v := µ(dt) Pt v
R+

et on vérifie que U µ ∈ L(H) et que kU µ k ≤ µ(R+ ). De plus, on a les propriétés suivantes.

(ii) Pour tout v ∈ H, QU µ Rv =


R
R+µ(dt) QPt Rv.

(iii) Pour tous v ∈ H et φ ∈ H 0 , t ∈ R+ 7→ φ QPt Rv est uniformément continue et bornée sur R+ et




Z
µ
 
φ QU Rv = µ(dt) φ QPt Rv .
R+

(iv) Pour toutes µ, ν ∈ Mf (R+ ), U µ∗ν = U µ U ν , où µ ∗ ν la convolution de µ et ν.

Preuve: on remarque que |Pt+s v − Pt v| = |Pt (Ps v − v)| ≤ |Ps v − v| → 0, lorsque s → 0, par contractivité
et forte continuité. Cela implique (i). L’existence de U µ et les point (ii) et (iii) sont des conséquences
immédiates du lemme III.1.1, page 86 Montrons (iv): soient v ∈ H et φ ∈ H 0 . En appliquant (ii) à Q = Id et
R = U ν , on a φ(U µ U ν v) = R+ µ(dt) φ(Pt U ν v); en appliquant (ii) à Q = Pt , à ν et à R = Id, on obtient que
R

φ(Pt U ν v) = R+ ν(ds) φ(Pt Ps v). On rappelle que Pt Ps = Ps+t . On pose alors f (r) = φ(Pr v) et par Fubini on
R

a Z Z Z Z
µ ν
φ(U U v) = µ(dt) ν(ds) f (s + t) = µ ⊗ ν(dtds)f (s + t) = µ ∗ ν(dt) f (t)
R+ R+ R2+ R+

car µ ∗ ν est la mesure image de µ ⊗ ν par (t, s) ∈ R2+ 7→ t + s ∈ R+ . En appliquant encore (ii), on en déduit
que pour tous v ∈ H et φ ∈ H 0 , φ(U µ U ν v) = φ(U µ∗ν v) et Hahn-Banach permet de conclure. 

Le théorème suivant montre qu’à tout semi-groupe contractant fortement continu, on peut associer une
famille de résolvantes contractantes fortement continue, qui est sa transformée de Laplace. Il s’agit du premier
résultat de la théorie de Hille-Yosida (le sens abélien).

Théorème III.1.13 (Hille-Yosida 1: des semi-groupes aux résolvantes) Soit H, un Banach de norme | · |. On munit
L(H) de k·k, la norme d’opérateur associée à |·|. Soit (Pt )t∈R+ , un semi-groupe contractant fortement continu.
Le lemme III.1.12 qui précède permet de définir les opérateurs bornés suivants
Z ∞
∀p ∈ ]0, ∞[ , Up := dt e−pt Pt . (III.4)
0

Alors (Up )p∈]0,∞[ est une famille de résolvantes contractantes fortement continue.

Preuve: on fixe p, q ∈ ]0, ∞[ et on pose µ(dt) := e−pt dt et ν(dt) := e−qt dt. Un calcul élémentaire montre
que µ ∗ ν(dt) = (p − q)−1 (e−qt − e−pt )dt. Le point (iii) du lemme III.1.12 implique que (Up )p∈]0,∞[ est une
famille de résolvantes. Montrons la contractivité: on fixe v ∈ H.RL’inégalité triangulaire au (i) du lemme III.1.1,
∞ R∞
combiné avec la contractivité de (Pt )t∈R+ , montre que |Up v| ≤ 0 dt e−pt |Pt v| ≤ |v| 0 dt e−pt = |v|/p ce qui
94 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

montre la contractivité. Montrons enfin la forte continuité: on fixe v ∈ H. Le lemme III.1.1 permet d’écrire
pUp v−v comme suit:

Z p Z ∞
−t
dt e−t Pt/p v − v .
 
pUp v − v = dt e Pt/p v − v + √
0 p

On pose εp = sup |Ps v−v| ; s ≤ p−1/2 qui tend vers 0 lorsquep → ∞. On a donc |e−t Pt/p v −v | ≤ εp e−t ,
 
√ √
pour tout t ∈ [0, p]. Pour tout t ≥ p, on a |e−t Pt/p v − v | ≤ 2e−t |v|. L’inégalité triangulaire pour les
intégrales à valeurs dans H entraîne alors

Z p Z ∞ √ √
−t
dt e−t 2|v| = εp 1−e− p
+ 2|v|e− p

|pUp v − v| ≤ dt e εp + √
0 p

ce qui implique limp→∞ |pUp v−v| = 0, pour tout v ∈ H. 

Résolvantes d’exponentielles d’un opérateur borné.

Proposition III.1.14 Soit H, un Banach de norme | · |. On munit L(H) de k·k, la norme d’opérateur associée
à | · |. Soient B ∈ L(H) et c ≥ kBk. On pose A := B − cId et Pt := etA , pour tout t ∈ R+ . Par la
proposition III.1.8 (page 90), (Pt )t∈R+ est un semi-groupe contractant fortement continu. On note (Up )p∈]0,∞[
la famille de résolvantes comme définie dans le théorème III.1.13 (qui affirme également que ces résolvantes
sont contractantes et fortement continues). Alors,

∀p ∈]0, ∞[ , Up (pId − A) = (pId − A)Up = Id .

Autrement dit, pour tout p ∈]0, ∞[ , l’opérateur pId − A est inversible sur H d’inverse Up .

Preuve: on fixe t ∈ R+ , p ∈]0, ∞[ , v ∈ H et φ ∈ H 0 . On a

d tA 
φ e−pt Pt (pId − A)v = pe−pt φ(etA v) − e−pt φ etA Av = pe−pt φ(etA v) − e−pt φ
 
(e v)
dt
d d d
= pe−pt φ(etA v) − e−pt φ(etA v) = − φ(e−pt etA v) = − φ(e−pt Pt v)
dt dt dt
On a utilisé la proposition III.1.9 (i), page 90, puis la proposition III.1.3 (ii), page 87, puis la formule de
Leibniz pour la dérivée du produit de deux fonctions numériques. En intégrant sur t ∈ R+ , on obtient
Z Z
d
φ Up (pId − A)v = dt φ e−pt Pt (pId − A)v = − dt φ(e−pt Pt v) = φ(v)− lim φ(e−pt Pt v) = φ(v).
 
R+ R+ dt t→∞
(III.5)
Ici on a utilisé la proposition III.1.1 (ii), page 86, pour la première égalité et le théorème fondamental du calcul
intégral pour les deux dernières égalités. Comme (III.5) est vrai pour toute forme φ ∈ H 0 , le théorème de
Hahn-Banach implique que Up (pId − A)v = v pour tout v ∈ H et donc que Up (pId − A) = Id. L’égalité
(pId − A)Up = Id se montre de la même manière. 

Remarque III.1.15 Le nom de résolvante vient du fait que ces opérateurs permettent de résoudre l’équation
pv−Av = w, d’inconnue v. 
III.1. THÉORIE DE HILLE-YOSIDA. 95

III.1.d Des résolvantes aux semi-groupes.


Cette section est consacrée à la preuve du résultat suivant, qui est le pendant Taubérien du théorème III.1.13.

Théorème III.1.16 (Hille-Yosida 2: des résolvantes aux semi-groupes) Soit H, un Banach de norme | · |. Soit
(Up )p∈]0,∞[ , une famille de résolvantes contractantes fortement continue sur H. Alors, il existe un unique
semi-groupe (Pt )t∈R+ contractant et fortement continu dont les résolvantes sont (Up )p∈]0,∞[ , c’est-à-dire
Up = R+ dt e−pt Pt , pour tout p ∈]0, ∞[ .
R

Plus précisément, le semi-groupe (Pt )t∈R+ s’obtient par l’approximation suivante: pour tout r ∈ ]0, ∞[ on
pose
(r)
Ar := r(rUr −Id) ∈ L(H) et ∀t ∈ R+ , Pt := etAr .
On a alors
(r)
∀v ∈ H, ∀t ∈ R+ , lim |Pt v−Pt v| = 0 .
r→∞

Preuve: puisque krUr k ≤ 1, la seconde égalité combinée avec la proposition III.1.8 (i) implique que
(r)
(Pt )t∈R+ est un semi-groupe contractant et fortement continu.
(r) (r)
On note (Up )p∈(0,∞) la famille de résolvantes associée à (Pt )t∈R+ :
Z ∞
(r)
(r)
∀r ∈ ]0, ∞[ , ∀p ∈ ]0, ∞[ , Up := dt e−pt Pt .
0

(r)
La proposition III.1.8 (ii) implique que Up est l’inverse de pId − Ar = (p + r)Id − r2 Ur , qui se calcule
explicitement à l’aide des Uq . Pour cela on remarque d’abord que l’équation de résolvante implique que pour
tous a, b ∈ ]0, ∞[ ,
   
Id + (b−a)Ua Id − (b−a)Ub = Id − (b−a)Ub Id + (b−a)Ua = Id .
rp
On choisit b = r et a = p+r > 0, on a −(b − a) = −r2 (p + r)−1 et donc
−1 −1
Id − r2 (p + r)−1 Ur = Id − (b−a)Ub = Id + (b−a)Ua = Id + r2 (p + r)−1 Urp/(p+r) .

Par conséquent,
−1 1 r 2
Up(r) = (p + r)−1 Id − r2 (p + r)−1 Ur = p+r
Id + p+r
U rp . (III.6)
p+r

On en déduit que
1 r 2 r 2
Up(r) − Up =

p+r
Id + p+r
− 1)Up + p+r
U rp − Up
p+r

1 r 2 r 2 p 2
= p+r
Id + p+r
− 1)Up + p+r
U rp U
p+r p+r p
1 2r+p r pr
= p+r
Id − (p+r)2
pUp + U rp (pUp )
(p+r)2 p+r p+r

où on a utilisé l’équation de résolvante pour justifier la seconde égalité. En utilisant la fait que kqUq k ≤ 1 avec
pr
q = p et q = p+r , on a
1 2r+p r
kUp(r) − Up k ≤ p+r
+ (p+r)2
+ (p+r)2
96 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

Donc
∀ p ∈ ]0, ∞[ , lim kUp(r) − Up k = 0 . (III.7)
r→∞
(r)
On veut ensuite montrer que r 7→ Pt v est de Cauchy dans H lorsque r → ∞. Pour cela on commence
par montrer l’inégalité suivante
(r) (r0 )
∀t ∈ [0, t0 ], ∀v ∈ H, ∀r, r0 ∈ (0, ∞), |Pt v − Pt v| ≤ t0 |Ar v − Ar0 v| . (III.8)

Preuve de (III.8): on observe que Ar et Ar0 commutent et on applique la proposition III.1.9 (iii), page 90. 
On montre ensuite le résultat suivant
2
∀v ∈ H, |Ar U1 v − U1 v + v| ≤ |rUr v − v| + |r−1|
|v| −−−→ 0 (III.9)
r→∞

Preuve de (III.9): l’équation de résolvante implique que pour r 6= 1,


r 1
Ar U1 = r2 Ur U1 − rU1 = r2 (r − 1)−1 (U1 − Ur ) − rU1 = r−1
U1 − rUr ) = U1 − rUr − r−1
U1 − rUr ) .

1
Donc Ar U1 v − U1 v + v = v − rUr v − r−1 U1 v − rUr v) et comme |U1 v| ≤ |v| et |rUr v| ≤ |v|, on en déduit
immédiatement (III.9). 
On pose D = U1 (H), qui est le domaine de la famille de résolvantes, comme défini à la proposition III.1.11,
page 92. Soit w ∈ D. Il existe donc v ∈ H tel que w = U1 v. On pose
 
2
r ∈ ]1, ∞[ , ε(w, r) := 2 sup |r0 Ur0 v − v| + r0 −1 |v| .
r0 >r

On voit alors que limr→∞ ε(w, r) = 0. Par (III.8) et (III.9), on a donc


(r00 ) (r0 )
∀w ∈ D, ∀0 ≤ t ≤ t0 , ∀r0 , r00 ∈]r, ∞[ , |Pt w − Pt w| ≤ t0 ε(w, r) .
(r)
Donc, pour tout w ∈ D, r 7→ Pt w est de Cauchy lorsque r → ∞. Comme H est complet, pour tout w ∈ D, il
existe un vecteur noté Pt w ∈ H tel que
(r)
| · |- lim Pt w = Pt w .
r→∞

et on a
(r)
∀t0 ∈ R+ , ∀w ∈ D, sup |Pt w − Pt w| ≤ 2t0 ε(w, r) −−−→ 0 . (III.10)
t∈[0,t0 ] r→∞

(r) (r)
Il est clair que Pt : D → H est linéaire car les Pt le sont. Par ailleurs, puisque |Pt w| ≤ |w|, en passant
à la limite, on a |Pt w| ≤ |w|, pour tout w ∈ D. Comme H est complet, Pt s’étend sur l’adhérence de D en
une application linéaire contractante. Puisque la famille de résolvantes (Up )p∈(0,∞) est fortement continue, la
proposition III.1.11 (iv) implique que l’adhérence de D est H. Donc, Pt s’étend de D à H en une application
linéaire telle que kPt k ≤ 1.
Montrons la propriété de semi-groupe: on fixe w ∈ D, s, t ∈ R+ tels que t + s ≤ t0 et r ∈ ]0, ∞[ . On fixe
également w0 ∈ D. On a les inégalités suivantes.
(r) (r) (r) (r)
|Ps Pt w−Ps+t w|≤|Ps Pt w − Ps(r) Pt w| + |Ps(r) Pt w − Ps+t w| + |Ps+t w − Ps+t w|
(r)
≤|Ps Pt w − Ps(r) Pt w| + 0 + 2t0 ε(w, r)
III.1. THÉORIE DE HILLE-YOSIDA. 97

(r) (r) (r)


≤|Ps (Pt w − Pt w)| + |Ps Pt w − Ps(r) Pt w| + 2t0 ε(w, r)
(r) (r) (r)
≤|Pt w−Pt w| + |Ps (Pt w−w0 )| + |Ps w0 −Ps(r) w0 | + |Ps(r) (w0 −Pt w)| + 2t0 ε(w, r)
(r) (r)
≤2t0 ε(w, r) + |Pt w−w0 | + 2t0 ε(w0 , r) + |w0 −Pt w| + 2t0 ε(w, r)
(r)
≤2|Pt w−w0 | + 4t0 ε(w, r) + 2t0 ε(w0 , r).
En faisant tendre r vers l’infini, on a donc |Ps Pt w − Ps+t w| ≤ 2|Pt w − w0 |, pour tout w0 ∈ D. Comme D
est dense, on peut trouver w0 arbitrairement proche de Pt w, et on a bien montré |Ps Pt w −Ps+t w| = 0, ce qui
montre la propriété de semi-groupe sur D. On en déduit la propriété de semi-groupe sur H par densité de D.
On a donc montré que (Pt )t∈R+ est un semi-groupe contractant. Il faut encore montrer qu’il est fortement
(r)
continu. Pour cela, on fixe w ∈ D, et pour tout r ∈]0, ∞[ , on remarque que t 7→ Pt w est une fonction
(r)
continue telle que P0 w = w. Or par (III.10), la fonction t 7→ Pt w est limite uniforme de fonction continue:
elle est donc également continue, ce qui implique que P0 w = w et limt→0 |Pt w − w| = 0. On note ensuite
H0 := {v ∈ H : limt→0 |Pt v − v| = 0}. On vient de montrer que D ⊂ H0 . Par ailleurs, la proposition III.1.5
(i), page 89, implique que H0 est fermé. Comme D est dense dans H, on en déduit que H0 = H, ce qui prouve
que (Pt )t∈R+ est fortement continu.
On montre ensuite les résolvantes associées à (Pt )t∈R+ sont bien les Up . Pour cela on fixe p ∈]0, ∞[ , w ∈ D
(r) (r)
et φ ∈ H 0 . On rappelle que la notation Up pour la p-résolvante de (Pt )i∈R+ . Par le lemme III.1.12 (ii), on a
Z
(r)
(r)
φ(Up w) = dt e−pt φ(Pt w) . (III.11)
R+

(r) (r)
Or (III.7) implique que limr→∞ φ(Up w) = φ(Up w). D’autre part (III.10) implique que limr→∞ φ(Pt w) =
φ(Pt w), pour tout t ∈ R+ . Par convergence dominée, en passant à la limite dans (III.11), on obtient
Z
∀w ∈ D, φ(Up w) = dt e−pt φ(Pt w) .
R+

Par densité de D dans H, par uniforme continuité de v →


7 φ(Up v) et de v 7→ φ(Pt v) et par convergence
dominée, on en déduit que Z
∀v ∈ H, φ(Up v) = dt e−pt φ(Pt v) .
R+

Or R+dt e−pt φ(Pt v) = φ R+dt e−pt Pt v , par le lemme III.1.12 (ii), page 92. Donc pour toute forme φ ∈ H 0 ,
R R 

φ(Up v) = φ R+dt e−pt Pt v . Le théorème de Hahn-Banach implique alors que Up v = R+dt e−pt Pt v. Comme
R  R

cette égalité est vraie pour tout v ∈ H et tout p ∈ ]0, ∞[ , cela montre que la famille de résolvantes associée à
(Pt )t∈R+ est bien (Up )p∈]0,∞[ .
Il reste à montrer l’unicité du semi-groupe. Supposons que (Qt )t∈R+ soit un semi-groupe contractant
fortement continu dont la famille de résolvantes est (Up )p∈]0,∞[ . Alors, le Rlemme III.1.12 (ii) implique que
pour tous φ ∈ H , p ∈ ]0, ∞[ et v ∈ H, on a R+ dt e−pt φ(Pt v) = φ(Up v) = R+ dt e−pt φ(Qt v). La continuité
0
R

de t 7→ φ(Pt v) et de t 7→ φ(Qt v) et l’injectivité de la transformée de Laplace impliquent que φ(Pt v) = φ(Qt v).
Comme cela est vrai pour tout φ ∈ H 0 , Hahn-Banach implique que Pt v = Qt v. Puisque cela est vérifié pour tout
v ∈ H et tout t ∈ R+ , on en déduit l’unicité. 

III.1.e Générateur infinitésimaux.


Définition III.1.17 (Générateur d’un semi-groupe) Soit H, un Banach de norme | · |. Soit (Pt )t∈R+ , un semi-
groupe d’opérateurs bornés. On définit son générateur infinitésimal comme la fonction A : DA → H,DA ⊂ H,
98 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

qui est donnée par  1 


v ∈ DA et w = Av ⇐⇒ lim | t (Pt v−v)−w)| = 0 .
t→0
t>0

Autrement dit, v ∈ DA si t 7→ Pt v est dérivable en 0+ de dérivée Av. On remarque que



DA ⊂ H0 = v ∈ H : lim |Pt v−v| = 0 .
t→0

Clairement, DA est un sous-espace de H (pas nécessairement fermé) et A est linéaire (pas nécessairement
continu). 

Lemme III.1.18 Soit H, un Banach de norme | · |. Soit (Pt )t∈R+ , un semi-groupe contractant fortement
continu de générateur A : DA → H. Alors, pour tout v ∈ DA , t 7→ Pt v est dérivable sur R+ dans H et
d
dt Pt v = APt v = Pt Av, t ∈ R+ . Cela implique que

∀t ∈ R+ , Pt (DA ) ⊂ DA , Pt A = APt sur DA (III.12)

et Z t Z t
∀v ∈ DA , ∀t ∈ R+ , Pt v−v = Ps Av ds = APs v ds . (III.13)
0 0

Preuve: on fixe v ∈ DA et on remarque que la propriété de semi-groupe et la contractivité impliquent que pour
tout t ∈ R+ fixé, on a
1
(Ps+t v−Pt v)−Pt Av = 1 (Pt Ps v−Pt v)−Pt Av = Pt 1 (Ps v−v)−Av) ≤ 1 (Ps v−v)−Av −→ 0

s s s s

+ +
lorsque s ↓ 0. Cela montre que ddt Pt v = Pt Av et aussi que Pt v ∈ DA et que APt v = ddt Pt v, ce qui entraîne
(III.12). Montrons ensuite que t 7→ Pt v est dérivable à gauche: soient t > s > 0 et v ∈ DA . On a
1
(Pt v−Pt−s v)−Pt Av ≤ 1 (Pt v−Pt−s v)−Pt−s Av + |Pt−s Av−Pt Av|

s s
1 
≤ Pt−s s (Ps v−v)−Av + |Pt−s (Av − Ps Av)|
1
≤ s (Ps v−v)−Av + |Av − Ps Av| −→ 0

− +
lorsque s ↓ 0. On voit donc que ddt Pt v = Pt Av = ddt Pt v et donc t 7→ Pt v est dérivable sur R+ dans H. On peut
appliquer la proposition III.1.3 (iv) (page 87) à vt := Pt v pour en déduire (III.13). 

Proposition III.1.19 Soit H, un Banach de norme | · |. Soit (Pt )t∈R+ , Run semi-groupe contractant fortement

continu de générateur A : DA → H. Pour tout p ∈ ]0, ∞[ , on note Up = 0 e−pt Pt dt, la famille de résolvantes
associées (définie au théorème III.1.13 page 93). Alors, les assertions suivantes sont vérifiées.

(i) Pour tout p ∈ ]0, ∞[ , Up (H) = DA et donc DA = H.

(ii) Pour tout p ∈ ]0, ∞[ , on a


 
∀v ∈ DA , Up pId−A v = v et ∀v ∈ H, pId−A Up v = v .

(iii) Pour tout v ∈ DA , on a limp→∞ p(pUp v−v) = Av dans H.


III.1. THÉORIE DE HILLE-YOSIDA. 99

Preuve: fixons v ∈ H et p ∈ ]0, ∞[ . On pose w := Up v. Par le lemme III.1.1 (ii), page 86, on a donc
Z ∞ Z ∞ Z ∞
−ps −ps
Pt w = e Pt Ps v ds = e Pt+s v ds = e pt
e−ps Ps v ds
0 0 t
Z t
= w + (ept −1)w − ept e−ps Ps v ds
0
Z t
1 pt
pt
= w + ptw + (e −1− pt)w − p (e −1)v − e pt
e−ps (Ps v−v) ds
0
Z 1
1
= w + ptw−tv + (ept −1− pt)w − p (ept −1−pt)v − tept e−s (Pst v−v) ds
0

On en déduit que
1
Z 1
(Pt w−w)−pw + v ≤ 1 (ept −1 − pt)|w| + 1
(ept −1 pt
e−s |Pst v−v| ds −→ 0

t t tp
− pt)|v| + e
0

lorsque t ↓ 0, par convergence dominée pour le dernier terme de l’inégalité. Cela montre donc que Up (H) ⊂ DA
et que pour tout v ∈ H, AUp v = pUp v − v, c’est-à-dire (pId−A)Up v = v. On a montré une partie de (i) et de
(ii). R∞
Montrons (iii): soit v ∈ DA . Comme 0 pept dt = 1, on observe que
Z ∞ Z ∞
−pt
ds e−s Ps/p v − v .
 
pUp v−v = dt pe Pt v−v =
0 0

On a donc Z ∞
p
ds se−s
 
p(pUp v−v)−Av = s
Ps/p v − v) − Av
0
R∞
puisque 0 ds se−s = 1. Par (III.13), au lemme III.1.18, page 98, combiné à l’inégalité triangulaire au lemme
III.1.1 (i) (page 86) et au fait que le semi-groupe soit contractant, implique que
Z s/p
s
|Ps/p v − v| ≤ dr |Pr Av| ≤ p |Av| .
0

Donc −s p
Ps/p v − v) − Av ≤ 2se−s |Av|.
 
se
s

Le membre de droite est intégrable en s sur R+ . De plus limp→∞ ps Ps/p v − v) − Av = 0. Donc par
convergence dominée on obtient (iii).
On termine la preuve de (i) et de (ii). Soit v ∈ DA . Pour tout q ∈ ]0, ∞[ , on pose

vq := q(qUq v−v)−Av .

Le point (iii) montre que limq→∞ |vq | = 0. On fixe p ∈ ]0, ∞[ . Comme pUp est contractant, on a aussi
limq→∞ |Up vq | = 0. Or l’équation de résolvante implique que

q2
Up vq = (q−p)Up Uq v−qUp v−Up Av
q−p
q2 
= Up v−Uq v −qUp v−Up Av
q−p
100 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

q q
= pUp v− qUq v−Up Av
q−p q−p
Or le théorème III.1.13, page 93, montre que les résolvantes Uq sont fortement continues donc limq→∞ qUq v =
v dans H et on déduit de ce qui précède que limq→∞ Up vq = pUp v−v−Up Av dans H. Or limq→∞ |Up vq | = 0.
Donc v = Up (pv − Av), ce qui complète (ii). Cela montre aussi que v ∈ Up (H). Comme on a montré que
Up (H) ⊂ DA on a bien Up (H) = DA . Comme les résolvantes Up sont fortement continues, la proposition
III.1.11, page 92, entraîne que DA = Up (H) = H, ce qui termine la preuve de la proposition. 

On peut également introduire le générateur infinitésimal d’une famille de résolvantes de la manière suivante.

Définition III.1.20 (Générateur d’un résolvante) Soit H, un Banach de norme | · |. Soit (Up )p∈]0,∞[ , une
famille de résolvantes sur H. On définit son générateur infinitésimal comme la fonction A : DA → H, DA ⊂ H,
donnée par  
v ∈ DA et w = Av ⇐⇒ lim |p(pUp v−v) − w| .
p→∞

On remarque que 
DA ⊂ H0 = v ∈ H : lim |pUp v−v| = 0 .
p→∞

Clairement, DA est un sous-espace de H (pas nécessairement fermé) et A est linéaire (pas nécessairement
continu). 

Proposition III.1.21 Soit H, un Banach de norme | · |. Soit (Pt )t∈R+ , un semi-groupe contractant fortement
continu. Soit (U
R∞ p )p∈]0,∞[ , une famille de résolvantes contractante et fortement continue. On les suppose
associés: Up = 0 e−pt Pt dt, p ∈]0, ∞[ . Alors, leur générateur est le même.
Preuve: notons A0 : DA0 → H le générateur de (Pt )t∈R+ et A1 : DA1 → H le générateur de (Up )p∈]0,∞[ . La
proposition III.1.19 (iii) qui précède implique que DA0 ⊂ DA1 et que A1|DA0 = A0 .
Soit v ∈ DA1 . Pour tout q ∈ ]0, ∞[ , on pose vq := q(qUq v −v)−A1 v. On reprend la fin de la preuve de
la proposition III.1.19 précédente: par définition de A1 , limq→∞ |vq | = 0. On fixe p ∈ ]0, ∞[ . Comme pUp est
contractant, on a aussi limq→∞ |Up vq | = 0. Or l’équation de résolvante implique la limite suivante dans H:
q q
Up vq = q−p
pUp v− q−p qUq v−Up A1 v −−−−→ pUp v−v−Up A1 v
q→∞

Donc v = Up (pv−A1 v). Cela montre que v ∈ Up (H). Or la proposition III.1.19 (i) implique que Up (H) = DA0 .
Cela montre que DA1 ⊂ DA0 et par ce qui précède DA1 = DA0 et A1 = A0 . 

Le théorème suivant montre que les semi-groupes et les familles de résolvantes contractants fortement
continus sont caractérisés par leur générateur infinitésimal.

Théorème III.1.22 (Caractérisation par le générateur) Soit H, un Banach de norme | · |. Soient (Pt )t∈R+ et
(Qt )t∈R+ , deux semi-groupes contractants fortement continus. Soient (Up )p∈]0,∞[ et (Vp )p∈]0,∞[ deux familles
de résolvantes contractantes fortement continues. Alors, les assertions suivantes sont vérifiées.

(i) Si (Pt )t∈R+ et (Qt )t∈R+ définissent la même famille de résolvantes, alors Pt = Qt , t ∈ R+ .

(ii) Si (Pt )t∈R+ et (Qt )t∈R+ ont le même générateur infinitésimal, alors Pt = Qt , t ∈ R+ .

(iii) Si (Up )p∈]0,∞[ et (Vp )p∈]0,∞[ ont le même générateur infinitésimal, alors Up = Vp , p ∈ ]0, ∞[ .
III.1. THÉORIE DE HILLE-YOSIDA. 101

Preuve: celle de (i) est simple. On note (Wp )p∈]0,∞[ la famille de résolvantes associée à (Pt )t∈R+ et (Qt )t∈R+ .
Soient v ∈ H et φ ∈ H 0 . Par le lemme III.1.1 (ii), page 86, on a pour tout p ∈ ]0, ∞[ ,
Z ∞ Z ∞  Z ∞  Z ∞
−pt −pt −pt
e φ(Pt v) dt = φ e Pt v dt = φ(Wp v) = φ e Qt v dt = e−pt φ(Qt v) dt .
0 0 0 0

L’injectivité de la transformée de Laplace pour les mesures finies sur R+ implique que pour Lebesgue-presque
tout t ∈ bR+ , φ(Pt v) = φ(Qt v). Or le lemme III.1.12 (i), page 92, et la continuité de φ, impliquent que
t 7→ φ(Pt v) et t 7→ φ(Qt v) sont continues. Donc φ(Pt v) = φ(Qt v), pour toute φ ∈ H 0 . Par Hahn-Banach, on
obtient Pt v = Qt v, pour tout t ∈ R+ et tout v ∈ H.
Montrons (ii). Notons A : DA → H, le générateur commun de (Pt )t∈R+ et de (Qt )t∈R+ . On note re-
spectivement (Up )p∈]0,∞[ et (Vp )p∈]0,∞[ , les familles de résolvantes associées. On fixe v ∈ H et p ∈ ]0, ∞[ .
La proposition III.1.19 (ii) appliquée à Vp implique (pId−A)Vp v = v et donc Up (pId−A)Vp v = Up v. Or la
proposition III.1.19 (i) appliquée à Vp affirme que Vp v ∈ DA . Si on pose w := Vp w, la proposition III.1.19 (ii)
appliquée à Up implique ensuite que Up (pId−A)w = w. On en déduit donc que Vp v = w = Up v. Donc (Pt )t∈R+
et (Qt )t∈R+ définissent la même famille de résolvantes et le (i) implique que ces semi-groupes sont égaux.
Montrons (iii). Notons A : DA → H, le générateur commun de (Up )p∈]0,∞[ et de (Vp )p∈]0,∞[ . Par le
théorème III.1.16 de Hille-Yosida 2, page 95, il existe deux semi-groupes (Pt )t∈R+ et (Qt )t∈R+ contractants
fortement continus tels que (Up )p∈]0,∞[ est la famille de résolvantes de (Pt )t∈R+ et (Vp )p∈]0,∞[ celle (Qt )t∈R+ .
La proposition III.1.21 qui précède montre alors que A : DA → H est le générateur commun de (Pt )t∈R+ et de
(Qt )t∈R+ ; le point (ii) implique ensuite que ces semi-groupes sont égaux, ce qui entraîne que les résolvantes
associées soient égales. 

III.1.f Des générateurs aux semi-groupes et aux résolvantes.


Le théorème III.1.22 montre les semi-groupes contractants et fortement continus sont caractérisés par leur
générateur infinitésimal. Le but de cette section est de détailler les propriétés nécessaires et suffisantes pour
qu’un opérateur soit le générateur infinitésimal d’un semi-groupe contractant fortement continu. On introduit
d’abord la notion d’opérateur dissipatif et celle d’opérateur fermé.

Définition III.1.23 (Opérateurs dissipatifs, opérateurs fermés) Soit H, un Banach de norme | · |. Soit DA , un
sous-espace vectoriel de H et A : DA → H, un opérateur.

(a) L’opérateur A est dit dissipatif si

∀p ∈ ]0, ∞[ ∀v ∈ DA , |pv−Av| ≥ p|v| .

On remarque que cela implique que pId−A : DA → H est injectif.

(b) L’opérateur A : DA → H est dit fermé si pour toute suite vn ∈ H, n ∈ N telle que

lim vn =: v et lim Avn =: w ,


n→∞ n→∞

alors v ∈ DA et w = Av. Autrement dit A est fermé ssi son graphe {(v, Av) ; v ∈ DA } est un fermé de
H ×H muni de la topologie produit. 

Lemme III.1.24 Soit H, un Banach de norme | · |. Soit DA , un sous-espace vectoriel de H et A : DA → H, un


opérateur dissipatif. Soit p ∈]0, ∞[ . Alors, les assertions suivantes sont équivalentes.
102 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

(a) L’opérateur est fermé.

(b) Pour tout p ∈]0, ∞[ , (pId−A)(DA ) est un sous-espace fermé de H.

(c) Il existe p0 ∈]0, ∞[ tel que (p0 Id−A)(DA ) est un sous-espace fermé de H.
Preuve: supposons (a). Soit p ∈]0, ∞[ . Soit vn ∈ DA , n ∈ N et w ∈ H tels que limn→∞ (pId−A)vn = w. On
pose wn := (pId−A)vn . Puisque A est dissipatif, on vérifie que p|vn −vm | ≤ |wn −wm |, ce qui implique que
(vn )n∈N est de Cauchy dans H et donc converge vers v ∈ H. On en déduit donc que limn→∞ Avn = pv −w.
Comme on a supposé que A est fermé, on a Av = pv−w et donc w ∈ (pId−A)(DA ), ce qui montre (b).
Clairement (b) implique (c). Montrons que (c) =⇒ (a): soit vn ∈ H, n ∈ H telle que limn→∞ vn =: v et
limn→∞ Avn =: w. Comme (p0 Id−A)(DA ) est fermé, il existe u ∈ DA tel que p0 v −w = p0 u−Au. Comme
A est dissipatif, on a aussi pour tout n ∈ N

|p0 vn −Avn −(p0 u−Au)| = |p0 (vn −u)−A(vn −u)| ≥ p0 |vn − u| .

Donc, en passant à la limite, u = v: on en déduit que v ∈ DA et que w = Au = Av, ce qui implique que A est
fermé. 

Le théorème suivant est troisième résultat de la théorie de Hille-Yosida. Il exprime des conditions néces-
saires et suffisantes sur un opérateur pour qu’il soit le générateur infinitésimal d’un semi-groupe contractant et
fortement continu.

Théorème III.1.25 (Hille-Yosida 3: des générateurs aux semi-groupes) Soit H, un Banach de norme | · |. Soit DA , un
sous-espace vectoriel de H. Alors, un opérateur A : DA → H, est le générateur d’un semi-groupe contractant
fortement continu si et seulement s’il satisfait les conditions suivantes:

(a) DA est dense dans H.

(b) A est dissipatif.

(c) Il existe p0 ∈]0, ∞[ , tel que (p0 Id−A)(DA ) = H.

De plus, dans ce cas, l’opérateur A est fermé.


Preuve: supposons d’abord que A : DA → H soit le générateur d’un semi-groupe contractant et fortement
continu (Pt )t∈R+ dont on note (Up )p∈]0,∞[ , la famille de résolvantew (qui est contractante et fortement con-
tinue). La proposition III.1.19 (page 98) implique (a) et (c). De plus, pour tout v ∈ DA , et tout p ∈ ]0, ∞[ , il
existe w ∈ H tel que v = Up w, et donc la même proposition III.1.19 w = pv −Av. Comme |pUp w| ≤ |w|, on a
|pv−Av| ≥ p|v|, ce qui montre (b).
Réciproquement, on suppose (a), (b) et (c). On note Λ := {p ∈ ]0, ∞[ : (pId−A)(DA ) = H}. L’hypothèse
(c) signifie que Λ 6= ∅. Soit p ∈ Λ; comme A est dissipatif, pId−A est injectif et donc pId−A est une bijection
de DA sur H: on note Up : H → DA , l’opérateur réciproque. Cet opérateur est borné car le caractère dissipatif
de A implique que |pUp v| ≤ |v|, pour tout v ∈ H. De plus, on voit que

∀p ∈ Λ, ∀w ∈ DA , Up (pId−A)w = w .

Soient p, q ∈ Λ. Soit w ∈ DA . On a

Up (qId−A)w = Up (q−p)Id + pId−A w = (q−p)Up w + Up (pId−A)w = (q−p)Up w + w
III.1. THÉORIE DE HILLE-YOSIDA. 103

Soit v ∈ H; en appliquant l’égalité précédente à w := Uq v ∈ DA , on obtient Up (qId−A)Uq v = (q−p)Up Uq v+Uq v,


ce qui montre
∀p, q ∈ Λ, Up −Uq = (q−p)Up Uq , (III.14)
c’est-à-dire que les opérateurs Up , p ∈ Λ, satisfont les équations de résolvantes.
Montrons que Λ = ]0, ∞[ . Soit p ∈ Λ et soit r ∈ ]0, ∞[ tel que |1 − r/p| < 1. On note k·k la norme
d’opérateur bornée sur L(H) associée à |·|. Comme A est dissipatif, on a vu que kUp k ≤ 1/p et on remarque
alors que X X |r−p|n
|p−r|n kUpn+1 k ≤ pn+1
<∞.
n∈N n∈N

On pose alors V = n∈N (p − r)n Upn+1 qui est un opérateur borné qui satisfait V = Up + (r − p)Up V . Par
P
conséquent, pour tout v ∈ H, on a (pId−A)V v = v + (r −p)V v, c’est-à-dire que (rId−A)V v = v, pour tout
v ∈ H. On a donc montre que si p ∈ Λ, alors ]0, 2p[⊂ Λ. Comme Λ 6= ∅, cela implique facilement que Λ =]0, ∞[.
Cela montre que les (Up )p∈]0,∞[ sont une famille de résolvantes contractantes. On a également montré que
(pId−A)(DA ) = H pour tout p ∈ ]0, ∞[ . Montrons que les résolvantes sont fortement continues: soit v ∈ DA ;
on a Up (pId−A)v = v. Donc
1 1
|pUp v−v| = p |pUp Av| ≤ p |Av| −−−→ 0.
p→∞

Cela montre que DA ⊂ H0 := {v ∈ H : limp→∞ pUp v = v}. Or la proposition III.1.11 (i), page 92 implique
que H0 est fermé. Par l’hypothèse (a), on en déduit que H0 = H, ce qui montre que la famille de résolvantes
contractante (Up )p∈]0,∞[ est fortement continue.
Le théorème III.1.16 de Hille-Yosida 2 (des résolvantes vers le semi-groupe, page 95) implique l’existence
d’un unique semi-groupe (Pt )t∈R+ contractant fortement continu dont les (Up )p∈]0,∞[ sont les résolvantes.
On note A0 : DA0 → H le générateur infinitésimal de (Up )p∈]0,∞[ (voir la définition III.1.20, page 100). La
proposition III.1.21, page 100, implique que A0 est également le générateur de (Pt )t∈R+ . Soit v ∈ DA . Comme
Up (pId−A)v = v, on a
|p(pUp v−v)−Av| = |pUp Av−Av| −−−→ 0
p→∞

par la forte continuité des Up . Cela montre que

DA ⊂ DA0 et A0|DA = A . (III.15)

La proposition III.1.19 (i) (page 98) implique que Up (H) = DA0 . Or on a Up (H) = DA . Cela montre que
DA0 = DA et (III.15) implique que A est le générateur de (Pt )t∈R+ . 

L’hypothèse (c) du théorème III.1.25 est difficile à vérifier directement car en général, il est difficile de con-
naître explicitement le domaine d’un générateur infinitésimal. La plupart du temps, on connaît le générateur in-
finitésimal d’un semi-groupe sur un sous-espace qui, s’il est suffisamment riche, caractérise le générateur. Nous
donnons dans la suite un énoncé plus pratique tenant compte de cette difficulté. Mais tout d’abord montrons
une caractéristique des générateurs infinitésimaux qui est exploitée plus loin pour les processus Markoviens et
qui permet parfois de calculer précisément le domaine d’un générateur.

Lemme III.1.26 Soit H, un Banach de norme | · |. Soient DA , DA1 , des sous-espaces vectoriels de H. Soient
A : DA → H et A1 : DA1 → H, des opérateurs. On fait les hypothèses suivantes.

(a) A : DA → H est le générateur infinitésimal d’un semi-groupe contractant et fortement continu.


104 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

(b) DA ⊂ DA1 et A1|DA = A.

(c) Si v ∈ DA1 est tel que A1 v = v, alors v = 0.

Alors, DA = DA1 et donc A = A1 .


Preuve: on note (Up )p∈]0,∞[ la famille de résolvantes contractante et fortement continue associée au semi-
groupe dont A est le générateur infinitésimal. soit u ∈ DA1 . On pose v = u−A1 u et w = U1 v. La proposition
III.1.19 (i) (page 98) implique que U1 (H) = DA , donc w ∈ DA et donc w ∈ DA1 . On a alors

w−A1 w = w−Aw = (Id−A)U1 v = v = u−A1 u .

Donc A1 (u−w) = u−w et l’hypothèse (c) implique que u = w et donc que u ∈ DA . On a donc DA1 = DA , ce
qui permet de conclure. 

Pour une version plus pratique du théorème III.1.25 de Hille-Yosida 3, on introduit les notions suivantes.

Définition III.1.27 (Opérateur fermable, fermeture) Soit H, un Banach de norme | · |. Soit DA , un sous-espace
vectoriel de H et A : DA → H, un opérateur.

(a) A est dit fermable si pour toute suite vn ∈ DA , n ∈ N, telle que limn→∞ vn = 0 et limn→∞ Avn =: w, on
a w = 0.

(b) On suppose A fermable. Sa fermeture est l’opérateur A : DA → H donné par


 
v ∈ DA et w = Av ⇐⇒ il existe vn ∈ DA , n ∈ N, telle que lim vn = v et lim Avn = w.
n→∞ n→∞

Puisque A est fermable, à v ∈ H n’est associé au plus une valeur Av. On vérifie facilement que DA est
un sous-espace vectoriel (pas nécessairement fermé) et que A est un opérateur fermé, pas nécessairement
continu. 

Remarque III.1.28 Soit H, un Banach de norme | · |. Soit DA , un sous-espace vectoriel de H et A : DA → H,


un opérateur. On note Γ := {(v, Av) ; v ∈ DA } son graphe dans H ×H. On vérifie facilement les fait suivants.

(1) L’adhérence Γ de Γ dans H ×H est le graphe d’un opérateur si et seulement si A est fermable.

(2) Si A est fermable, Γ = {(v, Av) ; v ∈ DA } où A : DA → H est la fermeture de A.

(3) Soit A1 : DA1 → H, un opérateur étendant A, c’est-à-dire que DA ⊂ DA1 et A1|DA = A. Si A1 est fermé
alors, A est fermable et A1 étend A, c’est-à-dire que DA ⊂ DA1 et A1|DA = A.

Autrement dit, la fermeture d’un opérateur fermable est le plus petit (au sens de l’inclusion des graphes) opéra-
teur fermé étendant A. 

Théorème III.1.29 (Hille-Yosida 3bis: des opérateurs fermables aux semi-groupes) Soit H, un Banach de norme | · |.
Soit DA , un sous-espace vectoriel de H et A : DA → H, un opérateur. On fait les hypothèses suivantes.

(a) DA est dense dans H.


III.2. APPLICATIONS AUX SEMI-GROUPES DE FELLER-DYNKIN. 105

(b) A est dissipatif.

(c) Il existe p0 ∈ ]0, ∞[ , tel que (p0 Id−A)(DA ) soit dense dans H.

Alors les assertions suivantes sont vérifiées.

(i) A est fermable et sa fermeture A : DA → H est dissipative.

(ii) A : DA → H est le générateur infinitésimal d’un semi-groupe contractant fortement continu.


Preuve: soit vn ∈ DA , n ∈ N tels que limn→∞ vn = 0 et limn→∞ Avn =: w. Soit u ∈ DA . Puisque A est
dissipatif, pour tout p ∈ ]0, ∞[ ,
1 1
|pvn + u−Avn − p Au| = pvn + u−A(vn + p u) ≥ |pvn + u| .

Lorsque n → ∞, on obtient |u − w − p1 Au| ≥ |u|. Lorsque p → ∞, cela entraîne |u − w| ≥ |u|. Comme DA


est dense dans H, cela implique facilement que w = 0. Cela montre que A est fermable. On vérifie ensuite
facilement que les inégalité de dissipation passent à la limite: la fermeture de A est donc dissipative, ce qui
prouve (i).
On pose R := (p0 Id−A)(DA ). On a donc (p0 Id−A)(DA ) ⊂ R et par hypothèse le sous-espace vectoriel R
est dense dans H. Montrons que R est fermé. Soient wn ∈ R, n ∈ N tels que limn→∞ wn =: w. Par définition
de R, il existe vn ∈ DA , n ∈ N, tels que wn = p0 vn −Avn . L’inégalité de dissipation implique que
|wn − wm | = |p(vn −vm )−A(vn −vm )| ≥ p0 |vn −vm | ;
Cela implique que (vn )n∈N est de Cauchy donc convergente; on note v sa limite. On a donc limn→∞ Avn =
p0 −w. Comme A est fermé, on a v ∈ DA et p0 v−Av = w, et donc w ∈ R.
Le sous espace R est donc dense et fermé donc R = H, c’est-à-dire (p0 Id − A)(DA ) = H. L’opérateur
satisfait les hypothèses du théorème III.1.25, page 102, qui permet de conclure. 

III.2 Applications aux semi-groupes de Feller-Dynkin.


III.2.a Forte continuité des semi-groupes de Feller-Dynkin.
On rappelle ici la définition d’un semi-groupe de Feller-Dynkin.

Définition III.2.1 Soit E, un espace LCBD. Pour tout t ∈ R+ , soit Pt : C0 (E) → C0 (E), une application
linéaire. C’est un semi-groupe de Feller-Dynkin si les conditions suivantes sont satisfaites.

(a) Semi-groupe: pour tous s, t ∈ R+ , Ps+t = Ps Pt .

(b) Positivité et contractivité: pour tout t ∈ R+ et pour toute fonction f ∈ C0 (E), on a


0≤f ≤1 =⇒ 0 ≤ Pt f ≤ 1 .

(c) Continuité faible: pour toute fonction f ∈ C0 (E) on a


∀x ∈ E, lim Pt f (x) = f (x) ,
t→0

ce qui implique que P0 = Id. 


106 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

On rappelle la proposition II.1.11, page 47 , qui montre que tout semi-groupe de Feller-Dynkin est le semi-
groupe associé à des noyaux sous-Markoviens. On rappelle que la norme du supremum sur C0 (E) est notée
k·k∞ et on rappelle enfin que (C0 (E), k·k∞ ) est un espace de Banach. La proposition suivante montre que les
semi-groupes de Feller-Dynkin sont contractants fortement continus sur l’espace de Banach, ce qui permet de
leur appliquer les résultats précédents de la théorie de Hille-Yosida.

Proposition III.2.2 Soit E, un espace LCBD. Soit (Pt )t∈R+ , un semi-groupe de Feller-Dynkin. Alors, c’est un
semi-groupe d’opérateurs bornés de L(C0 (E)) qui est contractant et fortement continu, c’est-à-dire que pour
toute fonction f ∈ C0 (E) et tout t ∈ R+ , on a

kPt f k∞ ≤ kf k∞ et limkPt f −f k∞ = 0.
t→0

Preuve:
R soit (pt (x, dy))t∈R+ ,x∈E , les noyaux sous-Markoviens associés à (Pt )t∈R+ , c’est-à-dire Pt f (x) =
E pt (x, dy)f (y). Cela permet d’étendre les opérateurs Pt à l’espace Lb (E). Il est clair que |Pt f (x)| ≤
kf k∞ pt (x, E) ≤ kf k∞ car les noyaux sont sous-Markoviens. Donc kPt f k∞ ≤ kf k∞ .
La propriété de continuité faible de Feller-Dynkin (définition III.2.1 (c)) implique que pour toute f ∈ C0 (E)
et tout x ∈ E, t 7→ Pt f (x) est càd. Par conséquent, pour tout p ∈ ]0, ∞[ , pour tout f ∈ C0 (E), il y a un sens à
poser Z ∞
∀x ∈ E, Up f (x) = e−pt Pt f (x) dt .
0
Le lemme II.6.5, page 80 (qui est une conséquence du théorème de convergence dominée) permet d’affirmer
que Up f ∈ C0 (E), que Up : C0 (E) → C0 (E) est linéaire, que kpUp f k∞ ≤ kf k∞ et que
Z ∞
∀f ∈ C0 (E), ∀x ∈ E, lim pUp f (x) = lim e−s Ps/p f (x) = f (x) . (III.16)
p→∞ p→∞ 0

Un calcul élémentaire entraîne ensuite que

∀p, q ∈ ]0, ∞[ , ∀f ∈ C0 (E) , ∀x ∈ E, Up f (x)−Uq f (x) = (q−p)Up (Uq f )(x) .

Autrement dit (Up )p∈]0,∞[ est une famille de résolvantes contractante. On pose ensuite

H0 := f ∈ C0 (E) : lim kpUp f −f k∞ = 0 et D := U1 (C0 (E)) .
p→∞

La proposition III.1.11, page 92 implique que H0 est un fermé de (C0 (E), k·k∞ ), que D = Up (C0 (E)), pour
tout p ∈]0, ∞[ , et que l’adhérence de D pour k·k∞ est H0 . Soit φ ∈ C0 (E)0 , une forme linéaire continue. Le
théorème de Riesz Rde représentation des formes continues montre qu’il existe une mesure signée µ : B(E) →
R telle que φ(f ) = E f dµ, f ∈ C0 (E). On note µ+ et µ− respectivement les variations positive et négative de
µ: ce sont deux mesures positives de masse finie telles que µ = µ+ −µ− et on a donc
Z Z Z
∀f ∈ C0 (E), φ(f ) = f dµ = f dµ+ − f dµ− .
E E E

Par (III.16) et par convergence dominée on a


Z Z
φ(pUp f ) = pUp f (x) µ+ (dx) − pUp f (x) µ− (dx)
ZE Z E


−−→ f (x) µ+ (dx) − f (x) µ− (dx) = φ(f ) . (III.17)
p→∞ E E
III.2. APPLICATIONS AUX SEMI-GROUPES DE FELLER-DYNKIN. 107

Supposons que φ ∈ C0 (E)0 soit telle que φ(g) = 0, pour toute fonction g ∈ D. Comme Up (C0 (E)) ⊂ D ⊂ H0 ,
pour tout p ∈ ]0, ∞[ , on a pour toute fonction f ∈ C0 (E), φ(pUp f ) = 0, et (III.17) implique que φ(f ) = 0, pour
tout f ∈ C0 (E), c’est-à-dire que φ est nulle. Cela montre que D, et donc H0 , est dense dans C0 (E). Or H0 est
fermé donc H0 = C0 (E) et donc la famille de résolvantes contractante (Up )p∈]0,∞[ est fortement continue.
Le théorème III.1.16 de Hille-Yosida 2 (des résolvantes vers les semi-groupes, page 95), implique qu’il
existe un unique semi-groupe contractant fortement continu (Qt )t∈R+ sur C0 (E) dont les résolvantes sont
(Up )p∈]0,∞[ : pour tout p ∈]0, ∞[ , pour toute f ∈ C0 (E) et tout x ∈ E,
Z ∞ Z ∞
e−pt Qt f (x) dt = Up f (x) = e−pt Pt f (x) dt
0 0

L’injectivité de la transformée de Laplace pour les mesures signées ainsi que la continuité à droite de t 7→ Pt f (x)
et de t 7→ Qt f (x) implique que Pt f (x) = Qt f (x) et donc Qt = Pt , ce qui permet de conclure. 

III.2.b Principe du maximum.


On reformule le théorème III.1.29 de Hille-Yosida (générateur vers semi-groupe) dans le contexte des opéra-
teurs sur C0 (E) à l’aide du principe du maximum qui se définit comme suit.

Définition III.2.3 (Principe du maximum) Soit E, un espace topologique LCBD. Soit DA , un sous-espace
vectoriel de C0 (E) et soit A : DA → C0 (E), un opérateur. Il satisfait le principe du maximum si pour toute
fonction f ∈ DA et tout x0 ∈ E tels que supx∈E f (x) = f (x0 ) > 0, on a Af (x0 ) ≤ 0. 
Montrons d’abord le lemme suivant dû à Dynkin.

Lemme III.2.4 (Principe du maximum de Dynkin) Soit E, un espace topologique LCBD. Soit A : DA → C0 (E), le
générateur infinitésimal d’un semi-groupe de Feller-Dynkin. Soit A1 : DA1 → C0 (E), un opérateur prolongeant
A. On suppose que A1 satisfait le principe du maximum. Alors, DA = DA1 et A = A1 .
Preuve: soit f ∈ DA1 telle que A1 f = f . Par le lemme III.1.26, page 103, il suffit de montrer que cela implique
que f = 0. Soit (E∂ , d), un compactifié métrique habituel de E; f se prolonge par continuité en ∂ par f (∂) = 0.
Comme toute fonction continue sur un compact atteint ses extrema, il existe x0 ∈ E∂ tel que |f (x0 )| = kf k∞ .
Quitte à considérer −f , on peut supposer sans perte de généralité que kf k∞ = supx∈E f (x) = f (x0 ). Si f 6= 0,
alors f (x0 ) > 0. Comme A1 satisfait le principe du maximum, A1 f (x0 ) ≤ 0. Or A1 f (x0 ) = f (x0 ) > 0, ce qui
est absurde. On a donc f = 0. 

On montre ensuite le lemme suivant.

Lemme III.2.5 Soit E, un espace topologique LCBD. Soit DA , un sous-espace de C0 (E) et soit A : DA →
C0 (E), un opérateur. Alors, les assertions suivantes sont vérifiées.

(i) Si A : DA → C0 (E) est le générateur d’un semi-groupe de Feller-Dynkin, il satisfait le principe du


maximum.

(ii) Si A satisfait le principe du maximum, alors il est dissipatif.

Preuve: montrons (i). On note (Pt )t∈R+ , le semi-groupe dont A est le générateur. Soit f ∈ DA . Pour tout
x ∈ E, t 7→ Pt f (x) est donc dérivable à droite en 0 et on a Af (x) = limt→0+ t−1 (Pt f (x)−f (x)). On suppose
qu’il existe x0 ∈ E tel que supx∈E f (x) = f (x0 ) > 0. Comme Pt est associé aux noyaux sous-Markoviens
108 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

R
pt (x, dy), on a Pt f (x0 ) = E pt (x0 , dy)f (y) ≤ pt (x0 , E)f (x0 ) ≤ f (x0 ), ce qui implique que Af (x0 ) ≤ 0. Cela
prouve (i).
Montrons (ii). On suppose que A satisfait le principe du maximum. Soit f ∈ DA . Soit (E∂ , d), un
compactifié métrique habituel de E; f se prolonge par continuité en ∂ par f (∂) = 0. Comme toute fonction
continue sur un compact atteint des extrema, il existe x0 ∈ E∂ tel que |f (x0 )| = kf k∞ . On suppose d’abord que
f (x0 ) > 0, donc kf k∞ = supx∈E f (x) = f (x0 ). Comme A satisfait le principe du maximum, on a donc pour
tout p ∈ ]0, ∞[ ,

pkf k∞ = pf (x0 ) ≤ pf (x0 )−Af (x0 ) = |pf (x0 )−Af (x0 )| ≤ kpf −Af k∞

Si f (x0 ) = −kf k∞ < 0, on applique ce qui précède à −f et on obtient également que pkf k∞ ≤ kpf −Af k∞ ,
pour tout p ∈ ]0, ∞[ . Si f (x0 ) = 0, alors f est nulle et l’inégalité précédente est triviale. Cela montre bien que
A est dissipatif. 

Le théorème suivant reformule le théorème III.1.25, page 102, dans le cas des semi-groupes de Feller-
Dynkin.

Théorème III.2.6 Soit E, un espace topologique LCBD. Soit DA , un sous-espace de C0 (E) et soit A : DA →
C0 (E), un opérateur. Alors, A est le générateur d’un semi-groupe de Feller-Dynkin si et seulement s’il satisfait
les conditions suivantes.

(a) DA est dense dans C0 (E).

(b) A satisfait le principe du maximum.

(c) Il existe p0 ∈ ]0, ∞[ , tel que (p0 Id−A)(DA ) = C0 (E).

Preuve: supposons d’abord que A soit le générateur d’un semi-groupe de Feller-Dynkin, alors A satisfait
le principe du maximum d’après le lemme III.2.5 (i), page 107. Comme un semi-groupe de Feller-Dynkin
est contractant et fortement continu (d’après la proposition III.2.2), le théorème III.1.25 de Hille-Yosida 3
(du générateur vers les semi-groupes, page 102) s’applique et DA est dense dans (C0 (E), k·k∞ ) et il existe
p0 ∈]0, ∞[ , tel que (p0 Id−A)(DA ) = C0 (E).
Réciproquement: supposons (a), (b) et (c). Le lemme III.2.5 (ii) implique que A est dissipatif et le
théorème III.1.25 de Hille-Yosida (des générateurs vers les semi-groupe, page 102) s’applique: A : DA →
C0 (E) est le générateur d’un semi-groupe (Pt )t∈R+ qui est contractant fortement continu sur l’espace de Ba-
nach (C0 (E), k·k∞ ).
Il reste à montrer que (Pt )t∈R+ est un semi-groupe de Feller-Dynkin et plus précisément, il faut montrer
la condition (b) de positivité et contractilité de la définition III.2.1, page 105. Pour cela, on fixe tout d’abord
g ∈ DA tel que inf x∈E g(x) < 0. Soit (E∂ , d), un compactifié métrique habituel de E; g se prolonge par
continuité en ∂ par g(∂) = 0. Comme toute fonction continue sur un compact atteint des extrema, il existe
x0 ∈ E∂ tel que g(x0 ) = inf x∈E g(x) < 0. En appliquant le principe du maximum à −g, on en déduit que
Ag(x0 ) ≥ 0. Par conséquent, pour tout p ∈]0, ∞[,

inf (pg(x)−Ag(x)) ≤ pg(x0 )−Ag(x0 ) ≤ pg(x0 ) < 0 .


x∈E

Cela montre le fait suivant

∀g ∈ DA , ∀p ∈ ]0, ∞[ , pg−Ag ≥ 0 =⇒ g ≥ 0 . (III.18)


III.2. APPLICATIONS AUX SEMI-GROUPES DE FELLER-DYNKIN. 109

Soit f ∈ C0 (E) telle que f ≥ 0. Soit p ∈ ]0, ∞[ . La proposition III.1.19 (i) et (ii) (page 98) implique que
Up f ∈ DA et (pId−A)Up f = f ≥ 0. En appliquant (III.18) à g := Up f , on en déduit que

∀f ∈ C0 (E), ∀p ∈]0, ∞[ , f ≥ 0 =⇒ Up f ≥ 0 . (III.19)

On rappelle l’approximation donnée au théorème III.1.16 de Hille-Yosida 2 (des résolvantes vers le semi-
groupe, page 95): on pose
(r)
∀r ∈ ]0, ∞[ , Ar := r(rUr −Id) et ∀t ∈ R+ , Pt = etAr = ert(rUr −Id) .

On a alors
(r)
∀f ∈ C0 (E), ∀t ∈ R+ , lim kPt f −Pt f k∞ = 0 . (III.20)
r→∞

Soit f ∈ C0 (E) telle que f ≥ 0. Par (III.19), pour tout r ∈ ]0, ∞[ on a Ur f ≥ 0 et plus généralement (Ur )n f ≥ 0
pour tout n ∈ N. Donc, pour tout t ∈ R+ ,

(r) 2U
X (tr2 )n
Pt f = e−rt etr r
f= e−rt (Ur )n f ≥ 0
n!
n∈N

et (III.20) implique que Pt f ≥ 0. On a donc montré

∀f ∈ C0 (E), ∀t ∈ R+ , f ≥ 0 =⇒ Pt f ≥ 0 . (III.21)

Supposons maintenant que f ∈ C0 (E) soit telle que 0 ≤ f ≤ 1, alors Pt f ≥ 0 et donc supx∈E Pt f (x) =
kPt f k∞ ≤ kf k∞ ≤ 1, car Pt est contractant. Donc 0 ≤ Pt f ≤ 1. Cela montre la condition (b) de la définition
III.2.1 des semi-groupes de Feller-Dynkin, ce qui permet de montrer que (Pt )t∈R+ est un semi-groupe de
Feller-Dynkin. 

Théorème III.2.7 Soit E, un espace topologique LCBD. Soit DA , un sous-espace de C0 (E) et soit A : DA →
C0 (E), un opérateur. On fait les hypothèses suivantes.

(a) DA est dense dans (C0 (E), k·k∞ ).

(b) A satisfait le principe du maximum.

(c) Il existe p0 ∈ ]0, ∞[ , tel que (p0 Id−A)(DA ) soit dense dans (C0 (E), k·k∞ ).

Alors A est fermable et sa fermetureA : DA → C0 (E) est le générateur d’un semi-groupe de Feller-Dynkin.
Preuve: le lemme III.2.5 (ii) implique que A est dissipatif et le théorème III.1.29 de Hille-Yosida 4 (des
opérateurs fermables vers les semi-groupes, page 104) s’applique: A est fermable et sa fermeture A : DA →
C0 (E) est le générateur infinitésimal d’un semi-groupe semi-groupe (Pt )t∈R+ qui est contractant et fortement
continu sur l’espace de Banach (C0 (E), k·k∞ ). Il reste ensuite à montrer qu’il s’agit d’une semi-groupe de
Feller-Dynkin, c’est-à-dire à prouver qu’il satisfait la condition (b) de la définition III.2.1.
Pour cela, on fixe g ∈ DA telle que inf x∈E g(x) < 0. Par définition de la fermeture de A, il existe gn ∈ DA ,
n ∈ N, telles que limn→∞ kg−gn k∞ = 0 et limn→∞ kAg−Agn k∞ = 0. Par compacité, il existe également x∗ et
xn ∈ E tels que g(x∗ ) = inf x∈E g(x) et gn (xn ) = inf x∈E gn (x). Pour tout p ∈]0, ∞[ , on observe alors que

inf pg(x)−Ag(x) ≤ pg(xn )−Ag(xn ) ≤ pgn (xn )−Agn (xn ) + pkg−gn k∞ + kAg−Agn k∞
x∈E
110 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

≤ pgn (xn ) + pkg−gn k∞ + kAg−Agn k∞


≤ p inf gn (x) + pkg−gn k∞ + kAg−Agn k∞
x∈E
≤ p inf g(x) + 2pkg−gn k∞ + kAg−Agn k∞
x∈E
≤ g(x∗ ) + 2pkg−gn k∞ + kAg−Agn k∞ (III.22)

car Agn (xn ) ≥ 0 (on applique le principe du maximum à −gn ). En passant à la limite dans (III.22), on obtient
que inf x∈E pg(x)−Ag(x) ≤ g(x∗ ) < 0. Cela montre que

∀g ∈ DA , p ∈ ]0, ∞[ , pg−Ag ≥ 0 =⇒ g ≥ 0 .

En raisonnant exactement comme dans la fin de la preuve du théorème III.2.6 qui précède, on montre que
(Pt )t∈R+ satisfait bien la condition (b) de la définition III.2.1 et qu’il est par conséquent un semi-groupe de
Feller-Dynkin. 

III.2.c Application au mouvement Brownien.


Pour tout t ∈ ]0, ∞[ , tout x ∈ Rd et toute fonction f ∈ Lb (Rd ), on pose
Z Z
d kxk2
gt (x) = (2πt)− 2 e− 2t et Pt f (x) := gt (y)f (y + x) `d (dy) = gt (y−x)f (y) `d (dy).
Rd Rd

On pose également P0 f = f . On rappelle que (Pt )t∈R+ est le semi-groupe Markovien du mouvement Brownien
standard dans Rd . On note
C0 (Rd ) = f ∈ Cb (Rd ) : lim f (x) = 0 .

kxk→∞

On note ∂i la dérivation des fonctions de Rd dans R en la i-ème coordonnée, on note ∂i,j 2 , la dérivation seconde

en les coordonnées i et j. On note C02 (Rd ) l’espace des fonctions deux fois continûment dérivables en chaque
coordonnée et dont les dérivées secondes tendent vers 0 en l’infini:

C02 (Rd ) := f ∈ C0 (Rd ) : ∀i, j ∈ {1, . . . , d}, ∂i,j


2
f ∈ C0 (Rd ) .


On note ∆ l’opérateur Laplacien sur C02 (Rd ):


X
∀f ∈ C02 (Rd ), ∆f = 2
∂i,i f ∈ C0 (Rd ) .
1≤i≤d

Le lemme suivant montre que le semi-groupe du mouvement Brownien résout le problème de la chaleur.

Lemme III.2.8 Soit f ∈ C02 (Rd ), alors

∀t ∈ R+ , Pt f ∈ C02 (Rd ), ∆Pt f = Pt ∆f . (III.23)

De plus pour tout x ∈ Rd , t 7→ Pt f (x) est C 1 et satisfait l’équation


d 1 1
∀t ∈ R+ , Pt f (x) = 2 ∆Pt f (x) = 2 Pt ∆f (x), (III.24)
dt
qui est l’équation de la propagation de la chaleur de condition initiale f . En particulier, cela montre que
 1
∀x ∈ Rd , lim t−1 Pt f (x)−f (x) = 2 ∆f (x) . (III.25)
t→0+
III.2. APPLICATIONS AUX SEMI-GROUPES DE FELLER-DYNKIN. 111

R
Preuve: soit t ∈ ]0, ∞[ . Comme Pt f (x) := Rd gt (y)f (y + x) `d (dy), le théorème le théorème de dérivation
sous l’intégrale implique que Pt f est C 2 et le théorème de convergence dominée implique également que
Pt f ∈ C02 (Rd ). Un calcul élémentaire implique ensuite que pour tout x ∈ Rd et tout t ∈ ]0, ∞[ ,

1 d 1 d d kxk2
= 2 (2π)− 2 t− 2 −2 e− kxk2 −dt .

2
∆gt (x) = − gt (x) 2t
dt

Comme t > 0, le théorème de dérivation sous l’intégrale peut s’appliquer et montre (III.24), pour tout t ∈ ]0, ∞[ .
d
Comme limt→0+ Pt ∆f (x) = ∆f (x), dt Pt f (x) tend vers ∆f (x) lorsque t → 0+.
Il faut montrer ensuite que Pt f (x) possède une dérivée droite en 0. Par la formule de Taylor, il existe une
fonction continue bornée εx : Rd → R telle que limy→0 εx (y) = 0 et telle que pour tout y := (y1 , . . . , yd ), on
ait
1
X X
2
f (x + y)−f (x) = yi ∂i f (x) + 2 yi yj ∂i,j f (x) + εx (y)kyk2 .
1≤i≤d 1≤i,j≤d

Soit (Ω, F , P), un espace de probabilité et Y = (Y1 , . . . , Yd ) : Ω → Rd , un vecteur Gaussien


√ F -mesurable
de matrice de covariance
√ identité: la loi de Y a pour densité g1 . On remarque la loi de tY est gt et que
Pt f (x) = E[f (x + tY )] donc
√  √ X X 1 2  √ 
+tE εx tY kY k2 .
 
Pt f (x)−f (x) = E f (x+ tY )−f (x) = t ∂i f (x)E[Yi ] +t ∂ f (x)E[Yi Yj ]
2 i,j
1≤i≤d 1≤i,j≤d

Or E[Yi ] = E[Yi Yj ] = 0 si i 6= j et E[Yi2 ] = 1. Donc


 1  √ 
t−1 Pt f (x)−f (x) = 2 ∆f (x) + E εx tY kY k2 .


et par convergence dominée, on obtient (III.25). 

On montre ensuite le lemme suivant.

Lemme III.2.9 C02 (Rd ) est dense dans C0 (Rd ) pour la norme uniforme k·k∞ .

Preuve: soit t ∈ ]0, ∞[ et soit f ∈ C0 (Rd ). On a montré que Pt f ∈ C02 (Rd ). Comme (Pt )t∈R+ est de
Feller-Dynkin, on a limt→0 kPt f − f k∞ = 0, ce qui implique le lemme. Donnons, cependant, une preuve
directe de ce fait: pour tout δ ∈ ]0, ∞[ , on pose w(δ) := sup{|f (x) − f (y)| ; x, y ∈ Rd : kx − yk ≤ δ}. On
vérifie limδ→0+ w(δ) = 0, c’est-à-dire que f est uniformément continue sur Rd . Soit (Ω, F , P), un espace
de probabilité et Y : Ω → Rd , un vecteur Gaussien √ F -mesurable de matrice de covariance
 identité:
√  la loi
de Y a pour densité g1 . On remarque la loi de tY est gt et donc que Pt f (x) = E f x + tY . Donc
 √ 
|Pt f (x)−f (x)| ≤ E w tkY k . Or |w(δ)| ≤ 2kf k∞ , pour tout δ ∈ ]0, ∞[ . Par convergence dominée on a
donc
 √ 
kPt f −f k∞ ≤ E w tkY k −−−→ 0 ,
t→0+

ce qui permet de conclure. 

Lemme III.2.10 Soit f ∈ C02 (Rd ) telle qu’il existe x0 ∈ Rd satisfaisant supx∈Rd f (x) = f (x0 ) > 0. Alors
∆f (x0 ) ≤ 0.
112 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

Preuve: on a tout d’abord ∂i f (x0 ) = 0 pour tout i ∈ {1, . . . , d} et par la formule de Taylor, il existe une fonction
continue bornée ε : Rd → R telle que limy→0 ε(y) = 0 et telle que pour tout y := (y1 , . . . , yd ), on ait

1
X
2
2
yi yj ∂i,j f (x0 ) + ε(y)kyk2 = f (x0 + y)−f (x0 ) ≤ 0 .
1≤i,j≤d

2 f (x ) ≤ 0. Comme
En choisissant y := δei , où ei est le i-ème vecteur canonique et δ > 0, on vérifie que ∂i,i 0
cela est vérifié pour tout i ∈ {1, . . . , d}, on en déduit que ∆f (x0 ) ≤ 0. 

Lemme III.2.11 On considère l’opérateur 21 ∆ : C02 (Rd ) → C0 (Rd ). Alors,

(a) Son domaine C02 (Rd ) est dense dans C0 (Rd ) pour k·k∞ .

1
(b) 2∆ satisfait le principe du maximum.

(c) Pour tout p ∈ ]0, ∞[ , l’espace (pId− 21 ∆) C02 (Rd ) est dense dans C0 (Rd ) pour k·k∞ .


Preuve: le lemme III.2.9 montre (a) et le lemme III.2.10 montre (b). Il reste à prouver (c). Pour cela on fixe
p ∈ ]0, ∞[ et on pose Z ∞
∀x ∈ Rd , ∀f ∈ C02 (Rd ), Up f (x) = e−pt Pt f (x) dt , (III.26)
0

qui a bien un sens car t 7→ Pt f (x) est continue bornée (et même C 1 ) par le lemme III.2.8. Ce même lemme,
combiné avec le théorème de dérivation sous l’intégrale montre que Up f ∈ C02 (Rd ) et que
Z ∞ Z ∞
1 1 d
2
∆(Up f )(x) = e−pt 2 ∆(Pt f )(x) dt = e−pt Pt f (x) .
0 0 dt

Une intégration par parties (basée sur le fait que limt→∞ e−pt Pt f (x) = 0, implique que 1
2 ∆(Up f )(x) =
pUp f (x)−f (x). On a donc montré que
1
∀f ∈ C02 (Rd ), (pId− 2 ∆)Up f = f .

On en déduit que C02 (Rd ) ⊂ (pId− 12 ∆) C02 (Rd ) et le lemme III.2.9 implique le point (c).



Le théorème III.2.7, page 109 combiné au lemme III.2.11 qui précède permet la caractérisation suivante du
générateur du mouvement Brownien standard d-dimensionnel.

Théorème III.2.12 On considère l’opérateur 21 ∆ : C02 (Rd ) → C0 (Rd ). Alors, 12 ∆ est fermable dans l’espace
de Banach (C0 (Rd ), k·k∞ ) et sa fermeture 12 ∆ : D 1 ∆ → C0 (Rd ) est le generateur du semi-groupe de Feller-
2
Dynkin (Pt )t∈R+ du mouvement Brownien standard en dimension d.

Remarque III.2.13 En dimension d ≥ 2, le domaine D 1 ∆ de la fermeture du Laplacien usuel 21 ∆ sur C02 (Rd )
2
est difficile à décrire (il y a quelques résultats en dimension d = 2). Autrement dit, on connaît mal la fermeture
du Laplacien en dimension d supérieure à 2. En revanche, en dimension 1, le générateur du mouvement
Brownien est calculé explicitement comme montré dans le paragraphe qui suit. 
III.2. APPLICATIONS AUX SEMI-GROUPES DE FELLER-DYNKIN. 113

Calcul exact du générateur infinitésimal du mouvement Brownien en dimension 1. Nous calculons le


générateur du mouvement Brownien en dimension 1 (c’est-à-dire que nous identifions son domaine) en calcu-
lant explicitement ses résolvantes. Pour cela, on rappelle que
eiux
Z Z
1 −|u| 1 1 −iux−|x|
∀u ∈ R, dx = e et = e dx . (III.27)
π R 1 + x2 1 + u2 R
2

La première égalité résulte d’un calcul élémentaire de primitive. La seconde égalité est une conséquence du
théorème d’inversion de Fourier qui s’applique car x 7→ e−|x| est Lebesgue-intégrable sur R.
Pour tout p ∈]0, ∞[ , on vérifie facilement que l’on peut définir Up : Cb (R, C) → Cb (R, C) par (III.26). Pour
tout u ∈ R, on note Eu :∈ Cb (R, C) la fonction définie par Eu (x) = eiux . On voit alors que
Z ∞ Z ∞
eiux
Z 2 tu2
−pt − 21 − y2t iuy iux
Up Eu (x) = dt e (2πt) e e e dy = e iux
dt e−pt e− 2 = .
0 R 0 p + 12 u2
Un changement de variable linéaire dans (III.27) implique alors que

Z
1
Up Eu (x) = dy (2p)− 2 e− 2p|y−x| eiuy
R
Par injectivité de la transformée de Fourier on en déduit la proposition suivante.

Proposition III.2.14 Soit (Pt )t∈R+ , le semi-groupe du mouvement Brownien en dimension 1, qui est de Feller-
Dynkin. On note (Up )p∈]0,∞[ la famille de résolvantes associée. Alors, on a la représentation suivante:

Z
1
∀f ∈ C0 (R), ∀p ∈ ]0, ∞[ , ∀x ∈ R, Up f (x) = dy (2p)− 2 e− 2p|y−x| f (y) .
R
On fixe f ∈ C0 (R). La proposition précédente permet d’écrire pour tout x ∈ R,

Z x √ √
Z ∞ √
1 1
Up f (x) = e−x 2p dy (2p)− 2 ey 2p f (y) + ex 2p dy (2p)− 2 e−y 2p f (y) .
−∞ x
Cela montre que Up f est dérivable partout et un calcul élémentaire montre que

Z ∞ √ √
Z x √
(Up f )0 (x) = ex 2p dy e−y 2p f (y) − e−x 2p dy ey 2p f (y) .
x −∞

Cette expression montre que (Up f )0


est également dérivable partout et un calcul élémentaire implique que

Z ∞ √ √
Z x √
(Up f )00 (x) = −2f (x) + 2p ex 2p dy e−y 2p f (y) + 2p e−x 2p dy ey 2p f (y)
p p
x −∞
= −2f (x) + 2pUp f (x) .
Autrement dit
1
∀p ∈ ]0, ∞[ , ∀f ∈ C0 (R), Up f ∈ C02 (R) et 2
(Up f )00 = pUp f −f . (III.28)
On note A : DA → C0 (R), le générateur de (Pt )t∈R+ . Pour simplifier les notations, on pose également D :=
C02 (R) et A1 : f ∈ D 7−→ 12 f 00 ∈ C0 (R). La proposition III.1.11 (i), page 92, implique que pour tout p ∈ ]0, ∞[ ,
DA = Up (C0 (R)). Donc (III.28) implique que DA ⊂ D. Par ailleurs, la même proposition III.1.11 (ii) implique
que pour toute fonction f ∈ C0 (R), on a AUp f = pUp f −f et (III.28) implique que
∀f ∈ C0 (R), ∀p ∈ ]0, ∞[ , AUp f = A1 Up f .
Comme Up (C0 (R)) = DA , on en déduit que A1|DA = A. Le principe du maximum de Dynkin (lemme III.2.4,
page 107) implique alors que D = DA et donc A1 = A. On a donc montré le théorème suivant.
114 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

Théorème III.2.15 (Calcul exact du générateur du Brownien en dim. 1) On note A : DA → C0 (R), le générateur du
semi-groupe (Pt )t∈R+ du mouvement Brownien en dimension 1. Alors,

1
DA = C02 (R) et ∀f ∈ C0 (R), Af = 2 f 00 .

III.3 Formule de Dynkin, opérateur caractéristique.


III.3.a Formule de Dynkin.
Théorème III.3.1 (Formule de Dynkin) Soit E, un espace topologique LCBD. Soit (Pt )t∈R+ , un semi-groupe
de Feller-Dynkin sur C0 (E). On note E∂ , un compactifié habituel de E et (Pt∂ )t∈R+ l’extension minimale de
(Pt )t∈R+ . Soit
(Ω; F ; (Gt )t∈R+ ; (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ ))
un processus de Feller-Dynkin càdlàg tel que (Gt )t∈R+ satisfait les hypothèses habituelles. Soit A : DA →
C0 (E), le générateur de (Pt )t∈R+ . Soient x ∈ E et f ∈ DA . Alors, les assertions suivantes sont vérifiées.

(i) Pour tout t ∈ R+ , on pose


Z t
∀t ∈ R+ , Mtf := f (Xt ) − Af (Xs ) ds .
0

Alors, (Mtf )t∈R+ est bien définie et sous Px , c’est une (Gt )t∈R+ -martingale.

(ii) Pour tout (Gt )t∈R+ -temps d’arrêt T tel que Ex [T ] < ∞,

  h Z T i
Ex f (XT ) −f (x) = Ex Af (Xs ) ds . (III.29)
0

Cette identité est appelée formule de Dynkin.

Preuve: comme Af ∈ C0 (E), s 7→ Af (Xs ) est càdlàg bornée, ce qui permet de définir Mtf comme une
v.a. bornée Gt -mesurable. La propriété de Markov au temps t implique que Px -p.s.

 f 
Z t s hZ
i
Ex Mt+s Gt = Ps f (Xt ) − Af (Xr ) dr − Ex Af (Xt+r ) dr Gt

0 0
Z t Z s
= Ps f (Xt ) − Af (Xr ) dr − dr Ex Af (Xt+r ) Gt
 
0 0
Z t Z s
= Ps f (Xt ) − Af (Xr ) dr − dr Pr Af (Xt ) .
0 0

L’interversion espérance conditionnelle/intégrale étant justifiée par le fait que Af (Xt+r ) estRbornée. On ap-
s
plique ensuite (III.13) (au lemme III.1.18, page 98) pour constater que pour tout y ∈ E, Ps f (y)− 0 dr Pr Af (y) =
f t
| Gt ] = f (Xt )− 0 Af (Xr ) dr = Mtf , ce qui termine la preuve du point (i).
R
f (y). Donc Px -p.s. Ex [Mt+s
Il est possible de déduire le point (ii) du point (i) en appliquant un théorème d’arrêt général pour les
martingale càd. Nous préférons démontrer la formule de Dynkin directement sans avoir recours à ce résultat.
III.3. FORMULE DE DYNKIN, OPÉRATEUR CARACTÉRISTIQUE. 115

R∞
Pour cela on fixe p ∈ ]0, ∞[ et g ∈ C0 (R). Il est clair que Y := 0 dt e−pt g(Xt ) est une v.a. G∞ -mesurable et
bornée par kgk∞ /p. On remarque ensuite que
Z T Z ∞ Z T Z ∞
−pt −pt −pt −pT
Y = e g(Xt ) dt + e g(Xt ) dt = e g(Xt ) dt + e e−pt g(Xt+T ) dt
0 T 0 0

En appliquant la propriété de Markov forte au temps T , on obtient Px -p.s.


hZ T i
e−pt g(Xt ) dt + Ex e−pT Up g(XT ) .
 
Up g(x) = Ex [Y ] = Ex
0

Soit f ∈ DA . La proposition III.1.11 (ii), page 92, implique que Up (pf − Af ) = f . Si on applique ce qui
précède à g = pf −Af , on obtient
hZ T  i
e−pt pf (Xt )−Af (Xt ) dt + Ex e−pT f (XT ) .
 
f (x) = Ex
0

On suppose p ∈ ]0, 1[ et on remarque que


Z T 
e−pt pf (Xt )−Af (Xt ) dt ≤ (kf k∞ + kAf k∞ )T (III.30)


0

et le membre de droite est intégrable. On peut donc appliquer la convergence dominée pour passer à la limite
dans (III.30) lorsque p → 0 et on obtient (III.29). 

Remarque III.3.2 Appliquons l’énoncé précédent au mouvement Brownien standard dans Rd . Le théorème
III.2.12, page 112, (mais en fait le lemme III.2.8, page 110, suffit) implique alors que pour toute fonction
f ∈ C02 (Rd ),
Z t
t 1
Mt = f (Xt ) − 2 ∆f (Xs ) ds
0

est sous Px est une (Gt )t∈R+ -martingale. La formule d’Itô montre que Mtf se représente comme l’intégrale
stochastique suivante:
Z t
f
Mt = ∇f (Xs )·dXs .
0

La représentation de Mtf comme une intégrale trajectorielle présente des avantages, notamment la résolution
d’équations différentielles stochastiques par itérations de Picard. 

III.3.b Opérateur caractéristique.


Grâce à la formule de Dynkin, il est possible de donner une forme alternative au générateur infinitésimal. Soit
E, un espace topologique LCBD. Dans la suite de cette section, (Pt )t∈R+ désigne un semi-groupe de Feller-
Dynkin sur C0 (E). On note (E∂ , d), un compactifié métrique habituel de E et (Pt∂ )t∈R+ l’extension minimale
de (Pt )t∈R+ . On note (p∂t (x, dy))t∈R+ ,x∈E∂ , les noyaux associés. Soit

(Ω; F ; (Gt )t∈R+ ; (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (E∂ ))

un processus de Feller-Dynkin càdlàg tel que (Gt )t∈R+ satisfait les hypothèses habituelles.
116 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

Définition III.3.3 (Point absorbant) Un point x est dit absorbant si pt (x, dy) = δx (dy) pour tout t ∈ R+ . Un
raisonnement simple montre que x est absorbant ssi Px -p.s. pour tout t ∈ R+ , Xt = x. 

On commence par montrer le lemme suivant.

Lemme III.3.4 On garde les notations et les hypothèses du début de la section pour le processus X. Soit
x ∈ E, un point qui n’est pas absorbant pour le processus. Pour tout ε ∈ ]0, ∞[ , on pose

τε := inf t ∈ R+ : d(Xt , x) ≥ ε

avec la convention inf ∅ = ∞. Alors, il existe ε0 ∈ ]0, ∞[ tel que Ex [τε ] < ∞, pour tout ε ∈]0, ε0 [ .

Preuve: comme x n’est pas absorbant, il exsiste t0 ∈]0, ∞[ , tel que p∂t0 (x, E∂ \{x}) > 0. Il existe donc δ et η,
des réels strictement positifs, tels que p∂t0 x, Uδ > η, où Uδ := {y ∈ E∂ : d(x, y) > δ}, qui est ouvert de E∂ .
On pose fn (y) = 1 ∧ (nd(y, E∂ \Uδ )). On vérifie facilement que fn ∈ C(E∂ ), que 0 ≤ fn ≤ fn+1 ≤ 1Uδ et que
limn→∞ fn = 1Uδ ponctuellement. Par conséquent, par convergence monotone, limn→∞ P t∂0 fn =  pt0 (x, Uδ )
∂ ∂
 S 
ponctuellement sur E∂ . Or y ∈ E∂ : pt0 (y, Uδ ) > η = n∈N y ∈ E∂ : Pt0 fn (y) > η , donc y ∈ E∂ :
p∂t0 (y, Uδ ) > η est un ouvert. Il existe donc ε ∈ ]0, ∞[ , tel que

∀y ∈ B(x, ε), p∂t0 (y, Uδ ) > η . (III.31)

Sans perte de généralité, on peut supposer que ε ∈ ]0, δ[ . Soit n ∈ N∗ . On définit l’événement

An = ∀k ∈ {1, . . . , n}, Xkt0 ∈ B(x, ε) .

On remarque que La propriété de Markov au temps (n−1)t0 implique Px -p.s.

Ex 1An G(n−1)t0 = pt0 (X(n−1)t0 , E∂ \Uε )1An−1 = 1 − pt0 (X(n−1)t0 , Uε ) 1An−1


  
(III.32)

Or pt0 (X(n−1)t0 , Uε) ≥ p t0 (X(n−1)t


 0 , Uδ ) et sur An−1 , on a X(n−1)t0 ∈ B(x, ε) et donc pt0 (X(n−1)t0 , Uδ ) ≥ η.
Par conséquent, Ex 1An G(n−1)t0 ≤ (1−η)1An−1 et en prenant l’espérance, Px (An ) ≤ (1−η)Px (An−1 ); une
récurrence immédiate, Px (An ) ≤ (1−η)n . Or Px -p.s. {τε > nt0 } ⊂ An . Donc

∀n ∈ N∗ , Px τε > nt0 ≤ (1−η)n .




ce qui implique que facilement que Ex [τε ] < ∞. 

Définition III.3.5 (Opérateur caractéristique (Dynkin)) On garde les notations et les hypothèses du début de
la section pour le processus de Feller-Dynkin X. On note  Abs l’ensemble des points absorbants du processus
et pour tout ε ∈ ]0, ∞[ , on rappelle la notation: τε = inf t ∈ R+ : d(Xt , x) ≥ ε , avec la convention inf ∅ = ∞.
On définit un opérateur L : DL → C0 (E) par

  Ex [f (Xτε )]−f (x) 


f ∈ DL et Lf = g ⇐⇒ ∀x ∈ Abs, g(x) = 0 et ∀x ∈ E\{Abs}, g(x) = lim .
ε→0+ Ex [τε ]

Cette définition fait sens d’une part grâce au lemme III.3.4, page 116, montrant que Ex [τε ] < ∞ et grâce à la
continuité à droite de X qui implique que Ex [τε ] > 0. On vérifie aisément que DL est un sous-espace vectoriel
de C0 (E) et que L est linéaire. L’opérateur L : DL → C0 (E) est appelé opérateur caractéristique de X. 
III.4. QUELQUES APPLICATIONS AUX DIFFUSIONS. 117

Théorème III.3.6 Soit X, un processus de Feller-Dynkin à valeurs dans E∂ , avec les notations et hypothèses
énoncées en début de section. On note L : DL → C0 (E) l’opérateur caractéristique du processus et A : DA →
C0 (E), son générateur infinitésimal. Alors

DA = DL et A=L .
+
Preuve: soit f ∈ DA . On pose Af =: g. Soit x ∈ Abs. On a donc Pt f (x) = f (x) et donc g(x) = ddt Pt f (x)|0 =
0. On suppose ensuite que x ∈ E\Abs. Comme expliqué dans la définition III.3.5, page 116, pour tout ε
suffisamment petit, Ex [τε ] ∈ ]0, ∞[ . La formule de Dynkin (théorème III.3.1 (ii), page 114) implique que

Ex [f (Xτε )]−f (x) 1 h Z τε  i


− g(x) = Ex g(Xs )−g(x) ds .
Ex [τε ] Ex [τε ] 0

On pose w(ε) = supy∈B(x,ε) |g(y)−g(x)|. Comme g ∈ C0 (E), on a limε→0+ w(ε) = 0. Donc


E [f (X )]−f (x) 1 h Z τε i
x τε
− g(x) ≤ Ex w(ε) ds = w(ε),

Ex [τε ] Ex [τε ]

0

ce qui implique que Lf (x) = g(x). On a donc

DA ⊂ DL et L|DA = A .

Il est facile de vérifier ensuite que L satisfait le principe du maximum. Le lemme III.2.4, page 107, s’applique
et permet de conclure. 

III.4 Quelques applications aux diffusions.


III.4.a Forme du générateur d’une diffusion.
Définition III.4.1 Soit (Pt )t∈R+ , un semi-groupe de Feller-Dynkin sur C0 (Rd ). On note (Rd∂ , d), un compact-
ifié métrique habituel de Rd et (Pt∂ )t∈R+ l’extension minimale de (Pt )t∈R+ . On note (p∂t (x, dy))t∈R+ ,x∈Rd , les

noyaux associés. Soit

(Ω; F ; (Gt )t∈R+ ; (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (Rd∂ ))

un processus de Feller-Dynkin càdlàg tel que (Gt )t∈R+ satisfait les hypothèses habituelles. On rappelle que ζ
désigne le temps de vie de X.
C’est une diffusion de Feller-Dynkin si les propriétés suivantes sont satisfaites.

(a) Pour tout ω ∈ Ω, t ∈ [0, ζ(ω)[ 7→ Xt (ω) est continu.

(b) Cc∞ (Rd ) ⊂ DA où A : DA → C0 (Rd ) est le générateur du processus et où Cc∞ (Rd ) est l’espace des
fonctions infiniment dérivables à support compact. 

Proposition III.4.2 Soit X, une diffusion de Feller-Dynkin dans Rd : on utilise les notations de la définition
III.4.1. La restriction de A à Cc∞ (Rd ) est locale, c’est-à-dire

∀x ∈ Rd , ∀f, g ∈ Cc∞ (Rd ),


 
f = g dans un voisinage de x =⇒ Af (x) = Ag(x) .
118 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

Preuve: si x est un point absorbant, alors Af (x) = Ag(x) = 0. Supposons que x ne soit pas absorbant. On
rappelle la notation τε = inf{t ∈ R+ : d(Xt , X0 ) ≥ ε}, avec la convention que inf ∅ = ∞. Par le lemme III.3.4,
page 116, on a Ex [τε ] < ∞ et on a limε→0+ τε = 0, Px -p.s. et dans L1 (Ω, F , Px ). On a donc Px -p.s. τε < ζ
pour tout ε suffisamment petit. La continuité de X jusqu’au temps ζ implique que Px -p.s. d(Xτε , x) = ε pour
tout ε suffisamment petit. Supposons que f, g ∈ Cc∞ (Rd ) coïncident dans un voisinage de x. Alors, ce qui
précède implique que Lf (x) = Lg(x), où L est l’opérateur caractéristique du processus (définition III.3.5, page
116). Le théorème III.3.6, page 117, implique alors que Af (x) = Ag(x). 

Le théorème suivant, dû à Dynkin, donne la forme du générateur infinitésimal d’une diffusion de Feller-
Dynkin (plus précisément la forme de sa restriction à Cc∞ (Rd )).

Théorème III.4.3 Soit X, une diffusion de Feller-Dynkin dans Rd : on utilise les notations de la définition
III.4.1. Alors,
1
X X
∀f ∈ C02 (Rd ), ∀x ∈ Rd , Af (x) = 2 2
ai,j (x)∂i,j f (x) + bi (x)∂i f (x) − c(x)f (x) ,
1≤i,j≤d 1≤i,j≤d

où les fonctions ai,j , bi et c satisfont les propriétés suivantes.

(a) Pour tous i, j ∈ {1, . . . , d}, ai,j , bi , c : Rd → R sont des fonctions continues.

(b) Pout tout x ∈ Rd , la matrice (ai,j (x))1≤i,j≤d est symétrique positive.

(c) Pour tout x ∈ Rd , c(x) ≥ 0.

Preuve. On rappelle le fait suivant: soient K ⊂ U ⊂ Rd , avec U ouvert et K compact; alors il existe φ ∈ Cc∞ (Rd )
telle que 1K ≤ φ ≤ 1U . On fixe R > 0 et on se donne φ ∈ Cc∞ (Rd ) telle que 1B(0,2R) ≤ φ ≤ 1B(2R+1) . Soit
x0 = (x01 , . . . , x0d ) ∈ B(0, R). Pour tout i, j ∈ {1, . . . , d}, on définit

∀y := (y1 , . . . , yd ) ∈ Rd , hxi 0 (y) := (yi −x0i )φ(y) et gi,j


x0
(y) := (yi −x0i )(yj −x0j )φ(y)

Il est clair que ce sont des fonctions de Cc∞ (Rd ). On pose ensuite

c(x0 ) := −(Aφ)(x0 ), bi (x0 ) := (Ahxi 0 )(x0 ) et ai,j (x0 ) := (Agi,j


x0
)(x0 ) .

Le caractère local de A implique que si φ est remplacée par n’importe quelle fonction Cc∞ (Rd ) valant 1 au
voisinage de x0 , cela définit les mêmes coefficients c(x0 ), bi (x0 ) et ai,j (x0 ). Quitte à augmenter R, cela
définit de façon univoque c, bi et ai,j comme des fonctions de Rd dans R. La définition de c montre que
c ∈ C(Rd ). Soit x := (x1 , . . . , xd ) ∈ B(0, R). On remarque que hxi (y) = hxi 0 (y) + (x0i − xi )φ(y) et donc
bi (x) = (Ahxi 0 )(x) − (x0i − xi )c(x). Cela montre que bi est continue. De même on observe que gi,j x (y) =
x0
gi,j x0
(y) + (x0i −xi )hxj 0 (y) + (x0j −xj )hxi 0 (y) + (x0i −xi )(x0j −xj )φ(y). Donc ai,j (x) = (Agi,j )(x) + (x0i −
x0 x
xi )(Ahj )(x) + (x0j −xj )(Ahi 0 )(x)−(x0i −xi )(x0j −xj )φ(x). Cela montre également, que ai,j est une fonction
continue.
Comme φ atteint son maximum pour tout x ∈ B(0, R), le principe du maximum (lemme III.2.5, page 107)
implique que c(x) = −(Aφ)(x) ≥ 0, ce qui montre que c est une fonction positive. Soient λ1 , . . . , λd ∈ R. Pour
2
tout ε ∈ ]0, ∞[ , pour tout y ∈ Rd , on pose θε (y) = εφ(y)− λ1 hx1 (y)+. . .+λd hxd (y) .P Comme pour tout y ∈
B(0, R), on a φ(y) = φ(y)2 , on vérifie que pour tout y ∈ B(0, R), on a θε (y) = εφ(y)− 1≤i,j≤d λi λj gi,j x (y).

Or θε atteint son maximum en x et ce maximum vaut ε > 0.le principe du maximum (lemme III.2.5, page 107)
III.4. QUELQUES APPLICATIONS AUX DIFFUSIONS. 119

P
implique que −εc(x) − 1≤i,j≤d λi λj ai,j (x) = (Aθε )(x) ≤ 0. Comme cela est vrai pour tout ε > 0 et tous
λ1 , . . . , λd ∈ Rd , on en déduit que la matrice (ai,j (x))1≤i,j≤d (clairement symétrique) est positive. On a montré
que les fonctions ai,j , bi et c satisfont les propriétés (a), (b) et (c).
Soit f ∈ Cc∞ (Rd ). On fixe x ∈ B(0, R). La formule de Taylor en x au second ordre implique l’existence de
ηx : Rd → R, une fonction continue bornée telle que limy→x ηx (y) = 0 et telle que pour tout y = (y1 , . . . , yd ) ∈
Rd ,
1
X X
2
f (y) = f (x) + (yi −xi )∂i f (x) + 2 (yi −xi )(yj −xj )∂i,j f (x) + ηx (y)ky−xk2 ,
1≤i≤d 1≤i,j≤d

où k·k désigne la norme Euclidienne sur Rd . On a donc φ(y)f (y) = f0 (y) + φ(y)ηx (y)ky−xk2 où
1
X X
f0 (y) :=f (x)φ(y) + hxi (y)∂i f (x) + 2 x
gi,j 2
(y)∂i,j f (x).
1≤i≤d 1≤i,j≤d

2 f (x). Soit ε ∈ ]0, 1[ . On


P P
On en déduit que Af0 (x) = −c(x) + 1≤i≤d bi (x)∂i f (x) + 12 1≤i,j≤d ai,j (x)∂i,j
pose qε (y) = f (y)−f0 (y)−εky−xk2 + ε2 φ(y). Il existe δ > 0 tel que ε2 = maxB(x,2δ) qε . Soit ϕ ∈ Cc∞ (Rd )
telle que 1B(x,δ) ≤ ϕ ≤ 1B(x,2δ) . Alors, ϕqε atteint son maximum en x et ce maximum vaut ε2 > 0. Le principe
du maximum implique que (Aϕqε )(x) ≤ 0 et puisque ϕ est local, on a
X
Af (x) − Af0 (x) − ε ai,i (x) − ε2 c(x) = −Aϕqε (x) ≤ 0 ;
1≤i≤d

Comme cela est vérifié pour tout ε > 0, on en déduit


1
X X
2
Af (x) ≤ Af0 (x) = −c(x) + bi (x)∂i f (x) + 2
ai,j (x)∂i,j f (x) .
1≤i≤d 1≤i,j≤d

On montre l’inégalité large contraire en raisonnant de même avec pε (y) := f0 (y)−f (y)−εky−xk2 + ε2 φ(y),
ce qui permet de conclure. 

Le théorème suivant montre la nécessité de la continuité pour des processus de Feller-Dynkin dont le
générateur est un opérateur différentiel du second ordre.

Théorème III.4.4 Soit (Pt )t∈R+ , un semi-groupe de Feller-Dynkin sur C0 (Rd ). On note (Rd∂ , d), un compact-
ifié métrique habituel de Rd et (Pt∂ )t∈R+ l’extension minimale de (Pt )t∈R+ . On note (p∂t (x, dy))t∈R+ ,x∈Rd , les

noyaux associés. Soit
(Ω; F ; (Gt )t∈R+ ; (Xt )t∈R+ ; (Pt∂ )t∈R+ ; Pµ , µ ∈ M1 (Rd∂ ))
un processus de Feller-Dynkin càdlàg tel que (Gt )t∈R+ satisfait les hypothèses habituelles. On rappelle que ζ
désigne le temps de vie de X et on note A : DA → C0 (E) le générateur infinitésimal.
On suppose que Cc∞ (Rd ) ⊂ DA et on suppose que la restriction de A à Cc∞ (Rd ) est un opérateur différen-
tiel du second ordre satisfaisant les mêmes hypothèses que celle du théorème III.4.3 avec l’hypothèse que la
fonction c est nulle. Alors, pour toute mesure µ ∈ M1 (Rd∂ ), Pµ -p.s. t ∈ [0, ζ[ 7→ Xt est continue.
Preuve: on utilise le théorème II.5.10, page 74. Pour cela on fixe K ⊂ U ⊂ E, avec K compact et U ouvert. Il
est facile de trouver un compact C tel que K ⊂ C̊ ⊂ C ⊂ U et il existe f ∈ Cc∞ (Rd ) telle que 1C ≤ f ≤ 1U . Soit
x ∈ K et soit t ∈ ]0, ∞[ , la formule de Dynkin implique que
Z t
pt (x, Rd \U ) ≤ Ex 1−f (Xt ) ≤ f (x)−Pt f (x) = − Ps Af (x) ds
 
0
120 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.

Comme f vaut 1 dans le voisinage C̊ de x, on a Af (x) = c(x) = 0, car on a supposé c nulle partout. Comme
cela est vrai pour tout x ∈ K, on en déduit que
Z t
−1 d −1
sup t pt (x, R \U ) ≤ t kPs Af −Af k∞ ds −−−→ 0 .
x∈K 0 t→0+

Le théorème II.5.10 (page 74) s’applique et permet de conclure. 

III.4.b Existences des diffusions: à partir de résultats sur les EDP paraboliques.
Nous abordons les réciproques partielles éventuelles au théorème III.4.3, à savoir la question de savoir s’il
existe un processus de Feller-Dynkin à valuers dans Rd dont le générateur A dont le domaine DA contient
C02 (Rd ) et tel que sur cet ensemble de fonctions on ait:
1
X X
∀f ∈ C02 (Rd ), ∀x ∈ Rd , Af (x) = 2 2
ai,j (x)∂i,j f (x) + bi (x)∂i f (x) − c(x)f (x) , (III.33)
1≤i,j≤d 1≤i,j≤d

où les fonctions ai,j , bi et c satisfont les propriétés suivantes.

(a) Pour tous i, j ∈ {1, . . . , d}, ai,j , bi , c : Rd → R sont des fonctions continues.

(b) Pout tout x ∈ Rd , la matrice (ai,j (x))1≤i,j≤d est symétrique positive.

(c) Pour tout x ∈ Rd , c(x) ≥ 0.

Le théorème III.4.4 montre que si un tel processus existe il est continu avant une explosion éventuelle. L’existence
d’un tel processus sous les hypothèses (a, b, c) est un problème difficile. Nous explicitons essentiellement deux
résultats où des hypothèses restrictives sur les coefficients sont faites:
– un premier résultat d’existence repose sur des résultats d’EDP paraboliques qui sont rappelés;
– le second, entièrement probabiliste, repose sur la résolution d’équations différentielles stochastiques.
Signalons que la construction de diffusions a été une des motivations majeures de l’introduction des équations
différentielles stochastiques.
On rappelle tout d’abord le résultats suivant d’analyse des équations aux dérivées partielles paraboliques.

Théorème III.4.5 Soit A un opérateur différentiel donné sur C02 (Rd ) par (III.33) où ai,j , bi et c satisfont les
propriétés suivantes.

(a0 ) Pour tous i, j ∈ {1, . . . , d}, ai,j , bi , c : Rd → R sont des fonctions continues bornées et Höldériennes.

(b0 ) Pour tout x ∈ Rd , la matrice (ai,j (x))1≤i,j≤d est symétrique et sa plus petite valeur propre est minorée
par une constante γ ∈]0, ∞[ , c’est-à-dire
X X
∀λ1 , . . . , λd ∈ R, ∀x ∈ Rd , ai,j (x) λi λj ≥ γ λ2i . (III.34)
1≤i,j≤d 1≤i≤d

(c) Pour tout x ∈ Rd , c(x) ≥ 0.

Alors, il existe une unique fonction p :]0, ∞[×(Rd )2 → R satisfaisant les propriétés suivantes.
III.4. QUELQUES APPLICATIONS AUX DIFFUSIONS. 121

(i) La fonction p est continue et elle est bornée sur tout domaine de la forme {(t, x, y) ∈ ]0, ∞[×(Rd )2 :
t + kx−yk ≥ ε}, ε ∈ ]0, ∞[. De plus, pour tout y ∈ Rd fixé, la fonction (t, x) ∈ ]0, ∞[×Rd 7−→ p(t, x, y)
est C 1 en t, C 2 en x et satisfait pour tous (t, x) ∈ ]0, ∞[×Rd l’équation suivante:

∂p 1
X ∂2p X ∂p
= 2
a i,j (x) + bi (x) − c(x)p(t, x, y) , (III.35)
∂t ∂xi ∂xj ∂xi
1≤i,j≤d 1≤i,j≤d

c’est-à-dire ∂t p = Ap en t et x, y étant fixé.

(ii) Pour toute f ∈ Cb (Rd ), Z


d
∀x ∈ R , lim p(t, x, y)f (y) dy = f (x) , (III.36)
t→∞ Rd

uniformément sur tout compact de Rd .

Une telle fonction p est appelée solution fondamentale de de l’équation ∂t u = Au. Cette solution satisfait de
plus les propriétés suivantes

(iii) p(t, x, y) > 0, pour tous (t, x, y) ∈ ]0, ∞[×(Rd )2 .

(iv) Il existe deux constantes K, r ∈ ]0, ∞[ telles que pour tous (t, x, y) ∈ ]0, ∞[×(Rd )2

d rkx−yk2 ∂p(t, x, y) d+1 rkx−yk2


p(t, x, y) ≤ Kt− 2 e− t , ≤ Kt− 2 e− t
∂xi
2
∂ p(t, x, y) d+2 rkx−yk2 ∂p(t, x, y) d+2 rkx−yk2
≤ Kt− 2 e− t and ≤ Kt− 2 e− t (III.37)
∂xi ∂xj ∂t

et il existe des constantes K1 , K2 , r1 , r2 , δ > 0 telles que pour tous (t, x, y) ∈ ]0, ∞[×(Rd )2 on ait

d r1 kx−yk2 d+δ r2 kx−yk2


p(t, x, y) ≥ K1 t− 2 e− t − K2 t− 2 e− t . (III.38)

À l’aide de ce résultat on montre le résultat suivant.

Théorème III.4.6
122 CHAPTER III. PROCESSUS DE FELLER: RÉSOLVANTES ET GÉNÉRATEUR.
Chapter IV

Nuages de Poisson.

Le but de ce chapitre est généraliser la notion de processus de Poisson, de construire des outils de calcul. Ces
résultats sont ensuite utilisés pour étudier les processus de Lévy et développer la théorie des excursions des
processus Markoviens.

IV.1 Processus de Poisson linéaire homogène.


Dans ce chapitre, sauf mention du contraire, toutes les variables aléatoires sont définies sur un même espace
de probabilité (Ω, F , P) qui est supposé suffisamment riche pour que l’on puisse y définir autant de suites de
variables aléatoires indépendantes que nécessaire. Il est simple de constater que la phrase "on choisit un point
uniformément au hasard sur R+ " n’a pas de sens précis. En effet, raisonnons par l’absurde et supposons que
cette phrase ait un sens précis: on note X ce point aléatoire uniforme. C’est donc une variable aléatoire positive
définie sur (Ω, F , P) et on doit avoir
X
1 = P(Ω) = P(X ∈ [n, n + 1[ ) .
n∈N

Comme X est de loi "uniforme", on doit avoir P(X ∈ [n, n + 1[ ) = P(X ∈ [0, 1[ ), pour tout n ∈ N, ce qui
contredit l’égalité precédente.
Si la phrase précédente n’a pas de sens, il est en revanche possible de définir un ensemble infini dénombrable
de points aléatoires sur R+ uniformément répartis et totalement indépendants. La définition d’un tel ensemble
aléatoire est l’objet de cette section. Nous rappelons d’abord quelques résultats élémentaires sur les lois usuelles
(Poisson, exponentielles, Erlang, statistiques d’ordre). Puis nous dégageons heuristiquement une définition
d’un tel ensemble aléatoire de point avant d’en donner une construction.

IV.1.a Événements rares et loi de Poisson, lois exponentielles, statistiques d’ordre.


Définition IV.1.1 Une v.a. X : Ω → N est (de loi) de Poisson de paramètre θ ∈ ]0, ∞[ si P(X = k) = e−θ θk /k!,
pour tout k ∈ N. 
Si X est de Poisson de paramètre θ, alors on vérifie facilement que
E rX = exp −θ(1 − r) , r ∈ [0, 1] .
  

En dérivant une puis deux fois cettefonction génératrice en 1,


E[X] = θ, E[X 2 ] = θ + θ2 et donc var(X) = θ .

123
124 CHAPTER IV. NUAGES DE POISSON.

Cela justifie la définition suivante des lois de Poisson dégénérées.

Définition IV.1.2 Une v.a. X suit une loi de Poisson de paramètre infini (resp. nul) si P(X = ∞) = 1 (resp. si
P(X = 0) = 1). 

Lemme IV.1.3 Soient X1 , . . . , Xn , des v.a. de Poisson de paramètres respectifs θ1 , . . . , θn . On les suppose
indépendantes. Alors X1 + . . . + Xn est une v.a. de Poisson de paramètre θ1 + . . . + θn .
Pgénéralement, soit (Xn )n∈N des v.a. de Poisson indépendantes. On note θn le paramètre
Plus P de Xn . Alors
X := n∈N Xn est une v.a. de Poisson (éventuellement dégénérée) de paramètre θ := n∈N θn .
Preuve: on montre d’abord le premier point. Pour cela, on observe que
h
E rX1 +...+Xn = E rX1 . . . E rXn = exp(−(θ1 + . . . + θn )(1 − r) ,
     

ce qui permet de conclure puisque les fonctions génératrices caractérisent les lois sur N.
P du lemme. Pour tout n ∈ N, on pose Sn = X0 +. . .+Xn et tn = θ0 +. . .+θn . On
Montrons le second point
suppose d’abord que θ = n∈N θn < ∞. On remarque que Sn ≤ Sn+1 et que limn Sn = X. Par convergence
dominée et d’après le premier point du lemme, on a donc pour tout r ∈ [0, 1],

E rX = lim rSn = lim exp(−tn (1−r) = exp(−θ(1−r) ,


     
n→∞ n→∞

ce qui implique que X suit une loi de Poisson de paramètre θ.


On suppose ensuite que θ = ∞. S’il existe n ∈ N tel que θn = ∞, alors Xn = ∞ p.s. et donc X = ∞, ce qui
montre le résultat voulu. Il reste à examiner le cas où pour tout n ∈ N, θn < ∞. Pour tout x ∈ R+ et tout n ∈ N,
une inégalité de Markov implique que
−1
P(Sn ≤ x) ≤ ex E e−Sn = ex−tn (1−e ) .
 

T
Donc limn P(Sn ≤ x) = 0. Or {S < x} ⊂ n∈N {Sn ≤ x}, donc P(X < x) = 0, pour tout x ∈ R+ , ce qui
implique que p.s. X = ∞, ce qui permet de conclure. 

Approximation des lois de Poisson par des loi binomiales. Les lois de Poisson apparaissent comme des
loi binomiales dégénérées: plus précisément, on fixe θ > 0 et pour tout n ∈ N∗ tel que n > θ, on considère
Yn,1 , . . . , Yn,n , des variables de Bernoulli indépendantes de même paramètre pn = θ/n. On pose
X
Xn = Yn,k .
1≤k≤n

La probabilité que Yn,k vale 1 est donc pn : elle devient très petite lorsque n → ∞. En revanche on voit que
E[Xn ] = npn = θ, qui ne varie pas avec n. La loi Xn est une binomiale de paramètres (n, pn ). Pour tout
k ∈ N, et tout n ≥ k, on a
θk
 
n k 1
Y j
P(Xn = k) = pn (1 − pn )n−k = 1 − n θ)n−k 1− n
k k!
1≤j≤k−1

Cela montre que


∀k ∈ N, lim P(Xn = k) = e−θ θk /k! .
n→∞
En un sens que nous expliquons précisément plus loin Xn est très proche d’une loi de Poisson. Le théorème
suivant donne un résultat plus précis.
IV.1. PROCESSUS DE POISSON LINÉAIRE HOMOGÈNE. 125

Théorème IV.1.4 (Approximation Binomiale-Poisson) Pour tout n ≥ 1, on se donne une suite (Yn,k )1≤k≤n de
variables indépendantes de Bernoulli de paramètres respectifs pn,k , c’est-à-dire P(Yn,k = 1) = pn,k . On pose
X X
Xn = Yn,k et θn = pn,k .
1≤k≤n 1≤k≤n

Alors pour tout θ > 0,


X k

P(Xn = k) − e−θ θ ≤ 2|θ − θn | + 2
X
p2n,k .
k!
k∈N 1≤k≤n

2
P
Si limn θn = θ et si limn max1≤k≤n pn,k = 0, alors limn 1≤k≤n pn,k = 0, et

k

−θ θ
X
lim P(Xn = k) − e k! = 0 .

n→∞
k∈N

Exemple d’application. Avant de prouver ce théorème, voyons un exemple d’application de cette approxi-
mation: les statistiques nous disent que 3,2 piétons sont écrasés à Paris chaque mois (c’est un chiffre fantaisiste).
Quelle est la probabilité que, le mois prochain, exactement 5 piétons soient écrasés à Paris ? Pour répondre
rapidement à cette question on peut établir le modèle suivant: il y a (environ) n ' 2.106 Parisiens qui ont une
"chance" très faible de se faire écraser dans le mois suivant, et ce, indépendamment les uns des autres (nous
négligeons les parents portant un nourrisson). On numérote les Parisiens de 1 à n et on note Yk la variable
aléatoire qui vaut 1 si le Parisien numero k se fait écraser le mois prochain et qui vaut 0 sinon. D’après nos
hypothèses, on peut considérer (Yk )1≤k≤n comme une suite i.i.d. de variables de Bernoulli de paramètre p. Par
conséquent X = Y1 + . . . + Yn suit une loi Binomiale de paramètres (n, p) . Sa moyenne vaut np = 3,2. En
appliquant la proposition précédente avec np = θ = 3,2, on obtient
k

P(X = k) − e−3,2 (3,2) ≤ (3,2)2 /n.
X
k!
k∈N

Or (3,2)2 /n est de l’ordre de 10−5 . On peut donc assimiler la probabilité que le mois prochain exactement 5
piétons soient écrasés à Paris à la quantité e−3,2 (3,2)5 /5!.

Preuve du théorème d’approximation binomiale-Poisson. Pour démontrer le théorème IV.1.4, on cherche


à comparer les mesures de probabilités sur Z. Une mesure de probabilité µ sur Z est simplement donnée
par µ = (µ(k))k∈Z . On note M1 (Z) l’ensemble des mesures de probabilités sur Z. Pour toutes mesures
µ, ν ∈ M1 (Z), on pose
X
dvar (µ, ν) = |µ(k)−ν(k)| .
k∈Z

Cette quantité est appelée distance en variation de µ et ν. On peut voir M1 (Z) comme un sous-ensemble de
l’espace des suite `1 (Z) et dvar n’est autre que la norme L1 . Il est facile de vérifier M1 (Z) est un fermé de
`1 (Z) ce qui implique que (M1 (Z), dvar ) est un espace métrique séparable complet. En fait dvar métrise la
convergence en loi sur Z.
Soient µ, ν ∈ M1 (Z), on P rappelle que µ ∗ ν est la convolée de µ avec ν. Il est clair que µ ∗ ν ∈ M1 (Z):
précisément, on a µ∗ν (k) = j∈N µ(k−j)ν(j) pour tout k ∈ Z. On rappelle que si X, de loi µ et Y , de loi ν,
sont deux v.a. à valeurs dans Z, F -mesurables et indépendantes, alors la loi de X + Y est µ ∗ ν.
126 CHAPTER IV. NUAGES DE POISSON.

On montre tout d’abord l’inégalité suivante.

∀µ1 , µ2 , ν1 , ν2 ∈ M1 (Z), dvar (µ1 ∗µ2 , ν1 ∗ν2 ) ≤ dvar (µ1 , ν1 ) + dvar (µ2 , ν2 ). (IV.1)

Preuve: on a
X X
dvar (µ1 ∗µ2 , ν1 ∗ν2 ) ≤ |µ2 (k − j)µ1 (j) − ν2 (k − j)ν1 (j)| = |µ2 (k)µ1 (j) − ν2 (k)ν1 (j)|
j,k∈Z j,k∈Z
X X
≤ |µ2 (k)µ1 (j) − µ2 (k)ν1 (j)| + |µ2 (k)ν1 (j) − ν2 (k)ν1 (j)|
j,k∈Z j,k∈Z
X X
= µ2 (k)dvar (µ1 , ν1 ) + ν1 (j)dvar (µ2 , ν2 ) = dvar (µ1 , ν1 ) + dvar (µ2 , ν2 ) ,
k∈Z j∈Z

ce qui termine la preuve de (IV.1). 

On introduit la notation suivante


1 −θ k
X
∀p ∈ [0, 1], µp = pδ1 + (1 − p)δ0 et ∀θ ∈ ]0, ∞[ νθ = k!
e θ δk . (IV.2)
k∈N

Autrement dit µp est la loi de Bernoulli de paramètre p et νθ la loi de Poisson de paramètre θ. On montre alors:

∀p ∈ ]0, 1], dvar (µp , νp ) ≤ 2p2 et ∀θ, θ0 ∈ ]0, ∞[ , dvar (νθ , νθ0 ) ≤ 2|θ − θ0 |. (IV.3)

Preuve: par convexité on rappelle que 0 ≤ 1−e−p ≤ p. Or

X pk
dvar (µp , νp ) = (e−p −1 + p) + (p − pe−p ) + e−p
k!
k≥2
−p −p
= (e −1 + p) + (p − pe ) + (1−e−p −pe−p ) = 2p(1 − e−p ) ≤ 2p2 ,

ce qui montre la première inégalité. Montrons la seconde: sans perte de généralité on suppose que θ < θ0 . On
pose δ = θ0 −θ. Le lemme IV.1.3 implique νθ0 = νθ ∗νδ et (IV.1) implique que

dvar (νθ , νθ0 ) = dvar (νθ ∗ δ0 , νθ ∗νδ ) ≤ dvar (νθ , νθ ) + dvar (δ0 , νδ ) = dvar (δ0 , νδ ) .

Or dvar (δ0 , νδ ) = 1 − e−δ + = 2(1 − e−δ ) ≤ 2δ, ce qui permet de conclure.


P
k≥1 νδ (k) 

Fin de la preuve du théorème IV.1.4: on fixe n. On note µXn la loi de Xn . Avec les notations de (IV.2),
µXn = µpn,1 ∗ . . . ∗ µpn,n . Le lemme IV.1.3 implique également que νθn = νpn,1 ∗ . . . ∗ νpn,n . Par le lemme
précédents et (IV.1), on obtient les inégalité suivantes:

dvar (νθ , µXn ) ≤ dvar (νθ , νθn ) + dvar (νθn , µXn ) ≤ 2|θ−θn | + dvar µpn,1 ∗. . .∗µpn,n , νpn,1 ∗. . .∗νpn,n
X
= 2|θ−θn | + 2p2n,k ,
1≤k≤n

ce qui permet de conclure. 


IV.1. PROCESSUS DE POISSON LINÉAIRE HOMOGÈNE. 127

Lois exponentielles.

Définition IV.1.5 Une v.a. X : Ω → R+ est (de loi) exponentielle de paramètre c ∈ ]0, ∞[ si sa loi admet la
densité t ∈ R+ 7−→ ce−ct par rapport à la mesure de Lebesgue. 
Si X est une exponentielle de paramètre c, alors pour toute fonction mesurable f : R+ → R+ ,
Z ∞
E[f (X)] = f (t)ce−ct dt .
0
Il est facile de vérifier pour tout λ ∈ R+ que
c
E e−λX =
 
. (IV.4)
c+λ
En dérivant une puis deux fois cette transformée de Laplace en 0, on obtient
1 2 1
E[X] = , E[X 2 ] = 2 et donc var(X) = 2 .
c c c
Les variables exponentielles sont caractérisée par la propriété d’oubli qui s’énonce comme suit.

Proposition IV.1.6 Soit X : Ω → R+ , une v.a. F -mesurable telle que P(X > t) > 0, pour tout t ∈ R+ . On
suppose qu’elle possède la propriété d’oubli c’est-à-dire que
∀s, t ∈ R+ , P(X − t > s | X > t) = P(X > s) .
Alors X est une variable exponentielle pour un certain paramètre c ∈ ]0, ∞[ .
Preuve: on pose f (t) = −log P(X > t). La fonction f : R+ → R+ est bien définie. Par ailleurs f est
continue à droite car FX et continue à droite et f (t) = − log(1 − FX (t)). La propriété d’oubli implique que
f (t) + f (s) = f (t + s), pour tous s, t ∈ R+ . On pose c = f (1). Pour tout entier n ∈ N∗ , f (n) = cn et
nf (1/n) = c. Donc pour tout t ∈ Q+ , f (t) = ct. La continuité à droite implique que f (t) = ct pour tout
t ∈ R+ . On a donc P(X > t) = e−ct , pour tout t ∈ R+ et c ne peut être nul, ce qui termine la preuve de la
proposition. 

Proposition IV.1.7 Soient E1 , . . . , En , des exponentielles indépendantes de paramètre c ∈ R∗+ . Alors S =


n tn−1
E1 + . . . + En suit une loi d’Erlang de paramètres (n, c), c’est-à-dire que S a pour densité fS (t) = c(n−1)! e−ct ,
t ∈ R+ .
Preuve: soit f : R+ → R+ une fonction mesurable bornée. On a
Z
E [f (S)] = cn e−c(x1 +...+xn ) f (x1 + . . . + xn ) dx1 . . . dxn .
Rn
+

On effectue le changement de variable linéaire:


t = x1 + . . . + xn , tn−1 = x1 + . . . + xn−1 , . . . , t2 = x1 + x2 , t1 = x1
La matrice de transition est triangulaire avec des 1 sur la diagonale. Par ailleurs Rn+ est envoyé sur le domaine
{0 ≤ t1 ≤ . . . ≤ tn−1 ≤ t}. On a donc
Z
E [f (S)] = cn e−ct f (t) dt dtn−1 . . . dt1 .
{0≤t1 ≤...≤tn−1 ≤t}

= tn−1 /(n − 1)!, ce qui implique le résultat


R
Une simple récurrence montre que {0≤t1 ≤...≤tn−1 ≤t} dtn−1 . . . dt1
par Fubini. 
128 CHAPTER IV. NUAGES DE POISSON.

Statistique d’ordre de n v.a. réelles indépendantes de lois diffuses. Soit x = (x1 , . . . , xn ) ∈ Rn . On note
Λn (x) = (x(k) )1≤k≤n le réarrangement croissant des réels (x1 , . . . xn ), c’est-à-dire que

x(1) ≤ . . . ≤ x(k) ≤ x(k+1) ≤ . . . ≤ x(n) et {xk ; 1 ≤ k ≤ n} = {x(k) ; 1 ≤ k ≤ n} .

Lemme IV.1.8 L’application Λn : Rn → Rn est mesurable.


n
P
Preuve: pour tout y ∈ R on pose φy (x1 , . . . , xn ) = 1≤j≤n 1]−∞,y]Q (xj ). La fonction φy : R → N est
clairement mesurable. Pour tout y1 , . . . , yn ∈ R, on pose Cy1 ,...,yn := 1≤k≤n ]−∞, yk ]. On remarque alors que
\ 
Λ−1 ∈ B(Rn ) .

n (Cy1 ,...,yn ) = φ yk ≥ k
1≤k≤n

Or il est facile de montrer que B(Rn ) est engendrée par les ensembles du type Cy1 ,...,yn , y1 , . . . , yn ∈ R, ce
qui implique la mesurabilité de Λn . 
Cela permet de poser la définition suivante.

Définition IV.1.9 Soient X1 , . . . , Xn , des v.a. réelles F mesurables. On note (X(k) )1≤k≤n le réarrangement
croissant de ces variables:

X(1) ≤ . . . ≤ X(k) ≤ X(k+1) ≤ . . . ≤ X(n) et {Xk ; 1 ≤ k ≤ n} = {X(k) ; 1 ≤ k ≤ n} .

La v.a. (X(k) )1≤k≤n : Ω → Rn est F -mesurable: c’est statistique d’ordre de la suite (Xk )1≤k≤n . 
La proposition suivante décrit la statistique d’ordre de variables indépendantes de loi diffuse.

Proposition IV.1.10 Soit X1 , . . . , Xn , des variables réelles indépendantes de même loi µ qui est supposée
diffuse. Alors les assertions suivantes sont vérifiées.

(i) On note Sn le groupe des permutation de {1, . . . , n}. Il existe σ : Ω → Sn , une permutation aléatoire
F -mesurable dont la loi est uniforme, qui est indépendante de (X(k) )1≤k≤n , et qui satisfait

P-p.s. X(k) = Xσ(k) , 1≤k≤n. (IV.5)

(ii) Pour toute fonction mesurable f : Rn → R+ , on a


Z
 
E f (X(1) , . . . , X(n) ) = n! f (x1 , . . . , xn ) µ(dx1 ) . . . µ(dxn ) .
{x1 <...<xn }


(iii) On note F (x) = µ ]−∞, x] , x ∈ R, la fonction de répartition de µ. Alors, pour tout 1 ≤ k ≤ n et pour
toute fonction mesurable g : R → R+ ,
Z  
n n−k
F (x)k−1 1−F (x)
 
E g(X(k) ) = g(x) k µ(dx) .
R k

Preuve: on note ∆ := {(x, x) ; x ∈ R} la diagonale de R2 qui est un fermé de R2 . Par Fubini et le théorème de
transfert, si i 6= j, Z
P(Xi = Xj ) = µ ⊗ µ(∆) = µ(dx)µ({x}) = 0
R
IV.1. PROCESSUS DE POISSON LINÉAIRE HOMOGÈNE. 129

car la mesure µ est diffuse. On pose A = {Xj 6= Xk , 1 ≤ j < k ≤ n}, qui est l’événement que les variables
X1 , . . . , Xn soient toutes distinctes. On a
X
P(Ω\A) ≤ P(Xi = Xj ) = 0 .
1≤i<j≤n

Donc P(A) = 1. Pour toute permutation γ ∈ Sn , on pose



Aγ = Xγ(1) < Xγ(2) < . . . < Xγ(n) .
S
Il est clair que les événements Aγ , γ ∈ Sn sont deux-à-deux disjoints et que A = γ∈Sn Aγ . On définit alors
la permutation aléatoire σ en posant σ = γ sur Aγ et σ = Id sur Ω\A. Comme P(A) = 1, σ satisfait bien
(IV.5).
On observe ensuite que pour toute permutation γ ∈ Sn , les v.a. (Xγ(k) )1≤k≤n sont indépendantes et de
même loi µ. Donc
 loi
Xγ(1) , Xγ(2) , . . . , Xγ(n) = (X1 , X2 , . . . , Xn ) .
On en déduit alors que pour toute fonction mesurable f : Rn → R+ et toute permutation γ ∈ Sn ,
   
E f (X(1) , . . . , X(n) )1{σ=γ} = E f (Xγ(1) , . . . , Xγ(n) )1Aγ
 
= E f (X1 , . . . , Xn )1{X1 <X2 <...<Xn }
Z
= f (x1 , . . . , xn ) µ(dx1 ) . . . µ(dxn ) . (IV.6)
{x1 <...<xn }
R
En sommant sur γ ∈ Sn , cela montre (ii). On en déduit que {x1 <...<xn } µ(dx1 ) . . . µ(dxn ) = 1/n! et (IV.6)
implique d’une part que σ est de loi uniforme sur Sn et d’autre part que
   
E f (X(1) , . . . , X(n) )1{σ=γ} = E f (X(1) , . . . , X(n) ) P(σ = γ) ,
ce qui implique que σ est indépendante de (X(k) )1≤k≤n , ce qui termine la preuve de (i).
Montrons (iii): en raisonnant comme précédemment on montre que pour tout 1 ≤ k ≤ n et tout x ∈ R,
F (x)k−1
Z Z
1
µ(dx1 ) . . . µ(dxk−1 ) = µ(dx1 ) . . . µ(dxk−1 ) = .
{x1 <...xk−1 <x} (k − 1)! ]−∞,x[k−1 (k − 1)!
De même, on a
(1−F (x))n−k
Z Z
1
µ(dxk+1 ) . . . µ(dxn ) = µ(dxk+1 ) . . . µ(dxn ) = .
{x<xk+1 <...xn } (n − k)! ]x,∞[n−k (n − k)!
Par (ii) et Fubini, on a donc
Z Z  Z 
 
E g(X(k) ) = n! µ(dx) g(x) µ(dx1 ) . . . µ(dxk−1 ) µ(dxk+1 ) . . . µ(dxn )
R {x <...xk−1 <x} {x<xk+1 <...xn }
Z 1
n! n−k
µ(dx) g(x)F (x)k−1 1−F (x)

= ,
(k − 1)!(n − k)! R
ce qui entraîne (iii). 

En particulier, lorsque les variables X1 , . . . , Xn sont indépendantes et uniformes dans l’intervalle [0, t],
pour toute fonction f : [0, t]n → R mesurable bornée, on a
h  i n! Z
(n) (n)
E f U1 , . . . , U n = n f (x1 , . . . , xn ) dx1 . . . dxn . (IV.7)
t {0≤x1 <...<xn ≤t}
130 CHAPTER IV. NUAGES DE POISSON.

IV.1.b Une heuristique.


Pour résoudre le problème consistant à trouver une famille infinie dénombrable de points de R+ qui soit to-
talement aléatoire et uniformément répartie, on peut commencer par élaborer un modéle discret de la manière
suivante: on fixe un pas h > 0 (qui tendra vers 0) et on discrétise R+ en la collection d’intervalles I(h, n) =
[nh, (n + 1)h[, n ∈ N. On note Πh le nuage dénombrable de point "uniformément réparti" en supposant que
chaque intervalle I(n, h) contient au plus un point de Πh . Comme on veut une répartition totalement aléatoire
et uniforme, il est naturel de considérer que ξh,n = #(Πh ∩ [nh, (n + 1)h[ ) sont des variables de Bernoulli
indépendantes dont paramètre ne dépend que de h: on le note p(h) et on a 0 < p(h) < 1. On a donc les
propriétés suivantes.

(a) Pour tous entiers positifs n1 < n2 , la variable entière #(Πh ∩ [n1 h, n2 h[ ) suit la loi binomiale de
paramètres n2 − n1 et p(h).

(b) Pour tous n1 < . . . < np , les variables #(Πh ∩ [n1 h, n2 h[ ), . . . , #(Πh ∩ [np−1 h, np h[ ) sont indépen-
dantes.

Par ailleurs on veut que Πh , soit une version discrétisée d’un ensemble aléatoire dénombrable Π sur R+ ; c’est-
à-dire que l’on suppose que lorsque h tend vers 0, Πh "tend" vers Π. Cela impose que Πh ne dépende que "peu"
de h lorsque h est petit. En particulier, si on se fixe un intervalle [a, b] ⊂ [0, ∞[, on veut que la quantité
h   i
mh (a, b) = E # Πh ∩ ba/hch , bb/hch = (bb/hc − ba/hc)p(h) ,

ne dépende pas trop de h, lorsque h est petit. Cela conduit donc a imposer la chose suivante.
(c) p(h) = θh + o(h), où θ est un réel strictement positif fixé.
L’approximation binomiale-Poisson permet alors de dire que lorsque h est petit, la variable #(Πh ∩ [a, b])
est très proche d’une loi de Poisson de paramètre θ(a − b) et mh (a, b) est très proche de θ(a − b).
Intéressons-nous au numéro de l’intervalle où tombe le premier point de Πh : on pose
T1 (h) = inf{n ≥ 0 : ξh,n = 1 } .
Il est facile de voir que T1 (h) suit une loi géométrique: P(T1 (h) = n) = p(h)(1 − p(h))n , n ∈ N. On introduit
aussi les numéros d’intervalle des points successifs. On les note (Tk (h))k≥1 et on les définit récursivement par
Tk+1 (h) = inf{n > Tk (h) : ξh,n = 1 } .
On a clairement les propriétés suivantes.

(d) {bx/hch; x ∈ Πh } est exactement l’ensemble {hTk (h); k ≥ 1}.

(e) Les variables E1 (h) = T1 (h), ... , Ek (h) = Tk (h) − Tk−1 (h) − 1, ... , sont i.i.d.

Il est ensuite facile de constater que limh→0 P(hEk (h) > t) = exp(−θt), t ∈ R+ . Autrement dit lorsque h est
proche de 0, les variables indépendantes (hEk (h))k≥1 sont proches d’une suite i.i.d. de variables exponentielles
de paramètre θ.

Résumons les résultats apportés par cette brève heuristique: on cherche à définir un ensemble aléatoire
de points Π qui soit infini dénombrable, sans point d’accumulation, "totalement aléatoire" et "uniformément
réparti" sur R+ . Si un tel objet existe, alors il est raisonnable de penser qu’il satisfait nécessairement les
propriétés suivantes.
IV.1. PROCESSUS DE POISSON LINÉAIRE HOMOGÈNE. 131

(i) Il exite θ ∈ R∗+ , tel que pour tous réels positifs a < b, la variable #(Π ∩ [a, b]) comptant le nombre de
points de Π tombant dans [a, b], suit une loi de Poisson de paramètre (b − a)θ.

(ii) Pour tous réels positifs t1 < . . . < tp , les variables

#(Π ∩ [0, t1 [) , #(Π ∩ [t1 , t2 [) , . . . , #(Π ∩ [tp−1 , tp [)

sont indépendantes.

(iii) Π peut être indexé en croissant: Π = {T1 < T2 < . . . < Tn < . . .}. De plus les variables T1 , T2 − T1 ,
..., Tn − Tn−1 , ... sont des variables exponentielles indépendantes de paramètre θ.

Comme nous le montrons plus loin, ces propriétés sont redondantes: (i) et (ii) sont des conséquences de (iii).
La propriété (iii) permet de donner une définition simple de Π, qui est le point de départ de la section suivante.

IV.1.c Construction des processus Poisson homogènes sur R+ .


Définition IV.1.11 Soit θ ∈ R∗+ et (En )n≥1 , une suite i.i.d. de variables exponentielles de paramètre θ. On
pose

∀n ≥ 1, Tn = E1 + . . . + En , Π = Tn ; n ∈ N∗
 
et Nt = # Π ∩ [0, t] , t ∈ R+ .
P
On remarque que Nt = n≥1 1[0,t] (Tn ), est une variable mesurable. Le processus (Nt )t≥0 est appelé proces-
sus de Poisson homogène d’intensité θ. L’ensemble aléatoire discret Π est appelé nuage Poissonnien homogène
d’intensité θ sur R+ . 
Par commodité, on pose N∞ = N ∪ {∞} et pour tout ensemble Borélien B ∈ B(R+ ), on pose
X
NB (Π) = # Π ∩ B = 1B (Tn ) ∈ N∞ .
n≥1

On remarque que NB (Π) est une variable F -mesurable. C’est la fonction de comptage de Π en B. Par la loi
des grands nombre, P(limn→∞ Tn = ∞) = 1. Par conséquent si B est bornée, on a P(NB (Π) < ∞) = 1.
On constate facilement que pour tout ω ∈ Ω, t 7→ Nt (ω) est croissant et continu à droite et admet une
limite à gauche en tout point, c’est-à-dire que (Nt )t≥0 est càdlàg. On pose ∆N (t) = Nt − Nt− , qui représente
le saut éventuel au temps t du processus. On a alors, Π = {t ∈ R+ : ∆N (t) 6= 0} et N[0,t] (Π) = Nt , t ∈ R+ .
Par conséquent, se donner (Nt )t≥0 équivaut à se donner Π.
Le théorème suivant montre que Π peut se voir comme un ensemble infini dénombrable, complètement
aléatoire et uniformément réparti sur R+ .

Théorème IV.1.12 On note ` la mesure de Lebesgue sur R+ . Soit Π un nuage Poissonnien homogène d’intensité
θ et soit (Nt )t≥0 . Les propriétés suivantes sont vérifiées.

(i) Pour tout s < t, Nt − Ns = N]s,t] (Π) suit une loi de Poisson de paramètre θ(t − s).

(ii) Pour tous t1 < . . . < tp , les variables Nt1 , Nt2 − Nt1 , . . . , Ntp − Ntp−1 sont indépendantes.

(iii) Pour tout t ∈ R∗+ et tout n ∈ N∗ , l’ensemble Π∩[0, t] sous P( · | Nt = n) a même loi que {U1 , . . . , Un },
où U1 , ... , Un sont i.i.d. uniformes sur [0, t].
132 CHAPTER IV. NUAGES DE POISSON.

(iv) Soient A1 , . . . , Ap ∈ B(R+ ), disjoints deux-à-deux. Alors, NA1 (Π), . . . , NAp (Π) sont des variables de
Poisson indépendantes de paramètres respectifs θ`(A1 ), . . . , θ`(Ap ).

Remarque IV.1.13 On voit que (iv) implique (i) et (ii), qui sont plus élémentaires et qui ne concernent que
(Nt )t≥0 . Puisque dans de nombreuses applications, seul (Nt )t≥0 intervient, nous avons pris la peine d’expliciter
(i) et (ii). 
Preuve du théorème: montrons d’abord que pour tout t ∈ R+ , Nt suit une loi de Poisson de paramètre θt.
Soit n ∈ N∗ . On observe que Tn est indépendante de En+1 et que Tn suit une loi d’Erlang de paramètres (n, θ).
Par conséquent,
Z t n−1
Z ∞ 
n u −θu −θv
P(Nt = n) = P(Tn ≤ t < Tn + En+1 ) = du θ e dv θe
0 (n − 1)! t−u
Z t
θn −θt (tθ)n −θt
= e du un−1 = e ,
(n − 1)! 0 n!
ce qui montre le résultat désiré.
Nous allons montrer (iii) et ensuite prouver que (iii) implique (iv), ce qui est suffisant d’après la remarque
précédente. Soit n ∈ N∗ . Soit F : Rn → R, une fonction mesurable bornée. On a les égalités suivantes

E [F (T1 , . . . , Tn ); Nt = n] = E [F (T1 , . . . , Tn ) ; Tn ≤ t < Tn + En+1 ]


Z Z ∞
n −θ(s1 +...+sn )
= ds1 . . . dsn θ e F (s1 , s1 + s2 , . . . , s1 + . . . + sn ) dsn+1 θe−θsn+1
{s1 +...+sn ≤t} t−s1 +...+sn
Z
= θn e−θt ds1 . . . dsn F (s1 , s1 + s2 , . . . , s1 + . . . + sn )
{s1 +...+sn ≤t}
Z
n −θt
= θ e dx1 dx2 . . . dxn F (x1 , x2 , . . . , xn ) .
{0≤x1 <...<xn ≤t}

On en déduit que
Z
n!
E [F (T1 , . . . , Tn ) | Nt = n] = n dx1 dx2 . . . dxn F (x1 , x2 , . . . , xn ) , (IV.8)
t {0≤x1 <...<xn ≤t}

ce qui implique (iii) par (IV.7).


Montrons (iv): soit t ∈ R∗+ . On suppose tout d’abord que A1 , . . . , Ap sont des Boréliens disjoints inclus
dans [0, t]. On fixe n ≥ 1. Le point (iii) implique que
 (loi) 
NA1 (Π), . . . , NAp (Π) sous P( · |Nt = n) = #(Πn ∩ A1 ), . . . , #(Πn ∩ Ap ) sous P ,

où Πn = {U1S , . . . , Un }, avec (Uk , 1 ≤ k ≤ n) i.i.d. de loi uniforme sur [0, t]. Par commodité on pose
Ap+1 = [0, t]\ pj=1 Aj . Soient u1 , . . . , up ∈ R. Pour tout 1 ≤ k ≤ n, on pose:

Xk = eiu1 1A1 (Uk ) + . . . + eiup 1Ap (Uk ) + 1Ap+1 (Uk ) .

Les variables (X1 , . . . , Xn ) sont indépendantes et de même loi. De plus on a


p
Y 
X1 . . . Xn = exp iuk #(Πn ∩ Ak ) .
k=1
IV.2. GÉNÉRALITÉS SUR LES NUAGES DE POINTS. 133

Par conséquent,
h Y i
E exp (iuk NAk (Π)) Nt = n = E[X1 . . . Xn ] = E[X1 ]n

1≤k≤p

`(Ap ) n
 
`(A ) `(A ) `(A1 )
= eiu1 t 1 + . . . + eiup t p + 1 − t
− ...
t
n
= t−n t − (1 − eiu1 )`(A1 ) − . . . − (1 − iup
e )`(Ap ) .

Donc
h Y i X n
E exp (iuk NAk (Π)) = P(Nt = n)t−n t−(1−eiu1 )`(A1 )−. . .−(1−eiup )`(Ap )
1≤k≤p n≥0
X 1 n
= e−θt θt − (1 − eiu1 )θ`(A1 ) − . . . − (1 − eiup )θ`(Ap )
n!
n≥0
Y
exp −θ`(Ak ) 1 − eiuk ,

=
1≤k≤p

ce qui entraîne bien le point (iv), dans le cas où A1 , . . . , Ap ⊂ [0, t]. Le cas général découle facilement du fait
que P-p.s. pour tout 1 ≤ k ≤ p, limt→∞ ↑ NAk ∩[0,t] (Π) = NAk (Π). 

IV.2 Généralités sur les nuages de points.


On détaille dans cette section quelques résultats concernant les nuages de points aléatoires (mesurabilité, loi et
indépendence).

IV.2.a Premières définitions.


Définition IV.2.1 (Nuages, fonctions de comptage) Soit (E, E ), un espace mesurable. On utilise la notation
N∞ = N ∪ {∞}.

(a) SE := {π ⊂ E : π est dénombrable} est l’ensemble des nuages de points sur E. On rappelle que
dénombrable signifie fini (éventuellement vide) ou en bijection avec N.

(b) Pour tout B ∈ E , et tout π ∈ SE , on pose NB (π) = #(π ∩ B), qui est le nombre (éventuellement infini)
de points de π qui sont dans B. La fonction NB : SE → N∞ est appelée la fonction de comptage en B.

(c) On note SE la tribu engendrée sur SE par les fonctions de comptage NB , B ∈ E .

(d) Soit (Ω, F ), un espace mesurable et Π : Ω → SE , une fonction. C’est un nuage aléatoire si cette fonction
est (F , SE )-mesurable, ce qui est équivalement à ce que pour tout B ∈ E , NB (Π) : Ω → N∞ soit
F -mesurable. 

Exemple IV.2.2 Soit (Ω, F ), un espace mesurable. Soit Xn : Ω → E, n ∈ N∗ , une suite de variables
(F , E )-mesurables telle que

∀ω ∈ Ω , ∀n > m ≥ 1 , Xn (ω) 6= Xm (ω) . (IV.9)


134 CHAPTER IV. NUAGES DE POISSON.

Soit M : Ω → N∞ , une variables F -mesurable. On pose:



 ∅ si M = 0,
Π= {X1 , . . . , XM } si 0 < M < ∞,
{Xn ; n ∈ N∗ } si M = ∞.

Pour tout B ∈ E , (IV.9) implique que


X
NB (Π) = 1B (Xn )1{n≤M }
n≥1

qui est clairement F -mesurable. Cela implique donc que NB (Π) est F -mesurable et donc que Π est un nuage
aléatoire. 
Dans le lemme suivant, on définit une caractéristique importante des nuages aléatoires, à savoir leur intensité.

Lemme IV.2.3 Soit (Ω, F , P), un espace de probabilité et Π : Ω → SE , un nuage aléatoire. On pose

∀B ∈ E , µ(B) = E NB (Π) .
 

Alors, µ : E → [0, ∞] est une mesure positive appelée intensité de Π.

Sobserve que N∅ (Π) = 0, sur Ω, donc µ(∅) = 0. Soient Bn ∈ E , n ∈ N, deux-à-deux disjoints. On


Preuve: on
pose B := n∈N Bn . Par interversion série/intégrale pour la mesure de comptage # et pour P, on a bien
  hX i X   X
µ(B) = E NB (Π) = E NBn (Π) = E NBn (Π) = µ(Bn )
n∈N n∈N n∈N

ce qui implique le résultat désiré. 

Définition IV.2.4 (Fonctions de comptage généralisées) Soit (E, E ), un espace mesurable et f : E → [0, ∞],
une fonction E -mesurable. On pose
X
∀π ∈ SE , Nf (π) = f (x) .
x∈π

On appelle Nf : SE → [0, ∞] la fonction de f -comptage. On remarque que NB = N1B , pour tout B ∈ E . 


Pour tous k, n ∈ N, on pose Bn := {f ≥ n} et Ak,n := {k2−n ≤ f < (k + 1)2−n [ }. IlPest clair que pour tout
n ∈ N fixé, les Ak,n ∈ E , k ∈ N, sont deux-à-deux disjoints. On pose fn := n1Bn + 0≤k<n2n k2−n 1Ak ,n .
On rappelle que 0 ≤ fn ≤ fn+1 et supn fn = f . On remarque aussi que
X
Nfn = nNBn + k2−n NAk ,n . (IV.10)
0≤k≤n2n

R Nfn est SE -mesurable. Soit π ∈ SE ; on note ν = x∈π δx sa mesure empirique. On remarque


P
Cela montre que
que Nf (π) = E f dν. Par convergence monotone relativement à ν, on

lim ↑ Nfn (π) = Nf (π) . (IV.11)


n→∞

On en déduit le premier point du lemme suivant.


IV.2. GÉNÉRALITÉS SUR LES NUAGES DE POINTS. 135

Lemme IV.2.5 Soit (E, E ), un espace mesurable. Soit f : E → [0, ∞], une fonction E -mesurable. Alors, les
assertions suivantes sont vérifiées.

(i) La fonction Nf : SE → [0, ∞] est SE -mesurable.

(ii) Soit (Ω, F , P), un espace de probabilité et Π R → SE , un nuage aléatoire d’intensité µ. Alors Nf (Π)
 :Ω
est une variable F -mesurable et E Nf (Π) = E f (x) µ(dx).


Preuve: par (IV.10), E Nfn (Π) = 0≤k≤n2n k2−n µ(Ak,n ) = E fn (x) µ(dx), et on conclut par conver-
  P R

gence monotone sous P et sous µ. 


Il arrive fréquement de restreindre un nuage de point à un certain sous ensemble B et de prendre l’image
d’un nuage de points par une fonction φ: modulo un hypothèse, ces deux opérations sont mesurables, comme
le montre le lemme suivant.

Lemme IV.2.6 Soit (E, E ), un espace mesurable. Les propriétés suivantes sont vérifiées.

(i) Soit B ∈ E . Alors RB : π ∈ SE 7→ π ∩ B ∈ SE est (SE , SE )-mesurable.

(ii) Soit (E 0 , E 0 ), un espace mesurable et soit φ : E → E 0 , une fonction (E , E 0 )-mesurable supposée injec-
tive. Alors Φ : π ∈ SE 7→ φ(π) ∈ SE 0 est (SE , SE 0 )-mesurable.

Preuve: on remarque que pour tout C ∈ E , NC ◦RB = NB∩C qui est donc SE -mesurable, ce qui implique (i).
Montrons (ii): puisque φ est injective, on remarque que pour tout B 0 et tout nuage π ∈ SE , on a #({φ(x); x ∈
π} ∩ B 0 ) = #{x ∈ π : φ(x) ∈ B 0 } et donc que NB 0 (φ(π)) = Nφ−1 (B 0 ) (π). On a NB 0 ◦ Φ = Nφ−1 (B 0 ) qui est
SE -mesurable, ce qui implique le résultat voulu. 
Ces résultats se traduisent immédiatement pour les nuages aléatoires.

Lemme IV.2.7 Soit (Ω, F , P), un espace de probabilité. Soit (E, E ), un espace mesurable. Soit Π : Ω → SE ,
un nuage aléatoire. Les assertions suivantes sont vérifiées.

(i) Soit B ∈ E . Alors Π ∩ B est un nuage aléatoire. On munit B de la tribu E (B) = {A ∩ B; A ∈ E }.


Alors Π ∩ B est un nuage aléatoire sur (B, E (B)) au sens de la définition IV.2.1 (d).

(ii) Soit (E 0 , E 0 ), un espace mesurable et soit φ : E → E 0 , une fonction (E , E 0 )-mesurable supposée injec-
tive. Alors φ(Π) est un nuage aléatoire sur E 0 d’intensité µ0 = µ ◦ φ−1 qui est la mesure image de µ par
φ.

IV.2.b Loi et indépendance de nuages aléatoires.


On voit un nuage aléatoire Π comme le processus de ses fonctions de comptage (NB (Π))B∈E , processus qui
est indexés par E .

Définition IV.2.8 On note CE ⊂ SE la classe contenant tous les sous-ensembles C de la forme



C = π ∈ SE : NB1 (π) ≥ k1 ; . . . ; NBq (π) ≥ kq . (IV.12)

avec q ∈ N∗ , B1 , . . . , Bq ∈ E , et k1 , . . . , kq ∈ N. 
136 CHAPTER IV. NUAGES DE POISSON.

Lemme IV.2.9 La classe CE est un pi-système engendrant SE : σ(CE ) = SE .


Preuve: clairement CE est stable par intersection et contient SE = {π ∈ SE : NE (π) ≥ 0}. De plus, la forme
(IV.12) des ensembles de CE implique que CE ⊂ SE et donc que σ(CE ) ⊂ SE . On remarque ensuite que
pour tout B ∈ E , et pour tout k ∈ N, on a {π ∈ SE : NB (π) ≥ k} ∈ CE . Par conséquent NB : SE → N∞
est σ(CE )-mesurable. Or SE est, par définition, la plus petite tribu sur SE rendant mesurable les fonctions de
comptage. Par conséquent SE ⊂ σ(CE ), ce qui termine la preuve du lemme. 
Puisqu’on l’utilise plusieurs fois, on établit sous forme de lemme le résultat élémentaire suivant.

Lemme IV.2.10 Soit (E, E ), un espace mesurable. Soient B1 , . . . , Bq ∈ E . Alors il existe un entier p ≤ 2q et
A1 , . . . , Ap ∈ E , disjoints deux-à-deux tels que tout Bk est réunion de certains A` , c’est-à-dire
[ X
∀k ∈ {1, . . . , q} , ∃ Ik ⊂ {1, . . . , p} : Bk = A` et donc NBk = NA` . (IV.13)
`∈Ik `∈Ik

Preuve: on note B la classe des ensembles de la forme 1≤k≤q Ck , où Ck est soit Bk , soit son complémentaire
T
E\Bk ; B compte au plus 2q ensembles distincts, les ensembles de B sont dans E et ils forment une partition
de E. On se donne explicitement B = {A1 , . . . , Ap }, avec p = #B. Pour tout k ∈ {1, . . . , q}, on pose
Ik = {` ∈ {1, . . . , p} : Bk ∩ A` 6= ∅} et on vérifie (IV.13) facilement. 
La proposition suivante caractérise la loi d’un nuage de points.

Proposition IV.2.11 Soit (E, E ) un espace mesurable. Soient (Ω, F , P) et (Ω, F 0 , P0 ), des espaces de prob-
abilité. Soient Π : Ω → SE et Π0 : Ω0 → SE , deux nuages aléatoires. Ils ont la même loi ssi pour tout p ∈ N∗ et
tous A1 , . . . , Ap ∈ E disjoints deux-à-deux , on a
(loi)
(NA1 (Π), . . . , NAp (Π)) sous P = (NA1 (Π0 ), . . . , NAp (Π0 )) sous P0 . (IV.14)
Preuve: il est clair que Ψ : π ∈ SE 7−→ (NA1 (π), . . . , NAp (π)) ∈ Np∞ est SE -mesurable car chaque composante
de cette application l’est. Si Π et Π0 ont même loi, alors il en est de même pour Ψ(Π) et Ψ(Π0 ), ce qui
est exactement (IV.14). Montrons la réciproque: par le lemme IV.2.10, l’identité (IV.14) implique pour tous
B1 , . . . , Bq ∈ E , on a
(loi)
(NB1 (Π), . . . , NBq (Π)) sous P = (NB1 (Π0 ), . . . , NBp (Π0 )) sous P0 . (IV.15)
Cela implique que P(Π ∈ C) = P0 (Π0 ∈ C), pour tout C de la forme (IV.12). Si on note ν et ν 0 les lois
respectives de Π et de Π0 , cela montre que ν(C) = ν 0 (C), pour tout C ∈ CE . Comme CE est un pi-système
engendrant SE (lemme IV.2.9), le théorème d’unicité du prolongement des mesures de probabilité implique
que ν = ν 0 . 

Brefs rappels sur la notion d’indépendance. Rappelons quelques définitions générales sur l’indépendance.
(voir la section B.2, page 240, du chapitre B en appendice).
1– Soit (Ω, F , P), un espace de probabilité. Soient Ri ⊂ F , i ∈ I, une famille de classes de sous-ensembles
mesurables. Les classes Ri , i ∈ I, sont (mutuellement) indépendantes (sous P) si pour tout sous-ensemble
d’indices J ⊂ I, non-vide et fini, et pour tous Aj ∈ Rj , j ∈ J, les événements Aj , j ∈ J sont mutuellement
indépendants. Autrement dit:
\  Y
∀J ⊂ I J fini, ∀Aj ⊂ Rj , j ∈ J , P Aj = P(Aj ) .
j∈J j∈J

On rappelle le résultat standard suivant.


IV.2. GÉNÉRALITÉS SUR LES NUAGES DE POINTS. 137

Proposition IV.2.12 On conserve les notations précédentes. Soit Pi ⊂ F , i ∈ I, une famille de pi-systèmes
qui sont mutuellement indépendants. Alors, les tribus engendrées σ(Pi ), i ∈ I, sont également mutuellement
indépendantes.

Preuve: voir la proposition B.2.5, page B.2.5 en appendice. 

2– Soit (G, G ), un espace mesurable. Soit Y : Ω → G, une variable (F , G )-mesurable. On rappelle que la
tribu engendrée par Y est simplement donnée par σ(Y ) = {{Y ∈ A}; A ∈ G }. Soit C , un pi-système sur G
engendrant G . On pose PY := {{Y ∈ C}; C ∈ C }. On voit immédiatement que PY est un pi-système sur Ω
générant σ(Y ).
Soit Xi : Ω → G, i ∈ I, une famille de variables (F , G )-mesurables. Les variables Xi , i ∈ I, sont
indépendantes si les tribus σ(Xi ), i ∈ I sont indépendantes.

Lemme IV.2.13 On reprend les notation précédentes. Il y a équivalence entre les deux assertions suivantes.

(i) Les variables Xi , i ∈ I, sont indépendantes.


  
(ii) P Xi1 ∈ C1 ; . . . ; Xin ∈ Cn = P Xi1 ∈ C1 . . . P Xin ∈ Cn , pour tous i1 , . . . , in ∈ I, et tous
C1 , . . . , C n ∈ C .

Preuve: il est clair que (i) implique (ii). Montrons la réciproque: on remarque que (ii) implique que les pi-
systèmes PXi , i ∈ I sont mutuellement indépendants. La proposition IV.2.12 implique alors que les tribus
σ(PXi ) = σ(Xi ), i ∈ I sont mutuellement indépendantes, c’est-à-dire (i). 

Après ces quelques rappels sur la notion d’indépendance, on peut énoncer le critère d’indépendance suivant
pour les nuages aléatoires.

Proposition IV.2.14 Soit (E, E ), un espace mesurable. Soit (Ω, F , P), un espace de probabilité. Soit Πi :
Ω → SE , i ∈ I, une famille de nuages aléatoires. Il y a équivalence entre les deux assertions suivantes.

(i) Les nuages Πi , i ∈ I, sont mutuellement indépendants.

(ii) Pour tous A1 , . . . Ap ∈ E , deux-à-deux disjoints les vecteurs aléatoires de Np∞ , (NAk (Πi ))1≤k≤p , i ∈ I,
sont mutuellement indépendants.

Preuve: il est clair que Ψ : π ∈ SE 7−→ (NA1 (π), . . . , NAp (π)) ∈ Np∞ est SE -mesurable car chaque composante
de cette application l’est. Si les nuages Πi , i ∈ I, sont mutuellement indépendants, alors il en est de même pour
la famille de vecteurs aléatoires Ψ(Πi ), i ∈ I. Cela montre que (i) implique (ii).
Réciproquement, par le lemme IV.2.10, pour tous B1 , . . . , Bq ∈ E , les vecteurs aléatoires (NBq (Πi ))1≤`≤q ,
i ∈ I, sont indépendants. Soient i1 , . . . , in ∈ I, et C1 , . . . , Cn ∈ CE qui par définition peuvent s’écrire

Cm = π ∈ SE : NB1 (π) ≥ k1 (m); . . . ; NBq (π) ≥ kq (m) ,

où B1 , . . . Bq ∈ E, et où pour tout


 1 ≤ m ≤ n, k1 (m), . . . , kq (m) ∈ N. On en déduit donc que P Πi1 ∈
C1 ; . . . ; Πin ∈ Cn = P Πi1 ∈ C1 . . . P Πin ∈ Cn , et le lemme IV.2.13 permet de conclure. 
138 CHAPTER IV. NUAGES DE POISSON.

IV.2.c Mesurabilité de certaines opérations sur les nuages de points.


Le but de cette section technique est de montrer la mesurabilité du produit, de l’intersection et de l’union de
nuages aléatoires, ainsi que d’autres fonctions apparaissant naturellement. Or en général, il n’est du tout clair
que ces opérations soient mesurables et les obstructions sont doubles: les espaces (E, E ) et (E 0 , E 0 ) doivent
satisfaites des conditions de régularité; il est aussi nécessaire de se restreindre à des nuages finis sur chaque
ensemble d’une partition fixée. Ces deux types de restrictions techniques ne sont pas très contraignantes dans
la pratique.
On suppose dans la suite que l’espace mesurable (E, E ) sur lequel sont définis les nuages de points sont
séparables et séparés: on rappelle la définition I.1.10, page 5. On rappelle ici le théorème A.5.3, page 222 en
appendice Si (E, E ) est un espace mesurable séparable et séparé alors les assertions suivantes sont vérifiées.

(i) E contient tous les singletons.

(ii) (E, E ) est diaginal, c-à-d. que ∆ := {(x, x) ; x ∈ E} ∈ E ⊗E .

(iii) Il existe C ⊂ R (pas nécessairement Borélien) tel que (E, E ) soit isomorphe à (C, B(C)), où B(C) est
la tribu trace des Boréliens de R sur C.
Le type de restriction sur les nuages de points est donné par le lemme suivant.

Définition IV.2.15 Soit (E, E ), un ensemble mesurable. Soit Bp ∈ E , p ∈ N, une partition de E, que l’on note
B := (Bp )p∈N . On pose

SB et SEB = D ∩ SB E ; D ∈ SE .
 
E = π ∈ SE : ∀p ∈ N, NBp (π) < ∞

E est l’ensemble des nuages finis sur chaque ensemble de la partition B. Clairement que SE ∈ SE . La tribu
SB B

SEB est la tribu trace de SE sur SB


E . Comme SE ∈ SE , on a bien SE ⊂ SE .
B B

Résultats de mesurabilité. Commençons par résoudre le problème consistant à localiser de manière mesurable
les points d’un nuage.

Lemme IV.2.16 (Localisation des points) Soit (E, E ), un espace mesurable séparable et séparé. Soit B = (Bp )p≥1 ,
une partition de E en ensembles de E . Il existe une famille de fonctions Yk(p) : SB E → E, p, k ≥ 1, qui sont
(SE , E )-mesurables telles que
(p) (p)
∀p ∈ N, ∀π ∈ SB

E, π ∩ Bp = Y (p)1 (π), Y2 (π), . . . , YNB (π) (π) dès que NBp (π) ≥ 1. (IV.16)
p

Preuve: comme (E, E ) est séparable et séparé, il existe C ⊂ R et φ : E → C isomorphisme entre les espaces
mesurables (E, E ) et (C, B(C)). On fixe p ∈ N∗ et x∗ ∈ Bp . Soit π ∈ SB E ; on pose ` = NBp (π) et on se
donne π comme l’ensemble {x1 , . . . , x` } où l’indexation est telle que φ(x1 ) < . . . < φ(x` ). On pose alors pour
(p) (p)
tout k ∈ N∗ , Yk (π) := xk si k ≤ ` et Yk (π) := x∗ si k > `. On a clairement (IV.16). Puisque φ est un
(p) (p)
isomorphisme, Yk est (SE , E )-mesurable ssi  φ◦Yk est (SE , B(C))-mesurable. Pour montrer cela, on fixe
B

y ∈ R et on pose D := φ ]−∞, y] ∩ φ(Bp ) , qui est dans E ; on remarque que


−1

(p)
{π ∈ SB E : ND (π) ≥ k} ∈ SE .
B
E : NBp (π) ≥ k} ∩ {π ∈ SE : φ ◦ Yk ≤ y} = {π ∈ SB B

D’autre part
(p)
{π ∈ SB B B
E : NBp (π) < k} ∩ {π ∈ SE : φ◦Yk ≤ y} = ∅ ou bien {π ∈ SE : NBp (π) < k}
IV.2. GÉNÉRALITÉS SUR LES NUAGES DE POINTS. 139

selon que φ(x∗ ) > y ou que φ(x∗ ) ≤ y. Dans les deux cas, les ensembles sont dans SEB , ce qui entraîne que
(p) (p)
{π ∈ SBE : φ◦Yk ≤ y} ∈ SE pour tout y ∈ R. Donc φ◦Yk est (SEB , B(C))-mesurable, ce qui permet de
B

conclure. 

Lemme IV.2.17 (produit, intersection, union de nuages) Soient (E, E ) et (E 0 , E 0 ), des espaces mesurables sépara-
bles et séparés. On munit E × E 0 de la tribu produit E ⊗ E 0 , qui est également séparable et séparée. Soit
B = (Bp )p∈N , une partition de E en ensembles de E . Soit B0 = (Bq0 )q∈N , une partition de E 0 en ensembles de
E 0 . Alors, les assertions suivantes sont vérifiées.
B0
E ×SE 0 7−→ π×π ∈ SE×E 0 est SE ⊗ SE 0 , SE×E 0 -mesurable.
B0
(i) L’application (π, π 0 ) ∈ SB 0 B


On suppose ensuite que (E, E ) = (E 0 , E 0 ).

E ×SE 7−→ π ∩ π ∈ SE est SE ⊗SE , SE -mesurable.


B0 B0
(ii) L’application (π, π 0 ) ∈ SB 0 B


E ×SE 7−→ π ∪ π ∈ SE est SE ⊗SE , SE -mesurable.


B0 B0
(iii) L’application (π, π 0 ) ∈ SB 0 B


0
Preuve: pour tous p, k ∈ N∗ , soient Yk(p) : SB E → E qui est (SE , E )-mesurable et soit Zk : SE 0 → E , qui est
(p) B 0

(SE 0 , E 0 )-mesurable telles que π ∩ Bp = {Yk (π); 1 ≤ k ≤ NBp (π)} et π 0 ∩ Bp0 = {Zk (π 0 ); 1 ≤ k ≤ NBp0 (π 0 )}.
(p) (p)

B0 (p0 )
E ×SE 0 7→ (Yk (π), Zk0 (π )) ∈ E ×E est (SE ⊗SE 0 , E ⊗E )-mesurable. Donc
B0
Il est clair que (π, π 0 ) ∈ SB (p) 0 0 B 0

pour tout A ∈ E ⊗E 0

B0 (p) (p0 )
X
(π, π 0 ) ∈ SB 0
1{k≤NBp (π);k0 ≤NB0 (π0 )} 1A Yk (π), Zk0 (π 0 )

E ×SE 0 −
7 → N A (π×π ) =
p
p,p0,k,k0 ≥1

est SEB ⊗SEB0 -mesurable, ce qui entraîne (i).


0

On suppose ensuite (E, E ) = (E 0 , E 0 ) mais on garde les notations précédentes pour la localisation des
points. On rappelle que ∆ := {(x, x); x ∈ E} ∈ E ⊗2 car (E, E ) est séparable et séparé. Soit B ∈ E , on
remarque alors que
B0 (p) (p) (p0 )
X
(π, π 0 ) ∈ SB 0
1{k≤NBp (π);k0 ≤NB0 (π0 )} 1B (Yk (π))1∆ Yk (π), Zk0 (π 0 )

E ×SE −
7 → N B (π ∩ π ) =
p
p,p0,k,k0 ≥1

est SEB ⊗SEB0 -mesurable, ce qui entraîne (ii).


0

0
Le point (iii) se déduit de (ii) comme suit: pour tout C ∈ E , tout p ∈ N, et tous (π, π 0 ) ∈ SB B
E × SE , on
0 0 0 0
peut écrire NC∩Bp (π ∪π ) = NC∩Bp (π) + NC∩Bp (π )−NC∩Bp (π ∩ π ) car NC∩Bp (π ∩ π ) ≤ NBp (π) < ∞,
E × SE 7→ NC∩Bp (π ∪ π ) est SE ⊗ SE -mesurable. Or NC (π ∪ π ) =
B0
et (ii) implique que (π, π 0 ) ∈ SB B 0 B 0

p∈N NC∩Bp (π∪π ). Donc (π, π ) 7→ NC (π∪π ) est SE ⊗SE -mesurable.


0 0 0 B0
P B


Lemme IV.2.18 Soit (E, E ), un espace mesurable séparable et séparé. Soit B = (Bp )p∈N , une partition E -
mesurable de E. Les assertions suivantes sont vérifiées.

E est (E , SE )-mesurable.
(i) La fonction x ∈ E 7→ {x} ∈ SB B

E 7→ π ∪ {x} ∈ SE est (E ⊗ SE , SE )-mesurable.


(ii) La fonction (x, π) ∈ E × SB B

(iii) La fonction (x1 , . . . , xn , π) ∈ E n ×SB ⊗n ⊗S B , S )-mesurable.


E 7→ π ∪ {x1 , . . . , xn } ∈ SE est (E E E
140 CHAPTER IV. NUAGES DE POISSON.

(iv) (Mesurabilité des fonctionnelles de type Palm) Soit (E0 , E0 ), un espace mesurable. Soit n ∈ N∗ et F : E0 ×E n ×
SE → [0, ∞], une fonction E0 ⊗E ⊗n ⊗SE -mesurable. Pour tous (z, π) ∈ E0 ×SE , on pose
(n) (n)
X X
ΦF (z, π) := F (z; x1 , . . . , xn , π\{x1 , . . . , xn }) and ΛF (z, π) = F (z; x1 , . . . , xn , π)
x1 ,...,xn ∈π x1 ,...,xn ∈π
distincts distincts

(n)
avec Φ(n) (n)
F (z, π) = ΛF (z, π) = 0, pour tout z ∈ E0 si #π < n. Alors, les restrictions de ΦF et de Λ(n)
F à
E0 ×SBE sont (E 0 ⊗SE
B
)-mesurables.

Preuve: on note ψ la fonction du (i). Pour tout B ∈ E , (NB ◦ ψ)(x) = 1B (x). Cela montre que NB ◦ ψ est E -
mesurable pour tout B ∈ E , ce qui prouve (i). Montrons (ii): par (i), (x, π) ∈ E × SB E 7→ ({x}, π) ∈ SE × SE
B B

est mesurable. Par le lemme IV.2.17 (iii), ({x}, π) ∈ SE × SE 7→ π ∪ {x} est également mesurable, ce qui
B B

prouve (ii). Par (i) et (ii), combinés à une simple récurrence, (x1 , . . . , xn ) 7→ {x1 , . . . , xn } est (E ⊗n , SEB )-
mesurable et le lemme IV.2.17 (iii) termine la preuve du point (iii).
Montrons (iv) pour cela on se donne pour tous p, k ∈ N∗ , soient Yk(p) : SB E → E comme dans le lemme
IV.2.16 de localisation des points. On pose Bp∗ = E\Bp : le lemme IV.2.6 (i) de restriction implique que
π 7→ π ∩ Bp∗ est mesurable. Soient 1 ≤ i1 < . . . < in ≤ r. On pose S = {1, . . . , r}\{i1 , . . . , in } et
(p) (p) (p) (p)
fip1 ,...,in ;r (z, π) = F z ; Yi1 (π), Yi1 (π), Yin (π) , (π ∩ Bp∗ ) ∪ {Yj ; j ∈ S}


Le point (iii) et ce qui précède implique que fip1 ,...,in ;r : E0 × SB E → [0, ∞] est (E0 ⊗ SE )-mesurable. On
B

remarque ensuite que si NBp (π) = r, on a

fip1 ,...,in ;r (z, π) = F z ; Yi(p) (π), . . . , Yi(p) (p) (p)



1 n (π) , π\{Yi1 (π), . . . , Yin (π)}

p
et donc Φ(n) ce qui entraîne la mesurabilité de Φ(n)
P P
F (z, π) = p≥1 r≥in >...>i1 ≥1 1{NBp (π)=r} fi1 ,...,in ;r (z, π), F .

La mesurabilité de ΛF(n) en découle par le point (iii). 

IV.2.d Intersections et unions de nuages aléatoires.


Sauf mention explicite du contraire, on fait les hypothèses suivantes:

(Ω, F , P) supposé complet et (E, E ) est supposé séparable et séparé.

La complétude de (Ω, F , P) simplifie les énoncés où le produit, l’union ou l’intersection de nuages aléatoires
interviennent. En effet, considérons Π : Ω → SE , un nuage aléatoire d’intensité µ supposée sigma-finie: il
existe une partition E -mesurable B = (Bp )p≥1 de E telle que E[NBp (Π)] = µ(Bp ) < ∞ pour tout p ≥ 1. Par
conséquent, p.s. Π ∈ SB E . On peut appliquer le lemme IV.2.16, page 138, de localisation des points des nuages
à Π: pour tout k, p ≥ 1, il existe des fonctions Yk(p) : SE → E, qui sont (SE , E )-mesurables et telles que
 (p) (p) (p)
P-p.s. ∀p ≥ 1, Π ∩ Bp = Y1 (Π), Y2 (Π), . . . , YNB (Π) .
p (Π)

Proposition IV.2.19 Soient (E, E ) et (E 0 , E 0 ), des espaces mesurables séparables et séparés. On munit E×E 0
de la tribu produit E ⊗E 0 . Soient Π : Ω → SE et Π0 : Ω → SE 0 , des nuages aléatoires d’intensités respectives µ
et µ0 supposées, sigma-finies. Alors, les assertions suivantes sont vérifiées.

(i) Π×Π0 : Ω → SE×E 0 est un nuage aléatoire.


IV.2. GÉNÉRALITÉS SUR LES NUAGES DE POINTS. 141

(ii) Si Π et Π0 sont indépendants, alors l’intensité de Π×Π0 est µ⊗µ0 .

Preuve: d’après le fait détaillé ci-dessus, il existe B = (Bp )p∈N et B0 = (Bq0 )q∈N des partitions mesurables
de resp. E et E 0 telles que p.s. Π ∈ SB 0 B0 0
E et Π ∈ SE 0 . Le lemme IV.2.17 (i) implique alors que Π × Π est
p.s. égal à une variable (F , SE×E 0 )-mesurable. Comme (Ω, F , P) est supposé complet, Π × Π0 est donc
(F , SE×E 0 )-mesurable: c’est un nuage aléatoire.
Montrons (ii): on note ν : E ⊗E 0 → [0, ∞] l’intensité de Π×Π0 . Comme Π et Π0 sont indépendants, pour
tous B ∈ E et B 0 ∈ E 0

ν(B×B 0 ) = E NB×B 0 (Π×Π0 ) = E NB (Π)NB 0 (Π0 ) = E NB (Π) E NB 0 (Π0 ) = µ(B)µ0 (B 0 ). (IV.17)


       

Comme µ et µ0 sont sigma-finies, µ⊗µ0 est l’unique mesure ν satisfaisant (IV.17). 

Proposition IV.2.20 Soient (E, E ), un espace mesurable séparable et séparé. Soient Π : Ω → SE et Π0 :


Ω → SE , deux nuages aléatoires d’intensités respectives µ et µ0 , supposées sigma-finies. Alors, les assertions
suivantes sont vérifiées.

(i) Π ∩ Π0 : Ω → SE est un nuage aléatoire.

(ii) (Principe de disjonction) Si Π et Π0 sont indépendants et si µ (ou µ0 ) est diffuse, alors p.s. Π ∩ Π0 = ∅.

Preuve: on raisonne comme dans la preuve du point (i) de la proposition précédente IV.2.19 en utilisant le
lemme IV.2.17 (ii) pour prouver (i). Montrons (ii): la proposition IV.2.19 implique que l’intensité Π×Π0 est
µ ⊗ µ0 . Donc, Z
0 0
µ({x})µ0 (dx) = 0 ,
 
E N∆ (Π × Π ) = (µ ⊗ µ )(∆) =
E

si µ est diffuse. Donc p.s. (Π × Π ) ∩ ∆ = ∅, c’est-à-dire Π ∩ Π0 = ∅.


0


Proposition IV.2.21 Soient (E, E ), un espace mesurable séparable et séparé. Soit Πn : Ω → SE , n ∈ N,


une suite de nuages aléatoires d’intensités respectives µn , n ∈ N, toutes supposées sigma-finies. Alors, les
assertions suivantes sont vérifiées.
S
(i) Π := n∈N Πn est un nuage aléatoire.

(ii) Si les (Πn )n∈N sont indépendants et si les (µn )n∈N sont diffuses, alors
X
P-p.s. ∀B ∈ E , NB (Π) = NB (Πn ) (IV.18)
n∈N
P
et l’intensité de Π est µ = n∈N µn .

Preuve: en utilisant le fait que les intensités sont sigma-finies et en appliquant de manière répétée le lemme
IV.2.17 (iii), page 139, on montre que Π0 ∪ . . . ∪ Πn est (F , SE )-mesurable. Par convergence monotone pour
la mesure de comptage, partout sur Ω, et pour tout B ∈ E , NB (Π) = limn→∞ NB (Π0 ∪ . . . ∪ Πn ). Donc,
NB (Π) est F -mesurable pour tout B ∈ E , ce qui prouve (i).
Montrons (ii): la proposition IV.2.20 (ii) implique que p.s. pour tout m < n, Πm ∩ ΠP n = ∅, ce qui implique
(IV.18). Par interversion positive série/espérance, on a donc µ(B) = E[N B (Π)] = n∈N E[NB (Πn )] =
E
P
µ
n∈N n (B), pour tout B ∈ , ce qui termine la preuve. 
142 CHAPTER IV. NUAGES DE POISSON.

IV.3 Nuages Poissonniens.


IV.3.a Définition, premières propriétés.
Sauf mention explicite du contraire, on fait les hypothèses suivantes:

(Ω, F , P) supposé complet et (E, E ) est supposé séparable et séparé.

Sauf mention explicite du contraire, on fait les hypothèses suivantes: On rappelle qu’une variable à valeurs
dans N∞ est une variable de Poisson étendue si son paramètre appartient à [0, ∞]: notamment son paramètre
est nul (resp. infini) ssi la variable est p.s. nulle (resp. p.s. infinie). En s’inspirant du cas des nuages homogènes
sur R+ , on introduit la définition suivante.

Définition IV.3.1 (Nuages Poissonniens) Soit (E, E ), un espace mesurable séparable et séparé. Soit Π : Ω →
SE , un nuage aléatoire. C’est un nuage Poissonnien s’il satisfait les deux hypothèses suivantes.

(Chaos) Pour tous A1 , . . . , Ap ∈ E deux-à-deux disjoints, les variables NA1 (Π), . . . , NAp (Π) sont indépen-
dantes.

(Poisson) Pour tout A ∈ E , NA (Π) suit une loi de Poisson étendue. 

Théorème IV.3.2 Soit (E, E ), un espace mesurable séparable et séparé. Soit Π : Ω → SE , un nuage Poisson-
nien d’intensité µ. Alors, µ est diffuse et la loi de Π est entièrement déterminée par µ.

Preuve: pour tout x ∈ E, N{x} (Π) = 0 ou 1. Or, N{x} (Π) suit une loi de Poisson de paramètre µ({x}). On
a donc µ({x}) = 0. Montrons le second point de la proposition: supposons que Π0 soit un nuage Poissonnien
d’intensité µ défini sur un espace de probabilité (Ω0 , F 0 , P0 ). Par définition, Π et Π0 satisfont l’identité en loi
(IV.14) de la proposition IV.2.11. Cette même proposition implique que Π et Π0 ont même loi. 
Le théorème suivant montre que l’hypothèse de chaos pour un nuage aléatoire implique en réalité son
caractère Poissonnien. Ce théorème est satisfaisant d’un point de vue théorique n’est pas d’une grande utilité
pratique. Sa preuve est rejetée en fin de section.

Théorème IV.3.3 Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SE , un nuage aléatoire d’intensité
µ, supposée sigma-finie et diffuse. On suppose que Π satisfait également l’hypothèse de Chaos.

(Chaos) Pour tous A1 , . . . , Ap ∈ E deux-à-deux disjoints, les variables NA1 (Π), . . . , NAp (Π) sont indépen-
dantes.

Alors, Π est un nuage Poissonnien.

Preuve: voir la fin de la section. 

Théorème IV.3.4 (Restriction) Soit (E, E ), un espace mesurable séparable et séparé. Soit Π, un nuage Poisson-
nien sur E d’intensité µ. Soient B1 , B2 ∈ E , disjoints. Alors Π ∩ B1 et Π ∩ B2 sont deux nuages Poissonniens
indépendants d’intensités respectives µ( · ∩ B1 ) et µ( · ∩ B2 ).
Plus généralement, soit Bi ∈ E , i ∈ I, une famille d’ensembles mesurables deux-à-deux disjoints. Alors,
Π ∩ Bi , i ∈ I, est une famille de nuages Poissonniens indépendants d’intensités respectives µ( · ∩ Bi ), i ∈ I.
IV.3. NUAGES POISSONNIENS. 143

Preuve: la définition même des nuages Poissonniens implique que pour tout A ∈ E , Π ∩ A est un nuage
Poissonnien d’intensité µ( · ∩ A). Pour tout i ∈ I, on pose Πi := Π ∩ Bi et on a pour tout A ∈ E , NA (Πi ) =
NA∩Bi (Π). Comme les Bi ∈ E , i ∈ I, deux-à-deux disjoints, pour tous A1 , . . . , Ap ∈ E deux-à-deux disjoints,
les vecteurs aléatoires (NAk (Πi ))1≤k≤p , i ∈ I, sont indépendants (on utilise la propriété de Chaos des nuages
Poissonniens car les ensembles Ak ∩ Bi , 1 ≤ k ≤ p, i ∈ I, sont deux-à-deux disjoints). On conclut grâce à la
proposition IV.2.14 (ii). 

Théorème IV.3.5 (Superposition croissante ou indépendante) Soit (E, E ), un espace mesurable séparable et séparé.
Soit (Πn )n∈N , une suite de nuages
S Poissonniens sur E, d’intensités respectives (µn )n∈N toutes supposées
sigma-finies. On pose Π := n∈N Πn . Alors, c’est un nuage aléatoire dont l’intensité est notée µ et les
assertions suivantes sont vérifiées.

(i) Si on suppose que P-p.s. Πn ⊂ Πn+1 , pour tout n ∈ N, alors Π est un nuage de Poisson d’intensité µ et
pour tout A ∈ E , on a µ(A) = limn ↑ µn (A).

(ii) Si onPsuppose que les (Πn )n∈N sont indépendants, alors Π est un nuage de Poisson d’intensité µ et on a
µ = n∈N µn .

Preuve: par la proposition IV.2.21 (i), Π est (F , SE )-mesurable. Montrons (i). Soit A ∈ E ; le théorème de
convergence monotone pour la mesure de comptage implique que P-p.s. NA (Π) = limn NA (Πn ). En prenant
l’espérance, le théorème de convergence monotone sous P implique alors que µ(A) = limn µn (A). Alors,
clairement, pour tout r ∈ [0, 1], par convergence dominée

E rNA (Π) = lim E rNA (Πn ) = lim e−µn (A)(1−r) = e−µ(A)(1−r) ,


   
n→∞ n→∞

ce qui implique que NA (Π) suit une loi de Poisson (étendue) de paramètre µ(A). Soient A1 , . . . , Ap ∈ E ,
deux-à-deux disjoints. Pour tout n ∈ N fixé les v.a. NA1 (Πn ), . . . , NAp (Πn ) sont indépendantes et puisque
 
P-p.s. lim NA1 (Πn ), . . . , NAp (Πn ) = NA1 (Π), . . . , NAp (Π) ,
n→∞

les v.a. limites NA1 (Π), . . . , NAp (Π) sont nécessairement indépendantes. Cela montre donc que Π est un
nuage de Poisson.
Montrons (ii): par la proposition IV.2.21, page 141, Π est un nuage aléatoire (F , SE )-mesurable d’intensité
µ = n∈N µn . Soit B ∈ E . On remarque que les v.a. (NB (Πn ))n∈N sont des v.a. de Poisson indépendante. Par
P
conséquent (IV.18) et le lemme IV.1.3 page 124 impliquent que NB (Π) est de Poisson.
Soient A1 , . . . , Ap ∈ E , deux-à-deux disjoints. On vérifie facilement que les v.a. (NAi (Πn ))1≤i≤p;n∈N sont
mutuellement indépendantes. P Notamment les suites (NA1 (Πn ))n∈N , . . . , (NAp (Πn ))n∈N sont indépendantes.
Or par (IV.18), NAi (Π) = n∈N NAi (Πn ), pour tout 1 ≤ i ≤ p. Cela montre que les v.a. NA1 (Π), . . . , NAp (Π)
sont indépendantes. Cela termine la preuve de (ii). 

Proposition IV.3.6 Soient (E, E ) et (E 0 , E 0 ), des espaces mesurables séparés et séparables. Soit Π, un nuage
Poissonnien sur E d’intensité µ. Soit φ : E → E 0 , supposée (E , E 0 )-mesurable. On note µ0 la mesure image de
µ par φ et on pose Π0 := φ(Π). Si φ est injective, alors Π0 est un nuage Poissonnien sur E 0 d’intensité µ0 .

Preuve: si φ est injective, alors

∀ω ∈ Ω , ∀B 0 ∈ E 0 , NB 0 (Π0 (ω)) = Nφ−1 (B 0 ) (Π(ω)) . (IV.19)


144 CHAPTER IV. NUAGES DE POISSON.

Cela montre que Π0 est un nuage aléatoire. Par ailleurs NB 0 (Π0 ) est une variable de Poisson d’intensité
µ(φ−1 (B 0 )) = µ0 (B 0 ). Enfin, pour tous A01 , . . . , A0p ∈ E 0 , deux-à-deux disjoints, φ−1 (A01 ), . . . , φ−1 (A0p ) ∈ E
sont également deux-à-deux disjoints et (IV.19) implique que les variables NA01 (Π0 ), . . . , NA0p (Π0 ) sont in-
dépendantes. 
Le théorème suivant est une version plus sophistiquée de la proposition précédente.

Théorème IV.3.7 (Image) Soient (E, E ) et (E 0 , E 0 ), deux espaces mesurables séparables et séparés. Soit Π, un
nuage Poissonnien sur E d’intensité µ, supposée sigma-finie. Soit φ : E → E 0 , une fonction (E , E 0 )-mesurable.
On note µ0 la mesure image de µ par φ et on pose Π0 := φ(Π). On suppose µ0 diffuse.
Alors, Π0 est un nuage Poissonnien d’intensité µ0 et p.s. φ est injective sur Π, c’est-à-dire
   
P-p.s. ∀X, Y ∈ Π , X 6= Y =⇒ φ(X) 6= φ(Y ) , (IV.20)

ce qui entraîne que


P-p.s. ∀x0 ∈ E 0 , Nφ−1 ({x0 }) (Π) ∈ {0, 1} (IV.21)
Preuve: on suppose d’abord que l’on a montré (IV.20). Cela implique immédiatement (IV.21). Il existe alors
Ω∗ ∈ F tel que P(Ω∗ ) = 1 et

∀ω ∈ Ω∗ , ∀B 0 ∈ E 0 , NB 0 (Π0 (ω)) = Nφ−1 (B 0 ) (Π(ω)) , (IV.22)

On raisonne ensuite comme à la proposition IV.3.6 pour montrer que Π0 est Poissonnien d’intensité µ0 .
Il reste donc à prouver (IV.20). Pour cela on considère Π∗ = Π×Π, qui d’après la proposition IV.2.19, est
un nuage aléatoire sur l’espace E×E muni de la tribu produit E ⊗ E . On note ρ son intensité, que l’on calcule
comme suit: on fixe A, B ∈ E et on pose A0 := A\(A ∩ B) et B0 := B\(A ∩ B), si bien que A0 , A ∩ B, B0
sont disjoints deux-à-deux. On a donc
   
ρ(A × B) = E NA0 (Π)NB0 (Π) + E NA0 (Π)NA∩B (Π)
+E NA∩B (Π)NB0 (Π) + E (NA∩B (Π) )2
   

= µ(A0 )µ(B0 ) + µ(A0 )µ(A ∩ B) + µ(A ∩ B)µ(B0 ) + E (NA∩B (Π) )2 .


 

Comme une variable de Poisson de paramètre θ a un moment d’ordre 2 est égal à θ + θ2 , on a

ρ(A × B) = µ(A0 )µ(B0 ) + µ(A0 )µ(A ∩ B) + µ(A ∩ B)µ(B0 ) + µ(A ∩ B)2 + µ(A ∩ B)
= µ(A)µ(B) + µ(A ∩ B) = (µ ⊗ µ)(A × B) + µ(A ∩ B) .

On introduit ensuite la fonction  : x ∈ E 7→ (x, x) ∈ E ×E. On rappelle que ∆ ∈ E ⊗E . Donc  est (E , E ⊗E )-


mesurable: c’est même une bijection E sur ∆. On note µ∆ la mesure induite sur ∆ par µ via . Comme
−1 ((A×B)∩∆) = A∩B, on a donc montré que pour tous A, B ∈ E , ρ(A×B) = µ∆ (A×B)+(µ⊗µ)(A×B).
Comme ρ et µ∆ + µ ⊗ µ coïncident sur le pi-système P := {A×B ; A, B ∈ E } engendrant E ⊗E , le théorème
d’unicité du prolongement des mesures sigma-finies s’applique facilement pour montrer que ρ = µ∆ + µ ⊗ µ.
On pose Φ : (x, y) ∈ E ×E 7→ (φ(x), φ(y)) ∈ E 0 ×E 0 . Il est facile de montrer que Φ est (E ⊗E , E 0 ⊗E 0 )-
mesurable. On note ∆ 0 la diagonale de E 0 ×E 0 , diagonale qui appartient à E 0 ⊗E 0 . On s’intéresse à l’ensemble

U := Φ−1 (∆0 )\∆ = (x, y) ∈ E×E : x 6= y et φ(x) = φ(y) . Comme µ∆ est concentrée sur ∆ (par définition),


on a µ∆ (U ) = 0. Par Fubini, on a également,


Z Z
(µ ⊗ µ)(U ) = µ(dx) µ(dy)1{y∈E:y6=x et φ(y)=φ(x)}
E E
IV.3. NUAGES POISSONNIENS. 145
Z Z
−1
µ(dx)µ0 ({φ(x)}) .

≤ µ(dx)µ φ ({φ(x)}) =
E E

Comme µ0 est diffuse, on a µ0 ({φ(x)}) = 0, pour tout x ∈ E et donc (µ⊗µ)(U ) = 0. On en déduit donc que
ρ(U ) = E[NU (Π∗ )] = 0 et donc que P-p.s. Π∗ ∩ U = ∅, c’est-à-dire (IV.20), ce qui termine la preuve. 

Preuve du théorème IV.3.3. On observe tout d’abord que les nuages aléatoires satisfaisant la propriété de
chaos sont stables par restriction et que leurs restrictions à des sous-ensembles deux-à-deux disjoints sont
mutuellement indépendantes. Cette observation, combinée au principe de superposition indépendante (théorème
IV.3.5 (ii), montre que l’on peut se ramener aux cas de nuages aléatoires d’intensité finie.
On considère donc un Π : Ω → SE un nuage aléatoire (F , SE )-mesurable, satisfaisant la propriété de
chaos et d’intensité µ supposée finie: µ(E) < ∞. Comme (E, E ) est séparable et séparé, il existe C ⊂ [0, 1]
et φ : E → C bijective (E , B(C))-mesurable telle que la réciproque φ−1 : C → E soit (B(C), E )-mesurable
(on rappelle que B(C) est la tribu trace des Boréliens de R sur C). Le lemme IV.2.7, page 135, montre que
Π0 := φ(Π) est un nuage aléatoire d’intensité µ0 := µ◦φ−1 . Comme φ est bijective, il est clair que µ0 est diffuse
et que Π0 satisfait la propriété de chaos. Si on montre que Π0 est Poissonnien, alors la proposition IV.3.6, page
143, implique que Π = φ−1 (Π0 ) est Poissonnien également.
Il suffit donc de montrer que Π0 est Poissonnien: comme Π0 satisfait la propriété de chaos, il suffit de
montrer que pour tout A ∈ B(C), NA (Π0 ) suit une loi de Poisson. Soient n ∈ N et 0 ≤ k < 2n ; on pose
An,k = A ∩ [k2n , (k+1)2n [ et
X
ξn,k = 1{NA (Π0 )≥1} , pn,k = P(NAn,k (Π0 ) ≥ 1) et Xn = ξn,k .
n,k
0≤k<2n

L’hypothèse de chaos implique que pour tout n ∈ N, (ξn,k )0≤k<2n sont des v.a. de Bernoulli indépendantes de
paramètre respectifs (pn,k )0≤k<2n . Il est ensuite facile de voir que p.s. pour tout n ∈ N

Xn ≤ Xn+1 et lim Xn = sup Xn = NA (Π0 ) < ∞. (IV.23)


n→∞ n≥0

Par convergence monotone, cela implique que


X
lim pn,k = lim E[Xn ] = E[NA (Π0 )] = µ0 (A) . (IV.24)
n→∞ n→∞
0≤k<2n

On remarque ensuite que pn,k ≤ E[NAn,k (Π0 )] = µ0 (An,k ) et donc que


X X
p2n,k ≤ µ0 (An,k )2 ≤ µ0 (A) max n µ0 (An,k ) . (IV.25)
0≤k<2
0≤k<2n 0≤k<2n

Raisonnons par l’absurde en supposant que max0≤k<2n µ0 (An,k ) ne tende pas vers 0 lorsque n tend vers l’infini:
il existe donc ε > 0 une suite strictement croissante d’entiers naturels (n` )`≥0 telle que

max µ0 (An` ,k ) ≥ ε .
0≤k<2n`

n n n 0
On pose ITn,k = [k2 , (k +1)2 ], 0 ≤ k < 2 , et J` := ∪{In` ,k ; k : µ (An` ,k ) ≥ ε}. Clairement, J`+1 ⊂ J` . On
pose K = `≥0 J` , qui est un compact non-vide, par ce qui précède et puisque les J` sont également compacts
non-vides. Comme µ0 (A ∩ J` ) ≥ ε, on a µ0 (K ∩ A) ≥ ε. Soient x1 , . . . , xq ∈ K ∩ A distincts; alors pour tout
146 CHAPTER IV. NUAGES DE POISSON.

` assez grand, il existe k1 , . . . , kq tels que pour tout p ∈ {1, . . . , q}, on ait xp ∈ AnP
` ,kp
et µ0 (An` ,kp ) ≥ ε, et tels
que les les intervalles In` ,kp , 1 ≤ p ≤ q soient disjoints. Cela implique que qε ≤ 1≤p≤q µ0 (An` ,kp ) ≤ µ0 (A).
On a montré que K ∩ A contient au plus µ0 (A)/ε points. Or on a également prouvé que µ0 (K ∩ A) ≥ ε, ce qui
contredit le fait que µ0 soit diffuse.
On a donc montré par l’absurde que limn→∞ max0≤k<2n µ0 (An,k ) = 0. Par (IV.25) et (IV.24), l’approximation
Binomiale-Poisson établie au théorème IV.1.4 s’applique (voir page 125, en appendice): les variables Xn ten-
dent en loi vers une loi de Poisson de paramètre µ0 (A) et (IV.23) implique que NA (Π0 ) suit une loi de Poisson,
ce qui permet de conclure. 

IV.3.b Construction.
Les cas des nuages Poissonniens d’intensité finie. On se donne les objets suivants.

(a) (E, E ), un espace séparable et séparé; µ : E → R+ , une mesure finie, non-nulle et diffuse.

(b) (Ω, F , P), un espace de probabilité complet; Xn : Ω → E, n ∈ N∗ , des v.a. (F , E )-mesurables, indépen-
dantes de même loi µ( · )/µ(E).

(c) M : Ω → N, une v.a. F -mesurable, indépendante de (Xn )n≥1 , loi de Poisson de paramètre µ(E).

Théorème IV.3.8 Sous les hypothèses et notations précédentes, on définit Π : Ω → SE par

Π = {X1 , . . . , XM } si M ≥1 et Π = ∅ si M =0. (IV.26)

Alors, Π est un nuage Poissonnien d’intensité µ.


Preuve: l’exemple IV.2.2 permet d’affirmer que Π est un nuage aléatoire. Soient p ∈ N∗ et A1 , . . . , Ap ∈ E ,
deux-à-deux disjoints. On pose Ap+1 := E\(A1 ∪ . . . ∪ Ap ), si bien que A1 , . . . , Ap+1 est une partition de E.
On fixe u1 , . . . , up ∈ R et pour tout n ∈ N∗ , on pose Zn := eiu1 1A1 (Xn ) + . . . + eiup 1Ap (Xn ) + 1Ap+1 (Xn ).
Les variables (Zn )n≥1 sont i.i.d. et on vérifie facilement que

µ(E) 1 − E[Zn ] = µ(E) 1 − E[Z1 ] = µ(A1 )(1 − eiu1 ) + . . . + µ(Ap )(1 − eiup ) .
 
(IV.27)

Comme µ est sans atome, P-p.s. pour tous m < n, Xn 6= Xm , ce qui entraîne
Y  Y
P-p.s. exp iuj NAj (Π) = Zj ,
1≤j≤p 1≤j≤M

avec la convention qu’un produit sur un ensemble d’indices vide est égal à 1. On en déduit les égalités suivantes:
h Y i h Y i X h Y i
E exp iuj NAj (Π) = E Zj = 1 + E 1{M =n} Zj
1≤j≤p 1≤j≤M n≥1 1≤j≤n

X h Y µ(E)n
i X
= 1+ P(M = n)E Zj = e−µ(E)
E[Z1 ]n
n!
n≥1 1≤j≤n n≥0
Y
exp −µ(Aj )(1 − eiuj ) .

= exp (−µ(E)(1 − E[Z1 ])) =
1≤j≤p

L’injectivité de la fonction caractéristique montre que le vecteurs (NA1 (Π), . . . , NAp (Π)) a des composantes
indépendantes suivant des lois de Poisson, ce qui implique le résultat désiré. 
IV.3. NUAGES POISSONNIENS. 147

Construction pour les intensité sigma-finies. On procède de la même façon en utilisant le principe de su-
perposition. Plus précisément, on se donne les objets suivants.

(a) (E, E ), un espace mesurable séparable et séparé. µ : E → [0, ∞], une mesure sigma-finie, non-nulle et
diffuse. Il existe donc Bp ∈ E , p ≥ 1, une partition de E telle que pour tout p ≥ 1, on ait 0 < µ(Bp ) < ∞.

(p)
(b) (Ω, F , P), un espace de probabilité complet; Xn : Ω → E, p, n ≥ 1, des v.a. F -mesurables in-
(p)
dépendantes telles que pour tout p ≥ 1, la suite (Xn )n≥1 est i.i.d. de loi µ( · ∩ Bp )/µ(Bp ). On pose
(p)
T := (Xm )p,n≥1 .

(c) Mp : Ω → N, p ≥ 1, des v.a. F -mesurables indépendantes; Mp suit une loi de Poisson de paramètre
µ(Bp ). On suppose que la suite (Mp )p≥1 est indépendante du tableau de variables T .

Théorème IV.3.9 Sous les hypothèses et notations précédentes, pour tout p ≥ 1, on pose
 (p) (p)
Πp = X1 , . . . , XMp si Mp ≥ 1 et Πp = ∅ si Mp = 0 .
S
On pose également Π = p≥1 Πp . Alors, Π est un nuage Poissonnien sur E d’intensité µ.
Preuve: par le théorème IV.3.8, Πp est un nuage Poissonnien d’intensité µ( · ∩ Bp ). La construction garantit
que les Πp , p ≥ 1, sont indépendants.
P Par la propriété de superposition (proposition IV.3.5, page 143), Π est un
nuage Poissonnien d’intensité p≥1 µ( · ∩ Bp ) = µ. 

Représentation des nuages Poissonniens. On montre, à l’aide du lemme de localisation IV.2.16 (page 138)
que tout nuage Poissonnien, sur un espace séparable et séparé et d’intensité sigma-finie, peut se représenter de
manière mesurable comme dans la construction générale qui précède. On commence par considérer les nuages
d’intensité finie. Plus précisément, on se donne les objets suivants.

(α) (E, E ), un espace séparable et séparé.

(β) (Ω, F , P), un espace de probabilité complet sur lequel est défini Π : Ω → SE , un nuage Poissonnien
d’intensité finie: µ(E) < ∞.

(γ) U : Ω → [0, 1], une v.a. F -mesurable indépendante de Π et de loi uniforme.

À l’aide de U , on construit:
– une suite (Xn0 )n≥1 de v.a. i.i.d. de loi µ( · )/µ(E);
– une suite de permutations indépendantes (Σn )n≥1 telle que d’une part, Σn : {1, . . . , n} → {1, . . . , n} suit la
loi uniforme et telle que d’autre part, la suite (Σn )n≥1 est indépendante de (Xn0 )n≥1 .
Comme (E, E ) est séparable et séparé, il existe C ⊂ R et une bijection φ : E → C qui est (E , B(C))-mesurable
et telle que la réciproque φ−1 soit (B(C), E )-mesurable également. Par lemme IV.2.16 (page 138), il existe
une suite Yk : SE → E, k ≥ 1, de fonctions (SE , E )-mesurables telles que pour tout nuage π ∈ SE comptant n
points, 
π = Y1 (π), . . . , Yn (π) et φ(Y1 (π)) < . . . < φ(Yn (π)) .
Pour tout n ≥ 1, sur {#Π = n}, on pose:
0
Xk = YΣn (k) (Π) si 1 ≤ k ≤ n et Xk = Xk−n si k > n.
148 CHAPTER IV. NUAGES DE POISSON.

Sur {#Π = 0}∪{#Π = ∞}, pour tout k ≥ 1, on pose Xk = Xk0 . On montre tout d’abord que pour tout n ≥ 1,
sous P( · | #Π = n), les v.a. X1 , . . . , Xn sont i.i.d. de loi µ( · )/µ(E). (IV.28)
Preuve: soient A1 , . . . , An ∈ E , deux-à-deux disjoints. Observons que
[
{NA1 (Π) = 1; . . . ; NAn (Π) = 1} ∩ {#Π = n} = {Xσ(1) ∈ A1 ; . . . ; Xσ(n) ∈ An } ∩ {#Π = n},
σ∈Sn

ces événements étant deux-à-deux disjoints. Ici, Sn désigne l’ensemble des permutations de {1, . . . , n}. On
remarque ensuite que pour tout σ ∈ Sn , Σn ◦ σ est une permutation de loi uniforme. Cela implique que sous
P( · | #Π = n), (X1 , . . . , Xn ) à même loi que (Xσ(1) , . . . , Xσ(n) ) et donc
 X 
P NA1 (Π) = 1; . . . ; NAn (Π) = 1 #Π = n = P Xσ(1) ∈ A1 ; . . . ; Xσ(n) ∈ An #Π = n
σ∈Sn

= n! P X1 ∈ A1 ; . . . ; Xn ∈ An #Π = n . (IV.29)
On pose ensuite An+1 := E\(A1 ∪ . . . ∪ An ) et on remarque que
 
P NA1 (Π) = 1; . . . ; NAn (Π) = 1; #Π = n = P NA1 (Π) = 1; . . . ; NAn (Π) = 1; NAn+1 (Π) = 0
= µ(A1 ) . . . µ(An )e−µ(E) .
Comme #Π est une v.a. de Poisson de paramètre µ(E), on en déduit que
 µ(A1 ) µ(A1 )
P NA1 (Π) = 1; . . . ; NAn (Π) = 1 #Π = n = n! ... ,
µ(E) µ(E)
ce qui implique (IV.28) par (IV.29). 
On déduit facilement de (IV.28) la proposition suivante.

Proposition IV.3.10 On suppose (α), (β) et (γ) ci-dessus. On note G la tribu engendrée par U et Π. On pose
M := #Π. Alors, il existe une famille de variables (Xn )n≥1 satisfaisant les conditions suivantes.
(i) Pour tout n ≥ 1, Xn : Ω → E est (G , E )-mesurable.

(ii) Les variables (Xn )n≥1 sont i.i.d. de loi µ( · )/µ(E).

(iii) La suite (Xn )n≥1 est indépendante de M .



(iv) P-p.s. Π = X1 , . . . , XM dès que M ≥ 1.
Cette proposition se généralise immédiatement au cas sigma-fini.

Proposition IV.3.11 On suppose (α), (β) et (γ) ci-dessus, excepté que µ est seulement supposée sigma-finie; il
existe donc une partition E -mesurable de E, notée B = (Bp )p≥1 telle que pour tout p ≥ 1, on ait 0 < µ(Bp ) < ∞.
Pour tout p ≥ 1, on note Gp la tribu engendrée par U et Π ∩ Bp et on note Mp = NBp (Π). Alors, il existe un
(p)
tableau de variables (Xn )p,n≥1 qui satisfont les conditions suivantes.
(p)
(i) Pour tous n, p ≥ 1, Xn : Ω → Bp est (Gp , E )-mesurable.
(p) (p)
(ii) Les variables (Xn )p,n≥1 sont indépendantes et pour tous p, n ≥ 1, Xn a pour loi µ( · ∩ Bp )/µ(Bp ).
(p)
(iii) Le tableau de variables (Xn )p,n≥1 est indépendant de la suite (Mp )p≥1 .
 (p) (p)
(iv) P-p.s. pour tout p ≥ 1, Π ∩ Bp = X1 , . . . , XMp dès que Mp ≥ 1.
IV.4. OUTILS DE CALCULS. 149

IV.4 Outils de calculs.


IV.4.a Formules de Palm.
Toutes les variables sont définies sur un même espace de probabilité (Ω, F , P) supposé complet. Nous ren-
voyons au lemme IV.2.18 pour les questions de mesurabilité soulevées implicitement par le théorème suivant.

Théorème IV.4.1 (Formule de Palm) Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SE , un nuage
Poissonnien d’intensité µ, supposée sigma-finie et non-nulle. Soit (E0 , E0 ), un espace mesurable et soit Z :
Ω → E0 , une variable (F , E0 )-mesurable supposée indépendante de Π. Soit F : E0 ×E ×SE → [0, ∞], une
fonction E0 ⊗E ⊗SE -mesurable. Alors,
" # Z
X
E F (Z, X, Π\{X}) = µ(dx) E[F (Z, x, Π)] , (IV.30)
X∈Π E

avec la convention qu’une somme sur un ensemble d’indices vide est nulle.
Preuve: on remarque que (IV.30) ne dépend que de la loi jointe de (Z, Π). On peut donc choisir Π comme
(p)
dans le théorème de construction IV.3.9 et Z indépendante des variables Xn et Mp (ou bien on applique la
proposition de représentation IV.3.11). On pose alors
" #
X [
a=E F (Z, X, Π\{X}) et Π∗p = Πp0 .
X∈Π p0 ∈N\{p}

Par interversion positive série/intégrale,


(p) (p) (p) 
XX X 
a= P(Mp = n) E F Z, Xk , Π∗p ∪ {X1 , . . . , Xn(p) }\{Xk } .
p≥1 n≥1 1≤k≤n

On observe que pour toute permutation γ de {1, . . . , n}, on a

(p)  (loi) (p) (p) 


X1 , . . . , Xn(p) = Xγ(1) , . . . , Xγ(n) . (IV.31)

(p) (p) (p) (p) 


On pose bp,n,k = E F Z, Xk , Π∗p ∪ {X1 , . . . , Xn }\{Xk } et on déduit de (IV.31) que


(p)
bp,n,k = E F Z, Xn(p) , Π∗p ∪ {X1 , . . . , Xn(p) }\{Xn(p) }
 

(p) (p) 
= E F Z, Xn(p) , Π∗p ∪ {X1 , . . . , Xn−1 }

Z
µ(dx)  (p) (p) 
= E F Z, x, Π∗p ∪ {X1 , . . . , Xn−1 } ,
Bp µ(Bp )

(p) (p)
avec la convention que {X1 , . . . , Xn−1 } = ∅ si n = 1. Par conséquent
Z
XX µ(dx)  (p) (p) 
a = P(Mp = n) n E F Z, x, Π∗p ∪ {X1 , . . . , Xn−1 }
p≥1 n≥1 Bp µ(Bp )
n Z
−µ(Bp ) µ(Bp ) µ(dx)  (p) (p) 
XX
= e n E F Z, x, Π∗p ∪ {X1 , . . . , Xn−1 }
n! Bp µ(Bp )
p≥1 n≥1
150 CHAPTER IV. NUAGES DE POISSON.

n−1 Z
−µ(Bp ) µ(Bp ) (p) (p) 
XX
µ(dx)E F Z, x, Π∗p ∪ {X1 , . . . , Xn−1 }

= e
(n − 1)! Bp
p≥1 n≥1
Z
(p) (p) 
XX
P(Mp = n0 ) µ(dx)E F Z, x, Π∗p ∪ {X1 , . . . , Xn0 }

=
p≥1 n0 ≥0 Bp
XZ X (p) (p) 
P(Mp = n0 )E F Z, x, Π∗p ∪ {X1 , . . . , Xn0 }

= µ(dx)
p≥1 Bp n0 ≥0
XZ
µ(dx)E F Z, x, Π∗p ∪ Πp }
 
=
p≥1 Bp
XZ Z
= µ(dx)E[F (Z, x, Π)] = µ(dx) E[F (Z, x, Π)],
p≥1 Bp E

qui est bien le résultat voulu. 

Remarque IV.4.2 On se donne G : SE → R+ et g : E → R+ qui sont respectivement SE -mesurable et


E -mesurable. La formule de Palm appliquée à F (x, π) = g(x)G(π), donne
" # Z
X
E g(X)G(Π\{X}) = E[G(Π)] g(x)µ(dx) .
X∈Π E

Cette formule peut s’interpréter de la manière suivante: si on choisit un point X de Π "uniformément au


hasard" (c’est-à-dire selon la mesure de comptage) alors ce point a pour "loi" µ, il est indépendant du nuage
Π\{X} qui est Poissonnien d’intensité µ. Autrement dit, si on observe Π depuis un point typique de Π (qui
est enlèvé de Π, on observe toujours un nuage Poissonnien. De plus, le nouveau nuage observé ne donne pas
d’information sur la position d’observation. 

Remarque IV.4.3 On conserve les mêmes hypothèses que le théorème précédent en ce qui concerne Π et Z
mais on considère une application F : E0 × E × SE → R ou C qui est E0 ⊗ E ⊗ SE -mesurable et telle que
Z
µ(dx)E[ |F (Z, x, Π)| ] < ∞ . (IV.32)
E

Alors on déduit facilement du théorème IV.4.1, qui traite le cas des fonctions positives, que
" # Z
X
E F (Z, X, Π\{X}) = µ(dx)E [F (Z, x, Π)] .
X∈Π E

En effet, si F est réelle, il suffit de séparer F en sa partie positive et sa partie négative, de montrer que toutes
les expressions ont un sens grâce à l’hypothèse (IV.32) et au théorème IV.4.1 et de déduire le résultat. Dans le
cas où F est à valeurs complexes, il faut raisonner sur la partie réelle et la partie imaginaire. Nous laissons les
détails au lecteur. 

En itérant la formule de Palm, on prouve le résultat suivant.

Théorème IV.4.4 (Formule de Palm à n points) Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SE , un
nuage Poissonnien d’intensité µ, supposée sigma-finie et non-nulle. Soit (E0 , E0 ), un espace mesurable et soit
IV.4. OUTILS DE CALCULS. 151

Z : Ω → E0 , une variable (F , E0 )-mesurable supposée indépendante de Π. Soit F : E0 ×E n ×SE → [0, ∞], une
fonction E0 ⊗E ⊗n ⊗SE -mesurable. On rappelle la notation

(n)
X 
ΦF (Z, Π) = F Z, X1 , . . . , Xn , Π\{X1 , . . . , Xn } .
X1 ,...,Xn ∈Π
distincts

avec la convention qu’une somme sur un ensemble d’indices vide est nulle. Alors,
h i Z
(n)
E ΦF (Z, Π) = µ(dx1 ) . . . µ(dxn ) E[F (Z, x1 , . . . , xn , Π)] . (IV.33)
En

De même, on rappelle que ΛF(n) (Z, Π) =


P 
X1 ,...,Xn ∈Π, distincts F Z, X1 , . . . , Xn , Π . Alors
h i Z
(n)
E ΛF (Z, Π) = µ(dx1 ) . . . µ(dxn ) E[F (Z, x1 , . . . , xn , Π ∪ {x1 , . . . , xn })] . (IV.34)
En

Preuve: on fait une récurrence. Le théorème IV.4.1 montre (IV.33) pour n = 1. On suppose que (IV.33) est
vérifiée au rang n. Soit F : E0 ×E n+1 ×SE → [0, ∞], une fonction E0 ⊗ E ⊗n+1 ⊗ SE -mesurable. On pose
E1 = E0 × E muni de la  tribu E1 = E0 ⊗ E et on définit la fonction G : E1 × ⊗n E n × SE → [0, ∞], par
G (z, x), x2 , . . . , xn+1 , π = F (z, x, x2 , . . . , xn+1 , π). C’est une fonction E1 ⊗ E ⊗ SE -mesurable. On
(n)
pose F0 = ΦG . La formule de Palm au rang n = 1 (théorème IV.4.1) implique que
h X i Z
E F0 (Z, X1 , Π\{X1 }) = µ(dx1 ) E[F0 (Z, x1 , Π)]
X1 ∈Π E
Z
µ(dx1 )E Φ(n)
 
= G (Z, x1 , Π) . (IV.35)
E

On fixe x1 ∈ E. L’hypothèse de récurrence implique au rang n que


 (n)  h X i
E ΦG (Z, x1 , Π) = E F Z, x1 , X2 . . . , Xn+1 , Π\{X2 , . . . , Xn+1 }
X2 ,...,Xn+1 ∈Π
distincts
Z
= µ(dx2 ) . . . µ(dxn ) E[F (Z, x1 , x2 , . . . , xn+1 , Π)] . (IV.36)
En

On remarque enfin que


X X X 
F0 (Z, X1 , Π\{X1 }) = F Z, X1 , X2 , . . . , Xn+1 , Π\{X1 , X2 , . . . , Xn+1 }
X1 ∈Π X1 ∈Π X2 ,...,Xn+1 ∈Π\{X1 }
distincts
(n+1)
= ΦF (Z, Π). (IV.37)

Les égalités (IV.35), (IV.36) et (IV.37) permettent alors de montrer (IV.33) au rang n + 1, ce qui conclut la
preuve de (IV.33). Pour démontrer la formule (IV.34), il suffir d’appliquer la formule (IV.33) à la fonction
G(z, x1 , . . . , xn , π) = F (z, x1 , . . . , xn , π ∪ {x1 , . . . , xn }). 
En application nous donnons une formule de moment d’ordre 2 pour ΦF (Π).
152 CHAPTER IV. NUAGES DE POISSON.

Proposition IV.4.5 Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SE , un nuage Poissonnien
d’intensité µ, supposée sigma-finie et non-nulle. Soit (E0 , E0 ), un espace mesurable et soit Z : Ω → E0 ,
une variable (F , E0 )-mesurable supposée indépendante
P de Π. Soit F : E0 × E × SE → [0, ∞], une fonction
E0 ⊗E ⊗SE -mesurable. On rappelle que ΦF (Π) = X∈Π F (Z, X, Π\{X}). Alors, on a
h Z
E ΦF (Π) = µ(dx) E F (Z, x, Π)2
2
  
E Z
 
+ µ(dx)µ(dy) E F (Z, x, Π ∪ {y})F (Z, y, Π ∪ {x}) . (IV.38)
E2

Preuve: pour tout sous-ensemble fini J ⊂ Π, on a bien


X 2 X X
F (Z, X, Π\{X}) = F (Z, X, Π\{X})2 + G(Z, X1 , X1 , Π\{X1 , X2 }) .
X∈J X∈J X1 ,X2 ∈J
distincts

où G(z, x, y, π) = F (z, x, π ∪ {y})F (z, y, π ∪ {x}). En effet, il s’agit juste du developpement du carré d’une
somme finie. En prenant le supremum sur tous les sous-ensembles finis J ⊂ Π, on peut remplacer J par Π
dans l’expression précédente : on a ΦF (Π)2 = ΦF 2 (Π) + Φ(2)G (Π) et on conclut par le théorème IV.4.4. 

IV.4.b Formules exponentielles.


Toutes les variables sont définies sur un même espace de probabilité (Ω, F , P) supposé complet. Soit (E, E ),
un espace mesurable et f : E → [0, ∞], P une fonction E -mesurable. On rappelle la définition IV.2.4 (page 134)
de la f -fonction de comptage Nf (π) = x∈π f (x), pour tout π ∈ SE . On rappelle également l’approximation
fn de f , (IV.10) et (IV.11) page 134.

Théorème IV.4.6 (Formule exponentielle positive) Soit (E, E ), un espace mesurable séparable et séparé. Soit
Π : Ω → SE , un nuage Poissonnien d’intensité µ. Soit f : E → [0, ∞] une application E -mesurable. Alors
 Z 
E exp(−Nf (Π)) = exp − µ(dx) 1 − e−f (x) ,
 
(IV.39)
E

avec la convention exp(−∞) = 0. De plus, on a


Z Z Z 2
2 2
   
E Nf (Π) = µ(dx)f (x) et E Nf (Π) = µ(dx) f (x) + µ(dx)f (x) ,
E E E

Preuve: par (IV.10), on a


 Z 
−k2−n
Y
= exp − µ(dx) 1 − e−fn (x) ,
  
E exp(−Nfn (Π)) = exp −µ(Ak,n ) 1 − e
0≤k<n2n E

ce qui entraîne (IV.39) par (IV.11), par convergence dominée et par convergence monotone. Le premier moment
de Nf (Π) est donné par le lemme IV.2.5 (ii). La formule donnant le moment d’ordre 2 découle directement de
la proposition IV.4.5 avec F (z, x, π) = f (x). 

Lemme IV.4.7 (Caractérisation) Soit (E, E ), un espace mesurable séparable et séparé. Soit Π : Ω → SE , un
nuage aléatoire d’intensité µ. C’est un nuage Poissonnien ssi pour toute fonction f positive E -mesurable
bornée (IV.39) est vérifiée.
IV.4. OUTILS DE CALCULS. 153

Preuve: si Π est Poissonnien, alors le théorème IV.4.6 montre que (IV.39) est vérifié pour toute fonction
f positive, E -mesurable bornée. Réciproquement, soient A1 , . . . , Ap ∈ E , disjoints deux-à-deux et soient
λ1 , . . . , λp ∈ R+ . En choisissant f = λ1 1A1 + . . . + λp 1Ap dans (IV.39), on obtient
 Z 
E e−λ1 NA1 (Π)−...−λ1 NA1 (Π) = E e−Nf (Π) = exp − µ(dx) 1 − e−f (x)
   
E
Y
−λk

= exp(−µ(Ak )(1 − e ) .
1≤k≤p

Par injectivité de la transformée de Laplace, cela entraîne que NA1 (Π), . . . , NAp (Π) sont des variables de
Poisson indépendantes si µ(A1 ), . . . , µ(Ap ) sont des quantités finies. Le cas général est facile à déduire car si
µ(A) = ∞, NA (Π) est déterministe et vaut l’infini. 

Remarque IV.4.8 On observe également que si Y : Ω → N suit une loi de Poisson de paramètre θ ∈ ]0, ∞[ ,
alors Y admet des moment exponentiels de tous ordres:

 X e−θ θn −θ λn
E eλY = e e = exp θ(eλ − 1) .
 
∀λ ∈ R+ ,
n!
n∈N

En reprenant l’approximation de la preuve du théorème IV.4.6, on montre sous les mêmes hypothèses que ce
théorème que
Z 
µ(dx) ef (x) −1 ,
 
E exp Nf (Π) = exp (IV.40)
E
ces quantités pouvant être infinies, avec la convention exp(∞) := ∞. 

Proposition IV.4.9 Soit (E, E ), un espace mesurable séparable et séparé. Soit Π : Ω → SE , un nuage Pois-
sonnien d’intensité µ. Soit f : E → R+ une application E -mesurable (f ne prend pas la valeur ∞). Alors, on
a l’alternative suivante.
R
(a) Si E (1 ∧ f (x)) µ(dx) < ∞, alors p.s. Nf (Π) < ∞.
R
(b) Si E (1 ∧ f (x)) µ(dx) = ∞, alors p.s. Nf (Π) = ∞.

Preuve: on pose c = 1 − e−1 . On a c(1 ∧ y) ≤ 1 − e−y ≤ 1 ∧ y, pour tout y ∈ R+ , car la fonction y 7→ 1 − e−y
est concave. Donc pour tout λ ∈ R+ ,
Z Z Z
−λf (x)
  
c µ(dx) 1 ∧ (λf (x)) ≤ µ(dx) 1 − e ≤ µ(dx) 1 ∧ (λf (x)) . (IV.41)
E E E

Supposons que P Nf (Π) < ∞) > 0, alors E[exp(−Nf (Π))] > 0, et la formule exponentielle implique que
−f (x) ) < ∞. L’inégalité (IV.41) avec λ = 1 implique donc que
R R
E µ(dx)(1 − e R E µ(dx) (1 ∧ f (x)) < ∞.
Réciproquement, on suppose que E µ(dx) (1 ∧ f (x)) < ∞. On observe que pour tout λ ∈ [0, 1], 1 −
e−λf (x) ≤ 1 ∧ f (x). Comme fR ne peut pas prendre lavaleur ∞, on a limλ→0 1 − e−λf (x) = 0. Par convergence
dominée, on obtient limλ→0 E µ(dx) 1 − e−λf (x) = 0 et un argument élémentaire combiné à la formule
exponentielle montre que
Z 
µ(dx) 1 − e−λf (x) = 1 ,

P Nf (Π) < ∞ = lim E[exp(−λNf (Π))] = lim exp
λ→0 λ→0 E
154 CHAPTER IV. NUAGES DE POISSON.

ce qui montre (a). Supposons que E µ(dx)(1∧f (x)) = ∞. Alors, par (IV.41) E µ(dx)(1−e−f (x) ) = ∞, et la
R R

formule exponentielle entraîne que E[exp(−Nf (Π))] = 0, ce qui est équivalent à dire que P(Nf (Π) = ∞) = 1.
Cela montre une implication de (b). L’implication réciproque suit immédiatement de (a). 
On se place sous les hypothèses du théorème IV.4.6. Soit f : E → R, une fonction E -mesurable telle que
Z
µ(dx) (1 ∧ |f (x)| ) < ∞ . (IV.42)
E

Cela implique que E µ(dx) (1 ∧ f + (x) ) et E µ(dx) (1 ∧ f − (x) ) sont des quantités finies. Ici f + et f − sont
R R

les parties positives et négatives de f . La proposition (IV.4.9) entraîne alors que Nf + (Π) et Nf − (Π) sont des
variables finies presque sûrement et on a
X
N|f | (Π) = |f (X)| = Nf + (Π) + Nf − (Π) < ∞ .
X∈Π

On pose alors X
Nf (Π) = Nf + (Π) − Nf − (Π) := f (X) . (IV.43)
X∈Π

Théorème IV.4.10 (Formule exp. réelle) Soit (E, E ), un espace mesurable séparable et séparé. Soit Π : Ω → SE ,
un nuage Poissonnien d’intensité µ. Soit f : E → R une application E -mesurable satisfaisant (IV.42), ce qui
permet de définir Nf (Π) par (IV.43). Alors,
 Z 
E exp(iNf (Π)) = exp − µ(dx) 1 − ei f (x) .
 
(IV.44)
E
R
Si E µ(dx)|f (x)| < ∞, alors Nf (Π) est une variable intégrable et on a
hX i Z
E f (X) = µ(dx)f (x) . (IV.45)
X∈Π E

µ(dx)f (x)2 < ∞, alors Nf (Π) a un moment d’ordre deux et


R R
Si E µ(dx)|f (x)| < ∞ et E
Z
var(Nf (Π)) = µ(dx)f (x)2 .
E

Preuve: soit g : E → R+ , une fonction E -mesurable telle que E µ(dx)(1∧g(x)) < ∞. Par la proposition
R

IV.4.9, on a P(Ng (Π) < ∞) = 1. Comme dans la preuve de la formule exponentielle positive (théorème IV.4.6)
on démontre facilement que
Z

∀u ∈ R , E[exp(iu Ng (Π)) ] = exp − µ(dx) 1 − eiu g(x) . (IV.46)
E

On pose E+ := {f ≥ 0} et E− := {f < 0}, qui sont deux Boréliens disjoints. On a donc f = f + sur E+ et
−f = f − sur E− . On pose également Π+ := Π ∩ E+ et Π− := Π ∩ E− . Le principe de restriction implique
que Π+ et Π− sont deux nuages Poissonniens indépendants d’intensités respectives µ(· ∩ E+ ) et µ(· ∩ E− ).
En utilisant (IV.46) avec Π+/− , u = +1 ou −1 et g = |f |, on obtient

E[exp(iNf (Π) )] = E[exp(iNf (Π+ ) )] E[exp(−iN−f (Π− ) )]


IV.5. NUAGES POISSONNIENS SUR R+ × E. 155

 Z   Z 
i f (x)
= exp − µ(dx) 1 − e exp − µ(dx) 1 − ei f (x)
E+ E−
 Z 
= exp − µ(dx) 1 − ei f (x) ,

E

ce qui montre le point (IV.44). On a également, E[Nf +/− (Π)] = E µ(dx)f +/− (x) et on en déduit (IV.45).
R

On rappelle que le théorème IV.4.6 implique


Z Z 2
2 2
E[N|f | (Π+/− ) ] = µ(dx) |f (x)| + µ(dx) |f (x)| .
E+/− E+/−

Donc si E µ(dx)|f (x)| < ∞ et E µ(dx)f (x)2 < ∞, Nf (Π) = N|f | (Π+ ) − N|f | (Π− ) admet un moment
R R

d’ordre deux et par indépendance de Π+ et de Π− , on a


Z Z
var(Nf (Π)) = var(Nf (Π+ )) + var(Nf (Π− )) = µ(dx)(f + (x))2 + µ(dx)(f − (x))2 ,
E E

ce qui entraîne le résultat voulu. 

IV.5 Nuages Poissonniens sur R+ × E.


IV.5.a Premières propriétés.
Toutes les variables sont définies sur un même espace de probabilité noté (Ω, F , P) supposé complet. Soit
(E, E ), un espace mesurable séparable et séparé. On munit R+ ×E de la tribu B(R+ ) ⊗ E . Il est facile de
vérifier que (R+ × E, B(R+ ) ⊗ E ) est séparable et séparé. On rappelle ensuite que ` désigne la mesure de
Lebesgue sur R+ . Soit une mesure sigma-finie µ sur (E, E ): la mesure produit `⊗µ est également sigma-finie
et elle est diffuse, même lorsque µ n’est pas diffuse.

Proposition IV.5.1 Soit θ ∈]0, ∞[ . Soit ν : E → [0, ∞], une mesure de probabilité. Soit (En , Xn ), n ≥ 1, une
suite de variables telles que (En )n≥1 soient i.i.d. de loi exponentielle de paramètre θ, telles que (Xn )n≥1 soient
i.i.d. à valeurs dans E de loi ν, et telles que (En )n≥1 et (Xn )n≥1 soient indépendantes. On pose

∀n ∈ N∗ , Tn := E1 + . . . + En Π := (Tn , Xn ) ; n ∈ N∗ }.

et

Alors, Π est un nuage Poissonnien sur R+ ×E d’intensité θ `⊗ν.

Preuve: par le lemme IV.4.7 page 152, il suffit de montrer que pour toute fonction mesurable f : R+ ×E → R+ ,
 Z 
E exp −Nf (Π) = exp −θ `(ds) ν(dx) 1 − e−f (s,x) .
 
(IV.47)
R+ ×E

On rappelle que Π0 = {Tn ; n ∈ N∗ } est un nuage Poissonnien d’intensité θ` (voir le théorème IV.1.12, page
131 en appendice). Il est clairement indépendant de (Xn )n≥1 . On fixe t > 0 et on définit ft en posant ft (s, x) :=
1[0,t] (s)f (s, x). Par le théorème IV.1.12 (iii), on montre facilement que pour tout n ∈ N,
Z n
 1
`(ds)ν(dx)e−f (s,x)
 
E exp −Nft (Π) N[0,t] (Π0 ) = n = t .
[0,t]×E
156 CHAPTER IV. NUAGES DE POISSON.

On obtient alors
Z n
X  1
`(ds)ν(dx)e−f (s,x)
 
E exp −Nft (Π) = P N[0,t] (Π0 ) = n t
n∈N [0,t]×E
X 1 Z n
−θt
= e θ `(ds)ν(dx)e−f (s,x)
n! [0,t]×E
n∈N
 Z

= exp −θ `(ds)ν(dx) 1 − e−f (s,x) ,
[0,t]×E

Par convergence monotone, on a limt→∞ Nft (Π) = Nf (Π) et


Z Z
−f (s,x)
`(ds)ν(dx) 1 − e−f (s,x) .
 
lim `(ds)ν(dx) 1 − e =
t→∞ [0,t]×E R+ ×E
   
Par convergence dominée, on a limt→∞ E exp −Nft (Π) = E exp −Nf (Π) , ce qui montre (IV.47) et
donc la proposition. 
On veut montrer que tous les nuages d’intensité `⊗µ avec µ finie se représentent comme dans la proposition
IV.5.1. Pour cela, on introduit la notation suivante

R est l’ensemble des nuages π sur R+ × E de la forme {(tn , xn ); n ∈ N∗ } où la suite (tn )n≥1 croît
strictement vers ∞.

Le résultat suivant est un résultat technique de mesurabilité dont la preuve peut être passée à première lecture.

Lemme IV.5.2 R est un ensemble de SR+ ×E . De plus, pour tout n ∈ N∗ , il existe des fonctions En : SR+ ×E →
]0, ∞[ qui sont SR+ ×E -mesurables et des fonctions Xn : SR+ ×E → E qui sont (SR+ ×E , E )-mesurables, et qui
satisfont les propriétés suivantes.
• Si Tn := E1 + . . . + En , n ∈ N∗ , alors pour tout π ∈ SR+ ×E , limn→∞ Tn (π) = ∞.
• Pour tout π ∈ R, on a π = (Tn (π), Xn (π)) ; n ∈ N∗ .


Preuve: on pose R0 := NR−1 −1


(N), qui est dans la tribu SR+ ×E . Soit f : E → R+ , une
T
+ ×E
({∞}) ∩ p≥1 N[0,p]×E
fonction E -mesurable bornée. On pose
X
∀(t, π) ∈ R+×SR+ ×E , Sf (t, π) = (1 + f (x))1[0,t] (s) ∈ [0, ∞] .
(s,x)∈π

Pour tout t ∈ R+ , on pose ft (s, x) = (1+f (x))1[0,t] (s). Clairement, ft : R+×E → R+ est B(R+ )⊗E -mesurable
et on voit que Sf (t, π) = Nft (π). Cela montre que pour t fixé, π 7→ Sf (t, π) est mesurable. Par ailleurs, on
remarque que à π fixé, t 7→ Sf (t, π) est croissante. Si Sf (t0 , π) < ∞, alors t 7→ Sf (t, π) est càd sur [0, t0 [ .
Comme f est bornée, pour tout nuage π ∈ R0 , t 7→ Sf (t, π) est donc croissante càd.
On pose SR0 = {C ∩ R0 ; C ∈ SR+ ×E }, la tribu trace de SR+ ×E sur R0 . Comme R0 est dans la tribu
SR+ ×E , SR0 est une sous-tribu de SR+ ×E . Montrons que la fonction

(t, π) ∈ R+ ×R0 7−→ Sf (t, π) ∈ R+ est B(R+ )⊗SR0 -mesurable. (IV.48)

En effet, pour tout t ∈ R+ et tout n ∈ N, on pose (t)P −n d2n te, qui tend en décroissant vers t lorsque
n := 2
n tend vers l’infini. On remarque que Sf ((t)n , π) = k≥1 1[(k−1)2−n ,k2−n [ (t)Sf (k2−n , π). Ce qui précède
IV.5. NUAGES POISSONNIENS SUR R+ × E. 157

implique que (t, π) 7→ 1[(k−1)2−n ,k2−n [ (t)Sf (k2−n , π) est B(R+ )⊗SR0 -mesurable. Il en est donc de même
pour (t, π) 7→ Sf ((t)n , π). Or limn Sf ((t)n , π) = Sf (t, π), sur R+ ×R0 , ce qui permet de conclure.
Si f est nulle, alors S0 (t, π) = N[0,t]×E (π). La fonction (t, π) ∈ R+ × R0 → N[0,t]×E (π) ∈ N est donc
B(R+ ) ⊗ SR0 -mesurable. On remarque qu’à π fixé, les sauts de t 7→ N[0,t]×E (π) peuvent être strictement
supérieurs à 1, si par exemple (t, x) et (t, y) appartiennent à π avec x et y distincts. On fixe π ∈ R0 et pour tout
n ∈ N, on pose T0 (π) := 0 et Tn+1 (π) := inf{t ∈ R+ : S0 (t, π) > S0 (Tn (π), π)}. Par définition de R0 , la suite
Tn (π) croît strictement vers ∞ et on a S0 (Tn (π), π) ≥ n. Supposons que Tn : R0 → R+ soit SR0 -mesurable;
alors il en est de même pour π ∈ R0 7→ S0 (Tn (π), π),  par le résultat de mesurabilité conjointe (IV.48). On
−1

constate ensuite que pour tout t ∈ R+ , Tn+1 ( ]t, ∞[ ) = π ∈ R0 : S0 (Tn (π), π) = S0 (t, π) , qui est bien un
ensemble de SR0 . Cela montre que Tn+1 est SR0 -mesurable.
Par récurrence, on a donc montré que les Tn , n ∈ N∗ , sont des fonctions SR0 -mesurables. Il en est donc de
même pour les fonctions π 7→ S0 (Tn (π), π). On remarque Talors que R est le sous-ensemble des π ∈ R0 où t 7→
N[0,t]×E (π) ne progresse que de 1 en 1, c’est-à-dire R = n∈N {π ∈ R0 : S0 (Tn+1 (π), π) = 1 + S0 (Tn (π), π)},
qui est donc un ensemble dans la tribu SR0 , donc dans SR+ ×E .
On note SR la tribu trace de SR×E sur R. Si π ∈ R, alors il existe une suite Xn (π) ∈ E, n ∈ N∗ , telle que
π = {(Tn (π), Xn (π)); n ∈ N∗ }. On remarque ensuite que f (Xn (π)) = Sf (Tn (π), π)−Sf (Tn−1 (π), π)−1 et
les résultats de mesurabilités conjointes qui précèdent impliquent que pour tout n ∈ N∗ , la fonction π ∈ R 7→
f (Xn (π)) ∈ R+ est SR -mesurable, pour toute fonction Borélienne f . Par conséquent, π ∈ R 7→ Xn (π) est
(SR , E )-mesurable.
On fixe x0 ∈ E, qui ne joue aucun rôle spécifique. On étend Xn de façon mesurable à SR+ ×E en posant
Xn (π) := x0 si π ∈ SR+ ×E \R: la fonction obtenue Xn : SR+ ×E → E est donc (SR+ ×E , E )-mesurable. On
pose ensuite En (π) := 1 si π ∈ SR+ ×E \R et En (π) := Tn (π)−Tn−1 (π) si π ∈ R. On vérifie immédiatement
que En : SR+ ×E →]0, ∞[ est SR+ ×E -mesurable et que les suites de fonctions En , Xn , n ∈ N, satisfont bien les
propriétés désirées. 

Proposition IV.5.3 Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SR+ ×E un nuage Poissonnien
d’intensité `⊗µ. La mesure µ est supposée de masse finie. On rappelle de la proposition IV.5.2, les définitions
de Xn et En . Alors, on a les propriétés suivantes.

(i) P(Π ∈ R) = 1.

(ii) Les deux suites (En (Π))n≥1 et (Xn (Π))n≥1 sont indépendantes.

(iii) Les variables (En (Π))n≥1 sont i.i.d. de loi exponentielle de paramètre µ(E).

(iv) Les variables (Xn (Π))n≥1 sont i.i.d. de loi µ( · )/µ(E).

(v) Si on pose Tn (Π) = E1 (Π) + . . . + En (Π), n ∈ N∗ , on a donc

P-p.s. Π = Tn (Π), Xn (Π) ; n ∈ N∗ .


 

Preuve: soit (Ω0 , F 0 , P0 ), un espace de probabilité sur lequel sont définies deux suites indépendantes de vari-
ables, (En0 )n≥1 et (Xn0 )n≥1 , où les variables (En0 )n≥1 sont i.i.d. de loi exponentielle de paramètre µ(E) et les
variables (Xn0 )n≥1 sont i.i.d. de loi µ( · )/µ(E). On pose Tn0 = En0 + . . . + En0 et Π0 = {(Tn0 , Xn0 ); n ∈ N∗ }. La
proposition IV.5.1 montre que Π0 est un nuage Poissonnien sur R+ ×E d’intensité ` ⊗ µ. Donc Π0 a même loi
que Π. Comme il est clair que P0 (Π0 ∈ R) = 1, on a P(Π ∈ R) = 1. Le lemme IV.5.2 implique alors que la suite
158 CHAPTER IV. NUAGES DE POISSON.

(En (Π0 ), Xn (Π0 ))n≥1 a même loi que la suite (En (Π), Xn (Π))n≥1 . Par ailleurs, il est clair que P0 -p.s. pour
tout n ∈ N∗ , on a En0 = En (Π0 ) et Xn0 = Xn (Π0 ), ce qui permet de conclure. 
On déduit de ce qui précède et du théorème de restriction le résultat d’extraction suivant.

Proposition IV.5.4 (Extraction) Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SR+ ×E un nuage
Poissonnien d’intensité `⊗µ. La mesure µ est supposée sigma-finie. Soit A ∈ E tel que 0 < µ(A) < ∞. Alors, il
existe des suites de v.a. (Tn , Xn )n≥1 qui satisfont les propriétés suivantes:
 
P-p.s. Π ∩ (R+ ×A) = (T, X) ∈ Π : X ∈ A = (Tn , Xn ); n ≥ 1 ,

(Tn )n≥1 et (Xn )n≥1 sont indépendantes; les v.a. (Xn )n≥1 sont i.i.d. de loi µ(· ∩ A)/µ(A); on pose T0 = 0;
alors les v.a. (Tn −Tn−1 ))n≥1 sont i.i.d. exponentielle de paramètre µ(A).
Preuve: par le principe de restriction (théorème IV.3.4, page 142), ΠA := Π∩(R+×A) est un nuage Poissonnien
d’intensité ` ⊗ µ(· ∩ A). Comme µ(· ∩ A) est de masse µ(A) finie, la proposition IV.5.3 s’applique et on a
Tn = E1 (ΠA ) + . . . + En (ΠA ) et Xn = Xn (ΠA ), n ≥ 1, ce qui permet de conclure. 
En appliquant le principe de restriction et les résultats précédents, on a immédiatement le résultat suivant.

Théorème IV.5.5 Soit (E, E ), un espace séparable et séparé. Soit Π : Ω → SR+ ×E un nuage Poissonnien
d’intensité ` ⊗ µ. La mesure µ est supposée sigma-finie. Soit Bp ∈ E , p ∈ N∗ , une partition de E telle que
0 < µ(Bp ) < ∞. On rappelle de la proposition IV.5.2, les définitions de Xn et En et on pose pour tous n, p ≥ 1
Bp B
En = En (Π ∩ Bp ) et Xn p = Xn (Π ∩ Bp ) .

Alors, les assertions suivantes sont vraies


B B
(i) Les variables En p , Xn p , n, p ≥ 1, sont indépendantes.
B
(ii) Pour tout p ≥ 1, les variables (En p )n≥1 suivent une loi exponentielle de paramètre µ(Bp ).
B
(iii) Pour tout p ≥ 1, les variables (Xn p )n≥1 ont pour loi µ( · ∩ Bp )/µ(Bp ).
B Bp B
(iv) Pour tous n, p ≥ 1, on pose Tn p := E1 + . . . + En p . Alors P-p.s. pour tout p ≥ 1, Π ∩ Bp =
 Bp Bp 
Tn , Xn ; n ∈ N∗ , et donc

 B B
P-p.s. Π= Tn p , Xn p ); n, p ≥ 1 . (IV.49)

Ce théorème donne une construction, et une méthode de simulation, des nuages Poissonniens d’intensité ` ⊗ µ
lorsque µ est sigma-finie. On remarque que (IV.49) implique que sous les hypothèses du théorème IV.5.5 qui
précède,
P-p.s. ∀t ∈ R+ , N{t}×E (Π) ∈ {0, 1} . (IV.50)
Cela implique le résultat suivant.

Lemme IV.5.6 Soit (E, E ), un espace séparé et séparable. Soit Π : Ω → SR+ ×E , un nuage Poissonnien
d’intensité `⊗µ, où µ est sigma finie et de masse infinie. On pose

J(Π) := T ∈ R+ : ∃X ∈ E tel que (T, X) ∈ Π .

Alors, p.s. J(Π) est dense dans R+ .


IV.6. PROCESSUS PONCTUELS. 159

Preuve: pour tous réels positifs a < b, on a (` ⊗ µ)([a, b] × E) = ∞. Cela montre quep.s. N[a,b]×E (Π) = ∞.
Or (IV.50) implique que P-p.s. P-p.s. pour tous réels positifs
 a < b, # J(Π) ∩ [a, b] = N[a,b]×E (Π). Donc,
p.s. pour tous rationnels positifs a < b, # J(Π) ∩ [a, b] = ∞, ce qui implique le résultat voulu. 

IV.6 Processus ponctuels.


IV.6.a Formule de compensation.
Dans cette section, sauf mention explicite du contraire, toutes les variables aléatoires considérées sont définies
sur le même espace de probabilité (Ω, F , P) qui est supposé complet. Soit (E, E ), un espace mesurable. Il est
toujours supposé séparable et séparé. Soit ∂ ∈
/ E. On pose alors

E∂ := E ∪ {∂} et E∂ = σ({∂}, E ) .

On introduit la notion de processus ponctuel, définition due à Itô.

Définition IV.6.1 (Processus ponctuel) Pour tout t ∈ R+ , soit Vt : Ω → E∂ , une fonction. Alors, (Vt )t∈R+ est
un processus ponctuel sur E s’il satisfait les deux conditions suivantes.

(a) P-p.s. l’ensemble de temps {t ∈ R+ : Vt 6= ∂} est dénombrable.

(b) Pour tout A ∈ B(R+ )⊗E , la variable de comptage en A donnée par NA (V ) := t∈R+1A (t, Vt ) est F -
P
mesurable. Ici la somme est au sens des familles sommables (et elle ne porte que l’ensemble des temps
t ∈ R+ tels que Vt 6= ∂).

Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Le processus ponctuel (Vt )t∈R+ est dit (Gt )t∈R+ -adapté si de plus

(c) pour tout B ∈ E et tout t ∈ R+ , N[0,t]×B (V ) est Gt -mesurable. 

Remarque IV.6.2 Pour tout t ∈ R+ , on se donne une fonction Vt : Ω → E∂ . Les points (a) et (b) de la définition
précédente montrent que (Vt )t∈R+ est un processus ponctuel sur E si et seulement si Π := {(t, Vt ) ; Vt 6= ∂} est
un nuage de points sur R+ ×E qui est (F , SR+ ×E )-mesurable.
Réciproquement, si on part d’un nuage sur R+ × E et que l’on veut obtenir un processus ponctuel, il est
nécessaire de supposer qu’à chaque temps t ne correspond qu’une seule valeur d’espace. Plus précisément on
introduit l’ensemble de ces nuages de points:

Process := π ∈ SR+ ×E : ∀t ∈ R+ , N{t}×E (π) ≤ 1 .

En général Process ∈ / SR+ ×E . Soit Π : Ω → SR+ ×E , un nuage aléatoire (F , SR+ ×E )-mesurable. On fait
l’hypothèse suivante 
L’événement Π ∈ / Process est P-négligeable. (IV.51)
Comme (Ω, F , P) est supposé complet, on a donc Π ∈ Process ∈ F et P(Π ∈ Process) = 1. Pour tout


t ∈ R+ et tout ω ∈ Ω, on définit alors Vt (ω) ∈ E∂ comme suit

• si ω ∈
/ {Π ∈ Process}, on pose Vt (ω) := ∂;
160 CHAPTER IV. NUAGES DE POISSON.

• si ω ∈ {Π ∈ Process} et N{t}×E (Π(ω)) = 0, on pose Vt (ω) := ∂;

• si ω ∈ {Π ∈ Process} et N{t}×E (Π(ω)) 6= 0, alors par définition de Process, il existe un unique x ∈ E


tel que (t, x) ∈ Π(ω) et on pose Vt (ω) = x.
 
Par construction, sur l’événement Π ∈ Process , Π = (t, Vt ); t ∈ R+ : Vt 6= ∂ et donc pour tout
A ∈ B(R+ )⊗E , on a NA (V ) = NA (Π) . Comme on suppose P(Π ∈ Process) = 1, NA (V ) est F -mesurable,
ce qui montre que (Vt )t∈R+ est un processus ponctuel, selon la définition IV.6.3. 

On introduit ensuite la notion de processus ponctuel de Poisson relativement à une filtration comme suit.

Définition IV.6.3 (Processus ponctuel de Poisson relativement à une filtration). Soit (Vt )t∈R+ , un processus
ponctuel sur E. Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit µ : E → [0, ∞], une mesure. Le processus
(Vt )t∈R+ est un processus ponctuel de Poisson relativement à (Gt )t∈R+ d’intensité µ s’il satisfait les conditions
suivantes.

(a) Π := (t, Vt ) ; t ∈ R+ : Vt 6= ∂ est un nuage Poissonnien sur R+ ×E qui est (G∞ , SR+ ×E )-mesurable


d’intensité `⊗µ, où ` désigne la mesure de Lebesgue sur R+ .

(b) Pour tous s, t ∈ R+ et B ∈ E , N[0,t]×B (V ) est Gt -mesurable et N]t,t+s]×B (V ) est indépendant de Gt . 

Le but de la section est de reformuler la formule de Palm pour des nuages de Poisson muni d’une filtration.
Pour cela on introduit les notions de tribu prévisible et de processus prévisible.

Définition IV.6.4 (Tribu et processus prévisibles) Soit (Gt )t∈R+ , une filtration sur (Ω, F ).

(a) On note Cprev les sous-ensembles de R+ ×Ω ayant les formes suivantes:

• {0}×A, avec A ∈ G0 .
• ]s, t]×A, avec t ≥ s > 0 et A ∈ Gs .
• R+ ×Ω.

On vérifie aisément que Cprev est un pi-système sur R+ ×Ω.

(b) On pose Gprev := σ(Cprev ), tribu sur R+ ×Ω. C’est la tribu prévisible associée à (Gt )t∈R+ .

(c) Pour tout t ∈ R+ , soit Xt : Ω → E, une fonction. Le processus (Xt )t∈R+ est dit (Gt )t∈R+ -prévisible si
(t, ω) ∈ R+ ×Ω 7−→ Xt (ω) ∈ E est (Gprev , E )-mesurable. 

La proposition suivante donne quelques propriétés utiles de la tribu prévisible.

Proposition IV.6.5 Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Alors, les assertions suivantes sont vérifiées.

(i) Gprev est la plus petite tribu sur R+ ×Ω rendant mesurables les processus X : (t, ω) 7→ Xt (ω) ∈ R qui
sont càg sur ]0, ∞[ et (Gt )t∈R+ -adaptés.
IV.6. PROCESSUS PONCTUELS. 161

(ii) Soit (E, d), métrique séparable muni des Boréliens B(E). Soit X : (t, ω) 7→ Xt (ω) ∈ E, un processus
(Gt )t∈R+ -adapté et càg sur ]0, ∞[ . Alors, il est (Gt )t∈R+ -prévisible.

(iii) Soit X : (t, ω) 7→ Xt (ω) ∈ E, un processus (Gt )t∈R+ -prévisible. Alors, il est adapté.

Preuve: on montre (i) tout d’abord. Pour cela on observe facilement que l’ensemble des processus à valeurs
réelles qui sont (Gt )t∈R+ -prévisibles, forment un espace vectoriel. Soient t0 , s0 ∈ R+ tels que t0 ≥ s0 et soit
Y : Ω → R, une v.a. Gs0 -mesurable. On pose X : (t, ω) ∈ R+ × Ω 7→ 1]s0 ,t0 ] (t)Y (ω) ∈ R. Alors X est
(Gt )t∈R+ -prévisible. En effet, soit B ∈ B(R); si 0 ∈ / B, {X ∈ B} =]s0 , t0 ] × {Y ∈ B} ∈ Cprev ; si 0 ∈ B,
alors {X ∈ B} = ( ]s0 ,S t0 ] × {Y ∈ B}) ∪ ([0, s0 ] × Ω) ∪ ( ]tS0 , ∞[×Ω) Cet événement est dans Gprev car
[0, s0 ]×Ω = ({0}×Ω) ∪ n∈N ]2−n , s0 ]×Ω et car ]t0 , ∞[×Ω = n∈N ]t0 + n, t0 + n + 1] ×Ω.
Soit X unP processus à valeurs réelles qui est (Gt )t∈R+ -adapté càg. Pour tout t ∈ R+ , on pose Xtn (ω) =
X0 1{0} (0) + 0≤k<n2n Xk2−n 1]k2−n ,(k+1)2−n ] (t). Ce qui précède montre que X n est (Gt )t∈R+ -prévisible.
Comme X est càg sur ]0, ∞[ , X est la limite ponctuelle des X n lorsque n → ∞, ce qui entraîne que X est
également (Gt )t∈R+ -prévisible.
Si on note H la tribu sur R+ ×Ω engendrée par les processus qui sont càg sur ]0, ∞[ et (Gt )t∈R+ -adaptés.
On a clairement Cprev ⊂ H et donc Gprev ⊂ H . Par ailleurs, ce qui précède montre que H ⊂ Gprev , et donc
H = Gprev , ce qui prouve (i).
Pour montrer (ii) on effectue la même approximation qu’au (i): nous laissons les détails au lecteur. Le
points (iii) se démontre en raisonnant par classe monotone: on note Q l’espace des processus à valeurs réelles
qui sont (Gt )t∈R+ -prévisibles et (Gt )t∈R+ -adaptés. C’est clairement un espace vectoriel. On vérifie immédiate-
ment que 1C ∈ Q, pour tout C ∈ Cprev . Il est facile de vérifier que Q est également stable par limite ponctuelle
croissantes uniformément bornées. Le théorème de la classe monotone, dans sa version fonctionnelle, implique
alors que Q contient tous les processus (Gt )t∈R+ -prévisibles bornés. On passe au cas général par troncature:
les détails sont laissés au lecteurs. 

Notation. Soit H : R+ ×Ω×E∂ → R, C ou [0, ∞]. Sauf mention explicite du contraire, on suppose:
∀(s, ω) ∈ R+ ×Ω, Hs (ω, ∂) = 0 . (IV.52)
Soit (Vt )t∈R+ , un processus ponctuel sur E; on pose Π := {(t, Vt ) ; t ∈ R+ : Vt 6= ∂}. Alors, pour tout t ∈ R+ ,
X X
Hs (ω, Vs ) signifie 1[0,t] (T )HT (ω, X) au sens des familles sommables
s∈[0,t] (T,X)∈Π

Cette expression a toujours un sensPlorsque H est à valeurs dans [0, ∞]; si H est à valeurs dans R ou C, alors,
cette expression a un sens dès que s∈[0,t] |Hs (ω, Vs )| < ∞. 

L’énoncé suivant, appelé formule de compensation, est une réécriture de la formule de Palm (qui ne lui est
pas strictement équivalente).

Théorème IV.6.6 (Formule de compensation) Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit (Vt )t∈R+ , un (Gt )t∈R+ -
processus ponctuel de Poisson sur E d’intensité µ, qui est supposée sigma-finie. Alors, les assertions suivantes
sont vérifiées.

(i) Soit H : R+ ×Ω×E∂ → [0, ∞], un processus (Gprev ⊗E∂ )-mesurable satisfaisant (IV.52). Alors pour tout
t ∈ R+ Z Z t
X
ω 7−→ Hs (ω, Vs ) et ω 7−→ µ(dx) Hs (·, x) ds
s∈[0,t] E 0
162 CHAPTER IV. NUAGES DE POISSON.

sont deux v.a. à valeurs dans [0, ∞]; elles sont Gt -mesurables et on a
h X i Z Z t
 
E Hs (ω, Vs ) = µ(dx) E Hs (·, x) ds . (IV.53)
s∈[0,t] E 0

(ii) Soit H : R+ ×Ω×E∂ → C, un processus (Gprev ⊗E∂ )-mesurable satisfaisant (IV.52). On suppose que
R Rt  
pour tout t ∈ R+ , E µ(dx) 0 E |Hs (·, x)| ds < ∞. Alors, (IV.53) a lieu et
X Z Z t
t 7−→ Mt := Hs (ω, Vs ) − µ(dx) Hs (·, x) ds
s∈[0,t] E 0

est une (Gt )t∈R+ -martingale bien définie et càd.

(iii) Soit H : R+ ×Ω×E∂ → R, un processus (Gprev ⊗E∂ )-mesurable satisfaisant (IV.52). On suppose que
Rt  Rt 
pour tout t ∈ R+ , E µ(dx) 0 E |Hs (·, x)| ds < ∞ et E µ(dx) 0 E Hs (·, x)2 ds < ∞. On a alors
R  R 

Z Z t
E Mt2 = µ(dx) E Hs (·, x)2 ds .
   
(IV.54)
E 0

avec la notation Mt introduite au (ii).

Preuve: on considère d’abord le cas où µ est de masse finie. Soient B ∈ E , s0 , t0 ∈ R+ et A ∈ Gt0 . On pose

I := ]t0 , t0 + s0 ] et ∀(s, ω, x) ∈ R+ ×Ω×E∂ , Hs (ω, x) := 1I (s)1A (ω)1B (x) .

Il est clair que H est (Gprev ⊗E∂ )-mesurable, qu’il satisfait (IV.52). On pose Π := {(t, Vt ) ; t ∈ R+ : Vt 6= ∂},
qui est un nuage Poissonnien d’intensité `⊗µ. On observe que pour tout t ∈ R+ ,
X Z Z t
Xt := Hs (·, Vs ) = 1A (·)N([0,t]∩I)×B (Π) et µ(dx) Hs (·, x) dr = 1A (ω)µ(B)` [0, t] ∩ I).
s∈[0,t] E 0

Ce sont des variables Gt -mesurables. On remarque que Xt+s −Xt = 1A (·)N(]t,t+s]∩I)×B (Π). Comme V est un
processus ponctuel de Poisson la v.a. N(]t,t+s]∩I)×B (Π) suit une loi de Poisson de paramètre µ(B)` ]t, t+s]∩I)
et elle est indépendante de Gt∨t0 . Donc E[Xt+s |Gt∨t0 ] = Xt + 1A (ω)µ(B)` ]t, t + s] ∩ I), puisque A ∈ Gt∨t0 .
On a donc
hZ Z t+s i
E[Xt+s |Gt ] = Xt + E 1A Gt µ(B)` ]t, t+s]∩I) = Xt + E µ(dx) 1A×I×B (·, r, x) dr Gt . (IV.55)
 

E t

Pour tout C ∈ Gprev ⊗E on pose


X Z Z t
Xt (C) := 1C (·, s, Vs ) et Yt (C) := µ(dx) 1C (·, s, x) ds.
s∈[0,t] E 0

On note L l’ensemble des C ∈ Gprev ⊗E tels que


h Z Z t+s i
E[Xt+s (C)|Gt ] = Xt (C) + E Yt+s (C)−Yt (C) Gt = Xt (C) + E µ(dx) 1C (·, r, x) dr Gt .
 
(IV.56)

E t
IV.6. PROCESSUS PONCTUELS. 163

Il est facile de montrer que L est une classe monotone: nous laissons les détails au lecteur. D’autre par (IV.55)
montre que L contient le pi-système P := {Q×B; Q ∈ Cprev , B ∈ E } qui génère Gprev ⊗E . Le théorème de la
classe monotone implique alors que L = Gprev ⊗E . Autrement dit (IV.56) est vérifiée pour tout C ∈ Gprev ⊗E .
Ce résultat s’étend tout d’abord lorsque µ est sigma-finie: il existe une partition de E Bn ∈ E , n ∈ N; on
pose µn = µ(· ∩ Bn ) et pour tout C ∈ Gprev ⊗E , on pose Cn := C ∩ (Ω×R+ ×Bp ). Comme µn est finie on a
hZ Z t+s i hZ Z t+s i
E[Xt+s (Cn )|Gt ] = Xt (Cn )+E µn (dx) 1Cn (·, r, x) dr Gt = Xt (Cn )+E µ(dx) 1C (·, r, x) dr Gt .

E t Bn t

En sommant sur n, et en utilisant l’interversion série/intégrale et série/espérance conditionnelle, on obtient


(IV.56) avec µ sigma-finie.
Soit H : Ω×R+ ×E → [0, ∞], une fonction Gprev P⊗E -mesurable. Par le lemme A.1.19, page 207, il existe
ap ∈ ]0, ∞[ P, Cp ∈ Gprev ⊗ E , p ∈
PN tels que H = p∈N ap 1Cp . Par interversion positives, on en déduit que
pour tout t, s∈[0,t] Hs (·, Vs ) = p∈N ap Xt (Cp ) et en appliquant (IV.56) aux Cp et en sommant sur p ∈ N, on
obtient Z t+s
h X i X hZ i
E Hr (·, Vr ) Gt = Hr (·, Vr ) + E µ(dx) Hr (·, x) dr Gt . (IV.57)

r∈[0,t+s] r∈[0,t] E t

On obtient (i) en prenant l’espérance de cette égalité avec t = 0.


Montrons (ii): (IV.57) implique que (Mt )∈R+ est une (Gt )t∈R+ -martingale lorsque H est positive. On
montre ce résultat pour une fonction H à valeurs réelles, en prenant sa partie positive et sa partie négative; le cas
des fonctions à valeurs complexes se déduit du cas réel en considérant la partie réelle etRla partie imaginaire
Rt des
fonctions H. Il reste donc à montrer que t 7→ Mt est càd: il est tout d’abord clair que t 7→ E µ(dx) 0 Hs (·, x) ds
P continu par ailleurs, le théorème de convergence dominée pour la mesure de comptage implique que t 7→
est
s∈[0,t] Hs (ω, Vs ) est càd, ce qui termine la preuve de (ii).
Soit, H satisfaisant les hypothèses du (iii). On pose
X Z Z t
Xt (H) := Hs (·, Vs ) et Yt (H) := ds µ(dx) Hs (·, x) .
s∈[0,t] 0 E

On suppose dans un premier temps que H satisfait l’hypothèse suivante

∀(s, ω, x) ∈ R+ ×Ω×E , |Hs (ω, x)| ≤ c1B (x) où B ∈ E est tel que µ(B) < ∞ et où c ∈ R+ . (IV.58)

On suppose d’abord que H ≥ 0. On a alors


X X X
Xt (H)2 = Hs (·, Vs )2 + 2 Hu (·, Vu )Hs (·, Vs ) = Xt (H 2 ) + 2 As− (H)Hs (·, Vs ) ,
s∈[0,t] 0≤u<s≤t s∈[0,t]
P
car s 7→ As est croissant càd et car la limite à gauche As− est donnée par u<s Hu (·, Vu ). Il est facile de
vérifier que (s, ω, x) 7→ As− (ω)Hs (ω, x) est Gprev ⊗E -mesurable car s 7→ As− est càg. Par (i) on en déduit
Z t Z Z t Z
2 2
 
E Xt (H) = ds µ(dx) E[Hs (·, x) ] + 2 ds
µ(dx) E[As Hs (·, x)] (IV.59)
0 E 0 E
Z t Z
≤ c2 µ(B)t + cµ(B)tE[At ] = c2 µ(B)t + 2cµ(B)t ds µ(dx) E[Hs (·, x)]
0 E
≤ c2 µ(B)t + 2c2 µ(B)2 t2 < ∞
164 CHAPTER IV. NUAGES DE POISSON.

On remarque ensuite que


X Z s Z X Z t Z
Xt (H)Yt (H) = Hs (·, Vs ) du µ(dx) Hu (·, x) + Hs (·, Vs ) du µ(dx) Hu (·, x)
s∈[0,t] 0 E s∈[0,t] s E

X Z t Z
= Hs (·, Vs )Ys (H) + du µ(dx) Hu (·, x)Au
s∈[0,t] 0 E

On a donc par (i)


ZZ t Z t Z
E[Xt (H)Yt (H)] = ds µ(dx) E[Hs (·, x)Ys (H)] + ds µ(dx) E[Hs (·, x)As ]
0 E 0 E
ZZ ZZ Z tZ
≤ ds du µ(dy)µ(dx) E[Hs (·, x)Hu (·, y)]+ ds µ(dx) E[Hs (·, x)As ] (IV.60)
0≤s<u≤t E 0 E
2 2 2
≤ 2c µ(B) t < ∞

On observe également que


ZZ
ZZ
2
E[Yt (H) ] = ds du µ(dy)µ(dx) E[Hs (·, x)Hu (·, y)]
0≤s,u≤t E
ZZ ZZ
= 2 ds du µ(dy)µ(dx) E[Hs (·, x)Hu (·, y)] (IV.61)
0≤s<u≤t E
≤ c2 µ(B) t < ∞ 2 2

On a Mt (H) := Xt (H)−Yt (H), qui est une martingale d’après le (ii). Comme

E Mt (H)2 = E Xt (H)2 − 2E[Xt (H)Yt (H)] + E[Yt (H)2 ]


   

par (IV.59), (IV.60) et (IV.61), on obtient (IV.54), qui est le résultat voulu. Ce résultat s’étend à une fonction
H à valeurs réelles satisfaisant une hypothèse du type (IV.58). D’autre part, soit G : R+ × Ω × E → R, une
fonction satisfaisant les hypothèses du théorème et satisfaisant également (IV.58) avec un ensemble B 0 ∈ E et
une constante c0 . Alors H + G et H − G satisfont également (IV.58) avec un ensemble B ∪ B 0 ∈ E et une
constante c + c0 . On a donc

4E Mt (H)Mt (G) = E Mt (H + G)2 − E Mt (H − G)2


     
Z Z t
 
= 4 µ(dx) E Hs (·, x)Gs (·, x) ds (IV.62)
E 0

Passons au cas général. Comme µ est sigma-finie, il existe Bp ∈ E , p ∈ N, une partition de E telle que
0 ≤ µ(Bp ) < ∞. Pour tous p, q ∈ N, on pose

∀(s, ω, x) ∈ R+ ×Ω×E, Hsp,q (ω, x) = 1Bp (x)Hs (ω, x)1{|Hs (ω,x)|∈[q,q+1[} .

Il est clair que H p,q satisfait les hypothèses du théorème et (IV.58) avec B = Bp et c = q + 1. Par ailleurs pour
tout (s, ω, x), il existe au plus une paire (p, q) telle que Hsp,q (ω, x) 6= 0 donc d’une part
X
Mt H p,q

Mt (H) = (IV.63)
p,q∈N
IV.6. PROCESSUS PONCTUELS. 165

et d’autre part Hsp,q (ω, x)Hsm,n (ω, x) dès que (p, q) 6= (m, n) et donc, par (IV.62),

E Mt (H p,q )Mt (H m,n ) = 0 dès que (p, q) 6= (m, n).


 

Ceci, combiné avec (IV.63) et un argument élémentaire, implique que


X 
E Mt (H)2 = E Mt (H p,q )2
  

p,q∈N
X Z Z t
µ(dx) E 1Bp (x)Hs (·, x)2 1{|H|∈[q,q+1[}
 
=
p,q∈N E 0
Z Z t
µ(dx) E Hs (·, x)2 ,
 
=
E 0

par interversion série/intégrale positive. Cela termine la preuve du théorème.

IV.6.b Processus ponctuels régénératifs.


Dans cette section nous exposons un résultat de P. Greenwood et J. Pitman, résultat aux nombreuses applica-
tions: il permet notamment de définir simplement le temps local d’un processus Markovien et ses excursions.
Mentionnons que les termes de processus ponctuels régénératifs et leurs temps propres ne sont pas standard.
Dans cette section, comme dans la précédente, sauf mention explicite du contraire, toutes les variables aléatoires
considérées sont définies sur le même espace de probabilité (Ω, F , P) qui est supposé complet. Soit (E, E ),
un espace mesurable. Il est toujours supposé séparable et séparé. Soit ∂ ∈
/ E; on rappelle que E∂ := E ∪ {∂} et
que E∂ = σ({∂}, E ).

Définition IV.6.7 Soit J ⊂ R+ . Soit V = (Vt )t∈R+ , un processus ponctuel sur E.

(a) J est dit ordonnable en croissant si J = {tn ; n ≥ 1}, où (tn )n≥1 est une suite strictement croissante.

(b) Le processus V est dit non-discret si P-p.s. J := {t ∈ R+ : Vt 6= ∂} n’est pas ordonnable en croissant.

(c) Soit B ∈ E . Le processus ponctuel V est dit B-régénératif si


 
P-p.s. (t, Vt ) ; t ∈ R+ : Vt ∈ B = (Tn (B), Xn (B)) ; n ≥ 1

où p.s. T1 (B) > 0, où (Tn (B))n≥1 est strictement croissante et où (Xn (B))n≥1 est i.i.d. La suite
(Xn (B))n≥1 est appelée la suite B-extraite de V 

Remarque IV.6.8 Si (Vt )t∈R+ est B-régénératif, alors {t ∈ R+ : Vt ∈ B} est ordonnable en croissant. 

Théorème IV.6.9 (Greenwood-Pitman) Soit Ek ∈ E , k ∈ N tels que


[
∀k ∈ N, Ek ⊂ Ek+1 et E = Ek .
k∈N

Soit V = (Vt )t∈R+ , un processus ponctuel. On fait les hypothèses suivantes.

(a) V est non-discret.


166 CHAPTER IV. NUAGES DE POISSON.

(b) Pour tout k ∈ N, V est Ek -régénératif.

Alors, il existe une mesure sigma-finie µ : E → [0, ∞] et un processus L := (Lt )t∈R+ continu, croissant
satisfaisant P-p.s L0 = 0 et limt→∞ Lt = ∞, et tel que

Π := {(Lt , Vt ) ; t ∈ R+ : Vt 6= ∂} est un nuage de Poisson sur R+ ×E d’intensité `⊗µ. (IV.64)

La mesure µ, appelée intensité de V , satisfait

∀k ∈ N, µ(Ek ) < ∞ et µ(E) = lim µ(Ek ) = ∞ ,


k

Le processus L est appelé temps propre de V . Il possède les propriétés suivantes.

(i) Pour tout k ∈ N,on pose X1 (Ek ) la première variable de la suite Ek -extraite de V et on définit εk :=
P X1 (Ek ) ∈ E0 Alors la suite (εk )k∈N décroît vers 0 et

P-p.s. ∀t ∈ R+ , sup εk N[0,s]×Ek(V ) − Ls −−−→ 0 (IV.65)
s∈[0,t] k→∞

où on rappelle que N[0,s]×Ek(V ) = #{u ∈ [0, s] : Vu ∈ Ek }.

(ii) On pose
 
D = t ∈ R+ : Vt 6= ∂ , Diso = t ∈ D : ∃ε > 0, ]t−ε, t + ε[ ∩ D = {t} et Dacc = D\Diso .

où D est l’adhérence de D. Explicitement D est l’ensemble des temps de sauts de V , Diso celui des
points isolés de D et Dacc , celui des points d’accumulation de D qui ne sont pas des points isolés de D.
On vérifie que Dacc est un fermé. Alors, P-p.s. Dacc est le support topologique de la mesure de Stieltjes
associée à L, c’est-à-dire que cet ensemble est exactement l’ensemble des temps de croissance de L.
Autrement dit,  
P-p.s. ∀t > s ≥ 0, Ls < Lt ⇐⇒ ]s, t[ ∩ Dacc 6= ∅ . (IV.66)

(iii) Soit L0 := (L0t )t∈R+ , un processus continu croissant tel que Π0 := {(L0t , Vt ) ; t ∈ R+ : Vt0 6= ∂} soit un
nuage de Poisson sur R+ ×E d’intensité `⊗µ0 . Alors, il existe un réel c > 0 tel que
1
P-p.s. ∀t ∈ R+ , L0t = cLt et µ0 = c µ .

Cela montre l’unicité, à constante multiplicative près, du temps propre et de la mesure d’intensité d’un
processus ponctuel régénératif.

Preuve: soit k ∈ N; puisque V est Ek -régénératif, on a {(Tn (Ek ), Xn (Ek )) ; n ≥ 1} := {(t, Vt ) ; t ∈ R+ : Vk ∈


Ek } où P-p.s. 0 < T1 (Ek ) < . . . < Tn (Ek ) < Tn+1 (Ek ) < . . . et où les v.a. Xn (Ek ), n ≥ 1, sont i.i.d. de loi
commune notée µk . Il est clair que P-p.s. pour tous ` > k ≥ 0,
 
(Tn (Ek ), Xn (Ek )) ; n ≥ 1 ⊂ (Tn (E` ), Xn (E` )) ; n ≥ 1
 [
et (t, Vt ) ; t ∈ R+ : Vt 6= ∂ = (Tn (Ek ), Xn (Ek )) ; n ≥ 1 . (IV.67)
k∈N

On rappelle que ε` := P(X1 (E` ) ∈ E0 ). Si ε` = 0, alors P-p.s. pour tout n ≥ 1, Xn (E` ) ∈


/ E0 , ce qui contredit
(IV.67) pour k = 0. On a donc ε` > 0, pour tout ` ∈ N. Soient k < `, si X1 (E` ) ∈ E0 , alors X1 (E` ) = X1 (Ek )
IV.6. PROCESSUS PONCTUELS. 167

et donc ε` ≤ εk : la suite (εk )k∈N est donc décroissante. On vérifie ensuite qu’il existe k0 ≥ 1 tel que εk0 < 1.
En effet, si εk = 1, pour tout k ∈ N, alors P-p.s. (Tn (Ek ), Xn (Ek )) = (Tn (E0 ), Xn (E0 )), n, k ≥ 0, et (IV.67)
implique que p.s. {(t, Vt ) ; t ∈ R+ : Vt 6= ∂} = {(Tn (E0 ), Xn (E0 )) ; n ≥ 1} et V serait ordonnable en croissant,
ce qui contredit l’hypothèse (a). Sans perte de généralité on peut supposer que ε1 < 1. On utilise ensuite le
résultat élémentaire suivant.

Lemme IV.6.10 Soit (Yn )n≥1 , une suite de v.a. à valeurs dans E, supposée i.i.d. de loi ν. Soit B ∈ E , telle que
0 < ν(B) < 1. P-p.s. il y a donc une infinité de n ≥ 1 tels que Yn ∈ B et on pose
{τp ; p ≥ 1} := {n ≥ 1 : Yn ∈ B}
avec τp < τp+1 . Par commodité on pose également τ0 = 0 et σp = τp−τp+1 , pour tout p ≥ 1. Alors, les assertions
suivantes sont vérifiées.
• Les variables σp , Yτp , p ≥ 1 sont indépendantes.
• Les variables (σp )p≥1 sont de même loi géométrique de paramètre ν(B):
P(σp = n) = (1−ν(B))n−1 ν(B) , n≥1 .

• Les variables (Yτp )p≥1 sont de même loi ν(· ∩ B)/ν(B).


Preuve: soient p ≥ 1, k1 , . . . , kp ≥ 1, des entiers. On pose ni = k1 + . . . + ki , pour tout 1 ≤ i ≤ p et
J = [[1, np ]]\{n1 , . . . , np }. Soient f1 , . . . , fp : E → R+ , des fonctions E -mesurables. On observe que
h Y i h Y Y i
E fi (Yτi )1{σi =ki } = E 1{Yni ∈B} fi (Yni ) 1{Yn ∈B}
/
1≤i≤p 1≤i≤p n∈J
Y  Y
= E 1{Yni ∈B} fi (Yni ) P(Yn ∈
/ B)
1≤i≤p n∈J
Z
p
np −p Y ν(dy)
= ν(B) 1−ν(E) fi (y)
ν(B)
1≤i≤p B
Z
Y k −1 Y ν(dy)
= ν(B) 1−ν(B) i fi (y) ,
1≤i≤p B ν(B)
1≤i≤p

ce qui permet de conclure. 

Pour tous ` > k ≥ 1, on définit la suite croissante


τ0k,` = 0 et
 k,` k,`
τ1 < . . . < τpk,` < τp+1

< . . . = n ≥ 1 : Xn (E` ) ∈ Ek

et aussi σpk,` = τpk,` −τp−1


k,`
, p ≥ 1. Il est clair que Xp (Ek ) = Xτ k,` (E` ), pour tout p ≥ 1. Le lemme IV.6.10 qui
p
précède implique que
• Les variables σpk,` , Xp (Ek ), p ≥ 1 sont indépendantes.
• Les variables Xp (Ek ), p ≥ 1 ont pour loi commune µ` (· ∩ Ek )/µ` (Ek ) et donc µk = µ` (· ∩ Ek )/µ` (Ek ).
Par conséquent, pour tout ` > k,
εk = P(X1 (Ek ) ∈ E0 ) = µk (E0 ) = µ` (E0 )/µ` (Ek ) donc µ` (Ek ) = ε` /εk ,
et aussi
1 1
∀ ` ≥ k, µ (·
ε` `
∩ Ek ) = ε µk . (IV.68)
k
168 CHAPTER IV. NUAGES DE POISSON.

• Les variables (σpk,` )p≥1 sont de même loi géométrique de paramètre µ` (Ek ) = ε` /εk :

P(σpk,` = n) = (1−ε` /εk )n−1 ε` /εk , n≥1 .

On fixe k ≥ 1. Pour tout ` > k, on note F` = σ(Xn (E` ) ; n ≥ 1) la tribu engendrée par les variables
E` -extraites. Comme (Xn (E` ))n≥1 se déduit de (Xn (E`+1 ))n≥1 , on voit que F` ⊂ F`+1 et (F` )`>k est une
filtration.
Soit p ≥ 1 et m ≥ p. On fxe A ∈ F` tel que P(A) > 0. Sous P( · A ∩ {τpk,` = m}), on remarque que τpk,`+1

est la somme de m variables géométriques d’espérance 1/µ`+1 (E` ) = ε` /ε`+1 . On a donc

E[ε`+1 τpk,`+1 |A ∩ {τpk,` = m}] = ε` m .

En effet chacune de ces variables géométriques (diminuées de 1) comptent combien de variables E`+1 -extraites
tombent dans E`+1 \E` entre deux variables E`+1 -extraites qui tombent dans E` , et donc

E ε`+1 τpk,`+1 1A = E ε` τpk,` 1A .


   

Comme τpk,` est F` -mesurable, on obtient

E ε`+1 τpk,`+1 F` = ε` τpk,` .


 
P-p.s. ∀` > k , (IV.69)

Donc (ε` τpk,` )`>k est une (F` )`>k -martingale positive: pour tous p, k ≥ 1, il existe une v.a. Λkp : Ω → [0, ∞],
F -mesurable telle que
P-p.s. lim ε` τpk,` = Λkp . (IV.70)
`→∞

De plus E ε` τpk,` = E[εk τpk,k ] = pεk . Donc par Fatou, E[Λkp ] ≤ pεk et les variables Λkp sont finies p.s.
 

De plus, comme les variables (τpk,` − τp−1k,`


)p≥1 sont i.i.d. et à valeurs dans R+ , il en est de même pour les
k k k
v.a. (Λp −Λp−1 )p≥1 (ici on pose Λ0 := 0, par commodité).
On sait que 1 > ε` ≥ ε`+1 > 0 pour tout ` ≥ 1. On a donc lim` ε` = inf `≥1 ε` =: ε. Il y a deux cas à considérer.

• Cas ε > 0. On observe que


k,`
P τpk,` −τp−1 = n = (1−ε` /εk )n−1 ε` /εk −−−→ (1−ε/εk )n−1 ε/εk

∀k, p, n ≥ 1,
`→∞

et donc les variables (ε−1 (Λkp −Λkp−1 ))p≥1 sont i.i.d. à valeurs dans N∗ de loi géométrique de paramètre
ε/εk . On en déduit que pour tout k ≥ 1, P-p.s. {Λkp , p ≥ 1} ⊂ εN∗ et est donc un ensemble discret et
Λkp + ε ≤ Λkp+1 .

• Cas ε = 0,
k,` dt/ε` e−1
P ε` (τpk,` −τp−1 −−−→ e−t/εk ,

∀t ∈ R+ , )) > t = 1−ε` /εk
`→∞

et donc les variables (Λkp −Λkp−1 )p≥1 sont i.i.d. à valeurs dans ]0, ∞[ de loi exponentielle de paramètre
1/εk . Par la loi des grands nombres limp→∞ Λpk = ∞ et donc pour tout k ≥ 1, P-p.s. {Λkp , p ≥ 1} est un
ensemble sans point d’accumulation et non-borné de R+ .
IV.6. PROCESSUS PONCTUELS. 169

Dans les deux cas on a

P-p.s. ∀k ≥ 1, {Λkp , p ≥ 1} est non-borné et sans point d’accumulation. (IV.71)

Soit Lk : {Tp (Ek ) ; p ≥ 1} → {Λkp , p ≥ 1}, bijective croissante: on a

∀p ≥ 1, LkTp (Ek ) = Λkp .

Si k + 1 < `, comme Ek ⊂ Ek+1 , on a {n ≥ 1 : Xn (E` ) ∈ Ek } ⊂ {n ≥ 1 : Xn (E` ) ∈ Ek+1 }, c’est-à-dire


{τpk,` ; p ≥ 1} ⊂ {τpk+1,` ; p ≥ 1}. Or, par (IV.71), les deux ensembles {Λkp ; p ≥ 1} et {Λk+1
p ; p ≥ 1} sont
discrets. Donc, la convergence (IV.69) implique que

P-p.s. ∀k ≥ 1, {Λkp ; p ≥ 1} ⊂ {Λk+1


p ; p ≥ 1} . (IV.72)

Puisque {Tp (Ek ) ; p ≥ 1} ⊂ {Tp (Ek+1 ); p ≥ 1} et que Lk et Lk+1 sont des bijections croissantes, on en déduit
que:
la restriction de Lk+1 à {Tp (Ek ) ; p ≥ 1} est Lk .
On rappelle ensuite que D = {t ∈ R+ : Vt 6= ∂} = {Tp (Ek ) ; p, k ≥ 1}. Ce qui précède prouve le fait suivant.

Il existe une unique fonction L : D = {t ∈ R+ : Vt 6= ∂} −→ {Λkp ; p, k ≥ 1} bijective croissante. (IV.73)

La fonction L satisfait nécessairement:

LTp (Ek ) = Λkp , p, k ≥ 1 . (IV.74)

Si ε > 0, alors {Λkp ; p, k ≥ 1} ⊂ εN∗ ; {Λkp ; p, k ≥ 1} serait donc est ordonnable en croissant, et par (IV.73), D
le serait également, ce qui contredit l’hypothèse (a). Donc que ε = 0 et on a prouvé que

lim ε` = 0 . (IV.75)
`→∞

Cela implique que pour tout k ≥ 1, les v.a. (Λkp −Λkp−1 )p≥1 sont i.i.d. de loi exponentielle de paramètre 1/εk .
On rappelle ensuite que l’on a montré grâce au lemme IV.6.10 que les v.a. Ek -extraites, notées (Xp (Ek ))p≥1 ,
sont indépendantes des variables(τpk,` −τp−1
k,`
)p≥1 . Par la convergence (IV.70), cela implique que les deux suites
k k
de v.a. (Λp −Λp−1 )p≥1 et (Xp (Ek ))p≥1 sont indépendantes. On pose alors

Πk := (Λkp , Xp (Ek )) ; p ≥ 1 .

∀k ≥ 1,

Comme les variables Xn (Ek ) sont i.i.d. de loi µk , on déduit de la proposition IV.5.1, page 155, que
1
Πk est un nuage de Poisson sur R+ ×E d’intensité εk
`⊗µk . (IV.76)

Puisque par définition pour tout p ≥ 1,

{(Tp (Ek ), Xp (Ek )) ; p ≥ 1} ⊂ {(Tp (Ek+1 ), Xp (Ek+1 )) ; p ≥ 1} ,

il existe un unique q ≥ p tel que (Tp (Ek ), Xp (Ek )) = (Tq (Ek+1 ), Xq (Ek+1 )) et on a donc (Λkp , Xp (Ek )) =
(Λk+1
q , Xq (Ek+1 )). On en déduit que

P-p.s. ∀k ≥ 1 , Πk ⊂ Πk+1 . (IV.77)


170 CHAPTER IV. NUAGES DE POISSON.

Ceci combinée avec (IV.67) implique que P-p.s. pour tout k ≥ 1, Πk := {(LTp (Ek ) , VTp (Ek ) ) ; p ≥ 1} et donc
 [
P-p.s. Π := (Lt , Vt ) ; t ∈ R+ : Vt 6= ∂ = Πk et Π ∩ (R+ ×Ek ) = Πk , k ≥ 1 . (IV.78)
k≥1

Le théorème IV.3.5 de superposition croissante (page 143) implique alors que Π est un nuage de Poisson
d’intensité notée ν qui satisfait pour tout A ∈ B(R+ ) ⊗ E , ν(A) = limk ↑ ε1k (` ⊗ µk )(A). Par (IV.78) et le
théorème IV.3.4 de restriction, page 142, on a pour tout k ≥ 1, ν(· ∩ (R+ ×Ek )) = ε1k `⊗µk Pour tout B ∈ E , on
pose alors µ(B) := ν([0, 1]×B). On vérifie facilement que µ est une mesure positive sur E . D’autre part, on a
1 1
∀B ∈ E , ∀k ≤ 1 , µ(B ∩ Ek ) = ε µk (B), lim ↑ µ (B) = µ(B)
εk k
et µ(Ek ) = 1/εk . (IV.79)
k k

Cela montre que µ est sigma-finie. Soit C ∈ B(R+ ), on a donc


1
ν(C ×B) = lim ν(C ×(B ∩ Ek )) = lim `(B) ε µk (B) = `(B)µ(B) .
k k k

Cela implique donc que ν = `⊗µ, par unicité de la mesure produit. On a donc montré (IV.64).
Nous avons construit une fonction L : D → R+ . Montrons qu’elle s’étend à R+ par une fonction con-
tinue croissante surjective et que l’approximation uniforme (IV.65) a bien lieu. Pour cela on utilise le lemme
déterministe suivant.

Lemme IV.6.11 (Second lemme de Dini) Pour tout entier ` ≥ 1, soit f` : R+ → R+ , une fonction croissante (pas
nécessairement continue). Soit D ⊂ R+ , un ensemble infini dénombrable. On fait les hypothèses suivantes.

(a) Pour tout t ∈ D, f (t) := lim`→∞ f` (t) existe dans R+ .

(b) L’ensemble {f (t) ; t ∈ D} est dense dans R+ .

Alors, f se prolonge de manière unique à R+ et ce prolongement noté f : R+ → R+ est continu, croissant,


surjectif et tel que
∀t ∈ R+ , sup |f` (s)−f (s)| −−−→ 0 .
s∈[0,t] `→∞

Preuve: pour faciliter le raisonnement, on pose g(t) := lim`→∞ f` (t) pour tout t ∈ D et on pose S := {g(t) ; t ∈
D}, supposé dense dans R+ . Clairement g : D → S est surjective et croissante car les f` sont croissantes. Pour
tout s ∈ R+ , on pose f (s) := inf{g(t) ; t ∈ D ∩ [s, ∞[ }. Clairement f : R+ → R+ est croissante. Soit s ∈ D,
comme g est croissante, on a g(s) ≤ g(t) pour tout t ∈ D ∩ [s, ∞[ et donc f (s) = g(s). Autrement dit f étend g
à tout R+ et on a donc f (t) := lim`→∞ f` (t), pour tout t ∈ D. On a donc S ⊂ f (R+ ) et (b) implique que f (R+ )
est dense dans R+ . Comme f est croissante, cela implique qu’elle est continue. En effet, s’il existe t0 tel que
f (t0 ) < f (t0 +) (resp. f (t0 −) < f (t0 )) alors ]f (t0 ), f (t0 +)[⊂ R+ \f (R+ ) (resp. ]f (t0 −), f (t0 )[⊂ R+ \f (R+ ))
puisque f est croissante, ce qui contredit la densité de f (R+ ). Cela montre donc que f est continue croissante
surjective de R+ sur R+ .
Il est clair que f (0) = 0. Comme pour tout t ∈ R+ , on a 0 ≤ f` (0) ≤ f` (t) → f (t), pour tout t ∈ D, on
a lim sup` f` (0) ≤ f (t) On a donc lim sup` f` (0) ≤ inf f (D) = 0, ce qui implique que lim` f` (0) = f (0) = 0.
Dans perte de généralité on peut donc supposer que 0 ∈ D.
On fixe ensuite un réel t > 0. Soit ε > 0. Comme l’adhérence de {f (s) ; s ∈ D∩[0, t]} est f ([0, t]) = [0, f (t)],
il existe une subdivision de [0, t], s0 = 0 < s1 < . . . < sn+1 = t telle que pour tout i ∈ {0, . . . , n}, on ait si ∈ D
IV.6. PROCESSUS PONCTUELS. 171

et 0 ≤ f (si )−f (si−1 ) ≤ ε. Il existe ensuite `ε ≥ 1, tel que pour tout ` ≥ `ε , et pour tout i ∈ {0, . . . , n}, on ait
|f` (si )−f (si )| ≤ ε. Soit s ∈ [0, t]. Il existe i ∈ {1, . . . , n} tel que s ∈ [si−1 , si ] et pour tout ` ≥ `ε , on a

|f` (s)−f (s)| ≤ |f` (s)−f` (si )| + |f` (si )−f (si )| + |f (si )−f (s)|
≤ f` (si )−f` (s) + ε + f (si )−f (s)
≤ f` (si )−f` (si−1 ) + ε + f (si )−f (si−1 )
≤ f` (si )−f (si ) + f (si−1 )−f` (si−1 ) + f (si )−f (si−1 ) + ε + f (si )−f (si−1 )
≤ |f` (si )−f (si )| + |f (si−1 )−f` (si−1 )| + 3ε ≤ 5ε .

On a donc montré que pour tout t > 0 tel que t ∈ D, et pour tout ε > 0, il existe `ε ≥ 1 tel que pour tout ` ≥ `ε ,
on a sups∈[0,t] |f` (s)−f (s)| ≤ 5ε. Cela prouve que pour tout t ∈ D, lim` sups∈[0,t] |f` (s)−f (s)| = 0, ce qui
implique le résultat voulu car D est non-borné. 

On rappelle que D := {t ∈ R+ : Vt 6= ∂} = {Tp (Ek ) ; p, k ≥ 1} et que L : D → R+ est déterminé par


LTp (Ek ) = Λkp , pour tous p, k ≥ 1. L’image de D par L est donc {Λkp ; p, k ≥ 1} = {t ∈ R+ : N{t}×E (Π) = 1}.
On a montré que Π est un nuage Poisson d’intensité `⊗µ, avec µ de masse infinie car µ(E) = limk µ(Ek ) =
limk 1/εk = ∞, par (IV.79) et (IV.75). Le lemme IV.5.6, page 158, implique alors que:

P-p.s. {Lt ; t ∈ D} = R+ .

On pose Ω0 := {ω ∈ Ω : {Lt (ω) ; t ∈ D(ω)} = R+ } ∩ {ω ∈ Ω : ∀p, k ≥ 1, lim`→∞ ε` τpk,` (ω) = Λkp (ω)}. Ce
qui précède et (IV.70) impliquent que P(Ω0 ) = 1. On raisonne ensuite de manière déterministe sur Ω0 et on
applique le lemme IV.6.11 qui précède aux fonctions suivantes

∀` ≥ 1, ∀t ∈ R+ , f` (t) := ε` N[0,t]×E` (V ) = ε` #{s ∈ [0, t] : Vs ∈ E` } = ε` #{q ≥ 1 : Tq (E` ) ≤ t} .

Les f` sont croissantes et f` (Tp (Ek )) = ε` #{q ≥ 1 : Tq (E` ) ≤ Tp (Ek )} = ε` τpk,` . On en déduit donc que sur
Ω0 , pour tous p, k ≥ 1, lim`→∞ f` (Tp (Ek )) = Λkp = LTp (Ek ) , c’est-à-dire

∀t ∈ D, lim f` (t) = Lt .
`→∞

Le lemme IV.6.11 s’applique et montre que L s’étend en une fonction continue croissante surjective de R+ sur
R+ et que sur Ω0 , on a bien l’approximation uniforme désirée (IV.65). Cela termine la preuve de (i).
On montre (ii). Pour cela, on note Ω1 l’événement où L satisfait les propriétés du (i) et où pour tous k ≥ 1,
Λkp < Λkq dès que p < q. On a P(Ω1 ) = 1. On raisonne ensuite de manière déterministe en se plaçant sur Ω1 .
Soient t > s ≥ 0. On suppose que Ls < Lt . Comme L est continu, il existe t > u > r > s tels que Lr < Lu et par
(i), on constate que N]r,u]×Ek (V ) ∼ ε−1k (Lu −Lr ) qui tend vers l’infini lorsque k → ∞. L’ensemble D∩[r, u]
est infini: cela implique que Dacc ∩ ]s, t[ 6= ∅, ce qui montre une première implication de (IV.66).
Réciproquement, supposons Dacc ∩ ]s, t[ 6= ∅; alors D∩ ]s, t[ est infini. Cela implique l’existence de k ≥ 1
et de p < q tels que s < Tp (Ek ) < Tq (Ek ) < t ce qui entraîne que LTp (Ek ) = Λkp < Λkq = LTq (Ek ) et donc Ls < Lt .
Cela prouve (ii).
On montre (iii): on fixe un entier ` ≥ 1. On remarque d’abord que Π ∩ (R+ ×E` ) est un nuage de Poisson
d’intensité `⊗µ(· ∩ E` ) et que Π0 ∩ (R+ ×E` ) est un nuage de Poisson d’intensité `⊗µ0 (· ∩ E` ). La première
variable E` -extraite de V est la variable d’espace du premier point de Π ∩ (R+ ×E` ) et aussi du premier point
de Π0 ∩ (R+ ×E` ). Donc,

∀` ≥ 1 , µ(· ∩ E` )/µ(E` ) = µ0 (· ∩ E` )/µ0 (E` ) . (IV.80)


172 CHAPTER IV. NUAGES DE POISSON.

On pose ensuite ε0` := 1/µ0 (E` ), on rappelle que ε` = 1/µ(E` ). Par (IV.80), on a ε0k /ε0` = εk /ε` , pour tous
` ≤ k ≤ 1. En posant c := ε01 /ε1 ∈ ]0, ∞[ , on a montré ε0` = cε` ; par (IV.80), on a aussi µ0 (· ∩ E` ) = c−1 µ(· ∩ E` ).
En faisant tendre ` vers l’infini, on obtient µ0 = c−1 µ.

On utilise ensuite le lemme suivant, d’un intérêt indépendant.

Lemme IV.6.12 Soit Π∗ , un nuage de Poisson sur S R+ ×E d’intensité `⊗ν. Soient Ek ∈ E , avec Ek ⊂ Ek+1 ,
ν(Ek ) < ∞, pour tout entier k ∈ N et tels que E = k∈N Ek . On suppose que ν(E) = ∞. Pour tout k ∈ N, on
pose ηk = 1/ν(Ek ). Alors, il existe une suite d’entiers (`k )k∈N strictement croissante

sup η`kN[0,t]×E` (Π∗ ) −t −−−→ 0 .



P-p.s. (IV.81)
k k→∞
t∈[0,k]

Preuve: Pour tout t ∈ R+ , on note Gt la tribu engendrée par Π∗ ∩([0, t]×E) et on pose Mt = N[0,t]×E` (Π∗ )−
tµ (E` ). On vérifie que E[Mt ] = 0 et que E[Mt ] = var N[0,t]×E` (Π ) = tν(E` ) car N[0,t]×E` (Π∗ ) suit une
0 2 ∗


loi de Poisson de paramètre tν(E` ). Le théorème IV.3.4 de restriction, page 142, implique que Mt+s −Mt , qui
ne dépend que de Π0 ∩(]t, t+s]×E), est indépendant de Gt et de moyenne nulle. Cela implique que (Mt )t∈R+
est une (Gt )t∈R+ -martingale. On observe que cette martingale est càd et l’inégalité de Doob L2 implique donc
que E[sups∈[0,t] Ms2 ] ≤ 4E[Mt2 ] = 4tν(E` ), c’est-à-dire
2 
E sup η` N[0,s]×E` (Π∗ ) −s ≤ 4tη` .

s∈[0,t]

Comme lim` ν(E` ) = ν(E) P = ∞, lim` η` = 0. On peut donc choisir une suite d’entiers (`k )k≥1 stricte-
ment croissante telle que k∈N k 3 η`k < ∞ et on en déduit par Cauchy-Schwarz, Jensen et une interversion
série/espérance positive
hX i X  1 h X 2  12 i
sup η`kN[0,t]×E` (Π∗ ) −t ≤ k −2 E k 2 sup η`kN[0,t]×E` (Π∗ ) −t
2

E
k k
k≥1 t∈[0,k] k≥1 k≥1 t∈[0,k]
X 1  h X 2 i 12
k −2 k 2 sup η`kN[0,t]×E` (Π∗ ) −t
2

≤ E
k
k≥1 k≥1 t∈[0,k]
X 1  X 1
k −2
2 2
≤ k 3 η`k < ∞,
k≥1 k∈N

ce qui implique (IV.81). 

En appliquant le lemme IV.6.12 qui précède, P-p.s. limk supt∈[0,k] |ε0`kN[0,t]×E` (Π0 ) −t| = 0, où (`k )k≥1
k
est une suite strictement croissante d’entier. On en déduit que

sup ε0`kN[0,L0t ]×E` (Π0 ) −L0t −−−→ 0 .



P-p.s.
k k→∞
t∈[0,k]

Or pour tout t ∈ D, N[0,L0t ]×E` (Π0 ) = #{s ∈ [0, t] : Vs ∈ E`k } = N[0,t]×E` (V ) et comme ε0`k = cε`k , la limite
k k
(IV.65) implique que P-p.s. pour tout t ∈ D, cLt = L0t , ce qui implique que L0 = cL. Cela termine la preuve de
(iii) et celle du théorème. 
IV.7. QUELQUES EXERCICES. 173

IV.7 Quelques exercices.


Exercice.1 Paradoxe de l’inspection Soit (En )n≥1 , une suite i.i.d. de variables de loi exponentielle de paramètre
θ ∈ R∗+ . On pose
∀n ∈ N∗ , Tn = E1 + . . . + En et Π = Tn ; n ∈ N∗ ,


P est donc un nuage Poissonnien homogène sur R+ d’intensité θ. Pour tout t ∈ R+ , on note Nt =
qui
n≥1 1[0,t] (Tn ). On s’intéresse aux variables Rt et Dt définies par

Rt = t − TNt et Dt = TNt +1 − t ,

qui sont telles que Rt + Dt = ENt +1 .

1. Montrer que pour tout t ∈ R+ , Dt suit une loi exponentielle de paramètre θ, c’est-à-dire que Dt a même
loi que E1 .

2. Montrer que Rt a même loi que le maximum de t et d’une exponentielle de paramètre θ, c’est-à-dire que
Dt a même loi que t ∨ E1 .

3. Calculer en fonction de t et de θ, l’espérance E[ENt +1 ] et remarquer que

1
E[ENt +1 ] > = E[E1 ] ,
θ
ce qui peut sembler "paradoxal" à première vue.

4. Montrer que Dt et Rt sont indépendantes et prouver que lorsque t tend vers l’infini, ENt +1 converge vers
une loi de densité s 7→ θ2 se−θs . 

Exercice.2 (Statistiques d’ordre et processus de Poisson homogènes) Soit (Un )n≥1 , une suite de variables
i.i.d. de loi uniforme sur [0, 1]. Pour tout n ≥ 2, on rappelle la notation (U1(n) , . . . , Un(n) ) pour la statistique
d’ordre associée à (U1 , . . . , Un ). Pour des raisons pratiques, on pose U0(n) = 0 et Un+1 (n)
= 1. On se donne
également (En )n≥1 , une suite i.i.d. de variables de loi exponentielle de paramètre 1, et on pose

∀n ∈ N∗ , Tn = E1 + . . . + En et Π = Tn ; n ∈ N∗ ,


qui est donc un nuage Poissonnien homogène sur R+ d’intensité 1.

1. Montrer que pour tout n ≥ 2, on a l’identité en loi suivante

(loi) (n)
U1 , . . . , Un(n) .

(T1 /Tn+1 , . . . , Tn /Tn+1 ) =

2. Montrer que pour tout k ∈ N∗ , on a


(n) (loi)
n Uk −→ Tk .
n→∞

3. Montrer que pour tout x ∈ R∗+


n
1X (proba)
1{n(U (n) −U (n) )>x} −→ e−x .
n k k−1 n→∞
k=1
174 CHAPTER IV. NUAGES DE POISSON.

4. Montrer que
n (n) (n) (proba)
max (U − Uk−1 ) −→ 1.
log n 1≤k≤n+1 k n→∞

5. Montrer que
(n) (n) (loi)
n2 min (Uk − Uk−1 ) −→ exponentielle(1) .
1≤k≤n n→∞

IV.8 Sur les nuages Poissonniens.


Exercice.3 (*) On munit Rd de sa base canonique et de la norme Euclidienne associée, notée k·k. On note `d
la mesure de Lebesgue sur Rd . On note vd le volume de la boule unité. Si B(x, r) dénote la boule ouverte de
centre x et de rayon r, on a donc `d (B(x, r)) = vd rd . On rappelle la formule de changement de variable radial:
si f : R+ → R+ , est mesurable alors
Z Z
f (r)rd−1 `1 (dr) .

f kxk `d (dx) = dvd
Rd R+

Soit (Ω, F , P), un espace de probabilité sur lequel est défini un nuage Poissonnien Π : Ω → SRd d’intensité
`d . On pose

Π0 = kXk ; X ∈ Π .

1. Montrer que Π0 est presque sûrement égal à un nuage Poissonnien sur R+ dont on précisera l’intensité.

2. On note φ(r) = brβ . Pour quelles valeurs de b et de β, φ(Π0 ) est un nuage Poissonnien sur R+
d’intensité `1 ?

3. Montrer qu’il existe une suite (Xn )n≥1 de variables F -mesurables telles que 0 < kXn k < kXn+1 k,
n ∈ N∗ et Π = {Xn ; n ∈ N∗ } presque sûrement. Trouver la fonction de répartition de kXn k.

4. Montrer qu’il existe des constantes strictement positives cd et Cd , que l’on calculera, telles que

P-p.s. lim n−cd kXn k = Cd .


n→∞

5. Trouver la densité de kXn k.

6. On note µ la loi uniforme sur la sphère unité S(0, 1) = {x ∈ Rd : kxk = 1}. On rappelle que
si Z : Ω → B(0, 1) a pour loi (vd )−1 `d ( · ∩ B(0, 1)), alors (kZk)−1 Z a pour loi µ. Montrer qu’il
existe une suite (En )n≥1 , de variable i.i.d. de loi exponentielles de paramètre 1, et une suite (Zn )n≥1 , de
variable i.i.d. de loi µ, telles que (En )n≥1 et (Zn )n≥1 sont indépendantes et

Π = ad (E1 + . . . + En )γd · Zn ; n ∈ N∗ ,

P-p.s.

où on précisera les constantes ad et γd . 


IV.8. SUR LES NUAGES POISSONNIENS. 175

Exercice.4 (*) On note R∗ = R\{0}, R+ l’ensemble des réels positifs, R∗+ = R+ ∩ R∗ , l’ensemble des
réels strictement positifs. Pour tout β ∈ R∗+ , on définit la loi µβ sur R∗+ muni des Boréliens, par µβ (dt) =
1R∗+ (t)t−β `1 (dt), où ` désigne la mesure de Lebesgue sur R. On rappelle la définition de la fonction Γ d’Euler
sur R∗+ par l’intégrale Z ∞
Γ(u) = tu−1 e−t dt .
0
Pour tout nuage déterministe π ∈ SR∗+ tout c ∈ R∗+ et tout a ∈ R∗ , on pose

c · π = {cx; x ∈ π} et (π)a = {xa ; x ∈ π} .

Toutes les variables sont définies sur un même espace de probabilité (Ω, F , P). Pour tout β ∈ R∗+ , on se donne
Πβ : Ω → SR∗+ , un nuage Poissonnien d’intensité µβ . On pose
X
Sβ = X,
X∈Πβ

qui est une variable F -mesurable à valeurs dans [0, ∞].

1. Soient β1 , β2 ∈ R∗+ . Montrer qu’il existe c ∈ R∗+ et a ∈ R∗ , qui dépendent de β1 et β2 tels que
(loi) a
Πβ1 = c · Πβ2 .

2. Pour quels β ∈ R∗ a-t-on P(Sβ < ∞) = 1 ? Que vaut P(Sβ < ∞) si P(Sβ < ∞) < 1 .

3. On suppose que P(Sβ < ∞) = 1. Pour tout λ ∈ R+ , calculer E[exp(−λSβ )] en fonction de λ, β et


Γ(2 − β).

4. On fixe β ∈ R∗+ et pour tout a ∈ R∗ , on pose Sa,β = X∈Πβ X a . Pour quels a a-t-on P(Sa,β < ∞) = 1
P
?

5. On fixe β ∈ R∗+ . Trouver (c, a) ∈ R+ ∗ a


∗ × R tel que c · (Πβ ) soit un nuage Poissonnien d’intensité `1 .

6. On fixe β ∈ R∗+ . Montrer qu’il existe une suite de variables (Xn )n≥1 telles que P-presque sûrement,

∀n ∈ N∗ , Xn > Xn+1 , lim Xn = 0 et Πβ = Xn ; n ∈ N∗ .



n→∞

7. On fixe β ∈ R∗+ et on reprend les notations de la question précédente. Trouver la fonction de répartition
de Xn , sa densité et montrer qu’il existe deux constantes strictement positives c et C, que l’on précisera,
telles que
P-p.s. lim nc Xn = C .
n→∞

Exercice.5 Soient θ1 , θ2 ∈ R∗+ . Soit Π un nuage Poissonnien sur R+ × [0, θ1 + θ2 ] d’intensité 1R+ (dt)`(dt) ⊗
1[0,θ1 +θ2 ] (x)`(dx).

1. En utilisant un théorème du cours, montrer qu’il existe deux suites indépendantes des variable i.i.d. (En )n≥1
et (Xn )n≥1 telles que

• les En suivent une loi exponentielle de paramètre θ1 + θ2 ,


176 CHAPTER IV. NUAGES DE POISSON.

• les Xn sont uniformes dans [0, θ1 + θ2 ],


• si on pose Tn := E1 + . . . + En , alors Π = {(Tn , Xn ); n ≥ 1}.

2. On pose Π1 = {(Tn , Xn ) : Xn ∈ [0, θ1 ], n ≥ 1} et Π2 = {(Tn , Xn ) : Xn ∈]θ1 , θ1 + θ2 ], n ≥ 1}.


Montrer que ce sont deux nuages de Poisson indépendants dont on précisera les intensités.

3. On pose S = inf{n ≥ 1 : Xn ∈]θ1 , θ1 + θ2 ]}. Quelle est la loi de S ? Quelle est la loi de TS
? Conditionnellement à TS , quelle est la loi de #Π ∩ [0, TS [ ? (aucun calcul n’est nécessaire pour
résoudre cette question).

4. Soit G : Ω → N∗ , un variable géométrique de paramètre p ∈ ]0, 1[ , c’est-à-dire P(G = n) = p(1 − p)n ,


n ∈ N∗ . Soit (E 0 )n≥1 une suite i.i.d. de variables indépendante de G et de loi exponentielles de paramètre
θ. On pose X
E = En0 .
1≤n≤G

Quelle est la loi de E ? Conditionnellement à E , quelle est la loi de G−1 ? (aucun calcul n’est nécessaire
pour résoudre cette question).

Exercice.6 Soit Π un nuage Poissonnien sur R d’intensité la mesure de Lebesgue. On imagine un glouton
partant de l’origine 0 qui mange les points de Π de proche en proche: il mange d’abord le point de Π le plus
proche de 0, puis le plus proche parmi les points qui restent ... et ainsi de suite. On se demande s’il mange ainsi
tous les points de Π.
Formellement, on note Yn , n ≥ 0 la suite des points mangés par le glouton: on a Y0 = 0, Y1 est le point de
Π le plus proche de 0 et si n ≥ 1, Yn+1 est le point de Π\{Y1 , . . . , Yn } le plus proche de Yn .
Au temps n, le glouton se trouve au bord du "trou" qu’il a déjà exploré: c’est un intervalle In contenant
0 et dont les extrémités sont deux points de Π. Si le glouton est dans R+ , alors le trou est sur sa gauche et à
sa droite, il reste une partie inexplorée de Π. De même si le glouton est dans R− , il est à gauche de 0 et à sa
gauche, il reste une partie inexplorée de Π. On dit qu’il effectue une traversée, si à l’instant n il est à gauche
du trou (resp. à droite) et qu’à l’instant n + 1 il se retrouve à droite (resp. à gauche) du trou.

1. Montrer qu’il existe une suite d’exponentielles (En )n≥0 indépendantes de paramètre 1 telles que `(In ) =
E0 + E1 + . . . + En .

2. Montrer que le glouton effectue une traversée entre n et n + 1 ssi En+1 > `(In ).

3. Montrer que P-p.s. le glouton ne visite pas tous les points de Π et qu’il en laisse même une infinité de
côté.
Chapter V

Processus de Lévy.

V.1 Définitions et lois infiniment divisibles.


V.1.a Définitions des processus de Lévy, premières propriétés.
Définition V.1.1 (Processus de Lévy) Soit (Ω, F , P), un espace de probabilité sur lequel est défini un proces-
sus X = (Xt )t∈R+ à valeurs dans Rd . C’est un processus de Lévy s’il satisfait les conditions suivantes.

(a) X est P-p.s. càdlàg.

(b) Pour tous s, t ∈ R+ , Xt+s −Xt a même loi que Xs −X0 .

(c) Pour tous t0 = 0 ≤ t1 ≤ . . . ≤ tn , les v.a. Xt0 , Xt1 −Xt0 , Xt2 −Xt1 , . . . , Xtn −Xtn−1 sont indépendantes.


On montre facilement la propriété élémentaire suivante.

Lemme V.1.2 Soit (Ω, F , P), un espace de probabilité. Soit X = (Xt )t∈R+ un processus défini sur cet espace
à valeurs dans Rd . On le suppose P-p.s. càdlàg. On rappelle que (Fto (X))t∈R+ est la filtration naturelle de
X. Alors, les assertions suivantes sont équivalentes.

(a) X est un processus de Lévy.

(b) Pour tous s, t ∈ R+ , Xt+s −Xt est indépendant de Fto (X) et même loi que Xs −X0

Preuve: exercice. 
Cette propriété suggère d’introduire la deuxième définition qui suit.

Définition V.1.3 (Processus de Lévy relativement à une filtration) Soit (Ω, F , P), un espace de probabilité sur
lequel est défini un processus X = (Xt )t∈R+ à valeurs dans Rd . Soit (Gt )t∈R+ , une filtration sur (Ω, F ). C’est
un processus de Lévy relativement à la filtration (Gt )t∈R+ s’il satisfait les conditions suivantes.

(a) X est un processus (Gt )t∈R+ -adapté et il est P-p.s. càdlàg.

(b) Pour tous s, t ∈ R+ , Xt+s −Xt est indépendant de Gt et a même loi que Xs −X0 . 

177
178 CHAPTER V. PROCESSUS DE LÉVY.

Le lemme V.1.2 montre qu’un processus de Lévy selon la première définition V.1.3 est un processus de Lévy
relativement à sa filtration naturelle. Le lemme suivant affirme que les processus de Lévy sont des processus de
Feller.

Lemme V.1.4 Soit X = (Xt )t∈R+ , un processus de Lévy à valeurs dans Rd et défini sur l’espace de probabilité
(Ω, F , P). Pour toute fonction f ∈ C0 (Rd ), tout t ∈ Rd et tout x ∈ Rd , on pose
 
Pt f (x) = E f (x + Xt −X0 ) .
Alors, (Pt )t∈R+ est un semi-groupe de Feller-Dynkin conservatif.
Preuve: le théorème de convergence dominée entraine facilement que Pt f ∈ C0 (Rd ). La continuité à droite de
X ainsi que le théorème de convergence dominée implique facilement que pour tout x ∈ Rd , limt→0+ Pt f (x) =
f (x). Il reste donc à vérifier la propriété de semi-groupe: pour cela on fixe s, t ∈ R+ et x ∈ Rd ; la propriété (b)
du lemme V.1.2 implique que
E f (x + Xt+s −X0 ) Fto (X) = E f (x + Xt+s −Xt + Xt −X0 ) Fto (X) = Ps f x + Xt −X0
    

ce qui implique que Pt+s f (x) = Pt (Ps f )(x). Le semi-groupe (Pt )t∈R+ est clairement conservatif. 

Définition V.1.5 (Processus de Lévy comme processus de Feller) Soit


Ω; F ; (Gt )t∈R+ ; (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (Rd ) ,


un processus de Feller-Dynkin conservatif càdlàg satisfaisant les hypothèses habituelles. C’est un processus de
Lévy si pour toute µ ∈ M1 (Rd ) et tous t, s ∈ R+ , sous Pµ , Xt+s −Xt est indépendant de Gt et à même loi que
Xs sous P0 . 
La propriété de Markov forte peut se réécrire de la manière suivante.

Proposition V.1.6 On reprend les notation de la définition V.1.5 qui précède. Soit T : Ω → R+ , un (Gt )t∈R+ -
temps d’arrêt fini partout. Pour toute µ ∈ M1 (Rd ), le processus XT +· −XT sous Pµ est indépendant de GT et
a même loi que X sous P0 .
Preuve: il est facile de déduire de la définition V.1.5 que pour tous tn ≥ . . . ≥ t1 ≥ 0, (Xtn −X0 , . . . , Xt1 −X0 )
sous Pµ a même loi que (Xtn , . . . , Xt1 ) sous P0 (on peut faire une récurrence sur n). On en déduit que X·−X0
sous Pµ a même loi que X sous P0 . Soit A ∈ GT et F : (Rd )R+ → R, une fonction B(Rd )⊗R+ -mesurable
bornée. La propriété de Markov forte et ce qui précède impliquent que Pµ -p.s.
Eµ 1A F (XT +· −XT ) GT = 1A EXT F (X· −X0 ) = 1A E0 [F (X)] ,
   

ce qui entraîne le résultat voulu lorsque qu’on prend l’espérance de cette égalité. 

V.1.b Lois infiniment divisibles, semi-groupes de convolution et processus de Lévy.


Un outil important utilisé dans ce chapitre est la transformée de Fourier: pour toute mesure µ ∈ M1 (Rd ) on la
note µ
b: Z
∀u ∈ Rd , µ
b(u) = eihu,xi µ(dx) .
Rd
On rappelle l’injectivité de la transformée de Fourier des mesures finies sur Rd : pour toutes µ, ν ∈ M1 (Rd ),
 
b = νb ⇐⇒ µ = ν .
µ
On utilise aussi le:
V.1. DÉFINITIONS ET LOIS INFINIMENT DIVISIBLES. 179

Théorème de Paul Lévy: soient νn ∈ M1 (Rd ), n ∈ N; on suppose que les transformées de Fourier νbn
convergent ponctuellement sur Rd vers une fonction f qui est continue dans un voisinage de 0; alors il
existe ν ∈ M1 (Rd ) telle que limn→∞ νn = ν étroitement et on donc νb = f .

Définition V.1.7 (Lois infiniment divisibles) La loi µ ∈ M1 (Rd ) est dite infiniment divisible s’il existe une suite
de lois µn ∈ M1 (Rd ), n ≥ 2 telles que µ = µ∗n
n , où ∗ est le produit de convolution sur M1 (R ).
d 

Commençons par prouver la propriété suivante sur la transformée de Fourier d’une loi infiniment divisible.

Lemme V.1.8 Soit µ ∈ M1 (Rd ), infiniment divisible. Alors sa transformée de Fourier µ


b ne s’annule pas.
Preuve: pour toute mesure ν ∈ M1 (Rd ), on note ν s = ν ∗ (ν(−·)) où ν(−·) est la mesure image de ν par
x 7→ −x. On remarqe que νbs = |b ν |2 . Soient µn ∈ M1 (Rd ) telles que µ = µ∗n
n , n ≥ 2. La commutativité du produit
s ∗n
de convolution implique facilement que µ = (µn ) . Donc pour tout u ∈ Rd , on a |b
s µ(u)|2 = µ
cs (u) = µcsn (u)n .
Comme il s’agit de quantités positives, on peut en prendre la racine n-ième et on constate que pour tout u ∈ Rd
la limite suivante a lieu: limn→∞ µ csn (u) = 1{bµ(u)6=0} . Or dans un voisinage de 0, µ
b est non-nulle (car µ
b(0) = 1
d
b est continue); par conséquent, la fonction u ∈ R 7→ 1{bµ(u)6=0} vaut 1 dans une voisinage de 0: elle y est
et µ
donc continue et le théorème de P. Lévy rappelé ci-dessus implique que µsn → ν étroitement pour une certaine
loi ν. Pour tout u ∈ Rd , on a donc νb(u) = 1{bµ(u)6=0} . Comme νb est continue cela implique le résultat voulu. 

Nous caractérisons plus loin les mesures infiniment divisibles via leur transformée de Fourier: c’est la
formule de Lévy-Khintchine, qui est prouvé dans ce cours en même temps que la construction des processus
de Lévy. Plus précisément, la formule de Lévy-Khintchine donne la forme de l’exposant caractéristique des
mesures infiniment divisible, exposant défini dans la proposition suivante.

Proposition V.1.9 (Existence de l’exposant caractéristique des lois infiniment divisibles) Soit µ ∈ M1 (Rd ) infiniment
divisible. Il existe une fonction continue ψ : Rd → C telle que
Z
∀u ∈ Rd , µ b(u) = eihu,xi µ(dx) = exp ψ(u) .

Rd

La fonction ψ est appelée exposant caractéristique de la loi infiniment divisible µ.


Preuve: Comme u 7→ µ b(u) est continue et non-nulle par le lemme V.1.8, il en est de même pour u 7→
f (u) = µ µ(u)|. On a donc f : Rd → C continue telle que |f | = 1; le théorème du relèvement implique
b(u)/|b
l’existence d’une fonction continue g : Rd → R telle que f (u) = exp(ig(u)), u ∈ Rd . On pose alors ψ(u) =
µ(u)| + ig(u), u ∈ Rd qui satisfait les propriétés désirées.
log |b 

Proposition V.1.10 (Semi-groupe de convolution et processus de Lévy) Soit µ ∈ M1 (Rd ), une mesure infiniment
divisible. Alors, pour tout t ∈ R+ , il existe une unique famille de mesures µt ∈ M1 (Rd ) telles que

(a) µt ∗ µs = µs+t , pour tous s, t ∈ R+ ;

(b) µ0 = δ0 et µ1 = µ;

(c) t ∈ R+ 7−→ µt est continu pour la convergence en loi sur M1 (Rd ) et on a

∀t ∈ R+ , ∀u ∈ Rd , bt (u) = etψ(u)
µ

où ψ est l’exposant caractéristique de µ.


180 CHAPTER V. PROCESSUS DE LÉVY.

La famille de lois (µt )t∈R+ est appelé un semi-groupe de convolution associé à µ. Pour toute f ∈ C0 (Rd ),
tout t ∈ R+ et tout x ∈ Rd , on pose Pt f (x) := Rd f (x + y)µt (dy). Alors (Pt )t∈R+ est le semi-groupe d’un
R

processus de Lévy.
Réciproquement, si X est un processus de Lévy tel que X0 = 0, alors la loi ν de X1 est infiniment divisible
et les lois νt de Xt , t ∈ R+ , forment le semi-groupe de convolution associé à ν. Si on note ψ l’exposant
caractéristique de ν, alors la loi de X est caractérisée par ψ appelé l’exposant caractéristique de X. On a
donc
∀u ∈ Rd , ∀t ∈ R+ , E eihu,Xt i = etψ(u) .
 

Il y a donc une correspondance bijective entre les exposants caractéristiques des lois infiniment divisibles
sur Rd et les semi-groupe des processus de Lévy à valeurs dans Rd .
Preuve: pour tout n ≥ 2, soit µn ∈ M1 (Rd ) telle que µ = µ∗n
n . On note par ailleurs ψ l’exposant caractéristique
de µ comme à la proposition V.1.9. Pour tout u ∈ Rd , on a donc µ bn (u)n = µb(u) = exp(ψ(u)). Comme ψ et
d
bn sont des fonctions continues, on en déduit que u ∈ R 7→ µ
µ bn (u) exp(− n1 ψ(u)) est une fonction continue
à valeurs dans l’ensemble discret des racines nième de l’unité: cette fonction est donc contante et comme elle
vaut 1 en l’origine, on a
1
∀n ≥ 2, ∀u ∈ Rd , µ bn (u) = e n ψ(u) . (V.1)
Pour tout m ∈ N, on pose µm/n := µ∗m n et par (V.1), on a µ bm/n (u) = exp( m d
n ψ(u)), u ∈ R . Par injectivité de

la transformée de Fourier des mesures finies sur Rd , il existe donc une unique famille de mesures µr ∈ M1 (Rd ),
br (u) = exp rψ(u) , u ∈ Rd .

r ∈ Q+ , telles que µ
Soit t ∈ R+ et rn ∈ Q+ , n ∈ N, une suite de rationnels tels que limn rn = t. Pour tout u ∈ Rd , on a
donc limn µ brn (u) = exp(tψ(u)). Le théorème de P. Lévy implique implique l’existence d’une unique mesure
µt ∈ M1 (Rd ) telle que µ bt (u) = exp(tψ(u)), u ∈ Rd . L’injectivité de la transformée de Fourier implique encore
que µ0 = δ0 et µ1 = µ. Comme pour tout u ∈ Rd , t 7→ µ bt (u) est continue, le théorème de P. Lévy implique que
t 7→ µt est continu pour la convergence étroite. Enfin, pour tous s, t ∈ R+ et pour tout u ∈ Rd , µ bs (u)bµt (u) =
exp((s + t)ψ(u)) = µ bs+t (u) et l’injectivité de la transformée de Fourier implique que µt ∗µs = µt+s , ce qui
prouve le premier point de la proposition. P
Soit X est un processus de Lévy issu de 0. On a Xt = 1≤k≤n Xkt/n − X(k−1)t/n . Comme les ac-
croissements sont indépendants et homogènes en loi, la loi νt de Xt est une loi infiniment divisible. De même
Xt+s = Xt+s −Xt + Xt : comme la v.a. Xt+s −Xt est indépendante de Xt et puisqu’elle a même loi que Xs ,
c’est-à-dire νs , on a bien νt+s = νt ∗ νt . Le reste des assertions du théorème suivent immédiatement. 

V.2 Structure des processus de Lévy.


V.2.a Caractérisation des processus de Lévy continus.
On rappelle que k·k est la norme Euclidienne associée au produit scalaire canonique h·, ·i sur Rd . Dans cette
section,
Ω; F ; (Gt )t∈R+ ; (Xt )t∈R+ ; (Pt )t∈R+ ; Pµ , µ ∈ M1 (Rd ) ,


désigne un processus de Lévy, vu comme un processus de Feller-Dynkin (comme à la définition V.1.5). Le


théorème concerne les processus de Lévy dont les sauts sont bornés

Théorème V.2.1 On suppose que X a des saut bornés, c’est-à-dire qu’il existe c > 0 tel que

P0 -p.s. ∀t ∈ R+ , k∆Xt k ≤ c ,
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 181

où on rappelle que ∆Xt := Xt −Xt− est le saut (éventuel) de X  en t. Alors, X a des moment exponentiels,
k
 θkX
c’est-à-dire il existe un réel θ > 0 tel que supt∈[0,t0 ] E0 e t , pour tout t0 ∈ R+ . Cela que X admet des
moments de tous ordres:
sup E0 kXt kp < ∞ .
 
∀p ∈ N, ∀t0 ∈ R+ , (V.2)
t∈[0,t0 ]

Preuve: on définit par récurrence la suite de temps (Tn )n∈N par T0 := 0 et



Tn+1 = inf t > Tn : kXt −XTn k > 1 ,

avec la convention inf ∅ = ∞. Il est facile de montrer que les Tn sont des (Gt )t∈R+ -temps d’arrêt. On remarque
que si Tn < ∞, alors Tn+1 −Tn = T1 (X·+Tn −XTn ), avec une notation évidente. Donc, pour toute loi initiale
µ ∈ M1 (Rd ) et pour toute fonction f : [0, ∞] → R+ mesurable, la proprité de Markov en Tn pour les processus
de Lévy (proposition V.1.6, page 178) implique que

Pµ -p.s. Eµ 1{Tn <∞} f (Tn+1 −Tn ) GTn = 1{Tn <∞} E0 [f (T1 )].
 
(V.3)

On pose alors a = E0 [e−T1 1{T1 <∞} ]. Si a = 0, alors P0 (T1 = ∞) et donc P0 -p.s. pour tout t ∈ R+ , kXt k ≤ 1,
ce qui implique (V.2). Supposons que a > 0. Comme X est continu à droite au temps 0, on a P0 (T1 > 0) = 1 et
donc a < 1. La propriété de Markov (V.3) implique que

E0 1{Tn+1 <∞} e−Tn+1 GTn ] = 1{Tn <∞} e−Tn E0 1{T1 <∞} e−T1 = 1{Tn <∞} e−Tn a ,
  

ce qui entraîne que E0 1{Tn <∞} e−Tn = an , pour tout n ∈ N.


 

Raisonnons ensuite sur l’événement {Tn < ∞}: pour tout k ≤ n, on a Tk < ∞ et kXt − XTk−1 k ≤ 1,
t ∈ [Tk−1 , Tk [ , ce qui implique que kXTk − − XTk−1 k ≤ 1. Puisque k∆XTk k ≤ c, on en déduit que kXTk −
XTk−1 k ≤ 1 + c. Cela prouve que P0 -p.s. sur l’événement {Tn ≤ t < Tn+1 },
X
kXt k ≤ kXt −XTn k + kXTk −XTk−1 k ≤ 1 + n(1 + c) ≤ (n + 1)(1 + c)
1≤k≤n

Donc pour tout n ∈ N et tout t ∈ R+ , P0 -p.s. 1{kXt k>(1+c)(n+1)} ≤ 1{t≥Tn+1 } ≤ et−Tn+1 1{Tn+1 <∞} . En
prenant l’espérance, les résultats précédents impliquent pour tous n ∈ N et tout t ∈ R+ ,

P0 kXt k > (1 + c)(n + 1) ≤ et an+1 .




Pour simplifier les notations, on pose b := (1 + c)−1 . Soit θ > 0 tel que eθ a < 1. Fubini positif implique alors

 bθkXt k  hZ ∞ i Z ∞
θx
dx θeθx P0 bkXt k > x

E0 e − 1 = E0 dx θe 1{bkXt k>x} =
X 0 0
X
θ(n+1)
θeθ(n+1) et an < ∞

≤ θe P0 kXt k > (1 + c)n ≤ θ +
n≥0 n≥1

Cela prouve que X admet des moments exponentiels et (V.2) en découle simplement. 

On rappelle le lemme III.3.4, page 116, qui permet de définir l’opérateur caractéristique (voir la définition
III.3.5, page 116). On démontre le théorème suivant par le calcul explicite de l’opérateur caractéristique de
Dynkin d’un processus de Lévy continu en dimension 1.
182 CHAPTER V. PROCESSUS DE LÉVY.

Théorème V.2.2 On se place en dimension d = 1. On suppose que le processus de Lévy X est continu. Alors,
pour tout t ∈ R+ , E0 [X12 ] < ∞ et on pose alors
p
v := E0 [X1 ] et β := E0 [(X1 −v)2 ] ,

Les assertions suivantes sont vérifiées.

(i) Si β = 0, alors pour toute mesure µ ∈ M1 (R), Pµ -p.s. Xt −X0 = vt, t ∈ R+ .

(ii) Si β > 0, alors Xt = X0 + βBt + vt, t ∈ R+ , où le processus (Bt )t∈R+ est tel que pour toute µ ∈ M1 (R),
sous Pµ , (Bt )t∈R+ est un (Gt )t∈R+ -mouvement Brownien à valeurs dans R, issu de 0 et indépendant de
X0 .

Preuve: nous donnons une preuve ne faisant pas appel au calcul stochastique. Puisque X n’a pas de saut, il
des moments de tous ordres, d’après le théorème V.2.1 qui précède. Pour tout t ∈ R+ , on peut donc poser
f (t) := E0 [Xt ] et g(t) := var(Xt ). Comme sous P0 , Xt+s −Xt est indépendant de X·∧t et a même loi que
Xs , on en déduit que f (t + s) = f (t) + f (s) et g(t + s) = g(t) + g(s). On fixe, C := supt∈[0,1] E0 [Xt2 ]
et on remarque que pour tout t ∈ [0, 1], E0 [Xt2 ] = f (t)2 + g(t) ≤ C. Si on pose n = b1/tc, alors nt

≤ 1.
2 2 C
Comme f (nt) = nf (t) et g(nt) = ng(t) on en déduit n f (t) + ng(t) ≤ C. Par conséquent, |f (t)| ≤ b1/tc et
C
g(t) ≤ b1/tc . Cela implique que limt→0+ f (t) = 0 et limt→0+ g(t) = 0. Un argument élémentaire entraîne que
f et g sont des fonctions linéaires: si on note v := f (1) := E0 [X1 ] et β 2 := g(1) = var(X1 ), on a donc

∀t ∈ R+ , E0 [Xt ] = vt et E0 [(Xt − vt)2 ] = β 2 t .

Si β = 0, alors clairement P0 -p.s. Xt = vt pour tout t ∈ R+ et cela prouve (i). On suppose désormais que β > 0
et on pose pour tout t ∈ R+ , Yt = X0 + β −1 (Xt −X0 −vt). On vérifie immédiatement que Y est un processus
de Lévy continu défini sur le même espace que X et relativement à la même filtration; on a E0 [Yt ] = 0 et
E0 [Yt2 ] = t, pour tout t ∈ R+ . Donc P0 -p.s. Y n’est pas constant et il n’a aucun point absorbant.
Pour tout réel h > 0, on pose τh := inf{t ∈ R+ : |Yt −Y0 | ≥ h}, avec la convention que inf ∅ = ∞. Il s’agit
clairement un (Gt )t∈R+ -temps d’arrêt. Le lemme III.3.4, page 116, implique l’existence de h0 > 0 tel que pour
tout h ∈ ]0, h0 [ , on a E0 [τh ] < ∞. On fixe x ∈ R. Comme Y −Y0 sous Px a même loi que Y sous P0 , on a a
également Ex [τh ] = E0 [τh ]. On vérifie également que sous Px , Y est une (Gt )t∈R+ -martingale continue; il en
est donc de même pour (Yt∧τh )t∈R+ et pour tout t ∈ R+ , on a Ex [Yt∧τh ] = x. Or la continuité de Y implique
que Px -p.s. pour tout t ∈ R+ , Yt∧τh | ∈ [x−h, x + h] et comme Px -p.s. τh < ∞, on a Yτh ∈ {x−h, x + h}. Par
convergence dominée on a donc
 
x = lim Ex [Yt∧τh ] = Ex [Yτh ] = x−hPx Yτh = x−h + hPx Yτh = x + h .
t→∞

On a donc montré
  1
∀x ∈ R, ∀h ∈ ]0, h0 [ , Px Yτh = x−h = Px Yτh = x + h = 2
. (V.4)

On remarque ensuite facilement que sous Px , (Yt2−t)t∈R+ est également une (Gt )t∈R+ -martingale continue:
2 2 = E Y2 2

il en est donc de même pour (Yt∧τ h
− t ∧ τ )
h t∈R+ . Donc x x t∧τh − t ∧ τh et donc Ex [Yt∧τh ] =
x2 + Ex [t ∧ τh ]. Or Px -p.s. pour tout t ∈ R+ , Yt∧τ2
h
≤ (|x| + h)2 . Par convergence dominée on a donc
2 2
limt→∞ Ex [Yt∧τh ] = Ex [Yτh ] et par convergence monotone on a limt→∞ Ex [t ∧ τh ] = Ex [τh ]. On en déduit
donc par (V.4)
1 1
x2 + Ex [τh ] = Ex [Yτ2h ] = 2 (x−h)2 + 2 (x+h)2 = x2 + h2 .
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 183

On a donc montré
∀x ∈ R, ∀h ∈ ]0, h0 [ , Ex [τh ] = h2 . (V.5)
On note L l’opérateur caractéristique de Y comme à la définition III.3.5, page 116 et on note DL ⊂ C0 (R)
son domaine: puisqu’il n’y a pas de point absorbant, on a
  Ex [f (Xτh )]−f (x) 
f ∈ DL et Lf = g ⇐⇒ ∀x ∈ R , g(x) = lim .
h→0+ Ex [τh ]

On rappelle le théorème III.2.15, page 114, qui montre que le générateur G du mouvement Brownien sur R est
de domaine
1
D := f ∈ C0 (R) : f 00 ∈ C0 (Rd ) ∀f ∈ D, Gf = 2 f 00 .


On fixe ensuite f ∈ D. Par (V.4) et (V.5), on a pour tout x ∈ R et tout h ∈ ]0, h0 [ ,

Ex [f (Xτh )]−f (x) 1


= 2 h−2 f (x−h) + f (x + h)−2f (x) .

Ex [τh ]

La formule de Taylor en x implique que limh→0+ (Ex [f (Xτh )]−f (x))/Ex [τh ] = 21 f 00 (x). Cela montre que

D ⊂ DL et ∀f ∈ D, Lf = Gf .

Comme (DL , L) satisfait clairement le principe du maximum, le lemme III.2.4, page 107 implique que D = DL
et G = L. Comme un semi-groupe de Feller-Dynkin est caractérisés par son générateur (théorème de Hille-
Yosida III.1.22, page 100) Y a le même semi-groupe qu’un mouvement Brownien sur R, ce qui permet de
conclure. 

Le théorème précédent se généralise aux processus de Lévy continus à valeurs dans Rd . Pour cela, rappelons
quelques faits d’algèbre linéaire: soit M = (mi,j )1≤i≤r,1≤j≤d un matrice de taille r × d. On note M ∗ sa
transposée qui est la matrice de taille d×r dont les coefficients sont m∗i,j = mj,i , 1 ≤ j ≤ r, 1 ≤ i ≤ d. Si
on note de la même manière le produit scalaire canonique sur Rr et Rd , alors hu, M vi = hM ∗ u, vi, u ∈ Rd ,
v ∈ Rr . On note diag(a1 , . . . , ad ), la matrice diagonale dont les coefficients diagonaux sont a1 , . . . , ad ∈ R. Si
a1 = . . . = ar = 1 et ar+1 = . . . = ad = 0, alors on pose Ir = diag(a1 , . . . , ad ), si bien que Id est l’identité sur Rd .
On utilise le lemme suivant.

Lemme V.2.3 Soit Γ, une matrice symétrique positive de taille d. On note r le rang de Γ. Alors il existe M de
taille d×r et N de taille r×d telles que

MM∗ =Γ , N ΓN ∗ = IdRr et MNΓ = Γ

Preuve: ses valeurs propres sont des réels positifs et on note λ1 ≥ . . . ≥ λ1 > 0 les r valeurs propres
non-nulles, comptée avec leur multiplicité et dans l’ordre décroissant. On définit deux matrices d × d, en
1/2 1/2 −1/2 −1/2
posant ∆0 := diag(λ1 , . . . , λr , 0, . . . , 0) et ∆1 := diag(λ1 , . . . , λr , 0, . . . , 0), si bien que ∆0 ∆1 =
diag(1, . . . , 1, 0, . . . , 0) =: Ir . Comme Γ est symétrique, elle est diagonalisable dans le groupe orthogonal et
il existe une matrice orthogonale O telle que O∗ ΓO = ∆20 . On pose ensuite M0 = O∆0 et M1 := ∆1 O∗ , qui
satisfont M0 M0∗ = Γ et M1 ΓM1∗ = Ir .
On note ensuite R l’application qui à (x1 , . . . , xd ) associe (x1 , . . . , xr ). C’est une matrice r × d et R∗
associe à (x1 , . . . , xr ) le vecteur (x1 , . . . , xr , 0 . . . , 0) ∈ Rd . On pose M = M0 R∗ et N = RM1 . Alors
184 CHAPTER V. PROCESSUS DE LÉVY.

M M ∗ = M0 RR∗ M0 = O∆0 RR∗ ∆0 O∗ . Or ∆0 RR∗ ∆0 = diag(λ1 , . . . , λr , 0, . . . , 0) = ∆20 . Cela implique


donc que M M ∗ = Γ. On vérifie également: N ΓN ∗ = RM1 ΓM1∗ R∗ = RIr R∗ = IdRr . De plus,

M N Γ = M0 R∗ RM1 Γ = M0 Ir M1 Γ = O∆0 Ir ∆1 O∗ Γ = OIr O∗ Γ = OIr ∆20 O∗ = O∆20 O∗ = Γ ,

ce qui termine la preuve. 

Soit Y := (Y1 , . . . , Yd ), un vecteur aléatoire à valeurs dans Rd tel que E[kY k2 ] < ∞. Sa matrice de
covariance Γ = (cov(Yi , Yj ))1≤i,j≤d . Alors, on rappelle que

∀u ∈ Rd , cov(hu, Y i) = hu, Γui . (V.6)

et Γ est une matrice positive symétrique.

Théorème V.2.4 (Caractérisation des proc. de Lévy continus) On se place en dimension d ≥ 2. On suppose que
(1) (d)
le processus de Lévy X est continu. On note X1 = (X1 , . . . , X1 ) les composantes du vecteur X1 . Alors,
E0 [kX1 k2 ] < ∞, on pose
(1) (d)  (i) (j) 
v := E0 [X1 ] = E0 [X1 ], . . . , E0 [X1 ] et Γ := cov(X1 , X1 ) 1≤i,j≤d

la matrice de covariance étant sous P0 . Les assertions suivantes sont vérifiées.

(i) Si Γ = 0, alors pour toute mesure µ ∈ M1 (Rd ), Pµ -p.s. pour tout t ∈ R+ , Xt = tv, t ∈ R+ .

(ii) Supposons que Γ 6= 0 et notons r le rang de Γ, si bien que 1 ≤ r ≤ d. En application du lemme V.2.3, il
existe deux matrices réelles M et N de tailles respectives r×d et d×r telles que pour toute µ ∈ M1 (Rd ),

Pµ -p.s. ∀t ∈ R+ , Xt = X0 + M Bt + tv (V.7)

où Bt := N (Xt −X0 −tv), t ∈ R+ , est sous Pµ un (Gt )t∈R+ -mouvement Brownien à valeurs dans Rr ,
issu de 0 et indépendant de X0 .

Dans les deux cas, on a


1
∀t ∈ R+, ∀u ∈ Rd ,
  
Eµ exp ithu, Xt −X0 i = exp ihu, vi− 2 thu, Γui . (V.8)

Preuve: le théorème V.2.1 implique que E0 [kXt k2 ] < ∞, pour tout t ∈ R+ , ce qui permet de définir v et Γ et
(V.6) implique:
E0 [hu, X1 i] = hu, vi et E0 hu, X1 −vi2 = hu, Γui .
 
(V.9)
Or pour tout u ∈ Rd , (hu, Xt i)t∈R+ est un processus de Lévy continu à valeurs réelles. Si Γ = 0, la variance de
hu, X1 i et nulle et le théorème V.2.2 implique que pour toute mesure µ ∈ M1 (Rd ), Pµ -p.s. pour tout t ∈ R+ ,
hu, Xt −X0 −tvi = 0. Donc Pµ -p.s. pour tout t ∈ Q+ et tout u ∈ Qd ,hu, Xt −X0 −tvi = 0, ce qui implique (i)
par continuité.
On suppose ensuite que Γ n’est pas nulle et on note r son rang. On note M et N comme dans le lemme
V.2.3. On pose Bt := N (Xt − X0 − tv), t ∈ R+ , qui est un processus continu à valeurs dans Rr . Pour tout
u ∈ Rr , on observe que sous P0 , (hu, Bt i)t∈R+ est processus de Lévy continu issu de 0 et par (V.6) et (V.9), on
a E0 [hu, B1 i] = 0 et

E0 hu, B1 i2 = E0 hu, N (X1 −v)i2 = E0 hN ∗ u, X1 −vi2 = cov(hN ∗ u, X1 i)


     
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 185

= hN ∗ u, ΓN ∗ ui = hu, N ΓN ∗ ui = kuk2 = u21 + . . . + u2r ,

On déduit du théorème V.2.2 que (kuk−1 hu, Bt i)t∈R+ est égal à un mouvement Brownien issu de 0 (cas où
β = kuk et v = 0). Pour tout u ∈ Rr , on a E0 [exp(ihu, Bt i)] = exp(− 12 tkuk2 ), ce qui implique facilement que
B est un mouvement Brownien standard à valeurs dans Rd et issu de 0.
On pose ensuite Zt = M Bt − (Xt − X0 − tv), t ∈ R. On constate que Z est un (Gt )t∈R+ -processus de Lévy
qui est continu. En fait on a E[Zt ] = 0 et Zt = (M N − Id )(Xt − X0 − tv) et Z1 est de matrice de covariance

(M N − Id )Γ(M N − Id)∗ = M N ΓN ∗ M ∗ − M N Γ − ΓN ∗ M ∗ + Γ = 0

par le lemme V.2.3: car M N Γ = Γ implique, par transposition, que ΓN ∗ M ∗ = Γ et donc M N ΓN ∗ M ∗ = Γ.


Donc Z est un processus de covariance nulle et de moyenne nulle: par le (i), il est Pµ -p.s. nul pour toute
mesure µ ∈ M1 (Rd ), ce qui implique (ii).
On a donc pour tout u ∈ Rd et tout t ∈ R+ ,
h i h i h ∗
i
Eµ eihu,Xt −X0 i = eithu,vi E eihu,M Bt i = eithu,vi E eihM u,Bt i
1 ∗ uk2 1
= eihu,vi− 2 tkM = eihu,vi− 2 thu,Γui

par le lemme V.2.3, ce qui implique (V.8). 

V.2.b Décomposition des processus de Lévy, formule de Lévy Khintchine.


Dans cette section, on fixe

Ω; F ; (Gt )t∈R+ ; (Xt )t∈R+ ; (Pt )t∈R+ ; (θt )t∈R+ ; Pµ , µ ∈ M1 (Rd ) ,




un processus de Lévy à valeurs dans Rd . On introduit les notations suivantes.


• On note ∆Xt := Xt −Xt− , le saut éventuel de X en t ∈ R+ .
• On note ` la mesure de Lebesgues sur les Boréliens de R+ .
• Pour tout ε > 0, on pose Uε = {x ∈ Rd : kxk > ε}, où k·k est la norme Euclidienne associée au produit scalaire
canonique h·, ·i.
• Soit T , un (Gt )t∈R+ -temps d’arrêt. Soit µ ∈ M1 (Rd ). On suppose que Pµ (T < ∞) = 1. On pose XtT :=
XT +t −XT , t ∈ R+ . On rappelle la proposition V.1.6, page 178, qui affirme que sous Pµ , X T est un processus
indépendant de GT et de même loi que X sous P0 .
Le but de cette section est de montrer qu’un processus de Lévy se décompose en la somme de deux pro-
cessus de Lévy indépendants: l’un continu, l’autre ne progressant que par les sauts du processus. Nous carac-
térisons également l’exposant caractéristique des processus de Lévy en montrant au passage la formule de Lévy-
Khintchine donnant une description des exposants caractéristiques des lois infiniment divisibles. La preuve se
décompose en plusieurs lemmes.

Les sauts d’un processus de Lévy, sa mesure de Lévy.

Lemme V.2.5 . On reprend les notations ci-dessus. Alors, il existe une mesure positive π sur les Boréliens de
Rd \{0} telle que π(Uε ) < ∞, pour tout ε > 0, et telle que pour toute mesure µ ∈ M1 (Rd ), sous Pµ , le nuage
de points sur R+ ×(Rd \{0}) défini par

Π := (t, ∆Xt ) ; t ∈ R+ : ∆Xt 6= 0
186 CHAPTER V. PROCESSUS DE LÉVY.

est un nuage de Poisson d’intensité ` ⊗ π. Plus précisément, (∆Xt )t∈R+ sous Pµ est un (Gt )t∈R+ -processus
ponctuel d’intensité π, appelée mesure de Lévy de X.

Preuve: clairement, il suffit de montrer ce résultat sous P0 . Pour éviter les trivialités on suppose que X n’est
pas P0 -p.s. continu. Il existe donc ε0 > 0 tel que P0 (∃t ∈ R+ : k∆Xt k > ε0 ) > 0. On fixe ensuite ε ∈ ]0, ε0 ] et
pour toute trajectoire w = (wt )t∈R+ càdlàg à valeurs dans Rd , on pose T1 (w) := inf{t ∈ R+ : k∆wt k > ε}, avec
la convention inf ∅ = ∞. Par continuité à droite T1 (w) > 0. Pour simplifier les notations, on pose T1 := T1 (X),
qui est clairement un (Gt )t∈R+ -temps d’arrêt. Comme ε ≤ ε0 , on a également P0 (T1 < ∞) > 0.
On rappelle que X t := Xt+· −Xt et on remarque que si T1 > t, alors T1 = t + T1 (X t ) et ∆XT1 = ∆XTt 1 (X t ) .
Or sous P0 , le processus X t est indépendant de Gt (et donc de X·∧t ) et a même loi que X. Donc pour toute
fonction mesurable f : Rd → R+ et tout s ∈ R+ , on a

E0 1{T1 >t+s} f ∆XT1 = E0 1{T1 >t} 1{T1 (X t )>s} f ∆XTt 1 (X t ) = P0 (T1 > t)E0 1{T1 >s} f ∆XT1 .
     

(V.10)
En prenant f constante à 1 dans cette égalité, on obtient P0 (T1 > t + s) = P0 (T1 > t)P0 (T1 > s). Puisque
P0 (0 < T1 < ∞) > 0, il existe aε ∈]0, ∞[ tel que P0 (T1 > t) = e−aε t : T1 sous P0 suit une loi exponentielle
non-dégénérée de paramètre aε . Par conséquent P0 -p.s. 0 < T1 < ∞. On remarque également qu’en prenant
s = 0 dans (V.10), on en déduit que T1 est indépendant de ∆XT1 sous P0 .
On introduit ensuite les temps successifs (Tn )n∈N des sauts de norme plus grande que ε: pour toute trajec-
toire w = (wt )t∈R+ , càdlàg et à valeurs dans Rd , on pose

T0 (w) := 0 et Tn+1 (w) := inf{t > Tn (w) : k∆wt k > ε} , (V.11)

avec la convention inf ∅ = ∞. On vérifie que si Tn (w) < ∞, on a Tn+1 (w) = Tn (w) + T1 (w·+Tn (w) −wTn (w) ).
Pour simplifier les notations, on pose Tn := Tn (X). Le résultat concernant T1 et la définition récursive des
Tn implique immédiatement que les Tn forment une suite strictement croissante de (Gt )t∈R+ -temps d’arrêt
P0 -p.s. finis. Or (Tn+1 − T1 , ∆Tn+1 )n≥1 = (Tn (X T1 ), ∆XTT1 (X T1 ) )n≥1 , donc la proposition V.1.6, page 178
n
appliqué en T1 sous P0 , implique que sous P0 ,
loi
(T1 , ∆XT1 ) indépendent de (Tn+1−T1 , ∆XTn )n≥1 et (Tn+1−T1 , ∆XTn )n≥1 = (Tn , ∆XTn )n≥1 sous P0 .

Cela implique d’une part que les v.a. Tn−Tn−1 , ∆XTn , n ≥ 1 sont indépendantes, d’autre part que les v.a. (Tn−
Tn−1 )n≥1 sont i.i.d. de loi exponentielle de paramètre aε et enfin que les v.a. (∆XTn )n≥1 sont i.i.d. de loi
commune notée µε . La proposition IV.5.1, page 155, implique donc que
 
Πε := (Tn , ∆XTn ) ; n ≥ 1 = (t, ∆Xt ) ; t ∈ R+ : k∆Xt k > ε est un nuage de Poisson d’intensité `⊗aε µε .

Soit (εp )p∈N , une suite décroissant strictement vers 0. Il est clair que pour tout p ∈ N, P0 -p.s. Πεp ⊂ Πεp+1 .
Le théorèmeSIV.3.5 (i) de superposition croissante, page 143, implique que {(t, ∆Xt ); t ∈ R+ : ∆Xt 6=
0} = Π = p∈N Πεp est un nuage de Poisson sur R+ × (Rd \{0}), dont l’intensité est notée ν. Pour tout
A ∈ B(Rd \{0}), on pose alors π(A) := ν([0, 1] × A), qui est une mesure positive. Soit ε > 0; on rappelle
la notation Uε := {x ∈ Rd : kxk > ε} et on on observe que Πε = Π ∩ (R+ × Uε ). Cela implique que
ν(· ∩ (R+ ×Uε )) = `⊗aε µε et donc π(· ∩ Uε ) = aε µε . Donc π(Uε ) = aε < ∞. Cela montre que π est une mesure
sigma-finie. On en déduit aussi que ν(· ∩ (R+ ×Uε )) = `⊗π(· ∩ Uε ) = (`⊗π)(· ∩ (R+ ×Uε )), ce qui implique
immédiatement que ν = `⊗π. Donc Π est un nuage de Poisson d’intensité `⊗π.
Soit A ∈ B(Rd \{0}). Pour tout s, t ∈ R+ , il est clair que N[0,t]×A (Π) est Gt -mesurable et que N]t,t+s]×A (Π)
ne dépend que de X t : c’est la somme des sauts de X t avant l’instant s qui sont dans A. Comme sous P0 , X t
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 187

est indépendant de Gt et de même loi que X, on en déduit que N]t,t+s]×A (Π) est indépendant de Gt et a même
loi que N[0,s]×A (Π). Cela montre que (∆Xt )t∈R+ est, sous P0 , un (Gt )t∈R+ -processus ponctuel d’intensité π,
selon la définition IV.6.3, page 160. Cela termine la preuve du lemme. 

On montre ensuite le résultat d’indépendance suivant.

Lemme V.2.6 On reprend les notations ci-dessus. On rappelle que Π = {(t, ∆Xt ) ; t ∈ R+ ∆Xt 6= 0} est un
nuage de Poisson d’intensité `⊗π, où π, la mesure de Lévy de X. Pour tout ε > 0, on pose

Πε := (t, ∆Xt ) ; t ∈ R+ : k∆Xt k > ε = Π ∩ (R+ ×Uε ) .

Comme π(Uε ) < ∞, cela permet de définir


(ε)
X
∀t ∈ R+ , Xt := Xt − ∆Xs 1{k∆Xs k>ε} . (V.12)
s∈[0,t]

Alors, pour toute mesure µ ∈ M1 (Rd ), sous Pµ ,

(ε)
(i) Πε et (Xt )t∈R+ sont indépendants,
(ε)
(ii) (Xt )t∈R+ est un (Gt )t∈R+ -processus de Lévy.

Preuve: clairement, il suffit de montrer le lemme sous P0 . On fixe ε > 0. Le fait que π(Uε ) soit une quantité
finie implique que Z

min 1, kxk1{kxk>ε} π(dx) ≤ π(Uε ) < ∞ .
Rd \{0}
P
La proposition IV.4.9, page 153 implique que P0 -p.s. pour tout t ∈ R+ , s∈[0,t] k∆Xs k1{k∆Xs k>ε} < ∞, ce
(ε)
qui montre que est bien défini par (V.12). Il est clair que X (ε) est càdlàg. Soient t, s ∈ R+ . On vérifie
Xt
(ε) (ε) (ε)
que Xt ne dépend que X·∧t : il est donc Gt -mesurable. De plus Xt+s −Xt ne dépend que de X t , processus
(ε) (ε) (ε)
indépendant de Gt : on en déduit que Xt+s −Xt est indépendant de Gt . Cela montre que (Xt )t∈R+ est un
(Gt )t∈R+ processus de Lévy.
Le point technique de la preuve est l’indépendance de X (ε) de Πε : on rappelle de (V.11) la définition
de Tn (w), n-ième temps de sauts de norme supérieure à ε. Pour simplifier, on note Tn (X) simplement par
Tn . On prouve d’abord que sous P0 et conditionnellement à T1 , X·∧T ε est indépendant de ∆XT1 . On fixe
1
d p
t1 , . . . , tp ∈ R+ et F : (R ) → R+ , une fonction continue bornée. On pose

∀t ∈ R+ , Ht := 1[t,∞[ (T1 )F X(t1 ∧t)− , . . . , X(tp ∧t)− .

On vérifie que (Ht )t∈R+ est (Gt )t∈R+ -adapté et càg sur ]0, ∞[ . La proposition IV.6.5, page 160, implique que
H est (Gt )t∈R+ -prévisible. Soit fP:= R+ ×Rd → R+ , une fonction mesurable bornée telle que f (·, 0) = 0. On
observe que HT1 f (T1 , ∆XT1 ) = t∈R+ Ht f (t, ∆Xt )1{k∆Xt k> ε} , tous les termes de cette somme étant nuls
sauf un, qui correspond au temps t = T1 . Par la formule de compensation (lemme IV.6.6, page 161) appliquée
au (Gt )t∈R+ -processus ponctuel de Poisson (∆Xt )t∈R+ d’intensité π, on obtient

 
Z ∞ Z
 
E0 HT1 f (T1 , ∆XT1 ) = dt π(dx) f (t, x) E0 Ht .
0 Uε
188 CHAPTER V. PROCESSUS DE LÉVY.

(ε) (ε)
On observe que HT1 = F (X(t1 ∧T1 )− , . . . , X(tp ∧T1 )− ) = F (X(t1 ∧T1 )− , . . . , X(tp ∧T1 )− ), car strictement avant T1 ,
X et X (ε) coïncident. Comme X n’a pas de discontinuité à un temps fixé, P0 -p.s. X est continu en t1 , . . . , tp
et il en est donc de même pour X (ε) . De plus X (ε) est par définition continu au temps T1 . On en déduit donc
(ε) (ε) (ε) (ε)
que P0 -p.s. HT1 = F (Xt1 ∧T1 , . . . , Xtp ∧T1 ) et Ht = 1[t,∞[ (T1 )F (Xt1 ∧t , . . . , Xtp ∧t ). On a donc montré
Z ∞ Z
 (ε) (ε)    (ε) (ε)  
E F Xt1 ∧T1 , . . . , Xtp ∧T1 f (T1 , ∆XT1 ) = dt π(dx) f (t, x) E0 F Xt1 ∧t , . . . , Xtp ∧t 1{T1 >t} .
0 Uε

Par classe monotone, pour toute fonction G := (Rd )R+ → R+ qui est B(Rd )⊗R+ -mesurable bornée, on a
Z ∞Z
 (ε)    (ε)  
E G X·∧T1 f (T1 , ∆XT1 ) = dt π(dx) f (t, x) E0 G X·∧t 1{T1 >t} . (V.13)
0 Uε

(ε) (ε)
Montrons que cela implique l’indépendance de X (ε) et de (T1 , ∆XT1 ): posons Yt := XT1 +t − XT1 , t ∈ R+ ;
Y est une fonction mesurable de X T1 ; par conséquent, Y a même loi que X (ε) et est indépendant de GT1 et
(ε) (ε) (ε)
donc de X·∧T1 et de (T1 , ∆XT1 ). On observe ensuite que Xs = Xs∧T1 + Y(s−T1 )+ . Ceci combiné avec (V.13)
implique facilement que
Z ∞Z
E G X (ε) f (T1 , ∆XT1 ) = dt π(dx) f (t, x) E0 G X (ε) 1{T1 >t} .
     
(V.14)
0 Uε

Pour simplifier les notations, on pose a := π(Uε ). On fixe t ∈ R+ . Par (V.14), on a E0 [G(X (ε) )1{T1 >t} ] =
R∞
a t dt1 E0 [G(X (ε) )1{T1 >t1 } ]. En itérant n fois ce calcul on obtient la première égalité qui suit, les autres se
déduisant d’un calcul intégral élémentaire.
Z ∞Z Z Z
(ε) n
dt π(dx) f (t, x) . . . dtn . . . dt1 E0 G X (ε) 1{T1 >tn }
     
E G X f (T1 , ∆XT1 ) = a
0 U {t >...>t1 >t}
Z ∞Z ε Z Z n
= an dt π(dx) f (t, x) . . . dsn . . . ds1 E0 G X (ε) 1{T1 >sn +t}
  
0 Uε {sn >...>s1 >0}
∞ Z ∞
sn−1
Z Z
n
E0 G X (ε) 1{T1 >s+t}
  
= a dt π(dx) f (t, x) ds
0 Uε 0 (n−1)!
Z ∞ Z Z ∞ n n−1 −as
a s e
= dt e−at π(dx) f (t, x) ds E0 G X (ε) T1 > s + t
  
(V.15)
0 Uε 0 (n − 1)!

car T1 suit une loi exponentielle de paramètre a. On fixe ensuite t0 > 0. Si T1 > t0 , alors T1 −t0 = T1 (X t0 ). La
propriété de Markov au temps t0 implique que si s > t0 ,
(ε)  (ε)  (ε) 
E0 G X·∧t0 1{T1 >s+t} = E0 G X·∧t0 1{T1 >t0 } P0 (T1 > s + t−t0 ) = E0 G X·∧t0 T1 > t0 e−a(s+t) ,
     

(ε) (ε)
c’est-à-dire que E0 [G(X·∧t0 )|T1 > s + t] = E0 [G(X·∧t0 )|T1 > t0 ]. Comme s 7→ an sn−1 e−as /(n−1)! est la
densité d’une loi d’Erlang de paramètres (n, a) qui est la loi de la somme de n v.a. exponentielles indépendantes
de paramètre a, on a
Z ∞ n n−1 −as Z t0 n n−1 −as
E0 G X (ε) T1 > t0 − ds a s e (ε) a s e
     
·∧t0 E0 G X T1 > s + t ≤ 2kGk∞ ds
−−→ 0.
(n − 1)!
0 (n − 1)! n→∞ 0
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 189

En faisant tendre n vers l’infini dans (V.15), ceci implique que


Z ∞ Z
 (ε)    (ε)   −at
∀t0 ∈ R+ , E G X·∧t0 f (T1 , ∆XT1 ) = E0 G X·∧t0 T1 > t0 dt e π(dx) f (t, x) . (V.16)
0 Uε

Cela implique que X (ε) est indépendant de (T1 , ∆XT1 ).


On montre ensuite par récurrence que pour tout n ≥ 1, X (ε) est indépendant de (Tk , ∆XTk )1≤k≤n . On
a montré cette propriété d’indépendance au rang n = 1. Supposons la propriété vraie au rang n. On pose
(ε) (ε)
Yt = Xt+Tn −XTn , pour tout t ∈ R+ . On remarque que (Y, Tn+1 −Tn , ∆XTn+1 ) est une certaine fonction de
X Tn et que la même fonction appliquée à X donne (X (ε) , T1 , ∆XT1 ). On en déduit d’une part que (Y, Tn+1 −
Tn , ∆XTn+1 ) a même loi que (X (ε) , T1 , ∆XT1 ). Par conséquent

Y , Tn+1 −Tn et ∆XTn+1 sont trois variables indépendantes. (V.17)

Comme X Tn est indépendant de GTn on en déduit que


(ε)
(Y, Tn+1 −Tn , ∆XTn+1 ) est indépendant de X·∧Tn et des (Tk , ∆XTk )1≤k≤n . (V.18)
(ε) (ε)
Comme Xt =Xt∧Tn+Y(t−Tn )+ , (V.17) et (V.18) impliquent que X (ε) est indépendant de (Tn+1−Tn , ∆XTn+1 ).
Comme par hypothèse de récurrence, X (ε) est indépendant de (Tk , ∆XTk )1≤k≤n , on en déduit que X (ε) est
indépendant de (Tn+1 , ∆XTn+1 ) et cela entraîne la propriété au rang n + 1.
On a donc montré que X (ε) est indépendant de (Tn , ∆XTn )n≥1 , c’est-à-dire que X (ε) est indépendant de
Πε = {(Tn , ∆XTn ) ; n ≥ 1}. Cela termine la preuve du lemme. 

Les deux lemmes précédents combinés avec le théorème V.2.1 sur les processus de Lévy dont les sauts sont
uniformément bornés (page 180), sont utilisés pour prouver le lemme suivant.

Lemme V.2.7 On reprend les notations ci-dessus. Alors, la mesure de Lévy π de X satisfait
Z
min 1, kxk2 π(dx) < ∞ .

Rd \{0}

d
RPreuve: on2 rappelle la notation Uε := {x ∈ R : kxk > ε}. On sait que π(U1 ) < ∞, il reste donc à montrer que
Rd \U1 kxk π(dx) < ∞. Dans la suite de la preuve, on raisonne sous P0 . Soit ε ∈ ]0, 1]. On pose

(ε)
X X
∀t ∈ R+ , Xt := Xt − ∆Xs 1{k∆Xs k>ε} et Ytε = ∆Xs 1{ε<k∆Xs k≤1} .
s∈[0,t] s∈[0,t]

(1) (ε)
On a donc Xt := Xt + Ytε , t ∈ R+ . On fixe u ∈ Rd . Par la formule de moment d’ordre 1 du théorème IV.4.10
(page 154), on a donc
h X i Z
ε
 
E0 hu, Yt i ≤ E0
|hu, ∆Xs i|1{ε<k∆Xs k≤1} = t |hu, xi π(dx) < tkukπ(Uε ) < ∞ .
s∈[0,t] Uε \U1

|hu, xi|2 π(dx) ≤ kuk2 π(Uε ) < ∞. La formule de moment d’ordre 2 dans le
R
On observe également que Uε \U1
(ε)
théorème IV.4.10, page 154, montre que hu, Yt i admet un moment d’ordre 2 et on a
Z
(ε) 
var hu, Yt i = t |hu, xi|2 π(dx) . (V.19)
Uε \U1
190 CHAPTER V. PROCESSUS DE LÉVY.

On remarque ensuite que X (ε) sont X (1) sont des processus de Lévy dont les sauts sont de taille uniformément
bornée. Le théorème V.2.1, page V.2.1, implique que hu, X (1) i et hu, X (ε) i admettent des moments d’ordre 2
également. Le lemme V.2.6 implique enfin que Y (ε) , qui est une fonction mesurable de Πε , est indépendant de
X (ε) . On a donc
(1)  (ε)  (ε) 
var hu, Xt i = var hu, Xt i + var hu, Yt i .

Par (V.19) cela implique que


Z
(1) 
∀u ∈ Rd , ∀t ∈ R+ , ∀ε ∈ ]0, 1] , t |hu, xi|2 π(dx) ≤ var hu, Xt i .
Uε \U1

(1)
Lorsque ε → 0, on obtient Rd \U1 |hx, ui|2 π(dx) ≤ var(hu, X1 i). En sommant ces inégalités lorsque u
R

parcourt la base canonique de Rd , on obtient Rd \U1 kxk2 π(dx) < ∞, ce qui termine la preuve.
R


R la mesure de Lévy π ne satisfait pas de condition d’intégrabilité


En général, P plus forte; en particulier, il est
possible que kxkπ(dx) = ∞. Dans ce cas, pour tout t ∈ R+ , p.s. s∈[0,t] k∆Xs k = ∞, par la proposition
IV.4.9, page 153. Autrement dit, les sauts de X ne sont pas sommables. Néanmoins le lemme suivant permet
de sommer les sauts pourvu qu’on les “compense” correctement.

Lemme V.2.8 (Compensation des sauts) Soit (Vt )t∈R+ , un (Gt )t∈R+ -processus de Poisson sur Rd \{0} d’intensité
π qui satisfait Z
min 1, kxk2 π(dx) < ∞ .

Rd \{0}

Pour tout ε ∈ ]0, ∞[ et pour tout t ∈ R+ , on pose


Z
(ε)
X X
Rt := Vs , et Jt := Vs −t xπ(dx) .
s∈[0,t]: s∈[0,t]: {ε<kxk≤1}
kVs k>1 ε<kVs k≤1

Alors, R est un (Gt )t∈R+ -processus de Lévy et il existe un (Gt )t∈R+ -processus de Lévy J qui est indépendant
de R, ainsi qu’une suite de réels (εp )p∈N décroissant strictement vers 0 tels que
(ε )
P-p.s. sup Js −Js p −−−→ 0 . (V.20)
s∈[0,p] p→∞

Si on pose Yt := Rt + Jt , t ∈ R+ . Alors (Yt )t∈R+ est un (Gt )t∈R+ -processus de Lévy dont la mesure de Lévy est
π et dont l’exposant caractéristique est donné pour tout u ∈ Rd et tout t ∈ R+ par

 ihu,Yt i  Z 
E e = exp t π(dx) eihu,xi −1−ihu, xi1{kxk<1} . (V.21)
Rd \{0}

Preuve: on pose Π := {(t, Vt ) ; t ∈ R+ : Vt 6= ∂}, qui est un nuage Poissonnien sur R+ ×Rd d’intensité `⊗π.
Pour simplifier les notations, on pose également Uε := {x ∈ Rd : kxk > ε}, ε ∈ ]0, ∞[ . On remarque que
R dépend de la restriction de Π à R+ ×U1 et J (ε) dépend de la restriction de Π à R+ ×(Uε \U1 ), qui est un
ensemble disjoint de R+ ×U1 . Par le principe de restriction des nuages Poissonniens (théorème IV.3.4, page
142), R et J (ε) sont indépendants. Il est facile de vérifier que R et J (ε) sont des (Gt )t∈R+ -processus de Lévy.
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 191

0
Soit ε0 ∈ ]0, ε[ et u ∈ Rd . On voit facilement que J (ε ) − J (ε) est un processus de Lévy; ses sauts ont
leur norme majorée par ε. Par conséquent, ce processus de Lévy admet (au moins) un moment d’ordre deux
(théorème V.2.1, page 180). On voit alors que
Z
(ε0 ) (ε)
X
∀t ∈ R+ , hu, Jt −Jt i = hu, ∆Xs i1{ε0 <k∆Xs k≤ε} − t hu, xi π(dx)
s∈[0,t] {ε0 <kxk≤ε}

est une (Gt )t∈R+ -martingale . Elle est de carré intégrable par la formule du carré pour les processus de Poisson
pour la fonction (s, x) 7→ 1[0,t] (s)1Uε0 \Uε (x)hu, xi, formule donnée à la proposition IV.4.10, page 154: on a
Z
(ε0 ) (ε) 2  (ε0 ) (ε) 
E hu, Jt −Jt i = var hu, Jt −Jt i = t hu, xi2 π(dx) .

{ε0 <kxk≤ε}

L’inégalité L2 de Doob pour les martingales càd implique que


Z
(ε0 )
h 0
i
(ε) 
E sup hu, Js(ε )−Js(ε) i2 ≤ 4E hu, Jt −Jt i2 = 4t hu, xi2 π(dx) .

s∈[0,t] {ε0 <kxk≤ε}

On somme alors ces inégalités lorsque u parcourt la base canonique: puisque le supremum d’une somme est
inférieur à la somme des supremums, on en déduit
h 2 i Z
(ε0 ) (ε)
E sup kJs −Js k ≤ 4t kxk2 π(dx) . (V.22)
s∈[0,t] {ε0 <kxk≤ε}

D’autre part, l’hypothèse


P d’intégralité de π implique l’existence d’une suite de réels (εp )p∈N décroissant stricte-
ment vers 0 telle que p≥1 4p3 {εp+1 <kxk≤εp } kxk2 π(dx) < ∞. Par interversion série/intégrale positive, on
R

en déduit que
hX  2 i X h 2 i
(ε ) (ε ) (ε ) (ε )
E p2 sup kJs p+1 −Js p k = p2 E sup kJs p+1 −Js p k <∞.
p≥1 s∈[0,p] p≥1 s∈[0,p]

Par Cauchy-Schwarz on en déduit


X 1  X  2  1
(ε ) (ε ) (εp+1 ) (εp )
X
−2 2 2 2
P-p.s. sup kJs p+1 −Js p k ≤ p p sup kJs −Js k <∞.
p≥1 s∈[0,p] p≥1 p≥1 s∈[0,p]

(ε )
Cela implique l’existence d’un processus càdlàg J tel que P-p.s. limp→∞ sups∈[0,p] kJs − Js p k = 0. Il est
facile de montrer que J est un (Gt )t∈R+ de Lévy et qu’il est indépendant de R. (V.21) sont des conséquences
immédiates de la formule exponentielle réelle pour les nuages Poissonniens établie au théorème IV.4.10, page
154. Cela termine la preuve du lemme. 

Construction des processus de Lévy. On introduit les paramètres qui, nous le voyons plus loin, suffisent à
décrire la loi des processus de Lévy.

Définition V.2.9 Un triplet de Lévy-Khintchine en dimension d est la donnée de (v, Γ, π) qui sont définis
comme suit.

(a) v ∈ Rd , est le coefficient de dérive.


192 CHAPTER V. PROCESSUS DE LÉVY.

(b) Γ est une matrice réelle symétrique positive de taille d.

(c) π est une mesure positive sur les Boréliens de Rd \{0} telle que 2
R
Rd \{0} kxk π(dx) < ∞. 

Théorème V.2.10 (Construction) Soit (v, Γ, π), un triplet de Lévy-Khintchine en dimension d. On note r :=
rang(Γ) et on note également M et N , les matrices obtenues par le lemme V.2.3. Soit (Ω, F , P) un espace de
probabilité, muni d’une filtration (Gt )t∈R+ et sur lequel sont définis les processus suivants.

• B = (Bt )t∈R+ , un (Gt )t∈R+ -mouvement Brownien à valeurs dans Rr , issu de 0.

• V = (Vt )t∈R+ , un (Gt )t∈R+ -processus ponctuel de Poisson sur Rd \{0}, d’intensité π.

On suppose B et V indépendants. Pour tout ε ∈ ]0, ∞[ et pour tout t ∈ R+ , on pose


Z
(ε) (ε) (ε)
X X
Rt := Vs , Jt := Vs −t xπ(dx) et Xt = M Bt + tv +Jt +Rt .
s∈[0,t]: s∈[0,t]: {ε<kxk≤1}
kVs k>1 ε<kVs k≤1

Alors il existe deux (Gt )t∈R+ -processus de Lévy X and J et une suite de réels (εp )p∈N décroissant strictement
vers 0 tels que
(ε ) (ε )
P-p.s. sup Xs −Xs p −−−→ 0 et sup Js −Js p −−−→ 0 . (V.23)
s∈[0,p] p→∞ s∈[0,p] p→∞

On a également les propriétés suivantes.

(i) Xt = M Bt + tv + Jt + Rt , pour tout t ∈ R+ .

(ii) π est la mesure de Lévy de X.

(iii) B, J et R sont indépendants.

(iv) On rappelle que pour tout u ∈ Rd , E[exp(ihu, Xt i)] = exp(tψ(u)), où ψ est l’exposant caractéristique
de X. Ce qui précède implique
Z
d 1
ψ(u) = ihu, vi − 2 hu, Γui + π(dx) eihu,xi −1 − ihu, xi1{kxk≤1} .

∀u ∈ R , (V.24)
Rd

Par conséquent, la loi de (Xt )t∈R+ est caractérisée par (v, Γ, π).

Preuve: l’existence de J et la seconde convergence de (V.23) sont une conséquence directe du lemme V.2.8.
Ce lemme implique également que J est un (Gt )t∈R+ -processus de Lévy, indépendant de R; par hypothèse il
est également indépendant de B, ce qui montre (iii). Si on définit X comme au (i), alors X est un (Gt )t∈R+ -
processus de Lévy et les sauts de X sont ceux de J et de R, ce qui implique (ii): π est la mesure de Lévy
de X. Comme X − X (ε) = J (ε) − J, on en déduit la première limite de (V.23) Ensuite (V.24) résulte de
(V.21) au lemme V.2.8, de l’indépendance de R + J et de B, et du fait que pour tout t ∈ R+ et tout u ∈ Rd ,
E exp(ihu, M Bt ) = exp(− 21 thu, Γui). La loi du processus de Markov (Xt )t∈R+ est caractérisée par son
 

semi-groupe, qui est lui-même caractérisé par la loi de X1 (voir la proposition V.1.10, page 179), qui est, elle,
caractérisée par sa transformée de Fourier, elle-même fixée par la fonction ψ, exprimée uniquement à l’aide de
(v, Γ, π). Par conséquent, la loi de (Xt )t∈R+ est caractérisée par (v, Γ, π), ce qui termine la preuve. 
V.2. STRUCTURE DES PROCESSUS DE LÉVY. 193

Structure des processus de Lévy. Le théorème suivant se voit comme la réciproque du théorème V.2.10 de
construction: tout processus de Lévy s’obtient comme au théorème V.2.10; en effet, on peut voir tout processus
de Lévy comme la somme de trois processus de Lévy indépendants: un processus continu, le processus des
"petits" sauts compensés et le processus des grands sauts. Plus précisément, on a l’énoncé suivant qui résume
les résultats déjà obtenus.

Théorème V.2.11 (Structure des processus de Lévy) Soit (Ω, F , P), un espace de probabilité sur lequel sont défi-
nis une filtration (Gt )t∈R+ et X, un (Gt )t∈R+ processus de Lévy à valeurs dans Rd . On suppose que X a des
sauts avec probabilité positive.
(1) Le nuage de points sur R+ ×Rd défini par Π := (t, ∆Xt ) ; t ∈ R+ : ∆Xt 6= 0 est Poissonnien d’intensité


`⊗π, où π est une mesure positive sur les Boréliens de Rd \{0}, appelée mesure de Lévy de X, qui satisfait la
condition d’intégrabilité Z
min 1, kxk2 π(dx) < ∞

(V.25)
Rd \{0}

Plus précisément, (∆Xt )t∈R+ est un (Gt )t∈R+ -processus ponctuel de Poisson d’intensité π.
(2) Pour tous ε ∈ ]0, ∞[ et t ∈ R+ , on pose
Z
(ε) (ε) (ε)
X X
Rt := ∆Xs , Jt := ∆Xs −t xπ(dx) et Zt := Xt −Jt −Rt .
s∈[0,t]: s∈[0,t]: {ε<kxk≤1}
k∆Xs k>1 ε<k∆Xs k≤1

Alors il existe deux (Gt )t∈R+ -processus de Lévy, notés Z and J, satisfaisant les conditions suivantes.

(a) Z est un processus de Lévy continu: on peut lui appliquer le théorème V.2.4, page 184.

(b) R, J et Z sont des processus de Lévy indépendants.

(c) Pour tout t ∈ R+ , Xt = Zt + Jt + Rt .

(d) Il existe une suite de réels (εp )p∈N décroissant strictement vers 0 telle que
(ε ) (ε )
P-p.s. sup Zs −Zs p −−−→ 0 et sup Js −Js p −−−→ 0 . (V.26)
s∈[0,p] p→∞ s∈[0,p] p→∞

Le processus Z est appelé la composante continue de X, le processus J est appelé la composante des sauts
compensés et le processus R est appelé la composante des grands sauts de X. Les processus Z, J et R sont
des fonctions mesurables adaptées de la trajectoire de X.
(3) On note v := E[Z1 −Z0 ] et Γ := cov(Z1 −Z0 ). Alors, l’exposant caractéristique ψ de X est donné par la
formule (V.24) au théorème V.2.10. Par conséquent la loi de (Xt −X0 )t∈R+ est caractérisée par (v, Γ, π).
Preuve: le point (1) est une conséquence des lemmes V.2.5 et V.2.7. Prouvons (2): pour simplifier les notations
on pose Uε := {x ∈ Rd : kxk > ε}. On observe que J (ε) et R sont des fonctions du processus Πε := {(t, ∆t ); t ∈
R+ : k∆Xt k > ε}, qui est la restriction de Π à R+×Uε ; le lemme V.2.6 implique immediatement que (J (ε) , R)
est indépendant de Z (ε) (le lecteur remarque qu’il s’agit du point difficile de la preuve). Par ailleurs, J (ε) est
une fonction de Π ∩ (R+ ×(Uε \U1 )) et R est une fonction de Π ∩ (R+ ×U1 ); par le principe de restriction
des nuages Poissonniens (théorème IV.3.4, page 142), ils sont indépendants. On a donc montré que R, J (ε) et
194 CHAPTER V. PROCESSUS DE LÉVY.

Z (ε) sont des processus indépendants. Il est par ailleurs facile de voir que ce sont des (Gt )t∈R+ -processus de
Lévy. On applique le lemme V.2.8 à (Vt )t∈R+ = (∆Xt )t∈R+ , ce qui est possible par le point (1) que l’on vient
de démontrer, et on obtient l’existence de J et la seconde limite de (V.26). Comme Z − Z (ε) = J (ε) − J, on
en déduit la première limite de (V.26) ce qui prouve (d). À la limite, on a clairement X = Z + J + R, ce qui
montre (c). L’indépendance de Z, J et R découle très facilement de celle de Z (ε) , J (ε) et R. Enfin, on voit que
les sauts de Z (ε) sont, en norme, inférieurs à ε, ce qui implique, à la limite que Z est continu, ce qui prouve (a)
et ce qui termine la preuve de (2).
La preuve de (3) découle tout d’abord du théorème V.2.4, page 184, de caractérisation des processus de
Lévy continus: on a donc

1
∀t ∈ R+, ∀u ∈ Rd ,
  
E exp ihu, Zt −Z0 i = exp ihu, vi− 2 thu, Γui .

On montre que l’exposant caractéristique ψ de X satisfait bien (V.24) du théorème V.2.10 en combinant ce qui
précède avec l’indépendance de Z, J et R et la formule (V.21) du lemme V.2.8 de compensation des sauts. Cela
termine la preuve du théorème. 

On obtient immédiatement le corollaire suivant.

Corollaire V.2.12 Il y a une correspondance bijective entre les semi-groupes de processus de Lévy d-dimensionels
et les triplets de Lévy-Khintchine d-dimensionnels.

Preuve: à tout semi-groupe (Pt )t∈R+ de processus de Lévy à valeurs dans Rd , on associe une réalisation X
issue de l’origine et son triplet (v, Γ, π) comme dans le théorème V.2.11 (3) qui affirme que ce triplet caractérise
sa loi: notamment si deux semi-groupes correspondent au même triplet, alors ils sont égaux. Réciproquement,
à un triplet de Lévy-Khintchine (v, Γ, π), le théorème V.2.10 de construction des processus de Lévy associe un
processus X et il est facile de vérifier que (v, Γ, π) est le triplet associé à X par le théorème V.2.11 (3). Cela
termine la preuve. 

En combinant la proposition V.1.10 (page 179, qui établit une correspondance bijective entre lois infiniment
divisibles et semi-groupes de processus de Lévy), le corollaire précédent (établissant une correspondance bi-
jective entre semi-groupes de processus de Lévy et triplets de Lévy Khintchine) ainsi que la formule (V.24) du
théorème V.2.10, page 192, on obtient directement le théorème suivant dû à Lévy (sur Rd ) et Khintchine (sur
R+ ).

Théorème V.2.13 (Formule de Lévy-Khintchine) Il y a une correspondance bijective entre les lois infiniment divis-
ibles sur Rd et les triplets de Lévy-Khintchine d-dimensionnels. Plus précisément, cette correspondance se fait
à travers l’exposant caractéristique et la formule de Lévy-Khintchine: la loi infiniment divible µ correspond au
triplet (v, Γ, π) si
 Z
d

∀u ∈ R , 1
b(u) = exp ihu, vi− hu, Γui +
µ 2 π(dx) eihu,xi −1−ihu, xi1{kxk≤1} (V.27)
Rd \{0}

b(u) := Rd eihu,xi µ(dx) est la transformée de Fourier de µ. La formule (V.27) est appelée formule de
R
où µ
Lévy-Khintchine.
V.3. QUELQUES PROPRIÉTÉS; CAS SPÉCIFIQUES. 195

V.3 Quelques propriétés; cas spécifiques.


V.3.a Variation totale des trajectoires.
Dans cette section nous nous restreignons à des processus uni-dimensionnels, bien que la plupart des résultats
énoncés dans cette section soient vérifiés pour des dimensions supérieures. Rappelons tout d’abord la notion
de variation totale d’une fonction à valeurs réelles.

Définition V.3.1 On fixe a < b et F : R → R.

(a) σ = {s0 = a < s1 < . . . < sn = b} est une subdivision de [a, b]; son pas est la quantité pas(σ) =
max{si+1 −si ; 0 ≤ i < n}; on note S ([a, b]) l’ensemble des subdivisions de [a, b].
P
(b) Soit σ = {s0 = a < s1 < . . . < sn = b}. On pose V (σ, F ) = 0≤i≤n−1 F (si+1 )−F (si ) , et

vF ([a, b]) = sup V (σ, F ) ; σ ∈ S ([a, b]) .




Si ce supremum est fini, F est dite à variation bornée sur [a, b].

(c) Soit σ = {s0 = a < s1 < . . . < sn = b}; on pose également


X X
V + (σ, F ) := F (si+1 )−F (si ) + et V − (σ, F ) :=
 
F (si+1 )−F (si ) −
,
0≤i≤n−1 0≤i≤n−1

ainsi que

vF+ ([a, b]) = sup V + (σ, F ) ; σ ∈ S ([a, b]) vF− ([a, b]) = sup V − (σ, F ) ; σ ∈ S ([a, b])
 
et

qui sont les variations positive et négative de F sur [a, b]. 

Le théorème suivant décrit la structure des fonctions à variation bornée.

Théorème V.3.2 Soit une fonction F : R+ → R.

+/−
(i) Si F est à variation bornée sur [a, b], alors les fonctions t ∈ [a, b] 7→ vF ([a, t]), t ∈ [a, b] 7→ vF ([a, t])
sont croissantes, nulles en a et on a

∀t ∈ [a, b] , F (t)−F (a) = vF+ ([a, t])−vF− ([a, t]) et vF ([a, t]) = vF+ ([a, t]) + vF− ([a, t]) .

(ii) On suppose que F = g2 −g1 , où g1 et g2 sont des fonctions croissantes sur R+ . Alors F est à variation
bornée sur tout intervalle [a, b] de R+ et

vF+ ([a, b]) ≤ g2 (b)−g2 (a) et vF− ([a, b]) ≤ g1 (b)−g1 (a) .

Preuve: prouvons (i). La croissance des fonctions est évidente et pour toute subdivision σ = {a = s0 < . . . <
sn = t}, on a
X
|F (si+1 )−F (si )| + F (si+1 )−F (si ) = 2V + (σ, F ) .

V (σ, F ) + F (t)−F (a) =
0≤i<n
196 CHAPTER V. PROCESSUS DE LÉVY.

En passant au supremum sur σ ∈ S ([a, t]), on a donc vF (t) + F (t)−F (a) = vF+ (t). De même, vF (t)−F (t) +
F (a) = vF− (t), ce qui prouve (i).
Montrons (ii). Soit σ = {a = s0 < . . . < sn = b}. On observe que

V (σ, F ) ≤ V (σ, g1 )+V (σ, g2 ) = g1 (b)−g1 (a) + g2 (b)−g2 (a) ,

ce qui implique que F est à variation bornée. Par ailleurs,


X
V + (σ, F ) =

g2 (si+1 )−g2 (si )−(g1 (si+1 )−g1 (si )) +
.
0≤i<n

Or (g2 (si+1 )−g2 (si )−(g1 (si+1 )−g1 (si )))+ ≤ g2 (si+1 )−g2 (si ) car g1 (si+1 )−g1 (si ) est une quantité positive et
car y 7→ (y)+ est croissante. Donc V + (σ, F ) ≤ g2 (b)−g2 (a), ce qui implique vF+ ([a, b]) ≤ g2 (b)−g2 (a). L’autre
inégalité se montre de façon similaire. 

Comme une fonction à variation bornée est la différence de deux fonctions croissantes, elle n’a que des
discontinuités de première espèce, c’est-à-dire qu’elle admet en tout point une limite à gauche et une limite à
droite. Ses discontinuités forment donc un ensemble dénombrable. Dans la suite nous considérons des fonctions
à variation bornée càdlàg. Plus précisément, soit F : R+ → R, une fonction qui est à variation bornée sur tout
intervalle compact; pour simplifier les notations on pose vF (t) := vF ([0, t]) et vF+/− (t) := vF ([0, t]), t ∈ R+ .
Si on suppose que F est càdlàg, alors on peut montrer qu’il en est de même pour vF et vF+/− et on a

+/−
∆vF (t) = |∆F (t)| et ∆vF (t) = (∆F (t))+/−

et on a donc
X 
∀t ∈ R+ , |∆F (s)| ≤ vF (t) où JF := s ∈ R+ : ∆F (s) 6= 0 . (V.28)
s∈JF
P
Si pour tout t ∈ R+ , on pose Fa (t) := s∈JF ∩[0,t] ∆F (s) et Fc (t) := F (t)−Fa (t), alors on vérifie facilement
que Fa et Fc sont à variation bornée, que Fc est continue et que Fa est càdlàg: cette fonction est appelée la
composante des sauts F .

On examine ensuite la variation totale de la trajectoire des processus de Lévy. Pour cela on fixe un espace
de probabilité (Ω, F , P) sur lequel est défini un processus de Lévy réel (Xt )t∈R+ . On note (v, γ, π), son
triplet de Lévy-Khintchine: en dimension 1, v ∈ R, γ ∈ R+ et π est une mesure sur R\{0}, qui satisfait
x2 ) π(dx) < ∞. La loi de X est déterminée par son exposant caractéristique ψ qui est donné par
R
R\{0} min(1,
la formule de Lévy-Khintchine en dimension 1, c’est-à-dire que pour tout t ∈ R+ et tout u ∈ R,
Z
1
E eiu(Xt −X0 ) = etψ(u) ψ(u) = iuv − 2 γu2 + π(dx) eiux −1−iux1{|x|≤1} .
  

R\{0}

On commence par le cas du mouvement Brownien.

Proposition V.3.3 On reprend les notations ci-dessus et on suppose que X est un mouvement Brownien réel.
Alors P-p.s. X est à variation infinie sur tout intervalle, c’est-à-dire que

P-p.s. ∀a, b ∈ R+ tels que a < b, vX ([a, b]) = ∞ .


V.3. QUELQUES PROPRIÉTÉS; CAS SPÉCIFIQUES. 197

Preuve: on rappelle d’une part que Xt0 +· − Xt0 est un mouvement Brownien issu de 0. On rappelle égale-
ment la propriété de scaling du mouvement Brownien qui affirme que pour tout réel c > 0, le processus
(c−1 (Xc2 t − X0 ))t∈R+ est un mouvement Brownien issu de 0.P Par ces deux propriétés, il suffit de mon-
trer que P-p.s. vX ([0, 1]) = ∞. Pour cela on pose Vn := 0≤k<2n |X(k+1)2−n − Xk2−n |. Clairement,
Vn ≤ Vn+1 ≤ vB ([0, 1]). On observe ensuite que les variables |X(k+1)2−n − Xk2−n | sont i.i.d. de même loi
que 2−n/2 |X1 |. On pose c = E[|X1 |]; on obtient alors
 −n/2 |X1 | 2n 2n
E e−Vn = E e−2 = 1 − 2−n/2 c + O(2−n ) = exp(−c2n/2 + O(1)) .
 

Si on pose V := supn≥1 Vn , ce qui précède montre que E[e−V ] = limn→∞ E[e−Vn ] = 0 et donc P-p.s. V = ∞,
qui entraîne le résultat voulu. 
On montre le théorème suivant décrivant la variation totale des trajectoires des processus de Lévy.

Théorème V.3.4 Soit X, un processus de Lévy réel dont le triplet de Lévy Khintchine est noté (v, γ, π), comme
ci-dessus. Alors, on a l’alternative suivante.
R
(a) Si γ = 0 et si R\{0} min(1, |x|) π(dx) < ∞, alors P-p.s. X est à variation bornée sur tout intervalle
compact et on peut écrire X
P-p.s. ∀t ∈ R+ , Xt = X0 + td + ∆Xs (V.29)
s∈[0,t]
R
où d := v − [−1,1]\{0} xπ(dx).
R
(b) Si γ > 0 ou si R\{0} min(1, |x|) π(dx) = ∞, alors P-p.s. pour tous a, b ∈ R+ , vX ([a, b]) = ∞.
R
Preuve: supposons que γ = 0 et R\{0} min(1, |x|) π(dx) < ∞. Alors la proposition IV.4.9, page 153,
sur la sommabilité des fonctions additives de nuages Poissonniens, implique que P-p.s. pour tout t ∈ R+ ,
P
s∈[0,t] |∆Xs | < ∞ et la composante des petits sauts de X (comme définie au théorème V.2.11, page 193) est
donnée par Z
X
Jt = ∆Xs − t xπ(dx), t ∈ R+ .
s∈[0,t] [−1,1]\{0}

Comme γ = 0, la composante Brownienne de X est nulle et on a donc Xt = X0 + tv + Jt + Rt , où Rt est


composante des grands sauts (comme définie au théorème V.2.11, page 193). Autrement dit, (V.29) a lieu. Dans
ce cas, pour tous a, b ∈ R+ , on a P-p.s.
X
vX ([a, b]) = (b−a)|d| + |∆Xs | < ∞ .
s∈[a,b]

Cela montre (a).


Réciproquement,
P supposons que P-p.s. pour tout t ∈ R+ , vX ([0, t]) < ∞. Par (V.28), page 196, cela im-
plique que s∈[0,t] |∆Xs | ≤ vX ([0, t]) < ∞ et la proposition IV.4.9, page 153, sur la sommabilité des fonctions
R P
additives de nuages Poissonniens, implique que R\{0} min(1, |x|) π(dx) < ∞. On pose Yt = td+ s∈[0,t] ∆Xs ,
t ∈ R+ . En reprenant les notations du théorème V.2.11, page 193, de décomposition des processus de Lévy, on
voit que Yt = tv + Jt + Rt et donc X −Y est la composante continue de X. Par ailleurs, il est clair que
X
vY ([0, t]) = t|d| + |∆Xs | < ∞ .
s∈[0,t]

Supposons que γ > 0 et posons Bt = γ −1 Xt −X0 −Yt . Le théorème V.2.11, page 193 implique que que B


est un mouvement Brownien standard. Or on a clairement vB ([0, t)) ≤ vX ([0, t]) + vY ([0, t]) < ∞, ce qui
contredit la proposition V.3.3, page 196. Doncγ = 0. Par contraposée, cela prouve (b). 
198 CHAPTER V. PROCESSUS DE LÉVY.

R
Remarque V.3.5 Le théorème précédent est vrai en dimension d: si Γ = 0 et si Rd \{0} min(1, kxk) π(dx) <
∞, alors P-p.s. X est à variation bornée sur tout intervalle compact et (V.29) a lieu. Sinon, P-p.s. X est à
variation infinie sur tout intervalle compact non réduit à un point. La preuve de ce résultat est en tout point
similaire à celle donnée ci-dessus pour la dimension 1. 

V.3.b Subordinateurs
Définition V.3.6 (Subordinateurs) Un subordinateur est un processus de Lévy réel croissant. De manière équiv-
alente, un subordinateur est un processus réel càdlàg, à accroissements indépendants, homogènes en loi et
positifs. Il est naturel de choisir R+ comme espace d’états d’un subordinateur. 
Soit (Ω, F , P), un espace de probabilité sur lequel est défini (St )t∈R+ , un subordinateur issu de 0. On note
(v, γ, π) son triplet de Lévy-Khintchine. Les accroissements de S étant positifs, ses sauts le sont aussi. Comme
π est la mesure d’intensité du processus ponctuel (∆St )t∈R+ , on en déduit que π est une mesure sur ]0, ∞[ .
La croissance
R de S implique qu’il est à variation bornée et le théorème V.3.4, page 197, montre que γ = 0 et
que ]0,∞[ min(1, x) π(dx) < ∞. De plus (V.29), page 197, permet d’écrire
X Z
∀t ∈ R+ , St = td + ∆Ss où d := v − x π(dx) . (V.30)
s∈[0,t] ]0,1]

• La loi du subordinateur S est caractérisé par sont exposant de Laplace φ : R+ → R+ , qui est donné comme
suit: pour tous t, λ ∈ R+ ,
Z
 −λSt  −tφ(λ)
où φ(λ) = λd + π(dx) 1 − e−λx .

E e =e (V.31)
]0,∞[

En effet, par (V.30), E e−λSt ] = edtλ E exp − s∈[0,t] λ∆Ss . On rappelle que {(t, ∆St ); t ∈ R+ : ∆St 6= 0}
  P 

est un nuage Poissonnien sur R2+ d’intensité `⊗π: la formule exponentielle positive pour les nuages de Poisson
implique donc (V.31). 

• On a ensuite
St /t −
−−→ d ≥ 0 , la limite ayant lieu en probabilité. (V.32)
t→0+

Remarque V.3.7 La convergence (V.32) a lieu presque sûrement. 

• Une conséquence des résultat précédents est celui-ci:



P-p.s. ∀t ∈ R+ , ` {Ss ; s ∈ [0, t]} = td . (V.33)

En effet, notons S([0, t]) l’image de S sur [0, t], c’est-à-dire {Ss ; s ∈ [0, t]}. Soit y ∈ [0, St ]\S([0, t]); posons
Ly := inf{s ∈ [0, t] : Ss > y}. Le fait que y ∈ / S([0, t]) et laScontinuité à droite de S impliquent que SLy − ≤
y < SLy . Cela implique facilement que [0, St ]\S([0, t]) = s∈[0,t] [Ss− , Ss [ . On observe que les intervalles
[Ss− , Ss [ sont disjoints deux-à-deux et non-vide ssi ∆Ss > 0. On a donc par (V.30)
 [  X
St −`(S([0, t])) = ` [Ss− , Ss [ = ∆Ss = St − td ,
s∈[0,t] s∈[0,t]

ce qui entraîne le résultat voulu. 


V.3. QUELQUES PROPRIÉTÉS; CAS SPÉCIFIQUES. 199

Exemple V.3.8 Soit α ∈]0, 1[ et soit un réel c > 0. Un subordinateur α-stable est un subordinateur dont
l’exposant de Laplace est λ ∈ R+ 7→ cλα . Sa dérive est nulle (d = 0) et la sa mesure de Lévy est donnée par

π(dx) = x−α−1 dx .
Γ(1−α)

où Γ est la fonction Gamma d’Euler. Si S est un subordinateur α-stable issu de 0, il vérifie la propriété de
scaling suivante: pour tout réel strictement positif k: (k −1 Skα t )t∈R+ a même loi que S. La loi de St est
absolument continue par rapport à la mesure de Lebesgue. Sauf lorsque α = 1/2, cette densité ne s’exprime
pas simplement à l’aide des fonctions usuelles, bien qu’il existe plusieurs représentations utiles de cette densité
sous forme de série ou d’intégrale à paramètre. 

V.3.c Processus sans saut négatif.


Définition V.3.9 (Processus de Lévy sans saut négatif ) Un processus de Lévy réel dont les sauts éventuels sont
positifs est appelé processus de Lévy sans saut négatif, ou encore processus spectralement positif. La mesure
de Lévy d’un tel processus est donc portée par ]0, ∞[ . 

Cette classe de processus de Lévy réels englobe celle des subordinateurs et contient le mouvement Brownien: ils
ne sont pas nécessairement à variation bornée. Les processus sans saut négatif sont liés également à des modèles
de processus de branchement. Bien qu’ils puissent prendre des valeurs négatives, la proposition montre que
leur transformée de Laplace est finie et qu’elle les caractérisent.

Proposition V.3.10 Soit (Ω, F , P), un espace de probabilité sur lequel est défini (Xt )t∈R+ , un processus de
Lévy sans saut négatif et issu de 0. On note (v, γ, π) son triplet de Lévy-Khintchine. Alors, pour tous t, λ ∈ R+ ,
E[exp(−λXt )] < ∞. Plus précisément, la loi de X est caractérisée par son exposant de Laplace ψ : R+ → R,
fonction continue définie comme suit pour tous t, λ ∈ R+
Z
 −λXt  tψ(λ)
où ψ(λ) = −λv + 2 γλ + π(dx) e−λx −1 + λx1{x≤1} .
2
1

E e =e (V.34)
]0,∞[

Preuve: on fixe un réel ε > 0 et on note J la composante des petits sauts comme au théorème V.2.11, page 193;
comme dans ce théorème, on note J ε l’approximation de J:
Z
(ε)
X
Jt = ∆Xs 1{ε<∆Xs ≤1} − t x π(dx) .
s∈[0,t] ]ε,1]

La formule exponentielle positive (IV.39) (théorème IV.4.6, page 152) et la remarque IV.4.8 et par la formule
(IV.40), page 153, implique que pour tout λ ∈ R,
(ε) 
Z 
∀λ ∈ R, E e−λJt = exp t π(dx) e−λx −1 + λx .

]ε,1]

On note ici que λ peut prendre aussi bien des valeurs positives que négatives. On utilise ensuite l’inégalité
suivante valable pour tout z ∈ C et tout x ∈ ]0, 1],

−zx X (x|z|)n+2 1
e −1 + zx ≤ ≤ 2 x2 |z|2 e|z| . (V.35)
(n + 2)(n + 1)n!
n∈N
200 CHAPTER V. PROCESSUS DE LÉVY.

On applique
R cette inégalité comme suit: on fixe λ ∈ R alors pour tout x ∈ ]ε, 1], |e−λx −1 + λx| ≤ 12 x2 λ2 e|λ| .
Puisque ]0,1] x2 π(dx) < ∞, par convergence dominée on a
Z Z
−λx
π(dx) e−λx −1 + λx .
 
lim π(dx) e −1 + λx = (V.36)
ε→∞ ]ε,1] ]0,1]

Par le théorème V.2.11, page 193, il existe une suite (εp )p∈N décroissant strictement vers 0 telle que P-
(ε )
p.s. limp→∞ Jt p = Jt . Par (V.36) et par Fatou, on a donc montré
Z 
E e−λJt ≤ exp t π(dx) e−λx −1 + λx < ∞ .
 
∀t ∈ R+ , ∀λ ∈ R, (V.37)
]0,1]

On peut donc poser


Z
−zJt
π(dx) e−zx −1 + zx .
  
∀z ∈ C, F (z) = E e et Λ(z) =
]0,1]

En effet |e−zJt | ≤ e−Re(z)Jt et (V.37) montre que F est bien définie. Par unR résultat élémentaire d’analyse
complexe F est analytique sur C. De même, l’inégalité (V.35) et le fait que ]0,1] x2 π(dx) < ∞ impliquent
que Λ est bien définie et analytique sur C. Il en est de même pour z ∈ C 7→ exp(tΛ(z)). La formule de
Lévy-Khintchine appliquée à Jt implique que

F (−iu) = E eiuJt = exp tΛ(−iu) .


  
∀u ∈ R,

Par conséquent les deux fonctions analytiques sur C, F et exp(tΛ(·)) coïncident sur la droite imaginaire pure:
la différence de ces fonctions est donc analytique sur C et s’annule sur un ensemble possédant des points
d’accumulation dans l’intérieur du domaine d’analycité (qui est C); comme ce domaine est connexe, le principe
des zéros isolés implique que cette différence est la fonction nulle, c’est-à-dire que

E e−zJt = etΛ(z) .
 
∀z ∈ C, ∀t ∈ R+ , (V.38)

Comme dans le théorème V.2.11, page 193, on note ensuite Z la composante continue de X et R sa composante
des grands sauts. Clairement Zt = γBt + tv, où B est un mouvement Brownien réel standard. La transformée
de Fourier Laplace de Z est donc définie sur tout C:

E e−zZt = exp −ztv + 21 γz 2 .


  
∀z ∈ C, ∀t ∈ R+ , (V.39)
P
On rappelle ensuite que Rt = s∈[0,t] ∆Xs 1{∆Xs >1} . La formule exponentielle (IV.39), page 152, implique
alors que
Z 
E e−λRt = exp t π(dx) e−λx −1 .
 
∀t, λ ∈ R+ , (V.40)
]0,1]

Le fait que Xt = Zt + Jt + Rt , l’indépendance de Zt , Jt et de Rt ainsi que (V.38), (V.39) et (V.40), impliquent


(V.34), ce qui termine la preuve du théorème. 

Remarque V.3.11 La preuve du théorème V.3.10 qui précède implique un résultat plus fort qui s’énonce
comme suit. Comme dans le théorème V.2.11, page 193, on note J la composante des petits sauts de X,
V.3. QUELQUES PROPRIÉTÉS; CAS SPÉCIFIQUES. 201

Z sa composante continue et R la composante des grands sauts, qui sont trois processus de Lévy indépendants
dont la somme est X. L’inégalité (V.35), page 199, permet de définir la fonction
Z
∀z ∈ C, ψ (z) := −λz + 2 γz + π(dx) e−zx −1 + zx .
∗ 2
1

]0,1]

Il s’agit d’une fonction analytique sur C et on a montré que pour tout t ∈ R+



z ∈ C 7−→ E e−z(Zt +Jt ) est bien définie, analytique et vaut etψ (z) .
 
(V.41)

On pose ensuite H := {z ∈ C : Re(z) > 0} et H := {z ∈ C : Re(z) ≥ 0}. Pour tout z ∈ H et tout réel x > 1, on a
|e−zx − 1| ≤ 2. Comme π( ]1, ∞[ ) < ∞, on en déduit que
Z
π(dx) e−zx −1 est bien définie et analytique sur H.

z ∈ H 7−→ φ(z) := (V.42)
]1,∞[

On montre facilement que pour tout z ∈ H, E[exp(−zRt )] = exp(tφ(z)). Cela montre les résultats suivants.
• L’exposant de Laplace ψ de X défini au théorème V.3.10 s’étend à H par
Z
∀z ∈ H, ψ(z) = ψ (z) + φ(z) := −λz + 2 γz + π(dx) e−zx −1 + zx1{x≤1} .
∗ 2
1

]0,∞[

De plus, ψ est analytique sur H.


• Pour tout t ∈ R+ , z ∈ H 7→ E[exp(−zXt )] et bien définie, analytique sur H et vaut exp(tψ(z)). 
202 CHAPTER V. PROCESSUS DE LÉVY.
Appendix A

Théorie de la mesure et de l’intégration.

A.1 Rappels sur la mesurabilité.


Définition A.1.1 Soit E un ensemble non-vide. On note la classe de tous les sous-ensembles de E par P(E) := {A ; A ⊂ E}. On
définit les classes d’ensembles suivantes.
(a) E ⊂ P(E) est une tribu si elle vérifie les conditions suivantes.
• E ∈ E;
• Si A ∈ E , alors E\A ∈ E ;
• Si An ∈ E , n ∈ N, alors n∈N An ∈ E .
S

(b) P ⊂ P(E) est un pi-système s’il vérifie les conditions suivantes.


• E ∈ P;
• Si A, B ∈ P, alors A ∩ B ∈ P.

(c) L ⊂ P(E) est une classe monotone si elle vérifie les conditions suivantes.
• E ∈ L;
• Si A, B ∈ L sont tels que A ⊂ B, alors B\A ∈ L ;
• Si An ∈ L , n ∈ N, sont tels que An ⊂ An+1 , alors An ∈ L .
S
n∈N

(d) T ⊂ P(E) est une topologie si elle vérifie les conditions suivantes.
• E ∈ T et ∅ ∈ T .
• Si U, V ∈ T , alors U ∩ V ∈ T .
• Soit Ui ∈ T , i ∈ I, une famille quelconque d’ensembles de T . Alors, Ui ∈ T .
S
i∈I

Les ensembles constituant une topologie sont appelés les ouverts de cette topologie et un ensemble dont le complémentaire est un
ouvert est appelé fermé. 

Exemple A.1.2 La topologie usuelle de R est décrite comme suit: un ouvert de R est une réunion dénombrable d’intervalles ouverts
deux-à-deux disjoints. 

Lemme A.1.3 Soit (Ei , i ∈ I), une famille de tribus de E (resp. de classes monotone, de topologies). Alors,
\
Ei = {A ⊂ E : ∀i ∈ I , A ∈ Ei }
i∈I

est également une tribu (resp. classe monotone, tribu) sur E.

Preuve: exercice élémentaire. 

203
204 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

Définition A.1.4 Soit R ⊂ P(E), une classe de sous-ensembles de E. On pose


\ \ \
σ(R) = E , λ(R) = L et τ (R) = T
E , tribu L , classe monot. T , topologie
R⊂E R⊂L R⊂T

Alors, σ(R) (resp. λ(R), τ (R)) est une tribu (resp. classe monotone, topologie): c’est la tribu (resp. classe monotone, topologie)
engendrée par R. C’est la plus petite tribu (resp. classe monotone, topologie) contenant R. 

Définition A.1.5 Soit E muni d’une topologie T . La classe des boréliens associée à la topologie la tribu σ(T ). Lorsqu’il n’y a pas
ambiguïté sur la topologie considérée, on note souvent cette tribu B(E). 

Remarque A.1.6 Si E est un ensemble non-vide, un théorème bien connu de Cantor montre que Card (E) < Card (P(E)), c’est-
à-dire qu’il n’existe pas de surjection de E sur P(E). On pourrait s’attendre à ce que B(R) et P(R) soient de même cardinal or ce
n’est pas le cas: on peut en effet montrer, par des arguments de récurrence transfinie, que Card (R) = Card (B(R)), c’est-à-dire qu’il
existe une bijection de R sur B(R). D’un point de vue ensembliste, cela signifie qu’il y a peu de Boréliens. Cela montre aussi qu’il
existe beaucoup de sous-ensembles de R qui ne sont pas des Boréliens. Il n’est cependant pas évident d’en exhiber par des méthodes
naïves. 

Définition A.1.7 (Topologie relative, tribu trace) Soit E un ensemble non-vide muni d’une topologie T et d’une tribu E . Soit A ⊂ E
un ensemble non-vide (A n’est ni nécessairement dans T ni dans E ).

(a) On pose TA = {O ∩ A ; O ∈ T }. On remarque facilement que TA est une topologie sur A: on l’appelle la topologie relative
de T sur A.

(b) On pose EA := B ∩ A ; B ∈ E }. On remarque facilement que EA est une tribu sur A: on l’appelle la tribu trace de E sur A.


Dans le cas des tribus Boréliennes, ces notions sont cohérentes, comme le démontre le lemme suivant.

Lemme A.1.8 Soit (E, T ) un espace topologique. Soit A ⊂ E. Alors, la tribu des Boréliens sur A associée à la topologie relative
de T sur A est la tribu trace sur A des Boréliens associée à T , c’est-à-dire

σ(TA ) = B ∩ A ; B ∈ σ(T ) .

Preuve: on pose G = {A ∩ B; B ∈ σ(T )} qui est la tribu trace sur A des Boréliens associés à T . Elle contient TA , on a donc
σ(TA ) ⊂ G .
On pose ensuite H = {B ∈ σ(T ) : A ∩ B ∈ σ(TA )}. Il est facile de montrer que H est une tribu sur E. Par ailleurs elle
contient T , ce qui entraîne que σ(T ) ⊂ H . Or par définition H ⊂ σ(T ), donc H = σ(T ). Par conséquent G ⊂ σ(TA ), ce qui
termine la preuve. 

Le lemme précédent permet de parler sans ambiguïté des Boréliens de [0, 1[ ou des Boréliens d’un ouvert de Rn .

Thèorème de la classe monotone.

Lemme A.1.9 Soit E un ensemble non-vide et L une classe monotone sur E. Alors, L est une tribu ssi L est stable par intersection
finie.

Preuve: supposons que L soit une classe monotone stable par intersection finie. Par définition, E ∈ L . Puisque L est stable par
différence propre, L est stable par passage au complémentaire. Soient A, B ∈ L . Puisque A ∪ B = E\ ((E\A) ∩ (E\B)) et
puisque L est stable par intersection finie, on a A ∪ B ∈ L . Par conséquent, L est stable par union finie.
Soient Bn ∈ L , n ∈ N, une suite quelconque d’éléments de L . On pose An = 0≤p≤n Bp : on a donc A Sn ∈ L , d’après le
S
raisonnement précédent. On remarque que A n ⊂ An+1 . comme L est stable par union dénombrable croissante, n∈N An ∈ L . Or
n∈N Bn = n∈N An . Cela montre que L est stable par union dénombrable: c’est donc une tribu. La réciproque est triviale.
S S


Théorème A.1.10 (Classe monotone) Soit E, un ensemble non-vide. Soit L , une classe monotone sur E. Soit P, un pi-système sur
E. On suppose que P ⊂ L . Alors σ(P) ⊂ L .
A.1. RAPPELS SUR LA MESURABILITÉ. 205

Preuve: pour démontrer le théorème, il suffit de démontrer que λ(P) est une tribu: en effet, par définition de la classe monotone
engendrée, on a P ⊂ λ(P) ⊂ L et si λ(P) est une tribu, on obtient σ(P) ⊂ λ(P). D’après le lemme précédent, il suffit donc de
montrer que λ(P) est stable par intersection finie.
La preuve de cette dernière assertion se fait en plusieurs étapes: pour tout A ⊂ E, on pose tout d’abord LA = {B ⊂ E : A∩B ∈
λ(P)}. On vérifie facilement l’implication suivante:

(A ∈ λ(P)) =⇒ (LA est une classe monotone) . (A.1)

Comme P est un pi-système et comme P ⊂ λ(P) (par définition), pour tout A ∈ P, on a P ⊂ LA ; on déduit de (A.1) que
λ(P) ⊂ LA car λ(P) est la plus petite classe monotone contenant P. On a donc montré:

∀A ∈ P , ∀B ∈ λ(P) , A ∩ B ∈ λ(P) .

Par conséquent P ⊂ LB pour tout B dans λ(P) et donc λ(P) ⊂ LB , pour tout B ∈ λ(P). Autrement dit, pour tous B, C ∈ λ(P),
B ∩ C ∈ λ(P), ce qui montre que λ(P) est stable par intersection finie et ce qui termine la preuve du théorème. 

Nous supposons le lecteur familier avec la notion de mesure positive et nous rappelons le théorème suivant, conséquence du
théorème de classe monotone.

Théorème A.1.11 (Unicité de prolongement des mesures) Soit (E, E ), un espace mesurable. Soit P, un pi-système engendrant E .
Soient µ1 et µ2 , deux mesures sur (E, E ) qui coincident sur P:

∀A ∈ P, µ1 (A) = µ2 (A) .

(i) Si µ1 (E) = µ2 (E) < ∞, alors µ1 = µ2 .

(ii) S’il existe En ∈ P, n ∈ N, tels que µ1 (En ) = µ2 (En ) < ∞, En ⊂ En+1 et E =


S
n∈N En , alors µ1 = µ2 .

Preuve: on prouve d’abord (i). On pose L = {B ∈ E : µ1 (B) = µ2 (B)}. Par hypothèse, on a P ⊂ L . Montrons ensuite que L
est une classe monotone: on voit tout d’abord que E ∈ L . Soient B, C ∈ L tels que B ⊂ C. Comme µ1 et µ2 sont supposées finies,
on a
µ1 (C\B) = µ1 (C) − µ1 (B) = µ2 (C) − µ2 (B) = µ2 (C\B),
qui entraîne bien que C\B ∈ L . Soit Bn ∈ L , n ∈ N, une suite d’ensembles tels que Bn ⊂ Bn+1 . Par les propriétés élémentaires de
mesures positives, [  [ 
µ1 Bn = lim µ1 (Bn ) = lim µ2 (Bn ) = µ2 Bn ,
n→∞ n→∞
n∈N n∈N

ce qui montre que Bn ∈ L . La classe L est donc une classe monotone et le théorème A.1.10 de la classe monotone entraîne que
S
E = σ(P) ⊂ L ⊂ E . Donc L = E , qui prouve (i).
Montrons (ii): pour tout i ∈ {1, 2}, on pose µi,n (B) = µi (B ∩En ), B ∈ E . Clairement, µi,n est une mesure. Comme En ∈ P,
µ1,n et µ2,n coincident sur P et par le point (i) elles sont égales. Soit B ∈ E . On a B ∩ En ⊂ B ∩ En+1 , et que B ∩ En = B.
S
Clairement on a

µ1 (B) = lim µ1 (B ∩ En ) = lim µ1,n (B) = lim µ2,n (B) = lim µ2 (B ∩ En ) = µ2 (B) ,
n→∞ n→∞ n→∞ n→∞

ce qui termine la preuve. 

Produit de tribu Boréliennes. On rappelle la notion de tribu produit en général.

Définition A.1.12 Soient (E1 , E1 ) et (E2 , E2 ) deux espaces mesurables.

(a) On poseP = {A × B
 ; A ∈ E1 , B ∈ E2 }, appelée classe des rectangles mesurables de E1 × E2 . C’est un pi-système car
A × B ∩ A0 × B 0 = A ∩ A0 × B ∩ B 0 .


(b) On note ensuite E1 ⊗ E2 la tribu engendrée par P sur E1 × E2 : E1 ⊗ E2 := σ(P). La tribu E1 ⊗ E2 est appelée tribu produit
de E1 et E2 . 
206 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

On note π1 et π2 les projections canoniques de E1 × E2 sur respectivement E1 et E2 :

∀(x, y) ∈ E1 × E2 : π1 (x, y) = x et π2 (x, y) = y .

Comme π1−1 (A) = A × E2 ∈ E1 ⊗ E2 , la première projection canonique π1 est (E1 ⊗ E2 , E1 )-mesurable. De même, π2 est
(E1 ⊗ E2 , E2 )-mesurable. Il est facile de montrer également que E1 ⊗ E2 est la plus petite tribu sur E1 × E2 rendant mesurables π1 et
π2 , c’est-à-dire, selon la définition A.1.21 page 208,

E1 ⊗ E2 = σ(π1 , π2 )

Soit (E, d), un espace métrique. On note Bd (x, r) = {y ∈ E : d(x, y) < r} la boule ouverte de centre x ∈ E et de
rayon r ∈ R+ . On vérifie que la topologie Td sur E correspondant à la convergence des suites et à la continuité des fonctions
pour la distance d, c’est-à-dire la topologie associée à la distance d, est la topologie engendrée par la classe des boules ouvertes:
Td = τ Bd (x, r); x ∈ E, r ∈ R+ } . Il est facile de voir que
 

Td = U ⊂ E : ∀x ∈ U , ∃r > 0 : Bd (x, r) ⊂ U .

(A.2)

Attention, en général, la tribu des Boréliens associée à Td n’est pas nécessairement la tribu engendrée par les boules ouvertes de
(E, d): cela vient du fait qu’une topologie est stable par union quelconque, alors qu’une tribu n’est stable que par union dénombrable.
Cependant c’est le cas lorsque l’espace est séparable comme le montre le lemme suivant.

Lemme A.1.13 Soit (E, d), un espace métrique séparable, c’est-à-dire admettant une suite xn ∈ E, n ∈ N, qui est dense. On note Td ,
la topologie métrique de (E, d) et B(E) = σ(Td ), la tribu Borélienne correspondante. On pose

R = Bd (xn , q) ; n ∈ N, q ∈ Q+ .


 ouvert U ∈ Td , il existe une suite de boules Bn ∈ R, n ∈ N, telle que U = n∈N Bn . Cela implique Td = τ R et
S 
Alors, pour tout
B(E) = σ R .

Preuve: comme les boules ouvertes sont des ouverts, on a τ (R) ⊂ Td et σ(R) ⊂ B(E). Soit U un ouvert. Pour tout x ∈ U , il existe

rx > 0 tel que Bd (x, rx ) ⊂ U . Comme la suite (xn )n∈N est dense, il existe n(x)
S ∈ N et qx ∈ Q+ tel que d(x, xn(x) ) < qx ≤ rx /2, ce
qui implique que x ∈ Bd (xn(x) , qx ) ⊂ Bd (x, rx ) ⊂ U . On en déduit que U = x∈U Bd (xn(x) , qx ). Comme {xn ; n ∈ N} et Q sont
dénombrables, cela montre que U est une union dénombrable d’éléments de R. Cela implique que Td ⊂ τ (R) et B(E) ⊂ σ(R), ce
qui permet de conclure. 

Définition A.1.14 Soient (E, T 


) et (E 0 , T 0 ), deux espaces topologiques: la topologie produit sur E × E 0 est définie par TE×E 0 :=
τ U × U ; U ∈ T ,U ∈ T
0 0 0

. 

Proposition A.1.15 Soient (E, d) et (E 0 , d0 ), deux espaces métriques dont les tribus Boréliennes sont notées resp. B(E) et B(E 0 ).
On munit E×E 0 de la topologie produit TE×E 0 et on note B(E×E 0 ) la tribu Borélienne correspondante. Pour tous (x1 , y1 ), (x2 , y2 ) ∈
E × E 0 , on pose
D((x1 , y1 ), (x2 , y2 )) = max(d(x1 , x2 ), d0 (y1 , y2 )) .
Les assertions suivantes sont vérifiées.

(i) D est une distance sur E × E 0 , telle que TE×E 0 = TD . Si de plus, E et E 0 sont séparables, alors (E × E 0 , D) est séparable.
(ii) Si E et E 0 sont séparables, alors
B(E × E 0 ) = B(E) ⊗ B(E 0 ) .

Preuve: il est facile de vérifier que D est une distance sur E × E 0 et que BD ((x, y), r) = Bd (x, r) × Bd0 (y, r), qui est un produit
d’ouverts. Cela implique que TD ⊂ TE×E 0 . Soient U ∈ Td et U 0 ∈ Td0 . Pour tout (x, y) ∈ U × U 0 , il existe r, r0 > 0 tels que
Bd (x, r) ⊂ U et Bd0 (y, r0 ) ⊂ U 0 , donc

BD ((x, y), r ∧ r0 )) = Bd (x, r ∧ r0 ) × Bd0 (y, r ∧ r0 ) ⊂ U × U 0 .

Par (A.2) appliqué à D, cela montre que U × U 0 ∈ TD et donc que TE×E 0 ⊂ TD . On a donc montré que TD = TE×E 0 .
Supposons E et E 0 séparables: il existe xn ∈ E, yn ∈ E 0 , n ∈ N, des suites denses. Alors, on vérifie facilement que (xp , yq ) ∈
E × E 0 , p, q ∈ N, est une famille dénombrable de points qui est dense pour D: donc (E × E 0 , D) est séparable. Cela montre (i).
Montrons (ii): on pose R := BD ((xm , yn ), q) ; m, n ∈ N, q ∈ Q∗+ . La forme des boules pour D implique que R ⊂


B(E) ⊗ B(E 0 ). Soit V , un ouvert pour la topologie produit sur E × E 0 . Par (i), V ∈ TD et le lemme A.1.13 appliqué à D implique
A.1. RAPPELS SUR LA MESURABILITÉ. 207

qu’il existe une suite Bn ∈ R, n ∈ N, telle que V = n∈N Bn . Cela entraîne que la topologie produit est incluse dans B(E)⊗B(E 0 )
S
et donc que B(E × E 0 ) ⊂ B(E) ⊗ B(E 0 ).
E = A × E 0 ; A ∈ B(E) . Il est facile de vérifier que c’est une tribu sur

Montrons l’inclusion contraire. Pour cela posons,
E×E 0 et qu’elle est engendrée par U ×E 0 ; U ∈ Td , qui est un ensemble d’ouverts produits. Cela implique que E ⊂ B(E×E 0 ). En


raisonnant de même en l’autre coordonnée, on montre que pour tout A ∈ B(E) et tout B ∈ B(E 0 ), on a A×E 0 et E×B ∈ B(E×E 0 ).
Par conséquent, (A × E 0 ) ∩ (E × B) = A × B ∈ B(E × E 0 ). Cela entraîne donc que B(E) ⊗ B(E 0 ) ⊂ B(E × E 0 ), ce qui permet
de conclure. 

Si E et E 0 sont deux R-espaces vectoriels normés, de normes respectives k · k et k · k0 , pour tout (x, y) ∈ E × E 0 on pose
k(x, y)k00 = max(kxk, kyk0 ). On vérifie que k · k00 est une norme sur le R-espace vectoriel E × E 0 et que le produit de la k · k-
topologie avec la k · k0 -topologie est la k · k00 -topologie sur E × E 0 .
Comme il n’existe qu’une seule topologie de norme sur les espaces de dimension finie, si E et E 0 sont des R-espaces vectoriels de
dimension finie, alors la topologie de norme sur E × E 0 est le produit des topologies de norme sur E et E 0 . Ces faits combinés avec la
proposition précédente entraînent le corollaire suivant.

Corollaire A.1.16 Pour tous m, n ∈ N, B(Rm+n ) = B(Rn ) ⊗ B(Rn ).

Approximation des fonctions mesurables par les fonctions étagées.

Définition A.1.17 (Fonctions étagées) Soit (E, E ), un espace mesurable. Une fonction étagée est une combinaison linéaire de
fonctions indicatrices d’ensembles dans E . Autrement dit s : E → R est étagée si s = 1≤k≤n ck 1Ak , où c1 , . . . , cn ∈ R et
P
A1 , . . . , An ∈ E . 

Proposition A.1.18 Soit f : E → [0, ∞], une fonction E -mesurable. Il existe sn : E → R+ , n ∈ N, une suite de fonctions étagées
E -mesurables positives telles que

lim sn = f ponctuellement et 0 ≤ sn ≤ sn+1 ≤ f , n ∈ N . (A.3)


n→∞
P
Preuve: pour tout n ∈ N, on pose sn = n1{f ≥n} + 0≤k<n2n 1{k2−n ≤f <(k+1)2−n } . On vérifie que les sn satisfont bien les propriétés
désirées. 

Comme conséquence de la proposition précédente, nous démontrons le lemme suivant qui s’avère être d’un usage très pratique.

Lemme A.1.19 Soit (E, E ), unPespace mesurable. Soit f : E → [0, ∞], une fonction E -mesurable. Alors, il existe Bn ∈ E et
cn ∈ R+ , n ∈ N, tels que f = n∈N cn 1Bn .

Preuve: on considère la suite de fonctions étagées sn , n ∈ N, donnée comme précédemment. On pose t0 = s0 et tn = sn − sn−1 ,
pour tout n ∈ N∗ . Les fonctions tn sont étagées positives:
P elles sont donc combinaison linéaire à coefficients positifs de fonctions
indicatrices d’ensembles mesurables. De plus on a f = n∈N tn , ce qui permet de conclure. 

Version fonctionnelle de la classe monotone. Une première application de cette approximation est donnée par la version
fonctionnelle du théorème de la classe monotone.

Théorème A.1.20 (Classe monotone, version fonctionnelle) Soit (E, E ), un espace mesurable. Soit P, un pi-système sur E tel que
σ(P) = E . Soit H , un ensemble d’applications de E dans R. On suppose que l’ensemble de fonctions H satisfait les propriétés
suivantes.

(a) H est un R-espace vectoriel (il contient donc la fonction nulle).

(b) Pour tout C ∈ P, on a 1C ∈ H .

(c) Si fn ∈ H , n ∈ N, et M ∈ R+ sont tels que 0 ≤ fn ≤ fn+1 ≤ M , alors, supn∈N fn ∈ H .

Alors, H contient toutes les fonctions réelles E -mesurables bornées.


208 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

Preuve: on pose L = {B ⊂ E : 1B ∈ H }. Les propriétés (a), (b) et (c) permettent facilement de vérifier que L est une classe
monotone contenant P. Le théorème de la classe monotone A.1.10 (page 204) implique que E = σ(P) ⊂ L . Donc pour tout
B ∈ E , 1B ∈ H .
P f : E → [0, M ], une fonction E -mesurable.
Soit P Le lemme A.1.19 implique qu’il existe cn ∈ R+ et Bn ∈ E , n ∈ N, tels que
f = n∈N cn 1Bn . Pour tout n ∈ N, on pose fn = 0≤k≤n ck 1Bk . Comme H est un espace vectoriel, fn ∈ H , pour tout n ∈ N.
De plus on a 0 ≤ fn ≤ fn+1 ≤ M . Donc f = supn∈N fn ∈ H , par (c). L’espace vectoriel H contient donc toutes les fonctions
E -mesurables positives bornées. Si f : E → R est E -mesurable bornée, alors que qui précède montre que f+ , f− ∈ H et puisque H
est un espace vectoriel f = f+ − f− est dans H . 

Tribu engendrée par des fonctions et théorème de représentation.

Définition A.1.21 Soit E, un ensemble; soit (Ei , Ei ), i ∈ I, une famille d’espaces mesurables; soient fi : E → Ei , i ∈ I, des
fonctions. On pose \
E ⊂ P(E) : E tribu : ∀i ∈ I, fi est (E , Ei )-mesurable .

σ(fi , i ∈ I) =
La tribu σ(fi , i ∈ I) sur E est appelée la tribu engendrée par les fonctions (fi )i∈I . C’est la plus petite tribu sur E rendant mesurables
toutes les fonctions fi . La tribu σ(fi , i ∈ I) dépend des tribus Ei , i ∈ I, bien que cela n’apparaisse pas dans la notation. 

Il est facile de vérifier que


fi−1 (B) ; i ∈ I, B ∈ Ei
 
σ(fi , i ∈ I) = σ .
Lorsqu’on ne considère qu’une seule fonction, la tribu qu’elle engendre est particulièrement simple.

Lemme A.1.22 Soit E, un ensemble non-vide. Soit (E 0 , E 0 ), un espace mesurable. Soit une fonction f : E → E 0 . Alors,

σ(f ) = f −1 (B) ; B ∈ E 0 .

(A.4)

Preuve: exercice. 
Montrons le théorème suivant qui trouve quelques applications en probabilité.

Théorème A.1.23 (Représentation) Soit E, un ensemble. Soit (E 0 , E 0 ), un espace mesurable. Soit f : E → E 0 . On considère
h : E → R. Alors, h est σ(f )-mesurable ssi il existe une fonction ϕ : E 0 → R qui soit E 0 -mesurable et telle que h = ϕ ◦ f .

Preuve: on supposeP d’abord que h est σ(f )-mesurable à valeurs dans R+ . Par le lemme A.1.19, il existe cn ∈ R+ et Bn P∈ σ(f ), n ∈
N, tels que h = n∈N cn 1Bn . Par le lemme A.1.22, il existe An ∈ E 0 tel que Bn = f −1 (An ). On pose alors ϕ∗ = n∈N cn 1An .
Il est clair que ϕ∗ : E 0 → [0, ∞] est E 0 -mesurable et on vérifie que h = ϕ∗ ◦ f . Comme h(x) < ∞, pour tout x ∈ E, on peut poser
ϕ = ϕ∗ 1ϕ−1 ([0,∞[ ) , avec la convention 0 × ∞ = 0. On voit alors que ϕ : E 0 → R+ est E 0 -mesurable et telle que h = ϕ ◦ f , ce qui

prouve l’implication directe du théorème dans le cas des fonctions positives. Le cas d’une fonction h réelle s’obtient simplement en
considérant les parties positives et négatives de h. La réciproque du théorème est élémentaire: nous laissons sa preuve au lecteur. 

A.2 Ensemble négligeables et complétion d’un espace mesuré.


Définition A.2.1 Soit (E, E , µ), un espace mesuré.

(a) On note
Nµ = A ⊂ E : ∃B ∈ E tel que A ⊂ B et µ(B) = 0 .


L’ensemble Nµ est appelé classe des ensembles µ-négligeables. On remarque qu’un ensemble µ-négligeable n’est pas néces-
sairement dans la tribu E .

(b) On note E µ la tribu engendrée par E et Nµ : E µ = σ(E , Nµ ). On appelle E µ la tribu µ-complétée de E .

(c) L’espace mesuré (E, E , µ) est dit complet si E µ = E , autrment dit si Nµ ⊂ E . 

Proposition A.2.2 Soit (E, E , µ), un espace mesuré. Alors, Nµ est stable par union dénombrable.

Preuve: soient NnS ∈ Nµ . Il existe


P Bn ∈ E tel que Nn ⊂ Bn et µ(Bn ) = 0. Donc n∈N Nn ⊂ n∈N Bn ∈ E , et par sigma
S S
sous-additivité, µ( n∈N Bn ) ≤ n∈N µ(Bn ) = 0. 
A.2. ENSEMBLE NÉGLIGEABLES ET COMPLÉTION D’UN ESPACE MESURÉ. 209

Théorème A.2.3 (Complétion d’un espace mesuré) Soit (E, E , µ), un espace mesuré. On note Nµ l’ensemble des µ-négligeables
de E et on pose
E µ = σ(E , Nµ ) .
Les assertions suivantes sont vraies.

(i) Si B ∈ E µ , alors il existe A ∈ E tel que A ⊂ B et B\A ∈ Nµ .


(ii) Il existe une unique mesure positive µ : E µ → [0, ∞] prolongeant µ.
(iii) Les ensembles µ-négligeables sont exactement les µ-négligeables. Par conséquent, l’espace mesuré (E, E µ , µ) est complet:
on l’appelle le complété de (E, E , µ).

Preuve: on pose F = B ⊂ E : ∃A ∈ E tel que A ⊂ B et B\A ∈ Nµ . On a clairement E ⊂ F et Nµ ⊂ F . De plus, la définition de




F montre que F ⊂ E µ . Pour montrer le point (i), il suffit donc de montrer que F est une tribu. Clairement E ∈ F . Vérifions ensuite
S Bn ∈ F ,S
la stabilité par union dénombrable: soient n ∈ N. Il existe An ∈ E , n ∈ N, tels que An ⊂ Bn et Nn := SBn \An ∈ Nµ . Pour
simplifier les notations on pose A = An et B = Bn . On a donc A ∈ E , A ⊂ B, et on remarque que B\A ⊂ n∈N Nn ∈ Nµ , par
la proposition A.2.2. Donc B\A ∈ Nµ , ce qui montre que B ∈ F . Montrons ensuite la stabilité par passage au complémentaire: on se
donne B ∈ F . Il existe donc A ∈ E tel que A ⊂ B et N := B\A ∈ Nµ . On a donc B = A ∪ N . Par définition des µ-négligeables, il
existe N0 ∈ E tel que N ⊂ N0 et µ(N0 ) = 0. On remarque alors que:

E\B = (E\A) ∩ (E\N ) = ( (E\N0 ) ∩ (E\A) ) ∪ ( N0 ∩ (E\A) ∩ (E\N ) ) ,

Comme (E\N0 ) ∩ (E\A) ∈ E et N0 ∩ (E\A) ∩ (E\N ) ∈ Nµ , on a E\B ∈ F . La classe d’ensembles F est donc bien une tribu, ce
qui montre le point (i) du théorème.
Montrons le point (ii): pour tout B de la forme A ∪ N , où A ∈ E et N ∈ Nµ , il est naturel de poser µ(B) = µ(A). Il faut tout
d’abord vérifier que cela est cohérent, c’est-à-dire que cela ne dépend pas du choix de A et de N : supposons que B = A0 ∪ N 0 , avec
A0 ∈ E et N 0 ∈ Nµ . On pose A00 = A ∩ A0 . Alors

A\A00 ⊂ N ∪ N 0 et A0 \A00 ⊂ N ∪ N 0 .

Or N ∪ N 0 est un µ-négligeable. Il existe donc N0 ∈ E tel que N ∪ N 0 ⊂ N0 et µ(N0 ) = 0 et comme A\A00 et A0 \A00 sont contenus
dans N0 (et appartiennent à E ), on a µ(A\A00 ) = µ(A0 \A00 ) = 0. Or

µ(A) = µ(A00 ) + µ(A\A00 ) = µ(A00 ) et µ(A0 ) = µ(A00 ) + µ(A0 \A00 ) = µ(A00 ) .

Donc µ(A) = µ(A0 ) et la définition de µ(B) ne dépend pas du choix de A et N .


Il est clair que µ(∅) = 0. Il faut montrer ensuite que µ est sigma-additive: soient Bn = An ∪ Nn , n ∈ N, une Ssuite d’éléments
E µ
n ∈ E et Nn ∈ Nµ , pour tout n ∈ N. Pour simplifier les notations, on pose B =
S
deux-à-deux disjoints de , où A Bn , A = An
et N = Nn . On a donc B = A ∪ N . Il est clair que A ∈ E et la proposition A.2.2 implique que N ∈ Nµ . Par définition, on a
S
µ(B)P= µ(A). Par ailleurs,
P on observe que les An sont disjoints deux-à-deux. Cela, combiné avec la sigma-additivité de µ, implique
que n∈N µ(Bn ) = n∈N µ(An ) = µ(A) = µ(B), ce qui montre bien la sigma-additivité de µ.
Il reste ensuite à démontrer l’unicité: supposons que ν soit une mesure positive sur l’espace mesurable (E, E µ ) telle que µ(A) =
ν(A), pour tout A ∈ E . Cela implique que Nµ ⊂ Nν . Soit B ∈ E µ . Le point (i) implique l’existence de A ∈ E et de N ∈ Nµ tels que
B = A ∪ N . Comme N ∈ Nν , ν(B) = ν(A) et donc ν(B) = ν(A) = µ(A) = µ(B), ce qui montre que ν = µ.
Montrons enfin la complétude de l’espace mesurable (E, E µ , µ): tout d’abord on a clairement Nµ ⊂ Nµ . De plus, si N ∈ Nµ , il
existe N1 ∈ E µ tel que N ⊂ N1 . Cela implique que N ∈ Nµ . Donc Nµ = Nµ , ce qui montre le résultat voulu. 
La définition de l’intégrale contre une mesure positive implique immédiatement le résultat suivant: si g : E → R est une
application E -mesurable qui est soit µ-intégrable soit à valeurs dans [0, ∞], alors:
Z Z
g dµ = g dµ . (A.5)
E E

Le théorème suivant discute des liens entre les fonctions E -mesurables et les fonctions E µ -mesurables ainsi que de leurs intégrales
éventuelles contre respectivement µ et µ.

Théorème A.2.4 Soit (E, E , µ), un espace mesuré. Soit (E, E µ , µ), son complété. Alors les assertions suivantes sont vraies.

(i) Pour tout B ∈ E µ , il exite A1 , A2 ∈ E tels que

A1 ⊂ B ⊂ A2 , µ(A1 ) = µ(B) = µ(A2 ) et µ(A2 \A1 ) = 0 .


210 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

(ii) Soit h : E → [0, ∞], une application E µ -mesurable. Il existe h1 , h2 : E → [0, ∞], deux applications E -mesurables telles que
h1 ≤ h ≤ h2 et telles que Z Z Z
h1 dµ = h dµ = h2 dµ et µ({h1 < h2 }) = 0 .
E E E

(iii) Soit h : E → R, une application E -mesurable. Il existe h1 , h2 : E → R, E -mesurables telles que h1 ≤ h ≤ h2 et


µ

µ({h1 < h2 }) = 0. De plus, h est µ-intégrable ssi h1 et (ou) h2 sont µ-intégrables, et dans ce cas on a
Z Z Z
h1 dµ = h dµ = h2 dµ . (A.6)
E E E

Preuve: montrons (i). Pour cela on se donne B ∈ E . On sait qu’il existe A ∈ E et N ∈ Nµ tels que A ∪ N = B. Comme N
µ

est µ-négligeable, il existe N0 ∈ E tel que N ⊂ N0 et µ(N0 ) = 0. On pose alors A1 = A et A2 = A ∪ N0 qui satisfont bien les
propriétés désirées.
Montrons (ii): le lemme A.1.19 page 207, implique qu’il existe cn ∈ R+ , Bn ∈ E µ , n ∈ N tels que h = n∈N cn 1Bn . Le point
P
(i) implique qu’il existe An , An ∈ E tels que An ⊂ B ⊂ An , µ(An ) = µ(Bn ) = µ(An ) etS
1 2 1 2 1 2 2 1
µ(An \A2 ) = 0. Pour i = 1 et 2, on pose
hi = n∈N cn 1Ain , qui est E -mesurable. On a bien h1 ≤ h ≤ h2 . De plus {h1 < h2 } ⊂ n∈N A2n \A1n , donc µ({h1 < h2 }) = 0.
P

Pour i = 1 et 2, la proposition ?? implique E hi dµ = n∈N cn µ(Ain ) = n∈N cn µ(Bn ) = E hdµ, ce qui montre le point (ii). Le
R P P R

point (iii) se déduit facilement en appliquant (ii) à la partie positive et négative de la fonction h : E → R. 

Corollaire A.2.5 Soit (E, E , µ), une espace mesuré. Soit (E, E µ , µ), son complété. Soit h : E → I, une application E µ -mesurable,
où I désigne R ou C. Alors, il existe deux fonctions h∗ , g : E → I telles que h = h∗ + g, avec h∗ E -mesurable et g nulle µ-p.p. et
donc E µ -mesurable. R
R si ∗l’intégrale E h dµ
De plus, R est bien définie (soit que h soit positive, soit que h soit µ-intégrable), alors il en est de même pour
l’intégrale E h dµ et on a bien E h dµ = E h∗ dµ.
R

Preuve: lorsque I = R, il suffit de prendre h∗ = h1 et g = h − h1 , où h1 est comme dans le théorème A.2.4 (iii). Lorsque I = C,
on se ramène au cas réel en considérant la partie réelle de f et sa partie imaginaire. 

Tribu universellement complétées On rappelle la notion de tribu des universellement mesurable.

Définition A.2.6 Soit (E, E ), un espace mesurable. On note M1 (E) l’ensemble des mesures de probabilités µ : E → [0, 1]. La tribu
des universellement mesurable est définie par \
E uni = Eµ .
µ∈M1 (E)

On a clairement E ⊂ E uni
⊂ E , pour toute mesure µ ∈ M1 (E).
µ


Il est clair que si f : E → R est une fonction E uni -mesurable, alors pour toute mesure µ ∈ M1 (E), l’intégrale
R
E
f dµ est bien définie.

A.3 Régularité des mesures.


On considère un espace métrique (E, d), muni de sa tribu des Boréliens notée B(E). Pour tout A ⊂ E, on note Å l’intérieur de A
qui est le plus grand ouvert contenu dans A et A, l’adhérence de A, qui est le plus petit fermé contenant A. Pour tout x ∈ E et tout
r ∈ R+ , on note B(x, r) (resp. B(x, r)) la boule ouverte (resp. fermée) de centre x et de rayon r. Pour tout A ⊂ E, non-vide, on
définit
∀x ∈ E , d(x, A) = inf d(x, y) ,
y∈A

qui est fonction distance à A. On voit facilement que d(·, A) est 1-Lipschitzienne, c’est-à-dire que

∀x, x0 ∈ E , |d(x, A) − d(x0 , A)|≤ d(x, x0 ) .

Cela implique en particulier que d(·, A) est continue. Il est facile de voir que l’ensemble de ses zéros est l’adhérence de A:

x ∈ E : d(x, A) = 0 = A .

Donc, si F est un fermé d(x, F ) = 0 ssi x ∈ F .


A.3. RÉGULARITÉ DES MESURES. 211

Définition A.3.1 Soit (E, T ), un espace topologique, dont la tribu Borélienne est notée B(E). Soit µ : B(E) → [0, ∞], une mesure
positive.

(a) La mesure µ est dite régulière extérieurement pour les ouverts si pour tout A ∈ B(E)

µ(A) = inf µ(U ) ; A ⊂ U et U ouvert . (A.7)

(b) La mesure µ est dite régulière intérieurement pour les fermés si pour tout A ∈ B(E)

µ(A) = sup µ(F ) ; F ⊂ A et F fermé . (A.8)

(c) La mesure µ est dite régulière intérieurement pour les compacts si pour tout A ∈ B(E)

µ(A) = sup µ(K) ; K ⊂ A et K compact . (A.9)

(d) Une mesure µ : B(E) → [0, ∞] est dite tendue, si pour tout ε > 0, il existe un compact Kε tel que µ(E\Kε ) < ε. 

Théorème A.3.2 Soit (E, d), un espace métrique. Soit µ : B(E) → R+ , une mesure finie. Alors, µ est régulière extérieurement pour
les ouverts et intérieurement pour les fermés.

Preuve: on note E la classe des ensembles A ∈ B(E) satisfaisant (A.7) et (A.8). Soit U , un ouvert de E: (A.7) est évidente S pour
A = U . Pour tout n ∈ N, on pose Fn = {x ∈ E : d(x, E\U ) ≥ 2−n }. Alors, Fn est un fermé; on a Fn ⊂ Fn+1 ⊂ U et U = n∈N Fn .
On a donc limn µ(Fn ) = µ(U ), ce qui implique que U ∈ E . Donc E contient les ouverts. Par conséquent, pour prouver le théorème,
il suffit de montrer que E est une tribu.
Il est clair que E ∈ E et, comme µ est finie, E est stable par passage au complémentaire. Soit An ∈ E , n ∈ N. Soit εS> 0. Il existe
−n−1
des ouverts Un et desSfermés Fn tels que Fn ⊂ An ⊂ US n , µ(An \Fn ) < 2 ε et µ(Un \An ) < 2−n−1 ε. On pose U = n∈N Un , qui
est un ouvert et A = n∈N An . On a A ⊂ U et U \A ⊂ n∈N Un \An . Comme µ est sigma sous-additive,
X
µ(U ) = µ(A) + µ(U \A) ≤ µ(A) + µ(Un \An ) ≤ µ(A) + ε .
n∈N
S S
Comme
S S An ) = µ(A) et comme µ est finie, il existe N tel que µ( 0≤n≤N
limN µ( 0≤n≤N S An ) ≥ µ(A) − ε. On pose B =
0≤n≤N An et F = 0≤n≤N F n , qui est un fermé tel que F ⊂ B ⊂ A. Comme B\F ⊂ 0≤n≤N An \Fn , on a

X
µ(A) − ε ≤ µ(B) = µ(F ) + µ(B\F ) ≤ µ(F ) + µ(An \Fn ) ≤ µ(F ) + ε .
0≤n≤N

On a donc montré que pour tout ε > 0, il existe un ouvert U et un fermé F tels que F ⊂ A ⊂ U et µ(U )−ε ≤ µ(A) ≤ µ(F ) + 2ε, ce qui
permet de montrer que A ∈ E . La classe E est donc une tribu contenant les ouverts, ce qui termine la preuve du théorème. 

Lorsque l’espace est séparable complet, il est possible d’être plus précis. On montre tout d’abord le résultat suivant, dû à Ulam.

Théorème A.3.3 (Théorème d’Ulam) Soit (E, d), un espace métrique séparable et complet. Soit µ : B(E) → R+ , une mesure finie.
Alors µ est tendue.

Preuve: on fixe ε ∈ ]0, 1[ et on se donne


S une suite xn ∈ E, n ∈ N qui est dense dans E, ce qui implique pour tout p ∈ N que
S −p −p
n∈N B(xn , 2 ) = E. Puisque limn µ( 0≤k≤n B(x k , 2 )) = µ(E) < ∞ il existe Np ∈ N tel que
 [ 
µ E\ B(xn , 2−p ) < ε2−p−1 .
0≤n≤Np

On pose alors Kε = p∈N 0≤n≤Np B(xn , 2−p ). Il est clair que c’est un fermé et qu’il est pré-compact: c’est donc un compact. Par
T S

ailleurs, E\Kε = p∈N E \ 0≤n≤Np B(xn , 2−p ) et par sigma sous-additivité de µ, on a µ(E\Kε ) < p∈N ε2−p−1 = ε.
S S  P


Théorème A.3.4 Soit (E, d), un espace métrique séparable et complet. Soit µ : B(E) → R+ , une mesure finie. Alors, µ est régulière
intérieurement pour les compacts.
212 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

Preuve: soit A ∈ B(E). Soit ε > 0. Par le théorème A.3.2, il existe un fermé F ⊂ A tel que µ(A\F ) < ε. Par le théorème A.3.3
d’Ulam, il existe Kε ⊂ E, compact tel que µ(E\Kε ) < ε. On pose K = Kε ∩ F , qui est compact tel que K ⊂ F ⊂ A. On remarque
que F \K ⊂ E\Kε et on a
µ(A) = µ(A\F ) + µ(F \K) + µ(K) < ε + µ(E\Kε ) + µ(K) < 2ε + µ(K) ,
ce qui implique le résultat voulu. 
On étend ces résultats aux mesures qui ne sont pas finies, avec des restrictions sur l’espace métrique. Tout d’abord deux définitions.

Définition A.3.5 Soit (E, d), un espace métrique et µ : B(E) → [0, ∞], une mesure positive.
(a) La mesure µ est dite de Radon si pour tout compact K ⊂ E, on a µ(K) < ∞.
(b) L’espace (E, d) est dit localement compact si pour tout x ∈ E, il existe r > 0 tel que la boule fermée de centre x et de rayon r
soit compacte. 

Lemme A.3.6 Soit (E, d), un espaceSmétrique localement


S compact et séparable. Alors, il existe une suite de compacts Kn ⊂ E,
n ∈ N, tels que Kn ⊂ K̊n+1 et E = n∈N Kn = n∈N K̊n .

Preuve: soit xq ∈ E, q ∈ N, une suite dense. On pose S = (q, p) ∈ N2 : B(xq , 2−p ) est compacte . Comme E est localement


compact, pour tout x ∈ E, il existe rx > 0 tel que B(x, rx ) soit compacte. Comme (xq )n∈N est dense, il existe qx , px ∈ N tel
−px
S qx , x) < 2
que d(x < rx /2. On a donc x ∈ B(xqx , 2−px ) ⊂ B(x, r) . Cela montre d’une part que (qx , px ) ∈ S, et comme
E = x∈E B(xqx , 2−px ), on a
[
E= B(xq , 2−p ) . (A.10)
(q,p)∈S

Pour tout n ∈ N, on pose alors Cn = (q,p)∈S:p,q≤n B(xq , 2−p ). C’est un compact, car union finie de compacts. On a clairement
S
S
Cn ⊂ Cn+1 et (A.10) implique que n∈N Cn = E.
On définit les Kn à partir des Cn par récurrence: on pose K0 = C0 . Supposons que Kn soit construit comme dans l’énoncé.
On effectue un recouvrement de Kn ∪ Cn+1 par des boules ouvertes d’adhérence compacte, ce qui est toujours possible car (E, d) est
supposé localement compact. On extrait de ce recouvrement un recouvrement fini B1 ∪ . . . ∪ Bp , ce qui est possible car Kn ∪ Cn+1
est compact; on pose alors Kn+1 = B1 ∪ . . . ∪ Bp , qui vérifie bien Kn ⊂ B1 ∪ . . . ∪ Bp ⊂ K̊n+1 . 
On en déduit le théorème suivant.

Théorème A.3.7 Soit (E, d), un espace métrique localement compact séparable. Soit µ : B(E) → [0, ∞], une mesure de Radon.
Alors µ est régulière extérieurement pour les ouverts et intérieurement pour les compacts.

Preuve: on se donne Kn et K̊n comme dans le lemme A.3.6. Soit A ∈ B(E). Montrons la régularité extérieure. Si µ(A) = ∞, alors
µ(A) = µ(E), ce qui montre la régularité extérieure dans ce cas car E est ouvert.
On suppose que µ(A) < ∞. Soit ε > 0. Par le théorème A.3.2 appliqué à µ( · S ∩ K̊n ), il existe un ouvert Un tel que A ∩ K̊n ⊂ Un
et tel que µ(Un ∩ K̊n )−2−n−1 ε ≤ µ(A ∩ K̊n ). On pose Vn = Un ∩ K̊n et V = n∈N Vn . Alors V est un ouvert contenant A et on a
S P
V \A ⊂ n∈N Vn \(A ∩ K̊n ). Par sigma sous-additivité µ(V \A) ≤ n∈N µ(Vn \(A ∩ K̊n )) < ε. Donc µ(V )−ε ≤ µ(A). Comme ε
est arbitrairement petit, on obtient la régularité extérieure.
Montrons la régularité intérieure. On remarque que (Kn , d) est un espace métrique séparable complet et on note µn = µ(· ∩ Kn ),
la mesure trace de µ sur Kn . Soit A ∈ B(E). Le théorème A.3.4 appliqué à µn , montre qu’il existe un compact Cn ⊂ A ∩ Kn tel
que µ(A ∩ Kn ) ≤ 2−n + µ(Cn ). Donc
µ(A ∩ Kn ) − 2−n ≤ µ(Cn ) ≤ µ(A) .
Or limn ↑ µ(A ∩ Kn ) = µ(A), donc µ(A) = limn µ(Cn ), et on conclut. 

A.4 Constructions de mesures.


Mesures extérieures
Définition A.4.1 Soit E un ensemble non-vide. Une fonction µ : P(E) → [0, ∞] est appelée mesure extérieure si µ(∅) = 0 et si
X
µ(A) ≤ µ(Bn ) ,
n∈N
S
pour tout A ⊂ E et pour tous Bn ⊂ E, n ∈ N, tels que A ⊂ n∈N Bn . 
A.4. CONSTRUCTIONS DE MESURES. 213

Il est clair que si A ⊂ B ⊂ E, alors µ(A) ≤ µ(B). Il est également clair qu’une mesure extérieure est sigma sous-additive. Une mesure
extérieure est définie pour tous les sous-ensembles de E. Contrairement à ce que son nom peut suggérer, une mesure extérieure n’est
pas, en général, une mesure positive. Il s’avère en revanche que sa restriction à une certaine classe d’ensembles pour laquelle elle est
additive, est une mesure positive. On rappelle que B\A = B ∩ (E\A) = {x ∈ B : x ∈ / A} et qu’il n’est pas nécessaire de supposer
que B ⊂ A pour utiliser cette notation.

Définition A.4.2 (Ensembles mesurables) Soit E un ensemble non-vide et µ, une mesure extérieure sur E. Un sous-ensemble B ⊂ E
est dit µ-mesurable si
∀X ⊂ E , µ(X) = µ(X ∩ B) + µ(X\B) .
La classe des ensembles µ-mesurables est notée E (µ). 

Il est clair que E (µ) est stable par passage au complémentaire, qu’elle contient E et ∅. Par la propriété de sous-additivité de µ, on voit
que
B ∈ E (µ) ⇐⇒ ∀X ⊂ E, µ(X) ≥ µ(X ∩ B) + µ(X\B) . (A.11)

Théorème A.4.3 Soit E, un ensemble non-vide et µ : P(E) → [0, ∞], une mesure extérieure.

(i) E (µ) est une tribu contenant les ensembles N ⊂ E tels que µ(N ) = 0.

(ii) La restriction de µ à E (µ) est une mesure positive.

Preuve: soit N ⊂ E tel que µ(N ) = 0. Alors pour tout X ⊂ E, on a µ(X ∩ N ) ≤ µ(N ) = 0. Donc µ(X ∩ N ) + µ(X\N ) = µ(X\N ) ≤
µ(X) et (A.11) implique que N ∈ E (µ).
Montrons ensuite que E (µ) est stable par union finie: soient B, C ∈ E (µ) et X ⊂ E. On a donc
 
µ(X) = µ(X ∩ B) + µ(X\B) = µ(X ∩ B) + µ (X\B) ∩ C + µ X\(B ∪ C)
 
≥ µ (X ∩ B) ∪ ((X\B) ∩ C) + µ X\(B ∪ C)
 
≥ µ X ∩ (B ∪ C) + µ X\(B ∪ C)

et (A.11) implique que B ∪ C ∈ E (µ). On remarque ensuite la propriété suivante découlant directement de la définition de E (µ):

∀X ⊂ E, ∀B, C ∈ E (µ) tels que B ∩ C = ∅, µ X ∩ (B ∪ C) = µ(X ∩ B) + µ(X ∩ C) .



(A.12)

Montrons ensuite que E (µ) est stable par union dénombrable: soient Bn ∈ E (µ), n ∈ N. On pose C0 = B0 et Cn =
S  S 
0≤k≤n Bk \ 0≤k≤n−1 Bk ,
pour tout n ≥ 1. Comme E (µ) est stable par union finie et par passage au complémentaire, elle S
est stable par intersection finie et donc
Cn ∈ E (µ). On observe aussi que les Cn sont disjoints deux-à-deux et que B := n∈N Bn = n∈N Cn . Par une application répétée
S
de (A.12), on a
 [   [   [  X
µ(X) = µ X \ Ck + µ X ∩ Ck = µ X \ Ck + µ(X ∩ Ck )
0≤k≤n 0≤k≤n 0≤k≤n 0≤k≤n
X
≥ µ(X\B) + µ(X ∩ Ck ) .
0≤k≤n

P S
Lorsque n → ∞, on a µ(X) ≥ µ(X\B) + n∈N µ(X ∩ Cn ). Or X ∩ B = n∈N X ∩ Cn . Par sigma sous-additivité de µ, on en
déduit que X
µ(X) ≥ µ(X\B) + µ(X ∩ Cn ) ≥ µ(X\B) + µ(X ∩ B) (A.13)
n∈N

et donc B ∈ E (µ) par (A.11). Cela montre que E (µ) est une tribu et cela termine la preuve de (i).
S que µ est sigma-additive sur E (µ): soient Cn ∈ E (µ), n ∈ N, deux-à-deux disjoints. Il suffit alors d’appliquer
Il reste à prouver
(A.13) à X = B = n∈N Cn . 

On prouve ici un lemme technique utilisé plus loin.

Lemme A.4.4 Soit E, un ensemble non-vide. Soit µ : P(E) → [0, ∞], une mesure extérieure. On note E (µ) la classe des ensembles
µ-mesurables. Soit f : E → [−∞, ∞]. Alors, f est E (µ)-mesurable si elle satisfait
 
∀ X ⊂ E, ∀ a, b ∈ R tels que a < b, µ(X) ≥ µ X ∩{f ≤ a} + µ X ∩{f ≥ b} . (A.14)
214 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

Preuve: on suppose (A.14). Il faut montrer que {f ≤ x} ∈ E (µ) pour tout x ∈ R. On fixe XS⊂ E tel que µ(X) < ∞ et x ∈ R. Soient
a1 ≤ b1 < a2 ≤ b2 . . . < an ≤ bn . On applique (A.14) à a = bn−1 , b = an et X ∗ = X ∩ 1≤k≤n {f ∈ [ak , bk ]}, pour obtenir
 [ 
= µ(X ∗ ) ≥ µ X ∗ ∩{f ≤ bn−1 } + µ X ∗ ∩{f ≥ an }
 
µ(X) ≥ µ X ∩ {f ∈ [ak , bk ]}
1≤k≤n
 [  
= µ X∩ {f ∈ [ak , bk ]} + µ X ∩{f ∈ [an , bn ]}
1≤k≤n−1
X 
≥ µ X ∩{f ∈ [ak , bk ]} ,
1≤k≤n

[x+2−2n−1 , x+2−2n ]} et que µ(X) ≥  n∈N µ X∩{f ∈


P  P
par une récurrence immédiate. On en déduit que µ(X) ≥ n∈N µ X∩{f ∈P
−2n−2 −2n−1 −n−1 −n

[x+2 , x+2 ]} . En sommant ces deux inégalités, on obtient que n∈N µ X ∩{f ∈ [x+2 , x+2 ]} ≤ 2µ(X) < ∞.
Pour tout ε > 0, il existe nε tel que
X
µ X ∩ {f ∈ [x + 2−n−1 , x + 2−n ]} ≥ µ X ∩ {f ∈ ]x, x + 2−nε ]} ,
 
ε> (A.15)
n≥nε

la dernière inégalité étant une conséquence de la sigma sous-additivité de µ. On a donc

µ X ∩{f ≤ x} +µ X ∩{f > x} ≤ µ X ∩{f ≤ x} +µ X ∩{f ∈ ]x, x + 2−nε ]} +µ X ∩{f ≥ x + 2−nε }


    

≤ µ X ∩{f ≤ x} +µ X ∩{f ≥ x + 2−nε } + ε


 

≤ µ(X) + ε ,

par sous-additivité de µ pour la première inégalité,  la deuxième et par (A.14) pour la troisième. Comme ε peut être
par (A.15) pour
arbitrairement petit, on a donc µ X ∩{f ≤ x} +µ X ∩{f > x} ≤ µ(X), et cela montre que {f ≤ x} ∈ E (µ) par (A.11). Comme


x est arbitraire dans R, cela montre que f est E (µ)-mesurable. 

Extension de Carathéodory. Construction de la mesure de Lebesgue sur R. Cette section se propose, à partir
d’une fonction additive d’ensembles, de construire un prolongement qui est une mesure. Plus précisément, on introduit les définitions
suivantes.

Définition A.4.5 Soit E, un ensemble non-vide.


(a) A ⊂ P(E) est une algèbre si E ∈ A et si A est stable par passage au complémentaire et par union finie.
(b) Soit A , une algèbre sur E. Une fonction d’ensemble µ : A → [0, ∞] est dite additive si

∀A, B ∈ A tels que A ∩ B = ∅, µ(A ∪ B) = µ(A) + µ(B) .

(c) Soit A , une algèbre sur E. Une fonction d’ensemble µ : A → [0, ∞] est dite sigma additive si
[ [  X
∀An ∈ A , n ∈ N, deux-à-deux disjoints et tels que An ∈ A , µ An = µ(An ) .
n∈N n∈N n∈N

An ∈ A dans cette définition car a priori A n’est pas stable par union
S
On remarque qu’il est nécessaire d’imposer n∈N
dénombrable.
(d) Soit AS, une algèbre sur E. Une fonction d’ensemble µ : A → [0, ∞] est dite sigma finie s’il existe En ∈ A , n ∈ N, tels que
E = n∈N En et µ(En ) < ∞, pour tout n ∈ N. 

Il est clair que si µ est additive sur une algèbre A , alors µ(∅) = 0 et pour tous A, B ∈ A tels que A ⊂ B, on a µ(A) ≤ µ(B). En
général, une fonction additive d’ensembles n’est pas sigma additive. La proposition suivante donne un critère utile de sigma additivité.

Proposition A.4.6 Soit E, un ensemble non-vide. Soit A , une algèbre sur E. Soit µ : A → R+ , une fonction additive. On suppose
que µ(E) < ∞. Alors, il y a équivalence entre les deux assertions suivantes.

(i) µ est sigma additive sur A .


(ii) Pour tous An ∈ A , n ∈ N, tels que An+1 ⊂ An et
T
n∈N An = ∅, on a limn µ(An ) = 0.
A.4. CONSTRUCTIONS DE MESURES. 215

Preuve: montrons d’abord (i) =⇒ (ii). Soit S = An \An+1 , n ∈ N. Les Bn sont des
(An )n∈N comme dans (ii). On pose Bn P
ensembles de A deux-à-deux disjoints tel que p≥n Bp = An ∈ A . Donc µ(An ) = p≥n µ(Bp ), qui est le reste d’une série
convergente car µ(E) < ∞. Donc limn µ(An ) = 0.
Montrons (ii) =⇒ (i): soient Bn ∈ A , n ∈ N, deux-à-deux disjoints tels que B := n∈N Bn ∈ A . On pose An = B\(B0 ∪
S
. . . ∪ Bn ). On voit que les An satisfont les conditions de (ii). Comme µ est finie
X
µ(An ) = µ(B) − µ(B0 ∪ . . . ∪ Bn ) = µ(B) − µ(Bk ) ,
0≤k≤n
P
et (ii) implique que µ(B) = n∈N µ(Bn ), ce qui prouve que µ est sigma additive. 
Tout comme les mesures positives, les fonctions sigma additives sont stables par restriction et sommation, comme le montre la
proposition suivante dont la preuve, laissée au lecteur.

Proposition A.4.7 Soit E, un ensemble non-vide. Soit A une algèbre sur E.

(i) Soit µ : A → [0, ∞], une fonction sigma additive. Soit A ∈ A . Alors µ(· ∩ A) : A → [0, ∞] est sigma additive.
(ii) Soient µn : A → [0, ∞], n ∈ N, des fonctions sigma additives. Alors n∈N µn : A → [0, ∞] est sigma additive.
P

La proposition suivante montre l’existence d’une fonction sigma-additive sur les unions finies d’intervalles qui correspond à la
notion intuitive de longueur.

Proposition A.4.8 On note P la classe des intervalles de R et A la classe des unions finies d’intervalles deux-à-deux disjoints. Alors,
les assertions suivantes sont vraies.
(i) P est un pi-système engendrant les Boréliens de R.
(ii) A est une algèbre contenant P, donc σ(A ) = B(R).
(iii) Il existe une fonction long : A → [0, ∞] qui est sigma additive, sigma finie et telle que
   
∀a, b ∈ R tels que a ≤ b, b − a = long [a, b] = long ]a, b] = long [a, b[ = long ]a, b[ .

Preuve: (i) est un fait élémentaire. Il est clair que P ⊂ A , donc R ∈ A . Il est facile de vérifier que A est stable par union
finie. Comme le complémentaire d’un intervalle est la réunion d’au plus deux intervalles disjoints, A est stable par passage au
complémentaire, ce qui prouve (ii).
Soit I un intervalle d’extrémités a et b, avec a ≤ b. On pose long(I) = b − a. Si I est un intervalle non-borné, on pose
long(I) = ∞.
P longq : A → [0, ∞] qui est sigma-additive telle que pour tout
Supposons que l’on ait montré que pour tout q ∈ Z, il existe
I ∈ P, longq (I) = long(I ∩ [q, q + 1[). On pose alors λ = q∈Z longq . Par la proposition A.4.7, λ : A → [0, ∞] est sigma
additive. Soit I un intervalle borné d’extrémités a, b ∈ R telles que a ≤ b. Alors, I ∩ [q, q + 1[ est vide ou réduit à un point si
b ≤ q ou q + 1 ≤ a; sinon, I ∩ [q, q +1[ est un intervalle d’extrémité gauche q ∨ a et d’extrémité droite (q + 1) ∧ b. Donc
long(I ∩ [q, q + 1[) = (q + 1)∧b − q∨a + . On voit alors que
X X 
λ(I) = longq (I) = (q + 1)∧b − q∨a + = b − a
q∈Z q∈Z

et λ satisfait bien les conditions de (iii). Cela montre qu’il suffit de prouver le résultat suivant.

(∗) Soit q ∈ Z; on note Pq les intervalles de [q, q + 1[ et Aq les unions finies d’intervalles de Pq deux-à-deux disjoints. On a
clairement Aq = {A ∩ [q, q + 1[ ; A ∈ A } qui est une algèbre sur [q, q + 1[ . Il existe longq : Aq → R+ , une fonction
sigma-additive telle que longq (I) = long(I) pour tout I ∈ Pq .

Prouvons ce résultat: soient I1 , . . . , In ∈ Pq , disjoints deux-à-deux. On pose A =


S
1≤k≤n Ik et on définit
X
longq (A) := longq (Ik ) .
1≤k≤n

Il est facile de vérifier que cette définition est cohérente, c’est-à-dire qu’elle ne dépend pas de la façons dont A s’écrit comme union
finie d’intervalles de Pq disjoints deux -à-deux. Par ailleurs, cette définition implique immédiatement que longq est additive.
216 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

Montrons la sigma-additivité de longq . Soient I1 , . . . , In ∈ Pq , disjoints deux-à-deux et non-vides. On note ak l’extrémité


−k−2
gauche de Ik et bk son extrémité droite. Soit ε > 0. Si ε ≤
S2
k+1
k − ak ), on pose Jk =]ak + 2
(bS ε, bk − 2−k−2 ε[; sinon on pose
Jk = ∅. Alors, les Jk ∈ Pq sont disjoints deux-à-deux, Jk ⊂ Ik et longq ( Ik ) = longq ( Jk ) + ε(2−1 + . . . + 2−n−1 ). Cela
S S
montre que
∀A ∈ Aq , ∀ε > 0, ∃Bε ∈ Aq : Bε ⊂ A et longq (A) ≤ longq (Bε ) + ε . (A.16)
On utilise le critère de la proposition A.4.6. Soient An ∈ Aq tels que An+1 ⊂ An et n∈N An = ∅. Soit ε > 0. Par (A.16), il existe
T

Bn ∈ Aq tels que Bn ⊂ An et longq (An ) ≤ 2−n−1 ε + longq (Bn ). On pose Cn = B0 ∩ . . . ∩ Bn . On a clairement Cn ∈ Aq ,


S
Cn ⊂ Cn+1 , Cn ⊂ An et An \Cn ⊂ 0≤k≤n Ak \Bk , donc
X
longq (An \Cn ) ≤ longq (Ak \Bk ) ≤ ε(2−1 + . . . 2−n−1 ) < ε .
0≤k≤n

T T
Comme n∈N An = ∅, on également n∈N Cn = ∅. Par compacité, il existe nε ∈ N tel que Cn = ∅, pour tout n ≥ nε . Cela implique
que longq (An ) ≤ ε pour tout n ≥ nε . Cela prouve que limn longq (An ) = 0. La proposition A.4.6 implique que longq : A → R+ est
sigma additive, ce qui prouve (∗) et donc la proposition. 

Le théorème suivant, dû à Carathéodory, associe à une fonction sigma additive sur une algèbre, une mesure extérieure qui la
prolonge.

Théorème A.4.9 (Théorème d’extension de Caratheodory) Soit E, un ensemble non-vide. Soit A , une algèbre sur E. Soit µ0 :
A → [0, ∞], supposée sigma additive. Pour tout X ⊂ E, on pose
nX [ o
µ(X) = inf µ0 (An ) ; An ∈ A , n ∈ N : X ⊂ An . (A.17)
n∈N n∈N
Alors, les assertions suivantes sont vérifiées.
(i) µ : P(E) → [0, ∞] est une mesure extérieure.

(ii) Pour tout A ∈ A , µ(A) = µ0 (A).

(iii) σ(A ) ⊂ E (µ), où E (µ) désigne la classe des ensembles µ-mesurables.

(iv) Pour tout X ⊂ E, il existe B ∈ σ(A ) tel que X ⊂ B et µ(X) = µ(B).

Preuve: on vérifie immédiatement que µ(∅) = 0 et que pour tous B ⊂ C ⊂ E, on a bien µ(B) ≤ µ(C). OnSfixe ensuite
Bn ⊂ E, n ∈ N. Par définition de µ, pour tout ε > 0, il existe des ensembles An,p ∈ A , n, p ∈ N, tels que Bn ⊂ p∈N An,p et
P −n−1 S S
p∈N µ0 (Ap,n ) ≤ µ(Bn ) + 2 ε, pour tout n ∈ N. On constate donc que n∈N Bn ⊂ p,n∈N Ap,n et donc que
[  X X
µ Bn ≤ µ0 (Ap,n ) ≤ µ(Bn ) + ε
n∈N p,n∈N n∈N

S P
Comme ε peut être arbitrairement petit, on a µ( n∈N Bn ) ≤ n∈N µ(Bn ), ce qui montre que µ une mesure extérieure.
Montrons (ii). On fixe A ∈ S A . La définition de µ implique que µ(A) ≤ µ0 (A). Montrons l’inégalité contraire: on se donne
An ∈ A , n ∈ N, tels que A ⊂ n∈N An . Pour tout n ∈ N, on pose
n
[
Bn = A ∩ Ak , C0 = B0 et Cn+1 = Bn+1 \Bn n∈N.
k=0

Il est clair que Bn , Cn ∈ A , que les Cn sont deux-à-deux disjoints, que Cn ⊂ A ∩ An ⊂ An , et que Cn = A ∈ A . Comme
S
n∈N
µ0 est une pré-mesure, on a donc
X X X
µ0 (A) = µ0 (Cn ) ≤ µ0 (A ∩ An ) ≤ µ0 (An ) .
n∈N n∈N n∈N

Cette inégalité étant vraie pour toute suite An ∈ A , n ∈ N, telle que A ⊂ n∈N An , on en déduit que µ0 (A) ≤ µ(A), ce qui achève la
S
preuve de (ii).
Montrons (iii). Comme E (µ) est une tribu par le théorème A.4.3 (i) page 213, il suffit de montrer que A ⊂ E (µ), c’est-à-dire
qu’il suffit, par (A.11), de montrer que pour tout A ∈ A et tout X ⊂ E, on a µ(X) ≥ µ(X ∩ A) + µ(X\A): si µ(X) = ∞,
A.4. CONSTRUCTIONS DE MESURES. 217

P vrai. Supposons µ(X) < ∞. Pour tout ε > 0, il existe donc Bn ∈ A , n ∈ N, tels que X ⊂
S
c’est trivialement n∈N Bn et
ε + µ(X) ≥ n∈N µ0 (Bn ). On a donc
X X
ε + µ(X) ≥ µ0 (Bn ∩ A) + µ0 (Bn \A) ≥ µ(X ∩ A) + µ(X\A) ,
n∈N n∈N

ce qui entraîne bien le résultat voulu car ε > 0 peut être arbitrairement petit.
Montrons (iv). On fixe X ⊂ E. Si µ(X) = ∞, Salors µ(X) = µ(E) et (iv) est trivialement vérifiée. Supposons que µ(X) < ∞.
Il existe donc Ap,n ∈ A , p,Tn ∈ N, tels que X ⊂ n∈N Ap,n =: Bp et 2−p + µ(X) ≥ n∈N µ0 (Ap,n ) ≥ µ(Bp ). Il est clair que
P
Bp ∈ σ(A ) et donc B := p∈N Bp ∈ σ(A ). De plus, X ⊂ B. Enfin, pour tout p ∈ N, on a B ⊂ Bp et donc µ(B) ≤ µ(Bp ) ≤
µ(X) + 2−p ≤ µ(B) + 2−p , ce qui implique que µ(B) = µ(X). 
Le théorème d’extension de Carathéodory et le théorème d’unicité du prolongement des mesures impliquent immédiatement le
corollaire suivant.

Théorème A.4.10 (Théorème d’extension de Carathéodory) Soit E, un ensemble non-vide. Soit A , une algèbre sur E. Soit
µ0 : A → [0, ∞], supposée sigma additive. Alors, il existe une mesure positive µ : σ(A ) → [0, ∞] prolongeant µ0 . De plus, ce
prolongement est unique si µ0 est sigma finie.

On déduit également des résultats précédents l’existence de la mesure de Lebesgue sur R.

Théorème A.4.11 (Existence de la mesure de Lebesgue) Soit I ⊂ R, un intervalle. Si I est borné, on pose long(I) = b − a où a est
l’extrémité gauche de I et b son extrémité droite, et si I est non-borné, on pose long(I) = ∞. On on définit alors ` : P(R) → [0, ∞]
par nX [ o
∀X ⊂ R, `(X) = inf long (In ) ; (In )n∈N intervalles tels que X ⊂ In .
n∈N n∈N

C’est la mesure (extérieure) de Lebesgue sur R. La tribu de ses ensembles mesurables, appelée tribu Lebesguienne, est notée
L (R). Elle contient B(R). La restriction de ` à B(R) est l’unique mesure positive telle que
   
∀a, b ∈ R tels que a ≤ b, b − a = ` [a, b] = ` ]a, b] = ` [a, b[ = ` ]a, b[ .

Extension, complétion, approximation. Soit (E, E , µ), un espace mesuré. On rappelle que Nµ désigne l’ensemble des
µ-négligeable, que E µ = σ(E , Nµ ) et que (E, E µ , µ) est le complété de (E, E , µ). Soit A , un algèbre sur E. On suppose que
[
σ(A ) = E , ∃En ∈ A , n ∈ N, satisfaisant: µ(En ) < ∞ et En = E . (A.18)
n∈N

Cela implique notamment que µ est sigma finie. Pour tout X ⊂ E, on pose
nX [ o
µ∗ (X) = inf µ(An ) ; An ∈ A , n ∈ N : X ⊂ An . (A.19)
n∈N n∈N

On rappelle que E (µ∗ ) désigne la tribu des ensembles µ∗ -mesurables. Le théorème A.4.3 d’extension de Carathéodory montre que

E = σ(A ) ⊂ E (µ∗ ) , ∀A ∈ E , µ(A) = µ∗ (A) et N ⊂ E : µ∗ (N ) = 0 ⊂ E (µ∗ ).



(A.20)

En effet, le théorème A.4.9 d’extension de Carathéodory (page 216) implique seulement que pour tout A ∈ A , on a µ(A) = µ∗ (A),
mais l’hypothèse (A.18) permet d’appliquer l’unicité du prolongement des mesures.
On rappelle ensuite que la différence symétrique de deux ensembles A, B ⊂ E est définie par
 
A∆B = A\B ∪ B\A .

C’est-à-dire que (A ∪ B)\(A∆B) = A ∩ B, et donc, 1A∆B = |1A − 1B |.

Théorème A.4.12 Soit (E, E , µ), un espace mesuré. On suppose µ sigma finie. Soit A , une algèbre sur E satisfaisant (A.18). Soit
µ∗ , la mesure extérieure définie par (A.19). Soit E (µ∗ ), la classe des ensembles µ∗ -mesurables associés. Alors, les assertions suivantes
sont vraies.

(i) On a Nµ = {N ⊂ E : µ∗ (N ) = 0} et donc (E, E µ , µ) = (E, E (µ∗ ), µ∗ ).


218 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

(ii) N ∈ Nµ ssi pour tout ε > 0, il existe An ∈ A , n ∈ N, tels que


[ X
les An sont disjoints deux-à-deux, N ⊂ An et µ(An ) < ε .
n∈N n∈N

(iii) Soit B ∈ E µ . Pour tout ε > 0, il existe An ∈ A , n ∈ N, tels que


[  [ 
les An sont disjoints deux-à-deux, B ⊂ An et µ An \ B <ε.
n∈N n∈N

(iv) Soit B ∈ E µ tel que µ(B) < ∞. Alors, pour tout ε > 0, il existe A ∈ A , tel que µ(A∆B) < ε.

Preuve: (A.20) implique que Nµ ⊂ {N ⊂ E : µ∗ (N ) = 0}, et le théorème A.4.9 (iv) implique {N ⊂ E : µ∗ (N ) = 0} ⊂ Nµ .


Donc Nµ = {N ⊂ E : µ∗ (N ) = 0}. Donc E µ ⊂ E (µ∗ ). Par ailleurs, le théorème A.4.9 (iv) et ce qui précède entraînent également
que E (µ∗ ) ⊂ E µ , et donc E (µ∗ ) = E µ . Comme µ et µ∗ sont deux prolongements de µ sur E µ et que par le théorème A.2.3 de
complétion, il n’en existe qu’un seul, on a µ = µ∗ sur E µ , ce qui montre (i).

Montrons (ii): le point (i) implique que N est S un µ-négligeable
P ssi µ (N ) = 0. D’après la définition (A.19), pour tout
εS> 0, il existe A0n ∈ A , n ∈ N, tels que N ⊂ n∈N nA 0
et n∈N µ(A 0
A0 = A00 etSAn+1 =
n ) < ε. On pose ensuite S
( 0≤k≤n+1 Ak )\( 0≤k≤n Ak ). On voit que les An , n ∈ N, sont dans A , disjoints deux-à-deux et que n∈N An = n∈N A0n .
0 0
S
Donc X [ [ 0 X
µ(A0n ) < ε .

µ(An ) = µ An = µ An ≤
n∈N n∈N n∈N n∈N

La réciproque est triviale. Cela montre le point (ii).


Montrons le point (iii): soit B ∈ E µ et ε > 0. On suppose d’abord que
S µ(B)0 < ∞.P Comme on a montré que µ(B) = µ∗ (B),
la définition (A.19) implique qu’il existe An ∈ AS, n ∈ N tels queSB ⊂ n∈N An et
0 0
µ(An ) ≤ µ(B) + ε. On raisonne comme
précédemment en posant A0 = A00 et An+1 = ( 0≤k≤n+1 A0k )\( 0≤k≤n A0k ): on voit que les An , n ∈ N, sont dans A , disjoints
deux-à-deux, et que n∈N An = n∈N A0n . Donc
S S

[ [ 0 X
µ(A0n ) < µ(B) + ε .

µ(B) ≤ µ An = µ An ≤
n∈N n∈N n∈N

Comme µ(B) < ∞, cela implique le point (iii) dans ce cas.


On suppose ensuite que µ(B) = ∞. On rappelle que les En ∈ A , n ∈ N, satisfont (A.18). D’après le cas fini, pour tout n ∈ N,
il existe An,p ∈ A , deux-à-deux disjoints tels que
[ [
An,p \(B ∩ En ) < 2−n−1 ε .

∀n ∈ N , B ∩ En ⊂ An,p et µ
p∈N p∈N

S A , on peut supposer que An,p ⊂ En et la famille (An,p )n,p∈N est alors formée
Quitte à remplacer An,p par An,p ∩ En , qui est dans
d’ensembles deux-à-deux disjoints; de plus, B ⊂ n,p∈N An,p et
[ [ [ 
An,p \B ⊂ An,p \(B ∩ En ) .
n,p∈N n∈N p∈N

−n−1
S  P
Donc µ n,p∈N An,p \B < n∈N 2 ε = ε, ce qui entraîne le point (iii) lorsque µ(B) = ∞.
Montrons le point (iv). On fixe B ∈ E µ tel que µ(B) < ∞. Soit ε > 0 et soient des ensembles An ∈ A , n ∈ N qui satisfont les
conditions du point (iii):
[  [ 
les An sont disjoints deux-à-deux, B ⊂ An et µ An \ B < ε/2 .
n∈N n∈N
S T
On pose Bn = B ∩ (E\ 0≤k≤n Ak ). Il est clair que Bn+1 ⊂ Bn ⊂ S B et n∈N Bn = ∅. Comme µ(B) < ∞, on a limn ↓ µ(Bn ) =
On pose alors A = 0≤k≤n0 Ak , On a clairement A ∈ A , Bn0 = B ∩ (E\A), donc
0. Il existe donc n0 ∈ N tel que µ(Bn0 ) < ε/2.S
µ(B ∩ (E\A)) < ε/2. De plus A ∩ (E\B) ⊂ n∈N An \B et donc µ(A ∩ (E\B) < ε/2, on a donc µ(A∆B) = µ(B ∩ (E\A)) +
µ(A ∩ (E\B) < ε, ce qui termine la preuve de (iv). 

Le théorème de Daniell-Stone. Jusqu’ici, nous avons d’abord construit des mesures, puis les intégrales de certaines fonctions
contre ces mesures, comme expliqué dans le premier chapitre. Cette section expose la méthode contraire qui consiste à construire les
mesures à partir des intégrales, vues comme des fonctionnelles additives sur certaines classes de fonctions. Ces classes de fonctions
doivent, bien entendu, satisfaire quelques hypothèses minimales, comme cela est détaillé dans la définition ci-dessous.
A.4. CONSTRUCTIONS DE MESURES. 219

Définition A.4.13 Soit E, un ensemble non-vide. Soit L , un ensemble de fonctions de E dans R. C’est une classe de Stone si les
propriétés suivantes sont vérifiées.
(a) Si f, g ∈ L , alors f + g ∈ L et f ∧ g ∈ L .
(b) Si f ∈ L et si c ∈ R+ , alors cf ∈ L et c ∧ f ∈ L
(c) Si f, g ∈ L sont telles que f ≤ g, alors g−f ∈ L . 

Une "intégrale" se définit alors comme une application linéaire sur la classe de fonction L . Plus précisément, on pose la définition
suivante.

Définition A.4.14 Soit E, un ensemble non-vide. Soit L , un ensemble de fonctions de E dans R, qui est classe de Stone. Soit
I : L → R. C’est une integrale de Daniell si les propriétés suivantes sont vérifiées.
(a) Si f, g ∈ L , alors I(f + g) = I(f ) + I(g).
(b) Si f ∈ L et si c ∈ R+ , alors I(cf ) = cI(f ).
(c) Si f, g ∈ L sont telles que f ≤ g, alors I(f ) ≤ I(g).
(d) Si h, hn ∈ L , n ∈ N, sont telles que hn ≤ hn+1 et limn hn = h ponctuellement, alors, limn I(hn ) = I(h). 

Soit (E, E , µ), un espace mesuré. On voit que L (E, E , µ) est une classe de Stone et que I(f ) := E f dµ est une intégrale de
1
R

Daniell, le point (d) étant une conséquence du théorème de converge dominée. Le théorème suivant montre qu’il est toujours possible
de représenter ainsi une intégrale de Daniell. On note que dans cet énoncé, l’unicité de la mesure n’est pas garantie en général: cela
dépend de la richesse de la classe de Stone sur laquelle elle est définie.

Théorème A.4.15 (Théorème de Daniell-Stone) Soit E, un ensemble non-vide. Soit L , un ensemble de fonctions de E dans R, qui
est classe de Stone. Soit I : L → R, une integrale de Daniell. On note C la classe de sous-ensembles de E de la forme {f > x}, avec
f ∈ L et x ∈ R+ et on pose E = σ(C ). Alors les assertions suivantes sont vérifiées.
(i) Il existe une mesure positive µ : E → [0, ∞] telle que toute fonction f ∈ L est µ-intégrable et
Z
∀f ∈ L , I(f ) = f dµ . (A.21)
E

(ii) Si ν est une mesure positive satisfaisant aussi (A.21), alors ν(C) = µ(C), pour tout C ∈ C .

Preuve: on note L + = f ∈ L : f ≥ 0 . Soit X ⊂ E et soit fn ∈ L + , n ∈ N. Le symbole




(fn )n∈N  X
signifie que fn ≤ fn+1 et supn fn ≥ 1X . On remarque que supn fn = limn fn et que cette fonction n’est pas nécessairement dans
L , ni même finie. On constate aussi que (I(fn ))n∈N est une suite croissante, donc limn I(fn ) = supn I(fn ) qui existe dans [0, ∞].
On pose alors 
µ(X) = inf lim I(fn ) ; (fn )n∈N  X .
n→N

Montrons d’abord que µ : P(E) → [0, ∞] est une mesure extérieure. On constate tout d’abord que la fonction nulle, notée 0 est dans
L et que I(0) = 0. Si on prend fn ≡ 0, on a alors (fn )n∈N  ∅ et donc µ(∅) = 0. S
P de µ: soit X, Ap ⊂ E, p ∈ N, tels que X ⊂ p∈N Ap . S’il existe p ∈ N, tel que
Montrons ensuite la sigma sous-additivité
µ(Ap ) = ∞, alors trivialement µ(X) ≤ p∈N µ(Ap ). Supposons que µ(Ap ) < ∞, pour tout p ∈ N. Soit ε > 0. Il existe
(fnp )n∈N  Ap tels que limn I(fnp ) ≤ µ(Ap ) + 2−p−1 ε. On pose alors gn = 0≤p≤n fn . Clairement gn ∈ L
P p +
et on vérifie
facilement que (gn )n∈N  X. D’autre part, on a
X X X
I(gn ) = I(fnp ) ≤ lim I(fnp ) ≤ ε + µ(Ap ).
n→∞
0≤p≤n p∈N p∈N
P
Donc µ(X) ≤ limn I(gn ) ≤ ε + p∈N µ(Ap ). Comme ε peut être arbitrairement petit, cela montre que µ est bien une mesure
extérieure.
On note E (µ) la classe des ensemble µ-négligeables. On montre ensuite que toute fonction f ∈ L + est E (µ)-mesurable. D’après
le lemme A.4.4, page 213, il suffit de vérifier que pour tout X ⊂ E, et tous a, b ∈ R tels que a < b, on a
 
µ(X) ≥ µ X ∩{f ≤ a} + µ X ∩{f ≥ b} . (A.22)
220 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

Le cas a ≤ 0 est immédiat. On suppose donc que a > 0. On pose d’abord


1  1
h = b−a (b−a) ∧ (f −a)+ = b−a (b ∧ f − a ∧ f ) .

Le dernier membre implique que h ∈ L + et que 1{f ≥b} ≤ h ≤ 1{f >a} .


Soit (gn )n∈N  X. On pose ensuite fn = gn ∧ h. On a donc fn ∈ L + . On vérifie facilement que fn ≤ fn+1 et que
(fn )n∈N  X ∩{f ≥ b}. Comme gn ≥ fn , on a gn −fn ∈ L + . On observe ensuite que gn −fn = (gn − h)1{gn ≥h} , ce qui implique
que gn −fn ≤ gn+1 −fn+1 . Si x ∈ X ∩ {f ≤ a}, on a h(x) = 0 et limn (gn (x)−h(x))1{gn ≥h} (x) = limn gn (x) ≥ 1. Cela montre
donc que (gn −fn )n∈N  X ∩{f ≤ a}. On a donc
 
lim I(gn ) ≥ lim I(gn − fn ) + lim I(fn ) ≥ µ X ∩{f ≤ a} + µ X ∩{f ≥ b} ,
n→∞ n→∞ n→∞

ce qui implique (A.22) en prenant l’infimum sur les (gn )n∈N  X. On a donc montré que toute fonction f ∈ L + est E (µ)-mesurable.
Par définition de µ, on a ensuite
∀X ⊂ E, ∀f ∈ L + tel que f ≥ 1X , µ(X) ≤ I(f ) . (A.23)
On montre aussi le résultat suivant.
∀X ⊂ E, ∀f ∈ L + tel que f ≤ 1X , I(f ) ≤ µ(X) . (A.24)
En effet, soit (gn )n∈N  X. On pose fn = f ∧ gn . On a donc fn ≤ fn+1 et puisque f ≤ 1X , on a limn fn = f . Donc
limn I(fn ) = I(f ), car I est une intégrale de Daniell. Or gn ≥ fn , donc I(gn ) ≥ I(fn ). Par conséquent, I(f ) ≤ limn I(gn ), ce qui
entraîne (A.24) en prenant l’infimum sur (gn )n∈N  X.
Montrons ensuite que pour toute f ∈ L + , on a I(f ) = E f dµ, l’intégrale ayant bien un sens car on a montré que f est E (µ)-
R

mesurable et que la restriction de µ à E (µ) est une mesure positive par le théorème A.4.3, page 213.
Pour cela, on fixef ∈ L + et pour tout r ∈ R+ , on pose fr = r ∧ f ∈ L + . On fixe ε > 0 et pour tout n ∈ N, on remarque que
ε1{f ≥nε} ≥ f(n+1)ε−fnε = ε∧(f−nε)+ ≥ ε1{f ≥(n+1)ε} . Par le point (c) de la définition d’une classe de Stone, f(n+1)ε−fnε ∈ L +
et donc, par (A.23) et (A.24)   
εµ {f ≥ nε} ≥ I f(n+1)ε −fnε ≥ εµ {f ≥ (n + 1)ε} .
Par ailleurs, on a également
Z
  
εµ {f ≥ nε} ≥ f(n+1)ε −f(n+1)ε dµ ≥ εµ {f ≥ (n + 1)ε} .
E

On en déduit donc que


Z
   
I f(n+1)ε −fnε ≥ εµ {f ≥ (n + 1)ε} ≥ (f(n+2)ε −f(n+1)ε ) dµ ≥ εµ {f ≥ (n + 2)ε} ≥ I f(n+3)ε −f(n+2)ε .
E
R
En sommant, il vient I(fnε ) ≥ E (f(n+1)ε − fε ) dµ ≥ I(f(n+2)ε − f2ε ). Comme limnR↑ fnε = f , le point (d) de la définition de
l’intégrale de Daniell, et le théorème de convergence monotone pour µ, impliquent I(f ) ≥ E (f − fε ) dµ ≥ I(f − f2ε ). On remarque
ensuite que lim ↑ f −fRε = lim ↑ f −f2ε = f lorsque ε ↓ 0, et par le point (d) de la définition de l’intégrale de Daniell, on obtient
finalement que I(f ) = E f dµ, pour toute f ∈ L + .
Il reste à considérer des f ∈ L de signe quelconque: clairement f+ = 0 ∧ f est dans L + . Comme f ≤ f+ , la propriété (c) des
classes de Stone implique que f+ − f = f− ∈ L + . Donc
Z Z
f+ dµ = I(f+ ) = I(f + f− ) = I(f ) + I(f− ) = I(f ) + f− dµ .
E E
R
Cela implique donc que I(f ) = E
f dµ, ce qui termine la preuve de (i).
Pour montrer (ii), on procède comme suit: on fixe f ∈ L et x ∈ R+ et pour tout n ∈ N, on pose
hn = 2n (x + 2−n ) ∧ f − x ∧ f = 2n 2−n ∧ (f − x)+
 

La première égalité montre que hn ∈ L + . De plus limn hn = 1{f >x} . Enfin, 1{f >x+2−n } ≤ hn ≤ 1{f >x} . Par convergence
monotone limn µ({f > x + 2−n }) = µ({f > x}). Ceci combiné avec l’inégalité précédente et le fait que I(hn ) = E hn dµ,
R

impliquent que limn I(hn ) = µ {f > x} , ce qui entraîne (ii). 


Comme il a été mentionné avant l’énoncé du théorème, l’unicité de la mesure représentant une intégrale de Daniell n’est pas
garantie si la classe de Stone est trop pauvre: considérons par exemple un ensemble ayant au moins deux points distincts x0 et x1 . On
prend L comme l’ensemble des fonctions f : E → R qui sont nulles partout, sauf éventuellement en x0 : c’est clairement une classe
de Stone. Pour tout f ∈ L , on pose I(f ) = f (x0 ). On voit facilement que I est une intégrale de Daniell et il est clair que les mesures
δx0 et δx0 + δx1 représentent toutes les deux I.
A.4. CONSTRUCTIONS DE MESURES. 221

Le théorème de Riesz pour les formes linéaires positives. Rappelons tout d’abord quelques résultats élémentaires
sur les espaces métriques séparables et localement compacts. Soit (E, d), un tel espace. On note Cc (E), le R-espace vectoriel des
fonctions continues à support compact que l’on munit de la norme du supremum notée k·k∞ .

Lemme A.4.16 Soit (E, d), un espace métrique séparable localement compact. Soit K ⊂ E, un compact. Il existe gK ∈ Cc (E) telle
que 1K ≤ gK ≤ 1.

Preuve:
S on rappelleS le lemme A.3.6, page 212, qui affirme l’existence d’une suite de compacts (Kn )n∈N , tels que Kn ⊂ K̊n+1 et
E = n∈N K̊n = n∈N Kn . Cela montre en particulier que K est recouvert par les ouverts K̊n ; comme K est compact on en extrait
un recouvrement fini, c’est-à-dire qu’il existe n0 tel que K ⊂ K̊n0 . On pose F = E\K̊n0 , qui est fermé. La fonction continue d(x, F )
atteint son minimum r sur le compact K en x0 ∈ K et r = d(x0 , K) = dist(K, F ). Or si r = 0, alors x0 ∈ F , ce qui est impossible
car K ∩ F = ∅. Donc r = dist(K, F ) > 0. On pose alors gK (x) = 1 ∧ (d(x, F )/r), qui est continue, telle que gK ≥ 1K . Par ailleurs
le support de gK est inclus dans Kn0 . 
Nous rappelons ici le lemme de Dini.

Lemme A.4.17 (Lemme de Dini) Soit (E, d), un espace métrique localement compact. Soient fn ∈ Cc (E), n ∈ N, telles que pour
tout x ∈ E, 0 ≤ fn+1 (x) ≤ fn (x) et limn∈N fn (x) = 0. Alors, limn→∞ kfn k∞ = 0.

Preuve: comme les fn décroissent, il est clair d’une part qu’elles sont toutes à support dans le même compact K qui est le support
de f0 , d’autre part, il est clair que les normes kfn k∞ décroissent. Donc c := limn→∞ kfn k∞ existe. Raisonnons par l’absurde en
supposant que c > 0. Il existe donc une suite xn ∈ K, n ∈ N, telle que fn (xn ) ≥ c, pour tout n ∈ N. Comme K est compact, on extrait
de (xn )n∈N , une suite convergeant vers x ∈ K. Il existe ensuite n0 ∈ N tel que fn0 (x) ≤ c/3 et comme fn0 est continue, il existe δ > 0
tel que pour tout y ∈ B(x, δ), fn0 (y) ≤ 2c/3. Comme les fn décroissent, on a montré que

∀n ≥ n0 , ∀y ∈ B(x, δ) , fn (y) ≤ 2c/3 .

Or il y a une infinité d’indices n ≥ n0 tels que xn ∈ B(x, δ), et donc tels que fn (xn ) ≤ 2c/3, ce qui contredit f (xn ) ≥ c. On a donc
c = 0. 
Le théorème suivant admet des généralisations pour des espaces localement compacts non-séparables.

Théorème A.4.18 (Théorème de Riesz pour les formes positives) Soit (E, d), un espace métrique localement compact et séparable.
Soit Cc (E), le R-espace vectoriel des fonctions continues à support compact. Soit φ : Cc (E) → R qui satisfait les conditions
suivantes.

(a) φ est linéaire: pour toutes f, g ∈ Cc (E) et tout c ∈ R, φ(f + cg) = φ(f ) + cφ(g).

(b) φ est positive, c’est-à-dire que pour toute f ∈ Cc (E) telles que f ≥ 0, on a φ(f ) ≥ 0.

Alors, il existe une unique mesure positive µ : B(E) → [0, ∞] telle que
Z
∀f ∈ Cc (E) , φ(f ) = f dµ . (A.25)
E

De plus, µ est une mesure de Radon et elle est régulière extérieurement pour les ouverts et intérieurement pour les compacts.

Preuve: Cc (E) est clairement une classe de Stone et φ satisfait les conditions (a), (b) et (c) de la définition d’une intégrale de Daniell.
Montrons qu’elle satisfait également (d): soient h, hn ∈ Cc (E), n ∈ N telles que hn ≤ hn+1 et limn hn = h ponctuellement.
On voit que les hn et h sont à support dans le même compact K qui est le support de h, par exemple. Il en est de même pour les
fonctions fn := h − hn . Les fn satisfont les hypothèses du lemme A.4.17 de Dini: on a donc limn→∞ kfn k∞ = 0. Par ailleurs,
le lemme A.4.16 montre l’existence de gK ∈ Cc (E) telle que gK ≥ 1K . On a donc 0 ≤ fn ≤ kfn k∞ 1K ≤ kfn k∞ gK et donc
0 ≤ φ(fn ) ≤ kfn k∞ φ(gK ), ce qui implique que limn φ(fn ) = 0, c’est-à-dire limn φ(hn ) = φ(h). Cela montre que φ est une
intégrale de Daniell.
On note C la classe des sous-ensembles de la forme {f > x}, avec f ∈ Cc (E) et x ∈ R+ . Pour tout compact K de E, on pose
f = d(·, E\K) et on a K = {f > 0}. Donc, C contient tous les compacts et σ(C ) = B(E). Le théorème A.4.15 de Daniell-Stone
implique alors l’existence d’une mesure positive µ : B(E) → [0, ∞] satisfaisant (A.25). Pour tout compact K, le lemme A.4.16
implique l’existence de gK ∈ Cc (E) tel que gK ≥ 1K , ce qui implique que µ(K) ≤ φ(gK ) < ∞. Cela montre que µ est une mesure
de Radon.
222 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

Si ν est une autre mesure positive sur B(E) représentant φ, le point (ii) du théorème A.4.15 de Daniell-Stone implique qu’elle
coincide avec µ sur C et donc que ν(K) = µ(K), pour tout K compact. Or E peut être recouvert par une suite de compacts: le
théorème A.1.11 d’unicité du prolongement des mesures s’applique et montre que µ = ν.
Enfin, le théorème A.3.7, page 212, montre que toute mesure de Radon sur un espace métrique localement compact et séparable,
est régulière extérieurement pour les ouverts et intérieurement pour les compacts. 

Remarque A.4.19 Le théorème de Riesz implique l’existence de la mesure de Lebesgue sur R, comme prolongement de l’intégrale
usuelle des fonctions continues à support compact de R. C’est une autre construction de la mesure de Lebesgue sur R. 

A.5 Compléments sur la mesurabilité.


Les espaces mesurables séparables et séparés.

Définition A.5.1 Soient (E, E ) et (E 0 , E 0 ), deux espace mesurables. Ils sont dits isomorphes s’il existe une fonction φ : E → E 0
satisfaisant les propriétés suivantes.

(a) φ est une bijection.

(b) φ est (E , E 0 )-mesurable.

(c) La fonction réciproque φ−1 : E 0 → E est (E 0 , E )-mesurable.

Une telle fonction φ est un isomorphisme d’espaces mesurables et l’application B ∈ E 7→ φ(B) ∈ E 0 est une bijection de E sur E 0 . 

Définition A.5.2 Soit (E, E ), un espace mesurable. On introduit les notions suivantes.

(a) (E, E ) est un espace mesurable séparable s’il existe une suite d’ensembles An ∈ E , n ∈ N engendrant E : E = σ {An ; n ∈ N} .


(b) (E, E ) est un espace mesurable séparé si pour tous x, y ∈ E distincts, il existe A ∈ E tel que x ∈ A et y ∈ E\A. 

On adopte les conventions suivantes: si E est muni d’une topologie T , on note B(E) la tribu Borélienne associée. Si X ⊂ E
est un sous-ensemble de E, pas nécessairement Borélien, on note TX = {X ∩ U ; U ∈ T } la topologie relative sur X et on note
B(X) = σ(TX ) la tribu Borélienne associée. On rappelle le lemme A.1.8 page 204 qui affirme que B(X) est la tribu Borélienne
trace sur X, c’est-à-dire
B(X) = X ∩ B ; B ∈ B(E)} .


Le théorème suivant donne une description assez générale des espace mesurables séparables et séparés, ainsi que quelques propriétés
utiles.

Théorème A.5.3 Soit (E, E ), un espace séparable et séparé. Alors, les assertions suivantes sont vérifiées.

(i) Il existe un pi-système P = {An ; n ∈ N} dénombrable tel que σ(P) = E .

(ii) Avec les notations du (i), pour tout x ∈ E et tout n ∈ N, on pose

Bnx = An , si x ∈ An et Bnx = E\An , si x ∈


/ An .

Bnx . Cela implique que E contienne tous les singletons.


T
Alors, {x} = n∈N

(iii) On pose ∆ = {(x, x) ; x ∈ E}, la diagonale de E ×E. Alors ∆ ∈ E ⊗E .

(iv) Il existe X ⊂ R (pas nécessairement Borélien) tel que (E, E ) soit isomorphe à (X, B(X)).

(v) La tribu E est soit finie, soit en bijection avec R.

(vi) E est la tribu Borélienne d’une topologie séparable et séparée sur E.


A.5. COMPLÉMENTS SUR LA MESURABILITÉ. 223

 T d’abord (i). Comme E est séparable, il existe une suite d’ensembles Cn ∈ E , n ∈ N engendrant E . On pose
Preuve: on montre
P = {E} ∪ n∈S Cn ; S ⊂ N et S fini . On vérifie facilement que P est un pi système dénombrable. On a clairement σ(P) = E .
On se donne une énumération de P sous la forme P = T {An ; n ∈ N}, quitte à prendre des An vides si P est fini. Cela prouve (i).
Montrons (ii). Pour tout x ∈ E , on pose Ax = n∈N Bnx . Il est clair que x ∈ Ax et que Ax ∈ E . Supposons que y ∈ Ax . Si
x ∈ An , alors on a Bnx = An , donc y ∈ An et Bny = An . De même si x ∈ / An , alors Bnx = E\An , donc y ∈
/ An et Bny = E\An . Dans
x y
les deux cas, si y ∈ Ax , pour tout n ∈ N, Bn = Bn donc Ax = Ay et aussi x ∈ Ay .
Soient x, y ∈ E, si Ax ∩ Ay 6= ∅, il existe z ∈ Ax ∩ Ay et ce qui précède montre que Az = Ax = Ay . On a donc montré que pour
tous x, y ∈ E, ou bien Ax ∩ Ay = ∅, ou bien Ax = Ay .
On fixe ensuite x ∈ E et y ∈ Ax . Ce qui précède implique que Ax = Ay . On pose

L = B ∈ E : 1B (x) = 1B (y) .


On vérifie facilement que L est une classe monotone qui contient P. Par le théorème A.1.10 page 204, de la classe monotone, L = E .
Donc, pour tout B ∈ E , 1B (x) = 1B (y). Si x 6= y, comme E est séparé, il existe A ∈ E , tel que 1A (x) = 1 et 1A (y) = 0, ce qui
contradictoire. Donc x = y, nécessairement. On a donc montré que Ax = {x}, ce qui prouve (ii).
Montrons (iii): soient x, y ∈ E, distincts. On vérifie facilement qu’il existe n ∈ N tel que 1An (x) 6= 1An (y), sinon le (ii) entraîne
que x = y, ce qui n’est pas le cas. est un ensemble infini d’entiers. On vérifie alors que
[
E 2 \∆ =
 
An ×(E\An ) ∪ (E\An )×An ,
n∈N

ce qui montre que ∆ ∈ E . ⊗2

Montrons (iv). Pour tout x ∈ E, on pose X


φ(x) = 3−n−1 1An (x) .
n∈N

Il est clair que φ : E → [0, est E -mesurable. On pose X = φ(E). On voit que (1An (x))n∈N est le développement triadique de
1
2
]
φ(x). Si φ(x) = φ(y), par unicité du développement triadique, 1An (x) = 1An (y), pour tout n ∈ N. Cela implique que Ax = Ay et
donc x = y par (ii). Cela montre que φ : E → X est bijective et (E , B(X))-mesurable.
Il reste à montrer que la fonction réciproque φ−1 : XT→ E est (B(X), E )-mesurable. Pour tout n ∈ N, on pose Cn0 = E\An et
ε
Cn = An . On fixe ε0 , . . . , εn ∈ {0, 1} et on pose C = 0≤k≤n Ckk . Comme φ est bijective, l’image réciproque par φ−1 de C est
1

φ(C). On veut montrer que φ(C) ∈ B(X). Si C est vide, c’est trivialement vrai. Supposons C non-vide. Alors, pour tout x ∈ C, on a
1Ak (x) = εk , pour tout 0 ≤ k ≤ n. On pose alors a = 0≤k≤n 3−k−1 εk . Ce qui précède montre que
P

1
φ(C) ⊂ [a, a + 2 3−n−1 ] =: I . (A.26)

Supposons que b ∈ I ∩ X. Alors, il existe x ∈ E tel que φ(x) = b. Par unicité du développement triadique, on a 1Ak (x) = εk , pour
tout 0 ≤ k ≤ n et donc x ∈ C par conséquent bT∈ φ(C). Autrement dit φ(C) = X ∩ I et donc φ(C) ∈ B(X).
εk
On définit on pose ensuite A = n∈N 0≤k≤n Ck ; ε0 , . . . , εn ∈ {0, 1} . On a montré que pour tout C ∈ A , (φ
−1 −1
S
) (C) ∈
B(X). Or il est facile de vérifier que σ(A ) = E . Cela montre donc que φ est (B(X), E )-mesurable, ce qui prouve (iii).
−1

Montrons (iv): si E est fini et possède p éléments distincts, alors E est finie car E ⊂ P(E) et P(E) compte 2p éléments.
Supposons que E soit infini. Il existe une suite xn ∈ E, n ∈ N, d’éléments distincts. Puisque E contient les singletons, pour tout
sous-ensemble S ⊂ N, on a BS = {xn ; n ∈ S} ∈ E . Donc Card (E ) ≥ Card (P(N)) = Card (R). Mais le point (iii) implique que
Card (E ) ≤ Card (B(R)) = Card (R) donc Card (E ) = Card (R), ce qui prouve (iv).
Montrons (v). La topologie relative TX = {X ∩U ; U ouvert de R} est séparable et séparée. On pose T = {φ−1 (V ) ; V ∈ TX }.
C’est une topologie sur E: c’est la topologie induite par φ. Il est clair qu’elle est séparable et séparée tout comme TX . Il est aussi clair
que σ(T ) ⊂ E . On a vu précédemment que pour tout C ∈ A , il existe un intervalle fermé I tel que φ−1 (X ∩ I) = C. Cela montre
que A ⊂ σ(T ), ce qui implique que E = σ(T ), ce qui termine la preuve du (v). 

Espace mesurables réguliers. Isomorphisme de Borel (énoncé et preuve partielle). Soit (E, d), un espace
métrique séparable et soit A ∈ B(E). Alors (A, d) est aussi un espace métrique séparable. On en déduit que B(A) est séparable et
séparé: (A, B(A)) est donc isomorphe à un espace (X, B(X)), avec X ⊂ R. En général, on ne peut pas en dire beaucoup plus sur X,
notamment on ne sait pas s’il est possible de choisir X Borélien de R. Lorsque l’espace (E, d) est séparable complet, il est possible de
montrer le résultat suivant, beaucoup plus précis, qui est connu sous le nom de théorème d’isomorphisme de Borel.

Théorème A.5.4 (Théorème d’isomorphisme de Borel) Soit (E, d), un espace métrique séparable et complet. Soit un Borélien
B ∈ B(E). Alors,
224 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

• ou bien B est dénombrable,

• ou bien l’espace mesurable (B, B(B)) est isomorphe à (R, B(R)).

Nous ne prouvons pas ce théorème mais un résultat plus faible, qui est pourtant suffisant pour la plupart des applications. Avant
cela, quelques commentaires.
1) Les Boréliens des espaces métriques séparables complets satisfont l’hypothèse du continu: ou bien ils sont dénombrables, ou bien
ils ont la puissance du continu, ce qui est remarquable car la preuve du théorème d’isomorphisme de Borel ne nécessite pas de supposer
l’hypothèse du continu.
2) Du point de vue de la théorie de la mesure, un espace (E, d) métrique séparable complet non-dénombrable est le même objet que
R. Cela permet de montrer que sur un tel espace il existe une mesure de probabilité µ : B(E) → [0, 1] qui est diffuse. En effet, si
φ : E → R est un isomorphisme d’espaces mesurables, on note prend R µ la mesure image par φ de la mesure ν = f `, où f : R → R+
est n’importe quelle fonction Borel-mesurable `-intégrable telle que R f d` = 1.
3) Le théorème d’isomorphisme de Borel implique immédiatement le (et est équivalent au) corollaire suivant.

Corollaire A.5.5 Soient (E, d) et (E 0 , d0 ), deux espaces métriques séparables qui sont des Boréliens de leurs complétés. Alors ces
espaces sont soit dénombrables, soit en bijection avec R. De plus, (E, B(E)) et (E, B(E 0 )) sont isomorphes ssi ils sont en bijection.

On introduit la notion d’espace mesurable régulier.

Définition A.5.6 Soit (E, E ), un espace mesurable. Il est dit régulier s’il existe C ∈ B(R) tel que (E, E ) et (C, B(C)) sont
isomorphes. 

Au lieu de prouver le théorème d’isomorphisme, on montre le théorème suivant qui est en général suffisant pour les applications.

Théorème A.5.7 Soit (E, d), un espace métrique séparable complet. Soit A ∈ B(E). Alors il existe C ∈ B(R) tel que (A, B(A))
et (C, B(C)) soient isomorphes. Autrement dit, tout Borélien d’un Polonais muni la tribu Borélienne trace est un espace mesurable
régulier.

Preuve du théorème A.5.7. On mentionne d’abord le résultat suivant qui est relativement élémentaire.
Q
Proposition A.5.8 Soient (En , dn ), n ∈ N, une suite d’espaces métriques. On pose E = n∈N En et pour tout x = (xn )n∈N ∈ E et
tout y = (yn )n∈N ∈ E, on définit X −n−1 
d(x, y) = 2 1 ∧ dn (xn , yn ) ∈ [0, 1].
n∈N

Alors les assertions suivantes sont vérifiées.

(i) d est une distance et la topologie-produit sur E est la topologie de la métrique d.

(ii) Si les espaces (En , dn ), n ∈ N, sont séparables complets, il en est de même pour (E, d).

(iii) Si les espaces (En , dn ), n ∈ N, sont compacts, il en est de même pour (E, d).

Preuve: élémentaire (exercice ou voir un cours de topologie). 


On introduit les espaces métriques suivants.
• T = {0, 1}N , muni de la topologie-produit. C’est un espace compact métrisable.
• U = NN , muni de la topologie-produit. C’est un espace métrisable séparable et complet.
• J = [0, 1]N , muni de la topologie-produit. C’est un espace compact métrisable.
Pour être explicite, ces notations n’apparaissent que dans les preuves et pas dans les énoncés.

Proposition A.5.9 Les assertions suivantes sont vérifiées.

(i) Il existe A ∈ B {0, 1}N tel que (A, B(A)) soit isomorphe à ([0, 1], B([0, 1])).


(ii) Il existe B ∈ B {0, 1}N tel que B ⊂ A et (B, B(B)) soit isomorphe à [0, 1]N , B [0, 1]N .
 
A.5. COMPLÉMENTS SUR LA MESURABILITÉ. 225

(iii) Soit (E, d), un espace métrique séparable complet. Il existe C ∈ B [0, 1]N tel que (C, B(C)) soit isomorphe à (E, B(E)).


Preuve: on rappelle les notations T = {0, 1}N et J = [0, 1]N . On prouve d’abord (i). Soit A, l’ensemble des u = (un )n∈N ∈ T tels
P un = 0 pour une infinité de n, ou bien un = 1 pour tout n. Il est clair que T\A est dénombrable, donc A ∈ B(T). On pose
que ou bien
φ(u) = n∈N 2−n−1 un . On vérifie facilement que φ : A → [0, 1] est un isomorphisme d’espaces mesurables.
Montrons (ii). On munit TN de la topologie-produit, métrisable compacte. Soit v = ((v(p,n) )n∈N )p∈N ∈ TN , c’est-à-dire que
v(p,n) ∈ {0, 1}, pour tous p, n ∈ N. On se donne une bijection g : N → N × N et on définit une suite ϕ(v) = u = (uk )k∈N en
posant uk = vg(k) . Il est facile de démontrer que ϕ : TN → T est bijective continue et que ϕ−1 est également continue: il suffit
de vérifier la continuité coordonnée par coordonnée car les espaces sont munis de la topologie produit. On voit donc que ϕ est un
isomorphisme d’espaces mesurables. Il est clair que AN ∈ B(TN ) et par (i), (J, B(J)) est isomorphe à (AN , B(AN )). On pose
B = ϕ(AN ) ∈ B(T). On vérifie que B ⊂ A et ce qui précède P montre (ii).
Montrons (iii). On munit J de la métrique δ(u, v) = n∈N 2−n−1 |un −vn | si bien que (J, δ) est métrique compact. Soit (E, d),
métrique séparable complet. Soit qn ∈ E, n ∈ E, une suite dense dans E. On définit ψ : E → J par

∀x ∈ E , ψ(x) = 1 ∧ d(x, qn ) n∈N .
Comme pour tout n ∈ E, la fonction x ∈ E 7→ 1 ∧ d(x, qn ) est continue et puisque J est muni de la topologie-produit, ψ est continue.
Supposons que ψ(x) = ψ(y), c’est-à-dire que 1 ∧ d(x, qn ) = 1 ∧ d(y, qn ), pour tout n ∈ N. Comme la suite (qn )n∈N est dense dans
E, il existe une suite d’entiers positifs (nk )k∈N croissant vers l’infini telle que limk d(x, qnk ) = 0. Donc, limk d(y, qnk ) = 0, et on a
x = y. Cela montre que ψ est injective.
On pose C = ψ(E) et on note φ = ψ −1 : C → E, la réciproque de ψ. On montre que φ est continue comme suit. Soient xp ∈ E,
p ∈ N ∪ {∞} tels que limp δ(ψ(xp ), ψ(x∞ )) = 0. L’inégalité 1 ∧ (a + b) ≤ 1 ∧ a + 1 ∧ b, et l’inégalité triangulaire pour d, impliquent
pour tout n ∈ N,
1 ∧ d(xp , x∞ ) ≤ 1 ∧ d(xp , qn ) + 1 ∧ d(x∞ , qn )

≤ 2 1 ∧ d(x∞ , qn ) + 1 ∧ d(xp , qn ) − 1 ∧ d(x∞ , qn )
≤ 2 1 ∧ d(x∞ , qn ) + 2n+1 δ(ψ(xp ), ψ(x∞ )).


Pour tout n ∈ N, on a donc lim supp 1 ∧ d(xp , x∞ ) ≤ 2 1 ∧ d(x∞ , qn ) , Comme la suite (qn )n∈N est dense dans E, il est possible de
trouver des qn arbitrairement proches de x∞ , et la limite supérieure précédente, qui ne dépend pas de n, est nulle, ce qui implique que
limp d(xp , x∞ ) = 0. Cela montre bien que φ : C → E est continue.
Cela montre que ψ est un isomorphisme entre les espaces mesurables (E, B(E)) et (C, B(C)) et que ψ et ψ −1 sont continues.
Montrons que C ∈ B(J). Le fait que φ = ψ −1 soit continue implique que
   
∀x ∈ E , ∀ε > 0 , ∃η > 0 : u ∈ C ∩ Bδ ψ(x), η =⇒ d(φ(u), x) < ε , (A.27)

Pour tout p ∈ N, on pose alors


Up = v ∈ J : ∃ηv ∈ ]0, 3−p [ tel que ∀u, u0 ∈ C ∩ Bδ (v, ηv ) , d(φ(u), φ(u0 )) < 3−p .


Soit v ∈ Up et soit ηv comme ci-dessus. Soit v 0 ∈ Bδ (v, ηv ). On pose ηv0 = ηv −δ(v, v 0 ) < 3−p . Alors, Bδ (v 0 , ηv0 ) ⊂ Bδ (v, ηv ) et
donc v 0 ∈ Up . Cela montre que Up est un ouvert de J.
On note C l’adhérence de C dans J et on pose \
D=C∩ Up .
p∈N

On observe que D ∈ B(J), et (A.27) implique que C ⊂ D. Pour terminer la preuve de (iii), il suffit donc de montrer que D ⊂ C.
Soit v ∈ D. Pour tout p ∈ N, il existe donc 0 < ηv (p) < 3−p tel que pour tous u, u0 ∈ C ∩B(v, ηv (p)), on ait d(φ(u), φ(u0 )) < 3−p .
On se donne une suite décroissante (rp )p∈N telle que 0 < rp < 12 ηv (p). Comme v est dans l’adhèrence de C, on construit par récurrence
une suite xp ∈ E, p ∈ N, telle que δ(v, ψ(xp )) < rp . On observe que δ(ψ(xp+1 ), ψ(xp )) < rp + rp+1 < 2rp < ηv (p), et par définition
de Up , d(xp+1 , xp ) < 3−p . Cela implique que (xp )p∈N est de Cauchy dans E, qui est complet. Il existe donc x ∈ E tel que
limp d(x, xp ) = 0. Par continuité de ψ, v = ψ(x) et on a bien v ∈ C, ce qui termine la preuve de (iii). 

Fin de la preuve du théorème A.5.7. Soit (E, d), un espace métrique séparable complet. Soit A ∈ B(E). Par la proposition
A.5.9 (iii), il existe B ∈ B(R) et φ : E → B qui est un isomorphisme entre les espaces mesurables (E, B(E)) et (B, B(B)). On
note ϕ la réciproque de φ et on pose C = φ(A). Comme ϕ est (B(B), B(E))-mesurable et comme ϕ−1 (A) = C, on en déduit que
C ∈ B(B), c’est-à-dire qu’il existe un Borélien D ∈ B(R) tel que D ∩ B = C. Comme B ∈ B(R), cela entraîne que C ∈ B(R).
On vérifie ensuite immédiatement que la restriction φ|A : A → C est un isomorphisme entre les espaces mesurables (A, B(A)) et
(C, B(C)). 
226 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

A.6 Métrisabilité des espaces localement compacts à base dénombrable.


Définition A.6.1 (Espaces normaux) Soit E, un espace muni d’une topologie T .

(a) E est dit séparé si pour tous x, y ∈ E distincts il existe U ∈ T tel que x ∈ U et y ∈
/ U.

(b) E satisfait T4 si pour tous fermés disjoints F et F 0 de E, il existe U, U 0 ∈ T tels que U ∩ U 0 = ∅ et F ⊂ U et F 0 ⊂ U 0 .

(c) E est dit normal s’il est séparé et satisfait T4 .

(d) E est dit compact s’il est séparé et si de tout recouvrement de E par des ouverts, on extrait un recouvrement fini. 

Lemme A.6.2 Tout espace compact est normal.

Preuve: soit (E, T ) espace topologique; soient F, F 0 ⊂ E, deux fermés disjoints. On voit immédiatement que ce sont des compacts
(car un recouvrement de F (resp. de F 0 ) par des ouverts induit en y ajoutant l’ouvert E\F un recouvrement de E, dont on extrait un
recouvrement fini). On fixe x ∈ F . Pour tout y ∈ F 0 , il existe Ux,y , Ux,y
0
∈ T disjointsStels que y ∈ Ux,y0
et x ∈ Ux,y (puisque E est
séparé et que x et y sont nécessairement distincts, F et F 0 étant disjoints). comme F 0 ⊂ y∈F 0 Ux,y0
, il existe y1 , . . . , yn ∈ F 0 tels que
F 0 ⊂ 1≤k≤n Ux,y 0
. On pose Vx0 = 1≤k≤n Ux,y 0
et Vx = 1≤k≤n Ux,yn . On voit que Vx est un ouvert contenant x, que Vx0 est un
S S T
n n
0 0 S S
ouvert contenant F et que Vx ∩ Vx = ∅. Comme F ⊂ x∈F Vx , il existe x1 , . . . , xm ∈ F tels que F ⊂ 1≤l≤m Vxm . On pose alors
V = 1≤l≤m Vxm et V = 1≤l≤m Vxm . On constate que V et V sont des ouverts disjoints tels que F ⊂ V et F 0 ⊂ V 0 . Cela montre
0 0 0
S T
que (E, T ) satisfait T4 : il est donc normal. 

Lemme A.6.3 (Urysohn) Soit (E, T ) un espace topologique normal. Soient F, F 0 deux fermés disjoints de E. Alors, il existe
f : E → [0, 1] qui est continue et telle que f (x) = 1 pour tout x ∈ F et f (x) = 0 pour tout x ∈ F 0 .

Preuve: soit (rn )n∈N , une énumération des rationnels de ]0, 1[. On définit récursivement une suite d’ouverts Un tels que (1): pour
tous F ⊂ Un et U n ⊂ E\F 0 (où A est l’adhérence de A, c’est-à-dire l’intersection de tous les fermés contenant A) et tels que
pour tous n, m ∈ N distinct tels que
(2): S S rm < rn , on ait U m ⊂ Un . En effet, supposons U0 , . . . , Un construits: on pose Fn =
F ∪ 1≤k≤n:rk <rn+1 U k et Fn0 = F 0 ∪ 1≤k≤n:rk >rn+1 (E\Uk ), qui sont deux fermés disjoints; comme E est normal, il existe deux
ouverts Un+1 et U 0 tels que Fn ⊂ Un+1 et Fn0 ⊂ U 0 ; on en déduit que U n+1 ⊂ E\U 0 ⊂ E\Fn0 . On vérifie que Un+1 satisfait bien les
conditions voulues.
Pour tout x ∈ E, on pose alors f (x) = inf({1} ∪ {rn ; nS ∈ N : x ∈ Un }). On remarque aussi que f (x) = sup({0} ∪ {rn ; n ∈
N : x∈ / U n }). On voit ensuite que {y ∈ E : f (x) < r} = n:rn <r Un est ouvert pour tout r ∈ [0, 1]. Donc f est semi-continue
S
supérieurement. On montre de même que {y ∈ E : f (x) > r} = n:rn >r E\U n est ouvert; donc f est semi-continue inférieurement:
la fonction f est donc continue. On voit également que f vaut 1 sur F et 0 sur F 0 . 
On s’intéresse à la métrisabilité dont on rappelle la définition. On rappelle que si (E, d) est un espace métrique, la topologie
métrique est la collection des unions (quelconques) de boules ouvertes.

Définition A.6.4 Soit E, un espace muni d’une topologie. On dit que la topologie est métrisable s’il existe une distance d sur E dont
la topologie est T . 

On rappelle que des distances distinctes peuvent générer la même topologie. Certains concepts métriques, comme la complétude, ne
sont pas topologiques, c’est-à-dire qu’il ne se sont pas invariants par homéomorphisme. En revanche la métrisabilité l’est, comme
l’énonce le lemme suivant qui est élémentaire.

Lemme A.6.5 Soient (E, T ) et (E 0 , T 0 ), des espaces topologiques. On suppose (E 0 , T 0 ) métrisable.


(i) On suppose que E ⊂ E 0 et que T est la topologie induite sur E par T 0 : T = {E ∩ U 0 ; U 0 ∈ T 0 }. Alors (E, T ) est
métrisable.
(ii) On suppose que E et E 0 sont homéomorphes, c’est-à-dire qu’il existe une bijection Φ : E → E 0 continue dont la réciproque est
aussi continue. Alors (E, T ) est aussi métrisable.

Preuve: soit d0 la distance sur E 0 générant T 0 ; On note d la restriction de d0 à E × E. Soit r ∈]0, ∞[; pour tout x ∈ E, on note
Bd (x, r) la d-boule ouverte de E de centre x et de rayon r et on note Bd0 0 (x0 , r) la d0 -boule ouverte de E 0 de centre x0 et de rayon r.
Soit x0 ∈ E 0 ; pour tout point x ∈ E ∩ B 0 (x0 , r) (s’il en existe) on note rx = 21 (r−d0 (x, x0 )) > 0 et on observe que

Bd (x, rx ) = Bd0 0 (x, rx ) ∩ E ⊂ Bd0 0 (x0 , r) ∩ E .


A.6. MÉTRISABILITÉ DES ESPACES LOCALEMENT COMPACTS À BASE DÉNOMBRABLE. 227

Donc E ∩ Bd0 0 (x0 , r) = x∈E∩B 0d0 (x0 ,r) Bd (x, rx ), ce qui entraîne que E ∩ Bd0 (x0 , r) ∈ Td , où Td est la topologie induite par d sur
S

E. Comme tout ouvert de T est la réunion de boules du type E ∩ Bd0 (x0 , r), cela montre que T ⊂ Td . Ensuite, il est clair que
Bd (x, r) = E ∩ Bd0 0 (x, r) et donc toute d-boule ouverte appartient à T , ce qui permet de conclure que T = Td .
Montrons (ii): on note d0 une distance générant T 0 . Pour tous x, y ∈ E, on pose d(x, y) = d0 (Φ(x), Φ(y)); on vérifie immédi-
atement qu’il s’agit d’une distance sur E et que Bd (x, r) = Φ−1 (Bd0 0 (Φ(x), r)), ce qui montre que Bd (x, r) ∈ T , car c’est l’image
réciproque d’un ouvert par une application (T , T 0 )-continue. Les d-boules ouvertes sont donc des ouverts de T ce qui implique que
Td ⊂ T . Soit U un ouvert de T ; on note Ψ la réciproque de Φ et on voit que U 0 = Φ(U ) = Ψ−1 (U ) est un ouvert S de T0 car
0
il est
l’image réciproque parSla fonction (T , T )-continue
0
Ψ d’un ouvert de T . Comme T 0
est métrisé par d, U 0
= i∈I Bd
0
0 (xi , ri ) et

donc U = Φ−1 (U 0 ) = i∈I Φ−1 Bd0 0 (x0i , ri ) = i∈I Bd (Ψ(x0i ), ri ) et U ∈ Td . Cela montre donc que T = Td et donc que (E, T )
 S

est métrisable. 
On s’intéresse plus particulièrement à la métrisabilité des espaces compacts. Le lemme suivant montre que les espaces compacts
de cardinal trop grand ne sont pas métrisables.

Lemme A.6.6 Soit (E, T ), un espace topologique compact. On le suppose métrisable. Alors il admet une suite dense, c’est-à-dire un
ensemble D dénombrable tel que D = E et par conséquent Card(E) ≤ Card(R).

Preuve: soit d une distance générant la topologie T . Pour tout n ∈ N, on extrait du recouvrement d’ouvert E = x∈E Bd (x, 2−n ),
S
S (n) −n
un recouvrement fini: E = 1≤k≤pn Bd (xk , 2 ). Il est facile de vérifier que tout point de E est limite d’une suite à valeurs dans
l’ensemble dénombrable D = {x(n) k ; 1 ≤ k ≤ pn , n ∈ N} et donc D = E.
Soit yn ∈ D, n ∈ N telle que {yn ; n ∈ N} = D. Pour tout x ∈ E, il existe un ensemble infini Ix ⊂ N tel que si (nk )k∈N est une
indexation strictement croissante des indices Ix , limk→∞ d(ynk , x) = 0; par conséquent, x 7→ Ix est une injection de E dans P(N),
la classe des sous-ensembles de N, qui a la puissance du continu. 
L’espace [0, 1]R+ des fonctions de R+ dans [0, 1] muni de la convergence ponctuelle (c’est-à-dire la topologie produit) est un
espace compact de cardinal strictement plus grand que R: il ne peut pas être métrisé.

Définition A.6.7 Soit E muni de la topologie T . Une base de cette topologie est un sous-ensemble B ⊂ T de cette topologie telle
que tout ouvert de T est union d’ouverts de B. On dit qu’un espace topologique est complétement séparable si sa topologie admet une
base dénombrable. On dit aussi, plus simplement, que l’espace topologique est à base (topologique) dénombrable. Cela correspond au
terme anglais "second countable". 

Le lemme suivant donne un exemple d’espace completement séparable (ou à base dénombrable).

Lemme A.6.8 Soit (E, d) un espace métrique muni de la topologie métrique Td . On suppose que (E, d) est séparable en tant
qu’espace métrique c’est-à-dire qu’il existe une suite dense. Alors, (E, Td ) est compétement séparable (à base dénombrable).

Preuve: Td est contitué des ensembles qui sont des unions quelconques de boules ouvertes. Soit xn ∈ E, n ∈ N, une suite dense dans
E, c’est-à-dire que tout point de E est limite d’une suite à valeurs dans {xn ; n ∈ N}. Clairement B = {Bd (xn , q); q ∈ Q+ , n ∈ N} est
une base dénombrable de Td (ici Bd (x, r) désigne la boule ouverte de centre x et de rayon r). 

Théorème A.6.9 Un espace compact est métrisable si et seulement si sa topologie est à base dénombrable.

Preuve: si (E, T ) est un espace compact métrisable, le lemme A.6.6 montre qu’il admet une suite dense et le lemme A.6.8 montre
qu’il est complément séparable (qu’il admet une base topologique dénombrable).
Montrons la réciproque: on suppose que (E, T ) est compact à base dénombrable; soient Un ∈ T , n ∈ N, une base de T . On
montre d’abord le fait suivant:

∀x ∈ E, ∀U ∈ T tel que x ∈ U , ∃n ∈ N : x ∈ Un ⊂ U n ⊂ U . (A.28)

En effet, soit (nk ) la suite strictement croissante d’entiers définie par {nk ; k ∈ N} = {n ∈ N : x ∈ Un }; soit y distinct de x; comme
E est séparé (c’est un espace compact), il existe k tel que x ∈ Unk et un ouvert V contenant y tels que Unk ∩ V = ∅, c’est-à-dire que
T E\V , ce qui implique que U nk ⊂ E\V T
Unk est inclu dans le fermé et donc U nk ∩ V = ∅. En particulier, il existe k tel que y ∈
/ U nk .
Cela montre que {x} = k∈N U nk . Donc l’intersection de compacts k∈N (E\U ) ∩ U nk est vide; en passant au complémentaire et en
T T
extrayant un recouvrement fini, cela montre qu’il existe k0 tel que 0≤k≤k0 (E\U ) ∩ U nk = 0; on pose V = 0≤k≤k0 Unk , qui est un
T
ouvert contenant x tel que V ⊂ 0≤k≤k0 U nk et donc tel que (E\U ) ∩ V = ∅, c’est-à-dire V ⊂ U . Soit p tel que Unp ⊂ V : alors on a
bien x ∈ Unp ⊂ U np ⊂ U , ce qui montre (A.28).
228 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

On introduit ensuite I = {(m, n) ∈ N2 : U m ∩ U n = ∅}. On voit que

∀x, y ∈ E distincts, ∃(m, n) ∈ I : x ∈ U m et y ∈ U n (A.29)

En effet, comme E est normal (Lemma A.6.2), il existe U, U 0 deux ouverts disjoints tels que x ∈ U et y ∈ U 0 ; par (A.28) il existe
m, n ∈ N tel que x ∈ Um ⊂ U m ⊂ U et y ∈ Un ⊂ U n ⊂ U 0 et on bserve que U m et U n sont nécessairement disjoints, c’est-à-dire que
(m, n) ∈ I.
On note (mp , np ), p ∈ N, une énumération de I et pour tout p ∈ N on note fp une fonction continue de E dans [0, 1] valant 1 sur
U mp et 0 sur U np , dont l’existence est garantie par le lemme d’Urysohn A.6.3. On voit immédiatement que (A.29) implique que la
suite de fonctions (fp )p∈N sépare les points de E, c’est-à-dire

∀x, y ∈ E distincts, ∃p ∈ N : fp (x) 6= fp (y) . (A.30)

On rappelle laP proposition A.5.8 (élémentaire) qui affirme que l’espace J = [0, 1]N des suites à valeurs dans [0, 1] muni de la
distance δ(x, y) = n∈N 2−n |xn −yn | où x = (xn )n∈N et y = (yn )n∈N , est un espace métrique compact et que la topologie induite
(p) (p)
par δ est la topologie produit, c’est-à-dire que δ-limp→∞ (xn )n∈N = (xn )n∈N ssi pour tout n ∈ N, limp→∞ xn = xn dans [0, 1]. On
définit alors Φ : E → J par Φ(x) = (fn (x))n∈N . Comme chaque fn est continue, Φ est continue. Comme les (fn )n∈N séparent les
points (c’est-à-dire (A.30), Φ est injective: donc Φ est un homéomorphisme de E sur K := Φ(E) (voir le lemme II.6.7). Comme J est
compact métrisable et que la toplogie de K est celle induite par celle de J, le lemme A.6.5 (i) implique que K est métrisable. Le point
(ii) du même lemme A.6.5 implique alors que E est métrisable, ce qui termine la preuve. 
On s’intéresse à la compactification des espaces localement compacts.

Définition A.6.10 Soit E, un espace muni d’une topologie T . Cette topologie est est dite localement compacte si pour tout x ∈ E et
tout ouvert U ∈ T contenant x, il existe un ouvert V tel que x ∈ V ⊂ U et tel que V soit compact. 

Lemme A.6.11 . Soit (E, T ) un espace topologique localement compact. On le suppose à base dénombrable. Alors il existe une base
d’ouverts (Vn )n∈N , tels que V n est compact pour tout n ∈ N.

Preuve: soit (Vn )n∈N une base de T . On pose I = {n ∈ N : U n est compact} et on montre que (Un )n∈I est une base de T . En effet,
soit V un ouvert non-vide de T . Soit x ∈ V ; il existe U , un ouvert contenant x tel que U compact; par ailleurs comme (Un )n∈N est
S T , il existe nx tel que x ∈ Unx ⊂ U . On en déduit que l’adhérence de Unx est compacte, c’est-à-dire que nx ∈ I. On a
une base de
donc V = x∈V Unx . Cela montre que tout ouvert est réunion d’ouverts (Un )n∈I , qui est donc est une base de T . 

Proposition A.6.12 Soit (E, T ) un espace topologique localement séparable à base dénombrable (un espace LCBD). Soit ∂ ∈
/ E. Il
existe une topologie compacte à base dénombrable T 0 sur E∂ := E ∪ {∂} induisant T sur E.

Preuve: si E est déjà compact, la proposition est élémentaire: on ajoute un point isolé. On suppose dans la suite que E n’est pas
compact.
On définit T 0 comme l’ensemble des unions quelconques d’ensembles de T et d’ensembles de la forme {∂} ∪ (E\K) où K est
un compact de E. Il est clair que ∅ et E∂ appartiennent à T 0 et que T 0 est stable par union quelconque; on remarque ensuite que
(E\K1 ) ∩ (E\K2 ) = E\(K1 ∪ K2 ), et si K1 et K2 sont compact, il en est de même de K1 ∪ K2 ; combiné à un argument simple,
cela implique que T 0 est stable par intersection simple. Cela montre donc que T 0 est une topologie. Elle est séparée. Il est aussi facile
de voir que T 0 induit T sur E.
Montrons que T 0 est compacte: supposons que E∂ = ( i∈I Vi ) ∪ j∈J ({∂} ∪ (E\Kj )), avec les Kj compacts de E et les
S S
Vi ouverts S de E. L’ensemble
S d’indices J ne peut être vide; soit j0 ∈ J; on pose O = {∂} ∪ (E\Kj0 ); on vérifie que Kj0 =
E∂ \O ⊂ ( i∈I Vi ) ∪ j∈J\{j0 } (E\Kj ). Comme Kj0 est compact et que les ensemble Ui et E\Kj sont des ouverts de E, il
existe I 0 ⊂ I et J 0 ⊂ J\{j0 }, deux sous-ensembles finis d’indices tels que Kj0 ⊂ ( i∈I 0 Vi ) ∪ j∈J 0 (E\Kj ) et donc E∂ =
S S

( i∈I 0 Vi ) ∪ j∈J 0 ∪{j0 } ({∂} ∪ (E\Kj )), ce qui montre bien que T 0 est une topologie compacte.
S S

On constate ensuite que tout ouvert V ∈ T 0 est soit un ouvert de T soit de la forme U ∪{∂}∪(E\K), avec S K compact de E ou bien
K vide (on rappelle queT les compacts sont, par définition, non-vides). Cela provient immédiatement du fait que j∈J ({∂}∪(E\Kj )) =
{∂} ∪ (E\K) où K = j∈J Kj qui est compact s’il n’est pas vide.
Soit (Un )n∈N une base dénombrable de T ; grâce au lemme A.6.11, on peut supposer sans perte de généralité que les U n sont
compacts. On montre que B = {Un , {∂} ∪ (E\U n ); n ∈ N} est une base de T 0 . D’après ce qui précéde, il suffit de montrer que pour
tout compact K de E, {∂}∪(E\K) est une union d’ouverts de B: comme K est compact dans E, il existe m tel que K ⊂ U1 ∪. . .∪Um ;
comme E n’est pas compact, l’ouvert E\(U 1 ∪ ∪ . . . ∪ U m ) n’est pas vide et il existe n tel que Un ⊂ E\(U 1 ∪ . . . ∪ U m ); comme Un
est inclus dans le fermé E\(U1 ∪ . . . ∪ Um ), il en est de même pour U n ; on a donc montré l’existence de n tel que les deux compacts
A.7. ENSEMBLES ANALYTIQUES, PREUVE DU THÉORÈME DU "DÉBUT". 229

S Comme E\(K ∪ U n ) est un ouvert non-vide de E, et que les Uk forment une base de T , il S
K et U n soient disjoints. existe I ⊂ N tel
que E\(K ∪ U n ) = k∈I Uk . Comme K et U n soient disjoints on en déduit que {∂}∪(E\K) = ({∂} ∪ (E\U n ) ∪ k∈I Uk . Cela
montre bien que B est une base de T 0 . Clairement B est dénombrable. 

Théorème A.6.13 Soit (E, T ), un espace topologique localement compact à base dénombrable (LCBD). Soit ∂ ∈
/ E. On pose
E∂ = E ∪ {∂}. Alors il existe une distance d sur E∂ , telle que

(a) (E∂ , d) est un espace métrique compact (donc séparable complet),


(b) la topologie induite par d sur E est T .

Preuve: cela suit immédiatement de la proposition A.6.12 et du théorème qui précède et du théoreme A.6.9. 

A.7 Ensembles analytiques, preuve du théorème du "Début".


La preuve exposée ici suit en partie celle du livre Probabilités et Potentiel de C. Dellacherie et P-A. Meyer et elle requiert l’introduction
des ensembles analytiques dans leur généralité.

Préliminaires. Commençons par quelques notations standard sur les ensembles.

Définition A.7.1 Soit E, un ensemble non-vide et P(E), la classe de tous ses sous-ensembles. Soit R, une classe de sous-ensembles
de E: R ⊂ P(E). On utilise les notations suivantes.

(a) On note Rσ la classe des unions dénombrables d’ensembles de R:


n[ o
Rσ = An ; An ∈ R, n ∈ N .
n∈N

(b) On note Rδ la classe des intersections dénombrables d’ensembles de R:


n\ o
Rδ = An ; An ∈ R, n ∈ N .
n∈N

(c) On note simplement Rσδ la classe d’ensemble (Rσ )δ . De même, on note simplement Rδσ la classe d’ensemble (Rδ )σ .
(d) Soit E 0 , un ensemble non-vide et soit R 0 ⊂ P(E 0 ). On note

R × R 0 = A×B ; A ∈ R, B ∈ R 0


qui est la classe produit (à ne pas confondre, lorsque R et R 0 sont des tribus avec la tribu produit).
(e) Soit S un espace topologique. On note K (S) la classe de ses sous-ensembles compacts. 

Soient E et E 0 , deux ensembles non-vide. Soit f : E → E 0 , une fonction. Soit A ⊂ E et soit B ⊂ E 0 . On rappelle les notations
suivantes:
f (A) = {f (x) ; x ∈ A} et f −1 (B) = {x ∈ E : f (x) ∈ B} .
On rappelle également les faits suivants: soient Bi ⊂ E 0 , i ∈ I, une famille de sous-ensembles de E 0 . Alors
[  [ \  \
f −1 Bi = f −1 (Bi ) et f −1 Bi = f −1 (Bi ) . (A.31)
i∈I i∈I i∈I i∈I

On rappelle également que pour toute famille Aj ⊂ E, j ∈ J, de sous-ensembles de E, on a


[  [ \  \
f Aj = f (Aj ) et f Aj ⊂ f (Aj ) , (A.32)
j∈j j∈J j∈J j∈J

Attention: l’inclusion dans (A.32) est stricte en général (il suffit de prendre f constante à la valeur y, A1 et A2 non-vides et disjoints
et on a alors f (A1 ∩ A2 ) = ∅, alors que f (A1 ) = f (A2 ) = {y}). Les relations (A.31) montrent que les opérations ensemblistes
élémentaires commutent avec la pré-image et lorsqu’on veut transporter une structure (tribu, mesure ou topologie par exemple), on
observe que c’est la notion de pré-image qui est utilisée: voir la définition d’une fonction mesurable, d’une mesure image, d’une
230 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

fonction continue, etc. En revanche, le fait que l’image d’une intersection d’ensembles ne coïncide pas avec l’intersection des images
a de nombreuses conséquences: l’image d’un ouvert par une fonction continue n’est pas un ouvert, l’image d’un borélien par une
fonction mesurable n’est pas nécessairement mesurable, etc.
Les ensembles analytiques, introduits plus bas, permettent de comprendre les propriétés de l’image directe d’ensembles mesurables.
Une idée importante qui sous-tend les définitions liées aux ensembles analytiques est d’utiliser les ensembles compacts qui se com-
portent relativement bien par image directe: rappelons par exemple que l’image continue d’un compact est un compact. Aussi avant
d’introduire les ensembles analytiques, nous rappelons brièvement quelques propriétés des compacts que nous utilisons dans la suite
de cette section.
La propriété essentielle qui est utilisée est celle des "compacts emboîtés" que nous rappelons comme suit: soit E, un espace
topologique métrisable; soient Kn ⊂ E, n ∈ N, des ensembles compacts; alors
   \ 
∀n ∈ N, K0 ∩ . . . ∩ Kn 6= ∅ =⇒ Kn 6= ∅ (A.33)
n∈N

Pour exploiter cette propriété pour des ensembles qui ne sont pas nécessairement compacts, on considére des ensembles produits avec
un espace compact : le lemme suivant, qui est utilisé dans la suite, illustre cette idée, à la base de la définition des ensembles analytiques.

Lemme A.7.2 Soit E, un ensemble non-vide. Soit R ⊂ P(E), une classe de sous-ensembles de E. On suppose que ∅ ∈ R et que
R est stable par unions finies. Soit S, un espace topologique compact métrisable et on rappelle que K (S) désigne la classe de ses
sous-ensembles compacts. On pose
n [ o
H = Kp ×Ap ; N ∈ N , ∀p ∈ {0, . . . , N } , Kp ∈ K (S) , Ap ∈ R (A.34)
0≤p≤N

qui est la classe des unions finies d’ensembles de K (S)×R. On note π : (x, y) ∈ S ×E 7→ y ∈ E, la projection canonique sur E.
Alors, \ \ 
∀Bn ∈ H , n ∈ N tels que Bn+1 ⊂ Bn , π(Bn ) = π Bn . (A.35)
n∈N n∈N
T T T
Preuve: par (A.32), on a π( n∈N BnT) ⊂ n∈N π(Bn ). Si n∈N π(Bn ) = ∅, alors (A.35) est vérifiée trivialement. On suppose donc
n∈N π(Bn ) non-vide et on fixe y ∈ Sn∈N π(Bn ). Comme Bn ∈ H , il existe Nn ∈ N, des compacts Kn,p ∈ K (S) et des ensembles
T
An,p ∈ R, 0 ≤ p ≤ Nn tels que Bn = 0≤p≤Nn Kn,p ×An,p . On fixe ensuite n ∈ N et on pose
n \ \ o
Un = u = (u0 , . . . , un ) ∈ Nn+1 : ∀j ∈ {0, . . . , n} , uj ≤ Nj , y ∈ Aj,uj et Kj,uj 6= ∅ .
0≤j≤n 0≤j≤n

Comme y ∈ π(Bn ), il existe xn ∈ S tel que (xn , y) ∈ Bn si bien qu’il existe un ∈ {0, . . . , Nn } tel que y ∈ An,un et xn ∈ Kn,un .
Soit jT∈ {0, . . . , n}, comme Bn ⊂ Bj , (xn ,T y) ∈ Bj et il existe donc uj ∈ {0, . . . , Nj } tel que y ∈ Aj,uj et xn ∈ Kj,uj . Donc
xn ∈ 0≤j≤n Kj,uj , qui n’est pas vide et y ∈ 0≤j≤n Aj,uj . Autrement dit (u0 , . . . S , un ) ∈ Un .
On a donc montré que pour tout n ∈ N, Un n’est pas vide. On pose U := n∈N Un , qui est donc un ensemble infini. On
construit une suite d’entiers (vn )n∈N récursivement de la manière suivante: comme U est infini, il existe nécessairement un entier v0 ∈
{0, . . . , N0 } tel qu’une infinité de suites de U commencent par le terme v0 ; supposons construits v0 , . . . , vn : il existe nécessairement
un entier vn+1 ∈ {0, . . . , Nn+1 } tel qu’une infinité de suites de U aient pour premiers termes (v0 , . . . , vn+1 ). La suite (vn )n∈N ainsi
construite est telle que pour tout n ∈ N, (v0 , . . . , vn ) ∈ Un , c’est-à-dire
\ \
∀n ∈ N, Kj,uj 6= ∅ et y ∈ Aj,uj .
0≤j≤n 0≤j≤n
T T T
On a donc y ∈ n∈N AT n,vn et par le principe (A.33) des compacts emboîtés,
T n∈N Kn,vn 6= ∅. On peut
T donc choisir x ∈T n∈N Kn,vn
et on voit que (x, y) ∈ n∈N Bn et on a bien π(x, y) = y. Donc y ∈ π( n∈N Bn ). Cela montre que n∈N π(Bn ) ⊂ π( n∈N Bn ), ce
qui permet de conclure. 

On utilise le résultat suivant sur la topologie compacte métrisable.


Q
Lemme A.7.3 Soient (Sn , dn ), n ∈ N, des espaces métriques compacts. On pose S = n∈N Sn et pour toutes suites s =
(sn )n∈N , t = (tn )n∈N dans S, on pose X −n 
d(s, t) = 2 1 ∧ dn (sn , tn ) .
n∈N

Q compact et la topologie engendrée par d est la topologie produit sur S. De plus, si pour tout n ∈ N,
Alors (S, d) est un espace métrique
Kn est un compact de Sn , alors n∈N Kn est un compact de S.
Preuve: il s’agit d’un résultat élémentaire de topologie métrique dont la preuve est laissée en exercice. 
A.7. ENSEMBLES ANALYTIQUES, PREUVE DU THÉORÈME DU "DÉBUT". 231

Ensembles analytiques. Les ensembles analytiques en général sont introduits de la manière suivante.

Définition A.7.4 (Ensembles analytiques) Soit E, un ensemble non-vide. Soit R ⊂ P(E), une classe de sous-ensembles de E. On
suppose que ∅ ∈ R. On rappelle les notation de la définition A.7.1.
• Un sous-ensemble A ⊂ E est dit R-analytique s’il existe un espace topologique S compact métrisable et un ensemble B ∈ (K (S)×
R)σδ tel que π(B) = A, où π : (s, x) ∈ S ×E 7→ x ∈ E désigne la projection canonique de S ×E sur E.
• On note Σ(R) la classe des ensembles R-analytiques. 

On observe que dans cette définition, l’espace S dépend de A. Comme déjà mentionné, la définition des ensembles analytiques permet
en quelque sorte d’importer sur des espaces dépourvus de topologie certaines propriétés compacts.

Remarque A.7.5 Soit A ∈ Σ(R). Il existe D ∈ Rσ tel que A ⊂ D. En effet, il existe un espace topologiqueSS compact métrisable et il
existe Cn,m ×An,m , m, n ∈ N, où Cn,m est un compact de S et An,m ∈ R tel que si on pose B =S n∈N m∈N Cn,m ×An,m , alors
T
A = π(B) où π désigne la projection canonique de S ×E sur E. On a donc pour tout n0 ∈ N, B ⊂ m∈N Cn0 ,m ×An0 ,m et donc
 [  [ [
A = π(B) ⊂ π Cn0 ,m ×An0 ,m = π(Cn0 ,m ×An0 ,m ) = An0 ,m ∈ Rσ ,
m∈N m∈N m∈N

ce qui montre le résultat désiré. 

Dans la suite du paragraphe, nous discutons de quelques propriétés des ensembles analytiques.

Proposition A.7.6 Soit E, un ensemble non-vide. Soit R ⊂ P(E), une classe de sous-ensembles de E. On suppose que ∅ ∈ R. Alors,
d’une part R ⊂ Σ(R) et Σ(R) est stable par union dénombrable et par intersection dénombrable.

Preuve: soit A ∈ R. Soit S n’importe quel espace topologique compact métrisable. Il est clair que S ×A ∈ (K (S)×R)σδ . Or la
projection sur E de S ×A est A. cela montre donc que A ∈ Σ(R) et donc que R ⊂ Σ(R).
Montrons ensuite que Σ(R) est stable par intersection dénombrable. Soient An ∈ Σ(R), n ∈ N. Pour tout n ∈ N, il existe
donc unTespaceS topologique Sn , compact métrisable, et Bn ∈ (K (Sn ) × R)σδ tel Qque An est la projection de Bn sur E. On écrit
Bn = k∈N `∈N Kk,` n
×An k,` , avec An
k,` ∈ R et K n
k,` ∈ K (S n ). On pose S := T Sn , S
n∈N muni de la topologie produit. Le lemme
n
× q∈N\{n} Sq )×An
Q
A.7.3 implique que S est un espace topologique compact métrisable. On pose Cn = k∈N `∈N (Kk,` k,` qui
T
appartient clairement à (K (S)×R)σδ . Par conséquent, n∈N Cn ∈ (K (S)×R)σδ . On note π la projection canonique T de S ×E sur
E et on vérifie ensuite l’égalité suivante qui, combinée avec l’argument précédent, entraîne immédiatement que n∈N An ∈ Σ(R):
\ \
π( Cn ) = An (A.36)
n∈N n∈N
T n
Preuve: soit y ∈ n∈N An ; pour tout n ∈ N, y ∈ An et il existe xn ∈ Sn tel que pour tout k ∈ N,on trouve `k,n tel que xn ∈ Kk,` k,n
et y ∈ Ank,`k,n . Pour tout n ∈ N et tout k ∈ N, on a donc ((x )
q q∈N , y) ∈ K n
k,`k,n × A n
k,`k,n et donc pour tout n ∈ N, ((x )
q q∈N , y) ∈ Cn ,
T T  T T T
c’est-à-dire ((xq )q∈N , y) ∈ n∈N Cn . Donc y ∈ π n∈N Bn . Cela montre que n∈N π(Bn ) = n∈N An ⊂ π( n∈N Bn ). Par
(A.32), on en déduit (A.36). 
o `
Montrons la stabilité par union dénombrable: on conserve les mêmes notations. On note S = n∈N Sn , l’union disjointe des
ensembles Sn , en effectuant les identifications ensemblistes nécessaires pour que Sn soit vu comme un sous-ensemble de S o . On munit
S o de la topologie engendrée par les topologies des Sn : c’est la plus petite topologie contenant les ouverts des Sn . On vérifie que S o
est un espace topologie localement compact à base dénombrable. Soit ∂ ∈ / S o : il existe une distance d sur S := {∂} ∪ S o telle que
(S, d) soit un espace métrique compact et telle que la topologie induite sur S o soit celle d’origine; cela implique notamment que la
topologie d’origine de chaque ST n soit la topologie induite par d sur Sn . Un compact de Sn est donc un compact de S. On rappelle que
Bn s’exprime par comme Bn = m∈N Bn,m avec Bn,m ∈ (K (Sn )×R)σ ⊂ (K (S)×R)σ . On peut voir Bn comme un sous-ensemble
de S ×E. Comme les Sn sont deux-à-deux disjoints dans S, les Bn sont deux-à-deux disjoints dans S ×E, ce qui implique que
[ [ \ \ [
Bn = Bn,m = Bn,m .
n∈N n∈N m∈N m∈N n∈N
S S
OrS n∈N Bn,m ∈S(K (S)×R)σ . S
Donc n∈N Bn ∈ (K (S)×R) S σδ . On note π la projection canonique de S ×E sur E et par (A.32),
π( n∈N Bn ) = n∈N π(Bn ) = n∈N An , ce qui montre que n∈N An est analytique. 

Lemme A.7.7 Soient E, E 0 deux ensembles non-vides. Soit R ⊂ P(E), tel que ∅ ∈ R. Soit R 0 ⊂ P(E 0 ), tel que ∅ ∈ R 0 . Alors on a

Σ(R) × Σ(R 0 ) ⊂ Σ(R × R 0 ) .


232 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

Preuve: on vérifie immédiatement que Σ(R)×R 0 ⊂ Σ(R ×R 0 ). De même, R ×Σ(R 0 ) ⊂ Σ(R ×R 0 ). La stabilité des ensembles
analytiques par union dénombrable (proposition A.7.6) implique que

Σ(R)×Rσ0 ⊂ Σ(R ×R 0 ) et Rσ ×Σ(R 0 ) ⊂ Σ(R ×R 0 ). (A.37)

Soient A ∈ Σ(R) et A0 ∈ Σ(R 0 ). La remarque A.7.5 implique l’existence de B ∈ Rσ et de B 0 ∈ Rσ0 tels que A ⊂ B et A0 ⊂ B 0 . On a
donc A×B 0 ∈ Σ(R)×Rσ0 et B ×A0 ∈ Rσ ×Σ(R 0 ). Donc par (A.37), on a A×B 0 ∈ Σ(R ×R 0 ) et B ×A0 ∈ Σ(R ×R 0 ). Comme les
ensembles analytiques sont stable par intersections dénombrables (proposition A.7.6), on a

A×A0 = (A×B 0 ) ∩ (B ×A0 ) ∈ Σ(R ×R 0 ) ,

ce qui permet de conclure. 

Lemme A.7.8 Soit (S0 , d0 ), un espace métrique compact. Soit E, un ensemble non-vide et soit R ⊂ P(E), tel que ∅ ∈ R. On note π
la projection canonique de S0 ×E sur E. Alors, pour tout A ∈ Σ(K (S0 )×R), π(A) ∈ Σ(R).

Preuve: soit A ∈ Σ(K (S0 )×R). Il existe (S, d), un espace métrique compact et il existe B ∈ (K (S)×(K (S0 )×R))σδ tels que
A = π 0 (B), où π 0 est la projection canonique de S ×S0 ×E sur S0 ×E. On note π 00 la projection canonique S ×S0 ×E sur E: on a
π 00 (B) = π(A). On observe ensuite que K (S)×K (S0 ) ⊂ K (S ×S0 ), donc B ∈ (K (S ×S0 )×R)σδ , ce qui implique donc que
π(A) ∈ Σ(R) car S ×S0 est métrisable compact. 

Lemme A.7.9 Soit E, un ensemble non-vide et soit R ⊂ P(E), tel que ∅ ∈ R. Soit R ⊂ S ⊂ Σ(R). Alors Σ(S ) = Σ(R).

Preuve: clairement Σ(R) ⊂ Σ(S ) ⊂ Σ(Σ(R)). Soit A ∈ Σ(Σ(R)). Il existe S, un espace compact métrisable et B ∈ (K (S) ×
Σ(R))σδ tel que A est la projection de B sur E. Or la proposition A.7.6 montre que K (S) ⊂ Σ(K (S)), le lemme A.7.7 implique que
Σ(K (S))×Σ(R) ⊂ Σ(K (S)×R). Donc K (S)×Σ(R) ⊂ Σ(K (S)×R). La proposition A.7.6 montre que les ensembles analytiques
sont stables par unions et intersections dénombrables. Donc (K (S)×Σ(R))σδ ⊂ Σ(K (S)×R). Donc B ∈ Σ(K (S)×R). Le lemme
A.7.8 implique alors que la projection de B sur E, qui est A, est un ensemble R-analytique. Donc Σ(Σ(R)) = Σ(R), ce qui implique
le résultat voulu. 

Proposition A.7.10 Soit E, un ensemble non-vide et soit R ⊂ P(E), tel que ∅ ∈ R. On suppose que

∀A ∈ R, E\A ∈ Σ(R) .

Alors σ(R) ⊂ Σ(R).

Preuve: on pose E = {A ∈ Σ(R) : E\A ∈ Σ(R)}. Par hypothèse, R ⊂ E . Grâce à la proposition A.7.6, on vérifie que E est une
tribu, ce qui permet de conclure. 

Théorème A.7.11 On note B([0, ∞]) les boréliens de [0, ∞]. Soit (Ω, F ), un espace mesurable. Alors

B([0, ∞])⊗F ⊂ Σ(K ([0, ∞])×F ) (A.38)

Soit π : [0, ∞]×Ω → Ω la projection canonique. Alors,

∀B ∈ B([0, ∞])⊗F , π(B) ∈ Σ(F ) . (A.39)

Preuve: on a σ(K ([0, ∞]) × F ) = B([0, ∞]) ⊗ F . Le complémentaire de tout compact de [0, ∞] est une union dénombrable de
compacts. Soit K ×B ∈ K ([0, ∞])×F . Donc

([0, ∞]×Ω)\(K ×B) = (([0, ∞]\K)× Ω) ∪ ([0, ∞]×(Ω\B)) .

On en déduit que ([0, ∞]×Ω)\(K ×B) ∈ (K ([0, ∞])×F )σ . Or par la proposition A.7.6 et le lemme A.7.7 on a

K ([0, ∞])×Σ(K ([0, ∞]))×Σ(F ) ⊂ Σ(K ([0, ∞])×F )

et comme Σ(K ([0, ∞])×F ) est stable par union dénombrable (proposition A.7.6), on en déduit que (K ([0, ∞])×F )σ ⊂ Σ(K ([0, ∞])×
F ). Par conséquent les ensembles de K ([0, ∞])×F et leurs complémentaires sont dans Σ(K ([0, ∞])×F ): la proposition A.7.10
implique que σ(K ([0, ∞]) × F ) ⊂ Σ(K ([0, ∞]) × F ). Or σ(K ([0, ∞]) × F ) = B([0, ∞]) ⊗ F , ce qui implique (A.38).Enfin,
(A.39)est une conséquence immédiate du lemme A.7.8 avec S0 = [0, ∞]. 
A.7. ENSEMBLES ANALYTIQUES, PREUVE DU THÉORÈME DU "DÉBUT". 233

Capacités de Choquet. Nous donnons ici la définition d’une capacité de Choquet, qui étend dans un cadre général la notion de
capacité newtonienne en théorie du potentiel classique, issue de l’électrostatique.

Définition A.7.12 (Capacité de Choquet.) Soit E, un ensemble non-vide et soit R ⊂ P(E), tel que ∅ ∈ R et qui est stable par
intersections et unions finies. Soit I : P(E) → [−∞, ∞], une fonction d’ensembles. On dit que c’est une R-capacité de Choquet si
elle satisfait les conditions suivantes.

(a) I est croissante pour l’inclusion: pour tous A ⊂ B ⊂ E, on a I(A) ≤ I(B).


S 
(b) Pour tous An ⊂ E, tels que An ⊂ An+1 , n ∈ N, on a I n∈N An = supn∈N I(An ).

(c) Pour tous Bn ∈ R tels que Bn+1 ⊂ Bn , n ∈ N, on a I


T 
n∈N Bn = inf n∈N I(Bn ).

Un sous-ensemble A de E tel que


I(A) = sup I(B) , (A.40)
B∈Rδ
B⊂A

est dit I-capacitable. 

L’exemple suivant est celui qui est utilisé par la suite.

Exemple A.7.13 Le lecteur est invité à lire les sous-sections A.4 (page 212) et A.4 (page 217) sur les mesures extérieures associées
à des mesures positives et la section A.2, en appendice page 208 sur la complétion d’espaces mesurés. Résumons le contenu de ces
sections. Soit (E, E , µ), un espace mesuré.
est défini par Nµ := A ⊂ E : ∃B ∈ E , A ⊂ B, µ(B) = 0 . La µ-complétion de la

• Complétion. L’ensemble des µ-négligeables
tribu E est la tribu E µ := σ E , Nµ . Le théorème A.2.3, page 209, montre qu’il existe une unique mesure positive µ : E µ → [0, ∞]


telle que pour tout A ∈ E , µ(A) = µ(A). Par la suite, on note µ l’unique extension de µ à E µ , mais pour cette section, nous gardons la
notation µ pour cette extension, par souci de clarté.
• Mesure extérieure associée à µ. Pour tout X ⊂ E, on pose ensuite
nX [ o
µ∗ (X) = inf µ(An ) ; An ∈ E , n ∈ N : X ⊂ An . (A.41)
n∈N n∈N

Le théorème A.4.9 de Carathéodory (où l’algèbre A est la sigma-algèbre E ) page 216, implique que µ∗ est une mesure extérieure:
c’est-à-dire, selon la définition A.4.1 des mesures extérieures, page 212, µ∗ (∅) = 0 et
X ∗ [
µ∗ (A) ≤ µ (Bn ), A ⊂ E, Bn ⊂ E , n ∈ N : A ⊂ Bn .
n∈N n∈N

On rappelle la définition A.4.2, page 213, des ensembles mesurable µ∗ -mesurables: B ⊂ E est dit µ∗ -mesurable si

∀X ⊂ E, µ∗ (X) = µ∗ (X ∩ B) + µ∗ (X ∩ (E\B)) .

On note E (µ∗ ) la classe des ensembles mesurable. Le théorème A.4.3, page 213, implique que E (µ∗ ) est une tribu et que la restriction
de µ∗ à E (µ∗ ) est une mesure positive. Le théorème A.4.12, page 217, implique que

(E, E µ , µ) = (E, E (µ∗ ), µ∗ ) . (A.42)



Par ailleurs, µ est une mesure extérieure régulière, c’est-à-dire que

∀X ⊂ E, ∃B ∈ E : X ⊂B et µ∗ (X) = µ∗ (B) = µ(B) . (A.43)

la définition (A.41) implique l’existence Ap,n ∈ E ,Sp, n ∈ N tels que X ⊂ n∈N Ap,n pour tout ∗
S
En effet, P T p ∈ N et µ (X) =
limp→∞ n∈N µ(Ap,n ). Pour tout p ∈ N, on pose Cp := n∈N Ap,n , Bp = C0 ∩ . . . ∩ Cp et B = p∈N Cp . On a donc
X ⊂ B ⊂ Bp ⊂ Cp et donc
X
µ∗ (X) ≤ µ∗ (B) = µ(B) ≤ µ(Cp ) ≤ −−→ µ∗ (X)
µ(Ap,n ) −
p→∞
n∈N

et donc µ∗ (X) = µ∗ (B) = µ(B), ce qui montre (A.43).


On en déduit le lemme suivant.
234 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

Lemme A.7.14 Soit (E, E , µ), un espace mesuré. Soit µ∗ : P(E) → [0, ∞] la mesure extérieure définie par (A.41). Alors µ∗ est
une E -capacité de Choquet.

Preuve: µ∗ est croissante pour l’inclusion. Soient Bn ∈ E tels que Bn+1 ⊂ Bn , n ∈ N. Alors B := n∈N Bn ∈ E . Comme µ∗
T
restreinte à E est la mesure µ, on a bien µ (B) = µ(B) = inf n∈N µ(Bn ) = inf n∈N µ (Bn ), ce qui est propriété (c) des capacité de
∗ ∗

Choquet.
Montrons la propriété (b): soient Xn ⊂ E, tels que Xn ⊂ Xn+1 , n ∈ N. On pose X := n∈N Xn . Comme µ∗ est croissante
S
pour l’inclusion, µ∗ (Xn ) ≤ µ∗ (Xn+1 ) ≤ µ∗ (X) et on a donc supn∈N µ∗ (Xn ) ≤ µ∗ (X). Comme µ∗ T est régulière (c’est-à-dire que
µ∗ satisfait (A.43) il existe Bn ∈ E , n ∈ N tels que µ∗ (Xn ) = µ(BS
n ) et Xn ⊂ Bn . On pose An = p≥n Bp . Comme E est une
tribu An ∈ E . Par ailleurs, on a Xn ⊂ An ⊂ Bn . On pose A := n∈N An . On a clairement X ⊂ A. Comme µ∗ est croissante
pour l’inclusion, on en déduit que µ∗ (Xn ) = µ∗ (An ) = µ(An ). Les propriété s élémentaires des mesures positives impliques que
supn∈N µ(An ) = µ(A) ≥ µ∗ (X), et donc supn∈N µ∗ (Xn ) ≥ µ∗ (X). On a donc donc supn∈N µ∗ (Xn ) = µ∗ (X). Cela termine la
preuve du fait que µ∗ est une capacité de Choquet. 
Ce lemme montre qu’une capacité de Choquet généralise en quelques sorte la notion de mesure extérieure. 

Nous montrons ensuite quelques propriétés générales des capacités de Choquet et des ensembles capacitables.

Lemme A.7.15 Soit E, un ensemble non-vide et soit R ⊂ P(E), tel que ∅ ∈ R et qui est stable par intersections et unions finies. Soit
I : P(E) → [−∞, ∞], une R-capacité de Choquet. Alors les ensembles de Rσδ sont I-capacitables.

Preuve: soit A ∈ Rσδ S−∞. Alors il existe An ∈ Rσ ,


T. Si I(A) = −∞, alors il est clairement I-capacitable. Supposons que I(A) >
n ∈ N tels que A = n∈N An . Par ailleurs, pour tout n ∈ N, il existe A0n,p , p ∈ N tels que An = p∈N A0n,p . Si on pose An,p :=
A0n,0 ∪ . . . ∪ A0n,p , on a d’une part An,p ⊂ An,p+1 , An = p∈N An,p et puisque R est stable par unions finies, on a An,p ∈ R, pour
S
tout n, p ∈ N. on a donc [ \
An,p ∈ R, An,p ⊂ An,p+1 , An = An,p et A = An .
p∈N n∈N

On fixe a ∈ ]−∞, I(A)[. On montre par récurrence le résultat suivant:

∃Bn ∈ R, n ∈ N : Bn ⊂ An et I(Cn ) > a où Cn := A ∩ B0 ∩ . . . ∩ Bn . (A.44)

Construisons d’abord B0 . Comme A ⊂ A0 , on a A ∩ A0 = A et donc I(A) = I(A ∩ A0 ) = supp∈N I(A ∩ A0,p ), par la propriété
(b) des capacités de Choquet. Il existe donc p0 ∈ N tel que I(A ∩ A0,p0 ) > a. On peut donc poser B0 := A0,p0 . Supposons construits
B0 , . . . , Bn satisfaisant (A.44). On a donc Cn ∩ An+1 = Cn et I(Cn ) = I(Cn ∩ An+1 ) = supp∈N I(Cn ∩ An+1,p ), par la propriété
(b) des capacités de Choquet. Il existe donc pn+1 ∈ N tel que I(Cn ∩ An+1,pn ) > a et pn peut poser Bn+1 := An+1,pn . Cela montre
(A.44) par récurrence.
On pose ensuite Bn0 := B0 ∩. . .∩Bn et B := n∈N Bn . On a bien B ∈ Rδ . Comme Bn ⊂ An , on a B = n∈N Bn ⊂ n∈N An = A.
T T T
Comme Cn ⊂ Bn , on a I(Bn ) > a; comme R est stable par intersections finies on a également Bn ∈ R, n ∈ N et la propriété (c) des
0 0 0

capacités de Choquet implique que I(B) = inf n∈N I(Bn0 ) ≥ a. On a montré que pour tout A ∈ Rσδ , et tout a ∈ ]−∞, I(A)[ il existe
B ∈ Rσ tel que B ⊂ A et I(B) ≥ a. Cela entraîne bien (A.40), c’est-à-dire cela montre que A est I-capacitable. 

On rappelle ensuite le lemme A.7.2 qui est utilisé dans la preuve du lemme suivant.

Lemme A.7.16 Soit E, un ensemble non-vide. Soit R ⊂ P(E), une classe de sous-ensembles de E. On suppose que ∅ ∈ R et que R
est stable par unions et intersection finies. Soit I : P(E) → [−∞, ∞], une R-capacité de Choquet.
Soit S, un espace topologique compact métrisable et on rappelle que K (S) désigne la classe des sous-ensembles compacts. On
note H la classe des unions finies d’ensembles de K (S) × R comme définie en (A.34). On vérifie que H est stable par unions et
intersections finies. On note π : (x, y) ∈ S ×E 7→ y ∈ E, la projection canonique sur E.
On définit J : P(S ×E) → [−∞, ∞], une fonction d’ensembles sur S ×E en posant

∀B ⊂ S ×E, J(B) = I(π(B)) . (A.45)

Alors J est une H -capacité sur S ×E.


S
Preuve:
S il est clair que J est croissante. Soient An ⊂ An+1 ⊂ S ×E, n ∈ N.SPar la première relation de (A.32), on a π( n∈N An ) =
n∈N π(An ) et la propriété (b) des capacités appliquées à I entraîne que J( n∈N An ) = supn∈N J(An ), c’est-à-dire que J satisfait
également la propriété (b) des capacités. Soient Bn ∈ H , n ∈ N tels que Bn+1 ⊂ Bn . Comme Bn est une union finie d’ensembles dans
K (S)×R et puisque R est stable par unions finies, il est clair, par la première relation de (A.32), que π(Bn ) ∈ R. La propriété (c)
A.7. ENSEMBLES ANALYTIQUES, PREUVE DU THÉORÈME DU "DÉBUT". 235

T
des capacitésTappliquée à I implique
T alors que inf n∈N J(Bn ) = inf n∈N I(π(BT
n )) = I( n∈N π(Bn )). Or le lemme A.7.2 implique par
T
ailleurs que n∈N π(Bn ) = π( n∈N Bn ) et on a donc inf n∈N J(Bn ) = I(π( n∈N Bn )) = J( n∈N Bn ). Cela montre que J satisfait
la propriété (c) des capacités et cela permet de conclure. 

On peut maintenant montrer le principal théorème sur les capacités de Choquet, à savoir le théorème de Choquet.

Théorème A.7.17 Soit E, un ensemble non-vide. Soit R ⊂ P(E), une classe de sous-ensembles de E. On suppose que ∅ ∈ R et
que R est stable par unions et intersection finies. Soit I : P(E) → [−∞, ∞], une R-capacité de Choquet. Alors les ensembles
R-analytiques sont I-capacitables:
∀A ∈ Σ(R), I(A) = sup I(B) .
B∈Rδ
B⊂A

Preuve: soit A ∈ Σ(R). Par définition, il existe un espace topologique S, compact métrisable, et il existe B ∈ (K (S) × R)σδ tel
que π(B) = A, où π désigne la projection canonique de S × E sur E. On note H la classe des unions dénombrables d’ensembles
de K (S)×E. Il est clair que Hσδ = (K (S)×R)σδ et donc B ∈ Hσδ . On définit la fonction d’ensembles J sur S ×E par (A.45).
Le lemme A.7.16 imlique que J est une H -capacité. Le lemme A.7.15 appliqué à J et H , implique que tout ensemble de Hσδ
est J-capacitable: en particulier B est J-capacitable. Donc pour tout ε > 0, il existe D ∈ Hδ tel que D ⊂ B et J(D) ≥ J(B) − ε,
c’est-à-dire I(π(D)) ≥ I(A)−ε car par définition J(B) = I(π(D)) et J(B) = I(π(B)) = I(A).
Puisque D ∈ Hδ , il existe Dn∗ ∈ H , n ∈ N, tels que D = n∈N Dn∗ . On pose alors Dn := D0∗ ∩ . . . ∩ Dn∗ . Puisque H est
T
stable par intersection finies (car R l’est, une intersection de compacts est compacte et une intersection d’ensembles produits est un
n ∈ H , Dn+1 ⊂ Dn et
T
ensemble produit), on a D n∈N D n = D. D’une part, le lemme A.7.2 appliqué aux Dn implique donc que
π(D) = π( n∈N Dn ) =S n∈N π(Dn ). D’autre par comme Dn ∈ H , il s’écrit Dn = 1≤p≤N Kp × Ap , avec Kp compact
T T S
de S et
Ap ∈ R. Donc π(Dn ) = 0≤n≤N Ap , ce qui montre que π(Dn ) ∈ R car R est stable par unions finies. Comme π(D) = n∈N π(Dn ),
T
et π(Dn ) ∈ R, on en déduit que π(D) ∈ Rδ . Par ailleurs comme D ⊂ B, on a π(D) ⊂ π(B) = A.
En résumé, pour tout ε > 0, on a trouvé π(D) ∈ Rδ tel que π(D) ⊂ A tel que I(π(D)) ≥ I(A)−ε, ce qui implique que A est
I-capacitable. 

On déduit du théorème de Choquet le théorème suivant montrant que les ensembles analytiques sont dans la tribu complétée par
n’importe quelle mesure sigma-finie.

Théorème A.7.18 (Mesurabilité universelle des ensembles analytiques) Soit (E, E , µ), un espace mesuré. On suppose µ finie. On
note E µ , la tribu E complétée par les µ-négligeables. Alors, les ensembles E -analytiques sont dans E µ :

Σ(E ) ⊂ E µ .

Preuve: soit A ∈ Σ(E ). On note µ∗ la mesure extérieure associée à µ comme définie par (A.41). C’est une mesure extérieure régulière,
comme montré au (A.43): il existe donc B ∈ E tel que A ⊂ B et µ∗ (A) = µ(B). Le lemme A.7.14 montre que µ∗ est une E -capacité
de Choquet. Le théorème A.7.17 de Choquet implique alors que A est µ∗ -capacitable: il existe donc Cn ∈ Eδ , n ∈ N tels que Cn ⊂ A
et µ∗ (Cn ) + 2−n ≥ µ∗ (A). Or d’une part, comme E est une tribu, elle est stable par intersections dénombrables, donc Eδ = E , et donc
Cn ∈ E . D’autreS part comme µ∗ coïncide avec µ sur E , on a µ∗ (Cn ) = µ(Cn ), et donc µ(Cn ) + 2−n ≥ µ∗ (A) pour tout n ∈ N. On
pose alors C := n∈N Cn . On a donc C ∈ E et C ⊂ A. Comme Cn ⊂ C, on a µ(C) + 2−n ≥ µ(Cn ) + 2−n ≥ µ∗ (A), pour tout
n ∈ N. Donc µ(C) ≥ µ∗ (A). Or comme µ∗ est croissante pour l’inclusion, comme µ∗ coïncide avec µ sur E et comme C ⊂ A, on a
µ(C) = µ∗ (C) ≤ µ∗ (A). Cela montre finalement que µ(C) = µ∗ (A).
Pour résumer, on a montré qu’il existe C, B ∈ E tels que C ⊂ A ⊂ B tels que µ(C) = µ∗ (A) = µ(B). On pose N = A\C. On a
clairement N ⊂ B\C. Or B\C ∈ E et comme µ est finie, µ(B\C) = µ(B)−µ(C) = 0. Donc N est un µ-négligeable. Or A = C ∪ N ,
donc A ∈ E µ , ce qui termine la preuve. 

On utilise le théorème précédent de mesurabilité des ensembles analytiques sous la forme suivante.

Théorème A.7.19 (Mesurabilité universelle des projections) On note B([0, ∞]) la tribu des boréliens de [0, ∞]. Soit (Ω, F , P),
un espace mesurable. Soit π la projection canonique de [0, ∞]×Ω sur Ω. On note F P , la tribu F complétée par les P-négligeables.
Alors
∀B ∈ B([0, ∞])⊗F , π(B) ∈ F P . (A.46)

Preuve: soit B ∈ B([0, ∞]) ⊗ F . Le théorème A.7.11 affirme que π(B) ∈ Σ(F ) et le théorème A.7.18 qui précède montre que
Σ(F ) ⊂ F P . 
236 APPENDIX A. THÉORIE DE LA MESURE ET DE L’INTÉGRATION.

Preuve du théorème I.3.20 du "Début". Nous sommes maintenant à même de prouver les théorème du "Début". Soit
(Ω, F , P), un espace de probabilité. Soit (Gt )t∈R+ , une filtration sur (Ω, F ). Soit A ⊂ R+ ×Ω, que l’on suppose progressivement
mesurable par rapport à (Gt )t∈R+ . On rappelle la définition du début de A: On pose

∀ ω ∈ Ω, DA (ω) = inf t ∈ R+ : (t, ω) ∈ A
P
avec la convention que inf ∅ = ∞. On rappelle que (Gt+ )t∈R+ est la filtration (Gt+ )t∈R+ qui est complétée avec les P-négligeables.
On note π la projection de [0, ∞]×Ω sur Ω.
On fixe t ∈ ]0, ∞[ . Comme A est progressivement mesurable par rapport à (Gt )t∈R+ , l’ensemble B 0 = {(s, ω) ∈ [0, t] × Ω :
(s, ω) ∈ A} est un ensemble B([0, t])⊗Gt -mesurable. Cela implique immédiatement que

B := (s, ω) ∈ [0, ∞]×Ω : s < t et (s, ω) ∈ A = [0, t[×Ω ∩ B 0 ∈ B([0, ∞])⊗Gt .


 

Or on remarque que
{ω ∈ Ω : DA (ω) < t} = π(B) .
Le théorème A.7.19 implique donc que {DA < t} ∈ GtP , pour tout t ∈ ]0, ∞[ . Le lemme I.3.5 (i) (page 27) implique que DA est un
P
temps d’arrêt par rapport à la filtration continue à droite associée à (Gt+ )t∈R+ . Cela termine la preuve du théorème du "Début". 
Appendix B

Bases de la théorie des probabilités.

B.1 Brefs rappels.


On suppose le lecteur familier avec le formalisme des probabilités qui s’appuie sur la théorie de la mesure exposée au chapitre précédent.
Dans la suite on note (Ω, F , P) l’espace de probabilité sur lequel on travaille.
Les deux définitions suivantes n’en sont pas vraiement une: il s’agit plutôt d’introduire le vocabulaire probabiliste.

Définition B.1.1 Soit (Ω, F , P), un espace de probabilité. Soit (E, E ), un espace mesurable. Une fonction X : Ω → E qui est
(F , E )-mesurable est plutôt appelée une variable aléatoire (F , E )-mesurable. On utilise l’abréviation v.a. pour variable aléatoire. 

Notations. Les variables aléatoires sont souvent notées par des lettres capitales scriptes de la fin de l’alphabet X, Y , Z. Soit X : Ω →
E, unev.a. (F , E )-mesurable. On utilise la notation suivante

{X ∈ C} := X −1 (C) = {ω ∈ Ω : X(ω) ∈ C , } .

On omet les accolades { } le plus souvent possible. Par exemple on écrit P(X ∈ C) plutôt que P({X ∈ C}) et on écrit rarement
P(X −1 (C)). Si Y est une autre variable aléatoire (F , E )-mesurable, pour tout D ∈ E , on écrit

P(X ∈ C ; Y ∈ D) au lieu de P(X −1 (C) ∩ Y −1 (D)).

Lorsque E = R, C, [0, ∞], [−∞, ∞], Rd , et que E est la tribu des Boréliens correspondante, on omet de préciser la tribu de l’espace
d’arrivée: on parle simplement d’une variable aléatoire F -mesurable (réelle, complexe, positive ...).

Définition B.1.2 Soit (Ω, F , P), un espace de probabilité.

(a) Soit X : Ω → [0, ∞], une v.a. F -mesurable. Son espérance est son intégrale par rapport à P, notée E[X]:
Z
E[X] = X(ω) dP(ω) . (B.1)

(b) Soit X : Ω → R ou C, v.a. F -mesurable est dite intégrable si elle est P-intégrable, c’est-à-dire que E |X| < ∞. Son
 

espérance est son intégrale par rapport à P. On note cette intégrale E[X], c’est-à-dire que l’on a (B.1). 
 
L’espérance est linéaire positive, on a E[X] ≤ E |X| . On rappelle, avec les notations probabilistes, le fait élémentaire suivant

∀A ∈ F , E[1A ] = P(A) .

Nous ne répétons pas intégralement les propriétés de l’espèrance puisque ce sont celle de toute intégrale contre une mesure positive.
Nous rappelons qu presque sûrement signifie presque partout. Nous énonçons les principaux théorèmes de passage à la limite sous
l’intégrale avec les notations probabilistes. Ici, (Xn )n≥0 est une suite de v.a. F -mesurables, à valeurs dans [0, ∞], R ou C.

Convergence monotone. On suppose les v.a. Xn à valeurs dans [0, ∞] et telles que que Xn ≤ Xn+1 , pour tout n ∈ N. On pose
X∞ = supn Xn . Alors, limn E[Xn ] = E[X∞ ].

237
238 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

Interversion positive. On suppose les v.a. Xn à valeurs dans [0, ∞]. Alors,
hX i X
E Xn = E[Xn ] .
n≥0 n≥0

Fatou. On suppose les v.a. Xn à valeurs dans [0, ∞]. Alors,


E[lim inf Xn ] ≤ lim inf E[Xn ] .
n n

Convergence dominée. On suppose les v.a. Xn à valeurs dans C. On fait les hypothèses suivantes.
(a) Il existe une v.a. réelle X∞ telle que limn Xn = X∞ p.s.
(b) Il existe une v.a. intégrable Z telle que p.s. |Xn | ≤ Z, pour tout n ≥ 0.
 
Alors, X∞ est intégrable, limn E |Xn − X∞ | = 0, et limn E[Xn ] = E[X∞ ].
1 P   P
Interversion L . On suppose les v.a. Xn à valeurs dans C. On suppose que n≥0 E |Xn | < ∞ Alors, n≥0 Xn est une v.a. bie
définie p.s. et intégrable. On a, hX i X
E Xn = E[Xn ] .
n≥0 n≥0

On utilisera souvent le lemme technique suivant qui est une reformulation du lemme A.1.19, page 207.

Lemme B.1.3 Soit (Ω, F ), un espace mesurable et G une sous-tribu de F . Soit Z, une v.a. positive G -mesurable. Alors, Il existe
Bn ∈ G , cn ∈ R+ , n ∈ N, tels que Z = n≥0 cn 1Bn .
P

Définition B.1.4 (Loi d’une variable aléatoire) Soit (Ω, F , P), un espace de probabilité. Soit (E, E ), un espace mesurable. Soit
X : Ω → E, une v.a. (F , E )-mesurable. La loi de X est la mesure image de P par X. Dans ce cours, on la note µX et on a donc
∀C ∈ E , µX (C) = P(X ∈ C) .
Le théorème de transfert implique que pour toute fonction f : E → [0, ∞] qui est E -mesurable, on a
Z
 
E f (X) = f dµX .
E

Cette égalité reste vraie lorsque f est à valeurs complexes si f (X) est F -mesurable intégrable, ce qui est équivalent à ce que f soit
µX -intégrable. 

Par exemple si X est une v.a. complexe F -mesurable et intégrable, on a E[X] = C yµX (dy).
R

On utilisera souvent le théorème suivant qui n’est qu’une réécriture avec des notations probabilistes du théorème A.1.23, page 208.

Théorème B.1.5 Soit (Ω, F ), et (E, E ) de espaces mesurable. Soit Y : Ω → E, une v.a. (F , E )-mesurable. Soit X : Ω → R,
une v.a. qui est bornée et mesurable par rapport à σ(Y ), la tribu engendrée par Y . Alors il existe une fonction F : E → R qui est
E -mesurable bornée telle que X = F (Y ).

Preuve: il s’agit du théorème A.1.23, page 208. 

Fonction caractéristique (transformée de Fourier des lois).

Définition B.1.6 (Fonction caractéristique d’une v.a.) oit X : Ω → Rn , un vecteur aléatoire F -mesurable. Sa fonction caractéristique
est la transformée de Fourier de sa loi, c’est-à-dire
∀u ∈ Rn , µ
bX (u) = E eihu,Xi .
 

bX : Rn → C est continue et que |b


On rappelle que µ µX (u)| ≤ µ
bX (0) = 1. 

On rappelle les propriétés de la transformée de Fourier, et donc des fonctions caractéristiques, en termes probabilistes.

Théorème B.1.7 (Injectivité) Soit (Ω0 , F 0 , P0 ), un espace de probabilité et soit Y : Ω0 → Rn , un vecteur aléatoire F 0 -mesurable.
Alors X et Y ont même loi ssi leurs fonctions caractéristiques sont égales, c’est-à-dire
µ bY ⇐⇒ µX = µY .
bX = µ
B.1. BREFS RAPPELS. 239

Théorème B.1.8 (Inversion) Soit X : Ω → Rn , un vecteur aléatoire F -mesurable. On suppose que


R
Rn
|b
µX | d`n < ∞. Alors la loi
de X admet la densité suivante Z
∀x ∈ Rn , p(x) = (2π)−n e−ihu,xi µ
bX (u) d`n (u) ,
Rn
qui est continue et tend vers 0 en l’infini.

Variance et covariance.

Définition B.1.9 (Covariance de deux v.a. réelles) Soient X, Y , deux v.a. réelles F -mesurables. On suppose qu’elles admettent un
moment d’ordre 2. L’inégalité de Hölder implique que XY est intégrable et on pose

cov(X, Y ) = E[XY ] − E[X]E[Y ] .

• Cette quantité est appelée la covariance de X et Y . On vérifie facilement que


 
cov(X, Y ) = E (X −E[X])(Y −E[Y ]) .

• La variance de X est var(X) := cov(X, X) = E[(X −E[X])2 ] = E[X 2 ]−(E[X])2 .


• (Matrice de covariance d’un vecteur aléatoire) Plus généralement, soit X = (X1 , . . . , Xn ) : Ω → Rn , un vecteur aléatoire F -
mesurable. On dit qu’il admet un moment d’ordre 2 si E kXk2 < ∞. Cela implique que les Xk admettent des moments d’ordre 2.
 

Cela permet de poser 


ΓX = cov(Xi , Xj ) 1≤i,j≤n .
Cette matrice carrée n×n est appelée la matrice de covariance de X. 

Proposition B.1.10 X = (X1 , . . . , Xn ) : Ω → Rn , un vecteur aléatoire F -mesurable admettant un moment d’ordre 2. On note Γ
sa matrice de covariance et on note
v = E[X] = E[X1 ], . . . , E[Xn ] ∈ Rn ,


son vecteur moyen. Alors les propriétés suivantes sont vérifiées.

(i) Pour tout u ∈ Rn ,   


E hu, Xi = hu, vi et var hu, Xi = hu, Γui .
Cela implique que hu, Γui ≥ 0, pour tout u ∈ Rn et donc que Γ est une matrice symétrique positive.

(ii) Soit M , une matrice réelle n×n. On note M ∗ sa transposée. Alors

ΓM X = M ΓM ∗ .
   
Preuve: il est facile de vérifier que E hu, Xi = hu, vi et que var hu, Xi = var hu, X − vi . On peut donc se ramener au cas où
E[X] = 0. Dans ce cas cov(Xi , Xj ) = E[Xi Xj ]. Pour tout u = (u1 , . . . , un ) ∈ Rn , on a donc
X
var hu, Xi = E hu, Xi2 =
  
uj uk E[Xj Xk ] = hu, Γui ,
1≤j,k≤n

en développant le carré. Cela montre (i). Montrons (ii): par définition de la transposée, hx, M yi = hM ∗ x, yi, pour tous x, y ∈ Rn .
Le (i) implique donc pour tout u ∈ Rn ,

hu, ΓM X .ui = var hu, M Xi = var hM ∗ u, Xi = hM ∗ u, ΓM ∗ ui = hu, M ΓM ∗ ui


 

et il est facile de voir que cela implique (ii). 

Proposition B.1.11 Soit X = (X1 , . . . , Xn ) : Ω → Rn , un vecteur aléatoire F -mesurable admettant un moment d’ordre 2. Alors,
sa fonction caractéristique est C 2 est on a le développement de Taylor suivant au voisinage de 0:
1
X X
∀u = (u1 , . . . , un ) ∈ Rn , µ E[Xj Xk ] uj uk + o kuk2 .

bX (u) = 1 + i E[Xk ] uk − 2
1≤k≤n 1≤j,k≤n
240 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

Preuve: les Xk on des moments d’ordre 2. Ce sont des v.a. intégrables. Comme déjà mentionné, Xj Xk sont aussi intégrables. Or on
observe que
∂ ihu,Xi ∂2
e = iuk Xk eihu,Xi et eihu,Xi = −uj uk Xj Xk eihu,Xi .
∂uk ∂uj ∂uk
Le théorème de dérivation sous l’intégrale montre alors que

∂µ
bX ∂2µ
bX
(u) = iuk E Xk eihu,Xi (u) = −uj uk E Xj Xk eihu,Xi ,
   
et
∂uk ∂uj ∂uk
ce qui implique le résultat voulu. 

B.2 Indépendance.
Définition B.2.1 (Indépendance d’événements) Soit (Ω, F , P), un espace de probabilité. On introduit les notions suivantes.

(a) Soient A, B ∈ F . Les événements A et B sont dits indépendants sous P si P(A ∩ B) = P(A)P(B).

(b) Soient A1 , . . . , An ∈ F . Les événements A1 , . . . , An sont dits mutuellement indépendants sous P si pour tout 2 ≤ k ≤ n et
tous 1 ≤ j1 < . . . < jk ≤ n, on

P(Aj1 ∩ Aj2 ∩ . . . ∩ Ajk ) = P(Aj1 )P(Aj2 ) . . . P(Ajk ) .

Il y a donc 2n −1−n égalités à vérifier.


(c) Soit Ai ∈ F , i ∈ I, une famille d’événements. On dit qu’ils sont mutuellement indépendants sous P si pour tout sous-ensemble
d’indices J ⊂ I qui est fini et non-vide, on a \  Y
P Aj = P(Aj ) .
j∈J j∈J

On remarque que les (Ai )i∈I sont mutuellement indépendants sous P ssi si pour tout sous-ensemble d’indices J ⊂ I qui est
fini et qui compte au mois deux éléments, les événements (Aj )j∈J sont mutuellement indépendants sous P au sens du (b). 

Définition B.2.2 (Indépendance de classe d’ensembles) Soit (Ω, F , P), un espace de probabilité. On introduit les notions suivantes.

(a) Soient R1 , . . . , Rn ⊂ F , des classes non-vides d’événements. Les classes d’événements R1 , . . . , Rn sont mutuellement
indépendantes sous P si

∀A1 ∈ R1 , . . . ∀An ∈ Rn , les événements A1 , . . . , An sont indépendants.

(b) Soit Ri ⊂ F , i ∈ I, une famille de classes non-vides d’événements. Les classes Ri , i ∈ I, sont mutuellement indépendantes
sous P si pour tout sous-ensemble d’indices J ⊂ I, qui est fini et qui contient au moins deux éléments, les classes (Rj )j∈J sont
mutuellement indépendantes au sens du (b). 

Au vu du point (c) de la définition B.2.1, les classes d’événéments (Ri )i∈I sont mutuellement indépendantes sous P ssi
\  Y
∀J ⊂ I, J fini et non-vide, ∀Aj ∈ Rj , j ∈ J , P Aj = P(Aj ) . (B.2)
j∈J j∈J

La proposition suivante est une conséquence immédiate des définitions précédentes.

Proposition B.2.3 Soit (Ω, F , P), un espace de probabilité. Soit Ri ⊂ F , i ∈ I, une famille de classes non-vides d’événements.
Soit I 0 ⊂ I et soient Ri0 ⊂ Ri , i ∈ I 0 , des classes non-vides d’événements. On suppose que les classes d’événements Ri , i ∈ I sont
mutuellement indépendantes sous P. Alors il en est de même pour les classes d’événements Ri0 , i ∈ I 0 .

Lemme B.2.4 Soit (Ω, F , P), un espace de probabilité. Soient R1 , . . . , Rn ⊂ F , des classes non-vides d’événements. On suppose
que Ω ∈ Rk pour tout 1 ≤ k ≤ n. Alors,

R1 , . . . , Rn indépendants ⇐⇒ ∀A1 ∈ R1 , . . . , ∀An ∈ Rn , P(A1 ∩. . .∩An ) = P(An ) . . . P(An ).


B.2. INDÉPENDANCE. 241

Preuve: l’implication =⇒ est claire. Montrons l’implication contraire. On suppose donc que

∀A1 ∈ R1 , . . . , ∀An ∈ Rn , P(A1 ∩. . .∩An ) = P(An ) . . . P(An ). (B.3)

Soient B1 ∈ R1 , . . . , Bn ∈ Rn . Il faut montrer que les événements B1 , . . . , Bn sont mutuellement indépendants sous P: soient
2 ≤ k ≤ n et 1 ≤ j1 < . . . < jk ≤ n. Pour tout 1 ≤ ` ≤ k, on pose Aj` := Bj` et si j ∈
/ {j1 , . . . , jk }, on pose Aj := Ω, qui appartient à
Rj par hypothèse. Par (B.3), on a donc

P(Bj1 ∩ . . . ∩ Bjk ) = P(A1 ∩ A2 ∩ . . . ∩ An )


= P(A1 )P(A2 ) . . . P(An ) = P(Bj1 ) . . . P(Bjk ).

Cela implique que pour tous B1 ∈ R1 , . . . , Bn ∈ Rn , les événements B1 , . . . , Bn sont mutuellement indépendants sous P. Les classes
d’événements R1 , . . . , Rn sont donc mutuellement indépendantes sous P. 

Théorème B.2.5 Soit Pi ⊂ F , i ∈ I, une famille de pi-systèmes. On suppose que les pi-systèmes Pi , i ∈ I, sont mutuellement
indépendants sous P. Alors, les tribus engendrées σ(Pi ), i ∈ I, sont également mutuellement indépendantes sous P.

Preuve: au vu de la définition B.2.2 (b), il suffit de prouver le théorème dans le cas où I est fini. On choisit donc I = {1, . . . , n}. On
montre d’abord l’assertion suivante.
• Pour tous pi-systèmes Pi∗ ⊂ F , 1 ≤ i ≤ n, on a l’implication suivante:

P1∗ , . . . , Pn∗ mut. ind. sous P =⇒ σ(P1∗ ), P2∗ , . . . , Pn∗ mut. ind. sous P .
 
(B.4)

En effet, on suppose P1∗ , . . . , Pn∗ indépendants, on fixe A2 ∈ P2∗ , . . . , An ∈ Pn∗ et on pose

L = B ∈ σ(P1∗ ) : P(B ∩ A2 ∩ . . . ∩ An ) = P(B)P(A2 ∩ . . . ∩ An ) .




On a donc P1∗ ⊂ L . On montre facilement que L est une classe monotone (exercice). Le théorème de la classe monotone implique
alors que σ(P1∗ ) ⊂ L et donc que σ(P1∗ ) = L . Donc, pour tout B ∈ σ(P1∗ ), P(B ∩ A2 ∩ . . . ∩ An ) = P(B)P(A2 ∩ . . . ∩ An ).
Mais comme P2∗ , . . . , Pn∗ sont indépendants, on a P(A2 ∩ . . . ∩ An ) = P(A2 ) . . . P(An ). On a a donc montré que

∀B ∈ σ(P1∗ ), ∀A2 ∈ P2∗ , . . . , ∀An ∈ Pn∗ , P(B ∩ A2 ∩ . . . ∩ An ) = P(B)P(A2 ) . . . P(An ) .

Le lemme B.3 implique ensuite que les classes d’événements σ(P1∗ ), P2∗ . . . , Pn∗ sont mutuellement indépendantes sous P, ce qui
termine la preuve de (B.4).
En appliquant (B.4) à (P1∗ , . . . , Pn∗ ) = (P1 , . . . , Pn ), on montre que σ(P1 ), P2 , . . . , Pn sont mutuellement indépendants
sous P. Or σ(P1 ) est une tribu donc un pi-système. On applique alors (B.4) à la suite de pi-systèmes

(P1∗ , . . . , Pn∗ ) = (P2 , . . . , Pn , σ(P1 )) ,

ce qui montre la mutuelle indépendance des σ(P2 ), P3 , . . . , Pn , σ(P1 ). Ainsi de suite jusqu’à montrer que σ(P1 ), . . . , σ(Pn )
sont mutuellement indépendantes sous P, ce qui termine la preuve. 

Proposition B.2.6 (Indépendance par paquets) Soit I un ensemble d’indices. Soit Ik ⊂ I, k ∈ K, une partition de I. Soit
(Ω, F , P), un espace de probabilité. Soit Fi ⊂ F , i ∈ I, une famille de tribus. Pour tout k ∈ K, on pose Gk = σ(Fi ; i ∈ Ik ). Alors,

Fi , i ∈ I mut. ind. sous P =⇒ Gk , k ∈ K mut. ind. sous P .

Preuve: pour tout k ∈ K, on note Pk la classe des intersections finies d’événements dans i∈Ik Fi :
S

[
Pk = A1 ∩ . . . ∩ An ; n ∈ N, A1 , . . . , An ∈ Fi .

i∈Ik

Il est facile de voir que Pk est un pi-système tel que σ(Pk ) = Gk . L’indépendance des tribus Fi , i ∈ I, entraîne facilement celle des
Pk , k ∈ K. Le théorème B.2.5 permet de conclure. 

Soit (E, E ), un espace mesurable et X : Ω → E, une v.a. (F , E )-mesurable. On rappelle que la tribu engendrée par X est donnée
par la tribu pré-image de E par X, c’est-à-dire
σ(X) = {X ∈ B} ; B ∈ E

(B.5)
qui est la plus petite tribu sur Ω rendant X mesurable. On introduit la définition suivante.
242 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

Définition B.2.7 (Indépendance de v.a.) Soit (Ω, F , P), un espace de probabilité. Soit I, un ensemble d’indices. Pour tout i ∈ I, soit
(Ei , Ei ), un espace mesurable et Xi : Ω → Ei , une v.a. (F , Ei )-mesurable.
On dit que les variables Xi , i ∈ I, sont mutuellement indépendantes sous P si les tribus σ(Xi ) ⊂ F , i ∈ I, sont mutuellement
indépendantes sous P. 

La proposition suivante donne plusieurs reformulations de la définition de l’indépendance des variables aléatoires.

Proposition B.2.8 Soit (Ω, F , P), un espace de probabilité. Soit I, un ensemble d’indices. Pour tout i ∈ I, on fixe les objets suivants.
• Un espace mesurable (Ei , Ei ) et un pi-système Ci ⊂ Ei tel que σ(Ci ) = Ei .
• Une v.a. Xi : Ω → Ei qui est (F , Ei )-mesurable et dont la loi sous P est notée µi : µi (B) = P(Xi ∈ B), B ∈ Ei .
Alors, les assertions suivantes sont équivalentes.

(i) Les variables Xi , i ∈ I, sont mutuellement indépendantes sous P.

(ii) Pour tout J ⊂ I, fini non-vide et pour tous Bj ∈ Ej , j ∈ J,


\  Y
P {Xj ∈ Bj } = P(Xj ∈ Bj ) .
j∈J j∈J

(iii) Pour tout J ⊂ I, fini non-vide et pour tous Cj ∈ Cj , j ∈ J,


\  Y
P {Xj ∈ Cj } = P(Xj ∈ Cj ) .
j∈J j∈J

(iv) Pour tout J = {j1 , . . . , jn } ⊂ I, où les jk sont distincts,

la loi de (Xj1 , . . . , Xjn ) sous P est µj1 ⊗ . . . ⊗ µjn .

(v) Pour tout J ⊂ I, fini non-vide et pour toutes fonctions Ej -mesurables bornées hj : Ej → R, j ∈ J,
hY i Y  
E hj (Xj ) = E hj (Xj ) .
j∈J j∈J

Preuve: au vu des définitions B.2.7 et B.2.2, il suffit de traiter le cas où I est fini. On prend donc I = {1, . . . , n}. Par définition, (i)
est équivalent à l’indépendance des tribus σ(Xi ), i ∈ I. Or (B.5) et (B.2) montrent que (i) ⇔ (ii). L’implication (ii) ⇒ (iii) est
triviale. Supposons (iii): on pose
Pi = {Xi ∈ C} ; C ∈ Ci .


C’est clairement un pi-système tel que σ(Xi ) = σ(Pi ). Or (iii) signifie que les pi-systèmes Pi , i ∈ I sont indépendants: le théorème
B.2.5 implique alors que les tribus σ(Pi ), i ∈ I, sont indépendantes, ce qui implique (i). On a donc montré que (iii) ⇒ (i) et donc
que (i), (ii) et (iii) sont équivalents.
On suppose (ii). On rappelle ensuite que µ1 ⊗ . . . ⊗ µn est l’unique mesure de probabilité sur E1 ⊗ . . . ⊗ En telle que (µ1 ⊗ . . . ⊗
µn )(B1 × . . . × Bn ) = µ1 (B1 ) . . . µn (Bn ), pour tous B1 ∈ E1 , . . ., Bn ∈ En . On note µ la loi de X = (X1 , . . . , Xn ). Il est clair
que pour tous B1 ∈ E1 , . . . , Bn ∈ En
  \ 
µ(B1 × . . . × Bn ) = P X ∈ B1 ×. . .×Bn = P {Xj ∈ Bj } .
1≤j≤n

T Q
Or, par (ii), P( 1≤j≤n {Xj ∈ Bj }) = 1≤j≤n P(Xj ∈ Bj ) = µ1 (B1 ) . . . µn (Bn ). Cela entraîne donc µ = µ1 ⊗ . . . ⊗ µn , et
donc (iv). On a montré que (ii) ⇒ (iv). L’implication (iv) ⇒ (v) est une conséquence directe du théorème de Fubini. L’implication
(v) ⇒ (ii) est triviale. 
Pour des variables aléatoires réelles, on obtient le corollaire suivant

Corollaire B.2.9 Soit (Xi )i∈I , une famille de v.a. réelles F -mesurables. Elles sont indépendantes ssi pour tout {j1 , . . . , jn } ⊂ I où
les jk sont distincts, et pour tous x1 , . . . , xn ∈ R, on ait

P Xj1 ≤ x1 ; . . . ; Xjn ≤ xn = P(Xj1 ≤ x1 ) . . . P(Xjn ≤ xn ) .
B.3. VARIABLES ET VECTEURS GAUSSIENS. 243

Preuve: on applique l’équivalence de (i) et de (iii) de la proposition B.2.8 à (Ei , Ei ) = (R, B(R) et Ci = {R} ∪ { ]−∞, a] ; a ∈ R},
qui est un pi-système générant B(R). 
Les fonctions caractéristiques sont plus adaptées aux sommes de variables indépendantes.

Proposition B.2.10 Soient Xk : Ω → Rn , 1 ≤ k ≤ p, des vecteurs aléatoires F -mesurables que l’on suppose indépendants. On
note µ1 , . . . µp leurs lois respectives. Alors, la loi µ de X := X1 + . . . + Xp est µ1 ∗. . .∗µp et on a

∀u ∈ Rn , µ b(u) = E eihu,Xi = E eihu,X1 i . . . E eihu,Xp i = µ


     
b1 (u) . . . µ
bp (u) .

Preuve: on note φ : (x1 , . . . , xp ) ∈ (Rn )p 7−→ x1 +. . .+xp , qui est mesurable car continue. Par définition du produit de convolution
µ1∗. . .∗µp est la mesure image de µ1⊗. . .⊗µp par φ. Comme les v.a. Xk sont indépendantes, la proposition B.2.8 (iv) implique que la
loi de (X1 , . . . , Xp ) est µ1 ⊗. . .⊗µp . Par conséquent la loi de X, notée µ est bien µ1 ∗. . .∗µp . Le reste du lemme est une conséquence
de propriétés de la transformée de Fourier des mesures et de la convolution. 
On prouve ensuite le critère d’indépendance suivant.

Proposition B.2.11 Soient X1 , . . . , Xn , des v.a. réelles F -mesurables. Elles sont indépendantes ssi on

∀u1 , . . . , un ∈ R, E eiu1 X1 +...+iun Xn = E eiu1 X1 . . . E eiun Xn .


     
(B.6)

Preuve: si les variables sont indépendantes, alors la proposition B.2.10 implique (B.6). Supposons (B.6). On note µk la loi de Xk
et on note µ la loi de X = (X1 , . . . , Xn ), qui est vecteur aléatoire F -mesurable de Rn . Par injectivité de la transformée de Fourier,
(B.6) implique que µ = µ1 ⊗. . .⊗ µn , ce qui entraîne l’indépendances des Xk par la proposition B.2.8. 
Donnons une conséquence très utile de la proposition B.2.8.

Proposition B.2.12 Soit (Ω, F , P), un espace de probabilité. Soient X1 , . . . , Xn , des v.a. complexes F -mesurables intégrables
indépendantes. Alors le produit X1 . . . Xn est également intégrable et

E[X1 . . . Xn ] = E[X1 ] . . . E[Xn ] . (B.7)

De même si X1 , . . . , Xn : Ω → [0, ∞] sont F -mesurables indépendantes, on a (B.7).

Preuve: par la proposition B.2.8 la loi de X = (X1 , . . . , Xn ) est le produit des lois des Xi : µX = µX1 ⊗. . .⊗ µXn . Par le théorème
de transfert et Fubini positif
Z
 
E |X1 | . . . |Xn | = |x1 | . . . |xn | µX1 (dx1 ) . . . µXn (dxn )
Rn
 Z  Z 
= |x1 | µX1 (dx1 ) . . . |xn | µXn (dxn )
R    R
= E |X1 | . . . E |Xn | .

Cela démontre le résultat voulu lorsque les variables sont à valeurs dans [0, ∞]. Si les variables X1 , . . . Xn sont intégrables, il en est
de même pour X1 . . . Xn et par transfert et Fubini, on a
Z
 
E X1 . . . Xn = x1 . . . xn µX1 (dx1 ) . . . µXn (dxn )(dxn )
Rn
Z  Z 
= x1 µX1 (dx1 ) . . . xn µXn (dxn )
R R
= E[X1 ] . . . E[Xn ] ,

qui est le résultat voulu. 

B.3 Variables et vecteurs Gaussiens.


Définition B.3.1 (Lois Gaussiennes (normales) en dimension 1) Soient m ∈ R et σ ∈ ]0, ∞[ Soit X : Ω → R, une variable F -
mesurable. Cette variable est dite (de loi) Gaussienne, ou encore normale, de moyenne m et de varaince σ 2 si sa loi admet la densité
gm,σ donnée par
1 (x−m)2

gm,σ (x) = √ e 2σ 2 , x∈R. (B.8)
σ 2π
244 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

On note cela X ∼ N (m, σ 2 ). Si m = 0, X est dite centrée et une variable Gaussienne N (0, 1) est appelée Gaussienne standard.
Par commodité, on dit également que X est une loi Gaussienne de moyenne m et de variance nulle si X est presque sûrement égal
à m. On continue de noter cela X ∼ N (m, 0). On parle alors de variable Gaussienne dégénérée. 

On vérifie facilement que si X ∼ N (m, σ 2 ),


Z Z
E[X] = xgm,σ (x)dx = m et var(X) = (x − m)2 gm,σ (x)dx = σ 2 .
R R

1 2 2
Autrement dit la loi de X est entièrement déterminée par sa moyenne et sa variance. On rappelle que gd
0,σ (u) = exp(− 2 σ u ). Cela
entraîne facilement que si X ∼ N (m, σ),
1 2 2
E eiuX = µ
bX (u) = gbm,σ (u) = eimu− 2 σ u .
 
∀u ∈ R,

Il est facile de montrer que la fonction caractéristique de X s’étend à C, c’est-à-dire que


1 2 2
E ezX = emz+ 2 σ z .
 
∀z ∈ C,

Le membre de droite est une fonction analytique sur C dont le rayon de convergence est infini (c’est une fonction entière). Si on
suppose pour simplifier que X ∼ N (0, σ), on vérifie alors

 X E[X n ] n X σ 2n 2n
E ezX =

z = z .
n! 2n n!
n≥0 n≥0

Cela implique que si X ∼ N (0, σ), pour tout n ∈ N,

(2n)! 2n
E[X 2n+1 ] = 0 et E[X 2n ] = σ = σ 2n (2n − 1)×(2n − 3)×. . .×5×3×1 .
n! 2n

Lemme B.3.2 Soient X1 ∼ N (m1 , σ12 ), . . . , Xn ∼ N (mn , σn2 ) des variables Gaussiennes indépendantes. Soient a1 , . . . , an ∈ R.
Alors a1 X1 + . . . + an Xn ∼ N (m, σ 2 ) où

m = a1 m1 + . . . + an mn et σ 2 = (a1 σ1 )2 + . . . + (an σn )2 .

Preuve: on pose X = a1 X1 + . . . + an Xn et on a pour tout u ∈ R,


1 2 2
E eiuX = E eia1 uX1 . . . E eian uXn = eimu− 2 σ u ,
     

et l’injectivité de la transformée de Fourier permet de conclure. 

Définition B.3.3 (Vecteurs Gaussiens) Soit X = (X1 , . . . , Xd ) : Ω → Rd , un vecteur F -mesurable. C’est un vecteur Gaussien si
pour tout u = (u1 , . . . , ud ) ∈ Rd , hu, Xi = u1 X1 + . . . + ud Xd est une variable Gaussienne réelle (possiblement dégénérée). 

Le lemme suivant découle immédiatement de la définition.

Lemme B.3.4 Soit X = (X1 , . . . , Xd ) : Ω → Rd , un vecteur Gaussien. Soit M , une matrice réelle carrée de taille d × d. Alors, le
vecteur aléatoire M X est Gaussien.

Exemple B.3.5 Soient X1 , . . . , Xd , des v.a. réelles indépendantes de loi N (0, 1). Alors, X := (X1 , . . . , Xd ) est un vecteur Gaussien.
En effet, On fixe u = (u1 , . . . , ud ) ∈ Rd et v ∈ R. L’indépendance implique que
1 1
Y
E[eivuk Xk ] = exp − 2 v 2 (u21 + . . . + u2d ) = exp(− 2 v 2 kuk2 .
 
µ
bhu,Xi (v) =
1≤k≤d

Cela montre que pour tout u ∈ Rd , hu, Xi est une variable Gaussienne N (0, kuk2 ) par injectivité de la fonction caractéristique. 

On rappelle les définitions du vecteur moyenne et de la matrice de covariance, ainsi que des formules élémentaires de la proposition
B.1.10 page 239 qui entraînent immédiatement le lemme suivant.
B.3. VARIABLES ET VECTEURS GAUSSIENS. 245

Lemme B.3.6 Soit X : Ω → Rd , un vecteur Gaussien F -mesurable. On note v, le vecteur moyenne de X et Γ, sa matrice de
covariance. Alors pour tout u ∈ Rd ,
hu, Xi est une v.a. réelle Gaussienne de moyenne hu, vi et de variance hu, Γui.
et donc
1
bX (u) = E eihu,Xi = µ
  
µ bhu,Xi (1) = exp ihu, vi− 2 hu, Γui . (B.9)

Définition B.3.7 Le lemme précédent montre que la loi d’un vecteur Gaussien X est entièrement caractérisée par son vecteur moyenne
v et sa matrice de covariance Γ. On note le fait que X est un vecteur Gaussien de vecteur moyen v et de matrice de covariance Γ par
X ∼ N v, Γ . 

Soit X : Ω → Rd , un vecteur Gaussien F -mesurable de vecteur moyen v et de matrice de covariance Γ. On note r le rang de Γ
et λ1 , . . . , λr ses valeurs propres non-nulles. Comme Γ est symétrique positive, λ1 , . . . , λr > 0. On note ∆ et ∆
e les matrices d×d,
diagonales données par
 √   √ 
λ1 0 ... ... ... 0 1/ λ1 0 ... ... ... 0
 .. .. ..   .. .. .. 
 0
 . . . 

 0 . . . 

 . .. √ .. .. 
  .. .. √ .. .. 
 . . . . 1/ λr .
 . λr .  . . 
 
∆=  et ∆e =
 . . .. .. .  . .. .. . 
. ..  .. . .. 
  
 . . 0  . 0
   
 . .. .. .. .. ..
 ..
  
. . 0   . . . 0 
0 ... ... 0 0 0 ... ... 0 0

∆∆e est donc la matrice Ir qui est diagonale et dont les r premiers coefficients diagonaux sont égaux à 1 et les d−r suivants sont nuls.
Comme Γ est symétrique, il existe une matrice orthogonale O telle que O∗ ΓO = ∆2 , où O∗ désigne la transposée de O.

e ∗ (X − v). Alors
Proposition B.3.8 On reprend les notations ci-dessus. On pose Y := ∆O
Y = (Y1 , . . . , Yr , 0, . . . , 0) ,
où Y1 , . . . , Yr sont des v.a. réelles indépendantes de loi N (0, 1), qui sont appelées les composantes indépendantes de X. De plus
X = v + O∆Y.

Preuve: Y est un vecteur Gaussien de vecteur moyen nul. Par la proposition B.1.10 (ii), page 239, sa matrice de covariance Γ0 est
donnée par
Γ0 = ∆O
e ∗ Γ(∆O
e ∗ )∗ = ∆O e ∗ ΓO∆ e = ∆∆e 2∆ e = Ir .
On a donc Y ∼ N (0, Ir ), ce qui montre la proposition. 
Cette proposition implique que toute matrice symétrique positive peut être la matrice de covariance d’un vecteur Gaussien. Dans
le cas où cette matrice de covariance est inversible, la loi du vecteur Gaussien correspondant admet une densité par rapport à la mesure
de Lebesgue, donnée dans la proposition suivante.

Proposition B.3.9 (Densité des vecteurs Gaussiens) Soit X : Ω → Rd , un vecteur Gaussien F -mesurable, de vecteur moyenne nul
et de matrice de covariance Γ supposée inversible. La loi de X admet la densité suivante par rapport à la mesure de Lebesgue sur Rd :
1 1
∀x ∈ Rd , gΓ (x) = exp − 2 hx, Γ−1 xi .

p
(2π) d/2 det(Γ)
Preuve: on reprend les notation précédentes: on pose M = O∆, si bien que Γ = M M ∗ et la proposition précédente implique que
X = M Y, où Y ∼ N (0, Id). Soit f : Rd → R+ , une fonction mesurable. On a donc
Z
1 2
E f (M.Y) = (2π)−d/2 e− 2 kyk f (M y) `d (dy) .
 
Rd

Comme Γ est supposée inversible il en est de même pour M et on a det(M ) = det(Γ) et Γ−1 = (M −1 )∗ M −1 . Donc kM −1 xk2 =
p
−1
hx, Γ xi. Le théorème de changement de variable linéaire implique alors que
Z Z
  1 1 kM −1 xk2
−2 1 − 1 hx,Γ−1 xi
E f (M.Y) = e f (x) `d (dx) = e 2 f (x) `d (x) ,
(2π)d/2 det(M ) Rd
p
(2π) d/2 det(Γ) Rd

ce qui implique le résultat voulu. 


246 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

B.4 Convergence de variables aléatoires.


Convergence en probabilité. On note (Ω, F , P), l’espace de probabilité de référence pour cette section, espace sur lequel
toutes les v.a. mentionnées sont a priori définies, sauf mention explicite du contraire. Soit (E, d), un espace métrique séparable. On
note B(E) la tribu Borélienne. On pose LE (Ω, F ) = X : Ω → E, (F , B(E))-mesurable .


Définition B.4.1 (Convergence p.s. et en probabilité) Soient Xn ∈ LE (Ω, F ), n ∈ N et X ∈ LE (Ω, F ).

(a) Convergence en probabilité. La suite (Xn )n≥0 converge en P-probabilité vers X ssi

∀ε > 0 , lim P d(Xn , X) > ε = 0 .
n→∞

(b) Convergence presque sûre. La suite (Xn )n≥0 converge P-presque sûrement vers X ssi il existe N ∈ F tel que P(N ) = 0 et

∀ω ∈ Ω\N , lim d Xn (ω), X(ω) = 0 .
n→∞

Lorsqu’il n’y a pas ambiguïté, on parle seulement de convergence en probabilité plutôt que de convergence en P-probabilité et
de convergence p.s.ãulieu de convergence P-presque sûre. 

Le théorème suivant fait le lien entre la convergence en probabilité et la convergence presque sûre.

Théorème B.4.2 Soient Xn ∈ LE (Ω, F ), n ∈ N et X ∈ LE (Ω, F ). Les assertions suivantes sont vérifiées

(i) Si limn Xn = X p.s., alors limn Xn = X en probabilité.

(ii) Si limn Xn = X en probabilité, il existe une suite strictement croissante d’indices (nk )k≥0 tels que limk Xnk = X presque
sûrement.

(iii) On suppose que limn Xn = X en probabilité. Soit Y ∈ LE (Ω, F ) tel que l’on ait aussi limn Xn = Y en probabilité. Alors
X = Y presque sûrement.

Preuve: on montre (i). Supposons que limn Xn = X presque sûrement. On pose Yn = 1{d(Xn ,X)>ε} . Alors 0 ≤ Yn ≤ 1 et
p.s limn Yn = 0. Par convergence dominée, limn E[Yn ] = 0, c’est-à-dire limn P(d(Xn , X) > ε) = 0. Comme ε peut être arbitrairement
petit, cela montre que limn Xn = X en probabilité.
Montrons (ii). Supposons que limn Xn = X en probabilité. Par définition, pour tout k ∈ N, il existe pk ∈ N, tel que pour
−k
P n ≥ pk , on ait P(d(X
tout n ,X) > 2 ) ≤ 2−k . On pose nk = p1 + . . . + pk et on a bien P(d(Xnk , X) > 2−k ) ≤ 2−k . Donc
−k
k∈N P d(Xnk , X) > 2 < ∞. Le lemme de Borel-Cantelli implique que presque sûrement pour tout k suffisamment grand,
d(Xnk , X) ≤ 2−k et donc limk Xnk = X presque sûrement, ce qui prouve (ii). Le point (iii) est une conséquence immédiate du (ii).
Une preuve directe sans utiliser (ii) est possible. 

(E, d) et (E 0 , d0 ), deux espace métriques séparables. On munit E×E 0 de la distance D (x, x0 ), (y, y 0 ) :=

Proposition B.4.3 Soient
max d(x, y), d(x0 , y 0 ) . On rappelle que (E ×E 0 , D) est séparable et que la topologie de la métrique D est la topologie produit sur


E ×E 0 .
Soient Xn ∈ LE (Ω, F ), Xn0 ∈ LE 0 (Ω, F ), n ∈ N, et soient X 0 ∈ LE 0 (Ω, F ) et X 0 ∈ LE 0 (Ω, F ). Alors,il y a équivalence
entre les deux assertions suivantes.

(a) limn Xn = X et limn Xn0 = X 0 en probabilité.

(b) limn (Xn , Xn0 ) = (X, X 0 ) en probabilité dans (E ×E 0 , D).

Preuve: pour tout ε > 0, on remarque d’abord que

P D((Xn , Xn0 ), (X, X 0 )) > ε ≤ P d(Xn , X) > ε + P d0 (Xn0 , X 0 ) > ε ,


  

ce qui montre que (a) =⇒ (b). On vérifie également que

max P d(Xn , X) > ε , P d0 (Xn0 , X 0 ) > ε ≤ P D((Xn , Xn0 ), (X, X 0 )) > ε ,


  

qui entraîne que (b) =⇒ (a). 


B.4. CONVERGENCE DE VARIABLES ALÉATOIRES. 247

On s’intéresse ensuite aux propriétés de continuité de la convergence en probabilité. Plus précisément, soient (E, d) et (E 0 , d0 ),
deux espaces métriques séparables; soit f : E → E 0 , une fonction (B(E), B(E 0 ))-mesurable. On définit le module de continuité de
f en x de la manière suivante: pour tout x ∈ E et tout réel δ > 0, on pose

wf (x, δ) := sup d0 (f (y), f (z)) ; y, z ∈ B(x, δ) ,




où B(x, δ) := {y ∈ E : d(x, y) < δ} est la boule ouverte de centre x et de rayon δ. On rappelle que f est continue en x ssi
limδ→0 wf (x, δ) = 0. On montre le lemme suivant.

Lemme B.4.4 Soient (E, d) et (E 0 , d0 ), deux espaces métriques séparables. Soit f : E → E 0 , une fonction (B(E), B(E 0 ))-
mesurable. Alors les assertions suivantes sont vérifiées.

(i) Pour tout δ > 0, la fonction x ∈ E 7→ wf (x, δ) ∈ [0, ∞] est B(E)-mesurable.

(ii) C := {x ∈ E : f est continue en x} ∈ B(E).

Preuve: pour tous réels a, δ > 0, on pose

Ua,δ = x ∈ E : ∃y, z ∈ B(x, δ) tels que d0 f (y), f (z) > a .


 

On voit que Ua,δ = {x ∈ E : wf (x, δ) > a}. On vérifie que Ua,δ est un ouvert. En effet, soit x ∈ Ua,δ . Il existe y, z ∈ B(x, δ)
tels que d0 f (y), f (z) > a. On pose η = min(δ − d(x, y), δ − d(x, z)). Donc η > 0, et pour tout x∗ ∈ B(x, η), on a bien
d(x∗ , y) ≤ d(x∗ , x) + d(x, y) < δ. De même, d(x∗ , z) < δ. Donc, y, z ∈ B(x∗ , δ) et on a bien B(x∗ , η) ⊂ Ua,δ . Cela montre (i).
Pour montrer (ii), on pose pour tout x ∈ E, g(x) = lim supp wf (x, 2−p ). Par (i), c’est une application B(E)-mesurable. On
remarque ensuite que pour tout p ∈ N, et tout x ∈ E, wf (x, 2−p−1 ) ≤ wf (x, 2−p ). Donc

C = {x ∈ E : f est continue en x} = {x ∈ E : lim wf (x, δ) = 0} = {g = 0} ,


δ→0

ce qui termine la preuve. 

Proposition B.4.5 Soient (E, d) et (E 0 , d0 ), deux espace métriques séparables. Soit f : E → E 0 , une fonction (B(E), B(E 0 ))-
mesurable. Soient Xn ∈ LE (Ω, F ), n ∈ N et X ∈ LE (Ω, F ). On fait les hypothèses suivantes.

(a) limn Xn = X en probabilité.

(b) Presque sûrement f est continue en X.

Alors limn f (Xn ) = f (X∞ ) en probabilité.

Preuve: pour tous réels ε, δ > 0, on a

P d0 f (Xn ),f (X) > ε = P d0 f (Xn ), f (X) > ε; d(Xn , X) < δ + P d0 f (Xn ), f (X) > ε; d(Xn , X) ≥ δ
     
 
≤ P wf (X, δ) > ε + P d(Xn , X) > δ/2 .

Donc pour tous ε, δ > 0, l’hypothèse (a) implique que lim supn→∞ PTd0 f (Xn ), f (X) > ε ≤ P wf (X, δ) > ε . Pour tout p ∈ N,
  

on pose Ap = {wf (X, 2−p ) > ε}. On a donc Ap+1 ⊂ Ap et A := p∈N Ap ⊂ {f n’est pas continue en X}. Donc limp P(Ap ) =
P(A) = 0 par l’hypothèse (b), ce qui permet de conclure. 
On déduit des deux proposition précédentes les propriétés de continuité suivantes de la convergence en probabilité (bien d’autres
énoncés du même genre en découlent).

Proposition B.4.6 Soit (E, d), un espace métrique séparable. Soient Xn , Yn , X, Y ∈ LE (Ω, F ). On suppose que limn→∞ Xn = X
en probabilité et limn→∞ Yn = Y en probabilité. Alors les assertions suivantes sont vérifiées.

(i) Si E = Rk , alors limn Xn + Yn = X + Y en probabilité.

(ii) Si E = R ou C, alors limn Xn Yn = XY en probabilité.

(iii) Si E = R ou C et si p.s. Y 6= 0, alors limn Xn /Yn = X/Y en probabilité.

(iv) Si E = [−∞, ∞], alors limn Xn ∧ Yn = X ∧ Y et limn Xn ∨ Yn = X ∨ Y en probabilité.


248 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

Preuve: la proposition B.4.3 implique que limn (Xn , Yn ) = (X, Y ) en probabilité dans E 2 . On applique ensuite la proposition B.4.5 à
E = Rk , et f (x, y) = x + y pour obtenir (i), à E = R ou C et f (x, y) = xy pour obtenir (ii), à f (x, y) = x/y qui est continue sur
C× C∗ pour obtenir (iii), et enfin à E = [−∞, ∞] et f (x, y) = x ∧ y et f (x, y) = x ∨ y pour obtenir (iv). 

suppose complet. Soit εn ∈


Proposition B.4.7 Soit (E, d), un espace séparable que l’onP  ]0, ∞[ , n ∈ N, une suite telle que
n≥0 εn < ∞. Soient Xn ∈ LE (Ω, F ), n ∈ N. On suppose n≥0 P d(Xn+1 , Xn ) > εn < ∞. Alors, il existe X ∈ LE (Ω, F )
P
telle que limn Xn = X presque sûrement.

Preuve: le lemme de Borel-Cantelli implique l’existence de B ∈ F tel que P(B) = 1 et tel pour tout ω ∈ B, on ait d(Xn+1 PXn (ω)) ≤
 (ω),
εn pour P tout n ≥ n0 (ω). L’inégalité triangulaire implique que pour tous m, n ≥ p ≥ n0 (ω), on a d Xn (ω), Xm (ω) ≤ k≥p εk .
Comme n∈N εn < ∞, pour tout ω ∈ B, la suite (Xn (ω))n∈N est de Cauchy. Puisque E est supposé complet, il existe X(ω) ∈ E
tel que limn d(Xn (ω), X(ω)) = 0. On fixe ensuite x0 ∈ E et pour tout ω ∈ Ω\B, on pose X(ω) = x0 . On a donc montré que
limn Xn = X presque sûrement car P(B) = 1.
Il reste à montrer que X est (F , B(E))-mesurable. Pour cela, on rappelle que les fonctions continues bornées sur E engendre
la tribu Borélienne B(E). Cela implique que si pour toute fonction continue bornée f : E → R, f (X) est F -mesurable alors X est
(F , B(E))-mesurable. Or on a P-p.s. limn f (Xn ) = f (X), ce qui implique que f (X) est F -mesurable une limite presque sûr de
v.a. réelles F -mesurable (les f (Xn ) le sont) est F -mesurable. Cela termine la preuve de la proposition. 
Deux variables aléatoires X, Y ∈ LE (Ω, F ) sont égales p.s. ssi P(d(X, Y ) = 0) = 1. On note cela X ∼ Y . L’inégalité
triangulaire implique que ∼ est transitive. Elle est clairement symétrique et réflexive. C’est donc une relation d’équivalence. On
considère le quotient
LE (Ω, F , P) = LE (Ω, F )/ ∼ .
Bien que les éléments de LE (Ω, F , P) ne soient pas des v.a. mais des classes de v.a., on confond un élément de LE (Ω, F , P) avec
n’importe lequel de ses représentants. Le résultat suivant qui montre que la convergence en probabilité correspond à une distance sur
LE (Ω, F , P).

Théorème B.4.8 Soit (E, d), un espace métrique séparable. Pour tous X, Y ∈ LE (Ω, F , P), on pose
 
dP (X, Y ) = E 1 ∧ d(X, Y ) .
Alors, dP est une distance sur LE (Ω, F , P) telle que limn dP (Xn X) ssi limn Xn = X en probabilité. De plus, l’espace métrique
LE (Ω, F , P), dP est complet si E est complet.


Preuve: on vérifie que pour tous a, b ∈ R+ , on a 1 ∧ (a + b) ≤ 1 ∧ a + 1 ∧ b. On en déduit que pour toutes X, Y, Z ∈ LE (Ω, F , P),
on a 
1 ∧ d(X, Z) ≤ 1 ∧ d(X, Y ) + d(Y, Z) ≤ 1 ∧ d(X, Y ) + 1 ∧ d(Y, Z) .
En prenant l’espérance on a dP (X, Z) ≤ dP (X, Y ) + dP (Y, Z). Par ailleurs, il est clair que dP (X, Y ) = dP (Y, X). Enfin si
dP (X, Y ) = 0, alors X = Y p.s. c’est-à-dire que X = Y dans LE (Ω, F , P). Cela montre que dP est une distance.
Soient Xn ∈ LE (Ω, F ), n ∈ N et soit X ∈ LE (Ω, F ). On remarque d’abord que pour tout a ∈ R+ , (a/ε) ∧ 1 = (a ∧ ε)/ε ≤
(a ∧ 1)/ε. Par conséquent,
1{d(Xn ,X)>ε} ≤ ε−1 d(Xn , X) ∧ 1 ≤ ε−1 d(Xn , X) ∧ 1 .
 

En prenant l’espérance, on obtient P d(Xn , X) > ε ≤ ε−1 dP (Xn , X), pour tout ε ∈ ]0, 1]. Par conséquent, si limn dP (Xn , X) = 0,


alors, limn Xn = X en probabilité.


On observe ensuite que
   
dP (Xn , X) = E 1{d(Xn ,X)≤ε} 1 ∧ d(Xn , X) + E 1{d(Xn ,X)>ε} 1 ∧ d(Xn , X)

≤ ε + P d(Xn , X) > ε .
Si limn Xn = X en probabilité, alors lim supn dP (Xn , X) ≤ ε, pour tout ε > 0, et donc limn dP (Xn , X) = 0.
On suppose (E, d) complet. Soit Xn ∈ LE (Ω, F , P), n ∈ N qui est de Cauchy pour dP . Pour montrer qu’elle est convergente, il
suffit d’en extraire une suite qui est convergente. Pour cela on rappelle l’inégalité précédente: pour tout ε ∈ ]0, 1], pour tous m, n, on a
P d(Xn , Xm ) > ε ≤ ε−1 dP (Xn , Xm ) .


Comme (Xn )n∈N , est de Cauchy, il est facile d’en déduire qu’il existe une suite strictement croissante d’entiers (nk )k∈N telle que
∀k ∈ N, P d(Xnk+1 , Xnk ) > 2−k ≤ 2−k .


La proposition B.4.7 implique qu’il existe X ∈ LE (Ω, F , P) telle que limk Xnk = X p.s. et le théorème B.4.2 (i) implique que
limk Xnk = X en probabilité, ce qui implique que limk dP (Xnk , X) = 0, comme déjà démontré plus haut. Cela termine la preuve du
théorème. 
B.4. CONVERGENCE DE VARIABLES ALÉATOIRES. 249

p
Convergence dans L . Uniforme intégrabilité. Pour simplifier les notations on pose L (Ω, F ) = LR (Ω, F ), c’est-à-
dire L (Ω, F ) = X : Ω → R F -mesurable . On utilise la notation X ∼ Y pour dire que X = Y presque sûrement. On rappelle la

notation
L(Ω, F , P) = L (Ω, F )/ ∼ .
Bien que les éléments de L(Ω, F , P) ne soient pas des v.a. mais des classes de v.a., on confond un élément de L(Ω, F , P) avec
n’importe quel de ses représentants. Pour tout p ∈ [1, ∞[ et toute v.a. X ∈ L (Ω, F ), on pose
 1/p
kXkp = E X p ,

avec la convention que ∞1/p = ∞. On pose également



kXk∞ = inf a ∈ [0, ∞] : P(|X| > a) = 0 .

Pour tout p ∈ [1, ∞], on pose alors


p
L (Ω, F , P) = X ∈ L(Ω, F , P) : kXkp < ∞ .

p
On rappelle que (L (Ω, F , P), k·kp ) est un R-espace vectoriel normé complet, c’est-à-dire un espace de Banach. On montre tout
p
d’abord la proposition suivante faisant le lien entre convergence L et en probabilité.

p p
Proposition B.4.9 Soit p ∈ [1, ∞]. Soient Xn ∈ L (Ω, F , P), n ∈ N et X ∈ L (Ω, F , P). Si limn kXn − Xkp = 0, alors
limn Xn = X en probabilité.

Preuve: on suppose d’abord que p < ∞. Une inégalité de type Markov implique que pour tout ε > 0 et tout n ∈ N,

P |Xn −X| > ε ≤ ε−p E |Xn −X|p = ε−p kXn −Xkpp ,


  

ce qui implique le résultat pour p ∈ [1, ∞[ . On suppose ensuite que lim


 n kXn −Xk∞ = 0. Pour tout ε > 0, il existe donc nε ∈ N tel
que pour tout n ≥ nε , on ait kXn −Xk∞ < ε et donc P |Xn −X| > ε = 0, ce qui permet de conclure. 
En combinant le résultat précédent et le théorème B.4.2 (ii), on obtient immédiatement

p p
Proposition B.4.10 Soit p ∈ [1, ∞]. Soient Xn ∈ L (Ω, F , P), n ∈ N et X ∈ L (Ω, F , P). On suppose que limn kXn −Xkp = 0.
Alors, il existe une suite strictement croissante d’indices (nk )k≥0 tels que limk Xnk = X presque sûrement.

Définition B.4.11 (Famille de v.a. uniformément intégrables) Soient Xi ∈ L (Ω, F ), i ∈ I. La famille de v.a. (Xi )i∈I est uniformé-
ment intégrable si  
lim sup E |Xi |1{|Xi |≥a} = 0 . (B.10)
a→∞ i∈I

On observe que cette notion ne concerne pas les variables en elles-même mais leur loi. 

Lemme B.4.12 Soient Xi ∈ L (Ω, F ), i ∈ I. Alors, supi∈I kXi k1 < ∞. En particulier, les Xi sont des v.a. intégrables.
 
Preuve: (B.10) implique qu’il existe a > 0 tel que C := supi∈I E |Xi |1{|Xi |≥a} < ∞. Donc
     
∀i ∈ I, E |Xi | = E |Xi |1{|Xi |≤a} + E |Xi |1{|Xi |≥a} ≤ a + C ,

ce qui permet de conclure. 

Lemme B.4.13 Soit (Xi )i∈I , une famille de v.a. réelles intégrables.

(i) Si I = J1 ∪ J2 , si (Xi )i∈J1 est uniformément intégrable et si (Xi )i∈J2 est uniformément intégrable, alors (Xi )i∈I est
uniformément intégrable.

(ii) Si I est fini, alors, la famille de variables (Xi )i∈I est uniformément intégrable.

(iii) Soit Z, une v.a. réelle intégrable telle que pour tout i ∈ I, on ait presque sûrement |Xi | ≤ Z. Alors, la famille de variables
(Xi )i∈I est uniformément intégrable.
 
(iv) Soit g : R+ → R+ , une application mesurable telle que limx→∞ g(x)/x = ∞. On suppose que supi∈I E g(|Xi |) < ∞.
Alors, la famille de variables (Xi )i∈I est uniformément intégrable.
250 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

Preuve: le premier point découle du fait que pour tout a ∈ R+ on ait


     
sup E |Xi |1{|Xi |≥a} ≤ sup E |Xi |1{|Xi |≥a} + sup E |Xi |1{|Xi |≥a} .
i∈I i∈J1 i∈J2

Pour montrer (ii), on remarque d’abord que que si Z est une variable réelle positive, alors p.s. lima→∞ Z1{Z>a} = 0. Or 0 ≤
Z1{Z>a} ≤ Z. Donc, si Z est intégrable, le théorème de convergence dominée entraîne que

lim E[Z1{Z>a} ] = 0 .
a→∞

Le point (ii) découle alors de cette constatation et du (i). Le point (iii) est une conséquence de l’inégalité suivante
 
sup E |Xi |1{|Xi |≥a} ≤ E[Z1{Z>a} ] − −−→ 0 .
a→∞
i∈I

Montrons (iv): il existe a0 > 0, tel que g(x) > 0, pour tout x > a0 . Pour tout
 a > a0 , on peut poser w(a) = supx>a x/g(x). La
fonction w est donc décroissante et lima→∞ w(a) = 0. On pose c = supi∈I E g(|Xi |) . Pour tout a > a0 et tout i ∈ I, on a donc

E[|Xi |1{|Xi |>a} ] = E[g(|Xi |)|Xi |g(|Xi |)−1 1{|Xi |>a} ] ≤ w(a)E g(|Xi |) ≤ cw(a) ,
 

ce qui implique bien que lima→∞ supi∈I E[|Xi |1{|Xi |>a} ] = 0. 


p
Corollaire B.4.14 Soit 1 < p < ∞ et soit (Xn )n≥0 , une suite bornée en norme L , c’est-à-dire que supn≥0 E[|Xn |p ] < ∞. Alors, la
suite (Xn )n≥0 est uniformément intégrable.

L’utilité de notion d’uniforme intégralité apparaît dans le théorème suivant qui est une généralisation du théorème de convergence
dominée.

Théorème B.4.15 Soit (Xn )n≥0 , une suite de v.a. réelles F -mesurables. Soit X, une v.a. réelle F -mesurable. Il y a équivalence
entre les assertions suivantes.
(a) La suite (Xn )n∈N est uniformément intégrable et limn Xn = X en probabilité.
(b) limn kXn −Xk1 = 0.

Preuve: on prouve d’abord (a) =⇒ (b). Le lemme B.4.12 implique que supn∈N kXn k1 < ∞. Par Fatou, on a donc E[|X|] ≤
lim inf n E[|Xn |] < ∞. Il est clair qu’en ajoutant une variable intégrable à une famille uniformément intégrable, on obtient une famille
uniformément intégrable: donc, si on pose

w(a) = max E[ |X|1{|X|>a} ] , sup E[ |Xn |1{|Xn |>a} ] ,
n∈N

on a lim∞ w(a) = 0. On vérifie ensuite l’inégalité suivante pour tous x, y ∈ R et tout a ∈ R+ :

∀x, y ∈ R, ∀a ∈ R+ , |x−y| ≤ (2a)∧|x−y| + |x|1{|x|>a} + |y|1{|y|>a}

Par ailleurs, pour tout ε ∈ ]0, 2a], on a également


 
(2a)∧|x−y| = (2a)∧|x−y| 1{|x−y|≤ε} + (2a)∧|x−y| 1{|x−y|>ε} ≤ ε + 2a1{|x−y|>ε} .

Donc pour tous x, y ∈ R et tous a ≥ ε > 0, on a

|x−y| ≤ ε + 2a1{|x−y|>ε} + |x|1{|x|>a} + |y|1{|y|>a}

Par conséquent, 
E[ |Xn −X| ] ≤ ε + 2aP |Xn −X| > ε + 2w(a) .
et on a lim supn E[ |Xn −X| ] ≤ ε + 2w(a), ce qui implique le résultat lorsque a → ∞ et ε → 0.
1
Montrons que (b) =⇒ (a): on suppose
 donc que limn kXn −Xk1 = 0. Les normes L des Xn convergent et forment une suite
bornée: on pose c = supn≥0 E |Xn | . Pour tous réels a, b > 0, et pour tout n, on a les inégalités suivantes

|Xn |1{|Xn |>a} ≤ |Xn −X|1{|Xn |>a} + |X|1{|Xn |>a} ≤ |Xn −X| + |X|1{|Xn |>a}
≤ |Xn − X| + |X|1{|X|≤b ; |Xn |>a} + |X|1{|X|>b ; |Xn |>a}
≤ |Xn −X| + b1{|Xn |>a} + |X|1{|X|>b}
B.5. ESPÉRANCE CONDITIONNELLE. 251

b
≤ |Xn −X| + a
|Xn | + |X|1{|X|>b} .

On prend b = a et on intègre l’inégalité précédente pour obtenir
    c  
E |Xn |1{|Xn |>a} ≤ E |Xn −X| + √
a
+ E |X|1{|X|>√a} .
 
On pose φ(a) = supn≥0 E |Xn |1{|Xn |>a} et on fixe p ∈ N. On a donc
X    
φ(a) ≤ E |Xk |1{|Xk |>a} + sup E |Xn |1{|Xn |>a}
n≥p
0≤k≤p
c
X      
≤ E |Xk |1{|Xk |>a} + sup E |Xn −X| + √
a
+ E |X|1{|X|>√a} .
n≥p
0≤k≤p

On a donc  
lim sup φ(a) ≤ sup E |Xn −X| −−−→ 0 ,
p→∞
a→∞ n≥p

ce qui montre que lima→∞ φ(a) = 0, et donc que (Xn )n≥0 est uniformément intégrable. 

B.5 Espérance conditionnelle.


Définition B.5.1 Soit (Ω, F , P) un espace de probabilité et soit G , une sous-tribu de F .

(Variables positives) Soit X une v.a. F -mesurable à valeurs dans [0, ∞]. La fonction Y : Ω → [0, ∞] est une version de l’espérance conditionnelle
de X sachant G si

• la variable Y est G -mesurable,

• pour tout B ∈ G , on a E[Y 1B ] = E[X1B ].

Variables intégrables) Soit X une v.a. F -mesurable à valeurs réelles intégrable. La fonction Y : Ω → R est une version de l’espérance conditionnelle
de X sachant G si

• la variable Y est G -mesurable et intégrable,

• pour tout B ∈ G , on a E[Y 1B ] = E[X1B ]. 

Pour que l’on puisse définir l’espérance conditionnelle d’une variable, il faut que son espérance soit bien définie, c’est-à-dire que
la variable soit intégrable ou à valeurs dans [0, ∞]. Pour simplifier, on dira qu’une variable (ou une fonction) est positive si elle est à
valeurs dans [0, ∞]. On montre d’abord l’unicité P-preque sûre des espérances conditionnelles grâce à la proposition suivante.

Proposition B.5.2 Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu de F . Soient Y et Y 0 , deux v.a. G -mesurables
qui sont soit réelles intégrables, soit positives. On suppose que pour tout B ∈ G , E[Y 1B ] ≤ E[Y 0 1B ] Alors Y ≤ Y 0 presque sûrement.

Preuve: pour tous réels a < b, on pose Ca,b = {Y 0 ≤ a < b ≤ Y }. On a bien Ca,b = (Y 0 )−1 ( ] − ∞, a]) ∩ Y −1 ([b, ∞]) ∈ G .
On remarque ensuite que Y 0 1Ca,b ≤ a1Ca,b ≤ b1Ca,b ≤ Y 1Ca,b . En intégrant cette inégalité on a donc E[Y 0 1Ca,b ] ≤ aP(Ca,b ) ≤
bP(Ca,b ) ≤ E[Y 1Ca,b ]. Mais par hypothèse, E[Y 1Ca,b ] ≤ E[Y 0 1Ca,b ]. Cela montre que aP(Ca,b ) = bP(Ca,b ), et donc que
P(Ca,b ) = 0. Or {Y 0 < Y } = a,b∈Q,a<b Ca,b . Comme l’ensemble des couples (a, b) ∈ Q2 tel que a < b est dénombrable et
S

comme une union dénombrable de P-négligeables est un ensemble P-négligeable, on a P(Y 0 < Y ) = 0, ce qu’il fallait démontrer.


Corollaire B.5.3 Si Y et Y 0 sont deux versions de l’espérance conditionnelle de X sachant G , alors Y = Y 0 presque sûrement.

Théorème B.5.4 (Existence de l’espérance conditionnelle) Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu de F .
Soit X, une v.a. réelle intégrable ou positive. Elle admet une (version de son) espérance conditionnelle sachant G .
252 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

Preuve: on fixe X : Ω → [0, ∞], une fonction F -mesurable. Pour tout B ∈ G , on pose ν(B) = E[X1B ] = B X dP. Clairement,
R

ν : G → [0, ∞] est une somme de mesures de masse finie telleR que ν  P. Le théorème de Radon-Nikodym s’applique et montre
qu’il existe Y : Ω → [0, ∞], G -mesurable telle que ν(B) = B Y dP = E[Y 1B ], ce qui montre le résultat voulu dans le cas des
v.a. positives.
Supposons que X soit une v.a. réelle intégrable: on note X + et X − ses parties positives et négatives. On note Y + et Y − les v.a. G -
mesurables telles que E[X +/− 1B ] = E[Y +/− 1B ], B ∈ G . Par conséquent, E[Y +/− ] = E[X +/− ] < ∞ et donc p.s. Y +/− < ∞.
Sans perte de généralité on peut supposer les variables Y + et Y − finies partout et on pose Y = Y + − Y − , qui est bien (une version
de) l’espérance conditionnelle de X sachant G . 

Proposition B.5.5 Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu de F . Soient X, X1 , X2 , des v.a. réelles
intégrables (resp. positives). Les assertions suivantes sont vérifiées.

(i) Si G = {∅, Ω} (qui est la tribu grossière), alors E[X|G ] = E[X].

(ii) Si X est G -mesurable, E[X|G ] = X.

(iii) Pour tout c ∈ R (resp. tout c ∈ R+ ), E[X1 + cX2 |G ] = E[X1 |G ] + cE[X2 |G ].

(iv) Si X1 ≤ X2 p.s., alors E[X1 |G ] ≤ E[X2 |G ] presque sûrement. Notamment, si X est positive p.s., E[X|G ] l’est aussi.

(v) (Inégalité triangulaire) E[X | G ] ≤ E |X| G , p.s.


 

 
(vi) E E[X|G ] = E[X].

Preuve: on note c = E[X]. La v.a. constante à c est clairement mesurable par rapport à la tribu grossière. On vérifie ensuite que
E[c1∅ ] = 0 = E[X1∅ ] et que E[c1Ω ] = E[X1Ω ]. Donc c = E[X|G ] si G est la tribu grossière, ce qui prouve (i).
Montrons (ii): on suppose que X est G -mesurable; comme E[X1B ] = E[X1B ], pour tout B ∈ G , on a donc donc E[X|G ] = X.
Montrons (iii): on pose Y = E[X1 |G ] + cE[X2 |G ]. C’est une v.a. G -mesurable intégrable (resp positive). Par linéarité de
l’espérance et par définition de l’espérance conditionnelle, on a pour tout B ∈ G ,
     
E[Y 1B ] = E E[X1 |G ]1B + cE E[X2 |G ]1B = E[X1 1B ] + cE[X2 1B ] = E (X1 + cX2 )1B ,

ce qui entraîne le point (iii).


Montrons (iv): on pose Y = E[X1 |G ] et Y 0 = E[X2 |G ]. Par définition de l’espérance conditionnelle, pour tout B ∈ G , on
a E[Y 1B ] = E[X1 1B ] et E[Y 0 1B ] = E[X2 1B ]. Comme X1 ≤ X2 p.s., ce qui précède montre que E[Y 1B ] ≤ E[Y 0 1B ] et a
proposition B.5.2 implique donc que Y ≤ Y 0 , ce qui est le point (iv).
On en déduit (v): on note X + = max(0, X) et X − = max(0, −X), les parties positive et négative de X. On a donc X =
X + − X − et |X| = X + + X − . On a de plus E[X +/− |G ] ≥ 0, p.s. Par conséquent,
E[X|G ] = E[X + |G ] − E[X − |G ] ≤ E[X + |G ] + E[X − |G ] = E |X| G .
 

Le point (vi) est une conséquence de la définition B.5.1 de l’espérance avec B = Ω. 

Lemme B.5.6 Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu de F . Soit X, une v.a. réelle intégrable (resp. positive).
On pose Y = E[X|G ]. Alors, pour toute v.a. Z qui est G -mesurable bornée (resp. positive), on a E[ZY ] = E[ZX].

Preuve: on suppose que X est positive. Par croissance de l’espérance conditionnelle (proposition B.5.5 (iv)), Y est positive. Soit
Z, une v.a. G -mesurable positive.PPar le lemme B.1.3, il existe une suite de constantes positive (cn )n≥0 et une suite d’événements
Bn ∈ G , n ∈ N, telles que Z = n≥0 cn 1Bn . Par interversion série / espérance positive (appliquée deux fois) et par la définition de
l’espérance conditionnelle, on a donc
hX i X X hX i
E[ZY ] = E cn 1Bn Y = cn E[1Bn Y ] = cn E[1Bn X] = E cn 1Bn X = E[ZX] ,
n≥0 n≥0 n≥0 n≥0

ce qui montre le résultat voulu pour les v.a. positives. Le cas réel intégrable se traite en considérant la partie positive et la partie négative
de la variable et en se ramenant au cas positif (les détails sont laissés au lecteur). 

La proposition B.5.5 discute des propriétés de linéarité et de croissance de l’espérance conditionnelle. La proposition suivante a
trait à l’espérance conditionnelle d’un produit de variables.
B.5. ESPÉRANCE CONDITIONNELLE. 253

Proposition B.5.7 Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu de F . Soit X, une v.a. réelle intégrable
(resp. positive). Alors, pour toute v.a. Z qui G -mesurable bornée (resp. positive), on a

p.s. E[ZX|G ] = ZE[X|G ] . (B.11)

Cette égalité reste vraie si Z est G -mesurable et si ZX et X sont intégrables.

Preuve: on pose Y = ZE[X|G ], qui est bien G -mesurable.


 Soit B ∈ G . On observe que 1B Z est intégrable (resp. positive).
Le lemme B.5.6 implique donc que E[1B ZX] = E 1B ZE[X|G ] . Par définition de Y , E 1B ZE[X|G ] = E[1B Y ], donc
E[1B ZX] = E[1B Y ], pour tout B ∈ G , ce qui implique que Y = E[ZX|G ], et cela prouve (B.11). On suppose que ZX et
X sont intégrables. On montre (B.11) dans ce cas en considérant les parties positives et négatives de X et de Z et en utilisant le cas
positif déjà démontré. 
Dans les propositions précédentes la tribu par rapport à laquelle on conditionne est fixée. Les propositions suivantes discutent de
quelques propriétés de l’espérance conditionnelle lorsque la tribu de conditionnement varie, ou lorsqu’elle est donnée sous une certaine
forme.

Proposition B.5.8 Soit (Ω, F , P), un espace de probabilité. Soient G1 et G2 , deux sous-tribus de F . On suppose que G1 ⊂ G2 . Alors
pour toute v.a. X, réelle intégrable ou positive, on a
 
p.s. E E[X|G2 ] |G1 = E[X|G1 ] .

on pose Y = E E[X|G2 ] |G1 . C’est une v.a. G1 -mesurable. Soit B ∈ G1 . La proposition B.5.7 implique que 1B Y =
 
Preuve:
E 1B E[X|G2 ] |G1 . Comme, G1 ⊂  G2 , on a également, B ∈ G2 . La proposition B.5.7 implique que1B E[X|G2 ] = E[1B X|G2 ] et ce


qui précède montre que 1B Y = E E[1B X|G2 ] |G1 . En appliquant ensuite la proposition B.5.5 (v) deux fois, on a donc
    
E[1B Y ] = E E E[1B X|G2 ] |G1 = E E[1B X|G2 ] = E[1B X] .

Comme cela est vrai pour tout B ∈ G1 , on a bien Y = E[X|G1 ], qui est le résultat voulu. 

Proposition B.5.9 Soit (Ω, F , P), un espace de probabilité. Soit Gi , i ∈ I, une famille de sous-tribus de F . On pose G = σ(Gi , i ∈
I), la tribu engendrée par les Gi , i ∈ I. Soit X, une v.a. réelle intégrable (resp. positive) Il y a équivalence entre les assertions
suivantes.

(i) Y = E[X|G ].
(ii) Y est G -mesurable intégrable (resp. positive) et pour tout sous-ensemble fini d’indices J ⊂ I, pour tous Bj ∈ Gj , j ∈ J, on a
   
E X1Tj∈J Bj = E Y 1Tj∈J Bj .

Preuve: (i) =⇒ (ii) est trivial. Montrons (ii) =⇒ (i) dans le cas où X est réelle intégrable. On pose P = { j∈J Bj ; Bj ∈
T
Gj , J ⊂ I, J fini}. Il est clair que Ω ∈ P et que P est stable par intersection finie. C’est donc un pi-système. Par ailleurs, il est clair
que P ⊂ G et que Gi ⊂ P, pour tout i ∈ I. Donc, σ(P) = G . On pose

L = B ∈ G : E[X1B ] = E[Y 1B ] .


Le point (ii) signifie que P ⊂ L . Montrons que L est une classe monotone: il est d’abord clair que Ω ∈ L , car Ω ∈ P. Soient
A, B ∈ L tels que A ⊂ B. Comme X et Y sont intégrables, pour tout C ∈ F , E[X1C ] et E[Y 1C ] sont des réels bien définis et on
a bien
E[X1B\A ] = E[X1B ] − E[X1A ] = E[Y 1B ] − E[Y 1A ] = E[Y 1B\A ] ,
ce qui montre que B\A ∈ L S. La classe d’événements L est donc stable par différence propre. Soient Bn ∈ L , n ≥ 0, tels que
Bn ⊂ Bn+1 . On pose B = n≥0 Bn . Il est clair que 1B = limn 1Bn , et donc X1B = limn X1Bn , Y 1B = limn Y 1Bn . De plus
|X1Bn | ≤ |X| et |Y 1Bn | ≤ |Y |, pour tout n ≥ 0. Comme X et Y sont intégrable, le théorème de convergence dominée s’applique
et on a
E[X1B ] = lim E[X1Bn ] = lim E[Y 1Bn ] = E[Y 1B ] ,
n n

ce qui montre que B ∈ L . La classe d’événements L est donc stable par union dénombrable croissante. Cela prouve que L est une
classe monotone.
Le théorème de la classe monotone (voit le théorème A.1.10 en appendice) entraîne que σ(P) ⊂ L . Mais puisque, par définition,
L ⊂ G et puisque σ(P) = G , on a donc L = G , ce qui signifie que pour tout B ∈ G , on a E[X1B ] = E[Y 1B ]. Comme Y est
supposée intégrable et G -mesurable, cela entraîne bien Y = E[X|G ]. 
254 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

Convergence sous l’espérance conditionnelle.

Proposition B.5.10 Soit (Ω, F , P), un espace de probabilité. Soit G , une sous-tribu de F . Soit (Xn )n≥0 , une suite de v.a. positives.
Les assertions suivantes sont vérifiées.

nvergence monotone) On suppose que Xn ≤ Xn+1 , pour tout n ≥ 0. On pose X∞ = supn Xn . Alors, p.s. limn E[Xn |G ] = E[X∞ |G ].
hP i P
Interversion positive) E n≥0 Xn | G = n≥0 E[Xn |G ] p.s.

(Fatou) E[lim inf n Xn | G ] ≤ lim inf n E[Xn |G ] p.s.

Preuve: on voit que Xn ≤ Xn+1 implique que E[Xn |G ] ≤ E[Xn+1 |G ] (par la proposition B.5.5 (iv)). On pose Y = supn E[Xn |G ],
qui est une v.a. positive G -mesurable. Soit B ∈ G . Le théorème de convergence monotone non-conditionnel ainsi que la définition de
l’espérance conditionnelle implique donc que E[Y 1B ] = limn E E[Xn |G ]1B = limn E[Xn 1B ] = E[X∞ 1B ], ce qui implique que
Y = E[X∞ |G ].
L’interversion et Fatou conditionnels se déduisent de la convergence monotone conditionnelle exactement comme l’interversion et
Fatou non-conditionnels se déduisent de la convergence monotone usuelle. 

Proposition B.5.11 (Convergence dominée) Soit (Ω, F , P), un espace de probabilité. Soit G , une sous-tribu de F . Soit (Xn )n≥0 ,
une suite de v.a. réelles. On fait les hypothèses suivantes.

• Il existe une v.a. réelle X∞ telle que limn Xn = X∞ p.s.


• Il existe une v.a. positive Z telle que E[Z] < ∞ et |Xn | ≤ Z, pour tout n ≥ 0, p.s.

Alors, X∞ est intégrable, p.s. limn E |Xn − X∞ | G = 0 et limn E[Xn |G ] = E[X∞ |G ].


 

 
Preuve: il est clair que p.s. |X∞ | ≤ Z, donc E |X∞ | < ∞. On pose Yn = 2Z − |X∞ − Xn |. On a bien 0 ≤ Yn ≤ 2Z et
limn Yn = 2Z p.s. Par Fatou conditionnel on a
inf Yn | G ] ≤ lim inf E[Yn |G ] = E[2Z |G ] − lim sup E |X∞ − Xn | G ,
  
p.s. E[2Z |G ] = E lim n→∞ n→∞ n→∞

 ∞ | G ≤ 0. 0, E |Xn−X∞ | G ≥ 0, par
   
ce qui implique que presque sûrement n E |Xn−X
lim sup Or pour tout n ≥  la proposition

B.5.5 (iii). Donc lim supn E |Xn −X∞ | G = limn E |Xn −X∞ | G = 0. Comme E[X∞ |G ]−E[Xn |G ] ≤ E |Xn −X∞ | G
 

(voir proposition B.5.5 (v)), on en déduit le dernier point de la proposition. 

 (Ω, F , P),Pun espace de probabilité. Soit G , une sous-tribu de F . Soit (Xn )n≥0 , une suite
1
Corollaire B.5.12 (Interversion
P  L ) Soit
de v.a. réelles telle que n≥0 E |Xn | < ∞. Alors n≥0 Xn est une v.a. intégrable et on a l’égalité presque-sûre suivante
hX i X
E Xn G = E[Xn |G ] .

n≥0 n≥0

P P  
Preuve: on pose K = n≥0 |Xn |. On a E[K] = n≥0 E |Xn | < ∞, par interversion série / espérance Ppositive. Donc, presque
sûrement, la série de
P terme général Xn est absolument convergente et donc convergente: on note S∞ = n≥0 Xn sa somme. On
pose ensuite Sn = 0≤k≤n Xk . On a bien |Sn | ≤ K et p.s. limn Sn = S∞ . On conclut en appliquant le théorème de convergence
dominée conditionnel à la suite (Sn )n≥0 . 

Quelques inégalités. Nous établissons une version "conditionnelle" des inégalités de Jensen et de Hölder. Comme dans le cas
déterministe, ces inégalités sont démontrées à l’aide de fonctions convexes. Rappelons qu’une fonction ϕ : I → R, définie sur un
intervalle I de R est dite convexe ssi

∀ x, y ∈ I, ∀ θ ∈ [0, 1] ϕ θx + (1 − θ)y ≤ θϕ(x) + (1 − θ)ϕ(y) .
On rappelle que si ϕ : I → R est dérivable sur l’intérieur de I et de dérivée croissante, alors ϕ est convexe. Notamment, exp et − log
sont des fonctions convexes. On rappelle qu’une fonction convexe est l’enveloppe supérieure des droites passant sous son graphe. Plus
précisément, on décrit une droite non-verticale par son équation cartésienne qui est de la forme y = ax + b, où a, b ∈ R. On note S
l’ensemble des couples (a, b) tels que ax + b ≤ ϕ(x) pour tout x ∈ I. On vérifie facilement que ϕ(x) = sup(a,b)∈S ax + b, x ∈ I.
On aura besoin d’un résultat légèrement plus fin mais qui s’en déduit très facilement: on peut trouver un ensemble S0 ⊂ S, qui est
dénombrable et tel que
∀x ∈ I , ϕ(x) = sup ax + b . (B.12)
(a,b)∈S0
B.5. ESPÉRANCE CONDITIONNELLE. 255

Lemme B.5.13 (Jensen conditionnelle) Soit (Ω, F , P), un espace de probabilité. Soit X, une v.a. réelle intégrable. Soit ϕ : R → R,
une fonction convexe. On suppose que X et ϕ(X) sont intégrables. Alors pour toute sous-tribu G de F , on a

p.s. ϕ E[X|G ] ≤ E[ϕ(X)|G ] .

Preuve: on utilise la notation S0 introduite avant l’énoncé du lemme. Si (a, b) ∈ S0 , alors aX + b ≤ ϕ(X). La croissante et la
linéarité de l’espérance conditionnelle (voir la proposition B.5.5 (iii) et (iv)) impliquent que aE[X|G ] + b ≤ E[ϕ(X)|G ], presque
sûrement. Comme S0 est dénombrable, on en déduit que

P-p.s. ∀(a, b) ∈ S0 , aE[X|G ] + b ≤ E[ϕ(X)|G ]


 
et par (B.12) on a donc P-p.s. ϕ E[X|G ] = sup(a,b)∈S0 aE[X|G ] + b ≤ E[ϕ(X)|G ], ce qui permet de conclure. 

Corollaire B.5.14 Soit (Ω, F , P), un espace de probabilité et soit G , une sous-tribu. Soit X, une v.a. et soit p ∈ [1, ∞[ . Si
E[ |X|p ] < ∞, alors E[|X|] < ∞. De plus, p.s. on a

|E[X|G ] |p ≤ E |X|p |G ,
 
(B.13)
p
ce qui implique que E[X|G ] ∈ L .

Preuve: on remarque que la fonction x 7→ |x|p est convexe. 

Espérance conditionnelle et indépendance.

Proposition B.5.15 Soit G , une sous-tribu de F . Soit X, v.a. réelle intégrable ou positive indépendante de G . Alors p.s. E[X|G ] =
E[X].

Preuve: on traite le cas réel intégrable, le cas positif étant similaire. On pose c = E[X] et on fixe B ∈ G . Dire que X est
indépendante de G signifie que σ(X) est indépendante de G , et donc X et 1B sont deux v.a. indépendantes. Par le lemme B.2.12, on
a E[1B X] = E[1B ]E[X] = E[c1B ]. Comme la variable constante c est G -mesurable on en déduit le résultat. 

Corollaire B.5.16 Soit G , une sous-tribu de F . Soient X1 , . . . , Xn , des v.a. réelles intégrables. On les suppose mutuellement
indépendantes. On suppose également que le vecteur aléatoire (X1 , . . . , Xn ) est indépendant de G . Alors
 
p.s. E X1 . . . Xn |G = E[X1 ] . . . E[Xn ] .

Preuve: par définition, dire que le vecteur (X1 , . . . , Xn ) est indépendant de G signifie que les tribus σ(X1 , . . . , Xn ) et G sont indépen-
dantes. Comme le produit X := X1 . . . Xn est une fonction déterministe du vecteur (X1 , . . . , Xn ), il est σ(X1 , . . . , Xn )-mesurable.
Cela implique que X est indépendante de G . Le lemme B.2.12 montre que X est intégrable telle que E[X] = E[X1 ] . . . E[Xn ] et la
proposition B.5.15 précédente montre que E[X|G ] = E[X], ce qui permet de conclure. 

On généralise la proposition B.5.15 de la façon suivante.

Proposition B.5.17 Soient G1 et G1 , deux sous-tribus de F . Soit X, une v.a. réelle intégrable. On suppose que G2 est indépendante
de σ(σ(X), G1 ). Alors, presque sûrement
E[X | σ(G1 , G2 )] = E[X|G1 ] .

Preuve: soit B1 ∈ G1 et B2 ∈ G2 . Comme G2 est indépendante de σ(σ(X), G1 ), la variable 1B2 est indépendante de X1B1 et le 
lemme B.2.12 implique que E[X1B1 1B2 ] = E[X1B1 ]E[1B2 ]. La proposition B.5.7 entraîne ensuite que E[X1B1 ] = E E[X|G1 ]1B1 .
Par ailleurs, G2 est indépendante
 de G1 , donc
 1B2 est indépendante
 de la variable G1 -mesurable 1B1 E[X|G1 ] et le lemme B.2.12 en-
traîne que E 1B1 E[X|G1 ] E[1B2 ] = E 1B1 E[X|G1 ]1B2 . On a donc montré que

∀B1 ∈ G1 , ∀B2 ∈ G2 , E[X1B1 ∩B2 ] = E E[X|G1 ]1B1 ∩B2 .


 

Comme E[X|G1 ] est σ(G1 , G2 )-mesurable la proposition B.5.9 permet de conclure. 


256 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

B.6 Martingales à temps discret.


Toutes les variables mentionnées dans cette section sont définies sur le même espace de probabilité Ω, F , P . Pour tous m, n ∈ Z tels


que m < n, on pose [[m, n]] := [m, n] ∩ Z, avec une notation évident pour ]]m, n]], ]]m, n[[ et [[m, n[[ . On rappelle la définition des
martingales, sur-martingales et sous-martingales à temps discret.

Définition B.6.1 (Martingales à temps discret) Soit (Fn )n∈N une filtration en temps discret définie sur (Ω, F ), (c’est-à-dire que pour
tout n ∈ N, Fn est une sous-tribu de F et Fn ⊂ Fn+1 ). Pour tout n ∈ N, soit Mn , une v.a. réelle. Alors (Mn )n∈N est une martingale
(resp. sur-martingale, sous-martingale) relativement à (Fn )n∈N si pour tout n ∈ N, (a): Mn est Fn -mesurable, (b): E |Mn | < ∞ et


(c): P-p.s.
E Mn+1 Fn = Mn (resp. E Mn+1 Fn ≤ Mn , E Mn+1 Fn ≥ Mn ).
     

Lorsque la suite (Mn )n∈[[0,n0 ]] est finie, on parle de martingale (resp. sur-martinagle, sous-martingale) à horizon fini, l’horizon (de
temps) étant n0 . 
Le lemme suivant fait la liste des propriétés élémentaires des martingales à temps discret.

Lemme B.6.2 Soit (Fn )n∈N une filtration sur (Ω, F ). Soit M := (Mn )n∈N , une suite de v.a. réelles. Les propriétés suivantes sont
vérifiées.
(i) Si M est une sur-martingale (reps. une sous-martingale) relativement à (Fn )n∈N , alors −M est une sous-martingale (resp. sur-
martingale) relativement à la même filtration.
(ii) Soit ϕ : R → R, une fonction convexe telle que les v.a. ϕ(Mn ) soient intégrables. Si M est une (Fn )n∈N -martingale, alors
ϕ(M ) := (ϕ(Mn ))n∈N est une sous-martingale. De plus, si ϕ est convexe croissante et si M est une (Fn )n∈N -sous-martingale,
alors ϕ(M ) est également une (Fn )n∈N -sous-martingale. Des énoncés analogues sont vrais pour les fonctions concaves et les
sur-martingales.
(iii) On suppose que M est une martingale (resp. sur-martingale, sous-martingale) relativement à (Fn )n∈N . Alors pour tout
m, n ∈ N, on a
E Mn+m Fn = Mn (resp. E Mn+m Fn ≤ Mn , E Mn+m Fn ≥ Mn ).
     

En prenant l’espérance, cela montre que (E[Mn ])n∈N est une suite réelle constante (resp. décroissante, croissante).
Preuve: le point (i) est une conséquence évident de la linéarité de l’espérance conditionnelle. Le point (ii) est une conséquence
immédiate de l’inégalité de Jensen conditionnelle: si M est une (Fn )n∈N -martingale, alors, pour tout n ∈ N, P-p.s.
E ϕ(Mn+1 ) Fn ≥ ϕ E[Mn+1 |Fn ] = ϕ(Mn ) .
  

Le cas où ϕ est croissante et convexe et où M est une sous-martingale se traite de la même manière. Le point (iii) découle d’une
récurrence facile. 

Proposition B.6.3 (Décomposition de Doob) Soit (Xn )n∈N , une suite de v.a. réelles intégrables. Soit une filtration (Fn )n∈N sur
(Ω, F ). On suppose que pour tout n ∈ N, Xn est Fn -mesurable, Il existe une unique paire de suites de v.a. (Mn )n∈N , (Vn )n∈N
satisfaisant les propriétés suivantes.
(i) Xn = X0 + Mn + Vn , n ∈ N.
(ii) (Mn )n∈N est une (Fn )n∈N -martingale.
(iii) V0 = 0 et pour tout n ∈ N∗ , Vn est Fn−1 -mesurable et intégrable.
De plus, (Xn )n∈N est une martingale resp. sur, sous-martingale) ssi (Vn )n∈N est nul (resp. croissant, décroissant).
Preuve: on suppose d’abord qu’il existe (Mn )n∈N , (Vn )n∈N satisfaisant (i), (ii) et (iii). On remarque que Vn+1 − Vn est Fn -
mesurable. Pour tout n ∈ N, on a donc
E[Xn+1 −Xn | Fn ] = E[Mn+1 −Mn | Fn ] + E[Vn+1 −Vn | Fn ]
= E[Mn+1 |Fn ]−Mn + Vn+1 −Vn = Vn+1 −Vn .
Par conséquent, on a nécessairement M0 = V0 = 0 et pour tout n ∈ N∗ ,
X
Vn = E[Xk −Xk−1 | Fk−1 ] et Mn = Xn −Vn . (B.14)
1≤k≤n

Cela montre l’unicité. Par ailleurs si on définit M et V par (B.14), on vérifie facilement (i), (ii) et (iii). Le reste de la proposition est
élémentaire. 
B.6. MARTINGALES À TEMPS DISCRET. 257

Inégalités fondamentales sur les martingales. On rappelle la définition I.4.3, page 36 du nombre de montées.

Théorème B.6.4 (Inégalité de Doob) Soit (Mn )n∈N une sur-martingale relativement à la filtration (Fn )n∈N Alors, pour tout a, b ∈ R
tels que a < b, on a    
(b−a)E U[[0,n0 ]] (M, [a, b]) ≤ E (Mn0 −a)− (B.15)
où U[[0,n0 ]] (M, [a, b]) désigne le nombre de montées de M : [[0, n0 ]] → R de l’intervalle [a, b] (voir la définition I.4.3, page 36) et où
(·)− désigne la fonction partie négative.

Preuve: on pose τ0 = −1 et pour tout p ∈ N∗ , on définit les variables aléatoires σp et τp récursivement par
 
σp = inf n ∈ ]]τp−1 , n0 ]] : Mn < a et τp = inf n ∈ ]]σp , n0 ]] : Mn > b

avec la convention que inf ∅ = ∞. On voit que U[[0,n0 ]] (M, [a, b]) = inf{p ∈ N : τp < ∞}. Pour simplifier les notations, on pose
U := U[[0,n0 ]] (M, [a, b]). Pour tout p ≤ U , entre les instants σp et τp , M effectue une montée de l’intervalle [a, b]. Par ailleurs, il se
peut que σU +1 ≤ n0 mais, par définition on a τU +1 = ∞. On pose ensuite
X
∀n ∈ [[1, n0 ]], Cn = 1{σp <n≤τp } . (B.16)
p∈N∗
P
Cette somme est en réalité finie car Cn = 1≤p≤U 1{σp <n≤τp } + 1{σU +1 <n≤n0 } . On voit que Cn = 1 si n est dans intervalle de
temps pendant lequel M effectue une montée de [a, b] et Cn = 0 sinon. On pose ensuite
X 
Z0 := 0 et ∀n ∈ [[1, n0 ]], Zn := Ck Mk −Mk−1 .
1≤k≤n

On observe alors que


X X X
Z n0 = (Mk −Mk−1 )1{σp <k≤τp } + (Mk −Mk−1 )1{σU +1 <k≤n0 }
1≤p≤U 1≤k≤n0 1≤k≤n0
X 
= Mτp −Mσp + (Mn0 −MσU +1 )1{σU +1 ≤n0 } . (B.17)
1≤p≤U

On remarque ensuite que si p ∈ [[1, U ]], Mτp −Mσp ≥ b−a. De plus si σU +1 ≤ n0 , MσU +1 < a. On a donc

(Mn0 −MσU +1 )1{σU +1 ≤n0 } ≤ −(Mn0 − a)− .

On déduit donc de (B.17)


Zn0 ≥ (b−a)U − (Mn0 − a)− . (B.18)
On revient à la définition des temps σp et τp : il est facile de montrer par récurrence sur p que

∀p ∈ N∗ , ∀n ∈ [[0, n0 ]], {σp ≤ n} ∈ Fn et {τp ≤ n} ∈ Fn . (B.19)

On remarque que {σp < n ≤ τp } = {σp ≤ n−1} ∩ (Ω\{τp ≤ n−1}) ∈ Fn−1 . Ce fait combiné avec la définition (B.16) implique que
Cn est Fn−1 mesurable. On en déduit que pour tout n ∈ [[1, n0 ]], P-p.s.

E Zn Fn−1 = Zn−1 + E Cn (Mn −Mn−1 ) Fn−1 = Zn−1 + Cn E[Mn−1 |Fn−1 ]−Mn−1 ≤ Zn−1
    

car Cn ≥ 0, et P-p.s. E[Mn−1 |Fn−1 ] ≤ Mn−1 , puisque M est une sur-martingale. On en déduit donc que E[Zn ] ≤ E[Zn−1 ]: la suite
n 7→ E[Zn ] est décroissante et on a E[Zn0 ] ≤ E[Z0 ] = 0, ce qui implique le résultat voulu en prenant l’espérance de (B.18). 

Théorème B.6.5 (Inégalité maximale des sous-martingales positives) Soit (Mn )n∈N une sous-martingale relativement à la filtration
(Fn )n∈N . On suppose également que pour tout n ∈ N, P-p.s. Mn ≥ 0. Alors, pour tout a ∈ R+ et tout n0 ∈ N,
  
a P sup Mn ≥ a ≤ E Mn0 1{sup0≤n≤n Mn ≥a} .
0
0≤n≤n0

Preuve: on définit ensuite les événements suivants

∀n ∈ [[0, n0 ]], Bn = {M0 < a} ∩ {M1 < a} ∩ . . . ∩ {Mn−1 < a} ∩ {Mn ≥ a}.

Il est clair que Bn ∈ Fn . Le lemme B.6.2 (iii) implique P-p.s. que

E Mn0 1Bn |Fn = 1Bn E Mn0 | Fn ≥ 1Bn Mn ≥ a1Bn .


   
258 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

En prenant l’espérance de cette inégalité, obtient


 
∀n ∈ [[0, n0 ]], E Mn0 1Bn ≥ aP(Bn ). (B.20)
S 
P B = 0≤n≤n0 Bn . On remarque que B = sup0≤n≤n0 Mn ≥ a . Comme les Bn sont disjoint-deux-à-deux, on a
On pose
1B = 0≤n≤n0 1Bn , ce qui, combiné avec (B.20), implique
  h X i X  
E Mn0 1{sup0≤n≤n Mn ≥a} ≥ E Mn0 1Bn = E Mn0 1Bn |
0
0≤n≤n0 0≤n≤n0
X  [  
≥ aP(Bn ) = aP Bn = a P sup Mn ≥ a ,
0≤n≤n0
0≤n≤n0 0≤n≤n0

ce qui permet de conclure. 

p 1/p
On déduit de l’inégalité maximale pour les sous-martingales positive, les inégalité L de Doob. On note kXkp := E |X|p

, la
p
norme L sur l’espace (Ω, F , P).

Théorème B.6.6 (Inégalité Lp ) Soit p ∈ ]1, ∞[ . Soit (Mn )n∈N , une martingale relativement à la filtration (Fn )n≥0 . On suppose
p
qu’elle est bornée en norme L , c’est-à-dire que supn∈N E[ |Mn |p ] < ∞. Alors,
p p
E sup |Mn |p ≤ p−1 sup E |Mn |p < ∞ ,
   
(B.21)
n∈N n∈N

p
c’est-à-dire kSkp ≤ p−1
supn≥0 kMn kp , où on a posé S = supn≥0 |Mn |.

Preuve: comme la fonction valeur absolue est convexe, le lemme B.6.2 (ii) implique que (|Mn |)n≥0 est une sous-martingale positive
formée de variables intégrables. On pose Sn = sup0≤m≤n |Mm |, et l’inégalité maximale (théorème B.6.5) entraîne que

∀a ∈ R+ , ∀n ∈ N , a E[1{Sn >a} ] ≤ E[ |Mn |1{Sn >a} ] . (B.22)

Par Fubini-positif, on a
Z ∞ hZ Sn i
a E[1{Sn >a} ] pap−2 da = E pap−1 da = E[Snp ].
0 0
De même, on a Z ∞ h Z Sn i
p
E[ |Mn |1{Sn >a} ] pap−2 da = E |Mn | pap−2 da = p−1
· E[ |Mn |Snp−1 ] .
0 0
Les deux égalités précédentes et (B.22) entraînent que
p
E[Snp ] ≤ E |Mn | Snp−1
 
p−1
.

On note q l’exposant conjugué de p: q = p/(p − 1). Par Hölder et l’inégalité précédente,


p 1 p 1− 1 p
kSn kpp ≤ p−1
kMn kp E[ Snq(p−1) ] q
= p−1
kMn kp E[ Snp ] p
= p−1
kMn kp kSn kp−1
p . (B.23)

p
Comme Sn ≤ |M0 | + . . . + |Mn |, on a kSn kp ≤ kM0 kp + . . . + kMn kp < ∞, et par (B.23), on a kSn kp ≤ p−1 kMn kp . On conclut
par convergence monotone car limn ↑ Sn = S. 

Nous prouvons ensuite une inégalité similaire pour les sur-martingales.

Théorème B.6.7 (Inégalité maximale des sur-martingales) Soit (Mn )n∈N une sur-martingale relativement à la filtration (Fn )n∈N .
Alors, pour tout a ∈ R+ et tout n0 ∈ N,
    
a P sup |Mn | ≥ 3a ≤ 4E |M0 | + 3E |Mn0 | .
0≤n≤n0

Preuve: on pose V0 := 0 et M0∗ := 0 et pour tout n ∈ N∗ ,


X
E Mk −Mk−1 |Fk−1 ] et Mn∗ := Mn −M0 −Vn .

Vn :=
1≤k≤n
B.6. MARTINGALES À TEMPS DISCRET. 259

La proposition B.6.3 montre que (Mn∗ )n∈N est une (Fn )n∈N , que (Vn )n∈N est décroissante et Vn est Fn−1 -mesurable intégrable,
pour tout n ∈ N∗ . Autrement dit la paire (Mn∗ )n∈N , (Vn )n∈N est la décomposition de Doob de la sur-martingale (Mn )n∈N . Comme
Mn = M0 + Mn∗ + Vn et comme (Vn )n∈N est P-p.s. décroissante

sup |Mn | ≤ |M0 | + sup |Mn∗ | + |Vn0 |


0≤n≤n0 0≤n≤n0

On a donc

aP(|M0 | ≥ a) + a P sup |Mn∗ | ≥ a + aP(|Vn0 | ≥ a)


 
a P sup |Mn | ≥ 3a ≤
0≤n≤n0 0≤n≤n0

E |M0 | + a P sup |Mn∗ | ≥ a + E |Vn0 | ,


    
= (B.24)
0≤n≤n0
 
par l’inégalité de Markov: P(|Y | > a) ≤ E |Y | /a, qui est valable pour tout réel a strictement positif et toute v.a. Y intégrable.
Comme M est une martingale, le lemme B.6.2 (iii) implique que P-p.s. E[Mn∗0 ] = 0 car M0∗ = 0, par définition. Comme V est

P-p.s. décroissant négatif, cela implique:

E |Vn0 | = −E[Vn0 ] = −E Mn0 −Mn∗0 −M0 = −E[Mn0 ] + E[M0 ] ≤ E |M0 | + E |Mn0 | .


       
(B.25)

La fonction valeur absolue étant convexe et M ∗ étant une martingale, le lemme B.6.2 (ii) implique que (|Mn∗ |)n∈N est une sous-
martinagle positive. L’inégalité maximale des sous-martingales positives (théorème B.6.5) implique que

a P sup |Mn∗ | ≥ a ≤ E |Mn∗0 | .


  
(B.26)
0≤n≤n0

On remarque ensuite que

E |Mn∗0 |
         
= E |Mn0 −M0 −Vn0 | ≤ E |Mn0 | + E |M0 | + E |Vn0 |
   
≤ 2E |M0 | + 2E |Mn0 | , (B.27)

par (B.25). En combinant (B.24), (B.25), (B.26) et (B.27), on obtient le résultat voulu. 

Convergence des martingales. Nous déduisons des inégalités précédentes les théorèmes classiques de convergence des mar-
1 p
tingales: convergence presque-sûre, en norme L et en norme L .

Théorème B.6.8 (Conv. p.s. des sur/sous-martingales). Soit M = (Mn )n≥0 une sous-martingale ou une sur-martingale relative-
ment à (Fn )n≥0 . On suppose que  
c := sup E |Mn | < ∞ . (B.28)
n∈N

Alors, il existe une v.a. réelle M∞ , qui est F∞ -mesurable et intégrable telle que P-p.s. limn→∞ Mn = M∞ .

Preuve: quitte à considérer −M , on se ramène sans perte de généralité à suppose que M est une sur-martingale. Soient a, b ∈ R tels
que a < b. On rappelle de la définition I.4.3 que U[[0,n]] (M, [a, b]) désigne le nombre de montées de M de l’intervalle [a, b] entre les
instants 0 et n. L’inégalité de Doob (théorème B.6.4) combinée à une inégalité élémentaire et l’hypothèse (B.28), implique implique
que      
∀n ∈ N, (b−a)E U[[0,n]] (M, [a, b]) ≤ E (Mn −a)− ≤ |a| + E |Mn | ≤ |a| + c .
On vérifie que n 7→ U[[0,n]] (M, [a, b]) est croissante et que limn→∞ U[[0,n]] (M, [a, b]) = UN (M, [a, b]) qui est le nombre total de
montées de M de l’intervalle [a, b]. On a donc
  |a| + c
∀a, b ∈ R : a < b, E UN (M, [a, b]) ≤ <∞.
b−a
On pose alors \ 
Ω0 = UN (M, [a, b]) < ∞ . (B.29)
a,b∈Q
a<b

Il est clair que Ω0 ∈ F et (B.29) implique que P(Ω0 ) = 1. En raisonnant comme dans le théorème I.4.4, on voit que pour tout ω ∈ Ω0 ,
lim supn Mn (ω) = lim inf n Mn (ω). On pose donc M∞ ∗
= lim supn Mn . Alors
 M∞ est F∞ -mesurable et P-p.s.
 limn Mn = M∞ . A
priori M∞ est à valeurs dans [−∞, ∞] mais par Fatou on a E |M∞ | = E lim inf n |Mn | ≤ lim inf n E |Mn | ≤ c. Quitte à modifier
M∞ sur un ensemble P-négligeable, on peut supposer cette v.a. à valeurs réelles. 
260 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

1
On examine ensuite la convergence en norme L des martingales. Pour cela on rappelle la définition B.4.11, page 249, d’une
famille de v.a. uniformément intégrables: soit (Xi )i∈I , une famille de v.a. réelles intégrables. La famille de variables (Xi )i∈I est
uniformément intégrable si  
lim sup E |Xi |1{|Xi |≥a} = 0 . (B.30)
a→∞ i∈I

On rappelle le point (iv) su lemme B.4.13, page 249: soit (Xi )i∈I une famille de v.a. réelles. Soit g : R+R+ → R+ telle que
limx→∞ g(x)/x = ∞. Alors  
sup E g(Xi ) < ∞ =⇒ (Xi )i∈I est uniformément intégrable. (B.31)
i∈I

On rappelle également le théorème B.4.15, page 250, qui montre que l’uniforme intégrabilité combinée à une convergence en probabilité
1
implique est équivalent à une convergence L . Plus précisément, soit (Xn )n∈N une suite de v.a. réelles. Alors,
 
(Xn )n∈N uniformément intégrable et lim Xn = X∞ en probabilité ⇐⇒ lim E |Xn −X∞ | = 0 (B.32)
n→∞ n→∞

Lemme B.6.9 Soit X, une v.a. réelle intégrable. Soit Gi , i ∈ I, une famille de sous-tribus de F . Pour tout i ∈ I, on pose
Xi = E[X|Gi ]. Alors, la famille de variables (Xi )i∈I est uniformément intégrable.

Preuve: on fixe a > 0. Par Jensen, |Xi | = |E[X|Gi ]| ≤ E[ |X| |Gi ] et donc
     
E |Xi |1{|Xi |≥a} ≤ E E[ |X| |Gi ].1{E[ |X| |Gi ]≥a} = E |X|1{E[ |X| |Gi ]≥a} , (B.33)

car {E[ |X| |Gi ] ≥ a} ∈ Gi . On fixe b > 0. On remarque que


     
E |X|1{|X|≤b ; E[ |X| |Gi ]≥a} ≤ bE 1{|X|≤b ; E[ |X| |Gi ]≥a} ≤ bE 1{E[ |X| |Gi ]≥a}
 b   b
≤ bP E[ |X| |Gi ] ≥ a ≤ a E E[ |X| |Gi ] = a E[ |X| ].
   
On remarque ensuite que E |X|1{|X|>b ; E[ |X| |Gi ]≥a} ≤ E |X|1{|X|>b} , et on obtient finalement pour tous a, b > 0,
     
E |X|1{E[ |X| |Gi ]≥a} = E |X|1{|X|≤b ; E[ |X| |Gi ]≥a} + E |X|1{|X|>b ; E[ |X| |Gi ]≥a}
b  
≤ a E[ |X| ] + E |X|1{|X|>b} .

On choisit b = a dans l’inégalité précédente qui, combinée avec (B.33), donne pour tout a > 0,
  1  
sup E |Xi |1{|Xi |≥a} ≤ √a E[ |X| ] + E |X|1{|X|>√a} − −−→ 0,
a→∞
i∈I

car lima→∞ E[ |X|1{|X|>√a} ] = 0, par convergence dominée. 

1
Le théorème de convergence L des martingales s’énonce alors comme suit.

Théorème B.6.10 (Convergence L1 ) Soit (Mn )n∈N , une (Fn )n∈N -martingale. Alors, les conditions suivantes sont équivalentes.
1
(i) La martingale (Mn )n∈N converge dans L .
(ii) On a supn∈N E[ |Mn | ] < ∞ et
P-p.s. ∀n ∈ N , E[M∞ |Fn ] = Mn ,
où M∞ désigne la limite presque sûre de (Mn )n∈N (dont l’existence est garantie par le théorème B.6.8).
(iii) Il existe une v.a. réelle intégrable X telle que

P-p.s. ∀n ∈ N , E[X|Fn ] = Mn .

(iv) La famille de variables (Mn )∈N est uniformément intégrable.

1 1
Preuve: montrons (i) ⇒ (ii). On note M∞ la limite dans L de (Mn )n∈N . Puisqu’il y a convergence dans L , il y a convergence des
1
normes L : limn E[ |Mn | ] = E[ |M∞ | ], ce qui implique que supn∈N E[ |Mn | ] < ∞. Par le théorème B.6.8, (Mn )n∈N converge p.s. et
1 1
comme de toute suite convergente pour la norme L , on extrait une suite convergeant p.s., il est clair que la limite dans L de (Mn )n∈N
est la même que sa limite presque sûre. On a donc limn Mn = M∞ p.s. et limn E[ |Mn −M∞ | ] = 0. Le lemme B.6.2 (iii) implique
ensuite que pour tous m, n ∈ N, on a E[Mn+m |Fn ] = Mn . Cela entraîne que
   
E |E[M∞ |Fn ]−Mn | = E |E[M∞ −Mn+m |Fn ] |
B.6. MARTINGALES À TEMPS DISCRET. 261

 

E E[ |M∞ −Mn+m | |Fn ] = E[ |M∞ −Mn+m | ].
 
Lorsque m tend vers l’infini, on a E |E[M∞ |Fn ]−Mn | = 0, ce qui montre (ii).
L’implication (ii) ⇒ (iii) est immédiate. L’implication (iii) ⇒ (iv) est une conséquence directe du lemme B.6.9. Montrons que
(iv) ⇒ (i): la propriété d’uniforme intégrabilité implique que pour un certain a > 0, il existe une constante c, positive et finie telle
que pour tout n ∈ N, on ait E[ |Mn |1{|Mn |≥a} ] ≤ c. Donc pour tout n ∈ N,

E[ |Mn | ] = E[ |Mn |1{|Mn |<a} ] + E[ |Mn |1{|Mn |≥a} ] ≤ a + c.



On en déduit donc que supn∈N E[ |Mn | < ∞. Par le théorème (B.6.8), la suite (Mn )n∈N converge presque sûrement, donc en
1
probabilité, mais comme elle est uniformément intégrable, le lemme B.6.9 implique qu’elle converge dans L également, ce qui montre
(i). 
1
Nous prouvons ensuite une conséquence utile du théorème de convergence L des martingales.

Théorème B.6.11 Soit X, une v.a. intégrable. Soit (Fn )n∈N , une filtration sur (Ω, F ). On rappelle que F∞ = σ(Fn ; n ∈ N). Alors
1
E[X |Fn ] −
−−→ E[X |F∞ ] p.s. et dans L .
n→∞

Preuve: on pose Mn = E[X|Fn ], n ∈ N. C’est une martingale uniformément intégrable: par le théorème B.6.10, elle converge p.s. et
dans L vers une variable notée M∞ . Il faut donc montrer que P-p.s. M∞ = E[X|F∞ ]. Pour cela, on fixe p ∈ N et A ∈ Fp . Pour tout
1

n ∈ N, on a d’abord
   
E[Mn 1A ]−E[M∞ 1A ] = E[(Mn −M∞ )1A ] ≤ E |Mn −M∞ |1A ≤ E |Mn −M∞ | .

La convergence L des Mn vers M∞ implique que E[Mn 1A ] → E[M∞ 1A ]. Or pour tout n ≥ p, comme Fp ⊂ Fn , on a E[Mn 1A ] =
1

E[E[X|Fn ]1A ] = E[X1A ]. Cela prouve donc que

∀p ∈ N , ∀A ∈ Fp , E[X1A ] = E[M∞ 1A ] . (B.34)

On pose alors [
L := A ∈ F∞ : E[X1A ] = E[M∞ 1A ] P := Fp .

et
p∈N

Il est facile de voir que P est un pi-système. On a clairement σ(P) = F∞ et par le théorème de convergence dominée on vérifie
aisément que L est une classe monotone. Or (B.34) implique que cP ⊂ L . Le théorème A.1.10 de la classe monotone, page 204,
montre que σ(P) ⊂ L , ce qui implique que L = F∞ . Autrement dit, pour tout A ∈ F∞ , E[M∞ 1A ] = E[X1A ]. Comme M∞ est
F∞ -mesurable, on en déduit que p.s. X∞ = E[X|F∞ ]. 
p
Supposons que (Mn )n∈N soit une martingale bornée en norme L : supn∈N E |Mn |p < ∞. Si p > 1, alors (B.31) implique que
 
1
(Mn )n∈N est uniformément intégrable et celle martingale converge dans L et presque sûrement par le théorème précédent. On a en
p
fait une converence dans L , comme le montre le théorème suivant.
p
Théorème B.6.12 (Convergence L des martingales) Soit p ∈ ]1, ∞[ . Soit (Mn )n≥0 , une martingale relativement à la filtration
(Fn )n≥0 . On suppose que
sup E[ |Mn |p ] < ∞ .
n∈N
p
Alors, il existe une v.a. M∞ dans L telle que

(i) P-p.s. limn Mn = M∞ presque sûrement;


p
(ii) (Mn )n≥0 converge vers M∞ dans L : limn E[ |M∞ −Mn |p ] = 0;
(iii) P-p.s. E[M∞ | Fn ] = Mn , n ∈ N.

Preuve: par Jensen, (E[ |Mn | ])p ≤ E[ |Mn |p ], donc supn≥0 E[ |Mn | ] < ∞, et le théorème B.6.8 de convergence p.s. des martingales
implique que (Mn )n≥0 converge p.s. On note M∞ sa limite p.s. et on pose S = supn≥0 |Mn |. On a donc |M∞ | ≤ S. Pour
p
tout n ∈ N, on a donc |M∞ − Mn | ≤ 2S, et donc |M∞ − Mn |p ≤ 2p S p . L’inégalité L des sous-martingales positives (théorème
p p
B.6.6) montre que E[S ] < ∞, or limn |M∞ − Mn | = 0 p.s. Par convergence dominée on a donc (ii). Enfin, par Jensen, on a
1
(E[ |M∞ −Mn | ])p ≤ E[ |M∞ −Mn |p ], donc (Mn )n∈N converge vers M∞ dans L et le théorème B.6.10 entraîne (iii). 
262 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.

Martingales rétrogrades. On introduit la notion de sur-martingales rétrograde (ou inverse) comme suit.
Définition B.6.13 (Sur-martingales rétrogrades) On introduit les notions suivantes.
• Soit Fn , n ∈ N, une suite de sous-tribus de l’espace mesurable (Ω, F ). On dit que (Fn )n≥0 est une filtration rétrograde ssi
Fn+1 ⊂ Fn , pour tout n ≥ 0. On définit alors \
F∞ := Fn .
n∈N

• Soit (Mn )n∈N , une suite de v.a. réelles. C’est une martingale rétrograde (resp. sur-martingale rétrograde) relativement à la filtra-
tion rétrograde(Fn )n≥0 si pour tout n ∈ N, Mn est Fn -mesurable, intégrable et E[Mn |Fn+1 ] = Mn+1 (resp. E[Mn |Fn+1 ] ≤
Mn+1 ). 

On notera bien la différence avec la définition de martingale: les tribus Fn d’une filtration rétrograde décroissent, les variables Mn
sont donc "de moins en moins aléatoires". Il est donc normal de s’attendre à ce que les martingales rétrogrades se comportent plus
régulièrement. On remarque par exemple que (Mn )n≥0 est une martingale rétrograde ssi
∀n ∈ N , E[M0 |Fn ] = Mn . (B.35)
Le lemme suivant fait le lien entre les notions de martingale et martingale inverse. Sa preuve est immédiate.

Lemme B.6.14 Soit (Fn )n≥0 , une filtration rétrograde et soit (Mn )n∈N , une (Fn )n≥0 -sur-martingale (resp. martingale) Pour tout
n0 ∈ N, on pose Mnn0 = M(n0 −n)+ et Fnn0 = F(n0 −n)+ , c’est-à-dire
(Mnn0 )n∈N = Mn0 , Mn0 −1 , . . . , M2 , M1 , M0 , M0 , M0 , . . .

et
(Fn )n∈N = Fn0 , Fn0 −1 , . . . , F2 , F1 , F0 , F0 , F0 , . . .
n0 

Alors (Fnn0 )n∈N est une filtration, au sens usuel, et (Mnn0 )n∈N est une sur-martingale (resp. martingale) relativement à (Fnn0 )n∈N ,
au sens usuel.

ThéorèmeT B.6.15 (Convergence des sur-martingales rétrogrades) Soit (Fn )n≥0 , une filtration rétrograde de (Ω, F ). On pose
F∞ = n∈N Fn . Soit (Mn )n∈N une sur-martingale rétrograde relativement à (Fn )n∈N . On obseve que cela implique que n 7→
E[Mn ] croît et on suppose que
sup E[Mn ] < ∞ . (B.36)
n∈N

Alors, il existe une v.a. réelle M∞ intégrable F∞ -mesurable, intégrable telle que limn Mn = M∞ p.s. et dans L et telle que
1

∀n ∈ N, P-p.s. E[Mn |F∞ ] ≤ M∞ .


Lorsque M est une martingale rétrograde, la suite n 7→ E[Mn ] et (B.36) est toujours vérifiée de plus on a pour tout n ∈ N, P-
p.s. E[Mn |F∞ ] = M∞ .

Preuve: on commence par prouver le théorème dans le cas ou M est une martingale rétrograde. Soit n0 ∈ N. Soient a, b ∈ R, tels
que a < b. On reprend les notations du lemme B.6.14. Un simple dessin montre que U[[0,n0 ]] (−M, [−b, −a]) = U[[0,n0 ]] (M n0 , [a, b]).
L’inégalité de Doob (théorème B.6.4) appliqué à la martingale usuelle M n0 (lemme B.6.14) implique que
(b − a)E U[[0,n0 ]] (−M, [−b, −a])] = (b − a)E U[[0,n0 ]] (M n0 , [a, b])]
 

≤ E (Mnn00 − a)− = E (M0 − a)− ≤ |a| + E |M0 | .


     

On raisonne ensuite sur −M comme dans la preuve du théorème B.6.8 de convergence presque sûre des martingales pour montrer
qu’il existe une v.a. M∞ telle que P-p.s. limn Mn= M∞ . La remarque (B.35) combinée au lemme B.6.9 implique que (Mn )n∈N est
TFn -mesurable et donc M∞
uniformément intégrable et par (B.32) on a limn E |M∞−Mn | = 0. Pour tout n ∈ N, et tout p ≥ n, Mp est
est Fn -mesurable. Donc pour tout a ∈ R, {M∞ ≤ a} ∈ Fn , pour tout n ∈ N, et donc que {M∞ ≤ a} ∈ n∈N Fn = F∞ . Donc M∞
est F∞ -mesurable. Soit A ∈ F∞ . Pour tous m, n ∈ N, comme A ∈ Fn+m comme E[Mn |Fn+m ] = Mm+n (conséquence immédiate
1
de (B.35)), on a E[Mn 1A ] = E[Mm+n 1A ]. Comme les Mn convergent dans L vers M∞ , limm→∞ E[Mm+n 1A ] = E[M∞ 1A ] et
donc E[Mn 1A ] = E[M∞ 1A ]. On en déduit donc que P-p.s. E[Mn |F∞ ] = M∞ , ce qui termine la preuve du théorème dans le cas
des martingales rétrogrades.
Supposons que M soit une sur-martingale rétrograde. Pour tout n P ∈ N, on ∆n := Mn+1 − E[Mn |Fn+1 ]. On constate que
∆n est Fn+1 mesurable et positive. Pour tout n ∈ N∗ , on pose Vn := p≥n ∆p , qui est a priori à valeurs dans [0, ∞] et qui est
Fn+1 -mesurable et décroissante en n. On observe que
X X
E[|Vn |] = E[Vn ] = E[∆p ] = E[Mp ]−E[Mp−1 ] = sup E[Mp ]−E[Mn ] < ∞ .
p≥0
p≥n p≥n
B.6. MARTINGALES À TEMPS DISCRET. 263

Cela implique que chaque Vn est une v.a. intégrable et comme la suite n 7→ E[Mn ] est croissante, on en déduit que limn E[Vn ] = 0.
Comme les Vn décroissent cela montre que limn Vn = 0 p.s. et dans L . On vérifie ensuite immediatement que Mn∗ = Mn +Vn est une
1

(Fn )n∈N -martingale rétrograde. En lui appliquant le théorème prouvé dans le cas des martingales, on voit que limn Mn = limn Mn∗ =:
M∞ p.s. et dans L , qui est une v.a. F∞ -mesurable intégrable et pour tout n ∈ N, on a P-p.s.
1

M∞ = E[Mn∗ |F∞ ] = E[Mn |F∞ ] + E[Vn |F∞ ] ≥ E[Mn |F∞ ] ,

ce qui termine la preuve. 


264 APPENDIX B. BASES DE LA THÉORIE DES PROBABILITÉS.
Bibliography

[1] B ERTOIN , J. Lévy Processes. Cambridge Univ. Press, 1996.

[2] D ELLACHERIE , C., M EYER , P., AND M AISONNEUVE , B. Probabilités et potentiel: Chapitres I–IV.
Actualités scientifiques et industrielles 1372. Hermann, 1980.

[3] D ELLACHERIE , C., M EYER , P., AND M AISONNEUVE , B. Probabilités et potentiel: Chapitres V à VIII.
Actualités scientifiques et industrielles 1385. Hermann, 1980.

[4] D ELLACHERIE , C., M EYER , P., AND M AISONNEUVE , B. Probabilités et potentiel: Chapitres XII–XVI.
Actualités scientifiques et industrielles 1417. Hermann, 1980.

[5] DYNKIN , E., G REENBERG , V., FABIUS , J., M AITRA , A., AND M AJONE , G. Markov Processes: 2
Volumes. Grundlehren der mathematischen Wissenschaften. Springer Berlin Heidelberg, 1965.

[6] E THIER , S., AND K URTZ , T. Markov Processes: Characterization and Convergence. Wiley, 1986.

[7] G ETOOR , P., AND B LUMENTHAL , R. Markov Processes and Potential Theory. ISSN. Elsevier Science,
2011.

[8] R EVUZ , D., AND YOR , M. Continuous Martingales and Brownian Motion, third edition ed., vol. 293.
Springer, 1999.

[9] ROGERS , L., AND W ILLIAMS , D. Diffusions, Markov Processes, and Martingales: Volume 1, Founda-
tions. Cambridge Mathematical Library. Cambridge University Press, 2000.

265
Index

LE (Ω, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 246 Daniell (intégrale) . . . . . . . . . . . . . . . . . . . . . . . . . . . , 219


µ
bX : fonction caractéristique de X . . . . . . . . . . . . . , 238 Daniell (théorème de Daniell-Stone) . . . . . . . . . . . , 219
cov(X, Y ): covariance de X et Y . . . . . . . . . . . . , 239 Daniell-Stone (théorème) . . . . . . . . . . . . . . . . . . . . , 219
LE (Ω, F , P) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 248 Diagonal (espace mesurable) . . . . . . . . . . . . . . . . . . . , 5
ΓX : mat. de cov. de X . . . . . . . . . . . . . . . . . . . . . . . , 239 Dini (lemme) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 221
A : algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 214 Doob (décomposition) . . . . . . . . . . . . . . . . . . . . . . . , 256
E (µ): ensembles mesurables . . . . . . . . . . . . . . . . . , 213 Dynkin: th. d’unicité du prolongement . . . . . . . . , 205
N (m, σ 2 ): loi normale . . . . . . . . . . . . . . . . . . . . . . , 243
S ([a, b]): subdivisions de [a, b] . . . . . . . . . . . . . . . , 195 Ensembles mesurables . . . . . . . . . . . . . . . . . . . . . . . , 213
µ∗ : mesure extérieure . . . . . . . . . . . . . . . . . . . . . . . . , 212 Espérance conditionnelle (définition), 251
µX : loi de X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 238 Espace mesurable diagonal . . . . . . . . . . . . . . . . . . . . . , 5
Espace mesurable séparé . . . . . . . . . . . . . . . . . . . , 5, 222
Additive (fonction) . . . . . . . . . . . . . . . . . . . . . . . . . . , 214 Espace mesurable séparable . . . . . . . . . . . . . . . . , 5, 222
Algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 214 Espaces mesurables isomorphes . . . . . . . . . . . . , 5, 222
Approximation Binomiale-Poisson . . . . . . . . . . . . , 125 Exponentielle (formule) . . . . . . . . . . . . . . . . . , 152, 154
Extension: théorème de Caratheodory . . . . . . . . . , 216
Binomiale-Poisson (approximation) . . . . . . . . . . . , 125
Boréliens d’un sous-ensemble . . . . . . . . . . . . . . . . , 204 Fermée (martingale) . . . . . . . . . . . . . . . . . . . . . . . . . , 260
Borel (théorème d’isomorphisme) . . . . . . . . . . . . . , 223 Filtration inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 262
Fonction additive . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 214
Caractérisation des nuages de Poisson . . . . . . . . . , 152 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . , 238
Caractéristique (fonction) . . . . . . . . . . . . . . . . . . . . , 238 Fonction sigma-additive . . . . . . . . . . . . . . . . . . . . . ., 214
Caratheodory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 216 Formule de Palm . . . . . . . . . . . . . . . . . . . . . . . , 149, 150
Changement de variable abstrait . . . . . . . . . . . . . . . . . , 7 Formule exponentielle . . . . . . . . . . . . . . . . . . . , 152, 154
Classe de Stone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 219
Classe monotone: version fonctionnelle . . . . . . . , 207 Gaussienne (loi, dim. 1) . . . . . . . . . . . . . . . . . . . . . . , 243
Complétion d’un espace mesuré . . . . . . . . . . . . . . , 209 Gaussiens (vecteurs) . . . . . . . . . . . . . . . . . . . . . . . . . , 244
Construction des nuages Poissonniens . . . . . . . . . , 146 Indépendance d’événements . . . . . . . . . . . . . . . . . . , 240
p
Convergence L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 249 Indépendance de classe d’événements . . . . . . . . . , 240
p
Convergence L des martingales, 261 Indépendance de variables aléatoires . . . . . . . . . . , 242
Convergence des mgs inverses . . . . . . . . . . . . . . . . , 262 Indépendance par paquets . . . . . . . . . . . . . . . . . . . . , 241
Convergence en probabilité . . . . . . . . . . . . . . . . . . . , 246 Intégrabilité uniforme . . . . . . . . . . . . . . . . . . . . . . . . , 249
Convergence en probabilité: métrisation . . . . . . . , 248 Intégrale de Daniell . . . . . . . . . . . . . . . . . . . . . . . . . , 219
Convergence p.s. des sur/sous-martingales . . . . . , 259 Isomorphisme (théorème de Borel) . . . . . . . . . . . . , 223
Convergence presque sûre . . . . . . . . . . . . . . . . . . . . , 246 Isomorphisme d’espaces mesurables . . . . . . . . , 5, 222
Covariance (matrice) . . . . . . . . . . . . . . . . . . . . . . . . , 239
Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 239 Jensen conditionnelle, 255

Décomposition de Doob . . . . . . . . . . . . . . . . . . . . . , 256 Lemme de Dini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 221

266
INDEX 267

Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . , 238 Théorème d’isomorphisme de Borel . . . . . . . . . . . , 223


Loi Gaussienne (dim. 1) . . . . . . . . . . . . . . . . . . . . . , 243 Théorème d’Ulam . . . . . . . . . . . . . . . . . . . . . . . . . . . , 211
Loi normale (dim. 1) . . . . . . . . . . . . . . . . . . . . . . . . , 243 Théorème d’unicité du prolongement des mesures . . ,
205
Métrisation de la conv. en probabilité . . . . . . . . . . , 248 Théorème de Caratheodory . . . . . . . . . . . . . . . . . . . , 216
Martigales inverses (conv.) . . . . . . . . . . . . . . . . . . . , 262 Théorème de classe monotone fonctionel . . . . . . , 207
Martingale fermée . . . . . . . . . . . . . . . . . . . . . . . . . . . , 260 Théorème de Daniell-Stone . . . . . . . . . . . . . . . . . . , 219
Martingale régulière . . . . . . . . . . . . . . . . . . . . . . . . . , 260 Théorème de Riesz, formes positives . . . . . . . . . . , 221
Matrice de covariance . . . . . . . . . . . . . . . . . . . . . . . , 239 Théorème de transfert . . . . . . . . . . . . . . . . . . . . . . . . . . , 7
Mesurable (espace séparé) . . . . . . . . . . . . . . . . . , 5, 222 Topologie relative . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 204
Mesurable (espace séparable) . . . . . . . . . . . . . . , 5, 222 Transfert (théorème de) . . . . . . . . . . . . . . . . . . . . . . . . , 7
Mesurables (ensembles) . . . . . . . . . . . . . . . . . . . . . . , 213 Tribu produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 205
Mesurables (espaces isomorphes) . . . . . . . . . . . , 5, 222 Tribu trace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 204
Mesure extérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . , 212
Mesure image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 7 Ulam (théorème) . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 211
Unicité du prolongement des mesures . . . . . . . . . , 205
Normale (loi, dim. 1) . . . . . . . . . . . . . . . . . . . . . . . . , 243 Uniforme intégrabilité . . . . . . . . . . . . . . . . . . . . . . . , 249
Nuages de Poisson (caractérisation) . . . . . . . . . . . , 152
Nuages Poissonnien . . . . . . . . . . . . . . . . . . . . . . . . . , 142 Variation bornée (fonction) . . . . . . . . . . . . . . . . . . . , 195
Nuages Poissonniens: construction . . . . . . . . . . . . , 146 Variations positive et négative (fonction) . . . . . . . , 195
Vecteur Gaussien: densité . . . . . . . . . . . . . . . . . . . . , 245
Palm (formule de) . . . . . . . . . . . . . . . . . . . . . . , 149, 150 Vecteur Gaussien: fonction caractéristique . . . . . , 245
Paradoxe de l’inspection . . . . . . . . . . . . . . . . . . . . . , 173 Vecteurs Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . , 244
Pas d’une subdivision . . . . . . . . . . . . . . . . . . . . . . . . , 195
Poisson (processus homogènes) . . . . . . . . . . . . . . . , 131
Poisson: approximation Binomiale-Poisson . . . . , 125
Poissonnien (nuage) . . . . . . . . . . . . . . . . . . . . . . . . . , 142
Presque sûre (convergence) . . . . . . . . . . . . . . . . . . . , 246
Probabilité (convergence en) . . . . . . . . . . . . . . . . . , 246
Probabilité (métrisation de la convergence en) . . , 248
Processus de Poisson homogènes . . . . . . . . . . . . . , 131
Produit (tribu) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 205
Projections canoniques . . . . . . . . . . . . . . . . . . . . . . . , 206
Prolongement (unicité pour les mesures) . . . . . . . , 205

Régulière (martingale) . . . . . . . . . . . . . . . . . . . . . . . , 260


rétrogrades (martingales) . . . . . . . . . . . . . . . . . . . . . , 262
Rectangles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 205
Riesz (formes positives) . . . . . . . . . . . . . . . . . . . . . . , 221

Séparé (espace mesurable) . . . . . . . . . . . . . . . . . , 5, 222


Séparable (espace mesurable) . . . . . . . . . . . . . . , 5, 222
Sigma additive (fonction) . . . . . . . . . . . . . . . . . . . . , 214
Statistique d’ordre et Poisson homogène . . . . . . . , 173
Stone (classe de fonctions) . . . . . . . . . . . . . . . . . . . , 219
Stone (théorème de Daniell-Stone) . . . . . . . . . . . . , 219
Subdivision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . , 195

Vous aimerez peut-être aussi