Académique Documents
Professionnel Documents
Culture Documents
Moulay Abdelkader
25 janvier 2023
Table des matières
1 Rappels 3
2 Espérance Conditionnelle 4
2.1 Probabilité Conditionnelle(Cours 1) . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Existence de la probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . 6
2.3 Espérance Conditionnelle (Cas Général) (Cours 2) . . . . . . . . . . . . . . . . . 6
2.4 Propriétés de L'espérance Conditionnelle . . . . . . . . . . . . . . . . . . . . . . 8
2.5 Conditionnement à une variable aléatoire (Cours 3) . . . . . . . . . . . . . . . . 11
2.5.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.5.2 Cas absolument continu . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1
Introduction
La théorie des martingales est l'un des outils les plus puissants de la théorie
moderne des probabilités. Le nom martingale est synonime de jeu équitable, c'est-
à-dire d'un jeu où le gain quel'on peut espérer faire en tout temps ultérieur est égal
à la somme gagnée au moment présent. En probabilités, les martingales, ainsi que
leurs variantes les sous-martingales et les surmartingales, jouissent de nombreuses
propriétés qui les rendent très utiles dans l'étude de processus stochastiques plus
généraux.
Ce cours est destiné à des étudiants de la première année master ayant suivi un
cours de base de mesure et intégration et une connaissance préalable sur la théorie
du calcul des probabilités avancée. Le premier chapitre traite de façon détaillée la
notion de l'espérance conditionnelle (dénition, propriétés ...). Le deuxième cha-
pitre fait l'objet de martingales à temps discret (dénition, propriétés, inégalité,
décomposition de Doob, et convergence). Une série des exercices est proposée à
la n du polycopie.
2
Chapitre 1
Rappels
! !
[ [ X
! P An ∩ B P (An ∩ B) P(An ∩ B)
[ n n n
P An |B = = =
n
P(B) P(B) P(B)
X P(An ∩ B) X
= = P(An |B) J
n
P(B) n
4
P(A ∩ B) = P(A|B)P(B) = P(B|A)P(A). Alors on peut généraliser pour une
famille d'évènements on obtient par récurrence :
n
!
\
P Ai = P(A1 ) × P(A2 |A1 ) × P(A3 |A2 ∩ A1 ) × ... × P(An |A1 ∩ ... ∩ An−1 ).
i=1
5
Z Z
Démonstration : D'abord P(Ω|G)dP = P(B ∩ Ω) = P(B) = dP, pour
B B
tout B ∈ G ; alors P(Ω|G) = 1 .p.s.
Soit B ∈ G , !
Z X XZ X [
P(An |G)dP = P(An |G)dP = P(An ∩ B) = P ( An ) ∩ B
B n n B n n
Z !
[
= P An |G
n n
!
[ X
d'où P An |G = P(An |G) J
n n
Proposition 2.1.3. Si G est une sous-tribu de F et C ∈ F , pour tout A ∈ G ,
alors P(A ∩ C|G = P(C|G)1A ) . p.s.
Z En eet, Z
P(A∩C|G)dP = P(A∩B ∩C), d'autre part 1AP(C|G)dP = P(A∩B ∩C) J
B B
Théorème 2.3.1. (et Dénition) Soit X une variable aléatoire intégrable sur
(Ω, F, P) et G une sous-tribu de F . Alors il existe une unique (p.s) variable
aléatoire, appelée Espérance conditionnelle de X sachant G notée E(X|G),
telle que
6
i) E(X|G) est G -mesurable
Z
;
Z
ii) pour tout B ∈ G , E(X|G)dP = XdP.
B B
La condition ii) s'écrit encore :
E(X 1B ) = E (E(X|G)1B ) , pourtout B ∈ G.
Démonstration : L'unicité : Si Y et Y 0 sont deux versions de E(X|G), alors
pour tout B ∈ G Z Z
Y dP = Y 0 dP
B B
Posons A = {Y − Y ≥ ε}, pour ε > 0. Alors
0
Z Z Z
0
0= Y dP − Y dP = (Y − Y 0 )dP ≥ εP(A) = εP(Y − Y 0 ≥ ε)
A A A
Comme c'est vrai pour tout ε, on a Y ≤ Y 0 p.s. En inter changeant les rôles de
Y et Y 0 , on obtient l'inégalité inverse, d'où on déduit l'égalité presque sûre.
En eet, La propriété est évidente pour une fonction indicatrice, puis nous
passons aux fonctions étagés G -mesurable puis au variables positives et enn aux
variables G -mesurables par la démarche usuelle. J
E(E(X|G)Y ) = E(E(X|G)1{E(X|G)<0} ) ≤ 0
D'autre part
E(XY ) = E(X 1{E(X|G)<0} ) ≥ 0
Ces deux expressions sont égales, elles sont donc toutes les deux nulles, ce
qui implique E(X|G)1{E(X|G)<0} = 0 p.s et par conséquent E(X|G) ≥ 0. J
4. Monotonie : Si X ≤ Y, alors
E (X|G) ≤ E (Y |G)
E (X|G) = E(X)
En eet,
Si B ∈ G , 1B et X sont indépendantes et donc pour tout B ∈ G ,
Z Z Z
E(X|G)dP = XdP = E(X)P(B) = E(X)dP.
B B B
8
6. Si X est G -mesurable, alors
E (X|G) = X
En particulier E(1|G) = 1.
7. Si Z est G -mesurable, alors
E (XZ|G) = ZE (X|G)
En eet,
Soit G1 ⊂ G2 . La variable E(X|G1 ) est G2 -mesurable si bien que
E(Y E [E(X|G2 )|G1 ]) = E(E [E(Y X|G2 )|G1 ]) = E[E(Y X|G2 ) = E(Y X)
E (φ(X)|G) ≥ φ (E (X|G)))
En eet,
Comme φ est convexe alors pour tout a ∈ R il existe λa tel que pour tout
x,
φ(x) ≥ φ(a) + λa (x − a)
Posons : a = E(X|G) et x = X on a
E (φ(X)|G) ≥ φ (E (X|G))). J
9
10. Théorème de convergence monotone conditionnel : si Xn ≥ 0
est une suite croissante de variables aléatoires réelles qui converge presque
sûrement vers X , alors
En eet,
On pose Y = lim E[Xn |G] = lim sup E[Xn |G] (d'après la croissance) qui est
G -mesurable. On a pour tout B ∈ G
E[Y 1B ] = E[limn E[Xn |G]1B ] = limn E[E[Xn |G]1B ] par convergence monotone
= limn E[Xn 1B ]
En eet, Exercice.
pour tous A ∈ G1 , B ∈ G2
10
2.5 Conditionnement à une variable aléatoire (Cours 3)
Dénition 2.5.1. Soit Y une variable aléatoire. Si X est une v.a.r. positive
ou intégrable, on dénit l'espérance conditionnelle de X sachant Y comme l'es-
pérance conditionnelle de X sachant la tribu engendrée par Y . On note alors
E[X|Y ] = E[X|σ(Y )].
Proposition 2.5.1. Une variable aléatoire Y : Ω −→ R est σ(X)-mesurable si
et seulement si il existe une fonction f : R −→ R borélienne telle que Y = f (X).
Démonstration . Exercice.
Proposition 2.5.2. Si X et Y sont des variables aléatoires, alors E(X|Y ) =
ϕ(Y ), où ϕ est une fonction borélienne, si et seulement si
E[Xg(Y )] = E[ϕ(Y )g(Y )]
pour toute fonction borélienne g , en particulier,
E[X 1(Y ∈B) ] = E[ϕ(Y )1(Y ∈B) ]
où B est un borélien.
Démonstration : Toute v.a σ(Y )-mesurable s'écrit g(Y ) avec g borélienne
(Proposition(2.5.1)), d'où le résultat par la dénition de l'espérance conditionnelle.J
Proposition 2.5.4. Soit X, Y deux variables aléatoires telles que le couple (X, Y )
admette une densité fX,Y et soit g : R −→ R une fonction borélienne positive ou
PY -intégrable. Alors, pour PX -presque tout x ∈ R,
R
RRg(y)fX,Y (x, y)dy
E(g(Y )|X = x) = .
R fX,Y (x, y)dy
Exemple 2.5.2. Pour des variables aléatoires continues Soient X et Y deux v.a
indépendantes de même loi γ(1, 1), on sait que T = X + Y suit la loi γ(2, 1).
Calculons l'espérance conditionnelle de X sachant T . On cherche ϕ telle que, pour
toute g borélienne bornée, on ait
Or
Z Z Z Z t
−(x+y)
E[g(T )X] = g(x + y)xe dxdy = g(t)e−t ududt
R2+ ZR+ 0
= ϕ(t)g(t)te−t dt
R+
= E[g(t)ϕ(t)].
Z t
1
où ϕ(t) = udu = t/2, donc E(X|T ) = T /2 p.s.
t 0
12
Chapitre 3
Martingales à temps Discret
Dénition 3.1.2. Temps d'arrêt : Soit (Fn )n≥0 une ltration de F Un temps
d'arrêt relatif à (Fn )n≥0 est une variable aléatoire T à valeurs dans N vériant
(T ≤ n) ∈ Fn pour tout n ∈ N.
Il est immédiat que l'on pourrait dénir un temps d'arrêt T comme étant une
variable aléatoire à valeurs dans N telle que (T = n) ∈ Fn (puisque (T = n) =
(T ≤ n) ∩ (T ≤ n − 1)c et (T ≤ n − 1) = 1≤i≤n−1 (T = i)).
S
FT = {A ∈ F : A ∩ (T ≤ n) ∈ Fn pour tout n ∈ N}
En eet,
Il est clair que ∅ et Ω sont des évènements de FT .
Soit A ∈ FT , Ac ∩ (T ≤ n) = (T ≤ n) − (A ∩ (T ≤ n)) ∈ Fn .
Si[(An )n≥0 est une suite
[ d'évènements de FT alors,
( Ak ) ∩ (T ≤ n) = (Ak ∩ (T ≤ n)) ∈ Fn . J
k k
13
On obtient bien sûr une dénition équivalente en remplaçant l'événement (T ≤
n) par l'événement (T = n). On vérie immédiatement que FT est eectivement
une tribu et que T est FT -mesurable.
3.1.1 Propriétés
1. Si S et T sont des temps d'arrêt, alors : S + T, S ∧ T et S ∨ T sont des
temps d'arrêt,
en eet,
n
[
(S + T = n) = ((S = i) ∩ (T = n − i)) ∈ Fn ,
i=0
(S ∧ T ≤ n) = (S ≤ n) ∪ (T ≤ n) ∈ Fn ,
(S ∨ T ≤ n) = (S ≤ n) ∩ (T ≤ n) ∈ Fn .J
2. Si (Tn )n≥0 est une suite de temps, alors supk≥0 Tk et inf k≥0 Tk son des temps
d'arrêt,
En eet,
(supk Tk ≤ n) = k (Tk ≤ n) ∈ Fn et (inf k Tk ≤ n) = k (Tk ≤ n) ∈ Fn . J
T S
Ta = inf {n ≥ 0 / Xn ≥ a}
avec la convention inf ∅ = ∞. Alors Ta est un temps d'arrêt.
En eet,
(Ta ≤ n) = {∃m ≤ n/ Xm ≥ a} ∈ Fn . J
L'étude des martingales qui est proposée ci-dessous repose très fortement sur
l'algèbre des espérances conditionnelles, dont la forme utile a été rappelée dans le
14
Chapitre 1. Les Règles qui y ont été données, sont utilisées constamment. Comme
rappelé dans le chapitre 1, les formules qui comportent des espérances condition-
nelles ne sont vraies que presque sûrement.
3.2.1 Dénitions
On suppose donné un processus stochastique à temps discret, c'est-à-dire une
suite (Mn )(n>0) de variables aléatoires dénies sur le même espace probabilisé
ltré (Ω, F, (Fn )n≥0 , P).
Dénition 3.2.1. La suite (Mn)n∈N est une martingale (respectivement sous-
martingale, sur-martingale ) relativement à la ltration (Fn )n≥0 , si
i) les Mn sont intégrables,
ii) la suite (Mn)n≥0 est adaptée à (Fn)n≥0,
iii) E(Mn+1|Fn) = Mn p.s. (respectivement ≥ Mn, ≤ Mn) pour tout n ∈ N.
Donc (Mn )n≥0 est une martingale (resp. une sous-martingale, une sur-martingale)
si et seulement si pour tout A ∈ Fn on a
Z Z
Mn+1 dP = Mn dP (resp. ≥, ≤)
A A
Si la ltration (Fn )n≥0 n'est pas spéciée, on prend Fn = σ(Mk , k ≤ n).
Proposition 3.2.1. Pour tout k > 0, E(Mn+k |Fn) = Mn.
En eet,
Cette proposition se démontre par récurrence sur k . Supposons là vériée pour
k > 0 et démontrons là pour k + 1. Comme Fn ⊂ Fn+k ,
E(Mn+k+1 |Fn ) = E(E(Mn+k+1 |Fn+k )|Fn ) = E(Mn+k |Fn ) = Mn . J
3.2.2 Exemples
1. Martingale de Doob : Soit (Xk )k∈N une suite de variables aléatoires
indépendantes entre elles et centrées (E(Xn ) = 0 pour tout n ∈ N). Po-
sons Sn = X1 + X2 + ... + Xn . Alors la suite (Sn )n∈N est une martingale
relativement à la ltration Fn = σ(X1 , X2 , ..., Xn ).
En eet,
La variable aléatoire Sn est bien intégrable et Fn -mesurable.
Mn = E(M |Fn )
Remarque 3.2.1. Il est évident que (Mn)n≥0 est une surmartingale si et seule-
ment si (−Mn )n≥0 est une sous-martingale par rapport à (Fn )n≥0 . Par ailleurs,
(Mn )n≥0 est une martingale si et seulement si (Mn )n≥0 est à la fois une sur-
martingale et une sous-martingale par rapport à (Fn ).
16
3.3 Martingale et temps d'arrêt (Cours 6)
On se donne deux processus X = (Xn )n et dénis sur (Ω, F, (Fn )n≥0 , P). On
suppose que X est adapté à (Fn )n≥0 . On se donne, un temps d'arrêt T du (F)n≥0 .
On dénit un nouveau processus, noté X T = ((X T )n≥0 ); (n > 0), en posant, pour
tout n > 0,
Xn (w) si n ≤ T (w)
X T (w) = XT ∧n =
XT (w) si n ≥ T (w)
On peut encore écrire :
Démonstration : Exercice.
Proposition 3.3.2. Soient M = (Mn)(n>0) une martingale (resp. une sous- mar-
tingale, resp. une sur-martingale) par rapport à (Fn )(n>0) et T un temps d'arrêt
du (Fn )n≥0 . Alors le processus arrêté M T = (MT ∧n )n>0 est encore une martingale
(resp. une sous-martingale, resp. une Sur-martingale) par rapport à (Fn )n≥0 .
En eet,
Suivant le lemme précédent on a : MT ∧n+1 − MT ∧n = 1(n<T ) (Mn+1 − Mn ),
avec 1(n<T ) est dans Fn , et M est une Fn -martingale. On trouve E(MT ∧n+1 −
MT ∧n |Fn ) = 0. J
Ici encore le théorème est vrai pour les sous-martingales et les surmartingales
si on prend soin de remplacer l'énégalité de la conclusion par l'inégalité appropiée.
Démonstration : La variable aléatoire MS est FS -mesurable. Il sut donc de
démontrer E(1A MS ) = E(1A MT ) pour tout A dans FS . Comme S ≤ T ≤ m, on
a donc pour tout évènement A dans FS ,
m
! m
!
E(1A MS ) = E 1A 1(S=k)Mk = E 1A 1A∩(S=k)Mk
X X
k=0 ! k=0
m
1A 1A∩(S=k)E(Mm|Fk )
X
=E
k=0 !
m
1A∩(S=k)Mm
X
=E Car A ∩ (S = k) ∈ Fk
k=0 !
m
1A 1(S=k)Mm
X
=E
k=0
= E(1A Mm ).
18
3.3.2 Inégalités maximales
Théorème 3.3.5. Soit (Mn)(n>0) une sous-martingale positive. Alors
19
Appliquons le théorème d'arrêt pour les temps d'arrêt bornés à la sur-martingale
(Mn )(n > 0) et au temps d'arrêt T ∧ n = T . On a
Dénition 3.4.1. (Processus prévisible). Soit (Fn )n≥0 une ltration. Une suite
(Hn )n≥0 est un processus prévisible si Hn est Fn−1 -mesurable pour tout n ≥ 1.
et donc
E(Sn |Fn−1 ) − An = Sn−1 − An−1
Comme An est Fn−1 -mesurable.
Sn = Mn + An = Ln + Cn
20
soient deux décompositions. En soustrayant l'une de l'autre, on arrive à
Ln − Mn = An − Cn
Comme An et Cn sont Fn−1 -mesurables, il en est de même de Ln − Mn , et donc
Ln − Mn = E(Ln − Mn |Fn−1 ) = Ln−1 − Mn−1 = An−1 − Cn−1 p.s.
Par une récurrence évidente, on obtient alors que Ln − Mn = L0 − M0 = 0 p.s.
(car L0 = M0 = 0).
Par suite, Ln = Mn p.s. , donc aussi An = Cn p.s. , et l'unicité est démontrée.J
3.5 Convergence
21
est le nombre total de traversées de [a, b], en montant, eectuées par la trajectoire
n 7−→ Mn .
Dk = MTk ∧n − MSk ∧n
n < Sk =⇒ Dk = 0; Tk ≤ n =⇒ Dk ≥ b − a;
Sk ≤ n < Tk =⇒ Dk = Mn − MSk =⇒ Dk ≥ Mn − a;
donc
(b − a)1(Tk ≤n) ≤ Dk
(Mn − a)1(Sk ≤n<Tk ) ≤ Dk
qu'on peut résumer en écrivant :
Or, les évènements (Sk ≤ n < Tk ), (k ≥ 1) sont disjoints deux à deux ; notons A
leur réunion. Comme (Sk ≤ n < Tk ) = ∅ dès que k ≥ n, on peut écrire :
X X
E[(a − Mn )1(Sk ≤n<Tk ) ] = E[(a − Mn )1(Sk ≤n<Tk ) ]
k≥1 1≤k≤n
X
= E[(a − Mn ) 1(Sk ≤n<Tk ) ]
1≤k≤n
X
= E[(a − Mn ) 1(Sk ≤n<Tk ) ]
k≥1
= E[(a − Mn )1A ;
d'où X
(b − a) P(Tk < n) ≤ E[(a − Mn )1A ].
k≥1
23
(3.4) montre qu'elle est intégrable. Elle est donc presque sûrement nie, ou encore
l'événement (Ma,b = +∞) est négligeable. La réunion dénombrable
[
(Ma,b = +∞)
a,b∈Q,a<b
est aussi négligeable. Or, l'événement (lim inf n Mn < a < b < lim supn Mn )
entraîne qu'il y a une innité d'indices n tels que (Mn < a) se produise et qu'il y
a aussi une innité d'indices n tels que (Mn > b) se produise également ; ce qui
implique alors que l'événement (Ma,b = +∞) se réalise. On a donc
D'où
[
(lim inf n Mn < lim supn Mn ) = lim inf Mn < a < b < lim sup Mn
n n
a,b∈Q,a<b
[
⊂ (Ma,b = +∞) .
a,b∈Q,a<b
L'évènement (lim inf n Mn < lim supn Mn ) est donc négligeable, ce qui signie que
la suite (Mn )(n≥0) converge presque sûrement. J
Il reste à démontrer que la suite (Mn )(n≥0) converge presque sûrement vers une
variable aléatoire intégrable. Cette propriété résulte du lemme de Fatou.
En eet, d'après le lemme précédent, la suite (Mn )n converge presque sûrement,
disons, vers une variable aléatoire M∞ , d'où |Mn | −→ |M∞ | p.s. Ensuite, pour
tout n ≥ 0, on a E[|Mn |] ≤ c. Les deux conditions du lemme de Fatou sont
remplies et on peut conclure que l'on a aussi E[|M∞ |] ≤ c.J
24
Proposition 3.5.5. Soient (Xn)(n≥0) une suite de variables aléatoires et Z une
variable aléatoire positive, intégrable, telles que pour tout n ≥ 0 on ait |Xn | ≤ Z .
Alors la suite (Xn )(n≥0) est uniformément intégrable.
Démonstration. Exposé.
25
TD : 1 ( Espérance Conditionnelle)
Exercice 1. Soit X une variable aléatoire de loi N (0, 1). Calculer E[X 2 /X] et
E[X/X 2 ].
Exercice 2. Soient X , Y , Z trois variables aléatoires indépendantes. On suppose
X et Y de carré intégrable et Z intégrable. Calculer E[XY + Z/Y ].
Exercice 3. Soient X et Y deux variables aléatoires qui admettent un moment
d'ordre 2. On suppose que E[X/Y ] = Y et E[Y /X] = X . Montrer que X = Y .
Exercice 4. Variance conditionnelle.
Pour toute variable aléatoire X ∈ L2 (Ω, A, P ) et toute sous-tribu B de A, on note
V ar(X) la variance de X et V ar(X/B) la variance conditionnelle de X sachant
B dénie par :
V ar(X/B) = E (X − E(X/B))2 /B
X2
e 2 est intégrable, eXY est intégrable, e|XY | est intégrable.
X2
2. Montrer que lorsque e 2 est intégrable, alors E[eXY /X] ≥ 1 p.s.
X2
3. Calculer E[eXY /X] lorsque e 2 est intégrable.
Exercice 6. Soit S une v.a. ayant une loi exponentielle de paramètre 1. On xe
un nombre t > 0 et on dénit les deux v.a. X et Y :
26
Exercice 7. Soit p ∈]0, 1[ un réel. Soient X et Y deux variables aléatoires à
valeurs entières telles que pour tous k, l ∈ N on ait
p k k l
P(X = k, Y = l) = (1 − p)
e l!
Calculer E[Y /X].
Lebesgue.
27
TD : 2 ( Temps d'arrêt & Martingales)
Exercice 10. On considère une suite (Xn)n≥0 de v.a. dénies sur un espace de
probabilité (Ω, F, P), à valeurs dans [0, 1], indépendantes et de même loi uniforme
sur [0, 1]. On pose, pour n ≥ 0, Fn = σ(Xk , k ≤ n). On introduit la v.a.
T = inf{n ≥ 1; Xn > X0 }
Exercice 13. Soit (Ω, F, Fn, P) un espace probabilisé ltré et X une variable
aléatoire intégrable, montrer que (Mn = E(X/Fn ))n est une martingale.
Exercice 14. Soit (Yn)n une suite des variables aléatoires i.i.d., et soit Xn =
i=1 Yi . sous quelle condition la suite (Xn )n est-elle une martingale ?Une sous
Q n
Montrer que Sn2 −T2n est une martingale par rapport a la ltration Fn = σ(ε1 , · · · , εn ).
28
Exercice 16. Soit (Mn)n≥0 une martingale par rapport à une ltration (Fn)n≥0,
telle que E(M2n ) < +∞ pour tout n ≥ 0. Soit
n
X
An = E([Mi − Mi−1 ]2 |Fi−1 )
i=1
et Sn
1−p
Mn = , M0 = 1
p
sont des martingales par rapport à la ltration naturelle des Yn dénit par Fn =
σ(Y1 , . . . , Yn ) pour n ≥ 1 et F0 = {∅, Ω}.
Exercice 18. Soit (Ω, F, Fn, P) un espace probabilisé ltré, et Xn =
Pn
i=1 1Bn
avec Bn ∈ Fn ∀n.
1. Montrer que (Xn )n est une sous martingale.
2. Donner la décomposition de Doob de Xn .
3. Particulariser au cas Fn = σ(X1 , · · · , Xn ).
Exercice 19. Soit (Xi)i≥1 une suite de variables aléatoires indépendantes equi-
distribuées telles que P(X1 = 1) = P(X1 = −1) P = 21 . Pour n ≥ 0, on note
Fn = σ(X1 , · · · , Xn ) et F0 = {∅, Ω}.On pose Sn = ni=1 Xi .
1. Montrer que (Sn )n , (Sn2 − n)n et (Sn3 − 3nSn )n sont des martingales.
2. Devinez un polynôme P(x, y) de degré 4 en x et de degré 2 en y tel que
(P(Sn , n))n soit une martingale.
3. Montrer que si P est un polynôme à deux variables alors (P(Sn , n))n est
une martingale si et seulement si pour tout s, n ∈ N, on a
P(s + 1, n + 1) + P(s − 1, n + 1) = 2P(s, n)
29
1. Montrer que :
Fn = σ{{ξ = 0}, {ξ = 1}, . . . , {ξ = n}, {ξ ≥ n + 1}}.
2. Montrer que :
Xn = 1{ξ≤n} − p(ξ ∧ n), n ≥ 0
est une martingale.
30
Bibliographie
31