Vous êtes sur la page 1sur 27

Chapter 1

Rappels de Probabilités

Objectifs: Rappels rapides de:


ˆ la notion d'espace probabilisé, de variable aléatoire (discrète) et de mesurabilité.
ˆ Probabilités conditionnelles et principales formules (Bayes, probabilité totale,
probabilité composée).

1.1 Espaces Probabilisés

1.1.1 Tribus sur un ensemble - Espaces Probabilisables


1. Univers des possibles (Ω): ensemble Ω des résultats possibles d'une expérience aléatoire. On
note P(Ω) l'ensemble des parties de Ω.
Exemple 1.1.1. : On tire un dé: Ω = 1, 2, ..., 6.

2. Événement (A): ensemble de tous les résultats caractérisés par une même propriété lors d'une
expérience. A est une partie de Ω.
Exemple 1.1.2. Le résultat est pair.
3. Tribu (F ): on appelle tribu ou σ -algèbre dénie sur Ω, toute partie F de P(Ω) vériant les
axiomes suivants:
i Ω ∈ F,
ii ∀A ∈ F, Ac ∈ F ,
iii ∀Ai ∈ F, +∞
i=1 Ai ∈ F (pour toute famille nie ou dénombrable)
S

Remarque 1.
Un événement appartient à une tribu.
La tribu représente l'information disponible.
Le couple (Ω, F) s'appelle espace probabilisable.
Cas particuliers importants: L'ensemble des parties P(Ω) est lui-même une tribu sur Ω. C'est la
plus grande tribu dénie sur Ω. La tribu contenant uniquement (Ω, ∅) est la plus petite tribu dénie
sur Ω.

1.1.2 Probabilités, Espaces Probabilisés


Dénition 1. On appelle probabilité, toute application P : F → [0, 1] vériant les conditions
suivantes:
1. P(Ω) = 1

1
2 CHAPTER 1. RAPPELS DE PROBABILITÉS

2. (σ -additivité) ∀Ak ∈ F deux à deux disjoints (ou incompatibles),


+∞
! +∞
[ X
P Ak = P(Ak )
k=1 k=1

Le triplet (Ω, F, P) s'appelle espace probabilisé.


Exemple 1.1.3 (Probabilité uniforme). Soit Ω un univers ni de cardinal n muni de la tribu
P(Ω). On appelle probabilité uniforme, l'application P dénie sur P(Ω) par:

Card(A) nombre de cas favorables


∀A ∈ P(Ω), P(A) = =
Card(Ω nombre de cas possibles
Propriétés 1. 1. Soit (Ω, F, P) un espace probabilisé. Alors P(A∪B) = P(A)+P(B)−P(A∩B)
2. Si deux événements A et B de probabilités non nulles sont indépendants alors P(A ∩ B) =
P(A)P(B).

Dénition 2 (Partition). On appelle partition ou système complet d'événements, toute famille


nie ou innie (Ai )i∈I d'événements vériant les conditions:
1. ∀i 6= j, Ai ∩ Aj = ∅,

2.
S
i∈I Ai = Ω

1.2 Probabilité Conditionnelle

1.2.1 Probabilité Conditionnelle


Soit (Ω, F, P) un espace probabilisé et B un événement de probabilité non nulle.
Dénition 3. L'application P(.|B) : F → [0, 1] dénie par:
P(A ∩ B)
∀A ∈ F, P(A|B) =
P(B)

est une probabilité appelée probabilité conditionnelle.

ˆ Lire: Probabilité de A sachant B , ou sachant que B est réalisé.

ˆ Conséquence:
P(A ∩ B) = P(A|B)P(B) = P(B|A)P(A)

Interprétation:
On prend en compte une nouvelle information pour calculer la probabilité d'un événement.
Exemple 1.2.1. Tirage de dé: Quelle est la probabilité de l'événement A:'obtenir le chire 1'
sachant l'événement B:'le chire obtenu est pair' lors d'un lancé de dé?:
P(A|B) = 0

1.2.2 Formule et propriétés


Propriétés 2. 1. Si les événements A et B sont indépendants alors P(A|B) = P(A) et
P(B|A) = P(B).

2. Formule des probabilités composées:

P(B1 ∩ . . . ∩ Bn ) = P(B1 )P(B2 |B1 ) . . . P(Bn |B1 ∩ . . . ∩ Bn−1 )


1.3. VARIABLE ALÉATOIRE DISCRÈTE 3

3. Formule des probabilités totales:


Soit (Ai )i∈I une partition de Ω. Alors pour tout événement B ,
X
P(B) = P(B|Ai )P(Ai )
i∈I

4. Formule de Bayes:
Soit (Ai )i∈I une partition de Ω. Alors pour tout événement B ,
P(B|Ak )P(Ak )
P(Ak |B) = P
i∈I P(B|Ai )P(Ai )

1.3 Variable aléatoire discrète

Une variable aléatoire réelle (v.a.) est un moyen pour coder numériquement les classes d'événements
vériant une certaine propriété.

1.3.1 Variable aléatoire réelle


Dénition 4. Soit (Ω, F, P) un espace probabilisé. On appelle variable aléatoire réelle, toute
application X : Ω → R telle que ∀x ∈ R, Ax = {w ∈ Ω|X(ω) ≤ x} est un événement (ie Ax ∈ F ).
On notera X(Ω) l'ensemble des valeurs de X .
On peut écrire de manière équivalente:
∀x ∈ R, X −1 (] − ∞, x]) = {ω ∈ Ω, X(ω) ≤ x} ∈ F = {X ≤ x}

De même, si B est un événement:


X −1 (B) = {X ∈ B}

1.3.2 Variable aléatoire discrète


Dénition 5. La variable aléatoire X est dite discrète si l'ensemble des valeurs X(Ω) se présente
sous l'une des formes suivantes:
1. X(Ω) est une partie nie de R.
2. X(Ω) = x1 , . . . , xn , . . ., où (xn ) est une suite strictement croissante non majorée de nombres
réels.
3. X(Ω) = . . . , yn , . . ., y1 , où (yn ) est une suite strictement décroissante non minorée de nombres
réels.
4. X(Ω) = . . . , yn , . . . , y1 , x1 , . . . , xn , . . ., où (y1 ≤ x1 ), (yn ) est une suite strictement décrois-
sante non minorée de nombres réels et (xn ) est une suite strictement croissante non majorée
de nombres réels.
5. En particulier, toute v.a. à valeurs entières est discrète.

1.3.3 Loi d'une variable aléatoire discrète


Soit xn ∈ X(Ω). On note {X = xn } = {ω ∈ Ω, X(ω) = xn }: c'est l'image réciproque de xn par X .
ˆ On appelle loi de la va discrète X la liste des probabilités pn = P(X = xn ), où xn ∈ X(Ω).

ˆ La loi d'une va discrète vérie la relation xn ∈X(Ω) P(X = xn ) = 1


P

1.3.4 Fonction de répartition


On appelle fonction de répartition de X , la fonction F dénie sur R par ∀x ∈ R, F (x) = P(X ≤ x).
4 CHAPTER 1. RAPPELS DE PROBABILITÉS

1.3.5 Espérance d'une variable aléatoire discrète


Dénition 6. On dit que la va X admet une espérance si la série xn P(X = xn ) converge
P
xn ∈X(Ω)
absolument. L'espérance de X est alors:
X
E(x) = xn P(X = xn )
xn ∈X(Ω)

Toute va discrète nie admet une espérance.


Propriétés 3. ˆ Linéarité: Soit a et b deux réels, X, Y deux va admettant une espérance alors:
E(aX + bY ) = aE(X) + bE(Y )

ˆ Soit f une fonction réelle de R dans R. Si f (X) admet une espérance alors:
X
E(f (X)) = f (xn )P(X = xn )
xn ∈X(Ω)

1.3.6 Variance d'une variable aléatoire discrète


Dénition 7. On suppose que X admet une espérance. On dit qu'elle admet une variance si la
série 2
= xn ) converge. La variance de X est alors:
P
(x
xn ∈X(Ω) n − E(X)) P(X

2
X
V(x) = E [X − E(X)] = E(X 2 ) − E(X)2 = (xn − E(X))2 P(X = xn )
xn ∈X(Ω)

On appelle écart-type l'expression: σ(X) = V(X). En nance, l'écart-type est aussi appelé
p

volatilité.
Propriétés 4. V(aX + b) = a2 V(X)

1.3.7 Variable aléatoire discrète usuelle


Loi uniforme
ˆ On dit qu'une va X suit une loi uniforme sur [1, n] et l'on écrit X → U(n), si:

1. X(Ω) = [1, n]
2. ∀k ∈ [1, n], P(X = k) = 1
n

ˆ On obtient E(X) = n+1


2 et V(X) = n2 −1
12 .

Exemple 1.3.1. Un lancé de dé.

Loi de Bernouilli
ˆ On dit qu'une va X suit une loi de Bernouilli de paramètre p, où 0 ≤ p ≤ 1, et l'on écrit
X → B(1, p), si:

1. X(Ω) = 0, 1
2. P(X = 1) = p

ˆ On obtient E(X) = p et V(X) = p(1 − p).

Exemple 1.3.2. (pair, impair), (pile, face)...


1.3. VARIABLE ALÉATOIRE DISCRÈTE 5

Loi binomiale
ˆ On dit qu'une va X suit une loi binomiale de paramètre n, p, où n ∈ N∗ et 0 ≤ p ≤ 1, et l'on
écrit X → B(n, p), si:
1. X(Ω) = [0, n]
2. ∀k ∈ [0, n], P(X = k) = Cnk pk q n−k avec q = 1 − p.
ˆ On obtient E(X) = np et V(X) = npq .

Proposition 1. Le nombre de succès obtenus dans une réalisation de n expériences de Bernouilli


identiques et indépendantes suit une loi binomiale.

1.3.8 Mesurabilité
Dénition 8. Soit X une va discrète à valeurs dans X(Ω) et dénie sur un espace probabilisé
(Ω, F, P). On dit que X est mesurable par rapport à la tribu F lorsque l'on a:

∀A ⊂ X(Ω), X −1 (A) ⊂ F

Dénition 9. Soit X une va discrète à valeurs dans X(Ω) et dénie sur un espace probabilisé
Ω, F, P). L'ensemble des événements:

σ(X) = X −1 (A), A ⊂ X(Ω)

est appelé la tribu sur E engendrée par la va X


Dénition 10. Soit (n + 1) va X : Ω → R, Z1 : Ω → R, . . . , Zn : Ω → R. La va X est dite
σ(Z1 , . . . , Zn )-mesurable si et seulement si il existe une fonction (mesurable) h : Rn → R telle que
X(ω) = h(Z1 (ω), . . . , Zn (ω))
Remarque 2.
La notion de mesurabilité dépend de la tribu associée, ie dépend de l'information disponible.
Une va est mesurable par rapport à sa tribu engendrée.
La tribu engendrée est la plus petite tribu pour laquelle une va est mesurable. Elle contient toute
l'information contenue dans X . En général, nous travaillerons sur cette tribu.
Exemple 1.3.3. Lancé de dé et pair, impair.
X : Ω = {1, 2, 3, 4, 5, 6} → X(Ω) = {0, 1}
ω → X(ω) = 1{ 2, 4, 6}(ω)

σ(X) = {∅, Ω, {1, 3, 5}, {2, 4, 6}}


6 CHAPTER 1. RAPPELS DE PROBABILITÉS
Chapter 2

Espérance Conditionnelle

Objectifs:
ˆ Comprendre la notion d'espérance sachant une information.
ˆ Par rapport à un événement A: valeur moyenne espérée pour la va X lorsque l'on
connaît cet événement. Dans ce cas, l'espérance conditionnelle est un nombre
réel.
ˆ Par rapport à une variable aléatoire Y (ou une tribu): valeur moyenne espérée
pour la va X en fonction de la valeur prise par Y. Dans ce cas, l'espérance
conditionnelle est une variable aléatoire.
ˆ Introduire les propriétés fondamentales de l'espérance conditionnelle.

2.1 Espérance conditionnelle par rapport à un événement

Dénition 11. L'espérance conditionnelle d'une va X : Ω → {x1 , . . . , xn } sachant l'événement B


est dénie par:
n
(2.1)
X
E(X|B) := xi P(X = xi |B)
i=1

Interprétation:
L'espérance conditionnelle est un nombre réel qui représente "la valeur moyenne attendue pour X
sachant que l'événement B a lieu".
Exemple 2.1.1. Soit X la valeur du dé et B l'événement pair. Ω = {1, . . . , 6}.
6
X
E(X|B) = iP(X = i|B)
i=1

0 si i = {1, 3, 5},

P(X = i|B) = 1
3 sinon
2 4 6
E(X|B) = + + =4
3 3 3
Exemple 2.1.2. X : somme de 5 épreuves de Bernouilli indépendantes de paramètres p. Ω =
{0, 1}5 . B :"les deux premières épreuves sont des échecs". Zi : la ième épreuve de Bernouilli.

E(X|B) = E(Z1 + Z2 + Z3 + Z4 + Z5 |B)


= E(Z1 |B) + E(Z2 |B) + E(Z3 |B) + E(Z4 |B) + E(Z5 |B)
| {z } | {z }
=0 Zi ⊥B
= E(Z3 ) + E(Z4 ) + E(Z5 ) = 3p

7
8 CHAPTER 2. ESPÉRANCE CONDITIONNELLE

En eet:
E(Z1 |B) = 0P(Z1 = 0|B) + 1P(Z1 = 1|B) = 0 × 1 + 1 × 0 = 0

E(Z3 |B) = 0P(Z3 = 0|B) + 1P(Z3 = 1|B) = 0P(Z3 = 0) + 1P(Z3 = 1) = p

Exemple 2.1.3. Soit Xi une va telle que P(Xi = 1) = p = 12 , P(Xi = −1) = (1P − p) = 21 .
On suppose
Pn que les Xi , i = {1, . . . , n} sont indépendants et on écrit Sn = S0 + 10 i=1 Xi =
n

100 + 10 i=1 Xi . Si l'on trace l'évolution de Sn , on retrouve le modèle binomial vu en cours, avec
S0 −S1−
p= S1+ −S1−
= 1
2 qui représente la probabilité risque neutre.
n
X
E(Sn ) = 100 + 10 E(Xi ) = 100
| {z }
i=1 1 1
2 − 2 =0

Calculer E(S2 |S1 = 110):


E(S2 |S1 = 110) = 120P(S2 = 120|S1 = 110) + 90P(S2 = 90|S1 = 110)
= 120P(X1 = 1 ∩ X2 = 1|X1 = 1) + +90P(X1 = 1 ∩ X2 = −1|X1 = 1)
= 120p + 90(1 − p) = 110

En eet:
P(X1 = 1 ∩ X2 = −1 ∩ X1 = 1) P(X1 = 1)P(X2 = −1)
P(X1 = 1∩X2 = −1|X1 = 1) = = = 1−p
P(X1 = 1) |{z} P(X1 = 1)
indépendance

2.2 Conditionnement par rapport aux variables aléatoires

2.2.1 Conditionnement par rapport à une variable aléatoire


Dans ce cas, le conditionnement est une variable aléatoire et non un événement.
Exemple 2.2.1. Soit X la valeur du dé et Y la parité avec Y = 1 si pair et 0 si impair. D'après
la formule précédente, on peut calculer:
6
X
E(X|Y = 1) = iP(X = i|B) = 4
i=1

6
X
E(X|Y = 0) = iP(X = i|B) = 3
i=1

Mais que représente la quantité E(X|Y )?


Dénition 12. Soit X et Y deux variables aléatoires quelconques X : Ω → {x1 , . . . , xm } et
Z : Ω → {z1 , . . . , zn } avec {x1 , . . . , xm , z1 , . . . , zn } ∈ R.
L'espérance conditionnelle de X sachant Z , notée E(X|Z), est une variable aléatoire dénie de
la manière suivante:
E(X|Z)(ω) := h(Z(ω))
où h est la fonction dénie par h(zj ) = E(X|Z = zj ) (formule 2.1) quel que soit j ∈ {1, . . . , n}.
Remarque 3.
La quantité E(X|Z = zj ) est un nombre réel alors que la quantité E(X|Z) est une variable aléatoire
qui dépend de la valeur que prend Z .
On note {Z = zj } := {ω ∈ Ω/Z(ω) = zj } l'événement "Z prend la valeur zj ".
On écrit souvent P(X = xi , Z = zj ) à la place de P(X = xi ∩ Z = zj ).
2.2. CONDITIONNEMENT PAR RAPPORT AUX VARIABLES ALÉATOIRES 9

Exemple 2.2.2. Soit X la valeur du dé et Y la parité avec Y = 1 si pair et 0 si impair. L'espérance


conditionnelle de X sachant Y est une fonction de la variable aléatoire Y :
E(X|Y ) = h(Y )

avec:
6
X
h(1) = E(X|Y = 1) = iP(X = i|B) = 4
i=1
6
X
h(0) = E(X|Y = 0) = iP(X = i|B) = 3
i=1

Exemple 2.2.3. On eectue un jeu en deux étapes:


1. On lance un dé. On appelle Z la valeur obtenue.
2. On lance Z fois le dé. On appelle X le produit des Z valeurs obtenues.
1. Calculer E(X|Z = 5):
Si Z = 5, l'étape 2 consiste à jeter 5 fois un dé de manière indépendante. L'espérance d'un
lancé est:
1+2+3+4+5+6 21 7
m= = =
6 6 2
L'espérance du produit de 5 lancés indépendants est:
 5
7
E(X|Z = 5) =
2

Remarque 4. : Ω = {1, ..., 66 } La formule générale E(X|Z = 5) =


P6
i=1 xi P(X = xi |Z = 5)
demande beaucoup plus de calcul que le raisonnement précédent.

2. Calculer E(X|Z = i):


L'espérance du produit de i lancés indépendants est:
 i
7
E(X|Z = i) =
2

3. Calculer E(X|Z):
D'après la dénition de l'espérance conditionnelle par rapport à une va, on obtient:
E(X|Z) = h(Z) avec h(i) = E(X|Z = i) = 27 .
i

On peut aussi l'écrire:   Z


7
E(X|Z) =
2

Exemple 2.2.4 (Modèle binomial à deux états, deux périodes.). Même énoncé que 2.1.3.
Soit Xi une va telle que:
1 1
P(Xi = 1) = p = , P(Xi = −1) = (1 − p) =
2 2
On suppose que les Xi sont indépendants et on écrit
n
X n
X
Sn = S0 + 10 Xi = 100 + 10 Xi
i=1 i=1

Calculer E(S2 |S1 ):


D'après la dénition, E(S2 |S1 ) = h(S1 ) avec h(90) = E(S2 |S1 = 90) = 90 h(110) = E(S2 |S1 =
110) = 110.
10 CHAPTER 2. ESPÉRANCE CONDITIONNELLE

Exemple 2.2.5. ˆ Soit Z une va uniforme sur Ω = {1, . . . , n}: P(Z = 1) = 1


n .
ˆ Soit  une va indépendante de Z telle que P( = 1) = p et P( = −1) = 1 − p.

ˆ Soit X une va telle que X = Z .


Calculer E(X|Z):
Tout d'abord l'univers des possibles de X est: Ω = {−n, . . . , n}. D'après la dénition de l'espérance
conditionnelle: E(X|Z) = h(Z) avec
n
X
h(j) = E(X|Z = j) = iP(X = i|Z = j)
i=−n

On remarque que X =+
− Z . Donc, si i 6= j et i 6= −j , on a:P(X = i|Z = j) = 0.
Il reste:
E(X|Z = j) = jP(X = j|Z = j) − jP(X = −j|Z = j) = jP( = 1|Z = j) − jP( = −1|Z = j)

La va  et Z sont indépendantes:
P( = −1 ∩ Z = j) P( = −1)P(Z = j)
P( = −1|Z = j) = =
P(Z = j) P(Z = j)
= P( = −1) = 1 − p

De même, P( = 1|Z = j) = p


Finalement, on a:
E(X|Z = j) = jp − j(1 − p) = j(2p − 1)

On trouve alors:
E(X|Z) = Z(2p − 1)

Exemple 2.2.6 (Fonction indicatrice). Si Z(ω) = zj :


m
X
E(X|Z)(ω) = E(X|Z(ω) = zj )) = xi P(X = xi |Z = zj )
i=1

Si Z(ω) = zj :
n
" m
#
X X
E(X|Z)(ω) = 1Z(ω = zj E(X|Z(ω) = zj )) = 1Z(ω)=zj x1 P(X = xi |Z = zj )
j=1 i=1

2.2.2 Conditionnement par rapport à plusieurs va


Peut-on étendre la notion d'espérance conditionnelle à plusieurs variables?
Considérons (n + 1) va:
X : Ω → {x1 , . . . , xm }
Z1 : Ω → {z1 , . . . , zk }
Zn : Ω → {z1 , . . . , zk }

Tout d'abord, on peut remarquer que la formule 2.1 s'écrit:


m
X
E(X|Z1 = zj1 , . . . , Zn = zjn ) = xi P(X = xi |Z1 = zj1 , . . . , Zn = zjn )
i=1

Il s'agit toujours d'un nombre réel.


2.2. CONDITIONNEMENT PAR RAPPORT AUX VARIABLES ALÉATOIRES 11

Dénition 13 (Espérance Conditionnelle de X sachant Z1 , . . . , Zn .). On appelle espérance con-


ditionnelle de X sachant Z1 , . . . , Zn la variable aléatoire dénie de la manière suivante:
E(X|Z1 , . . . , Zn )(ω) := h(Z1 (ω), . . . , Zn (ω)) (2.2)
où h est la fonction à n variables dénie par:
h(zj1 , . . . , zjn ) = E(X|Z1 = zj1 , . . . , Zn = zjn )

Remarque 5. Si f est une fonction mesurable de R dans R: E(f (X)|Z1 , . . . , Zn )(ω) :=


h(Z1 (ω), . . . , Zn (ω)) où h est la fonction à n variables dénie par:
n
X
h(zj1 , . . . , zjn ) = E(f (X)|Z1 = zj1 , . . . , Zn = zjn ) = f (xi )P(X = xi |Z1 = zj1 , . . . , Zn = zjn )
i=1

2.2.3 Cas général


On présente maintenant une dénition générale de l'espérance conditionnelle. Nous verrons que
l'on peut dénir un ensemble de propriétés utiles pour le calcul des espérances conditionnelles à
partir de cette dénition. De plus, on vériera que les dénitions discrètes sont équivalentes à cette
dénition générale dans le cas discret.
Dénition 14. Considérons n + 1 va X : Ω → R, Z1 : Ω → R, . . . , Zn : Ω → R, et notons
Fn := σ(Z1 , . . . , Zn ).
Il existe une unique variable aléatoire, appelée espérance conditionnelle de X sachant Z1 , . . . , Zn
(ou sachant Fn ), notée E(X|Z1 , . . . , Zn ) (ou E(X|Fn )), vériant les deux conditions:
a) E(X|Fn ) est Fn -mesurable.
b) Pour tout Y Fn -mesurable, on a:
E(E(X|Fn )Y ) = E(XY )

Remarque 6.
On peut reformuler la condition a) par:
a') Il existe une fonction h telle que E(X|Fn ) = h(Z1 , . . . , Zn ).
On peut reformuler la condition b) par:
b')
E(E(X|Fn )f (Z1 , . . . , Zn )) = E(Xf (Z1 , . . . , Zn ))
pour toute fonction f : Rn → R.
Remarque 7.
Lorsque X, Z1 , . . . , Zn prennent un nombre ni de valeurs, E(X|Z) et E(X|Z1 , . . . , Zn ) sont re-
spectivement donnés par les formules 2.1 et 2.2
Soit la tribu grossière B = {Ω, ∅}. Alors E(X|B) = E(X).
Interprétation:
L'espérance conditionnelle de X sachant Fn est la valeur moyenne de X lorsque l'on connaît les
valeurs Z1 , . . . , Zn .
Vérions maintenant que dans le cas discret, la dénition donnée par la formule 2.1 pour
X : Ω → {x1 , . . . , xn } et Z : Ω → {z1 , . . . , zn } implique que les conditions a') et b') sont satisfaites.
Preuve:
Dénissons h par:
h(z1 ) = E(X|Z = z1 )
h(zk ) = E(X|Z = zk )
h(z) = O si z 6= {z1 , . . . , zn }

D'après la formule 2.1, l'espérance conditionnelle de X sachant Z est:


E(X|Z)(ω) := h(Z(ω))
12 CHAPTER 2. ESPÉRANCE CONDITIONNELLE

La condition a') est vériée par h(Z).


Pour la condition b'):
k
X
h(Z(ω)) = 1Z(ω)=zi E(X|Z = zi )
| {z } | {z }
i=1
aléa nombre réel
 
Xk
E(h(Z)f (Z)) = E 1Z(ω)=zi E(X|Z = zi ) f (Z) 
 
| {z }
i=1
=f (zi )
k
X  
= f (zi ) E(X|Z = zi ) E 1Z(ω)=zi
i=1
| {z }
=P(Z=zi )
| {z }
=E(X1Z(ω)=zi )
" k
#
X
= E X f (zi )1Z(ω)=zi
i=1
= E [Xf (Z)]

La condition b') est donc vériée. De plus comme il n'existe qu'une seule va vériant ces deux
conditions, les deux dénitions coincident bien dans le cas discret. 
Exemple 2.2.7. On lance 2 dés de 6 faces. On appelle X1 la valeur du premier dé et X2 la valeur
du second. On appelle S la somme des deux dés. Déterminer E(S|X1 ).
Intuition: comme X1 et X2 sont indépendants, X1 ne donne aucune information sur X2 :
E(S|X1 ) = E(X1 + X2 |X1 ) = X1 + E(X2 |X1 ) = X1 + E(X2 )

Preuve:
Posons h(x) = x + E(X2 ) = x + 27 .
ˆ a) h(X1 ) est σ(X1 )-mesurable.
ˆ b)
E(h(X1 )f (X1 )) = E [(X1 + E(X2 ))f (X1 )] = E(X1 f (X1 ) + E [X2 f (X1 )]
| {z }
car X1 ⊥X2
Finalement:
E(h(X1 )f (X1 )) = E(Sf (X1 ))
h(X1 ) est donc bien l'espérance conditionnelle.

2.3 Propriétés

Dans la pratique, on utilisera les propriétés suivantes plus que la dénition. Dans le cas on l'on
doit se reporter à la dénition, on utilisera en général la formule explicite 2.1.
Propriétés 5. [Propriétés fondamentales]
1. E (E(X|Fn ))) = E(X).
2. Si X est Fn -mesurable, E(X|Fn ) = X .
3. Si X est indépendante de Z1 , . . . , Zn , alors:
E(X|Fn ) = E(X)

4. Si a, b ∈ R, E(aX + bY |Fn ) = E(aX|Fn ) + E(bY |Fn ).


5. Si Y est Fn -mesurable, alors E(Y X|Fn ) = Y E(X|Fn ).
2.3. PROPRIÉTÉS 13

6. E [E(X|Fn+p )|Fn ] = E(X|Fn )


7. E [E(X|Fn )|Fn+p ] = E(X|Fn )
Interprétation:

1. Tout d'abord, comme on calcule l'espérance d'une va, on comprend bien que l'on ob-
tient un nombre réel. De plus l'espérance conditionnelle restreint la valeur moyenne selon
l'information donné par le conditionnement (ie une information supplémentaire). Si l'on
somme sur tous les conditionnements possibles (ie toutes les informations supplémentaires
possibles pondérées par leur probabilité), cela revient à ne pas prendre d'information supplé-
mentaire en compte. Exemple du lancé de dé et de la parité:
E(E(X|Y )) = E(h(Y )) = h(0)P(Y = 0) + h(1)P(Y = 1)
6
X 6
X
= iP(X = i|Y = 0)P(Y = 0) + iP(X = i|Y = 1)P(Y = 1)
i=1 i=1
| {z }
formule des probabilités totales
6
X
= iP(X = i) = E(X)
i=1

donne la valeur moyenne d'une va sachant une autre va. Si l'on calcule l'espérance de cette
espérance conditionnelle, on calcule la moyenne
2. Si la va est mesurable (par rapport à une tribu), cela revient à dire que l'on connaît exacte-
ment sa valeur.
3. Si une va est indépendante d'une tribu, cela veut dire que l'information donnée dans la tribu
n'a aucune inuence sur la va. Elle n'inuence donc pas son espérance.
4. La linéarité tient pour les espérances conditionnelles.
5. Si une va Y est mesurable par rapport à une tribu, on connaît exactement sa valeur. On
peut donc la considérer comme étant un réel et la sortir de l'espérance conditionnelle.
6. (Pas d'interprétation simple). Idée: la deuxième espérance conditionnelle prend la moyenne
d'une information plus ne. On perd donc l'information ajoutée. La propriété 1 est un cas
particulier de cette propriété avec la tribu grossière F0 = {Ω, ∅}
7. L'espérance conditionnelle est mesurable par rapport à l'information donnée par la va de
conditionnement, ici Fn , donc par rapport aussi à plus d'information, ici Fn+p . Il s'agit donc
d'un "nombre" au regard de la ltration Fn+p .
Exemple 2.3.1. Exemple:
ˆ X un lancé de dé,
ˆ Y la va telle que Y = 0 si le lancé vaut {1, 2} et Y = 1 si {3, 4, 5, 6},
ˆ Z la va telle que Z = 0 si {1, 2}, 1 si {3, 4} et 2 si {5, 6}
On remarque que σ(Y ) ⊂ σ(Z) et on veut montrer que E(E(X|Z)|Y ) = E(X|Y ) := h(Y ). On a:
E(E(X|Z)|Y ) = E(h1 (Z)|Y ) = h2 (Y )
Tout d'abord, on remarque que l'on obtient une va qui dépend de Y .
6
X 6
X
h1 (0) = iP(X = i|Z = 0) = iP(X = i|{1, 2})
i=1 i=1
6
X 6
X
h1 (1) = iP(X = i|Z = 1) = iP(X = i|{3, 4})
i=1 i=1
6
X 6
X
h1 (2) = iP(X = i|Z = 2) = iP(X = i|{5, 6})
i=1 i=1
14 CHAPTER 2. ESPÉRANCE CONDITIONNELLE

2
X 6
X
h2 (Y = 0) = h1 (j)P(Z = j|Y = 0) = iP(X = i|Z = 0)P(Z = 0|Y = 0)
j=0 i=1
6
X
= = iP(X = i|Y = 0)
i=1
2
X
h2 (Y = 1) = h1 (j)P(Z = j|Y = 1) = h1 (1)P(Z = 1|Y = 1) + h1 (2)P(Z = 2|Y = 1)
j=0
6
X
= i (P(X = i|Z = 1)P(Z = 1|Y = 1) + P(X = i|Z = 2)P(Z = 2|Y = 1))
i=1
6
X
= iP(X = i|Y = 1)
i=1

Finalement, on retrouve bien l'espérance conditionnelle E(X|Y ).


Preuve:
(de quelques propriétés)
1. E (E(X|Fn ))) = E(X)?:
D'après la dénition de l'espérance conditionnelle (condition b)) et comme E(X|Fn ) est une
espérance conditionnelle, on a:
Pour tout Y Fn -mesurable, on a
E(E(X|Fn )Y ) = E(XY )
Si l'on choisit en particulier Y = 1, Y est Fn -mesurable (Y = h(Z1 , . . . , Zn ) avec
h(z1 , . . . , zn ) = 1) et on obtient:
E(E(X|Fn )) = E(X)

2. Si X est Fn -mesurable, E(X|Fn ) = X ?:


Cela revient à montrer que X satisfait les conditions de l'espérance conditionnelle dans le
cas où X est Fn -mesurable.
X vérie a) par hypothèse. Pour la condition b), on a: Pour tout Y Fn -mesurable, on a:
E(XY ) = E(XY )
⇒ X = E(X|Fn )

3. Si X est indépendante de Fn (de Z1 , . . . , Zn ), alors: E(X|Fn ) = E(X)?:


E(X) est constante donc Fn -mesurable. De plus, pour tout Y Fn -mesurable, X est indépen-
dant de Y . On a donc:
E(E(X)Y ) = E(XY )

4. E [E(X|Fn+p )|Fn ] = E(X|Fn )? Pour toute va W , l'espérance conditionnelle associée


E(W |Fn ) vérie les conditions a) et b).
On pose W = E(X|Fn+p ). D'après la condition b), pour tout Y Fn -mesurable:
E(E(X|Fn+p )Y ) = E(E(W |Fn )Y ) = E(W Y ) = E(E(X|Fn+p )Y )

Pour tout Y Fn -mesurable, Y est Fn+p -mesurable. On a donc:


E(E(X|Fn+p )Y ) = E(XY )
Finalement, on trouve:
E(E(X|Fn+p )Y ) = E(XY )
E [E(X|Fn+p )|Fn ] est donc bien égal à l'espérance conditionnelle de X sachant Fn .
2.3. PROPRIÉTÉS 15

5. E [E(X|Fn )|Fn+p ] = E(X|Fn )?


E(X|Fn ) est Fn+p -mesurable. Le résultat est donc une conséquence directe de la condition
2.

16 CHAPTER 2. ESPÉRANCE CONDITIONNELLE
Chapter 3

Processus stochastiques (temps et


espace discrets)

But:
ˆ Introduction du processus stochastique (ou processus aléatoire): phénomène
aléatoire évoluant au cours du temps.
ˆ Trois cas: cas général (dépendance au passé et au présent), processus de Markov
(dépendance au présent) et processus à accroissements indépendants (indépen-
dance).
ˆ Représentation en une dimension: les arbres.
ˆ Filtration: évolution de l'information au cours du temps.
ˆ Comprendre le lien entre l'information (ltration) et le processus autour de 3
notions: adapté, prévisible et imprévisible.

Rappel:
Dénition 15. On appelle fonction indicatrice de l'événement A, la va 1A dénie
par:
1A : Ω → {0, 1}
1 si ω ∈ A,

ω → 1A (ω) =
0 si ω ∈
/A

De même, si X : Ω → R est une va réelle et B un sous-ensemble mesurable de R, on


note 1X∈B la va:
1X∈B : Ω → {0, 1}
1 si X(ω) ∈ B,

ω → 1X∈B (ω) =
0 si X(ω) ∈
/B

3.1 Processus stochastique

3.1.1 Dénition et Rôle


Dénition 16. Soit (Ω, F, P) un espace probabilisé (ni). Un processus stochastique X est une
famille de variables aléatoires indexée par un sous ensemble de R ou de N (en général assimilé au

17
18 CHAPTER 3. PROCESSUS STOCHASTIQUES (TEMPS ET ESPACE DISCRETS)

temps):
X : Ω×N → R
(ω, n) → Xn (ω) = xj

Exemple 3.1.1 (Phénomènes naturels). A chaque instant, la valeur future des phénomènes suivant
est dirigée par une variable aléatoire.
ˆ Cours d'une action.
ˆ Dynamique de population.
ˆ Evolution de la valeur d'un portefeuille nancier.
ˆ Evolution de le d'attente.

Exemple 3.1.2 (Modélisation). ˆ Succession d'expériences de Bernouilli: Pile, Face / Echec,


Succés/... (Ωn = {0, 1}n )
ˆ Succession de mouvements vers le haut ou vers le bas (cours nanciers) (Ωn = {−1, +1}n )
ˆ Succession de variables aléatoires plus générale: X : Ωn = (x1 , . . . , xm )n (lancés de dés,...).
Interprétation:

ˆ Tout système qui a une évolution aléatoire peut être modélisé par un processus stochastique.
ˆ Soit X un processus stochastique indexé par le temps.
i Si l'on xe un instant t, alors Xt (ω) est une variable aléatoire.
ii Si l'on xe une réalisation ω , alors Xt (ω) est une trajectoire.

3.1.2 Représentation à une dimension


Construction d'un arbre représentant toutes les réalisations possibles de l'expérience (graphe):
ˆ Placer le noeud d'origine.
ˆ A chaque pas, placer tous les chemins correspondant aux résultats envisageables par la vari-
able aléatoire et leur aecter leurs probabilités respectives. Ces probabilités de passage d'un
noeud à un autre sont appelées probabilités de transition. Elles sont en fait la probabilité
conditionnelle d'aller au noeud xj à l'instant n + 1 sachant que l'on se trouve au noeud xi à
l'instant n: pn+1
ij = P(Xn+1 = xj |Xn = xi )
Interprétation:
On peut lire les deux dimensions d'un processus stochastique sur un arbre:
ˆ Si l'on xe une date, l'ensemble de toutes les valeurs obtenues à cette date représente une
variable aléatoire.
ˆ Si l'on se xe un ensemble (ω1 , . . . , ωn ), on obtient une trajectoire particulière de l'arbre.
ˆ A partir d'un noeud, l'ensemble de tous les chemins issus de ce noeud représente la loi
conditionnelle sachant ce noeud. En particulier la somme des probabilités de chaque chemin
est égal à 1.
1. Un arbre binomial est un arbre dont deux chemins partent depuis chaque noeud.
2. Un arbre trinomial est un arbre dont trois chemins partent depuis chaque noeud.
3. Lorsque les chemins se recombinent au cours du temps, on dit que l'arbre est recombinant.
Cette structure régulière permet de diminuer le nombre de chemins et donc de faciliter la
simulation numérique.
3.2. ACCROISSEMENTS INDÉPENDANTS ET MARKOVIENS 19

Exemple 3.1.3. Un exemple classique d'arbre binomial est la marche aléatoire suivante:
Soit une suite de v.a. indépendantes (n )1≤n≤N distribuées sur {−1, +1} selon la même loi de
Bernoulli
P(n = +1) = 1 − P(n = −1) = p
On associe à cette suite la marche aléatoire suivante:
 Pn
Xn = Xn + k=1 k = Xn−1 + n
(3.1)
X0 = 0
Exemple 3.1.4 (Cours d'une action). On suppose que les accroissements sont donnés par une
suite de v.a. indépendantes (n )1≤n≤N distribuées sur {−10, +10} selon la même loi de Bernoulli
P(n = +10) = 1 − P(n = −10) = p
Dans ce cas la marche aléatoire associée est:

Sn = Sn−1 + n
(3.2)
S0 = 100

3.2 Accroissements indépendants et Markoviens

Un processus stochastique est une dénition générale pour l'ensemble des phénomènes aléatoires.
La complexité d'un processus est déterminée en grande partie par la dépendance des accroissements
du processus au passé. Dans le cas général d'un processus, la probabilité de transition (de passage
d'un état à l'état suivant) peut dépendre de l'ensemble de la trajectoire passé du processus. Il est
alors particulièrement dicile d'obtenir des résultats mathématiques et de faire des simulations.
Dans cette partie, nous introduisons aussi des processus plus simples: les processus de Markov
et les processus à accroissements indépendants. L'avantage de ces processus est d'être à la fois
pertinent d'un point de vue de modélisation et simplier l'étude mathématique.

3.2.1 Accroissements et dépendance au passé


Comme nous l'avons vu en exercice, il est souvent avantageux d'exprimer un processus en fonction
de ces accroissements. Donnons tout d'abord une dénition et une notation pour les accroissements:
Dénition 17 (Accroissement). Soit Xn un processus stochastique sur un espace de probabilité
(Ω, F, P) muni d'une ltration (Fn )n≥0 . On note (∆Xn )1≤n≤N la suite des accroissements dénie
par
∀1 ≤ i ≤ n ∆Xn = (Xn − Xn−1 )
Interprétation:
Les accroissements permettent de déterminer un processus en fonction de son évolution à chaque
pas de temps, ie en fonction de la somme de ses accroissements. En eet:
n
X
Xn = X0 + ∆Xi = Xn−1 + ∆Xn
i=1

Exemple 3.2.1. Par exemple, lorsque l'on veut étudier l'espérance conditionnelle d'un processus,
on sépare la partie mesurable et l'accroissement:
E(Xn |Fn−1 ) = E(Xn−1 + ∆Xn |Fn−1 ) = Xn−1 + E(∆Xn |Fn−1 )
Dans le cas général, l'accroissement d'un processus peut dépendre de l'ensemble de la trajectoire
passé du processus.
Exemple 3.2.2 (Probabilité d'un chemin). Soit Xn un processus. D'après la formule des proba-
bilités composées, la probabilité d'une trajectoire (x0 , . . . , xn ) est donnée par:
P(X0 = x0 , . . . , Xn = xn ) = P(X0 = x0 , . . . , ∆Xn = xn − xn−1 )
= P(X0 = x0 )P(∆X1 = x1 − x0 |X0 = x0 ) × . . . × P(∆Xn = xn − xn−1 |X0 = x0 , . . . , Xn−1 = xn−1 )
| {z }
Formule des probabilités composées
20 CHAPTER 3. PROCESSUS STOCHASTIQUES (TEMPS ET ESPACE DISCRETS)

Exemple 3.2.3. Lorsque vous regardez l'historique d'un cours de bourse pour deviner
l'accroissement futur du processus (ie si le cours va monter ou descendre), vous supposez im-
plicitement que l'accroissement dépend de l'ensemble de la trajectoire passée.
Le calcul de probabilités conditionnelles qui dépendent de l'ensemble de la trajectoire passé
devient très grand pour un nombre raisonnable de pas de temps N . Il existe deux types de
processus qui permettent de simplier considérablement le cas général:
1. Les processus à accroissements indépendants: dans ce cas, l'accroissement est indépendants
du passé et du présent. Il sut donc de connaître la loi de l'accroissement pour calculer des
trajectoires et des espérances conditionnelles.
2. Les processus de Markov, ou processus à absence de mémoire: dans ce cas, l'accroissement ne
dépend que du présent et ne dépend plus du passé. On tient seulement compte de la valeur
présente et plus de l'ensemble de la trajectoire passé.

3.2.2 Processus à accroissement indépendants


Dénition 18. Un processus est dit à accroissements indépendants lorsque:
P(Xn = xn − xn−1 |X0 = x0 , . . . , Xn−1 = xn−1 ) = P(Xn = xn − xn−1 )
Interprétation:
L'accroissement ne dépend ni du passé ni du présent. En général, on peut obtenir un grand nombre
de résultats explicites dans le cas des processus à accroissements indépendants. Au niveau de la
modélisation, il faut alors dénir si ce type d'hypothèse est pertinente.
Exemple 3.2.4. Un exemple classique d'arbre binomial est la marche aléatoire suivante:
On suppose que les accroissements sont donnés par une suite de v.a. indépendantes (k )1≤k≤n
distribuées sur {−1, +1} selon la même loi de Bernoulli
P(k = +1) = 1 − P(k = −1) = p
Dans ce cas la marche aléatoire associée est:

Xk = Xk−1 + k
(3.3)
X0 = 0
Exemple 3.2.5 (Modélisation). Un processus à accroissements indépendants s'interprète comme
une succession d'expériences indépendantes. Par exemple, la fortune d'un joueur au casino peut
être considéré comme telle puisque chaque nouveau jeu ne dépend pas des jeux précédents. Pour les
actions, cette hypothèse est parfois choisie, mais nous verrons que l'hypothèse de Markov semble
plus pertinente d'un point de vue nancier.
Exemple 3.2.6 (Probabilité d'un chemin). Soit Xn un processus à accroissements indépendants.
D'après la formule des probabilités composées, la probabilité d'une trajectoire (x0 , . . . , xn ) est
donnée par:
P(X0 = x0 , . . . , Xn = xn ) = P(X0 = x0 , . . . , ∆Xn = xn − xn−1 )
= P(X0 = x0 )P(∆X1 = x1 − x0 |X0 = x0 ) × . . . × P(∆Xn = xn − xn−1 |X0 = x0 , . . . , Xn−1 = xn−1 )
| {z }
Formule des probabilités composées
= P(X0 = x0 )P(∆X1 = x1 − x0 ) . . . P(∆Xn = xn − xn−1 )
| {z }
Indépendance des accroissements au passé et au présent

3.2.3 Chaînes de Markov


Dénition 19 (La propriété de Markov). Soit Xn un processus stochastique discret sur un espace
de probabilité (Ω, F, P). Le processus stochastique Xn vérie la propriété de Markov si et seulement
si la distribution conditionnelle des états futurs, étant donnés les états passés et présent ne dépend
que de l'état présent:
P(Xn+1 = a|X0 = x0 , . . . , Xn = xn ) = P(Xn+1 = a|Xn = xn )
3.3. INFORMATION ET FILTRATION 21

Dénition 20. Une chaîne de Markov est un processus stochastique discret vériant la propriété
de Markov.
Interprétation:

ˆ La dénition ci-dessus peut se reformuler comme suit: Un processus de stochastique est une
chaîne de Markov si et seulement si l'accroissement à l'instant n ne dépend que de la valeur
de Xn−1 :
P(∆Xn+1 = a − xn |X0 = x0 , . . . , Xn = xn ) = P(∆Xn+1 = a − xn |Xn = xn )

ˆ La propriété de Markov est une propriété d'absence de mémoire. Autrement dit, le futur ne
dépend du passé qu'à travers le présent.
ˆ Tout phénomène aléatoire discret dont l'évolution ne dépend que du présent peut être mod-
élisé par une chaîne de Markov.
Exemple 3.2.7 (Modélisation). Cette hypothèse est assez naturelle en nance. En eet, le cours
de l'action à l'instant t représente (théoriquement) l'ensemble de l'information disponible (passée et
présente) à cet instant donné. L'évolution du cours ne doit dépendre alors que du cours à l'instant
t (ie du présent) et des nouvelles informations.
Exemple 3.2.8 (Probabilité d'un chemin). Soit Xn un processus à accroissements indépendants.
D'après la formule des probabilités composées, la probabilité d'une trajectoire (x0 , . . . , xn ) est
donnée par:
P(X0 = x0 , . . . , Xn = xn ) = P(X0 = x0 , . . . , ∆Xn = xn − xn−1 )
= P(X0 = x0 )P(∆X1 = x1 − x0 |X0 = x0 ) × . . . × P(∆Xn = xn − xn−1 |X0 = x0 , . . . , Xn−1 = xn−1 )
| {z }
Formule des probabilités composées
= P(X0 = x0 )P(∆X1 = x1 − x0 |X0 = x0 ) . . . P(∆Xn = xn − xn−1 )|Xn−1 = xn−1
| {z }
P ropritdeM arkov

Interprétation:
Dans le cas des chaînes de Markov, les probabilités de transition pn+1ij = P(Xn+1 = xj |Xn = xi )
issue d'un noeud représentent les lois conditionnelles de l'accroissement ∆Xn+1 .
Exemple 3.2.9 (Calcul des espérances conditionnelles). Soit (Xn )0≤n≤N un processus. On
s'intéresse maintenant au calcul de:
E(∆Xn |X0 , X1 , . . . , Xn−1 )

ˆ Dans le cas général, il faut diérencier toutes les trajectoires (X0 , . . . , Xn−1 ) pour dénir
cette espérance conditionnelle.
ˆ Dans le cas Markovien, l'espérance conditionnelle devient:

E(∆Xn |X0 , X1 , . . . , Xn−1 ) = E(∆Xn |Xn−1 )

ˆ Dans le cas d'accroissements indépendants, l'espérance conditionnelle devient:

E(∆Xn |X0 , X1 , . . . , Xn−1 ) = E(∆Xn )

3.3 Information et Filtration

3.3.1 Filtration
Dénition 21 (Filtration). Soit (Ω, F, P) un espace de probabilité. Une ltration (Fn )n≥0 est une
famille croissante de sous tribus de F .
22 CHAPTER 3. PROCESSUS STOCHASTIQUES (TEMPS ET ESPACE DISCRETS)

Interprétation:
La tribu Fn représente l'information dont on dispose à l'instant n. L'information à un instant
est composée de l'ensemble de l'information passé plus l'information présente. Autrement dit, la
tribu Fn+1 (passé + présent) est composée de la tribu Fn (passé) plus les nouvelles informations
(présent). (Fn )0≤n≤N représente alors une famille croissante de tribus que l'on appelle ltration.
Pour pouvoir étudié un processus stochastique, on doit se donner un espace de probabilité
(Ω, F, P) muni d'une ltration (Fn )0≤n≤N
Exemple 3.3.1. La ltration que l'on considérera en général est la ltration des tribus engendrés
par les va successives appelé ltration naturelle du processus:
Soit Xn un processus stochastique et Fn := σ(X1 , . . . , Xn ). La suite de tribu Fn est croissante:
F0 ⊂ F1 ⊂ . . . Fn−1 ⊂ Fn

(Fn )n≥0 est la ltration naturelle du processus X .


Dénition 22 (Processus adapté). Un processus Xn est adapté à la ltration (Fn )n≥0 , si pour
chaque n, Xn est Fn -mesurable.
Remarque 8.
Un processus est (bien sûr) adapté à sa ltration naturelle.
Une variable aléatoire est mesurable par rapport à une tribu.
Un processus (ie une famille de variables aléatoires) est adapté à une ltration (ie une famille de
tribus).
Dénition 23 (Processus prévisible). Un processus Xn est prévisible par rapport à la ltration
Fn si:
∀1 ≤ p ≤ n (X0 , . . . , Xp ) est Fp−1 − mesurable.
avec la convention F0 = {∅, Ω}, lorsque p = 1.
Interprétation:
Si un processus est adapté à un ltration, alors je connais sa valeur Xn à l'instant n. Si un
processus est prévisible par rapport à une ltration, alors je connais sa valeur Xn à l'instant n − 1.
Exemple 3.3.2. ˆ Un processus retardé est prévisible (Xn− = Xn−1 ).

ˆ Soit Xn un processus: Xn−1 est prévisible, ∆Xn+1 est imprévisible, Xn est adapté par
rapport à sa ltration naturelle Fn .
ˆ Soit un portefeuille composé d'une quantité Hn de l'action Sn et Fn la ltration naturelle de
Sn . Hn est un processus prévisible, Sn est un processus adapté.
Chapter 4

Calcul Stochastique - Théorie des


Martingales

Objectifs:
ˆ Introduction de la notion de martingale et de ses principales propriétés.
ˆ Interprétation en terme de jeu équitable.
ˆ Martingale Stochastique.

4.1 Intégrale stochastique et Variation Quadratique

4.1.1 Intégrale stochastique discrète

Dénition 24. Soit (Xn )0≤n≤N un processus stochastique et (Yn )0≤n≤N un pro-
cessus prévisible sur un même espace de probabilité (Ω, F, P) muni d'une ltration
(Fn )0≤n≤N .
On appelle transformée de X par Y , le processus (Zn )0≤n≤N décrit par
Z0 = Y0 X0
n
X
Zn = Z0 + Yk ∆Xk ∀0 ≤ n ≤ N
k=1

Interprétation:
On notera que les accroissements du processus (Zn )0≤n≤N sont donnés par
∆Zn = Yn ∆Xn

A chaque instant (n − 1), les v.a. Yn et Xn−1 sont connues (Fn−1 -mesurable). Seule la v.a. Yn est
imprévisible (aléatoire lorsque l'on connaît Fn−1 ), en ce sens où Yn n'est pas Fn−1 -mesurable.
Remarque 9. On vient de dénir
R la version discrète de l'intégrale stochastique, objet également
fondamental en temps continu ( t
0
Ys dXs ).

Exemple 4.1.1 (Fortune d'un joueur au casino). X : somme de Bernouilli, ∆X : {−1,


P +1} selon
une loi de Bernouilli , Y montant de la mise, X adapté, Y prévisible ⇒ Zn = Z0 + nk=1 Yk ∆Xk
fortune du joueur à l'instant n.

23
24 CHAPTER 4. CALCUL STOCHASTIQUE - THÉORIE DES MARTINGALES

Exemple 4.1.2 (Portefeuille en bourse). Un portefeuille composé d'une action S est une intégrale
stochastique, ie la transformé de l'action S par une stratégie d'investissement Y .
X : valeur de l'action, ∆X ({−b, +h}) hausse ou baisse de l'action, Y stratégie d'investissement
(nombre de parts dans chaque action). P
X adapté, Y prévisible ⇒ Zn = Z0 + k=1 Yk ∆Xk valeur du portefeuille.
n

Exemple 4.1.3 (Portefeuille de couverture). Ceci est vrai en particulier pour le portefeuille de
couverture composé de Hn actions Sn et βn obligations sans risque Bn :
n
X n
X
Cn = C0 + Hk ∆Sk + βk ∆Bk
i=1 i=1

Si l'on suppose le taux d'intérêt nul sur une période, on obtient: ∆Bk = 0 et:
n
X
Cn = C0 + Hk ∆Sk
i=1

4.1.2 Variation Quadratique

Dénition 25. La variation quadratique entre deux processus réels (Xn )0≤n≤N et
(Yn )0≤n≤N , dénis sur un même espace de probabilité (Ω, F, P) muni d'une ltration
(Fn )0≤n≤N , est le processus aléatoire (hX, Y in )0≤n≤N déni par
n
X
∀0 ≤ n ≤ N hX, Y in = hY, Xin = ∆Xk ∆Yk
k=1

avec la convention hX, Y i0 = 0.

4.1.3 Intégration par parties (discrètes)

n n
(4.1)
X X
Xn Yn = Xk−1 ∆Yk + Yk−1 ∆Xk + hX, Y in
k=1 k=1

Interprétation:
Dans l'égalité précédente, bien diérencier les processus prévisibles et les processus adaptés par
rapport à Fn . Comme Xn−1 et Yn−1 sont prévisibles, les deux premiers termes sont des intégrales
stochastiques.
Preuve:

∆(XY )n = Xn Yn − Xn−1 Yn−1


= Xn−1 (Yn − Yn−1 ) + Yn−1 (Xn − Xn−1 )
+(Xn − Xn−1 )(Yn − Yn−1 )
= Xn−1 ∆Yn + Yn−1 ∆Xn + ∆Xn ∆Yn

On obtient ainsi la formule d'intégration par parties discrète 


4.2. MARTINGALES 25

4.2 Martingales

Dénition 26 (Martingale). ˆ On appelle Fn -martingale un processus


(Mn )0≤n≤N tel que E(Mn+1 |Fn ) = Mn , pour tout 0 ≤ n ≤ N . Lorsqu'il
n'y a pas d'ambiguité, on dit simplement que (Mn )0≤n≤N est une martingale.
ˆ On appelle sous-martingale un processus (Mn )0≤n≤N tel que E(Mn+1 |Fn ) ≥
Xn , pour tout 0 ≤ n ≤ N .
ˆ On appelle sur-martingale un processus (Mn )0≤n≤N tel que E(Mn+1 |Fn ) ≤ Xn ,
pour tout 0 ≤ n ≤ N .

On choisira en général la ltration naturelle du processus, ie l'information correspond aux


valeurs successives du processus.
Interprétation 1: Une martingale est un processus purement aléatoire: la meilleure estimation
que l'on peut donner de sa valeur future est sa valeur présente. Autrement dit, on n'a pas plus
d'idée sur une tendance à la hausse ou à la baisse. Dans un marché nancier, dire que le cours
d'une action Sn est martingale revient à dire que la meilleure estimation que l'on peut faire du
cours de demain est sa valeur d'aujourd'hui.
Interprétation 2:
ˆ Martingale: jeu équitable (en moyenne, le joueur ne gagne pas et ne perd pas) [Pile ou face],

ˆ Sous-martingale: jeu favorable (en moyenne, le joueur gagne de l'argent) [Bourse],

ˆ Sur-martingale: jeu défavorable (en moyenne, le joueur perd de l'argent) [Casino].

Exemple 4.2.1. Soit Sn = ni=1 i où les i sont iid de moyenne nulle. Alors Sn est une martingale
P
(par rapport à sa ltration naturelle Fn ):

E(Sn+1 |Fn ) = Sn + E(n+1 ) = Sn

Exemple 4.2.2. Soit Z une variable aléatoire. Le processus d'espérance conditionnelle Xn =


E(Z|Fn ) est une martingale.

E(Xn+1 |Fn ) = E(E(Z|Fn+1 )|Fn ) = E(Z|Fn ) = Xn

Propriétés 6 (Propriétés des martingales). ˆ (Mn )0≤n≤N est une martingale si et seulement
si:
E(∆Mn+1 |Fn ) = 0

ˆ (Mn )0≤n≤N est une martingale si et seulement si:

E(Mn+k |Fn ) = Mn ∀k ≥ 0

La moyenne d'une martingale est constante au cours du temps:

E(Mn ) = M0 , ∀n ∈ N

ˆ La somme de deux martingales est une martingale.

Preuve en exercice.
Nous introduisons maintenant la notion de transformée de martingale. Cette extension permet
d'étudier la propriété de martingale pour des intégrales stochastiques discrètes.
26 CHAPTER 4. CALCUL STOCHASTIQUE - THÉORIE DES MARTINGALES

Proposition 2. Soit (Mn )0≤n≤N une martingale et soit (Hn )0≤n≤N un processus prévisible par
rapport à la ltration (Fn )0≤n≤N . Alors la suite (Xn )0≤n≤N dénie par:
X0 = H 0 M0
n
pour n ≥ 1
X
Xn = X0 + Hi ∆Mi
i=1

où ∆Mi = Mi − Mi−1 ,
est une martingale par rapport à (Fn )0≤n≤N
Interprétation:
X est appelé transformée de la martingale M par le processus prévisible H .
Dans le cas des marchés nanciers où nous montrerons que le prix actualisé d'une action est une
martingale, nous construirons le portefeuille de couverture comme une transformée du cours de
l'action (ie de la martingale) S par une stratégie de couverture (ie un processus prévisible) H .
Preuve en exercice.
Dénition 27. On dit qu'un processus adapté (An )0≤n≤N est un processus croissant prévisible si
A0 = 0, An ≤ An+1 et si An+1 est Fn -mesurable.
On a alors l'important résultat suivant.
Proposition 3 (Décomposition de Doob-Meyer). Toute sous-martingale (Xn )0≤n≤N s'écrit de
façon unique sous la forme
Xn = Mn + An
avec (Mn )0≤n≤N une martingale et (An )0≤n≤N un processus croissant prévisible. (An )0≤n≤N
s'appelle le compensateur de la sous-martingale (Xn )0≤n≤N et est égal à:
An+1 = An + E(∆Xn+1 |Fn )

Interprétation:

ˆ Toutes sous-martingales peut se décomposer en une partie prévisible et une partie imprévis-
ible (ou aussi purement aléatoire ou encore martingale).
ˆ Compensateur dans le sens où une sous-martingale moins son compensateur est une martin-
gale.
Preuve en exercice.

4.3 Martingales exponentielles

Dénition 28 (Exponentielle Stochastique). A un processus (Xn )0≤n≤N on associe l'exponentielle


stochastique En (X) dénie par E0 (X) = 1 et
En (X) = (1 + ∆X1 ) . . . (1 + ∆Xn ), 1≤n≤N

Le terme "exponentielle stochastique" vient de l'analogie avec le temps continu où cette quantité
devient une exponentielle.
Exemple 4.3.1. Soit Sn le prix d'une action et Rn le rendement d'une action entre l'instant
n − 1 et l'instant n: Rn = ∆S
Sn . Alors, on peut exprimer la valeur d'une action en fonction de ses
n

rendements successifs:

Sn = Sn−1 + Rn+1 Sn−1 = Sn−1 (1 + Rn+1 )


N
Y
= S0 (1 + Ri )
i=1
4.3. MARTINGALES EXPONENTIELLES 27

En posant Vn = ni=1 Ri , on peut alors exprimer le prix d'une action comme une exponentielle
P
stochastique de la somme des rendements:
Sn = S0 En (V )

Interprétation:
Comme les informations sur les cours sont donnés en termes de rendement, les exponentielles
stochastiques seront utiles dans le cas de l'étude des cours d'actions.
Propriétés 7. 1. En (X)En (X) = En (X + Y + hX, Y i)
2. 1/En (X) = En (−X ∗ ), où X0∗ = 0 et ∆Xn∗ = ∆Xn
1+∆Xn .
3. (En (X))0≤n≤N est une martingale si et seulement si (Xn )0≤n≤N est une martingale.
Preuve:

1. On remarque que:
(1 + ∆Xn )(1 + ∆Yn ) = 1 + ∆Xn + ∆Yn + ∆Xn ∆Yn
= 1 + ∆(X + Y + hX, Y i)n

Par récurrence. La formule est vraie pour n = 0. Supposons qu'elle soit vraie pour n − 1 et
montrons qu'elle sera alors vraie au rang n:
En (X)En (Y ) = En−1 (X)En−1 (Y )(1 + ∆Xn )(1 + ∆Yn )
= En−1 (X)En−1 (Y ) (1 + ∆(X + Y + hX, Y i)n )
= En−1 (X + Y + hX, Y i) (1 + ∆(X + Y + hX, Y i)n )
| {z }
Récurrence
= En (X + Y + hX, Y i)

2. La deuxième propriété est une conséquence immédiate de la première. En eet, par dénition
de (Xn? )0≤n≤N , nous avons
1 + ∆Xn − ∆Xn? − ∆Xn ∆Xn? = 1 + ∆Xn − ∆Xn? (1 + ∆Xn ) = 1

Par conséquent, on obtient


1 + ∆(X − X ? − hX, X ? i)n = 1

et nalement
En (X) × En (−X ? ) = En (X − X ? − hX, X ? i) = 1

3. En utilisant le fait que En−1 est Fn−1 -mesurable, on obtient:


E(En (X)|Fn−1 ) = E((1 + ∆Xn )En−1 (X)|Fn−1 )
= En−1 (X)E((1 + ∆Xn )|Fn−1 )

donc

E(En (X)|Fn−1 ) = En−1 (X) ⇔ E((∆Xn )|Fn−1 ) = 0

Conclusion: En (X) est une martingale ssi Xn est une martingale.