Vous êtes sur la page 1sur 141

CALCUL STOCHASTIQUE

Espace probabilisé

 Ensemble fondamental

 Mesure de probabilité
Ensemble fondamental
Ensemble fondamental
Ensemble fondamental

xemple

1 Si notre expérimentation est le jet d’une pièce, l’espace d’échantillonnage sera défini
de la manière suivante:

Ωp = {{F} , {P}}

2
Si notre expérimentation est le jet d’un dé, l’espace d’échantillonnage sera défini de la manière
suivante:

Ωd = {1 , 2, 3, 4, 5, 6}
Ensemble fondamental

Cette plateforme est construite sur la théorie des ensembles.

Les évènements élémentaires sont les éléments de l’espace d’échantillonnage Ω


définis comme l’ensemble de tous les évènements élémentaires aussi bien que
leurs unions et leurs intersections.

Les évènements peuvent être considérés comme des sous ensemble de Ω.


Ensemble fondamental
Ensemble fondamental

Le complémentaire du sous ensemble A de l’ensemble Ω noté Ac est le sous


ensemble de tous les éléments appartenant à Ω sans appartenir à A.

Exemple :

Dans l’expérimentation du jet des dés:


Pc = {1 , 3, 5} = I
I = Pc
représente l’ensemble des évènements lorsque le jet produit un nombre impair.
Ensemble fondamental
Ensemble fondamental
Ensemble fondamental
Ensemble fondamental
Ensemble fondamental
La mesure de probabilité

est la mesure de probabilité, un type spécial de fonction appelé mesure et


assignant des probabilité à des sous-ensemble.

ans surprise, les mathématiques de la mesure des probabilités proviennent du


champs de la théorie de la mesure.

a mesure de la probabilité est similaire à celle de la fonction de densité


cumulative. La principale différence est que alors que la fonction de densité de
probabilité est défini sur un intervalle (comme sur R) la mesure de la
probabilité est défini sur les ensembles en général.
La mesure de probabilité
La mesure de probabilité

Variable aléatoire Y
Mesure de probabilité P
La mesure de probabilité

Exemple

Considérons un jeu de jet de pièces ou on gagne 1 lorsque le jet produit face et on


perd 1 lorsque le jet produit pile.

L’espace d’échantillonnage Ω à deux éléments:


ω1 = Face
ω2 = Pile
Soit Ω = {ω1 , ω2}

Si la pièce est juste, les deux évènements seront équiprobable et la probabilité de


mesure P est défini par:
P(ω1 ) = ½
Y(ω2 ) = ½
La mesure de probabilité

Variable aléatoire Y
Mesure de probabilité P

face

pile
La mesure de probabilité
Processus stochastiques

 Filtration

 Processus stochastique
La filtration
La filtration
La filtration
La filtration
La filtration
La filtration
processus stochastiques
processus stochastiques

Variable aléatoire Y
processus stochastiques
Exemple

Considérons un jeu de jet de pièces ou on gagne 1 lorsque le jet produit face et on


perd 1 lorsque le jet produit pile.

L’espace d’échantillonnage Ω à deux éléments:


ω1 = Face
ω2 = Pile
Soit Ω = {ω1 , ω2}

Le profit et la perte du jeu est une valeur aléatoire défini par:


Y(ω1 ) = 1
Y(ω2 ) = -1
processus stochastiques

Mesure de probabilité Variable aléatoire Y

face

pile
processus stochastiques

n processus stochastique peut être vu comme une séquence de variables


aléatoires indexé par le temps.

n processus stochastique S(t) est donc une fonction du temps t et des éléments
individuels ω. On peut noter S (ω) (t) ou St (ω).
Chemin d’échantillonnage et ensembles
d’échantillonnage des processus stochastiques

renons l’exemple du modèle binomiale pour expliquer l’idée derrière chemin


d’échantillonnage et ensemble d’échantillonnage des processus stochastiques.

près deux périodes, l’espace d’échantillonnage pour une action peut être écrite: Ω2 = {HH,
HB, BH, BB} ou H représente le mouvement vers le haut et B le mouvement vers le bas.

ne trajectoire ou un chemin d’échantillonnage pour l’action pourrait être BH.

otons que notre formulation de l’espace d’échantillonnage n’est pas unique. En effet on
pourrait avoir construit notre espace d’échantillonnage basé sur prix des actions plutôt que
sur les trajectoires. Si l’arbre est recombiner, on perdrait l’information avec cette
formulation sur le résultat BH devenu confondu à celui de HB.
Chemin d’échantillonnage et ensembles
d’échantillonnage des processus stochastiques

eformulons l’espace d’échantillonnage de manière à générer le plus d’information possible de


l’expérimentation.

aintenant, qu’est qui se passerait au bout de la troisième période de temps?

Après
la troisième période de temps, l’espace d’échantillonnage devient:

Ω3 =
{HHH, HHB, HBH, HBB, BHH, BBH, BHB, BBB}

Claire
ment, l’espace d’échantillonnage s’est épandu pour refléter les informations supplémentaires relatif
au troisième mouvement de l’action tout en conservant les informations liés au premier et au
deuxième mouvement.
Chemin d’échantillonnage et ensembles
d’échantillonnage des processus stochastiques

lus le nombre de période augmentent plus le nombre d’évènements


élémentaires contenant les informations liées au différents mouvements
augmentent. Il devient très compliquer de tracer toutes ses informations.

ue faire pour enregistrer les informations croissantes? Nous devons définir un


nouvel objet mathématique, la filtration.
Chemin d’échantillonnage et ensembles
d’échantillonnage des processus stochastiques

lus le nombre de période augmentent plus le nombre d’évènements


élémentaires contenant les informations liées au différents mouvements
augmentent. Il devient très compliquer de tracer toutes ses informations.

ue faire pour enregistrer les informations croissantes? Nous devons définir un


nouvel objet mathématique, la filtration.
Introduction à l’espérance
conditionnelle

 Espérance

 Espérance conditionnelle
Espérance
Espérance
Espérance
Espérance
Espérance
Espérance
Espérance
Espérance conditionnelle

usqu’à présent, on a discuté que d’espérance inconditionnelle. Nous allons maintenant


introduire l’espérance conditionnelle qui est l’espérance conditionnelle sur des
information

a différence entre espérance conditionnelle et espérance non conditionnelle pourra


être visualiser à travers un jeu de cartes.

Nous commençons par assigner une valeur numérique à chaque carte.


 Les cartes 1 à10 valent chacune un point.

 Le joker vaut 2 points

 La reine vaut 4 points

 Le roi vaut 5 points


Espérance conditionnelle

Exemple d’espérance inconditionnelle

ire une carte, quelle est valeur du point espérée de la carte?

xemple d’espérance avec condition

n assumant qu’on a déjà tiré deux cartes, une reine et un valet.

n n’a pas remis les cartes dans le lot.

ire une carte, quelle est valeur du point espérée de la carte?


Espérance conditionnelle
Espérance conditionnelle

aintenant on peut étendre nos connaissances des filtration et mesures à la définition de


l’espérance conditionnelle pour inclure l’espérance conditionnelle sur la filtration.

athématiquement, on peut définir:

E [X|F]

pour une valeur aléatoire X et une filtration F.

C
e concept est utile pour la définition du martingale qu’on verra plus tard dans cette section.
Espérance conditionnelle
Espérance conditionnelle

omme cas spéciale de la propriété 2 on a

E[E[X| F] ] = E[X ]
Pas
d’information est toujours une plus petite information que toute information

xtraire ce qui est connu. Si X est F-mesurable, alors la valeur de X est connu vu qu’on connait F.
alors
E[X|
F] = X

xtraire ce qui est connu par extension : par extension, si X est F mesurable mais Y ne l’est pas.

E[XY| F] = X E[Y| F]
Espérance conditionnelle
Espérance conditionnelle
Martingale

 Martingale

 Processus Markov
Martingales
Martingales
Martingales

La deuxième équation nous dit que la valeur espéré conditionnel de M au temps


t+1 sur toutes les informations disponible jusqu’au temps t est la valeur de M à
l’instant t. En fait, le martingale est un processus sans dérive.

Si on prend l’espérance des deux cotées alors:


E[Mt+1 ] = E[Mt]

C’est du à la propriété de la tour de l’espérance conditionnelle.


Martingales
Martingales
Martingales
Martingales
Martingales

Par définition de Xm

E[Y | Fm] = Xm

alors, E[Xn| Fm] = Xm pour m < n et Xn est un martingale pour n= 1, …


Martingales
Martingales

artingale est un très bel outil mathématique, il remplit l’objective de ne plus

voir de dérive et permet de se focaliser sur ce que la probabilité considère


comme

a partie la plus intéressante, les propriétés statistiques des processus purement

léatoires.
Martingales

Markov et Martingale

La propriété de Martingale stipule que la valeur escompté à l’instant t+1 est la
valeur réalisé à l’instant t. Le processus est sans dérive.

Le propriété de Markov stipule que la valeur escompté à l’instant t+1 ne dépend
pas de sa trajectoire jusqu’à l’instant t mais il peut dépendre de la valeur à
l’instant t. Le processus est sans mémoire.

Le processus Martingale est un processus plus fort que le processus de Markov.
Martingales
Processus Markov

es processus Markov et les processus Martingale ne sont pas des synonymes.

e processus Martingale est un processus sans dérive.

arkov stipule que la valeur espéré au temps t+1 ne dépend pas pas de son
histoire jusqu’à t mais dépend de sa valeur à l’instant t. C’est un processus sans
mémoire.
Convergence de suite de variable
aléatoire

Convergence de suite de variable aléatoire


Convergence de suite de variable
aléatoire
Convergence de suite de variable aléatoire
Convergence de suite de variable
aléatoire
Mouvement Brownien

Mouvement Brownien
Mouvement Brownien

Construction du mouvement Brownien

Le mouvement Brownien peut être construit en échelonnant soigneusement une


simple symétrique marche aléatoire.

Considérons l’expérience du jet d’une pièce,


Ri = 1 si face et Ri = -1 si pile.

Examinons les propriétés statistiques de R.

La moyenne : 𝔼 [Ri ] = +1(1/2) + (-1)(1/2)


La variance : 𝕍 [Ri ] = 𝔼 [R2i ] - 𝔼 2 [Ri ] = 𝔼 [R2i ] = 1
Mouvement Brownien
Mouvement Brownien
Mouvement Brownien
Mouvement Brownien
Mouvement Brownien
Mouvement Brownien
Mouvement Brownien
Mouvement Brownien et Martingale
Mouvement Brownien et Martingale
Intégrale d’Itô

 Intégrale Ito
Processus d’Ito
Série de Taylor et Ito
Intégrale Ito

f(x)c

a=x0 x1 Xi-1 xi Xi+1 b=xn x


Intégrale Ito
Intégrale Ito
Intégrale Ito
Intégrale Ito
Intégrale Itô
Intégrale Itô
Intégrale Itô
Intégrale Itô
Intégrale Itô
Intégrale Itô et Martingale
Intégrale Itô et Martingale
Intégrale Itô et Martingale
Intégrale Itô et Martingale
Intégrale Itô et Martingale
Intégrale Itô et Martingale
Intégrale Itô et Martingale
Intégrale Itô et Martingale
Un exemple
Un exemple
Convergence quadratique
Convergence quadratique
Convergence quadratique
Convergence quadratique
Convergence quadratique
Convergence quadratique
Convergence quadratique
Convergence quadratique
Convergence quadratique

u fur et à mesure que la partition s’affine et n tend vers l’infini,

a variation quadratique aura tendance à tendre vers t dans la limite carrée


moyenne.
a transition de la fonction de densité de probabilité
La transition de la densité de probabilité

a transition de la fonction de densité de probabilité de p (y, t; y’, t’) satisfait


deux équations, l'une impliquant des dérivés par rapport à l'avenir état et heure
(y’ et T’) et appelé l'équation avant, et l'autre impliquant des dérivés par rapport
à l'actuel état et temps (y et t) et appelé l'équation arrière.
La transition de la fonction de densité de
probabilité

Du modèle trinomial à la transition de fonction de densité de


probabilité.

La variable y peut augmenter, baisser ou prendre la même valeur après


un pas de temps δt. Ces mouvements ont certaines probabilités
associés avec eux.
La transition de la fonction de densité de
probabilité

ttention: La marche aléatoire trinomiale présentée ici est «discrète»dans le


sens que le temps et la variable aléatoire ne prennent que des valeurs discrète.
Nous allons passer à une variable continue et un modèle continu.

’équation forward

a variable y prend la valeur y’ à l'instant t’, mais comment est-ce arrivé là?.
La transition de la fonction de densité de
probabilité

a probabilité d'être à y’ à l'instant t’ est lié aux probabilités d'être aux trois valeurs
précédentes et de se déplacer dans la bonne direction:

(y, t; y’, t’) = α p(y, t; y’+δy, t’− δt) +(1 − 2α)p(y, t; y’, t’− δt)

+α p(y, t; y’− δy, t’− δt) (1)

ous pouvons facilement développer chacun des termes de la série Taylor au point y’, t’

on obtient:
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité

Observations•

Il s'agit d'une équation différentielle partielle pour p une fonction de deux
variables indépendantes y’ et t’
C'est un exemple d'équation de diffusion.
y et t sont plutôt comme des paramètres dans ce problème, pensez à eux comme
les quantités de départ pour la marche aléatoire.
Ceci est une équation de diffusion. Vous avez besoin de cette relation spéciale
entre α, δt et δy pour obtenir cette équation.
C'est aussi un exemple de mouvement brownien.
Lorsque nous passons aux applications financières, la quantité c est lié à la
volatilité.
La transition de la fonction de densité de
probabilité

’équation backward

ette équation est utile pour calculer les probabilités d'atteindre un état finale
spécifiée de divers états initiaux.

e sera une équation nécessitant des conditions imposées dans le futur et résolu
en remontant le temps.

lors que l'équation forward avait des variables indépendantes t’ et y’, l'équation
bacward a les variables t et y.
La transition de la fonction de densité de
probabilité

Example: A 17h, vous êtes au bureau. (Ceci est le point (y, t).) À 18h, vous serez
à l'un des trois endroits: Le Pub; Toujours au bureau travaillant tard ou chez
Alfred. (Ce sont les points(y + δy, t + δt), (y, t + δt) et (y - δy, t + δt).)Nous allons
regarder la probabilité qu'à minuit soyez au lit. (Ceci est le point (y’, t’).)
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité

n trouve exactement la même équation que celle du forward à un signe prêt.

e signe fait toute la différence.

ttention:

lus généralement, les marches aléatoires donnent des équations backward et


forward plus compliqués et la différence n’est pas juste à un signe près.

ette démarche met en évidence le rôle important jouer par la distribution normale.
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité

'équation de Black-Scholes est:


∂V/∂t + 1/2 σ2S2∂2V/∂S2
+ rs ∂V/∂S -rV = 0
Cette équation doit être
résolu avec la condition final qui dépend de la pay-off.
Chaque contrat aura une
forme fonctionnelle différente en fonction des exigences prescrits à l’instant t = T.

La première étape est de


changer du temps présent en terme du temps future
La pay-off est reçue à
l’instant T mais cette option est valorisé à l’instant t.
On écrit donc:
V(s,t) = e-r(T-t) U(s,t)
∂V/∂t = r e-r(T-t) U(s,t) + e-r(T-t)
∂U/∂t

L’équation différentiel
devient
∂U/∂t + 1/2 σ2S2∂2U/∂S2 +
rs ∂U/∂S = 0
La transition de la fonction de densité de
probabilité

La deuxième étape est d’écrire τ = T-t


Notre équation devient:
∂ U/∂ τ = 1/2 σ2S2∂2U/∂S2 + rs ∂U/∂S
S est un stock que l’on sait normalement distribué, on pose donc intuitivement
que:
ξ = log S
∂/∂S = e-ξ ∂/∂ ξ et ∂2/∂S2 = e-2ξ ∂ 2 /∂ ξ2 - e-2ξ ∂ /∂ ξ
Maintenant, l’équation de Black-Scholes devient

∂ U/∂ τ = 1/2 σ2∂2U/∂ ξ 2 +( r – 1/2 σ2 )∂U/∂ ξ


La transition de la fonction de densité de
probabilité

La dernière étape est simple


On obtient:
x = ξ + (r + σ2/2) τ et U = w(x , τ)

Il s'agit simplement d'une «traduction» du système de coordonnées. C'est un peu


comme l'utilisation du prix à terme de l'actif au lieu du prix au comptant comme
variable.

Après le changement de variable, Black-Scholes devient plus simple.

∂ W/∂ τ = 1/2 σ2∂2W/∂ x2 (1)


La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité

a première étape consiste à trouver une solution spéciale de ∂ W/∂ τ = 1/2 σ2∂2W/∂ x2,
appelée la solution fondamentale. Cette solution présente des propriétés utiles.

a deuxième étape consiste à utiliser la linéarité de l'équation et la propriétés utiles de la


solution spéciale pour trouver la solution générale de l'équation.

a solution de ∂ W/∂τ = 1/2 σ2 ∂2W/∂ x2 sera de la forme suivante:

ταf((x-x’)/τβ) (2)

ù x est une constante arbitraire, et les paramètres α et β sont constantes, à choisir


ultérieurement.
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité
La transition de la fonction de densité de
probabilité
La fonction de densité de probabilité de
transition

Vous aimerez peut-être aussi