Académique Documents
Professionnel Documents
Culture Documents
P (A ∩ B)
Probabilité conditionnelle : P (A|B) =
P (B)
et
fX (x) = λe−λx pour x ≥ 0
Processus stochastiques
Proposition 1.
∞
X
∀i,j pij ≥ 0 et ∀i pij = 1.
j=0
(n)
πj = P [Xn = j].
∞
Distribution initiale : {πi(0) }i=0,1,... avec = 1.
X (0)
πi
i=0
(0)
πj = P [X0 = j] (données)
X∞
(n+1) (n)
πj = πi pij pour n=0,1,. . ..
i=0
Probabilité de passer de l'état i à l'état j en n étapes (transitions)
(n)
pij = P [Xm+n = j | Xm = i]
= P [Xn = j | X0 = i]
En particulier : p(1)
ij = pij .
Équations de Chapman-Kolmogorov :
∞
X
(n+m) (n) (m)
pij = pik pkj
k=0
Proposition 3.
∞
X
(n) (0) (n)
πj = πi pij
i=0
Classication des états
Proposition 4. Soit N le nombre de fois que l'état i sera visité, étant donné X0 = i.
Alors
l'état i est récurrent si et seulement si E[N ] = ∞.
l'état i est transitoire si et seulement si E[N ] < ∞.
État apériodique : si d = 1.
État récurrent positif : l'état récurrent i est récurrent positif si E[Tii ] < ∞,
où Tii = nombre de transitions pour retouner à i.
Théorème 6. Étant donnée une chaîne de Markov irréductible et ergodique, les limites
(pour j = 0, 1, . . .)
(n)
lim pij
n→∞
Alors les πj (pour j = 0, 1, . . .) sont l'unique solution non négative des équations
stationnaires : ∞
X
πj = πi pij
i=0
et
∞
X
πj = 1.
j=0
Processus de Poisson
2. N (t) est une variable aléatoire dont les valeurs possibles sont 0, 1, 2, . . .
4. Si s < t, alors N (t)−N (s) correspond au nombre d'événements qui se sont produits
dans l'intervalle ]s, t].
1. N (0) = 0
3. On a
P [N (∆t) = 0] = 1 − λ∆t + o(∆t)
P [N (∆t) = 1] = λ∆t + o(∆t)
P [N (∆t) ≥ 2] = o(∆t)
Temps entre les arrivées
Posons
pour n = 2, 3, . . .
Ainsi,
1
E(Tn ) = .
λ
Soit
pour n = 1, 2, 3, . . .. On a
n
pour n ≥ 1.
X
Sn = Tk
k=1
Proposition 9.
n
E[Sn ] = .
λ
Chaînes de Markov à temps continu
Théorème 10. Un processus stochastique est une chaîne de Markov à temps continu si
et seulement si dès qu'elle entre dans un état i, on a
1. Le temps passé dans l'état i avant d'eectuer une transition vers un autre état suit
une distribution exponentielle de moyenne 1
vi
, et
2. Lorsque le processus quitte l'état i, il entre dans l'état j avec une probabilité pij
telle que
X
pii = 0 et pij = 1.
j
Notations :
vi = λi + µi pour tout i ≥ 1
pi,i+1 = λi
λi +µi
pour tout i ≥ 1
pi,i−1 = µi
λi +µi
pour tout i ≥ 1
Probabilités limites pour les chaînes de Markov à temps continu
Théorème 13. Sous certaines conditions sur la chaîne de Markov, les probabilités li-
mites satisfont les équations d'équilibres :
X
vj pj = vk pkj pk pour tout j
k6=j
et
X
pj = 1.
j
Les équations d'équilibre pour un processus de naissance et de mort :
1
p0 = ∞
X λn−1 . . . λ1 λ0
1+
n=1
µn . . . µ2 µ1
et
λn−1 . . . λ1 λ0
pn = p0 pour n ≥ 1.
µn . . . µ2 µ1