Académique Documents
Professionnel Documents
Culture Documents
Chapitre 1
Une chaine de Markov à temps continu est un processus aléatoire (𝑋𝑡 )𝑡≥0 dont l’évolution future est
indépendante du passé sachant l’état présent. Par rapport au chaines de Markov à temps discret (𝑋𝑛 )𝑛≥0 ,
la différence se situe dans le fait que la chaine peut changer d’état à n’importe quel moment de 𝑇 =
[0, +∞[ et non uniquement à des instants entiers. Lorsque le processus prend ses valeurs dans un espace
d’états 𝐸 au plus dénombrable, typiquement 𝐸 fini (𝐸 = ℕ), on parle de processus markovien de sauts.
Définition 1
Le processus stochastique (𝑋𝑡 )𝑡≥0 est une chaine de Markov à temps continu si :
C’est la propriété de Markov, l’évolution future est indépendante du passé sachant l’état présent
La chaine de Markov (𝑋𝑡 )𝑡≥0 est homogène si pour tous 𝑡, 𝑠 ∈ ℝ+ , pour tous 𝑖, 𝑗 ∈ 𝐸, on a
La matrice de transition 𝑃 (𝑡) = (𝑝𝑖𝑗 (𝑡))𝑖,𝑗∈𝐸 vérifie les deux propriétés suivantes :
∑ 𝑞𝑖𝑗 = 1
𝑗
1
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
𝜆𝑖 𝑞𝑖𝑗 (ℎ ) + 𝑜 (ℎ ) 𝑠𝑖 𝑖 ≠ 𝑗
𝑝𝑖𝑗 (ℎ ) = {
1 − 𝜆𝑖 ℎ + 𝑜(ℎ ) 𝑠𝑖 𝑖=𝑗
Où,
𝑞𝑖𝑗 les probabilités de transition lorsqu’il y a changement d’état .
𝑜 (ℎ ) représente la probabilité de réalisation de l’évènement avec au moins deux changements d’états.
On en déduit que
𝑜(ℎ)
𝑝𝑖𝑗 (ℎ ) − 𝑝𝑖𝑗 (0) 𝜆𝑖 𝑞𝑖𝑗 + 𝑠𝑖 𝑖 ≠ 𝑗
={ ℎ
ℎ 𝑜(ℎ)
−𝜆𝑖 + 𝑠𝑖 𝑖 = 𝑗
ℎ
1 𝑠𝑖 𝑖 = 𝑗
Où 𝑝𝑖𝑗 (0) = {
0 𝑠𝑖 𝑛𝑜𝑛
Alors , on a
Définition 4
On appelle générateur infinitésimal (ou matrice génératrice), la matrice dont le terme général est 𝑎𝑖𝑗 pour
𝑖 ≠ 𝑗 et −𝜆𝑖 pour le terme diagonal d’ordre 𝑖. Cette matrice est notée 𝐴.
La matrice 𝐴 est une matrice carrée à coefficients 𝑎𝑖𝑗 réels positifs sauf sur la diagonale. La somme des
coefficients d’une même ligne de 𝐴 vaut zéro.
∑ 𝑎𝑖𝑗 = 0
𝑗∈𝐸
En notation matricielle, on a 𝐴𝐼 = 0 . Où 𝐼 est un vecteur dont toutes les composantes sont égales à 1 et
0 est un vecteur dont toutes les composantes sont égales à 0.
Exemple 1
−2 1 1
La matrice 𝐴 = ( 0 −1 1 )
1 2 −3
Pour les probabilités de transition de l’instant 0 à l’instant 𝑡 + ℎ (ℎ > 0), on considère l’état à l’instant
intermédiaire 𝑡. On obtient
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
En notation matricielle, on a
𝑃 (𝑡 + ℎ ) = 𝑃 (𝑡)𝑃(ℎ)
𝑃(𝑡+ℎ)−𝑃(𝑡) 𝑃(ℎ)−𝐼
D’où ℎ
= 𝑃(𝑡) ℎ
𝑃(𝑡 + ℎ ) − 𝑃(𝑡) 𝑃 (ℎ ) − 𝐼
𝑃́ (𝑡) = lim = 𝑃(𝑡) lim = 𝑃 (𝑡)𝐴
ℎ→0 ℎ ℎ→0 ℎ
De même, si on considère l’état à l’instant intermédiaire ℎ entre 0 et 𝑡 + ℎ et qu’on laisse tendre ℎ vers 0,
on obtient l’équation différentielle matricielle
𝑃́ (𝑡) = 𝐴𝑃 (𝑡)
(𝐴𝑡)𝑛
𝑃 (𝑡) = 𝑒 𝐴𝑡 = ∑ ,𝑡 ≥ 0
𝑛!
𝑛≥0
𝐴 = 𝑆𝐷𝑆 −1
Où , 𝐷 la matrice diagonale des valeurs propres de 𝐴 et 𝑆 est une matrice inversible dont les colonnes sont
des vecteurs propres associés à ces valeurs propres. On a alors
𝑒 𝐴𝑡 = 𝑃(𝑡) = 𝑆𝑒 𝐷𝑡 𝑆 −1
Exemple 2 Soit 𝑋(𝑡) une chaine de Markov à temps continu à valeurs dans {0,1,2} dont la matrice
génératrice est donnée par
−2 2 0
𝐴 = ( 1 −3 2 )
0 2 −2
Les valeurs propres sont obtenues en résolvant l’équation caractéristique det(𝐴 − 𝜆𝐼) = 0
−𝜆 − 2 2 0
det(𝐴 − 𝜆𝐼) = 𝑑𝑒𝑡 ( 1 −𝜆 − 3 2 ) = −𝜆(𝜆 + 2)(𝜆 + 5) = 0
0 2 −𝜆 − 2
3
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
Les valeurs propres sont donc λ= 0 , -2, 5 . Des vecteurs propres associés à ces valeurs propres sont
respectivement obtenus.
1 −2 −2
(1) (0) (3)
1 1 2
1 −2 −2
𝑆 = (1 0 3)
1 1 2
On trouve alors
1 𝑡 1 −3 −6 −6
𝑆 −1 = 𝑐𝑜𝑚𝑆 = (5 0 −5)
𝑑𝑒𝑡𝑆 15
1 −3 2
La matrice 𝐴 s’écrit
1 1 −2 −2 0 0 0 3 6 6
𝐴= (1 0 3 ) (0 −2 0 ) (−5 0 5 )
15
1 1 2 0 0 −5 −1 3 −2
1 1 −2 −2 𝑒 0𝑡 0 0 3 6 6
𝑃 (𝑡) = 𝑆𝑒 𝐷𝑡 𝑆 −1 = (1 0 3 )( 0 𝑒 −2𝑡
0 ) (−5 0 5 )
15 −5𝑡
1 1 2 0 0 𝑒 −1 3 −2
Ainsi, on obtient
On remarque que toutes les lignes de la matrice de transition limite sont identiques, ce qui signifie que la
chaine oublie l’état initial à long terme. De plus, chaque ligne correspond aux proportions moyennes de
temps à long terme dans les états 0 ,1 et 2, respectivement.
La probabilité d’atteindre un état à partir d’un autre état dans une chaine de Markov à temps continu peut
être obtenue en conditionnant sur le premier changement d’état. Considérons par exemple l’espérance 𝜏𝑖
du temps avant d’atteindre un état à partir d’un autre état.
𝜏𝑖 = 𝐸(temps avant l’état 0 | départ de l’état 𝑖)
1
𝜏𝑖 = + ∑ 𝑞𝑖𝑗 𝜏𝑗
𝜆𝑖
𝑗
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
1
Où 𝜆𝑖
est l’espérance d’un temps de séjour à l’état 𝑖 (𝑖 ≠ 0). Il suffit donc de résoudre le système avec
𝜏0 = 0.
Exemple 3 Une chaîne de Markov à temps continu sur les états 0, 1 et 2 a comme générateur
−3 2 1
𝐴 = ( 2 −4 2 )
0 1 −1
En définissant 𝜏𝑖 comme l'espérance du temps avant d'atteindre l'état 2 à partir de l'état 𝑖, on obtient les
équations
1 2 1
𝜏0 = + 𝜏1 + 𝜏2
3 3 3
1 1 1
𝜏1 = + 𝜏0 + 𝜏2
4 2 2
3
Avec 𝜏2 = 0 . Le temps moyen pour atteindre l’état 2 à partir de l’état 0 est 𝜏0 = 4 .
- Un état 𝑗 est accessible depuis un état 𝑖 s’il existe 𝑡 ≥ 0 tel que 𝑝𝑖𝑗 (𝑡) > 0
- Deux états 𝑖 et 𝑗 communiquent s’il existe 𝑡1 ≥ 0 , 𝑡2 ≥ 0 tels que 𝑝𝑖𝑗 (𝑡1 ) > 0 et 𝑝𝑗𝑖 (𝑡2 ) > 0
- Une chaîne de Markov en temps continu est irréductible si tous ses états communiquent.
Les propriétés d’irréductibilité, de récurrence et de transience d’une chaîne de Markov en temps continu
sont les mêmes que celles d’une chaînes de Markov discrètes.
Remarque 2 une chaine de Markov en temps continu ne peut pas être périodique puisque le temps passé
dans un état quelconque est décrit par une variable aléatoire continue.
1-1-6 Loi de 𝑿𝒕
La loi à l’instant 𝑡 de la chaîne de Markov en temps continu (𝑋𝑡 )𝑡≥0 de loi initiale 𝜋(0) et de générateur
infinitésimal 𝐴, est donnée par
Exemple 4 Le fonctionnement d’une machine est modélisé par un processus de sauts à 2 états, o(panne)
ou 1 (fonctionnement), de générateur
−1 1
𝐴=( )
1 −1
5
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
1 1 1 1
+ 2 𝑒 −2𝑡 − 2 𝑒 −2𝑡 1 1 1 1
= (0,1) (21 1 −2𝑡
2
1 1 −2𝑡 ) = (2 − 2 𝑒 −2𝑡 , 2 + 2 𝑒 −2𝑡 )
2
− 2
𝑒 2
+ 2
𝑒
1- Distribution stationnaire
Soit (𝑋𝑡 )𝑡≥0 un processus markovien de sauts sur un nombre fini d’états. On suppose la chaine irréductible
avec un temps de séjour à tout état 𝑖 de loi 𝐸𝑥𝑝(𝜆𝑖 ).
Une distribution stationnaire 𝜋 = (𝜆𝑖 )𝑖∈𝐸 pour cette chaine est définie par les trois conditions suivantes.
i- 𝜋𝑗 > 0 ∀𝑗 ∈ 𝐸 ;
ii- ∑𝑗∈𝐸 𝜋𝑗 = 1
iii- 𝜋𝐴 = 0
La condition (i) et (ii) montrent que la distribution stationnaire est une distribution de probabilité
strictement positive.
La condition (iii) signifie que le flot de sortie de l’état 𝑗 est égale au flot d’entrée à l’état 𝑗. C’est l’équation
stationnaire.
−2 2 0 0
0 −4 4 0
𝐴=( )
2 0 −4 2
0 2 4 −6
2- Théorème ergodique
Si (𝑋𝑡 )𝑡 est une chaine de Markov irréductible sur un nombre fini d’états, alors on a
Par le théorème ergodique, la probabilité 𝜋𝑗 correspond à la fraction moyenne de temps à long terme que
la chaine passe à l’état 𝑗.
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
Soit (𝑍𝑛 , 𝑛 ≥ 0) la suite des états visités par la chaîne de Markov homogène (𝑋(𝑡))𝑡≥0 d’espace d’état𝐸 ,
et de générateur 𝐴 = (𝑎𝑖𝑗 )𝑖,𝑗∈𝐸 alors le processus (𝑍𝑛 , 𝑛 ≥ 0) est une chaîne de Markov en temps discret
∗
homogène , d’espace d’état 𝐸 et de matrice de transition 𝑄∗ = (𝑞𝑖𝑗 ) donnée par
𝑖,𝑗∈𝐸
𝑎𝑖𝑗
∗ 𝑠𝑖 𝑖 ≠ 𝑗
𝑠𝑖 𝜆𝑖 > 0 , 𝑞𝑖𝑗 = { 𝜆𝑖
0 𝑠𝑖 𝑖 = 𝑗
∗ 0 𝑠𝑖 𝑖 ≠ 𝑗
𝑠𝑖 𝜆𝑖 = 0 , 𝑞𝑖𝑗 ={
1 𝑠𝑖 𝑖 = 𝑗
En outre , 𝜆𝑖 > 0 si et seulement 𝑖 n’est pas absorbant . La chaîne de Markov (𝑍𝑛 , 𝑛 ≥ 0) est appelée
chaine incluse .
Exemple 6 on considère une chaîne de Markov définie sur 𝐸 = {1,2,3,4,5,6} par le générateur :
0 0 0 0 0 0
0 −3 3 0 0 0
0 5 −5 0 0 0
𝐴=
2 1 1 −8 4 0
0 0 2 0 −6 4
(2 0 0 2 1 −5)
1 0 0 0 0 0
0 0 1 0 0 0
0 1 0 0 0 0
𝑄∗ = 1/4 1/8 1/8 0 1/2 0
0 0 1/3 0 0 2/3
(2/5 0 0 2/5 1/5 0 )
On constate que les classes {2,3} et {1} sont récurrentes, la classe {1}est absorbante et la classe {4,5,6} est
transitoire.
7
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
Un processus de Poisson est un processus markovien de sauts (𝑁𝑡 )𝑡≥0 qui compte le nombre d’arrivées
d’un évènement qui se produisent au hasard dans le temps à un taux constat. L’intensité d’un processus de
Poisson est le taux instantané 𝜆 > 0 avec lequel les arrivées se produisent.
Définition 6 un processus de Poisson (𝑁𝑡 )𝑡≥0 est une chaîne de Markov en temps continu à valeurs dans
ℕ de générateur infinitésimal .
𝑎𝑖𝑖 = −𝜆,
𝑎𝑖,𝑖+1 = 𝜆
𝑎𝑖𝑗 = 0 sinon
Remarque 3
- On note (𝑁𝑡 )𝑡≥0 au lieu de (𝑋𝑡 )𝑡≥,0 , car 𝑁𝑡 correspond souvent au nombre d’évènements qui sont
survenus entre l’instant 0 et l’instant 𝑡, par exemple le nombre de voitures arrivant au péage, le nombre
d’appels à un central téléphonique,.. etc
Donc
+∞
𝐴𝑡 −𝜆𝑡
(𝜆𝑈𝑡)𝑛
𝑒 =𝑒 ∑
𝑛!
𝑛=0
Les puissances successives de 𝑈 sont très simples : les coefficients non nuls sont tous au dessus de la
diagonale, donc
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
(𝜆𝑡)𝑗−𝑖
𝑝𝑖𝑗 (𝑡) = 𝑒 −𝜆𝑡 (𝑗−𝑖)!
𝑠𝑖 𝑗 ≥ 𝑖
Supposons que 𝑁(0) = 0, 𝑁(𝑡) représente le nombre d’évènements survenus entre l’instant 0 et l’instant
𝑡. Pour tout 𝑛 ≥ 0 ,
(𝜆𝑡)𝑛 −𝜆𝑡
𝑃 (𝑁(𝑡) = 𝑛 ) = 𝑒
𝑛!
C’est-à-dire à 𝑡 fixé , la variable aléatoire 𝑁𝑡 suit une loi de Poisson de paramètre 𝜆𝑡. Ceci explique
pourquoi on l’appelle processus de Poisson.
Les processus de naissance et de mort peuvent modéliser l’évolution d’une population au cours du temps,
le nombre de clients dans une file d’attente, etc.
Définition 7 un processus de naissance et de mort est un processus markovien de sauts (𝑋𝑡 )𝑡≥0 à valeurs
dans ℕ, dont le générateur infinitésimal 𝐴 = (𝑎𝑖𝑗 )𝑖,𝑗∈ℕ est de la forme :
−𝜆0 𝜆0 0 … .. ..
𝜇 (
− 𝜆1 + 𝜇1 ) 𝜆1 0 .. ..
𝐴=( 1 )
0 𝜇2 −(𝜆2 + 𝜇2 ) 𝜆2 0 ..
⋱ ⋱ ⋱ ⋱ ⋱
Les coefficients positifs 𝜆𝑖 et 𝜇𝑖 sont appelés taux de transition, 𝜆𝑖 , 𝑖 ≥ 0 est le taux de naissance et
𝜇𝑖 , 𝑖 ≥ 1 est le taux de mort . Les transitions possibles à partir de l’état 𝑖 ne peuvent se faire que vers l’état
(𝑖 − 1), en cas de mort, où vers l’état (𝑖 + 1) , en cas de naissance
1- Distribution stationnaire
−𝜆0 𝜋0 + 𝜇1 𝜋1 = 0
𝜆0 𝜆0
𝜋1 = 𝜋0 𝜋1 = 𝜋0
𝜇1 𝜇1
𝜆1 𝜆0 𝜆1
𝜋2 = 𝜋1 𝜋2 = 𝜋
𝜇2 𝜇1 𝜇2 0
𝜆2 𝜆0 𝜆1 𝜆2
𝜋3 = 𝜋2 ⇒ 𝜋3 = 𝜋
𝜇3 𝜇1 𝜇2 𝜇3 0
⋮ ⋮
𝜆𝑖−1 𝜆0 𝜆1 𝜆2 … . . 𝜆𝑖−1
𝜋𝑖 = 𝜋 𝜋𝑖 = 𝜋
𝜇𝑖 𝑖−1 𝜇1 𝜇2 𝜇3 … … 𝜇𝑖 0
{ ⋮ { ⋮
D’où il vient :
𝜆0 𝜆1 … 𝜆𝑛−1
∀𝑛 ≥ 1, 𝜋𝑛 = 𝜋0 ( )
𝜇1 𝜇2 … . 𝜇𝑛
+∞ +∞ +∞ +∞
𝜆0 𝜆1 … 𝜆𝑛−1 𝜆0 𝜆1 … 𝜆𝑛−1
∑ 𝜋𝑛 = 𝜋0 + ∑ 𝜋𝑛 = 𝜋0 + 𝜋0 ∑ = 𝜋0 (1 + ∑ )=1
𝜇1 𝜇2 … . 𝜇𝑛 𝜇1 𝜇2 … . 𝜇𝑛
𝑛=0 𝑛=1 𝑛=1 𝑛=1
On trouve
+∞ −1
𝜆0 𝜆1 … 𝜆𝑛−1
𝜋0 = (1 + ∑ )
𝜇1 𝜇2 … . 𝜇𝑛
𝑛=1
𝜆0 𝜆1 …𝜆𝑛−1
Si la série ∑+∞
𝑛=1 𝜇1 𝜇2 ….𝜇𝑛
est convergente, alors il y a une distribution stationnaire. Sinon , on a 𝜋0 = 0.
Exemple 7 Dans un cabinet médical, l’arrivée des patients peut être décrite par un processus de Poisson
de paramètre = 4/ℎ . La durée de traitement suit une loi exponentielle de moyenne 12 mn . On admet
que la salle d’attente ne contient qu’un seul patient. Le nombre de patients dans le cabinet forment un
processus de naissance et de mort à valeurs dans l’ensemble des états {0,1,2} .
−𝜆0 𝜆0 0 −4 4 0
𝐴 = ( 𝜇1 −(𝜆1 + 𝜇1 ) 𝜆1 ) = ( 5 −9 4 )
0 𝜇2 −𝜇2 0 5 −5
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
𝜆0 𝜆1 . . 𝜆𝑛−1
𝜋𝑛 = 𝜋 , 𝑛 = 1,2
𝜇1 𝜇2 … 𝜇𝑛 0
Avec
2 −1
𝜆0 𝜆1 . . 𝜆𝑛−1 𝜆0 𝜆0 𝜆1 −1 4 16 −1 25
𝜋0 = (1 + ∑ ) = (1 + + ) = (1 + + ) =
𝜇1 𝜇2 … 𝜇𝑛 𝜇1 𝜇1 𝜇2 5 25 61
𝑛=1
𝜆 20 𝜆 𝜆 16
d’où𝜋1 = 𝜇0 𝜋0 = 61 et 𝜋2 = 𝜇0 𝜇1 𝜋0 = 61
1 1 2
45
La probabilité qu’un patient qui arrive soit traité vaut 𝜋0 + 𝜋1 = 61.
11
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
Série no 1
−1 1
𝐴=( )
1 −1
Exercice 2 Soit (𝑋𝑡 )𝑡≥0 un processus markovien de sauts à deux états {0,1} de matrice génératrice
−𝜆 𝜆
𝐴=( )
µ −µ
Exercice 3 Une chaîne de Markov à temps continu sur les états 0,1 et 2 a comme générateur
−3 2 1
𝐴 = ( 2 −4 2 )
0 1 −1
Exercice 4 Une chaîne de Markov à temps continu sur les états 0,1et 2 possède comme générateur la
matrice
−2 1 1
𝐴 = ( 2 −4 2 )
0 1 −1
Déterminer la fraction moyenne de temps à long terme que la chaîne passe à l’état 0.
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
Exercice 5 Un courtier d’assurance reçoit des appels de clients selon un processus de Poisson d’intensité
4 par heure. La conversation téléphonique avec un client dure un temps de loi exponentielle d’espérance
1/4 d’heure. Si un autre appel arrive durant cette période, il est mis en attente jusqu’à la fin de la
conversation en cours, mais alors la ligne téléphonique devient inaccessible et tout nouvel appel est rejeté.
D’autre part, un client en attente s’impatiente et libère la ligne après un temps de loi exponentielle
d’espérance 1/4 d’heure. On fait les hypothèses habituelles d’indépendance et on s’intéresse à ce qui se
passe dans ce système à long terme. Déterminer
Exercice 6 On considère un processus d’arrivées poissonien de taux 2 par minute, durées de services
exponentielles de moyenne 1 minute, 3 serveurs. On suppose de plus qu’il n’y a pas de salle d’attente,
c’est-à-dire que si un client arrive et que les 3 serveurs sont occupés, il repart aussitôt.
1- Donner le générateur infinitésimal et le graphe de transition.
2- Déterminer la loi stationnaire
3- Quel est le nombre moyen de clients dans le système en régime stationnaire ?
4- Quel est le temps moyen de séjour d’un client entrant effectivement dans le système ? En
déduire la formule de Little.
−5 2 3 0
4 −7 0 3
𝐴=( )
0 0 −4 4
0 6 0 −6
13
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
Solution de l’exercice 1
2 −2 −1 1
𝐴2 = ( ) = (−2) ( ) = (−2)𝐴
−2 2 1 1
−4 4 −1 1
𝐴3 = ( ) = (−2)2 ( ) = (−2)2 𝐴
4 −4 1 1
8 −8 −1 1
𝐴4 = ( ) = (−2)3 ( ) = (−2)3 𝐴
−8 8 1 1
𝐴𝑛 = (−2)𝑛−1 𝐴 si 𝑛 ≥ 1
Donc
+∞ +∞ +∞ +∞
𝐴
𝐴𝑛 𝐴𝑛 (−2)𝑛−1 𝐴 𝐴 (−2)𝑛 𝐴
𝑒 = ∑ =𝐼+ ∑ =𝐼+ ∑ =𝐼− ∑ = 𝐼 − (𝑒 −2 − 1)
𝑛! 𝑛! 𝑛! 2 𝑛! 2
𝑛=0 𝑛=1 𝑛=1 𝑛=1
1 1 1 1
+ 2 𝑒 −2 − 2 𝑒 −2
= (21 1
2
1 1 )
2
− 2 𝑒 −2 2
+ 2 𝑒 −2
2- Diagonalisons la matrice 𝐴
On a 𝐴 = 𝑆𝐷𝑆 −1 .
Les valeurs propres sont alors obtenus en solutionnant l’équation caractéristique
det(𝐴 − 𝜆𝐼) = 0
−1 − 𝜆 1 ) (
det( = −1 − 𝜆)(−1 − 𝜆) − 1 = 𝜆(𝜆 + 2) = 0 . D’où 𝜆0 = 0 , 𝜆1 = −2 .
1 −1 − 𝜆
1 −1
( ) et ( )
1 1
1 −1
On définit donc 𝑆 = ( ) et on trouve a
1 1
1 𝑡 1 1 1 1/2 1/2
𝑆 −1 = 𝐶𝑜𝑚(𝑆) = ( )=( )
𝑑𝑒𝑡𝑆 2 −1 1 −1/2 1/2
Finalement, on obtient
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
1 1 −2 1 1 −2
1/2 1/2 + 𝑒 − 𝑒
1 −1 𝑒 0 0 )( 2 2 2 2
𝑒 𝐴 = 𝑈𝑒 𝐷 𝑈 −1 =( )( ) = ( )
1 1 0 𝑒 −2 −1/2 1/2 1 1 −2 1 1 −2
− 𝑒 + 𝑒
2 2 2 2
𝑒 𝐴 = 𝑒 𝑈−2𝐼 = 𝑒 𝑈 𝑒 −2 𝐼
𝑈 2
𝑒𝑈 = 𝐼 + (𝑒 − 1)
2
1 1 1 1
+ 2 𝑒 −2 − 2 𝑒 −2
Donc 𝑒 𝐴 = (21 1
2
1 1 )
2
− 2 𝑒 −2 2
+ 2 𝑒 −2
Solution de l’exercice 4
−2𝜋0 + 2𝜋1 = 0,
𝜋0 − 4𝜋1 + 𝜋2 = 0,
𝜋0 + 2𝜋1 − 𝜋2 = 0,
Solution de l‘exercice 5
−4 4 0
𝐴 = ( 4 −8 4 )
0 8 −8
2 2 1
La distribution stationnaire est donnée par 𝜋 = (5 , 5 , 5)
3
La proportion moyenne de temps est 1-𝜋0 =
5
1 3
2- La proportion moyenne de clients est 𝜋0 + 2 𝜋1 = 5
1 1 11 1
3- Le temps moyen qu’un client passe au téléphone est 4
𝜋0 +(8 + 2 4) 𝜋1 = 5
15
UMBB/Faculté des Sciences
Département de Mathématiques Processus stochastiques 2 Master 1 : MSS
Solution de l’exercice 6
𝜋𝐴 = 0
∑ 𝜋𝑖 = 1
𝑖∈𝐸
3 6 6 4
Après calcul, on obtient 𝜋 = (19 , 19 , 19 , 19).
2
𝜌 3
4- Le temps moyen de séjour est : 𝑊 = 𝜆(1−𝜌) = 2 =1
2(1− )
3
𝐿 𝐿
Formule de Little : 𝑊 = 𝜆 = 𝜆(1−𝜋 ) = 1
𝑒 3
Solution de l’exercice 7
0 0 0 0
4 −7 0 3
𝐴=( )
0 0 −4 4
0 6 0 −6
1 0 0 0
4/7 0 0 3/7
𝑄∗ = ( )
0 0 0 1
0 1 0 0
3
𝑡2 = 1 + ∑ 𝑝2𝑘 𝑡𝑘 = 1 + 𝑝22 𝑡2 + 𝑝23 𝑡3 + 𝑝24 𝑡4 = 1 + 𝑡4
′
7
𝑘∈𝐸
7
D’où 𝑡4 = 2