Académique Documents
Professionnel Documents
Culture Documents
Avant d’étudier les chaines de Markov, il est essentiel de définir la notion de processus
stochastique
L’espace des temps T ainsi que l’espace d’états peuvent être discrets ou continus.
Un processus stochastique est dit à temps discret si l’espace des temps est à valeurs discrètes
par exemple T={0,1,2,3, … . . } . Un processus stochastique est dit à temps continu si l’espace
des temps est à valeurs continues par exemple T=[0,+∞[
Exemple
L’observation de la température(en degré Celsius) dans une certaine région donnée chaque
jours de l’année, représente un processus stochastique à temps discret à valeurs continues
Si on observe la température de façon continue dans un certain intervalle de temps, alors dans
ce cas on est en présence d’un processus stochastique à temps continu
L’observation de la quantité en stock d'un certain produit chaque mois de l'année, représente
un processus stochastique à temps discret, dont l'espace d'états est discret aussi.
Après avoir définit la notion de processus stochastique, nous allons en étudier un type
particulier qui sont les chaines de Markov.
Les chaines de Markov sont des processus stochastiques à espace d’états discret, nous
distinguons deux modèles de chaines de Markov : les chaines de Markov à temps discret et les
chaines de Markov à temps continu. La propriété centrale des chaines de Markov comme nous
le verrons est qu’ils sont sans mémoire ; l’état futur d’un système est déterminé par son
présent et ne tient pas compte de son passé : la connaissance de l’état du phénomène à un
instant donné (présent) apporte sur le futur autant d’informations que la connaissance de tout
le passé (le présent résume tout le passé)
Par exemple, l’état du stock à l’instant n + 1 (février) dépend de l’état du stock à l’instant n
(janvier), est donc un processus de Markov
Le cours d’une action n’est pas un processus de Markov car pour connaitre le cours de
l’action dans le futur, il nous faut connaitre son historique (le cours d’une action ne dépend
pas seulement du cours de l’action précédente)
1.2.1 Définition :
( = / = , = ,…, = , = )= ( = / = )
La variable indique l’état dans lequel on est à l’instant n, ainsi = signifie que le
processus est à l’état j à l’instant + 1
Nous savons qu’un système peut admettre un certain nombre d’états différents. La probabilité
pour que la chaîne soit dans un certain état à la + 1è « étape » du processus ne dépend
que de l’état du processus à l’étape précédente ( è étape)et pas des états dans lesquels il se
trouvait aux étapes antérieurs.
En d'autres termes , cette classe particulière de processus est caractérisée par le fait que l'état
présent du processus c'est à dire à l'instant n, résume toute l'information utile pour connaître
son évolution future.
On suppose que l'on connait pour chaque pair d'états i et j et pour chaque instant n, la
probabilité ( , + 1) que le processus soit dans j à l'instant n+1 étant donné qu'il se
trouvait dans i à l'instant n:
( , + 1) = ( = / = )
C'est la probabilité conditionnelle que le processus fasse une transition de l'état i à l'état j au
cours de l'intervalle [n,n+1]
Exemple :
Les chaines de Markov homogènes sont un type particulier de chaines de Markov à temps discret
( , + 1) = ( = / = )=
La propriété d’homogénéité traduit le fait que le les probabilités de passage d’un état à un
autre, ne change pas au cours du temps (les états évoluent au cours du temps mais les
probabilités ne changent pas au cours du temps)
La matrice de transition que l’on note = est une matrice carré d’ordre fini ou
, ∈
infini (selon que l’espace d’état E soit fini ou infini). Les éléments de cette matrice sont donc
les probabilités de transition où i représente l’indice des lignes et j l’indice des colonnes.
Si E est un espace d’état discret fini de taille n, alors la matrice de transition est une matrice
carrée de dimension × :
⋯
= ⋮ ⋱ ⋮
⋯
Exemple
0 1
0.18
0.01
1
( ) ( ) ( ) ( ) ( )
=( , ,…, ,…) / = ( = )
( )
Avec ∑ ∈ =1
( )
Dire qu'initialement le processus est dans l'état revient à considérer que = 1 et bien sûr
( )
=0 ≠
Exemple
b) Distribution des
( )
La distribution de probabilités des différents états est notée , cette dernière est un
( )
vecteur composée des probabilités d’états = ( = ) c'est à dire la probabilité que le
è
système se trouve dans l'état à l'instant n (à la étape du processus). Ainsi :
( ) ( ) ( )
=( , ,…)
( ) ( )
= ( = ) = ( = / = ) ( = )=
∈ ∈
Pour n=1
( ) ( )
= ( = )=
∈
Pour n=2
( ) ( )
= ( = )=
∈
Pour n= 3
( ) ( )
= ( = )=
∈
Et ainsi de suit…
( ) ( ) ( ) 2
= =
( ) ( ) ( )
= =
( )
En appliquant récursivement la formule de on obtient :
( ) ( )
=
Exemple
( )
Déterminer le vecteur des probabilités d’états de l’exemple précédent pour n=1,2,3
( )
= ( + = / = )= ( = / 0 = )
( )
où =
( ) ( )
On pose = qui représente la matrice de transition en n étapes
,∈
Sans démonstration, nous admettrons que la matrice de transition en n étapes est égale à la
è
puissance de la matrice de transition en une étape, c'est-à-dire :
( )
=
- Equation de Chapman-Kolmogorov
( ) ( ) ( )
=
∈
Exemple
Revenons à l’exemple relatif aux consommations des trois produits P1, P2, P3 :
0.6 0.2 0.2
= 0.15 0.7 0.15
0.05 0.05 0.9
Il est possible de décomposer une chaîne de Markov en composantes plus petites qu’on
appelle classes. Chaque classe est plus facile à étudier séparément et qui tous ensembles
permettent de comprendre le comportement de la chaîne globale. Il est à noter que les classes
sont définies à partir de la matrice de transition.
a) Etats communicants
- On dit que l’état j est accessible à partir de l’état i que l’on note ↝ s’il existe
( )
≥ 0 tel que : >0
Ce qui veut dire qu’il existe un chemin permettant de passer de l’état i vers l’état j (en n
transitions)
En d'autres termes, cela traduit le fait qu'on peut atteindre j à partir de i et atteindre i à partir
de j. Il est à noter que la relation ⟷ est une relation d’équivalence sur E.
Si des états communiquent entre eux on dira qu’ils sont dans la même classe. Ainsi, une
chaine de Markov peut être décomposée en plusieurs classes, où à l’intérieur de chacune les
états communiquent entre eux. Pour détecter facilement les classes, l’utilisation du graphe de
transition sera utile
Enfin, une chaîne de Markov est dite irréductible si elle ne possède qu’une seule classe, c'est-
à-dire tous les états communiquent entre eux.
Exemple
Un état i est dit récurrent si partant de i on est sûr de retourner en i, (si on quitte l'état i, il
existe toujours un chemin nous permettant de retourner vers l'état i)
Un état i est dit transient si partant de i on est pas sûr de retourner en i, (si on quitte l'état i, on
peut jamais n' y retourner)
Il est à noter que si un état i n’est pas transient, il est automatiquement récurrent et vice versa.
Propriétés
- Tous les états d’une chaîne de Markov à temps discret finie et irréductible sont récurrents.
Exemple
Un état est dit périodique s’il peut seulement revenir à lui-même après un nombre fixe de
transitions supérieures à 1 (ou multiple d'un nombre fixe).
La période (ou périodicité) d’un état i, que l’on note ( ) est définie par :
( )
()= ≥ 1/ >0
Le PGCD représente le plus grand commun diviseur. Ainsi, la période de l’état i représente le
PGCD de l’ensemble des longueurs (étapes) des chemins allant de i à i.
Par conséquent, si ( ) = 1, l’état i est dit apériodique, ( ) > 1, alors i est périodique
Il est à noter que deux états qui communiquent ont la même période. Ce qui implique que tous
les états d’une même classe ont la même période. Ainsi si une chaîne est irréductible, tous les
états ont la même période.
Si l’on prend l’exemple précédent, on trouve que l’état 1 est périodique de période (1) = 2,
car si on démarre de l’état 1, on y revient au bout de 2 ou 4 ou 6 ou 8 ou 10, etc.
itérations (1) = (2,4,6,8,10, … . ) = 2. L’état 2 communique avec l’état 1, donc cet
état est périodique de période 2. Meme chose pour l’état 6 et 7, ils sont périodiques de période
2.
L’état 4 est apériodique, car si on démarre de l’état 4, on y revient pas après un nombre de
transitions multiple d’un certain nombre fixe. Si on quitte l’état 4, on y revient soit au bout de
2, 3, 4,5,6,7, etc. itérations ce qui implique que (4) = (2,3,4,5,6,7, … . ) = 1
La période d’une chaîne de Markov à temps discret que l’on note D , est égale au PGCD de
chacun des ses états.
= { ( )/ ∈ }
Si = 1, alors la chaîne est dite apériodique, > 1, alors elle est périodique
Exemples
Cette chaîne est apériodique car :
(1) = (3,5,6,8, … . ) = 1
(2) = (3,5,6,8, … . ) = 1
(3) = (2,3,4,5,6, … . ) = 1
(4) = (2,3,4,5,6, … . ) = 1
Ainsi,
= { ( )/ = 1,2,3,4} = 1
Cette chaîne est périodique de période 3. En quittant l’un quelconque des états, on ne peut y
revenir qu’avec un nombre d’étapes multiple de 3 :
= { ( )/ = 1,2,3,4} = 3
b) Etats absorbants
Un état i d’une chaîne de Markov est dit absorbant si = 1 , c'est-à-dire si on atteint cet état,
il est impossible de le quitter.
Une chaîne de Markov est dite absorbante si : elle possède au moins un état absorbant et de
chaque état, il est possible d’atteindre un état absorbant (pas nécessairement en une seule
étape)
Exemple
1 0 0 0 0
⎛0.5 0 0.5 0 0⎞
= ⎜ 0 0.5 0 0.5 0⎟
0 0 0.5 0 0.5
⎝0 0 0 0 1⎠
Généralement, les matrices de transition dans le cas des chaînes de Markov absorbantes sont
réorganisées pour faire apparaitre tout d’abord les états non absorbants puis les états
absorbants. La matrice de transition, prend alors la forme canonique suivante :
0
=
Si la chaîne possède s états absorbants, alors le nombre d’états non absorbants est t=n-s
Q est une matrice de dimension × ( transition des états non absorbant vers les états non
absorbants)
R est une matrice de dimension × (transition des états non absorbants vers les états
absorbants)
Nous avons = 5, =2 =3
1 5 2 3 4
1 0 0 0 0
⎛0 1 0 0 0⎞
= ⎜0.5 0 0 0.5 0 ⎟
0 0 0.5 0 0.5
⎝ 0 0.5 0 0.5 0 ⎠
Donc
0 0.5 0 0.5 0
0 0 0 1 0
= 0.5 0 0.5 = 0 0 0= =
0 0 0 0 1
0 0.5 0 0 0.5
Les chaînes de Markov absorbantes vérifient les propriétés suivantes :
( )
- En rappelant que représente l’élément de la matrice désignant la probabilité
d’aller de i à j en n étapes, alors dans le cas d’une chaîne de Markov absorbante, nous
avons :
0
=
( + + ⋯+ )
- La matrice − est inversible et son inverse est = ( − ) = + + + ⋯,
cette matrice est appelée matrice fondamentale de la chaîne. L’élément de la
matrice N représente l’espérance du nombre de fois que la chaîne passe par l’état j en
sachant qu’elle est partie de l’état i (les états i et j sont non absorbants)
- Nous savons que pour une chaine de Markov absorbante que de chaque état, il est
possible d’atteindre un état absorbant, ce qui implique qu’on est sur qu’on bout d’un
certain moment (nombre d’étapes), la chaine soit absorbée, en d’autres termes la
probabilité que la chaine soit absorbé est 1. Cette proposition est équivalente à :
lim =0
→
- Soit la probabilité d’atteindre l’état absorbant j sachant qu’on est partie de i. Soit
B la matrice dont les éléments sont alors :
=
Nous rappelons que pour une chaîne de Markov à temps discret, la distribution de probabilité
des différents états de la chaîne est définie par :
( ) ( ) ( )
= =
Tel que
( ) ( )
= ( = ) =
∈
- Définition
Remarques
1) n'existe pas nécessairement et si elle existe elle n'est pas nécessairement unique.
- Si une chaîne de Markov est à espace d'états fini, alors elle admet au moins une distribution
stationnaire et est solution du système d'équations suivant:
=
=1
∈
Ainsi, la distribution stationnaire est un vecteur propre à gauche1 de valeur propre 1, mais
dont tous les éléments sont positifs et la somme de ses coefficients est égale à 1.
-Si une chaîne de Markov fini discrète est irréductible et apériodique, alors elle admet une
distribution stationnaire unique
- Si l’espace d’état est fini et que la chaîne n’est pas irréductible, on peut s’attendre à ce que la
chaîne admette plus d’une distribution stationnaire (mais pas nécessairement)
2) Si existe et est unique alors = pour tout état j, tel que représente le temps
moyen (nombre d'étapes) de retour en j
Exemple
0 1 0
1 1
⎛ 0 ⎞
= ⎜2 2⎟
1 1 1
⎝3 3 3⎠
Vérifier que la chaîne admet une distribution stationnaire π unique, puis déterminer cette
distribution
Dans cette partie nous allons étudier le comportement d’une chaine de Markov discrète à long
terme, plus exactement, nous cherchons le comportement limite des probabilités de transition
( ) ( )
et du vecteur des probabilité d'états quand n devient grand.
Exemple
1
Soit une matrice carrée M, un nombre est une valeur propre à gauche de M s’il existe un vecteur ligne V non
nul tel que : = . V est appelé vecteur propre à gauche de la matrice M. Pour déterminer le vecteur V,
on résout le système suivant : ( − ) = 0
Soit { } ∈ℕ une chaîne de Markov irréductible et apériodique, de matrice de transition
définie par ;
0.8 0.2 0 0
0.8 0 0.2 0
=
0.8 0 0 0.2
0.8 0 0 0.2
Théorème
Conséquences
( )
1) La lim → ne dépend pas de l’état initial i
( )
lim 11
= 0.8
→
lim ( ) = 0.8
→
lim ( ) = 0.8
→
La connaissance de i ne modifie pas ma probabilité limite donc cette limite ne dépend pas de i
( )
2) lim =
→∞
( )
c'est à dire lim →∞ ( = ) = lim →∞ =
Il est à noter aussi que ce régime stationnaire à long termes n'est atteint que pour les chaînes
de Markov irréductibles et apériodiques.
Démonstration
( ) ( )
Nous savons que = et les éléments de ce vecteur sont
( ) ( ) ( )
=∑∈
( ) ( ) ( )
lim = lim
→∞ →∞
∈
( ) ( )
lim =
→∞
∈
( ) ( )
lim = =
→∞
∈
( )
Sous forme matricielle cela donne bien : lim →∞ =
Par exemple, soit le nombre de clients dans une banque à l'instant t, si on observe le
nombre de clients chaque heure entre 8h et 16h, nous somme en présence d'une chaine de
Markov à temps discret, maintenant si nous observons le nombre de clients de façon continue
entre 8h et 16h alors dans ce cas, nous somme en présence d'une chaine de Markov à temps
continu.
1.3.1 Définition
Un processus stochastique { } à espace d’état E discret et à temps continu est une chaîne
de Markov à temps continu si pour toute suite d’instants d'observations : , , , … , on
a:
( = / = , = ,…, = ) = ( = / = )
L’état futur du système ne dépend que de l’état présent ,et non pas de ce qui s’est passé
auparvant (propriété de Markov)
Comme dans le cas discret, on s’intéressera seulement aux chaînes de Markov à temps
continu homogènes.
1.3.2 Homogénéité
( = / = )= ( − )⟺ ( = / = )= ( )
C'est-à-dire que la probabilité que le processus passe de l’état i à l’état j dans un intervalle de
temps donné ne dépend que de la longueur de cet intervalle de temps et non pas des instants.
Supposons qu’une CMTC homogène est dans l’état i à l’instant t=0. On suppose qu’aucune
transition n’a eu lieu pendant les t unités de temps suivantes (le système est toujours dans
l’état i). On veut savoir quelle est la probabilité que le système soit toujours dans l’état i, s
temps après t (de t à t+s).
On pose la variable aléatoire qui indique le temps de séjour dans l’état i avant une
transition vers un autre état.
On remarque que la variable aléatoire est sans mémoire et comme nous le savons la loi
exponentielle est la seule loi continue à avoir cette propriété, donc suit la distribution
exponentielle de paramètre
Ce qui veut dire que si le système passe un certain temps dans un état i, la distribution du
temps restant jusqu’à la prochaine sortie de i est la même quelle que soit le temps déjà passé
dans l’état i.
Démonstration :
( > + / > )= ( = , ≤ ≤ + / = , 0≤ ≤ )
= ( = , ≤ ≤ + / = ) éé
= ( > ) é é ′ℎ é é é
-le temps passé par un état i a une distribution exponentielle de taux (ou paramètre) qui
représente la vitesse avec laquelle le processus sort de l’état i. Ainsi, ( ) = représente le
temps moyen passé dans l’état i avant de transiter vers un autre état.
- lorsque le temps de séjour dans l'état i se termine, le processus transite vers un autre état j
avec probabilité (probabilité de choix de la destination vers laquelle le système va se
diriger aprés avoir quitté l'état i) on suppose aussi que le processus quitte l'état i, sa
destination sera un état différent de i (i ne revient pas à lui même) ( = 0), nous avons ainsi
:
=1
Remarque :
Lorqu’un état i est quitté, le prochain état visité ne dépend ni du temps passé dans i, ni du
chemin par lequel on est arrivé dans i
Nous avons défini maintenant, la variable aléatoire qui représente le temps de séjour dans
l’état i avant une transition quelconque. Nous nous interessons maintenant au temps de séjour
dans l’état i avant une transition vers un état spécifique disons j
On pose la variable aléatoire qui indique le temps passé dans i avant une transition vers j
Cette variable aléatoire à une distribution exponentielle de taux qu’on appelle taux de
transition de i vers j
Ainsi le système passe en moyenne unités de temps dans i avant de transiter vers j
La variable aléatoire implique les résultats suivants :
- =∑
- ( )=
∑
- = ⟺ =
A une CMTD nous avons associé une matrice P, dite matrice des probabilités de transition, dont
l’élément est la probabilité de se rendre dans l’état j en quittant l’état i. De même, nous pouvons
associer à une CMTC une matrice Q dite générateur infinitésimal, dont l’élément est le taux de
transition de l’état i vers l’état j (i≠j). Les éléments diagonaux sont choisis par définition égaux
à l’opposé de la somme des autres éléments de la ligne
=−
tel que
( )= + ( )= + ( ) ∀ ≠
( )=1− + ( )=1+ + ( )
On a donc :
Exemple
Soit Q le générateur infinitésimal d’une CMTC
−2 1 1
= 1 −1 0
2 1 −3
- Déterminer
- Déterminer le temps moyen passé dans l’état 1 , puis le temps moyen passé dans l’état
1 avant de transiter vers l’état 3
- Déterminer la probabilité de transition de l’état 3 à l’état 2
Le graphe de transition d’une CMTC est un graphe orienté qui représente les états par des
sommets et dont les arcs correspondent aux taux de transition ≠
De même que pour une CMTD, on peut établir une classification des états d’une CMTC en
état récurrents et états transitoires. Il est à noter toutefois que la notion de périodicité n’existe
pas dans les CMTC. En effet même si le graphe d’une CMTC est périodique, le fait que l’on
passe dans chaque état un temps exponentielle, donc aléatoire retire au processus stochastique
tout caractère périodique.
Pour déterminer les états transients et récurrents d’une CMTC, nous allons définir d’abord la
notion de CMTD incluse dans une CMTC
Définition
Une CMTD incluse dans une CMTC de générateur infinitésimal Q, dont les termes ( ≠ )
sont donnés par = est une chaine de Markov à temps discret dont la matrice de
transition a pour éléments
Les probabilités de transition de la chaîne incluse sont données par :
= =
∑
La chaine incluse caractérise les changements d'états de la CMTC sans tenir compte du temps
écoulé.
Propriété :
Une CMTC est irréductible si et seulement si la CMTD incluse est irréductible
∈ est transient ⇔ ∈ est transient
∈ est récurrent ⇔ ∈ est récurrent
( )=( ( ), ( ), … )2
=0
Propriété
Si une CMTC fini est irréductible alors le vecteur des probabilités stationnaires
existe et est unique, on peut l’obtenir en résolvant le système d’équations suivant :
=0
=1
∈
⎧ =0 ∈
⎪
⎨ =1
⎪
⎩ ∈
2
é ( ) = (0)
Nous pouvons ainsi trouver le vecteur des probabilités stationnaire en résolvant le système
d’équations suivant :
⎧ = ∈
⎪
⎨ =1
⎪
⎩ ∈
Exemple
Soit la CMTC irréductible, définie sur E={0,1,2} et dont le générateur infinitésimal est le
suivant :
−2 2 0
= 2 −3 1
0 2 −2
1) Déterminer les équations d’équilibre de cette CMTC
2) En déduire la distribution stationnaire π
Le processus de Poisson est un processus à temps continu qui est utilisé pour modéliser le
nombre d’événements qui se produisent dans un certain intervalle de temps. On peut
s’intéresser au nombre de pannes d’une machine pendant une année, au nombre de clients
arrivant au guichet de poste entre 8h et 12h, au nombre de voitures qui passent par un péage
pendant une journée, au nombre d’usagers arrivant à un arrêt de bus en une heure, à
l'occurrence des accidents dans une ville pendant une décennie.
1.3.9.1 Définition
1) Le processus est à accroissement indépendant, cela signifie que pour toutes suite
d'instants 0 < < < ⋯ < , les variables aléatoires − sont
indépendantes.
Par exemple, le nombre de véhicules arrivant à un péage entre 11 et 12h n’influe pas sur le
nombre de véhicules qui arriveront entre 12h et 13h
Un processus de comptage qui ne vérifie par cette condition est appelé processus de
Poisson non homogène
3) Le processus est à événements rares, c'est à dire que la probabilité que deux
événements ou plus se produisent dans un intervalle de temps très petit est négligeable
(presque nulle). Plus précisément :
( − ≥ 2) = ( )
( − = 1) = + ( )
( − = 0) = 1 − + ( )
Cette condition indique que augmente à chaque fois de 1 après un temps aléatoire (les
usagers arrivent un à un à l’arrêt de bus) .Ainsi le processus de Poisson n’admet pas d’arrivée
groupée. Un processus de comptage qui admet des arrivées groupées c'est à dire que
( − ≥ 2) n'est plus négligeable est appelé processus de Poisson composé.
01.3.9.2 Propriété
Pour tout ≥ 0 , la variable aléatoire suit une loi de Poisson de paramètre , c'est-à-dire
( )
( = )= pour k=0,1,2,…
!
Par conséquent ( )=
Exemple
Les usagers d’une certaine ligne arrivent à l’arrêt de bus selon un processus de Poisson de
paramètre = 2 par minute (les usagers arrivent à l’arrêt de bus au rythme moyen de deux
par minute selon une distribution de Poisson). représente par exemple le nombre d’usagers
dans l’arrêt de bus pendant une période d’une minute, tel que ~ (2 × 1). Pendant une
période de temps de 10 min, le nombre d’usagers est et suit la loi de Poisson (20)
Théorème
Les variables aléatoires { } , ,… mesurant le temps d'attente entre deux événements
successifs sont indépendantes identiquement distribuées selon la loi exponentielle de
paramètre
Ce qui signifie que la durée moyenne séparant deux événements successifs est égale à
1.3.10.1 Définitions
Un processus de naissance et de mort est une chaîne de Markov à temps continu à valeurs
dans ℕ (E=ℕ = 0,1,2, …). Son principe est le suivant : à partir d’un état , les transitions ne
peuvent se faire que vers l’état ( + 1) ou ( − 1). En d’autres termes, lorsque le processus est
dans l’état , le prochain état visité sera nécessairement ( + 1) ou ( − 1) ce qui nous
donne :
=0 | − |>1 , ∈
Les processus de naissance et de mort sont surtout utilisés pour modéliser l’évolution d’une
population au cours du temps (nombre de clients dans une file d’attente). L’état du système
dans ce cas représente la taille de la population ( taille de la population à l’instant t).
Lorsque l’état du système augmente d’une unité (passage de à + 1), on parle de
« naissance ». Lorsque l’état du système diminue d’une unité (passage de à − 1), on parle
alors de « mort »
=0 | − |>1 , ∈
On pose :
= , = 0,1,2, … ( )
= , = 1,2, … ( )
=0
+ = 1,2, …
Il est à noter que si la taille de la population est 0, il ne peut y avoir de mort , alors =0
Démonstration :
On pose
Pour = 1,2, … on peut écrire = min ( , ), ce qui nous donne d’après les propriétés de
la loi exponentielle ~ ( + )
Les probabilités de transition de la chaîne incluse sont définies dans ce cas par :
, = = 0,1,2, …
+
, = = 1,2, …
+
, ( )= ( = + 1| = )= + ( )
, ( )= ( = − 1| = )= + ( )
( )= ( = | = )=1−( + ) + ( )
La probabilité qu’il ait une naissance dans l’intervalle [t,t+dt] sachant qu’à l’instant t la taille
de la population était i
La probabilité qu’il ait une mort dans l’intervalle [t,t+dt] sachant qu’à l’instant t la taille de la
population était i
La probabilité que le système soit toujours dans l’état i (ni naissance, ni mort) dt temps après t
sachant qu’à l’instant t la taille de la population était i
Exemple :
converge (c'est-à-dire S<∞). Il est à noter que lorsque l’espace d’état E est fini, cette somme
converge toujours, de sorte que l’existence des probabilités limites est assurée.
…
⎧ = = 1,2, …
…
⎨ 1
⎩ =
1+
Comme nous le savons, en régime stationnaire le flux sortant de j (taux de départ) est égal au
flux entrant de j (taux d’arrivée). Ainsi, les équations d’équilibre pour un processus de
naissance et de mort sont les suivantes :
0 =
= 1,2, … + = +
Exemple
Soit un processus de naissance et de mort irréductible d’espace d’état E={0,1,2} tel que:
= = 3, = 4, =2
, =
=−
=0
La théorie des files d’attente permet de modéliser des phénomènes d’attente : attente de
voitures devant un péage, attente devant un feu tricolore, attente dans une salle de réservation
de la SNTF, attente de produits semi fini dans un système de production, etc.
A partir d'un phénomène réel, nous allons créer un modèle virtuel qui nous permet d'en
étudier les performances par exemple le nombre moyen de voitures arrivant à un poste de
péage et le temps moyen de service et puis essayer d'améliorer les performance de la réalité
par exemple déterminer le nombre de postes de péage adéquat qui permet aux clients de ne
pas trop attendre. Pour cela on crée des modèles de file d'attente
Une file d’attente est constitué de deux entités fondamentales qui sont : les clients et les
serveurs. Son principe est le suivant : des clients arrivent dans un lieu donné appelé système
afin d’obtenir un service. Pour obtenir ce service, ils patientent éventuellement un certain
moment (dans la file d’attente) pour ensuite accéder à un ou plusieurs serveurs pour recevoir
le service, pour enfin quitter le système.
Par exemple dans un système de production, les clients sont les pièces et les serveurs sont les
machines qui permettent l’usinage. Dans une salle de réservation de la SNTF, les clients sont
les usagers, les serveurs sont les guichets qui permettent l’achat du billet. Devant un feu
tricolore, les clients sont les voitures, le serveur est le feu vert qui permet aux voitures de
passer. A un péage, les clients sont les voitures et les serveurs les postes de péage. Dans un
port les clients sont les containers et les serveurs les grues.
L’arrivée des clients dans la file est décrite par un processus stochastique de comptage
( )
è
On pose la variable aléatoire mesurant l’instant d’arrivée du client dans le système.
Par convention on pose =0
Soit la variable aléatoire mesurant le temps séparant l’arrivée de deux clients successifs tel
que: = − .
T1 T2 T3 T4
0 A1 A2 A3 A4
Nous supposons, que les variables aléatoires ( ) , ,.. sont indépendantes (les clients
arrivent indépendamment les un des autres) et identiquement distribuées de loi T. Dans ce cas
le processus de comptage correspondant est dit processus de renouvellement.
Généralement, l’arrivée des clients à une file est supposée décrite par un processus de
renouvellement. Le processus d’arrivée le plus simple à étudier est le processus de Poisson.
C’est un processus de renouvellement où les interarrivées sont distribuées selon une loi
exponentielle comme nous l’avons vu dans le chapitre précédent.
Le temps de service
Le temps de service représente le temps que passe un client dans un serveur. On pose la
è
variable aléatoire qui mesure le temps de service du client. On suppose aussi que les
( ) , ,.. sont des variables aléatoires indépendantes identiquement distribuées de loi X.
Le nombre de serveurs
Le service peut être assurée par un ou plusieurs serveurs , c'est-à-dire que le système peut être
composé d’un ou de plusieurs serveurs en parallèle. Dans les systèmes à serveurs parallèles
chaque client n’utilisera le service que d’un seul serveur et tous les serveurs sont supposés
identiques et indépendants les uns des autres
Dés qu’un client entre dans le système, soit il y’a un serveur de libre et le client est
instantanément servi, soit tous les serveurs sont occupés et le client se place dans la file en
attente de libération d’un serveur.
Il est à noter, qu’il existe aussi des systèmes à serveurs en série ou chaque client doit passer
par plusieurs serveurs successifs dans un ordre fixe pour obtenir le service souhaité. La chaîne
de montage automobile représente un système à serveurs en série.
La capacité de la file
La capacité de la file représente le nombre de clients pouvant être présent dans le système en
même temps. La capacité de la file peut être finie (limitée) ou infinie (illimitée). Soit K la
capacité de la file (incluant le ou les clients en service). Dans une file à capacité illimité
K=+∞. (les péages de l’autoroute).Si la capacité de la file est limitée et que cette limite est
atteinte (la file est pleine), un client arrivant ne peut entrer dans la file, alors il repart. On dit
que le client est perdu
La discipline de service
La discipline de service détermine la façon dont les clients seront servis, c’est dire l’ordre de
traitement des clients
1) Les clients sont servis dans leur ordre d’arrivée : on distingue deux méthodes
principales FIFO (First In First Out) et FCFS (First Come First Served):
Dans les deux méthodes le premier arrivé est le premier servi, mais une différence
subsiste entre elles.
Dans FIFO, le premier client arrivé sera le premier à quitter la file. Dans FCFS, le
premier arrivé sera le premier servi. Mais rien n’empêche alors qu’un client qui
commence son service après lui, dans un autre serveur termine avant lui (quitte la file).
FIFO et FCFS sont équivalent dans le cas d’un seul serveur
2) Les clients sont servis dans l’ordre inverse de leur arrivée : on distingue aussi deux
méthodes principales LIFO (Last In First Out) et FCFS (Last Come First Served). Le
principe de ces méthodes est que le dernier arrivé sera le premier servi. A nouveau, il
existe une différence entre les deux méthodes dans le cas ou il y’a plusieurs serveurs.
Dans LIFO, le dernier client arrivé sera le premier à quitter la file. Dans FCFS, le
dernier arrivé sera le premier servi. Aussi, rien n’empêche alors qu’un client qui
commence son service après lui, dans un autre serveur termine avant lui
3) Les clients sont servis aléatoirement (RANDOM ): le prochain client qui sera servi
est choisi aléatoirement dans la file d’attente
4) Les clients sont servis suivant des règles de priorité : cela consiste à servir en
priorité certain types de clients ceux qui demande un service de courte durée, ou ceux
qui sont dans l’urgence
T/X/C/K/Z
C : le nombre de serveurs
K : la capacité de la file
Z : discipline de service
D :loi déterministe où les arrivées des clients sont régulièrement espacées, et le temps de
service est le même pour tous les clients
H: loi hyperexponentielle
3
David George Kendall (1918-2007) est un statisticien anglais, spécialisé dans le calcul des probabilités,
l’analyse des données et les processus stochastiques. Il est surtout connu pour avoir introduit la notation pour
décrire les files d’attente
C : loi de Cox
Lorsque les deux derniers éléments de la notation de Kendall ne sont pas spécifiés, il est sous
entendu que K=+∞ et Z= FIFO
Par exemple La file M/M/1 signifie que les arrivées des clients sont poisonniennes
(interarrivée exponentielle), le temps de service est distribuée exponentiellement, il y’a un
serveur, la capacité de la file est infinie et la discipline est FIFO
La file M/M/3/10 signifie que les arrivées des clients sont poisonniennes, le temps de service
est distribuée exponentiellement, il y’a trois serveurs, la capacité de la file est limitée à 10 et
la discipline est FIFO
Remarque:
Les modèles de base et les plus simple à étudier sont les files markovienne sans mémoire.
Mais souvent en pratique on est amené à utiliser d'autres lois (Erlang, hyperexponentielle,
Cox, etc.) qui modélisent mieux la réalité du phénomène étudié, néanmoins ce genre de
modélisation est beaucoup plus complexe à étudier.
Le calcul des paramètres de performance en régime transitoire sont souvent très complexes, il
est très difficile par exemple de déterminer le nombre de clients dans le système au temps t,
pour cette raison on se limite souvent à l’étude en régime stationnaire (à des instants
quelconques dans le long terme) où les calculs sont beaucoup plus aisés. Ainsi, les résultats
qui seront énoncés dans les sections suivantes font l’hypothèse que le système est dans l’état
stationnaire.
le débit moyen d’entrée c'est à dire le nombre moyen de clients arrivant dans le système
par unité de temps
En régime stationnaire (à long terme), le nombre moyen de clients dans le système est égal à
De plus :
En déduire
= + = +
= ( + )−
Dans ce qui suit nous allons étudier différents types de files d’attente simples 4 :M/M/1,
M /M/1/K, M/M/C, etc.
4
Nous parlons de files simples par opposition aux réseaux de file d'attente qui représentent un ensembles de
files simples interconnectées
de clients servis par unité de temps) , il existe un seul serveur, la file est de capacité infini et
la discipline de service est FIFO.
Lorsqu’un à instant donné t, il y’a clients dans le système, deux événements peuvent se
produire : l’arrivée d’un nouveau client (le processus augmente d’une unité) et le départ d’un
client qui s’en va à la fin de son service (le processus diminue d’une unité). Ainsi, ( )
peut être considéré comme un processus de naissance et de mort, où une naissance correspond
à l’arrivée d’un client dans le système et une mort au départ d’un client du système après la
fin de son service.
Les taux de naissances et de mort sont définis dans le cas de la file M/M/1 comme suit :
= = 0,1,2, …
= = 1,2, …
Comme mentionné plus haut, les arrivées des clients se font selon une loi de Poisson de
paramètre (taux de naissance) et les clients quittent le système après la fin de leur service
avec un taux de service μ (taux de mort)