Vous êtes sur la page 1sur 34

1) Chaînes de Markov

Avant d’étudier les chaines de Markov, il est essentiel de définir la notion de processus
stochastique

1.1 Processus stochastique


De façon générale, un processus stochastique (ou aléatoire) modélise des phénomènes qui
évoluent dans le temps de manière aléatoire.

Un processus stochastique est un ensemble { } ∈ de variables aléatoires indexées par le


temps t. A chaque instant t, est une variable aléatoire. Ces variables aléatoires sont définies
sur une espace probabilisé (Ω, , )et à valeurs dans un ensemble E qu’on appelle l’espace
d’états. Un état représente une valeur du processus stochastique prise à un instant t..

L’espace des temps T ainsi que l’espace d’états peuvent être discrets ou continus.

Un processus stochastique est dit à temps discret si l’espace des temps est à valeurs discrètes
par exemple T={0,1,2,3, … . . } . Un processus stochastique est dit à temps continu si l’espace
des temps est à valeurs continues par exemple T=[0,+∞[

Un processus stochastique à temps discret consiste observer l'évolution du phénomène à des


instants n précis, on note ce processus généralement { } ∈ℕ

Un processus stochastique à temps continu consiste quand à lui à observer l'évolution du


phénomène de façon continu dans un certain intervalle de temps.

Exemple

L’observation de la température(en degré Celsius) dans une certaine région donnée chaque
jours de l’année, représente un processus stochastique à temps discret à valeurs continues

Si on observe la température de façon continue dans un certain intervalle de temps, alors dans
ce cas on est en présence d’un processus stochastique à temps continu

L’observation de la quantité en stock d'un certain produit chaque mois de l'année, représente
un processus stochastique à temps discret, dont l'espace d'états est discret aussi.

Après avoir définit la notion de processus stochastique, nous allons en étudier un type
particulier qui sont les chaines de Markov.

Les chaines de Markov sont des processus stochastiques à espace d’états discret, nous
distinguons deux modèles de chaines de Markov : les chaines de Markov à temps discret et les
chaines de Markov à temps continu. La propriété centrale des chaines de Markov comme nous
le verrons est qu’ils sont sans mémoire ; l’état futur d’un système est déterminé par son
présent et ne tient pas compte de son passé : la connaissance de l’état du phénomène à un
instant donné (présent) apporte sur le futur autant d’informations que la connaissance de tout
le passé (le présent résume tout le passé)

Par exemple, l’état du stock à l’instant n + 1 (février) dépend de l’état du stock à l’instant n
(janvier), est donc un processus de Markov

Le cours d’une action n’est pas un processus de Markov car pour connaitre le cours de
l’action dans le futur, il nous faut connaitre son historique (le cours d’une action ne dépend
pas seulement du cours de l’action précédente)

1.2 Chaines de Markov à temps discret

1.2.1 Définition :

Soit un processus stochastique { } ∈ℕ à espace d’état E discret et à temps discret. { } ∈ℕ


est une chaine de Markov à temps discret si :

( = / = , = ,…, = , = )= ( = / = )

La variable indique l’état dans lequel on est à l’instant n, ainsi = signifie que le
processus est à l’état j à l’instant + 1

Nous savons qu’un système peut admettre un certain nombre d’états différents. La probabilité
pour que la chaîne soit dans un certain état à la + 1è « étape » du processus ne dépend
que de l’état du processus à l’étape précédente ( è étape)et pas des états dans lesquels il se
trouvait aux étapes antérieurs.

En d'autres termes , cette classe particulière de processus est caractérisée par le fait que l'état
présent du processus c'est à dire à l'instant n, résume toute l'information utile pour connaître
son évolution future.

1.2.2 Probabilités de transition

On suppose que l'on connait pour chaque pair d'états i et j et pour chaque instant n, la
probabilité ( , + 1) que le processus soit dans j à l'instant n+1 étant donné qu'il se
trouvait dans i à l'instant n:

( , + 1) = ( = / = )

C'est la probabilité conditionnelle que le processus fasse une transition de l'état i à l'état j au
cours de l'intervalle [n,n+1]

Exemple :

Une unité de production comprends deux machines automatiques qui fonctionnent


indépendamment l'une de l'autre. Chaque machine a la fiabilité p=0.9 au cours d'une journée,
c'est à dire qu'elle a 10% de chance de tomber en panne pendant cette période soit une
probabilité de 1-p. Dans ce cas elle sera réparée pendant la nuit et se retrouvera en état de
marche le lendemain. Une seule machine peut être réparée à la fois
è
Soit le nombre de machines en panne au début de la journée.

{ } ∈ℕ est un processus de Markov à temps discret, car n=0,1, 2 ,... et E= {0, 1}

Ce processus est markovien car le nombre de machines en pannes au début de la è


journée, ne dépend que du nombre de machines en panne le jour d'avant et non pas des jours
précédents.

1.2.3 Chaines de Markov homogènes

Les chaines de Markov homogènes sont un type particulier de chaines de Markov à temps discret

Une chaîne de Markov { } ∈ℕ est dite homogène si les probabilités de


transitions ( , + 1) ne dépendent pas de l’instant n :

( , + 1) = ( = / = )=

La propriété d’homogénéité traduit le fait que le les probabilités de passage d’un état à un
autre, ne change pas au cours du temps (les états évoluent au cours du temps mais les
probabilités ne changent pas au cours du temps)

1.2.4 Matrice de transition

La matrice de transition que l’on note = est une matrice carré d’ordre fini ou
, ∈
infini (selon que l’espace d’état E soit fini ou infini). Les éléments de cette matrice sont donc
les probabilités de transition où i représente l’indice des lignes et j l’indice des colonnes.

Si E est un espace d’état discret fini de taille n, alors la matrice de transition est une matrice
carrée de dimension × :

= ⋮ ⋱ ⋮

La matrice de transition est stochastique, elle vérifie les conditions suivantes :

∀ , ∈ ∶ ≥0 = 1 (la somme chaque ligne est égale à 1)


1.2.5 Graphe de transition

Un graphe de transition est un graphe orienté représentant la matrice de transition d’une


chaîne de Markov. Les sommets du graphe représentent les différents états de la chaîne. Deux
sommets i et j correspondant respectivement aux états i et j sont reliés si et seulement si la
probabilité de transition de l’état i à l’état j est strictement positive (non nulle) : >0

Exemple

Représentons le graphe de transition de l'exemple précédent

0.81 0.9 0.1

0 1

0.18

0.01
1

1.2.6 Distribution de probabilité d’une chaîne de Markov

a) Distribution de l’état initiale


Chaque système à un état initial. Soit la variable aléatoire qui représente l’état initial du
système, c'est-à-dire à l’instant = 0. La distribution de cette variable aléatoire est notée
( )
, elle est définie par le vecteur suivant :

( ) ( ) ( ) ( ) ( )
=( , ,…, ,…) / = ( = )

( )
Avec ∑ ∈ =1

( )
Dire qu'initialement le processus est dans l'état revient à considérer que = 1 et bien sûr
( )
=0 ≠

Exemple

Soient 3 produits de grande consommation d’un même type. Au début de leur


commercialisation, leur consommation était répartis de la façon suivante : 50% pour le
produit P1, 20% pour le produit P2 et 30% pour le produit P3. Après chaque mois 60% restent
fidèle à P1, 70% restent fidèle à P2 et 90% restent fidèle à P3. Les autres se réorientent de
façon équiprobable entre les deux produits restant.

En supposant que la décision d’un consommateur de changer de produit dépend seulement du


produit consommé le mois d’avant (chaîne de Markov)

Déterminer la distribution de probabilité initiale ainsi que la matrice de transition.

b) Distribution des
( )
La distribution de probabilités des différents états est notée , cette dernière est un
( )
vecteur composée des probabilités d’états = ( = ) c'est à dire la probabilité que le
è
système se trouve dans l'état à l'instant n (à la étape du processus). Ainsi :

( ) ( ) ( )
=( , ,…)

La détermination de cette distribution de probabilité va nous permettre de connaitre quels


états notre système va atteindre aux instants n>0 ( n=1, n=2, n=3,…) et avec quelles
probabilités, elle représente ainsi l’évolution au cours du temps de la loi initiale ( )

Nous allons déterminer ce vecteur des probabilités d’états


( )
Soit { } ∈ℕ une chaîne de Markov de distribution initiale et de matrice de transition P,
alors :
( )
= ( = )

D'après la formule de la probabilité totale :

( ) ( )
= ( = ) = ( = / = ) ( = )=
∈ ∈

Pour n=1

( ) ( )
= ( = )=

Pour n=2

( ) ( )
= ( = )=

Pour n= 3

( ) ( )
= ( = )=

Et ainsi de suit…

On peut représenter les formules précédentes sous forme matricielle :


( ) ( )
=

( ) ( ) ( ) 2
= =

( ) ( ) ( )
= =
( )
En appliquant récursivement la formule de on obtient :
( ) ( )
=

Ainsi, la distribution de probabilité d’une chaîne de Markov homogène est entièrement


déterminée par sa distribution initiale et sa matrice de transition

Exemple
( )
Déterminer le vecteur des probabilités d’états de l’exemple précédent pour n=1,2,3

1.2.7 Probabilités de transition en n étapes

Soit { } ∈ℕ une chaîne de Markov homogène de matrice de transition P. On désigne par


( )
la probabilité d’aller de i à j en n étapes (transitions), elle est égale à :

( )
= ( + = / = )= ( = / 0 = )

( )
où =

( ) ( )
On pose = qui représente la matrice de transition en n étapes
,∈

Sans démonstration, nous admettrons que la matrice de transition en n étapes est égale à la
è
puissance de la matrice de transition en une étape, c'est-à-dire :
( )
=

- Equation de Chapman-Kolmogorov

La probabilité d’aller de i à j en n+m étapes est la probabilité d’aller de i à k (états


intermédiaires) en n étapes et de k à j en m étapes en sommant sur toutes les valeurs possibles
de k

( ) ( ) ( )
=

Ce résultat provient de l’associativité du produit matriciel

Exemple

Revenons à l’exemple relatif aux consommations des trois produits P1, P2, P3 :
0.6 0.2 0.2
= 0.15 0.7 0.15
0.05 0.05 0.9

Si initialement un consommateur consomme le produit P1, quelle est la probabilité qu'il


consommera le produit P3 au bout de 3 mois (3 étapes)?

1.2.8 Distribution du temps de séjour dans un état

Ce point sera abordé au TD

1.2.9 Classification des états

Il est possible de décomposer une chaîne de Markov en composantes plus petites qu’on
appelle classes. Chaque classe est plus facile à étudier séparément et qui tous ensembles
permettent de comprendre le comportement de la chaîne globale. Il est à noter que les classes
sont définies à partir de la matrice de transition.

a) Etats communicants

- On dit que l’état j est accessible à partir de l’état i que l’on note ↝ s’il existe
( )
≥ 0 tel que : >0
Ce qui veut dire qu’il existe un chemin permettant de passer de l’état i vers l’état j (en n
transitions)

- On dira que deux états i et j communiquent et l’on note ⟷ si : ↝ et ↝

En d'autres termes, cela traduit le fait qu'on peut atteindre j à partir de i et atteindre i à partir
de j. Il est à noter que la relation ⟷ est une relation d’équivalence sur E.

Si des états communiquent entre eux on dira qu’ils sont dans la même classe. Ainsi, une
chaine de Markov peut être décomposée en plusieurs classes, où à l’intérieur de chacune les
états communiquent entre eux. Pour détecter facilement les classes, l’utilisation du graphe de
transition sera utile

Enfin, une chaîne de Markov est dite irréductible si elle ne possède qu’une seule classe, c'est-
à-dire tous les états communiquent entre eux.

Exemple

1) Les matrices chaînes sont-elles irréductibles ?


3 1
4 4 0
= ⎛ 1 2 0 1 2⎞
1 1 1
⎝ 3 3 3⎠
0.5 0.5 0 0
0.5 0.5 0 0
=
0.25 0.25 0.25 0.25
0 0 0 1

2) Soit la matrice de transition Etats récurrents et transients


L’une des questions que l’on peut se poser en étudiant un chaîne de Markov est : si la chaîne
part d’un certain point, est-on sûr qu’elle va repasser par ce point de départ au bout d’un
certain temps ?

Un état i est dit récurrent si partant de i on est sûr de retourner en i, (si on quitte l'état i, il
existe toujours un chemin nous permettant de retourner vers l'état i)

Un état i est dit transient si partant de i on est pas sûr de retourner en i, (si on quitte l'état i, on
peut jamais n' y retourner)

Il est à noter que si un état i n’est pas transient, il est automatiquement récurrent et vice versa.

Propriétés

- Tous les états d’une chaîne de Markov à temps discret finie et irréductible sont récurrents.

- Si un état i appartient a une certaine classe C alors,

si i est transient, tous les états de la classe C sont transients.

si i est récurrent, tous les états de la classe C sont récurrents.

Exemple

Soit la matrice de transition suivante :

0 0.5 0 0.25 0 0.25 0


0.5 0 0.5 0 0 0 0
⎛ ⎞
0 0 0 1 0 0 0
⎜ ⎟
=⎜ 0 0 0 0 1 0 0⎟
⎜0 0 0.5 0.5 0 0 0⎟
0 0 0 0 0 0 1
⎝0 0 0 0 0 1 0⎠
Dont le graphe de transition est le suivant :

- Déterminer les états transients et récurrents de cette chaîne de Markov


c) Etats périodiques

Un état est dit périodique s’il peut seulement revenir à lui-même après un nombre fixe de
transitions supérieures à 1 (ou multiple d'un nombre fixe).

La période (ou périodicité) d’un état i, que l’on note ( ) est définie par :
( )
()= ≥ 1/ >0

Le PGCD représente le plus grand commun diviseur. Ainsi, la période de l’état i représente le
PGCD de l’ensemble des longueurs (étapes) des chemins allant de i à i.

Par conséquent, si ( ) = 1, l’état i est dit apériodique, ( ) > 1, alors i est périodique

Il est à noter que deux états qui communiquent ont la même période. Ce qui implique que tous
les états d’une même classe ont la même période. Ainsi si une chaîne est irréductible, tous les
états ont la même période.

Si l’on prend l’exemple précédent, on trouve que l’état 1 est périodique de période (1) = 2,
car si on démarre de l’état 1, on y revient au bout de 2 ou 4 ou 6 ou 8 ou 10, etc.
itérations (1) = (2,4,6,8,10, … . ) = 2. L’état 2 communique avec l’état 1, donc cet
état est périodique de période 2. Meme chose pour l’état 6 et 7, ils sont périodiques de période
2.

L’état 4 est apériodique, car si on démarre de l’état 4, on y revient pas après un nombre de
transitions multiple d’un certain nombre fixe. Si on quitte l’état 4, on y revient soit au bout de
2, 3, 4,5,6,7, etc. itérations ce qui implique que (4) = (2,3,4,5,6,7, … . ) = 1

La période d’une chaîne de Markov à temps discret que l’on note D , est égale au PGCD de
chacun des ses états.

= { ( )/ ∈ }

Si = 1, alors la chaîne est dite apériodique, > 1, alors elle est périodique

Exemples
Cette chaîne est apériodique car :

(1) = (3,5,6,8, … . ) = 1

(2) = (3,5,6,8, … . ) = 1

(3) = (2,3,4,5,6, … . ) = 1

(4) = (2,3,4,5,6, … . ) = 1

Ainsi,

= { ( )/ = 1,2,3,4} = 1

Cette chaîne est périodique de période 3. En quittant l’un quelconque des états, on ne peut y
revenir qu’avec un nombre d’étapes multiple de 3 :
= { ( )/ = 1,2,3,4} = 3

b) Etats absorbants
Un état i d’une chaîne de Markov est dit absorbant si = 1 , c'est-à-dire si on atteint cet état,
il est impossible de le quitter.

Une chaîne de Markov est dite absorbante si : elle possède au moins un état absorbant et de
chaque état, il est possible d’atteindre un état absorbant (pas nécessairement en une seule
étape)

Il est à noter que tous les états absorbants sont récurrents.

Exemple

Soit la matrice de transition suivante :

1 0 0 0 0
⎛0.5 0 0.5 0 0⎞
= ⎜ 0 0.5 0 0.5 0⎟
0 0 0.5 0 0.5
⎝0 0 0 0 1⎠

Déterminer les états absorbants


La chaîne de Markov est-elle absorbante ?l’état 1 (.
Les points suivants seront abordés au TP

Généralement, les matrices de transition dans le cas des chaînes de Markov absorbantes sont
réorganisées pour faire apparaitre tout d’abord les états non absorbants puis les états
absorbants. La matrice de transition, prend alors la forme canonique suivante :

0
=

Si la chaîne possède s états absorbants, alors le nombre d’états non absorbants est t=n-s

Q est une matrice de dimension × ( transition des états non absorbant vers les états non
absorbants)

R est une matrice de dimension × (transition des états non absorbants vers les états
absorbants)

0 est la matrice nulle de dimension ×

I est la matrice identité de dimension ×

Reprenons l’exemple précédent

Nous avons = 5, =2 =3

1 5 2 3 4

1 0 0 0 0
⎛0 1 0 0 0⎞
= ⎜0.5 0 0 0.5 0 ⎟
0 0 0.5 0 0.5
⎝ 0 0.5 0 0.5 0 ⎠

Donc

0 0.5 0 0.5 0
0 0 0 1 0
= 0.5 0 0.5 = 0 0 0= =
0 0 0 0 1
0 0.5 0 0 0.5
Les chaînes de Markov absorbantes vérifient les propriétés suivantes :
( )
- En rappelant que représente l’élément de la matrice désignant la probabilité
d’aller de i à j en n étapes, alors dans le cas d’une chaîne de Markov absorbante, nous
avons :

0
=
( + + ⋯+ )
- La matrice − est inversible et son inverse est = ( − ) = + + + ⋯,
cette matrice est appelée matrice fondamentale de la chaîne. L’élément de la
matrice N représente l’espérance du nombre de fois que la chaîne passe par l’état j en
sachant qu’elle est partie de l’état i (les états i et j sont non absorbants)
- Nous savons que pour une chaine de Markov absorbante que de chaque état, il est
possible d’atteindre un état absorbant, ce qui implique qu’on est sur qu’on bout d’un
certain moment (nombre d’étapes), la chaine soit absorbée, en d’autres termes la
probabilité que la chaine soit absorbé est 1. Cette proposition est équivalente à :

lim =0

- En partant d’un état i (non absorbant), l’espérance du nombre d’étapes s’écoulant


jusqu'à ce qu’un état absorbant soit atteint (temps moyen d’absorption) est donnée par
le vecteur suivant :
1
= ⋮ = où = ⋮
1

- Soit la probabilité d’atteindre l’état absorbant j sachant qu’on est partie de i. Soit
B la matrice dont les éléments sont alors :
=

1.2.8 Distribution stationnaire

Nous rappelons que pour une chaîne de Markov à temps discret, la distribution de probabilité
des différents états de la chaîne est définie par :
( ) ( ) ( )
= =

Tel que
( ) ( )
= ( = ) =

- Définition

Une distribution de probabilité = est dite distribution stationnaire (ou invariante)



pour la chaîne de Markov à temps discret { } ∈ℕ si elle vérifie :

Tel que =∑∈

Si la distribution de probabilité initiale ( ) coïncide avec la distribution stationnaire ( ( )


=
), alors la chaîne est stationnaire pour toujours, d'où le nom distribution stationnaire

Remarques

1) n'existe pas nécessairement et si elle existe elle n'est pas nécessairement unique.
- Si une chaîne de Markov est à espace d'états fini, alors elle admet au moins une distribution
stationnaire et est solution du système d'équations suivant:

=
=1

Ainsi, la distribution stationnaire est un vecteur propre à gauche1 de valeur propre 1, mais
dont tous les éléments sont positifs et la somme de ses coefficients est égale à 1.

-Si une chaîne de Markov fini discrète est irréductible et apériodique, alors elle admet une
distribution stationnaire unique

- Si l’espace d’état est fini et que la chaîne n’est pas irréductible, on peut s’attendre à ce que la
chaîne admette plus d’une distribution stationnaire (mais pas nécessairement)

2) Si existe et est unique alors = pour tout état j, tel que représente le temps
moyen (nombre d'étapes) de retour en j

Ainsi, on peut interpréter les probabilités d'états stationnaire , ∈ comme étant la


proportion du temps pendant laquelle la chaîne demeure dans chacun de ses états à condition
que l'intervalle de temps considéré soit suffisamment long

Exemple

Soit la matrice de transition suivante :

0 1 0
1 1
⎛ 0 ⎞
= ⎜2 2⎟
1 1 1
⎝3 3 3⎠
Vérifier que la chaîne admet une distribution stationnaire π unique, puis déterminer cette
distribution

1.2.9 Comportement asymptotique

Dans cette partie nous allons étudier le comportement d’une chaine de Markov discrète à long
terme, plus exactement, nous cherchons le comportement limite des probabilités de transition
( ) ( )
et du vecteur des probabilité d'états quand n devient grand.

Exemple

1
Soit une matrice carrée M, un nombre est une valeur propre à gauche de M s’il existe un vecteur ligne V non
nul tel que : = . V est appelé vecteur propre à gauche de la matrice M. Pour déterminer le vecteur V,
on résout le système suivant : ( − ) = 0
Soit { } ∈ℕ une chaîne de Markov irréductible et apériodique, de matrice de transition
définie par ;

0.8 0.2 0 0
0.8 0 0.2 0
=
0.8 0 0 0.2
0.8 0 0 0.2

La distribution stationnaire unique de cette chaine est


= (0.8 0.16 0.032 0.08)

On peut se poser les questions suivantes


( ) ( )
Quelle est lim → et lim →∞ si elles existent?

Théorème

Soit { } ∈ℕ une chaîne de Markov irréductible et apériodique et = sa distribution



stationnaire unique, alors
( )
lim = ∀ , ∈

 Conséquences
( )
1) La lim → ne dépend pas de l’état initial i

( )
lim 11
= 0.8

lim → ( ) = 0.8 = lim ( = 1) = 0.8


lim ( ) = 0.8

lim ( ) = 0.8

La connaissance de i ne modifie pas ma probabilité limite donc cette limite ne dépend pas de i

Nous aurons donc

0.8 0.16 0.032 0.08


0.8 0.16 0.032 0.08
lim = =
→ 0.8 0.16 0.032 0.08
0.8 0.16 0.032 0.08

( )
2) lim =
→∞
( )
c'est à dire lim →∞ ( = ) = lim →∞ =

Lorsque le système fonctionne suffisamment longtemps, il atteint un régime stationnaire, c'est


à dire le vecteur des probabilités ( ) va se stabiliser sur le long terme quel que soit l'état
initial par lequel il est parti.

Il est à noter aussi que ce régime stationnaire à long termes n'est atteint que pour les chaînes
de Markov irréductibles et apériodiques.

Démonstration
( ) ( )
Nous savons que = et les éléments de ce vecteur sont

( ) ( ) ( )
=∑∈

( ) ( ) ( )
lim = lim
→∞ →∞

( ) ( )
lim =
→∞

( ) ( )
lim = =
→∞

( )
Sous forme matricielle cela donne bien : lim →∞ =

1.3 Chaînes de Markov à temps continu


Une chaîne de Markov à temps continu notée CMTC est un processus stochastique à espace
d’états discret et temps continu, c'est-à-dire que les observations se font de façon continue et
non pas à des instants fixes comme pour le cas discret.

Par exemple, soit le nombre de clients dans une banque à l'instant t, si on observe le
nombre de clients chaque heure entre 8h et 16h, nous somme en présence d'une chaine de
Markov à temps discret, maintenant si nous observons le nombre de clients de façon continue
entre 8h et 16h alors dans ce cas, nous somme en présence d'une chaine de Markov à temps
continu.

1.3.1 Définition

Un processus stochastique { } à espace d’état E discret et à temps continu est une chaîne
de Markov à temps continu si pour toute suite d’instants d'observations : , , , … , on
a:

( = / = , = ,…, = ) = ( = / = )

L’état futur du système ne dépend que de l’état présent ,et non pas de ce qui s’est passé
auparvant (propriété de Markov)

Comme dans le cas discret, on s’intéressera seulement aux chaînes de Markov à temps
continu homogènes.
1.3.2 Homogénéité

Une chaine de Markov à temps continu est dite homogène si :

( = / = )= ( − )⟺ ( = / = )= ( )

C'est-à-dire que la probabilité que le processus passe de l’état i à l’état j dans un intervalle de
temps donné ne dépend que de la longueur de cet intervalle de temps et non pas des instants.

1.3.3 Temps de séjour dans un état

Supposons qu’une CMTC homogène est dans l’état i à l’instant t=0. On suppose qu’aucune
transition n’a eu lieu pendant les t unités de temps suivantes (le système est toujours dans
l’état i). On veut savoir quelle est la probabilité que le système soit toujours dans l’état i, s
temps après t (de t à t+s).

On pose la variable aléatoire qui indique le temps de séjour dans l’état i avant une
transition vers un autre état.

La propriété sans mémoire des CMTC homogènes implique :

( > + / > )= ( > )

On remarque que la variable aléatoire est sans mémoire et comme nous le savons la loi
exponentielle est la seule loi continue à avoir cette propriété, donc suit la distribution
exponentielle de paramètre

Ce qui veut dire que si le système passe un certain temps dans un état i, la distribution du
temps restant jusqu’à la prochaine sortie de i est la même quelle que soit le temps déjà passé
dans l’état i.

Démonstration :

( > + / > )= ( = , ≤ ≤ + / = , 0≤ ≤ )

= ( = , ≤ ≤ + / = ) éé

= ( > ) é é ′ℎ é é é

Ainsi, une CMTC possède les propriétés suivantes :

-le temps passé par un état i a une distribution exponentielle de taux (ou paramètre) qui
représente la vitesse avec laquelle le processus sort de l’état i. Ainsi, ( ) = représente le
temps moyen passé dans l’état i avant de transiter vers un autre état.

- lorsque le temps de séjour dans l'état i se termine, le processus transite vers un autre état j
avec probabilité (probabilité de choix de la destination vers laquelle le système va se
diriger aprés avoir quitté l'état i) on suppose aussi que le processus quitte l'état i, sa
destination sera un état différent de i (i ne revient pas à lui même) ( = 0), nous avons ainsi
:

=1

Remarque :
Lorqu’un état i est quitté, le prochain état visité ne dépend ni du temps passé dans i, ni du
chemin par lequel on est arrivé dans i

Nous avons défini maintenant, la variable aléatoire qui représente le temps de séjour dans
l’état i avant une transition quelconque. Nous nous interessons maintenant au temps de séjour
dans l’état i avant une transition vers un état spécifique disons j
On pose la variable aléatoire qui indique le temps passé dans i avant une transition vers j

Cette variable aléatoire à une distribution exponentielle de taux qu’on appelle taux de
transition de i vers j

Ainsi le système passe en moyenne unités de temps dans i avant de transiter vers j
La variable aléatoire implique les résultats suivants :
- =∑
- ( )=

- = ⟺ =

1.3.4 Générateur infinitésimal

A une CMTD nous avons associé une matrice P, dite matrice des probabilités de transition, dont
l’élément est la probabilité de se rendre dans l’état j en quittant l’état i. De même, nous pouvons
associer à une CMTC une matrice Q dite générateur infinitésimal, dont l’élément est le taux de
transition de l’état i vers l’état j (i≠j). Les éléments diagonaux sont choisis par définition égaux
à l’opposé de la somme des autres éléments de la ligne

Ainsi les éléments de du générateur infinitésimal sont :


= ∀ ≠

=−

tel que

( )= + ( )= + ( ) ∀ ≠

( )=1− + ( )=1+ + ( )

( )= ( )= ( + = | = ) ∶ elle représente la probabilité de transiter de l'état i


vers l'état j dans un intervalle de temps très petit de longueur dt

On a donc :

La somme de chaque ligne est nulle

Le générateur infinitésimal est en quelque sorte l’équivalent de la matrice de transition d’une


CMTD.

Considérons par exemple, la matrice de transition P d’une CMTD et le générateur


infinitésimal Q d’une CMTC

0.5 0.2 0.3 −2 1 1


= 0.1 0.8 0.1 = 1 −1 0
0.3 0.1 0.6 2 1 −3
Concernant la matrice P, si par exemple le système est dans l’état 1, il y’a 50% de chance
qu’il y reste à la prochaine étape, 20 % de chance de transiter vers 2 et 30 % de chance de
transiter vers l’état 3.

Maintenant, si on prend le générateur infinitésimal Q, par exemple si le processus est dans


l’état 1, il y’a approximativement 1-2dt de chance de rester dans l’état 1( ( )),
approximativement 1×dt de chance de transiter vers 2 et approximativement 1×dt de chance
de transiter vers 3,

Exemple
Soit Q le générateur infinitésimal d’une CMTC

−2 1 1
= 1 −1 0
2 1 −3
- Déterminer
- Déterminer le temps moyen passé dans l’état 1 , puis le temps moyen passé dans l’état
1 avant de transiter vers l’état 3
- Déterminer la probabilité de transition de l’état 3 à l’état 2

1.3.5 Graphe de transition

Le graphe de transition d’une CMTC est un graphe orienté qui représente les états par des
sommets et dont les arcs correspondent aux taux de transition ≠

Reprenons l’exemple précédent

1.3.6 Classification des états

De même que pour une CMTD, on peut établir une classification des états d’une CMTC en
état récurrents et états transitoires. Il est à noter toutefois que la notion de périodicité n’existe
pas dans les CMTC. En effet même si le graphe d’une CMTC est périodique, le fait que l’on
passe dans chaque état un temps exponentielle, donc aléatoire retire au processus stochastique
tout caractère périodique.

Pour déterminer les états transients et récurrents d’une CMTC, nous allons définir d’abord la
notion de CMTD incluse dans une CMTC

 Définition
Une CMTD incluse dans une CMTC de générateur infinitésimal Q, dont les termes ( ≠ )
sont donnés par = est une chaine de Markov à temps discret dont la matrice de
transition a pour éléments
Les probabilités de transition de la chaîne incluse sont données par :

= =

La chaine incluse caractérise les changements d'états de la CMTC sans tenir compte du temps
écoulé.
 Propriété :
Une CMTC est irréductible si et seulement si la CMTD incluse est irréductible
∈ est transient ⇔ ∈ est transient
∈ est récurrent ⇔ ∈ est récurrent

Si E est fini, alors tous les états sont récurrents.

1.3.7 Distribution stationnaire

Soit ( ) le vecteur des probabilités d’état ( )= ( = ), ∈

( )=( ( ), ( ), … )2

Tout vecteur qui vérifie la relation

=0

est appelé distribution stationnaire de la chaîne

Propriété

Si une CMTC fini est irréductible alors le vecteur des probabilités stationnaires
existe et est unique, on peut l’obtenir en résolvant le système d’équations suivant :

=0
=1

Ou ce qui est équivalent à :

⎧ =0 ∈

⎨ =1

⎩ ∈

En régime stationnaire, le flux sortant de j est égal au flux entrant dans j :


= ∈

Ces équations sont appelés équations d’équilibre

2
é ( ) = (0)
Nous pouvons ainsi trouver le vecteur des probabilités stationnaire en résolvant le système
d’équations suivant :

⎧ = ∈

⎨ =1

⎩ ∈

1.3.8 Comportement asymptotique

Supposons qu’une CMTC est irréductible et que = est sa distribution stationnaire



alors , nous avons les résultats suivants :

 lim →∞ ( ) = (cette limite existe toujours et indépendante de la distribution des


probabilités initiales)
 Les représente aussi la proportion du temps que la CMTC passe dans l’état j, sur
une longue période.
 lim →∞ ( ) =

Exemple

Soit la CMTC irréductible, définie sur E={0,1,2} et dont le générateur infinitésimal est le
suivant :

−2 2 0
= 2 −3 1
0 2 −2
1) Déterminer les équations d’équilibre de cette CMTC
2) En déduire la distribution stationnaire π

1.3.9 Processus de Poisson

Le processus de Poisson est un processus à temps continu qui est utilisé pour modéliser le
nombre d’événements qui se produisent dans un certain intervalle de temps. On peut
s’intéresser au nombre de pannes d’une machine pendant une année, au nombre de clients
arrivant au guichet de poste entre 8h et 12h, au nombre de voitures qui passent par un péage
pendant une journée, au nombre d’usagers arrivant à un arrêt de bus en une heure, à
l'occurrence des accidents dans une ville pendant une décennie.

Ce processus décrit un événement aléatoire répétitif, ce qui implique que le processus de


Poisson ( ) est un processus de comptage, tel que représente le nombre total
d’événements qui se produiront dans un intervalle de longueur t ( [0,t]). De plus −
est le nombre d'événements qui se produiront entre t et t+s. Enfin, nous faisons l'hypothèse
que = 0.

1.3.9.1 Définition

Un processus de comptage ( ) est un processus de Poisson s'il satisfait aux conditions


suivantes :

1) Le processus est à accroissement indépendant, cela signifie que pour toutes suite
d'instants 0 < < < ⋯ < , les variables aléatoires − sont
indépendantes.

Par exemple, le nombre de véhicules arrivant à un péage entre 11 et 12h n’influe pas sur le
nombre de véhicules qui arriveront entre 12h et 13h

2) Le processus est homogène dans le temps (stationnaire) ; la distribution du nombre


d’événements dans un intervalle quelconque ne dépend que de la longueur de cet
intervalle : la loi de − ne dépend que h

Généralement, l’hypothèse de stationnarité n’est pas vérifiée en pratique, il y’a beaucoup


moins de voitures arrivant à un péage entre 2h et 6h du matin qu’en pleine journée entre
11h et 15h. Il est souvent possible de restreindre l’analyse du phénomène étudié à une
plage horaire ou la stationnarité est vérifiée. Ce sont en général ces plages horaires qui
intéressent les analystes : dans l’exemple du péage, c’es bien le nombre de voitures en
pleine journée qui les intéressent.

Un processus de comptage qui ne vérifie par cette condition est appelé processus de
Poisson non homogène

3) Le processus est à événements rares, c'est à dire que la probabilité que deux
événements ou plus se produisent dans un intervalle de temps très petit est négligeable
(presque nulle). Plus précisément :

( − ≥ 2) = ( )
( − = 1) = + ( )
( − = 0) = 1 − + ( )

Le coefficient est appelé intensité du processus poisonnien, il représente le nombre moyen


d'événements par unité de temps

Cette condition indique que augmente à chaque fois de 1 après un temps aléatoire (les
usagers arrivent un à un à l’arrêt de bus) .Ainsi le processus de Poisson n’admet pas d’arrivée
groupée. Un processus de comptage qui admet des arrivées groupées c'est à dire que
( − ≥ 2) n'est plus négligeable est appelé processus de Poisson composé.

01.3.9.2 Propriété

Le nom processus de "Poisson" provient de la propriété suivante :


Si un processus de comptage ( ) satisfait aux trois conditions précédentes alors :

Pour tout ≥ 0 , la variable aléatoire suit une loi de Poisson de paramètre , c'est-à-dire
( )
( = )= pour k=0,1,2,…
!

Par conséquent ( )=

Exemple

Les usagers d’une certaine ligne arrivent à l’arrêt de bus selon un processus de Poisson de
paramètre = 2 par minute (les usagers arrivent à l’arrêt de bus au rythme moyen de deux
par minute selon une distribution de Poisson). représente par exemple le nombre d’usagers
dans l’arrêt de bus pendant une période d’une minute, tel que ~ (2 × 1). Pendant une
période de temps de 10 min, le nombre d’usagers est et suit la loi de Poisson (20)

1.3.9.3 Distribution du temps séparant deux événements successifs

Soit un processus de Poisson ( ) de paramètre et la variable aléatoire mesurant


è
l’instant d’arrivée du événement

On pose la variable aléatoire mesurant le temps séparant l'arrivée de deux événements


successifs (entre le − 1è événement et le è événement) : = − (temps
inter-événements). Par convention on pose =0

 Théorème
Les variables aléatoires { } , ,… mesurant le temps d'attente entre deux événements
successifs sont indépendantes identiquement distribuées selon la loi exponentielle de
paramètre

Ce qui signifie que la durée moyenne séparant deux événements successifs est égale à

1.3.10 Processus de naissance et de mort

1.3.10.1 Définitions

Un processus de naissance et de mort est une chaîne de Markov à temps continu à valeurs
dans ℕ (E=ℕ = 0,1,2, …). Son principe est le suivant : à partir d’un état , les transitions ne
peuvent se faire que vers l’état ( + 1) ou ( − 1). En d’autres termes, lorsque le processus est
dans l’état , le prochain état visité sera nécessairement ( + 1) ou ( − 1) ce qui nous
donne :

=0 | − |>1 , ∈

Les processus de naissance et de mort sont surtout utilisés pour modéliser l’évolution d’une
population au cours du temps (nombre de clients dans une file d’attente). L’état du système
dans ce cas représente la taille de la population ( taille de la population à l’instant t).
Lorsque l’état du système augmente d’une unité (passage de à + 1), on parle de
« naissance ». Lorsque l’état du système diminue d’une unité (passage de à − 1), on parle
alors de « mort »

Les éléments du générateur infinitésimal Q d’un processus de naissance et de mort sont de la


forme :

=0 | − |>1 , ∈

On pose :

= , = 0,1,2, … ( )

= , = 1,2, … ( )

Le temps de séjour dans l’état i suit une loi exponentielle de paramètre

=0
+ = 1,2, …

Il est à noter que si la taille de la population est 0, il ne peut y avoir de mort , alors =0

Démonstration :

On pose

le temps passé dans avant une naissance, ~ ( )

le temps passé dans avant une mort, ~ ( )

Lorsque = 0, nous avons = donc ~ ( )

Pour = 1,2, … on peut écrire = min ( , ), ce qui nous donne d’après les propriétés de
la loi exponentielle ~ ( + )

D’après les résultats énoncés ci-dessus, le générateur infinitésimal d’un processus de


naissance et de mort sera de la forme

Les probabilités de transition de la chaîne incluse sont définies dans ce cas par :

, = = 0,1,2, …
+
, = = 1,2, …
+

Si nous notons l’état de la chaine au temps t alors :

, ( )= ( = + 1| = )= + ( )

, ( )= ( = − 1| = )= + ( )

( )= ( = | = )=1−( + ) + ( )

Ces probabilités représentent respectivement :

La probabilité qu’il ait une naissance dans l’intervalle [t,t+dt] sachant qu’à l’instant t la taille
de la population était i

La probabilité qu’il ait une mort dans l’intervalle [t,t+dt] sachant qu’à l’instant t la taille de la
population était i

La probabilité que le système soit toujours dans l’état i (ni naissance, ni mort) dt temps après t
sachant qu’à l’instant t la taille de la population était i

Enfin, le diagramme de transition est de la forme :

Exemple :

Soit le graphe de transition d’un processus de naissance et de mort

- Indiquer le générateur infinitésimal de ce processus de naissance et de mort


- Déterminer et
−4 4 0
= 5 −9 4
0 5 −5
1.3.10.2 Distribution stationnaire

On veut savoir si un processus de naissance et de mort irréductible admet une distribution


stationnaire π unique. Pour ce faire on résout le système d’équations = 0 sous la condition
∑∈ =1

En résolvant ce système, on trouvera que le processus admettra une distribution stationnaire


unique si la série :


=

converge (c'est-à-dire S<∞). Il est à noter que lorsque l’espace d’état E est fini, cette somme
converge toujours, de sorte que l’existence des probabilités limites est assurée.

Dans ce cas la distribution stationnaire est donnée par :


⎧ = = 1,2, …

⎨ 1
⎩ =
1+
Comme nous le savons, en régime stationnaire le flux sortant de j (taux de départ) est égal au
flux entrant de j (taux d’arrivée). Ainsi, les équations d’équilibre pour un processus de
naissance et de mort sont les suivantes :

Etat j taux de départ de j = taux d’arrivée à j

0 =

= 1,2, … + = +

La distribution stationnaire peut être obtenue en résolvant le système des équations


d’équilibre sous la condition ∑ ∈ =1

Exemple

Soit un processus de naissance et de mort irréductible d’espace d’état E={0,1,2} tel que:

= = 3, = 4, =2

- Déterminer le générateur infinitésimal de ce processus


- Ce processus admet-il une distribution stationnaire unique
- Ecrire les équations d’équilibre et les résoudre pour obtenir la distribution stationnaire
(si elle existe
1.3.10. 3 Processus de Poisson : un processus de naissance et de mort

Le processus de Poisson ( ) peut être vu comme un cas particulier d’un processus de


naissance et de mort où les seules transitions possibles pour un état i se font vers l’état i+1
avec un taux de naissance constant (processus de naissance pur). Ainsi, les éléments du
générateur infinitésimal d’un processus de Poisson prennent la forme suivante :

, =
=−
=0

Ce qui nous donne


2 Théorie des files d’attente

La théorie des files d’attente permet de modéliser des phénomènes d’attente : attente de
voitures devant un péage, attente devant un feu tricolore, attente dans une salle de réservation
de la SNTF, attente de produits semi fini dans un système de production, etc.

A partir d'un phénomène réel, nous allons créer un modèle virtuel qui nous permet d'en
étudier les performances par exemple le nombre moyen de voitures arrivant à un poste de
péage et le temps moyen de service et puis essayer d'améliorer les performance de la réalité
par exemple déterminer le nombre de postes de péage adéquat qui permet aux clients de ne
pas trop attendre. Pour cela on crée des modèles de file d'attente

Une file d’attente est constitué de deux entités fondamentales qui sont : les clients et les
serveurs. Son principe est le suivant : des clients arrivent dans un lieu donné appelé système
afin d’obtenir un service. Pour obtenir ce service, ils patientent éventuellement un certain
moment (dans la file d’attente) pour ensuite accéder à un ou plusieurs serveurs pour recevoir
le service, pour enfin quitter le système.

Par exemple dans un système de production, les clients sont les pièces et les serveurs sont les
machines qui permettent l’usinage. Dans une salle de réservation de la SNTF, les clients sont
les usagers, les serveurs sont les guichets qui permettent l’achat du billet. Devant un feu
tricolore, les clients sont les voitures, le serveur est le feu vert qui permet aux voitures de
passer. A un péage, les clients sont les voitures et les serveurs les postes de péage. Dans un
port les clients sont les containers et les serveurs les grues.

2.1 Eléments caractéristiques d’une file d’attente


Une file d’attente est décrite par plusieurs éléments : le processus d’arrivée des clients, le
temps de service, le nombre de serveurs, la capacité de la file et la discipline de service
Le processus d’arrivée

L’arrivée des clients dans la file est décrite par un processus stochastique de comptage
( )
è
On pose la variable aléatoire mesurant l’instant d’arrivée du client dans le système.
Par convention on pose =0

Soit la variable aléatoire mesurant le temps séparant l’arrivée de deux clients successifs tel
que: = − .

T1 T2 T3 T4

0 A1 A2 A3 A4

Nous supposons, que les variables aléatoires ( ) , ,.. sont indépendantes (les clients
arrivent indépendamment les un des autres) et identiquement distribuées de loi T. Dans ce cas
le processus de comptage correspondant est dit processus de renouvellement.

Généralement, l’arrivée des clients à une file est supposée décrite par un processus de
renouvellement. Le processus d’arrivée le plus simple à étudier est le processus de Poisson.
C’est un processus de renouvellement où les interarrivées sont distribuées selon une loi
exponentielle comme nous l’avons vu dans le chapitre précédent.

Le temps de service

Le temps de service représente le temps que passe un client dans un serveur. On pose la
è
variable aléatoire qui mesure le temps de service du client. On suppose aussi que les
( ) , ,.. sont des variables aléatoires indépendantes identiquement distribuées de loi X.

La distribution du temps de service la plus simple à étudier est la distribution exponentielle.


Cependant la propriété sans mémoire de cette loi fait que celle-ci n’est généralement pas très
réaliste pour modéliser des phénomènes réels. On est donc amener à recourir à d’autres
distributions de services : déterministe, Hyper-exponentielle, Erlang, Cox, etc.

Le nombre de serveurs

Le service peut être assurée par un ou plusieurs serveurs , c'est-à-dire que le système peut être
composé d’un ou de plusieurs serveurs en parallèle. Dans les systèmes à serveurs parallèles
chaque client n’utilisera le service que d’un seul serveur et tous les serveurs sont supposés
identiques et indépendants les uns des autres
Dés qu’un client entre dans le système, soit il y’a un serveur de libre et le client est
instantanément servi, soit tous les serveurs sont occupés et le client se place dans la file en
attente de libération d’un serveur.

Il est à noter, qu’il existe aussi des systèmes à serveurs en série ou chaque client doit passer
par plusieurs serveurs successifs dans un ordre fixe pour obtenir le service souhaité. La chaîne
de montage automobile représente un système à serveurs en série.

La capacité de la file

La capacité de la file représente le nombre de clients pouvant être présent dans le système en
même temps. La capacité de la file peut être finie (limitée) ou infinie (illimitée). Soit K la
capacité de la file (incluant le ou les clients en service). Dans une file à capacité illimité
K=+∞. (les péages de l’autoroute).Si la capacité de la file est limitée et que cette limite est
atteinte (la file est pleine), un client arrivant ne peut entrer dans la file, alors il repart. On dit
que le client est perdu

La discipline de service

La discipline de service détermine la façon dont les clients seront servis, c’est dire l’ordre de
traitement des clients

Les disciplines les plus courantes sont :

1) Les clients sont servis dans leur ordre d’arrivée : on distingue deux méthodes
principales FIFO (First In First Out) et FCFS (First Come First Served):

Dans les deux méthodes le premier arrivé est le premier servi, mais une différence
subsiste entre elles.

Dans FIFO, le premier client arrivé sera le premier à quitter la file. Dans FCFS, le
premier arrivé sera le premier servi. Mais rien n’empêche alors qu’un client qui
commence son service après lui, dans un autre serveur termine avant lui (quitte la file).
FIFO et FCFS sont équivalent dans le cas d’un seul serveur

2) Les clients sont servis dans l’ordre inverse de leur arrivée : on distingue aussi deux
méthodes principales LIFO (Last In First Out) et FCFS (Last Come First Served). Le
principe de ces méthodes est que le dernier arrivé sera le premier servi. A nouveau, il
existe une différence entre les deux méthodes dans le cas ou il y’a plusieurs serveurs.

Dans LIFO, le dernier client arrivé sera le premier à quitter la file. Dans FCFS, le
dernier arrivé sera le premier servi. Aussi, rien n’empêche alors qu’un client qui
commence son service après lui, dans un autre serveur termine avant lui

3) Les clients sont servis aléatoirement (RANDOM ): le prochain client qui sera servi
est choisi aléatoirement dans la file d’attente
4) Les clients sont servis suivant des règles de priorité : cela consiste à servir en
priorité certain types de clients ceux qui demande un service de courte durée, ou ceux
qui sont dans l’urgence

2.2 Notation de Kendall3

Pour décrire un système de file d’attente, on adopte généralement la notation de Kendall :

T/X/C/K/Z

T : la loi des interarrivées

X : la loi de la durée de service

C : le nombre de serveurs

K : la capacité de la file

Z : discipline de service

Les lois les plus usuelles pour T et X sont les suivantes :

M : loi exponentielle (le phénomène étudiée vérifie la propriété de Markov d’absence de


mémoire ce qui implique la loi de Poisson pour les arrivées et la loi exponentielle pour la
durée de service)

D :loi déterministe où les arrivées des clients sont régulièrement espacées, et le temps de
service est le même pour tous les clients

G : loi générale (dont on ignore les caractéristiques)

Ek : loi d’Erlang-k qui est la loi d’une somme de variables exponentielles

H: loi hyperexponentielle

3
David George Kendall (1918-2007) est un statisticien anglais, spécialisé dans le calcul des probabilités,
l’analyse des données et les processus stochastiques. Il est surtout connu pour avoir introduit la notation pour
décrire les files d’attente
C : loi de Cox

Lorsque les deux derniers éléments de la notation de Kendall ne sont pas spécifiés, il est sous
entendu que K=+∞ et Z= FIFO

Par exemple La file M/M/1 signifie que les arrivées des clients sont poisonniennes
(interarrivée exponentielle), le temps de service est distribuée exponentiellement, il y’a un
serveur, la capacité de la file est infinie et la discipline est FIFO

La file M/M/3/10 signifie que les arrivées des clients sont poisonniennes, le temps de service
est distribuée exponentiellement, il y’a trois serveurs, la capacité de la file est limitée à 10 et
la discipline est FIFO

Remarque:

Les modèles de base et les plus simple à étudier sont les files markovienne sans mémoire.
Mais souvent en pratique on est amené à utiliser d'autres lois (Erlang, hyperexponentielle,
Cox, etc.) qui modélisent mieux la réalité du phénomène étudié, néanmoins ce genre de
modélisation est beaucoup plus complexe à étudier.

2.3 Paramètres de performance


Dans l’analyse des files d’attente, nous avons besoins de moyens pour évaluer les
performances du système. Il existe différentes mesures qui permettent d’évaluer cette
performances, parmi les plus utilisées :

- Le débit moyen d’entrée des clients dans le système


- Le nombre moyens de clients dans le système
- Le temps moyen de séjour d'un client dans le système
- Le nombre moyen de clients en service
- Le taux d’occupation du ou des serveurs
- etc.

Le régime transitoire permet de décrire l’évolution du système de l’état initial jusqu’à un


certain instant t. Le régime permanent ou stationnaire consiste à étudier le comportement du
système à long terme.

Le calcul des paramètres de performance en régime transitoire sont souvent très complexes, il
est très difficile par exemple de déterminer le nombre de clients dans le système au temps t,
pour cette raison on se limite souvent à l’étude en régime stationnaire (à des instants
quelconques dans le long terme) où les calculs sont beaucoup plus aisés. Ainsi, les résultats
qui seront énoncés dans les sections suivantes font l’hypothèse que le système est dans l’état
stationnaire.

2.4 La loi de Little


La loi de Little est une relation très générale qui s’applique à une grande classe de système.
Elle ne concerne que le régime stationnaire du système. Aucune hypothèse sur les variables
aléatoires qui caractérisent le système (temps d’interarrivées, temps de service, etc.) n’est
nécessaire.

Soit les notations suivantes :

: le nombre moyen de clients en attente

: le nombre moyen de clients en service

W : temps moyen d’attente d’un client avant service

S : temps moyen de service

R: le temps moyen de séjour dans le système ( = + )

le débit moyen d’entrée c'est à dire le nombre moyen de clients arrivant dans le système
par unité de temps

La loi de Little s’énonce comme suit :

En régime stationnaire (à long terme), le nombre moyen de clients dans le système est égal à

De plus :

En déduire

= + = +

= ( + )−

Dans ce qui suit nous allons étudier différents types de files d’attente simples 4 :M/M/1,
M /M/1/K, M/M/C, etc.

2.5 La file M/M/1


Le système de file d’attente M/M/1 est définie par les caractéristiques suivantes : le processus
d’arrivée des clients dans la file est un processus de Poisson de taux (les interarrivées ont
une distribution exponentielle de paramètre ), le temps de service d’un client est une variable
aléatoire ayant une distribution exponentielle de taux μ (ce taux représente le nombre moyen

4
Nous parlons de files simples par opposition aux réseaux de file d'attente qui représentent un ensembles de
files simples interconnectées
de clients servis par unité de temps) , il existe un seul serveur, la file est de capacité infini et
la discipline de service est FIFO.

2.5.1 Processus de naissance et de mort associée à la file

Soit le nombre de clients présents dans le système à l’instant t. Ainsi, ( ) est un


processus stochastique à espace d’état discret et à temps continu. Puisque la file est à capacité
illimitée alors = {0,1,2, … }

Lorsqu’un à instant donné t, il y’a clients dans le système, deux événements peuvent se
produire : l’arrivée d’un nouveau client (le processus augmente d’une unité) et le départ d’un
client qui s’en va à la fin de son service (le processus diminue d’une unité). Ainsi, ( )
peut être considéré comme un processus de naissance et de mort, où une naissance correspond
à l’arrivée d’un client dans le système et une mort au départ d’un client du système après la
fin de son service.

Les taux de naissances et de mort sont définis dans le cas de la file M/M/1 comme suit :

= = 0,1,2, …
= = 1,2, …

Comme mentionné plus haut, les arrivées des clients se font selon une loi de Poisson de
paramètre (taux de naissance) et les clients quittent le système après la fin de leur service
avec un taux de service μ (taux de mort)

Le générateur infinitésimal et le graphe de transition de ( ) qui représente le nombre de


clients dans la file M/M/1 sont donnés par :

Vous aimerez peut-être aussi