Vous êtes sur la page 1sur 45

République Algérienne Démocratique et Populaire

Ministre de l’Enseignement Supérieur et de la Recherche Scientifique


Université Abderrahmane Mira-Bejaia

Faculté des Sciences Exactes


Département Recherche Opérationnelle

Mémoire de fin de cycle

THÈME
Analyse d’un système d’attente avec clients impatients

Présenté par :

GUEMOUNI Amira
HAMENNI Halima
OUAKKOUCHE Hadil

Encadrant : Mr S.ZIANI

Année universitaire : 2021/2022


Remerciements

Avant toutes choses, nous remercions dieu le tout puissant de nous avoir donné
le courage, la force, la volonté, la détermination et la persévérance qu’il fallait pour
la réalisation de ce modeste travail.

Nous tenons à remercier Mr ZIANI Sofiane qui nous a encadré durant la


réalisation de ce mini-projet, pour ses conseils, son temps et sa patience avec nous.

Nous tenons également à remercier notre chef de département Mr KHIMOUM


Noureddine pour son aide précieuse, sa compréhension et ses encouragements.

Un grand merci à tous les membres du jury qui ont prit le temps d’examiner
notre travail .

Finalement nous remercions toute personne qui a pu contribué de près comme


de loin à la réussite de ce travail.
Dédicace

A mes chers parents, pour tous les sacrifices de ma mère, son amour, sa ten-
dresse, son soutien inconditionnel et ses prières incessantes tout au long de mes
études.

A mes chers frères : Lamine, Mazigh et Massi pour leurs encouragements perma-
nents, et leur soutien moral, à ma chère sœur Amel et mes chères amies pour leur
appui et leur encouragement, à mon meilleur ami Abdelouahab qui m’a été d’une
grande aide que ce soit pour réviser, pour mes recherches ou pour me motiver et
à me redonner espoir quand je n’en avais plus, à mes professeurs, et en particulier
Mr Ziani pour ses instructions, ses conseils et sa patience.

Que ce travail soit l’accomplissement de vos vœux tant allégués, et le fruit de


votre soutien infaillible.

Merci d’être toujours présent pour m’éclairer dans cette noble quête de savoir.

GUEMOUNI Amira
Avec toute ma gratitude et tout mon amour je dédie ce modeste travail :
À celle qui m’a donné la vie, la plus belle des femmes, à celle qui a toujours été
là à mes côtés sans jamais être lassée, qui me comble d’amour et d’affection, de
conseils et de compréhension, de sourires et d’encouragements, qui m’a toujours
soutenu, défendu et conseillé, à celle que j’aime plus que tout, ma chère maman.
À l’homme de ma vie, mon amour éternel, l’homme formidable et si admirable,
à celui qui me fait vivre sous sa douce lumière, à celui qui durant toutes ces années
a guidé mes pas sur le chemin de la vie, m’a toujours dit que je suis capable de
tout surmonter, apprit à me respecter et à respecter les autres, à avoir confiance
en moi, resté focus sur mes buts et de toujours visé le haut, de donner le meilleur
de moi et de ne jamais abandonné, à ne pas baisser les bras même si le combat est
dur, à mon idole, mon papa.
À celui qui m’a toujours montré le droit chemin, m’a protégé, celui qui m’aide
dans mes choix et qui ne me refuse jamais rien, à mon héros, mon chère grand
frère.
À ma protégée, la prunelle de mes yeux ma petite sœur adorée.
À la personne qui a toujours été là pour moi dans les hauts comme dans les bas,
ma fidèle alliée, ma précieuse sœur avant d’être cousine, Sarah.
À tous les autres membres de ma famille, à mes amis qui sont eux aussi devenus
des membres de ma famille de cœur à tout nos moments partagés, nos rires et
souvenirs.
À Mr ZIANI Sofiane, qui nous a encadré avec patience, sans qui ce travail
n’aurai jamais vu le jour, pour ses conseils, son temps et sa compréhension.
Et sans oublier notre chef de département Mr KHIMOUM Noureddine qui
a toujours été là à nous conseiller, nous encourager, à être compréhensif et nous
proposer son aide si précieuse.

HAMENNI Halima
Je dédie ce modeste travail à mes chers et précieux
parents qui m’ont toujours soutenu, à mes frères et
à ma sœur qui m’a toujours soutenu et orienté.

À mes amis et camarades.

Et surtout à notre encadrant, Mr S. ZIANI , qui


sans lui ce projet n’aurait pas été accompli. Preuve de
patience et maturité, pour son temps et ses conseils
précieux.
OUAKKOUCHE Hadil
Table des matières

Introduction générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

I Les processus stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

I.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

I.2 Processus stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

I.3 Chaînes de Markov à temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

I.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

I.3.2 Chaîne de Markov à temps discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

I.3.2.1 Probabilités d’état et de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

I.3.2.2 Graphe de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

I.3.2.3 États récurrents/ transitoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

I.3.2.4 États périodiques/apériodiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6

I.3.2.5 Classe/chaîne irréductible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

I.3.2.6 Chaîne de Markov ergodique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

I.4 Chaîne de Markov à temps continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

I.5 Marche aléatoire uni-dimensionnelle sur Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

I.6 Marche aléatoire uni-dimensionnelle sur {0, 1, 2, . . . , N } . . . . . . . . . . . . . . . . . . 7

I.7 Processus de poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

I.7.1 Somme de deux processus de poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

I.7.2 Décomposition d’un processus stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

I.8 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

I
I.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

II Systèmes de file d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

II.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

II.2 Quelques notions de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .14

II.2.1 Notation de Kendall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

II.2.2 File d’attente M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

II.2.2.1 Équation de Chapman-Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .17

II.2.2.2 Quelques performances de la file M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . . .19

II.2.3 File d’attente M/M/S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

II.2.3.1 Quelques performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

II.3 Files d’attente M/M/1 avec clients impatients . . . . . . . . . . . . . . . . . . . . . . . . . 21

II.3.1 Description du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

II.3.2 Performances du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

II.3.3 Calcul des mesures des performances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

II.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

III Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

III.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

III.2 Définition de la simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

III.3 Les étapes de la simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

III.3.1 Définir l’objectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

III.3.2 Le choix d’une théorie et des modelés de comportement . . . . . . . . . . . . . . . . . . .25

III.3.3 Le choix d’un solveur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

III.3.4 La modélisation du produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .26

III.3.5 Modélisation de l’action de l’environnement sur le produit . . . . . . . . . . . . . . . . 26

III.3.6 Calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

III.3.7 Diagnostique et contrôle de qualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

III.4 Quelques méthodes de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

III.4.1 Méthode inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

III.4.1.1 Fonction de répartition d’une variable aléatoire discrète . . . . . . . . . . . . 27

III.4.1.2 La méthode de l’inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

II
III.4.1.3 Démonstration de la méthode de l’inverse . . . . . . . . . . . . . . . . . . . . . . . . . 28

III.4.1.4 Algorithme de la méthode inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

III.5 Outils de simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

III.5.1 Qu’est-ce que Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

III.5.2 Pourquoi Matlab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

III.6 Algorithme de la simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

III.7 Déroulement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

III.8 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

Conclusion générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

III
Table des figures

I.1 Diagramme de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7


I.2 Diagramme de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I.3 Diagramme de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
I.4 Graphe de processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
I.5 Graphe de processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

II.1 Diagramme de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17


II.2 Diagramme de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
II.3 Diagramme de transition client impatient . . . . . . . . . . . . . . . . . . . . . . . . . . 21

III.1 Variation des nombres de clients servis et perdus en fonction de λ . . . . . . . . . . . . . 33


III.2 Variation du rapport X par rapport à λ . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

IV
Introduction générale

La théorie des files d’attentes est une théorie mathématique qui est utilisée pour résoudre des
problèmes de la vie réelle telle que le trafic.
Elle permet d’étudier scientifiquement le temps que doivent attendre les clients quand ils demandent
un service, la majorité du temps les gens font des queues si le service n’est pas immédiat, et il peut
même avoir des personnes qui sortent sans être servis.

les études sur les files d’attente ont été initiées par le mathématicien danois Erlang en 1909, qui a
étudié au début pour la communication téléphonique à l’aide d’un processus de poisson. Avec le temps,
les résultats se sont étendues dans différentes directions. La théorie des files d’attente connaît une crois-
sance rapide dans divers champs, notamment une analyse théorique des modèles de files d’attente et
des réseaux d’une structure plutôt complexe en utilisant des modèles mathématiques assez sophistiqués
et divers types de processus stochastiques.

Le but de cette théorie est de trouver des solutions pratiques et efficaces en même temps, et pour le
faire il faut enrichir le modèle classique.

Ce document comporte trois chapitres :

• Le premier chapitre intitulé “Notion de bases sur les processus stochastiques“ englobe les diffé-
rents concepts qu’on utilisera pendant notre travail.
• Le deuxième chapitre intitulé “Système de files d’attente“ détaille encore plus les aspects sur les
files d’attente ainsi que les performances de certains systèmes Markoviens.
• Le troisième chapitre est une pratique et simulation de ce qui a été étudié dans les deux chapitres
précédents.
• Le troisième chapitre est consacré à une application concernant la simulation d’un système
d’attente Markovien avec clients impatients.

1
I

Les processus stochastiques

I.1 Introduction
Nous allons aborder dans ce chapitre quelques notions sur les processus stochastiques, principalement
sur les chaînes de Markov, qui permettent de modéliser des systèmes dont le comportement n’est que
partiellement prévisible.
La théorie est fondée sur le calcul des probabilités, les domaines d’applications sont très divers
surtout dans la modélisation et la gestion du trafic dans un réseau de transport (carrefours à feux) et
plus généralement dans des systèmes techniques complexes soumis à des perturbations aléatoires.
Nous exposons dans un premier temps les notions de base concernant les processus stochastiques, puis
dans un second temps nous allons mettre l’accent sur les notions théoriques fondamentales concernant
les processus markoviens.

2
I.2 Processus stochastiques
Un processus stochastique représente une évolution, discrète ou à temps continu, d’une variable
aléatoire. C’est un phénomène chronologique ou intervient le hasard.
L’étude des processus aléatoires fait partie de la théorie des probabilités, qui constitue l’un de ses
objectifs les plus profonds. Il pose des problèmes mathématiques intéressants et souvent très difficiles.
Un processus stochastique {X(t), t ∈ T } est une fonction du temps, et sa valeur à chaque instant
dépend des résultats d’une expérience aléatoire. À chaque instant t ∈ T, X(t) est donc une variable
aléatoire. Par conséquent, un processus aléatoire peut être considéré comme une série de variables
aléatoires. L’ensemble T peut être discret ou continu. X(t) définit l’état du processus à un instant t.
Un processus {X(t)} tel que X(0) = 0 a des incréments indépendants si, pour toute suite finie
0 < t1 < t2 < · · · < t(n), les variables aléatoires X t1 , X t2 − X t1 , . . . , X tn − X tn-1 sont indépendants.
Un processus est dit stationnaire (ou homogène dans le temps), si pour tout s et pour tout t ;
l’accroissement X t+s − X t a la même loi que X t .

I.3 Chaînes de Markov à temps discret

I.3.1 Définition
On dit qu’un processus stochastique est une chaîne de Markov si la valeur future du processus
dépend que de sa valeur actuelle (c’est-à-dire on s’intéresse qu’au présent et que le passé n’affecte pas
la progression du processus au future).
Si x(t) est à valeur discrète, on dit qu’elle est de Markov si et seulement si pour tout
t1 < t2 < · · · < tk < tk+1 :
P (xk+1 ≤ X(tk+1 ) < xk+1 + ∆xk+1 |X(t1 ) = x1 , X(t2 ) = x2 , . . . , X(tk ) = xk ) =
P (xk+1 ≤ X(tk+1 ) < xk+1 + ∆xk+1 |X(tk ) = xk )

Autrement dit l’étape X(n) = i, X(n − 1) = i(n − 1), X(n − 2) = i(n − 2), . . . , X(0) = i(0) qui
représente le passé et le présent peut se résumé en X(n) = i qui représente le présent seulement.
Une chaîne de Markov est dite homogène dans le temps si la probabilité P (Xn ) ne dépend pas de n.
P ij (n) = P (X n+1 = j|X n = i) = pij = P (X 1 = j|X 0 = i), (n ≥ 0)

I.3.2 Chaîne de Markov à temps discret


I.3.2.1 Probabilités d’état et de transition

La probabilité que X(n) soit dans l’état i ∈ s (s est l’espace des états qui peut être fini ou infini) et
une probabilité d’état π i (n) = P (X(n) = i) et la somme est égal à 1 :
P
π i (n) = 1.
i∈s
Et la probabilité de transition de l’état i à l’état j au temps t et sa somme aussi vaut 1 :
P
ρij (n) = 1.
j∈s

3
On suppose que cette chaîne esthomogène et nous donne
la matrice de transition suivante :

 
P00 P01 . . . P0i . . .
 
 
 
 
 
P10 P11 . . . P1i . . .
 
 
 
 
 .. .. .. .. ,
 
 . . . . 
 
 
 
 
 
P P . . . P . . . 
 i0 i1 ii 
 
 
 
 .. .. .. .. 
 
. . . .

[La somme de chaque ligne est égale à 1].


La probabilité de transition à deux étapes de l’état i à l’état j est :

ρij 2 = P (X(n + 2) = j|X(n) = i)


X
= P (X(n + 2) = j|X(n + 1) = k, X(n) = i)P (X(n + 1) = k|X(n) = i)
k∈s
X
= P (X(n + 2) = j|X(n + 1) = k)P (X(n + 1) = k|X(n) = i)
k∈s
X
= ρkj ρik
k∈s

4
On l’écrit sous la forme matricielle suivante : P (2) = P P = P 2 (ce résultat est valable pour les
probabilités de transition à m étapes).
On peut aussi calculer facilement les probabilités d’états (π j (n)).

Πj = P (X(n) = j)
X
= P (X(n) = j|X(n − 1) = i)P (X(n − 1) = i)
i∈s
X
= ρij π i (n − 1)
i∈s

Si

π(n) = [π 0 (n), π 1 (n), π 2 (n) . . . ]

On l’écrit sous la forme matricielle suivante :

π(n) = π(n − 1)P = · · · = π(0)P n .

Et si π = πP on dit que la distribution de probabilité π est invariante de la chaine de Markov si et


seulement si : π = πP c’est un vecteur propre de la matrice P, il s’en suit que si π(0) est une distribution
invariante, alors π(n) = π(0) pour tout n ≥ 0, si on applique les probabilités conditionnelles on aura :
P (X(n) = in , X(n − 1) = in-1 , . . . , X(1) = i1 , X(0) = i0 ) = π i0 (0)P i0,i1 P i1,i2 . . . P in-1,in
Et on trouve que la distribution initiale π(0) et la matrice de transition P définissent u la loi d’une
chaîne de Markov homogène.

I.3.2.2 Graphe de transition

Le graphe de transition d’une chaîne de Markov est un graphe orienté dont ses sommets sont les
états de la chaîne et ses arcs représentent les transitions entre les états de la chaîne.

I.3.2.3 États récurrents/ transitoires

Un état i est récurrent si le processus repasse par l’état i une infinité de fois après l’avoir quitté, sa
probabilité vaut 1, sinon on dit que cet état est transitoire.

L’état i est récurrent si ρii (n) = ∞
P
n=0
La propriété de récurrence est une propriété de classe, si on a i et j deux états de la même classe et
i est récurrent j aussi l’est alors

ρjj (k+n+m) = ρjr (k) ρrl (n) ρlj (m) ≥ ρji (k) ρii (n) ρij (m)
PP
l∈s r∈s
∞ ∞
ρjj (k+n+m) ≥ ρji (k) ρij (m) ρii (n) = ∞
P P
n=0 n=1

5
Ce qui montre que j est récurrente, et c’est aussi la même chose pour les états transitoires.
On fait une distinction entre deux états récurrents, lorsqu’on considère l’espérance du temps de
premier retour, si l’état i est récurrent, on écrit :

P P
E[T i |X(0) = i] = mP (T i = m|X(0) = i) = mP (T i = m|X(0) = i)
m∈N0 ∪∞ m∈N0

Si cette espérance est finie l’état est récurrent positif. Dans le cas contraire il est récurrent nul.

I.3.2.4 États périodiques/apériodiques

L’état i est dit périodiques de période n ≥ 1 si n est le plus grand diviseur commun (PGCD) des
longueur de circuit qui passe par i : d[i] = P GCD{n ≥ 1, P ii (n) > 0}.
Un état est dit apériodique si PGCD {n ≥ 1, P ii (n) > 0} = 1

I.3.2.5 Classe/chaîne irréductible

Une chaîne de Markov est dite irréductible si elle contient qu’une seule classe d’états récurrents où
d’états transitoires.

I.3.2.6 Chaîne de Markov ergodique

Une chaîne de Markov est dite ergodique si on peut atteindre un état à partir de n’importe quel
autre état.

I.4 Chaîne de Markov à temps continu


Une chaîne de Markov à temps continu est une variante du processus de Markov, plus précisément
c’est un modèle mathématique à valeur dans un ensemble dénombrable, les états dans lequel le temps
passé dans chacun des états est une variable aléatoire réelle suivant une loi exponentielle.

6
I.5 Marche aléatoire uni-dimensionnelle sur Z
La marche aléatoire uni-dimensionnelle sur S = Z est décrite par l’équation suivante : X(n + 1) =
X(n) − U (n) telle que U (n) est une suite de Bernoulli et son diagramme de transition est :

Figure I.1 – Diagramme de transition

On peut retourner à l’état 0 en 2n étapes seulement si l’état du processus s’est déplacé sur le
processus n fois vers la droite, et n fois vers la gauche , par contre le retour à l’état 0 avec 2n + 1 est
impossible. On peut aussi définir une marche aléatoire sur S = Z
Les états de S = Z sont récurrents et c’est pareil pour S = Z 2 .

I.6 Marche aléatoire uni-dimensionnelle sur {0, 1, 2, . . . , N }


L’étude d’une marche aléatoire uni-dimensionnelle sur un espace S = {0, 1, 2, . . . , N } est beaucoup
plus simple , les probabilité de transitions des états de 0 à N doivent être amodiées, on retient deux
cas :
Premier cas :

Le premier cas est celui ou 0 et N sont considérés comme des barrières bloquantes, qui empêchent

que la marche continue au-delà des deux états 0 et N ; telle que PN N = p = 1 − p00 , avec 0 < p < 1.

1−ρN +1 ρ .
1−ρ
Cette chaîne est ergodique donc tous ses états tendent vers sa distribution, πi∗ = i

p
ρ= q
Son diagramme de transition est représenté par :

Figure I.2 – Diagramme de transition

7
Deuxième cas :
est une marche aléatoire sur un cercle pour laquelle PN 0 = P = 1 − P0N avec
0 < P < 1, si le nombre d’états (n + 1) est impair cette chaîne est alors ergodique,
et toute sa distribution tend vers une distribution invariante qui est : πi∗ = 1
N +1
Est si (N + 1) est pair la chaîne est périodique de période 2 et sa distribution
tend vers une distribution stationnaire au sens de Cesàro
En d’autres termes, la somme de Cesàro d’une série est la limite de la moyenne
arithmétique de ses n premières sommes partielles quand n tend vers l’infini.
Son diagramme de transition est représenté par :

Figure I.3 – Diagramme de transition

I.7 Processus de poisson


Dans la file d’attente, l’arrivée est caractérisée par un ensemble d’heures ou de
dates d’arrivée pour chaque client. Cet ensemble de dates d’arrivée est appelé le
processus comme les dates des arrivées sont imprévisibles, elles sont modélisées par
des variables aléatoires.

8
On s’intéresse à la représentation du processus de Poisson, puis à mettre l’ac-
cent sur la distribution exponentielle comme étant la plus utilisée en modélisation
de processus de service. Exprimé en N (t) le nombre d’événements possibles qui
peuvent se produire pendant l’intervalle [0, t] Et satisfaire les conditions suivantes :

9
• Condition 01 : Le processus ainsi décrit est homogène dans le temps ; donc
les probabilités de transitions sont constantes.
• Condition 02 : Le processus est additif à accroissement indépendants :
étant donnés deux intervalles de temps disjoints, le nombre des événements
qui se produisent dans l’un est indépendant du nombre des événements qui
se produisent dans l’autre.
• Condition 03 : La probabilité pour que deux événements se réalisent en
même temps est négligeable devant la probabilité de réalisation d’un seul.
• Condition 04 : On doit écarter le cas des probabilités de transition nulles,
ou égales à 1.
On résume les conditions mathématiquement :

P (Nt+∆t − Nt > 0 |Nt = n) = λt ∆t + 0(∆t), ∀n ∈ N et 0 < λ < 1,

P (Nt+∆t − Nt > 1 |Nt = n) = 0(∆t).

Si ∆t tend vers 0, on aura :

P (Nt+∆t − Nt = 1 | Nt = n) = λt ∆t + 0(∆t),

P (Nt+∆t − Nt = 0 | Nt = n) = 1 − λt ∆t + 0(∆t)

On peut schématiser ce processus par le graphe suivant :

Figure I.4 – Graphe de processus

10
Le processus de Poisson peut être défini comme un processus markovien dont
la matrice de transition est :

Figure I.5 – Graphe de processus

I.7.1 Somme de deux processus de poisson

On considère deux processus de poisson indépendants {N (t)} et {M (t)} . avec


t≥0

Xt = N t + M t pour t ≥ 0

Est un processus de poisson d’intensité λ1 + λ2


Ce résultat est valable pour la somme de n processus de poisson.

I.7.2 Décomposition d’un processus stochastique

Soit {X(t), t ≥ 0} . un processus de poisson de paramètre λ permettant de


comptabiliser une population divisée en deux classe la population d’individus dans
la première classe est égale à p et la proportion individuelle dans la deuxième
classe est (1 − p), les processus {N (t)} et {M (t)} obtenus en séparant les sauts
par rapport à chaque classe sont des processus de pois sons d’intensités pλ et
(1 − p)λ

11
I.8 Loi exponentielle
On dit qu’une variable aléatoire suit une loi exponentielle de paramètre λ > 0
si :
P (X > t) = e−λt , t ≥ 0
• Sa fonction de répartition est :





−λt
 1−e , t≥0



FX (t) = P (X < t) =




0 sinon



• Et de densité :





−λt
 λe si, t ≥ 0



f (t) =




0 sinon



La loi exponentielle modélise la durée de vie d’un phénomène sans mémoire.

I.9 Conclusion
Ce chapitre a présenté les modèles mathématiques nécessaires pour étudier les
formes de file d’attente, telles que les chaînes de Markov, le processus de Pois-
son et la loi exponentielle. Ce formalisme peut être étudié de diverses manières,
en le considérant comme un domaine abstrait des mathématiques appliquées, ou
comme un outil mathématique utile pour analyser ou évaluer le comportement des
systèmes d’attente.

12
II

Systèmes de file d’attente

II.1 Introduction
Les files d’attente est une branche très vaste qui est en développement très
rapide et qui est utilisée dans plusieurs domaines, on peut les trouver dans : les
réseaux informatiques et de télécommunication, l’ingénierie du trafic et les télé-
communications mobiles.
Nous allons découvrir dans ce chapitre qu’est-ce que les files d’attente et nous
allons aborder quelques notions nécessaires et donner quelques exemples des files
d’attentes les plus utilisées, nous allons ensuite nous intéresser à la file M/M/1+M
(file d’attente avec clients impatients)

13
II.2 Quelques notions de base
Description d’un système de file d’attente
Le système d’attente se décrit par un processus d’arrivée de clients, un méca-
nisme de service et une discipline d’attente.
Processus d’arrivée
Nous supposons que les clients arrivent indépendamment les uns des autres.
Par conséquent, le temps entre les arrivées {X n , n ≥ 1} . est indépendant. Nous
supposons également que ces variables ont la même loi. Voici une liste des arrivés
possibles et les notations associés :
• Arrivées à intervalle réguliers : D (déterministe) ;
• Arrivées Poissonniennes : M (Markov) ;
• Arrivées à intervalles suivant une loi d’Erlang : Ek égale à la loi de Gamma
G(k, λ) ;
• Arrivées à intervalles suivant une loi générale : G.
Processus de service
Les durées de services (Y n )n ≥ 1 sont des variables positives indépendantes et
de même loi. Voici une liste de service possibles et les notations associées :
• Service de durée constante : D (déterministe) ;
• Service de durée suivant une loi exponentielle : M (Markov) ;
• Service de durée suivant une loi d’Erlang : Ek ;
• Service de durée suivant une loi générale : G.
Discipline d’attente (de service)
La discipline de service est la méthode par laquelle le serveur choisit le client
suivant après avoir terminé le service du client actuel. De nombreuses disciplines
sont utilisées telles que :

1. (FCFS) : «First come first served » Premier arrivé, premier servi.


2. (FIFO) : «first in first out », premier entré premier sorti. Cette discipline
respecte l’ordre d’arrivée des clients, elle est utilisée surtout lorsque le service
est effectué sur un serveur unique.
3. (LIFO) : «Last in first out » dernier arrivé, premier servis.

14
4. (LCFS) : « last come first served », Elle consiste à servir en premier le
dernier client arrivé, elle est utilisée surtout pour la gestion du stock où le
système de pile est appliquée : celui qui vient plus tard part plus tôt.
5. (RSS) : Sélection au hasard d’un client en attente, cette discipline consiste
à sélectionner le client à servir aléatoirement.
6. Priorité : Les clients sont servis, avec cette discipline, suivant leur impor-
tance dans la population. Une personne prioritaire sera servie avant une per-
sonne non-prioritaire, même si elle est arrivée après. Cette discipline s’impose
dans les services d’urgence, les aéroports, etc.

Les systèmes de file d’attente sont caractérisés par :


• Flux d’arrivée : Quand on parle de flux d’arrivée des clients, on est confronté
à des systèmes de file d’attente, qu’elles soient déterministes ou aléatoires,
dépendantes ou indépendantes, individuelles ou groupées, homogènes ou hé-
térogènes.
• Serveur : Le flux d’arrivée se présente à un dispositif, qui est le serveur qui
fournit le service demandé. Le temps de service peut être décrit par une loi
de probabilité ou être déterminé dés le début. Plusieurs facteurs agissent sur
le temps de service tels que :
— Le nombre de serveurs,
— Le type de disposition (en parallèle, en série ou en réseaux),
— La classe de clients si la population est hétérogène,
— L’instant d’arrivée ...
La distribution la plus utilisée est la distribution exponentielle.

15
II.2.1 Notation de Kendall

Il existe une série de modèles de files d’attente, qui se distinguent par la loi
des temps d’arrivée, la loi des temps de service, le nombre de serveurs, l’éventuelle
longueur maximale de la file, l’ordre de passage des clients.
La notation de Kendall permet de spécifier le modèle de manière compacte. Le
plus souvent, cette notation se compose de trois symboles : A/B/s/N/K/Ds .
Où A désigne la loi des intervalles de temps entre arrivées des clients, B désigne
la loi des temps de service, s est le nombre de serveurs, N est la capacité du système,
K désigne la taille de la population source, et Ds estladisciplineduservice.Lesvaleurslesplus
• M (MARKOV) : Loi exponentielle. En effet, nous avons vu que cette loi
implique la propriété de Markov. Il s’agit du cas le plus simple à analyser.
• D (Déterministe) : Temps constant, c’est-à-dire que les arrivées des clients
sont régulièrement espacées, respectivement le temps de service est le même
pour tous les clients.
• E (Erlang) : Loi dite d’Erlang, qui est en fait une loi Gamma ( loi d’une
somme de variables exponentielles).
• G (Générale) : Loi arbitraire. Ce symbole s’utilise quand on dérive des
propriétés ne dépendant pas de la loi particulière considérée.
Lorsque les trois derniers symboles (N,K,Ds )nesontpasprciss, alorsN= ∞, K =
∞ et Ds = (F IF O)

II.2.2 File d’attente M/M/1

La file d’attente M/M/1 spécifie un système où les clients arrivent suivant un


processus de Poisson de paramètre λ et il existe un seul serveur qui traite les clients
selon l’ordre de leur arrivée et suivant une distribution exponentielle de moyenne
µ.
1

Il existe une infinité de places pour les clients, c’est à dire que tous les clients qui
arrivent au système seront servis après que leur temps d’attente soit épuisé.
Notons que les temps de service et les temps des inter-arrivées sont mutuellement
indépendants.
Le système est décrit par une chaîne de Markov à temps continue et à espace d’états

16
discret N (t), t ≥ 0, où N (t) représente le nombre des clients dans le système à
l’instant t.
Le diagramme de transition associé à ce système est donné par la figure [diag3]

Figure II.1 – Diagramme de transition

II.2.2.1 Équation de Chapman-Kolmogorov

C’est une équation qui a été mise séparément par les deux mathématiciens :
Sidney Chapman et Andrei Kolmogorov et c’est une égalité en théorie des processus
Markoviens qui met en relation les lois jointes de différents points de trajectoire
d’un processus stochastique.
Nous connaissons les valeurs de λij pour la majorité des problèmes d’applications
, d’où nous connaissons aussi les probabilités de transition P ij (∆t) pour des petites
durées ∆t, nous devons alors calculer les fonctions P ij (t) pour des valeurs aléatoire
du temps t(t > 0) et déterminer le régime transitoire du processus considérer.
Nous supposons alors qu’on peut considérer pour un problème l’état initial i
étant fixe et qu’on se désintéresse à la manière dont P n (t) dépend de i :
P n (t) = P (X(t) = n) = P in (t); (n = 0, 1, 2, ...)

C’est une probabilité non conditionnelle, d’après l’équation de Chapman-Kolmogorov :

P n (t + ∆t) = P in (t + ∆t)
X
= P ik (t)P kn (∆t)
k∈S
X
= P n (t)[P nn (∆t) − 1 + 1] + P k (t)P kn (∆t)
k̸=n

Après division par ∆t et ré-arrangement :

17
P n (t+∆t)−P n (t)
+ P n (t) P nn (∆t)−1
P P kn (∆t)
∆t = P k (t) ∆t ∆t
k̸=n
D’où quand ∆t tend vers 0 :

P ’ n (t) =
P
P k (t)λkn + P n (t)λnn
k̸=n
avec λnn ; (n = 0, 1, 2, ...)
P
=− λnj
j̸=n
Ce système d’équations interprète le taux de variation P ’ n (t) de la probabilité
à l’état n égal à la différence du flux d’entrée et flux de sortie de cet état.

18
II.2.2.2 Quelques performances de la file M/M/1

On définit la quantité ρ = λ
µ représentant le facteur d’utilisation du système
(Intensité du trafic).
Lorsque λ < µ , i.e ρ < 1, alors tous les états de la chaîne sont récurrents non nuls
et apériodiques. Dans ce cas la chaîne de Markov est érgodique alors la distribution
stationnaire existe et elle est unique.
Les probabilités d’état :

lim P (t)
t→+∞

sont données par : 






P0 = 1 − ρ








n n
 Pn = ρ P0 = ρ (1 − ρ)


• Le nombre moyen de client dans un système est donné par : N̄ =


P
nP n =
ρ
n(1 − p)pn = 1−ρ
P

• Nombre moyen de clients en attente :


P ρ2
N̄ a = (n − 1)p(n) = 1−ρ
• Temps moyen de séjour :
Le temps moyens de séjour peut-être obtenu en utilisant la formule de Little :
T¯s = N̄ = 1 ρ
λ λ 1−ρ
• La durée de séjour qui est composée de la durée d’attente et la durée de
service.
• Le taux d’occupation des postes de service.
• Le pourcentage de clients n’ayant pu être servis.
• La durée d’une période d’activité, c’est à dire de l’intervalle de temps, pen-
dant lequel il y a toujours au moins un client dans le système.
ρ est le nombre moyen de clients en service

19
II.2.3 File d’attente M/M/S

La file d’attente M/M/S est aussi définie par un processus stochastique marko-
vien, où les instants d’arrivés des clients sont poissonniens et les temps de service
sont exponentiels. la particularité de ce système est qu’il existe S serveurs tra-
vaillant en parallèle suivant la même distribution exponentielle de paramètre µ.
Lorsqu’un client arrive et il existe un serveur libre, alors il accède au service, sinon
il prend place en attente.
Le diagramme de transition associé à ce système est donnée par :

Figure II.2 – Diagramme de transition

20
II.2.3.1 Quelques performances

• Nombre moyen de client dans un système :


Le calcul de nombre moyen de clients dans un système est défini par :

N̄ = ρ(1 + ( s−ρ ))
• Nombre moyen de clients en attente :
Le nombre moyen de clients en attente est défini par :

N̄ a = ρ( s−ρ )
• Temps moyen de séjour :
Le temps moyens de séjour est défini par :
T¯s = 1 (1 + ( pα )
λ s−ρ

II.3 Files d’attente M/M/1 avec clients impatients

II.3.1 Description du système

Une file d’attente M/M/1 avec clients impatients est l’étude d’une file d’attente
où les clients arrivent suivant une loi de poisson de paramètre λ, et distribuée de
manière exponentielle de paramètre µ, la capacité de la file est illimitée et il existe
un seul serveur. Et dès qu’un client arrive il se donne une minuterie individuelle,
et dans le cas où il n’a pas été servie durant sa durée d’attente il quitte le système
sans être servi, et dans ce cas on ajoute un autre paramètre ϵ qui représente le
taux de délais de patience .
Ce processus est un processus de naissance et de mort dont ses taux de transi-
tions sont indiqués dans le diagramme de transition suivant :

Figure II.3 – Diagramme de transition client impatient

21
II.3.2 Performances du système

Soit le système M/M/1+M, à partir du diagramme de transition on peut écrire


(II.2)
Posons Pn la probabilité associée à l’état n. Ainsi et par conservation de flux nous
allons obtenir la récurrence suivante :

λPn = [µ + (n + 1)γ]Pn+1 . (II.1)

Par récurrence on peut directement montrer que,

n
!
Y λ
Pn = P0
µ + kγ
k=1

Pour simplifier on pose,

λ
ρk = , ∀k ≥ 1.
µ + kγ
Alors,

n
!
Y
Pn = ρk P0
k=1

D’autre part, et comme la somme des probabilités est égale à 1, on déduit que,

1
P0 = ∞ Q
P n .
1+ ρk
n=1 k=1
∞ Q
n
On a : λ
converge alors P0 existe. En effet,
P
µ+kγ
n=1 k=1

1 1
µ + kγ > kγ =⇒ ≤
µ + kγ kγ
n
Y 1  n Y n  n
λ 1 1 1
=⇒ ≤ =
µ + kγ γ k γ n!
k=1 k=1
∞ Y n ∞  n
X 1 X λ 1 λ
=⇒ ≤ = eγ < ∞
n=1
µ + kγ n=1
γ n!
k=1

22
Enfin, et pour simplifier on garde toujours la constante P0 dans l’expression de
Pn .

II.3.3 Calcul des mesures des performances

En gardant les simplifications déjà faites nous trouverons les résultats suivants :

1. Le nombre moyen de clients dans le système N̄ :



X ∞
X n
Y
N̄ = nP n = n P0 ρk
n=1 n=1 k=1

2. Le temps d’attente moyen Ts :


Avec l’application de la loi de Little : L = λTs .
On obtient :
L
Ts = λ
∞ n
P0 X Y
= n ρk . (II.2)
λ n=1
k=1

3. Probabilité de perte d’un client à l’état stationnaire :

∞ n
γX Y γ
π = P[V > D] = P0 ρk = (1 − P0 ) (II.3)
λ n=1 λ
k=1

Il est clair que les résultats obtenus lors du calcul sont purement théoriques.
Par conséquent, en pratique, nous utilisons des approches algorithmiques
plus intéressantes, telles que la troncature de sommes infinies, pour réduire
le temps d’exécution des programmes.

II.4 Conclusion
Dans ce deuxième chapitre nous avons étudié les systèmes des files d’attentes
en générale en se basant sur les files d’attentes M/M/1 avec et sans impatience.

23
III

Application

III.1 Introduction
Nous avons présenté en détails dans les chapitres précédents les files d’attentes
avec impatience.
Dans ce dernier chapitre nous allons présenter en premier lieu qu’est-ce qu’une
simulation, les étapes à suivre, nous allons ensuite présenter l’outil de simulation
avec lequel nous allons effectuer, et finalement nous allons expliquer le déroulement
de la simulation et nous présenteront quelques résultats de simulation obtenus.

III.2 Définition de la simulation


La simulation est une technique importante de modélisation des systèmes. Il
existe deux principales méthodes de simulation :
• Méthodes en temps continu (analogique).
• Méthodes en temps discret.
Le principe de base d’une simulation est de suivre tous les changements d’un
phénomène (décrit à l’aide d’un modèle) évoluant dans le temps. L’opération de
base d’un simulateur de ce type consiste à changer la valeur des variables qui
définissent l’état du système au fur et à mesure que le temps de simulation s’écoule.

24
Dans la simulation à événements discrets, l’espace d’état du système considéré
est fini ou dénombrable et chaque changement d’état (événement) se produit de
façon discrète. Ces instants de changement d’état sont appelés occurrences d’évé-
nement. Un événement peut être l’arrivée d’une transaction ou la réalisation d’un
service.
Dans un contexte général, ces événements se produisent de façon aléatoire.
Ainsi, les techniques d’estimation statistique sont alors utiles dans l’analyse d’un
système.

III.3 Les étapes de la simulation


Pour réaliser une simulation on suit les étapes suivantes :

III.3.1 Définir l’objectif

Cette étape est très importante car ces éléments ont un cadre très riche pour
modéliser les phénomènes et leurs environnements, le concepteur peut effectuer de
très nombreux choix qui peuvent influencer sur le résultat, et ces choix doivent
être guidés par l’objectif de l’étude.

III.3.2 Le choix d’une théorie et des modelés de comportement

• La théorie continue : elle peut être n’importe quelle théorie des milieux
continus, lorsqu’il existe plusieurs théories il est préférable de choisir la plus
simple car elle est la moins couteuse en termes de calculs sans trop s’éloigner
du résultat.
• La discrétisation : elle dépend du modèle du produit (maillage).

III.3.3 Le choix d’un solveur

Même si tous les logiciels appliquent la même méthode, mais le choix du logiciel
peut avoir une influence sur les résultats de la simulation, et aussi sur les consi-
dérations liées à l’ergonomie, et le cout, et cela revient au types d’éléments et les
modèles d’environnement qui diffère.

25
III.3.4 La modélisation du produit

Cette étape s’appuie en majorité sur une maquette numérique existante et fait
appelle a un meilleur automatique, la réalisation du maillage s’effectue en trois
temps :
• Adapter la géométrie a la théorie.
• Choisir le type et la taille des éléments selon l’objectif de la géométrie.
• Générer et contrôler le maillage. « Un maillage est la discrétisation spatiale
d’un milieu continu, ou aussi, une modélisation géométrique d’un domaine
par des éléments proportionnés finis et bien définis. L’objet d’un maillage est
de procéder à une simplification d’un système par un modèle représentant
ce système et, éventuellement, son environnement (le milieu), dans l’optique
de simulations de calculs ou de représentations graphiques. » (Source : Wi-
kipédia).

III.3.5 Modélisation de l’action de l’environnement sur le produit

En éléments finis il s’agit généralement des écarts entre la simulation et la réalité,


de nombreux modèles d’environnement sont proposé dans les logiciels qui ont un
domaine de validité limité, qu’en pratique les utilisateurs respectent rarement.

III.3.6 Calcul

Cette étape est réalisée par le logiciel automatiquement sous les hypothèses ne
contribue pas aux écarts, mais les erreurs d’interprétations, également les contraintes
sont l’origine du post-traitement des résultats.

III.3.7 Diagnostique et contrôle de qualité

Certaines sources d’écarts peuvent être maitrisé ou éliminé, et cela grâce aux
outils d’aide au diagnostic qui sont déjà présent dans certains logiciels de simula-
tion.
Pour la modélisation la majorité des logiciels proposent des outils semi-empirique
afin d’éviter les écarts. Et pour les fautes les logiciels vérifient généralement que

26
les règles de la théorie sont respectées. L’utilisation de ces outils permet de facilité
le diagnostic.

III.4 Quelques méthodes de simulation


Il existe plusieurs méthodes de simulation parmi ces méthodes on trouve la
méthode inverse :

III.4.1 Méthode inverse


III.4.1.1 Fonction de répartition d’une variable aléatoire discrète

• La probabilité pour que la variable aléatoire X Prenne une valeur inférieure


ou égale à x est une Fonction F (x).
• Cette fonction est appelée fonction de répartition de x. F (x) = P (X ≤ x)
somme p(X = y)
• La fonction F (x) est une fonction en escalier, croissante de 0 à 1.

Exemple de fonction de répartition


Pour l’expérience de lancement d’une pièce de monnaie, on a la loi de probabi-
lité de X est résumée par le tableau suivant :

0 1
P
xi pi

pi 1
2
1
2 1

27
III.4.1.2 La méthode de l’inverse

Proposition : Supposons que la variable aléatoire. X a pour fonction de répar-


tition F continue et strictement croissante, toujours que 0 < F (x) < 1
Soit U variable aléatoire . → U (0, 1). Alors, la variable aléatoire. F −1 (U ) a
pour fonction de répartition F .

III.4.1.3 Démonstration de la méthode de l’inverse

Soit G la fonction de répartition de F −1 (U ). Alors :

G(x) = P (F −1 (U ) ≤ x)
= P (F (F −1 (U )) ≤ F (x))
= P (U ≤ F (x)) = F (x)

III.4.1.4 Algorithme de la méthode inverse

• Cette méthode suggère que pour générer des échantillons d’une variable aléa-
toire. X pour laquelle F −1 est connue, on peut générer des nombres aléatoires
U uniformes sur (0, 1) et faire X = F −1 (U ).
• Nous avons alors l’algorithme général de la méthode inverse suivant :

Propriétés III.1
• Une condition minime pour l’application de cette méthode est de connaître
la forme explicite de F −1 .
• Cela est vérifié pour plusieurs lois de probabilités, comme l’uniforme, l’ex-
ponentielle, de Weibull, de Cauchy, . . .
• Remarquons qu’une telle condition n’est pas suffisante, par exemple, pour la
loi beta, il est possible théoriquement de la simuler par inversion, mais elle
peut résulter très couteuse.

28
• Parfois, nous disposons d’une bonne approximation de F −1 , d’où on peut
utiliser la méthode par approximation.

29
III.5 Outils de simulation
Nous avons opté pour la technique analytique où nous avons modélisé notre
réseau de file d’attente. pour un calcul rapide et meilleur des résultats nous avons
choisi « MATLAB» comme langage de programmation.

III.5.1 Qu’est-ce que Matlab

MATLAB (Matrix LABoratory) est un logiciel qui permet d’effectuer des calculs
numériques. Il a été conçu initialement pour féliciter le traitement des matrices
mais il est désormais utilisé dans tous les domaines des sciences qui nécessite de
faire un calcul.

III.5.2 Pourquoi Matlab

Le choix du langage Matlab revient à :


• Sa simplicité d’implémentation.
• Sa rapidité lors des calculs et l’exécution des programmes.
• La richesse de sa librairie.
• La possibilité d’inclure d’autres langages.
• Langage interprété.

30
III.6 Algorithme de la simulation
1 f u n c t i o n Simm(mu, xi , T) %#ok<∗STOUT>
2 mm= [ ] ;
3 ppe = [ ] ;
4 lam = [ ] ;
5 rr =[];
6 f o r lambda = 0 . 5 : 0 . 1 : 6
7 t 1 =0; t 2=T ; t 3=T ;
8 n=0;m=0; pe =0;
9 h=min ( [ t1 , t2 , t 3 ] ) ;
10

11

12 lam=[lam lambda ] ;
13 while h < T
14 i f h==t 1
15 uu = [ ] ;
16 u=rand ;
17 t 4=t1 −(1/ x i ) ∗ l o g ( u ) ;
18 i f n>0
19 f o r i =1:n
20 u2=rand ;
21 y=−(1/mu) ∗ l o g ( u2 ) ;
22 uu=[uu y ] ;
23 end
24 end
25 i f t4>t 1+sum ( uu )
26 n=n+1;
27 else
28 pe=pe +1;
29 end
30 t 1=t1 −(1/ lambda ) ∗ l o g ( rand ) ;
31 i f n==1
32 t 2=h ;
33 end
34 end
35 i f h==t 2
36 u=rand ;
37 t 3=t2 −(1/mu) ∗ l o g ( u ) ;
38 t 2=T ;
39 end
40 i f h==t 3
41 m=m+1;
42 n=n−1;
43 t 3=T ;
44 i f n~=0

31
45 t 2=h ;
46 end
47 end
48 h=min ( [ t1 , t2 , t 3 ] ) ;
49 end
50 r=m/ pe ;
51 r r =[ r r r ] ;
52 mm=[mm m] ;
53 ppe =[ ppe pe ] ;
54 end
55 mm
56 ppe
57 p l o t ( lam , r r , ’ g− ’ )
58

59 % p l o t ( lam ,mm, ’ b− ’ )
60 % h o l d on
61 % p l o t ( lam , ppe , ’ r− ’ )
62

63 end

III.7 Déroulement
Après avoir implémenter le programme de simulation sous Matlab en utilisant
la méthode des trois phases, nous avons pu avoir les différentes caractéristiques du
système, à savoir le nombre de clients servis, le temps moyen de séjour d’un client
ainsi que le nombre de clients perdus.
Des graphes permettant de voir la variation de ces différentes performances, spé-
cialement le nombre de clients servis par rapport au nombre de clients perdus, ont
été obtenu tels que montré par la figure III.1.

32
Figure III.1 – Variation des nombres de clients servis et perdus en fonction de λ

Comme on le voit clairement dans la figure III.1 obtenu en choisissant les pa-
ramètres d’entrée µ = 2, γ = 0.5 le nombre de clients servis ainsi que le nombre
de clients perdus croient en fonction de λ mais cette croissance est beaucoup plus
importante pour le nombre de clients perdus. En effet, ce dernier croît plus vite et
on remarque que le nombre de clients perdus dépasse le nombre de clients servis
dès que le taux d’arrivée λ devient plus important.

Pour bien étudier la proportion du nombre de clients perdus, on considère le


rapport X défini par :
Nombre de clients perdu
X= .
nombre de clients servis

33
Figure III.2 – Variation du rapport X par rapport à λ

La figure III.2 montre la variation de ce rapport en fonction du taux d’arrivée


λ. Il a été constaté que plus λ est élevé plus le rapport X est faible. Il serait alors
très intéressant au gestionnaire de système d’appliquer des mesures lui permettant
de garder sa clientèle, comme par exemple le choix d’un taux de service adéquat.
Ceci dans l’objectif, non seulement de service le maximum possible de clients, mais
aussi de réduire les coûts engendré par la perte de clients.

III.8 Conclusion
Dans ce troisième chapitre nous avons indiqué la technique de simulation choisie,
les outils exploités, le déroulement de la simulation, et en fin les résultats obtenus.

34
Conclusion générale

Ce travail a été réalisé dans le cadre d’un projet fin de cycle ; en vue d’obtenir
un diplôme de licence, il se résume en présentations, des files d’attentes avec client
impatient et des processus stochastiques et réalisation d’un programme représen-
tant ce phénomène.

Nous avons d’abord présenté qu’est-ce qu’un processus stochastique, nous avons
ensuite présenté quelques processus stochastiques et leurs diagramme de transition.

Après avoir étudié en détails les variables aléatoires, on a ensuite définie les files
d’attentes et étudier quelques-unes et on a ensuite donné quelques performances
et équations.

L’évolution des performances de notre système a été effectué en utilisant la


technique de la simulation, et nous avons choisi Matlab comme langage de pro-
grammation, grâce a sa rapidité sa simplicité et ses librairies qu’on juge assez
efficaces et robuste pour notre simulation.

35
Bibliographie

[1] T. MEZIANI, (2016), mémoire de Master mathématique, option : statistique et analyse décisionnelle
"Sur les files d’attente avec impatience", Université de Bejaia.
[2] Chaîne de Markov a temps continue : Université de Rennes I – Préparation ‘a l’´épreuve de modé-
lisation - Agrégation Externe de Mathématiques – 2007-2008.
[3] Olivier François, (2004/2005), Note de cours de processus aléatoire.
[4] Sophia, (2011/2012), Processus stochastiques et modélisation, L3 MIAGE université de Nice.
[5] Processus aléatoire et application Master 2 Pro de mathématique université d’Orléans Nils Berglund
2014.
[6] Queuing System with Impatient Customers : A Review Kangzhou Wang, Na Li, and Zhibin Jiang,
Senior Member, IEEE 2010.
[7] On queues with impatient customers par : François Baccelli, G. Hebuterne :
https ://hal.inria.fr/inria- 00076467.
[8] Multiserver Queues with Impatient Customers O.J. Boxma, P.R. de Waal 1994 Elsevier Science B.V.
[9] Applied Mathematics and application, Transient analys is an an M/M/1 queue with impatient
behavior and multiplevacations ©2015ElsevierInc.Allrightsreserved www.elsevier.com/locate/amc
[10] N. Berglund, mémoire de master, processus aléatoires et applications, université d’Orléans, dépar-
tement mathématiques option pro mathématiques, 2014.
[11] S. Kebbas, mémoire de magister, sur la contribution à la correction et l’amélioration de la qualité de
service dans une entreprise publique, en utilisant les réseaux de files d’attente, université de batna,
département de génie industriel, 2013.

36

Vous aimerez peut-être aussi