Vous êtes sur la page 1sur 127

Précis de Recherche Opérationnelle

et
Aide à la Décision

Cours IPST CNAM de Toulouse

Richard Loustau

Le 13 mars 2004
TABLE DES MATIÈRES iii

Table des matières

Introduction ix

A Eléments de la théorie des graphes et applications 1


I Eléments de la théorie des graphes 3
I.1 Le concept de graphe . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.1 .a Graphes orientés . . . . . . . . . . . . . . . . . . . . . . . 3
I.1 .b Graphes non orientés . . . . . . . . . . . . . . . . . . . . . 4
I.2 Principales définitions . . . . . . . . . . . . . . . . . . . . . . . . 4
I.3 Matrices associées à un graphe . . . . . . . . . . . . . . . . . . . 5
I.3 .a Matrices d’adjacence . . . . . . . . . . . . . . . . . . . . . 5
I.3 .b Matrices d’incidence sommets-arcs . . . . . . . . . . . . . 6
I.4 Fermeture transitive d’un graphe . . . . . . . . . . . . . . . . . . 7
I.4 .a Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I.4 .b Matrice de fermeture transitive . . . . . . . . . . . . . . . 7
I.4 .c Algorithme de Roy-Warshall . . . . . . . . . . . . . . . . 7
I.5 Graphes et connexité . . . . . . . . . . . . . . . . . . . . . . . . . 8
I.5 .a Composantes connexes . . . . . . . . . . . . . . . . . . . . 9
I.5 .b Composantes fortement connexes . . . . . . . . . . . . . . 9
I.6 Mise en ordre d’un graphe . . . . . . . . . . . . . . . . . . . . . . 10

II Chemins optimaux 15
II.1 L’algorithme de Ford . . . . . . . . . . . . . . . . . . . . . . . . . 15
II.2 Algorithme de Dijkstra . . . . . . . . . . . . . . . . . . . . . . . . 17
II.3 Graphes sans circuit . . . . . . . . . . . . . . . . . . . . . . . . . 17
II.4 Algorithmes matriciels . . . . . . . . . . . . . . . . . . . . . . . . 18
II.4 .a Algorithme de Floyd . . . . . . . . . . . . . . . . . . . . . 19

III Ordonnancement 23
III.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . 23
III.2 Principaux types de contraintes . . . . . . . . . . . . . . . . . . . 24
III.2 .a Contraintes de type potentiel . . . . . . . . . . . . . . . . 24
III.2 .b Contraintes de type disjonctif . . . . . . . . . . . . . . . . 25
III.3 Exemple de problème : . . . . . . . . . . . . . . . . . . . . . . . . 25
III.4 La méthode MPM . . . . . . . . . . . . . . . . . . . . . . . . . . 26
III.4 .a Construction du graphe MPM . . . . . . . . . . . . . . . 26
III.4 .b Détermination du calendrier au plus tôt . . . . . . . . . . 26
iv TABLE DES MATIÈRES

III.4 .c Détermination du calendrier au plus tard . . . . . . . . . 27


III.4 .d Marge totale . . . . . . . . . . . . . . . . . . . . . . . . . 27
III.4 .e Marge libre . . . . . . . . . . . . . . . . . . . . . . . . . . 27
III.4 .f Synthèse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
III.5 La méthode PERT . . . . . . . . . . . . . . . . . . . . . . . . . . 30
III.5 .a Construction du graphe PERT . . . . . . . . . . . . . . . 30
III.5 .b Calendrier au plus tôt . . . . . . . . . . . . . . . . . . . . 30
III.5 .c Calendrier au plus tard . . . . . . . . . . . . . . . . . . . 30
III.5 .d Marges totales : . . . . . . . . . . . . . . . . . . . . . . . 30
III.5 .e Marges libres : . . . . . . . . . . . . . . . . . . . . . . . . 30

B Programmation Linéaire 33
I Présentation 35
I.1 Présentation d’un exemple : . . . . . . . . . . . . . . . . . . . . . 35
I.2 Forme standard des problèmes de PL . . . . . . . . . . . . . . . . 36
I.2 .a Présentation générale : . . . . . . . . . . . . . . . . . . . 36
I.2 .b Forme matricielle : . . . . . . . . . . . . . . . . . . . . . . 37
I.3 Résolution d’un système d’équations par la méthode du pivot de
Gauss : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
I.4 Définitions : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
I.5 Résolution graphique d’un PL : . . . . . . . . . . . . . . . . . . . 39
I.5 .a Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . 39
I.6 Cas général : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

II La méthode du simplexe 47
II.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
II.1 .a Etude d’un exemple : . . . . . . . . . . . . . . . . . . . . . 47
II.1 .b Disposition pratique des calculs : . . . . . . . . . . . . . . 48
II.2 L’algorithme du simplexe : . . . . . . . . . . . . . . . . . . . . . . 49
II.2 .a Passage d’un extrême à l’autre . . . . . . . . . . . . . . . 49
II.2 .b Choix de la variable entrante . . . . . . . . . . . . . . . . 50
II.3 L’algorithme du simplexe : . . . . . . . . . . . . . . . . . . . . . . 50
II.3 .a L’algorithme : . . . . . . . . . . . . . . . . . . . . . . . . . 51
II.3 .b Disposition pratique : . . . . . . . . . . . . . . . . . . . . . 51
II.3 .c Traitement d’un exemple : . . . . . . . . . . . . . . . . . . 52
II.4 Obtention d’une base réalisable de départ : . . . . . . . . . . . . . 53
II.4 .a Méthode en deux phases : . . . . . . . . . . . . . . . . . . 53
II.4 .b Exemple : . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

III Dual 57
III.1 Introduction : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
III.2 Définitions et exemples : . . . . . . . . . . . . . . . . . . . . . . . 58
III.2 .a Primal et Dual : . . . . . . . . . . . . . . . . . . . . . . . 58
III.2 .b Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
III.3 Propriétés de la dualité : . . . . . . . . . . . . . . . . . . . . . . . 59
III.4 Passage du dernier tableau simplexe du primal au dernier tableau
simplexe du dual : . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
TABLE DES MATIÈRES v

IV Analyse de sensibilité, PL paramétrique 63


IV.1 Paramétrisation de la fonction économique . . . . . . . . . . . . . 63
IV.2 Paramétrisation du second membre des contraintes . . . . . . . . 64
IV.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

C Processus Stochastiques et applications 69


I Présentation des processus stochastiques 71
I.1 Définition des processus stochastiques . . . . . . . . . . . . . . . 71
I.2 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 73
I.2 .a Présentation . . . . . . . . . . . . . . . . . . . . . . . . . 73
I.2 .b Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . 73
I.3 Temps d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
I.4 Détermination expérimentale . . . . . . . . . . . . . . . . . . . . 74
I.4 .a Théorème . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
I.4 .b Application . . . . . . . . . . . . . . . . . . . . . . . . . . 74
I.5 Graphes associés à une loi de Poisson . . . . . . . . . . . . . . . . 75
I.6 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

II Processus de naissance et de mort 77


II.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
II.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
II.3 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
II.3 .a Processus de naissance pur . . . . . . . . . . . . . . . . . 79
II.3 .b Processus de mort pur . . . . . . . . . . . . . . . . . . . . 79
II.4 Probabilités à long terme . . . . . . . . . . . . . . . . . . . . . . 79

III Chaînes de Markov 83


III.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
III.2 Probabilités de transition . . . . . . . . . . . . . . . . . . . . . . 83
III.2 .a Transition d’ordre 1 . . . . . . . . . . . . . . . . . . . . . 83
III.2 .b Transitions d’ordre n . . . . . . . . . . . . . . . . . . . . . 84
III.2 .c Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
III.3 Classification des états d’une chaîne . . . . . . . . . . . . . . . . 85
III.4 Propriétés des chaînes de Markov . . . . . . . . . . . . . . . . . . 85
III.4 .a relation d’équivalence sur l’ensemble des états . . . . . . . 85
III.4 .b Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
III.4 .c Théorème 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 86
III.4 .d Théorème 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 87
III.4 .e Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

IV Files d’attente 89
IV.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
IV.2 Evaluation du système, mesures à long terme . . . . . . . . . . . 90
IV.2 .a Lois de Little . . . . . . . . . . . . . . . . . . . . . . . . . 90
IV.3 Files d’attente M/M/1 . . . . . . . . . . . . . . . . . . . . . . . . 91
IV.3 .a Probabilités associées . . . . . . . . . . . . . . . . . . . . 91
IV.3 .b Exemple n◦1 . . . . . . . . . . . . . . . . . . . . . . . . . 92
IV.4 Files M/M/1 (N) . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
vi TABLE DES MATIÈRES

D Eléments de Fiabilité 95
I Présentation 97
I.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
I.2 Généralités, terminologie . . . . . . . . . . . . . . . . . . . . . . . 97
I.2 .a Fonctions de défaillance et de fiabilité . . . . . . . . . . . 97
I.3 Détermination expérimentale . . . . . . . . . . . . . . . . . . . . 98
I.3 .a Estimation des fonctions R et T . . . . . . . . . . . . . . 98
I.4 Principales lois utilisées . . . . . . . . . . . . . . . . . . . . . . . 100
I.4 .a La loi exponentielle . . . . . . . . . . . . . . . . . . . . . . 100
I.4 .b Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . 100

II Fiabilité d’un système et de ses composants 101


II.1 Système à structure en série . . . . . . . . . . . . . . . . . . . . . 101
II.1 .a Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
II.2 Système à structure parallèle . . . . . . . . . . . . . . . . . . . . 102
II.2 .a Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
II.3 Systèmes à structure mixte . . . . . . . . . . . . . . . . . . . . . 102
II.3 .a Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

E Annexes 105
A Eléments de probabilités 107
A.1 Vocabulaire des probabilités . . . . . . . . . . . . . . . . . . . . . 107
A.2 Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . 107
A.2 .a Définition des probabilités . . . . . . . . . . . . . . . . . . 108
A.2 .b Probabilités conditionnelles . . . . . . . . . . . . . . . . . 108
A.3 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . 109
A.3 .a Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 109
A.3 .b Variables aléatoires discrètes . . . . . . . . . . . . . . . . 109
A.3 .c Variables aléatoires continues . . . . . . . . . . . . . . . . 109
A.4 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
A.4 .a Loi binômiale . . . . . . . . . . . . . . . . . . . . . . . . . 110
A.4 .b Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 110
A.4 .c Loi géométrique . . . . . . . . . . . . . . . . . . . . . . . 110
A.4 .d Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . 110
A.4 .e Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . 111
A.4 .f Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . 111
A.4 .g Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

B TABLES 113
B.1 Table de la loi de Poisson . . . . . . . . . . . . . . . . . . . . . . 113
B.2 TABLE DE LA LOI DE WEIBULL . . . . . . . . . . . . . . . . 114

C conclusion 115
TABLE DES FIGURES vii

Table des figures

I.1 Arc u =(xi , xj ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3


I.2 Exemple de graphe orienté . . . . . . . . . . . . . . . . . . . . . . 3
I.3 Incidence sommets-arcs . . . . . . . . . . . . . . . . . . . . . . . 7
I.4 algorithme de Roy-Warshall . . . . . . . . . . . . . . . . . . . . . 8
I.5 Composantes fortement connexes . . . . . . . . . . . . . . . . . . 9
I.6 Mise en ordre d’un graphe . . . . . . . . . . . . . . . . . . . . . . 11

II.1 Algorithme de Ford . . . . . . . . . . . . . . . . . . . . . . . . . . 16


II.2 Algorithme de Dijkstra . . . . . . . . . . . . . . . . . . . . . . . . 17
II.3 Graphe sans circuit . . . . . . . . . . . . . . . . . . . . . . . . . . 18
II.4 Algorithme de Floyd . . . . . . . . . . . . . . . . . . . . . . . . . 19

III.1 Graphe MPM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29


III.2 Graphe PERT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

I.1 Représentation graphique en 2D, solution unique . . . . . . . . . 44


I.2 Représentation graphique en 2D, infinité de solutions . . . . . . . 44
I.3 Problème non borné, pas de solution . . . . . . . . . . . . . . . . 45
I.4 Problème non borné, solution unique . . . . . . . . . . . . . . . . 45

IV.1 Intervalles de stabilité . . . . . . . . . . . . . . . . . . . . . . . . 66

I.1 Exemple de processus en temps discret . . . . . . . . . . . . . . . 72


I.2 Exemple de trajectoire : le CAC40 . . . . . . . . . . . . . . . . . 72
I.3 Graphe du processus de Poisson . . . . . . . . . . . . . . . . . . . 75

II.1 Graphe du processus de Naissance et de mort . . . . . . . . . . . 80

I.1 Allure de la courbe du taux d’avarie . . . . . . . . . . . . . . . . 99

A.1 Quelques densités de la loi de Weibull (η = 1, γ = 0, β =


0.3, 0.6, 1, 1.5, 2, 3.) . . . . . . . . . . . . . . . . . . . . . . . . . 112
viii TABLE DES FIGURES
ix

Introduction

Ce précis est le contenu du cours dispensé au CNAM de Toulouse dans la


demi-valeur intitulée TL 18967. Les domaines abordés sont très variés et pré-
sentés de manière élémentaire pour que les étudiants sachent avant tout de quoi
l’on parle et par la suite utiliser de manière adéquate les outils informatiques
dont ils peuvent disposer.

Quelques pré-requis en mathématiques sont nécessaires à la compréhension


du cours et quelques rappels sont présentés en annexe :

– Connaissance des fonctions usuelles.


– Notions de calcul intégral et sur les séries.
– Notions d’algèbre linéaire et de calcul matriciel.
– Bases du calcul de probabilités et de statistiques.
x
1

Première partie

Eléments de la théorie des


graphes et applications
3

Chapitre I

Eléments de la théorie des


graphes

On considère un ensemble fini E = {x1 , · · · ,xn } où n est un entier naturel


et une relation binaire sur E, assimilée à une partie U de E × E c’est à dire un
ensemble de couples (xi , xj ) où i, j ∈ {1, · · · ,n}. On se bornera à l’étude de ce
que la théorie générale appelle des 1-graphes.

I.1 Le concept de graphe


I.1 .a Graphes orientés
La donnée du couple (E, U ) définit un graphe orienté, les éléments de E
sont appelés des sommets , et ceux de U des arcs et sont représentés par
des flêches. Dans un arc (xi , xj ), xi est appelé extrémité initiale , et xj ,
extrémité finale. Un arc (xi , xi ) est appelé une boucle.
u
xi + xj

Fig. I.1 – Arc u =(xi , xj )

Exemple :

E = {A, B, C, D, E, F },
G = {(A, B), (A, D), (B, C), (C, B), (C, E), (D, C), (D, D), (D, E)}
u1 u3
?>=<
89:; * ?>=<
89:; * 89:;
A B j u4 o7 ?>=<C
oo o
u6 ooo
u2 oo
 ooooo u5
89:;
?>=< oo 89:;
?>=< x 89:;
?>=<
u7 D 4 E F
4 u8

Fig. I.2 – Exemple de graphe orienté


4 CHAPITRE I. ELÉMENTS DE LA THÉORIE DES GRAPHES

Au lieu de formuler explicitement G, on utilise souvent l’application Γ : E →


P(E), qui associe à chaque sommet l’ensemble des extrémités finales des arcs
partant de ce sommet. C’est ainsi que dans l’exemple précédent, Γ est définie
par :
Γ(A) = {B, D}, Γ(B) = {C}, Γ(C) = {B, E}, Γ(D) = {C, D, E},
Γ(E) = Γ(F ) = ∅.
Un graphe est donc entièrement déterminé par la donnée de E et Γ, on notera
désormais un graphe G = (E, Γ) ou G = (E, U) suivant qu’il est défini par la
donnée de ses arcs ou de l’application Γ.
Dans la suite on utilisera aussi l’application, notée Γ−1 (attention, il ne s’agit
pas de l’application réciproque de Γ!) qui à chaque sommet du graphe associe
l’ensemble des extrémités initiales des arcs aboutissant à ce sommet.
Toujours dans l’exemple précédent, on a :
Γ−1 (A) = ∅, Γ−1 (B) = {A, C}, Γ−1 (C) = {B, D},
Γ−1 (D) = {A, D}, Γ−1 (E) = {C, D}, Γ−1 (F ) = ∅.

I.1 .b Graphes non orientés


Dans certaines applications, seule la liaison entre de sommets importe, et
non le sens de la liaison. On parlera alors d’arêtes,notés [xi , xj ] et non plus
d’arcs. Un tel graphe est dit non orienté.

I.2 Principales définitions


Soit G = (E, U ) ou (E, Γ) un graphe, on a les définitions suivantes :

Graphe réflexif : ∀xi ∈ E, (xi , xi ) ∈ U .


Graphe symétrique : ∀xi , xj ∈ E, (xi , xj ) ∈ U => (xj , xi ) ∈ U .
Graphe transitif : ∀xi , xj , xk ∈ E, (xi , xj ) ∈ U, (xj , xk ) ∈ U => (xi , xk ) ∈
U.
Graphe partiel : Soit U  ⊂ U , G = (E, U  ) est un sous-graphe. L’application
Γ associée est une restriction de Γ, i.e. ∀x ∈ E, Γ (x) ⊂ Γ(x).
Sous-graphe : Soit E  ⊂ E et U  ⊂ U l’ensemble des arcs obtenu en ne
conservant dans U que les arcs dont les extrémités sont dans E  , G =
(E  , U  ) est un sous-graphe de G.
Exemple :
G est le réseau routier français, E est constitué des différentes localités
et U est l’ensemble des routes et autoroutes (entre deux villes v1 et v2,
s’il existe au moins une route directe entre les deux, on aura les arcs
(v1, v2) et (v2, v1) (le graphe est symétrique). Si on restreint le réseau
aux autoroutes, on obtient un graphe partiel, si on restreint le réseau à la
région Midi-Pyrénées, on obtient un sous-graphe, tandis que les autoroutes
de Midi-Pyrénées constituent un sous-graphe partiel.
Adjacence : Deux sommets sont dits adjacents s’ils sont reliés par un arc ou
une arête. Deux arcs sont adjacents s’ils ont une extrémité commune.
Chemins et chaînes : Un chemin est constitué d’une séquence d’arcs adja-
cents dont l’extrémité finale de l’un est l’extrémité initiale du suivant, sauf
I.3. MATRICES ASSOCIÉES À UN GRAPHE 5

pour le dernier. Dans le cas d’un graphe non orienté, on parlera de chaîne.
Un chemin est :
– simple s’il ne passe pas deux fois par le même arc.
– élémentaire s’il ne passe pas deux fois par le même sommet.
– un circuit si l’extrémité finale coïncide avec l’extrémité initiale. Dans
le cas d’une chaîne on parlera de cycle.
– hamiltonien s’il passe une fois et une seule par chacun de ses som-
mets. Si c’est de plus un circuit c’est un circuit hamiltonien.
Degrés :

– Le demi-degré extérieur du sommet xi est le nombre d’arcs du


graphe issus de xi , on le note d+ (xi ), on a d+ (xi ) = |Γ(xi )|. Dans le
cas où d+ (xi ) = 0, on dit que xi est une sortie du graphe.
– Le demi-degré intérieur du sommet xi est le nombre d’arcs du 
graphe aboutissant à xi , on le note d− (xi ), on a d− (xi ) = Γ−1 (xi ).
Dans le cas où d− (xi ) = 0, on dit que xi est une entrée du graphe.
– Le degré du sommet xi est d(xi ) = d+ (xi ) + d− (xi ). Dans le cas
d’une boucle, on augmente de 2 le degré.

Exemple : [cf fig. I.2]


d− (D) = 2, d+ (D) = 3, d(D) = 5.

I.3 Matrices associées à un graphe


Soit G = (E, U ) un graphe.

I.3 .a Matrices d’adjacence


Au graphe G, on fait correspondre une matrice d’adjacence (considérée
comme booléenne ou entière, suivant l’utilisation), de la manière suivante :
Les lignes et les colonnes sont indexées par les sommets du graphe (en général
numérotés de 1 à n), l’élément de la ligne i et de la colonne j vaut 1 si l’arc
(i, j) ∈ U , 0 sinon.

Exemple : [cf fig. I.2]


 
0 1 0 1 0 0
 0 0 1 0 0 0 
 
 0 1 0 0 1 0 
M=



 0 0 1 1 1 0 
 0 0 0 0 0 0 
0 0 0 0 0 0

Concaténation de chemins
Soient (A1 , · · · , Am ) et (B1 , · · · , Bn ) deux chemins du graphe G donnés
par la liste de leurs sommets successifs. Si Am = B1 (et seulement à cette
condition) on peut définir la concaténation des deux chemins de la manière
6 CHAPITRE I. ELÉMENTS DE LA THÉORIE DES GRAPHES

suivante : (A1 , · · · , Am ).(B1 , · · · , Bn ) = (A1 , · · · , Am , B2 , · · · Bn ). On peut


également définir la somme de deux chemins qui correspond à la réunion (au
sens ensembliste) des deux chemins. Ces deux opérations permettent de donner
une interprétation pour les produits et sommes de matrices d’adjacence. Mk
donnera le nombre de chemins de longueur k partant d’un sommet i à un som-
met j (M[k] indiquera l’existence d’un tel chemin en mode booléen).

Exemple : [cf fig. I.2]


 
0 3 2 1 4 0
 0 0 1 0 0 0 
 
 0 1 0 0 1 0 
M5 = 



 0 2 3 1 3 0 
 0 0 0 0 0 0 
0 0 0 0 0 0

Il y a, par exemple, 4 chemins de longueur 5 de A vers E, 3 de D vers C. Si l’on


considère les matrices booléennes, on trouve :
 
0 0 1 1 1 0
 0 1 0 0 1 0 
 
 0 0 1 0 0 0 
M =
[2]
 0 1 1 1


 1 0 
 0 0 0 0 0 0 
0 0 0 0 0 0
et  
0 1 1 1 1 0
 0 0 1 0 1 0 
 
 0 0 1 0 1 0 
M[4] =



 0 1 1 1 1 0 
 0 0 0 0 0 0 
0 0 0 0 0 0
Il existe au moins un chemin de longueur 2 de D vers E, et au moins un de
longueur 4 de D vers B.

I.3 .b Matrices d’incidence sommets-arcs


Les lignes sont indexées par les sommets du graphe tandis que les colonnes
sont indexées par la liste ordonnée (u1 , · · · , um ) des arcs. Si xi est l’origine de
l’arc uk , on a aik = 1, si xj est l’extrémité du même arc, ajk = −1, pour les
autres cas on obtient 0, où aik est l’élément générique de la matrice d’incidence.
On remarque que la somme de chaque colonne est égale à 0, par ailleurs cette
représentation n’est valable que pour les graphes sans boucle.

Exemple : Pour le graphe de la figure [I.3], on obtient :


 
1 1 0 0 0 0
 −1 0 1 −1 0 −1 
M=  0 −1

0 1 1 0 
0 0 −1 0 −1 1
I.4. FERMETURE TRANSITIVE D’UN GRAPHE 7

u1
?>=<
89:; * ?>=<
89:;
A ? JB
~~
u4 ~~
u2
~~ u6 u3
 ~~~

89:;
?>=<
C 4 ?>=<
89:;
D
u5

Fig. I.3 – Incidence sommets-arcs

I.4 Fermeture transitive d’un graphe


I.4 .a Définition
Soit G = (E, Γ) un graphe et x un des ses sommets. On appelle fermeture
transitive de x, l’ensemble :

Γ̂(x) = {x} ∪ Γ(x) ∪ · · · ∪ Γk (x) ∪ · · · ,

où, pour k ≥ 1, Γk (x) = Γ(Γ(k−1) )(x) est l’ensemble des sommets extrémités
d’un chemin de longueur k issu de x, avec Γ0 (x) = {x}, par convention. Plus
généralement, la fermeture transitive du graphe G est le plus petit graphe tran-
sitif et réflexif contenant G. On le notera τ (G). Il est caractérisé par le fait que
(x, y) ∈ U si et seulement s’il existe un chemin allant de x vers y dans G ou si
x = y.

I.4 .b Matrice de fermeture transitive


On l’obtient en faisant la somme de toutes les matrices booléennes M[k] et
de la matrice identique. On la notera Γ̂(E).

Γ̂(E) = I + M + · · · M [k] + · · ·

Cette somme est finie car dans un graphe de n sommets il ne peut y avoir de
chemins de plus de n − 1 arcs sans répétition d’arc, on a donc, Γ̂(E) = (I +
M)[n−1] . Dans la pratique, on arrête le calcul dès que (I + M)[k] = (I + M)[k+1] .

Exemple : Dans le graphe de la figure [I.2], on obtient,


 
1 1 1 1 1 0
 0 1 1 0 1 0 
 
 0 1 1 0 1 0 
Γ̂(E) =  0
 = (I + M)[2]
 1 1 1 1 0  
 0 0 0 0 1 0 
0 0 0 0 0 1

I.4 .c Algorithme de Roy-Warshall


Soit G = (E, U ) un graphe de n sommets numérotés de 1 à n, M = (mij )
la matrice booléenne associée à G, avec mii = 1 pour la réflexivité. Pour r ∈
{1, · · · ,n}, on considère l’opérateur θr qui à G associe le graphe θr (G) défini de
la manière suivante :
– G est un graphe partiel de θr (G)
8 CHAPITRE I. ELÉMENTS DE LA THÉORIE DES GRAPHES

– (i, j) est un arc de θr (G) soit s’il est dans G, soit si les arcs (i, r) et (r, j)
sont dans G.
L’algorithme de Roy-Warshall consiste à appliquer successivement à G l’opéra-
teur θ1 , à θ1 (G) l’opérateur θ2 , et ainsi de suite. On obtient

τ (G) = θn (θn−1 (· · · (θ1 (G)) · · · )).

89:;
?>=< * ?>=<
89:; * ?>=<
89:;
6 1 2
ppp 3
ppp
ppppp
 pp
89:;
?>=< wppp * ?>=<
89:;
4 jk 5 4 ?>=<
89:;
6

Fig. I.4 – algorithme de Roy-Warshall

Exemple : Pour le graphe de la figure [I.4], on obtient successivement,


   
1 1 0 1 1 0 1 1 0 1 1 0
 0 1 1 0 0 0   0 1 1 0 0 0 
   
 0 1 1 1 0 0  θ1  0 1 1 1 0 0  θ2
M+I=

→
 
→

 0 0 0 1 1 0   0 0 0 1 1 0 
 0 0 0 1 1 1   0 0 0 1 1 1 
0 0 0 1 0 1 0 0 0 1 0 1
     
1 1 1 1 1 0 1 1 1 1 1 0 1 1 1 1 1 0
 0 1 1 0 0 0   0 1 1 1 0 0   0 1 1 1 0 0 
     
 0 1 1 1 0 0  θ3  0 1 1 1 0 0  θ4  0 1 1 1 1 0 
  → → 
 0 0 0 1 1 0   0 0 0 1 1 0   0 0 0 1 1 0 
     
 0 0 0 1 1 1   0 0 0 1 1 1   0 0 0 1 1 1 
0 0 0 1 0 1 0 0 0 1 0 1 0 0 0 1 1 1
   
1 1 1 1 1 1 1 1 1 1 1 1
 0 1 1 1 0 0   0 1 1 1 0 0 
   
θ  0 1 1 1 1 0  θ6  0 1 1 1 1 0 
→5 

→
 
 = Γ̂(E)

 0 0 0 1 1 0   0 0 0 1 1 0 
 0 0 0 1 1 1   0 0 0 1 1 1 
0 0 0 1 1 1 0 0 0 1 1 1

I.5 Graphes et connexité


Soit G = (E, Γ) un graphe orienté, on introduit sur E une relation binaire
notée , on a x y si et seulement si y ∈ Γ̂(x) i.e. si x = y ou s’il existe un
chemin de x vers y. On dira dans ce cas que x précède y. La relation est
réflexive et transitive. On définit également une relation d’équivalence sur E à
partir de la relation , notée
: x
y ⇔ (x y et y x). Sur les graphes non
orientés, on définit la relation d’équivalence ≡ définie par x ≡ y si et seulement
si x et y sont reliés par une chaîne.
I.5. GRAPHES ET CONNEXITÉ 9

I.5 .a Composantes connexes

Les classes d’équivalence du graphe G pour la relation ≡ sont appelées com-


posantes connexes . Un graphe est dit connexe s’il existe une seule composante
connexe i.e. ∀i, j ∈ E il existe une chaîne entre x et y.

I.5 .b Composantes fortement connexes

Les classes d’équivalence pour la relation sont appelées composantes


fortement connexes(cfc) . Un graphe est dit fortement connexe s’il existe
une seule composante fortement connexe i.e. : ∀i, j ∈ E il existe un chemin
entre x et y (donc un circuit contenant x et y). Une condition nécessaire et
suffisante (CNS) est que Γ̂(E) ne comporte que des 1. De la même manière que
l’on a défini Γ̂(x) pour x ∈ E, on définit Γ̂−1 (x) :

Γ̂−1 (x) = {x} ∪ Γ−1 (x) ∪ · · · ∪ Γ−k (x) ∪ · · ·

La composante fortement connexe (cfc) d’un sommet x est égale à Γ̂(x)∩ Γ̂−1 (x).
Cette remarque permet d’obtenir un algorithme pour déterminer les cfc dans
un graphe :

Tant que il reste des sommets marqués Faire


Début
Prendre un sommet non marqué x ;
Calculer Γ̂(x) ∩ Γ̂−1 (x) ;
Marquer les sommets obtenus ;
Passer au sommet non marqué suivant ;
Fin.

Exemple :

89:;
?>=<
B ?>=<
89:;
F o ?>=<
89:;
E
oo o~o~> O
oo ~
oo ~
ooooo ~~~
wooo / ?>=<~~
89:;
?>=<
D 89:;
A@
@@
@@
@@
@@ 
89:;
?>=<
H / ?>=<
89:;
C / ?>=<
89:;
G

Fig. I.5 – Composantes fortement connexes

Dans le graphe de la figure [I.5], on obtient :


10 CHAPITRE I. ELÉMENTS DE LA THÉORIE DES GRAPHES

A B C D E F G H Γ̂−1 (A) Γ̂−1 (C)


A 0 1 0 0 0 0 0 1 0 2
B 0 0 0 1 0 0 0 0 2 4
C 0 0 0 0 0 0 1 0 0
D 1 0 0 0 0 0 0 0 1 3
E 0 0 0 0 0 1 0 0 2
F 0 0 1 0 0 0 0 0 1
G 0 0 0 0 1 0 0 0 3
H 0 0 1 0 0 0 0 0 1

Γ̂(A) 0 1 2 2 4 5 3 1

Γ̂(C) 0 2 3 1

D’où,
cfc(A) = {A, B, D} = cfc(B) = cfc(D),
cfc(C) = {C, E, F, G} = cfc(E) = cfc(F) = cfc(G),
cfc(H) = {H}.

I.6 Mise en ordre d’un graphe


On considère un graphe G ne possédant que des chemins de longueur finie,
cela implique en particulier que le graphe ne possède pas de circuit. La mise en
ordre s’effectuera sur chacune des composantes connexes, on peut donc suppo-
ser le graphe connexe. La classe C0 est constituée des entrées de G = G0 , on
considère alors G1 sous-graphe de G obtenu en enlevant les éléments de C0 , les
entrées de G1 constituent la classe C1 , on itère le processus jusqu’à épuisement
des sommets.

Début  −1 
Pour i = 1 à n Faire d−  (i) ;
i ← Γ
k ← 0 ; C[0] ← ∅ ;
Pour i = 1 à n Faire
Si d−i = 0 Alors C[0] ← C[0] ∪ {i} ;
{C[k] est l’ensemble des sommets i tels que d−i = 0 à la k
eme
itération.}
Tant que C[k] = ∅ Faire
Début
C[k + 1] = ∅ ;
Pour tout i ∈ C[k] Faire
Début ;
r[i] ← k ; {calcul du rang du sommet i}
Pour tout j ∈ Γ(i) Faire
Début
d− −
j ← dj − 1 ;

Si dj = 0 Alors C[k + 1] ← C[k + 1] ∪ {j} ;
Fin ;
Fin ;
k ← k + 1;
Fin ;
Fin.
I.6. MISE EN ORDRE D’UN GRAPHE 11

Exemple :

?>=<
89:; / ?>=<
89:; / 89:;
?>=<
@ 2O .>> 4
O
7
O
.. >>
.. >>
.. >>>
89:;
?>=< .. >
1> .. >>
>> . >>
>> .. >>
>> .. >>
>>  >>
 
89:;
?>=< 3 / 89:;
?>=<6 /6 89:;
?>=<
5

Fig. I.6 – Mise en ordre d’un graphe

Dans l’exemple de la figure [I.6], on obtient,


C[0] = {1}, C[1] = {3}, C[2] = {2}, C[3] = {6}, C[4] = {4, 5},C[5] = {7} et
r(1) = 0, r(2) = 2, r(3) = 1, r(4) = r(5) = 4, r(6) = 3, r(7) = 5.
12

Exercices du chapitre I

Exercice I.1
On considère un graphe G = (E, U ) avec E = (A, B, C, D, E) et M sa matrice
associée :
 
0 1 0 1 0
 0 0 1 0 0 
 
M=  0 0 0 0 1 

 0 0 1 0 1 
0 0 0 0 0
1. Tracer le graphe représentatif de cette matrice.
2. Déterminer la matrice d’incidence de ce graphe.
3. Calculer M i , i ∈ {1, 2, 3}. Rappeler la signification des coefficients non
nuls de ces matrices.
4. Calculer M [i] , i ∈ {1, 2, 3}.
5. Calculer A = I + M + M [2] + M [3] + M [4] . Donner une interprétation de
A.
6. Appliquer l’agorithme de Roy-Warshall à la matrice M . Que remarque-t-
on?

Exercice I.2
On considère le graphe G suivant :

?>=<
89:;
A que Γ−1 (A), . . . , Γ−1 (F ).
E Y
2. Calculer les demi-degrés inté-
  rieurs et extérieurs de chaque
?>=<
89:;
F PP 3 ?>=<
89:;
B j sommet.
J PPP
PPP 3. Donner un exemple de chemin
PPP
PPP simple mais non élémentaire.
PP'

89:;
?>=< s 89:;
?>=<
E
Y 8 C 4. Existe-t-il un circuit hamiltonien
dans G?

x 5. Tracer le graphe non orienté dé-


?>=<
89:;
D duit de G.
6. G est-il connexe ? fortement
1. Déterminer Γ(A), . . . , Γ(F ) ainsi connexe?

Exercice I.3
Décomposer le graphe G suivant en composantes fortement connexes. On rem-
place chaque cfc par un seul point et on garde un seul arc joignant une cfc à
13

une autre, ordonner puis tracer le graphe G ainsi obtenu.

89:;
?>=<
B / ?>=<
89:;
E / ?>=<
89:;
J
~~ `@@@ ~ ~> _@@@
~~ @@ ~~ @@
~~ @@ ~~ @@
~ @@ ~ @@
~ ~ ~~ 
89:;
?>=<
A@ 89:;
?>=< 89:;
?>=<
/ F @ABC
GFED
/ K / ?>=<
89:;
@@ ~?C J
L
@@ ~
@@ ~~
@@ ~~~
 ~~

89:;
?>=<
D / ?>=<
89:;
G / ?>=<
89:;
I

Exercice I.4
Définitions :
– un graphe G = (E, U ) est dit τ -minimal si, ∀u ∈ U, si G = (E,U \{u})
alors τ (G ) = τ (G) où τ (X) représente la fermeture transitive de X.
– Deux graphes G et G sont dits τ -équivalents si τ (G) = τ (G ).
Soit G le graphe ci-dessous :

?>=<
89:;
B / ?>=<
89:;
C
O G @@@
 @@
 @@
 @@
 89:;
?>=<
D
 ~~>
~~
 ~~
  ~~~
89:;
?>=<
A / ?>=<
89:;
E

1. Déterminer la fermeture τ (G) de G.


2. Déterminer le graphe G τ -minimal τ -équivalent à G.

Exercice I.5
Deux joueurs disposent de deux tas de trois allumettes, à tour de rôle chaque
joueur peut enlever une ou deux allumettes dans un des tas. Le joueur qui retire
la dernière allumette perd la partie.
1. Modéliser le jeu à l’aide d’un graphe.
2. Que doit jouer le premier joueur pour gagner à coup sûr?
3. Reprendre l’exercice avec trois tas de trois allumettes.
14
15

Chapitre II

Chemins optimaux

Dans les graphes utilisés dans la pratique, les arcs sont affectés de valeur
numériques qui traduisent un coût de parcours. Il peut s’agir d’une distance
(réseau routier), d’un coût financier, d’une durée, d’un débit, etc...
Les graphes considérés désormais possèdent une entrée et une sortie uniques,
qui correspondent respectivement au début et à la fin du processus décrit par le
graphe. Le problème se pose alors de déterminer le chemin optimum pour aller
de l’entrée du graphe vers sa sortie, les coûts de parcours reflétant les différentes
contraintes du problème à traiter. L’optimisation peut se faire dans le sens d’un
coût maximum (par exemple recherche des délais maximum dans un ensemble
de tâches) ou d’un coût minimum (par exemple le plus court trajet entre deux
localités). Il peut y avoir d’autre contraintes du type «passer par tous les som-
mets du graphe» (chemin hamiltonien), etc...

II.1 L’algorithme de Ford

On considère un graphe G = (E, U ) à n sommets, numérotés de 1 à n. Pour


simplifier, on supposera que le sommet 1 est l’entrée du graphe et le sommet n
sa sortie. On va chercher un chemin de longueur minimum de 1 à n, on suppose
pour ce faire que le graphe G ne comporte pas de circuit de longueur négative.
L’algorithme de Ford permet de calculer le plus court chemin du sommet 1 à
tous les sommets du graphe. Chaque sommet i du graphe est affecté d’une valeur
λi qui initialement vaut 0 pour le sommet 1 et +∞ pour les autres sommets.
A la sortie, λi contiendra la valeur du plus court chemin de 1 à i. On utilisera
un tableau v : vij est égal à la longueur de l’arc (i, j) si (i, j) ∈ U , +∞ sinon.
La stratégie utilisée est la suivant : pour tout couple (i, j) de sommets traité,
si vij < λj − λi , on remplace λj par λi + vij . Les remplacements sont effectués
jusqu’à ce qu’on ne puisse en faire de nouveaux.
16 CHAPITRE II. CHEMINS OPTIMAUX

Début
Pour i = 1 à n Faire
Pour j = 1 à n Faire Lire(vij ) ; {vij = +∞ si (i, j) ∈
/ U}
λ1 ← 0 ;
Pour i = 2 à n Faire λi ← +∞ ;
i ← 1;
Tant que i ≤ n Faire
Début
j ← 2;
Tant que j ≤ n Faire
Début
Si vij < +∞
Alors
Si λj − λi > vij
Alors
Début
λj ← λi + vij ;
Si i > j Alors i ← j Sinon j ← j + 1 ;
Fin
Sinon j ← j + 1
Sinon j ← j + 1
Fin ;
i ← i + 1;
Fin ;
Fin.
Pour trouver un chemin optimal, appelé chemin critique on choisit un
prédécesseur de n, soit p1 , tel que vp1 n = λn − λp1 , puis un prédécesseur p2 de
p1 tel que vp2 p1 = λp1 − λp2 , et ainsi de suite jusqu’à parvenir au sommet initial.
Le chemin (1,pk , · · · , p1 , · · · ,n) est bien minimal (longueur = λn ).

Exemple :

?>=<
89:; 2 / 89:;
?>=<
@ 2. 5>
..   >>>
4 ..  >>8
..  2 >>
>
89:;
?>=< ..
 89:;
?>=<
1 >NN . @6
>>NNN 12  ..
N
>> NN  . 8
> NNNN ..
9 >>
>  NNNN . 5
89:;
?>=< / ' >=<
?
89:;
3 2
4

Fig. II.1 – Algorithme de Ford

Dans le graphe de la figure [II.1], on trouve,


λ1 = 0, λ2 = 4, λ3 = 8, λ4 = 10, λ5 = 6, λ6 = 14.
Le chemin le plus court de l’entrée à la sortie du graphe a pour longueur 14, le
chemin critique est (1, 2, 5, 6).
II.2. ALGORITHME DE DIJKSTRA 17

L’algorithme de Ford est un algorithme général, il y a cependant des cas


particuliers où l’on peut simplifier la recherche de chemin optimum.

II.2 Algorithme de Dijkstra


Cet algorithme s’applique pour des arcs qui ont tous des longueurs positives
ou nulles.

Début
S  ← {2, · · · , n} ;
λ1 ← 0 ;
Pour i = 1 à n Faire
Pour j = 1 à n Faire Lire(vij ) ; {vij = +∞ si (i, j) ∈
/ U}
Pour i = 2 à n Faire λi ← v1i ;
Tant que S  = ∅ Faire
Début
Soit j ∈ S  tel que λj = min (λi ) ;
i∈S
S  ← S  \{j} ;
Pour tout i ∈ Γ(j) ∩ S  Faire λi ← min(λi , λj + vji ) ;
Si λj = λi + vji Alors P red(i) ← j ;
Fin ;
Fin.

Exemple :

?>=<
89:; 4 / 89:; ?>=<
@ 2O . gNNNN 4 ^>>
.. NNN >
7 .. NNN >>>5
.. 2 NNNN>>>
. NN
89:;
?>=<
1> 5 1 .
. 89:;
?>=<
7 5
>> ..
ppppp @
>> .. 2 ppp
> p..p
1 >> p p p 3
> p 
89:;
?>=< pp / 89:;
?>=<
3 7
6

Fig. II.2 – Algorithme de Dijkstra

Dans le graphe de la figure [II.2], on trouve,

λ1 = 0, λ2 = 5, λ3 = 1, λ4 = 8, λ5 = 3, λ6 = 6.

P red(2) = 5, P red(3) = 1, P red(4) = 5, P red(5) = 3, P red(6) = 2.

II.3 Graphes sans circuit


Si un graphe ne possède pas de circuit, on peut l’ordonner en utilisant par
exemple l’algorithme [I.6], l’algorithme de recherche de chemin optimum est
alors très simplifié :
18 CHAPITRE II. CHEMINS OPTIMAUX

Début
S ← {1} ; Tant que |S| < n Faire
Début
Prendre un sommet j ∈ S  (complémentaire de S) tel que Γ−1 (j) ⊂ S ;
λj ← min (λi + vij ) ;
i∈Γ−1 (j)
S ← S ∪ {j} ;
Fin ;
Fin.

Exemple :

?>=<
89:; 4 / ?>=<
89:; 4 / 89:;
?>=<
@ 2O .>> 4
O
7
O
.. >>
7 .. >>
.. >>>
89:;
?>=< . > 5
1> 5 −3 .. >> 10
>> .. >>
>> .. >>2
> .. >>
1 >> >>
>  
89:;
?>=< 7 / ?>=<
89:; 3 / 89:;
3 6 6 ?>=<
5
2

Fig. II.3 – Graphe sans circuit

Dans le graphe de la figure [II.3], on obtient, après l’avoir ordonné (cf [I.6]) :

– λ1 = 0
– λ3 = λ1 + v13 = 1
– λ2 = min(λ1 + v12 , λ3 + v32 ) = 6
– λ6 = min(λ2 + v26 , λ3 + v36 ) = 3
– λ4 = min(λ2 + v24 , λ6 + v64 ) = 8
– λ5 = min(λ2 + v25 , λ3 + v35 , λ6 + v65 ) = 3
– λ7 = min(λ4 + v47 , λ5 + v57 ) = 12

II.4 Algorithmes matriciels


On considère un graphe G = (E, U ) sans circuit de longueur négative. On
(k)
considère les matrices L(k) = (lij ) pour k ≥ 1 en posant L(0) = (vij ) et où
(k) (k−1) (k−1) (k−1)
lij = min(lij , lik + lkj ) est la longueur du plus court chemin entre i et
j dont les sommets intermédiaires sont dans {1, · · · , k}. L(n) = L est la matrice
des plus courts chemins entre deux sommets.
II.4. ALGORITHMES MATRICIELS 19

II.4 .a Algorithme de Floyd


Début
Pour i = 1 à n Faire
Pour j = 1 à n Faire Lire(lij ) ; {lij = vij , (+∞ si (i, j) ∈
/ U )}
Pour k = 1 à n Faire
Pour i = 1 à n Faire
Si (lik + lki ) ≥ 0
Alors Pour j = 1 à n Faire lij ← min(lij , lik + lkj )
Sinon Fin ; {circuit de longueur négative.}
Fin.

3
?>=<
89:; + ?>=<
89:;
1 Lk L 2 2
O LLL 3 rrrr J
LLLrrr
2 rrr LLL 4
−2 2
rrr LLL

89:;
?>=<yr %
+ ?>=<
89:;
3 k 1 4
4

Fig. II.4 – Algorithme de Floyd

Exemple : Dans le graphe de la figure [II.4], on obtient successivement,

   
0 3 +∞ 3 0 3 +∞ 3
 2 0 2 2  (1)  2 0 2 2 
L(0) =
 −2 +∞
, L =  ,
0 1   −2 1 0 1 
+∞ 4 4 0 +∞ 4 4 0
   
0 3 5 3 0 3 5 3
 2 0 2 2   2 
L(2) =   (3)  0 0 2 ,
 −2 1 0 1  , L =  −2 1 0 1 
6 4 4 0 2 4 4 0
 
0 3 5 3
 0 0 2 2 
L = L(4) =  
 −2 1 0 1  .
2 4 4 0
20

Exercices du chapitre II

Exercice II.1
A la date 1, une personne achète une voiture de 15 000 ¤. Le coût de mainte-
nance annuelle du véhicule dépend de son âge pris au début de l’année :

âge de la voiture coût de maintenance


0 1 000 ¤
1 1 500 ¤
2 2 300 ¤
3 3 500 ¤
4 5 300 ¤
Pour minimiser les coûts de maintenance, cette personne envisage d’échanger sa
voiture contre une neuve. Elle doit alors payer la différence entre le prix d’une
voiture neuve (supposé de 15 000 ¤) et le coût de reprise de l’ancienne, donné
dans le tableau suivant :

âge de la voiture prix de reprise


1 12 000 ¤
2 7 500 ¤
3 6 000 ¤
4 3 500 ¤
5 2 000 ¤
Que doit faire la personne pour minimiser ses dépenses sachant qu’elle doit
vendre sa voiture à la fin de la 5ème année?

Exercice II.2
Exécuter l’algorithme de Dijkstra sur le graphe ci-dessous en choisissant C puis
F comme sommets sources.

89:;
?>=<
B
z z< Y22EEE
zz 22 EE
zzz 22 EEE
7 zzz 22 EE1
zz 5 22
EE
zz 22 EE
z z EE
z z 2 2 EE
zz E"
89:;
?>=< 89:;
?>=< 8 / ?>=<
89:;
A Y2 F E G o 13 ?>=< 89:;
C
22 O EE
22 EEE
22 EE
2 EEE6

10 22 1 EE 4
22 EE
22 EE
EE 
"
89:;
?>=<
E o 89:;
?>=<D
2
21

Exercice II.3
Exécuter l’algorithme de Floyd pour déterminer les chemins de valeur maximale
entre tout couple de sommets dans le graphe suivant :
89:;
?>=<
~ ?C
L @@@
4 ~~
~ @@3
~~ @@
~ @@
~~
89:;
?>=<
A @ −6 4 89:;
?>=<
B
@@ ~~ @@@
@@8 ~ @@2
@@ ~~ @@
@@ ~~~ 2 @@
 ~~ 
89:;
?>=<
D / ?>=<
89:;
E
1

Peut-on appliquer l’algorithme pour la recherche de chemin de valeur minimale?


22
23

Chapitre III

Ordonnancement

III.1 Position du problème


On appelle problème d’ordonnancement un problème dans lequel les trois
conditions suivantes sont réalisées :

Il s’agit d’étudier comment on doit réaliser quelque chose.


Il peut s’agir d’un grand ensemble (maison, usine, navire, · · · ), d’une production
d’atelier (construction mécanique, imprimerie, . . .), d’un ensemble d’opérations
d’entretien à effectuer périodiquement pour maintenir un matériel en état de
fonctionnement, ou encore d’un emploi du temps . . .

Ce quelque chose est décomposable en tâches.


Ces tâches correspondent soit à des opérations élémentaires, soit à des groupe-
ments d’opérations selon que l’on veut aller plus ou moins loin dans le détail.
La décomposition n’est en général pas unique et demande une analyse minu-
tieuse. La définition de chaque tâche peut nécessiter de grandes connaissances
technologiques ainsi qu’une expérience des modèles d’ordonnancement dont elle
constitue l’élément de base.
Si l’on considère n tâches numérotées de 1 à n, (n pouvant varier de quelques di-
zaines à quelques milliers), il est indispensable que pour chaque tâche les notions
suivantes soient clairement définies :
1. époque de début, notée ti pour la tâche i.
2. durée d’exécution, notée di pour la tâche i.
Si l’on suppose que cette durée est convenablement évaluée (en fait on sera sou-
vent amené à considérer une valeur moyenne avec son écart type), et qu’aucune
interruption prévisible ne doive intervenir durant l’exécution de la tâche i, on
peut considérer que celle-ci sera achevée à l’époque fi = ti + di . Souvent pour
déterminer cette époque on s’intéressera aux moyens qu’il faut affecter pour son
exécution (moyens humains et matériels). Mais même quand ces moyens jouent
un rôle important c’est toujours par l’intermédiaire de ces deux nombres qu’ils
se manifesteront dans les calculs.

Cette réalisation est soumise à un ensemble de contraintes.


24 CHAPITRE III. ORDONNANCEMENT

Ces contraintes sont imposées par :


– Le matériel.
– La main d’oeuvre.
– La technologie : une tâche ne peut souvent débuter que lorsque certaines
autres sont achevées.
– Le commerce : certaines tâches doivent être terminées avant un délai fixé.
– Les fournisseurs : la livraison de matières premières risque de limiter infé-
rieurement l’époque de début de certaines tâches, · · ·
– Le climat : il est des tâches irréalisables à certaines époques de l’année.
Le choix de l’ordonnancement est généralement guidé par des critères tels
que :
– coût ou durée totale minimaux.
– immobilisation, attentes, pénalités minimales.
– Production maximale.
– Sécurité ou souplesse maximales, . . .
Après avoir donné une formulation analytique convenable du problème, on
est conduit à la recherche d’un optimum. L’analyse des contraintes permettra de
déterminer les tâches clefs, c’est à dire celles qui ne supporteront que peu d’écart
par rapport aux prévisions si l’on ne veut pas introduire des perturbations graves
dans l’exécution.

III.2 Principaux types de contraintes


III.2 .a Contraintes de type potentiel
Elles sont de deux types :
Localisation temporelle : elles imposent à une tâche i quelconque d’être si-
tuée à certains moments : ne pas débuter avant une certaine époque (cli-
mat, matières premières non livrées, . . .) ou, au contraire, d’être terminées
au plus tard avant une époque donnée (exigences commerciales, . . .).
On peut les mettre sous la forme suivante :

ti > ei
ti < ei
En effet, si l’on veut exprimer qu’une tâche i doit être terminée avant
l’époque limite Li , il vient :

ti + di < Li

succession : elles viennent limiter l’intervalle de temps qui s’écoule entre les
débuts de deux tâches i et j. On peut les mettre sous la forme :

tj − ti > aij

tj − ti < aij
Par exemple si la tâche j ne peut commencer avant que la tâche i ne soit
terminée on aura :
tj > ti + di
III.3. EXEMPLE DE PROBLÈME : 25

Plus généralement si la tâche j ne peut commencer avant que la tâche i


n’ait atteint un certain degré d’avancement a on aura :

tj > ti + a.di

III.2 .b Contraintes de type disjonctif


Ce sont les contraintes traduisant que les intervalles de temps durant lesquels
doivent être exécutées deux tâches i et j ne peuvent avoir de partie commune,
ce qui se traduit par :

[ti , ti + di ] ∩ [tj , tj + dj ] = ∅

Cela arrive,entre autres, quand les deux tâches réclament l’utilisation d’un ma-
tériel unique susceptible de n’en accomplir qu’une seule à la fois. Si l’on connaît
l’ordre de succession, par exemple i avant j, on traduira par :

tj > ti + di

III.3 Exemple de problème :


On s’intéresse à la construction d’un complexe hydro-électrique. Après une
première approche, on a répertorié les opérations suivantes :
1. Construction des voies d’accès.
2. Travaux de terrassement.
3. Construction des bâtiments d’administration.
4. Commande du matériel électrique.
5. Construction de la centrale.
6. Construction du barrage.
7. Construction des galeries et conduites.
8. Installation des machines.
9. Tests de fonctionnement.
On supposera que toutes les contraintes sont des contraintes de succession, ré-
sumées dans le tableau ci-dessous :

Opérations Durée (mois) pré-requis


1 4 -
2 6 1
3 4 -
4 12 -
5 10 2, 3, 4
6 24 2, 3
7 7 1
8 10 5, 7
9 3 6, 8
Les deux principales méthodes pour résoudre les problèmes d’ordonnance-
ment sont les méthodes MPM et PERT . Elles sont exposées dans les deux
sections suivantes.
26 CHAPITRE III. ORDONNANCEMENT

III.4 La méthode MPM


MPM signifie "méthode des potentiels Métra". Dans le graphe de représenta-
tion, un sommet correspond à une tâche, un arc définit une relation d’antériorité.
La longueur de l’arc donne le temps minimum qui doit s’écouler entre la tâche
origine et le début de la tâche extrémité. Lorsque les contraintes sont unique-
ment des contraintes de succession, la longueur de l’arc sera donc égale à la
durée de la tâche origine.

III.4 .a Construction du graphe MPM


On établit d’abord un tableau donnant les tâches et, pour chacune d’entre
elles, les opérations pré-requises. On ordonne les tâches (qui seront les sommets
du graphe) en partant de la tâche origine (début). Pour cela on se sert du tableau
initial :
La classe 0 est obtenue en prenant les tâches sans pré-requis (sommets sans
prédécesseur). On raye ensuite les sommets ainsi obtenus, et la classe 1 est
obtenue en prenant les nouveaux sommets sans prédécesseur, on continue jusqu’à
épuisement des tâches.
Dans l’exemple [III.3], on obtient ainsi les classes :

{1, 3, 4}, {2, 7}, {5, 6}, {8}, {9}.

Les sommets sont disposés de gauche à droite de façon à limiter le nombre d’in-
tersections entre les arcs. Un arc relie un sommet i à un sommet j si i est un
pré-requis de j.
Chaque sommet est figuré par un rectangle où figurent les informations sui-
vantes :
x : nom de la tâche. (en bas)
Tx : date de début au plus tôt de la tâche. (en haut à gauche)
Tx∗ : date de début au plus tard de la tâche. (en bas à droite)
On introduit une tâche supplémentaire ou tâche fin, Z et une tâche initiale
W qui précède toutes les autres. Elles sont évidemment de durée nulle.

III.4 .b Détermination du calendrier au plus tôt


Pour chaque sommet x, on considère Tx , chemin le plus long de 0 à x ; cela
garantit que toutes les contraintes d’antériorité seront respectées. L’ensemble
des arcs qui contribuent à la détermination de la date de fin des travaux TZ
constitue le chemin critique. Pour déterminer ce chemin, on peut utiliser
l’algorithme de Ford, modifié pour la détermination de chemin maximal.
Pour la tâche W , on pose TW = 0. Pour une tâche x quelconque, Tx est la
longueur du plus long chemin conduisant de W à x. La figure [III.1] correspond
au graphe de l’exemple [III.3].

Disposition pratique

On utilise la disposition suivante pour effectuer les calculs :


III.4. LA MÉTHODE MPM 27

0: 1 4: 2 0: 3 0: 4 12 : 5 10 : 6 4: 7
0|W:0 0 |1 : 4 0 |W : 0 0 |W : 0 4 |2 : 6 4 |2 : 6 0 |1 : 4
0 |3 : 4 0 |3 : 4
0 |4 : 12

22 : 8 34 : 9 37 : Z
12 |5 : 10 10 |6 : 24 34 |9 : 3
4 |7 : 7 22 |8 : 10

Le chemin critique est ici, {W, 1, 2, 6, 9, Z}.

III.4 .c Détermination du calendrier au plus tard


Il s’agit de déterminer pour chaque tâche x la date au plus tard Tx∗ telle
que la date de fin des travaux TZ ne soit pas retardée. On utilise la procédure
suivante :
1. On pose TZ∗ = TZ .
2. Soit x un sommet dont tous les suivants sont marqués (ce qui implique
que Ty∗ est connu), alors,

Tx∗ = min (Ty∗ − dx ).


y∈Γ(x)

En effet, les contraintes imposent que Tx∗ + dx ≤ Ty∗ .

III.4 .d Marge totale


C’est le retard maximum que l’on peut prendre dans la mise en route d’une
tâche sans remettre en cause les dates au plus tard des tâches suivantes et donc
retarder la fin des travaux. Pour une tâche x, elle est égale à

Tx∗ − Tx .

III.4 .e Marge libre


C’est le retard maximum que l’on peut prendre dans la mise en route d’une
tâche sans remettre en cause la date au plus tôt d’aucune autre tâche. Elle est
égale à
min (Ty − Tx − dx ).
y∈Γ(x)

III.4 .f Synthèse
On réunit les résultats obtenus précédemment dans un tableau récapitulatif :
28 CHAPITRE III. ORDONNANCEMENT

Tâche Date au plus tôt Date au plus tard Marge totale Marge libre
1 0 0 0 0
2 4 4 0 0
3 0 6 6 6
4 0 2 2 0
5 12 14 2 0
6 10 10 0 0
7 4 17 13 11
8 22 24 2 2
9 34 34 0 0
Z 37
III.4. LA MÉTHODE MPM 29

0 0

0 0
0

0 0 0 6 0 2

1 3 4

4
4

4 17 4 4

12
7 4 2

4 6
6

12 14 10 10

7
5 6

10

22 24

24
8

10

34 34

37 37

Fig. III.1 – Graphe MPM


30 CHAPITRE III. ORDONNANCEMENT

III.5 La méthode PERT


Les principes diffèrent de ceux de la méthode MPM : à chaque tâche corres-
pond un arc du graphe dont la longueur est égale à la durée de la tâche. Chaque
sommet du graphe correspond à une étape signifiant :
Toutes les tâches qui arrivent sont terminées
Toutes les tâches qui partent peuvent commencer

III.5 .a Construction du graphe PERT


Chaque sommet est représenté par un cercle où figurent :
X : étape (en bas)
tx : date attendue de l’étape X (en haut à gauche).
t∗x : date au plus tard de l’étape X (en haut à droite).
On ajoute un sommet initial d’où partent toutes les tâches dont la mise en
route n’est soumise à aucune contrainte d’antériorité et un sommet final auquel
aboutissent toutes les tâches n’ayant pas de suivante. On est parfois obligé d’in-
troduire des tâches fictives, ainsi dans l’exemple [III.3], pour tenir compte du
fait que les tâches 2, 3, 4 sont antérieures à la tâche 5 alors que seules les tâches
2, 3 sont antérieure à la tâche 6, on introduit une tâche fictive de longueur nulle
entre l’étape 3 à laquelle aboutissent les tâches 3 et 2 et l’étape 4 à laquelle
aboutit également la tâche 4.
La figure [III.2] correspond au graphe de l’exemple [III.3].

III.5 .b Calendrier au plus tôt


A chaque sommet x on affecte une date tx égale à la longueur du chemin le
plus long allant du sommet 1 au sommet x. tx est la date attendue de l’événement
x, elle est égale à la date au plus tôt de toutes les tâches partant du sommet x.

III.5 .c Calendrier au plus tard


Pour chaque étape x, on détermine t∗x date de réalisation de x telle que la
date au plus tôt de la fin des travaux ne soit pas retardée. On utilise la procédure
suivante :
1. On pose t∗Z = tZ .
2. Pour un sommet x ayant tous ses suivants marqués, on pose
t∗x = min (t∗y − dk )
y∈Γ(x)

où k est une tâche joignant x à y.

III.5 .d Marges totales :


Idem que par la méthode MPM.

III.5 .e Marges libres :


Pour une tâche k joignant un sommet x à un sommet y, elle est égale à
ty − tx − dk .
III.5. LA MÉTHODE PERT 31

00 00

1
1

{1}

4
{3}

4
4 4 {4}

12
2

{2}
6

{7}
10 10 12 14
7

3 4

{5}
10

{6} 22 24

24 5

{8}

10

34 34

{9}

37 37

Fig. III.2 – Graphe PERT


32

Exercices du chapitre III

Exercice III.1
Un producteur de cinéma a planifié les tâches suivantes pour son prochain film :

Code de la tâche Définition Durée (en jours) Antériorités


Choix du scéna-
A 30 -
rio
Ne peut com-
Choix et recrute-
mencer que 20
B ment des comé- 45
jours après le
diens
début de A
Ne peut com-
Choix des lieux mencer que 25
C 30
de tournage jours après le
début de A
Découpage des A et C doivent
D 15
scènes être terminées
Préparation des C et D doivent
E 21
décors être terminées
A, B, C et D
Tournage des ex-
F 35 doivent être ter-
térieurs
minées
Tournage des in- D, E et F doivent
G 21
térieurs être terminées
F et G doivent
H Synchronisation 7
être terminées
H doit être termi-
I Montage 21
née
H, ne peut com-
mencer que 7
J Bande sonore 14
jours après le
début de I
I et J doivent être
K Mixage 7
terminées
Tirage de la pre- K doit être ter-
L 1
mière copie minée

1. Supprimer les contraintes obtenues par transitivité et ordonner les tâches.


2. Déterminer par la méthode MPM l’ordonnancement au plus tôt des diffé-
rentes tâches et indiquer le chemin critique.
3. Tracer le graphe MPM.
4. Tracer le graphe PERT.
33

Deuxième partie

Programmation Linéaire
35

Chapitre I

Présentation

La programmation linéaire est un des domaines les plus utilisés de la RO.


Elle permet de traiter un vaste ensemble de problèmes d’optimisation dans des
contextes divers comme la gestion de stocks, flux de transport, distribution de
tâches à des personnels, recherche de plans de fabrication etc. . . La modélisation
de ces problèmes débouche sur des équations ou inéquations linéaires (exprimant
les différentes contraintes) dont on cherche les solutions permettant d’optimi-
ser une fonction économique elle-même linéaire. De plus on supposera que les
variables considérées sont astreintes à être positives (contraintes de positivité).
On appelle une telle formulation un programme linéaire (PL).

I.1 Présentation d’un exemple :


Un industriel fabrique un engrais dans lequel interviennent trois composants
de base P1 , P2 , P3 dont les cours sont fluctuants et dont on suppose que les
quantités disponibles sont illimitées. Suivant le prix de ces composants, l’indus-
triel détermine les pourcentages de chacun d’entre eux x1 , x2 , x3 devant entrer
dans la composition du produit final, sachant que certaines normes de fabrica-
tion doivent être respectées. On notera c1 , c2 , c3 les coûts respectifs d’une unité
des produits P1 , P2 , P3 . Le coût de fabrication d’une unité d’engrais est :

z = c1 x1 + c2 x2 + c3 x3

qui définit la fonction économique du problème et que l’on doit minimiser. De


plus l’engrais doit présenter un taux de potasse minimum b1 . Notons a11 , a12 , a13
les taux de potasse minimum respectifs de P1 , P2 , P3 , la proportion de potasse
dans le produit final est : a11 x1 + a12 x2 + a13 x3 et l’on doit avoir,

a11 x1 + a12 x2 + a13 x3 ≥ b1

De la même manière on suppose que la teneur en nitrate ne doit pas descendre en


dessous d’une certaine valeur b2 , en notant a21 , a22 , a23 les teneurs respectives
en nitrate de P1 , P2 , P3 , on doit donc avoir,

a21 x1 + a22 x2 + a23 x3 ≥ b2


36 CHAPITRE I. PRÉSENTATION

De plus, comme les xi sont des pourcentages (exprimé en centièmes 100% est
ramené à 1), on a l’équation,
x1 + x2 + x3 = 1.
Par ailleurs les contraintes de positivité impliquent que xi ≥ 0, pour i = 1, 2, 3.
On obtient ainsi la formulation du problème à résoudre :
min(z) = c1 x1 + c2 x2 + c3 x3 (I.1)


 a11 x1 + a12 x2 + a13 x3 ≥ b1

a21 x1 + a22 x2 + a23 x3 ≥ b2
(I.2)

 x1 + x2 + x3 = 1

xi ≥ 0, pour i ∈ {1, 2, 3}
l’ensemble ainsi formé est un PL, la fonction économique est donnée par l’équa-
tion (I.1), tandis que le système (I.2) détermine les contraintes du problème.
Les variables xi sont appelées variables structurelles ou variables de dé-
cision. La résolution du problème consiste à déterminer les valeurs des xi qui
optimisent la fonction z (qui est une fonction des variables xi ).
n
ti = aij xj − bi est appelée variable d’écart, ti ≥ 0. Son introduction dans
j=1
chacune des contraintes, hors celles de positivité, permet d’obtenir des équations
et conduit à une formulation dite standard du PL. Ici on obtient :
min(z) = c1 x1 + c2 x2 + c3 x3 (I.3)


 a11 x1 + a12 x2 + a13 x3 + t1 = b1

a21 x1 + a22 x2 + a23 x3 + t2 = b2
(I.4)

 x1 + x2 + x3 = 1

xi ≥ 0, pour i ∈ {1, 2, 3}

I.2 Forme standard des problèmes de PL


I.2 .a Présentation générale :
Pour les problèmes à maximum de la fonction économique, les contraintes
par rapport aux seconds membres bi seront de du type ≤ tandis que pour les pro-
blèmes à minimum elles seront du type ≥. On obtient ainsi les deux formulation
suivantes appelées formes canoniques :
n
n

max(z) = cj xj min(z) = cj xj
j=1 j=1
 n  n
 
 aij xj ≤ bi , i ∈ {1, . . . ,m}  aij xj ≥ bi , i ∈ {1, . . . ,m}


j=1 

j=1
xj ≥ 0, pour j ∈ {1, . . . , n} xj ≥ 0, pour j ∈ {1, . . . , n}

Remarques :
1. Minimiser la fonction économique z revient à maximiser −z : on change ci
en ci = −ci.
I.2. FORME STANDARD DES PROBLÈMES DE PL 37

2. Les contraintes peuvent toujours se ramener à des égalités en introdui-


n

sant les variables d’écarts ti égales à ti = bi − aij xj dans le cas d’un
j=1
n

maximum (resp. ti = aij xj − bi dans le cas d’un minimum).
j=1
On obtient la formule standard suivante :
n

max(z) = cj xj (I.5)
j=1
 n

 aij xj = bi , i ∈ {1, . . . ,m}
(I.6)


j=1
xj ≥ 0, pour j ∈ {1, . . . , n}

I.2 .b Forme matricielle :


 
a11 · · · a1m
 ..  la matrice représentant les coefficients des
Soit, A =  ... . 
am1 · · · amn
contraintes
 (avec
  des variables d’écart, on a toujours n ≥ m).
l’adjonction

x1 c1
   
X =  ...  , C =  ...  respectivement le vecteur des solutions et des
xn cn
 
a1 j
 
coefficients de la fonction économique, et pour j ∈ {1, . . . , n}, Pj =  ... 
am j
 
b1
 
les vecteurs colonnes de la matrice A, B =  ...  . La formulation du PL se
bm
résume à :
n

min{z = t C.X | A.X = B, X ∈ Rn+ } ou encore Pj xj = B (I.7)
j=1
38 CHAPITRE I. PRÉSENTATION

I.3 Résolution d’un système d’équations par la


méthode du pivot de Gauss :
n

Partant d’un système d’équations du type : aij xj = bi , i ∈ {1, . . . ,m},
j=1
on suppose que les différentes équations du système sont linéairement indépen-
dantes, ce qui revient à dire que la matrice A, définie à la section précédente, est
de rang m (ce qui est toujours acquis avec l’introduction des variables d’écart).
Après réduction par l’utilisation de la méthode du pivot, on arrive à une formu-
lation du type,


 x1 + a1,m+1 xm+1 + ... + a1n xn = b1

 x2 + a2,m+1 xm+1 + ... + a2n xn = b2
 ..

 . ...

xm + am,m+1 xm+1 + . . . + amn xn = bm

   
variables en base variables hors base

Les variables x1 , . . . , xm (on a éventuellement changé la numérotation au cours


des calculs pour qu’elles apparaissent dans cet ordre) sont appelées variables en
base. Les variables restantes i.e. xm+1 , . . . , xn sont appelées variables hors
base. Dans cette configuration, une solution évidente du système de départ
sera :

xi = b i, pour i ∈ {1, . . . , m} et xi = 0, pour i ∈ {m + 1, . . . , n}.

Cette solution est de base réalisable. Ce type de solution sera utilisé ultérieu-
rement dans la méthode du simplexe.

I.4 Définitions :
Solution réalisable :
On appelle ainsi toute solution du système (I.6) (y compris donc les
contraintes de positivité).
Variables de base :
tout sous-ensemble xi1 , . . . , xim de m variables prises parmi x1 , . . . , xn et
telles que les vecteurs associés Pi1 , . . . , Pim forment une base de Rm donc
que la matrice qu’ils forment, qui est carrée d’ordre m, soit inversible.
Solution de base :
Toute solution comportant n − m variables nulles et telles que les m res-
tantes soient des variables de base.
Solution de base réalisable :
Toute solution de base qui satisfait aux contraintes (I.6).
Solution optimale :
Toute solution réalisable qui optimise z. Si une telle solution existe, il y a
au moins une qui est de base et réalisable.
I.5. RÉSOLUTION GRAPHIQUE D’UN PL : 39

I.5 Résolution graphique d’un PL :


I.5 .a Exemples :
1. Problème borné à solution unique (voir fig.(I.1) :

max(z) = x1 + 3x2


 x1 + x2 ≤ 14

−2x1 + 3x2 ≤ 12

 2x1 − x2 ≤ 12

x1 , x2 ≥ 0
2. Problème borné avec infinité de solutions (voir fig.(I.2) :

max(z) = x1 + x2


 x1 + x2 ≤ 14

−2x1 + 3x2 ≤ 12

 2x1 − x2 ≤ 12

x1 , x2 ≥ 0
3. Problème non borné sans solution (voir fig.(I.3) :

max(z) = x1 + x2

 −x1 + x2 ≤ 1
−x1 + 2x2 ≤ 4

x1 , x2 ≥ 0
4. Problème non borné avec une solution unique (voir fig.(I.4) :

max(z) = −3x1 + 4x2



 −x1 + x2 ≤ 1
−x1 + 2x2 ≤ 4

x1 , x2 ≥ 0

Dans le cas où il n’y a que deux variables structurelles, on peut effectuer une
résolution graphique. L’espace des décisions est ici le plan (x1 , x2 ). L’ensemble
des solutions réalisables, dans le cas d’un problème borné, constitue un polygone
convexe : (O, A, B, C, D) dans l’exemple 1 ci-dessus. Dans le cas général, si le
PL a des solutions, il en existe toujours au moins une qui est de base, c’est un
sommet (ou point extrême) du polygone. Dans le PL de l’exemple 1, le point
B(6, 8) pour lequel la fonction économique z vaut 30 donne l’optimum. Toutes
les droites d’équation z = x1 + 3x2 sont parallèles, en les déplaçant vers le haut,
tout en restant au contact du polygone convexe (O, A, B, C, D), on obtient
comme limite le point B. Dans l’exemple 2, la fonction économique z = x1 + x2 ,
conduit à une infinité de solutions constituées par le segment [B, C], z vaut 14
sur ce segment. Dans les exemples 3 et 4, l’ensemble des solutions réalisables est
non borné, dans ce cas la solution peut-être infinie (ex. 3) ou exister (ex. 4) cf
les figures à la fin du chapitre. Enfin dans le cas de contraintes contradictoires,
l’ensemble est vide, il n’y alors pas de solution.
40 CHAPITRE I. PRÉSENTATION

I.6 Cas général :


L’ensemble des solutions réalisables d’un PL détermine dans l’espace des
décisions (Rn ) un ensemble convexe appelé domaine réalisable, qui est,
– soit l’ensemble vide,
– soit un ensemble polyédrique convexe non borné,
– soit un polyèdre convexe.
Dans le cas où le PL admet des solutions, il existe toujours une solution située
sur un des sommets, appelés points extrêmes, du polyèdre.
41

Exercices du chapitre I

Exercice I.1
Une entreprise fabrique deux produits P1 et P2 qui nécéssitent du temps de
travail(main d’œuvre), du temps-machine et des matières premières. Les données
techniques de production ainsi que les prix de vente par unité sont donnés dans
le tableau ci-dessous :

P1 P2
Quantité de travail (en
h) nécessaire à la fabri- 0.07 0.04
cation d’une unité
Quantité de temps-
machine (en h) néces-
0.12 0.06
saire à la fabrication
d’une unité
Quantité de matière
première (en nombre
d’unité u) nécessaire 2 1
à la fabrication d’une
unité de produit
Prix de vente par unité
15 8
(en ¤)

Chaque semaine, au plus, 4000 unités de matière première sont disponibles au


prix de 1.5¤ par unité. L’entreprise emploie 4 ouvriers qui travaillent 35 heures
par semaine pour la main d’œuvre. Ces personnes peuvent faire des heures sup-
plémentaires payée 10¤ l’unité. La disponibilité hebdomadaire des machines
est de 320h. Sans publicité, la demande hebdomadaire du produit P1 est de
500 unités, celle de P2 de 600. Chaque ¤ dépensé en publicité pour P1 (resp.
P2 ) augmente la demande hebdomadaire de 10 (resp. 15) unités. Les frais de
publicité ne doivent pas dépasse 1000 ¤ et les quantités fabriquées doivent res-
ter inférieures ou égales à la demande réelle (compte-tenu de la publicité). On
définit les 6 variables suivantes :
X1 : nombre d’unités de P1 fabriquées par semaine.
X2 : nombre d’unités de P2 fabriquées par semaine.
HS : nombre total d’heures supplémentaires effectuées par semaine.
MP : nombre d’unités de matière première achetées par semaine.
PUB1 : nombre d’¤ dépensés en publicité pour P1 .
PUB2 : nombre d’¤ dépensés en publicité pour P2 .
L’entreprise désire maximiser son profit sachant que,

Bénéfice = Chiffre des ventes - Somme des coûts variables.


42

Les salaires (pour les heures normales) sont un coût fixe pour l’entreprise.

Question :
Modéliser le problème sous forme d’un PL que l’on ne demande pas de
résoudre.

Exercice I.2
On cherche comment approvisionner, au moindre coût, des clients en implantant
un nombre p, donné a priori, de dépôts dans des sites préalablement recensés.
Chaque client sera rattaché à un seul dépôt, un client quelconque pouvant être
rattaché à n’importe quel dépôt. Les données sont :
– m le nombre de sites (m ≥ p).
– n le nombre de clients.
– γi le coût de construction d’un dépôt sur le site i (1 ≤ i ≤ m).
– cij le coût de rattachement du client j à un dépôt construit sur le site i
(1 ≤ i ≤ m, 1 ≤ j ≤ n).
On prend comme inconnues :

1 si le client j est rattaché au dépôt i
xij =
0 sinon

1 si le dépôt est construit sur le site i
yi =
0 sinon
Formuler :
1. La fonction économique du problème (coût de construction des entrepôts
+ coût de rattachement).
2. Les contraintes exprimant que chaque client est rattaché à un seul dépôt.
3. La contrainte exprimant que l’on doit construire exactement p dépôts.
4. Que signifient les contraintes supplémentaires :

xij ≤ yi , (1 ≤ i ≤ m, 1 ≤ j ≤ n)

(interpréter le cas yi = 1, puis yi = 0).


5. A la question précédente, on a introduit m.n contraintes. Montrer que l’on
peut remplacer celles-ci par seulement m contraintes du type :
n

xij ≤ n.yi
j=1
.

Exercice I.3
Résoudre graphiquement le PL suivant :

max(z) = x1 + 2x2


 x1 + x2 ≤ 3

−x1 + x2 ≤ 1

 x1 ≤ 2

x1 , x2 ≥ 0
43

Même question pour le PL suivant :

max(z) = x1 + 2x2


 x1 ≤ 1

x1 + x2 ≥ 6

 −x1 + x2 = 12

x1 , x2 ≥ 0

Exercice I.4
Un fabricant d’aliment pour porcs, cherche à optimiser la composition de celui-
ci sachant qu’il n’entre dans sa composition que trois ingrédients : Blé, maïs
et soja. L’aliment devra comporter au moins 22% d’un composant C1 et 4%
d’un composant C2 pour se conformer aux normes en vigueur. Les données sont
résumées dans le tableau ci-dessous :

Blé Soja Colza


Pourcentage 12 52 42
de C1
Pourcentage 2 2 10
de C2
Coût en ¤ 25 41 39
par tonne

1. Donner la formulation algébrique du PL en prenant comme variables struc-


turelles les différents pourcentages requis pour obtenir une tonne d’ali-
ment.
2. Montrer que l’on peut réduire à deux variables le PL et le résoudre gra-
phiquement.
44

x2
30=
z= x
1+
3x2

Opt

8 B

C
z cr
0 =z o is sa A
=x 1 nt
+3

x1
x2

+
x2
=
14
O 6 D x1
1 2
2=
3x
1+

12
-2 x

x2=
1-
2x

Fig. I.1 – Représentation graphique en 2D, solution unique

x2
0=
z=
x1
+
x2

B
z
cr
oi
ss
an
t

C
A
x1
+
x2
=
14

O D x1
1 2
2=
3x
1+
12

-2 x
2=
x
1-
2x

Fig. I.2 – Représentation graphique en 2D, infinité de solutions


45

x2

cr

z
oi
ss
an

1
t

=
x2
+
1
-x
B

4
x2 = A
+2
-x 1

O
x1

z
=
x1
+
x2
Fig. I.3 – Problème non borné, pas de solution

2
x2 4x
+
x 1
1 -3
= z=
x2 6
=
+
- x1

Opt

B
3

=4 A
x2
+2
- x1

O 2
x1

z t
s an
oi s
cr

Fig. I.4 – Problème non borné, solution unique


46
47

Chapitre II

La méthode du simplexe

II.1 Introduction
II.1 .a Etude d’un exemple :
Reprenons l’exemple 1 de la section (III.2 .b) du chapitre précédent :
max(z) = x1 + 3x2


 x1 + x2 ≤ 14

−2x1 + 3x2 ≤ 12

 2x1 − x2 ≤ 12

x1 , x2 ≥ 0
Pour obtenir des égalités, on introduit 3 variables d’écart t1 , t2 , t3 , qui seront les
variables de base initiales, avec x1 , x2 hors base et de valeur nulle. On obtient
le système :


 z − x1 − 3x2 = 0

x1 + x2 + t1 = 14

 −2x 1 + 3x2 + t 2 = 12

2x1 − x2 + t3 = 12
La solution de base associée est (x1 , x2 , t1 , t2 , t3 ) = (0, 0, 14, 12, 12) avec
z = 0. Le but est de maximiser z, on cherche si l’on peut augmenter les valeurs
de x1 ou x2 en les faisant entrer en base et en faisant sortir l’une des variables
ti (le nombre de variables en base est constant et égal à m (3 ici)). x2 a le plus
fort coefficient dans la fonction économique, il est donc naturel de la faire entrer
en base. Les différentes contraintes imposent, x2 ≤ 14, x2 ≤ 12 3 = 4, x2 ≥ 0,
obtenues par les trois dernières équations du système. On retient la valeur x2 =
4, de la deuxième équation, ce qui va entraîner la sortie de t2 , x1 restant égale
à 0. On utilise la méthode du pivot de Gauss, pour obtenir le nouveau système
(ici, on divise le coefficient de x2 par 3 dans la deuxième équation et on remplace
x2 par 23 x1 − 13 t2 + 4 dans les trois autres, on obtient le nouveau système :


 z − 3x1 + t2 = 12
 5
x
3 1 + t1 − 13 t2 = 10
2 1

 34− x1 + x2 + 3 t 2 = 4
 1
3 x1 + 3 t 2 + t 3 = 16
48 CHAPITRE II. LA MÉTHODE DU SIMPLEXE

La nouvelle solution de base est (x1 , x2 , t1 , t2 , t3 ) = (0, 4, 10, 0, 16) avec z = 12.
On cherche si on peut améliorer la solution, la seule possibilité ici est de faire
entrer x1 en base, les contraintes conduisent à faire sortir t1 de la base et on
obtient ainsi le nouveau système :


 z + 95 t1 + 25 t2 = 30
 5
3 x1 + t1 − 13 t2 = 10
2 1
 −
 3 1 x + x 2 + t
3 2 = 4
 4 1
x
3 1 + t
3 2 + t 3 = 16

La nouvelle solution de base est (x1 , x2 , t1 , t2 , t3 ) = (6, 8, 0, 0, 8) avec z = 30.


Comme l’on doit avoir z = 30− 95 t1 − 25 t2 , avec t1 , t2 = 0, la solution obtenue est
bien optimale. La solution du problème initial est (x1 , x2 ) = (6, 8), on retrouve
bien sûr ce que l’on avait obtenu par la résolution graphique.

II.1 .b Disposition pratique des calculs :


On va représenter les données par un tableau (que l’on enrichira par la suite)
comportant les colonnes :

(Variables en base, Seconds membres, Liste des variables)

Dans notre exemple, nous obtenons successivement,

Tableau initial :

Base B x1 x2 t1 t2 t3
t1 14 1 1 1 0 0
t2 12 −2 ?>=<
89:;
3 0 1 0
t3 12 2 −1 0 0 1
Tableau n◦ 2 :
Le nombre 3 en gras, est appelé pivot, il est forcément strictement po-
sitif, on divise la ligne du pivot (dans l’exemple, la ligne de la variable
t2 ) par le pivot pour que la valeur de celui-ci devienne égale à 1, puis
par combinaison linéaire, en ajoutant la ligne du pivot multipliée par un
coefficient tel que les valeurs de la colonne du pivot deviennent égales à 0
à chacune des autres lignes, on obtient le tableau suivant, en remplaçant
dans la première colonne la variable sortante par la variable entrante. Ici,
on multiplie la ligne du pivot par −1 et on l’ajoute à la première ligne,
puis on multiplie la ligne du pivot par 1 (inchangée) et on l’ajoute à la
dernière ligne, pour obtenir les nouvelles lignes, cela donne :

Base B x1 x2 t1 t2 t3
t1 10 @ABC
GFED
5
0 1 − 13 0
3

−2 1
x2 4 3 1 0 3 0
4 1
t3 16 3 0 0 3 1
II.2. L’ALGORITHME DU SIMPLEXE : 49

Ici le pivot est 53 , on opère comme précédemment.

Tableau final :

Base B x1 x2 t1 t2 t3
3
x1 6 1 0 5 − 51 0
2 1
x2 8 0 1 5 5 0
t3 8 0 0 − 45 3
5 1

Dans la colonne du vecteur B du dernier tableau figurent les valeurs des


variables en base : x1 = 6, x2 = 8, t3 = 8.

II.2 L’algorithme du simplexe :


On part d’un PL mis sous forme standard dans lequel on suppose que l’on
dispose d’une solution de base réalisable de départ. En général celle-ci est ob-
tenue par les m variables d’écart ti qui prennent respectivement les m valeurs
bi . Dans un problème à maximum, on va successivement, à chaque étape, faire
entrer une variable en base, de telle sorte que la valeur de la fonction écono-
mique z augmente. On cherche les solutions aux points extrêmes de l’ensemble
convexe des solutions réalisables.

II.2 .a Passage d’un extrême à l’autre


Considérons un point extrême (correspondant à une solution de base du PL),
m

X = (x1 , . . . , xm , 0, . . . , 0) où xi Pi = B, xi ≥ 0 et P1 , . . . , Pm linéairement
i=1
indépendants (base de Rm ). Les n−m vecteurs Pm+1 , . . . , Pn peuvent s’exprimer
comme des combinaisons linéaires des précédents, on peut écrire
m

Pj = xij Pi , j ∈ {m + 1, . . . , n} (II.1)
i=1

Pour simplifier, supposons que l’on veuille faire entrer en base le vecteur Pm+1 .
Notons θ la valeur que l’on va donner à la variable xm+1 qui devient de base.
m
On a θPm+1 = θxi, m+1 Pi , on peut donc écrire,
i=1

m

(xi − θxi, m+1 )Pi + θPm+1 = B (II.2)
i=1

On va chercher un point extrême voisin du point précédent. Pour cela, l’un des
vecteurs Pi initiaux doit sortir de base et un vecteur hors base doit y rentrer. Il
faut déterminer quel vecteur sortant on va choisir. On doit avoir obligatoirement
50 CHAPITRE II. LA MÉTHODE DU SIMPLEXE

θ > 0, et xi −θxi, m+1 ≥ 0, ∀i ∈ {1, . . . , m}. Cette dernière condition est acquise
xi
si xi, m+1 ≤ 0 pour les autres on doit avoir ≥ θ. On va donc choisir :
xi, m+1

 xi 
θ = θs = min (II.3)
{i|xi,m+1 >0} xi, m+1

xs
Soit s l’indice qui donne ce minimum, on a donc θs = . Le coefficient
xs, m+1
de Ps est donc nul et c’est le vecteur qui sort de base. La nouvelle base est
donc (Pi ), i ∈ {1, . . . , m + 1}\{s}. Si l’on suppose que s = 1, le nouveau point
extrême serait,

X  = (0, x2 − θs x2, m+1 , . . . , xm − θs xm, m+1 , θs , 0, . . . , 0)

II.2 .b Choix de la variable entrante

On va s’intéresser à la fonction économique. Avec les notations précédentes,


m
sa valeur pour le premier point extrême était z0 = ci xi , pour le nouveau
i=1
m

point extrême X  on obtient, en posant zj = ci xij quantité appelée coût
i=1
fictif,
m

z0 = ci (xi − θs xij ) + θs cm+1 = z0 + θs (cm+1 − zm+1 )
i=1
i=s

On va choisir comme vecteur entrant celui dont l’indice e vérifie

ce − z e = max (ci − zi ),
{i|ci −zi >0}

c’est celui qui est susceptible de donner le plus grand accroissement à la fonction
économique. Dans le cas où tous les coûts fictifs sont négatifs ou nuls, on dé-
montre que l’optimum est atteint. De plus, si pour un coût fictif positif, toutes
les coordonnées xij de la colonne correspondante sont négatives ou nulles, on
montre que le problème n’admet pas de solution (problème non borné).

II.3 L’algorithme du simplexe :


Cet algorithme a été mis au point par George Dantzig en 1947. Il est basé
sur les considérations précédentes.
II.3. L’ALGORITHME DU SIMPLEXE : 51

II.3 .a L’algorithme :
PL à maximum
Début
Mettre les contraintes sous forme d’égalités ;
Rechercher une première solution réalisable ;
Construire le premier tableau du simplexe ;
Tant que ∃j ∈ {1, . . . , n} : (cj − zj ) > 0 Faire
Si ∃k ∈ {1, . . . , n} : (ck − zk ) > 0 et xij < 0 ∀i ∈ {1, . . . , m}
Alors max(z) = +∞ {pas de solution}
Sinon
Début
{Recherche des variables entrante et sortante }
xe entre en base si ce − ze = max(ck − zk ) ;
bs bi
xs sort si = min ( );
xse xie >0 xie
{Construction du nouveau tableau, le pivot est xse }
{Ligne du pivot}
bs
be ← {dans la colonne de B};
xse
x sj
xej ← {donc 1 pour xes } ;
xse
{Autres lignes}
xie
bi ← bi − xs ;
xse
 xie
xij ← xij − ;
xse
x s
z0 ← z0 + (ce − ze ) ;
xse
 xsj
cj − zj ← cj − zj − (ce − ze ) ;
xse
Fin ;
Fin.

II.3 .b Disposition pratique :


On suppose que les variables x1 , . . . , xm sont en base.

c1 c2 ... cm cm+1 ... cn


Base C B x1 x2 ... xm xm+1 ... xn
x1 c1 b1 1 0 ... 0 x1,m+1 ... x1,n
x2 c2 b2 0 1 ... 0 x2,m+1 ... x2,n
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
xm cm bm 0 0 ... 1 xm,m+1 ... xm,n
z0 0 0 ... 0 cm+1 − zm+1 ... cn − z n
52 CHAPITRE II. LA MÉTHODE DU SIMPLEXE

II.3 .c Traitement d’un exemple :


Soit le PL suivant :
min(z) = x2 − 3x3 + 2x5


 x1 + 3x2 − x3 + 2x5 = 7

−2x2 + 4x3 + x4 = 12

 −4x2 + 3x3 + 8x5 + x6 = 10

xj ≥ 0, j ∈ {1, . . . , 6}
Les vecteurs Pi et B correspondant aux variables xi sont les suivants :
             
1 3 −1 0 2 0 7
P1  0  P2  −2  P3  4  P4  1  P5  0  P6  0  B  12 
0 −4 3 0 8 1 10

Une base initiale est formée par P1 P4 , P6 , avec 7P1 + 12P4 + 10P6 = B,
X = (7, 0, 0, 12, 0, 10) est une solution de base réalisable. Relativement à cette
base, on a,
P2 = 3P1 − 2P4 − 4P6 , P3 = −P1 + 4P4 + 3P6 , P5 = 2P1 + 8P6 . Le problème
étant un problème à minimum, on va maximiser −z et donc remplacer dans
l’algorithme du simplexe ci par ci = −ci . Pour obtenir les valeurs de zi , on
multiplie les valeurs de la colonne C par les valeurs correspondantes de la co-
lonne relative à la variable xi , puis on calcule les valeurs ci − zi , on obtient ainsi,

Tableau initial :

0 −1 3 0 −2 0
Base C B x1 x2 x3 x4 x5 x6
x1 0 7 1 3 −1 0 2 0
x4 0 12 0 −2 89:;
?>=<
4 1 0 0
x6 0 10 0 −4 3 0 8 1
0 0 −1 3 0 −2 0
Seul c3 − z3 > 0, x3 entre en base. Les valeurs pour lesquelles xi3 > 0
x4 12 x6 10
sont x43 , x63 , on calcule les quotients : = = 3 et = , la
x43 4 x63 3
plus petite valeur est θ = 3, donc x4 sort de base, on calcule le deuxième
tableau.

Tableau n◦ 2 :

0 −1 3 0 −2 0
Base C B x1 x2 x3 x4 x5 x6
x1 0 10 1 @ABC
GFED
5
0 1
2 0
2 4

x3 3 3 0 − 21 1 1
4 0 0
5 3
x6 0 1 0 −2 0 −4 8 1
1 3
9 0 2 0 − 4 −2 0
On a ici c2 − z2 > 0 et x2 entre en base tandis que x1 sort, avec θ = 4.
II.4. OBTENTION D’UNE BASE RÉALISABLE DE DÉPART : 53

Tableau n◦ 3 :

0 −1 3 0 −2 0
Base C B x1 x2 x3 x4 x5 x6
2 1 4
x2 −1 4 5 1 0 10 5 0
1 3 2
x3 3 5 5 0 1 10 5 0
x6 0 11 1 0 0 − 12 10 1
11 − 15 0 0 − 45 − 12
5 0
La solution optimale est X = (0, 4, 5, 0, 0, 11) et z0 = 11.

II.4 Obtention d’une base réalisable de départ :


Si le problème initial n’est pas sous la forme canonique, même en introdui-
sant des variables d’écart, on n’obtiendra pas aisément une solution de base de
départ : en effet certaines des variables introduites figureront avec le coefficient
−1 du fait du changement du sens de l’inégalité dans la contrainte correspon-
dante. On sera donc amené à introduire de nouvelles variables, dites variables
artificielles qui figureront provisoirement dans la formulation du PL jusqu’à
l’obtention, si elle est possible, d’une base de départ avec les variables initiales.
G. Dantzig et d’autres chercheurs de RAND Corporation ont mis au point la :

II.4 .a Méthode en deux phases :


Début
Mettre les contraintes sous forme d’égalités ;
Rendre positif le second membre des contraintes ;
Introduire les variables artificielles vi dans les contraintes :
n
aij xj + vi = bi , xi , vj ≥ 0
j=1
Sous ces contraintes, résoudre le PL :
m
max(z) = − vi
i=1
Si ∀i ∈ {1, . . . , m}, vi = 0
Alors
Résoudre le PL initial en prenant comme solution de base de départ
la solution obtenue à l’issue de la première phase
Sinon Il n’y a pas de solution réalisable
Fin.

Remarques :
1. On n’introduira que le nombre nécessaire de variables artificielles (≤ m),
c’est à dire dans les contraintes qui le nécessitent.
2. Lorsqu’une variable artificielle sort de base, cette sortie est définitive et
on la raye de la liste.
3. Le premier tableau du simplexe de la deuxième phase est identique au
dernier tableau de la première phase, à l’exception de la dernière ligne où
l’on reprend les coefficients initiaux de la fonction économique.
54 CHAPITRE II. LA MÉTHODE DU SIMPLEXE

II.4 .b Exemple :
On veut résoudre le PL suivant :

max(z) = 5x1 + 7x2




 x1 + x2 ≥ 6

x1 ≥ 4

 x2 ≤ 3

x1 , x2 ≥ 0

On introduit les variables d’écart t1 , t2 , t3 ≥ 0 ce qui conduit à :

max(z) = 5x1 + 7x2




 x1 + x2 − t1 = 6

x1 − t2 = 4

 x2 + t3 = 3

x1 , x2 , t1 , t2 , t3 ≥ 0

Les deux premières équations nécessitent l’introduction de deux variables arti-


ficielles v1 , v2 , on obtient :

max(z) = −v1 − v2



 x1 + x2 − t1 + v1 = 6

x1 − t2 + v2 = 4

 x 2 + t3 = 3

x1 , x2 , t1 , t2 , t3 , v1 , v2 ≥ 0

Première phase :
0 0 0 0 0 −1 −1
Base C B x1 x2 t1 t2 t3 v1 v2
v1 −1 6 1 1 −1 0 0 1 0
v2 −1 4 89:;
?>=<
1 0 0 −1 0 0 1
t3 0 3 0 1 0 0 1 0 0
−10 2 1 −1 −1 0 0 0
v2 sort et x1 rentre en base, on élimine v2 du problème :

0 0 0 0 0 −1
Base C B x1 x2 t1 t2 t3 v1
v1 −1 2 0 89:;
?>=<
1 −1 1 0 1
x1 0 4 1 0 0 −1 0 0
t3 0 3 0 1 0 0 1 0
−2 0 1 −1 1 0 0
II.4. OBTENTION D’UNE BASE RÉALISABLE DE DÉPART : 55

v1 sort et x2 entre en base, on élimine v1 , ce qui achève la première phase :

0 0 0 0 0
Base C B x1 x2 t1 t2 t3
x2 0 2 0 1 −1 1 0
x1 0 4 1 0 0 −1 0
t3 0 1 0 0 1 −1 1
0 0 0 0 0
Une solution de base réalisable est donc :
X = (x1 , x2 , t1 , t2 , t3 ) = (4, 2, 0, 0, 1).
Deuxième phase :
Le PL se formule sous la forme équivalente suivante :

max(z) = 5x1 + 7x2




 x2 − t1 + t2 = 2

x1 − t2 = 4

 t1 − t2 + t3 = 1

x1 , x2 , t1 , t2 , t3 ≥ 0
5 7 0 0 0
Base C B x1 x2 t1 t2 t3
x2 7 2 0 1 −1 1 0
x1 5 4 1 0 0 −1 0
t3 0 1 0 0 89:;
?>=<
1 −1 1
34 0 0 7 −2 0
t3 sort de base et t1 entre, La colonne de t2 ne comporte que des nombres
≤ 0, le problème est donc non borné :

5 7 0 0 0
Base C B x1 x2 t1 t2 t3
x2 7 3 0 1 0 0 1
x1 5 4 1 0 0 −1 0
t1 0 1 0 0 1 −1 1
41 0 0 0 5 −7
56

Exercices du chapitre II

Exercice II.1
Un chalutier est équipé pour la pêche de trois sortes de crustacés, C1 , C2 , C3 . La
capacité totale de pêche est de 1000 tonnes. Au débarquement, on effectue un
tri sur la cargaison et seuls 80% de C1 , 95% de C2 et 90% de C3 sont utilisables
à la vente. Par ailleurs la capacité de traitement est de 900 tonnes au maximum.
Pour préserver les espèces, la différence entre la quantité pêchée de C1 et de la
totalité des deux autres espèces, ne doit pas dépasser 100 tonnes. Le capitaine
veut maximiser le bénéfice sachant qu’une tonne de C1 pêché et conditionné
dégage un bénéfice de 125 ¤ de C2 , 84 ¤ et de C3 , 78 ¤.
1. Formuler algébriquement le PL ainsi posé (on pourra arrondir aux entiers
les plus proches les coefficients de la fonction économique).
2. résoudre le PL par la méthode du simplexe.

Exercice II.2
Résoudre le PL suivant en utilisant la méthode des pénalités pour trouver une
première solution de base réalisable.

max(z) = 3x1 + 4x2 + x3


 8
 x1 + 2x2 + 2x3 ≤ 3
7
x1 + 2x2 + 3x3 ≥ 3

x1 , x2 , x3 ≥ 0
57

Chapitre III

Dual

III.1 Introduction :
Etant donné un PL du type,
n

max(z) = cj xj
j=1
 n

 aij xj ≤ bi , i ∈ {1, . . . ,m}
(III.1)


j=1
xj ≥ 0, pour j ∈ {1, . . . , n}
on peut considérer qu’il concerne une entreprise E1 fabricant n biens j, j ∈
{1, . . . , n} et faisant intervenir m ressources i, i ∈ {1, . . . , m}. Le problème que
peut se poser l’entreprise est le suivant :
Etant donnée la disponibilité bi pour chaque ressource i et le profit unitaire cj
pour chacun des biens j, quel doit être le niveau de production de chaque bien
j pour que la quantité de bien i consommée reste inférieure à la disponibilité bi
et que le profit total soit maximal?
Supposons qu’une autre entreprise E2 , en rupture de stock, désire racheter les
ressources de la première, le problème qu’elle va se poser et le suivant :
Etant donné un prix unitaire cj pour chacun n biens j et une disponibilité bi
pour chacune des m ressources i, quel doit être le prix unitaire minimum d’achat
yi de chaque ressource i pour que la valeur totale des ressources consommées
par chaque bien j soit supérieure ou égale à cj (pour que cela rester intéressant
pour l’entreprise E1 et que le prix total d’achat des ressources disponible soit
minimum?
Ce deuxième problème constitue le problème dual du premier, il peut se mettre
sous la forme :
m

min(z) = bi yi
i=1
 m
 a y ≥ c , j ∈ {1, . . . ,n}

ij i j
(III.2)
 i=1

yi ≥ 0, pour i ∈ {1, . . . , m}
58 CHAPITRE III. DUAL

On voit aisément que les contraintes,


m

aij yi ≥ cj , j ∈ {1, . . . ,n} (III.3)
i=1

impliquent que le prix d’achat des ressources par l’entreprise E2 reste supérieur
au profit que peut en tirer l’entreprise E1 , c’est à dire,
m
n

bi yi ≥ cj xj
i=1 j=1

ce qui est conforme aux lois de l’économie, on voit donc intuitivement que le mi-
nimum atteint par le deuxième problème doit être égal au maximum du premier
problème. La théorie montre que c’est le cas quand le problème a des solutions.

III.2 Définitions et exemples :


III.2 .a Primal et Dual :
Les PL standards (III.1) et (III.2) sont appelés respectivement problèmes
primal et dual :

Primal Dual
n
m

max(z) = cj xj min(z) = bi yi
j=1 i=1
 n  m


 aij xj ≤ bi , i ∈ {1, . . . ,m}  a y ≥ c , j ∈ {1, . . . ,n}

ij i j


j=1 
 i=1
xj ≥ 0, pour j ∈ {1, . . . , n} yi ≥ 0, pour i ∈ {1, . . . , m}

III.2 .b Exemples :

Primal Dual
max(z1 ) = x1 + 3x2 min(z2 ) = 14y1 + 12y2 + 12y3


 x1 + x2 ≤ 14 

−2x1 + 3x2 ≤ 12  y1 − 2y2 + 2y3 ≥ 1

 2x1 − x2 ≤ 12 y1 + 3y2 − y3 ≥ 3
 
x1 , x2 ≥0 y1 , y2 , y3 ≥ 0

Remarque : Le PL initial doit impérativement être mis sous forme canonique


avant de déterminer son dual, ainsi dans l’exemple qui suit,
III.3. PROPRIÉTÉS DE LA DUALITÉ : 59

min(z1 ) = −2x1 + 4x2



 3x1 + x2 ≥ 10

4x1 − 3x2 ≤ 8

 x1 − x2 ≤ 6

x1 , x2 ≥ 0
on écrira :

Primal Dual
min(z1 ) = −2x1 + 9x2 max(z2 ) = 10y1 − 8y2 − 6y3


 3x1 + x2 ≥ 10 

−4x1 + 3x2 ≥ −8  3y1 − 4y2 − y3 ≤ −2

 −x1 + x2 ≥ −6 y1 + 3y2 + y3 ≤ 9
 
x1 , x2 ≥0 y1 , y2 , y3 ≥ 0

III.3 Propriétés de la dualité :


On démontre les théorèmes suivants :

Théorèmes :
– Le dual du PL dual est le PL primal.
– Si le primal est non borné, le dual est contradictoire. Si le primal est
contradictoire, le dual est non borné ou contradictoire. Si le primal admet
une solution finie x̄ alors le dual admet une solution optimale finie ȳ qui
vérifie : z1 (x̄) = z2 (ȳ).
– A toute variable d’écart primale (resp. duale) positive correspond une va-
riable structurelle duale (resp. primale) nulle. A toute variable structurelle
primale (resp. duale) positive correspond une variable d’écart duale (resp.
primale) nulle. On note, xj (resp. yi )les variables structurelles du primal
(resp. dual) et ti (resp. uj ) les variables d’écart du primal (resp. dual).
 
 xj = 0 → uj > 0 

 

xj > 0 ← uj = 0
 ti = 0 → y i > 0 

 

ti > 0 ← y i = 0

III.4 Passage du dernier tableau simplexe du pri-


mal au dernier tableau simplexe du dual :
Au signe près, on a les correspondances suivantes :

ligne xj (resp. ti ) en base ←→ colonne uj (resp.yi ) hors base.


colonne xj (resp. ti ) hors base ←→ ligne uj (resp.yi ) en base.
ligne cj − zj (primal) ←→ ligne zi − bi .
60 CHAPITRE III. DUAL

Exemple :
Base B x1 x2 t1 t2 t3
3 1
x1 6 1 0 5 − 5 0
2 1
x2 8 0 1 5 5 0
4 3
t3 8 0 0 −5 5 1
30 0 0 − 59 − 25 0
En utilisant les propriétés vues ci-dessus, on obtient le tableau final simplexe
du dual :

Base B y1 y2 y3 u1 u2
9 4
y1 5 1 0 5 − 35 − 52
2
y2 5 0 1 − 53 1
5 − 51
30 0 0 −8 −6 −8
61

Exercices du chapitre III

Exercice III.1
Une entreprise fabrique 3 produits A, B et C qui nécessitent matières premières
et main d’œuvre qui sont disponibles en quantité limitées suivant le tableau
ci-dessous :

Produits A B C Disponibilité
Matières premières(en kg) 4 2 1 6000
Main d’œuvre (en h) 2 0.5 3 4000
Bénéfice par unité (en ¤) 60 20 40

De plus les capacités de stockage ne peuvent excéder 2500 unités.

1. Formuler algébriquement le PL ainsi posé.


On note xi , i ∈ {1, 2, 3} les variables structurelles du problème et ti , i ∈
{1, 2, 3} les variables d’écarts. On considère le tableau du simplexe cor-
respondant à notre PL :

60 20 40 0 0 0
Base C B x1 x2 x3 t1 t2 t3
11 3 1
x1 60 1400 1 20 0 10 − 10 0
x3 40 400 0 − 51 1 − 15 2
5 0
13 1 3
t3 0 700 0 20 0 − 10 − 10 1
0 0 −5 0 −10 −10 0

2. Déterminer un plan optimal de fabrication hebdomadaire.


3. Déterminer le PL dual, son dernier tableau par la méthode du simplexe
et sa solution optimale.
4. On envisage la fabrication d’un nouveau produit, D, qui nécessite 1.5kg de
matières premières et 2.5h de main d’œuvre par unité. La fabrication d’une
unité de ce produit revient à 70 ¤. Quel est le prix de vente minimum à
donner au produit pour qu’il soit intéressant de le fabriquer? (on supposera
que le bénéfice net est égal à la différence du prix de vente et du coût de
fabrication, on notera p ce bénéfice.)
62
63

Chapitre IV

Analyse de sensibilité, PL
paramétrique

Dans la pratique, on a à faire face aux situations suivantes :


– Le profit unitaire de chaque activité peut varier soit à cause de la conjonc-
ture, soit qu’il ait mal été estimé.
– Les disponibilités peuvent varier et ainsi modifier les valeurs des seconds
membres des contraintes.
Grâce à la dualité on pourra se contenter de traiter le premier type de pro-
blème. On suppose que l’on a affaire à un PL sous forme standard admettant
des solutions optimales réalisables. Dans cette configuration, si l’on remplace le
coefficient ci d’une variable hors base xi par ci = ci +α, il se peut que la quantité
ci − zi correspondante ne soit plus négative et que la solution obtenue ne soit
plus optimale. La variable xi sera candidate pour entrer en base. La plus petite
valeur |α| telle que, lorsque ci est remplacé par ci , la variable xi est candidate
à rentrer en base, est appelée coût réduit de la variable xi . La signification
économique est que pour les variables hors base, la valeur est nulle, ce qui veut
dire que les activités correspondantes ne sont pas profitables, le problème est
donc de savoir pour quelles valeurs des coefficients de la fonction économique
elles le deviennent.

IV.1 Paramétrisation de la fonction économique


Considérons le PL suivant :

n

max(z) = cj xj
j=1

 n

 aij xj = bi , i ∈ {1, . . . ,m}

 j=1
xj ≥ 0, pour j ∈ {1, . . . , n}
64 CHAPITRE IV. ANALYSE DE SENSIBILITÉ, PL PARAMÉTRIQUE

On va poser, cj = cj + λcj , ∀i ∈ {1, . . . , n}. La fonction économique devient


une fonction de λ :
n
z(λ) = (ci + λci )xi
i=1

Le domaine de variation de λ peut être découpé en un nombre fini d’intervalles


pour chacun desquels correspond une solution optimale différente. Ces intervalles
sont appelés intervalles de stabilité .
Supposons qu’il existe une solution optimale x̄(λ0 ) du PL pour la valeur λ = λ0 .
A cette solution correspond un tableau final du simplexe pour lequel toutes les
quantités cj − zj sont négatives. Comme ici,
m
m

zj = ci xij = (ci + λ0 ci )xij , j ∈ {1, . . . , n}
i=1 i=1

On en déduit,
 m
  m


λ0 cj − ci xij + cj − ci xij ≤ 0, j ∈ {1, . . . , n}
i=1 i=1

m
m

Posons Cj = cj − ci xij et Cj = cj − ci xij .
i=1 i=1
La solution x̄(λ) restera optimale si toutes les quantités correspondantes zj − cj
restent négatives, i.e. pour toutes les valeurs de λ qui vérifient :

C
 λ ≤ αj = − C j ∀j ∈ {1, . . . , n},\{Cj > 0}
j
 λ ≥ Cj
βj = − Cj ∀j ∈ {1, . . . , n},\{Cj < 0}

En posant a0 = minj αj et b0 = maxj βj , l’intervalle de stabilité de la solution


x̄(λ0 ) est [a0 , b0 ]. Pour toute valeur de λ prise dans cet intervalle, x̄(λ) reste
une solution optimale.
Dans la pratique, on construit les intervalles de stabilité de proche en proche
à partir d’une valeur λ0 déterminée (souvent 0), qui correspond à un PL sans
paramètre. On poursuit le processus jusqu’à ce que les intervalles de stabilité
recouvrent le domaine de variation de λ tout entier.
Remarque :
Le changement des coûts ci ne modifie pas la région admissible, seule la fonc-
tion économique varie. Dans le cas d’un problème à deux variables, si un point
extrême P est solution optimale, on cherche la pente des droites définies par la
fonction économique pour lesquels P reste une solution optimale.

IV.2 Paramétrisation du second membre des contraintes


Considérons le PL suivant :
n

max(z) = cj xj
j=1
IV.3. EXEMPLE 65
 n

 aij xj ≤ bi + λbi , i ∈ {1, . . . ,m}, λ ∈ R

 j=1
xj ≥ 0, pour j ∈ {1, . . . , n}

Par dualité on peut se ramener au cas de la paramétrisation de la fonction éco-


nomique. Le dual s’écrit en effet :

m

min(z) = (bi + λbi )yi
i=1

 n
 a y ≥ c , j ∈ {1, . . . ,n}

ij i j

 i=1
yi ≥ 0, pour i ∈ {1, . . . , m}

que l’on résout comme à la section précédente.

IV.3 Exemple

max(z) = x1 + (3 − 3λ)x2


 x1 + x2 ≤ 14

−2x1 + 3x2 ≤ 12

 2x1 − x2 ≤ 12

x1 , x2 ≥ 0

Pour λ = 0 la solution optimale a déjà été calculée. Sur chaque intervalle de


stabilité, les valeurs de x1 et x2 sont fixées, la valeur optimale de la fonction
économique devient donc une fonction affine par morceaux de la variable λ.

1 3 − 3λ 0 0 0
Base C B x1 x2 t1 t2 t3
3
x1 1 6 1 0 5 − 51 0
2 1
x2 3 − 3λ 8 0 1 5 5 0
t3 0 8 0 0 − 54 GFED
@ABC
3
1
5
−9+6λ −2+3λ
30 − 24λ 0 0 5 5 0


 −9 + 6λ

≤ 0 2
5 => 0 ≤ λ ≤ , (x1 , x2 ) = (6, 8), z = 30 − 24λ.
 −2 + 3λ 3
 ≤ 0
5
 2
Le premier intervalle de stabilité est donc : 0; .
3
66 CHAPITRE IV. ANALYSE DE SENSIBILITÉ, PL PARAMÉTRIQUE

1 3 − 3λ 0 0 0
Base C B x1 x2 t1 t2 t3
26
x1 1 3 1 0 − 13 0 1
3

x2 3 − 3λ 16
0 1 GFED
@ABC
2
0 − 13
3 3
40
t2 0 3 0 0 − 43 0 5
3
74
3 − 16λ 0 0 − 73 + 2λ 0 2
3 −λ

 − 7 + 2λ ≤

0 2 7  26 16  74
3 => ≤ λ ≤ , (x1 , x2 ) = , ,z= − 16λ.
 2 3 6 3 3 3
 −λ ≤ 0
3
2 7
Le deuxième intervalle de stabilité est donc : ; .
3 6
1 3 − 3λ 0 0 0
Base C B x1 x2 t1 t2 t3
x1 1 6 1 − 12 0 0 1
2
3
t1 0 8 0 2 1 0 − 12
t2 0 24 0 2 0 1 1
7
6 0 2 − 3λ 0 0 − 12
7
λ≥, (x1 , x2 ) = (6, 0), z = 6.
6
7 
Le dernier intervalle de stabilité est donc : ; +∞ .
6

30

14

O 2/3 7/6

Fig. IV.1 – Intervalles de stabilité


67

Exercices du chapitre IV

Exercice IV.1
Une petite compagnie de taxis-bus possède 4 véhicules et emploie 6 chauffeurs.
Les véhicules peuvent rouler de jour comme de nuit. Le rendement d’un véhicule
circulant le jour est fixé à 1 tandis que la nuit il vaut 1+λ. Déterminer le nombre
de véhicules devant circuler la nuit en fonction de λ.

Exercice IV.2
Quatre machines M1 , M2 , M3 , M4 servent à fabriquer trois produits P1 , P2 , P3 .
Le produit P1 est composé de deux éléments fabriqués respectivement par M1
et M3 , P2 de trois éléments fabriqués respectivement par M2 , M3 et M4 , P3
de trois éléments fabriqués respectivement par M1 , M2 et M4 . Les machines
M1 , M2 , M3 , M4 doivent produire quotidiennement respectivement au moins
10, 12, 8, 10 unités pour être rentables.

Déterminer les quantités minimales des trois produits à fabriquer pour mi-
nimiser le coût total de production, si les coût unitaires de production valent
respectivement :

1. 2, 3 et 4 ¤.
2. (2+3λ), (3+2λ) et (4+λ) ¤, où λ est choisi de telle manière que les quan-
tités considérées soient positives ou nulles. Représenter graphiquement la
fonction économique pour les valeurs optimales, en fonction de λ.
68
69

Troisième partie

Processus Stochastiques et
applications
71

Chapitre I

Présentation des processus


stochastiques

I.1 Définition des processus stochastiques


On se souvient qu’une variable aléatoire réelle définit une mise en corres-
pondance biunivoque entre les résultats d’une expérience et des valeurs prises
dans R ou un sous-ensemble de R. Un processus stochastique consiste en la
mise en correspondance biunivoque entre les résultats d’une expérience et une
fonction d’un paramètre t (en général représentant le temps) ou d’une ou plu-
sieurs autres variables indépendantes, prenant ses valeurs dans un ensemble T
et à valeurs dans un ensemble noté E, appelé espaces des états. Cette fonc-
tion du paramètre t est appelée fonction aléatoire . Pour chaque valeur de
t on définit ainsi une variable aléatoire réelle . Si on appelle Ω l’ensemble défi-
nissant les résultats de l’expérience considérée, on définit donc une application
T → V A(Ω, E), t → (ω → Xt (ω)). que l’on notera pour simplifier X. Si T est
un intervalle de R on parlera de processus stochastique, si T est discret (par
exemple N) on parlera de suite stochastique, à état d’état continu si E est
un intervalle de R, discret si E est discret. Pour ω fixé, l’application t → Xt (ω)
est appelée trajectoire du processus X.

Exemple n◦ 1 On mesure tous les jours du mois de janvier la pluviométrie


en mm de différentes communes. L’ensemble Ω représente ici la mesure
de la pluviométrie au mois de janvier dans l’ensemble des communes.
T = {1, . . . , 31} est discret, tandis que l’espace d’états E, qui est un
intervalle de R, est continu. Si on choisit une commune particulière c1 , on
obtient la réalisation d’une courbe de pluviométrie Xc1 (t) d’autre part,
pour un jour donné t1 , Xt1 représente une variable aléatoire réelle conti-
nue. Si l’on choisit une autre commune c2 , on obtient une autre réalisation
Xc2 (t).

Exemple n◦ 2 Sur la carte mémoire d’un appareil photo numérique on consi-


dère l’ensemble Ω des photos qui sont stockées. Le choix d’une photo don-
née constitue une réalisation particulière de l’expérience choisir une photo.
Si la photo est codée en RVB, Chaque pixel de la photo est représenté par
72 CHAPITRE I. PRÉSENTATION DES PROCESSUS STOCHASTIQUES

un triplet (R, V, B) appartenant à {0, . . . , 255}3. L’espace T est ici l’en-


semble (fini) des pixels pour le format choisi, et l’espace E l’ensemble
des triplets possibles de couleurs. On a donc ici une suite stochastique à
valeurs discrètes.

Xc2(t) en mm
Xc1(t) en mm

1 2 3 31 t 1 2 3 31 t

Commune n˚1 Commune n˚2

Fig. I.1 – Exemple de processus en temps discret

Exemple n◦ 3 La courbe d’évolution du CAC40 constitue une trajectoire du


processus stochastique continu à espace d’état continu, dont l’espace Ω est
formé de portefeuilles d’actions, le CAC40 étant constitué de l’ensemble
des 40 actions les plus représentatives de l’économie française. La courbe
est continue bien que très perturbée, ce n’est pas le cas pour toutes les
trajectoires.

Fig. I.2 – Exemple de trajectoire : le CAC40


I.2. PROCESSUS DE POISSON 73

I.2 Processus de Poisson


I.2 .a Présentation
Un processus de Poisson est un processus continu à espace d’états discret.
Il sert à décrire de nombreuses situations, citons, le nombre d’appels télépho-
niques à un standard, le nombre d’accidents à un carrefour, le nombre de pannes
sur des appareils, le nombre de clients dans un système de service, etc . . .

I.2 .b Modélisation
Si on note X le processus, en partant de la valeur t = 0, Xt décrit le nombre
d’événements survenus dans l’intervalle ]0, t], par hypothèse X0 = 0. Le proces-
sus X est dit de Poisson s’il vérifie les conditions suivantes :
1. Le processus est sans mémoire, ce qui revient à dire que pour un instant
quelconque t, les occurences d’événements avant la date t n’influent pas sur
les occurences d’événements après t. De manière générale, si l’on considère
deux intervalles [t1 , t2 ] et [t1 , t2 ] disjoints, le nombre d’événements qui se
produisent dans l’un des intervalles est indépendant des événements qui
se produisent dans l’autre.
2. Si l’on considère t > 0 et h > 0 quelconques, Xt+h − Xt est une variable
aléatoire dont les valeurs ne dépendent que de h. On dit que le processus
est homogène dans le temps. Puisque X0 = 0, la loi de cette v.a. est la
même que celle de Xh .
3. La probabilité pour qu’au moins deux événements se réalisent en même
temps est négligeable devant la probabilité qu’il ne s’en produise qu’un.
Sous réserve de quelques hypothèses supplémentaires, on montre qu’il existe une
constante λ telle que la v.a. Xt suive une loi de Poisson de paramètre λt. C’est
à dire que,

(λt)n
∀t ∈]0, + ∞[, ∀n ∈ N, P (Xt = n) = exp(−λt).
n!
E(Xt )
On a, E(Xt ) = V (Xt ) = λt. On a donc λ = , c’est la taux d’arrivée i.e. le
t
nombre moyen d’arrivées par unité de temps. Cette remarque permettra de dé-
terminer λ expérimentalement en faisant quelques hypothèses supplémentaires.
Soient t, s > 0, le fait que le processus ne dépende pas de son passé implique
que :

(λs)n
P (Xt+s − Xt = n|Xu ,u ≤ t) = P (Xt+s − Xt = n) = exp(−λs)
n!

I.3 Temps d’attente


Etant donné un processus de Poisson X, on s’intéresse à la suite stochastique
T à espace d’états continu qui pour chaque valeur de n ∈ N définit le temps
écoulé jusqu’à la neme occurence de l’événement considéré. La v.a. T1 vérifie :

P (T 1 > t) = P (Xt = 0) = e−λt .


74 CHAPITRE I. PRÉSENTATION DES PROCESSUS STOCHASTIQUES

En effet l’événement (T1 > t) signifie qu’aucun événement ne s’est produit sur
l’intervalle [0, t]. T1 suit donc une loi exponentielle de paramètre λ. Pour n ∈ N∗ ,
intéressons-nous à la v.a. Tn+1 − Tn , qui définit la loi d’inter-arrivées entre la
neme et la (n + 1)eme occurence de l’événement.

(∀s ∈ R+ ), P (Tn+1 − Tn > t) = P (Xs+t − Xs = 0) = P (Xt = 0) = e−λt

puisque d’une part, si n événements sont arrivés sur l’intervalle ]0, s], il n’y en
aucun sur l’intervalle ]s, s + t], et que d’autre part le processus X est sans
mémoire.
Remarque : X et T décrivent le même processus et l’on a,

∀t ∈ R, ∀n ∈ N, (Tn ≤ t) ≡ (Xt ≥ n).

On déduit des résultats précédents que la v.a. Tn suit une loi d’Erlang de para-
mètres n, λ définie par :
n
(λt)k
P (Tn ≤ t) = 1 − e−λt .
k!
k=0

I.4 Détermination expérimentale


On a le résultat suivant :

I.4 .a Théorème
Soit X un processus de Poisson. Si un événement intervient dans l’intervalle
]0, t], t > 0, la probabilité pour qu’il se produise dans un sous-intervalle de lon-
x
gueur x ≤ t est c’est à dire que la v.a. Y1 associée à cet événement suit une loi
t
uniforme sur ]0, t]. Plus généralement, s’il y a eu n événements sur l’intervalle
]0, t], les v.a. Y1 , . . . , Yn sont indépendantes et de loi uniforme sur ]0, t]. Cela
implique que lors de la détermination expérimentale de la loi on pourra choisir
des échantillons au hasard dans les intervalles concernés.

I.4 .b Application
Dans une banque ouvrant de 9h à 17h en journée continue, on a choisi un
échantillon de 100 intervalles de 30 minutes durant lesquels on a relevé le nombre
de clients dans la banque. On a fait l’hypothèse que durant la journée chaque
période vérifie les conditions du théoreme I.4 .a, ce qui signifie que les différentes
plages horaires sont identiquement chargées. On a établi le tableau suivant :

Nombre d’arrivées 0 1 2 3 4 5 6 7 8 9 10 11
Nombre de périodes 2 9 14 19 20 15 11 5 3 1 1 0

(0 × 2 + 1 × 9 + . . . + 10 × 1 + 11 × 0)
Calcul de la moyenne : ≈ 4.
100
On constate que l’histogramme est très proche de celui d’une loi de Poisson de
I.5. GRAPHES ASSOCIÉS À UNE LOI DE POISSON 75

paramètre 4 :

k 0 1 2 3 4 5 6 7 8 9 10 11
100 × pk 1.83 7.33 14.6 19.6 19.6 15.6 10.4 6.0 3.0 1.3 0.0 0.0

On valide cette hypothèse avec un test du χ2 par exemple.

I.5 Graphes associés à une loi de Poisson


Soit X un processus de Poisson de paramètre λ. Sur un petit intervalle
de temps ∆t on peut considérer qu’il n’y a que deux possibilités : soit il y a
une arrivée, avec une probabilité proche de λ∆t, soit il n’y en a aucune avec la
probabilité 1−λ∆t. On obtient le graphe de transitions entre les différents états :

Fig. I.3 – Graphe du processus de Poisson

I.6 Exemple
Dans une station de RER, les trains arrivent à une gare selon un processus
de Poisson de paramètre 4 trains par heure en moyenne. Un voyageur arrive
à la gare où un employé lui déclare que le précédent train est passé il y a une
demi-heure. Quelle est la probabilité que le voyageur doive attendre plus de cinq
minutes le train suivant?
Réponse :

la durée d’attente T entre deux trains suit une loi exponentielle de paramètre
λ = 4. On a
   
1 1 1 1 4 1
P T > + |T > =P T > = e− 12 = e− 3 .
2 12 2 12

En utilisant le processus de Poisson X de paramètre 4, on obtient :


4 0
( 12 ) −4 1
1 = 0) =
P (X 12 e 12 = e− 3 .
0!
76

Exercices du chapitre I

Exercice I.1
Dans un standard téléphonique, on a constaté que le nombre moyen d’appels
arrivant par minute entre 14h et 18h est de 2.5. Sachant que les appels suivent
un processus de Poisson, trouver les probabilités pour que dans une minute
quelconque de l’intervalle [14, 18],
1. Il n’y ait pas d’appel.
2. Il y ait deux appels exactement.
3. Il y ait quatre appels au moins.

Exercice I.2
Un laboratoire d’analyses médicales effectue régulièrement des contrôles de fac-
teur rhésus sur des groupes de 30 personnes.
1. Sachant qu’en moyenne, 15 personnes sur 100 ont un rhésus négatif, expri-
mer la loi de la variable X associant à chacun de ces contrôles le nombre
des personnes contrôlées ayant un rhésus négatif. Calculer l’espérance et
la variance de X.
2. On approche la loi de X par une loi de Poisson. Déterminer le paramètre
de cette loi et donner à l’aide de cette loi les valeurs approchées des évé-
nements : (X < 2) et (X > 3).

Exercice I.3
Des bateaux arrivent dans un port de plaisance suivant un processus de Poisson
de paramètre λ = 2. Le port ne peut accueillir que 3 bateaux par jour. S’il arrive
plus de 3 bateaux, les navires en excès sont envoyés dans un autre port.
1. Quelle est la probabilité pour qu’un jour donné, au moins un bateau soit
refusé?
2. Combien de bateaux seront, en moyenne, accueillis dans une journée?

Exercice I.4
Les véhicules circulant dans une rue suivent un processus de Poisson de pa-
ramètre λ = 15 (en secondes). Pour traverser la rue un piéton a besoin de 10
secondes. Quelle est la fraction des intervalles entre deux véhicules, assez grande
pour permettre au piéton de traverser la rue?
77

Chapitre II

Processus de naissance et de
mort

II.1 Introduction
Dans un processus de Poisson, la probabilité de l’occurence d’un événement
est indépendante des événements qui se sont déjà produits. Cela n’est pas une
hypothèse réaliste quand on étudie, par exemple, l’évolution d’une population,
le nombre de naissances ou de morts dépendant de la taille de la population.
Dans le cas général, le taux de naissance dépendra de la taille n de la population,
on le notera λn , de même que l’on notera µn le taux de mort.

II.2 Définition
Considérons un processus stochastique X à espace d’états discret N. Ce
processus décrit un système qui est dans un état noté En , n ∈ N au temps t si
et seulement si Xt = n. On dira que ce système est un processus de naissance
et de mort, s’il existe des taux positifs ou nuls de naissance λn , n ∈ N et des
taux positifs ou nuls de mort µn , n ∈ N∗ tels que les conditions suivantes soient
satisfaites :
1. Les changements d’états sont seulement autorisés de l’état En vers l’état
En+1 ou de l’état En vers l’état En−1 si n ≥ 1 mais seulement de l’état
E0 à l’état E1 .
2. Si à l’instant t le système est dans l’état En , la probabilité qu’entre l’ins-
tant t et l’instant t + h la transition se produise vers l’étant En+1 est
o(h)
λn h + o(h) (rappelons que o(h) signifie que lim = 0) et que la tran-
h→0 h
sition se produise vers l’état En−1 (si n ≥ 1) est µn h + o(h)
3. La probabilité que plus d’une transition se produise dans l’intervalle [t, t+
h] est o(h).

Exemple : dans la théorie des files d’attente, on verra que l’on peut considérer
l’évolution de la file comme un processus de naissance et de mort où l’état En
correspond à la présence de n clients dans le système d’attente, attendant ou
recevant un service.
78 CHAPITRE II. PROCESSUS DE NAISSANCE ET DE MORT

II.3 Modélisation
Nous poserons dans la suite Pn (t) = P (Xt = n). Pour n ≥ 0 la probabilité
qu’au temps t + h le système soit dans l’état En a quatre composantes :
1. Il était dans l’état En à l’instant t et aucune transition ne s’est produite.
L’événement associé est :

(Xt = n) ∩ (aucune naissance ni mort sur l’intervalle) [t,t + h].

La probabilité associée est

Pn (t)(1 − λn h + o(h))(1 − µn h + o(h).

La probabilité qu’il n’y ait pas de transition étant égale à 1− la probabilité


qu’il y ait une transition. En utilisant les propriétés de o(h), on obtient :

Pn (t)(1 − λn h − µn h) + o(h).

2. Il était dans l’état En−1 au temps t et se trouve dans l’état En à l’instant


t + h. On obtient la probabilité :

Pn−1 (t)λn−1 h + o(h).

3. Il était dans l’état En+1 au temps t et se trouve dans l’état En à l’instant


t + h. On obtient la probabilité :

Pn+1 (t)µn+1 h + o(h).

4. Plus d’une transition s’est produite : probabilité o(h) (négligeable devant


h).
Au total on obtient :

Pn (t + h) = [1 − λn h − µn h]Pn (t) + λn−1 hPn−1 (t) + µn+1 hPn+1 (t) + o(h).

En soustrayant Pn (t), en divisant par h et en passant à la limite, on obtient les


équations différentielles :

∀n ∈ N∗ , Pn (t) = −(λn + µn )Pn (t) + λn−1 Pn−1 (t) + µn+1 Pn+1 (t).

Pour n = 0, on obtient,

P0 (t) = −λ0 P0 (t) + µ1 P1 (t).

Si le système est dans l’état Ei pour un certain i à l’instant t = 0, les conditions


initiales sont :
Pi (0) = 1, Pj (0) = 0 pour j = i.

Inutile de préciser que la résolution de tels systèmes est extrêmement complexe.


Il y a cependant des cas particuliers où cela reste relativement aisé. Voyons-en
quelques uns.
II.4. PROBABILITÉS À LONG TERME 79

II.3 .a Processus de naissance pur


On a ici ∀n ∈ N λn = λ, µn = 0. On est conduit au système :
 
 Pn (t) = −λPn (t) + λPn−1 (t), pour n ≥ 1
P  (t) = −λP0 (t)
 0
P0 (0) = 1, Pj (0) = 0, pourj = 0

Les solutions de ce système sont :

(λt)n e−λt
∀n ∈ N, t ≥ 0, Pn (t) = .
n!
On retrouve le processus de Poisson, ce qui permet d’en donner une nouvelle
interprétation : c’est un processus de naissance pur à taux constant.

II.3 .b Processus de mort pur


On part d’un système à N + 1 états possibles numérotés de 0 à N . Dans ce
processus nous avons,

∀n ∈ {0, . . . , N } λn = 0, µn = µ si n ≥ 1, µ0 = 0.

Intuitivement, il s’agit ici d’une population à N individus dans laquelle il n’y a


que des disparitions et pas de naissance. Ici Pn (t) est la probabilité que N − n
disparitions se soient produites dans l’intervalle [0, t], on trouve,
N
−1
(µt)N −n −µt (µt)j −µt
Pn (t) = e , n ∈ {1, . . . , N }, et P0 (t) = 1 − e
(N − n)! j=0
j!

II.4 Probabilités à long terme


Dans le cas général, le calcul des probabilités Pn (t) s’avère très difficile,
voire impossible. Cependant, dans la plupart des cas, le processus atteint un
état d’équilibre appelé régime stationnaire où les probabilités Pn (t) tendent
vers une limite pn qui ne dépend plus de t. Les dérivées Pn (t) s’annulent alors
on obtient les équations d’équilibre suivantes :

λ0 p0 = µ1 p1
λn pn = µn+1 pn+1 pour n ∈ N∗

avec l’équation de normalisation :


+∞

pn = 1
n=0

On obtient les solutions :


λ0 λ1 . . . λn−1
pn = p0 .
µ1 µ2 . . . µn
Avec l’équation de normalisation, on obtient p0 et donc toutes les autres valeurs.
80 CHAPITRE II. PROCESSUS DE NAISSANCE ET DE MORT

n-1 n+1

n-1 n n+1

1 n n+1

Fig. II.1 – Graphe du processus de Naissance et de mort

En régime stationnaire, les équations obtenues signifient que pour tout état
En on a :

Flux entrant = Flux sortant


81

Exercices du chapitre II

Exercice II.1
On considère un processus de naissance et de mort pouvant prendre les états
E0 , E1 , E2 , E3 caractérisé par les paramètres suivants :
λ0 = 4, λ1 = 3, λ2 = 2, , µ1 = 2, µ2 = 4, et µ3 = 4.
1. Construisez le diagramme de transition de ce processus.
2. Déterminer les probabilités en régime stationnaire du processus.

Exercice II.2
α
On considère un processus de naissance et de mort dans lequel, λn = ,n∈
n+1
N pour un réel α > 0 et µn = µ, n ∈ N.

µ)
n
α
Montrer que pn = e− µ .
n!
82
83

Chapitre III

Chaînes de Markov

III.1 Définition
Un processus stochastique X = {Xt , t ∈ T } à espace d’états E est un pro-
cessus de Markov s’il est homogène dans le temps, i.e. si son comportement
sur un intervalle de T ne dépend que de la longueur de cet intervalle et non de
son origine, et si, ∀{t1 , . . . , tn+1 }, n ∈ N∗ , t1 < t2 < . . . < tn+1 et tout ensemble
d’états {E1 , . . . , En+1 }, prenant respectivemet les valeurs x1 , . . . , xn+1 ,

P (Xtn+1 = xn+1 |Xt1 = x1 , . . . , Xtn = xn ) = P (Xtn+1 = xn+1 |Xtn = xn )

Intuitivement, cela signifie que le futur du processus ne dépend que de l’état


présent En et non de l’histoire du processus.
On s’intéressera ici aux processus à espace d’états discret, appelé chaîne de
Markov. Pour simplifier les notations on supposera que la valeur prise dans
l’état En , n ∈ N est n. De la même manière, on supposera que T est discret
et on noter m, m ∈ N au lieu de tm , on aura donc à considérer la suite Xn , n ∈ N.

III.2 Probabilités de transition


III.2 .a Transition d’ordre 1
Si au temps 0 on est dans l’état Ei , on va définir les probabilités de passer
dans un autre état Ej à l’instant suivant :

pij = P (X1 = j|X0 = i)

De manière générale on va s’intéresser aux probabilités :

P (Xn+1 = j|Xn = i)

Ces probabilités appelées probabilités de transition dépendent en général de


l’état de départ En , mais comme on a supposé le processus homogène dans le
temps il n’en est rien. On aura donc pour toute valeur de n,

P (Xn+1 = j|Xn = i) = pij


84 CHAPITRE III. CHAÎNES DE MARKOV

Ces quantités vérifient les propriétés suivantes :



 0+∞
 ≤ pij ≤ 1, ∀(i, j) ∈ N2


 pij = 1, ∀i ∈ N
j=0

La matrice ((pij )) est appelée matrice stochastique .

III.2 .b Transitions d’ordre n


On va s’intéresser maintenant au passage d’un état Ei à un état Ej en n
transitions. Le processus étant homogène, cela ne dépend pas de l’instant initial.
On va donc poser :
pnij = P (Xn = j|X0 = i) = P (Xm+n = j|Xm = i), ∀m ≥ 0, n > 0.
Pour passer de l’état Ei à l’état Ej en m+n transitions, on peut passer par n’im-
porte quel état Ek après m transitions et repartir vers l’état Ej en n transitions.
On a donc,

(Xm+n = j) ∩ (X0 = i) = ((Xm+n = j) ∩ (Xm = k)) ∩ (X0 = i)
k

Les événements (Xm = k, k ∈ N formant un système complet d’événements. On


obtient donc,
+∞

P (Xm+n = j|X0 = i) = P (Xm+n = j|(Xm = k) ∩ (X0 = i))
k=0
+∞

= P (Xm+n = j|(Xm = k))P (Xm = k|X0 = i),
k=0

et d’après les propriétés d’homogénéité, P (Xm+n = j|Xm = k) = P (Xn =


j|X0 = k). On obtient ainsi les équations de Chapman-Kolmogorov :
+∞

m+n
pij = pnik pm
kj , ∀n, m, i, j ≥ 0
k=0

En particulier, si E est fini, et si l’on nomme P la matrice de transition d’ordre 1,


la matrice de n-transitions est égale à P n . En effet, P (2) = P 2 et par récurrence
P (n) = P (n−1) P = P n .

III.2 .c Exemple
Un système de communication transmet les bits 0 et 1 à travers plusieurs
étapes. A chaque étape, la probabilité pour qu’un bit soit reçu de manière iden-
tique à l’étape suivante est 0.75. Quelle est la probabilité qu’un 0 entré à la
première étape soit reçu comme 0 à la cinquième?
Réponse :
La matrice de transition d’ordre 1 est ici :
 
0.75 0.25
P =
0.25 0.75
III.3. CLASSIFICATION DES ÉTATS D’UNE CHAÎNE 85

4
La probabilité cherchée est obtenue en prenant l’élément P00 de la matrice P 4 .
On a,
 4
4 0.53125 0.46875
P =
0.46875 0.53125
La probabilité cherchée est donc égale à 0.53125.

III.3 Classification des états d’une chaîne


Etats communicants : Deux états Ei et Ej des états communicants si et
seulement si il existe un entier m tel que pm ij > 0 et un entier n tel que
pnji > 0.
Etat récurrent : Si le retour à un état Ei est certain, Ei est dit récurrent .
L’état est dit récurrent positif si le temps moyen pour y revenir est fini,
récurrent nul si le temps est infini.
Etat périodique : S’il existe un entier d tel que l’état Ei ne puisse être atteint
qu’aux temps d, 2d, . . . , nd,. . . , Ei est dit périodique de période d.
Etat transitoire : Si le retour à un état Ei n’est pas certain, l’état est dit
transitoire.
Etat absorbant : Un état Ei est dit absorbant si une fois atteint il est im-
possible de le quitter, i.e. pii = 1.

Définition : Une chaîne est dite apériodique si elle ne possède aucun état
périodique.

III.4 Propriétés des chaînes de Markov


III.4 .a relation d’équivalence sur l’ensemble des états
On définit une relation, que l’on notera ↔ entre deux états Ei et Ej , Ei ↔ Ej
si et seulement si Ei et Ej sont communicants. Cette relation est une relation
d’équivalence. Ainsi les états d’une chaîne de Markov peuvent être partitionnés
en classes d’équivalence d’états. Une chaîne sera dite irréductible si et seule-
ment si elle ne possède qu’une seule classe d’équivalence pour cette relation.

Une chaîne irréductible peut traduire l’évolution d’un système réparable et/ou
soumis à une politique de maintenance préventive : le système étant toujours réparé,
il n’existe pas d’état absorbant.

Définition
Une chaîne de Markov irréductible et apériodique est dite ergodique.

Obention des classes d’équivalence


L’obtention des classes d’équivalence se fait en calculant la matrice de fer-
meture transitive du graphe associé à la chaîne de Markov. On appelle classe
finale une classe formée d’états récurrents et classe de transition une classe
formée d’états transitoires. Chaque trajectoire entre à un moment donné dans
une classe finale et ne la quitte plus, il y a absorption.
86 CHAPITRE III. CHAÎNES DE MARKOV

III.4 .b Exemple
Considérons un système à quatre états E1 , E2 , E3 , E4 . Les probabilités de
transition d’ordre 1 sont données par la matrice suivante :
 
0.6 0.3 0 0.1
 0.1 0.4 0.5 0 
P =  0.75 0 0.2 0.05 

0 0 0 1

Le graphe associé est :

0.6 0.4
 0.3

89:;
?>=< , ?>=<
89:;
1 dHl H 2
HH
HH 0.1
HH
HH
HH0.75
0.1 HH 0.5
HH
HH
HH
 HH 
89:;
?>=< 0.05 89:;
?>=<
4 o 3
J T
1 0.2

La matrice associée à ce graphe est :


 
1 1 0 1
 1 1 1 0 
M =
 1

0 1 1 
0 0 0 1
La matrice de fermeture transitive est :
 
1 1 1 1
 1 1 1 1 
Γ=  1 1

1 1 
0 0 0 1
Seul l’état E4 est absorbant, les états E1 , E2 , E3 sont transitoires, on n’y passe
jusqu’à ce que l’on arrive à l’état E4 . Il y a deux classes d’équivalence pour la
relation ↔ : la classe {E4 } qui est finale, E4 étant un état récurrent, et la classe
{E1 , E2 , E3 } qui est une classe de transition (formée d’états transitoires).

III.4 .c Théorème 1
Soit (X) une chaîne de Markov irréductible. Une et une seule des assertions
suivantes est vérifiée :
1. Tous les états sont récurrents positifs.
2. Tous les états sont récurrents nuls.
3. Tous les états sont transitoires.
(n) (n)
Notons πi la probabilité que la chaîne soit dans l’état Ei au temps n, πi =
P (Xn = i). On va supposer ici que E est fini de taille N . D’après les propriétés
III.4. PROPRIÉTÉS DES CHAÎNES DE MARKOV 87

des chaînes de Markov, où la présence dans un état donné ne dépend que du


précédent, on déduit que
N

(n) (n−1)
πi = πk pki
k=0

d’après le fait que les événements (Xn−1 = k), k ∈ {0, . . . , N } forment un sys-
tème complet d’événement, en utilisant la formule des probabilités totales et le
fait que P (Xn = i|Xn−1 = k) = pki .
(n) (n) (n)
Appelons πn = (π0 , π1 , . . . , πN ) le vecteur des probabilités d’états à l’ins-
tant n, on a :
πn = πn−1 P = π0 P n .
Dans certains cas, que nous allons voir, π (n) admet une limite quand n → +∞.
On la notera π, elle vérifie l’équation :

π = πP.

III.4 .d Théorème 2
Si X est une chaîne de Markov ergodique, les probabilités limites π =
lim π (n) existent toujours et sont indépendantes de la distribution initiale. Si
n→+∞
tous les états ne sont pas pas récurrents positifs alors π = (0, . . . , 0) et il n’existe
pas de distribution stationnaire. Dans le cas contraire π = (π0 , π1 , . . . , πN ) forme
1
une distribution stationnaire et le temps moyen de retour à l’état Ei est . On
πi
N
a évidemment : πi = 1.
i=0

III.4 .e Exemple
Reprenons l’exemple III.2 .c, il est clair que la chaîne est ergodique et possède
une distribution stationnaire π = (π0 , π1 ).
On obtient les équations :

 π0 + π1 = 1
π0 = 0.75π0 + 0.25π1

π1 = 0.25π0 + 0.75π1

D’où π0 = π1 = 0.5.
88

Exercices du chapitre III

Exercice III.1
La sociologie s’intéresse à la question suivante : dans quelle mesure le statut
social des parents influe sur celui des enfants. On considère pour simplifier trois
classes de population, "pauvre", "moyenne" et "riche" (états E1 , E2 , E3 ), On
a la matrice de transition suivante :
 
0.45 0.48 0.07
P =  0.05 0.7 0.25 
0.01 0.5 0.49

1. Calculer la probabilité de passer de la classe riche à la classe pauvre en


deux générations.
2. Calculer la probabilité de passer de la classe pauvre à la classe riche en
deux générations.
3. Déterminer les probabilités stationnaires.

Exercice III.2
Les vacanciers partent en général, soit à la mer état E1 , soit à la montagne, état
E2 , soit à l’étranger, état E3. La matrice de transition est :
 
0.3 0.1 0.6
P =  0.5 0.3 0.2 
0.2 0.6 0.2

Déterminer le flôt des congés en régime stationnaire.

Exercice III.3
Dans des temps reculés, un tout petit village se compose d’un paysan, d’un
tailleur et d’un charpentier. L’argent n’y a pas cours et il y règne une économie
7 5
de troc. Le paysan utilise 16 de sa production, le charpentier 16 et le tailleur 14 .
3 5
Le tailleur utilise la moitié de sa production, le paysan 16 et le charpentier 16 .
Le charpentier utilise 6 de sa production, le paysan la moitié et le tailleur 13 .
1

Des banquiers de passage veulent introduire l’argent. Pour cela ils estiment en
pourcentage les productions respectives de respectives p1 , p2 et p3 de P, T, et C.

1. Tracer le graphe des échanges de troc.


2. Déterminer p1 , p2 et p3 de telle manière que l’économie de troc ne voit
pas son équilibre brisé.
89

Chapitre IV

Files d’attente

IV.1 Introduction
La théorie des files d’attente a pour but de modéliser les situations qui ré-
pondent au schéma suivant : des clients arrivent à intervalles aléatoires dans
un système comportant un ou plusieurs serveurs auxquels ils vont adresser une
requête. La durée de service est également aléatoire. De nombreux cas de la
vie courante répondent à ce schéma : service dans une banque ou un organisme
public, ateliers d’usinage ou de production, ici les clients sont des ordres de pro-
duction à exécuter et les serveurs des machines, péages autoroutiers etc . . .
Les principales questions que l’on se pose sont :
– quel est le temps moyen avant qu’un client soit servi.
– quel est le nombre moyen de clients dans le système.
– quel est le taux d’utilisation moyen des serveurs.
Dans le cas général il y a de nombreux modèles de description : des systèmes
à serveurs parallèles ou en série, de même les arrivées des clients peuvent être
groupées ou individuelles et de la même façon il peut y avoir différents types de
service.
Les clients forment une ou plusieurs files d’attente, et il y a des règles de sélec-
tion pour le service, c’est ce que l’on appelle la discipline de service la plus
courante étant la discipline FIFO . La capacité du système , c’est à dire le
nombre de clients pouvant être présents dans le système est limitée ou non.
Dans le cadre de ce cours, nous nous bornerons à un seul serveur et arrivées et
services individuels.
Notation de Kendall on note A/B/S (N)une file d’attente où A est le code
de la loi des arrivées, B, celui de la loi des services et S le nombre des guichets
(tous identiques) fonctionnant en parallèle, N désigne le nombre maximal de
clients admis dans le système (infini si l’indication est omise).
Dans le cadre de ce cours, nous intéresserons aux files M/M/1 et M/M/1
(N).
Définitions :

– On appelle file d’attente l’ensemble des clients qui attendent d’être ser-
vis.
90 CHAPITRE IV. FILES D’ATTENTE

– On appelle système d’attente l’ensemble des clients qui font la queue,


y compris ceux ou celui qui est en train d’être servi.

IV.2 Evaluation du système, mesures à long terme


On appellera état du système à l’instant t, le nombre Nt de clients présents
dans le système d’attente. On notera pn (t) la probabilité que n clients soient
présents dans le système à l’instant t i.e. P (Nt = n) et pn = lim pn (t), n ∈ N,
t→+∞
ce sont les probabilités en régime stationnaire, qui signifient que dans le long
terme exactement n clients soient présents dans le système ou qui indiquent la
proportion du temps, en régime stationnaire (avec quelques hypothèses supplé-
mentaires), où le système contient n clients, ce qui ne signifie pas qu’il devient
parfaitement déterministe.
La connaissance de ces probabilités permet de calculer de nombreuses mesures
de performance du système d’attente que l’on étudie. On considèrera en parti-
culier les mesures suivantes :
– Ls : nombre de clients attendu dans le système d’attente (en régime sta-
tionnaire).
– Lq : nombre de clients dans la file d’attente (en régime stationnaire).
– Ws : temps attendu passé par chaque client dans le système (en régime
stationnaire).
– Wq : temps attendu passé par chaque client dans la file d’attente (en régime
stationnaire).

Par définition on a :
+∞

Ls = npn .
n=0

Si le système comporte c serveurs,


+∞

Lq = (n − c)pn .
n=c+1

En effet, il ya (n − c) clients dans la file si et seulement s’il y a n clients dans le


système.

IV.2 .a Lois de Little


Appelons λ le taux d’entrée moyen de clients dans le système d’attente, on
a les formules de Little :

Ls = λWs et Lq = λWq .

La durée moyenne de service par client est : Ws − Wq .


Le nombre moyen de serveurs occupés est : Ls − Lq .
IV.3. FILES D’ATTENTE M/M/1 91

IV.3 Files d’attente M/M/1


Un système M/M/1 est caractérisé par le fait que c’est processus de nais-
sance et de mort, où les paramètres d’arrivée sont : λn = λ, n ∈ N et les
paramètres de sortie : µ0 = 0, µn = µ,n ∈ N∗ . On supposera dans notre cas que
les clients arrivent suivant un processus de Poisson de paramètre λ et que le
temps de service suit une loi exponentielle de paramètre µ.
La signification de ces paramètres est la suivante : λ est le nombre moyen d’ar-
rivées par unité de temps et µ, le nombre moyen de clients pouvant être servis
1
par unité de temps. La durée moyenne d’un service est donc
µ

IV.3 .a Probabilités associées


Pour que le service puisse s’effectuer sans allongement indéfini de la file, il
faut que λ < µ, d’après les résultats vus sur les processus de naissance et de
mort, on a :
 n
λ
pn = p0
µ
+∞

De la condition, pk = 1, on déduit que sous les conditions indiquées, p0 =
k=0
λ
1− et finalement,
µ
 n  
λ λ
pn = 1−
µ µ
λ
Posons ρ = , on obtient, en régime stationnaire,
µ
 ρ

 µ

 W q =

 1−ρ

 ρ2

 Lq = λWq =
1−ρ

 1

 Ws =

 µ−λ



 Ls = λWs =
λ
µ−λ

λ
Posons ρ = .
µ
La probabilité que le serveur soit occupé est :

1 − P (N = 0) = 1 − (1 − ρ) = ρ

La probabilité qu’il y ait plus de n clients dans le système est :



P (N ≥ n) = (1 − ρ) ρk = ρn .
k≥n
92 CHAPITRE IV. FILES D’ATTENTE

IV.3 .b Exemple n◦1


Chez un médecin la durée moyenne d’une consultation est de 15 minutes,
celui-ci prend des rendez-vous toutes les 20 minutes, les clients étant supposés
arriver de manière aléatoire. D’après le modèle que nous utilisons nous avons
3
ici, l’unité de temps étant l’heure, λ = 3 et µ = 4. On obtient Ls = = 3 et
4−3
3 3
Wq = = . Cela signifie que le nombre moyen de clients dans la salle
4(4 − 3) 4
d’attente et dans le cabinet du médecin est de 3 et leur temps moyen d’attente
3
dans la salle d’attente est de d’heure, tandis que le temps moyen passé chez
4
le médecin est de 1 heure.
La probabilité qu’il y ait plus de 4 clients dans le système d’attente est de
3 3
( )4 ≈ 0.316, tandis que le médecin est occupé en moyenne d’heure par
4 4
heure.
On montre que la probabilité que l’attente dans la file soit inférieure à une durée
t est :  
λ
P (Tf ≤ t) = 1 − e−(µ−λ)t
µ
De même la probabilité que le temps passé dans le système d’attente soit infé-
rieur à une durée t est :

P (Ts ≤ t) = 1 − e−(µ−λ)t

Dans l’exemple IV.3 .b, la probabilité d’attendre moins de 20 minutes chez le


3 1
médecin avant la consultation est : 1 − e− 3 ≈ 0.463 et la probabilité de passer
4 1
moins de 20 minutes chez le médecin est 1 − e− 3 ≈ 0.283. La probabilité qu’un
3
patient attende plus d’une heure est P (Tf > 1) = 1 − P (Tf ≤ 1) = e−1 ≈
4
0.276.

IV.4 Files M/M/1 (N)


Dans de nombreux cas le nombre de clients dans le système d’attente est
limité, soit N le nombre maximum de clients admissibles. Dans le système de
naissance et de mort associé, on a maintenant : λn = λ, n ∈ {0, . . . , N −
1}, 0 sinon et de même µn = µ, n ∈ {1, . . . , N }, 0 sinon.
λ
En régime stationnaire, on a donc, en posant ρ = :
µ

1−ρ
p n = ρn , si λ = µ
(1 − ρN +1 )

1
pn = , si λ = µ.
N +1
On obtient
ρ (N + 1)ρN +1
Ls = − si λ = µ.
(1 − ρ) (1 − ρN +1 )
IV.4. FILES M/M/1 (N) 93

et
N
Ls = si λ = µ
2
Lq = Ls − (1 − p0 ).
La probabilité pour que le serveur soit occupé est :

(1 − ρN )
(1 − pn )ρ = ρ .
(1 − ρN +1 )

Ls
Ws =
(λ − pN )
et
Lq
Wq = .
λ(1 − pN )
94

Exercices du chapitre IV

Exercice IV.1
Chez un coiffeur, il entre λ = 5 clients à l’heure, et on sert µ = 6 clients à
l’heure. Des clients attendent en permanence.
1. Quelle est la fraction des clients qui n’aura pas besoin d’attendre?
2. Calculer le nombre moyen de clients dans le système et dans la file.
3. Dans le salon il y a quatre chaises réservées aux clients qui attendent.
Quelle est la probabilté pour qu’un nouveau client demeure debout.
4. Calculez la durée moyenne d’attente dans le salon et dans la file.

Exercice IV.2
Une succursale de banque est ouverte chaque jour ouvrable, de 9h à 17h en
journée continue. Elle accueille en moyenne 64 clients par jour. Il y a un guichet
unique, la durée moyenne de chaque traitement est de deux minutes et demie.
Les clients font la queue dans leur ordre d’arrivée, aucun client n’étant refusé.
On suppose que l’on fonctionne en régime stationnaire.
1. Calculer le temps moyen passé à attendre dans la queue, puis le temps
moyen passé dans la banque.
2. Quelles sont les probabilités pour qu’il n’arrive aucun client entre 15h et
16h? Que 6 clients arrivent entre 16h et 17h?
3. Quelle est, en moyenne et par heure, la durée pendant laquelle l’employé
du guichet ne s’occupe pas des clients?
4. Quelle est la probabilité d’avoir quatre clients dans la file d’attente?
5. Quelle est la probabilité qu’un client passe plus d’un quart d’heure dans
la banque?

On fait maintenant l’hypothèse que la banque ne peut accueillir plus de


cinq clients à la fois, ce qui arrivent en surnombre repartent.
6. Tracer le graphe des transitions associé à ce processus.
7. Déterminer les probabilités de chaque état en régime stationnaire et cal-
culer le nombre moyen de clients refusés par jour ainsi que le temps d’in-
activité de l’employé.
95

Quatrième partie

Eléments de Fiabilité
97

Chapitre I

Présentation

I.1 Introduction
La fiabilité est l’aptitude d’un système, d’un matériel,. . . ) à fonctionner sans
incident pendant un temps donné. Pour l’AFNOR c’est la caractéristique d’un
dispositif, qui s’exprime par une probabilité, pour que celui-ci accomplisse la
fonction requise, dans des conditions déterminées, pendant une période donnée.
Prévoir la fiabilité est essentiel pour des raisons de sécurité (systèmes de freinage,
système avioniques, systèmes nucléaires, systèmes informatiques, . . . ). La quasi-
impossibilité de réparer certains matériels (satellites par exemple), les problèmes
économiques (coûts de défaillances, gestion du personnel de maintenance, main-
tenance des stocks de pièces de rechange, . . . ) rendent nécessaire la connaissance
de la fiabilité des systèmes utilisés. Dans notre cas nous ne considèrerons que
des situations simples.

I.2 Généralités, terminologie


I.2 .a Fonctions de défaillance et de fiabilité
On considère ici un dispositif unique, ou un groupe de dispositifs identiques
de même provenance utilisés dans des conditions semblables, dont les propriétés
sont susceptibles de se modifier au cours du temps. Au bout d’un certain temps
appelé durée de vie , le système cesse de satisfaire aux conditions d’utilisation.

Définitions
On appelle,
1. fiabilité d’un système S la probabilité notée R(t) que le système n’ait
aucune défaillance sur l’intervalle [0, t].
2. maintenabilité d’un système d’un système réparable S et on note M (t)
la probabilité pour que le système soit réparé avant l’instant t sachant qu’il
est défaillant à l’instant 0, on M (t) = 1 − P (S non réparé sur [0, t]).
3. MTTF (mean time to failure), la durée moyenne de bon fonctionnement
d’un système en état de marche à l’instant initial.
98 CHAPITRE I. PRÉSENTATION

4. MTBF (mean time between failure) la moyenne des temps entre deux
défaillances d’un système réparable, en régime stationnaire.
Si l’on appelle T la v.a. mesurant la durée de bon fonctionnement du système,
on a R(t) = P (T > t = 1 − P (T ≤ t). Si T a pour densité f , on a presque
partout, f (t) = −R (t).
La MTTF est alors l’espérance de T si elle existe et on a la relation,
 +∞
M T T F = E(T ) = R(t)dt
0

On introduit le taux instantané de défaillance λ(t), on obtient,

P (t < T ≤ t + ∆t|T > t)


λ(t) = lim
∆t→0 ∆t
On voit que
R (t)
λ(t) = −
R(t)
et donc que   t 
R(t) = exp − λ(u)du .
0

d’où   t 
T (t) = 1 − exp − λ(u)du
0

On constate expérimentalement que dans la plupart des cas la courbe représen-


tative de cette fonction est une courbe en baignoire comportant trois périodes :
1. Période (1) : le taux de défaillance décroît, il correspond à des fautes de
jeunesse.
2. Période (2) : c’est la période de vie utile, le taux reste à peu près constant,
les pannes semblent seulement dues au hasard.
3. Période (3) : le taux d’avarie croît rapidement, les pannes sont dues aux
défauts causés par l’usure.

I.3 Détermination expérimentale


I.3 .a Estimation des fonctions R et T
Sur un intervalle [0, t], une estimation de la fonction R(t est fournie par le
pourcentage des dispositifs n’ayant subi aucune défaillance.

Exemple
On étudie la fiabilité d’un ensemble de pièces mécaniques. On a étudié pour
cela la durée de vie de 9 de ces pièces. Les temps de bon fonctionnement (en
heures) jusqu’à défaillance constatés sont,

N◦ pièce 1 2 3 4 5 6 7 8 9
temps 90 350 950 1660 530 1260 2380 230 720
I.3. DÉTERMINATION EXPÉRIMENTALE 99

Fig. I.1 – Allure de la courbe du taux d’avarie

On estime la valeur de R(t) en prenant le quotient par 9 du nombre de pièces


en état de marche à l’instant t, N (t) étant le nombre de pièces en état de marche
à l’instant t :. On obtient ainsi le tableau suivant :

t 90 230 530 720 950 1260 1660 2380


N (t) 8 7 6 5 4 3 2 1 0
8 7 6 5 4 3 2 1
R(t) 9 9 9 9 9 9 9 9 0

Cette méthode d’estimation est acceptable si le nombre des systèmes mis


en service à l’instant 0 est suffisemment grand. C’est ainsi que l’on adopte les
estimations suivantes pour R(t) :
i
si n > 50 (méthode des rangs bruts)
n
i
si 20 < n ≤ 50 (méthode des rangs moyens)
n+1
(i − 0.3
si n ≤ 20 (méthode des rangs médians)
n + 0.4
Dans l’exemple précédent, on utilise la méthode des rangs médians et on obtient :

i 1 2 3 4 5 6 7 8 9
t 90 230 530 720 950 1260 1660 2380
R(t) 0.93 0.82 0.71 0.61 0.5 0.39 0.28 0.18 0.07
100 CHAPITRE I. PRÉSENTATION

I.4 Principales lois utilisées


I.4 .a La loi exponentielle
Si on considère des systèmes ne présentant pas de phénomènes d’usure (semi-
conducteurs, . . . ) et pour lesquels les défauts de jeunesse sont négligeables, il
faut envisager une loi dont le taux d’avarie est constant, on l’utilise aussi pour
décrire la période de vie utile du système. On a alors λ(t) = λ. On obtient ainsi,
1
R(t) = e−λt , M T T F = E(T ) =
λ
La probabilité pour que le système fonctionne après un temps d’utilisation égal
à la M T T F est R( λ1 = 1e ≈ 0.368 soit environ 36.8%.
En reprenant l’exemple ci-dessus, on peut approximer par une loi exponentielle
1
de paramètre λ ≈ 1660 ≈ 0.00094. On en déduit que la probabilité que la pièce
2000
fonctionne à peu près 2000 heures est exp(− 1060 ) ≈ 0.15.

I.4 .b Loi de Weibull


 
Dans la loi de Weibull W(γ, η, β) la M T T F est égale à ηΓ 1 + β1 . Le
 
calcul pratique se fait grâce à des tables qui donne une valeur A = ηΓ 1 + β1
suivant les valeurs de β. De la même manière on a des tables avec une valeur B
où V (T ) = Bη 2 .
101

Chapitre II

Fiabilité d’un système et de


ses composants

II.1 Système à structure en série


Un système présente une structure en série si la défaillance d’un de ses
composants entraîne celle du système. Il est souvent représenté par le schéma :

C1 C2 C3
Si Ti , i ∈ {1, . . . , n détermine le temps de bon fonctionnement du composant
n◦i, les événements (Ti > t) étant supposés indépendants, on a si T représente
le temps de bon fonctionnement du système,
n

(T > t) = (Ti > t)
i=1

D’où,
n
R(t) = Ri (t)
i=1

II.1 .a Exemple
Un système à structure en série est constitué de n composants Ci indépen-
dants dont la durée de vie Ti suit une loi exponentielle de paramètre λi . Pour
chaque composant, nous avons Ri (t) = exp(λi t) si t ≥ 0, 0 sinon.. La fonction
de fiabilité du système est donc :

R(t) = exp(λ1 t + . . . + λn t) si t ≥ 0, 0 sinon .

On en déduit que le système suit une loi exponentielle de paramètre λ = λ1 +


. . . + λn . On obtient,
1
MT T F = n

λi
i=1
102CHAPITRE II. FIABILITÉ D’UN SYSTÈME ET DE SES COMPOSANTS

II.2 Système à structure parallèle


Un système présente une structure parallèle si l’état de marche d’un seul
de ses composants entraîne celle du système. Le système est défaillant si chacun
de ses composants est défaillant. On le représente par le type de schéma suivant :
C1
 ???
 ??
 ??
 ?
_ _ _• •_ _ _
?? C2

?? 
?? 
?? 

C3
Si le système comporte n éléments en parallèle, on a
n

(T ≤ t) = (Ti ≤ t).
i=1

D’où,
n
R(t) = 1 − (1 − Ri (t)).
i=1

II.2 .a Exemple
Dans un système à structure parallèle de n composants, on suppose que la
durée de vie de chaque composant suit une loi exponentielle de paramètre λ.
Soit T1 la durée d’attente avant que le premier composant ne tombe en panne
et pour i > 1, Ti le temps écoulé entre la mise hors service de l’élément i − 1
et l’élément i (on suppose que l’on ordonné les composants dans l’ordre de leur
défaillance). On a alors,
n
T = Ti .
i=1

Entre la défaillance de l’élément i − 1 et celle du suivant, il reste n − i + 1


appareils que l’on peut traiter comme s’ils étaient en série (puisque l’on at-
tend la défaillance d’un élément quelconque). On en déduit que Ti suit une loi
1
exponentielle de paramètre λi = (n − i + 1)λ et E(Ti ) = . Par suite,
λi

n
1 1
E(T ) = = 1
λ
i=1 i
λ(1 + 2 + . . . + n1 )

II.3 Systèmes à structure mixte


Si le système combine les deux structures précédentes est appelé système à
structure mixte, on peut en général le décomposer en sous-systèmes qui sont
soit en série soit en parallèle.
II.3. SYSTÈMES À STRUCTURE MIXTE 103

II.3 .a Exemple
Soit le système suivant,
C1
 ???
 ??
 ??
 ?
_ _ _• • C3 _ _ _
?? 
?? 
?? 
?? 

C2
Le système est une structure série du composant C3 et du sous-système noté
C1,2 à structure parallèle. La durée de vie de ce sous-système est :

R1,2 = 1 − (1 − R1 (t))(1 − R2 (t)) = R1 (t) + R2 (t) − R1 (t)R2 (t).

Par suite,
R(t) = R3 (t).(R1 (t) + R2 (t) − R1 (t)R2 (t)).
104

Exercices du chapitre II

Exercice II.1
On considère un système S constitué de 5 composants, de fonctions de fiabilité
respectives Ri , suivant le schéma ci-dessous. Déterminer la fonction de fiabilité
R de ce système.
C1 C3 ?
 ??? ??
 ??? ??
 ? ??
 ? ?
_ _ _• • C4 •_ _ _
??  
??  
??  
??  
 
C2 C5

Exercice II.2
La fiabilité d’un type de machine a été ajustée par une loi de Weibull de para-
mètres γ = 40, η = 60 et β = 1.1
1. Déterminer la M T T F et calculer le temps de bon fonctionnement pour
une défaillance admise de 50%.
2. Calculer le taux d’avarie pour les valeurs t = 45, 75, 105, 135 et 165.
105

Cinquième partie

Annexes
107

Annexe A

Eléments de probabilités

A.1 Vocabulaire des probabilités


Expérience aléatoire : une expérience dépendant du hasard. On la décrit
par l’ensemble de ses résultats possibles. Un résultat possible est appelé
éventualité. L’ensemble des éventualités sera nommé Ω qui est l’univers
des possibles.
Evénement aléatoire : tout événement lié à une expérience aléatoire, il est
représenté par le sous-ensemble des éventualités permettent sa réalisation
qui est une partie ou sous-ensemble de Ω donc un élément de P(Ω). Un
événement élémentaire est un singleton ω de P(Ω). Ω est appelé évé-
nement certain . l’événement contraire d’un événement A est le com-
plémentaire dans Ω de A, on le note Ā. Etant donnés deux événement A et
B on note A ou B l’ensemble A ∪ B, événement A et B l’ensemble A ∩ B.
On dit que deux événements A et B sont incompatibles si A ∩ B = ∅.
On dit que l’événement A implique l’événement B si A ⊂ B.
Système complet d’événements : Soit (Ai )i∈I où I est une partie finie ou
dénombrable de N, une famille d’événements non vides de Ω. On dit qu’elle
constitue un système complet d’événements si :
– ∀(i, j) ∈ I 2 , (i = j) => (Ai ∩ Aj = ∅).

– Ai = Ω.
i∈I

A.2 Espaces probabilisés


Soit Omega un ensemble, et B une partie de P(Ω) vérifiant :
– Ω ∈ B.
– ∀A ∈ B, Ā ∈ B
!
– Pour toute famille finie ou dénombrable (Ai )i∈I d’éléments de B, i∈I Ai ∈
B.
On a les propriétés suivantes :
– ∅ ∈ B.
– B est stable par intersection dénombrable.
– ∀A, B ∈ B,A ∩ B̄ ∈ B
108 ANNEXE A. ELÉMENTS DE PROBABILITÉS

– ∀A, B ∈ B,A∆B ∈ B

A.2 .a Définition des probabilités


On appelle probabilité sur l’espace probabilisable (Ω,B) toute application
P de B dans [0, 1] telle que :
1. P (Ω) = 1
2. Pour toute suite (An ) d’événements deux à deux incompatibles de B, on
a,
  +∞

P An = P (An )
n∈N n=0

Le triplet (Ω,B,P ) est alors appelé espace probabilisé.

Propriété :
Si (Ai ]i∈I est un système complet d’événements, P (Ai ) = 1.
i∈I

Définition :
Deux événements A et B sont indépendants si P (A ∩ B) = P (A).P (B).

A.2 .b Probabilités conditionnelles


définition :
Soient deux événements A et B tels que P (A) = 0, on appelle proba-
bilité conditionnelle de B sachant que A est réalisé (ou B sachant A) :

P (A ∩ B)
P (B|A) = .
P (A)

 n (A
Soient i ), i ∈ {1, . . . , n}, n ∈ N une famille de n événements tels que

P Ai = ∅., on a,
i=1
 n


P Ai = P (A1 )P (A2 |A1 ) . . . P (An |A1 ∩ . . . ∩ An−1 ).
i=1

Si (Ai )i∈I est un système complet d’événements de probabilités non nulles, on


a la formule des probabilités totales
Pour tout événement B,

P (B) = P (B|Ai )P (Ai ).
i∈I

De la même façon, on obtient la formule de Bayes :


 n 
 P (B|Ak )P (Ak )
P Ai P (Ak |B) = " .
i=1 i∈I P (B|Ai )P (Ai )
A.3. VARIABLES ALÉATOIRES 109

A.3 Variables aléatoires


A.3 .a Définitions
1. On appelle, de façon générale, variable aléatoire réelle (v.a.r. ou v.a.
dans la suite) sur l’espace probabilisé (Ω, B, P ) toute application X de Ω
dans R telle que pour tout intervalle I de R, X −1 (I) ∈ B où X −1 (I) =
{ω ∈ Ω|X(ω) ∈ I}. On aura par définition, P (X(ω) ∈ I) = P (X −1 (I)).
que l’on notera désormais, P (X ∈ I)

2. On appelle fonction de répartition de la v.a. x l’application de Rdans


[0, 1] définie par x → P (X ≤ x).

A.3 .b Variables aléatoires discrètes


On dira que X est une v.a. discrète si X(Ω) est fini ou dénombrable. Soit
{x1 , x2 , . . . , xn , . . .} les valeurs prises la v.a.
On appellera loi de v.a. discrète X, l’ensemble des couples (xi , P (X = xi )).

Définitions
1. On appelle espérance de X la quantité :

E(X) = xi P (X = xi )
i∈I

Elle existe sous réserve de convergence de cette série.


2. On appelle variance de X la quantité

V (X) = (xi − E(X))2 P (X = xi )
i∈I

sous réserve de convergence. On a, V (X) = E(X 2 ) − E(X)2 .


3. Si la variance existe, on définit l’écart-type de X,
#
σ(X) = V (X).

4. Si X admet une espérance et une variance, on définit la variable centrée


réduite
X − E(X)
X∗ = .
σ(X)

A.3 .c Variables aléatoires continues


Définitions
1. Si f est une fonction rélle d’une variable réelle, on dit que f est une
densité de probabilité si :
– f est une fonction à valeurs réelles positives.
– f est continue sur R (sauf éventuellement en un nombre fini de va-
leurs).
110 ANNEXE A. ELÉMENTS DE PROBABILITÉS
 +∞
– f (t)dt = 1.
−∞
2. Soit X une variable à densité f , on définit :
 x
F (x) = P (X ≤ x) = f (t)dt.
−∞

F est continue sur R et et dérivable sauf éventuellement en un nombre


fini de points. De plus F est croissante et à valeurs dans [0, 1]. De plus
lim F (x) = 0 et lim F (x) = 1
x→−∞ x→+∞
Si a et b sont deux réels, on a P (a < X ≤ b) = F (b) − F (a).
3. Si X est une variable à densité f et sous réserve de convergence, on a
 +∞
– E(X) = tf (t)dt.
−∞
+∞
– V (X) = (t − E(X))2 f (t)dt
−∞

A.4 Lois usuelles


A.4 .a Loi binômiale
La loi binômiale notée B(n, p) où n ∈ N, p ∈]0, 1[ est définie par :
P (X = k) = Cnk pk (1 − p)n−k , k{0, . . . , n}.
On a E(X) = np et V (X) = np(1 − p).

A.4 .b Loi de Poisson


Soit λ un réel strictement positif, la loi de Poisson est définie par
λk
P (X = k) = e−λ .
k!
On a E(X) = λ et V (X) = λ.

A.4 .c Loi géométrique


Soit p ∈]0, 1[, et q = 1−p, une variable aléatoire X suit une loi géométrique
de paramètre p, si
P (X = k) = q k p, k ∈ N.
q q
On a E(X) = et V (X) = 2 .
p p

A.4 .d Loi uniforme


X suit une loi uniforme sur un intervalle [a, b] de R, notée U[,] si sa
1 ¯
densité f est définie par f (t) = si t ∈ [a, b], 0 sinon. On a
b−a
 x−a

 si x ∈ [a, b]
b−a
F (x) = 0 si x ≤ a


1 si x > b
A.4. LOIS USUELLES 111

a+b (b − a)2
E(X) = et V (X) = .
2 12

A.4 .e Loi exponentielle


X suit une loi exponentielle de paramètre λ, notée E(λ) si sa densité est

λe−λx si x ≥ 0
f (x) =
0 si x < 0

1 1
On a, On obtient, E(X) = et V (X) = 2 .
λ λ

A.4 .f Loi de Weibull


X suit une loi de Weibull de paramètres γ, η, β, notée W(γ, η, β). si,
  β−1   β 

 β x−γ x−γ
. exp − si x ≥ γ
f (x) = η η η


0 si x < γ

On obtient,
   β 

 x−γ
1 − exp − si x ≥ γ
F (x) = η


0 si x < γ
   +∞
1
E(X) = ηΓ 1 + où Γ(x) = e−t tx−1 dt.
β 0

A.4 .g Exemple
Soit T une v.a. de distribution géométrique, m et k deux entiers, on a P (T =
m + k|T ≥ m) = P (T = k). (à démontrer) La distribution géométrique est sans
mémoire, ce qui veut dire ici que le nombre d’essais entre deux succès ne dépend
pas du nombre d’essais qui précèdent (propriété de Markov).
De la même manière, si X suit une loi exponentielle de paramètre λ,

e−λ(t+h)
P (X > t + h|X > t) = = e−λh = P (X > h), t, h > 0.
e−λt
Si X représente le temps d’attente avant qu’un événement particulier ne se
produise, et que t unités de temps n’ont produit aucun événement, alors la
distribution avant qu’un événement ne se produise à partir de la date t est
la même que si aucun temps ne s’était écoulé. Là aussi le processus est sans
mémoire.
112 ANNEXE A. ELÉMENTS DE PROBABILITÉS

Fig. A.1 – Quelques densités de la loi de Weibull (η = 1, γ = 0, β =


0.3, 0.6, 1, 1.5, 2, 3.)
113

Annexe B

TABLES

B.1 Table de la loi de Poisson

λk −λ
P (X = k) = e E(X) = V (X) = λ
k!

k↓λ→ 0.2 0.3 0.4 0.5 0.6 1 1.5 2 3 4 5


0 0.8187 0.7408 0.6703 0.6065 0.5488 0.368 0.223 0.135 0.0498 0.018 0.007
1 0.1637 0.2222 0.2681 0.3032 0.3293 0.368 0.335 0.271 0.149 0.073 0.034
2 0.0163 0.0333 0.0536 0.0758 0.0988 0.184 0.251 0.271 0.224 0.147 0.084
3 0.0011 0.0033 0.0536 0.0758 0.09988 0.061 0.126 0.180 0.224 0.195 0.140
4 0.000 0.0002 0.0007 0.0015 0.003 0.015 0.047 0.090 0.168 0.195 0.176
5 0.000 0.000 0.0001 0.0001 0.0003 0.003 0.014 0.036 0.101 0.156 0.176
114 ANNEXE B. TABLES

B.2 TABLE DE LA LOI DE WEIBULL


Tableau des coefficients nécessaires aux calculs de E(X))Aη+γ et de σ(X) =
Bη.

β A B β A B β A B β A B
0.20 120 1901 1.3 0.924 0.716 2.8 0.891 0.344 5 0.918 0.210
0.25 24 199 1.35 0.917 0.687 2.9 0.892 0.334 5.1 0.919 0.207
0.30 9.261 50.08 1.40 0.911 0.660 3 0.893 0.325 5.2 0.920 0.203
0.35 5.0291 19.98 1.45 0.907 0.635 3.1 0.894 0.316 5.3 0.921 0.200
0.40 3.323 10.44 1.5 0.903 0.613 3.2 0.896 0.307 5.4 0.922 0.197
0.45 2.479 6.46 1.55 0.899 0.593 3.3 0.897 0.299 5.5 0.923 0.194
0.50 2 4.47 1.6 0.897 0.574 3.4 0.898 0.292 5.6 0.924 0.191
0.55 1.702 3.35 1.65 0.894 0.556 3.5 0.900 0.285 5.7 0.925 0.188
0.60 1.505 2.65 1.7 0.892 0.540 3.6 0.901 0.278 5.8 0.926 0.185
0.65 1.366 2.18 1.75 0.8906 0.525 3.7 0.9025 0.272 5.9 0.927 0.183
0.70 1.264 1.85 1.8 0.889 0.511 3.8 0.904 0.266 6 0928 0.180
0.75 1.191 1.61 1.85 0.888 0.498 3.9 0.905 0.260 6.1 0.929 0.177
0.80 1.133 1.43 1.9 0.887 0.486 4 0.906 0.254 6.2 0.929 0.175
0.85 1.088 1.29 1.95 0.887 0.474 4.1 0.908 0.249 6.3 0.930 0.172
0.90 1.052 1.17 2 0.886 0.463 4.2 0.909 0.244 6.4 0.931 0.170
0.95 1.023 1.08 2.1 0.886 0.443 4.3 0.910 0.239 6.5 0.9318 0.168
1 1 1 2.2 0.8856 0.425 4.4 0.911 0.235 6.6 0.9325 0.166
1.05 0.960 0.934 2.3 0.886 0.409 4.5 0.913 0.230 6.7 0.933 0.163
1.1 0.965 0.878 2.4 0.887 0.393 4.6 0.914 0.226 6.8 0.934 0.161
1.15 0.952 0.830 2.5 0.887 0.380 4.7 0.915 0.222 6.9 0.935 1.160
1.20 0.941 0.787 2.6 0.888 0.367 4.8 0.916 0.218
1.25 0.931 0.750 2.7 0.889 0.716 4.9 0.971 0.214
115

Annexe C

conclusion

J’ai eu beaucoup de plaisir à écrire ce modeste manuel qui j’espère aidera


les étudiants qui ont le courage de reprendre le chemin des études après bien
souvent une dure journée de labeur. Je leur exprime toute mon admiration et
leur souhaite bon courage.
Richard Loustau
Index

adjacence, 4 équations d’équilibre, 79


algorithme de Dijkstra, 17 équations de Chapman-Kolmogorov,
algorithme de Floyd, 19 84
algorithme de Ford, 16 équation de normalisation, 79
algorithme du simplexe, 51 espace des décisions, 40
arcs, 3 espace des états, 71
arêtes, 4 espace probabilisé, 108
espérance d’une v.a. discrète, 109
boucle, 3 état absorbant, 85
états communicants, 85
capacité du système, 89
état du système, 90
chaîne apériodique, 85
état périodique, 85
chaîne de Markov, 83
état récurrent, 85
chaîne de Markov ergodique, 85
état transitoire, 85
chaîne irréductible, 85
éventualité, 107
chaînes, 4
événement aléatoire, 107
chemin critique, 16
événement certain, 107
chemin élémentaire, 5
événement contraire, 107
chemin hamiltonien, 5
événement élémentaire, 107
chemin simple, 5
événements incompatibles, 107
chemins, 4
expérience aléatoire, 107
circuit, 5
extrémité finale, 3
classe de transition, 85
extrémité initiale, 3
classe finale, 85
composantes connexes, 9
fermeture transitive, 7
composantes fortement connexes, 9
fiabilité d’un système, 97
concaténation, 5
file d’attente, 89
contraintes de positivité, 36
fonction aléatoire, 71
coût réduit, 63
fonction de répartition, 109
cycle, 5
fonction économique, 35
degré, 5 formes canoniques, 36
degrés, 5 formule de Bayes, 108
demi-degré extérieur, 5 formule des probabilités totales, 108
demi-degré intérieur, 5 formules de Little, 90
densité de probabilité, 109
discipline de service, 89 graphe orienté, 3
domaine réalisable, 40 graphe partiel, 4
dual, 58 graphe réflexif, 4
durée de vie, 97 graphe symétrique, 4
graphe transitif, 4
écart-type, 109 1-graphes, 3
INDEX 117

intervalle de stabilité, 64 suite stochastique, 71


système complet d’événements, 107
loi binômiale, 110 système d’attente, 90
loi de Poisson, 110 système M/M/1, 91
loi de Weibull, 111
loi exponentielle, 111 trajectoire, 71
loi géométrique, 110
loi uniforme, 110 variable aléatoire réelle, 109
variable centrée réduite, 109
maintenabilité d’un système, 97 variable d’écart, 36
matrice d’adjacence, 5 variables artificielles, 53
matrice d’incidence, 6 variables de base, 38
matrice stochastique, 84 variables de décision, 36
MPM, 25 variables en base, 38
MTBF, 98 variables hors base, 38
MTTF, 97 variables structurelles, 36
méthode des rangs bruts, 99 variance d’une v.a. discrète, 109
méthode des rangs moyens, 99
méthode des rangs médians, 99
méthode en 2 phases, 53
méthode en deux phases, 53

notation de Kendall, 89

PERT, 25
pivot, 48
points extrêmes, 40
polyèdre convexe, 40
primal, 58
probabilité, 108
probabilité conditionnelle, 108
probabilités de transition, 83
processus de Markov, 83
processus de naissance et de mort,
77
processus de Poisson, 73
processus stochastique, 71

relation binaire, 3
Roy-Warshall, 8
régime stationnaire, 79

solution de base, 38
solution de base réalisable, 38
solution optimale, 38
solution réalisable, 38
sommets, 3
sous-graphe, 4
structure en série, 101
structure mixte, 102
structure parallèle, 102

Vous aimerez peut-être aussi