Vous êtes sur la page 1sur 26

\documentclass[a4paper,12pt]{book}

\usepackage[utf8]{inputenc}
\usepackage[french]{babel}
\usepackage[T1]{fontenc}
\usepackage{amsmath,amsfonts,amssymb}
\usepackage{graphicx}
\usepackage{color}
\usepackage{fontenc}
\usepackage{amsmath}
\usepackage{contour}
\usepackage{amsmath,amsfonts,amssymb}
\newtheorem{theo}{Théorème}[section]
\newtheorem{prop}{Proposition}[section]
\newtheorem{defi}{Définition}[section]
\newtheorem{exe}{Exemple}[section]
\newtheorem{rema}{Remarque}[section]
\newtheorem{coro}{Corollaire}[section]
\newtheorem{prv}{Preuve}[section]
\newtheorem{pp}{Propriétés}[section]
%------------------------------------------------
\begin{document}
\pagestyle{plain}
%---------------------------------------------------------
\begin{titlepage}
\parindent=0pt
Département des mathématiques \hspace*{\stretch{1}} LST Option mathématiques
appliquées
\vspace*{\stretch{1}}
\begin{center}

\end{center}
\begin{center}
\begin{LARGE}
\textbf{Projet de Fin d'Etudes \\
}
\end{LARGE}
\begin{large}
\textbf{Intitulé :}
\end{large}
\end{center}
\vspace*{\stretch{1}}
\hrulefill
\begin{center}\bfseries\Huge
\textcolor{blue}
{Optimisation linéaire et Dualité : analyse post-optimal}
\end{center}
\hrulefill
\vspace*{1cm}
\begin{flushleft}\bfseries\large
\textcolor{blue}{ Préparé par}: ~~ ~~ ~~ ~~ ~~ ~~~~~~~~~~~~~~~\textcolor{blue}
{ Encadré par} :\\
$\bullet$ Oumbark$ $ Abdelwahed ~~ ~~ ~~ ~~~~~~ Mr.Hajjar Moha\\
$\bullet$ Chakir$ $ El $ $Habib \\
$\bullet$ Annaoua$ $ Fatima
\end{flushleft}
\begin{center}\begin{large}
\textbf{Soutenu le **/**/2019 devant le jury :\\
-Prof.****\\
-Prof.****\\
-Prof.Hajar Moha}
\end{large}

\end{center}
~~\\
\begin{flushright}
\textbf{Année Universitaire: 2018/2019}
\end{flushright}
\end{titlepage}
%-----------------------------------------------------------
\newpage
\begin{center}
\begin{LARGE}
\textbf{Remerciement}
\end{LARGE}
\end{center}
~~\\
Avant d'entamer ce rapport, nous profitons de l'occasion pour
remercier toutes les personnes qui ont contribué de près ou de loin à la
réalisation de ce projet de fin d'études.
~~\\
~~Nos vifs remerciement à notre grand et respectueux professeur,Monsieur MOHA
HAJJAR
qui n'a pas cessé de nous encourager pendant la durée du
projet, ainsi pour sa générosité en matière de formation et
d'encadrement. Nous le remercions également pour son aide,ses
conseils,ses remarques pertinentes,et la confiance qu'il nous
a témoigné.~~\\
~~Nous tenons à remercier aussi Prof.**** et Prof.**** de nous avoir honoré en
acceptant de juger notre travail.Veuillez trouver ici le témoignage de notre
respect le plus profond\\
Nos remerciements vont aussi à nos professeurs et enseignants de nous avoir incités
à
travailler en mettant à notre disposition leurs expériences et leurs
compétences.
\tableofcontents
\newpage
\date{~~}
~~\\
\begin{center}
\begin{huge}
\textbf{Introduction\\
}
\end{huge}
\end{center} ~~\\
~~\\
La recherche operationnelle(RO) est la discipline des mathèmatique appliquées qui
traite des questions d'utilisation optimale des ressources dans l'industrie et dans
le secteur public . Le champ d'application de la RO s'est élangi á des domaines
comme l'economie, la finonce, le macreting et la planification d'entrepise. plus
récemment , la RO á ètè utiliseé
pour la gestion des systémes de santé et d'èducation, pour la rèsolution de
problémes environnementaux et dans d'autres domaines d'intérêt public .\\

A nos jours la recherche opérationnelle comprend un grand nombre de disciplines


comme l'optimisation linéaire ,l'optimisation non linéaire ,la théorie des graphes
cte...\\
Nombreux sont les problemes de la RO qui peuvant étre exprimés comme des problémes
de programmation mathématique , permettant de chercher l'optimum d'une fonction de
plusieurs variables lieés par des containtes sous forme d'egalités ou d'inégalités.
ici nous nous penchons sur les problèmes linèaires ,c'est-a-dire les problémes ou
la fonction á optimiser et les containtes sont linéaires. \\\\
\chapter{ Introduction générale á l'optimisation }

\section{Définition de l'optimisation }
l'optimisation est une branche des mathématique dans la pratique on part d'un
probléme concert , on le modelése et on le résoud mathématique (analytiquement :
probléme d'optimisation , numériquement : programme mathématique ) .\\
L'optimisation joue un rôle impotant en RO (domaine á la Frontiére entre
l'informatique , les mathématique et l'èconomie ) . dans les mathématique
appliquèes (Fondamentales pour l'indusitrien et l'ingénierie ) en analyse et en
analyse numérique , en statistique pour l'estimation du maximum de varisemblance
d'une distribution , pour la recherche de strategies dans le cadre de la théorie
des jeux , ou encore en thérie du contrôle de commande \\

\section{ Formulisation d'un probléme d'optimisation}

\textcolor{blue}{La modulisation } :

l'optimisation repose toujours sur des modeles mathématique mais ces modeles sont
rarement des modules physique comlexes ils sont généralement simples et
partiels .\\
La modulisation designe la traduction des problémes réels en èquations mathématique
. Elle consiste en trois étapes :

\subsubsection{Identification des inconnues (variable de décision) : }


\hspace*{0,3cm}• elle caractérisent les décisions a prendre . \\
\hspace*{0,75cm} •elle doivent etre liees aux données jugées pertinentes du
probléme .\\
\subsubsection{ Définition d'un Fonction Objectif : }
(appelles fonction coût ou fonction économique ) traduisant les préférences du
décideur exprimées sous la forme d'une fonction des variable identifées .\\
\subsubsection{ Déscription des contraintes : }
les objets mathématique qui lient les variables entre elles et qui les lient aux
données du probléme .\\
Elles sont de trois types : contraintes égalités , contraintes inégalités et
contraintes de signes .\\
\section{Quelques Définition}
\textcolor{red}{Minimisation :} plus formellement , l'optimisation est l'etude des
problémes qui s'expriment de la maniére suivant :\\
Probléme d'optimisation(P)\\
Etatnt donné une fonction f:E $\rightarrow \Re $
définie sur un ensemble E á valeurs dans l'ensemble des nombres réels
(éventuellement dans la droite âchevée ) , trouvre en élément unique
x* de E tel que $f(x*)\leq f(x) $ pour tout les x dans E . on dit que l'on cherche
á minimiser la fonction f sur E .\\
\\
\textcolor{red}{Maximisation :} le probléme (P) est un probléme de minimisation
comme on a $ sup{f(x)} = -inf{f(x)} $ , L'ensemble E est appelé l'ensemble
admissible : ensemble des points vérifiant les contraintes.\\
La fonction $f$ est la fonction objectif .\\
x est la variable du probléme .\\
x* est appelée solution du probléme , (il n'ya pas forcement unicité) .\\
\\
\textcolor{red}{Ensemble admissible :} L'ensemble admissible E définit sous la
forme suivante (á variable positive) :\\
E = $ \lbrace$ x $\in$ $\Re^n$ \ /
$ g_i(x)=b_i$ ,$ $ $ $ i=1,...,p \\
, $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $
$ $ $ $ $ $ g_i(x) \leq b_j $ ,$ $ $ $ j=p+1,...,m $ $ $ $ $ $ $ $ / x
$\geq$0 $\rbrace$ \\

$g_i$ : $\Re^n \mapsto \Re , $ $ $ $ i=1,...,m$

\section{Probléme Générale d'optimisation }


Un probléme d'optimisation est mis sous la forme suivante : \\
\begin{center}
(P):
$
\begin{cases}
Fonction $ $ objectif : min $ $ ou$ $ max $ $ de$ $ f(x) \\
Contarintes : g_i(x)=b_i ,$ $ $ $ i=1,...,p \\
$ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $
g_i(x) \leq b_j ,$ $ $ $ j=p+1,...,m \\

Contraintes $ $ de $ $ signe : x_i ~~ (


~ \geq ~ , ~ \leq ~ , ~ \lessgtr ~ ) ~ 0 ,$ $ $ $ i=1,...,n \\
\end{cases}$
\end{center}
Ce probléme admet une solution optimale , oú la fonction objectif atteint la
meilleure valeur (maximum oú minimum ) tel que\\$x \in E$ /
$f(x^*)=min_{x \in E} ~{f(x)} $ oú $ f(x^*)=max_{x \in E} ~ f(x)$

\begin{exe}
Un restaurateur peut offrir deux type d'assiette , des assiettes qui coûtent 80 dh
et qui contient 5 Sardines , 2 Merlan , 1Rougets , et des assiettes qui coute 120dh
et qui contient ,3 Sardines , 3 Merlan et 3 Rougets , sachant que le restaurateur
dispose 30 Sardines , 24 Merlan et 18 Rougets .\\
Donner le Modêle mathématique qui permet de maximiniser le profit .\\
Les données du problème se traduit sous forme de tableaux suivant :\\
\\
\begin{tabular}{ |c|c|c|c|}
\hline
& Plot 1 &Plot 2 &contraibtes \tabularnewline
\hline
sardine &5 &3 &3O \tabularnewline
\hline
Merlant &2 &3 &24\tabularnewline
\hline
rouget &1 &3 &18\tabularnewline
\hline
Cout &80DH &12ODH &\tabularnewline
\hline
\end{tabular}
\\
\\
$ \ast $ Les inconnues du problème : \\
$ x_1 $ : Nombre de plot 1 $ \geq 0 $ \\
$ x_2 $ : Nombre de plot 2 $ \geq 0 $ \\
$ \ast $ Fonction objectif (ou bien fonction bénèfice) : \\
$[Max]$ = $ 80x_1 + 120x_2 $ \\
$ \ $ Les contraintes :
$\begin{cases}

5x_1+3x_2 \leq 30 \\
2x_1+2x_2 \leq 24 \\
x_1+3x_2 \leq 18 \\
\end{cases}$
\end{exe}
\newpage

\chapter{ Optimisation Linéaire}


\section{Introduction }

La programmation linéaire constitue l'origine de l'optimisation mathématique


modérne . son étude á été menée par George Bernard Dantzig á partir de 1947 .\\
L'algorithme du simplexe , que nous présentons dans ce chapitre , est considéré
comme un des dix algorithmes les plus importants du $ 20 $ éme siécle c'est la
premiére fois qu'un problème avec contraintes d'inègalité á été résolu.\\
Dans ce chapitre , nous abordons d'étude direct de probléme.des problémes de
minimisation de fonction linéaire dans un domaine défini par des contraites
linèaires . par une suite d'observations de nature gèométrique ou encore âlgébrique
nous déduisons les conditions d'optimalité de la programation linéaire .
\\

\section{Généralites}

\subsection{définition d'un programme linéaire :}


Un programme linéaire c'est un ensemble de $ n $ variable reèlls $ x_1 $ ,..., $
x_n $ , et $ m $ contraintes $\sum^n_{j=1} a_{i,j} x_j ~(\leq , \geq , = )~~b_i $
pour $ i=1,...,m $ \\
et une fonction d'optimisation : \\
$ f : \Re^n \rightarrow\Re $ \\
X=($x_1$,...,$x_n $) $\rightarrow$ f($x_1$,...,$x_n $)= $\sum a_ij x_j $ \\
Ce programme s'écrit sous la forme mathématique suivante : \\
\begin{center}

$
\begin{cases}
Max~(Min)~~ z= \sum c_j x_j \\
s/c $ $ $ $ \sum a_{i,j} x_j~(\leq,=,\geq )~b_i $ $ $ $ $ $ i=1,....,m \\
$ $ $ $ $ $ $ $ $ $ $ $ x_j~ (\leq~,\geq~,\lessgtr ~ )~ 0 ~~~~~~~~ j=1,....,n
\end{cases}$
\end{center}
ou la forme matricielle : \\\begin{center}

$
\begin{cases}
Max~(Min)~~ c^jX \\
s/c $ $ $ $ AX~(\leq,=,\geq )~b_i $ $ $ $ $ $ \\
$ $ $ $ $ $ $ $ $ $ $ $ X~ (\leq~,\geq~,\lessgtr~)~ 0
\end{cases}$
\end{center}
ou :\\
$\hookrightarrow$ x=
$
\begin{pmatrix}
x_1 \\
. \\
. \\
.\\
x_n\\
\end{pmatrix}
$
matrice unicolonne des variables .\\
$\hookrightarrow$A=
$
\begin{pmatrix}
a_{ij} \\
\end{pmatrix}
$ , i=1,...,n \\
\hspace*{2.4 cm} j=1,...,n , Matrice des contraintes $ A \in M_{m,n}(\Re) $ .\\
$\hookrightarrow$ b=
$
\begin{pmatrix}
b_1 \\
. \\
. \\
.\\
b_m\\
\end{pmatrix}
$ Matrice de seconde membres .\\
$\hookrightarrow$ c=
$
\begin{pmatrix}
c_1 \\
. \\
. \\
.\\
c_n\\
\end{pmatrix}
$ Matrice de coût . \\

\subsection{ Forme d'un Programme Linéaire (PL) :}


\textcolor{blue}{forme canonique} :
\\un programme linéaire est sous forme canonique lorsque toutes ses contraintes
sont inegalités et toute ses variables sont non-négative .
mathematiquement la forme canonique s'ecrit comme suit : \\
\begin{center}
(P):
$
\begin{cases}
min (z= \sum_{j=1}^n c_j x_j) \\
s/c $ $ $ $ \sum a_{i,j} x_j \leq b_i $ $ $ $
i=1,..,m \\
$ $ $ $ $ $ $ $ $ $ $ $ x_j \geq 0 $ $ $ $ j=1,...,n
\end{cases}
$
\end{center}
\textcolor{blue} {forme standard} :\\
Un programme linéaire est sous la forme standard lorsque toutes ses contraintes
sont des égalités et toutes ses variables sont non- négatives:\\
\begin{center}
(P):
$
\begin{cases}
Max (z= \sum _{j=1}^n c_j x_j) \\
s/c $ $ $ $ \sum a_{i,j} x_j=b_i $ $ $ $ $ $ i=1,....,m \\
$ $ $ $ $ $ $ $ $ $ $ $ x_j \geq 0 j=1,....,n
\end{cases}
$
\end{center}
\textcolor{red}{NB } :
''Il est toujors possible revenire á la forme standard''.
\begin{rema}
$\bullet$ si l'objectif est de minimiser $f$ , il suffit de maximiser
$-f $ \\
$ Max f(x)= -min (-f(x))$ \\
$\bullet$ Une contraintes égalité peut ètres remlacés par deux contraintes
inégalites :
\begin{center}
$ \alpha
= \beta
\begin{cases}
\alpha \leq \beta \\
et \\
\alpha \geq \beta

\end{cases}
$

\end{center}
$\bullet$ Un contraite $\geq$ peut être remlacés par une contraintes $\leq$\\
$\bullet$ On considére les signes des variables $ x_1,...,x_n $ : \\
\hspace*{1 cm} $ \hookrightarrow $ si $ x_i \leq 0 $ on a $ x_i^{~}=-x_i \geq 0
$ .
\\
\hspace*{1 cm} $ \hookrightarrow $ si $ x_i \in \Re $ on dècompose : $ x_i = x_i^+
- x_i^- $ avec $x_i^+,x_i^- \geq 0 $ .\\
$\bullet$ $ \alpha \leq \beta \Leftrightarrow \alpha + \gamma = \beta $ avec
$ \gamma \geq 0 $ appelé $ \underline{variable ~~ d'ecart} $ \\
$ $ $ $ De meme si $ \alpha\geq \beta $ $ \Leftrightarrow $
$\alpha-\gamma=\beta $ avec $ \gamma\geq 0 $
\end{rema}
\begin{rema}
Pour tout modèle d'optimisation linéaire , une seuls des trois optims suivantes
peut suvenir : \\
$ 1) $ Il existe au moins ume solution optimale , soit une infinité.\\
$ 2) $ Le problème est non-réailisable : Il n'est pas possible de satisfaire toutes
les contraintes , (i.e Le polyédre formé par les contraintes est vide ) .\\
$ 3) $ Le problème est non-borné : Il n'a pas de valeur optimale finie .
\end{rema}
\section{La Rèsolution d'un Problème Linéaire}

\subsection{ La Rèsolution graphique :}


Considérons la forme canonique (P) de l'espace admissible E.\\
E= $ \lbrace $ $ x \in \Re^n / AX \leq b $ $ $ $ $ $ $ $ X \geq 0 $ $ \rbrace $
\\
E= $ \lbrace $ $ x \in \Re^n / a_{i,1}x_1+a_{i,2}x_2+...+a_{i,n}x_n \leq b_i $ $
$ $ $ $ i=1,...,m $ $ \rbrace $ \\
Une contraintes de type $ a_{i,1}x_1+a_{i,2}x_2+...+a_{i,n}x_n \leq b_i $
donne :\\
$ \hookrightarrow $ L'ensemble des points qui satisfont l'equation $ \sum _ {j=1}^n
a_{i,j} x_j = b_i $ forme un hyperplan de $ \Re^n $ .\\
$ \hookrightarrow $ Les points qui satisfont une inégalité linéaire forme un demi-
espace .\\

\begin{rema}
l'ensemble admissible est l'intersection d'un nombre fini de demi-espace.
\end{rema}
\begin{defi}
$\bullet $ L'ensemble admissible E d'un PPL est polytope de $ \Re^n $ un polytope
borné de $ \Re^n $ est appelé polyédre .\\
\includegraphics[scale=0.5]{poly 1.png}

$\bullet $ soit E un polyédre de $ \Re^n $ ( E $ \neq $ $ \phi $ ) x $ \in $ E


est appelé \underline{sommet} de E \\ si
$ \forall $ A,B $ \in $ E , $ x \in [AB] $ $ \Rightarrow $ $ X =A $ ou $ X=B
$ \\
\hspace*{0.4 cm} $\bullet $ soit $ f $ : $ \Re^n $ $ \rightarrow $ $ \Re $, et soit
$ \alpha $ $ \in $ $ \Re $ :
L'ensemble $ \lbrace $ x $ \in $ $ \Re^n $/ $ f (x)$= $ \alpha $ $ \rbrace $ =
$D_\alpha$ est appelé
un \underline{isovaleure } de $ f $

cette méthode de résolution n'est applicable que dans le cas ou il n'y a que deux
variables .\\
On considére dans cette partie un probléme linéaire dans $ \Re^2 $ sous la forme:
\\

$ \begin{cases}

min f(x,y)= c_1 x +c_2 y \\


$ $ $ $ $ $ $ $ $ $ $ $ $ $ s/c :~~~ a_{1,1}x +a_{1,2}y \leq b_1 \\
$ $ $ $ $ $ $ $ $ $ $ $ $ $ ~~~~~~~a_{m,1}x + a_{m,2}y \leq b_m ~~~~~~~~ ; $ m
contraintes de type $ \leq \\
~~~~~~~~~~~~~~~~~ x,y \geq 0 \\
\end{cases} $ \\
\begin{center}
E = $ \lbrace $ (x,y) $ \in \Re_2 $ / $ \begin{cases}
a_{1,1}x + a_{1,2}y \leq b_1 \\
a_{m,1}x + a_{m,2}y \leq b_2 ~~\\
\end{cases} $
$ \rbrace $
\end{center}
est une intersection de demi-espaces limités des droites .\\
La resolution graphique d'un PL passe par les étapes suivantes : \\
\hspace*{0.4 cm} $ \hookrightarrow $ tracer les contraintes du probléme .\\
\hspace*{0.4 cm} $ \hookrightarrow $ déterminer la région réalisable
(admissible) á partir des contraintes . \\
\hspace*{0.4 cm} $ \hookrightarrow $ tracer les droites de variation de la
fonction objectif(isovaleurs) et déterminer la solution optimale .
\end{defi}
\begin{exe}

Considerons le PPL \\
\begin{center}
$ \begin{cases}
Maximiser ~Z= 3x_1 + 5x_2 \\
$ $ $ $ $ $ $ $ $ $ s/c: ~~~ x_1~~~~ ~~~~~~ \leq 4 \\
$ $ $ $ $ $ $ $ $ $ ~~~~ ~~~~~~ ~~~~~~~~2x_2 \leq 12 \\
$ $ $ $ $ $ $ $ $ $ ~~~~~~~~~~ 3x_1 + 2x_2 \leq 18 \\
$ $ $ $ $ $ $ $ $ $~~~~~~~~~~ ~~~~ x_1 ,x_2 \geq 0
\end{cases} $
\end{center}
\includegraphics[scale=0.5]{65491208_1314597188695352_1517944921053462528_n.jpg}

\begin{center}
Figure 1.1 :Résolution graphique
\end{center}

l'optimum de la fonction objectif est atteint au point de coordonnées~


$x^*$=(2,6).\\
la valeur maximal de $Z$ est $Z^*$ =36

\end{exe}

\subsection{Rèsolution par la méthode du simlexe :}


$ \underline{rappel} $ (Algébre Linéaire); \\
Résolution du systéme AX=b avec : \\
A $ \in M_{m,n} ( \Re ) $ ; x=
$
\begin{pmatrix}
x_1 \\
. \\
. \\
.\\
x_n\\
\end{pmatrix}
$ ;
b=
$\begin{pmatrix}
b_1 \\
. \\
. \\
.\\
b_m\\
\end{pmatrix} $ \\
On a trois cas : \\
1) - si m=n , A inversible \\
$ \hookrightarrow $ AX=b abmet une unique solution $ X_0 = A^{-1} b $
\\
2) - si $ m > n $ ou une contradiction entre les contraines dans ce cas pas de
solution .\\
\textcolor{red}{RQ} : on supposera que les équation de AX=b sont intépendente
( aucune équation n'est conbinnaison linéaire des autres) \\
3) - si $ m < n $ \\
rang(A)= m ~~~ car les m équation sont indépendantes . \\
\\
Dans cette partie on sintéresse au troiséme cas ; en effet \\
on a rang(A)=m donc il existe une sous-matrice carés m*m de A inversible . \\
\begin{pp} aprés permmutation des colonnes de A (si nécessaire) la matrice devient
$ A=(MN) $ avec $ M^{-1} $ existe .\\
La matrice uncolonne x=
$
\begin{pmatrix}
x_1 \\
. \\
. \\
.\\
x_n\\
\end{pmatrix}
$ ; se décompose en x=
$
\begin{pmatrix}
x_M \\
x_N \\
\end{pmatrix} $ ou \\
$ \begin{cases}
x_M :~~~~ variable ~correspondant~ aux~ colonnes ~de~ M \\
x_N :~~~~ les ~autres~ variables \\
\end{cases} $ \\
Le systéme $AX=b$ devient (MN)$
\begin{pmatrix}
x_M \\
x_N \\
\end{pmatrix} $ = b \\

\emph{Résolution : }
\begin{center}

$ M x_M + N x_N = b $
\end{center}
d'ou \begin{center}
$ M x_M = -N x_N + b $
\end{center}
d'ou \begin{center}
$ x_M = -M^{-1} NX_N + M^{-1}b $
\end{center}
( $X_M$ sont les variable principale et $ X_N $ sont variables secondaire ) . \\
Le systéme AX=b admet une ifinité de solution :\\
Les solution de $ x_M $ sont appelé les variable de $\underline{Base }$ \\
Les variable de $ x_N $ est appeé les variable $\underline{hors~Base }$\\
la sous matrice M est appelé $\underline{une ~ Base }$
\end{pp}
\begin{defi} une solution x=$
\begin{pmatrix}
x_M \\
x_N \\
\end{pmatrix} $ avec $ x_M = -M^{-1} NX_N + M^{-1}b $ est dit admisseble si x $
\geq $ 0 ,si non elle est non admissible .
\end{defi}
\begin{defi}( solution de base ) \\
une solution x=$
\begin{pmatrix}
x_M \\
x_N \\
\end{pmatrix} $ avec $ x_M = -M^{-1} NX_N + M^{-1}b $ est appelé solution de base
si $ x_N =0 .$
\end{defi}
\begin{theo} une solution de base est admisseble si $ x_N =0 $ et $ x_M=M^{-1} b
$ .
\end{theo}
\begin{theo} Les solution de bases admissible correspondant aux sommets du
polédre admissible E .
\end{theo}
\textcolor{red}{Principe de la métode du simplexe: } \\
L'aideé de la métode du simplexe ( dantzig-1940) : \\
\hspace*{0.4 cm} $ \rightarrow $ calculer un sommet de poylédre E , $ x^1 $ \\
\hspace*{0.4 cm} $ \rightarrow $ construire un nouveau sommet $ x^2 $ / $ f(x^2)
$ $ < $ $ f(x^1)$ \\
\hspace*{0.4 cm} $ \rightarrow $ recommencer cette opération tant qu'elle
possible .\\
Supposons que l'on á une solution be base admissible initiale M est la base
correspondant $ A = (MN) $ $ M^{-1 } $ éxiste. \\
probléme :

\begin{center}
(P):
$
\begin{cases}
Min f(x)= c^{t} x \\
s/c $ $ $ $ $ AX=b $ \\
$ $ $ $ $ $ $ $ $ $ $ $ x \geq 0
\end{cases}
$
\end{center}
avec x=$
\begin{pmatrix}
x_M \\
x_N \\
\end{pmatrix} $ ; c=$
\begin{pmatrix}
c_M \\
c_N \\
\end{pmatrix} $ \\
on a $ x_M = -M^{-1} NX_N + M^{-1}b $ \\
$ f(x)= c^{t} x = c^t_M x_M + c^t_N $ \\
\hspace*{0.8 cm} $ = f_0 +$č$_N x_N = f_0 + c_{m+1} x{m+1}+c_{m+2} x{m+2}+...+c_n
x_n $ \\
nous avons bien $ f(X^0)=f_0 $ (car $ X^0 $ est solution de base admissible .)\\
\\
T est d'optimalité de $ X^0 $ : \\
si $ \exists $ $ c_j < 0 $ $ \forall j $ $ \in $ $ {m+1,...,n} $ alors une
augmentation de $ x_j $ ( $ x_j > 0 $ ) va diminuer la fonction objectif donc la
solution axtuelle $ X^0 $ n'est pas optimale .
\begin{pp}
S'il existe plusieurs coûts negatifs $ c_j < 0 $ alors nous pouvons prendre celui
qui à la valeur absolue plus grande (Critère de Dntzig ) .
\end{pp}
\begin{pp}
Il existe d'autres Critères de coix de $ c_j $ pour éviter le '' Cyclage " par
exemple :\\
$ \star $ En prenont celui qui a l'indice le plus petit . \\
$ \star $ En respectont l'ordre naturel l'indices . \\
On noters $ c_s=min \lbrace c_{m+1},...,c_n \rbrace $ ( le minimum de tous les
coûts négatifs ) \\
Il s'agit ici de faire entrer $ x_s $ en base , ainsi le probléme devient : \\
$ f(x)=f_0 + c_s x_s $ , une ligne générique des contraintes s'ecrit sous la forme
$ x_i + a_{i,s} x_s = b_i $ , il faut que nous gardions $ X \geq 0 $ ainsi nous
devons avoir $ x_i = b_i - a_{i,s} x_s \geq 0 $ \\
Deux cas se prèsentent : \\
\\
1) - si $ a_{i,s} \leq 0 $ $ $ $ \forall $ $ i=1,2,...,m $ alors $ x_s $ peut
prendre des valeurs arbitrairement objectif $ f $ prend les valeur arbitrairement
petit c-â-d $ min_ef(x) = - \infty $ , (P) est alors un probléme non borné . \\
2) - si $ a_{i,s} > 0 $ alors nous avons bien $ x_i = b_i - a_{i,s} x_s \geq 0 $ $
\Leftrightarrow $ $ x_s \leq \frac{b_i } {a_{i,s} } $ donc la plus grande valeur
que peut prendre $ x_s $ est : \\
$ x_r = min \lbrace \frac{b_i}{a_{i,s}} \rbrace $ \\
Notons $ x_r = \frac{b_r}{a_{r,s}}=min \lbrace \frac{b_i}{a_{i,s}} / a_{i,s} >
0 \rbrace $ nous avons effectivement \\ $ x_r + a_{r,s} x_s =b_r $ $ \Rightarrow $
$ b_r - a_{r,s} \frac{b_r}{a_{r,s}} =b_r-b_r = 0 $ ainsi $ x_r $ sort de la base .
\end{pp}
\begin{center}
\textcolor{magenta} {Organigramme résumant les principales étapes de la méthode du
simplexe } :
\end{center}
\includegraphics[scale=0.7]{ORILI OLL1.png}

\begin{exe} $~~~~~~~~~~~~~~$

\begin{center}
(P) : $
\begin{cases}

Maximiniser $ $ $ $ ( f(x)= -x_1+x_2 ) \\


s/c $ $ $ $ -2x_1 + x_2 \leq 1 \\
$ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ x_1 +3x_2 \leq 10 \\
$ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ x_1 \leq 4 \\
$ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ x_1 , x_2 , x_3 \geq 0

\end{cases}
$
\end{center}

Probléme standard associé á (P) : \\


\\
(P) : $
\begin{cases}

minimiser $ $ $ $ ( f^{*} (x)= -f(x)= x_1-x_2 ) \\


s/c $ $ $ $ -2x_1 + x_2 + x_3 = 1 \\
$ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ x_1 +3x_2+x_4 = 10 \\
$ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ x_1 +x_5 = 4 \\
$ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ x_1 , x_2 , x_3 ,x_4 , x_5 \geq 0

\end{cases}
$
\\

$ x_4 , x_5 , x_3 $ Variable d'écarts : \\


$ f^{*} (x) = x_1 +x_2 +0x_3+x0x_4+0x_5 $ \\

\textcolor {green}{Tableau du simlexe :}


\begin{center}

\begin{tabular}{ |c|c|c|c|c|c|c|}
\hline
& $ x_1 $ & $ x_2 $ & $ x_3 $ & $ x_4 $ & $ x_5 $ & \\ \hline
& $ 1 $ & $ -1 $ & $ 0$ & $ 0$ & $ 0 $ & $f^{*}(x) $ \\ \hline
$ x_3 $ & $ -2 $ & $ 1 $ & $ 1$ & $ 0$ & $ 0 $ & $ 1 $ \\ \hline
$ x_4 $ & $ 1 $ & $ 3 $ & $0 $ & $ 1$ & $ 0 $ & $ 10 $ \\ \hline
$ x_5 $ & $ 1 $ & $ 0 $ & $ 0$ & $ 0$ & $ 1 $ & $ 4 $ \\ \hline

\end{tabular}
\end{center}
\textcolor{red}{Solution de Base} : $
\begin{cases}

x_3=1 \\
x_4=10\\
x_5=4\\

\end{cases}
$
\\

\textcolor{red}{Variable hors base} $ $ $ x_1 =x_2 = 0 $ \\


\\

T est d'optimalité : Le coût associé a $x_2$ hors base est $(<0)$ la solution
actuelle est non-optimale . construction d'une nouvelle solution de base admissible
\\
$x_2$ $\underline{entre~de~la~base}$ \\
$x_3$ $\underline{sorte~de~la~base }$\\

\textcolor{red}{Pivotage} :\\
$\begin{cases}
L_1 \mapsto L_1 = L_{Piv}\\
L_0 \mapsto L_0+L_{Piv}\\
L_2 \mapsto L_2 - 3 L_{Piv}\\
L_3 \mapsto L_3

\end{cases}$
\\

\textcolor{green}{D'oú Tableau du simlexe :} \\

\begin{center}
\begin{tabular}{ |c|c|c|c|c|c|c|}
\hline
& $ x_1 $ & $ x_2 $ & $ x_3 $ & $ x_4 $ & $ x_5 $ & \\ \hline
& $ -1 $ & $ 0 $ & $ 1$ & $ 0$ & $ 0 $ & $f^{*}(x)+1 $ \\ \hline
$ x_2 $ & $ -2 $ & $ 1 $ & $ 1$ & $ 0$ & $ 0 $ & $ 1 $ \\ \hline
$ x_4 $ & $ 7 $ & $ 0 $ & $-3 $ & $ 1$ & $ 0 $ & $ 7 $ \\ \hline
$ x_5 $ & $ 1 $ & $ 0 $ & $ 0$ & $ 0$ & $ 1 $ & $ 4 $ \\ \hline

\end{tabular}
\end{center}
\textcolor{red}{Solution en base $X^2$ } : $
\begin{cases}

x_2=1 \\
x_4=7\\
x_5=4\\

\end{cases}
$
\\

\textcolor{red}{ hors base} $ $ $ x_1 =x_3 = 0 $ \\$f^{*}(x^2)+1=0 $ $ \Rightarrow


$ $f^{*}(x^2)=-1 $ \\
Test d'optimalite : le coût associé á $x_1$ (hors-base) est $ < 0 $ , donc $ x^*$
est non-optimale \\
$x_1 $ $\underline{entre~de~la~base}$\\
$ x_4 $ $\underline{sort~de~la~base}$\\
\textcolor{red}{Pivotage} :\\
$\begin{cases}
L_2 \mapsto \frac{1}{7} L_2 = L_{Piv}\\
L_0 \mapsto L_0+L_{Piv}\\
L_1 \mapsto L_1 + 2 L_{Piv}\\
L_3 \mapsto L_3-L_{Piv}

\end{cases}$
\\

\textcolor{green}{D'oú Tableau du simlexe :}


\begin{center}

\begin{tabular}{ |c|c|c|c|c|c|c|}
\hline
& $ x_1 $ & $ x_2 $ & $ x_3 $ & $ x_4 $ & $ x_5 $ & \\ \hline
& $ 0 $ & $ 0 $ & $ \frac{4}{7}$ & $ \frac{1}{7}$ & $ 0 $ & $f^{*}(x)+2 $ \\
\hline
$ x_2 $ & $ 0 $ & $ 1 $ & $ \frac{1}{7}$ & $ \frac{2}{7}$ & $ 0 $ & $ 3 $ \\
\hline
$ x_1 $ & $ 1 $ & $ 0 $ & $ \frac{-3}{7} $ & $ \frac{1}{7}$ & $ 0 $ & $ 1 $ \\
\hline
$ x_5 $ & $ 0 $ & $ 0 $ & $ \frac{3}{7}$ & $ \frac{-1}{7}$ & $ 1 $ & $ 3 $ \\
\hline

\end{tabular}
\end{center}
\textcolor{red}{Solution $X^3$ } : $
\begin{cases}

x_2=3 \\
x_1=1\\
x_5=3\\

\end{cases}
$
\\
\\
$f^*(x)=-2$ solution optimale .
\end{exe}

\subsection{Méthode de deux phase :}

Consédirons le probléme de programmation linéaire sous la forme standard :

\begin{center}
(P):
$
\begin{cases}
Min $ $( f(x) = c^{t} x ) \\
s/c $ $ $ $ AX = b \\
$ $ $ $ $ $ $ $ $ $ $ $ x \geq 0
\end{cases}
$
\end{center}
avec i=1,.....,k le $b_i $ sont négatife .\\
(P) admet une solution de base triviale $\underline{non~ admissible}$ . D'ou
l'utiliation de $\underline{la~ methode ~des~ deux ~phases}$ pour la recherche
d'une solution de base initiale
admisseble
pour résoudre le probléme, on introduit une nouvelle variable appelé variable
artificielle .
une variable artificielle est une variable fictive introduite spécialement
pour une solution de base accessible .
Elle n'a pas de singification économique .\\
\textcolor{red}{Principe de la méthode de deux phases}

\textcolor{blue}{phases 1} On introduit une variable artificielle $x_{n+1}$ en


la~ retranchant des $1^{er}$
membres des contraintes à seconds membres $b_i$ négatifs .\\
Ainsi la fonction objectif auxiliaire W($X^*$)=
$x_{n+1}$ à minimiser sous les contraintes
du probléme initial .\\
Soit le probléme auxiliaire à résoudre :
\begin{center}
($P_{aux}$):
$
\begin{cases}
min~~ W(X^*)= \sum_{i=1}^k x_{n+1} \\
~~avec~ f(x)= c^tX \\
~~~ s/c \begin{cases}

$ $ $ $ AX -I_mV = b \\
$ $ $ $ X\geq 0 ~,~ V\geq 0\\
\end{cases}
\end{cases}
$
\end{center}
avec : ~~~~~~
$I_m$ étant la matrice identité m*m et
V=
$
\begin{pmatrix}
X_{n+1} \\
. \\
. \\
.\\
X_{n+1}\\
\end{pmatrix}$ .\\
soit $X^* $= $
\begin{pmatrix}
x^*_1 \\
. \\
. \\
x^*_n\\
x^*_{n+1}\\
\end{pmatrix}$ solution optimale de ($P_{aux}$).\\
$\bullet$ si W($X^*$) $\neq$ 0 ( la variabl artificielle $x_{n+1}$ $\neq$ 0 ).\\
$\Rightarrow$ Le probléme (P) n'a pas de solution .\\
$\bullet$ si W($X^*$) = 0 ( la variabl artificielle $x_{n+1}$ = 0 ).\\
$\Rightarrow$ $X^* $ est solution de base admissible de (P).\\
\\
\textcolor{blue}{phases 2} si W($X^*$) = 0, dans ce cas on supprime la colonne des
des variables artificielle et la ligne de W($X^*$). puis on résoud (P) avec $
{X^*}^`$= $
\begin{pmatrix}
x^*_1 \\
. \\
. \\
.\\
x^*_n\\
\end{pmatrix}$ comme solution de base admissible par le simplexe .
\\

\chapter{ Dualité}

\section{ Introduction}
$ $ $ $ Au chapitre précédent ,on appris à résoudre des problémes de programmation
linéaira à l'aide de méthode du simlexe .tout fois ,la résolution du probléme
simplexe n'est que le point de départ de tout recherche opérationnelle basé sur un
normatif linéaire . ce modéle est une représentation simplifiée de la réalité . la
solution optimale du modéle n'est pas néssairement la solution du probléme réel .
il faut donc étaudier la solution obtenue en détail avant de l'implanter . mais
avant de pouvoir entrer dans le cour du sujet , il faut examiner un aspect
important de la programmation linéaire : la Dualité
\section{ Probléme dual }
$ $ $ $ A chaque probléme d'optimisation linéaire ,nous allons définir un nouveau
programme appelé $\underline{le~dual }$ ,le probléme originale est appelé
$\underline{ le~primal }$ .\\

Probléme primal :\\


\begin{center}
(P):
$
\begin{cases}
Max ~z = c^{t} x \\
s/c $ $ $ $ AX \leq b \\
$ $ $ $ $ $ $ $ $ $ $ $ x \geq 0
\end{cases}
$
\end{center}

probléme dual :

\begin{center}
(P'):
$
\begin{cases}
Max ~w = b^{t} y \\
s/c $ $ $ $ A^{t}y \geq c \\
$ $ $ $ $ $ $ $ $ $ $ $ y \geq 0
\end{cases}
$
\end{center}
\section{ Construction du dual}

\subsubsection{ Régles pratiques de passage du primal au dual : }

soit (P) un programme linéaire et (P') son dual , Alors :\\


\\
$ \hookrightarrow $ Le sens de l'optimisation est inversé c-ã-d un probléme de
maximisation dans (P) devient un probléme de minimisation dans (P').\\
Les variables de décision restent positives ou nulles .\\
$ \hookrightarrow $ le vecteur lignes des coefficients de la fonction economique de
(P') est la transposée du vecteur colonne des constantes secondes membres des
contraintes principales de (P).\\
$ \hookrightarrow $ Le vecteure colonne des constantes secondes membres des
contraintes principales de (P') est la transposéne vecteur lignes des coefficients
de la fonction economique de (P) .\\
$ \hookrightarrow $ La matrices des contarintes principales de (P') est la
transposée e la matrice des contraintes principales de (P) . dans ces contraintes
on inverse le sens des inégalités du primal au dual .\\
$ \hookrightarrow $ Les variables de décision et d'ecart des deux programmes
linéaire doivent être-notéses par des lettres différentes afin d'èviter toute
confusion . \\
\subsubsection{ Tableau de correspandance : }

\begin{center}
\begin{tabular}{ |c|c|}

\hline
$min$ & $max$ \\ \hline
Primal & Dual \\ \hline
Variable $ \geq 0 $ & Contrainte $ \leq 0 $ \\ \hline
Variable $ \gtrless 0$ & Contrainte $ = 0 $ \\ \hline
Variable $ \leq 0 $ & Contrainte $ \geq 0 $ \\ \hline
Contrainte $ \leq 0 $ & Variable $ \leq 0 $ \\ \hline
Contrainte $ = 0 $ & Variable $ \gtrless 0 $ \\ \hline
Contrainte $ \geq 0 $ & Variable $ \geq 0 $ \\ \hline
\end{tabular}
\end{center}
\begin{center}

Règles générales pour un PPL quelconque de construction du dual (P') à partir du


primal (P) .
\end{center}
\begin{rema}
le dual du dual est le primal $ (P')' = P $.
\end{rema}

\subsubsection{ Exemple : }

Primal :
$
\begin{cases}
Max~ z =3x_1 +x_2-2x_3\\
s/c $ $ $ $ x_1 +2x_2 \geq 10 \\
$ $ $ $ $ $ $ $ $ $ $ $ 3x_1 -x_2 +x_3 = 7\\
$ $ $ $ $ $ $ $ $ $ $ $ x_1 + 3x_3 \leq 8\\
$ $ $ $ $ $ $ $ $ $ $ $ x_1 \geq 0 ; x_2 \geq 0 ; x_3 \geq 0 \\

\end{cases}
$ $
\Rightarrow$ $ $ Dual:
$
\begin{cases}
Max~ z' =10y_1 +7y_2+8y_3\\
s/c $ $ $ $ y_1 +3y_2+y_3 = 3 \\
$ $ $ $ $ $ $ $ $ $ $ $ 2y_1 -y_2 \geq 1 \\
$ $ $ $ $ $ $ $ $ $ $ $ y_2 + 3y_3 \leq -2 \\
$ $ $ $ $ $ $ $ $ $ $ $ y_1 \leq 0 ; y_2 \gtrless 0 ; y_3 \geq 0 \\

\end{cases}
$

+ iverser uniquement les opérateurs ($ = ou / et \gtrless$)\\


\hspace*{0.6 cm}+ inverse tous les opérteurs des contraintes .

Primal:
$
\begin{cases}
Max~ z =x_1 +3x_2 -2x_3\\
s/c $ $ $ $ x_1 +2x_2 \geq 12 \\
$ $ $ $ $ $ $ $ $ $ $ $ 2x_1 -3x_2 +x_3 = 8\\
$ $ $ $ $ $ $ $ $ $ $ $ 2x_1 + 2x_3 \leq -10 \\
$ $ $ $ $ $ $ $ $ $ $ $ x_1 \geq 0 ; x_2 \gtrless 0; x_3 \geq 0 \\
\end{cases}
$
$ \Rightarrow$
Dual :
$
\begin{cases}
Max ~z' =12y_1 +8y_2-10y_3\\
s/c $ $ $ $ y_1 +2y_2+2y_3 \leq 1 \\
$ $ $ $ $ $ $ $ $ $ $ $ 2y_1 -3y_2 = 3 \\
$ $ $ $ $ $ $ $ $ $ $ $ y_2 + 2y_3 \leq -2 \\
$ $ $ $ $ $ $ $ $ $ $ $ y_1 \geq 0 ; y_2\gtrless 0 ; y_3 \leq 0 \\
\end{cases}
$
\\
\\
+ inverse tous les opérteurs des contraintes . \\
+ iverser uniquement les opérqteurs ($ = ou / et \gtrless$)\\

\section{ Thoéréme de dualité : }


On considére les pronlème suivants :\\
le primal
(P):
$
\begin{cases}
Max $ $ z(x)=C^tX \\
$ ~~~$s/c~ AX \leq b\\
$ ~~~~~~~~$X \geq 0

\end{cases}$
le dual
(P'):
$\begin{cases}

$ Min $ w(y)=b^tY\\
$ ~~~$s/c~A^tY \geq c\\
$ ~~~~~~~~$Y \geq 0

\end{cases}$

\begin{theo} ( Dualité faible )


Soit X une solution admissible pour (P) et Y une solution admissible pour (P') ,
alors
$ z(X) \leq w(Y) $ .
\end{theo}
\begin{prv}
On a $ X\geq 0$ , $ AX \leq b $ , $ Y \geq 0 $ et $ A^tY \geq c $\\
$z(X) = C^tX $ $ \leq $ $ (A^tY)^tX $ $ = $ $ Y^tAX $ $ \leq $ $ Y^tb $ $ = $ $
w(Y) $
\end{prv}

\begin{coro}

Si $ \begin{cases}

- X $ solution admissible pour (P) $ \\


- Y $ solution admissible pour (P') $ \\
- z(x) = w(y)

\end{cases} $
Alors , $ X $ et $ Y $ sont des solutions optimale resp de (P) et (P') .
\end{coro}
\begin{prv} Soit $ X^* $ et $ Y^* $ des soluitions admissibles respective de (P)
et (P') telles que $ z(X^*) = w(Y^*) $ . d'aprés résultat du théoreéme preécédent
pour tout X admissible pour (P) on a $ z(X) \leq w(Y^*)=z(X^*) $ . donc $ X^* $
est solution optimale pour (P) . D'une manière anolongue pour tout Y optimale
pour(P') ona $ w(Y^*)=z(X^*) \leq w(y) $ donc $ Y^*$ est une solution optimale
pour (P').
\end{prv}
\begin{theo}: ( Dualité forte )
Si le probléme (P) admet une solution admissible $ (X^*) $ alors le probléme dual
(P') admet lui aussi une solution optimale $Y^* $ et ona $ z(X^*)=w(Y^*) $ .
\end{theo}
\begin{prv} Aprés permutation des colonnes de A nous obtenons: A=($A_B$
$A_H$) . \\
On suppose (P) mis sous forme standard .'il existe une solution admissible
optimale, alors il existe une solution de $\underline{Base }$ admissible optimale
$X_B$= $A_B^{-1}$b. \\
choisissons $Y^*$=$(A_B^{-1} )^t$ $c_B$.\\
Nous montrons que $Y^*$ est une solution admissible optimale pour (P').\\
Posons $L_H$ = $c_H$ - ( $A_B^{-1}$ $A_H$ )$c_B$ le vecteur des cout
réduitvs . étant donné que le probléme primal est un probléme de maximisation ,
alors à l'optimum $L_H$ $\leq$ 0.\\
on a $ A_H^T$ $Y^*$= $ A_H^T$ $(A_B^{-1} )^t$ $c_B$=$(A_B^{-1} $ $A_H$)$^t$
$c_B$= $c_H$ - $L_H$.\\
Or à l'optimum $L_H$ $\leq$ 0 ,alors $ A_H^T$ $Y^*$ $\geq$ $c_H$ .\\
Puisque $ A_B^T$ $Y^*$= $ A_B^T$ $(A_B^{-1} )^t$ $c_B$=$c_B$, avec ces deux
condition nous déduire que$ A_H^T$ $Y^*$ $\geq$ c .\\
alors $Y^*$ est une solution admissible pour (P').\\
D'autre part on a : Z($X^*$)=$c_B^t$ $X^*$ =$c_B^t$ $A_B^{-1}$b=$((A_B^{-1}$)$^t$
$c_B^t$ $)^t$b=W($Y^*$).\\
donc d'apres le théoreme de dualité faible $Y^*$ est optimale pour (P').
\end{prv}

\begin{rema}
\emph{(Relation entre les solutions duales et primales ) } \\
$ \bullet $ Pour un problème de programmation liénaire , exactement une des
possibilités suivantes exister :

$ \hookrightarrow $ il y'a une solution optimal .

$ \hookrightarrow $ le problème est non borné.

$\hookrightarrow $ le problème est non admissible . \\


$ \bullet $ cela donne 9 combinaisons pour le primal et le dual .\\
$ \bullet $ par les theoréme de duâlité , certaines d'entre elles impossibles .
\end{rema}
\begin{center}
\begin{tabular}{ |c|c|c|c|c|}

\hline

& & primal & primal & primal \\ \hline


& &Optimum fini & non borne & non admissible \\ \hline
dual & Optimum fini & possible & impossible & impossible \\ \hline
dual & non borne & impossible & impossible & possible \\ \hline
dual & non admissible & impossible & possible & possible \\ \hline
\end{tabular}
\end{center}
\begin{center}
Tableau récapitulatif des différents cas entre primal et dual
\end{center}

\section{ Intérpretation économique de la dualité : }


soit le probléme linéaire : \\
\begin{center}
(P):
$
\begin{cases}
Maximiser ~z = c^{t} x \\
s/c $ $ $ $ AX \leq b \\
$ $ $ $ $ $ $ $ $ $ $ $ x \geq 0
\end{cases}
$
et son dual l$ (P')
\begin{cases}
$ Minimiser $ w(y)=b^tY\\
s/c $ $ $ $ A^tY \geq c\\
$ $ $ $ $ $ $ $ $ $ $ $ Y \geq 0

\end{cases}$
\end{center}

$c_i$ :Coût unitaire du produit $P_i$ i= 1,.....,n \\


\hspace*{0.6 cm}$b_i$ :Quantité disponible de la ressource $R_i$ i= 1,.....,m \\
\hspace*{0.6 cm}$z$:Represente le bénéfice global de l'entreprice (à maximiser)\\
\\
A=($a_{i,j}$) i= 1,.....,n \\
\hspace*{1.7cm}j= 1,.....,m \\

$a_{ij}$ est la quantité de la resource $R_i$ (nombre d'unités) necessaire à la


production d'une unité du produit $P_j$ \\
\\
\textcolor{red}{
intérpretation de la dualité faible} :
Z$\leq$ W \\ \hspace*{3cm} profit $\leq$ valeur des ressources\\
\\
\textcolor{red}{
intérpretation de la dualité forte}:
le profit maximle est atteint si les ressources on été exploitées complétement ,i-e
jusqu'a équisement de leur valeur.

\chapter{ Analyse post-optimale}

\section{ introduction}
Etant donné un probléme d'optimisation linéaire :
\begin{center}
(P):
$
\begin{cases}
Max ~z = c^{t} x \\
s/c $ $ $ $ AX \leq b \\
$ $ $ $ $ $ $ $ $ $ $ $ x \geq 0
\end{cases}
$
\end{center}
nous allons etudier la sensibilité de la solution optimale par rapport aux
donnés du probléme. Autremment dit ,comment varie la solution ou encore
la fonction objective si l'on modifie une entrée du vecteur C ou b ou encore
la matrice A. L'analyse de sensibilité est anssi connue sous le nom
d'analyse post-optimale .\\

\begin{defi}
une solution de base optimale est dite stable si l'ensemble des variable de base
à l'optimum ne changent pas, méme si les valeurs d ces variable be base sont
modifiées .
\end{defi}
\begin{defi}
Par définition on appelle cout marginale d'un bien l'augmentation minimale
de dépenses par rapport à la solution optimale ,qui résulterait de l'utilisation
d'une unité suppléémentaire de ce bien ,lorsque le probléme posé consiste à
produire des biens au moindre cout .
\end{defi}
\begin{rema}
les coux marginaux sont donc les effets nets associés aux variable
d'écarts,puisque ce
sont des variables qui déterminent les excédentes (ou les insuffisonts ) de biens .
\end{rema}
\section{ Analyse de sensibélité sur les seconds membres $b_i$ }

consédirons le probléme de programmation linéaire générale : \\


\begin{center}
(P):
$
\begin{cases}
Min ~(~z = c_1 x_1 + c_2 x_2+.....+ c_n x_n) \\
s/c $ $ $ $ a_{i,1}x_1 + a_{i,2}x_2 +.....+ a_{i,n}x_n \leq b_i + \Delta b_i ~~~~
i= 1,....,n \\
$ $ $ $ $ $ $ $ $ $ $ $ x_j \geq 0 ~~~~~~~~ j= 1,....,m
\end{cases}
$
\end{center}
A sa matrice de rang m ()
on s'intéresse à la modification d'un seul ceofficient de b c-à-d
b'= b + $\Delta b_re_r$ .\\
Soit B={1,.....,m} une base réalisable et $X^*$ la solution optimale relative à la
base $A_B$ obtenu par résolution avec la méthode de simplexe .\\
A l' optimum on a $X^*_B$= $A^{-1}_B$b $\geq$ 0 \\
En remplace b par b':\\
$X^*_B$= $A^{-1}_B$b'= $A^{-1}_B$(b + $\Delta b_re_r$)\\
=$A^{-1}_B$(
$
\begin{pmatrix}
b_1 \\
. \\
. \\
.\\
b_m\\
\end{pmatrix}
$ + $
\begin{pmatrix}
0 \\
. \\
\Delta b_r \\
.\\
0\\
\end{pmatrix}
$ ) \\
=$A^{-1}_B$b + $A^{-1}_B$ $
\begin{pmatrix}
0 \\
. \\
\Delta b_r \\
.\\
0\\
\end{pmatrix}
$ $\geq 0$ $~~~~~~~~$ ($\ast$) \\
Notons $
\begin{pmatrix}
\beta_{1,r} \\
. \\
. \\
.\\
\beta_{m,r}\\
\end{pmatrix}
$ la $r^{ieme}$ colonne de $A^{-1}_B$ \\
$\overline{b_i}$= $A^{-1}_B$ $b_i$ \\
l'equation ($\ast$) $\overline{b_i}$ + $\beta_{i,r}$ $\Delta b_r$ $\geq$ 0
$~~~~~~~~$ i=1,.....,m \\
\hspace*{0,5cm} $\hookrightarrow$ ~~ pour tout i telque $\beta_{i,r}$ $> $ 0 \\
$\overline{b_i}$ + $\beta_{i,r}$ $\Delta b_r$ $\geq$ 0 $ \Rightarrow$ $\beta_{i,r}$
$\Delta b_r$ $\geq$ -$\overline{b_i}$\\
\hspace*{3,1cm} $ \Rightarrow $~ $\Delta b_r$ $\geq$~ $\frac{-\overline{b_i}}
{\beta_{i,r}}$\\

$\hookrightarrow$ ~~ pour tout i telque $\beta_{i,r}$ $< $ 0 \\


$\overline{b_i}$ + $\beta_{i,r}$ $\Delta b_r$ $\geq$ 0 $ \Rightarrow$ $\beta_{i,r}$
$\Delta b_r$ $\geq$ -$\overline{b_i}$\\
\hspace*{3,1cm} $ \Rightarrow $~ $\Delta b_r$ $\leq$~ $\frac{-\overline{b_i}}
{\beta_{i,r}}$\\
\begin{rema} si $\beta_{i,r}$ =0 Alors $\forall$ $\Delta b_r$ la solution ne change
pas.
\end{rema}

Donc la solution de base actuelle de mesure réalisablesi :


\begin{center}
$\overline{b_i}$ + $\beta_{i,r}$ $\Delta b_r$ $\geq$ 0 $\forall$ i=1,.....,m
\end{center}
\begin{center}
$max_{1 \leq i\leq m}$ $\lbrace$ $\frac{-\overline{b_i}}{\beta_{i,r}}
$~,~$\beta_{i,r}$ $> $ 0 $\rbrace$ $\leq$ $\Delta b_r$ $\leq$ $min_{1 \leq i\leq
m}$ $\lbrace$ $\frac{-\overline{b_i}}{\beta_{i,r}}$~,~$\beta_{i,r}$ $< $ 0
$\rbrace$
\end{center}
\section{ costitution de stock}

soit (P)un probléme de programmation linéaire et (P') son dual :\\


\begin{center}

le primal
(P):
$
\begin{cases}
Max $ $ z(x)=C^tX \\
$~~~~ $s/c~ AX \leq b\\
$~~~~~~~~~ $X \geq 0

\end{cases}$
le dual
(P'):
$\begin{cases}

$ Min $ w(y)=b^tY\\
$~~~~ $s/c~A^tY \geq c\\
$~~~~~~~~~ $Y \geq 0

\end{cases}$
\end{center}
si $ X^*$ et $ Y^*$ sont respectivement des solution optimal de (P) et (P') .\\
soit $Z^*$ l'optimale de (P) et (P') .\\
alors d'aprés le théoréme de dualité forte on a :
\begin{center}
$Z^*$= $c^t$ $X'^*$=$b'^t$ $Y^*$ et Z= $c^t$ $X^*$=$b^t$ $Y^*$ (avec b'= b+ $\Delta
b$)\\

\end{center}
\hspace*{1cm} $\Rightarrow$ $\Delta Z$ =$c^t$($X'^*$ + $X^*$)= ($b'^t$ + $b^t$)
$Y^*$\\
\hspace*{1cm} $\Rightarrow$ $\Delta Z$ =$c^t$($\Delta X$)= ($\Delta b$)$Y^*$\\
\\
D'ou la relation $\frac{\partial Z}{\partial b_i}$ = $y^*_i$ \\
cette relation donne le taux de variation de la fonction objectif par rapport aux
paramétrés $ b_i$. \\
Deux cas ce présentent lors d'une variation de $ b_i$ :\\
\\
\hspace*{1cm} $ \bullet $ $1^{ére}$ cas $y^*_i$ =0 : une variation de $ b_i$ ne
change pas $Z^*$ ,dans ce cas la varible d'écart $x_{n+i}$ de (P) peut étre nulle
ou non .\\
\hspace*{1cm} $ \bullet $ $2^{éme}$ cas $y^*_i$ $\geq$ 0 : une variation de $
b_i$ d'une unité améliore $Z^*$ de sa valeur à ( $Z^*$+ $y^*_i$),la variable
d'écart $x_{n+i}$ est nulle.\\
\\
Pour obtenir une bonne optimisation de $Z^*$, il faut varier la matiére premiére
$b_i $ correspond à la plus grand valeur des $y^*_i$.\\
\begin{theo}
si (P) admet une solution optimale non dégénérée ($X^*_B$ $ >$ 0) alors
$\exists$ $ \varepsilon$ $ >$ 0 tel que si $\vert$ $\Delta b_i$ $\vert$ $\leq$ 0 ,
i=1,....,m\\
Le probléme linéaire perturbé :
\begin{center}
($\overline{P}$):
$
\begin{cases}
Max ~(~z = c^tX) \\
s/c $ $ $ $ \sum_{j=1}^n a_{i,j}x_j \leq b'= b_i + \Delta b_i ~~~~ i= 1,....,m
\\
$ $ $ $ $ $ $ $ $ $ $ $ X \geq 0
\end{cases}
$
\end{center}
admet une solution optimale.\\
et la valeur de l'optimisation est :
\begin{center}
${Z^*}^` $ =$ Z^*$ + $ \sum_{j=1}^m y^*_i \Delta b_i $
\end{center}
\end{theo}
\section{ Application}

Considerons le PL \\
\begin{center}
$ \begin{cases}
Maximiser ~z= 3x_1 + 5x_2 \\
$ $ $ $ $ $ $ $ $ $ s/c: ~~~ x_1~~~~ ~~~~~~ \leq 4 \\
$ $ $ $ $ $ $ $ $ $ ~~~~ ~~~~~~ ~~~~~~~~2x_2 \leq 12 \\
$ $ $ $ $ $ $ $ $ $ ~~~~~~~~~~ 3x_1 + 2x_2 \leq 18 \\
$ $ $ $ $ $ $ $ $ $~~~~~~~~~~ ~~~~ x_1 ,x_2 \geq 0
\end{cases} $
\end{center}
Le tableau finale du simplexe est donné comme suit :\\
\begin{center}
\begin{tabular}{ |c|c|c|c|c|c|c|}
\hline
& $ x_1 $ & $ x_2 $ & $ x_3 $ & $ x_4 $ & $ x_5 $ & \\ \hline
& $ 0 $ & $ 0 $ & $ 0$ & $ \frac{2}{3}$ & $ 1 $ & $f^{*}(x)-36 $ \\ \hline
$ x_3 $ & $ 0 $ & $ 0 $ & $ 1$ & $\frac{1}{3} $ & $ \frac{-1}{3} $ & $ 2 $ \\
\hline
$ x_2 $ & $ 0 $ & $ 1 $ & $0 $ & $\frac{1}{2} $ & $ 0 $ & $ 6 $ \\ \hline
$ x_1 $ & $ 1 $ & $ 0 $ & $ 0$ & $ \frac{-1}{3}$ & $ \frac{1}{3} $ & $ 2 $ \\
\hline

\end{tabular}
\end{center}
le point optimal est $x^*$ =(2,6) et la valeure optimale est Z =36.\\
Comme $ x_3 $ $ , x_4 $ et $ x_5 $ sont des variables d'écart des contaraintes,
donc la solution du probléme dual est:
$
\begin{cases}
y^*_1= 0\\
y^*_2= \frac{3}{2}\\
y^*_3=1\\
\end{cases}$\\
\textcolor{red}{effectuant une augmentaion de capacité du premier atelier de $
b_1$= 4 à $ b'_1$=5}
\includegraphics[scale=0.5]{66227077_360974751259894_9133282804308639744_n.jpg}

\begin{center}
Modification de $b_1$
\end{center}
\begin{center}
$x'^* $= $x^*$=(2,6)
\end{center}
En conséquence, la valeur optimal de Z ne change pas :
\begin{center}
$z'^* $= $z^*$= 36
\end{center}
D'ou une variation nulle d'objective $\Delta$z =$z'^* $-$z^*$ = 0= $y^*_1$ \\
Donc ,l'effet d'une augmentaion de $b_1$ sera nul sur la valeur optimum de
l'objective quel que soit $b_1$ $ \geq$ 4. En effet,endessous de $b_1$ =2, la
solution optimale va changer On a donc déterminé le domaine de validité de $y^*_1$.
Il s'agit de l'intervalle : \\
\begin{center}
$b_1$ $\in$ [ 2 ,+$ \infty$ $\lfloor$
\end{center}
\textcolor{red}{effectuant une augmentaion de capacité du premier atelier de $
b_2$= 12 à $ b'_2$=13}

\includegraphics[scale=0.5]{65393787_316740955900565_2367375438000422912_n.jpg}
\begin{center}

Modification de $b_2$
\end{center}
L'augmentation de $b_2$=12 à $b'_2$=13 donne un nouveau point optimal $x'^*$ =
($\frac{5}{3}$,$\frac{13}{2}$) et une valeure optimale $z'^* $=37,5.\\
Donc $\Delta$z =$z'^* $-$z^*$ =37,5-36 = 1,5 = $y^*_2$.\\

Au delà de $ b_2$= 18 la solution optimal reste en (0,9).\\


De meme en deca de $ b_2$= 6 la solution optimal change .\\
$y^*_2$= $\frac{3}{2}$ ne change pas pour $ b_2$ $\in$ [ 6 ,18 ].\\
Donc la base reste optimale pour $ b_2$ $\in$ [ 6 ,18 ].\\
\textcolor{red}{effectuant une augmentaion de capacité du premier atelier de $
b_3$= 18 à $ b'_3$=19}

\includegraphics[scale=0.5]{65737685_467847947314310_1446228197094981632_n.jpg}

\begin{center}
Modification de $b_3$
\end{center}
L'augmentation de $b_2$=18 à $b'_2$=19 donne un nouveau point optimal $x'^*$ =
($\frac{7}{3}$,6) et une valeure optimale $z'^* $=37.\\
Donc $\Delta$z =$z'^* $-$z^*$ =37,5-36 = 1= $y^*_3$.\\
Au delà de $ b_2$= 24 la solution optimal reste en (4,6).\\
De meme en deca de $ b_3$=12 la solution optimal change .\\
$y^*_3$= 1 ne change pas pour $ b_3$ $\in$ [ 12,24 ].\\
Donc la base reste optimale pour $ b_3$ $\in$ [ 12,24 ].\\

\end{document}

Vous aimerez peut-être aussi