Académique Documents
Professionnel Documents
Culture Documents
\usepackage[utf8]{inputenc}
\usepackage[french]{babel}
\usepackage[T1]{fontenc}
\usepackage{amsmath,amsfonts,amssymb}
\usepackage{graphicx}
\usepackage{color}
\usepackage{fontenc}
\usepackage{amsmath}
\usepackage{contour}
\usepackage{amsmath,amsfonts,amssymb}
\newtheorem{theo}{Théorème}[section]
\newtheorem{prop}{Proposition}[section]
\newtheorem{defi}{Définition}[section]
\newtheorem{exe}{Exemple}[section]
\newtheorem{rema}{Remarque}[section]
\newtheorem{coro}{Corollaire}[section]
\newtheorem{prv}{Preuve}[section]
\newtheorem{pp}{Propriétés}[section]
%------------------------------------------------
\begin{document}
\pagestyle{plain}
%---------------------------------------------------------
\begin{titlepage}
\parindent=0pt
Département des mathématiques \hspace*{\stretch{1}} LST Option mathématiques
appliquées
\vspace*{\stretch{1}}
\begin{center}
\end{center}
\begin{center}
\begin{LARGE}
\textbf{Projet de Fin d'Etudes \\
}
\end{LARGE}
\begin{large}
\textbf{Intitulé :}
\end{large}
\end{center}
\vspace*{\stretch{1}}
\hrulefill
\begin{center}\bfseries\Huge
\textcolor{blue}
{Optimisation linéaire et Dualité : analyse post-optimal}
\end{center}
\hrulefill
\vspace*{1cm}
\begin{flushleft}\bfseries\large
\textcolor{blue}{ Préparé par}: ~~ ~~ ~~ ~~ ~~ ~~~~~~~~~~~~~~~\textcolor{blue}
{ Encadré par} :\\
$\bullet$ Oumbark$ $ Abdelwahed ~~ ~~ ~~ ~~~~~~ Mr.Hajjar Moha\\
$\bullet$ Chakir$ $ El $ $Habib \\
$\bullet$ Annaoua$ $ Fatima
\end{flushleft}
\begin{center}\begin{large}
\textbf{Soutenu le **/**/2019 devant le jury :\\
-Prof.****\\
-Prof.****\\
-Prof.Hajar Moha}
\end{large}
\end{center}
~~\\
\begin{flushright}
\textbf{Année Universitaire: 2018/2019}
\end{flushright}
\end{titlepage}
%-----------------------------------------------------------
\newpage
\begin{center}
\begin{LARGE}
\textbf{Remerciement}
\end{LARGE}
\end{center}
~~\\
Avant d'entamer ce rapport, nous profitons de l'occasion pour
remercier toutes les personnes qui ont contribué de près ou de loin à la
réalisation de ce projet de fin d'études.
~~\\
~~Nos vifs remerciement à notre grand et respectueux professeur,Monsieur MOHA
HAJJAR
qui n'a pas cessé de nous encourager pendant la durée du
projet, ainsi pour sa générosité en matière de formation et
d'encadrement. Nous le remercions également pour son aide,ses
conseils,ses remarques pertinentes,et la confiance qu'il nous
a témoigné.~~\\
~~Nous tenons à remercier aussi Prof.**** et Prof.**** de nous avoir honoré en
acceptant de juger notre travail.Veuillez trouver ici le témoignage de notre
respect le plus profond\\
Nos remerciements vont aussi à nos professeurs et enseignants de nous avoir incités
à
travailler en mettant à notre disposition leurs expériences et leurs
compétences.
\tableofcontents
\newpage
\date{~~}
~~\\
\begin{center}
\begin{huge}
\textbf{Introduction\\
}
\end{huge}
\end{center} ~~\\
~~\\
La recherche operationnelle(RO) est la discipline des mathèmatique appliquées qui
traite des questions d'utilisation optimale des ressources dans l'industrie et dans
le secteur public . Le champ d'application de la RO s'est élangi á des domaines
comme l'economie, la finonce, le macreting et la planification d'entrepise. plus
récemment , la RO á ètè utiliseé
pour la gestion des systémes de santé et d'èducation, pour la rèsolution de
problémes environnementaux et dans d'autres domaines d'intérêt public .\\
\section{Définition de l'optimisation }
l'optimisation est une branche des mathématique dans la pratique on part d'un
probléme concert , on le modelése et on le résoud mathématique (analytiquement :
probléme d'optimisation , numériquement : programme mathématique ) .\\
L'optimisation joue un rôle impotant en RO (domaine á la Frontiére entre
l'informatique , les mathématique et l'èconomie ) . dans les mathématique
appliquèes (Fondamentales pour l'indusitrien et l'ingénierie ) en analyse et en
analyse numérique , en statistique pour l'estimation du maximum de varisemblance
d'une distribution , pour la recherche de strategies dans le cadre de la théorie
des jeux , ou encore en thérie du contrôle de commande \\
\textcolor{blue}{La modulisation } :
l'optimisation repose toujours sur des modeles mathématique mais ces modeles sont
rarement des modules physique comlexes ils sont généralement simples et
partiels .\\
La modulisation designe la traduction des problémes réels en èquations mathématique
. Elle consiste en trois étapes :
\begin{exe}
Un restaurateur peut offrir deux type d'assiette , des assiettes qui coûtent 80 dh
et qui contient 5 Sardines , 2 Merlan , 1Rougets , et des assiettes qui coute 120dh
et qui contient ,3 Sardines , 3 Merlan et 3 Rougets , sachant que le restaurateur
dispose 30 Sardines , 24 Merlan et 18 Rougets .\\
Donner le Modêle mathématique qui permet de maximiniser le profit .\\
Les données du problème se traduit sous forme de tableaux suivant :\\
\\
\begin{tabular}{ |c|c|c|c|}
\hline
& Plot 1 &Plot 2 &contraibtes \tabularnewline
\hline
sardine &5 &3 &3O \tabularnewline
\hline
Merlant &2 &3 &24\tabularnewline
\hline
rouget &1 &3 &18\tabularnewline
\hline
Cout &80DH &12ODH &\tabularnewline
\hline
\end{tabular}
\\
\\
$ \ast $ Les inconnues du problème : \\
$ x_1 $ : Nombre de plot 1 $ \geq 0 $ \\
$ x_2 $ : Nombre de plot 2 $ \geq 0 $ \\
$ \ast $ Fonction objectif (ou bien fonction bénèfice) : \\
$[Max]$ = $ 80x_1 + 120x_2 $ \\
$ \ $ Les contraintes :
$\begin{cases}
5x_1+3x_2 \leq 30 \\
2x_1+2x_2 \leq 24 \\
x_1+3x_2 \leq 18 \\
\end{cases}$
\end{exe}
\newpage
\section{Généralites}
$
\begin{cases}
Max~(Min)~~ z= \sum c_j x_j \\
s/c $ $ $ $ \sum a_{i,j} x_j~(\leq,=,\geq )~b_i $ $ $ $ $ $ i=1,....,m \\
$ $ $ $ $ $ $ $ $ $ $ $ x_j~ (\leq~,\geq~,\lessgtr ~ )~ 0 ~~~~~~~~ j=1,....,n
\end{cases}$
\end{center}
ou la forme matricielle : \\\begin{center}
$
\begin{cases}
Max~(Min)~~ c^jX \\
s/c $ $ $ $ AX~(\leq,=,\geq )~b_i $ $ $ $ $ $ \\
$ $ $ $ $ $ $ $ $ $ $ $ X~ (\leq~,\geq~,\lessgtr~)~ 0
\end{cases}$
\end{center}
ou :\\
$\hookrightarrow$ x=
$
\begin{pmatrix}
x_1 \\
. \\
. \\
.\\
x_n\\
\end{pmatrix}
$
matrice unicolonne des variables .\\
$\hookrightarrow$A=
$
\begin{pmatrix}
a_{ij} \\
\end{pmatrix}
$ , i=1,...,n \\
\hspace*{2.4 cm} j=1,...,n , Matrice des contraintes $ A \in M_{m,n}(\Re) $ .\\
$\hookrightarrow$ b=
$
\begin{pmatrix}
b_1 \\
. \\
. \\
.\\
b_m\\
\end{pmatrix}
$ Matrice de seconde membres .\\
$\hookrightarrow$ c=
$
\begin{pmatrix}
c_1 \\
. \\
. \\
.\\
c_n\\
\end{pmatrix}
$ Matrice de coût . \\
\end{cases}
$
\end{center}
$\bullet$ Un contraite $\geq$ peut être remlacés par une contraintes $\leq$\\
$\bullet$ On considére les signes des variables $ x_1,...,x_n $ : \\
\hspace*{1 cm} $ \hookrightarrow $ si $ x_i \leq 0 $ on a $ x_i^{~}=-x_i \geq 0
$ .
\\
\hspace*{1 cm} $ \hookrightarrow $ si $ x_i \in \Re $ on dècompose : $ x_i = x_i^+
- x_i^- $ avec $x_i^+,x_i^- \geq 0 $ .\\
$\bullet$ $ \alpha \leq \beta \Leftrightarrow \alpha + \gamma = \beta $ avec
$ \gamma \geq 0 $ appelé $ \underline{variable ~~ d'ecart} $ \\
$ $ $ $ De meme si $ \alpha\geq \beta $ $ \Leftrightarrow $
$\alpha-\gamma=\beta $ avec $ \gamma\geq 0 $
\end{rema}
\begin{rema}
Pour tout modèle d'optimisation linéaire , une seuls des trois optims suivantes
peut suvenir : \\
$ 1) $ Il existe au moins ume solution optimale , soit une infinité.\\
$ 2) $ Le problème est non-réailisable : Il n'est pas possible de satisfaire toutes
les contraintes , (i.e Le polyédre formé par les contraintes est vide ) .\\
$ 3) $ Le problème est non-borné : Il n'a pas de valeur optimale finie .
\end{rema}
\section{La Rèsolution d'un Problème Linéaire}
\begin{rema}
l'ensemble admissible est l'intersection d'un nombre fini de demi-espace.
\end{rema}
\begin{defi}
$\bullet $ L'ensemble admissible E d'un PPL est polytope de $ \Re^n $ un polytope
borné de $ \Re^n $ est appelé polyédre .\\
\includegraphics[scale=0.5]{poly 1.png}
cette méthode de résolution n'est applicable que dans le cas ou il n'y a que deux
variables .\\
On considére dans cette partie un probléme linéaire dans $ \Re^2 $ sous la forme:
\\
$ \begin{cases}
Considerons le PPL \\
\begin{center}
$ \begin{cases}
Maximiser ~Z= 3x_1 + 5x_2 \\
$ $ $ $ $ $ $ $ $ $ s/c: ~~~ x_1~~~~ ~~~~~~ \leq 4 \\
$ $ $ $ $ $ $ $ $ $ ~~~~ ~~~~~~ ~~~~~~~~2x_2 \leq 12 \\
$ $ $ $ $ $ $ $ $ $ ~~~~~~~~~~ 3x_1 + 2x_2 \leq 18 \\
$ $ $ $ $ $ $ $ $ $~~~~~~~~~~ ~~~~ x_1 ,x_2 \geq 0
\end{cases} $
\end{center}
\includegraphics[scale=0.5]{65491208_1314597188695352_1517944921053462528_n.jpg}
\begin{center}
Figure 1.1 :Résolution graphique
\end{center}
\end{exe}
\emph{Résolution : }
\begin{center}
$ M x_M + N x_N = b $
\end{center}
d'ou \begin{center}
$ M x_M = -N x_N + b $
\end{center}
d'ou \begin{center}
$ x_M = -M^{-1} NX_N + M^{-1}b $
\end{center}
( $X_M$ sont les variable principale et $ X_N $ sont variables secondaire ) . \\
Le systéme AX=b admet une ifinité de solution :\\
Les solution de $ x_M $ sont appelé les variable de $\underline{Base }$ \\
Les variable de $ x_N $ est appeé les variable $\underline{hors~Base }$\\
la sous matrice M est appelé $\underline{une ~ Base }$
\end{pp}
\begin{defi} une solution x=$
\begin{pmatrix}
x_M \\
x_N \\
\end{pmatrix} $ avec $ x_M = -M^{-1} NX_N + M^{-1}b $ est dit admisseble si x $
\geq $ 0 ,si non elle est non admissible .
\end{defi}
\begin{defi}( solution de base ) \\
une solution x=$
\begin{pmatrix}
x_M \\
x_N \\
\end{pmatrix} $ avec $ x_M = -M^{-1} NX_N + M^{-1}b $ est appelé solution de base
si $ x_N =0 .$
\end{defi}
\begin{theo} une solution de base est admisseble si $ x_N =0 $ et $ x_M=M^{-1} b
$ .
\end{theo}
\begin{theo} Les solution de bases admissible correspondant aux sommets du
polédre admissible E .
\end{theo}
\textcolor{red}{Principe de la métode du simplexe: } \\
L'aideé de la métode du simplexe ( dantzig-1940) : \\
\hspace*{0.4 cm} $ \rightarrow $ calculer un sommet de poylédre E , $ x^1 $ \\
\hspace*{0.4 cm} $ \rightarrow $ construire un nouveau sommet $ x^2 $ / $ f(x^2)
$ $ < $ $ f(x^1)$ \\
\hspace*{0.4 cm} $ \rightarrow $ recommencer cette opération tant qu'elle
possible .\\
Supposons que l'on á une solution be base admissible initiale M est la base
correspondant $ A = (MN) $ $ M^{-1 } $ éxiste. \\
probléme :
\begin{center}
(P):
$
\begin{cases}
Min f(x)= c^{t} x \\
s/c $ $ $ $ $ AX=b $ \\
$ $ $ $ $ $ $ $ $ $ $ $ x \geq 0
\end{cases}
$
\end{center}
avec x=$
\begin{pmatrix}
x_M \\
x_N \\
\end{pmatrix} $ ; c=$
\begin{pmatrix}
c_M \\
c_N \\
\end{pmatrix} $ \\
on a $ x_M = -M^{-1} NX_N + M^{-1}b $ \\
$ f(x)= c^{t} x = c^t_M x_M + c^t_N $ \\
\hspace*{0.8 cm} $ = f_0 +$č$_N x_N = f_0 + c_{m+1} x{m+1}+c_{m+2} x{m+2}+...+c_n
x_n $ \\
nous avons bien $ f(X^0)=f_0 $ (car $ X^0 $ est solution de base admissible .)\\
\\
T est d'optimalité de $ X^0 $ : \\
si $ \exists $ $ c_j < 0 $ $ \forall j $ $ \in $ $ {m+1,...,n} $ alors une
augmentation de $ x_j $ ( $ x_j > 0 $ ) va diminuer la fonction objectif donc la
solution axtuelle $ X^0 $ n'est pas optimale .
\begin{pp}
S'il existe plusieurs coûts negatifs $ c_j < 0 $ alors nous pouvons prendre celui
qui à la valeur absolue plus grande (Critère de Dntzig ) .
\end{pp}
\begin{pp}
Il existe d'autres Critères de coix de $ c_j $ pour éviter le '' Cyclage " par
exemple :\\
$ \star $ En prenont celui qui a l'indice le plus petit . \\
$ \star $ En respectont l'ordre naturel l'indices . \\
On noters $ c_s=min \lbrace c_{m+1},...,c_n \rbrace $ ( le minimum de tous les
coûts négatifs ) \\
Il s'agit ici de faire entrer $ x_s $ en base , ainsi le probléme devient : \\
$ f(x)=f_0 + c_s x_s $ , une ligne générique des contraintes s'ecrit sous la forme
$ x_i + a_{i,s} x_s = b_i $ , il faut que nous gardions $ X \geq 0 $ ainsi nous
devons avoir $ x_i = b_i - a_{i,s} x_s \geq 0 $ \\
Deux cas se prèsentent : \\
\\
1) - si $ a_{i,s} \leq 0 $ $ $ $ \forall $ $ i=1,2,...,m $ alors $ x_s $ peut
prendre des valeurs arbitrairement objectif $ f $ prend les valeur arbitrairement
petit c-â-d $ min_ef(x) = - \infty $ , (P) est alors un probléme non borné . \\
2) - si $ a_{i,s} > 0 $ alors nous avons bien $ x_i = b_i - a_{i,s} x_s \geq 0 $ $
\Leftrightarrow $ $ x_s \leq \frac{b_i } {a_{i,s} } $ donc la plus grande valeur
que peut prendre $ x_s $ est : \\
$ x_r = min \lbrace \frac{b_i}{a_{i,s}} \rbrace $ \\
Notons $ x_r = \frac{b_r}{a_{r,s}}=min \lbrace \frac{b_i}{a_{i,s}} / a_{i,s} >
0 \rbrace $ nous avons effectivement \\ $ x_r + a_{r,s} x_s =b_r $ $ \Rightarrow $
$ b_r - a_{r,s} \frac{b_r}{a_{r,s}} =b_r-b_r = 0 $ ainsi $ x_r $ sort de la base .
\end{pp}
\begin{center}
\textcolor{magenta} {Organigramme résumant les principales étapes de la méthode du
simplexe } :
\end{center}
\includegraphics[scale=0.7]{ORILI OLL1.png}
\begin{exe} $~~~~~~~~~~~~~~$
\begin{center}
(P) : $
\begin{cases}
\end{cases}
$
\end{center}
\end{cases}
$
\\
\begin{tabular}{ |c|c|c|c|c|c|c|}
\hline
& $ x_1 $ & $ x_2 $ & $ x_3 $ & $ x_4 $ & $ x_5 $ & \\ \hline
& $ 1 $ & $ -1 $ & $ 0$ & $ 0$ & $ 0 $ & $f^{*}(x) $ \\ \hline
$ x_3 $ & $ -2 $ & $ 1 $ & $ 1$ & $ 0$ & $ 0 $ & $ 1 $ \\ \hline
$ x_4 $ & $ 1 $ & $ 3 $ & $0 $ & $ 1$ & $ 0 $ & $ 10 $ \\ \hline
$ x_5 $ & $ 1 $ & $ 0 $ & $ 0$ & $ 0$ & $ 1 $ & $ 4 $ \\ \hline
\end{tabular}
\end{center}
\textcolor{red}{Solution de Base} : $
\begin{cases}
x_3=1 \\
x_4=10\\
x_5=4\\
\end{cases}
$
\\
T est d'optimalité : Le coût associé a $x_2$ hors base est $(<0)$ la solution
actuelle est non-optimale . construction d'une nouvelle solution de base admissible
\\
$x_2$ $\underline{entre~de~la~base}$ \\
$x_3$ $\underline{sorte~de~la~base }$\\
\textcolor{red}{Pivotage} :\\
$\begin{cases}
L_1 \mapsto L_1 = L_{Piv}\\
L_0 \mapsto L_0+L_{Piv}\\
L_2 \mapsto L_2 - 3 L_{Piv}\\
L_3 \mapsto L_3
\end{cases}$
\\
\begin{center}
\begin{tabular}{ |c|c|c|c|c|c|c|}
\hline
& $ x_1 $ & $ x_2 $ & $ x_3 $ & $ x_4 $ & $ x_5 $ & \\ \hline
& $ -1 $ & $ 0 $ & $ 1$ & $ 0$ & $ 0 $ & $f^{*}(x)+1 $ \\ \hline
$ x_2 $ & $ -2 $ & $ 1 $ & $ 1$ & $ 0$ & $ 0 $ & $ 1 $ \\ \hline
$ x_4 $ & $ 7 $ & $ 0 $ & $-3 $ & $ 1$ & $ 0 $ & $ 7 $ \\ \hline
$ x_5 $ & $ 1 $ & $ 0 $ & $ 0$ & $ 0$ & $ 1 $ & $ 4 $ \\ \hline
\end{tabular}
\end{center}
\textcolor{red}{Solution en base $X^2$ } : $
\begin{cases}
x_2=1 \\
x_4=7\\
x_5=4\\
\end{cases}
$
\\
\end{cases}$
\\
\begin{tabular}{ |c|c|c|c|c|c|c|}
\hline
& $ x_1 $ & $ x_2 $ & $ x_3 $ & $ x_4 $ & $ x_5 $ & \\ \hline
& $ 0 $ & $ 0 $ & $ \frac{4}{7}$ & $ \frac{1}{7}$ & $ 0 $ & $f^{*}(x)+2 $ \\
\hline
$ x_2 $ & $ 0 $ & $ 1 $ & $ \frac{1}{7}$ & $ \frac{2}{7}$ & $ 0 $ & $ 3 $ \\
\hline
$ x_1 $ & $ 1 $ & $ 0 $ & $ \frac{-3}{7} $ & $ \frac{1}{7}$ & $ 0 $ & $ 1 $ \\
\hline
$ x_5 $ & $ 0 $ & $ 0 $ & $ \frac{3}{7}$ & $ \frac{-1}{7}$ & $ 1 $ & $ 3 $ \\
\hline
\end{tabular}
\end{center}
\textcolor{red}{Solution $X^3$ } : $
\begin{cases}
x_2=3 \\
x_1=1\\
x_5=3\\
\end{cases}
$
\\
\\
$f^*(x)=-2$ solution optimale .
\end{exe}
\begin{center}
(P):
$
\begin{cases}
Min $ $( f(x) = c^{t} x ) \\
s/c $ $ $ $ AX = b \\
$ $ $ $ $ $ $ $ $ $ $ $ x \geq 0
\end{cases}
$
\end{center}
avec i=1,.....,k le $b_i $ sont négatife .\\
(P) admet une solution de base triviale $\underline{non~ admissible}$ . D'ou
l'utiliation de $\underline{la~ methode ~des~ deux ~phases}$ pour la recherche
d'une solution de base initiale
admisseble
pour résoudre le probléme, on introduit une nouvelle variable appelé variable
artificielle .
une variable artificielle est une variable fictive introduite spécialement
pour une solution de base accessible .
Elle n'a pas de singification économique .\\
\textcolor{red}{Principe de la méthode de deux phases}
$ $ $ $ AX -I_mV = b \\
$ $ $ $ X\geq 0 ~,~ V\geq 0\\
\end{cases}
\end{cases}
$
\end{center}
avec : ~~~~~~
$I_m$ étant la matrice identité m*m et
V=
$
\begin{pmatrix}
X_{n+1} \\
. \\
. \\
.\\
X_{n+1}\\
\end{pmatrix}$ .\\
soit $X^* $= $
\begin{pmatrix}
x^*_1 \\
. \\
. \\
x^*_n\\
x^*_{n+1}\\
\end{pmatrix}$ solution optimale de ($P_{aux}$).\\
$\bullet$ si W($X^*$) $\neq$ 0 ( la variabl artificielle $x_{n+1}$ $\neq$ 0 ).\\
$\Rightarrow$ Le probléme (P) n'a pas de solution .\\
$\bullet$ si W($X^*$) = 0 ( la variabl artificielle $x_{n+1}$ = 0 ).\\
$\Rightarrow$ $X^* $ est solution de base admissible de (P).\\
\\
\textcolor{blue}{phases 2} si W($X^*$) = 0, dans ce cas on supprime la colonne des
des variables artificielle et la ligne de W($X^*$). puis on résoud (P) avec $
{X^*}^`$= $
\begin{pmatrix}
x^*_1 \\
. \\
. \\
.\\
x^*_n\\
\end{pmatrix}$ comme solution de base admissible par le simplexe .
\\
\chapter{ Dualité}
\section{ Introduction}
$ $ $ $ Au chapitre précédent ,on appris à résoudre des problémes de programmation
linéaira à l'aide de méthode du simlexe .tout fois ,la résolution du probléme
simplexe n'est que le point de départ de tout recherche opérationnelle basé sur un
normatif linéaire . ce modéle est une représentation simplifiée de la réalité . la
solution optimale du modéle n'est pas néssairement la solution du probléme réel .
il faut donc étaudier la solution obtenue en détail avant de l'implanter . mais
avant de pouvoir entrer dans le cour du sujet , il faut examiner un aspect
important de la programmation linéaire : la Dualité
\section{ Probléme dual }
$ $ $ $ A chaque probléme d'optimisation linéaire ,nous allons définir un nouveau
programme appelé $\underline{le~dual }$ ,le probléme originale est appelé
$\underline{ le~primal }$ .\\
probléme dual :
\begin{center}
(P'):
$
\begin{cases}
Max ~w = b^{t} y \\
s/c $ $ $ $ A^{t}y \geq c \\
$ $ $ $ $ $ $ $ $ $ $ $ y \geq 0
\end{cases}
$
\end{center}
\section{ Construction du dual}
\begin{center}
\begin{tabular}{ |c|c|}
\hline
$min$ & $max$ \\ \hline
Primal & Dual \\ \hline
Variable $ \geq 0 $ & Contrainte $ \leq 0 $ \\ \hline
Variable $ \gtrless 0$ & Contrainte $ = 0 $ \\ \hline
Variable $ \leq 0 $ & Contrainte $ \geq 0 $ \\ \hline
Contrainte $ \leq 0 $ & Variable $ \leq 0 $ \\ \hline
Contrainte $ = 0 $ & Variable $ \gtrless 0 $ \\ \hline
Contrainte $ \geq 0 $ & Variable $ \geq 0 $ \\ \hline
\end{tabular}
\end{center}
\begin{center}
\subsubsection{ Exemple : }
Primal :
$
\begin{cases}
Max~ z =3x_1 +x_2-2x_3\\
s/c $ $ $ $ x_1 +2x_2 \geq 10 \\
$ $ $ $ $ $ $ $ $ $ $ $ 3x_1 -x_2 +x_3 = 7\\
$ $ $ $ $ $ $ $ $ $ $ $ x_1 + 3x_3 \leq 8\\
$ $ $ $ $ $ $ $ $ $ $ $ x_1 \geq 0 ; x_2 \geq 0 ; x_3 \geq 0 \\
\end{cases}
$ $
\Rightarrow$ $ $ Dual:
$
\begin{cases}
Max~ z' =10y_1 +7y_2+8y_3\\
s/c $ $ $ $ y_1 +3y_2+y_3 = 3 \\
$ $ $ $ $ $ $ $ $ $ $ $ 2y_1 -y_2 \geq 1 \\
$ $ $ $ $ $ $ $ $ $ $ $ y_2 + 3y_3 \leq -2 \\
$ $ $ $ $ $ $ $ $ $ $ $ y_1 \leq 0 ; y_2 \gtrless 0 ; y_3 \geq 0 \\
\end{cases}
$
Primal:
$
\begin{cases}
Max~ z =x_1 +3x_2 -2x_3\\
s/c $ $ $ $ x_1 +2x_2 \geq 12 \\
$ $ $ $ $ $ $ $ $ $ $ $ 2x_1 -3x_2 +x_3 = 8\\
$ $ $ $ $ $ $ $ $ $ $ $ 2x_1 + 2x_3 \leq -10 \\
$ $ $ $ $ $ $ $ $ $ $ $ x_1 \geq 0 ; x_2 \gtrless 0; x_3 \geq 0 \\
\end{cases}
$
$ \Rightarrow$
Dual :
$
\begin{cases}
Max ~z' =12y_1 +8y_2-10y_3\\
s/c $ $ $ $ y_1 +2y_2+2y_3 \leq 1 \\
$ $ $ $ $ $ $ $ $ $ $ $ 2y_1 -3y_2 = 3 \\
$ $ $ $ $ $ $ $ $ $ $ $ y_2 + 2y_3 \leq -2 \\
$ $ $ $ $ $ $ $ $ $ $ $ y_1 \geq 0 ; y_2\gtrless 0 ; y_3 \leq 0 \\
\end{cases}
$
\\
\\
+ inverse tous les opérteurs des contraintes . \\
+ iverser uniquement les opérqteurs ($ = ou / et \gtrless$)\\
\end{cases}$
le dual
(P'):
$\begin{cases}
$ Min $ w(y)=b^tY\\
$ ~~~$s/c~A^tY \geq c\\
$ ~~~~~~~~$Y \geq 0
\end{cases}$
\begin{coro}
Si $ \begin{cases}
\end{cases} $
Alors , $ X $ et $ Y $ sont des solutions optimale resp de (P) et (P') .
\end{coro}
\begin{prv} Soit $ X^* $ et $ Y^* $ des soluitions admissibles respective de (P)
et (P') telles que $ z(X^*) = w(Y^*) $ . d'aprés résultat du théoreéme preécédent
pour tout X admissible pour (P) on a $ z(X) \leq w(Y^*)=z(X^*) $ . donc $ X^* $
est solution optimale pour (P) . D'une manière anolongue pour tout Y optimale
pour(P') ona $ w(Y^*)=z(X^*) \leq w(y) $ donc $ Y^*$ est une solution optimale
pour (P').
\end{prv}
\begin{theo}: ( Dualité forte )
Si le probléme (P) admet une solution admissible $ (X^*) $ alors le probléme dual
(P') admet lui aussi une solution optimale $Y^* $ et ona $ z(X^*)=w(Y^*) $ .
\end{theo}
\begin{prv} Aprés permutation des colonnes de A nous obtenons: A=($A_B$
$A_H$) . \\
On suppose (P) mis sous forme standard .'il existe une solution admissible
optimale, alors il existe une solution de $\underline{Base }$ admissible optimale
$X_B$= $A_B^{-1}$b. \\
choisissons $Y^*$=$(A_B^{-1} )^t$ $c_B$.\\
Nous montrons que $Y^*$ est une solution admissible optimale pour (P').\\
Posons $L_H$ = $c_H$ - ( $A_B^{-1}$ $A_H$ )$c_B$ le vecteur des cout
réduitvs . étant donné que le probléme primal est un probléme de maximisation ,
alors à l'optimum $L_H$ $\leq$ 0.\\
on a $ A_H^T$ $Y^*$= $ A_H^T$ $(A_B^{-1} )^t$ $c_B$=$(A_B^{-1} $ $A_H$)$^t$
$c_B$= $c_H$ - $L_H$.\\
Or à l'optimum $L_H$ $\leq$ 0 ,alors $ A_H^T$ $Y^*$ $\geq$ $c_H$ .\\
Puisque $ A_B^T$ $Y^*$= $ A_B^T$ $(A_B^{-1} )^t$ $c_B$=$c_B$, avec ces deux
condition nous déduire que$ A_H^T$ $Y^*$ $\geq$ c .\\
alors $Y^*$ est une solution admissible pour (P').\\
D'autre part on a : Z($X^*$)=$c_B^t$ $X^*$ =$c_B^t$ $A_B^{-1}$b=$((A_B^{-1}$)$^t$
$c_B^t$ $)^t$b=W($Y^*$).\\
donc d'apres le théoreme de dualité faible $Y^*$ est optimale pour (P').
\end{prv}
\begin{rema}
\emph{(Relation entre les solutions duales et primales ) } \\
$ \bullet $ Pour un problème de programmation liénaire , exactement une des
possibilités suivantes exister :
\hline
\end{cases}$
\end{center}
\section{ introduction}
Etant donné un probléme d'optimisation linéaire :
\begin{center}
(P):
$
\begin{cases}
Max ~z = c^{t} x \\
s/c $ $ $ $ AX \leq b \\
$ $ $ $ $ $ $ $ $ $ $ $ x \geq 0
\end{cases}
$
\end{center}
nous allons etudier la sensibilité de la solution optimale par rapport aux
donnés du probléme. Autremment dit ,comment varie la solution ou encore
la fonction objective si l'on modifie une entrée du vecteur C ou b ou encore
la matrice A. L'analyse de sensibilité est anssi connue sous le nom
d'analyse post-optimale .\\
\begin{defi}
une solution de base optimale est dite stable si l'ensemble des variable de base
à l'optimum ne changent pas, méme si les valeurs d ces variable be base sont
modifiées .
\end{defi}
\begin{defi}
Par définition on appelle cout marginale d'un bien l'augmentation minimale
de dépenses par rapport à la solution optimale ,qui résulterait de l'utilisation
d'une unité suppléémentaire de ce bien ,lorsque le probléme posé consiste à
produire des biens au moindre cout .
\end{defi}
\begin{rema}
les coux marginaux sont donc les effets nets associés aux variable
d'écarts,puisque ce
sont des variables qui déterminent les excédentes (ou les insuffisonts ) de biens .
\end{rema}
\section{ Analyse de sensibélité sur les seconds membres $b_i$ }
le primal
(P):
$
\begin{cases}
Max $ $ z(x)=C^tX \\
$~~~~ $s/c~ AX \leq b\\
$~~~~~~~~~ $X \geq 0
\end{cases}$
le dual
(P'):
$\begin{cases}
$ Min $ w(y)=b^tY\\
$~~~~ $s/c~A^tY \geq c\\
$~~~~~~~~~ $Y \geq 0
\end{cases}$
\end{center}
si $ X^*$ et $ Y^*$ sont respectivement des solution optimal de (P) et (P') .\\
soit $Z^*$ l'optimale de (P) et (P') .\\
alors d'aprés le théoréme de dualité forte on a :
\begin{center}
$Z^*$= $c^t$ $X'^*$=$b'^t$ $Y^*$ et Z= $c^t$ $X^*$=$b^t$ $Y^*$ (avec b'= b+ $\Delta
b$)\\
\end{center}
\hspace*{1cm} $\Rightarrow$ $\Delta Z$ =$c^t$($X'^*$ + $X^*$)= ($b'^t$ + $b^t$)
$Y^*$\\
\hspace*{1cm} $\Rightarrow$ $\Delta Z$ =$c^t$($\Delta X$)= ($\Delta b$)$Y^*$\\
\\
D'ou la relation $\frac{\partial Z}{\partial b_i}$ = $y^*_i$ \\
cette relation donne le taux de variation de la fonction objectif par rapport aux
paramétrés $ b_i$. \\
Deux cas ce présentent lors d'une variation de $ b_i$ :\\
\\
\hspace*{1cm} $ \bullet $ $1^{ére}$ cas $y^*_i$ =0 : une variation de $ b_i$ ne
change pas $Z^*$ ,dans ce cas la varible d'écart $x_{n+i}$ de (P) peut étre nulle
ou non .\\
\hspace*{1cm} $ \bullet $ $2^{éme}$ cas $y^*_i$ $\geq$ 0 : une variation de $
b_i$ d'une unité améliore $Z^*$ de sa valeur à ( $Z^*$+ $y^*_i$),la variable
d'écart $x_{n+i}$ est nulle.\\
\\
Pour obtenir une bonne optimisation de $Z^*$, il faut varier la matiére premiére
$b_i $ correspond à la plus grand valeur des $y^*_i$.\\
\begin{theo}
si (P) admet une solution optimale non dégénérée ($X^*_B$ $ >$ 0) alors
$\exists$ $ \varepsilon$ $ >$ 0 tel que si $\vert$ $\Delta b_i$ $\vert$ $\leq$ 0 ,
i=1,....,m\\
Le probléme linéaire perturbé :
\begin{center}
($\overline{P}$):
$
\begin{cases}
Max ~(~z = c^tX) \\
s/c $ $ $ $ \sum_{j=1}^n a_{i,j}x_j \leq b'= b_i + \Delta b_i ~~~~ i= 1,....,m
\\
$ $ $ $ $ $ $ $ $ $ $ $ X \geq 0
\end{cases}
$
\end{center}
admet une solution optimale.\\
et la valeur de l'optimisation est :
\begin{center}
${Z^*}^` $ =$ Z^*$ + $ \sum_{j=1}^m y^*_i \Delta b_i $
\end{center}
\end{theo}
\section{ Application}
Considerons le PL \\
\begin{center}
$ \begin{cases}
Maximiser ~z= 3x_1 + 5x_2 \\
$ $ $ $ $ $ $ $ $ $ s/c: ~~~ x_1~~~~ ~~~~~~ \leq 4 \\
$ $ $ $ $ $ $ $ $ $ ~~~~ ~~~~~~ ~~~~~~~~2x_2 \leq 12 \\
$ $ $ $ $ $ $ $ $ $ ~~~~~~~~~~ 3x_1 + 2x_2 \leq 18 \\
$ $ $ $ $ $ $ $ $ $~~~~~~~~~~ ~~~~ x_1 ,x_2 \geq 0
\end{cases} $
\end{center}
Le tableau finale du simplexe est donné comme suit :\\
\begin{center}
\begin{tabular}{ |c|c|c|c|c|c|c|}
\hline
& $ x_1 $ & $ x_2 $ & $ x_3 $ & $ x_4 $ & $ x_5 $ & \\ \hline
& $ 0 $ & $ 0 $ & $ 0$ & $ \frac{2}{3}$ & $ 1 $ & $f^{*}(x)-36 $ \\ \hline
$ x_3 $ & $ 0 $ & $ 0 $ & $ 1$ & $\frac{1}{3} $ & $ \frac{-1}{3} $ & $ 2 $ \\
\hline
$ x_2 $ & $ 0 $ & $ 1 $ & $0 $ & $\frac{1}{2} $ & $ 0 $ & $ 6 $ \\ \hline
$ x_1 $ & $ 1 $ & $ 0 $ & $ 0$ & $ \frac{-1}{3}$ & $ \frac{1}{3} $ & $ 2 $ \\
\hline
\end{tabular}
\end{center}
le point optimal est $x^*$ =(2,6) et la valeure optimale est Z =36.\\
Comme $ x_3 $ $ , x_4 $ et $ x_5 $ sont des variables d'écart des contaraintes,
donc la solution du probléme dual est:
$
\begin{cases}
y^*_1= 0\\
y^*_2= \frac{3}{2}\\
y^*_3=1\\
\end{cases}$\\
\textcolor{red}{effectuant une augmentaion de capacité du premier atelier de $
b_1$= 4 à $ b'_1$=5}
\includegraphics[scale=0.5]{66227077_360974751259894_9133282804308639744_n.jpg}
\begin{center}
Modification de $b_1$
\end{center}
\begin{center}
$x'^* $= $x^*$=(2,6)
\end{center}
En conséquence, la valeur optimal de Z ne change pas :
\begin{center}
$z'^* $= $z^*$= 36
\end{center}
D'ou une variation nulle d'objective $\Delta$z =$z'^* $-$z^*$ = 0= $y^*_1$ \\
Donc ,l'effet d'une augmentaion de $b_1$ sera nul sur la valeur optimum de
l'objective quel que soit $b_1$ $ \geq$ 4. En effet,endessous de $b_1$ =2, la
solution optimale va changer On a donc déterminé le domaine de validité de $y^*_1$.
Il s'agit de l'intervalle : \\
\begin{center}
$b_1$ $\in$ [ 2 ,+$ \infty$ $\lfloor$
\end{center}
\textcolor{red}{effectuant une augmentaion de capacité du premier atelier de $
b_2$= 12 à $ b'_2$=13}
\includegraphics[scale=0.5]{65393787_316740955900565_2367375438000422912_n.jpg}
\begin{center}
Modification de $b_2$
\end{center}
L'augmentation de $b_2$=12 à $b'_2$=13 donne un nouveau point optimal $x'^*$ =
($\frac{5}{3}$,$\frac{13}{2}$) et une valeure optimale $z'^* $=37,5.\\
Donc $\Delta$z =$z'^* $-$z^*$ =37,5-36 = 1,5 = $y^*_2$.\\
\includegraphics[scale=0.5]{65737685_467847947314310_1446228197094981632_n.jpg}
\begin{center}
Modification de $b_3$
\end{center}
L'augmentation de $b_2$=18 à $b'_2$=19 donne un nouveau point optimal $x'^*$ =
($\frac{7}{3}$,6) et une valeure optimale $z'^* $=37.\\
Donc $\Delta$z =$z'^* $-$z^*$ =37,5-36 = 1= $y^*_3$.\\
Au delà de $ b_2$= 24 la solution optimal reste en (4,6).\\
De meme en deca de $ b_3$=12 la solution optimal change .\\
$y^*_3$= 1 ne change pas pour $ b_3$ $\in$ [ 12,24 ].\\
Donc la base reste optimale pour $ b_3$ $\in$ [ 12,24 ].\\
\end{document}