Vous êtes sur la page 1sur 21

Techniques doptimisation

Chapitre V
V.1. Notion de base sur loptimisation :
Loptimisation est un concept naturel dans la vie courante devant un problme donn, en
prsence de plusieurs solutions possibles. Tout individu choisit en gnral une solution qui
est qualifie de meilleur .
Loptimisation peut tre sommairement dfinie comme :
une opration permettant davoir le meilleur de quelque chose.
le choix parmi une srie de possibilits.
Optimiser cest toujours trouver les valeurs extrmales dune fonction permettant par
exemple de minimiser les cots ou de maximiser les bnfices.
La formulation dun problme doptimisation comporte toujours trois tapes:
1. choix des variables du modle,
2. formulation de lobjectif,
3. formulation des contraintes.
Pour un gazoduc les critres doptimisation peuvent tre :

Maximiser la fiabilit.

Maximisation de la capacit de transport de louvrage.

Minimisation de la puissance consomme.

Minimisation des dpenses dexploitation.

Pour diffrents critres doptimisation, on obtiendra des solutions optimales diffrentes. Les
rsultats de toute procdure doptimisation doivent tre une dfinition claire des dcisions
techniques prendre fin de raliser lobjectif dsir, si par exemple lobjectif est de
minimiser les frais dexploitation on doit dfinir principalement :

Les stations de compression mettre en services.

Les pressions de refoulement.

Le nombre de compresseurs mettre en service dans chaque station.

Le choix du compresseur mettre en serviceetc.

ITDH/05

57

Techniques doptimisation
Chapitre V

V.2. Dfinitions de base :


a- Variables de commande :
Variables ayant une influence directe sur le processus optimiser et sur lesquelles loprateur
peut exercer une dcision.
b- Variables dtat :
Ce sont des paramtres mesurables (ou calculables) mais non commandables. A la diffrence
des variables de commande, aucune action directe de loprateur ne peut changer leurs
valeurs.
c- Perturbations alatoires :
Variables dont les fluctuations (changements) en fonction du temps sont imprvisibles.
d- Les paramtres :
Ce sont les caractristiques constantes du processus.

Les variables de commande et perturbation sont appeles variables dentre ( X , les

consquences (le rsultat) de laction des variables dentre sont appeles variables de sortie (

Y .

PROCESSUS

V.3. Modle doptimisation :


Pour que le problme puisse trouver une solution il faut :
-

Exprimer un critre objectif (fonction objective) qui sexprime comme suit :


Y=(x)
Dfinir un domaine admissible pour les variables de commandes et de sortie
systme de contraintes .

ITDH/05

58

Techniques doptimisation
Chapitre V
Exemple pour gazoduc :
P X PMS

Dautres contraintes limitant la pression minimale dans la canalisation.


Pmin P X PMS

Ces contraintes sont reprsentes sous forme dgalit ou dingalit et qui reprsentent le
domaine des solutions.
V.4. Classification des problmes :
Le problme doptimisation peut tre reprsent sous deux formes :
V.4.1. Problmes doptimisation en variables libres :
Ce genre de problme est dfinit par un fonctionnel seulement, est appel aussi problme
doptimisation sans contraintes.
F ( X ) Extremum
V.4.2. Problme doptimisation en variables lies :
Ce dernier est compos dun fonctionnel et dun systme de contraintes.
F ( X ) Extremum

gi ( x ) 0 i=1 r
g j (x)=0 j=r+ 1 m

Problme de programmation linaire (PPL) dont le fonctionnel est linaire et les


contraintes sont linaires, soit rsolu par un algorithme de grande efficacit : lalgorithme

du simplexe.
Si le fonctionnel ou bien une ou plusieurs contraintes sont non linaires le problme est

assimil un problme de programmation non linaire (PNL).


Dans le cas o la fonction objective sexprime comme suit :

ITDH/05

59

Techniques doptimisation
Chapitre V

F ( X ) = Fi ( X ) Extremum

gi ( x1 , x2 , , xn ) =bi
g j ( x 1 , x 2 , , x n ) b j
i=1 ,... , k
j=k +1 , , m

Le problme est appel problme fonctions sparables.


Lavantage de ce type de problme est la possibilit de les rsoudre par la programmation
dynamique.
V.5. Mthodes de rsolution en variables lies :
A. La programmation linaire :
Un problme de programmation linaire consiste trouver lextremum (minimum ou
maximum) dune fonction linaire n variables,
Z=c1x1+c2x2+.cnxn

extremum

Soumise m contraintes linaires :


ijxj bi

j=1 n

xj 0

i=1 m

La rsolution des problmes de programmation de type linaire PPL se base sur


lalgorithme du simplexe.
A.1. Algorithme du Simplexe :
A.1.1. Principe de lalgorithme :
Le principe de lalgorithme du Simplex est de dterminer une solution optimale en allant de
sommet en sommet adjacent.
ITDH/05

60

Techniques doptimisation
Chapitre V
A.1.2. Formes canoniques dun programme linaire :
La forme canonique dun programme linaire dans lespace des variables originales est
illustre par suite :
F ( X ) Extremum
ij x j bi

j=1 n

Imposer que le membre de gauche soit infrieur ou gal au membre de droite, revient dire
quil faudrait ajouter une quantit non ngative au membre de gauche pour quil y ait galit
avec la condition des contraintes de positivit des variables dcart.
La variable artificiel ou la variable dcart est la quantit qui, ajoute au membre de gauche
dune contrainte, permet de transformer la contrainte en galit. On parle dune quivalence
totale entre les deux formes (canonique et galit).
A.1.3. Notion de solution de base :
Par exemple des galits dun problme forment un systme de m =3 galits en n+m =2+
3= 5 inconnues. Donc la valeur de n =2 variables peut tre fixe arbitrairement.
Les deux variables n =2 peuvent tre fixes zro. On dit quelles sont mises hors base.
Rn+ m fixes

Dfinition : On appelle variables hors base (v. h. b.) les n variable de

zro. Les m variables restantes sont appeles variables de base (v. b.).
Dfinition : On appelle solution de base une solution o en ayant choisi n variables
hors base, on obtient une solution unique en rsolvant les m contraintes dgalits

obtenues en ajoutant les variables dcart.


Dfinition : On appelle solution de base ralisable une solution de base qui, en plus,
vrifie les contraintes de positivit.
Le lien entre lalgbre et la gomtrie est alors donn par la proprit suivante :
Proprit : La notion gomtrique de sommet du polygone correspond la
notion algbrique de solution de base ralisable.

Nous avons dj annonc que lalgorithme du Simplexe revient aller de sommet en


sommet adjacent. Interprt algbriquement, cela revient considrer un passage dune
ITDH/05

61

Techniques doptimisation
Chapitre V
solution de base ralisable une autre solution de base ralisable. La notion dadjacence doit
tre tendue aux solutions de base.
Dfinition : On appelle solutions de base adjacentes deux solutions de base dont les
variables de base sont les mmes sauf une qui est de base dans la premire base et hors
base dans la seconde.
Proprit : La notion gomtrique de sommets adjacents correspond la
notion algbrique de solutions de base ralisables adjacentes.
A.1.4. Initialisation de lalgorithme :
La question qui se pose est: Comment choisir le point de dpart? Si le problme est mis
sous forme dingalits du type avec des membres de droite tous positif, il suffit de
prendre lorigine comme point de dpart. En termes algbriques, toutes les variables
originales sont mises hors base. Automatiquement, dans le systme dgalits.
A.1.5. Une itration Simplexe :
Pour rappel, le principe de lalgorithme du Simplexe consiste se dplacer de sommet en
sommet adjacent de faon amliorer la fonction objectif. On va donc se dplacer partir de
notre solution de base de dpart vers une solution de base ralisable en suivant une arte de la
quelle lobjectif sextrme.
A.1.5.1. Choix de la direction :
La question qui se pose est alors: comment choisir la direction? Remarquez
qualgbriquement, cette question se formule de manire quivalente par: quelle variable hors
base va entrer en base?
Le critre de slection de la variable entrante est de prendre la variable hors base qui fournit
le plus fort taux daugmentation de la fonction objectif, donc on choisit la variable entrante
avec le coefficient objectif le plus extrmiste.
A.1.5.2. Choix de la variable sortante :
Le critre de slection de la variable sortante est le suivant: prendre comme variable sortante
la premire variable de base sannuler.
De manire gnrale, on calcul le minimum du rapport du coefficient du membre
ITDH/05

62

Techniques doptimisation
Chapitre V
de droite sur le coefficient de la variable entrante dans la mme ligne lorsque celui-ci est
positif. La variable sortante est celle dont on lit la valeur dans la ligne o ce minimum se
produit.
A.1.5.3. Calcul du nouveau sommet :
Ceci peut tre fait au moyen de deux types doprations qui ne modifient pas lensemble des
solutions dun systme dquations:
1. Multiplier une galit par une constante non nulle;
2. Additionner un multiple dune quation une autre quation.
A.1.5.4. Test doptimalit :
Le critre darrt sera donc le suivant: la solution de base courante est optimale si tous les
coefficients objectif sont ngatifs ou nuls lorsque le fonctionnel est exprime en fonction des
seules variables hors base.
B. La programmation en nombres entiers :
On parle de problmes en nombres entiers lorsque pour un problme doptimisation avec
objectif et contraintes linaires, les variables sont astreintes tre entires. On parle de
problmes mixtes entiers. Lorsquune partie des variables seulement sont astreintes tre
entires.
Nous savons que lalgorithme du Simplexe fournit une mthode de rsolution gnrale
pour tous les problmes linaires quelle que soit leur forme. Au contraire, en programmation
en nombres entiers, on ne dispose pas dun algorithme gnral qui permette de rsoudre
efficacement tous les problmes en nombres entiers.
Cependant, il existe une mthode gnrale connue sous le nom de Branch and Bound
(sparation et valuation) qui permet de rsoudre bon nombre de problmes en nombres
entiers.
B.1. Mthode de Branch and Bound (sparation et valuation):
Dans la majorit des cas les problmes doptimisation sont rsolus par des mthodes
numriques. Dans une mthode doptimisation lapport dinformation doptimisation
permettant de mettre en point des mthodes efficaces.
ITDH/05

63

Techniques doptimisation
Chapitre V
Dans ce domaine nous avons choisi de dvelopper une base algorithme doptimisation
adapt permettant de traiter les diffrents problmes. Il sagit de dvelopper des algorithmes
destins au problme de conception optimale. Ces problmes sont des problmes
doptimisation non linaires comportant des variables mixtes (continues, discrtes).
Lune des mthodes propose consiste en un couplage de deux mthodes : un algorithme
de sparation et un autre dvaluation progressive de lensemble des solutions pour traiter les
variables discrtes et une mthode dual pour les variables continues. A chaque itration
lensemble des solutions est compos en sous-ensembles.
La meilleure valuation est alors conserve comme la meilleure approximation de la
solution optimale. On peut ensuite liminer tous les sous-ensembles dont lvaluation est
suprieur cette approximation.
Cette phase dvaluation ncessite de rsoudre le problme doptimisation associe en
assimilant les variables discrtes des variables continues.
B.1.1. Principe :
On construit un arbre de problmes, dont le problme initial est la racine. On sarrange pour
diviser le problme en deux (ou plus)sous problmes. Le minimum peut appartenir lun des
sous problmes. Si lon peut prouver que lun des sous problmes est infaisable on llimine.
Si lun des sous problmes est tellement contraint que sa solution est vidente, on note la
valeur de sa solution. On cherche obtenir une borne inferieur de la solution dun sous
problmes, si elle est suprieure la meilleur solution on limine le sous problme. Dans le
cas restant on subdivise de nouveau le sous problme.
B.1.2. Variables binaires :
La mthode est particulirement bien adapte la rsolution ; les inconnus ne peuvent
prendre que la valeur 0 ou 1.
Pour sparer un problme en deux, on choisit lune des inconnus par exemple x1 et on impose
les contraintes x1=0 ou x1=1.
Pour obtenir une borne suprieur, on rsout le problme on continue. Un sous problme est
rsolu si toutes les variables sont fixes ou si la solution continue est entire.
B.1.3. Lalgorithme :
ITDH/05

64

Techniques doptimisation
Chapitre V
Le rapport algorithmique gnral pour des approches de B&B est comme suit :
Etape1 :
Poser une tolrance absolue
Placer le nud compteur k=0
Initialiser lensemble de nuds lier J= { 0 }
Mettre y0=0 ou 1
N, la liste de nuds explorer est vide
Etape 2 : sparation
Rsoudre le problme de NLP
LBDj=min (x, y)
h(x,y)=0
g(x, y) 0
n
x X R

y Y

Si toutes les variables de y sont entiers la rsolution :


Si LBDj UBD*; UBD* = LBDj
Si non, sonder le nud courant
Si quelque variables de y sont partielles :
Si LBDj UBD*

ajoutez le nud courant N

Si non, sonder le nud courant


Etape 3 :
Placer LBD* la plus base limite inferieur de liste N
ITDH/05

65

Techniques doptimisation
Chapitre V

Si UBD*-LBD*
On termine avec la solution UBD*.
Si non, procder ltape 4.
Etape 4 : valuation
Choisir le prochain nud pour tre explor, Ni, de limite inferieur de la liste N. Sa borne
inferieur est LBDi.
Choisir une variable brancher.
Crer deux nouvelles rgions.
Aller ltape 2.
C. Programmation non linaire et technique de rsolution :
C.1. La mthode du multiplicateur de Lagrange :
Considrons un problme d'optimisation impliquant deux variables et une contrainte
simple d'galit. Le rapport du problme serait comme suit:
Minimiser

f(x1, x2)

Sujet

h( x 1, x 2)=e

(V.1)
(e est une constante)

(V.1.a)

C.--d.,
Sujet au

h ' ( x 1 , x 2 )=he

(V.1.b)

l'optimum sous contraintes, les deux conditions ncessaires suivantes doivent tre vrifies
simultanment :
df =0=

f
f
dx +
dx (V .2)
x1 1 x2 2

dh=0=

h
h
dx 1+
dx (V .3)
x1
x2 2

Si f ( x1 , x2 ) tait une fonction sans contraintes, les deux drivs partielles de f(x) devrait
ITDH/05

66

Techniques doptimisation
tre nulles (c'est--dire,

f / x 1=0

et

f / x 2=0

pour tout les

dx 1

et

dx 2

Chapitre V
)

l'optimum.
Cependant, les variables x1 et x2 sont contraintes (

dx 1

et

dx 2

ne sont pas

indpendants), ainsi on ne peut pas arbitrairement prendre les deux drivs partielles de
f ( x) comme tant gaux zro.

Mais aussi, f(x) doit tre un extremum l'optimum, par consquent


df ( x )=0 .La deuxime condition, savoir d h(x)=0 , est satisfaite parce
que la contrainte

h( x 1 , x 2 )

est gale une constante.

Dans les quations (V.2) et (V.3),

aux points x 1

et

x 2

dx 1

et

dx 2

sont des diffrentielles

Cela nous permet dcrire les deux quations avec deux variables
suivantes :
a11 dx 1 +a12 dx 2=0(V .4 . a)
a21 dx 1+ a22 dx 2=0 (V .4 .b)

Parce que les cots droits des deux quations sont gales : 0, o une
solution triviale (

dx 1=dx 2=0

) ou un non triviale, la solution peut tre

choisie. Puisque une solution non triviale existe, le dterminant de la


matrice de coefficient

(aij ) doit tre gal 0 dans la formule (5.4),

O :
a11 a 22a21 a12=0 .

Exprimant cette condition en une autre manire :


ITDH/05

67

Techniques doptimisation
Chapitre V
a11 a 12 a 11 a21
=
ou = (V .5)
a21 a 22 a12 a22

Par consquent,
a11 =a21

Et

a12=a 22

(V.6)

est un paramtre qui relie le driv partiel du f(x) et de h(x);

est appel le multiplicateur de Lagrange. Si une fonction objective

augmente, appele la fonction de Lagrange augmente, une fonction


objectif augmente est dfinie comme suit :
L ( x , )=f ( x )+ h(x )

(Note

h(x) =0)

Aussi lquation (V.6) peut scrire de la faon suivante :


f
h L
+
=
=0(V .7 . a)
x1
x1 x1
f
h L
+
=
=0(V .7 . b)
x2
x2 x2

Dans les conditions (V.7) dcrivant l'optimum, nous n'avons pas explicitement inclus
l'effet de la contrainte. Par consquent, en plus des conditions ncessaires pour un optimum
avec contrainte l'quation suivante doit tre satisfaite:
L(x , )
=h ( x )=0(V .8)

ITDH/05

68

Techniques doptimisation
Chapitre V
La thorie des multiplicateurs de Lagrange peut aisment tre prolonge aux problmes
d'optimisation avec contraintes impliquant plus de deux variables.
En gnral, si la fonction objective contient n variables de dcision, et m contraintes
d'galit comportant les variables de dcision (les m contraintes doivent tre indpendantes et
m doit tre inferieure n) alors la formulation de multiplicateur de Lagrange d'un problme
d'optimisation exige l'utilisation de m multiplicateurs de Lagrange.
La fonction objectif augmente sans contrainte finale (le lagrangien), sera une fonction de
n+m

variables

, et de

n+m

conditions ncessaires correspondant chacun de ces

n+m variables doivent tre drives et rsolu afin d'obtenir une solution optimale.

Un problme de programmation non-linaire gnral peut tre converti en autre qui contient
seulement des contraintes d'galit comme suit:
Minimiser

f ( x)

h j ( x )=0 j=1, .m

Sujet

(V.9)

g j ( x ) 2j =0 j=m+1, . , p

2
Par soustraction de la variable, j de

g j ( x ) ; j=m+1, , p nous pouvons garantir que

les contraintes soient satisfaites. Et, nous pouvons dfinir la fonction de Lagrange comme
suit :
m

L ( x , )=f ( x )+ j h j (x)+
j=1

Tel que les

j=m+1

j [ g j ( x ) 2j ] (V .10)

; ( j=1, , p) sont des facteurs pondrables indpendants de x et pris

comme multiplicateurs de Lagrange. Les conditions ncessaires et suffisantes, pour que x*


soit une solution du problme de programmation non-linaire (V.9) sont : que
ITDH/05

f (x ) soit
69

Techniques doptimisation
convexe, et que la contrainte soit aussi convexe proximit de

Chapitre V

x , et que l'ensemble

suivant d'quations se rapportant une solution stationnaire de (V.10) soit satisfait pour

x
L( )
=0 pour i=1, ,n
xi

x
L( )
=0 pour j=1, , p
i

x
L( )
=2 i i =0 pour j=m+ 1, , p
i

j 0 j =1, , p(V .11)

j 0
j 0
Pour un maximum de f ( x) , remplacez
par
C.2. La mthode de gradient rduit gnralis :
Certainement, la plupart des approches directes pour rsoudre le problme de
programmation non-linaire devraient linariser le problme et appliquer successivement des
techniques de programmation linaires comme ce qui suit :
1. Formuler un modle avec une solution initiale et linariser toutes les contraintes et
la fonction objective en ce point de sorte qu'ils reprsentent un problme de
programmation linaire. Employer la programmation linaire pour rsoudre le
problme linaris.
2. linariser successivement les contraintes et la fonction objective d'un problme
non-linaire comme des solutions faisables amliores et successives sont atteintes.
Une fois la solution de la programmation linaire (PL) nominal est obtenu et le
point optimal nominal s'avre

non faisable, localise le point faisable le plus

proche, et linaris les contraintes et la fonction objective en ce nouveau point.

ITDH/05

70

Techniques doptimisation
Chapitre V
3. Linariser les fonctions par morceaux de sorte qu'une srie des segments de
lignes droites est employe pour rapprocher la fonction objective et les
contraintes.
Il n'y a aucune garantie de convergence pour aucune de ces mthodes.
Dans la pratique le meilleur algorithme gnral courant utilisant la linarisation
itrative est l'algorithme de Gradient rduit gnralis (GRG). Essentiellement, la
mthode utilise des contraintes linaires ou linarises, dfinit les nouvelles variables
qui sont normaux aux contraintes, et exprime le gradient en termes de cette base
normale.
Le problme rsolu par la mthode GRG est :

Minimiser f ( x ) x= [ x 1 x2 x n ]

sujet h j ( x )=0 j=1, , m


Li x i U i i=1, , n(V .12)

Tel que

Li

et

Ui

sont les limites infrieures et suprieures sur

xi

, respectivement.

Les contraintes non-linaires d'ingalit peuvent tre adaptes en soustrayant les variables
des contraintes d'ingalit comme suit :
h j ( x )=g j ( x ) 2j =0

Et permettant aux limites sur les

dtre

C.2.1. Concept du gradient rduit :


Supposant que les

contraintes dans le problme (V.12) sont linaires ou sont

des approches linarises de

h j ( x )=0

, limposition de ces contraintes ramne le

nombre de degrs de libert, lis x , de n


ITDH/05

nm
).

71

Techniques doptimisation
Chapitre V
Dans la mise en uvre de la recherche de la solution du problme doptimisation,
seulement les

(nm)

variables seront des variables indpendantes; les m variables

seront dpendantes. Ici nous employons juste un exemple simple impliquant deux
variables pour expliquer le concept du gradient rduit.
Considrer le problme suivant :
Minimiser
Sujet

f ( x1 , x2 )

h ( x 1 , x 2 )=0

(V.13)

Les diffrentielles de chaque fonction sont :

df ( x )=

f ( x)
f ( x)
d x1 +
d x 2 (V .14)
x1
x2

dh ( x )=

h( x )
h(x)
d x 1+
d x2 =0(V .15)
x1
x2

Supposer que :

x1

est indiqu pour tre la variable dpendante, et

variable indpendante. Alors nous pouvons liminer

dx

x2

pour tre la

de lquation ( V .14) parce

que :

d x 1=

[ h ( x ) / x 2 ]

[ h ( x ) / x 1 ]

d x 2(V .16)

{ [ ][ ] [ ] [ ]}

df ( x )=

ITDH/05

f (x) h(x)
x1
x1

h ( x)
f (x)
+
d x 2 (V .17)
x2
x2

72

Techniques doptimisation
Chapitre V
L'expression dans les croisillons s'appelle le gradient rduit. Naturellement, dans ce
problme le gradient rduit contient seulement un lment parce qu'il y a seulement une
variable indpendante, par consquent ici le gradient rduit

gR

, est une grandeur

scalaire.
La direction de recherche confine l'intersection des contraintes peut tre choisie, et
elle est ainsi une direction faisable. videment, si les contraintes dans (V.13) sont des
contraintes linarises, puis la direction de recherche est seulement localement faisable,
et la recherche peut terminer un point faisable (en ce qui concerne les contraintes
originales).

Le gradient conjugu pour n variables et m contraintes peut tre dtermin comme


suit :
xI

: Le vecteur des variables indpendantes

xD

: Le vecteur des variables dpendantes

[ ]

h1 ( x )
h
hm ( x )

m 1 vecteur , x =[ x I : x D ]

h 1 ( x )
x1
h

xD
hm( x )
x1

[ ]

h1 ( x )
xm

hm ( x )
xm

f (x)
f (x) f (x)
=[ Tx f ]=

xI
x m +1
xn

ITDH/05

m mmatrice

Vecteur de 1 ( nm )

73

Techniques doptimisation

[ ]

Chapitre V

f (x)
f (x ) f ( x )
=[ Tx f ]=

xD
x1
xm
D

d x1
d X D d x m +1

d XI
d xm
d x m +1

d h1 ( x )
d x m +1
dh

d XI
d hm( x )
d x m +1

vecteur de 1 m

d x1
d xn

d xm
d xn

d h1 ( x )
d xn

d hm ( x )
d xn

Matrice de m(nm)

Matrice de m(nm)

C.2.2. L'Algorithme de Gradient Rduit Gnralis:


Nous dcrivons ici les phases essentielles de lalgorithme du gradient rduit gnralis.
Pour simplifier la notation, nous prendrons :
f ( x k ) =f k et h( x k )=hk
La phase 1 : Dterminer les composants de la direction de recherche pour les variables
indpendantes. A l'tape

linariser les contraintes au point faisable

xk

et calculer

le gradient rduit
gkR

fk
T =[ k ]
x1

ITDH/05

74

Techniques doptimisation
Chapitre V
Habituellement les variables indpendantes sont choisies parmi les variables
contrlables dans un processus.
Les composantes de la direction de recherche dans l'espace des variables indpendantes
sont tablies comme suit :
(a) Si

xi

est une de ses limites, le composant de direction de recherche est

ik =0 si l'tape dpasserait la limite, c.--d.,


ik =0 si x ki =U i g Ri <0
x ki

(b) Si

Li x i U i

du gradient rduit,

Li g Ri> 0

, la direction de recherche est le ngatif de l'lment correspondant


k

i =g Ri

Note : Dans l'algorithme d'Abadie les directions de recherche sont donnes par la
formule du gradient conjugu Fletcher-Reeves la formule conjugue de gradient comme
suit :
g
g
k T
( g R ) ( Rk )
T

k+1

( Rk +1) ( g R )

k +1
k
k+1
=g
I
R + I

La phase 2: Dterminer les composants de la direction recherche pour les variables


dpendantes. Pour maintenir la praticabilit en ce qui concerne les contraintes linarises,
calculer les composants de la direction de recherche dans l'espace des variables
dpendantes comme suit :
1

[ ][ ]

hk
=
xD
k
D

hk k

xI I

Phase 3 : Amlioration de la valeur de la fonction objective


ITDH/05

75

Techniques doptimisation
x

Chapitre V

k+1

est donn par :

k
k k
x k+1
I =x I + I

k
k k
x k+1
D =x D + D

a une valeur approche

Phase 4 : La mthode de newton utilise dans la phase 4 a pour objectif de corriger la


k+1
k+1
k+1
k+1
valeur de x D
si cette dernire ne vrifie pas h ( x I , x D ) 0 , x D
est modifi par

la mthode de Newton

h(x

k+1
I

,x

k+1
D

)h(x

k+1
I

, x

k+1
D

h ( x k+1
, x k+1
I
D )

)+

k
D

kD+1) =0
( x k+1
D x

Ce qui nous donne :

k+1
D

= x

k +1
D

h ( x k+1
, x kD+1 )
I
x

k
D

h ( x kI +1 , x k+1
D )

Note: Plusieurs itrations de la mthode de newton peuvent tre exiges pour vrifier
les contraintes
Phase 5 :
(a) si

k+1
k+ 1
k
k
x k+1 est un point faisable et f (x I , x D )<f (x I , x D )

on accepte

x k+1
I
et

retourne la phase 1.
k+1

k+ 1

k+1
(b) Si x
est un point faisable mais si et f ( x I , x D )>f (x I , x D )

rduire la valeur de

f et retourner la phase 4
(c) Si la mthode de Newton ne converge pas aprs plusieurs itrations, rduire la valeur
de

ITDH/05

et retourner la phase 4.
76

Techniques doptimisation
Chapitre V
(d) Si (a), (b) et (c) ne se produisent pas, changer une variable dpendante par une autre
indpendante. Ce processus se nomme un changement de base.

ITDH/05

77