Académique Documents
Professionnel Documents
Culture Documents
*********************
15 mai 2016
Table des matières
1 Méthodes Quasi-Newton 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Dérivation des méthodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Méthode de Correction de rang un . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.1 Algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Avantages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Inconvénients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Méthode de Davidon-Fletcher-Powell (D.F.P) . . . . . . . . . . . . . . . . . . . 7
1.4.1 Algorithme DFP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Avantages et inconvénients de la méthode DFP . . . . . . . . . . . . . . 12
1.5 Méthode BFGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.6 Convergence des méthodes quasi-newton . . . . . . . . . . . . . . . . . . . . . . 15
1.6.1 Cas où la recherche linéaire est exacte . . . . . . . . . . . . . . . . . . . . 15
1.6.2 Cas où la recherche linéaire est inéxacte . . . . . . . . . . . . . . . . . . 16
2
Chapitre 1
Méthodes Quasi-Newton
1.1 Introduction
Ce chapitre est consacré aux méthodes dites Quasi-Newton pour la résolution des problèmes
d’optimisation non linéaires sans contraintes. Parmi ces méthodes, on s’étalera particulièrement
sur les trois plus importantes, la méthode de correction de rang un, la méthode DF P (Davidon,
Fletcher, Powell) et la méthode BF GS (Broyden, Fletcher, Goldfarb, Shano):
xk+1 = xk k Sk rf (xk ) ;
où k est un paramètre fourni par une recherche linéaire le long de la directon dk = Sk rf (xk ) ; Sk
est une approximation symétrique, dé…nie positive, de H 1 (xk ): Bien sur, plus Sk sera proche
de H 1 (xk ); plus l’algorithme convergera rapidement. L’objectif, est donc de trouver une bonne
suite de matrices Sk , faciles à construire, c’est à dire utilisant des informations seulement sur
le gradient et qui converge vite vers des approximations de plus en plus précises, de l’inverse
du hessien de f .
Pour réaliser celà, prenons f 2 C 2 ( Rn ); et faisons un dévelopement de rf (x) au voisinage
de xk ;
rf (x) = rf (xk ) + H(xk )(x xk ) + o(kx xk k)
c.à.d
rf (x) ' rf (xk ) + H(xk )(x xk ); x 2 V (xk );
3
CHAPITRE 1. MÉTHODES QUASI-NEWTON
ou encore
1
H (xk ) [rf (x) rf (xk )] ' (x xk ):
Les approximations sont exactes si f est quadratique. En particulier, avec x = xk+1 et si Sk
était une bonne aproximation de H 1 (xk ), on devrait avoir
mais comme xk+1 est calculé aprés Sk , il est peu probable que cette équation soit satisfaite,
même approximativement. En revanche, on peut toujours imposer que Sk+1 satisfasse cette
équation exactement, d’où
Sk+1 = Sk + Ck ;
Ck étant une matrice de correction qui intègre au mieux la nouvelle information fournie par
xk+1 et rf (xk+1 ) de telle manière que Sk+1 satisfasse la condition (4:2) : Basées sur ce principe,
les méthodes quasi N ewton di¤èrent l’une par rapport à l’autre, d’aprés la dé…nition de la
matrice Ck
Commençons par la méthode de correction de rang un qui est considérée comme une intro-
duction élémentaire aux deux autres méthodes (DF P et BF GS) décrites par la suite.
Sk+1 = Sk + ak uk utk :
Montrons qu’il est facile de calculer ak et uk de telle sorte que la condition (4.2) soit satisfaite.
Posons
pk = xk+1 xk
qk = rf (xk+1 ) rf (xk )
4
1.3. MÉTHODE DE CORRECTION DE RANG UN
ou encore :
ak uk (utk qk ) = pk Sk qk
d’ou l’on déduit que uk est proportionnel à pk Sk qk ; avec un facteur qui peut être pris en
compte dans ak : En particulier en prenant uk = pk Sk qk et ak tel que ak (utk qk ) = 1, on obtient :
(pk Sk qk )(pk Sk qk )t
Sk+1 = Sk +
(pk Sk qk )t qk
1.3.1 Algorithme
Etape initiale :Soit ">0, determinant le critère d’arret. Choisir un point initial x1 et une
matrice symétrique dé…nie positive S1 : Poser y1 = x1 ; k = 1; et aller aux étapes principales.
Etapes principales :
Etape1 : Si krf (yk )k < ": stop ; sinon, poser dk = Sk rf (xk ) et soit k la solution optimale
du problème min f (yk + dk ) , 0:
Etape2 :. Construire Sk+1 comme suit :
(pk Sk qk )(pk Sk qk )t
Sk+1 = Sk + ;
(pk Sk qk )t qk
avec
pk = k dk yk+1 yk ;
qk = rf (yk+1 ) rf (yk );
Il est utile de citer le théorème suivant qui montre que lorsque H est constante, la condition
(4.2) est non seulement véri…ée pour i = k; mais aussi pour tout i < k; et que dans ce cas la
convergence est obtenue dans au plus n étapes.
Théorème 4.1 :
Si f est quadratique, de matrice hessienne H dé…nie positive et si p1 ; :::; pn sont des vecteurs
indépendants, alors la méthode de correction de rang un converge au plus dans (n+1) itérations
et (Sn+1 ) 1 = H:
Preuve
La preuve se fait par recurrence. Montrons tout d’abord que :
S k qi = p i 8i k 1:
5
CHAPITRE 1. MÉTHODES QUASI-NEWTON
Donc
Sk+1 qi = Sk qi + 0 = pi ; 8i k 1:
Reste le cas i = k: La relation est vraie d’aprés la condition ( 4.2 ). Ce qui établit le resultat
voulu au rang k + 1:
Pour terminer la preuve du théorème et puisque on a,
Exemple 4.1 :
Considérons le problème suivant :
( 1 t
min x Qx
(P 1) 2n
x2R
où
0 1
1 0 1 2
B 0 3 1 1 C
Q=B
@ 1
C
1 2 0 A
2 1 0 1
Appliquons la méthode de correction de rang un sur cet exemple, en prenant " = 10 5 et
y0 = (0; 1; 2; 3): Les resultats obtenues sont illustrés au tableau 4.1, et la recherche linéaire
considérée est exacte.
tableau 4.1
iteration xk f (xk ) krf (xk )k k
1 (0:000; 1:000; 2:000; 3:000) 15.000 13.000 0.250
2 ( 2:005; 1:005; 0:746; 1:997) 6.187 4.357 0.842
3 (0:665; 0:548; 0:004; 0:113) 0.766 0.196 0.444
4 (0:000; 0:001; 0:004; 0:002) 0.002 0.087 0.003
5 (0:000; 0:000; 0:000; 0:000) 0.000 0.000 –
6
1.4. MÉTHODE DE DAVIDON-FLETCHER-POWELL (D.F.P)
0 1 0 1
1:000 0:000 0:000 0:000 0:927 0:140 0:117 0:134
B 0:000 1:000 0:000 0:000 C B 0:140 0:730 0:226 0:259 C
S1 = B
@ 0:000 0:000 1:000 0:000
C;
A S2 = B
@
C
0:117 0:226 0:809 0:217 A
0:000 0:000 0:000 1:000 0:134 0:259 0:217 0:751
0 1 0 1
0:228 0:495 0:129 0:578 0:129 0:213 0:160 0:485
B 0:495 0:549 0:101 0:103 C B 0:213 0:328 0:126 0:176 C
S3 = B
@ 0:129
C ; S4 = B C
0:101 0:722 0:469 A @ 0:160 0:126 0:719 0:461 A
0:578 0:103 0:469 0:002 0:485 0:176 0:461 0:002
D’aprés le tableau, on voit bien que le minimum de f est atteint en 4 itérations.
1.3.2 Avantages
Cette méthode présente l’avantage que le point xk+1 n’a pas besoin d’être choisi comme le
minimum exact, c’est à dire qu’on n’a pas besoin d’e¤ectuer des recherches linéaires exactes.
1.3.3 Inconvénients
Les inconvénients de cette méthode sont :
1. Même si la fonction est quadratique, et même si son hessien est dé…ni positif, il se peut que
la matrice Sk ne soit pas dé…nie positive.
2. Le dénominateur (pk Sk qk )t pk peut trés bien devenir nul ou trés petit, rendant le procédé
instable.
Dans ce qui suit, on présente les méthodes quasi-Newton, basées sur des formules de cor-
rection de rang 2 ( DFP, BFGS ), qui evitent ces inconvénients.
Sk+1 = Sk + Ak + Bk ;
avec Ak et Bk deux matrices de rang un chacune et de la forme suivante :
Ak = ak uk utk ; Bk = bk vk vkt ;
7
CHAPITRE 1. MÉTHODES QUASI-NEWTON
ak ; bk sont des constantes, uk ; vk sont deux vecteurs de Rn : Sk+1 doit satisfaire la condition
(4.2), c’est à dire :
pj ptj Sj qj qjt Sj
Sj+1 = Sj +
pj qjt qjt Sj qj
avec
pj = j dj yj+1 yj ;
qj = rf (yj+1 ) rf (yj );
8
1.4. MÉTHODE DE DAVIDON-FLETCHER-POWELL (D.F.P)
Dé…nition 4.1 :
Soit H une matrice ( n n) symétrique. Les vecteurs d1 ; :::; dn sont dits H conjugués s’ ils
sont linéairement indépendents et si dti Hdj = 0 pour i 6= j
Théorème 4.2.
Considérons la méthode DFP décrite par la relation :
DF P pk ptk Sk qk qkt Sk
Sk+1 = Sk +
pk qkt qkt Sk qk
1. A l’étape k, si Sk est symétrique dé…nie positive et si la recherche linéaire est exacte ( ou
bien si pk qkt > 0 ), alors la matrice Sk+1 est symétrique dé…nie positive aussi.
2. Si f est quadratique de hessien H, avec en plus H dé…nie positive, alors la méthode DFP
véri…e :
(i) pti Hpj = 0 1 i<j k
(ii) Sk+1 Hpi = pi 1 i k
3. Ces propriétés impliquent, dans le cas quadratique, la convergence de la méthode en n itéra-
tions et la propriété Sn+1 = H 1 :
Preuve :
1. Il est évident d’aprés la dé…nition de Sk+1 qu’elle est symétrique, montrons qu’elle est dé…nie
positive. Soit x un vecteur de Rn non nul,
pk ptk Sk qk qkt Sk
xt Sk+1 x = xt Sk x + xt x xt x
ptk qk qkt Sk qk
(xt pk )2 (xt Sk qk )2
= x t Sk x + t
p k qk qkt Sk qk
(xt pk )2 (xt Sk qk )2
= x t Sk x + t
p k qk qkt Sk qk
Le terme (xt Sk x)(qkt Sk qk ) (xt Sk qk )2 est positif d’aprés Cauchy Shwartz. En e¤et, comme Sk
1 1 1
est dé…nie positive, alors il existe une matrice Sk2 dé…nie positive telleque Sk = Sk2 : Sk2 :
1 1
Posons a = Sk2 x et b = Sk2 qk , d’où
xt Sk x = at a; qkt Sk qk = bt b; etxt Sk qk = at b;
donc
(xt Sk x)(qkt Sk qk ) (xt Sk qk )2 = (at a)(bt b) (at b)2 0:
9
CHAPITRE 1. MÉTHODES QUASI-NEWTON
Donc pour prouver que xt Sk+1 x > 0; il su¢ t de montrer que ptk qk > 0 et que qkt Sk qk > 0:
ptk qk = t
k dk [rf (yk+1 ) rf (yk )] = t
k dk rf (yk )
( ) , a=
1
, Sk2 x = b
) x = qk
6
x = 0 ) 6= 0
( ) , ptk x = 0
) ptk qk = 0
en particulier Hp1 = q1 .
p1 pt1 S1 q1 q1t S1
S2 Hp1 = S1 q1 + q1 = S 1 q1 S 1 q1 + p 1 = p 1 :
p1 q1t q1t S1 q1
Supposons maintenant que (i), (ii) sont vraies pour k-1, et prouvons qu’elles le sont pour k. On
a:
rf (yk ) = rf (yi+1 ) + H(yk yi+1 ) = rf (yi+1 ) + H(pi+1 + ::: + pk 1 ):
Multiplions par pti ;
d’aprés l’hypothèse de reccurence pour (i) et le fait que yi+1 est le minimum de f suivant la
direction pti ; on a
pti rf (yk ) = 0; 81 i < k;
10
1.4. MÉTHODE DE DAVIDON-FLETCHER-POWELL (D.F.P)
11
CHAPITRE 1. MÉTHODES QUASI-NEWTON
Avantages
1.Pour des fonctions quadratique (avec une recherche linéaire exacte)
(i) elle termine au plus en n étapes avec Sn+1 = H 1
(ii) Elle engendre des directions conjuguées.
2.Pour des fonctions quelconques :
(iii) Les matrices Sk restent dé…nies positives. Ceci entraine que les propriétes de descente
de la fonction sont véri…ées..
(iv) une convergence superlinéaire
Inconvénients
Cette méthode est assez sensible à la précision de la recherche linéaire (la convergence dépend
du fait que la recherche linéaire est exacte ou non).
Bk+1 pk = qk ; (4.10)
et
qk qkt Bk pk ptk B
Bk+1 = Bk + : (4.11)
qkt pk ptk Bpk
Comme l’a remarqué Fletcher ([33]), si l’on interverti les rôles de pk et de qk dans (4:7), on
obtient les matrices veri…ant (4:10), qui est la relation inverse de (4:9). On voit alors que la
formule (4:11) permet de construire une approximation de la matrice hessienne elle même (et
non pas son inverse). Posons
qk q t Bk pk ptk B
Ck = t k ;
qk p k ptk Bpk
12
1.5. MÉTHODE BFGS
d’aprés la relation :
1
Sk+1 = Sk + Ck = Bk+1 = (Bk + Ck ) 1 ; (4.12)
et par application de la formule de Sherman Morrison woodbury suivante :
A 1 abt A 1
(A + at b) 1
=A 1
; (4.13)
1 + bt A 1 a
où A est une matrice (n n), b est un vecteur de Rn ; et en supposant que
(1 + bt A 1 a) 6= 0;
on obtient :
" #
1 q t [Bk ] 1 qk pk ptk pk qkt [Bk ] 1
+ [Bk ] 1
qk ptk
[Bk+1 ] = [Bk ] 1 + 1 + k t :
p k qk ptk qk t
p k qk
Ce qui montre que [Bk+1 ] 1 est exiprimé directement en fonction de [Bk ] 1 et d’où la formule
de correction de rang (4:9).
Remarques importantes :
1. La formule (4.9) à des propriétés analogues à celles de la formule (4.7). En particulier :
(i) Si ptk qk > 0; alors la dé…nie positivité des matrices Sk est préservée.
(ii) Appliquée à une fonction quadratique (matrice hessienne H dé…nie positive), cette for-
mule permet d’obtenir en au plus n itérations, l’inverse H 1 du hessien de f . De plus les di-
rections pk engendrées par l’algorithme BFGS sont mutuellement conjuguées par rapport à
H.
2. Lorsque l’algorithme BFGS ou DFP est appliqué à une fonction non linéaire quelconque (non
quadratique), il faut procéder à des réinitialisations périodiques, pour assurer la convergence
globale.
3. Théoriquement, la condition ptk qk > 0 assure la dé…nie positivité des matrices Sk+1 ou Bk+1 ,
mais sur le plan pratique rien n’est garanti, à cause des erreurs d’arrondi, Sk+1 ou Bk+1 peuvent
devenir singulières ou non dé…nies.
4. La majorité des auteurs a¢ rme la superiorité de l’algorithme BFGS sur celui de DFP, soit
sur le plan théorique ou pratique ( il est plus stable ).
Exemple 4.3 :
Si on considère le même exemple traité par DFP et la méthode de correction de rang un
pour illustrer la remarque1(ii), on trouve les resultats si dessous :
tableau 4.3
iteration xk f (xk ) krf (xk )k k
1 (0:000; 1:000; 2:000; 3:000) 15.000 13.000 0.250
2 ( 2:005; 1:005; 0:746; 1:997) 6.187 4.357 0.732
3 (0:665; 0:548; 0:004; 0:113) 0.766 0.196 0.393
4 (0:000; 0:001; 0:004; 0:002) 0.002 0.087 0.601
5 (0:000; 0:000; 0:000; 0:000) 0.000 0.000 –
13
CHAPITRE 1. MÉTHODES QUASI-NEWTON
0 1 0 1
1:000 0:000 0:000 0:000 1:017 0:124 0:141 0:196
B 0:000 1:000 0:000 0:000 C B 0:124 0:732 0:230 0:270 C
S1 = B
@ 0:000 0:000 1:000 0:000
C;
A S2 = B
@
C
0:141 0:230 0:815 0:200 A
0:000 0:000 0:000 1:000 0:198 0:270 0:200 0:796
0 1 0 1
0:309 0:561 0:129 0:595 0:129 0:213 0:160 0:485
B 0:561 0:603 0:101 0:008 C B 0:213 0:328 0:126 0:176 C
S3 = B
@ 0:129
C ; S4 = B
A @
C
0:101 0:722 0:469 0:160 0:126 0:722 0:463 A
0:595 0:008 0:469 0:002 0:485 0:176 0:463 0:006
Implémentation numérique.
On a mis en oeuvre les méthodes quasi-Newton ( DFP et BFGS ) dé…nies précédement, et
comme fonction test on a pris la fonction de Rosenbrock généralisée, dé…nie par :
nP1
f (x) = [100(xi+1 x2i )2 + (1 xi )2 ]
i=1
Comme point de départ on prend x0 = ( 1:2; 1; :::; 1:2; 1)t
Notons que le minimum de cette fonction est atteint au point x = (1; 1; :::; 1)t avec f (x ) = 0
On a implémenté l’algorithme ( DFP et BFGS ) dans le cas continu et dans le cas avec
reinitialisation en introduisant la recherche linéaire de Wolf ( chapitre 2 ).
On a pris une précision " = 10 5 et S0 = I:
Les resultats obtenus sont présentés dans les tableaux si dessous.
14
1.6. CONVERGENCE DES MÉTHODES QUASI-NEWTON
on a aussi implémenté ( DFP et BFGS ) avec la procedure d’Armijo (voir chap2, recherches
linéaires inéxactes). Les resultats sont illustrés dans les tableaux si dessous :
15
CHAPITRE 1. MÉTHODES QUASI-NEWTON
16
1.6. CONVERGENCE DES MÉTHODES QUASI-NEWTON
Dans notre mémoire on utilisé les méthodes DFP et BFGS avec les recherches linéaire
inéxactes de Wolf et d’Armijo(voir Chap.2). Donc il est nécéssaire de donner les théorème qui
caractérisent la convergence de ces méthodes.
Théorème 4.3 :
Soit l’algorithme xk+1 = xk k Sk rf (xk ); où fSk g est une suite de matrices dé…nies positives
dont les spectres sont uniformément bornés (0 < c1 minmi (Sk ) maxmi (Sk ) c2 ): Si f 2
i i
C 1 (Rn ); minorée, et à gradient Lipschitsien de constante L, et si les k sont choisis selon la
méthode de sélection d’Armijo (voir recherche linéaire d’Armijo, Chap.2), alors cet algorithme
converge vers un mimimum local de f:
Preuve :
L’algorithme est bien une méthode de descente, car :
Le premier terme du membre de droite étant majoré par L 2 c2 krf (xk )k2Sk ; on peut conclure
que :
f (xk + dk ) f (xk ) (L c2 1) krf (xk )k2Sk : (4.15)
Rappelons que la méthode de sélection d’armijo, dans le cas d’une direction de descente dk =
Sk rf (xk ) est
f (xk + dk ) f (xk ) " krf (xk )k2Sk :
1 "
La constante " étant …xée, il su¢ t de choisir k tel que L c2 1 ";c.-à-d. dans
k
c2 L
(4.14) pour remplir la condition d’armijo. Par ailleurs, compte-tenu du principe de sélection,
1 "
on aura k .
2c2 L
On en déduit d’une part qu’avec ce choix, on a f (xk+1 ) = f (xk + k dk ) < f (xk ); et donc
que la suite ff (xk )gk2N converge, puisqu’elle est minorée, et d’autre part que krf (xk )k2Sk
f (xk ) f (xk+1 )
: Le terme de droite convergeant vers 0 ; donc krf (xk )k ! 0; puisque tous les
"
Sk ont un spectre strictement positif . La méthode proposée converge donc vers un minimum
local de f:
17
CHAPITRE 1. MÉTHODES QUASI-NEWTON
Théorème 4.4 :
Supposons que f est convexe et possède des dérivées secondes continues sur l’ensemble borné
fx : f (x) f (x1 )g : Alors l’algorithme BFGS avec recherche linéaire de wolfe véri…e :
pk = xk+1 xk :
qk = rf (xk+1 ) rf (xk ):
kqk k2
M (4.16)
(pk ; qk )
où M est une constante véri…ant :
kHk k M
(pour la démonstation de cette partie voir lemme 5.2 chapitre 5).
Prenons maintenant la formule BFGS approchant le Hessien. La trace et le determinant de
Bk+1 sont donnés par :
kqk k2 kBk pk k2
tr (Bk+1 ) = tr(B) + t (4.17)
p k qk ptk Bk pk
ptk qk
det(Bk+1 ) = det(Bk ) : (4.18)
ptk Bk pk
L’inégalité ( 4.16) et la notion de trace impliquent la majortion suivante
X
k
kqj k2
tr(Bk+1 ) < tr(B1 ) +
j=1
Pjt qj
tr(B1 ) + M K
c3 k; k = 1; 2; 3; ::
où c3 = tr(B1 ) + M:
Rapplons ici que la moyenne arithmétique est superieure à la moyenne géométrique : si
a1 ; a2 ; ::::; an sont k nombres positifs, alors
!k
1X Y
k k
aj aj (4.19)
k j=1 j=1
(c3 k)n
det(Bk+1 ) < ; k = 1; 2; 2; ::: (4.20)
n
18
1.6. CONVERGENCE DES MÉTHODES QUASI-NEWTON
X
k
kBj pj k2 X
k
kqj k2
< tr(B1 ) +
j=1
ptj Bj pj j=1
ptj qj
c3 k; k = 1; 2; 3; :::
Y
k
kBj pj k2
< ck3 ; k = 1; 2; 3; ::::: (4.21)
j=1
ptj Bj pj
Y
n
krfj k2 ptj qj
< ck4 ; k = 1; 2; 3; :::;
j=1
( ptj rfj )2
d’où,
ptk qk
1 c2 ;
ptk rfk
et il suit que
Yk
krfj k2 c4
k
t
< ;
j=1
p j rfj 1 c2
où bien
19
CHAPITRE 1. MÉTHODES QUASI-NEWTON
Yk
krfj k2 c4
k
< ; k = 1; 2; 3; :::; (4.24)
j=1
kpj k cos j 1 c2
est convergente.
Donc si on suppose qu’il existe un " > 0 telque krfk k > " > 0 pour tout k; alors
kpk k cos( k ) ! 0:
kgj k2
Dans ce cas les termes ! 1 quand j ! 1
kpj k cos j
qui donne une contradiction avec( 4.24 ), et par conséquent
lim inf kg(x)k = 0:
20
Bibliographie
[1] M. Al-Baali, Descent property and global convergence of the Fletcher-Reeves method with
inexact line search, IMA J. Numer. Anal., 5 (1985), pp. 121–124.
[2] L. Armijo, Minimzation of function having lipschitz continous …rst partial derivatives,
Paci…c Journal of Mathematics, Vol. 16 (1966), pp.1-3.
[3] L. Andrieu, Optimisation sous contrainte en probabilité, THESE présentée pour l’obtention
du titre de Docteur de l’Ecole Nationale des Ponts et Chaussées, décembre (2004)
[4] M. Bellou…, R. Benzine, and Y. Laskri, Modi…cation of the Armijo line search to satisfy
the convergence properties of HS method, An International Journal of Optimization and
Control : Theories & Applications (IJOCTA), 141(2013), 145-152 .
[5] M. Bellou… and R. Benzine, Global Convergence Properties of he HS Conjugate Gradient
Method. Applied Mathematical Sciences, Vol. 7, 142(2013), 7077 –7091
[6] E. M. L. Beale, A derivative of conjugate gradients, in Numerical Methods for Nonlinear
Optimization, F. A. Lootsma, ed., Academic Press, London, (1972), pp. 39–43.
[7] M. S. Bazaraa and H. D. Sherali, et C. M. Shetty , Nonlinear Programming, Theory and
Algorithms, Wiley-Interscience(1993).
[8] I. Bongartz, A. R. Conn, N. I. M. Gould, and P. L. Toint, CUTE : constrained and
unconstrained testing environments, ACM Trans. Math. Software, 21 (1995), pp. 123–160.
[9] C. G. Broyden, The convergence of a class of double-rank minimization algorithms 1.
general considerations, J. Inst. Math. Appl., 6 (1970), pp. 76–90.
[10] A. Buckley, Conjugate gradient methods, in Nonlinear Optimization 1981, M. J. D. Powell,
ed., Academic Press, London, (1982), pp. 17–22.
[11] C. W. Carroll, The created reponse surface technique for optimizing nonlinear restrained
systems, Operations Res., Vol. 9 (1961), pp. 169-84.
[12] H. P. Crowder and P. Wolfe, Linear convergence of the conjugate gradient method, IBM
J. Res. Dev., 16 (1969), pp. 431–433.
[13] X.D. Chen and J. Sun, Global convergence of a two-parameter family of conjugate gradient
methods without line search, Journal of Computational and Applied Mathematics 146
(2002) 37–45.
[14] A. Cauchy, Analyse mathématique, Méthode générale pour la résolution des systèmes
d’équations simultanées, Comptes Rendus de l’Académie des Sciences de Paris, (1847)
t-25, pp. 536-538.
21
BIBLIOGRAPHIE
[15] Y. H. Dai, Analyses of conjugate gradient methods, Ph.D. thesis, Institute of Computa-
tional Mathematics and Scienti…c/Engineering Computing, Chinese Academy of Sciences,
1997.
[16] Y. H. Dai, New properties of a nonlinear conjugate gradient method, Numer. Math., 89
(2001), pp. 83–98.
[17] Y. H. Dai, A nonmonotone conjugate gradient algorithm for unconstrained optimization,
J. Syst. Sci. Complex., 15 (2002), pp. 139–145.
[18] Y. H. Dai, J. Y. Han, G. H. Liu, D. F. Sun, H. X. Yin, and Y. Yuan, Convergence properties
of nonlinear conjugate gradient methods, SIAM J. Optim., 10 (1999), pp. 345–358.
[19] Y. H. Dai and L. Z. Liao, New conjugacy conditions and related nonlinear conjugate
gradient methods, Appl. Math. Optim., 43(2001), pp. 87–101.
[20] Y. H. Dai and Q. Ni, Testing di¤erent conjugate gradient methods for large-scale uncons-
trained optimization, J. Comput. Math., 21 (2003), pp. 311–320.
[21] Y. H. Dai and Y. Yuan, Convergence properties of the Fletcher-Reeves method, IMA J.
Numer. Anal., 16 (1996), pp. 155–164.
[22] Y. H. Dai and Y. Yuan, Convergence properties of the conjugate descent method, Adv.
Math. (China), 26 (1996), pp. 552–562.
[23] Y. H. Dai and Y. Yuan, Further studies on the Polak-Ribière-Polyak method, Research
report ICM-95-040, Institute of Computational Mathematics and Scienti…c/Engineering
Computing, Chinese Academy of Sciences, 1995.
[24] Y. H. Dai and Y. Yuan, A nonlinear conjugate gradient method with a strong global
convergence property, SIAM J. Optim., 10 (1999), pp. 177–182.
[25] Y. H. Dai and Y. Yuan, Convergence of the Fletcher-Reeves method under a generalized
Wolfe wearch, J. Comput. Math., 2 (1996), pp. 142–148.
[26] Y. H. Dai and Y. Yuan, A class of globally convergent conjugate gradient methods,
Research report ICM-98-030, Institute of Computational Mathematics and Scienti-
…c/Engineering Computing, Chinese Academy of Sciences, 1998.
[27] Y. H. Dai and Y. Yuan, Extension of a class of nonlinear conjugate gradient me-
thods, Research report ICM-98-049, Institute of Computational Mathematics and Scienti-
…c/Engineering Computing, Chinese Academy of Sciences, 1998.
[28] Y. H. Dai and Y. Yuan, Nonlinear Conjugate Gradient Methods, Shanghai Science and
Technology Publisher, Shanghai, 2000.
[29] Y. H. Dai and Y. Yuan, A three-parameter family of hybrid conjugate gradient method,
Math. Comp., 70 (2001), pp. 1155–1167.
[30] Y. H. Dai and Y. Yuan, An e¢ cient hybrid conjugate gradient method for unconstrained
optimization, Ann. Oper. Res., 103 (2001), pp. 33–47.
[31] Y. H. Dai and Y. Yuan, A class of globally convergent conjugate gradient methods, Sci.
China Ser. A, 46 (2003), pp. 251–261.
22
BIBLIOGRAPHIE
[32] J. W. Daniel, The conjugate gradient method for linear and nonlinear operator equations,
SIAM J. Numer. Anal., 4 (1967), pp. 10–26.
[33] G. Fasano, Planar conjugate gradient algorithm for large-scale unconstrained optimization.
Part 1 : Applications, Journal of Optimization Theory and Applications 125(2005) 543–
558.
[34] R. Fletcher, Practical Methods of Optimization vol. 1 : Unconstrained Optimization, John
Wiley & Sons, New York, 1987.
[35] R. Fletcher and C. Reeves, Function minimization by conjugate gradients, Comput. J.,
7(1964), pp. 149–154.
[36] R. Fletcher and M. J. D. Powell, A rapidly convergent descent method for minimization,
Computer. J., 6 (1963), pp. 163-168.
[37] A. V. Fiacco and G. P. McCormick, Nonlinear Programming, John Wiley, New York,
(1968).
[38] J. C. Gilbert and J. Nocedal, Global convergence properties of conjugate gradient methods
for optimization, SIAM J. Optim., 2 (1992), pp. 21–42.
[39] J. C. Gilbert , Eléments d’Optimisation Di¤érentiable : Théorie et Algorithmes, Notes de
cours, École Nationale Supérieure de Techniques Avancées, Paris, (2007).
[40] L. Grippo and S. Lucidi, A globally convergent version of the Polak-Ribi´ ere conjugate
gradient method, Math. Prog., 78 (1997), pp. 375–391.
[41] L. Grippo and S. Lucidi, Convergence conditions, line search algorithms and trust region
implementations for the Polak-Ribiére conjugate gradient method, Technical Report 25-03,
Dipartimento di Informatica e Sistemistica, Università di Roma “La Sapienza”, November
(2003) (to appear on Optim. Methods Softw.).
[42] A.A. Goldstein and J.F. Price, An e¤ective algorithm for minimzation, Num.Math., 10
(1969), pp. 184-189.
[43] A. A. Goldstein, On steepest descent, SIAM J. on Control A, Vol. 3, No. 1 (1965), pp.
147-151.
[44] W. W. Hager and H. Zhang, A new conjugate gradient method with guaranteed descent
and an e¢ cient line search, November 17, (2003) (to appear in SIAM J. Optim.).
[45] W. W. Hager and H. Zhang, CG DESCENT, a conjugate gradient method with guaranteed
descent, January 15, (2004) (to appear in ACM TOMS).
[46] J. Y. Han, G. H. Liu, and H. X. Yin, Convergence properties of conjugate gradient methods
with strong Wolfe linesearch, Systems Sci. Math. Sci., 11 (1998), pp. 112–116.
[47] M. R. Hestenes and E. L. Stiefel, Methods of conjugate gradients for solving linear systems,
J. Research Nat. Bur. Standards, 49 (1952), pp. 409–436.
[48] Y. F. Hu and C. Storey, Global convergence result for conjugate gradient methods, J.
Optim. Theory Appl., 71 (1991), pp. 399–405.
[49] R. A. Horn, and C. R. Johnson, Matrix Analysis, Cambridge University Press, (1990)
23
BIBLIOGRAPHIE
[50] G. H. Liu, J. Y. Han and H. X. Yin, Global convergence of the Fletcher-Reeves algorithm
with an inexact line search, Appl. Math. J. Chinese Univ. Ser. B, 10 (1995), pp. 75–82.
[51] Y. Liu and C. Storey, E¢ cient generalized conjugate gradient algorithms, Part 1 : Theory,
J. Optim. Theory Appl., 69 (1991), pp. 129–137.
[52] J. L. Nazareth, A conjugate direction algorithm without line searches, J. Optim. Theory
Appl., 23 (1977), pp. 373–387.
[53] J. L. Nazareth, Conjugate-gradient methods, Encyclopedia of Optimization, C. Floudas
and P. Pardalos, eds., Kluwer Academic Publishers, Boston, (1999).
[54] J. M. Perry, A class of conjugate gradient algorithms with a two-step variable-metric
memory, Discussion Paper 269, Center for Mathematical Studies in Economics and Mana-
gement Sciences, Northwestern University, Evanston, Illinois, (1977).
[55] E. Polak and G. Ribière, Note sur la convergence de directions conjugées, Rev. Francaise
Informat Recherche Opertionelle, 3e Année 16 (1969), pp. 35–43.
[56] B. T. Polyak, The conjugate gradient method in extreme problems, USSR Comp. Math.
Math. Phys., 9 (1969), pp. 94–112.
[57] M. J. D. Powell, Some convergence properties of the conjugate gradient method, Math.
Prog., 11 (1976), pp. 42–49.
[58] M. J. D. Powell, Restart procedures of the conjugate gradient method, Math. Prog., 2
(1977), pp. 241–254.
[59] M. J. D. Powell, Nonconvex minimization calculations and the conjugate gradient method,
Numerical Analysis, Lecture Notes in Mathematics, Vol. 1066, Springer-Verlag, Berlin,
(1984), pp. 122–141.
[60] M. Rivaie, M. Mamat , L. W. June ,and I. Mohd, A new class of nonlinear conjugate
gradient coe¢ cients with global convergence properties. Applied Mathematics and Com-
putation 218 (2012) 11323–11332.
[61] D. F. Shanno, On the convergence of a new conjugate gradient algorithm, SIAM J. Numer.
Anal., 15 (1978), pp. 1247–1257.
[62] J. Sun, X.Q. Yang, and X.D. Chen, Quadratic cost ‡ow and the conjugate gradient method,
European Journal of Opera-tional Research 164 (2005) 104–114.
[63] J. Sun and J. Zhang, Global convergence of conjugate gradient methods without line search,
Ann. Oper. Res., 163 (2001), pp. 161–173
[64] Z.J. Shi and J. Shen, Convergence of descent method without line search, Appl. Math.
Comput. 167 (2005) 94–107.
[65] Z.J. Shi, Restricted PR conjugate gradient method and its global convergence, Advances
in Mathematics 31 (1) (2002) 47–55 (in Chinese).
[66] Z.J.Shi and J.Shen, Convergence of Liu-Storey conjugate gradient method, European Jour-
nal of Operational Research,182(2)(2007), 552–560 .
[67] Z.J. Shi and J. Shen, Convergence of Polak-Rebière-Polyak conjugate gradient method,
Nonlinear Analysis, 66 (2007), 1428–1441.
24
BIBLIOGRAPHIE
[68] D. Touati-Ahmed and C. Storey, E¢ cient hybrid conjugate gradient techniques, J. Optim.
Theory Appl., 64 (1990), pp. 379–397.
[69] P. Wolfe, Convergence conditions for ascent methods, SIAM Review, 11 (1969), pp. 226–
235.
[70] P. Wolfe, Convergence conditions for ascent methods. II : Some corrections, SIAM Review,
13 (1971), pp. 185–188.
[71] P. Wolfe, A duality theorem for nonlinear programming, Quart. Appl. Math., 19 (1961),
pp. 239-244.
[72] H. Yabe and M. Takano, Global convergence properties of nonlinear conjugate gradient
methods with modi ?ed secant condition, Comput. Optim. Appl., 28, (2004), pp. 203–225.
[73] Y. Yuan, Analysis on the conjugate gradient method, Optim. Methods Softw., 2 (1993),
pp.19–29.
[74] Y. Yuan, Numerical Methods for Nonlinear Programming, Shanghai Scienti…c & Technical
Publishers, 1993.
[75] J. Z. Zhang, N. Y. Deng, and L. H. Chen, new quasi-Newton equation and related methods
for unconstrained optimization, J. Optim. Theory Appl., 102 (1999), pp. 147–167.
[76] J. Z. Zhang and C. X. Xu, Properties and numerical performance of quasi-Newton methods
with modi…ed quasi-Newton equations, J. Comput. Appl. Math., 137 (2001), pp. 269–278.
[77] G. Zoutendijk, Nonlinear Programming, Computational Methods, in Integer and Nonlinear
Programming, J. Abadie, ed., North-Holland, Amsterdam, (1970), pp. 37–86.
[78] G. Zoutendijk, Methods of Feasible Directions, Elsevier, Amesterdam (1960).
25