Vous êtes sur la page 1sur 34

Chapitre 2

Optimisation non linéaire


sans contraintes

Master de Mécanique 3M
Rafic YOUNES

Plan

• Méthodes de descente
• Choix de la direction
• Choix du pas : minimisation / Approximation
• Convergence / Critères d’arrêt
• Méthode de Newton
• Résolution d’une équation non linéaire à une inconnue
• Résolution d’un système d’équations à plusieurs inconnues
• Optimisation par la Méthode de Newton
• Minimisation
• Convergence globale
• Méthodes sécantes ou quasi-Newton
• Minimisation à une seule variable
• Minimisation à plusieurs variables
11/12/2005 Rafic Younès 2
Méthodes de descente

• Problème :
min f : IRn → IR
f continûment différentiable
• Idée :
• On démarre d’un point x0
• On génére des vecteurs x1, x2,… tels que
la valeur de f décroit à chaque itération :
f(xk+1) < f(xk) k=1,2,…

11/12/2005 Rafic Younès 3

Méthodes de descente

f(x)=c1

x3
x4 x1

x2
x0

f(x)=c2 < c1
f(x)=c3 < c2
11/12/2005 Rafic Younès 4
Directions de descente

• Soit x ∈ IRn tel que ∇f(x) ≠ 0.


• Considérons la demi-droite
xα = x – α ∇f(x)
• Théorème de Taylor (1er ordre)
f(x+s) = f(x) + ∇f(x)Ts + o(¦¦s¦¦)
avec s = xα-x
f(xα) = f(x) + ∇f(x)T(xα-x) + o(¦¦xα-x¦¦)
= f(x) – α ¦¦∇f(x)¦¦2 + o(ᦦ∇f(x)¦¦)
= f(x) – α ¦¦∇f(x)¦¦2 + o(α)

11/12/2005 Rafic Younès 5

Directions de descente

f(xα) = f(x) – α ¦¦∇f(x)¦¦2 + o(α)


• Si α est petit, on peut négliger o(α)
• Donc, pour α positif mais petit, f(xα) < f(x)
Théorème :
• Il existe δ tel que, pour tout α ∈ ]0,δ[
f(x- α∇f(x)) < f(x)
• Gradient = plus forte pente
Question : y a-t-il d’autres directions de descente que
-∇f(x) ?
Appliquons le même raisonnement avec d ≠ 0.
11/12/2005 Rafic Younès 6
Directions de descente

• Considérons la demi-droite
xα = x + α d
• Théorème de Taylor (1er ordre)
f(x+s) = f(x) + ∇f(x)Ts + o(¦¦s¦¦)
avec s = xα-x
f(xα)= f(x) + ∇f(x)T(xα-x) + o(¦¦xα-x¦¦)
= f(x) + α ∇f(x)Td + o(α ¦¦d¦¦)
= f(x) + α ∇f(x)Td + o(α)

11/12/2005 Rafic Younès 7

Directions de descente

f(xα) = f(x) + α ∇f(x)Td + o(α)


• Si α est petit, on peut négliger o(α)
• Pour avoir f(xα) < f(x), il faut
∇f(x)Td < 0
Théorème :
• Soit d tel que ∇f(x)Td < 0. Il existe δ
tel que, pour tout α ∈ ]0,δ[
f(x+αd) < f(x)
11/12/2005 Rafic Younès 8
Directions de descente
Définition :
Soit f:IRn→IR, une fonction continûment
différentiable, et x un vecteur de IRn. Le vecteur d ∈
IRn est appelé direction de descente de f en x ssi
∇f(x)Td < 0
Algorithme de base :
Soit x0 ∈ IRn. Poser k=0.
• Tant que ∇f(xk) ≠ 0
• Choisir dk tel que ∇f(xk)Tdk < 0
• Choisir αk > 0
• Poser xk+1 = xk + αk dk
11/12/2005 Rafic Younès 9

Choix de la direction

• Beaucoup de choix possibles. On choisit αk tel que


f(xk+αkdk) < f(xk)
Aucune garantie de convergence.
• Ecrivons dk = -Dk ∇f(xk) où Dk est une matrice n x n
• La condition ∇f(xk)Tdk < 0 s’écrit
∇f(xk)T Dk∇f(xk) > 0
• Si Dk est définie positive, cette condition est
toujours vérifiée.
• Le choix de la direction revient donc au choix d’une
matrice définie positive.
11/12/2005 Rafic Younès 10
Choix de la direction

Quelques exemples souvent utilisés :


• Méthode de la plus forte pente
• Dk = I
• xk+1 = xk – αk ∇f(xk)

Attention: il faut
• Méthode de Newton que ∇2f(xk) soit
inversible et
• Dk = (∇2f(xk))-1 déf. pos.
• xk+1 = xk – αk (∇2f(xk))-1 ∇f(xk)
11/12/2005 Rafic Younès 11

Choix de la direction

• Mise à l’échelle diagonale


- dki > 0 pour tout i
 ∂ 2 f ( xk ) 
−1
- Dk =
- Exemple : dki =  
 ∂x i 
2

• Méthode de Newton modifiée :


Dk = (∇2f(x0))-1
• xk+1 = xk – αk (∇2f(x0))-1 ∇f(xk)
• etc…

11/12/2005 Rafic Younès 12


Choix du pas : minimisation

Règle de minimisation
• Choisir αk qui minimise la fonction le long de
dk, c’est-à-dire tel que

f(xk+αdk)

11/12/2005 Rafic Younès 13

Choix du pas : minimisation

• Minimisation à une variable


min g(α)=f(xk+αdk), α ∈ [a0,b0]
• Algorithme de la section d’or
• Hypothèse :
• g est unimodale dans [a0,b0] ssi :
• g possède un et un seul minimum global α*
dans [a0,b0]
• Soient α1 et α2 ∈ [a0,b0]
• Si α1 < α2 < α*, alors g(α1) > g(α2) > g(α*)
• Si α*< α1 < α2, alors g(α*) < g(α1) < g(α2)
11/12/2005 Rafic Younès 14
Choix du pas : minimisation

a0 a0b 0 b0 a0 a 0 b b0
0

Si f(a 0) < f(b 0) Alors Si f(a 0) > f(b 0) Alors


α*∈[a0,b 0] α*∈[a 0,b0]
[a1,b1] = [a0,b 0] [a1,b1] = [a 0,b0]

11/12/2005 Rafic Younès 15

Choix du pas : minimisation


Algorithme de la section d’or

a0 0 0 b0
a1 1 1 b1
• Itération 0 : a’0-a0=b0-b’0=ρ(b0-a0)
• Itération 1: a’1-a1=b1-b’1=ρ(b1-a1)
a’1-a0=b’0-a’0= ρ(b’0-a0)
• On montre que
ρ = (3-√5)/2 ≈ 0.382
11/12/2005 Rafic Younès 16
Choix du pas : minimisation

• Notes : anciens Grecs


• Section d’or :
A M B
a0 0 0 b0
(1-ρ)(b0-a0)=(1-ρ)λ ρ(b0-a0)= ρλ
AB AM 1 1-ρ
AM
= MB 1-ρ
= ρ
11/12/2005 Rafic Younès 17

Choix du pas : minimisation


Algorithme de la section d’or
• Soient g(α) unimodale sur [a0,b0],
ε ∈ IR et ρ = (3-√5)/2
Pour k=1,2,…
• Si bk-ak < ε, alors α*=(ak+bk)/2 STOP
• a’k = ak+ρ(bk-ak)=(1-ρ)ak+ρbk
• b’k = bk-ρ(bk-ak) = ρak+(1-ρ)bk
• Si g(a’k)≤g(b’k), alors ak+1=ak, bk+1=b’k
• Si g(a’k)> g(b’k), alors ak+1=a’k, bk+1=bk
11/12/2005 Rafic Younès 18
Choix du pas : minimisation

Exemple :
• min g(α)=α4 - 14α3 + 60α2 - 70α
α ∈ [0,2] k a a' b' b k α* g(a' )
k k k k g(b'k)
1 0.0000 0.7639 1.2361 2.0000 1.0000 -24.3607 -18.9582
2 0.0000 0.4721 0.7639 1.2361 0.6180 -21.0985 -24.3607
3 0.4721 0.7639 0.9443 1.2361 0.8541 -24.3607 -23.5925
4 0.4721 0.6525 0.7639 0.9443 0.7082 -23.8374 -24.3607
5 0.6525 0.7639 0.8328 0.9443 0.7984 -24.3607 -24.2879
6 0.6525 0.7214 0.7639 0.8328 0.7426 -24.2579 -24.3607
7 0.7214 0.7639 0.7902 0.8328 0.7771 -24.3607 -24.3669
8 0.7639 0.7902 0.8065 0.8328 0.7984 -24.3669 -24.3495
9 0.7639 0.7802 0.7902 0.8065 0.7852 -24.3696 -24.3669
10 0.7639 0.7740 0.7802 0.7902 0.7771 -24.3681 -24.3696

11/12/2005 Rafic Younès 19

Choix du pas

Règle de minimisation
§ Méthode de la section d’or
§ Minimisation prend du temps
§ Section d’or nécessite l’unimodalité
§ A-t-on besoin du minimum exact ?
§ Idée : Règle d’approximation
Choisir un pas qui diminue suffisamment
la valeur de la fonction.

11/12/2005 Rafic Younès 20


Choix du pas : approximation
f(xk)+αβ1∇f(xk)Tdk
β1 ∈ ]0,1[

α
f(xk)+α∇f(xk)Tdk

• Conditions d’Armijo-Goldstein
f(xk+αkdk) ≤ f(xk)+αkβ1∇f(xk)Tdk
β1 ∈ ]0,1[
11/12/2005 Rafic Younès 21

Choix du pas : approximation

Algorithme de recherche linéaire


• Soient g(α), β1,λ ∈ ]0:1[, β2∈]β1:1[, α0 > 0

• Pour k=1,2,…
• Si f(xk+αkdk) ≤ f(xk)+αkβ1∇f(xk)Tdk alors
α*=αk STOP
• αk+1 = λ αk

11/12/2005 Rafic Younès 22


Convergence / Critères d’arrêt

• Démarche:
• Voyons d’abord ce que sont de « mauvais »
pas.
• Déterminons des règles empêchant les
« mauvais » pas.
• Prenons
• f(x) = x2
• x0 = 0
11/12/2005 Rafic Younès 23

Convergence / Critères d’arrêt

x0

x1

x2

x3

x4

x5

x6
x7

§ Lorsque k est grand § Lorsque k est grand


dk = -1 dk = (-1)k+1
αk ≈ 0 αk ≈ 2
xk ≈ 1 xk ≈(-1)k
11/12/2005 Rafic Younès 24
Convergence / Critères d’arrêt

Théorème :
• Si (dk) est en relation-gradient avec
(xk)
• Si le pas est choisi
• soit par la règle de minimisation
• soit par la règle d’Armijo-Goldstein
• Alors tous les points limites de (xk)
sont stationnaires.

11/12/2005 Rafic Younès 25

Convergence / Critères d’arrêt


• En général, ces méthodes ne permettent pas
de trouver la solution en un nombre fini
d’itérations.
• Quand arrête-t-on les itérations ?
Critère 1:
¦¦∇f(xk)¦¦ < ε, avec ε > 0 petit.
• Problèmes :
• Supposons ε=10-3, et f(x)∈[10-7,10-5]. Il est
probable que toutes les valeurs de x
vérifieront la condition d’arrêt.
• Par contre, si f(x) ∈[105,107], cela
n’arrivera peut-être jamais.
11/12/2005 Rafic Younès 26
Convergence / Critères d’arrêt
Critère 2 :
¦¦r(x)¦¦∞ ≤ ε, avec ε > 0 petit,
avec r(x)i = (∇f(x)i xi) / f(x).
r(x) est le gradient relatif en x.
Ce critère est indépendant de changement d’unités
en f et en x. Attention si f ou x est proche de 0.
• Critère 3 :

Où ε > 0 est petit. txi est une valeur typique de xi. tf


est une valeur typique de f.
11/12/2005 Rafic Younès 27

Vitesse de convergence
Méthode de la plus forte pente
xk+1 = xk – αk ∇f(xk)
• Supposons que
• f(x) = ½ xTQx est quadratique
• Q est définie positive
• f est minimisé par x* = 0
• f(x*)=0
• Donc :
• ∇f(x) = Qx ∇2f(x) = Q
• xk+1 = xk – αk Qx

11/12/2005 Rafic Younès 28


Vitesse de convergence
La représentation n’est pas à l’échelle

f ( x, y ) =
1 2 9 2
⋅x + ⋅y
2 2

La direction du
gradient est
perpendiculaire aux
courbes de niveaux

11/12/2005 Rafic Younès 29

Plan

• Méthodes de descente
• Choix de la direction
• Choix du pas : minimisation / Approximation
• Convergence / Critères d’arrêt
• Méthode de Newton
• Résolution d’une équation non linéaire à une inconnue
• Résolution d’un système d’équations à plusieurs inconnues
• Optimisation par la Méthode de Newton
• Minimisation
• Convergence globale
• Méthodes sécantes ou quasi-Newton
• Minimisation à une seule variable
• Minimisation à plusieurs variables
11/12/2005 Rafic Younès 30
Equation à une inconnue
Problème :
• Soit f:IR→IR continûment dérivable. Trouver x tel que
f(x) = 0.
Exemple :
f(x) = x2 – 3
x0 = 1

11/12/2005 Rafic Younès 31

Equation à une inconnue

∆x
x0

∆y
x1
x1 = x0 + ∆x
f’(x0) = ∆y / ∆x
∆x = ∆y / f’(x0) = - f(x0) / f’(x0)
x1 = x0 - f(x0) / f’(x0)
11/12/2005 Rafic Younès 32
Equation à une inconnue

• Méthode de Newton :
xk+1 = xk – f(xk) / f’(xk)
k x f(x) f'(x) err
0 1.00000000 -2.00000000 2.00000000 0.73205081
1 2.00000000 1.00000000 4.00000000 0.26794919
2 1.75000000 0.06250000 3.50000000 0.01794919
3 1.73214286 0.00031888 3.46428571 0.00009205
4 1.73205081 0.00000001 3.46410162 0.00000000

11/12/2005 Rafic Younès 33

Equation à une inconnue

• A chaque itération, on remplace la fonction non-


linéaire par un modèle local facile à calculer.
M(x) = f(x0) + f’(x0)(x-x0)
• Ce modèle est : linéaire, M(x0) = f(x0), tel que M’(x0)
= f’(x0)
Convergence locale
• Si f(x) n’est pas trop non-linéaire
• Si x0 est suffisament bon
• Alors convergence rapide
Si f’(x*)=0, la méthode de Newton converge beaucoup plus lentement.
11/12/2005 Rafic Younès 34
Equation à une inconnue

x* = 1 f1(x)=x2-1 k f2(x)=x2-2x+1
2 0 2
f1 (x*)=2 1.25 1 1.5
f2 (x*)=0 1.025 2 1.25
1.000304878 3 1.125
1.000000046 4 1.0625
1 5 1.03125
Note : Lorsque f est linéaire,
1 6 1.015625
la méthode de Newton pour 1 7 1.0078125
la résolution d’équations 1 8 1.00390625
converge en une seule itération. 1 9 1.001953125
1 10 1.000976563

11/12/2005 Rafic Younès 35

Système d’équations à plusieurs variables

• La méthode de Newton peut être


utilisée pour résoudre un système de n
équations à n inconnues.
g(x) = 0
où g:IRn→IRn est une fonction
continûment différentiable.
La méthode est alors
xk+1 = xk – (∇g(xk)T)-1 g(xk)
11/12/2005 Rafic Younès 36
Système d’équations à plusieurs variables

1) Il existe δ tel que, si x0 ∈ Sδ, la suite


(xk) générée par
xk+1 = xk – (∇g(xk)T)-1 g(xk)
• est bien définie,
• est contenue dans Sδ,
• converge vers x*.

11/12/2005 Rafic Younès 37

Système d’équations à plusieurs variables

Notes :
• L est la constante de Lipschitz
• La condition
¦¦∇g(x)-∇g(y)¦¦ ≤ L¦¦x-y¦¦
impose que la fonction « ne soit pas trop non
linéaire »
• La condition
¦¦ (∇g(x)T)-1¦¦ ≤ M
impose que le problème « ne soit pas trop
mal conditionné »
11/12/2005 Rafic Younès 38
Plan

• Méthodes de descente
• Choix de la direction
• Choix du pas : minimisation / Approximation
• Convergence / Critères d’arrêt
• Méthode de Newton
• Résolution d’une équation non linéaire à une inconnue
• Résolution d’un système d’équations à plusieurs inconnues
• Optimisation par la Méthode de Newton
• Minimisation
• Convergence globale
• Méthodes sécantes ou quasi-Newton
• Minimisation à une seule variable
• Minimisation à plusieurs variables
11/12/2005 Rafic Younès 39

Minimisation à une variable

• Appliquer la méthode de Newton à l’équation


f’(x) = 0.
• Cela donne : xk+1 = xk – f’(xk)/f’’(xk)
• A chaque itération, on remplace la fonction
non-linéaire par un modèle local facile à
calculer.
mk(x) = f(xk) + f’(xk)(x-xk)+½ f’’(xk)(x-xk)2
• Ce modèle est : quadratique, mk(xk) = f(xk),
mk’(xk) = f’(xk) et mk’’(xk) = f’’(xk)
11/12/2005 Rafic Younès 40
Minimisation à une variable
m(x)=7x2-48x+81

f(x)=-x4+12x3-47x2+60x
11/12/2005 Rafic Younès 41

Minimisation à une variable

m(x)=x2-20x+48
m(x)=-17x2+160x-375

f(x)=-x4+12x3-47x2+60x
11/12/2005 Rafic Younès 42
Minimisation multi- variables

• Appliquer la méthode de Newton à l’équation


∇f(xk)= 0
• Cela donne : xk+1=xk–∇2f(xk)-1∇f(xk)
• A chaque itération, on remplace la fonction
non-linéaire par un modèle local facile à
calculer.
mk(x) = f(xk) + ∇f(xk)(x-xk)+½ ∇2f(xk)(x-xk)2
• Ce modèle est : quadratique, mk(xk) = f(xk),
mk’(xk) = f’(xk) et mk’’(xk) = f’’(xk)
11/12/2005 Rafic Younès 43

Convergence globale

Problèmes de la méthode de Newton pure :


• La matrice ∇2f(xk) peut ne pas être définie
positive.
• Elle peut ne pas être inversible.
• La méthode peut produire des itérés tels que
f(xk+1) > f(xk).
• La méthode se contente de résoudre ∇f(x)=0.
Elle peut donc converger vers des points
critiques qui ne sont pas des minima.

11/12/2005 Rafic Younès 44


Convergence globale
Idée :
• modifier la méthode de Newton pour
garantir la convergence globale,
• mais conserver sa forme pure près de
la solution afin de maintenir sa
rapidité.

• N.B. : Un algorithme globalement convergent


est un algorithme qui converge vers un
minimum local à partir de (presque)
n’importe quel point de départ x0.
11/12/2005 Rafic Younès 45

Convergence globale

Idée de Cauchy :
• Lorsque le pas de Newton n’est pas
défini, ou ne fait pas diminuer la valeur
de la fonction, préférer la direction de la
plus forte pente.
• A. Cauchy (1847) Analyse mathématique. Méthode générale
pour la résolution des systèmes d équations simultanées.
Comptes Rendus de l’Académie des Sciences de Paris.
• Désavantages de la plus forte pente.

11/12/2005 Rafic Younès 46


Convergence globale

Recherche linéaire
• Newton « pur » :
xk+1 = xk – ∇2f(xk)-1∇f(xk)
• Considérer la direction :
dk = – ∇2f(xk)-1∇f(xk)
• Si ∇2f(xk)-1 n’est pas déf. pos. :
dk = – (∇2f(xk)+λI)-1∇f(xk)
Tel que dk est direction de descente
11/12/2005 Rafic Younès 47

Convergence globale

Recherche linéaire
• Algorithme de descente :
xk+1 = xk + αk dk
• On essaie d’abord αk=1.
• Si cela ne marche pas, on essaie des
pas plus courts.
• Règle d’Armijo-Goldstein
11/12/2005 Rafic Younès 48
Plan

• Méthodes de descente
• Choix de la direction
• Choix du pas : minimisation / Approximation
• Convergence / Critères d’arrêt
• Méthode de Newton
• Résolution d’une équation non linéaire à une inconnue
• Résolution d’un système d’équations à plusieurs inconnues
• Optimisation par la Méthode de Newton
• Minimisation
• Convergence globale
• Méthodes sécantes ou quasi-Newton
• Minimisation à une seule variable
• Minimisation à plusieurs variables
11/12/2005 Rafic Younès 49

Méthodes quasi-Newton

f(xk)+f (xk)(x-xk)

hk

xk xk+hk
f(xk)+ak(x-xk) Question : que se passe-t-il lorsque la dérivée n’est pas disponible ?
ak=(f(xk+hk)-f(xk))/hk Idée : on remplace le modèle linéaire tangent par un modèle linéaire
sécant.

11/12/2005 Rafic Younès 50


Méthodes quasi-Newton
f(xk+hk)-f(xk)
• Pente de la sécante : ak =
hk
• Le pas « quasi-Newton » est
xk+1 = xk – f(xk)/ak
• Comment choisir hk ?
• Si hk → 0, alors ak → f’(xk)
• Si hk est choisi suffisamment petit, ak est appelée
une approximation de f’(xk) par différence finie.
• cela exige une évaluation supplémentaire de la
fonction. On préfère choisir :
hk = xk-1 – xk
11/12/2005 Rafic Younès 51

Méthodes quasi-Newton
Notes :
• La méthode fonctionne bien. Le modèle linéaire :
f(xk-1)-f(xk)
• Mk(x)=f(xk) + (x-xk)
xk-1-xk
Vérifie : Mk(xk-1)=f(xk-1) et Mk(xk)=f(xk).

Minimisation à plusieurs variables


• On remplace : F(x) par ∇f(x) & ∇F(x) par ∇2f(x)
Attention : le hessien doit être symétrique défini positif.
xk+1 = xk − αkHk∇f(xk)
11/12/2005 Rafic Younès 52
Méthodes quasi-Newton
Mise à jour de Powell
• dk = xk-xk-1 yk = ∇f(xk)- ∇f(xk-1)

• On génère la suite suivante :

yk – H2idk
• H2i+1 = H2i + d kT
dkTdk
• H2i+2 = ½ (H2i+1 + H2i+1T)
11/12/2005 Rafic Younès 53

Méthodes quasi-Newton

• Mise à jour suivante :

ykykT Hk-1dkdkTHk-1
Hk=Hk-1+ −
ykTdk dkTHk-1dk

dk = xk-xk-1 yk = ∇f(xk)- ∇f(xk-1)

Broyden- Fletcher-Goldfarb-Shanno
11/12/2005 Rafic Younès 54
Méthodes quasi-Newton

Résumé : xk+1 = xk − αkDk∇f(xk)


• Plus forte pente : Dk = I

• Newton : Dk = ∇2f(xk)-1
• Newton pure :
αk = 1 -> pas globalement convergent

• Règle d’approximation : Armijo-Goldstein


11/12/2005 Rafic Younès 55

Méthodes quasi-Newton

Résumé :
• xk+1 = xk − αkDk∇f(xk)
• Newton : Dk = – (∇2f(xk)+λI)-1

• Newton pure :
αk = 1 -> pas globalement convergent

• Règle d’approximation : Armijo-Goldstein

11/12/2005 Rafic Younès 56


Méthodes quasi-Newton

Résumé :
• xk+1 = xk − αkDk∇f(xk)
• quasi-Newton : Dk = Hk
• H0 arbitraire, symétrique définie positive
ykykT Hk-1dkdkTHk-1
• Hk=Hk-1+ y Td − d TH d
k k k k-1 k

• Règle d’approximation : Armijo-Goldstein

11/12/2005 Rafic Younès 57

Exemples : quadratique
1 2 9 2
f(x) = x + x
Newton 2 1 2 2

11/12/2005 Rafic Younès 58


BFGS avec H0=I Plus forte pente

11/12/2005 Rafic Younès 59

Exemples : fonction «gentille»


f(x) = (x 1 - 2)4 + (x 1 - 2)2 x 22 + (x 2 + 1)2

11/12/2005 Rafic Younès 60


Newton Plus forte pente

11/12/2005 Rafic Younès 61

BFGS avec H0=I (plus large) BFGS avec H0=∇2f(x0)

11/12/2005 Rafic Younès 62


Exemples : Rosenbrock ou « fonction
banane »
f(x) = 100(x2 - x 21 )2 + (1- x 1)2

11/12/2005 Rafic Younès 63

Plus forte pente Plus forte pente (zoom)

11/12/2005 Rafic Younès 64


Plus forte pente (autre point de départ)
Plus forte pente (zoom)

11/12/2005 Rafic Younès 65

BFGS avec H0=∇2f(x0) Newton

11/12/2005 Rafic Younès 66


BFGS avec H0=I
BFGS avec H0=I (zoom)

11/12/2005 Rafic Younès 67