Vous êtes sur la page 1sur 2

Algorithmes d'optimisation non linaire: descente de gradient, lm, bfgs, simplexe.

..----------------------------------------------------------------------------------Url
: http://codes-sources.commentcamarche.net/source/50236-algorithmes-d-op
timisation-non-lineaire-descente-de-gradient-lm-bfgs-simplexeAuteur : Pistol_Pe
teDate
: 03/08/2013
Licence :
=========
Ce document intitul Algorithmes d'optimisation non linaire: descente de gradient,
lm, bfgs, simplexe... issu de CommentCaMarche
(codes-sources.commentcamarche.net) est mis disposition sous les termes de
la licence Creative Commons. Vous pouvez copier, modifier des copies de cette
source, dans les conditions fixes par la licence, tant que cette note
apparat clairement.
Description :
=============
Ce programme met en jeu plusieurs fonctions d'optimisation pour résoudre
les problèmes de programmation non linéaire.
<br />Le but est de
trouver un minimum local dans la fonction &agrave; optimiser.
<br />
<br />Di
ff&eacute;rentes fonctions ont &eacute;t&eacute; impl&eacute;ment&eacute;es. Tou
tes laissent le choix &agrave; l'utilisateur du nombre de param&egrave;tres &agr
ave; optimiser. Dans notre cas, nous nous situons en dimension 2 pour des probl&
egrave;mes de visualisation. On optimisera alors les coordonn&eacute;es x et y d
e diff&eacute;rentes fonctions:
<br />
<br />Voici la d&eacute;claration mat
h&eacute;matique de ce probl&egrave;me :
<br />
<br />(x_Optimale,y_Optimale)
= argmin f(x,y)
<br />
<br />Puissance 2 : f(x,y) = x^2+y^2
<br />Puissance 4
: f(x,y) = x^4+y^4
<br />Rosenbrock : f(x,y) = (1-x^2)^2+100(y-x^2)^2
<br />
et d'autres fonctions...
<br />
<br />Les fonctions d'optimisation utilis&eacu
te;es sont les suivantes:
<br />Descente de gradient, lin&eacute;aire, suivant
la m&eacute;thode de Wolfe, BFGS, Levenberg-Marquadt (LM), Fletcher-Reeves avec
relance p&eacute;riodique et Polack-Robiere
<br />
<br />Ces fonctions utili
sent toutes le gradient de la fonction f(x,y). Une derni&egrave;re m&eacute;thod
e a &eacute;t&eacute; impl&eacute;ment&eacute; pour la r&eacute;solution de ce p
robl&egrave;me sans la connaissance du gradient de f: la m&eacute;thode du simpl
exe (Nelder-Mead)
<br />
<br />IHM : La navigation sur la carte a &eacute;t&ea
cute; facilit&eacute; au maximum: (Mani&egrave;re Google Earth)
<br />
<br />C

lick gauche/d&eacute;plac&eacute; permet de se d&eacute;placer suivant x et y.


<br />Mollette de la souris permet de zoomer/d&eacute; zoomer &agrave; l'endroit
o&ugrave; se situe la souris.
<br />Click droit, permet d'adapter l'&eacute;ch
elle des couleurs &agrave; la fen&ecirc;tre de visualisation.
<br />
<br />Cli
ck gauche/d&eacute;plac&eacute; sur le point initial permet de le d&eacute;place
r et de lancer &agrave; nouveau la fonction d'optimisation s&eacute;lectionn&eac
ute;e.
<br /><a name='source-exemple'></a><h2> Source / Exemple : </h2>
<br /
><pre class='code' data-mode='basic'>
//***************************************
*****************************************
//Vincent Morard
//20 juin 2009
//
<a href='http://ImAnalyse.free.fr' target='_blank'>http://ImAnalyse.free.fr</a>
//Programme : Optimisation
//*************************************************
*******************************
</pre>
<br /><a name='conclusion'></a><h2> Con
clusion : </h2>
<br />L'exe est &agrave; renommer de Optimisation.ex en Optimi
sation.exe