Académique Documents
Professionnel Documents
Culture Documents
TECHNIQUES D’OPTIMISATION
Problèmes non linéaires
Il s’agit d’un ensemble d’algorithmes visant à résoudre des problèmes d’optimisation difficile
pour lesquels on ne connaît pas de méthode classique plus efficace (ou très complexe) .
I- Les méthodes de descentes
La Descente de Gradient est un algorithme d’optimisation qui permet de trouver le
minimum de n’importe quelle fonction convexe en convergeant progressivement vers celui-
ci. (Il nécessite que la fonction soit dérivable)
Les algorithmes d'optimisation sont généralement écrits pour minimiser une fonction. Si l'on
désire maximiser une fonction, il suffira de minimiser son opposée.
I- Les méthodes de descentes
Risque : minima locaux
Exemple d’application:
Initialisation: P0 = (2, 1)
I- La méthode de descente
Taux d’apprentissage
Il est nécessaire de bien choisir le PAS d’apprentissage (α)
Pas trop faible : Temps nécessaire pour la convergence
Pas trop élevé: Oscillations
Critère d’arrêt
- Fixer le nombre d’itérations K = 500 par exemple
- Fixer une borne à la différence (s’arrêter sil n’y a pas d’amélioration significative)
| f(xk+1) - f(xk) | ≤ ɛ
- Etc
Algorithme de descente de gradient – Etapes
- Définir la fonction objectif à optimiser
- Fixer le point initial x0
- Calculer le pas optimal
- Accepter la solution xk+1 = xk - α f’(xk)
Si
f(xk+1) ≤ f(xk)
Accepter une solution même si f(xk+1) ≥ f(xk) pour un problème de minimisation (sous
certaines conditions)
Les métaheuristiques
Les métaheuristiques sont généralement des algorithmes itératifs, qui progressent vers
l’optimum global d'une fonction. Elles se comportent comme des algorithmes de recherche,
tentant d’apprendre les caractéristiques d’un problème tout au long du processus afin d’en
trouver une approximation de la meilleure solution.
Source:
Heuristics
optimization for
the resolution of
the m-PDPTW
static and
dynamic
Problème de voyageur de commerce
L’individu doit visiter une seule fois les différentes villes et revenir à son point de depart. On cherche
le chemin optimal minimisant la distance (le temps, le coût…..)
https://www.oliviergibaru.org/courses/NO_Metropolis.html
https://perso.liris.cnrs.fr/pierre-edouard.portier/teaching_2015_2016/ia/sima/sima.html
Travail pratique 2 A faire
- Analyser un article scientifique utilisant l’une des deux méthodes. Quelle est la
contribution proposée dans cet article.
Méthode de Lagrange avec conditions KKT
Trouver l’optimum des problèmes suivants par la méthode de Lagrange
1)
Minimiser f(x, y) = 2y + x
Sous contrainte y² + xy -1 = 0
2)
Source: http://igm.univ-
mlv.fr/~dr/XPOSE2013/tleroux_gene
tic_algorithm/index.html
Exercice d’application
Maximiser la fonction f(x) = X² avec 0 ≤ x ≤ 40
Population de depart: 13 24 8 19