Académique Documents
Professionnel Documents
Culture Documents
Chapitre 5
INTRODUCTION :
Les problèmes d’optimisation occupent une place importante dans la communauté des
ingénieurs, des scientifiques et des décideurs. En effet, ce genre de problèmes intervient dans
leurs domaines d’activité qui sont très divers, comme la conception de systèmes mécaniques, le
traitement d’images, l’électronique ou la recherche opérationnelle.
Un problème d’optimisation est défini par un ensemble de variables, une fonction objectif et
un ensemble de contraintes. L’espace de recherche est l’ensemble des solutions possibles du
problème. Résoudre un problème d’optimisation consiste à trouver la ou les meilleures
solutions (en minimisant et/ou maximisant la/les fonctions objectifs du problème posé), tout en
satisfaisant un ensemble de contraintes définies par l’utilisateur.
Les méthodes de résolution exacte ne sont pas adaptées à toutes les problématiques, et donc
certains problèmes sont trop complexes à résoudre par ces méthodes. Parmi ces
problématiques, on peut citer l’existence de discontinuités, l’absence de convexité stricte, la
non-dérivabilité, la présence de bruit ou encore la fonction objectif peut ne pas être définie
précisément. En outre, les méthodes de résolution exacte peuvent avoir un temps de résolution
trop long. Dans ce cas, le problème d’optimisation est dit difficile, car aucune méthode exacte
n’est capable de le résoudre en un temps raisonnable. Il est alors nécessaire d’avoir recours à
des méthodes dites approchées, qui fournissent un résultat sans garantie de l’optimalité.
Ainsi, lorsque l’on dispose d’un temps de calcul limité ou que les problèmes sont trop
grands, on peut être amené à se contenter de rechercher une solution de « bonne qualité » sans
utiliser de méthodes exactes.
C’est pour ces raisons que les méthodes approchées ont été développées. Ces méthodes
permettent de trouver des solutions approchées ou que l’on espère proches de la solution
optimale en un temps raisonnable. En contrepartie, avec ces méthodes, il n’est pas garanti de
trouver un optimum global. Parmi ces méthodes approchées, deux classes de méthodes peuvent
être identifiées : les heuristiques et les métaheuristiques.
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 2
DEFINITIONS :
1- Problème d’optimisation :
On peut tout aussi bien résoudre des problèmes de maximisation, les principes de résolution
restent naturellement les mêmes. Il est possible de passer d’un problème de maximisation à un
problème de minimisation.
( POD ) min f ( s )
sZ N
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 3
minimiser l’erreur entre le modèle d’un système et des observations expérimentales. Ce type de
problèmes est moins formalisé que le précédent, mais un certain nombre de difficultés sont bien
connues, comme l’existence de nombreuses variables présentant des corrélations non
identifiées, la présence de bruit ou plus généralement une fonction objectif accessible par
simulation uniquement.
( POC ) min f ( s )
sR N
4- Optimum global :
Une solution est un optimum global à un problème d’optimisation s’il n’existe pas d’autres
solutions de meilleure qualité. La solution s* S est un optimum global si et seulement si :
Optimum global
Figure 01
5- Voisinage :
Cette notion de voisinage structure l’espace de recherche dans le sens où elle permet de
définir des sous-ensembles de solutions. En particulier, à partir d’une solution donnée, on peut
établir plusieurs structures de voisinage selon la transformation que l’on s’autorise, celle-ci
étant définie comme une application V : S P(S). Chaque structure de voisinage fournit un
voisinage, ou un ensemble de solutions, précis via la transformation définie.
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 4
Pour illustrer cette notion, la figure 02 présente deux voisinages distincts. Une solution est
composée ici de 3 variables binaires. Selon le voisinage V1 , deux solutions sont voisines si et
seulement si une seule composante diffère entre elles. Le voisinage V2 définit deux solutions
voisines si et seulement si une permutation entre deux composantes permet de passer de l’une à
l’autre. Depuis une solution s quelconque de l’ensemble V1(s) est différent de V2(s). Cependant
les voisinages se recoupent souvent très largement ; par exemple certaines solutions
appartenant à l’ensemble V2(s) sont accessibles à partir de l’ensemble V1(s1). La structure du
voisinage permet de se déplacer d’une solution à une autre dans l’espace de recherche en
établissant des chemins entre les solutions.
s4=(0,1,1) s5=(1,1,0)
V2(s)
V1(s1)
s=(1,0,1)
V1(s)
s1=(1,1,1) s3=(1,0,0)
s2=(0,0,1)
Figure 02
6- Optimum local :
Une solution s S est un optimum local si et seulement s’il n’existe pas de solution s’ V(s)
dont l’évaluation est de meilleure qualité que s, soit :
La définition d’un optimum local est liée à la structure de voisinage. En d’autres termes, un
optimum local pour une structure de voisinage donnée ne l’est pas forcément pour une autre
structure de voisinage.
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 5
Optimum local
Optimum global
Figure 03
7- Notion de paysage :
La notion de paysage permet de décrire visuellement l’ensemble des valeurs que peut
prendre une fonction objectif pour une paramétrisation donnée. Cette description permet
notamment de voir s’il existe potentiellement de nombreux optima locaux. La description d’un
paysage se fait en analogie avec la notion « géographique » du paysage. Ainsi un paysage peut
être décrit comme une vallée, une plaine, un bassin, etc. Cela correspond à la forme générale.
Ensuite, il est possible d’apporter une information sur le nombre d’optima locaux existants.
8- Diversification :
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 6
9- Intensification
Autant le principe de diversification essaye de déplacer les solutions dans d’autres zones de
l’espace de recherche, autant le processus d’intensification vise à forcer une solution donnée à
tendre vers l’optimum local de la zone à laquelle elle est attachée.
Mouvement d’intensification
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 7
10- Heuristiques :
Le terme heuristique dérive du grec ancien heuriskêin et signifie « trouver ». Il qualifie tout
ce qui sert à la découverte et à l’exploitation. Il est à souligner ici qu’une méthode heuristique
peut être déterministe ou stochastique.
Une heuristique est un algorithme qui fournit rapidement (en un temps polynomial) une
solution approchée et réalisable, pas nécessairement optimale, pour un problème d’optimisation
difficile. Cette méthode approximative est le contraire d’un algorithme exact qui donne une
solution optimale pour un problème donné.
Il y a une multitude d’heuristiques qui ont déjà été proposées dans la littérature. On peut
citer des heuristiques très simples telles que les algorithmes gloutons, les approches par
amélioration itérative, etc.
11- Métaheuristiques :
Les métaheuristiques forment une famille d’algorithmes d’optimisation visant à résoudre des
problèmes d’optimisation difficile, pour lesquels on ne connait pas de méthodes classiques plus
efficaces. Elles sont généralement utilisées comme des méthodes génériques pouvant optimiser
une large gamme de problèmes différents, d’où le qualificatif méta.
Leur capacité à optimiser un problème à partir d’un nombre minimal d’informations est
contrebalancée par le fait qu’elles n’offrent aucune garantie quant à l’optimalité de la meilleure
solution trouvée. Cependant, ce constat n’est pas forcément un désavantage, puisque l’on
préfère toujours une approximation de l’optimum global trouvée rapidement à une valeur
exacte trouvée dans un temps rédhibitoire.
Ces méthodes tirent leur intérêt de leur capacité à éviter les optima locaux, soit en acceptant
des dégradations de la fonction objectif au cours du traitement, soit en utilisant une population
de points comme méthode de recherche.
Les métaheuristiques se caractérisant par leur capacité à résoudre des problèmes très divers,
elles se prêtent naturellement à des extensions. Pour illustrer celles-ci, on peut citer :
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 8
Une autre manière, plus intuitive, de classifier les métaheuristiques consiste à distinguer :
Ces algorithmes partent d’une solution initiale (obtenue de façon exacte, ou par tirage
aléatoire) et s’en éloignent progressivement, pour réaliser une trajectoire (un parcours
progressif) dans l’espace des solutions.
la méthode de descente,
le recuit simulé,
la méthode Tabou,
la recherche par voisinage variable,
etc.
Ces méthodes qui tentent itérativement d’améliorer une solution sont appelées « méthodes de
recherche locale » ou « méthodes de trajectoire ».
Elles consistent à travailler avec un ensemble de solutions simultanément, que l’on fait
évoluer graduellement. L’utilisation de plusieurs solutions simultanément permet
naturellement d’améliorer l’exploration de l’espace des configurations.
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 9
La recherche par descente (Hill Climbing) est une des métaheuristiques à base de solution
unique la plus utilisée. Elle est facile à mettre en place et donne de bons résultats. Comme toute
méthode de recherche à base de solution unique, le but est d’améliorer la qualité (la « fitness »,
la valeur objectif) d’une solution par exploration de son voisinage. Dans la recherche par
descente, tant qu’un voisin de meilleure qualité que la solution courante existe, on utilise ce
voisin comme base d’une nouvelle exploration. La figure 07 schématise ce processus qui est
aussi détaillé par l’algorithme 1.
Solution initiale
Solution
Mouvement pour passer
d’une solution à une autre
Voisinage d’une solution
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 10
Ce processus est déterministe, c’est-à-dire que pour un type de voisinage donné et une même
solution initiale, le résultat donné sera forcément le même : un optimum local (qui peut être
l’optimum global). Des variations basées sur la modification du principe de sélection du voisin
permettent de « casser » le déterminisme de la méthode. Le choix du voisin peut être aussi bien
stochastique que basé sur une exploration incomplète du voisinage (premier voisin améliorant).
Solution initiale
Solution finale
Mouvement
Optimum local
Optimum global
Figure 08- Impact du choix de la solution initiale sur le résultat d’un recherche par descente
L’algorithme de recuit simulé (Simulated Annealing) trouve ses origines dans les travaux de
S. KIRKPATRICK (1983) et V. CERNY (1985). Il voit son succès par son efficacité aussi bien sur
des problèmes combinatoires que continus. Le recuit simulé retranscrit le processus physique
permettant d’obtenir des structures cristallines. À partir d’une température élevée, un
refroidissement contrôlé permet d’abaisser la température jusqu’à l’obtention d’un état
d’équilibre. La température initiale et la vitesse de refroidissement sont des critères essentiels
de ce processus.
f ( sol' ) f ( sol )
Pe T
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 11
1 T = Tmax répéter
2 répéter
3 Sol’ = un voisin aléatoire de Sol;
4 δE = qualité de Sol’ - qualité de Sol;
5 si δE ≤ 0 alors
6 Sol = Sol’;
7 sinon
8 Sol = Sol’ avec la probabilité e−δE/T
9 fin
10 jusqu’à ce que l’état d’équilibre soit atteint ;
11 mise à jour de la température;
12 jusqu’à ce que le critère d’arrêt soit vérifié (T < Tmin) ;
13 retourner Sol ;
La force du recuit simulé tient dans sa capacité à sortir des optima locaux. La figure 09
montre comment la température peut influencer la sortie d’optima locaux. Au début de
l’algorithme, il est plus aisé de sortir d’un optimum local (phase d’exploration) mais plus la
température descend, plus il devient difficile de continuer d’explorer les différentes zones de
l’espace de recherche quitte à rester autour d’un optimum local (phase d’intensification).
1
3 2
Solution quelconque
Le recuit simulé est un processus qui peut se révéler coûteux notamment à cause de la
génération de nombres aléatoires et l’utilisation d’exponentiels. Par conséquent, inspirées du
recuit simulé, d’autres méthodes ont vu le jour pour permettre une résolution plus rapide sans
pour autant perdre la qualité de solution obtenue grâce au recuit simulé.
L’algorithme de recherche tabou (Tabu Search) a été proposé par F. GLOVER (1986) et est
devenu populaire dans les années 90. À la manière d’une méthode par descente, le voisinage est
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 12
exploré de manière complète et dès qu’une meilleure solution est trouvée, elle remplace la
solution courante. Cependant, lorsqu’il n’y a plus de meilleures solutions dans le voisinage, le
meilleur voisin remplace la solution courante même si celui-ci est moins bon puis la recherche
recommence.
Le risque dans ce type d’approche est l’apparition de cycles. C’est pour cela que la recherche
tabou possède une liste taboue afin de mémoriser les mouvements déjà effectués dans le
voisinage.
Cependant, plus cette liste est grande, plus elle prend de place en mémoire et plus il est
coûteux de vérifier qu’un voisin appartient déjà à cette liste. C’est pour cela, que les listes
taboues sont généralement de taille fixe.
De plus, il peut arriver qu’un mouvement particulier, qui appartient à la liste taboue puisse
cependant permettre l’obtention d’une meilleure solution. C’est pour cela que la recherche
tabou possède aussi un critère d’aspiration.
Ainsi, une solution est finalement acceptée si le mouvement qui l’a générée n’est pas tabou
ou si le critère d’aspiration est vérifié. L’algorithme 3 détaille en pseudo-code l’algorithme
classique de recherche tabou.
La mémoire à court terme : il s’agit de la liste taboue traditionnelle. Le principe est d’éviter de
faire des mouvements inverses pour ne pas regénérer des solutions déjà rencontrées. La taille
des listes taboues est une donnée critique. C’est pour cela qu’elle peut être fixe ou variable
voir même adaptative. Dans ce dernier cas, la taille évolue en fonction des solutions qu’elle
contient et du voisinage utilisé.
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 13
L’utilisation de ces trois mémoires n’améliore pas à coup sûr la recherche. En effet, l’efficacité
des processus d’intensification et de diversification sont intimement liés à la forme du paysage
de la fonction d’évaluation utilisée. En effet, si le paysage ressemble à une vallée, un processus
de diversification n’a pas d’intérêt et inversement si le paysage est un ensemble d’optima
locaux, la phase d’intensification risque d’astreindre la recherche dans certaines zones de
l’espace. Donc une étude préalable du paysage du problème doit permettre des choix
intelligents du paramétrage de ce type d’algorithme.
Voir Chapitre 4.
2.2.1- Principe :
Les algorithmes de colonies de fourmis sont des algorithmes itératifs à population où tous les
individus partagent un savoir commun qui leur permet d’orienter leurs futurs choix et
d’indiquer aux autres individus des choix à suivre ou à éviter.
La figure 10 illustre et confirme ce constat, une expérience a été faite par Gauss et
Deneubourg en 1989 appelée « expérience du pont à double branche », les fourmis qui
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 14
retournent au nid rapidement, après avoir visité la source de nourriture, sont celles qui ont
choisi la branche courte et les fourmis empruntant cette branche faisant plus d’aller retour, et
par conséquent la quantité de phéromones déposée sur la plus courte branche est relativement
supérieure que celle présente sur la plus longue branche. Puisque les fourmis sont attirées plus
vers les pistes de plus grande concentration en phéromones, alors la branche courte sera la plus
empruntée par la majorité des fourmis.
Une deuxième expérience consiste à examiner ce qu'il se passe dans le cas d'une modification
environnementale. Initialement, les fourmis utilisent un chemin donné (figure 11.a) entre le nid
(A) et la source de nourriture (E). Subitement, une bûche bloque le chemin d'origine. Les
fourmis sont donc contraintes de trouver un autre chemin. Dans le sens A vers E, les premières
fourmis à devoir faire ce choix auront la même probabilité de se diriger à gauche ou à droite de
l'obstacle car aucune autre fourmi ne sera passée avant elles. Il n'y a donc aucune trace
phéromonale (figure 11.b). Toutefois, une fourmi ayant choisi d'aller à droite (chemin BCD)
arrivera en D bien avant une fourmi ayant choisi la gauche. De plus la situation est identique en
ce qui concerne le sens E vers A (figure 11.c). Finalement, la quantité de fourmis utilisant l'axe
BCD est plus élevée que pour l'axe BHD ce qui entraîne une quantité de phéromone croissante
sur l'axe BCD. Après un certain laps de temps, toutes les fourmis devraient (statistiquement)
utiliser l'axe BCD (figure 11.d).
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 15
a) Recherche sans obstacle b) Apparition d’un c) Recherche du chemin d) Chemin optimal trouvé
obstacle optimal
Figure 11- Évolution du comportement des fourmis en fonction d'une modification de l'environnement
Plusieurs algorithmes sont inspirés du comportement des fourmis pour résoudre des
problèmes d’optimisation. Ces métaheuristiques partagent la même source d’inspiration
qu’offrent les fourmis et sont regroupées sous l’acronyme ACO (Ant Colony Optimization).
La liste des villes déjà visitées, qui définit les mouvements possibles à chaque pas, quand la
fourmi k est sur la ville i : J ik .
L’inverse de la distance entre les villes ηij = 1/dij , appelée visibilité. Cette information
statique est utilisée pour diriger le choix des fourmis vers des villes proches et éviter les villes
trop lointaines.
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 16
La quantité de phéromone τij(t) déposée sur l’arête reliant les deux villes i et j, appelée
l’intensité de la piste. Ce paramètre définit l’attractivité d’une piste et change à chaque
passage d’une fourmi. C’est en quelque sorte la mémoire du système, qui évolue par
apprentissage.
[ ij ( t )] .( ij )
si j J ik
pijk ( t ) k [ il ( t )] .(il )
l J i
0 si j J ik
Après un tour complet, chaque fourmi dépose une quantité de phéromones ijk ( t ) sur
l’ensemble de son parcours. Cette quantité dépend de la qualité de la solution trouvée et est
définie par :
Q
si ( i , j ) T k ( t )
ijk ( t ) Lk ( t )
0 k
si ( i , j ) T ( t )
où :
où :
m
ij ( t ) ijk ( t ) ,
k1
m est le nombre de fourmis,
ρ est un paramètre de réglage,
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 17
la quantité initiale de phéromone sur les arêtes est une distribution uniforme d’une petite
quantité 0.
1 Pour t = 1 , … , tmax
2 Pour chaque fourmi k = 1 , … , m
3 Choisir une ville au hasard
4 Pour chaque ville non visitée i
5 Choisir une ville j dans la liste J ik des villes restantes selon la formule
6 Fin
7 Déposer une quantité de phéromone ijk ( t ) sur le trajet Tk(t) selon la formule
8 Fin
9 Évaporer les phéromones selon la formule
10 Fin
Remarque :
La démarche initiée par cette analogie a été étendue à la résolution d’autres problèmes
d’optimisation, discrets et continus. Ainsi, l’algorithme de colonies de fourmis a pu s’adapter à
d’autres problèmes que le voyageur de commerce, en attribuant une signification plus générale
aux facteurs et .
2.3.1- Principe :
Au départ, ils cherchaient à simuler la capacité des oiseaux à voler de façon synchrone et leur
aptitude à changer brusquement de direction tout en restant en une formation optimale.
Les particules sont les individus et elles se déplacent dans l’hyperespace de recherche en se
basant sur des informations limitées :
Chaque particule est dotée d’une mémoire qui lui permet de mémoriser le meilleur point par
lequel elle est déjà passée et elle a tendance à retourner vers ce point.
Chaque particule est informée du meilleur point connu au sein de son voisinage et elle va
tendre à aller vers ce point.
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 18
Chaque individu utilise donc, non seulement, sa propre mémoire, mais aussi l’information
locale sur ses plus proches voisins pour décider de son propre déplacement. Des règles simples,
telles que « aller à la même vitesse que les autres », « se déplacer dans la même direction » ou
encore « rester proche de ses voisins » sont des exemples de comportements qui suffisent à
maintenir la cohésion de l’essaim.
Le déplacement d’une particule est influencé par les trois types de comportement :
Une composante cognitive : la particule tend à revenir vers le meilleur site par lequel elle est
déjà passée ;
Une composante sociale : la particule tend à se diriger vers le meilleur site déjà atteint par ses
voisins.
Dans n, la particule i (solution potentielle) de l’essaim est modélisée par son vecteur
position xi = (xi1, xi2, ..., xin) et par son vecteur vitesse vi = (vi1, vi2, ..., vin).
Cette particule garde en mémoire la meilleure position par laquelle elle est déjà passée, que
l’on note pi = (pi1, pi2, ..., pin). La meilleure position atteinte par toutes les particules de l’essaim
est notée pg = (pg1, pg2, ..., pgn).
Il est à noter que le terme « vitesse » est ici abusif car les vecteurs vi ne sont pas homogènes à
une vitesse. Il serait plus approprié de parler de « direction de déplacement ».
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique
Chapitre 5 : Techniques d'optimisation par métaheuristiques 19
vi (t+1)
pg
vi (t)
xi pi
L’algorithme 7 donne le pseudo code de la version la plus générale de l’OEP (la version
continue).
Le critère d’arrêt peut être différent suivant le problème posé et les exigences de l’utilisateur.
Si l’optimum global est connu a priori, on peut définir une « erreur acceptable » comme critère
d’arrêt. Sinon, on peut fixer nombre maximum d’itérations ou un nombre maximum
d’évaluations de la fonction objectif.
Remarque :
Cours : Techniques de l’Intelligence Artificielle Université Mohammed Seddik Ben Yahia - Jijel / Faculté des Sciences et de la Technologie
Enseignant : N. LOURCI Département d'Électrotechnique / 2ème année Master / Option : Commande Électrique